miércoles, 9 de abril de 2014

¿Puedo convertir mi HTC One M8 en un ‘Google Play Edition’?.

¿Puedo convertir mi HTC One M8 en un ‘Google Play Edition’?.




Para los que tenemos la dicha de tener o haber probado alguna vez un smartphone con la instalación de Android limpia, la que Google desarrolla para sus Nexus, seguramente que abras experimentado esa felicidad de ver que todo va rápido, sin ralentizaciones extrañas y que, además, cualquier nuevo ‘update’ del OS que llegue serás de los primeros en tenerla. Pues bien, si te gusta el HTC One M8 y quieres que sea una ‘Google Play Edition’, ya puedes conseguirlo.

Antes que nada, hay que decir que si no te quieres meter en el engorroso proceso de ‘rootear’ tu recién estrenado HTC One M8 por miedo a que haya algún problema o simplemente no quieres complicarte la vida, Google lo vende a través de su tienda a un precio que ronda los 700$ pero si no es así y has conseguido tu teléfono gracias a una operadora y sus precios especiales, entonces este proceso sí que les puede interesar.

El trabajo ha corrido a cargo del usuario de XDA Developers, graffixnyc, que ya nos ha dado algunas alegrías más en los últimos tiempos (HTC One M7) y por lo que cuenta en su hilo parece sencillo. Concretamente, su trabajo constó de dos grandes partes: la primera fue la realización de una copia de seguridad Nandroid que después restauró usando el Phil’s CWM.

En segundo lugar, graffixnyc desarrolló un ejecutable que trae la ROM como si se tratara de un ‘recovery flasheable’ del tipo update.zip que, juntos, funcionan como stock ROM + root. Con esas dos patas por separado, finalmente ‘fabricó’ la stock ROM Google Play Edition que podremos flashear a través de fastboot.Pero una vez contado cómo lo hizo, si quieres instalar en tu HTC One M8 no tienes más que acceder al siguiente link:


(ROM Google Play Edition) para descargar el archivo y flashearlo siguiendo las instrucciones que en él vienen. Lo cierto es que es más sencillo que en el caso de otros terminales.

Nota: Aunque el procedimiento es relativamente fácil aunque no lo parezca, debo aclara que al instalar una nueva ROM la garantía del teléfono queda anulada cosa de la que ya he comentado con anterioridad por lo que si decides realizar el cambio, piénsalo bien antes de hacerlo y no solo lo haga por impulso.

Más información:
 
 
 

¿Estás esperando a que GTA 5 llegue a PC?.

¿Estás esperando a que GTA 5 llegue a PC?.



Ya con anterioridad he comentado sobre los rumores de la salida de GTA 5 para PC. Muchos gamers están ansiosos por jugarlo en sus poderosas PC, pero pasa el tiempo y todavía no se ve muy claro el panorama sobre su lanzamiento para compatibles.

Pues si ya no soportas la espera, entonces quizás te interese saber que dentro de poco podrás visitar North Yankton, la ciudad secundaria de GTA 5, desde tu PC siempre y cuando cuentes con la versión de GTA 4 para PC. Los modders que están preparando el mod “North Yankton” para GTA 4 han lanzado un nuevo vídeo (http://www.youtube.com/watch?v=qOPWFGIwVyY&feature=player_embedded) que resume su progreso hasta la fecha. Aún no se sabe cuándo estará listo dicho mod, pero los modders han prometido que pronto se conocerá su fecha de lanzamiento.



El mod te permitirá explorar esta ciudad que estaba muy limitada en GTA 5. La visitabas dos veces: la primera en el inicio de la campaña (y básicamente avanzabas por un pasillo lineal) y la segunda ocasión casi al final de la aventura, con una libertad de movimientos más amplia.

La recreación de North Yankton para GTA 4 de PC se basa en la propia ciudad de GTA 5, que se podía explorar en GTA Online usando un glitch que fue solucionado posteriormente por Rockstar, su creadora.

Existen otros mods ambiciosos de este tipo como otro proyecto que intenta colocar parte del terreno de GTA 5 en el mapa de GTA 4. Es decir: quitar todo el contenido de GTA 4 para introducir todo lo que se pueda de Los Santos y alrededores.

Devuelve la barra de Inicio a Windows 8 con Classic Shell

Devuelve la barra de Inicio a Windows 8 con Classic Shell












Para los nostálgicos como yo, o para los que aun no se acaban de acostumbrar a un Windows sin la barra de inicio en el reciente Windows 8, les traigo la solución y según yo lo veo la comodidad de volver a tener la clásica barra de inicio, con los programas documentos incluso la opción para apagar el equipo, cambiar de usuario o reiniciar, todo sin tener que estar escribiendo nombres en la pantalla, ni estar jugando con el ratón en la esquina superior derecha del escritorio, ademas con la posibilidad nada despreciable, de manejar los menús con las flechas del teclado.

Pues la opción que encontré en la web se llama classic shell









Pueden descargar la aplicación y buscar mas información en la web del desarrollador:

  http://www.classicshell.net/

Una vez descargado, aunque esta en ingles, es muy intuitivo para instalar, ademas no pide reiniciar el equipo una vez finaliza la instalación.

Al finalizar nos pedirá que indiquemos si queremos el menú clásico de Windows XP o Windows 7

Yo escogí Windows 7, solo que en lugar del logo de Windows en la esquina inferior izquierda, me coloco el logo del programa Classic Shell



Ademas nos permite devolver el navegador y el explorador de Windows a versiones anteriores, ademas de poder personalizar las mismas.



El programa esta disponible en varios idiomas, lamentablemente aun no esta disponible en Castellano.

martes, 8 de abril de 2014

El antivirus “Virus Shield” para Android es un fraude.

El antivirus “Virus Shield” para Android es un fraude.



Este supuesto antivirus no brindaba ninguna protección. La web Android Police lo demostró y ahora Virus Shield fue retirado de la tienda de Google Play.

Virus Shield tenía más de 10,000 descargas, una valoración de 4,7 sobre 5 estrellas y estaba en el número 1 en ventas de nuevas aplicaciones de Google Play. Pero resultó ser un fraude.

Esta app se anunciaba como un antivirus que “impide que apps perniciosas se instalen en tu móvil” y costaba 3,99 dólares. Pero sus puntuaciones de valoración resultaron ser falsas. Así lo demostró la web Android Police que también reveló el código de Virus Shield, el cual comprobaba que…¡no hace absolutamente nada!

Salvo dibujar una marca sobre un escudo cuando tocas la pantalla, simulando que estás protegido contra supuestas amenazas, pero el código de programación de la app no te ofrece ningún tipo de protección. Tras la denuncia de Android Police, Virus Shield ha sido retirada de Google Play.

Mientras que esta estafa ha conseguido como mínimo 40,000 dólares, ahora sabemos que Google debería tener más seguridad con esto. Y nosotros, como usuarios, debemos estar más informados para comprobar si estas aplicaciones son de fiar.

Windows podrá estar disponible en automóviles con una interfaz similar a Windows 8.

Windows podrá estar disponible en automóviles con una interfaz similar a Windows 8.


Microsoft quiere que Windows no solo esté en tu PC, en tu tablet o en tu smartphone. Pronto estará disponible en toda una gran variedad de dispositivos, incluido los automóviles.

Durante una de las sesiones de Build 2014 se demostró las posibilidades de Windows en el ordenador de abordo de un automóvil. Aunque Windows no es un desconocido de estos sistemas, algunas marcas usan una versión muy especial de Windows para sus sistemas de navegación y entretenimiento, incluso en mapas, pero esta nueva generación será algo diferente, será una plataforma unificada, con una interfaz que será similar en diferentes marcas de automóviles que decidan incluirlo.




Microsoft no tiene fácil integrar Windows en los automóviles. Apple recientemente lanzó Apple Carplay como apuesta de llevar los dispositivos iOS a la integración con tu automóvil. Aunque también está Google con la Open Automotive Alliance, que intentará lo mismo que Microsoft, buscar que los fabricantes tengan la opción de integrar Android en los automóviles.


En realidad esto es más que integrar un sistema operativo en un automóvil. Se trata de hacer que los servicios como mapas, integración, música y servicios de este tipo de cada empresa estén disponibles con tu automóvil, pero aunque esto es una gran solución para los que disponen de un iPhone, Android o Windows Phone, se convierte en un problema en el momento en el que quieres cambiar de dispositivo.

lunes, 7 de abril de 2014

¿Ni asteroide ni cambio climático, el asesino global fue una bacteria?.

¿Ni asteroide ni cambio climático, el asesino global fue una bacteria?.



Las teorías sobre que acabo con casi todas las especies sobre la Tierra son varias y controversiales, la más sonada es la de un asteroide que impacto en la península de Yucatán en México, otros afirman que fue el resultado de varios fenómenos naturales al mismo tiempo. Una nueva investigación afirma que el causante fue algo mucho más pequeño e insignificante, pero extremadamente mortal.

La evidencia en la escena del crimen es abundante y global

Los restos fósiles muestran que en algún momento hace alrededor de 252 millones años, alrededor del 90 por ciento de todas las especies de la Tierra fueron súbitamente aniquiladas, la mayor de las extinciones masivas conocidas en este planeta. Pero encontrar a los culpables de esto ha sido controvertido y se han presentado muchas dificultades. Ahora, un equipo de investigadores del MIT puede haber encontrado pruebas suficientes para condenar a los culpables, pero usted necesita un microscopio para ver a los asesinos.



Micrografía electrónica de barrido de Archaea Methanosarcina, una arqueobacteria extremófila que puede vivir en condiciones límites que serían muy nocivas para otras formas de vida, es la única arqueobacteria metanógena anaerobia que usa las tres vías metabólicas conocidas para producir metano, y que experimenta cambios morfológicos importantes durante su crecimiento, que implican formas unicelulares y multicelulares. Anteriormente se creía que la causa de la extinción de más del 90% de la vida en el Pérmico-Triásico, una de las más grandes extinciones masivas en la historia de la Tierra, pudo deberse a la actividad volcánica, el cambio climático global, o el impacto de un asteroide. El nuevo estudio ha encontrado evidencias concluyentes que Methanosarcina, que ya vivía hace 252 millones de años, adquirió la capacidad genética de consumir carbono orgánico, que unido al aumento del níquel volcánico, otro factor de su crecimiento, hizo que iniciara una reproducción mucho más explosiva que un factor exponencial, en condiciones de concentración de dióxido de carbono muy semejantes a las concentraciones actuales en el siglo XXI. La exagerada producción y veloz aumento de la concentración de metano, que a la vez habría sido descompuesto por otros organismos en dióxido de carbono, aumentó aún más la concentración atmosférica de dióxido de carbono. La acumulación de estos dos gases provocó la rápida disminución de la concentración de oxígeno, y el mayor aumento de la acidez en los océanos, acentuando el incremento de la temperatura global y un severo cambio climático en el planeta, colateralmente bacterias anaerobias en las profundidades oceánicas liberaron masivamente hacia la atmósfera el gas sulfuro de hidrógeno que destruyó la capa de ozono dando lugar al aumento de la radiación ultravioleta, sometiendo así a toda la vida en la Tierra a un estrés de muerte, que causó la desaparición del 95% de la vida en los océanos y el 75% de la vida terrestre.

Esta nueva investigación sugiere que no fueron los asteroides, los volcanes, o los cíclicos cambios climáticos, los que causaron la mas grande masacre de la biósfera jamás nunca soportada por la Tierra. Eran más bien una forma de vida microscópica, invisible a simple vista, las bacterias del género de las arqueas productoras de metano llamadas Methanosarcina las que florecieron de una manera súper explosiva en los océanos, liberando enormes cantidades de metano a la atmósfera y cambiando radicalmente el clima y la química de los océanos. El metano es el gas de mayor efecto invernadero en la atmósfera terrestre.

Los volcanes, por supuesto, no están del todo exentos en estos eventos de acuerdo a este nuevo escenario; simplemente han sido reconsiderados como co-autores involuntarios en la masacre. La razón del repentina crecimiento explosivo de los microbios, según muestra la evidencia, puede haber sido su recién adquirida capacidad de utilizar una rica fuente de carbono orgánico, con la ayuda de una afluencia súbita de un nutriente requerido para su crecimiento: el elemento níquel, emitida por vulcanismo masivo en ese preciso momento.

La nueva solución a este misterio se publica esta semana en las Actas de la Academia Nacional de Ciencias (PNAS) por Daniel Rothman, profesor de Geofísica en el MIT, el postdoctoral Gregorio Fournier, y otros cinco investigadores del MIT y del Programa Nacional de Investigación Básica de China.

Los investigadores han encontrado tres conjuntos independientes de evidencias. En primer lugar, la evidencia Geoquímica muestra un aumento exponencial (o incluso más rápido) de dióxido de carbono en los océanos en el momento de la llamada extinción de finales del Pérmico. En segundo lugar, la evidencia Genética muestra un cambio de genes causado por intercambio de plásmidos (secuencias cortas de genes con información específica liberados al entorno celular) con otras bacterias en Methanosarcina en ese momento, lo que le permitió convertirse en un importante productor de metano a partir de una acumulación de carbono orgánico en el agua. Finalmente, los sedimentos muestran un aumento repentino en la cantidad de níquel depositado exactamente en este momento (sobretodo por las erupciones volcánicas de Siberia en ese período) un elemento muy importante para el desarrollo y reproducción óptima de Methanosarcina.



Según el Programa Internacional Geósfera-Biósfera (IGBP) sobre el cambio climático global, luego de una investigación científica que finalizó con un informe de 14 de noviembre 2013, que confirma un aumento en la acidificación de los océanos de 26% desde la revolución industrial hasta el presente. Los mismos estudios han proyectado para el 2100 un aumento de 170% de acidificación océanica, causado por el dióxido de carbono antropogénico. Los expertos concluyen además que los ecosistemas marinos y la biodiversidad se predisponen a cambiar, como resultado de la acidificación de los océanos, con consecuencias de gran alcance para la sociedad. La acidificación del océano es provocada directamente por las emisiones de dióxido de carbono de la actividad humana en la atmósfera, las que terminan en el océano. El legado histórico de las emisiones de los combustibles fósiles en la acidificación del océano se hará sentir durante siglos.

Los depósitos de carbono muestran que algo causó un repunte significativo en la cantidad de gases que contienen carbono -dióxido de carbono o metano- producido en el momento de la extinción masiva. Algunos investigadores han sugerido que estos gases podrían haber sido producidos por las erupciones volcánicas que dieron lugar a grandes emisiones de basalto siberiano, una gran formación de roca volcánica producida por erupciones en extensos registros geológicos de la Tierra. Pero los cálculos del equipo MIT han mostrado que estas erupciones no eran lo suficientemente importantes para explicar el carbono observado en los sedimentos. Aún más importante, los cambios observados en la cantidad de carbono en el tiempo no se ajustan al modelo volcánico.

“Una inyección inicial rápida de dióxido de carbono volcánico sería seguido por una disminución gradual de la misma “, dice Fournier. “En cambio, aquí vemos lo contrario: un aumento rápido y constante”.

“Eso sugiere una expansión microbiana de una especie particular”, añade: El crecimiento de las poblaciones microbianas es de los pocos fenómenos capaces de aumentar la producción de carbono de manera exponencial, o incluso mucho más rápido.

Ahí es donde el análisis genómico puede ayudar: Resulta que Methanosarcina había adquirido un medio particularmente rápido de formar metano, a través de la transferencia de genes de otro microbio, y el mapeo genómico detallado muestra ahora que esta transferencia ocurrió alrededor de la época de la extinción a finales del Pérmico. Dadas las adecuadas condiciones, esta adquisición genética preparó el escenario para que el microbio adquiera una etapa de crecimiento espectacular, con un rápido consumo de una gran reserva de carbono orgánico en los sedimentos oceánicos .

Pero hay una pieza final del rompecabezas: Esos organismos no habrían sido capaces de proliferar tan prodigiosamente si no hubiesen tenido la suficiente cantidad de nutrientes minerales adecuados para apoyarlos. Para este microbio en particular, el nutriente limitante es el níquel -que, en un nuevo análisis de sedimentos en China se demostró que aumentó dramáticamente después de las erupciones de Siberia (que ya se sabe que han producido algunos de los depósitos más grandes del mundo en níquel). Ésto proporcionó el combustible para el crecimiento ultra explosivo de Methanosarcina.

La repentina y espectacular producción de metano habría incrementado los niveles de dióxido de carbono en los océanos, lo que resultó en la acidificación océanica -similar a la acidificación de los océanos pronosticada por el cambio climático inducido por el hombre en la actualidad. La evidencia independiente sugiere que los organismos marinos con conchas fuertemente calcificados fueron eliminados preferentemente durante la extinción de finales del Pérmico, que es consistente con la acidificación océanica.

“Mucho de esto se basa en el análisis de isótopos de carbono”, dice Rothman, que es una excepcional, fuerte y clara prueba en esta parte del registro geológico. “Si no hubiera sido una señal tan inusual, sería más difícil de eliminar otras posibilidades”.

John Hayes, investigador del Instituto Oceanográfico Woods Hole, que no participó en la investigación, dice que esta obra es “una notable combinación de Física, Bioquímica y Geoquímica. Esto surge de muchos años de trabajo excepcional y paciente, que han proporcionado una escala de tiempo muy refinada para los eventos que acompañaron a la más severa extinción de la biósfera soportada por la Tierra a través de todas las eras”.

La investigación fue financiada por la NASA, la National Science Foundation, la Fundación de Ciencias Naturales de China, y el Programa Nacional de Investigación Básica de China.

Más información:
http://newsoffice.mit.edu/2014/ancient-whodunit-may-be-solved-microbes-did-it
 

Crean seda de araña sintética, cinco veces más fuerte que el acero.

Crean seda de araña sintética, cinco veces más fuerte que el acero.



Si la tela de araña natural ya es de por sí más resistente que el acero (no en vano es la fibra natural más fuerte que conoce la humanidad), un equipo de científicos americanos ha creado una seda de araña sintética que es hasta cinco veces más fuerte que este metal. El estudio ha sido publicado en la revista Chemical & Engineering News de la American Chemical Society.

La resistencia y la elasticidad de la tela de araña la han convertido en foco de estudio durante años, donde los científicos han estado tratando de crear una versión sintética de la misma en el laboratorio. El hilo de la araña es una proteína muy compleja y por ello el desafío de fabricación de una tela de araña sintética ha provocado la retirada de grandes empresas como DuPont y BASF tras infructuosos años de inversión.

Ahora, gracias a que esta investigación ha llegado a su fin puede hablarse de comercialización del producto sin pestañeos y los científicos esperan que la producción comience una progresión ascendente cuando se planteen los posibles usos de esta seda de araña sintética extra fuerte. De hecho, algunos de los campos y aplicaciones útiles de la misma podrían ser en chalecos antibalas de los cuerpos de seguridad o incluso en implantes médicos.

sábado, 5 de abril de 2014

El próximo 8 de abril se actualiza Windows 8.1 y se des actualiza Windows XP.

El próximo 8 de abril se actualiza Windows 8.1 y se des actualiza Windows XP.


Desde hace ya unas semanas que tengo instalado el Update 1 y hasta la fecha, no he tenido alguna queja, este mes de abril no será uno más en la política de actualizaciones mensuales de Microsoft. La fecha del 8 de abril marcará dos sucesos clave. Por un lado, la será la última fecha en la que Windows XP recibirá actualizaciones de seguridad. Pero además, la compañía va a aprovechar para lanzar una nueva actualización gratuita de Windows 8 que traerá novedades muy interesantes, como por ejemplo la inclusión (por fin) de un botón para apagar y reiniciar el equipo desde la pantalla principal o la posibilidad de anclar apps que descarguemos en la tienda directamente en la barra de tareas del escritorio. Te contamos las principales novedades que llegarán dentro de unos días y cómo descargar la actualización Windows 8.1 Update.

Botón de apagado
Una de las grandes novedades de esta actualización será la inclusión de un botón de apagado en la pantalla principal. Parece que Microsoft por fin ha escuchado las críticas de los usuarios y ahora contaremos con un icono en forma de botón tanto para apagar el dispositivo como para reiniciar el equipo o colocarlo en modo de suspensión. Este botón se colocará en la parte superior derecha junto a la imagen de usuario. Además, también colocará un icono de búsqueda para acceder a esta útil función, aunque en este caso ya podíamos usar esta característica con solo comenzar a teclear un término en la pantalla principal de Windows.



El ratón cobra protagonismo


Otra de las claves de esta actualización de Windows 8.1 Update será el mayor protagonismo que cobra el ratón en el manejo de la plataforma. De hecho, Microsoft ha hecho concesiones para generar una experiencia más cercana a lo que ya hemos vivido con anteriores versiones de Windows. Una vez se realice esta actualización, cuando arrastremos el ratón a la parte superior de una app que se esté ejecutando podremos acceder a un botón para minimizar y otro para cerrar la aplicación. Asimismo, si arrastramos el ratón a la parte inferior se abrirá la barra de tareas del escritorio. Sin duda, se trata de un importante cambio de concepto para los usuarios que utilicen habitualmente el ratón.

La nueva utilidad de la barra de tareas
Precisamente, la barra de tareas se va a volver a convertir en un centro importante de la actividad en Windows 8. Con la actualización, un icono de la tienda de apps de Windows se anclará en esta barra. Pero no es el único icono que podremos anclar a esta barra. También podremos realizar esta función con las distintas aplicaciones de la tienda oficial. Con este movimiento, Microsoft busca unificar la experiencia de uso de Windows 8.1 a través del escritorio y la interfaz principal, que hasta ahora parecían plataformas diferentes en un mismo sistema.



Navegación en Internet Explorer y mayor eficiencia


La compañía también ha puesto el acento en Internet Explorer. El navegador más veterano del mercado identificará automáticamente el tamaño y el tipo de pantalla que tiene el dispositivo que estamos utilizando. Además, la nueva actualización se ha optimizado para reducir los requisitos técnicos necesarios para correr con fluidez este sistema. De este modo, los equipos que tengan una memoria RAM de 1 GB y una capacidad de almacenamiento de 16 GB podrán utilizar Windows 8.1 Update. No hay que dar muchas vueltas para comprender que se trata de un movimiento pensado para favorecer la migración desde equipos antiguos con Windows XP.

Mejoras en el campo empresarial


Finalmente, con Windows 8.1 Update también llegarán varias novedades en el campo de la empresa, como por ejemplo una herramienta para poder correr en el nuevo Internet Explorer las aplicaciones web desarrolladas para la versión antigua de Internet Explorer 8. O la compatibilidad con soluciones MDM (Mobile Device Management) para facilitar la introducción de dispositivos móviles en la infraestructura de la empresa.

Para disfrutar de esta actualización, el requisito esencial es contar con la actualización de Windows 8.1 instalada en su equipo (esta actualización es gratuita para los usuarios que tengan Windows 8). Los usuarios que tengan activada la herramienta Windows Update recibirán la actualización Windows 8.1 Update de forma automática a partir del próximo día ocho de abril. En caso de no recibir esta actualización, se podrá realizar la descarga de forma manual a través de la tienda de Microsoft.

Microsoft publica una alerta por una nueva vulnerabilidad 0-day en Word.

Microsoft publica una alerta por una nueva vulnerabilidad 0-day en Word.




Hace poco comentaba sobre una vulnerabilidad 0-day que afectaba a varias versiones de Word (2007, 2010 y 2013). Ahora se ha descubierto un nuevo 0-day y
Microsoft ha publicado un boletín de urgencia en el que alerta de una vulnerabilidad en Microsoft Word. Según informa, en la actualidad se están produciendo ataques dirigidos contra Word 2010 (aunque el problema afecta a todas las versiones soportadas de Word).

La vulnerabilidad (con CVE-2014-1761) puede permitir la ejecución remota de código si el usuario abre un archivo RTF con una versión afectada de Word, o pre visualiza o abre un mensaje de correo RTF específicamente creado con Microsoft Outlook mientras se usa Word como visor de correo (configuración por defecto en Outlook 2007, 2010 y 2013).

Microsoft ha publicado una corrección temporal en forma de "Fix it" que bloquea el ataque. Hay que señalar que este parche no corrige la vulnerabilidad sino que aplica cambios que impiden la apertura de contenido RTF en Word. Como otras contramedidas Microsoft recomienda la lectura de correo electrónico en Outlook en texto plano o usar la política Microsoft Office File Block para evitar la apertura de archivos RTF en Microsoft Word.

También se recomienda la instalación de EMET (Enhanced Mitigation Experience Toolkit). Esta herramienta combate las técnicas de evasión de DEP y ASLR y otros métodos de "exploiting" conocidos. EMET 3.0 y EMET 4.0 tienen soporte oficial de Microsoft. EMET es un programa de Microsoft gratuito, (solo disponible en lenguaje ingles) sencillo de manejar y de gran utilidad. En el aviso de seguridad de Microsoft se explican detalladamente los pasos para su adecuada configuración.


Más información:

Microsoft Security Advisory (2953095) Vulnerability in Microsoft Word Could Allow Remote Code Execution
http://technet.microsoft.com/en-us/security/advisory/2953095

¿Conoces cual es la importancia de las barras de progreso?.

¿Conoces cual es la importancia de las barras de progreso?.



¿Quien no conoce las barras de progreso, a quien no le ha pasado que copiando un archivo o archivos de gran tamaño, le aparece en la barra de progreso que tardará unos 5 minutos, luego dice que 15 minutos y unos segundos después te dice que 6 minutos y así va cambiando, creando una incertidumbre sobre el tiempo real que tardará en copiarse el o los archivos?.



El asunto es que fuera de la falsa expectativa que causan las barras de progreso, sin ellas nuestras vidas delante de una computadora fueran algo frustrantes, para el que trabaja esporádicamente con una computadora o conoce muy poco sobre ellas, este tema puede ser trivial, pero si te estas riendo en este momento es por que usas computadoras desde hace ya bastante tiempo o la usas constantemente.

¿Cuántas veces al día maldecimos a la barra de progreso?

Ya sea en la pantalla de carga de un videojuego, cuando copiamos un archivo o en la instalación de una suite de programas, este acompañante siempre está con nosotros cuando utilizamos el equipo. En más de una ocasión he dicho estas palabras cuando veo que la barra de progreso no camina, “como que se le hizo un nudo al cable y no pasa la información”.

¿Qué pasaría si un día nos quedáramos sin ella?

Esto es lo que se preguntó un estudiante de ciencias de la computación en 1985, descubriendo que los usuarios preferían una barra de progreso “falsa” que estar esperando sin ver cómo avanza su búsqueda.

A comienzos de los años 80, los usuarios no sabían el tiempo que les quedaba a la hora de instalar un programa, y eso creaba cierta confusión. Por ello, en el año 1985 un estudiante de informática llamado Brad A. Myers presentó un trabajo llamado “indicadores de progreso en porcentaje” en el que explicaba la utilidad de la barra de progreso.



Myers solicitó a 48 estudiantes que hicieran búsquedas en una base de datos de un computador con y sin la barra de progreso. Una cápsula se iba rellenando de izquierda a derecha. Un 86% de los estudiantes afirmaron que les gustaba la presencia de dicha barra y que no les importaba en demasía si su precisión era del todo correcta o no, ya que les aportaba tranquilidad tener delante la presencia de ese elemento.

El resto de la historia ya la conocen, ya que es un sistema que los creadores de software continúan utilizando hoy en día.

Después de haber leído estas líneas y conocer de donde proviene las dichosas barras de progreso, ¿les tranquiliza ver la barra de progreso cuando realizamos una tarea o preferirían no tenerla?, creo que la mayoría responderá que “SI”.

jueves, 3 de abril de 2014

¿El futuro de los discos duros está en los nano materiales?.

¿El futuro de los discos duros está en los nano materiales?.



Con el transcurrir del tiempo, se ha avanzado enormemente en la tecnología de los discos duros, su rapidez, capacidad y confiabilidad ha crecido logarítmicamente desde mi primer disco duro de 5 1/4” y 20 MB. El asunto es que todavía siguen enfocados en el almacenamiento magnético, además del mecanismo mecánico el cual pienso que no puede competir con los discos de estado solido en cuanto a velocidad, si se invirtieran esfuerzos para aumentar la capacidad de los discos SSD y colocarlos a la par de los mecánicos, eso si seria un buen salto, claro está, equiparando los precios de ambos ya que un disco SATA 3 de 2 TB cuesta aproximadamente $76, más o menos lo mismo que un disco SSD de 128 MB ya que un disco SSD de 1 TB puede rondar los $240 y uno de 2 TB puede pasar los $8.000, como verán, los precios son algo prohibitivos.

El futuro de los discos duros

Un equipo de físicos ha creado un nuevo tipo de nano material que cambia dramáticamente de estado magnético cuando se calienta o se enfría ligeramente. Este efecto, que jamás había sido en visto en ningún material, podría conducir a la creación de nuevos tipos de memoria informática: los discos duros del futuro.

La coercitividad magnética, que mide la resistencia de un material ferromagnético a ser desmagnetizado, divide los materiales en duros o blandos desde el punto de vista magnético. Los blandos se encontrarían en dispositivos de microondas u ondas lectoras magnéticas; y los duros, los encontraríamos en discos duros o medios de grabación magnéticos. Pero la coercitividad también depende de la temperatura. Aunque por lo general ésta cambia gradualmente cuando la temperatura del imán sube o baja, el nuevo material desarrollado por el equipo de físicos de la Universidad de California (EEUU) pone en duda esta afirmación.

Este nuevo nano material está compuesto de níquel y óxido de vanadio, y tras varios cambios drásticos de temperatura, llegando hasta los -153 grados centígrados, comprobaron que con cada cambio la coercitividad del material cambiaba de forma contundente (y no gradual). El índice de subida de coercitividad magnética de este material fue el más alto que se ha visto en ningún componente hasta la fecha, dentro de una gama de temperaturas similares.

El trabajo, que ha sido publicado en la revista Applied Physics Letters, vaticina que este hallazgo podría sentar las bases de los discos duros del futuro. Un disco que mantendría sus elementos de memoria a una temperatura de alta coercitividad la mayoría de las veces y que se calentarían ligeramente para reescribir sobre él, lo que conduciría a una gran mejora en este tipo de componente informático.

miércoles, 2 de abril de 2014

La historia de Windows XP.

La historia de Windows XP.



Falta solo una semana para que Microsoft termine de colocarle el clavo final al ataúd de Windows XP que ha sido el mayor rival de Windows 7 y 8. Use Windows XP por más de una década y deje de usarlo no por ser malo sino que tenia que adaptarme a los nuevos tiempos y tecnologías, ahora quiero dedicarle algunas líneas para que conozcan su historia.

Catorce años son muchos años incluso para Windows XP

El sistema operativo fue un cambio fundamental en la historia de Microsoft y quizás su producto más importante. Fue el primer sistema operativo dirigido al mercado de masas completamente basado en Windows NT e introdujo cambios fundamentales en la interfaz que pretendían proporcionar una nueva experiencia a sus usuarios. Pero por encima de todo fue un éxito indudable.

Windows XP ha durado más que ningún otro sistema operativo de Microsoft. Diez años después de su salida nadie se acordaba de Windows 95, 98 o Me. Incluso el posterior Windows Vista ha quedado relegado antes al olvido. Pero con catorce años a sus espaldas XP ha demostrado una longevidad y resistencia extraordinarias, manteniendo aún cerca de un 30% de cuota de mercado. A escasos días del fin de su soporte es un gran momento para recordar la historia del mítico XP.
Neptune, Odyssey y el desarrollo inicial

La historia del desarrollo de Windows XP es la historia de varios proyectos previos que definirían el futuro sistema y cambiarían para siempre la forma de trabajar de Microsoft. Dos fueron los nombres en clave que pusieron el combustible: Neptune y Odyssey; y un tercero el que hizo saltar la chispa: Whistler. Tras ellos las cosas en Redmond ya no volverían a ser las mismas.



Por un lado, Neptune era el nombre en clave con el que en Redmond empezaron a denominar a la próxima versión de Windows de la rama 9x, aquella dirigida al mercado de consumo y al hogar. Su desarrollo se puso en marcha en febrero de 1999, tan sólo siete meses después de la salida al mercado de Windows 98 y con Windows Me aún en el horno. Con ellos compartía mercado objetivo pero no código base, el cual pasaría a ser Windows NT. Por otro lado, el nombre de Odysseyescondía la otra versión de Windows en desarrollo, la de la rama NT orientada al mercado profesional y a las empresas. El proyecto fue puesto en marcha el mismo año 1999 y, al igual que Neptune, estaba basado en Windows 2000.

Lejos de mantener dos ramas de desarrollo por separado, Whistler modificó el funcionamiento de la división de Windows y únifico esfuerzos en un solo sistema

El tiempo terminó de dejar claro que no tenía sentido mantener las dos ramas de desarrollo por separado y antes de que terminase el año los de Redmond pusieron las cosas en su sitio. Neptune y Odyssey apenas se habían dejado ver, y menos públicamente, pero en diciembre de 1999 terminaría su recorrido. La dirección de Microsoft recibió a los empleados a la vuelta de las vacaciones de navidad con un memorándum interno en el que explicaba la unificación de las dos ramas de desarrollo de Windows bajo un nuevo proyecto con el nombre de Whistler, localidad donde esquiaban muchos de los empleados de la compañía.

Whistler modificó el funcionamiento de la división de Windows. En vez de desarrollar un sistema para cada sector del mercado Microsoft había entendido que las dos áreas se interrelacionaban y era necesario un sistema capaz de servir en los dos ámbitos: doméstico y profesional. Con los esfuerzos concentrados en un único sistema el equipo de desarrollo podría concentrarse en uno acorde con el nuevo milenio. Serían años en los que millones de usuarios adquirirían ordenadores personales y comenzarían a acceder a internet. El próximo Windows debería estar preparado.
Whistler, entretejiendo un sistema moderno

Bill Gates reveló al mundo la existencia de Whistler a finales de abril del año 2000 en la conferencia WinHEC. Con su presentación Gates, que ya no ocupaba el cargo de CEO en Microsoft, desveló las intenciones de su compañía de crear un sistema moderno, robusto y optimizado para todos los ámbitos. En Redmond empezaban a tomarse en serio los cambios en la interfaz y en la experiencia de usuario y por delante tendrían un año para demostrarlo.

El 24 de mayo empezó la fase de pruebas de Whistler con el envió de las primeras invitaciones a su beta técnica. A partir de ahí empezaron a llegar periódicas builds en las que los de Redmond iban añadiendo los elementos que constituirían el futuro de su sistema operativo: un nuevo menú de inicio a dos columnas que sustituía la menú clásico, una nueva organización del espacio de usuario con la llegada de Mis Documentos y demás carpetas, un nuevo Panel de Control, etc. Todas esas novedades tenían en común un nuevo modo de entender la experiencia con Windows, basada en las diferentes tareas y acciones que el usuario medio realizaba con su ordenador personal.



El cambio que ya se entreveía era aún más profundo en las tripas del sistema. La nueva base de NT proporcionaba estabilidad al sistema pero exigía un arduo trabajo para asegurar la compatibilidad de hardware y software, asunto que pronto se convirtió en prioridad en Redmond. Las builds siguientes ahondaron en ello e incorporaron el centro de compatibilidad que pretendía facilitar la tarea a los usuarios a la hora de buscar hardware compatible. La renovada interfaz tuvo que esperar.

Microsoft quería cambiar la experiencia que los usuarios tenían con Windows. Whistler debía ser más amigable y cálido para el usuario y para ello era necesaria una nueva interfaz. Builds previas y la Beta 1 de octubre habían ido revelando detalles de lo que en Redmond preparaban, pero hubo que esperar hasta los primeros meses de 2001 para empezar a ver el resultado.
Una nueva interfaz para una nueva “eXPeriencia”

En la keynote del CES del 5 de enero de 2001, más recordada por la presentación de Xbox, Bill Gates mostró al mundo los primeros retazos de la nueva interfaz de Whistler. Ahí estaba la nueva pantalla de bienvenida, la opción de múltiples cuentas de usuarios o el nuevo menú de inicio. El cambio era significativo pero no radical. Microsoft se aseguró de conservar múltiples similitudes con las versiones previas de Windows sin renunciar a la introducción de una nueva experiencia.



La mejora de la experiencia se convirtió en el leitmotiv de Whistler. Conforme se sucedían las builds, las primeras semanas de 2001 dejaron claro que el desarrollo del nuevo sistema se estaba acelerando. Con el objetivo de salida al mercado puesto en la segunda mitad del año, Microsoft necesitaba un nombre para su próximo sistema operativo y la elección se hizo pronto evidente. El 5 de febrero Microsoft anunció que Whistler llegaría al mercado con el nombre de Windows XP, etiqueta que recordaba claramente a esa nueva y mejorada “eXPeriencia” que estaban construyendo.

Con el nombre de Windows XP recién estrenado, Microsoft no tardó en mostrar al mundo su nueva interfaz ‘Luna’, más colorida y alejada de la sobriedad de Windows previos

Tan solo unos días después de estrenar nombre Microsoft presentó oficialmente lo interfaz de Windows XP al mundo el 13 de febrero de 2001 en el evento Experience Music Project (EMP) en Seattle. Ya no había marcha atrás y lo que quedaban por delante eran meses de más y más builds. Tras más de un retraso, una segunda Beta sería entregada a los testers el día 26 de marzo con un Bill Gates dejando claras las intenciones de Microsoft de construir un único sistema capaz de desenvolverse en diferentes ámbitos gracias a una nueva interfaz y a la mejorada experiencia que con ella pretendían proporcionar.

‘Luna’ fue el nombre escogido por los de Redmond para la interfaz de Windows XP. Alejada de la sobriedad de Windows 9x y 2000, el nuevo diseño del sistema despertó recelos por su supuesta inadecuación para el mercado empresarial. La gama de colores elegida y el tamaño de algunos elementos tampoco ayudaban. Microsoft tomó buena nota de las quejas y corrigió algunos de los defecto además de añadir más opciones de personalización al equipo, incluyendo un tema clásico que le devolvía al sistema operativo el aspecto de versiones previas. La resistencia al cambio siguió existiendo incluso tras la salida de Windows XP pero Luna termino por convertirse en una de las interfaces de ordenador más reconocibles de la historia.
Builds y Betas, una fase de pruebas intensa

Durante el desarrollo de Windows XP en Redmond pusieron en marcha un extenso programa de pruebas previo como nunca se había hecho hasta entonces. La llegada de la Beta 2 no hizo más que extenderlo. Microsoft distribuyó la nueva versión de prueba a través de varios canales, incluyendo el programa propio de la beta, la red de desarrolladores de Microsoft (MSDN) y TechNet. La compañía quería asegurar a toda costa el perfecto funcionamiento de Windows XP, para lo que necesitaban contar con empleados, desarrolladores, partners y consumidores. Las pruebas de Windows ya no volverían a ser una tarea meramente interna.

Builds y más builds iban apareciendo cada pocas semanas introduciendo nuevos detalles. En abril llegó la marca de Windows XP a la pantalla de bienvenida, nuevos iconos para el menú inicio y más fondos de pantalla. Entre estos últimos se encontraba Bliss, la fotografía de cielo azul y verdes colinas tomada en el Valle de Napa en Califiornia que se convertiría en el fondo de pantalla por defecto de Windows XP, y con ello en una de las fotografías más vistas de la historia.



Las builds de mayo trajeron cambios y mejoras en numerosos apartados: en los drivers de red, en el sistema de plug and play, en la gestión de energía, en los tiempos de carga, en la seguridad, etc. En junio las cosas avanzaron un poco más. Llegó Windows Messenger y la pantalla de inicio con el logo sobre fondo negro, además de los últimos retoques en la interfaz que prácticamente se dio por finalizada. Además, el 18 de junio Microsoft hizo públicos los requisitos mínimos de hardware de Windows XP: procesador Intel a 233 MHz o compatible y 128 MB de RAM; y el 21 anunció la pronta llegada de la Release Candidate 1 (RC1) de Windows XP.

El 2 de julio de 2001 Microsoft publicaría finalmente la RC1 de Windows XP, la primera versión accesible para las más de 250 mil personas que se habían apuntado al Windows XP Preview Program (WPP). Será la primera vez que todos ellas vean el nuevo sistema aumentando aún más la cifra de testers de Windows XP. En Microsoft llegaron a cifrar el número en medio millón de usuarios que proporcionaron un feedback inestimable para la compañía.
RC1, RC2 y RTM: el sprint final



Microsoft fijó el 25 de octubre de 2001 como fecha de salida de Windows XP. Hasta entonces quedaba poco camino por delante, pero los meses de verano presentaron varios retos importantes para la compañía de Redmond. Empezando por la torpeza de Amazon que el 7 de julio desvelaría la caja en la que vendría el sistema operativo al poner el sistema a la venta en su sitio web mucho antes de tiempo. Descuido que la tienda online volvería a repetir meses después. Pero los errores de Amazon eran el menor de los problemas en el verano de 2001.

Microsoft tuvo que cumplir con algunas de las medidas antimonopolio impuestas por las autoridades estadounidenses. La compañía se vio obligada a cambiar su política de licencias para los fabricantes permitiendo a estos mayor flexibilidad a la hora de configurar el sistema. Eso suponía que en el futuro podrían eliminar los accesos a Internet Explorer y Outlook e incluso sustituir el navegador por otro. Además en Redmond tuvieron que dar marcha atrás en su intención de limitar la presencia inicial de iconos en el escritorio de Windows XP y permitir a los fabricantes colocar los suyos propios.

Las modificaciones se hicieron visibles en la Release Candidate 2 (RC2) de Windows XP, liberada el 27 de julio. La nueva versión apenas incluía otras novedades y el proceso de prueba se acercaba a su final. Este se hizo efectivo el 24 de agosto de 2001 cuando Microsoft publicó la build 2600 y la declaró como RTM (Ready To Manufacturers). Con un evento en su campus de Seattle, Microsoft escenificó la entrega de Windows XP a los fabricantes, cuyos representantes recibieron copias del sistema operativo y despegaron de Redmond en helicópteros decorados con la marca XP.

En agosto de 2001 Microsoft terminó Windows XP y escenificó su entrega a los OEMs con un evento en su sede Seattle que los representantes de diversos fabricantes abandonaron en helicóptero

Los fabricantes ya podían preparar sus nuevos equipos con Windows XP y podrían ponerlos a la venta a partir del 24 de septiembre, un mes antes de la llegada oficial al mercado. Windows XP se estrenó finalmente en las tiendas el 25 de octubre de 2001. El sistema llegó a los escaparates en dos versiones principales “Home” y “Professional” dando inicio a la larga vida del mítico XP.
El tímido inicio de un sistema destinado a reinar

A pesar de la relevancia del cambio que traía consigo Windows XP, el sistema llegó al mercado de una forma más sigilosa de la esperada. Microsoft y sus socios habían preparado una campaña de marketing de mil millones de dólares para presentar Windows XP al mundo, pero los planes se vieron afectados por los efectos de los ataques del 11 de septiembre. El nivel de promoción del nuevo sistema bajo y se modificó la campaña. Microsoft llegó incluso a trasladar la presentación definitiva del sistema en la PDC de 2001 a Nueva York, en una muestra de apoyo a la ciudad.



La presentación tuvo a Bill Gates como protagonista, quién mostró su vena más humorística, concurso de“¿Quién quiere ser millonario incluido?”, mientras nos guiaba por la nueva experiencia que proporcionaba Windows XP. La interfaz Luna, el renovado menú de inicio, los centros de actividades, las nuevas carpetas, etc. Todo ello con un sistema estable y robusto adaptado a la era moderna. El sistema había evolucionado y Windows XP tenía todas las papeletas para ser un éxito de ventas.

Pero las cosas no empezaron de manera sencilla. La menor repercusión de su salida repercutió en las ventas iniciales de Windows XP. En sus primeros meses su ratio de venta llegó a ser menor que el de Windows 98. Además Microsoft tuvo mucho trabajo tratando de convencer de las bondades del cambio a un siempre reticente mercado. No faltaron las quejas por la colorida y poco seria interfaz luna, las críticas por la falta de compatibilidad con determinado hardware y software y los lamentos por los fallos de seguridad de los que adolecía el sistema.

A pesar del crítico recibimiento y la insistencia de algunos usuarios en permanecer en Windows 98 y Windows Me; Windows XP terminó por arrancar e imponerse. Los motivos se explican por sí solos. Con la llegada del nuevo milenio millones de personas adquirían nuevos ordenadores personales y se unían a internet, y cada nuevo equipo a la venta llegaba con Windows XP instalado. El sistema además no hizo sino mejorar y para los más veteranos pronto se hizo evidente que no tenía sentido seguir con versiones previas de Windows. El soporte para hardware y software crecía a buen ritmo y las mejoras introducidas terminaban por inclinar la balanza. En pocos años la mayoría de usuarios ya había hecho el cambio.



Por si fuera poco Microsoft se aseguró de mejorar el sistema con los tres Services Packs que fueron publicados posteriormente. El primero de ellos no tardaría ni un año en llegar, solucionando más de 300 pequeños errores, añadiendo todos los parches de seguridad hasta la fecha e incorporando soporte para USB 2.0 y nuevas tecnologías que pronto serían utilizadas por las ediciones Media Center y Tablet PC de Windows XP. El Service Pack 2 tardaría algo más. Llegaría el 25 de agosto de 2004 y con él el Windows Security Center además de mejoras en el soporte WiFi y Bluetooth. El tercero de los Service Packs no llegaría hasta el 2008, corrigiendo errores e incluyendo más actualizaciones de seguridad. Los tres no hicieron más que contribuir a la extraordinaria longevidad de un sistema operativo único en la historia.
Windows XP, un imperio irrepetible

Con catorce años a sus espaldas, Windows XP es el sistema operativo de Microsoft que más tiempo ha durado. Los de Redmond incluso se vieron obligados a extender su soporte más allá de los diez años inicialmente estipulados. Sus novedades, la evolución que supuso y el tremendo dominio del que llegó a hacer gala explican en gran medida su éxito, pero también lo hace la falta de un sustituto en condiciones.

Las novedades que trajo consigo, la evolución que supuso y el tremendo dominio del que Windows XP llegó a hacer gala, con más de un 80% de cuota de mercado, explican en gran medida su éxito, pero también lo hace la falta de un sustituto en condiciones

Tras Windows XP en Redmond decidieron embarcarse en Longhorn, un ambicioso proyecto que pretendía reconstruir Windows con un renovado conjunto de APIs y un nuevo sistema de archivos. Lo gigantesco de la tarea terminó haciéndose evidente más pronto que tarde y tras varios retrasos el proyecto fue finalmente abandonado en pos de una nueva versión de Windows menos ambiciosa y más conservadora: Windows Vista. El sustituto de XP nunca llegó a cuajar en el mercado y Microsoft se vio envuelta en un error del que el propio Steve Ballmer se lamentaría años después.

Windows XP se había adueñado del mercado y nada parecía poder desplazarlo. Solo la llegada de Windows 7 pudo empezar a arañar algo de cuota al aplastante dominio que XP mantenía. En su momento de más auge llegó a estar instalado en más del 80% de los ordenadores personales de todo el mundo, cifra que probablemente ningún otro sistema operativo llegue a alcanzar jamás. No habrá nunca otro sistema operativo con semejante dominio en el mercado de PCs. Pero 14 años son mucho años y ha llegado la hora de dejar descansar al viejo XP, se lo ha ganado con creces.

Descubierta una vulnerabilidad 0-day en Microsoft Word.


Descubierta una vulnerabilidad 0-day en Microsoft Word.



Microsoft ha publicado un boletín de urgencia en el que alerta de una vulnerabilidad en Microsoft Word. Según informa, en la actualidad se están produciendo ataques dirigidos contra Word 2010 (aunque el problema afecta a todas las versiones soportadas de Word).

La vulnerabilidad (con CVE-2014-1761) puede permitir la ejecución remota de código si el usuario abre un archivo RTF con una versión afectada de Word, o previsualiza o abre un mensaje de correo RTF específicamente creado con Microsoft Outlook mientras se usa Word como visor de correo (configuración por defecto en Outlook 2007, 2010 y 2013).

Microsoft ha publicado una corrección temporal en forma de "Fix it" que bloquea el ataque. Hay que señalar que este parche no corrige la vulnerabilidad sino que aplica cambios que impiden la apertura de contenido RTF en Word. Como otras contramedidas Microsoft recomienda la lectura de correo electrónico en Outlook en texto plano o usar la política Microsoft Office File Block para evitar la apertura de archivos RTF en Microsoft Word.

También se recomienda la instalación de EMET (Enhanced Mitigation Experience Toolkit). Esta herramienta combate las técnicas de evasión de DEP y ASLR y otros métodos de "exploiting" conocidos. EMET 3.0 y EMET 4.0 tienen soporte oficial de Microsoft. EMET es un programa de Microsoft gratuito, (solo disponible en lenguaje ingles) sencillo de manejar y de gran utilidad. En el aviso de seguridad de Microsoft se explican detalladamente los pasos para su adecuada configuración.


Más información:

Microsoft Security Advisory (2953095) Vulnerability in Microsoft Word Could Allow Remote Code Execution
 

La fórmula para purificar el agua en el futuro puede ser el titanio, grafeno y luz solar.

La fórmula para purificar el agua en el futuro puede ser el titanio, grafeno y luz solar.



Ya hace unos tres años que comentaba sobre como purificar el agua de manera económica y practica en los hogares cuando el agua de la tubería no consideras que es lo suficientemente salubre. Pues bien, los gobiernos de los países desarrollados invierten millones en sistemas para purificar el agua servida de manera que este llegue a los grifos de los hogares lo más pura posible.

Nuevo sistema para purificar el agua

Un equipo de expertos en ciencias ambientales de la Universidad de Dublín, en Irlanda, coordinado por Anne Morrissey, ha ideado un nanomaterial a partir de dióxido de titanio (TiO2) y láminas de grafenoque, cuando es estimulado por la luz solar, permite limpiar el agua de pesticidas, fármacos y otras sustancias peligrosas para la salud.

El TiO2 es un compuesto utilizado como blanqueante en la pasta de dientes, papel, pinturas o en distintos alimentos.

En un estudio presentado durante la última reunión anual de la Sociedad Química Americana, Morrissey ha señalado que en determinadas circunstancias también puede funcionar como catalizador.

Para ello, sin embargo, es preciso someterlo a la acción de los rayos ultravioleta. Para que se comporte de idéntico modo con la radiación visible, el grupo de Morrissey le confirió distintas configuraciones al dióxido de titanio.

Así, los científicos comprobaron que la absorbía mejor si lo moldeaban en forma de nanotubos, unas estructuras mil veces más finas que un cabello humano. Dispuestos sobre una lámina de grafeno, que está formado por tiras de carbono de un átomo de espesor, los investigadores observaron que los contaminantes se adherían a esa capa, lo que permitía al dióxido de titanio fijarse y destruirlos.

De este modo, se pudo retirar del líquido elemento unas muestras de diclofenaco, un fármaco antiinflamatorio al que algunos expertos responsabilizan de haber diezmando algunas poblaciones de buitres en la India.

Según destaca Morrissey, hasta ahora la mayoría de los sistemas empleados para purificar el agua son muy costosos, precisan mucha energía o resultan menos eficaces.

La idea sería incluir este proceso en cartuchos que podrían instalarse en la cañerías que garantizan el suministro, sobre todo en las zonas rurales, donde no existen grandes infraestructuras.

No obstante, esta investigadora aclara que por sí sola esta técnica no garantiza una completa eliminación de residuos, sino que se trataría de una especie de “pulido” después de que el flujo haya sido limpiado mediante los sistemas tradicionales de supresión de contaminantes.

Además, aún estudian que los productos resultantes del proceso son inocuos.

martes, 1 de abril de 2014

Estados Unidos piensa obtener energía solar desde el espacio.

Estados Unidos piensa obtener energía solar desde el espacio.



Desde hace unos años, Estados Unidos está apostando fuerte por la energía solar: hace unas semanas, por ejemplo, se puso en funcionamiento la mayor central del mundo en el desierto californiano de Mojave.

Pero los proyectos para aprovechar esta fuente limpia e inagotable van aún más lejos. Hasta más allá de la Tierra.

Porque como ha desvelado recientemente en una nota de prensa, la marina norteamericana está desarrollando el concepto de una gigantesca instalación tan grande como nueve campos de fútbol que orbitaría en el espacio.

Los ingenieros del Laboratorio de Investigación Naval (NRL, por sus siglas en inglés) ya han diseñado un módulo con tres partes diferenciadas: un panel fotovoltaico, un dispositivo electrónico que convierte la energía en radiofrecuencia y una antena que la dirige a los receptores de la Tierra.

El prototipo incluso ya ha sido probado en condiciones similares a las que reinan fuera de nuestra atmósfera. El plan prevé ensamblar con robots tanto los módulos como el anillo de reflectores que concentraría los rayos solares en ellos.

En principio, el objetivo es abastecer de energía cualquier lugar del planeta, por remoto que sea, donde tenga lugar una operación militar o de ayuda humanitaria.

Actualmente, el transporte de fuel o generadores eléctricos a esos emplazamientos es complejo, caro y peligroso. Pero tampoco hay que descartar el uso civil del satélite solar, que podría abastecer de electricidad a una ciudad entera, según aseguran los portavoces de la marina estadounidense.