lunes, 31 de marzo de 2014

IWOP, la bombilla eterna.

IWOP, la bombilla eterna.


Hace un año, una empresa española presentaba una prometedora apuesta en pos del desarrollo sostenible: una bombilla no perecedera. La compañía OEP Electrics acaba de lanzar una versión mejorada de su revolucionario producto, que aunque se encuentra comercializado desde hace tiempo, sólo ha recibido modestos encargos. La nueva bombilla IWOP supone un ahorro de energía del 96,5 por ciento y cuenta con una garantía de 10 años de duración, además de ser reparable a muy bajo coste. Este sorprendente invento se engloba dentro del movimiento “Sin obsolescencia programada”, que combate la supuesta programación de los aparatos electrónicos durante su fabricación para que estos se estropeen llegada una fecha. La comunidad científica se mantiene escéptica ante tal avance, al considerar que cumple todos los requisitos de producto milagro.

La bombilla IWOP es una bombilla LED (diodo emisor de luz), cuya eficiencia ronda los 214 Lm/W, frente a los 150 Lm/W que suele proporcionar este tipo de sistema de iluminación, que cada día amplía su cuota de mercado debido a su mayor vida útil y su bajo consumo energético, entre otras ventajas. Además de este sorprendente rendimiento, la bombilla produce la luz cálida de las bombillas clásicas, y consume solo 3,5W, lo que supone un ahorro sin precedentes con respecto a la tecnología incandescente, y de hasta un 50 por ciento en relación al resto de tecnología LED del mercado. Según el fabricante, Benito Muros, la bombilla IWOP, si bien es un poco más cara que la bombilla LED convencional (ronda los 40 euros), supera con creces las prestaciones de esta, además de no necesitar reemplazo, lo cual limita el impacto medioambiental que supone que cada año se tiren 47 millones de bombillas en España.

La bombilla “eterna”, sin embargo, no ha convencido al grueso de la comunidad científica, que encuentra en este invento una bombilla común inmersa en una potente estrategia de marketing que se aprovecha del tirón mediático de la “obsolescencia programada”. Desde Muy Interesante, hemos consultado al experto Pablo Zumel Vaquero, del Grupo de Sistemas Electrónicos de Potencia del departamento de Tecnología Electrónica de la UC3M sobre si es realmente factible la fabricación de un producto lumínico “eterno”. Según el profesor, la tecnología del producto no supone una innovación en sí misma: desde hace años es posible fabricar sistemas de iluminación LED más duraderos a un alto coste, ya que el driver puede tener componentes más críticos desde el punto de vista del tiempo de vida que el propio LED. El experto afirma sin embargo que la durabilidad y rendimiento lumínico de la bombilla IWOP son extraordinariamente altos, por lo que la compañía debería precisar las características técnicas del tipo de LED que utiliza para acreditar dichos valores. Estos datos son estimados además en unas condiciones determinadas que es necesario conocer para evaluar lo que se alejan de la aplicación real. “Si alguien va a comprar un producto de estas características debe cerciorarse bien de que las características técnicas reales coinciden con lo ofrecido en la publicidad pidiendo al fabricante información detallada e independiente sobre su producto”, concluye Zumel.

En definitiva, existe una duda razonable acerca de su eficiencia debido a la ausencia de información detallada sobre las características técnicas del producto y sobre los análisis que lo avalan. La bombilla IWOP forma parte del movimiento contra la “obsolescencia programada”, una teoría que sostiene que los grandes fabricantes acortan la vida útil de los productos de forma premeditada para asegurar su renovación. Las voces más críticas aseguran, sin embargo, que la reducción de la durabilidad de los aparatos electrónicos se debe no tanto a una confabulación global, sino al propio comportamiento del usuario, que exige productos a muy bajo coste y una actualización constante de los mismos en base a las modas, lo que hace que no resulte rentable para las empresas fabricar productos duraderos.

Articulo tomado de revista Muy Interesante

domingo, 30 de marzo de 2014

Las cosas que no debes nombrar so pena de delatar tu edad.

Las cosas que no debes nombrar so pena de delatar tu edad.



En mi país, cuando se tiene una conversación y sin querer nombras algo que para muchos o ni lo llegaron a ver o es historia, utilizan la frase “se te cayó la cedula”, con esto lo que se quiere decir es que eres una persona ya mayor. Aunque no está mal conocer algunas cosas por simple cultura general, hay cosas que se deben dejar en el fondo de nuestra mente si se ha salido con una persona mucho menor y quieres parecer cool, si ya tienes cierta edad, haces ejercicio, te mantienes en forma y no muestras la edad, puede que todo vaya bien hasta que se te salga sin querer nombrar algo que usaste o viste mucho antes que naciera la persona con la que andas.

Él está rondando los 40 y ella apenas se ha acercado a los 30, pero comparten tantas cosas… Los dos son cinéfilos, trabajan con vídeo, han visto todas las películas de Tarkovski y de Fassbinder, incluso las que sólo se encuentran en alemán, aunque no hablan alemán. Y a su lado un artista de la cuerda les trae lo mejor de Sibelius con su violín. Y él, lanzado, le cuenta que cuando empezó a trabajar con vídeos, la edición no lineal se acaba de inventar. Era la novedad.

¡¡Error!! La magia se rompe, como las cuerdas del violín. Ella le acompaña a casa, pero para asegurarse de que no le asaltan por la calle. Para que no resbale con las engañosas tapas de alcantarilla. Para que se duerma bien arropadito. Y él, bien arropadito, y solo, contando ovejas y preguntándose qué ha hecho mal. La edición no lineal fue lo primero, pero luego vino todo lo demás. Y en lugar de contar ovejas, cuenta las diez cosas que no debió mencionar:



VHS y Beta. Hablar de la guerra abierta entre los formatos de cinta magnética VHS y Beta es como remontarse a la guerra fría de la tecnología. Que hayas usado Beta o peor, que lo hayas tenido, te hace más abuelo que tu pelo canoso, y si encima cuentas que VHS ganó gracias al porno y no precisamente por ser mejor formato, caes directamente en la categoría de viejo verde.



Casete. La casete es una funda de smartphone. Es como un tema de escritorio. Un widget. Cualquier cosa que no tenga historia. De verdad. Déjalo ahí.



Laserdisc. Esta es una de las tecnologías más peligrosas. Incluye láser en el nombre y crees que nada puede ser más moderno que eso. Más futurista. Suena a Star Wars, es verdad. Pero más de cuando el héroe era Han Solo que de ahora. Y si lo has mencionado y no puedes dar marcha atrás, que no se te ocurra reconocer que fuiste uno de los papanatas que invirtió en un formato que no duró ni dos años.



Amstrad. ¿Estás loco? ¿No has visto Big Bang Theory? Olvídalo: ella sí. Sabe que Internet no es una caja, pero también sabe que formas parte de una caterva de frikis inadaptados. Si tienes tu Amstrad, perfectamente cuidado y funcional, en el salón, entre la estatua escala 10:1 de Conan y el peluche de Yoda, llévatelo inmediatamente al desván y cúbrelo de telarañas.



Máquina de escribir. Sabe lo que es, como también sabe lo que es la imprenta de Guttemberg, pero no quedarás muy bien si le dices que tú también la usabas. Perfecto que conserves tu Olivetti Lettera 25, pero antes de invitar a la chica a casa, acuérdate de quitarla de tu escritorio.



Walkman. El discman, todavía, pero el walkman… Si lo mencionas, tendrás que explicar lo que era una casete. Recuerda: de ahí al cine mudo sólo hay un paso y ella está muy lejos de darlo.



Commodore Amiga. Si dices que en tu infancia tuviste un Amiga, te dirá que ella tenía un montón. Terreno claramente pantanoso. Como mínimo, creerá que fuiste un niño rarito. Seguramente sea verdad pero, ¿seguro que quieres entrar en ese tema?



Busca. Sí, eras un tío importante, lo suficiente al menos para estar disponible a cualquier hora a través de ese molesto aparatito. Pero duraron poco, la importancia y el aparatito, y si te pones en plan llorón acabarás acodado en la barra con un bourbon delante y los ojos humedecidos. Quizá creas que es el momento de decir aquello de “Siempre nos quedará París”, pero tú ni has estado en París ni tienes un rastro de metralla en el labio y ella… Ella irá a París con otro, seguro.



Teléfono con dial. Era divertido lo del dial, eso es cierto. Es lo que te hace bajar la guardia y sacar el tema. Pero ella no sabe cómo se usaba, así que te verás en el trance de explicarlo, como casi todo lo que menciono en este post, y a estas alturas parecerás un profesor de historia. Que saque el móvil y le enseñes un vídeo explicativo no te hará quedar mejor. Está en Youtube, sí, pero es en blanco y negro. Y es de los años 50.



Disquete. Puede que los disquetes de 3,5 le suenen vagamente pero… ¿Obleas de 5 1/4? ¿Hace falta que digas que saltaste de las cintas de tinta de tu Olivetti a los disquetes de 5 1/4? Eso no es buen rollo ochentero, ni siquiera llega a la categoría de retro. Eso es historia antigua. Déjalo por esta noche. Vuelve a casa. Y acuérdate de establecer claramente tus prioridades antes de tener tu próxima primera cita.



Tocadiscos: Cuando ni hablar de los casetes y mucho menos de los CD, recuerdo que el sonido de los tocadiscos era lo máximo, recuerdo con nostalgia esos muebles que habían en las salas de las casas, que al abrirlos, encontrabas un tocadiscos, una radio AM y traía incorporada cornetas y espacio para almacenar los discos de acetato, recuerdo que llegue a escuchar los discos de Frank Sinatra, Dean Martin, Sammy Davis Jr y Herb Alpert y su trompeta. Claro está que eran los discos de mi padre, pero igual me gustaba esa música, esas si eran bandas musicales.
Existen muchas otras cosas pero mejor lo paramos acá no vayan a pensar que la primera guerra que vi fue la de independencia. Que tiempos aquellos...

sábado, 29 de marzo de 2014

Mitos sobre las computadoras que debes conocer.

Mitos sobre las computadoras que debes conocer.
 
Mitos sobre tecnología que todos debemos conocer
 
A lo largo de mi vida usando computadoras he visto cualquier cosa por lo que ha llegado el momento en lo que casi nada me sorprende aunque de vez en cuando sale alguien y hace algo que realmente es asombroso por no decir otra cosa. Desde conectar una unidad DVD al revés aunque el conector físicamente no lo “permite”, hasta usuarios que utilizan la unidad de CD o DVD como porta vaso, aunque parezca un chiste.

A continuación algunos mitos que se han mantenido por muchos años entre los usuarios:

1 .- Es malo para la computadora tener imanes pegados a la CPU?

Falso! No existe ningún problema con la CPU, pero si sucede con el monitor, pues altera sus colores. Evite, a cualquier costo, colocar dispositivos electromagnéticos cercanos a los monitores, pues los colores pueden llegar a alterarse permanentemente.

2 - Empujar la bandeja de la unidad de CD/DVD con el dedo para insertarlo en la CPU es perjudicial?

Falso! Nada a ver. Nada le va a pasar a la unidad de CD/DVD si empujas la bandeja con una fuerza normal. Fue desarrollada exactamente para eso.

3 - Derramar agua o café sobre el teclado puede arruinarlo?

Verdadero! Se deterioran los contactos metalizados que están debajo de las teclas. Se puede crear un cortocircuito y dejar de funcionar.

4 - Es necesario tener espacio entre el monitor y la pared de atrás?

Falso! El monitor no es una heladera. El ambiente, en general, debe estar ventilado, pero no es indispensable que exista una gran distancia. Es mucho peor tener otro monitor atrás (como sucede en muchas oficinas) porque puede existir riesgo de interferencias.

5 - Cuando la computadora estuvo toda la noche toda conectada, es mejor apagarla y volverla a encender?

Falso! Es posible mantenerla encendida sin ningún problema. Aunque parezca lo contrario, te den ganas de apagarla para que descanse, siguiendo la lógica humana, el disco duro dura mucho más si permanece encendido, que si todo el tiempo lo estás encendiendo y apagando. Por una cuestión de economía de energía, no conviene dejar la PC encendida varios días, aunque, si no tuviéramos en cuenta el factor del calentamiento global, sería mucho mejor para la PC que nunca la apagues. Fueron creadas para eso.

6 - Daña la PC tener algún teléfono celular cerca?

Falso! Ningún problema; a lo sumo, una interferencia provocada por el teléfono en los parlantes.

7 - Después de apagar la computadora es mejor esperar unos segundos antes del volver a encenderla?

Verdadero! Es recomendable esperar, como mínimo 10 segundos antes de volver a encenderla.

8 - Mover la CPU cuando la PC está encendida puede dañar el disco duro?

Falso! La fuerza centrífuga con que gira el disco duro es tanta, que no sucede nada cuando se mueva la CPU. Mucho menos, si se trata de una notebook, porque fueron creadas para eso.

9 - Por el bien del monitor, es conveniente usar salvapantallas cuando no está en uso?
Verdadero! Porque los salvapantallas hacen que se desgasten los colores de la pantalla uniformemente. Al renovarse las imágenes constantemente, no se gasta en un mismo lugar.

10 - No es conveniente mirar la luz roja que está debajo del mouse óptico?
Verdadero! No vas a quedar ciego, pero al ser una luz bastante fuerte puede dañar la retina.

11 - En las notebooks se debe conectar primero el cable de alimentación al equipo y recién después al toma eléctrico?
Falso! Es lo mismo. Casi todos los equipos portátiles actuales tienen protección anti cortocircuitos y son multi-voltaje, pueden ser conectados a tensiones desde 90 a 240 volts, siendo sumamente estables.

12 - Al apagar la computadora conviene también desconectar el monitor?
Falso! Es igual. Al desconectar la CPU, el monitor queda en un estado en que consume muy poca energía (cerca a 1W, casi nada) y no sufre ningún desgaste. La decisión termina siendo en función de la economía, aunque el consumo sea realmente mínimo.

13 - El ordenador nunca debe quedar expuesto al sol?
Verdadero! Si el equipo calienta más que lo habitual, su vida útil tiende a disminuir. Por eso, nunca es buena idea instalar la PC cerca de una ventana donde pegue el sol.

14 - Si más del 80% del disco duro está usado, la PC se vuelve más lenta?
Verdadero! Siempre es una cuestión de porcentaje. Por más que se tenga 20 Gb libres, si fuera menos del 20% de la capacidad del disco, el funcionamiento de la computadora será más lento.

15 - El escritorio lleno de iconos hace que la PC funcione más lenta?
Verdadero! No importa si son iconos de programas o archivos. Lo que sucede es que la placa de video de la PC renueva constantemente la información que muestra en el monitor, y mientras más iconos, más tiempo.

16 - No se debe extraer un flashdrive sin detener el servicio?
Verdadero! Se debe seleccionar la opción 'Retirar hardware con seguridad' antes de retirarlo. De lo contrario, se corre el riesgo de perder datos que aun se estén grabando en el o en algunos casos aunque contados, quemar la memoria del dispositivo USB.

17 - Apagar la PC directamente con el botón, sin hacerlo por la opción del sistema operativo puede dañar el disco duro?
Verdadero! El disco duro se puede quemar al ser apagado mientras está leyendo o escribiendo. Cuando se apaga súbitamente, las placas que cubren el disco (que gira hasta 10 mil revoluciones por minuto) descienden sobre él. Al seleccionar la opción 'Apagar', todo el sistema se prepara para reposar y suspender todas las actividades. Cada pieza va quedar en su debido lugar.

18 – ¿Consume más energía al encenderla que en varias horas de uso?.
Falso!. Al encender no consume tanto como para superar las horas de funcionamiento. Si se apaga se ahorra energía y si permanece prendida gasta, como cualquier otro electrodoméstico.

19 – ¿Es recomendable desconectar la PC de la corriente cuando hay tormenta?.
Verdadero!. Es casi una obligación cuando se trata de una tormenta eléctrica. Una cantidad asombrosa de módems se dañan por descargas de rayos.

20 – ¿No se deben colocar CD, DVD o cualquier otro elemento sobre el case?.
Falso!. Nada de lo que se coloque sobre ella la afecta, a menos que esté húmedo y el agua pueda llegar al equipo o sea demasiado pesado cosa que debo decir está fuera de toda discusión y no creo que alguien lo haga.

Espero que esta información les sea de utilidad y les ayude a tener una mejor experiencia con su equipo.



NVLink, la nueva tecnología de NVIDIA.

NVLink, la nueva tecnología de NVIDIA.



NVIDIA ha anunciado sus planes de integrar una nueva tecnología de interconexión de alta velocidad, llamada NVIDIA NVLink, en sus futuras tarjetas gráficas. Esta tecnología permite al procesador y la GPU compartir datos entre 5 y 12 veces más rápido que con la tecnología actual, eliminando cuellos de botella y allanará el camino para la nueva generación de super ordenadores que serán entre 50 y 100 veces más rápidos que los sistemas más potentes de hoy en día.

NVIDIA añadirá la tecnología NVLink en su próxima arquitectura Pascal (la cual se espera que introduzcan en 2016) siguiendo la estela de la ya actual arquitectura Maxwell. NVIDIA NVLink ha sido desarrollada junto con IBM, la cual la incorporará en su futura versión de Power CPUs.



Ventajas sobre PCI Express 3.0

Las GPUs de hoy en día se conectan a los procesadores a través de la interfaz PCI Express, la cual limita la capacidad de la GPU de acceder a la memoria del sistema, reduciendo la velocidad de esta conexión entre cuatro y cinco veces. PCIe es por ello un cuello de botella entre la GPU y la CPU, y más en los procesadores Power CPU de IBM cuyo ancho de banda es superior al de los procesadores x86. Con NVLink como interfaz, se elimina este cuello de botella, dado que su ancho de banda es cinco veces superior, permitiendo a la GPU acceder a la memoria de la CPU con toda la capacidad del ancho de banda.

Este ancho de banda de alta capacidad aumenta de manera drástica el rendimiento del sistema en aplicaciones. Dadas las diferencias entre memorias (las GPUs tienen menos memoria pero muy rápida, y las CPUs tienen mucha más memoria pero bastante más lenta (Por ejemplo, gráficas con 2 ó 3 GB GDDR5 y procesadores con 8 ó 16 GB DDR3), las aplicaciones de cómputo normalmente tienen que mover primero la información a un disco fijo para después copiarla en la memoria de la GPU, y que de esta manera ésta pueda procesarla. Con NVLink los datos se mueven entre la memoria de la CPU y la GPU directamente y mucho más rápido, eliminando la necesidad del paso intermedio.

Memoria unificada

Esto os sonará a hUMA de AMD. Un movimiento de datos más rápido como hemos explicado antes, emparejado con una nueva característica a la que NVIDIA ha llamado memoria unificada, va a simplificar la programación de aceleradores de GPU. La memoria unificada permite a los programadores tratar la memoria de CPU y GPU como una sola, pudiendo operar con ésta sin importar dónde reside (en la memoria RAM del procesador, o la de la tarjeta gráfica).

Aunque las próximas gráficas de NVIDIA seguirán soportando PCI-Express, la tecnología NVLink se utilizará para conectar las tarjetas gráficas a los procesadores compatibles, permitiendo a la vez un mayor ancho de banda en sistemas multi GPU.



NVIDIA ha diseñado un módulo específico para albergar las GPUs de arquitectura Pascal con NVLink. Esto nuevo módulo para GPU tiene un tercio del tamaño que la conexión de PCI-Express, y contará con un puerto específico para conectarse a la placa base (por lo que necesitarán tanto un procesador como una placa base compatibles), mejorando la integridad de la señal y siendo más eficiente energéticamente hablando.

viernes, 28 de marzo de 2014

NVIDIA presenta lo ultimo en tarjetas graficas, su GeForce GTX Titan Z.

NVIDIA presenta lo ultimo en tarjetas graficas, su GeForce GTX Titan Z.




Hace un par de días empezó la GTC 2014 (GPU Technology Conference), que se está celebrando estos días en San José, California, Estados Unidos. La pasada semana, Intel sorprendió en el GDC con nuevos procesadores, Epic Games apoyando a NVIDIA en su nuevo motor gráfico Unreal Engine 4 y CryTek apostando por Mantle en su motor gráfico CryEngine 3. Si la semana pasada nos quedamos con ganas de más novedades, no pasa nada, porque NVIDIA en la conferencia que ha protagonizado en el GTC 2014 no ha dejado indiferente a nadie presentado una nueva GTX Titan.

Jen-Hsun Huang ha sido el encargado (como siempre), de presentar esta nueva GTX Titan, a la que han denominado GTX Titan Z. La novedad no es una GPU con más CUDA Cores, más frecuencias o mejoras en arquitectura, ni mucho menos. Lo que han presentado es la primera GTX Titan con dos GPU Kepler y que además, dispone de 12GB de memoria GDDR5 (un montante de 6GB por GPU). Esta GTX Titan Z está pensada directamente para loa próxima generaciones de resoluciones, concretamente el 5K y el gaming en multi monitor.

Decíamos que esta GTX Titan Z dispone de dos GPU GK110, con 2880 CUDA Cores cada GPU (igual que la GTX Titan Black o la GTX 780Ti), que si sumamos el de las dos, nos da la espectacular cifra de 5760 CUDA Cores. “Si usted necesita desesperadamente un superordenador para debajo de su escritorio, tenemos la tarjea ideal para usted”, ha dicho Huang durante la presentación.


Se diferencia esta tarjeta gráfica con respecto a otras en el aspecto en que las dos GPU iguales de la GTX Titan Z, están ajustadas para trabajar sincronizadas a la misma velocidad de reloj, con un equilibro de potencia dinámico. Esto impide que la propia GPU genere cuello de botella. El rendimiento generado por esta tarjeta gráfica no genera ruido ni se calienta en exceso, así que es una gran ventaja. Dispone de componentes de bajo perfil y los canales de la placa base de bajo perfil, minimizan las turbulencias y reducen el impacto acústico.

Si lo que queremos es constituir la mejor plataforma posible para gaming en ultra alta definición, puedes usar una de estas o incluso, des en SLI para tener el mejor equipo para gaming que podría existir en el mercado. No se sabe nada de la fecha de salida, que suponemos que será en breve y del precio, podemos decir que rondará los 3000$.


Video
 
Más información:

NVIDIA aseguro que sus últimos drivers DX11 son mejores que Mantle.

NVIDIA aseguro que sus últimos drivers DX11 son mejores que Mantle.



Estoy consciente de lo polémico que es el título de esta noticia, pero es tal cual lo ha anunciado NVIDIA. En el GDC han estado comentando el próximo lanzamiento de la API gráfica de Microsoft, DirectX 12, y han discutido sobre el actual rendimiento de DirectX 11 en términos de Gaming.

A través de unas diapositivas con benchmarks, NVIDIA ha mostrado cómo han mejorado la eficiencia de sus gráficas en varios juegos actuales que funcionan bajo DirectX 11, superando elrendimiento de Mantle en juegos como Thief.



Hay que reconocer que NVIDIA siempre mejora el rendimiento (unas veces más, otras veces menos) en juegos de sus gráficas cada vez que lanzan una nueva versión de sus drivers, es algo innegable, pero los benchmarks que han mostrado ahora en las diapositivas también muestran algo muy interesante: Comparan el rendimiento obtenido con una R9 290X y Mantle con una GTX 780 Ti y su próximo driver, siendo esta última superior a su competidora. Y esto en teoría lo han conseguido ya, y usando DirectX 11.

Hay tres drivers mencionados en esta diapositiva que aparecen a continuación: el primero es el R331, el segundo es el R334 y el tercero es la R335 lanzada hace poco y de los cuales hice referencia en su momento. Observen que es con dos juegos específicos que soportan Mantle, Star Swarm y Thief:





Aquí podemos ver una gradual mejora del rendimiento según NVIDIA lanza nuevos drivers, lo que os hemos comentado antes. De acuerdo con la diapositiva, estos resultados los han obtenido con Windows 7 y un procesador i7-3930K con 8GB de memoria RAM. Estas mejoras de rendimiento son bastante significativas si tenemos en cuenta que las han conseguido simplemente mejorando el driver, sin tocar el hardware.

En esta segunda diapositiva podemos ver algunas mejoras en la eficiencia de la API DirectX 11:





Si lo que NVIDIA asegura con esta diapositiva es verdad, no podemos sino ponernos de pie y aplaudir su trabajo. Como ven, NVIDIA sigue comparando un sistema con una R9 290X de AMD con su GTX 780 Ti y las tres versiones de drivers que hemos comentado antes. Podemos ver, por ejemplo en DirectDraw, un incremento de rendimiento de más de un 800%, increíble.

En otra diapositiva, NVIDIA ha mostrado el escalado de rendimiento entre GPU y CPU en cálculos de precisión simple en sus gráficas GeForce, en un espacio de tiempo de cuatro años. El incremento de rendimiento es también impresionante.





Para el común de los usuarios, esta noticia no representa gran cosa, pero para los gamers que hemos invertido miles de dólares en una o más GPU NVIDIA, son muy buenas noticias y hacen que valga la pena la inversión.

jueves, 27 de marzo de 2014

Mountain anuncia la salida de sus equipos Workstation y GTM.

Mountain anuncia la salida de sus equipos Workstation y GTM.



La gran mayoría de los portátiles que les he visto a los usuarios por no decir todos, son de gama media o baja, dedicados a labores generales. ¿Pero que hay de aquellos usuarios que quieren tener una portátil con un poder cercano al de las PC de escritorio?, para ellos existen alternativas como Alienware, Mountain o DELL con su serie XPS, que fabrican equipos portátiles de gama alta para usuarios exigentes.

NVIDIA lanza su chip GeForce GTX800M

Hace poco, NVIDIA publicaba el lanzamiento de su nueva serie GeForce GTX800M, la cual esta dirigida a portátiles de gama alta y que muy pronto los principales fabricantes estarían implementando en sus nuevos modelos de equipos.

Mountain usara los chips GeForce GTX800M

Mountain, el ensamblador de equipos de alta calidad 100% español, ha anunciado que ya está preparando sus equipos para comenzar a integrar las nuevas tarjetas gráficas NVIDIA GeForce GTX800M, y en principio las incorporará en sus series de portátiles Workstation y GTM (Gaming Tech by Mountain).

NVIDIA tendrá muy pronto en el mercado su nueva Serie GeForce GTX800M, con cuatro modelos principales: GeForce GTX 850M, GTX 860M, GTX 870M y GTX 880M. Esta nueva generación de gráficas ofrecerá una mayor calidad de juego para los equipos portátiles de nueva generación de Mountain. Gracias a una mayor eficiencia energética y con la tecnología Battery Boost, ahora se podrá jugar durante más tiempo que con las GPUs de la generación anterior, asegurando que los equipos Workstation y GTM de Mountain sean capaces de ofrecer mayores niveles de rendimiento.

Los avances logrados en las tecnologías PhysX, TXAA y GeForce Experience, hacen que se pueda disfrutar de excelentes funcionalidades gráficas y un asombroso rendimiento. Las recientes técnicas de antialiasing creadas por NVIDIA proporcionan una perfecta calidad de imagen y un suavizado de líneas que repercutirá satisfactoriamente en los juegos que se disfruten con un equipo Mountain.

Muy pronto en Mountain podrán incluir esta nueva gama de tarjetas gráficas, que irán ligadas a los equipos WorkStation y la gama GTM, uniéndose a la calidad y el prestigio que coloca a NVIDIA como lo mejor en capacidad gráfica de última generación.



Nueva versión de Java viene con nuevas mejoras de seguridad.

Nueva versión de Java viene con nuevas mejoras de seguridad.


Oracle acaba de publicar una nueva versión mayor de su lenguaje y entorno de ejecución Java. Esta versión trae nuevas características interesantes desde el punto de vista de la programación como la adición de las tan esperadas expresiones lambda. Vamos a repasar las mejoras de seguridad que se han añadido o mejorado en esta nueva versión.

Por defecto, los clientes Java que sean programados con JSSE (Java Secure Socket Extension) dispondrán de las versiones TLS 1.1 y 1.2.

Se ha añadido un nuevo método "doPrivilege", de la clase "AccessController", para que se puedan evaluar un subconjunto del total de privilegios de un proceso. Esto va a permitir que si un proceso necesita consultar si tiene permisos para cierta acción, este pueda buscar, entre la jerarquía de invocaciones, si tiene ese permiso concedido y parará la búsqueda en el momento en que encuentre una invocación que le dota de ese privilegio concreto.

Se han añadido nuevos algoritmos para cifrados basados en contraseña. PBEWithSHA256AndAES_128 y PBEWithSHA512AndAES_256. Anteriormente se estaban usando combinaciones débiles de algoritmos de cifrado (RC4, RC2) con claves de longitud muy cortas (40 bits).

Se ha habilitado la extensión SNI (Server Name Indication), parte de TLS. Esta opción permite al cliente conocer a que nombre de host se está conectando cuando comienza el handshake. En la práctica, esto permite a un servidor con una sola IP publicar varios sitios webs con dominios y certificados digitales diferentes. Ahora pueden programarse clientes Java que soporten dicha funcionalidad.

Ahora se soportarán los cifrados AEAD (Authenticated Encryption with Associated Data) y GCM (Galois Counter Mode) en el proveedor de criptografía de Java, SunJCE. Esto está incluido, básicamente, por ser requerimiento por el gobierno estadounidense en materia seguridad para aplicaciones construidas por terceros.

Se ha añadido una nueva opción "--importpassword" en el gestor de llaves de Java para permitir almacenar contraseñas de manera segura.

Se ha añadido la función hash SHA-224, parte de la familia SHA2.

Se ha mejorado el soporte para la suite B criptográfica de la NSA. Básicamente por la misma razón comercial que el soporte AEAD.

Se ha mejorado la generación de números pseudoaleatorios para permitir la generación de números con un alto valor entrópico en caso de ser necesarios.

Se ha añadido una nueva clase, PKIXRevocationChecker, para comprobar la revocación de certificados seguros.

Para la plataforma Java en Windows 64 bits, se añade el soporte para PKCS11. Una familia de estándares necesarios para implementar infraestructura de clave pública. Por ejemplo, el DNI electrónico.


Se mejorado sustancialmente el soporte a Kerberos empleando nuevos tipos de rcache, se ha eliminado el soporte a cifrados débiles, nuevos protocolos y otras mejoras.

Los servidores SASL creados permiten tener un nombre nulo para posibilitar a los clientes designar cualquier nombre de servidor antes de la negociación y obtener posteriormente uno concreto en forma de propiedad.

Se ha mejorado el soporte JNI en los sistemas Mac OSX.

Se mejora el soporte para claves efímeras más robustas en el algoritmo de intercambio de llaves Diffie-Hellman.

Ahora es posible indicar una suite criptográfica por defecto y preferente por el servidor Java usando el método 'setUseCipherSuitesOrder' de la clase 'SSLParameters'. Hasta ahora simplemente se usaba aquella que fuera preferencia del cliente.


Más información

JDK 8 Security Enhancements

 
 
 

 

miércoles, 26 de marzo de 2014

¿Saldrá Forza 5 para PC?.

¿Saldrá Forza 5 para PC?.



En la presentación de DirectX 12, Microsoft mostró una demo de Forza 5, juego de Xbox One, funcionando a 1080p y 60 FPS estables, y se ha descubierto que no estaba siendo ejecutado en una Xbox One (todo el mundo pensaba que iban a mostrar DirectX 12 en consola), sino en un PC de gama alta con una GeForce GTX Titan Black, lo que demuestra lo fácil que sería llevar títulos de Xbox One a PC.

Según la fuente, Microsoft mostró una demo del conocido juego Forza 5 de Xbox One en el GDC, funcionando en resolución Full HD con 60 FPS estables (tan estables que es descarado que tenían la sincronización vertical activada. De haberla desactivado, con una Titan Black los FPS habrían subido mucho con total seguridad).

Observen esta imagen:



Y ahora observen la captura que ha sacado la fuente del blog oficial de NVIDIA.



En el párrafo señalado, dice lo siguiente: “….the new API with a tech demo of the Xbox One racing game Forza running on a PC powered by an NVIDIA GeForce Titan Black. In addition, our software team has provided a driver to game studios to facilitate further design feedback as well as actual game development.”

Para los que no se llevan bien con el ingles, les traduzco la parte importante: “La nueva API con una demo del juego Forza 5 de Xbox One funcionando en un PC con una NVIDIA GeForce Titan Black.”

La confirmación vía Twitter de un editor de WCCFTech que estuvo allí presente:



Quizás esto signifique que veremos Forza 5 en PC pronto, quién sabe.

Más información:
http://wccftech.com/forza-5-demo-directx-12-titan-black-pc/

¿Es iOS7 más inseguro que iOS6?.

¿Es iOS7 más inseguro que iOS6?.



Cuando llega una versión importante de un sistema operativo, sea el que sea, lo normal es que contenga bastantes novedades que justifiquen la actualización. iOS 7 fue una de esas actualizaciones, una entrega que trajo infinidad de novedades a los iPhone y iPad, desde el cambio radical en el diseño a nuevas funciones como el Centro de Control o la mejorada multitarea. Aunque hay usuarios a los que el diseño no gustó demasiado, no se puede negar que iOS 7 cuenta con muchos elementos útiles que han mejorado funciones ya existentes o añadido otras nuevas. Pero no sólo se le piden novedades a las nuevas versiones, sino también mejoras internas en la estabilidad para que todo vaya más fluido y también la seguridad. Estos cambios suelen pasar desapercibidos, pero son igual o más importantes. Sin embargo iOS 7 podría haber fallado estrepitosamente en este apartado, así lo afirma un especialista de seguridad de la firma Azimuth Secutiry Research, que no duda en asegurar que iOS 6 era mucho más seguro que iOS 7.

Tarjei Mandt fue uno de los ponentes en la conferencia CanSecWest que se celebró la semana pasada, cita en la que aprovechó para detallar la enorme debilidad en el kernel de iOS 7, la base de todo sistema operativo. Según comenta, todo surgió tras un intento de tapar un agujero de seguridad en iOS 6 y cuya solución provocó una debilidad en el kernel. La frase “es peor el remedio que la enfermedad” podría aplicarse a este caso.

La intervención de Apple sobre este apartado del sistema habría sido la causante de que iOS 7 sea mucho más débil desde el punto de vista de la seguridad. Tras producirse un fallo en el kernel, la compañía modificó el sistema de encriptación, usando un generador aleatorio que, según Madnt, es mucho más fácil de descifrar debido a que los valores que genera son más correlativos. Apple estaba intentando fortalecer el kernel, pero eligieron un sistema que ha terminado por ser más débil todavía. Por el momento la compañía no ha hecho ningún tipo de declaración al respecto, pero es muy posible que estén trabajando en una solución para su próxima gran actualización, que será iOS 8.

Como decíamos, iOS 7 supuso un cambio bastante radical con respecto a iOS 6 en términos de diseño y también de funciones. La plataforma cambió su apariencia, dejando de lado el aspecto realista con texturas y efectos de sombreados, para dar paso a una interfaz mucho más bidimensional, con colores planos y mayor protagonismo para la tipografía. En cuanto a funciones está el Centro de Control, la interfaz de multitarea, el nuevo Centro de Notificaciones, Airdrop, los filtros de la cámara y la nueva aplicación de fotos entre otros.

Las noticias falsas abundan en Internet más de lo que muchos piensan.

Las noticias falsas abundan en Internet más de lo que muchos piensan.



Hace ya tiempo comentaba que no por que aparezca en Internet es verdad. Los HOAX o Bulos abundan en la red y la mayoría de las personas da por sentada que toda información que encuentren en Internet es cierta, cosa más alejada de la realidad, frases como “en Internet no hay cabida para la verdad” o “si aparece en Internet es cierto”, son muy comunes entre los usuarios al punto que desde aquellas personas que publican cualquier cosa cierta o no hasta los que creen ciegamente todo lo que leen en Internet, el hecho es que Internet se ha convertido en una gran biblioteca donde es muy difícil por no decir imposible, controlar todo lo que se dice a no ser que se ejerza censura lo que ocasionaría otro problema por lo que debemos escoger entre libertad plena para publicar lo que queramos o controles estrictos para evitar los excesos.

El otro día leí sobre un naufragio de una inglesa, el cual duró siete años y que fue rescatada gracias a que dicha persona había hecho un gran letrero que decía “SOS” y que alguien vio a través de Google Earth. Con este dato la rescataron. No tardo mucho en salir otra nota afirmando que esta historia era falsa. Muchos la creyeron y cayeron en la trampa así como muchos habrán caído en otras, pero desde luego, esto es parte de este mundo gigantesco de información que llamamos Internet, en donde no hay control alguno y cada quien pone lo que se le antoja.

Hay historias que se convierten en virales, como la de la patineta de la película Regreso al Futuro, que nunca quedó claro qué se buscaba con toda esa parafernalia que exhibieron, incluyendo al Doc Brown, el personaje de la popular saga de películas.

Ahora leo en Twitter que quien lleva la cuenta de la Sección Amarilla (@seccionamarilla), puso lo siguiente: “¿#SabíasQue el #Ipod fue inventado en 1979, pero por cuestiones tecnológicas salió a la venta en el 2001?”. Inmediatamente salté. Para empezar, en 1979 los discos duros eran escasos y tampoco había la tecnología en electrónica que ahora tenemos. Un disco duro de 5 Megabytes costaba cualquier cantidad de dinero para poderlo usar en una Apple y además, no había siquiera formatos digitales para el audio como mp3, wma, etcétera.

Me respondieron entonces con dos enlaces, uno de ellos éste, en el cual se afirma que “El ciudadano británico Kane Kramer, fue el inventor de la tecnología que está detrás del reproductor multimedia digital más vendido de la historia, el iPod. Aún así, no ha visto ni un euro de su creación, según Juan Ranchal de ‘The Inquirer’”.

Curioso es que después se afirma lo siguiente: “Kramer inventó el dispositivo en 1979, patentó la idea y creó una empresa para comercializar el producto, pero en 1998 no logró las 60.000 libras necesarias para renovar las patentes en 120 países y la tecnología se convirtió en propiedad pública”. Bueno, si eres inventor y te cuesta 60 mil libras esterlinas renovar las patentes, pues como que es un poco costoso ¿no? (500 libras por país. ¿No podía haber mantenido el registro en menos países?). Es decir, un tipo que inventa supuestamente el iPod registra y patenta su idea en 120 países (¿cuánto dinero puso para ello?) y después resulta que no pudo pagar esa cifra para renovar las patentes en 120 países (¿pues cuánto dura una patente otorgada?), entonces sus inventos pasaron al dominio público.

Toda la historia parece inventada. Y si fuese cierto, ¿qué hay del Walkman? ¿No fue éste el antecedente directo del iPod? ¿Por qué no echarle la bronca legal a Sony en lugar de Apple? Todo es absurdo e irregular. Una nota que me parece increíble de principio a fin. Vamos, otras fuentes también publicaron esta historia pero esto no le da credibilidad finalmente.

El asunto es que al parecer, el dicho que reza “una mentira repetida mil veces se convierte en verdad”, puede que en Internet tenga sentido, muchas personas y hasta medios respetables publican noticias sin confirmar la fuente por lo que muy frecuentemente vemos como noticias falsas se hacen virales. Ya hace poco comentaba que entre el 25 y 30% de la información en Internet está duplicado, ahora imagínense cuanta información falsa circula por Internet.

martes, 25 de marzo de 2014

De los smartphone a los smartwatch.

De los smartphone a los smartwatch.



Desde hace ya tiempo varias empresas estaban tentativamente probando con relojes más allá de un simple reloj que de la hora, les han colocado GPS, reproductor MP3 y así iban probando para ver como reaccionaban los consumidores, pero los smartphone seguían siendo la fascinación de millones por lo que pensaron que llegó la hora de los smartwatch.

¿Este es el año del smartwatch?

En muchos sentidos, así es. En primer lugar, casi cualquier marca tecnológica importante ha presentado algún modelo de reloj inteligente o dado a conocer su interés por construir uno de estos sistemas. Además, Google lanzó Android Wear, el sistema operativo para wearable technology. Ahora sólo resta saber cuáles son los smartwatch más recientes, y cuáles son los más prometedores.

Desde los modelos más elementales hasta los que parecen dar más funciones de hardware, los relojes inteligentes actuales incluyen propuestas que van más allá del simple “reloj de pulso en el que se pueden leer mensajes”.

1.- Samsung Gear 2



Durante el Mobile World Congress, Samsung lanzó una segunda generación de su reloj inteligente con modificaciones mínimas respecto a la primera versión, pero que son muy significativas en términos de usabilidad.

¿Qué ventajas tiene?

Su cuerpo tiene acabado metálico y está disponible en colores llamativos y refinados. Al frente tiene un botón que al presionarlo lleva a la pantalla de inicio, lo que simplifica esa tarea; sigue incluyendo una cámara y su micrófono para tomar llamadas ahora está en el cuerpo del reloj en vez de estar en el extensible. Su sistema operativo es Tizen, una plataforma propietaria de Samsung.

2.- LG G Watch



Aún no es un producto que se haya materializado. LG sólo adelantó algunos detalles respecto a este reloj inteligente que será de los primeros en correr con Android Wear, el sistema operativo de Google que fue desarrollado específicamente para los smartwatches.

¿Qué ventajas tiene?

LG no ha dado muchos detalles, pero se sabe que con la plataforma Android Wear se garantiza que el reloj pueda reconocer los comandos de voz del usuario para activar Google Now y tome partida de otras ventajas que Google adelantó en un video promocional liberado esta semana. Su lanzamiento está previsto para el segundo trimestre del año.

3.- Motorola Moto 360



La compañía que perteneció por un espacio de dos años a Google y ahora pasará a manos de Lenovo también tiene un reloj entre sus planes. Este modelo es uno de los más atractivos en el aspecto estético, pues la compañía no quería crear sólo “un smartwatch más”.

¿Qué ventajas tiene?

Su apariencia redonda es prácticamente única, pues muy pocos modelos de reloj inteligente tienen ese diseño. Corre con Android Wear para ser compatible con las principales funciones de Google y su pantalla cambia de orientación en función del tipo de usuario: zurdo o diestro. Se espera que sea lanzado durante el verano.

4.- Sony Smartwatch 2




Sony es una de las marcas que más ha invertido en la creación de relojes inteligentes por años. Desde los modelos que fueron lanzados bajo la marca Sony Ericsson hasta los más recientes Smartwatch, la compañía ha tratado incesantemente de convencer a sus compradores de utilizar este tipo de gadget.

¿Qué ventajas tiene?

El Smartwatch 2 es compatible con diferentes modelos Android, no sólo con los de la propia marca japonesa. Tiene NFC para conectarse fácilmente al smartphone, está hecho en un cuerpo de aluminio y es resistente al polvo y a salpicaduras de agua .

5.- Pebble Steel




Pebble es una empresa que nació de manera independiente a través del crowdfunding. Con esto, la compañía recaudó fondos para establecer el proyecto de un reloj inteligente de bajo consumo de energía, compatible con diferentes smartphones y a un costo bastante accesible.

¿Qué ventajas tiene?

La nueva generación del reloj fue mejorada completamente. Está hecho en acero inoxidable con pantalla de Gorilla Glass; su batería dura hasta 7 días, es a prueba de agua a una profundidad de 5 metros y tiene un LED de notificación. Su pantalla sigue siendo de tinta electrónica y se puede usar tanto con iPhone como con Android.

Estos son los modelos más populares que se han lanzado en los últimos meses, pero todavía hay mucho más por ver en el terreno de los gadgets “usables”. Apple supuestamente sigue trabajando en su “iWatch”; HTC dijo estar haciendo lo propio, al igual que Asus, y en resumen, todos quieren sumarse a esta tendencia.

Ahora solo falta ver como reaccionan los consumidores a estos nuevos gadgets...
 

La NASA presenta un mosaico de 360 grados de la vía láctea.

La NASA presenta un mosaico de 360 grados de la vía láctea.




Increíblemente muchos medios se han hecho eco del anuncio pero muy pocos han proporcionado información a los usuarios de como acceder al visor.Recorrer la Vía Láctea es ahora tan fácil como hacer clic en un botón con el nuevo mosaico de 360 grados con zoom de la NASA presentado en laConferencia TEDActive 2014 en Vancouver, Canadá.

El panorama plagado de estrellas de nuestra galaxia, se construye a partir de más de 2 millones de instantáneas infrarrojas tomadas durante los últimos 10 años por el Telescopio Espacial Spitzer de la NASA.



Si realmente imprimimos esto, necesitaríamos una cartelera tan grande como un estadio para mostrarla , dijo Robert Hurt, un especialista en imágenes del Spitzer Space Science Center de la NASA. "En su lugar, hemos creado un visor digital" el cual puede ser accedido desde este enlace:http://www.spitzer.caltech.edu/glimpse360/aladin

El mosaico de 20 gigapixel utiliza la plataforma de visualización de Microsoft WorldWide Telescope. Captura el tres por ciento de nuestro cielo que se centra en una banda alrededor de la Tierra, donde se encuentra el plano de la Vía Láctea, que muestra más de la mitad de todas las estrellas de la galaxia.

El mosaico está derivado principalmente del proyecto Galactic Legacy Mid-Plane Survey Extraordinaire (GLIMPSE).

Spitzer, lanzado al espacio en 2003, ha pasado más de 10 años estudiando desde los asteroides de nuestro Sistema Solar a las galaxias más remotas en el borde del universo observable. En este tiempo, ha dedicado un total de 4.142 horas (172 días) a la toma de fotografías del disco de nuestra galaxia, la Vía Láctea, en luz infrarroja. Esta es la primera vez que esas imágenes han sido cosidas en una sola visión expansiva.

Un disco espiral plano

Nuestra galaxia es un disco espiral plano; nuestro sistema solar se encuentra en el exterior de una tercera parte de la Vía Láctea , en uno de sus brazos espirales. Cuando miramos hacia el centro de nuestra galaxia, vemos una región polvorienta repleta de estrellas . Telescopios de luz visible no puede mirar tan lejos en esta región debido a que la cantidad de polvo aumenta con la distancia, bloqueando la luz estelar visible. La luz infrarroja, sin embargo, viaja a través del polvo y permite a Spitzer ver más allá del centro de la galaxia.

"Spitzer está ayudando a determinar dónde está el borde de la galaxia", dijo Ed Churchwell, co-líder del equipo de observación en la Universidad de Wisconsin-Madison. "Estamos mapeando la colocación de los brazos en espiral y el rastreo de la forma de la galaxia", dijo.

Utilizando datos de GLIMPSE, los astrónomos han creado el mapa más preciso de la gran barra central de estrellas que marca el centro de la galaxia, revelando que la Vía Láctea es un poco más grande que se pensaba. Las imágenes también han mostrado una galaxia plagada de burbujas. Estas estructuras de burbujas son cavidades alrededor de estrellas masivas, que esparcen viento explosión y radiación en su entorno.

En conjunto, los datos permiten a los científicos construir un modelo más global de estrellas, y la formación de estrellas en la galaxia -lo que algunos llaman el "pulso" de la Vía Láctea.

La nueva visión de 360 grados guiará al próximo Telescopio Espacial James Webb de la NASA a los sitios más interesantes de la formación estelar, donde se harán aún observaciones más detalladas en el infrarrojo. Algunas secciones del mosaico incluyen datos de mayor longitud de onda del Wide-field Infrared Survey Explore (WISE), que escanea todo el cielo en luz infrarroja.


Más información:
http://www.nasa.gov/press/2014/march/nasas-spitzer-telescope-brings-360-degree-view-of-galaxy-to-our-fingertips/
 

 

lunes, 24 de marzo de 2014

¿Veremos a Linux en los cajeros automáticos?.

¿Veremos a Linux en los cajeros automáticos?.



Hace poco comentaba sobre la problemática de los cajeros automáticos (ATMs), pues muchos de ellos trabajan con Windows XP y el soporte a este sistema operativo está por acabar. La realidad es que los bancos ya deben estar pensando desde hace tiempo las alternativas que tienen para mantener trabajando con eficiencia sus sistemas de cajeros automáticos y una alternativa, a la que han visto con buenos ojos, es la de usar Linux.

En Estados Unidos, la ATM Industry Association (ATMIA), en voz de David Tente, director ejecutivo de dicha organización, dijo que hay un sentimiento de desazón en esta industria por la decisión de Microsoft de terminar el 8 de abril con el soporte a Windows XP. A los operadores de ATTM les gustaría sincronizar sus ciclos de actualización de hardware y software, pero es difícil de hacer esto cuando Microsoft es quien impone los tiempos para las actualizaciones de software. Como resultado de ello, “estamos viendo la posibilidad de usar sistemas operativos distintos a los de Microsoft para sincronizar nuestras actualizaciones de hardware y software”, dice Tente.

El interés en alternativas a Windows ya es un hecho en un pequeño número de operadores grandes, lo cual sería algo que impactaría seriamente a la industria. Windows XP tiene el 95% de las máquinas ATM en todo el mundo. Cuando Microsoft decidió cortar el soporte (que ocurrirá el 8 de abril próximo), lo que pasará es que los operadores estarán corriendo un sistema operativo obsoleto y sin soporte técnico por parte de Microsoft. De hecho, más de 400 mil máquinas ATM en los Estados Unidos usan Windows XP.

El propio Microsoft ha dicho que tales sistemas deben considerarse sin protección y se ha urgido a los usuarios de XP que migren a una nueva versión de Windows tan rápido como puedan. Ya muchos operadores se están moviendo a Windows 7, que es la siguiente actualización natural de Windows XP, pero otros están considerando Linux seriamente, indicó Tente. Cabe decir que antes de XP, las máquinas ATM usaban OS/2 de IBM.

Una nueva máquina ATM puede costar entre 15,000 y 16,000 dólares y los operadores piensan que el ciclo de vida de tales máquinas es de al menos 7 a 10 años. En algunos casos, las máquinas ATM pueden funcionar hasta 10 a 15 años. Para muchos operadores de ATM, el migrar a Windows 7 implica actualizaciones de hardware que añadirán dólares en el costo de la migración. Para colmo, los operadores en Europa tendrán que gastar aún más para soportar la tarjeta Europay Mastercard Visa (EMV).

Por su parte, Gray Taylor, director ejecutivo de Petroleum Convenience Alliance for Technology Standards (PCATS), dijo que casi el 30% de los puntos instalados de venta en tiendas de conveniencia y distribuidores de petróleo ya usan máquinas basadas en Linux. “Tiene sentido moverse a una plataforma abierta, como Linux, incluso en términos de la seguridad”, dice Taylor. “El talón de Aquiles de Microsoft es la seguridad de los datos”.

Windows XP y Windows XP embebido han sido la piedra angular de la presencia de Microsoft en el sector “retail” durante los pasados años, indicó Taylor, la versión embebida permitía operaciones a muy bajo nivel en el hardware. “Si yo fuese Microsoft, yo habría mantenido XP vivo por un par de años y hubiese puesto cuotas de soporte para escalarlo”, dijo Taylor y agrega “Microsoft tiene que servir a sus accionistas e invertir continuamente en un sistema operativo ya muerto, no tiene sentido para ellos”.

Ya está a la vuelta de la esquina AutoCAD 2015.

Ya está a la vuelta de la esquina AutoCAD 2015.



Ya hace poco comentaba que AutoCAD 2015 no seria soportado por Windows XP. Como muchos abran, Autodesk lanzará oficialmente su producto el 27 de Marzo, pero como ya es costumbre en la mayoría de los software, se encuentra disponible desde varios canales no oficiales y quiero ir mostrándoles poco a poco algunos aspectos de la nueva versión.

El objetivo de estas líneas es hacer que el usuario final conozca la nueva versión y se prepare para recibirla. Quienes tengan la suscripción de Autodesk recibirán un enlace para descargar la última versión del programa, y seguramente la web de Autodesk coloque un banner para descargar la demo el mismo día.


De entrada quiero decirles que la pantalla inicial no me gusta pero por los momentos hay que aguantarla quieran o no. Ella contiene dos ítems, Crear y Aprender, con tres y cuatro secciones respectivamente:

1.- El ítem Crear tiene tres secciones:

- Inicio: en el aparece la opción de iniciar en la pantalla principal de dibujo, abrir un archivo, abrir una plantilla, obtener plantillas online, entre otras cosas.

- Archivos recientes: Como su nombre lo indica, muestra los archivos más recientes abiertos.

- Conectarse: Te permite hacer login en Autodesk 360 para compartir recursos online o enviar comentarios sobre el producto para ayudar a mejorar AutoCAD.

2.- El ítem Aprender tiene tres secciones:

- Lo nuevo: Videos sobre lo nuevo que trae AutoCAD 2015.

- Videos de inicio: Videos sobre como iniciarse en el uso de AutoCAD 2015.

- Consejos: Consejos sobre que hacer en determinadas circunstancias.

- Recursos online: Proporciona ayuda, ejemplos y recursos online para mejorar la productividad en AutoCAD.




Comenzando a usar AutoCAD



Ya después de pasar la pantalla de inicio y estando en el ambiente de AutoCAD, fuera de los colores y algunas cosas que hay que configurar para que aparezcan y que con AutoCAD 2014 estaban por defecto, en la nueva versión no hay nada espectacular. Nada es extremadamente importante. Ya no existen los grandes saltos. Todo es de a poco mejorado, versión tras versión. Se llama evolución. Sin embargo, aquellos usuarios que se niegan a pasarse rápido a la última versión, luego dejan atrás la siguiente, y luego la siguiente, y cuando quieren acordar estamos en la 2015 y siguen usando la 2009. Entonces, el AutoCAD que usan y el que tenemos ahora si son distintos. A veces no nos damos cuenta de todo lo que cambia en 3 o 4 años, porque lo vemos aparecer todos los años.



Pero los cambios están ahí. AutoCAD 2015 ha recibido un "lifting facial" muy oportuno. No se trata de hacerlo más joven, sino de hacerlo más bonito. Está conseguido, al menos para mi gusto, claro. Ahora bien, les iré contando de a poco, algunas cositas que aparecen en esta versión, así puedo aspirar a que se familiaricen con el hasta el día 27 que lo puedan ver oficialmente.









Algo que me pareció sin sentido aunque no es algo de morir ya que fácilmente se puede configurar es que en la pantalla de dibujo, en la barra de trabajo inferior, no aparecen por defecto las coordenadas dinámicas del área de trabajo, cosa que uso a diario, por lo demás, puede asegurarles que optimiza el uso de aceleradores gráficos si se posee una GPU de ultima generación.

Los archivos siguen guardándose en la versión AutoCAD 2013 por defecto, la exportación a PDF ha sido mejorada y maneja mejor la memoria RAM del equipo y los elementos que se cargan con los dibujos a fin de optimizar la carga de archivos de gran tamaño, por ejemplo, el mismo archivo con un tamaño de 226 MB, AutoCAD 2014 lo abría en 16 segundos y AutoCAD 2015 lo abre en 10 segundos.

Por los momentos ha pasado muy poco tiempo para poder apreciar otros cambios relevantes, pero hasta ahora, he personalizado la configuración de AutoCAD 2015 tal cual tenia la versión anterior 2014 y no he tenido problema alguno, solo el tiempo me dirá si valió la pena el cambio.

 

domingo, 23 de marzo de 2014

El malware Win-Spy Software Pro v16 afecta a Android y a los PC con Windows.

El malware Win-Spy Software Pro v16 afecta a Android y a los PC con Windows.



Se ha detectado un nuevo malware que afecta tanto a terminales Android como a PC de escritorio con sistema operativo Windows, que se ayudaría de la consola de comandos de Android para infectar ambos dispositivos sin ser detectado por el usuario.

El malware en cuestión se llama Win-Spy Software Pro v16 y a continuación os contamos como actúa y que podemos hacer para protegernos convenientemente.


¿Cómo actúa Win-Spy Software Pro v16?




Este nuevo malware detectado que afectaría a Android y nuestro ordenador personal con Windows, actuaría a través de la consola de comandos de Android para infectar nuestro ordenador personal y a la vez nuestro terminal Android para recopilar toda la información de ambos dispositivos y enviarlos a un servidor en el cual se almacenarían todos estos datos personales in nuestro permiso explicito. Así podemos decir que este nuevo malware actúa a modo de spyware.

La infectación comenzaría lógicamente en nuestro dispositivo Android y este se haría valer de la depuración USB activada para llegar a infectar nuestro ordenador personal.
¿Cómo puedo prevenir la infección?




Para prevenir la infección bastará con tener la depuración USB deshabilitada desde los ajustes de nuestro Android así como tener un buen antivirus en Windows y con la correspondiente base de datos actualizada.

Si necesitáis activar la depuración USB como por ejemplo para Rootear el terminal, utilizar aplicaciones como Titanium Backup o flashear alguna Rom, os aconsejamos que cuando acabéis el citado proceso o acción la volváis a desconectar o deshabilitar.
¿Cómo saber si estoy infectado?
Si tu terminal está infectado muy probablemente tu ordenador personal también lo estará así que te recomendamos que si eres un usuario que suele tener activada la depuración USB constantemente compruebes en el cajón de aplicaciones de tu Android, si por arte de magia te han aparecido cuatro nuevas aplicaciones que tu no has instalado de manera consciente. Si es así corre a desinstalarlas ya que seguramente sean aplicaciones capaces de interceptar tus SMS e inscribirte en los mal llamados servicios Premium de mensajería por los cuales nuestras compañías nos cobran una buena pasta.



En esta caso también te aconsejamos que utilices un buen antivirus en tu Windows y le hagas un escaneo a fondo para comprobar si tu Android hubiera infectado a tu sistema operativo Windows.

En principio este es el método como se sabe que actúa este nuevo malware para Android y Windows. Si eres un usuario que por norma general no tiene activada la Depuración USB en su Android o que jamás lo conecta vía cable USB a su ordenador personal, en estos casos no te debes preocupar.