miércoles, 29 de abril de 2015

¿Esta siendo usada tu PC sin que lo sepas en la actual guerra digital?.

¿Esta siendo usada tu PC sin que lo sepas en la actual guerra digital?.



Ya con anterioridad había comentado sobre la guerra cibernética que se libra a nivel mundial desde hace años y más aun, el peligro latente de que nuestras PC´s sean usadas como botnet o atacantes cibernéticos sin nuestro conocimiento. Cuando la luz de nuestro disco duro parpadea sin cesar sin que estemos haciendo nada con ella o la luz del router titila aun cuando supuestamente no hay trafico en a red, es hora de averiguar lo que pasa con nuestra PC ya que puede ser victima de una intrusión y ser parte de una red botnet como le ha pasado a un amigo que me pidió el favor de revisarle su PC por que la notaba rara y sorpresa cuando me encontré que estaba siendo usada remotamente para realizar ataques.

Eventos recientes demuestran que la guerra es real y se incrementa cada día.

A mediados del pasado mes de marzo, diversas organizaciones experimentaron un ataque distribuido de denegación de servicio. Esto, desde luego, no es noticia, es algo que ocurre con una frecuencia diaria, por diferentes motivos, sobre objetivos dispares y usando técnicas que sabríamos reconocer al instante conociendo ciertos detalles. Este ataque en concreto, se diferencia en la infraestructura usada como apoyo para generar el tráfico de ataque. Un uso orquestado de recursos con una precisión y capacidad de maniobra fuera del alcance del perfil atacante al que estamos acostumbrados. Veamos que hay detrás del apodado recientemente "Gran cañón de China".

Martes, 17 de marzo

Los administradores del sitio greatfire.org reciben un tráfico de 2.600 millones de visitas. Cae el sitio principal y todos los espejos que mantiene la organización a lo largo de Internet. Según ellos mismos, los servicios alojados en la nube de Amazon les generan un cargo de 30.000 dólares cada día. Algo insostenible para una
organización sin ánimo de lucro, creada para evadir la censura impuesta en China a ciertos sitios y servicios de Internet que son agregados a su lista negra.

Jueves, 26 de marzo

Cae github.com. En una breve entrada en el blog corporativo github comunica que está recibiendo "el mayor ataque distribuido de denegación de servicio en la historia de github.com". En la entrada ya señalan que, conjuntamente a los vectores conocidos, observan "una sofisticada técnica que usa el navegador web de usuarios de manera inadvertida" para generar tráfico masivo sobre sus servidores. Segúngithub.com el ataque es una "invitación" para que retiren cierto contenido, sin señalar el qué y a quien le resulta molesto. El equipo de seguridad Google sugiere http://googleonlinesecurity.blogspot.com.es/2015/04/a-javascript-based-ddos-attack-as-seen.html
que el contenido podría ser este: https://github.com/greatfire
. Es evidente la relación con el primer ataque.

Cómo fabricar un ejército de un millón de máquinas

Tradicionalmente se ha recurrido a la infección de sistemas de escritorio, servidores comprometidos o sitios web a los que se les ha añadido código javascript malicioso. En cualquier caso, el paso previo para añadir un elemento a la incauta red de trasvase de tráfico involuntario era recurrir a la intrusión o infección masiva de sistemas. Todas esas molestias pueden ser evitadas si dispones de la infraestructura adecuada.

En los ataques observados, los navegadores de los usuarios cargaban código javascript que aparentemente procedía de baidu.com, el mayor buscador chino y uno de los sitios con mayor tráfico de toda la red. No era necesario visitar baidu.com, bastaba hacerlo a cualquier sitio web, dentro o fuera de China, que hiciese uso del sistema de análisis de visitas de Baidu, quien por cierto niega completa y rotundamente cualquier responsabilidad en los ataques. ¿Entonces como llegó ese contenido a los navegadores de los usuarios?

Gigante en el medio

De sobra conocido, el gran cortafuegos chino nace en 1998, bajo el nombre en código de "Escudo dorado", entrando en estado operacional en 2003. Este descomunal proyecto permite al gobierno chino "desconectar" selectivamente aquellos sitios o servicios que son considerados subversivos o contrarios a la moralidad. Para dicha tarea es necesario contar con una infraestructura controlada y supervisada. Pensemos en la dificultad para establecer este tipo de controles en una empresa de tamaño mediano y después hagamos los cálculos para hacer lo mismo en el país más poblado del mundo.

Todos y cada uno de los datagramas IP que entran o salen de China son examinados por el escudo dorado. Aquellos que son marcados como contenido subversivo o de origen sospechoso son manipulados para cerrar la conexión de inmediato, las peticiones DNS son controladas para redirigir los dominios prohibidos y todo el texto no cifrado es sistemáticamente analizado en busca de elementos problemáticos. Solo el cifrado (y no en todos los casos) permite abrir una pequeña brecha para evadir la censura.

Según el estudio técnico publicado por Citizenlab https://citizenlab.org/2015/04/chinas-great-cannon/
, esa misma tecnología de inspección de paquetes fue usada para insertar el contenido malicioso, que era devuelto a los clientes que solicitaban ciertos recursos a Baidu, durante la ventana de ataque. Denominan a dicha infraestructura el "Gran cañón de China" y la asocian directamente al "Gran cortafuegos chino", luego por definición están señalando al gobierno chino como responsable de los ataques dirigidos.

El esquema de ataque se reducía a observar el tráfico, detectar si el recurso se estaba pidiendo a un dominio controlado por Baidu e inyectar un script malicioso de manera aleatoria al tráfico saliente de los servidores hacia el cliente. Estos últimos, se encargaron de generar miles de millones de visitas a los sitios afectados.

El código del script contenía URL pertenecientes a la infraestructura de Amazon, usada por GreatFire. Posteriormente dichas URLs fueron sustituidas por las atacadas a Github: github.com/greatfire y github.com/cn-nytimes.




¿Y el tráfico cifrado?
Podríamos pensar que si establecemos un canal seguro entre nuestro cliente y cualquier recurso, en este caso cualquier subdominio debaidu.com, nos va a proteger ante la inyección de contenido en el canal, evitando la manipulación. ¿Nos va a proteger el cifrado?

La siguiente captura de pantalla pertenece al repositorio de certificados de la última versión de Firefox, lo mismo ocurre para el llavero del sistema operativo. Esta captura y estos https://blog.mozilla.org/security/2015/04/02/distrusting-new-cnnic-certificates/
enlaces http://googleonlinesecurity.blogspot.co.nz/2015/03/maintaining-digital-certificate-security.html?m=0
podránhttps://en.greatfire.org/blog/2015/mar/evidence-shows-cnnic-and-cac-behind-mitm-attacks
despejar cualquier duda ante la pregunta. Tráfico cifrado no significa que sea seguro, simplemente significa que está…cifrado.



Más información:
Cómo proteger mejor su PC con protección botnet y evitar el malware
http://www.microsoft.com/es-xl/security/pc-security/botnet.aspx

A Javascript-based DDoS Attack as seen by Safe Browsing
http://googleonlinesecurity.blogspot.com.es/2015/04/a-javascript-based-ddos-attack-as-seen.html

China’s Great Cannon
https://citizenlab.org/2015/04/chinas-great-cannon/

Distrusting New CNNIC Certificates
https://blog.mozilla.org/security/2015/04/02/distrusting-new-cnnic-certificates/

Maintaining digital certificate security
http://googleonlinesecurity.blogspot.co.nz/2015/03/maintaining-digital-certificate-security.html?m=0

Evidence shows CNNIC and CAC behind MITM attacks
https://en.greatfire.org/blog/2015/mar/evidence-shows-cnnic-and-cac-behind-mitm-attacks

viernes, 17 de abril de 2015

Los megapíxeles, ¿decisivos en la calidad de una imagen?

Los megapíxeles, ¿decisivos en la calidad de una imagen?

Por José Antonio Luna el 17 de abril de 2015, 01:02

Analizamos de qué forma influyen los megapíxeles en la calidad de una imagen y si éstos se deberían valorar por encima de otros factores.



Aunque cada vez ocurre menos, aún existen personas que utilizan el número demegapíxeles como guía para definir si se encuentran ante una cámara que merece la pena. Sin embargo, esto puede ser un error, ya que la calidad de una imagen no se encuentra motivada por ello.

A pesar de que pueda resultar algo complejo, no se puede decir que un dispositivo sea superior a otro únicamente mirando unos valores numéricos, sino que entran en juego muchos más factores.

Tener los mismos ajustes de exposición para diferentes cámaras no implica que ambas vayan a obtener la misma luz, aspectos como el sensor, el procesador, elISP o la óptica que empleemos serán solo algunos de los elementos que determinarán la calidad de la fotografía obtenida.



Créditos: Naturpixel

Además, la cosa se puede complicar algo más si para determinar lo ideal de una cámara tenemos en cuenta su ergonomía y valoramos cómo es capaz de adaptarse a nuestras manos a la hora de tomar fotografías, o lo accesible que son sus botones.

Existen muchas maneras de analizar una cámara, y los puntos sobre los que se van a incidir son, en algunas ocasiones, subjetivos. Pero lo que no debemos hacer nunca, jamás, es guiarnos por los megapíxeles para hablar de la calidad de una cámara, y por ende, tampoco de sus imágenes.

¿Qué son los megapíxeles?
Antes de entrar en aspectos más técnicos, de forma un algo burda podemos decir que los megapíxeles son los elementos que definen cuánto podemos ampliar la imagen sin perder nitidez.

Partimos con la base de que una imagen digital se encuentra compuesta por píxeles, es decir, numerosos puntos que, de forma unida, terminan creando nuestra foto. Asimismo, un megapíxel equivale a un millón de píxeles, por lo que cuanto más megapíxeles tenga una fotografía más elevada será su resolución. Por lo tanto, eso es algo que influye en las dimensiones de nuestra instantánea, siendo mayor su tamaño.



Créditos: mivillephoto

Por ejemplo, en una captura de 4864 x 3648 el primer valor se corresponde con el número de píxeles a lo ancho de la imagen, mientras que el segundo pertenece al alto. El resultado de multiplicar esas cifras sería equivalente a los píxeles que tienen la captura, en este caso 17.743.872 de pixeles, o lo que es lo mismo, unos 18 megapíxeles.

A grandes rasgos, es la información que tiene la fotografía, por lo que cuanto más megapíxeles tengamos, mayor será el peso de nuestro archivo, y mucho más si ese archivo está configurado en modo RAW, donde los píxeles no tienen compresión alguna.
¿Qué importa entonces?
Este apartado estará marcado por las necesidades de cada uno. Obviamente, si las intenciones son las de realizar una fotografía para un cartel publicitario en la Gran Vía, la cantidad de píxeles será muy importante. Pero ese no suele ser un caso habitual.

Lo que recomiendo es que nos fijemos en tamaño del píxel y no en la cantidad de éstos. Como muy bien se plasma en un artículo de El Confidencial, un ejemplo de ello puede ser la cámara del iPhone durante sus distintos modelos.

Desde 2004 con el lanzamiento de iPhone 4S hasta la actualidad, la compañía de Cupertino ha mantenido la misma resolución en su smartphone, la de 8 megapíxeles. Sin embargo, sí que se han mejorado en otros aspectos como el tamaño del sensor, lo que provoca que el tamaño del píxel termine siendo más grande (en este caso de 1,5 micras).



Los píxeles, al ser de mayores dimensiones pueden captar más luz a través de sus fotodiodos, lo que permite emplear una sensibilidad mayor sin que el granulado o la pérdida de calidad puedan suponer un problema. Un método que también se ha empleado con la Sony A7S, la cual tiene un tamaño de píxel superior a las 8 micras.

No significa que el tamaño de los píxeles sea el único elemento que determina la calidad de la imagen, como hemos señalado al principio del post, existen muchos más. Lo esencial es no caer en el error de creer que los megapíxeles es uno de esos elementos, algo que vale la pena recordar cuando empresas comoNikon y Canon están apostando por incluir una enorme resolución, como muestra de ello tenemos a la reciente 5Ds.

domingo, 12 de abril de 2015

Esta es la distancia óptima para ver tu TV, según tamaño y resolución

Esta es la distancia óptima para ver tu TV, según tamaño y resolución

Por Félix Palazuelos el 6 de abril de 2015, 17:27

Solemos errar a la hora de comprar nuestro televisor tanto por exceso como por defecto de tamaño. Aprende a elegir el televisor adecuado a tu salón.



La respuesta es relativamente sencilla, pero casi siempre es obviada por el consumidor. Depende de varios factores, el primero es la resolución de tu televisor. A menor resolución tenga tu televisor, menos pixeles definirán la imagen y mayor será la distancia a la cual deberás ver el televisor para no percibirlos. Esto nos lleva al segundo factor: el tamaño de tu televisor. A más grande sea, mayor será la distancia que debas tomar para verla y asegurar no ver los pixeles; aunque la resolución afectará a esta medida. Todos los tamaños de pantalla se conocen por su diagonal medida en pulgadas.



La gráfica superior debería darte una buena idea sobre la distancia que deberías tomar respecto a tu televisor acorde a su resolución y tamaño. La resolución etiquetada como 480p es la resolución SDTV, standar definition. En Estados Unidos (NTSC) es de 480p, aunque en España sea (PAL), es decir, 576p. La diferencia no es enorme y la distancia óptima no es algo que debas seguir al milímetro por lo que te servirán las mismas medidas. Es la resolución del DVD por ejemplo.


La resolución 720p y 1080p son las más comunes en la actualidad. Casi todos los televisores son ya 1080p, pero el contenido a consumir suele ser todavía en 720p (series, deportes, televisión, incluso vídeos de Youtube). Si tu televisor es 1080p pero casi siempre ves contenido en 720p, tenlo en cuenta.

Finalmente está la resolución UHD (coloquialmente conocida como 4K). Aunque no hay casi contenido disponible lo he incluido como futura y muy necesaria referencia. La cantidad de pixeles es tan grande que podrás sentarte a 1.2 metros de distancia de una tele de 100" sin distinguir los pixeles. Eso es lo grandioso de las pantallas 4K, que el televisor pueda ocupar tu campo de visión sin perder detalle ni definición. Todo son estimaciones realizadas acordes a lavisión 20/20 (para profundizar en el concepto tenéis este artículo y estepodcast). Puede que tu ojo sea capaz de diferenciar pixeles incluso a la distancia que te indicamos, ten en cuenta que es una estimación que te servirá como guía de compra y un punto de partida basada en la media de la agudeza visual del ser humano.

El consenso actual para pantallas de alta resolución es tomar una distancia 1.6 veces mayor a la diagonal de tu televisor

Para calcular la distancia óptima entre tú y tu televisor lo que necesitas es una tabla donde puedas comprobar la diagonal de tu televisor en pulgadas y la resolución con la correspondiente distancia de visionado. El problema es quelos fabricantes suelen ofrecer tablas y gráficas demasiado conservadoras, muchas veces usando el múltiplo empleado en televisores de definición estándar. Lo más habitual es que recomienden 2.5 veces la diagonal del televisor como distancia de visionado. Para una diagonal de 50", el tamaño más común en las tiendas, sugieren una distancia superior a los 3 metros.

La SMPTE (Society of Motion Picture and Television Engineers) tiene una opinión diferente, y con la que concuerdo más. Ver un televisor HD desde una distancia en la que la pantalla ocupe 30 grados de nuestro campo de visión es lo recomendado (equivale a 1.6 veces la diagonal de un televisor 16:9). Es la recomendación más popular en los foros de entusiastas de la imagen, aparece en los libros de diseño de home theater y suele ser apoyado por los medios especializados.




Ilustración de THX

THX, en cambio, cree que el espectador debe recrear en su casa la experiencia cinemática.Así que recomiendan una distancia de 1.2 veces la diagonal de su televisor. Al sentarte más cerca, el televisor abarca más rango de tu campo de visión y THX cree que, debido a las resoluciones de hoy en día, es lo recomendado. Para un televisor de 50" ellos recomiendan sentarse a 1.68 metros.
Recomendaciones finales




Televisor UHD JU7500 de 78" y resolución UHD de Samsung.

Lo que te recomiendo es que no compres el televisor por ser más grande que el del vecino, ni que pienses que por sentarte cerca de él te vas a quedar ciego. No caigas en esos argumentos de dudoso origen. Mi recomendación es que sigas la gráfica que hemos elaborado y ajustes según tus preferencias y el contenido que vas a ver. De nada sirve situar el televisor a una distancia óptima si vas a ver vídeo muy comprimido o de baja resolución.

Intenta que la distancia sea la correcta, pero no te vuelvas loco. Lo importante es la calidad del televisor y la calidad de la fuente, si vas a ver una película bluray en un buen televisor podrás tener una experiencia cinemática muy buena sentándote cerca. También puedes ver horribles artefactos de compresión o pixeles si ves una serie en definición estándar en un televisor muy grande a poca distancia. Usa el sentido común y la gráfica como guía.

domingo, 5 de abril de 2015

Zoom.net

Desde la web de RTVE traemos un resumen de avances tecnologicos en video

Mover el router solo 5 cm puede mejorar el alcance de tu red WiFi

Mover el router solo 5 cm puede mejorar el alcance de tu red WiFi

Por: Carlos Rebato



Más de una vez, intentando entender cómo es posible que no le llegue señal WiFi al PC que esta a escasos 4 metros del router y separado sólo por una pared he pensado: "Vamos, no puede ser tan difícil". Pero la cuestión es que sí, lo es, y el electromagnetismo que hay detrás de las redes WiFi ofrece peculiares soluciones.

Si vives en un casa con una arquitectura particular, ya sea muy grande o muy alta, tal vez tengas…Seguir leyendo

Las conclusiones salen de un estudio interesantísimo publicado por un doctorando en física en The Conversation. Aplicando ecuaciones físicas bien conocidas como las de Maxwell, que permiten describir y evaluar por completo el comportamiento de las ondas electromagnéticas, y ejecutando una simulación con el plano de su propio piso puede verse como las ondas se propagan a través de las distintas habitaciones.

La primera conclusión es clara: cuanta más paredes u obstáculos haya entre el emisor (el router) y el receptor, más pobre a será la calidad de la señal. Pero también podemos ver como en otros rincones, como el hueco que hay justo a la izquierda del router, en la parte central inferior de la imagen, la señal se degrada notoriamente.

Pero en ocasiones parece que la señal deja de propagarse o cambiar dirección y en su lugar tilila o permanece estática sobre un punto. Es lo que se conoce como "puntos oscuros" debido a unastanding wave formation, que básicamente es un proceso que ocurre cuando dos ondas similares chocan entre sí anulándose la una a la otra.

Una animación en tres dimensiones sobre cómo se distribuye una señal Wi-Fi y los puntos oscuros sin señal que se generan puede verse en el siguiente vídeo:


La conclusión es que si aún estando relativamente cerca del router y con buena señal tu señal de WiFi va mal o se cae, es posible que se deba a una de estas particularidades. No hay una manera clara y sencilla de resolverlo pero es bastante posible que simplemente moviendo el router unos centímetros a un lado o a otro probando diferentes combinaciones los puntos negros se generen en puntos distintos.

El autor ha creado una aplicación en Android bastante interesante que permite recrear el plano de nuestro hogar y simular, de manera experimental, el comportamiento de la red WiFi. Si aún así no funciona, puedes consultar nuestros trucos y consejos para obtener una buena conexiónen cualquier rincón de tu casa. [Descargar: WiFi Solver]

jueves, 2 de abril de 2015

Google actualiza la ‘app’ de Gmail para Android

Google actualiza la ‘app’ de Gmail para Android

Es bien sabido por todos que Google dispone de un buen surtido de aplicaciones móviles, casi casi una por cada uno de sus servicios más relevantes. Pues bien, en las últimas horas han actualizado dos de ellas en su variante Android, concretamente la de Google Drive y la de Gmail, en este último caso añadiendo varias novedades entre las que hay alguna especialmente interesante.

Empezando por la última, la de Gmail, tenemos que en la nueva versión de la misma los del buscador por fin han implementado lo que muchos esperaban desde hacía tiempo (especialmente todos los que vienen de iOS): bandeja de entrada unificada. Es decir, que a partir de ahora se dispone de una nueva opción en la app, llamada “All inbox”, que al picarla abre un apartado donde se muestran todos los correos de todas las cuentas de email que tengamos configuradas.

Sin duda era algo necesario, ya que en la actualidad es muy habitual que los usuarios gestionen dos, tres, cuatro o más cuentas de correo electrónico y andar pasando de una a otra no resultaba práctico. Pero sigamos, que no se quedan ahí las novedades.

A eso además suman “vista de conversación” para cualquier tipo de cuenta (Yahoo, Outlook.com y otras IMAP/POP), no sólo en las de Gmail, mejoras en el sistema de autocompletado a la hora de realizar búsquedas y diversos añadidos menores (por ejemplo aumentaron el tamaño de las vistas previas de archivos adjuntos).

Eso en cuanto a Gmail para Android. Respecto a Google Drive, sólo hay un cambio, y es la integración de las fotos y los vídeos de Google+ en la nueva versión de la aplicación móvil. Afinando un poco más, desde ya en laapp hay una nueva sección, “Google Photos”, donde no sólo aparecerán las imágenes cargadas directamente a Drive sino también las guardadas en Google+.

Así que ahora a los usuarios de Android sólo les queda esperar a que las nuevas versiones de las dos apps lleguen a todos los mercados (no deberían tardar) para poder disfrutar de sus novedades, y los de iPhone/iPad no sabemos cuánto tendrán que esperar porque Google no ha dicho cuándo actualizarán Gmail para iOS.

H.265 y VP9: así funcionan los codec que hacen el streaming 4K posible

H.265 y VP9: así funcionan los codec que hacen el streaming 4K posible


Ejemplo de bloques seleccionados por H.265 a comprimir.

Una de las mayores limitaciones que existían para que el 4K fuese una realidad, era el gran bitrate de los vídeos. En la actualidad eso ya no es un problema tan grande, ya que aquí están los nuevos formatos de compresión que proclaman ser el doble de eficientes que el H.264, el actual estándar de la industria. El beneficio no aplica al contenido 4K en exclusiva, los vídeos en 720p y 10800p serán más fáciles de descargar en conexiones lentas. H.265 y VP9 soportan contenido 4K y... 8K, podríamos decir que son el presente y el futuro del vídeo, por eso son tam importantes.

El formato H.265 ha sido desarrollado como el HEVC (High Efficiency Video Coding), a veces se denomina HEVC H.265, por la VCEG (Video Coding Experts Group) y la MPEG (Moving Picture Experts Group). Se estableció como el sucesor del H.264 (el codec más extendido) en 2013. El problema es que, como el H.264, los fabricantes de hardware han de pagar la licencia por agregar el soporte y los desarrolladores pagar una cuota.

VP9 es open source y libre de royalty. Ha sido desarrollado por Google como sucesor de su VP8, su propia alternativa -no tan exitosa- del H.264. Google ya ha integrado soporte para dicho codec en su navegador Google Chrome y Youtube. Google aboga por el empleo del VP9, como lo hace ya en YouTube alegando que reducen un 35% ancho de banda de media por vídeo y que los vídeos comienzan entre un 15-80% más rápido.

¿Cómo funcionan?

Para comprimir algo tienes que hacer justo lo contrario a lo que ofrece lo que vas a comprimir. Suena estúpido, pero ahora lo entenderás. El vídeo 4K aumenta la nitidez de las imágenes haciendo que cada pixel sea más pequeño. Para reducir el peso del vídeo, H.265 hace los pixeles más grandes. (Pongo en itálicas lo de grande y pequeño porque es una simplificación para que se entienda).

Entonces cuando ha de ser descomprimido y reproducido, emplea una serie de algoritmos para intentar devolver el vídeo a su resolución origen, perdiendo algo de calidad como en todos los formatos con pérdidas. A mejor codec sea, mayor sera la calidad con menor espacio empleado en el fichero final.



Por ejemplo, el H.264 creaba "bloques" de 16x16 pixeles y luego a la hora de descodificar ejecuta 9 tandas de algoritmos (educated guesses) que le permiten reconstruir con mayor o menor fidelidad los pixeles originales. H.265 crea bloques de 64x64 pixeles y ejecuta 35 predicciones para devolverlos a la forma más aproximada posible que la original. En realidad los dos codec usan bloques de diferentes tamaños según las zonas y colores, es muy inteligente con los patrones. Por ejemplo el cielo o un campo.

El VP9 funciona igual, pero permite crear bloques rectangulares además de cuadrados, por lo que aumenta su eficiencia. El problema es que sólo ejecuta 10 modos de predicción para reconstruir el vídeo.
Soporte y futuro

Ambos codecs necesitan bastante más poder computacional para decodificar el vídeo que el H.264 y el VP8, como podrías esperar. A más compresión, mayor trabajo al decodificarlos. Los dos son unos formatos geniales, H.265 tiene una calidad superior, pero VP9 tiene una decodificación más estricta que permite más estabilidad en los vídeos por streaming.

A diferencia de lo ocurrido con el VP8 y el H.264 parece que todos los fabricantes están soportando ambos codec. Qualcomm, Samsung, ARM, por ejemplo, tienen soporte para VP9. Pero también soportan H.265. El futuro es más calidad en menos tiempo y compromisos. Y los fabricantes parecen haberse puesto de acuerdo.

Día de la Copia de Seguridad: firmas del sector abogan por un cambio de enfoque

Día de la Copia de Seguridad: firmas del sector abogan por un cambio de enfoque

Día de la Copia de Seguridad: firmas del sector abogan por un cambio de enfoque

El 31 de marzo se celebra el Día Internacional de la Copia de Seguridad y, como cada año, distintas compañías y expertos recuerdan la importancia de que empresas y usuarios cuenten con un backup de sus datos más importantes que les permita recuperarlos en casa de pérdida o robo.

Sin embargo, según una encuesta realizada por la firma Kroll Ontrack entre más de 800 de sus clientes en América del Norte, Europa y Asia Pacífico, el 61% de éstos perdieron datos en 2014 pese a tener una copia de seguridad. El porcentaje es menor que el registrado en 2014 (65%) y 2013 (63%), pero sigue resultando preocupante.

Desde el proveedor de software alemán TeamViewer señalan la necesidad de un cambio de enfoque en ésta y otras iniciativas mundiales que promueven las copias de seguridad: sustituir este concepto por el de la recuperación de datos. La práctica del backup, señala su jefe de gestión de producto, Kornelius Brunner, es buena e importante, pero solo resulta útil en situaciones de crisis cuando los datos no pueden ser restaurados correctamente de ninguna otra forma.

Las copias de seguridad, defiende Brunner, deben ser simples y flexibles. La recuperación de datos ha de ser lo más rápida posible, ya que, en su opinión, quienes necesiten horas o días para recuperar sus datos están perdiendo un tiempo precioso que puede repercutir de forma negativa en su negocio. Por otro lado, y más en la actual era multiplataforma y multidispositivo, el backup debe contar con la flexibilidad suficiente como para permitir recuperar los datos en la misma localización en la que los necesiten o deseen.

Y es que, de acuerdo con los datos recogidos por Kroll Ontrack, a pesar de que el 71% de sus clientes realizan copias de seguridad de sus datos, un 42% de ellos diariamente, la pérdida de datos sigue siendo importante, porquepequeños descuidos hacen que el backup resulte a veces ineficaz.

El 21% de los entrevistados confesaron que su copia de seguridad no funcionaba correctamente. La misma proporción reconoció que no había incluido el dispositivo que utiliza con más frecuencia en su procedimiento de copia de seguridad, mientras que el 19% admitió que la copia no era reciente, lo que reduce, dicen los autores de la seguridad, la probabilidad de recuperar los datos necesarios.

“Si la recuperación de datos es muy compleja, esto va en contra del concepto básico del backup”, ha asegurado Brunner.