Según Google entre el 25% y el 30% del contenido de la web está duplicado.
Uno como usuario no lo nota porque el algoritmo de Google selecciona ciertos resultados por relevancia e ignora el resto.
Los ingenieros de Google tienen un canal de YouTube llamado GoogleWebmasterHelp, el que es usado para responder las consultas realizadas por los webmasters, y donde recientemente el ingeniero de Google Matt Cutts reveló que prácticamente casi un tercio de la WWW es contenido duplicado.
Esto se debe a que cuando se publica una nota en un sitio, como por ejemplo FayerWayer, ésta es replicada de inmediato en numerosos sitios de Internet. Google revisa todas esas notas replicadas y solo destaca a algunas entre sus resultados.
Google está trabajando para pulir sus algoritmos (Google Panda y Google Penguin) y los actualiza constantemente para evitar causar daño a los sitios que crean contenido original sobre los que lo copian, reproduciéndolo en sus webs y muchas veces posicionándolo mejor en los resultados de una búsqueda (SERP) que el sitio que creó el contenido original.
Pero no se debe perder de vista que también priman otros factores como que el sitio del contenido original no esté utilizando técnicas penalizadas por Google y no esté en sanción algorítmica o en sanción manual entre muchos otros factores, hacer una cosa bien no implica que otras van a ser omitidas o no serán tenidas en cuenta.
Según Cutts, entre el 25% y el 30% del contenido de la web está duplicado, por lo que el algoritmo de Google se encarga de agrupar todo este contenido en un solo paquete del cual se destaca el contenido más relevante.
No hay comentarios:
Publicar un comentario