MITOS SOBRE CONTENIDO DUPLICADO EN EL POSICIONAMIENTO WEB EN BUSCADORES

29 de junio del 2015 | por Top Management

Virket, la Agencia de Marketing Digital con  tecnología digital y móvil basada en resultados, nos da sus puntos de vista sobre los mitos que existen sobre el contenido duplicado.

Alejandro Daniel Padilla, Copywriter, y Daniel Molano, Chief Marketing Officer, ambos de Virket, comentan que uno de los miedos más grandes que puede tener cualquier mercadólogo, es que el posicionamiento Web en buscadores se vea afectado. Mucha gente que no tiene experiencia con Search Engine (SEO), piensa que existe una penalidad por publicar contenido duplicado, mismas personas que no han leído la guía sobre contenido duplicado publicada por Google. A continuación, hablaremos un poco sobre los mitos que existen sobre el contenido duplicado.

MITO No. 1: Contenido no original va a dañar el posicionamiento Web en buscadores

Nunca antes se ha dado el caso de que contenido que no sea original afecte el ranking o posicionamiento Web en buscadores, con excepción de un caso muy extremo en el que cierta empresa de Relaciones Públicas copió la página principal de un sitio, utilizándola para distintos eventos que tenían que cubrir. En cuestión de minutos, ya había, literalmente, cientos de copias de este sitio Web por toda la red, todos conteniendo exactamente la misma información, lo que, lógicamente, encendió las alarmas en Google. En cuestión de minutos, el sitio había sido sancionado.

Luego de que esto sucediera, los dueños del sitio original levantaron una queja con Google, la empresa revisó el caso y levantó la sanción. Este es uno de los pocos casos en los que Google ha sancionado algún sitio por contenido duplicado, y, como podemos ver, es un caso especial, pues existían cientos de sitios con exactamente la misma información, publicados todos al mismo tiempo y todos con exactamente el mismo diseño, a pesar de que el nombre de los dominios era distinto.

Sin embargo, esto no es a lo que la mayoría de la gente se refiere cuando estamos hablando de “contenido duplicado”. Por lo general, se refieren a una copia de 1,000 palabras en un sitio, y se necesita mucho más que esto para prender los focos rojos en Google. Muchos sitios, incluyendo los blogs más populares en la red, generalmente vuelven a postear artículos que ya han aparecido en algún otro lugar. En este caso, ellos no esperan rankear en las primeras posiciones del buscador, pero también saben que no va a dañar la comunicación de su sitio.

MITO No. 2: Scrapers van a dañar tu sitio

Un Scraper es un software que es utilizado con mucho fines, uno de ellos es el de monitoreo de algún sitio, pero también puede ser utilizado para copiar todos los contenidos nuevos que vaya publicando algún sitio Web. Es importante dejar claro que los Scrapers no benefician pero tampoco perjudican el posicionamiento Web en buscadores de tu sitio. Y es que si hay un pequeño sitio en Europa que no publica nada de contenido original y tiene muy pocas visitas, será algo totalmente irrelevante para Google.

Algo a lo que sí debemos de poner cercana atención es a los plagiarios. Hay una enorme diferencia entre contenido que haya sido copiado por un software y la violación de Derechos de Autor. Es probable que en algún momento una compañía se robe tu contenido, o incluso hasta tu sitio entero, y se atrevan a decir que ellos lo crearon. Esto, lógicamente, es ilegal, y en caso de que te suceda, querrás pensar en abogados más que en cómo puede afectar tu reputación ante los motores de búsqueda.

MITO No. 3: Republicar contenido a tu propio sitio es una mala idea

Como regla general, siempre es mejor publicar contenido propio y original, pero hay momentos en los que publicar contenido que haya sido publicado en otro sitio puede agregar valor a tu blog, por lo que no tiene absolutamente nada de malo hacerlo. En realidad, existen muchos blogs con una muy buena reputación que alientan a los visitantes a postear su contenido en sus sitios propios algunas semanas después de su publicación. A lo mucho, lo único que piden es que se utilice una etiqueta HTML.

Parece que estamos entrando en pánico por algo que ni siquiera sabemos a ciencia cierta, así que hay que considerar lo siguiente. Los bots de Google visitan la mayoría de los sitios de Internet. Si encuentran una versión copiada de algún texto en algún otro sitio, sabrá cuál es el original. Los bots de Google no se enojarán y penalizarán el sitio que publica contenido no original, simplemente no lo van a rankear tan alto en el posicionamiento Web en buscadores como aquel artículo que sí es original, concluyeron Padilla y Molano.

Liga de interés:

http://virket.com/

 

Etiquetas: , , , , , , ,




Comments are closed.