• paginas web
  • paginas web
  • paginas web
  • paginas web
3112585603

Google y sus algoritmos: Google Caffeine, Google Panda y Google Penguin

Blog

Muchos hemos escuchado de google y la forma de optimizar para los buscadores nuestro sitio web, existen herramientas, tips, blogs, relacionadosy demás sobre el tema, si googleamos un poco podemos encontrar mucha información relaciona, hoy vamos a hablar de google y sus algoritmos, pero que es esto?.

Google es una herramienta muy potente que se encarga de rastrear y ubicar las páginas existentes, hay millones de ellas, día a día se crean nuevas páginas y el buscador se debe encargar de rastrearlas, para esto los programadores de google desarrollaron estos algoritmos, desde que está google, la optimización para buscadores es una herramienta muy importante para poder ubicar nuestra web en los primeros resultados de la búsqueda y así atraer más compradores, son estrategias de marketing muy útiles para su negocio, siempre han existido personas que tratar de jugar por el lado de los trucos y engaños para poderse posicionar más rápido, es lo que se conoce como black hat, este “sombrero negro”, es la forma de llamar las técnicas que google considera ilegales para posicionar nuestras páginas, por otro lado, existe el white hat, que es la forma limpia y legal de realizar este posicionamiento, en el medio estará lo que se conoce como grey hat, las técnicas que no son ni ilegales pero tampoco tampoco lo son, son los tonos grises en la forma de ejecutar el posicionamiento seo (search engine optimization).

Google se ve en la necesidad de desarrollar algoritmos cada vez más potentes y estrictos que puedan filtrar estas técnicas legales e ilegales y así tener criterios de selección para la posición de las páginas en su buscador, si se detectan las técnicas de black hat, el sitio será baneado o bloqueado de sus registros, las tres últimas actualizaciones de los algoritmos de google se han llamado: Google Caffeine, Google Panda y por último, la reciente aun poco conocida, Google Penguin, ahora vamos a hacer una pequeña reseña de cada una de estas actualizaciones.

Google Caffeine

Este algoritmos fué lanzado a mediados del 2010 y presentó un drástico y muy buen cambio en la manera en la que se presentaban contenidos frescos y actualizados, en gran parte, un aspecto que influyó en la aparición de este algoritmo, fué la aparición y auge de facebook y twitter, ya que es estos sitios el contenido se renovaba constantemente, lo cual no podía dejar a google atrás, por otra parte, google presentaba dificultades para mostrar páginas con contenidos actualizados, a lo que es esta actualización dió prioridad, y desde entonces google muestra contenidos actualizados, incluso, poco después de haber sido publicados, cabe anotar que esto depende de la frecuencia con la que se le sugiere al bot de google para que entre y revise si nuestras páginas tienen contenido nuevo, esto depende del mapa del sitio por lo general sitemap.xml y del archivo robots.txt.

Google caffeine impuso más de 500 cambios con respecto a sus políticas anteriores, y esto dió un giro en la forma de ver las cosas para las personas que hacían en ese entonces posicionamiento SEO, de hecho cada vez que google saca una nueva actualización, cambian las reglas del juego, y los que queremos mantener nuestras páginas en primeros lugares debemos adaptarnos a esos cambios, eso es evolución que crece con las reglas y requerimientos que impone google, ellos gobiernan el imperio de los motores de búsqueda por lo cual debemos atenernos a lo que nos impongan y respetar sus reglas, si no queremos bajar posiciones en el buscador o ser bloqueados del todo.



Google Panda

Google Panda, nace debido al visible aumento de la cantidad de dominio que son registrados dia a dia, las estadísticas no mienten, mensualmente se crean aproximadamente 4´500.000 dominio y esta cifra sigue en aumento, de esta inmensa cantidad de dominios, solo una pequeña parte son sitios de contenido original y realmente útil para los surfeadores de la web, Google Panda, que fué desarollado principalmente por la empresa Navneet Panda, por esto su nombre, trata de diferencia entre los sitios que tienen contenido repetido y por ende irrelevante y los sitios que tienen contenido de calidad, otro aspecto que caracterizó a esta actualización, es que los tradicionales metatags de palabras clave ya no son tenidos más en cuenta como lo eran antes, esto debió ser por la gran cantidad de spam que se generó con estas palabras clave y muchas veces no coincidía con el contenido real de la página, por esto, desde que Google Panda vió la luz, el motor de búsqueda de Google ya no busca en los tags de palabras clave sino que “lee” el contenido de la página entera para analizar con que frecuencia se repiten dentro de él las palabras, si el porcentaje con que la palabra se repite es muy alto, la palabra comienza a ser considerada como spam y ya no es tenida en cuenta, la búsqueda de google siempre ha sido con respecto a poner en sus primeros lugares páginas de calidad y cuyo contenido no esté repetido en otros sitios web, otro aspecto que es muy relevante con esta actualización es que cada página de su website debe tener un título y una descripción única con respecto a las otras páginas del sitio, esto le da a su contenido autenticidad y distinción, además que es una muy buena táctica para atraer visitas por el contenido exclusivo que esa página en especial posee, son varios aspectos los que incluyó este algoritmo, no tantos como los de su antecesor Google Caffeine, les contaremos un par de aspectos más que nos parecen relevantes: uno es el volumen de texto con respecto al volumen de código, los websites deben tener un rango de más del 15% de texto con respecto a código para que se considere un volumen de contenido adecuado, es por esto que se hace muy importante reforzar, renovar y aumentar el contenido de su página constantemente para aumentar el contenido del sitio, un blog es una idea excelente para potenciar el valor seo de su sitio, otro factor que comenzó a tener relevancia con esta actualización es la antiguedad de su sitio y por cuanto tiempo está comprado, esto le garantiza a google un sitio confiable y que va a estar por mucho tiempo más al aire.



Google Penguin

Esta es la más reciente actualización de los algoritmos de google, acaba de ver la luz hace apenas tres semanas, el 24 de abril del 2012, esta actualización es un poco desconocida aún, sin embargo el CEO (Chief Executive Officer) de Google anunció que se va a tener en cuenta mucho el contenido duplicado, ya que los sitios que tienen contenido duplicado son considerados como de baja calidad, parece que este algoritmo potencia, las políticas anteriores del panda en cuanto a la calidad, la principal política del Google Penguin es combatir el webspam y a los sitios que hacen uso excesivo de la optimización SEO, y penalizar a las páginas que solo trabajen en función de adquirir más tráfico por lo que publican artículo con exceso de palabras clave sin aportar nada para el usuario, con esta llegada del Google Penguin, debemos tener en cuenta que nuestros sitios deben ser de alta calidad y evitar técnicas como el black hat, los 4 puntos más importantes para evitar ser penalizados en lo que sabemos hasta ahora serían:

  • Relleno de palabras clave: Debemos evitar crear artículos de contenido irrelevante para el usuario que solo existan para poner spam con excesivo uso de palabras clave, esta claro que el buscador analiza nuestro contenido y busca en él palabras clave, pero ahora la información debe ser coherente y útil para el usuario, no podemos publicar solo por publicar y aumentar nuestro contenido, hay que publicar infomación única y de calidad y no exceder el uso de las palabras clave para que lleguen a ser consideradas como spam, esto suceder cuando nuestra palabra clave tiene un volumen de más del 4% sobre nuestro contenido total de página.
  • Granjas de enlaces: Alguna vez nos hemos topado con ventanas emergente de páginas que ofrecen 1.000 enlaces o cosas similares, esto ahora ya no está permitido, el hecho de comprar enlaces a páginas de dudosa reputación, por lo general contruyen estos enlaces con robots automáticos que ponen comentarios que son precisamente eso, spam, comentan cosas ilogicas e irrelevantes solo para aumentar los enlaces, este tipo de abuso no será permitido más con el Google Penguin.
  • Contenido oculto: También es conocido por los que sabemos de SEO, una técnica que antes era grey hat, ahora pasa a ser black hat, es ubicar contenido oculto por medio de la etiqueta lo cual hace que ese contenido no aparezca visiblemente en la página, pero el buscador si lo lee, esto ya no será más permitido pues se hizo abuso de esta técnica y por lo general estos espacios de se usan para ubicar palabras clave a manera de spam.
  • Contenido copiado: Hay técnicas de black hat conocidas como scrapping la cual copia contenido y lo hace pasar como propio, este es uno de los aspectos de los que más se abusó, ya que día a día se crean páginas que copian contenido de otras y así mejoran su SEO, esto ya quería ser penalizado desde el Google Panda, pero sin embargo el algoritmo no fué lo suficientemente efectivo, muchas páginas también usaban técnicas ilegales como repetir el contenido en subpáginas y así aumentar su radio de texto con respecto a código, esto es una muestra de sitios irrelevantes y de baja calidad, creo que es una de las razones más importantes para que viera la luz el Google Penguin

En conclusión: Google Penguin ha llegado y debemos adaptarnos a sus reglas y políticas, en general, esto aumenta la calidad de los sitios que aparecen listados en el buscador, entonces debemos revisar si en nuestros sitios estamos haciendo técnicas ilegales y corregir estos aspectos, para evitar ser penalizados, asi que pues a trabajar!



[raw] [one_fifth]
[/one_fifth] [one_fifth]

[/one_fifth] [one_fifth]
[/one_fifth] [two_fifth last]


[/two_fifth] [clear] [/raw]

Share this story
1 Comment

leave a Reply