blasco6nwpbf’s diary

One thing I love about the internet is the SEO for all that can be done, not to stop learning every day to be always updated and the best thing to do different strategies every time. By the way my name is Velasco.

¿De qué forma los cambios en los algoritmos de Google están afectando las clasificaciones de su.



posicionamiento web

Como Google es uno de los buscadores más usados, es bastante obvio que, para sostener su relevancia para los clientes del servicio que buscan en la red, y para sostenerse informados acerca de los diseñadores web sin escrúpulos, los ingenieros de Google afectarán los cambios en sus algoritmos. de vez en cuando. Puesto que estos algoritmos determinan el ranking de diferentes sitios web, los cambios en estos algoritmos definitivamente van a ser la clave tras cómo se ven perjudicados estos rankings.

 Ahora, el objetivo principal de la optimización de buscadores es rediseñar su sitio para que atraiga la atención de los buscadores web populares (como Google, Bing, Yahoo, etc.) y conseguir una clasificación más alta de ellos, captando más interés de los clientes del servicio y produciendo más ingresos. para el sitio en cuestión.

 Hay ciertos "hacer" y "no hacer" para los SEO conforme los ingenieros de Google, colectivamente englobados por los algoritmos de Google y su sitio web puede obtener respectivamente (por un aumento en los rankings) o penalizado (en forma de un desplegable en el ranking), por el equipo de Google para estos "hacer" y "no hacer". De nuevo, estos factores positivos y negativos prosiguen mudando con el tiempo. Por servirnos de un ejemplo, en días anteriores, Google no pudo detectar el empleo repetitivo y sin ningún sentido de las palabras clave, con lo que los diseñadores web sin escrúpulos manipularon las páginas del motor de búsqueda llenando sus sitios web con una avalancha de palabras clave. A resultas de no detectarse esta falla, estos diseñadores se escaparon estupendamente, y sus sitios obtuvieron las mejores clasificaciones de Google. Mas, una vez criticados por conceder una clasificación más alta a los sitios web que no lo merecen, los ingenieros de Google crearon algoritmos más complejos, de forma que en la actualidad, las arañas de Google son muy capaces de advertir el relleno de palabras clave. En consecuencia, en la actualidad, el relleno de palabras clave está penalizado y estos sitios web, en lugar de obtener una clasificación más alta, ven una caída en comparación con otros sitios genuinos que contienen contenido significativo y relevante. De la misma forma, previamente, Google no pudo advertir las técnicas posicionamiento web en buscadores de Black Hat, por servirnos de un ejemplo. Texto invisible, links a sitios no fiables o de correo no deseado, etcétera, pero todos estos se detectan en la actualidad y, en consecuencia, los rankings de sitios se ven perjudicados por estos.

 En promedio, los algoritmos de Google se cambian en torno a quinientos a 600 veces al año; y cada pocos meses, las actualizaciones de Google se implementan, lo que ayuda a las personas a tener una idea de cuál será el efecto de estos cambios de algoritmo en las SERP. Conocer las fechas de las actualizaciones de Google puede ayudarles a analizar los cambios en las clasificaciones y el tráfico del sitio web. Desde este momento, ha habido 2 tipos de actualizaciones: las actualizaciones de Panda y las actualizaciones de Penguin.

 Google Panda se lanzó en el mes de febrero de 2011. Los sitios web se calificaron según su calidad, "incluyendo el diseño, la confiabilidad, la velocidad y si los espectadores volverían o bien no a ellos". Como resultado, las clasificaciones de los sitios de baja calidad (como los que tienen poco contenido y los que están cargados con un sinnúmero de anuncios) se redujeron, al paso que la de los sitios de alta calidad, como los sitios web de noticias y los sitios de redes sociales, se disparó. parte superior de las SERPs.

 Por otra parte, la investigación mostró que los "raspadores o bien infractores de derechos de autor obtienen mejores clasificaciones", con lo que Google estaba en el extremo receptor de las críticas del espectador. En marzo de dos mil doce, se actualizó Panda y se introdujo una "penalización por exceso de optimización", lo que provocó que los rastreadores web sean más responsables y también inteligentes que antes. Ahora, los sitios que parecían ser demasiado atractivos para los rastreadores, fueron penalizados, sin embargo, legítimamente se consiguió el posicionamiento web.

 En septiembre de dos mil doce, se lanzó la próxima actualización de Panda (que afecta a alrededor del 0,7 por ciento de las consultas). Y el último se lanzó el veintidos de enero de 2013, afectando a prácticamente el 1.2 por ciento de todas y cada una de las consultas en inglés.

 Las actualizaciones de Penguin en orden cronológico son:

 La actualización de Penguin 1 tenía como objetivo obtener un mejor control sobre los sitios que enviaban correo no deseado a sus resultados a través de la compra de links o bien obteniéndolos a través de redes de links diseñadas para mejorar el ranking de Google. En este punto del tiempo, los sitios que habían eliminado links imperfectos o hecho esfuerzos para quitar el spam, recuperaron sus clasificaciones. Una gran cantidad de sitios, que escaparon antes, fueron penalizados esta vez, y sus clasificaciones se redujeron.

 Penguin once y Penguin 3 no añadieron mucho a Penguin 1. Solo hubo pequeños cambios. Mas, Penguin4, más popular como Penguin 2.0, ha traído cambios esenciales en la manera en que los algoritmos de Google están afectando el ranking de sitios. Si bien la naturaleza exacta de los cambios no estaba clara, Penguin cuatro seguramente fue diseñado para combatir mejor el spam. Matt Cutts, jefe del equipo antispam en Google, anunció que "el alcance de Penguin cambia según el idioma, por ejemplo, los idiomas con más webspam tendrán un mayor impacto".

 En resumen, la lista de sitios que pierden visibilidad de busca, según la compañía Search Metrics, incluye: sitios de juegos, sitios de pornografía, grandes marcas como Salvation Army, CheapOAir y ETS. Esto no señala grandes pérdidas de tráfico; Posiblemente sigan teniendo una alta visibilidad para las palabras clave que no se detectan. Mas, es importante tener en cuenta que, las listas proporcionadas por Search Metrics y un par de otras compañías de software SEO son en su mayor parte precisas.

 Ahora el hecho es que, incluso los administradores web a menudo no son siendo conscientes de lo que está afectando a la clasificación de sus sitios web. Solo los ingenieros de Google tienen conocimiento de lo que está afectando las clasificaciones en el escenario actual y continúan actualizando a los usuarios de Internet sobre los cambios en los algoritmos de Google. Pero incluso no podrán sostener lo que será el futuro del posicionamiento en buscadores y cómo cambiarán las técnicas de optimización y los parámetros de clasificación. ¡Que solo el tiempo lo dirá!

 No obstante, la herramienta Google Penalty Checker, desarrollada por Fruition, ayuda a los posicionamiento SEO a descubrir qué tipo de impacto (por servirnos de un ejemplo, positivo o bien negativo) tuvo una actualización particularmente en el sitio web, o sea, si aumentó (positivo) o redujo (negativo) las clasificaciones del sitio web sobre los Search Engines Ranking Positions. La herramienta puede ser empleada fácilmente por un novato en posicionamiento en buscadores y es gratuita por un período de tiempo limitado.

Si quieres enterarte más del tema acerca de posicionamiento web en Chimalhuacán entonces da click en el enlace y obtendrás novedades.