Ciencia y Tecnología

En el caso de Google, el contenido generado automáticamente viola esa recomendación y está sujeto a una sanción-SEO & Engine News

Google repitió esto de nuevo. El contenido generado automáticamente por algoritmos de tipo GPT-3 se considera spam y es penalizado por los motores de búsqueda. En ese caso, todo es ciertamente una cuestión de matices…

John Mueller (Google) señaló esto en un hangout reciente con webmasters (porque esto tampoco es nuevo): La inteligencia artificial y el contenido generado automáticamente asimilado usando herramientas como GPT-3 se considera spam y viola las recomendaciones para webmasters. Por lo tanto, puede estar sujeto a sanciones por parte de los motores de búsqueda.

Esta página específica de contenido generada automáticamente también está disponible con estas recomendaciones. Esto es lo que ella dice:

El contenido generado automáticamente depende de la programación. Si este contenido está destinado a manipular las clasificaciones de búsqueda en lugar de ayudar a los usuarios, Google puede intervenir. Aquí hay algunos ejemplos (una lista no exhaustiva):

  • Texto que puede contener algunos términos de búsqueda pero que no tiene sentido para el lector.
  • Texto traducido por herramientas automatizadas sin intervención humana o modificación antes de la publicación.
  • Texto generado por procesos automatizados como las cadenas de Markov.
  • Texto generado usando sinónimos o técnicas automatizadas de ofuscación.
  • Texto generado por resultados de búsqueda o secuestro de fuentes Atom/RSS.
  • Ensamblar o combinar contenidos de diferentes páginas web sin valor añadido.

Si aloja dicho contenido en su sitio, asegúrese de que no aparezca en la Búsqueda de Google.

Si Google sabe distinguir entre texto escrito por humanos y texto diseñado por algoritmos, resulta que el texto creado por inteligencia artificial conlleva riesgos significativos.

Sin embargo, también puede comparar esta situación con la situación de giro. Cuando se hace en el método bowliniano (en gran parte y sin intervención humana), es claro que se culpa por ser detectable (y ética y humanamente reprochable). Sin embargo, si el algoritmo es solo una herramienta secundaria y se agrega una parte humana al “primer borrador” creado por la máquina, es posible que no sea completamente detectable y no se impondrá ninguna penalización.

Por lo tanto, todavía no sabemos en qué nivel estamos en la escala de boulineage… 🙂

Una pregunta formulada por John Mueller en el hangout del webmaster. Fuente: YouTube

About the author

w-admin

Leave a Comment