HomeMarketing¿Puedes utilizar IA para escribir para sitios YMYL? (Lea la evidencia antes...
spot_img

¿Puedes utilizar IA para escribir para sitios YMYL? (Lea la evidencia antes de hacerlo)

spot_img

Your Money or Your Life (YMYL) cubre temas que afectan la salud, la estabilidad financiera, la seguridad o el bienestar general de las personas, y con razón Google aplica estándares algorítmicos considerablemente más estrictos a estos temas.

Las herramientas de escritura de IA pueden prometer escalar la producción de contenido, pero como escribir para YMYL requiere más consideración y credibilidad del autor que otros contenidos, ¿puede un LLM escribir contenido que sea aceptable para este nicho?

La conclusión es que los sistemas de inteligencia artificial fallan en el contenido de YMYL, ofreciendo una uniformidad insípida donde la experiencia y la autoridad únicas son lo más importante. La IA produce afirmaciones médicas sin fundamento el 50% de las veces y alucina decisiones judiciales el 75% de las veces.

Este artículo examina cómo Google hace cumplir los estándares YMYL, muestra evidencia de dónde falla la IA y por qué los editores que confían en experiencia genuina se están posicionando para el éxito a largo plazo.

Google trata el contenido de YMYL con un escrutinio algorítmico

Las Directrices para evaluar la calidad de la búsqueda de Google establecen que “para las páginas sobre temas claros de YMYL, tenemos estándares de calificación de calidad de la página muy altos” y estas páginas “requieren el mayor escrutinio”. Las directrices definen YMYL como temas que “podrían afectar significativamente la salud, la estabilidad financiera o la seguridad de las personas”.

La diferencia de peso algorítmica está documentada. La guía de Google establece que para las consultas YMYL, el motor de búsqueda da “más peso en nuestros sistemas de clasificación a factores como nuestra comprensión de la autoridad, experiencia o confiabilidad de las páginas”.

La actualización principal de marzo de 2024 demostró este trato diferencial. Google anunció expectativas de una reducción del 40% en el contenido de baja calidad. Los sitios web de YMYL en finanzas y atención médica estuvieron entre los más afectados.

Las Directrices para evaluadores de calidad crean un sistema de dos niveles. El contenido habitual puede alcanzar una “calidad media” con la experiencia cotidiana. El contenido de YMYL requiere niveles de EEAT “extremadamente altos”. El contenido con EEAT inadecuado recibe la designación “Más baja”, el criterio de calidad más severo de Google.

Dados estos estándares elevados, el contenido generado por IA enfrenta el desafío de cumplirlos.

Podría ser una broma de la industria que las primeras alucinaciones de ChatGPT aconsejaran a la gente comer piedras, pero resalta un problema muy serio. Los usuarios dependen de la calidad de los resultados que leen en línea y no todo el mundo es capaz de descifrar la realidad de la ficción.

Las tasas de error de la IA la hacen inadecuada para los temas de YMYL

Un estudio de Stanford HAI de febrero de 2024 probó GPT-4 con generación aumentada de recuperación (RAG).

Leer  Los investigadores prueban si los indicaciones de amenaza de Sergey Brin mejoran la precisión de la IA

Resultados: el 30% de las afirmaciones individuales fueron infundadas. Casi el 50% de las respuestas contenían al menos una afirmación sin fundamento. Gemini Pro de Google logró un 10% de respuestas totalmente apoyadas.

Estas no son discrepancias menores. GPT-4 RAG dio instrucciones de tratamiento para el tipo incorrecto de equipo médico. Ese tipo de error podría perjudicar a los pacientes durante las emergencias.

Money.com probó ChatGPT Search en 100 preguntas financieras en noviembre de 2024. Solo el 65 % fue correcto, el 29 % fue incompleto o engañoso y el 6 % fue incorrecto.

El sistema obtuvo respuestas de blogs personales menos confiables, no mencionó los cambios en las reglas y no desaconsejó “cronometrar el mercado”.

El estudio RegLab de Stanford que analizó más de 200.000 consultas legales encontró tasas de alucinaciones que oscilaban entre el 69% y el 88% para los modelos de última generación.

Los modelos alucinan al menos el 75% de las veces en la corte. La base de datos de casos de alucinaciones de IA rastrea 439 decisiones legales en las que la IA produjo contenido alucinante en documentos judiciales.

Men’s Journal publicó su primer artículo sobre salud generado por IA en febrero de 2023. El Dr. Bradley Anawalt del Centro Médico de la Universidad de Washington identificó 18 errores específicos.

Describió “persistentes errores fácticos y caracterizaciones erróneas de la ciencia médica”, incluida la equiparación de diferentes términos médicos, la afirmación de vínculos sin fundamento entre la dieta y los síntomas y la provisión de advertencias sanitarias infundadas.

El artículo estaba “flagrantemente equivocado sobre temas médicos básicos” y al mismo tiempo tenía “suficiente proximidad a la evidencia científica para sonar a verdad”. Esa combinación es peligrosa. La gente no puede detectar los errores porque parecen plausibles.

Pero incluso cuando la IA acierta en los hechos, falla de otra manera.

Google prioriza lo que la IA no puede proporcionar

En diciembre de 2022, Google añadió la “Experiencia” como primer pilar de su marco de evaluación, ampliando EAT a EEAT.

La guía de Google ahora pregunta si el contenido “demuestra claramente experiencia de primera mano y un conocimiento profundo (por ejemplo, experiencia que proviene de haber utilizado un producto o servicio, o de visitar un lugar)”.

Esta pregunta apunta directamente a las limitaciones de la IA. La IA puede producir contenido técnicamente preciso que se lea como un libro de texto médico o una referencia legal. Lo que no puede producir es conocimiento del practicante. Del tipo que se obtiene al tratar a los pacientes a diario o representar a los acusados ​​en los tribunales.

La diferencia se nota en el contenido. La IA podría darle una definición de trastorno de la articulación temporomandibular (ATM). Un especialista que trata a pacientes con ATM puede demostrar experiencia respondiendo preguntas reales que hacen las personas.

¿Cómo es la recuperación? ¿Qué errores suelen cometer los pacientes? ¿Cuándo debería consultar a un especialista frente a su dentista general? Esa es la “experiencia” en EEAT, una comprensión demostrada de los escenarios del mundo real y las necesidades de los pacientes.

Las preguntas sobre calidad del contenido de Google lo recompensan explícitamente. La empresa lo alienta a preguntar “¿El contenido proporciona información, informes, investigaciones o análisis originales?” y “¿El contenido proporciona un análisis profundo o información interesante que va más allá de lo obvio?”

Leer  YouTube permite a los creadores elegir CTA exactos en los anuncios del sitio web de promoción

La empresa de búsqueda advierte contra “principalmente resumir lo que otros tienen que decir sin agregar mucho valor”. Así es precisamente como funcionan los grandes modelos lingüísticos.

Esta falta de originalidad crea otro problema. Cuando todos usan las mismas herramientas, el contenido se vuelve indistinguible.

El diseño de la IA garantiza la homogeneización del contenido

La investigación de la UCLA documenta lo que los investigadores denominan una “espiral mortal de homogeneización”. Los sistemas de inteligencia artificial utilizan por defecto preferencias medias a escala poblacional porque los LLM predicen la siguiente palabra estadísticamente más probable.

Los investigadores de Oxford y Cambridge lo demostraron en la naturaleza. Cuando entrenaron un modelo de IA en diferentes razas de perros, el sistema produjo cada vez más solo razas comunes, lo que finalmente resultó en un “colapso del modelo”.

Un estudio de Science Advances encontró que “la IA generativa mejora la creatividad individual pero reduce la diversidad colectiva de contenido novedoso”. Los escritores están individualmente en mejor situación, pero colectivamente producen un alcance más limitado de contenido.

Para los temas de YMYL donde la diferenciación y la experiencia única brindan una ventaja competitiva, esta convergencia es perjudicial. Si tres asesores financieros utilizan ChatGPT para generar orientación de inversión sobre el mismo tema, su contenido será notablemente similar. Eso no ofrece ninguna razón para que Google o los usuarios prefieran uno sobre otro.

La actualización de Google de marzo de 2024 se centró en el “abuso de contenido a escala” y el “contenido genérico/indiferenciado” que repite información ampliamente disponible sin nuevos conocimientos.

Entonces, ¿cómo determina Google si el contenido realmente proviene del experto cuyo nombre aparece en él?

Cómo verifica Google la experiencia del autor

Google no sólo analiza el contenido de forma aislada. El motor de búsqueda crea conexiones en su gráfico de conocimiento para verificar que los autores tengan la experiencia que afirman.

Para los expertos establecidos, esta verificación es sólida. Los profesionales médicos con publicaciones en Google Scholar, los abogados con registros en el colegio de abogados y los asesores financieros con registros FINRA tienen huellas digitales verificables. Google puede conectar el nombre de un autor con sus credenciales, publicaciones, conferencias y afiliaciones profesionales.

Esto crea patrones que Google puede reconocer. Su estilo de escritura, sus opciones terminológicas, su estructura de oraciones y su enfoque en el tema forman una firma. Cuando el contenido publicado bajo su nombre se desvía de ese patrón, surgen dudas sobre la autenticidad.

Desarrollar una autoridad genuina requiere coherencia, por lo que es útil hacer referencia a trabajos anteriores y demostrar un compromiso continuo con su campo. Vincula las firmas del autor a páginas de biografía detalladas. Incluya credenciales, jurisdicciones, áreas de especialización y enlaces a perfiles profesionales verificables (juntas médicas estatales, colegios de abogados, instituciones académicas).

Lo más importante es que los expertos escriban o revisen exhaustivamente el contenido publicado con sus nombres. No solo verificar los hechos, sino también garantizar que la voz, la perspectiva y los conocimientos reflejen su experiencia.

La razón por la que estos sistemas de verificación son importantes va más allá de las clasificaciones.

Lo que está en juego en el mundo real con la desinformación de YMYL

Un estudio de la Universidad de Baltimore de 2019 calculó que la desinformación le cuesta a la economía global 78 mil millones de dólares al año. El fraude financiero deepfake afectó al 50% de las empresas en 2024, con una pérdida promedio de 450.000 dólares por incidente.

Leer  Por qué las conexiones genuinas impulsarán las redes sociales en 2025

Lo que está en juego difiere de otros tipos de contenido. Los errores que no son YMYL causan molestias al usuario. Los errores de YMYL causan daños, errores financieros y erosión de la confianza institucional.

La ley federal estadounidense prescribe hasta cinco años de prisión por difundir información falsa que cause daño, 20 años si alguien sufre lesiones corporales graves y cadena perpetua si alguien muere a consecuencia de ello. Entre 2011 y 2022, 78 países aprobaron leyes sobre desinformación.

La validación es más importante para YMYL porque las consecuencias se multiplican y se multiplican.

Las decisiones médicas retrasadas por información errónea pueden empeorar las condiciones más allá de la recuperación. Las malas decisiones de inversión crean dificultades económicas duraderas. Un asesoramiento jurídico incorrecto puede provocar la pérdida de derechos. Estos resultados son irreversibles.

Comprender lo que está en juego ayuda a explicar qué buscan los lectores cuando buscan temas de YMYL.

Lo que los lectores quieren del contenido de YMYL

La gente no abre el contenido de YMYL para leer las definiciones de libros de texto que pueden encontrar en Wikipedia. Quieren conectarse con profesionales que comprendan su situación.

Quieren saber qué preguntas hacen otros pacientes. Lo que normalmente funciona. Qué esperar durante el tratamiento. Qué señales de alerta hay que tener en cuenta. Estos conocimientos provienen de años de práctica, no de datos de entrenamiento.

Los lectores pueden saber cuándo el contenido proviene de una experiencia genuina y cuándo se ha recopilado a partir de otros artículos. Cuando un médico dice “el error más común que veo que cometen los pacientes es…”, eso tiene un peso que los consejos generados por la IA no pueden igualar.

La autenticidad importa para la confianza. En los temas de YMYL en los que las personas toman decisiones que afectan su salud, sus finanzas o su situación legal, necesitan confiar en que la orientación proviene de alguien que ha atravesado estas situaciones antes.

Esta comprensión de lo que quieren los lectores debería informar su estrategia.

La elección estratégica

Las organizaciones que producen contenido YMYL se enfrentan a una decisión. Invierta en experiencia genuina y perspectivas únicas, o arriesgue sanciones algorítmicas y daños a su reputación.

La incorporación de “Experiencia” a EAT en 2022 se centró en la incapacidad de la IA de tener experiencia de primera mano. La Actualización de Contenido Útil penalizó “resumir lo que otros tienen que decir sin agregar mucho valor”, una descripción exacta de la funcionalidad LLM.

Cuando Google aplica estándares YMYL más estrictos y las tasas de error de IA son del 18% al 88%, los riesgos superan los beneficios.

Los expertos no necesitan IA para escribir su contenido. Necesitan ayuda para organizar sus conocimientos, estructurar sus ideas y hacer accesible su experiencia. Esa es una función diferente a la de generar contenido en sí.

Mirando hacia el futuro

El valor del contenido de YMYL proviene del conocimiento que no se puede extraer de fuentes existentes.

Proviene del cirujano que sabe qué preguntas hacen los pacientes antes de cada procedimiento. El asesor financiero que ha guiado a los clientes durante las recesiones. El abogado que ha visto qué argumentos funcionan ante qué jueces.

Los editores que tratan el contenido de YMYL como un juego de volumen, ya sea a través de inteligencia artificial o granjas de contenido humano, se enfrentan a un camino difícil. Quienes lo tratan como una señal de credibilidad tienen un modelo sostenible.

Puede utilizar la IA como herramienta en su proceso. No se puede utilizar como sustituto de la experiencia humana.

Más recursos:


Imagen de portada: Roman Samborskyi/Shutterstock

spot_img
ARTÍCULOS RELACIONADOS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Más popular

spot_img