Notas de comunidad: cuáles son las últimas evidencias sobre su efectividad contra la desinformación?

Fecha:

Comparte:

Por Leticia Smal / Chequeado

Una reciente investigación publicada en la revista científica PNAS volvió a colocar bajo la lupa a las Notas de Comunidad (Community Notes), una funcionalidad presente en varias redes sociales que permite a los usuarios sumar contexto a publicaciones potencialmente engañosas o confusas.

El tema había sido objeto de un intenso debate en enero de 2025, cuando Meta anunció la incorporación de Notas de Comunidad en Facebook, Instagram y Threads, en reemplazo del Programa de Verificación Independiente de Hechos (Third Party Fact Checking, o 3PFC).

De esta forma, la tarea de añadir advertencias o aclaraciones sobre posibles errores o distorsiones en las publicaciones se transfiere a un grupo de usuarios seleccionados, que no necesariamente se especializan en fact checking.

community notes efectividad meta x

Por su lado, Tik Tok anunció también un programa similar llamado Footnotes, aunque en ese caso como un complemento al trabajo de los chequeadores.

Este modelo no es nuevo: las Notas de Comunidad son una herramienta colaborativa que X comenzó a probar en 2021 y que se basa en el concepto de “sabiduría de las multitudes” o “sabiduría de los grupos” (wisdom of crowds, en inglés), que plantea que las masas pueden hacer juicios colectivos en distintos ámbitos igual de acertados o cercanos a la verdad que individuos expertos (ver por ejemplo acá).

¿Cómo funcionan?

Según informó Meta, siguiendo el modelo de X, para escribir y enviar notas de la comunidad hay que registrarse previamente y cumplir ciertos requisitos, como residir en Estados Unidos, tener un número de teléfono verificado y no haber infringido las políticas de la red social destinadas a prevenir daños graves, como terrorismo, explotación sexual infantil, fraude y estafas.

Quienes sean seleccionados como colaboradores pueden escribir notas para publicaciones que consideren engañosas o inducir a confusión.

Cada nota podrá incluir información general, datos específicos o puntos de vista, y deberá contar con al menos un enlace a una fuente que la respalde. Una vez enviada, la nota será revisada por otros colaboradores y solo se publicará si recibe una cantidad suficiente de evaluaciones que la consideren útil.

Pero hay un punto clave, la calificación final no se define por mayoría, sino por un consenso entre colaboradores que previamente hayan mostrado desacuerdo en evaluaciones anteriores.

La lógica detrás de este criterio es que si las personas que no suelen estar de acuerdo coinciden en que una nota determinada es útil, esto probablemente sea un buen indicador de que la nota será útil para personas con diferentes puntos de vista.

¿Son efectivas para contrarrestar el flujo de desinformación?

Hasta el momento, y a diferencia de X, Meta sólo ha hecho públicos datos muy generales: alrededor de 70 mil usuarios han escrito 15 mil notas, con una tasa de publicación del 6%. Por lo tanto, la evidencia que tenemos de cómo funciona el sistema es en base a la experiencia en X.

Nota-de-Comunidad-Twitter

Calidad de la información en las notas de comunidad

La calidad de las notas de comunidad puede medirse a partir de las fuentes que utilizan para respaldar la información.

Tanto X como Meta exigen que incluyan al menos un enlace a una fuente. Un estudio reciente examinó más de 500.000 notas de comunidad de X publicadas entre enero de 2021 y enero de 2024 y encontró que, entre las 50 principales fuentes citadas, figuran medios de prestigio (como CNNReutersBBCThe Guardian o The New York Times), instituciones confiables (como los Institutos Nacionales de Salud (NIH) de Estados Unidos y la Organización Mundial de la Salud -OMS-), y organizaciones de verificación de datos.

Otro estudio realizado por Maldita – organización española de fact checking- analizó más de un millón de notas de comunidad propuestas en 2024 y encontró que alrededor del 3.7% incluían enlaces a sitios de fact checkers certificados.

A nivel global, eso ubica a los fact checkers como la tercera fuente más citada, detrás de X y Wikipedia.

Aunque, como muestran estas investigaciones, muchas notas de comunidad se apoyan en fuentes sólidas y alcanzan altos niveles de precisión, el sistema no está exento de vulnerabilidades.

Al ser colaborativo, puede ser objeto de intentos de manipulación: ya en la fase piloto del programa, cuando todavía funcionaba bajo el nombre de Birdwatch y que luego dio origen a las notas de comunidad, un estudio encontró que en temas como las elecciones estadounidenses de 2020 o el COVID-19 hubo una fracción significativa de usuarios que calificó como de baja calidad a fuentes confiables citadas por otros.

Según los autores, esto refleja la existencia de “un grupo de personas que intentan engañar el programa Birdwatch para servir a su interés común”.

Y dado que la publicación de una nota depende de alcanzar consenso entre quienes la evalúan, este tipo de prácticas puede reducir la probabilidad de que correcciones bien fundamentadas lleguen a hacerse visibles, lo que anticipa un segundo problema central: cómo se construye el consenso y cómo eso condiciona qué notas terminan apareciendo frente a los usuarios.

La barrera del consenso

Con el objetivo de limitar el sesgo y aumentar la calidad de las notas, para que una nota de comunidad sea publicada y visible para todos los usuarios, X exige que se alcance un consenso entre personas con diferentes puntos de vista. En teoría, este requisito debería garantizar diversidad y equilibrio.

En la práctica, sin embargo, el consenso funciona como un filtro que a menudo retrasa o directamente bloquea la publicación de notas bien fundamentadas.

Un estudio del Center for Countering Digital Hate (CCDH), que analizó notas de comunidad propuestas entre marzo y agosto de 2024 sobre las elecciones en Estados Unidos, mostró las limitaciones de este sistema.

Aunque muchas de esas notas eran precisas y citaban fuentes de calidad, el 74% nunca llegó a hacerse visible, ya que no alcanzó la categoría de “útil” necesaria para mostrarse a todos los usuarios.

community notes meta

Como resultado, publicaciones con información errónea sobre las elecciones acumularon más de 2 mil 200 millones de visualizaciones sin contar con la corrección correspondiente.

Entre ellas hubo posteos que sostenían que los demócratas estaban “importando votantes ilegales”, que los sistemas de votación eran poco confiables, que las elecciones presidenciales de 2020 habían sido robadas o que difundían afirmaciones falsas sobre Donald Trump.

Incluso en los casos en los que sí se mostraron notas, los tuits con desinformación recibieron 13 veces más vistas que las correcciones asociadas.

Un análisis más amplio del Digital Democracy Institute of the Americas (DDIA) -que examinó más de 1.7 millones de notas de comunidad publicadas entre 2021 y 2025 en 55 idiomas- también expuso limitaciones similares: solo una pequeña fracción de las notas logra completar el recorrido hasta hacerse visible.

Una parte significativa de las de las notas propuestas ni siquiera entra en el proceso de consenso porque nunca recibe una primera evaluación, y del resto solo el 7.1% de las redactadas en inglés y apenas el 4.7% de las escritas en español logran hacerse visibles.

Por otra parte, el informe de Maldita si bien muestra que solo el 8.3% de las notas propuestas terminan haciéndose visibles, revela que las notas propuestas que citan chequeos de verificadores de datos tienen más chances de publicarse: un 12% llega efectivamente a hacerse visible.

Y no solo se publican más, también aparecen antes que las otras notas. En promedio, tras la publicación del tuit, esas notas se proponen más rápido y, una vez en evaluación, alcanzan el consenso en menos tiempo. En conjunto, esto implica que terminan mostrándose antes que las otras, lo que las vuelve un recurso especialmente valioso frente a la velocidad con la que se propaga la desinformación.

En conclusión, estos resultados muestran que la búsqueda de consenso no es un camino eficiente para corregir contenidos erróneos sobre temas controversiales. Cuando se trata de correcciones factuales, puede ser más relevante la expertise y la validez de las fuentes que el acuerdo entre partes con opiniones diversas.

¿Las notas de comunidad influyen sobre la probabilidad de compartir publicaciones?

Una de las preguntas clave sobre la efectividad de las notas de comunidad es si logran frenar la expansión de la desinformación. ¿Disuaden a los usuarios de compartir menos estos posteos señalados como falsos? En los últimos años se publicaron varios estudios que abordaron este problema desde distintos ángulos.

El más reciente es un trabajo publicado en septiembre de 2025 en la revista PNAS, que cuando una nota de comunidad alcanza el consenso necesario y se vuelve visible junto al tuit desinformante, ese tuit se comparte menos, circula menos y pierde impulso.

Los autores compararon cómo se comportaron los posteos con notas visibles versus posteos que, si bien tenían notas propuestas, no eran visibles por no haber alcanzado el consenso necesario y se aseguraron de contrastar posteos que fueran realmente comparables: es decir, que antes de la publicación de la nota de comunidad se hubieran comportado de forma similar en términos de viralidad.

Los resultados muestran que, en las 48 horas posteriores a la aparición de la nota, los posteos con corrección visible recibieron 46% menos reposts, 44% menos likes, 22% menos respuestas y 14% menos vistas que sus “gemelos” sin nota visible.

Incluso al considerar el total de vida útil de cada publicación (el volumen total de interacciones acumuladas a lo largo de toda la vida del posteo, incluyendo las interacciones previas a la nota), el impacto sigue siendo significativo: 11.6% menos reposts, 13.3% menos likes, 6.9% menos respuestas y 5.5% menos vistas.

En conclusión: las notas no solo desaceleran la difusión inicial, sino que también afectan cuán lejos y cuán masivamente circula un contenido engañoso.

El estudio también identificó algunas condiciones en las que las notas funcionan mejor. Por un lado, la velocidad es clave: cuanto más rápido se publica la nota luego del posteo original, mayor es la reducción en la viralidad.

Las notas que llegan tarde casi no mueven la aguja. Por otro lado, el tipo de contenido también importa: las correcciones tienen mayor impacto cuando se trata de imágenes o videos manipulados, en comparación con posteos de solo texto. Y, por último, la redacción influye: las notas moderadamente largas, con lenguaje simple, tienden a tener un mejor rendimiento.

En resumen, el trabajo aporta evidencia sólida de que, cuando logran hacerse visibles, las notas de comunidad reducen la viralidad de los contenidos engañosos: no solo bajan las interacciones, sino que también modifican la forma en que se propagan.

Al mismo tiempo, confirma lo que otras investigaciones ya venían señalando: si la nota llega tarde o nunca aparece, ese freno nunca se activa.

¿Las notas de la comunidad reemplazan o complementan el trabajo de los fact-checkers?

Cuando Mark Zuckerberg, el CEO de Meta, anunció el lanzamiento de las notas de la comunidad, explicó que ese mecanismo permitiría “deshacerse” de los fact checkers. Sin embargo, la evidencia disponible apunta en otra dirección: las notas no reemplazan a los verificadores, los complementan.

mark zuckenberg notas de la comunidad

Los datos muestran que, cuando una nota se apoya en un chequeo profesional, genera mayor confianza entre los usuarios y tiene más probabilidades de superar la barrera del consenso, lo que hace que se vuelva visible más rápido y con más frecuencia que el promedio .

Algo similar ocurre cuando la afirmación desinformante es compleja, porque requiere varios pasos de razonamiento o mezcla datos de distintas fuentes: en esos casos, las notas tienden a citar con más frecuencia verificaciones profesionales.

Dado que una de las principales limitaciones del sistema colaborativo es lograr que las notas lleguen a hacerse visibles, apoyarse en chequeos de fact checkers se vuelve un recurso clave para que el sistema funcione mejor.

Desde la mirada de las propias organizaciones de verificación, no se trata de una competencia, sino de cooperación. Como plantean desde Maldita, las notas de la comunidad y los verificadores pueden (y deben) trabajar juntos, combinando la rapidez y la escala del modelo colaborativo con el rigor metodológico del fact checking profesional.

Los autores del otro trabajo concluyen que sus resultados revelan que las notas de la comunidad y la verificación de datos profesional están profundamente interconectadas: los verificadores realizan investigaciones en profundidad que están fuera del alcance de los usuarios aficionados de la plataforma, mientras que las notas publicitan su trabajo.

En definitiva, la discusión no pasa por si uno reemplaza al otro, sino cómo se podrían complementar mejor dentro de un mismo ecosistema para frenar la desinformación.


 

¿Qué hacemos en verificado?

Somos un medio de comunicación especializado en el Fact Checking o verificación de hechos; se refiere a la labor de confirmar y comprobar hechos y datos.

━ Recomendado

Guerras y huracanes que no existen: cómo se usa IA para crear «periodistas» y relatos que desinforman

EN CORTO Circulan videos creados con inteligencia artificial de supuestas periodistas que relatan situaciones que no han sucedido. Especialistas advierten de que esta práctica...

¿Sheinbaum difundió estas imágenes manipuladas en zonas afectadas por las inundaciones? No hay evidencia

Por Diana Soto La presidenta de México, Claudia Sheinbaum sí compartió fotografías en las zonas afectadas por las recientes inundaciones en cinco estados. Sin embargo,...

No hay evidencias científicas de que los números de Grabovoi sirvan para curar enfermedades

EN CORTO Circulan en TikTok múltiples videos virales sobre los números de Grabovoi, unas secuencias de cifras con supuestas propiedades curativas. No hay evidencias...

Falso que eliminaron la visa de EU para personas latinoamericanas

Por Diana Soto El gobierno de Estados Unidos no ha anunciado modificaciones en la expedición de la visa para ciertos grupos de personas, contrario a...

De qué se trata el programa para disminuir deserción estudiantil “La Escuela te Extraña”

EN CORTO Mario Delgado presentó “La Escuela te Extraña”, un programa enfocado en reducir la deserción en educación media superior que contempla (entre otras...