Madrid Times

España Viva: Your Window to Madrid and Beyond
Saturday, Aug 16, 2025

No es el algoritmo: un nuevo estudio afirma que las redes sociales están fundamentalmente rotas.

La investigación de la Universidad de Cornell encuentra que la polarización y el discurso de odio provienen de la arquitectura básica de las plataformas de redes sociales en lugar de sus algoritmos de recomendación.
Contrario a la creencia común, los algoritmos no son necesariamente los culpables de la polarización y el discurso de odio en línea.

Un nuevo estudio indica que los problemas más profundos surgen de la estructura fundamental de las plataformas de redes sociales, en lugar del código que las alimenta.

La conclusión es que una reforma significativa requeriría cambios en el núcleo, no solo ajustes cosméticos.

Investigadores de la Universidad de Cornell realizaron un estudio reciente que sugiere que la realidad persistente del discurso de odio, la polarización social y la propagación de información sesgada o falsa no es un subproducto de algoritmos complejos, sino un resultado directo de la arquitectura básica de estas plataformas.

Utilizando una simulación social innovadora, modelaron una red social simple y demostraron cómo problemas bien conocidos surgieron espontáneamente, incluso sin sofisticados algoritmos de recomendación.

En otras palabras, el discurso contencioso y la desinformación parecen surgir de manera natural, independientemente de quién opere la plataforma o cómo funcione.

El estudio identificó tres fallos principales en un entorno virtual donde los agentes basados en modelos de lenguaje grandes interactuaron.

Primero, cámaras de eco: los usuarios virtuales tendían a agruparse en grupos ideológicos homogéneos —conservadores con conservadores, liberales con liberales, racistas con racistas— reflejando el comportamiento humano.

En segundo lugar, surgió una concentración extrema de influencia, con un pequeño número de usuarios capturando la mayor parte de la atención y moldeando discusiones, similar a un modelo de "el ganador se lleva todo".

Finalmente, voces extremas y polarizadoras ganaron una resonancia amplificada, distorsionando el discurso general.

Estos hallazgos se alinean con datos recientes que muestran el aumento de la polarización en plataformas como X (anteriormente Twitter) y Facebook, como informan instituciones de investigación en los Estados Unidos y Europa.

Estudios en la Unión Europea también han documentado la creciente difusión de contenido extremista y efectos de cámaras de eco, indicando que el problema no está ligado a ninguna cultura o plataforma específica.

El aspecto más preocupante de la investigación es el fracaso de la mayoría de las intervenciones externas probadas para mejorar las condiciones.

Se evaluaron seis medidas deliberadamente extremas para evaluar su impacto en el discurso de la plataforma.

Un enfoque —eliminar algoritmos y mostrar publicaciones en orden cronológico— redujo los desequilibrios en la atención pero, al mismo tiempo, reforzó el vínculo entre el extremismo político y la influencia, haciendo que el contenido extremo destacara incluso en un entorno neutral.

Otro método probado implicó reducir la visibilidad de las voces dominantes.

Esto llevó a ligeras mejoras pero no afectó la polarización ni las cámaras de eco.

Notablemente, ocultar métricas como "me gusta" o cuentas de seguidores tuvo casi ningún efecto en los bots, que continuaron formando conexiones con contrapartes afines.

Si bien la investigación se centró en redes sociales que operan en contextos occidentales, los hallazgos se compararon con las condiciones en China.

Las plataformas como Weibo, el equivalente chino de X, operan bajo una estricta supervisión gubernamental, que se extiende no solo a la moderación de contenido, sino también a la arquitectura de las propias plataformas.

Esta supervisión promueve un discurso más "armonioso" al censurar y restringir intencionalmente voces marginales y extremas, reduciendo la polarización pero limitando la libertad de expresión —una dinámica menos aplicable a las sociedades democráticas.

El estudio se suma a los llamados de reguladores y expertos de todo el mundo por soluciones que aborden los problemas estructurales de raíz de las redes sociales en lugar de sus síntomas, reflejando un reconocimiento creciente de que los cambios a pequeña escala por sí solos son poco probables de resolver los desafíos que enfrentan estas plataformas.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Madrid Times
×