Madrid Times

España Viva: Your Window to Madrid and Beyond
Sunday, Mar 16, 2025

Consulta: Plataformas de medios sociales sancionadas por anuncios que presentan material antisemita y antimusulmán en Alemania.

Los estudios muestran que Meta y X autorizaron anuncios con discursos de odio e incitaciones a la violencia antes de las elecciones federales en Alemania.
Un estudio reciente de una organización alemana de responsabilidad corporativa ha descubierto que las plataformas de redes sociales Meta (Facebook) y X (anteriormente Twitter) aprobaron anuncios que presentaban mensajes antisemitas y antiislámicos a medida que se acercaban las elecciones federales en Alemania.

Como parte de su investigación, los investigadores presentaron 20 anuncios que contenían lenguaje violento y discurso de odio dirigido a grupos minoritarios.

Los hallazgos indicaron que X aprobó todos los 10 anuncios presentados en su plataforma, mientras que Meta aprobó 5 de 10. Estos anuncios incluían llamados a la violencia contra judíos y musulmanes, comparaciones despectivas de los refugiados musulmanes con 'virus' y 'roedores', y llamados a la exterminación o esterilización.

Un anuncio incluso promovía incendiar sinagogas para 'detener la agenda globalista judía'. Los investigadores señalaron que aunque los anuncios fueron marcados y eliminados antes de la publicación, los resultados plantean preocupaciones significativas sobre las prácticas de moderación de contenido de estas plataformas de redes sociales.

La organización detrás de la investigación ha presentado sus hallazgos a la Comisión Europea, que se espera inicie una investigación sobre posibles violaciones de la Ley de Servicios Digitales de la UE por parte de Meta y X. El momento de esta revelación es particularmente significativo, ya que coincide con las próximas elecciones federales en Alemania, despertando preocupaciones sobre el posible impacto del discurso de odio en el proceso democrático.

Anteriormente, Facebook enfrentó críticas durante el incidente de Cambridge Analytica, donde se descubrió que una empresa de análisis de datos había manipulado elecciones a nivel mundial a través de tácticas similares, lo que resultó en una multa de 5 mil millones de dólares.

Además, Elon Musk, el propietario de X, ha sido acusado de interferir directamente en las elecciones alemanas, incluyendo el respaldo al partido de extrema derecha AfD.

Sigue siendo incierto si la aprobación de dichos anuncios es consecuencia de las inclinaciones políticas de Musk o de su dedicación más amplia a la 'libertad de expresión' en X. Musk ha desmantelado el marco de moderación de contenido de X, instituyendo un sistema de 'notas comunitarias' donde los usuarios añaden contexto a las publicaciones para ofrecer diferentes perspectivas.

Mark Zuckerberg, CEO de Meta, anunció un sistema comparable para Facebook, aunque indicó que todavía se utilizaría la moderación de contenido impulsada por inteligencia artificial para combatir el discurso de odio y contenido ilegal.

No obstante, esta transición ha levantado alarmas, particularmente dada la información de que el contenido extremista de derecha está siendo promovido cada vez más en plataformas como X y TikTok, influyendo en el sentimiento público.

El declive económico y la creciente violencia asociada con ataques vinculados a migrantes musulmanes en los últimos meses han exacerbado estas tensiones.

No está claro si el aumento del contenido extremista es consecuencia de circunstancias de la vida real o si los algoritmos de las redes sociales están empujando tales mensajes para mejorar la interacción de los usuarios.

Sin embargo, tanto Musk como Zuckerberg han mostrado disposición a reducir la moderación de contenido a pesar de la presión de la Unión Europea y funcionarios alemanes.

No se determina si esta investigación motivará a la UE a endurecer las regulaciones sobre X, Facebook y TikTok, pero subraya el desafío constante de equilibrar la libertad de expresión con la necesidad de frenar el contenido extremista.

El estudio ilustra la preocupación más amplia de que el discurso de odio frecuentemente se alinea con motivos políticos, complicando los roles de las plataformas de redes sociales en la moderación de contenido.

Mientras continúan las discusiones sobre medidas regulatorias, la pregunta de quién debería regular el discurso digital—empresas privadas o cuerpos gubernamentales—sigue sin respuesta.

Al igual que los medios de comunicación tradicionales, las plataformas de redes sociales pueden enfrentar un mayor escrutinio sobre cómo gestionan el contenido generado por los usuarios.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Madrid Times
×