Durante cualquier día normal de 2025 en España se dan unos 2.000 mensajes de odio en redes sociales. El 12 de julio, esa cifra se multiplicó hasta los 33.000, un crecimiento del 1.500%. Aquel sábado veraniego fue el momento culminante de los rumores, bulos y mensajes de incitación al odio que desembocaron en la manifestación y los disturbios de Torre Pacheco (Murcia). Una prueba más de la conexión que el mundo digital tiene con lo que ocurre a la vez y posteriormente en las calles. Pico en mensajes de odio del 12 de julio visto en una secuencia que incluye todo 2025.La parte central de ese pico de publicaciones cargadas de odio duró sobre todo un día, cuando se agolpó cerca del 30% de mensajes que el Observatorio Español del Racismo y la Xenofobia del Ministerio de Inclusión (Oberaxe) detectó durante toda la semana. La mayoría fue dirigido a personas del norte de África y destacaban especialmente las palabras “paliza”, “mierda” y “machete”. Estas publicaciones en redes también estaban centradas en discutir sobre la seguridad ciudadana y para tratar de llamar la atención del ciudadano medio.A pesar de ese increíble pico de odio, las compañías dueñas de esas redes sociales no actuaron más para eliminar ese tipo de contenidos. Su actividad fue rutinaria. Desde el 11 de julio, las plataformas X, Facebook, Instagram, TikTok y Youtube apenas retiraron un puñado de mensajes de sus usuarios, menos incluso que en días anteriores. Como comparación para aportar contexto, durante todo 2024 el Gobierno español notificó a las redes 2.870 contenidos considerados de odio que podían ser delito o que violaban las normas de conducta de las redes. Las empresas solo retiraron un 35% y solo el 4% de los mensajes de odio fue eliminado en las 24 horas siguientes a su denuncia.Dinámica de retiro de mensajes de odio en redes por parte de las plataformas en 2025. No se observa ninguna distinción en los días de los disturbios de Torre Pacheco, más bien una disminución.La red X fue la que recibió más notificaciones (un 26% del total) y la que menos contenidos retiró (un 14%). Según el Observatorio, los distintos volúmenes de notificaciones de contenidos se debe “al distinto grado de dificultad para su identificación en cada red social”. TikTok es la red que más acató las peticiones de retirar mensajes, con un 69%. En el trabajo de Oberaxe se observa fácilmente cómo se dispara el pico de mensajes de odio, mientras que la evolución de los mensajes retirados se mantiene estable.Telegram, la controvertida plataforma de mensajería, fue uno de los principales focos de odio en Torre Pacheco, pero no está en la lista porque no puede ser monitorizado igual que una red abierta. Hay grupos abiertos para dar difusión al público en general, pero también colectivos privados donde se cuecen las estrategias. Para su acceso, Telegram exige un número de móvil y Oberaxe no puede contar con los mismos métodos que las fuerzas de seguridad, según explican fuentes del Ministerio. El Ministerio de Inclusión denunció la semana pasada en un informe esta falta de respuesta de las redes y, para hacerle frente al problema, ha creado un grupo de seguimiento con las compañías, tras una reunión celebrada el miércoles en Madrid. “Esta colaboración no tiene precedentes”, dijo la ministra de Inclusión, Elma Sáiz. “El Gobierno no va a hacer oídos sordos, porque lo que pasa en redes sociales tiene su traslación a la realidad, y lo hemos visto en Torre Pacheco”, añadió. Telegram sí será invitada a estas reuniones como plataforma interesada, según fuentes del Gobierno.La falta de respuesta de algunas de las empresas responsables de moderar contenidos fue muy criticada por el informe: “Esta circunstancia facilita que mensajes que deshumanizan, estigmatizan o incitan a la violencia permanezcan visibles, afectando especialmente a los diferentes grupos diana como son las personas originarias del norte de África, y contribuyendo así a la normalización del discurso de odio online”.Oberaxe analiza el odio en las redes desde 2020, pero en octubre de 2024 activaron un monitor llamado Faro, gracias a la cesión de una herramienta que LaLiga de fútbol español llevaba años usando. La adaptación del sistema ha sido llevada a cabo por la empresa Séntisis Intelligence. La monitorización es automática, pero el Observatorio tiene un equipo de ocho personas que observan y analizan el contenido. Uno de los retos de la herramienta es examinar a escala los mensajes que incluyen algo más que texto. La red X es donde resulta más fácil encontrar contenido de odio porque el sistema Faro capta mucho mejor el texto que el vídeo o el audio: la recolección de mensajes “está basada fundamentalmente en el análisis textual, aunque se está trabajando para ampliarlo a publicaciones basadas en imagen, video y audio”, dice un informe sobre el sistema.Respuesta de Meta y GoogleAlgunas de las empresas de redes y comunicación aludidas defienden que no se generalice la respuesta de todas, se analicen con cautela las cifras y se distingan lo que estas compañías consideran como mensajes admisibles en el marco de la libertad de expresión, “aunque no coincidan con una determinada forma de pensar y pudieran considerarse cuestionables, y comunicaciones que vulneran la legalidad, sobre las que se puede actuar”.En este sentido, las compañías señalan que aquellas que cuentan con políticas de prevención del discurso de odio disponen de sus propios protocolos de actuación, incluso de forma inmediata. Pero advierten de que una cosa es lo que una determinada institución considere censurable y otra distinta la visión y resolución de cada plataforma sobre los mencionados mensajes cuestionados. En este caso, comentan que una advertencia de una determinada entidad no obliga a considerar inmediatamente que ese aviso se pueda tratar como una denuncia de vulneración de la política. “Denuncia no es lo mismo que queja”, explica una portavoz de Meta, propietaria de Facebook.La compañía sí acepta pronunciarse directamente sobre las conclusiones de Oberaxe: “Tal y como indican nuestras normas comunitarias, tenemos políticas estrictas contra las conductas de odio, la incitación a la violencia y el acoso”. Y añade Meta: “Siempre nos tomamos muy en serio el cumplimiento de nuestras políticas, como hemos hecho durante los incidentes recientes”.También lo hizo Google en relación con las menciones a YouTube para defender su actuación, tanto inmediata como tras los sucesos. De acuerdo con esta entidad, la intervención sobre los mensajes de odio fue proporcionada e inmediata.“YouTube tiene políticas estrictas contra el discurso de odio y las aplicamos rigurosamente. Sin embargo, el contenido que no infrinja estas directrices se mantendrá en la plataforma. Nos tomamos muy en serio nuestra responsabilidad en este ámbito, equilibrando la libertad de expresión con medidas de seguridad sólidas”, replica la plataforma a este dairio, en línea con lo expresado por Meta. Sobre los sucesos analizados por Oberaxe, la entidad de Google replica que, “tras la revisión [de los contenidos]hemos constatado que la mayoría del contenido (vídeos y comentarios) denunciado por Oberaxe no infringe las directrices de YouTube sobre el discurso de odio. La mayoría del contenido denunciada eran comentarios que no violaban nuestras directrices”.La compañía cuestiona que el informe oficial no señale los contenidos que sí eliminó YouTube “de forma proactiva” y señala que colaboran con el Gobierno para precisar los mecanismos de denuncias, así como la comprensión de las políticas de la compañía. Google defiende sus protocolos: “Las políticas de YouTube dejan claro qué está permitido en nuestra plataforma y garantizan la protección de la comunidad frente a contenidos perjudiciales, al tiempo que equilibran la libertad de expresión. Hemos desarrollado estas políticas claramente definidas en colaboración con expertos externos, y las hemos diseñado intencionadamente para prevenir daños graves en el mundo real”.Sobre los discursos de odio, YouTube manifiesta que están prohibidos y que esta directriz, actualizada en 2019 y avalada por un informe de 2020 del Institute of Strategic Dialogue, es rigurosa (en el primer trimestre de 2025 eliminó más de 192.000 vídeos por infringir nuestras políticas de discurso de odio) e incluye sanciones tanto para las creaciones audiovisuales como para los comentarios.X, la plataforma más señalada junto a Telegram por los incidentes, cerró los canales de respuesta oficial a los medios de comunicación, por lo que no ha sido posible recabar su opinión.

“Paliza”, “mierda”, “machete”: así se disparó el pico de odio en redes sociales durante la crisis de Torre Pacheco ante la pasividad de las compañías | Tecnología
Shares: