FÓRMULA 1

Acoso a pilotos, insultos, amenazas... así vigilará la FIA tus comentarios sobre la F1 en redes sociales

Las redes se han convertido en un foco de insultos y amenazas en torno a la F1 y sus empleados en los últimos tiempos. La FIA ha decidido tomar cartas en el asunto.

Fernando Alonso consulta el móvil durante un partido de fútbol benéfico en 2022. /Getty Images
Fernando Alonso consulta el móvil durante un partido de fútbol benéfico en 2022. Getty Images

Las redes se han convertido en un foco de insultos y amenazas en torno a la F1 y sus empleados en los últimos tiempos. La FIA ha decidido tomar cartas en el asunto.

Sergio Lillo

Sergio Lillo

En un mundo cada vez más polarizado, donde una opinión o hechos públicos pueden tener rápidamente cientos de respuestas, el deporte no es ajeno a una problemática que cada día parece volverse más incontrolable. A raíz de los insultos y amenazas que Silvia Bellot, comisaria deportiva española de la Federación Internacional de Automovilismo para la F1, recibió tras la sanción a Fernando Alonso en el GP de EE UU, el ente federativo ha decidido tomar cartas en el asunto. Para ello, ha apostado por un sistema innovador de cara a controlar los mensajes que les llegan a sus empleados, pilotos y equipos.

El presidente de la FIA, Mohammed Ben Sulayem, no está dispuesto a seguir dejando actuar impunemente en el anonimato a quienes vierten sus opiniones más encendidas contra decisiones, situaciones y protagonistas de sus campeonatos. "Es completamente deplorable que una voluntaria como Silvia o cualquiera de nuestros comisarios y oficiales, que dedican su tiempo para permitirnos correr, sea objeto de este odio. De hecho, varios miembros de la FIA han recibido mensajes de odio y acoso durante los últimos años. Si esto continúa, destruirá nuestro deporte", comentó el dirigente en una carta publicada en la web de la FIA esta semana.

Serán Arwen.ai quienes se encarguen de actuar de moderadores en todas las redes sociales relacionadas con la FIA. La empresa nació en 2020 con el nombre de la hija de uno de sus fundadores, ante la propuesta de una de las empleadas de marketing tras la falta de consenso. Desde entonces ha trabajado con varios equipos de la Premier League británica de fútbol, entre los que están el Fulham o el Crystal Palace, y con algunos de los equipos de la Fórmula 1 como Red Bull Racing, Alpine o Mercedes, quien recurrió a ellos "en las Navidades de 2021 tras los problemas que tuvieron en Silverstone ese año" a raíz del incidente entre Lewis Hamilton y Max Verstappen, que acabó con el neerlandés en las barreras. Al equipo de las flechas plateadas les ayudaron a incrementar en un 29,4% los usuarios únicos que interaccionaban en sus redes sociales, tras reducir en un 70% los comentarios tóxicos.

Pero, ¿cómo se puede controlar que cualquier usuario anónimo escriba un comentario de odio o intimidatorio? Matthew McGrory, CEO de la empresa, lo explica así en conversación con Relevo: "Cuando tú escribes una respuesta en Instagram que no cumple con las normas de nuestros clientes, en 0,8 segundos detectamos el post, lo analizamos y lo eliminamos en menos de un segundo. Esto evita el efecto cascada, que es fundamental, porque cuando alguien se atreve, muchos más le siguen. Si el comentario se pasa de madre, podemos llegar a bloquear al usuario en cuestión".

"Las redes sociales son el reflejo del ser humano. No se puede llegar a cambiar el comportamiento de la gente, pero sí a poner límites y barreras"

Matthew McGrory CEO de Arwen.ai

"No tenemos una varita mágica, pero se trata de determinar qué espacios online queremos crear, cómo se refleja la naturaleza competitiva del motorsport de manera positiva, qué mensajes queremos transmitir. Como dice nuestro eslogan queremos 'hacer sociales de nuevo las redes sociales'. Cuando empecé en Twitter en 2008 ó 2009 podías mantener una conversación educada; ahora todo ha cambiado".

La Federación no ha publicado todavía hasta qué cuentas llegará el trabajo de Arwen.ai, algo que hará después del GP de Abu Dhabi, final de la temporada 2022. Pero McGrory explica que cada red social tiene sus propias condiciones y normativas. No en todas pueden actuar del mismo modo.

Así, en las que son propiedad de Meta -la matriz de Facebook, Instagram, WhatsApp, etc- o de Google (YouTube) cada contenido que el usuario publica "pasa a ser propiedad de la plataforma, por lo que si se considera que no cumple con las normas, podemos ocultarlo o eliminarlo". En cambio, en Twitter se pueden ocultar, pero no eliminar. "Si nuestro sistema de semáforos califica tu respuesta como roja, no será promocionada, ni se compartirá con tu audiencia o en tu timeline", añade McGrory.

¿Y si escribes desde tu cuenta sin responder a una publicación previa de la FIA o cualquiera de las otras cuentas que protege el sistema?

La inteligencia artificial solo podrá actuar si has citado a una de las cuentas de sus clientes. No podrá eliminar tu comentario, pero sí podrá reducir su difusión entre la audiencia seleccionada. Solo tus usuarios podrán verlo y seguirá existiendo en tu cuenta. "No podemos evitar que la gente diga cosas en sus cuentas, no importa lo abusivas o irrespetuosas que puedan llegar a ser", añade el CEO de la empresa.

¿Cómo diferencia la inteligencia artificial qué es y qué no es acoso?

Una de las claves de todo el proceso es enseñar a las máquinas a diferenciar dentro de las conversaciones en redes sociales cuándo hay acoso, qué es un insulto y qué son amenazas. McGrory lo compara con el aprendizaje de un bebé en sus primeros años. "Es como enseñar a un bebé a hablar. 'Esta es una palabra buena; esto no se dice, etc'. Lleva su proceso. Con la programación neurolinguística pasa lo mismo. El ser humano tiene que ser el que diga qué está bien y qué esta mal para que la máquina aprenda a diferenciar comentarios o a bloquear mensajes pornográficos. Se usan modelos diferentes, pero el mayor reto es el sarcasmo, que es muy complicado de identificar en una conversación. Luego, nuestros clientes marcan la pauta de qué quieren bloquear y hasta dónde quieren que llegue el filtrado de comentarios. Pero no estamos en un mundo como el de Terminator todavía; el ser humano es clave en todo esto".

El trabajo con la FIA ya ha comenzado, y durante las dos últimas semanas de la temporada realizarán varias pruebas más, encaminadas a ayudar a sus principales categorías, entre ellas la F1, a evitar el acoso hacia sus empleados, equipos y pilotos. Los aficionados seguirán siendo bien recibidos en sus redes sociales, pero siempre que haya una conversación respetuosa y no se superen los límites.

McGrory hace una interesante reflexión final sobre las redes sociales y su poder actual: "Las redes sociales son un reflejo del ser humano. No se puede llegar a cambiar el comportamiento de la gente, pero sí se pueden poner límites y barreras. El principal problema son los volúmenes que manejan, lo que las hace mucho más potentes y potencialmente peligrosas para la salud mental. Cuando cientos o miles de personas te dicen algo doloroso, puedes colapsar. En un café, en un pub o en la calle conversarías con una o dos personas y, además, no serían anónimas".