Benjamín Ocampo tiene 24 años, es salteño, licenciado en Ciencias de la Computación por la Universidad Nacional de Córdoba con promedio de 9,59 y, actualmente, cursa un doctorado en la Université Côte d’Azur, 3IA, Inria, CNRS, y I3S en Francia, desde donde desarrolla metodologías para combatir los discursos de odio en internet. Su trabajo consiste en desarrollar modelos de inteligencia artificial que detecten mensajes con contenidos ofensivos subliminales (circunloquios, metáforas, dobles sentidos, mensajes subliminales) hacia minorías en redes sociales y foros, y automatizar contra narrativas que derriben esos prejuicios con argumentos.
Desde la ciudad francesa de Niza, donde cursa su trayecto académico, Ocampo explicó a HOY DÍA CÓRDOBA que su trabajo consiste en desarrollar y entrenar un modelo de inteligencia artificial que permita procesar el lenguaje natural de los seres humanos para detectar discursos de odio. “Un discurso de odio vendría a ser un mensaje, un ataque, que va dirigido a un individuo o a un grupo de personas, basado en características protegidas”, explicó el profesional.
Según Ocampo, las características protegidas son los aspectos referidos a minorías que se desean preservar de agresiones, tales como la raza, la religión, la sexualidad, el género, la discapacidad, el origen geográfico. Al respecto, el especialista indicó que “por lo general hay un consenso (sobre las variables a proteger), pero varían un poco entre definición y definición”, según la red social, el foro o el contexto comunicacional, dependiendo de las decisiones y objetivos estatales o empresariales que se buscan regular y de la aceptación o no de los usuarios a las restricciones.
Pero no toda agresión a una minoría representa un discurso de odio en la investigación de Ocampo. “Un mero insulto de una persona a otra persona no sería un discurso de odio. Pero si ese insulto fuera con referencia a alguna de estas características, sí pasaría a ser un discurso de odio”.
Uno de los casos investigados por el grupo de trabajo de Benjamín es el foro estadounidense “White Supremacy” (Supremacía Blanca), “donde regía una cuestión de discurso de odio racial”, contó. Allí, se dio el caso de un usuario que se preguntó: “¿Estoy o en North Florida o en Nigeria? algunas veces no puedo encontrar la diferencia”.
“Ese viene a ser un mensaje implícito. Como diciendo: ‘Ah mira, ya no puedo reconocer mi propia ciudad porque se llenó de gente de otra nacionalidad”, explicó Ocampo. Y para detectar ese y otros contenidos, el investigador se valió de una base de datos (dataset) con mensajes de odio explícitos, implícitos e insultos que caen por fuera de la categoría analizada, con los cuales se entrenó a un “clasificador” (una función matemática automatizada), para que aprenda a detectar los discursos de odio subliminales y los categorice como tales, diferenciándolos de las otras dos posibilidades.
“Una vez que vos detectaste un discurso de odio, nosotros lo que queríamos proponer era que, automáticamente, se genere una respuesta informativa, que contra argumente al discurso de odio”, explicó Benjamín. “Es decir, vos das un mensaje implícito, como el que te había leído, correspondiente a la inmigración, por ejemplo, y yo te puedo responder: ‘Resulta que no es así, aquellos países que tienen una inmigración más libre, que reciben a los inmigrantes con las puertas abiertas, terminan siendo más prósperos tienen una vida mucho más rica por X e Y razones’. Ese es el objetivo de una contra narrativa: dar un argumento con el cual se contrarreste el discurso de odio”.
Este último paso, aún en desarrollo, no es solo una buena intención, sino que la iniciativa cuenta con evidencia científica que respalda sus efectos. Según el experto, “lo que se busca es intentar cambiar la opinión de las personas, de alguna manera. Decir: ‘Mira, bueno, no pongas este tipo de contenido’”.
El caso argentino
El interés de Ocampo también está puesto en nuestro país. Si bien no desarrolla ninguna investigación formal por el momento, sostiene que está muy pendiente de las campañas electorales locales. Al respecto, dijo no encontrar discursos de odio de la manera en la que él los estudia.
“Me pareció más una cuestión de que X político hace una crítica a otro político y que con tal de esquivar el argumento termina diciendo que sus dichos son catalogados como discurso de odio, y después se invierten los roles y el otro político termina cayendo bajo el mismo argumento”, detalló.
Y, por fuera de las campañas, a diferencia de Europa y Estados Unidos, donde el investigador detecta una situación “más marcada” por los discursos de odio, en nuestro país el académico observa la circulación de mensajes relacionados con otras problemáticas preponderantes, tales como la inflación y la inseguridad.
La inteligencia artificial, una aliada fundamental
Para entrenar a la inteligencia artificial de modo que detecte las sutilezas implícitas del lenguaje, el equipo del que forma parte Ocampo construyó una base de datos con tres categorías que nutrió con ejemplos de mensajes de odio explícitos, mensajes de odio implícitos e insultos que no se condicen con las otras dos categorías.
A partir de esto, se programó una función matemática que fue entrenada con esos ejemplos para detectar, diferenciar y construir discursos de odio implícitos.
Este modelo, aplicado sobre los distintos mensajes de una red social o un foro de internet, es capaz de encontrar las sutilezas de los mensajes ocultos en los matices que propone el lenguaje natural humano, tales como metáforas, circunloquios y otras sutilezas.