El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto al correo: maria.zorrilla@uaem.mx.
Las redes sociales han sido señaladas no sólo por propagar noticias falsas, sino por el papel que han jugado en la expansión del terrorismo y la pornografía infantil, entre otros males que aquejan a nuestra sociedad digital.
Según un artículo del diario británico The Guardian, las labores de antiterrorismo en redes sociales se llevan a cabo en compañías como Facebook, Google y Twitter por contratistas mal pagados, a veces voluntarios, con poca capacitación, que actúan como moderadores. Aunque estas grandes compañías han asegurado que están implementando medidas que combinan equipos especializados e inteligencia artificial, la realidad es que no han podido detener los males antes señalados (Solon, 2017a).
Google por su parte informó a finales de 2017 que contrató a miles de moderadores después de las duras críticas que recibió por facilitar la dispersión de videos de abuso de menores y otros contenidos ofensivos en YouTube. La CEO de YouTube informó que además de los moderadores humanos, continuarían trabajando en desarrollar tecnología inteligente para detectar y remover contenido problemático en forma automática. También comentó que gracias a herramientas tecnológicas basadas en inteligencia artificial (machine learning), los moderadores humanos estaban detectando y removiendo hasta cinco veces más videos que violaban las políticas de YouTube que antes y que el 98% de los videos detectados como violentos extremistas eran identificados por algoritmos. Afirmó que gracias a la tecnología podían detectar y retirar 70% del contenido extremista en un lapso de 8 horas después de haber sido publicado (Levin, 2017).
En un artículo publicado en Expansión (Chávez, 2018), se reporta que una tendencia reciente para la propagación de noticias falsas son las llamadas "historias", que surgieron en Instagram en 2016 y que se han ido integrando a otras plataformas como Facebook y WhatsApp. Se espera que en 2019 el formato sobrepasará el uso de texto e imágenes en las publicaciones hechas por los usuarios.
Para combatir las fake news en este nuevo formato, Tessa Lyons, directora de producto de Newsfeed en Facebook, informó que se ha integrado un equipo de técnicos, académicos y científicos de datos que buscan implementar técnicas de inteligencia artificial para detectar y combatir información falsa en estos formatos.
Actualmente son varios los esfuerzos por desarrollar inteligencia artificial capaz de detectar noticias falsas. A continuación una breve cronología de los desarrollos que identificamos disponibles para el público usuario:
Herramienta Fecha de desarrollo o reporte Vínculo
BS Detector (Extensión para diferentes navegadores que señala sitios web no confiables) BBC News y The Guardian informaron de este plug-in en diciembre de 2016
http://bsdetector.tech/
Fake news detector (extensión para navegador Chrome) Última actualización: 22 octubre 2017 https://chrome.google.com/webstore/detail/fake-news-detector/aebaikmeedenaijgjcfmndfknoobahep
Open Mind (extensión para Chrome) Reseñado en diciembre de 2017 https://openmind.press/
Fakebox (identificador de noticias falsas) Blog publicado al respecto: Enero 2018 https://machinebox.io/docs/fakebox
La otra cara de la moneda
Si bien la inteligencia artificial puede ayudarnos a detectar y combatir la información falsa en internet, lo preocupante es que también puede aprender a crear y circular material engañoso. Los sistemas de aprendizaje automático están demostrando ya una espeluznante capacidad para crear lo que se denomina deepfakes (falsificaciones profundas): fotos y videos que sustituyen de manera realista el rostro de una persona por el de otra para que parezca, por ejemplo, que un famoso ha sido fotografiado en una situación comprometedora o que una figura pública está diciendo cosas que en realidad nunca diría (Susarla, 2018).
Para entender cómo funciona esto en video, te invitamos a ver estos ejemplos. En el primero, el expresidente Barack Obama dice cosas que nunca diría. En el segundo, vemos cómo funciona el truco y la forma en que se pueden manipular no sólo la boca, sino toda la gesticulación del rostro. La máxima "ver para creer" ha quedado sin duda superada por estos programas:
Es una carrera entre los desarrollos para engañar y los desarrollos que pretenden usar Inteligencia Artificial para detectar esas falsificaciones. Por ejemplo, hay técnicas de magnificación de imagen para detectar cambios en el pulso humano que podrían ayudar a determinar si una persona incluida en un video es real o está generada por computadora (Susarla 2018).
Comentarios