Desde que me zambullí en el mundo de la inteligencia artificial (allá por mediados de 2022), una sombra ha rondado siempre mis pensamientos: el peligro de la desinformación.
Parece que no soy el único con esta inquietud, ya que el Foro Económico Mundial acaba de lanzar la bomba: la desinformación se ha colocado como el segundo mayor peligro del 2024, sólo por detrás de un titán como el cambio climático.
Nos encontramos al borde de un abismo de incertidumbre, y sin un manejo ético de estos avances, distinguir entre la realidad y la ficción podría convertirse en un verdadero quebradero de cabeza. Pensadlo: la cantidad de estafas que podrían perpetrarse es abrumadora, sin mencionar la excusa de "esto no es real, es obra de la inteligencia artificial" que cualquier figura pública podría sacarse de la manga como si nada. Y a otra cosa, mariposa.
Y eso sin adentrarnos en el turbio mundo de las extorsiones, ataques o el poder de manipulación masiva sobre las poblaciones. La historia está plagada de estos ejemplos, desde la propaganda totalitaria de los Nazis hasta la interferencia rusa en las elecciones estadounidenses, pero nunca antes habíamos visto a una proporción tan grande de la humanidad a merced de los caprichos de unos pocos que manejan los hilos detrás de los algoritmos.
En la reciente entrega de la saga Misión Imposible, la trama nos sumerge en una visión profética de un futuro sombrío, donde una inteligencia artificial (IA) alcanza un nivel de evolución tal que logra dominar por completo todos los sistemas digitales. Este giro argumental nos presenta un escenario en el que la humanidad se enfrenta a la desconfianza absoluta hacia la información digital, un reflejo de las preocupaciones actuales sobre el papel de la tecnología en nuestras vidas.
Se ha hablado mucho de "firmar" cualquier contenido o archivo multimedia que se genere con Inteligencia Artificial, pero ha quedado claro que no es una medida efectiva.
Investigadores de la Universidad de Maryland probaron dos tipos de marcas de agua en IA, visibles e invisibles, y descubrieron que ambos métodos pueden ser eludidos, ya sea eliminando las marcas de agua o añadiéndolas falsamente a archivos auténticos, lo que llevaría a falsos positivos. Hecha la ley, hecha la trampa.
Nos asomamos al abismo de la desinformación masiva y, si no podemos etiquetar el producto final, ¿qué nos queda?
Un sistema sencillo de validación no va a ser la solución. Necesitamos desarrollar procesos similares a los utilizados en los sistemas complejos, donde existen varias capas de control y seguridad. Y aplicarlos al inicio de la cadena, no al final.
Este tipo de solución podría ayudar a que los sistemas de IA sean capaces de evitar su manipulación por parte de usuarios finales y derivar en malas prácticas.
Alex Rayón propone algún tipo de adaptación del Swiss Cheese Model. El Modelo del Queso Suizo (Swiss Cheese Model) fue desarrollado por James Reason, un psicólogo británico, para ilustrar cómo se producen los fallos en los sistemas complejos a pesar de las medidas de seguridad. Este modelo se utiliza ampliamente en campos como la aviación, la medicina, y la ingeniería para analizar accidentes y prevenir incidentes futuros.
El modelo se visualiza como varias rebanadas de queso suizo colocadas una al lado de la otra. Cada rebanada representa una capa de defensa contra el fracaso, como procedimientos de seguridad, formación de empleados, regulaciones, y controles técnicos.
Los agujeros en el queso representan las debilidades o fallos en estas capas de defensa. Estos agujeros varían en tamaño y posición en cada capa, reflejando la naturaleza cambiante de los riesgos y la imperfección de las medidas de seguridad.
Un aspecto clave del modelo es que un accidente o fallo se produce cuando los agujeros de diferentes capas se alinean de manera que un riesgo puede atravesar todas las defensas sin ser detectado o mitigado. Esto ilustra cómo la combinación de pequeños errores o debilidades, que pueden ser insignificantes por sí mismos, puede conducir a un resultado catastrófico.
No es un escenario fácil. Si Google, el buscador que lleva siendo líder durante más de 20 años, no ha sido capaz de atinar con el spam y los contenidos de baja calidad, ¿cómo se diseñará ahora un sistema capaz de filtrar la verdad de la mentira?, ¿lo real de lo ficticio?