martes, mayo 21

OpenAI lanza detector “Deepfake” para investigadores de desinformación

Mientras los expertos advierten que las imágenes, el audio y el vídeo generados por IA podrían influir en las elecciones de otoño, OpenAI lanza una herramienta diseñada para detectar contenido creado por su popular generador de imágenes, DALL-E. Pero la destacada startup de inteligencia artificial reconoce que esta herramienta es solo una pequeña parte de lo que se necesitará para combatir los “deepfakes” en los meses y años venideros.

El martes, OpenAI anunció que compartiría su nuevo detector de deepfake con un pequeño grupo de investigadores de desinformación para que puedan probar la herramienta en situaciones del mundo real y ayudar a identificar formas de mejorarla.

“Se trata de iniciar nuevas investigaciones”, dijo Sandhini Agarwal, investigadora de OpenAI que se centra en seguridad y políticas. “Es realmente necesario”.

OpenAI dijo que su nuevo detector podría identificar correctamente el 98,8% de las imágenes creadas por DALL-E 3, la última versión de su generador de imágenes. Pero la compañía dijo que la herramienta no está diseñada para detectar imágenes producidas por otros generadores populares como Midjourney y Stability.

Debido a que este tipo de detector de deepfake se basa en probabilidades, nunca puede ser perfecto. Entonces, como muchas otras empresas, organizaciones sin fines de lucro y laboratorios académicos, OpenAI está trabajando para combatir el problema de otras maneras.

Al igual que los gigantes tecnológicos Google y Meta, la compañía se unirá al comité directivo de la Coalición para la Procedencia y Autenticidad del Contenido, o C2PA, un esfuerzo por desarrollar credenciales para contenido digital. El estándar C2PA es una especie de “etiqueta nutricional” para imágenes, vídeos, clips de audio y otros archivos que indica cuándo y cómo fueron producidos o modificados, incluso con IA.

OpenAI también dijo que estaba desarrollando formas de poner marcas de agua en los sonidos generados por IA para que puedan identificarse fácilmente en el momento. La empresa espera que estas marcas de agua sean difíciles de eliminar.

Anclada por empresas como OpenAI, Google y Meta, la industria de la IA enfrenta una presión cada vez mayor para dar cuenta del contenido generado por sus productos. Los expertos piden a la industria que impida que los usuarios generen material engañoso y malicioso y que proporcione formas de rastrear su origen y distribución.

En un año marcado por importantes elecciones en todo el mundo, los pedidos de formas de monitorear el linaje del contenido de IA son cada vez más desesperados. En los últimos meses, el audio y las imágenes ya han afectado las campañas políticas y las votaciones en países como Eslovaquia, Taiwán y la India.

El nuevo detector de deepfake de OpenAI puede ayudar a solucionar el problema, pero no lo resolverá. Como dijo la Sra. Agarwal: En la lucha contra los deepfakes, “no existe una solución milagrosa”.