Google, Meta y OpenAI se unen contra deepfakes

Google, Meta y OpenAI han anunciado conjuntamente medidas para identificar contenidos generados con inteligencia artificial (IA), con el objetivo de combatir la desinformación y los riesgos asociados con los ‘deepfakes’. En respuesta a la preocupación sobre la posible influencia negativa de mensajes falsos en eventos importantes, las compañías se han unido a la Coalición para la Procedencia y Autenticidad de Contenido (C2PA), proponiendo un certificado estándar.

A pesar de comprometerse a evitar el uso de IA en los procesos electorales de 2024, las empresas reconocen la falta de una solución única y efectiva para identificar todo el contenido generado con IA. Las iniciativas abarcan marcas visibles en imágenes, mensajes ocultos en metadatos y píxeles generados artificialmente. Google, mediante su herramienta SynthID en fase beta, asegura haber desarrollado un método para identificar audios generados por IA.

La C2PA propone un estándar para introducir información en los metadatos de las imágenes, aunque algunos desarrolladores han señalado debilidades técnicas en este enfoque. OpenAI, que utilizará C2PA en su generador de imágenes Dall-3, advierte que los metadatos no son una solución infalible y pueden eliminarse fácilmente, ya sea accidental o intencionadamente. Aunque las empresas no proporcionan plazos claros para la implementación completa de estas medidas, reconocen la importancia de actuar preventivamente, especialmente en un año electoral lleno de eventos importantes.