
OpenAI ha implementado nuevas y más estrictas medidas de protección en su modelo de generación de video Sora, en respuesta a una creciente ola de críticas por el uso no autorizado de la imagen y voz de celebridades en videos creados con inteligencia artificial. La compañía anunció estas actualizaciones en un comunicado conjunto con SAG-AFTRA, el actor Bryan Cranston y varias de las principales agencias de talentos de Hollywood.
La decisión llega después de que varios clips generados por IA, en los que aparecían figuras públicas —desde actores hasta científicos— sin su consentimiento, se viralizaran en redes, reavivando el debate sobre el consentimiento digital y la ética en el uso de la inteligencia artificial dentro de la producción audiovisual. Con estas nuevas normas, OpenAI busca limpiar la imagen de Sora y reafirmar su compromiso con un desarrollo responsable y transparente de la tecnología.
Bryan Cranston aplaude la respuesta de OpenAI
Uno de los casos más comentados fue el del reconocido actor Bryan Cranston, cuyo rostro y voz fueron replicados por sistemas de IA sin su autorización. Cranston celebró la reacción rápida de OpenAI ante la situación:
“Estaba profundamente preocupado, no solo por mí, sino por todos los artistas cuyos rostros e identidades pueden ser mal utilizados”, declaró el actor. “Aprecio la respuesta de OpenAI y espero que esto marque el comienzo de un respeto generalizado por nuestros derechos de imagen y voz.”
Un precedente para la industria del entretenimiento
El comunicado, respaldado por SAG-AFTRA, la United Talent Agency (UTA), la Creative Artists Agency (CAA) y la Association of Talent Agents (ATA), representa un precedente clave sobre cómo las empresas de inteligencia artificial deben manejar los derechos de imagen de figuras públicas.
Según la nueva política, Sora bloqueará la creación o reproducción de videos que contengan la imagen o voz de cualquier celebridad o figura pública sin su consentimiento expreso. Esta medida busca evitar casos de suplantación y proteger tanto la integridad de los artistas como la confianza del público en el contenido generado por IA.
Contexto legal y regulatorio
El anuncio coincide con un momento de mayor escrutinio legislativo sobre el uso de la inteligencia artificial en el ámbito creativo. En Estados Unidos, el próximo No Fakes Act (Nurture Originals, Foster Art and Keep Entertainment Safe Act) pretende proteger a los artistas de la suplantación digital o el uso no autorizado de su identidad mediante herramientas de IA.
La iniciativa, respaldada por importantes actores del sector, busca establecer un marco legal que regule la creación de contenidos generados por inteligencia artificial y garantice el respeto por los derechos de imagen, voz y propiedad intelectual.
Compromiso ético de OpenAI
El CEO de OpenAI, Sam Altman, reafirmó el compromiso de la compañía con la protección de los creadores y la ética en la inteligencia artificial:
“OpenAI está profundamente comprometida con proteger a los intérpretes contra el uso indebido de su voz o imagen. Fuimos de los primeros en apoyar el No Fakes Act y continuaremos respaldando los derechos de los artistas.”
Estas medidas marcan un paso importante hacia la autorregulación responsable en el sector de la inteligencia artificial, especialmente en un momento en que la línea entre lo real y lo sintético se vuelve cada vez más difusa. Con Sora, OpenAI busca demostrar que la innovación tecnológica puede avanzar sin sacrificar los derechos ni la dignidad de las personas.