Sora de OpenAI, una aplicación híbrida que fusiona red social y creador de videos con Inteligencia Artificial (IA), generó una ola de preocupación por su capacidad de producir videos hiperrealistas de figuras públicas y ciudadanos comunes.
A pesar de las promesas de seguridad de la compañía, expertos y agencias advierten sobre la proliferación de deepfakes que impulsan la desinformación, la difamación y graves riesgos de extorsión y pérdida de control sobre los datos biométricos, informó Chequeado.
Qué es Sora de OpenAI
Sora de OpenAI fue diseñada como un híbrido entre una red social y una herramienta de creación de videos con IA. Lanzada el 30 de septiembre, la aplicación permite a los usuarios crear videos y audios hiperrealistas simplemente utilizando una instrucción de texto (prompt). El contenido se comparte en un feed similar al de TikTok, permitiendo la interacción entre usuarios.
Aunque la aplicación se mantiene con disponibilidad solo por invitación en Estados Unidos y Canadá, videos creados con Sora ya están “inundando internet”. La herramienta utiliza el modelo Sora 2.
El desafío de los deepfakes de figuras públicas
OpenAI, buscando anticiparse a posibles usos indebidos, implementó supuestas “medidas de mitigación” para prevenir el uso ilegal de la imagen de terceros y aseguró que buscarían “bloquear representaciones de figuras públicas”. El dueño de OpenAI, Sam Altman, indicó que se otorgará a los “titulares de derechos” mayor control sobre la generación de personajes.
Sin embargo, en la práctica, no es difícil encontrar vídeos creados con Sora que representan a celebridades y figuras políticas. Han circulado videos del actor Bryan Cranston junto a Michael Jackson, del influencer Jake Paul, o de políticos como Donald Trump, Vladimir Putin y Volodímir Zelensky.
Los peligros de Sora, la app de OpenAI
La compañía manifestó que sí permiten “la generación de figuras históricas”. Esta distinción abrió la puerta a la representación de figuras públicas fallecidas, como Amy Winehouse, Tupac Shakur y Albert Einstein.
No obstante, OpenAI no aclaró qué define como “figura histórica” ni qué considera “recientemente fallecido”. Un portavoz de OpenAI, consultado por Axios, mencionó que existen “fuertes intereses de libertad de expresión” en el uso de Sora para representar a figuras históricas.
La capacidad de Sora para generar resultados hiperrealistas provoca que estos videos no presenten muchos de los errores que antes se buscaban para identificar un deepfake. Esto, sumado a que existen herramientas en línea para eliminar las marcas de agua de Sora, permite que los videos circulen fuera de su contexto original y, a menudo, sin etiquetas de identificación de IA.
Los riesgos más significativos incluyen:
- Aumento de la desconfianza: el contenido generado puede agravar la desconfianza de los usuarios ante lo que ven.
- Generación de falsos relatos: los videos pueden generar falsos relatos o reforzar narrativas conspirativas. Por ejemplo, circulan videos de Jeffrey Epstein diciendo estar vivo o de Donald Trump siendo detenido por reclutar mujeres.
- Daño reputacional: se usan para difamar a personajes públicos, poniéndolos en situaciones irreales que afectan su reputación. Ejemplos incluyen videos de Stephen Hawking consumiendo cocaína, o de Martin Luther King Jr. robando en un supermercado.
Este uso no autorizado de la imagen generó preocupación y rechazo en agencias de talento, empresas de Hollywood, y los propios familiares de los representados. La hija del fallecido actor Robin Williams, Zelda Williams, pidió públicamente que los usuarios dejaran de hacer videos con IA de su padre.
Riesgos para el usuario común
El peligro de ser difamado no se limita únicamente a las celebridades. La función de “Cameos” de Sora permite a los usuarios generar deepfakes de sí mismos. Para usar esta función, la persona debe realizar una “breve grabación única de vídeo y audio” para verificar su identidad y capturar su imagen.
Al subir el rostro a Sora, los usuarios están compartiendo sus datos biométricos (características físicas como rasgos faciales y ojos), considerada información altamente sensible que no se puede modificar. Un mal uso de estos datos implica riesgos para la privacidad y derechos fundamentales.
Jorge Louzao, experto en ciberseguridad, identifica que uno de los principales riesgos es la suplantación de identidad. Aunque los usuarios pueden configurar quién usa su rostro, es fácil que se pierda el control sobre cómo se usan y dónde se comparten estas creaciones; por ejemplo, si un amigo autorizado crea contenido que resulta humillante.
Los deepfakes de usuarios comunes “se pueden difundir sin control” y usarse para acosarlos, extorsionarlos o simplemente avergonzarlos, además de amplificar discursos de odio. Se reportó el caso de una periodista cuyo acosador utilizó la herramienta de OpenAI para crear videos de ella con IA.
Fallos de seguridad y retención de datos
Louzao también subraya que compartir el rostro con OpenAI incrementa los riesgos si hay fallos de seguridad o cambios de políticas. Si la empresa sufriera un ciberataque, los datos biométricos podrían ser expuestos a actores maliciosos. Además, existe la posibilidad de que estos datos se retengan para “futuros usos internos”, como la mejora del modelo o almacenamiento, o que incluso se compartan con terceros.
En este contexto, la comunidad de seguridad advierte que la producción en masa de videos desinformadores de figuras públicas y de cualquier persona se convirtió en una amenaza tangible con la llegada de Sora.
Sora de OpenAI, una aplicación híbrida que fusiona red social y creador de videos con Inteligencia Artificial (IA), generó una ola de preocupación por su capacidad de producir videos hiperrealistas de figuras públicas y ciudadanos comunes. A pesar de las promesas de seguridad de la compañía, expertos y agencias advierten sobre la proliferación de deepfakes que impulsan la desinformación, la difamación y graves riesgos de extorsión y pérdida de control sobre los datos biométricos, informó Chequeado.Qué es Sora de OpenAISora de OpenAI fue diseñada como un híbrido entre una red social y una herramienta de creación de videos con IA. Lanzada el 30 de septiembre, la aplicación permite a los usuarios crear videos y audios hiperrealistas simplemente utilizando una instrucción de texto (prompt). El contenido se comparte en un feed similar al de TikTok, permitiendo la interacción entre usuarios.Aunque la aplicación se mantiene con disponibilidad solo por invitación en Estados Unidos y Canadá, videos creados con Sora ya están “inundando internet”. La herramienta utiliza el modelo Sora 2.El desafío de los deepfakes de figuras públicasOpenAI, buscando anticiparse a posibles usos indebidos, implementó supuestas “medidas de mitigación” para prevenir el uso ilegal de la imagen de terceros y aseguró que buscarían “bloquear representaciones de figuras públicas”. El dueño de OpenAI, Sam Altman, indicó que se otorgará a los “titulares de derechos” mayor control sobre la generación de personajes.Sin embargo, en la práctica, no es difícil encontrar vídeos creados con Sora que representan a celebridades y figuras políticas. Han circulado videos del actor Bryan Cranston junto a Michael Jackson, del influencer Jake Paul, o de políticos como Donald Trump, Vladimir Putin y Volodímir Zelensky.Los peligros de Sora, la app de OpenAILa compañía manifestó que sí permiten “la generación de figuras históricas”. Esta distinción abrió la puerta a la representación de figuras públicas fallecidas, como Amy Winehouse, Tupac Shakur y Albert Einstein. No obstante, OpenAI no aclaró qué define como “figura histórica” ni qué considera “recientemente fallecido”. Un portavoz de OpenAI, consultado por Axios, mencionó que existen “fuertes intereses de libertad de expresión” en el uso de Sora para representar a figuras históricas.La capacidad de Sora para generar resultados hiperrealistas provoca que estos videos no presenten muchos de los errores que antes se buscaban para identificar un deepfake. Esto, sumado a que existen herramientas en línea para eliminar las marcas de agua de Sora, permite que los videos circulen fuera de su contexto original y, a menudo, sin etiquetas de identificación de IA.Los riesgos más significativos incluyen:Aumento de la desconfianza: el contenido generado puede agravar la desconfianza de los usuarios ante lo que ven.Generación de falsos relatos: los videos pueden generar falsos relatos o reforzar narrativas conspirativas. Por ejemplo, circulan videos de Jeffrey Epstein diciendo estar vivo o de Donald Trump siendo detenido por reclutar mujeres.Daño reputacional: se usan para difamar a personajes públicos, poniéndolos en situaciones irreales que afectan su reputación. Ejemplos incluyen videos de Stephen Hawking consumiendo cocaína, o de Martin Luther King Jr. robando en un supermercado.Este uso no autorizado de la imagen generó preocupación y rechazo en agencias de talento, empresas de Hollywood, y los propios familiares de los representados. La hija del fallecido actor Robin Williams, Zelda Williams, pidió públicamente que los usuarios dejaran de hacer videos con IA de su padre.Riesgos para el usuario comúnEl peligro de ser difamado no se limita únicamente a las celebridades. La función de “Cameos” de Sora permite a los usuarios generar deepfakes de sí mismos. Para usar esta función, la persona debe realizar una “breve grabación única de vídeo y audio” para verificar su identidad y capturar su imagen.Al subir el rostro a Sora, los usuarios están compartiendo sus datos biométricos (características físicas como rasgos faciales y ojos), considerada información altamente sensible que no se puede modificar. Un mal uso de estos datos implica riesgos para la privacidad y derechos fundamentales.Jorge Louzao, experto en ciberseguridad, identifica que uno de los principales riesgos es la suplantación de identidad. Aunque los usuarios pueden configurar quién usa su rostro, es fácil que se pierda el control sobre cómo se usan y dónde se comparten estas creaciones; por ejemplo, si un amigo autorizado crea contenido que resulta humillante.Los deepfakes de usuarios comunes “se pueden difundir sin control” y usarse para acosarlos, extorsionarlos o simplemente avergonzarlos, además de amplificar discursos de odio. Se reportó el caso de una periodista cuyo acosador utilizó la herramienta de OpenAI para crear videos de ella con IA.Fallos de seguridad y retención de datosLouzao también subraya que compartir el rostro con OpenAI incrementa los riesgos si hay fallos de seguridad o cambios de políticas. Si la empresa sufriera un ciberataque, los datos biométricos podrían ser expuestos a actores maliciosos. Además, existe la posibilidad de que estos datos se retengan para “futuros usos internos”, como la mejora del modelo o almacenamiento, o que incluso se compartan con terceros.En este contexto, la comunidad de seguridad advierte que la producción en masa de videos desinformadores de figuras públicas y de cualquier persona se convirtió en una amenaza tangible con la llegada de Sora.