YouTube activó una herramienta que avisa si un video fue creado con IA

YouTube comenzará a exigir a los creadores que etiqueten el contenido generado por IA en su plataforma en los próximos meses, y la plataforma informará a los usuarios cuando estén viendo contenido creado con inteligencia artificial, dijo la compañía en una publicación de su blog.

YouTube también permitirá a las personas solicitar la eliminación de vídeos manipulados “que simulen a un individuo identificable, incluido su rostro o su voz”.

“No todo el contenido se eliminará de YouTube y consideraremos una variedad de factores al evaluar estas solicitudes”, dijo la compañía en la publicación del blog. “Esto podría incluir si el contenido es una parodia o una sátira, si la persona que realiza la solicitud puede ser identificada de forma única o si presenta a un funcionario público o un individuo conocido, en cuyo caso puede haber un listón más alto”.

YouTube tendrá un proceso de eliminación de solicitudes similar para sus socios musicales cuando se imite la voz de un artista para música generada por IA. Estas solicitudes estarán disponibles primero para los sellos o distribuidores que representen a los artistas en los “primeros experimentos musicales de IA” de YouTube y luego se ampliarán a representantes de artistas adicionales.

Pero YouTube también está ampliando su propio uso de la IA en la creación y moderación de contenidos.

“Un área clara de impacto ha sido la identificación de nuevas formas de abuso”, dijo la empresa. “Cuando surgen nuevas amenazas, nuestros sistemas tienen relativamente poco contexto para comprenderlas e identificarlas a escala. Pero la IA generativa nos ayuda a ampliar rápidamente el conjunto de información en el que están entrenados nuestros clasificadores de IA, lo que significa que podemos identificar y capturar este contenido mucho más rápidamente. La mejora de la velocidad y precisión de nuestros sistemas también nos permite reducir la cantidad de contenido dañino al que están expuestos los revisores humanos”.

A finales de 2020, YouTube dijo que enfrentaba desafíos al depender más de la automatización en sus procesos de moderación y que la IA cometía más errores que los revisores humanos.

El contenido de IA en YouTube se rige por las mismas Normas comunitarias que ya prohíben el “contenido técnicamente manipulado” que engañe a los espectadores y pueda dañar a otros.

Algunos de los videos, en particular los que cubren “temas sensibles” como “elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos”, tendrán una etiqueta visible en el propio reproductor de video.

YouTube escribió que la política cubriría un video de IA que “represente de manera realista un evento que nunca sucedió, o contenido que muestre a alguien diciendo o haciendo algo que en realidad no hizo”.

La tecnología de inteligencia artificial capaz de crear videos realistas, a veces llamados deepfakes, ha mejorado rápidamente y se ha vuelto más accesible en los últimos años, estando disponible para cualquiera que descargue una aplicación. Casi cualquiera puede crear rápidamente medios manipulados, y métodos más sofisticados pueden producir representaciones falsas y realistas de personas reconocibles que dicen y hacen cosas que en realidad no sucedieron. El uso más común de esta tecnología es representar a mujeres en videos pornográficos no consentidos.

Hola!