InicioTecnoYouTube lanza su nuevo detector de deepfakes para proteger a políticos y...

YouTube lanza su nuevo detector de deepfakes para proteger a políticos y periodistas

YouTube lanzó una herramienta avanzada para detectar deepfakes, diseñada para proteger a políticos, periodistas y funcionarios gubernamentales de la manipulación de su imagen y voz mediante Inteligencia Artificial (IA).

Este sistema identifica vídeos generados o alterados que puedan suplantar la identidad de estas personas, notificando a los afectados y permitiéndoles solicitar su eliminación.

Funciona de manera similar al Content ID de derechos de autor, pero centrado en rostros y voces, garantizando control sobre la propia imagen sin interferir con contenidos de parodia o sátira. A continuación, conocé los detalles.

youtube deepfake

Gentileza: Qore

¿Cómo funciona ‘Likeness Detection’, la nueva IA de YouTube?

El sistema denominado «Likeness Detection» opera mediante un análisis automatizado de vídeos subidos a YouTube para identificar patrones faciales y de voz que coincidan con personas inscriptas en el programa de protección.

Para lograr esto, la plataforma combina modelos de IA con técnicas de reconocimiento biométrico, marcadores invisibles de Google (aplica marcas de aguas digitales en el momento de creación del contenido para facilitar la trazabilidad de origen) y algoritmos de comparación de geometría facial y gestualidad.

Los usuarios verificados reciben alertas en un panel privado cuando se trata de una posible coincidencia, permitiéndoles evaluar si se trata de un contenido no autorizado o manipulado. Luego, pueden iniciar una solicitud de eliminación a través de las herramientas de privacidad de la plataforma.

A diferencia de la detección de copyright, este mecanismo está centrado exclusivamente en proteger la identidad de individuos, sin interferir con el contenido creativo que pueda ser satírico o paródico.

youtube

Un escudo contra la desinformación en procesos electorales

La proliferación de deepfakes representa un riesgo directo para la democracia, ya que los vídeos manipulados pueden atribuir palabras o gestos falsos a candidatos y funcionarios durante períodos electorales.

La herramienta de YouTube ofrece un escudo adicional frente a este tipo de desinformación, al permitir que los protagonistas de la política y los medios de comunicación puedan identificar el uso indebido de su imagen y solicitar acciones correctivas.

Especialistas destacan que la detección temprana es clave para mitigar la propagación de contenidos engañosos antes de que afecten la opinión pública, especialmente en campañas sensibles o con alto impacto mediático.

Hackeo Virus Malware.jpg

Requisitos para participar: verificación de identidad y biometría

Para acceder a la protección de «Likeness Detection», los usuarios deben inscribirse en el programa y completar un proceso de verificación de identidad.

Esto implica subir un vídeo de referencia, junto con un documento oficial que certifique quienes son, asegurando que solo los autorizados puedan activar el sistema sobre su imagen.

YouTube garantiza que estos datos se utilizarán exclusivamente para el chequeo y no serán empleados para entrenar modelos de IA generativa, manteniendo así un equilibrio entre privacidad y seguridad digital.

El acceso incluye a creadores del YouTube Partner Program, cuyos primeros testers incluyeron figuras como MrBeast, Mark Rober, Doctor Mike y Marques Brownlee; políticos y candidatos en ejercicio, funcionarios de gobierno y periodistas.

youtube.jpg

Cómo solicitar la eliminación de un vídeo generado por IA con tu rostro

Cuando la herramienta detecta un deepfake no autorizado, el usuario verificado puede iniciar un proceso de eliminación a través del panel de control privado de YouTube.

La plataforma realiza una evaluación previa, considerando factores como la intención del contenido y la libertad de expresión, especialmente en casos de sátira o crítica política.

Solo después de esta revisión, el vídeo puede ser retirado si se confirma que su difusión vulnera la identidad del afectado. Este procedimiento combina la eficiencia de la IA con supervisión humana, garantizando que se protejan los derechos de los individuos sin limitar el debate ni la creatividad.

Más noticias
Noticias Relacionadas