Se denomina deep fakes a los videos producidos a través inteligencia artificial, que permiten crear situaciones de apariencia realista pero que no sucedieron en la realidad. Estas piezas pueden incluir sobreimprimir la cara de una actriz de Hollywood en un video porno o cambiar el discurso de un político, no solo modificando el audio sino también sus expresiones faciales.
La manipulación de videos no es una novedad. Se ha usado con fines narrativos en películas desde hace años. Sin embargo, estas ediciones requerían el talento de numerosos especialistas y también se hacían de una manera más "artesanal", modificando plano por plano.
La inteligencia artificial permite que ese trabajo minucioso de adaptar un elemento externo a una imagen en movimiento lo haga un software y no un humano. Por ejemplo, se recopilan cientos de imágenes de una actriz y se le enseña a un programa a interpretar sus distintos modismos para poder adaptarlo a cada situación.
En la actualidad, lo que preocupa a investigadores -como Hany Farid, de la Universidad de Dartmouth (EE.UU.)- y políticos -como Marco Rubio, senador por el Estado de Florida (EE.UU.), entre otros-, es la potencialidad de esta tecnología. Se espera que en un tiempo corto las imágenes adulteradas sean más realistas y el software más accesible al público general. Por eso, también se están desarrollando programas de detección de deep fakes, aunque están en sus etapas iniciales.
Por el momento, la mayoría de la desinformación que circula por redes sociales en la Argentina utiliza técnicas más simples. En las últimas horas, circuló un video de la ministra de Seguridad de la Nación, Patricia Bullrich, que fue ralentizado y daba la impresión de que estaba borracha. Esto puede realizarse con cualquier editor simple de video, hasta desde un celular. Al mismo tiempo, el diputado nacional de Red por Argentina, Felipe Solá, fue víctima de la manipulación de un video grabado por el humorista Ariel Tarico cuyo audio fue sacado de contexto.
"El deep fake es un contenido creado con técnicas de inteligencia artificial. Si se trata de ralentizar un video ya existente, es una pieza manipulada digitalmente, no un deep fake", dijo a Reverso Pedro Noel, periodista de First Draft, una organización que trabaja contra la desinformación a nivel global.
Por su parte, Graham Brookie, director del Digital Forensic Research Lab del Atlantic Council -un think tank con sede en Washington que hizo estudios sobre el impacto de la desinformación en las últimas elecciones de los Estados Unidos, México, Colombia y Brasil-, señaló: “En nuestras investigaciones no hemos encontrado casos de videos deep fakes sobre temas políticos que hayan alcanzado un gran impacto”. Además, agregó: “En la actualidad, en los Estados Unidos, la percepción del riesgo de los deep fakes y su discusión por parte de los políticos es más importante que los casos que efectivamente están circulando”.
De todos los contenidos que circulan por redes sociales y que fueron verificados por Chequeado en el último año y medio, la mayoría de los videos falsos se trataron de casos sacados de contexto, en los que se atribuían imágenes de otros países y/o de otros momentos a situaciones locales y actuales (ver acá, acá, y acá).
“Dentro de la tecnología deep fake, es más probable que se popularicen los audios falsos creados con inteligencia artificial porque, si una persona o grupo quiere desinformar es más probable que elija la opción más rápida y barata”, concluyó Brookie.
Esta nota es parte de Reverso, el proyecto periodístico colaborativo que une a más de 100 medios y empresas de tecnología para intensificar la lucha contra la desinformación durante la campaña.
Las vías de contacto para sumarse son:
por mail a info@chequeado.com
por WhatsApp (ReversoAr.com/whatsapp)
y /ReversoAr en todas las redes