MALDITA TECNOLOGÍA

Se puede falsear lo que decís y que nadie se dé cuenta

Sin un aviso explícito de que se trata de «deepfakes», nadie podría distinguir que son clips completamente falsos y modificados por inteligencia artificial. Mark Zuckerberg aparece en un video en Instagram que ha causado revuelo. En el clip, el CEO de Facebook comenta: «Imaginá esto por un segundo: un hombre, con un control absoluto sobre miles de millones de datos robados a otras personas, con todos sus secretos, sus vidas, sus futuros. Yo se lo debo todo a Spectre. Spectre me mostró cómo controlar los datos, cómo controlar el futuro».
El video es parte de una serie en la que aparecen otras celebridades en producciones similares, tiene además los epígrafes de la emisión original, por lo que está claro que no tiene una verdadera intención de engaño.
En otros clips modificados aparecen, por ejemplo, Marina Abramovic,Morgan Freeman, Donald Trump y hasta Kim Kardashian.
Todo es muy provocador tanto por el espacio en el que se publica, siendo Instagram propiedad de Facebook, como por el hecho de que resulta una burla a la forma en que la compañía ha respondido al surgimiento de estas producciones y otras similares. Y no es necesario mencionar el contenido del discurso.
Hace poco, un video alterado de la vocera de la cámara de representantes del congreso estadounidense, Nancy Pelosi, fue modificado para mostrarla como si estuviera en un estado alterado o de ebriedad. Cuando se pidió la remoción, Facebook señaló que no era necesario y que bastaba con advertir que se trataba de un video alterado y reducir su difusión.
Facebook aseguró que tratará el video de su CEO de la misma manera que otros videos con información falsa en Instagram. Otros medios han apuntado que publicarán el video como una sátira.
Los autores del video son los artistas Bill Posters y Daniel Howe en asociación con la empresa de publicidad Canny. El video fue creado con el software de VDR (reemplazo de diálogo de video) de la empresa.

Habrá que estar atentos

Un grupo de científicos está trabajando en una inteligencia artificial que podría marcar un antes y después en la creación de contenido falso. Y es que la IA, apoyada por técnicas de aprendizaje automático —machine learning—, es capaz de aceptar cualquier texto para generar un DeepFake. Por lo tanto, es posible establecer exactamente cuáles serán las palabras que dirá el rostro «impostor».
Los investigadores involucrados pertenecen a diversas instituciones como Adobe Research, Universidad de Stanford, Universidad de Princeton y el Instituto Max Planck. Su software todavía no está terminado, pero las primeras pruebas ya ofrecen resultados tan sorprendentes como preocupantes, pues han demostrado que crear un DeepFake es cada vez menos complejo.

Hacerte decir, lo que no dijiste

Es importante mencionar que, de momento, la susodicha inteligencia artificial funciona con vídeos en los que únicamente aparece la cabeza de una persona, pues la aparición de cualquier otra extremidad no permite que el algoritmo cumpla con su trabajo. Otra de las limitantes es que el texto ingresado no puede ser tan diferente al del material original. De hecho, fue necesario grabar audio que se adaptara a las nuevas palabras, ya que las tecnologías de falsificación de audio no han evolucionado al nivel de la manipulación de imágenes.
Si bien los primeros avances son más que prometedores, los científicos involucrados en el proyecto aceptan que todavía quedan muchas mejoras por implementar. Por ejemplo, aún no es posible alterar el tono de voz o el estado de ánimo del rostro falso, características esenciales para lograr que un DeepFake pase desapercibido. Aún les resta un largo camino para perfeccionar su IA, pero al concretarse sería una de las más eficientes y avanzadas.

Falsificaciones

¿La inteligencia artificial estará disponible para todo el público? Es probable. La propia Adobe presentó recientemente Project VoCo, una herramienta con la que los usuarios pueden alterar una grabación de audio agregando palabras que nunca se dijeron. VoCo es una de las tecnologías presentes en el software de los científicos, lo cual les ha permitido obtener mejores resultados en cuanto al audio se refiere.
Como ya ha sucedido con otras propuestas similares, existe la preocupación de que los sistemas lleguen a las manos equivocadas. Los investigadores reconocen que «los malos actores pueden usar estas tecnologías para falsificar declaraciones personales y calumniar a personas prominentes».
La solución planteada es que el material generado muestre alguna señal de que se trata de una falsificación. Sin embargo, este tipo de gráficos pueden ser eliminados con relativa facilidad. Adobe ya ofrece una función en After Effects para eliminar objetos de vídeos.

No creas todo lo que ves

Por primera vez desde que fue pintada, la Mona Lisa sonrió, se movió y habló. Y esto deslumbró a mas de un millón de personas que vieron el video en Youtube, incrédulos de que la icónica imagen se moviera de manera tan natural enfrente de sus ojos.
O por lo menos eso fue lo que pareció gracias al programa diseñado por científicos de Samsung en Rusia que fue utilizado para «darle vida» a la figura de La Giaconda, la obra maestra de Leonardo da Vinci. Este grupo además creó «retratos vivientes» de fotos de Marylin Monroe, Salvador Dalí y Albert Einstein, entre otros.
Estas mejoras en videos deepfake, a pesar de ser una maravilla tecnológica, presentan un gran problema para nuestra habilidad de diferenciar entre imágenes reales y imágenes falsificadas por programas sofisticados.
Los deepfakes están siendo un problema creciente hace ya algunos años. Se volvieron conocidos cuando un usuario de Reddit utilizó imágenes de películas de celebridades como Gal Gadot, Emma Watson y Scarlett Johanson para crear películas pornográficas falsas.

ÚLTIMAS NOTICIAS