Archivos por Etiqueta: deep fakes

«Deep fakes»; la próxima frontera del fraude

Los « deep fakes», esos montajes audiovisuales hiperrealistas que cambian la cara y la voz del protagonista utilizando herramientas de «deep learning», se han multiplicado en los últimos meses y los expertos en ciberseguridad alertan de que 2020 podría ser la fecha en la que esta tecnología sea utilizada de forma masiva para cometer fraude empresarial.

Así lo pone de manifiesto la empresa de ciberseguridad Trend Micro en su informe de predicciones para 2020, en el que también se afirma que las organizaciones se enfrentan a un «riesgo creciente» proveniente desde la nube y de la cadena de suministro, tal y como ha explicado su director general en Iberia, José Battat, en un encuentro con la prensa.

«Las amenazas persistentes y variadas requieren una seguridad multicapa que pueda proporcionar detección y protección en tiempo real. Además de aumentar la concienciación de los empleados sobre las técnicas de ingeniería social, las organizaciones también deberían realizar auditorías periódicas de seguridad», añade la compañía.

Una de las técnicas más novedosa es el «deepfake», que hasta ahora se usa de forma mayoritaria en la industria pornográfica (en el 96 por ciento de los casos) y para realizar chantajes a nivel particular. Sin embargo, advierten de que estas prácticas podrían aumentar significativamente el próximo año y poner el foco en las empresas, tratando de manipularlas en sus transacciones financieras y decisiones críticas.

En este sentido, David Sancho, experto en amenazas web y tecnologías emergentes de Trend Micro, indica que la suplantación de la voz a través de este tipo de herramientas «es relativamente fácil y convincente». Así, explica que puede ser muy efectiva si se utiliza contra una persona con responsabilidad en el área de Administración de una organización, cuando la voz que se ha copiado es la del jefe y se usan canales de comunicación de confianza como el WhatsApp.

Otro caso al que se ha referido Sancho es el de los montajes ‘deepfake’ de directivos, que pueden llegar a viralizarse en Internet y afectar a la reputación de la compañía, causando un importante daño económico, al incidir -por ejemplo- en su cotización en Bolsa. Esta amenaza ha llevado incluso a Twitter a anunciar recientemente que modificará las políticas de la plataforma contra los contenidos manipulados a través de técnicas de «deepfake», enfocándose especialmente en aquellos contenidos que puedan dañar a los usuarios.

Clipboard-k84F--1240x698@abc

Los «deep fakes» llegan a la voz

La suplantación de identidad es una de las mayores preocupaciones de los ciudadanos. En una era en la que cualquiera puede abrirse un perfil en redes sociales para hacerse pasar por otra persona, los algoritmos de inteligencia artificial han alcanzado una notable perfección que, aplicado a contenidos multimedia, ha dado paso a un preocupante fenómeno que ya se conoce como « deep fakes». El problema es que se pueden manipular no solo vídeos con un sorprendente índice de realismo sino también la voz humana.

Un truculento caso ha permitido dar la voz de alarma ante una posible tendencia que, según los expertos, tiene todos los atributos para generalizarse en el futuro. Según desveló a finales de agosto el medio «The Wall Street Journal», un grupo de cibercriminales empleó un software basado en inteligencia artificial para hacerse pasar por la voz de un director ejecutivo y transferir, de manera fraudulenta, unos 220.000 euros de una empresa energética británica. La estafa se produjo en marzo, pero no ha sido recientemente cuando ha trascendido.

 Un ejecutivo de la compañía afectada pensó que estaba hablando por teléfono con su jefe, un director ejecutivo de la empresa matriz ubicada en Alemania cuyo nombre no ha trascendido. El ciberdelincuente le instó a enviar los fondos a un proveedor en Hungría. Se logró cometer la estafa a partir de la creación de voces sintéticas que replican las mismas ondas de una voz original. La estafa se pudo acometer también dado que la llamada telefónica coincidió con un correo electrónico enviado previamente que anticipaba la operación financiera.

Aunque tiene margen para perfeccionarse, según informa «La Vanguardia», este tipo de manipulaciones ha empezado a despertar las preocupaciones de ciudadanos y empresas de todo tipo. Estimaciones de la firma de seguridad Symantec apuntaron en julio un aumento de los ataques por medio de esta técnica de suplantación de voz. El pasado año, Google presentó una tecnología propia, Duplex, que es capaz de conversar con personas por teléfono. El objetivo con el que nació era ahorrar a sus usuarios el esfuerzo de llamar directamente. El software era capaz de imitar los principales atributos de la voz humana, desde el color, el acento, la entonación o la modulación.

Los expertos creen que estas técnicas van a crecer en los próximos años y, acompañados de la viralidad que brindan las redes sociales, puede anticipar la llegada de audios manipulados que pueden llegar a cambiar la interpretación de los hechos noticiosos. Sin embargo, apuntan a que a diferencia de los «deep fakes» de video se requiere de conocimientos avanzados y una tecnología muy sofistifada que no está al alcance de cualquiera.

Este tipo de sistemas funciona a partir de una inteligencia artificial que toma las principales características de la voz transformándola en una onda interpretable por un software. A partir de entonces es capaz de replicar desde la modulación, el timbre, el color o el sexo para generar una voz sintética que puede repetir palabras pregrabadas o producir frases desde cero. «Hay que tener mucho cuidado con las imágenes y audio porque no puedes creer lo que vemos», advierte a este diario Stella Luna, experta en seguridad informática y directora general de Pentaquark Consulting, quien asegura que los «deep fakes» de audio requieren de un soporte tecnológico que, en general, están al alcance por el momento de empresas.

En su opinión, dado que la sofisticación de la tecnología presenta diferencias notables entre las manipulaciones de vídeo y audio, el impacto también es distinto. No obstante, esta experta pronostica que este tipo de fraudes van a ir a más pero espera que los métodos de seguridad y de detección «vayan en paralelo».

 

1402241884-kpNF--1240x698@abc

El jefe de Facebook asume que no controlan las «deep fakes»

La desinformación en redes sociales se ha convertido en un problema. En una lacra que para lo antes posible. Pero mientras se encuentran mecanismos para combatir las llamadas «fake news» o noticias falsas, otra tendencia empieza a coger fuerza, los vídeos manipulados que se engloban en una reciente estrenada etiqueta, «deep fakes». Y, por ahora, no hay fórmula de detectarlo rápidamente.

No manera, de momento, de bloquear este tipo de contenidos malintencionados que están fabricados de tal manera que puede llegar a confundir con la más absoluta realidad. Y es un quebradero de cabeza para Facebook. Hasta tal punto que, al final, se ha tenido que mojar y bajar al barro. Mark Zuckerberg, creador del imperio digital, ha adelantado que prepara unas futuras políticas para combatir este tipo de vídeos manipulados.

Lo hace después de asumir un «error de ejecución» y una «reacción tardía» la decisión de marcar como falso un vídeo alterado de Nancy Pelosi, presidenta de la Cámara de Representantes de Estados Unidos, en donde se mostraba a la dirigente demócrata aparentemente ebria y retorciendo su discurso para general polémica. Sucedió el pasado mes y se compartió rápidamente en Facebook, Twitter o YouTube. Este último servicio, sin embargo, y después de una serie de denuncias por parte de usuarios por supuesta violación de las políticas de uso, eliminó el vídeo.

ente demostraba que permite la injerencia en las elecciones. En una conferencia en Aspen (Colorado), Zuckerberg ha reconocido que al sistema de revisión automática de la red social se llevó «un tiempo para marcar el vídeo» y «para que los verificadores -personas- pudieran calificar los hechos como falso». A su juicio, «durante ese tiempo se generó una gran distribución, más de lo que nuestras políticas de uso deberían haber permitido».

El propio «Zuck» fue incluso objeto de este tipo de vídeos manipulados, pero ateniendo a una supuesta libertad de expresión dejó que se difundieran por sus servicios digitales. «Es un un área importante a medida que la tecnología de Inteligencia Artificial mejora». Criticado por subestimar las campañas de manipulación durante las elecciones presidenciales, Facebook se enfrenta, desde entonces, a una crisis de reputación. Pero ha cambiado de discurso, porque ahora el directivo ha querido enarbolar la privacidad de los datos. Un relato que contradice con las prácticas llevadas a cabo por la multinacional estadounidense.

De hecho, Zuckerberg ha defendido que las autoridades y legisladores de EE.UU. deben ser «parte responsable» en la regulación de las empresas tecnológicas. «No tenemos los medios para detener (las acciones de) el gobierno ruso», mientras que «nuestro gobierno es el que tiene las herramientas para presionar a Rusia, no a nosotros», argumentó.

Clipboard-0006-kA8E--1240x698@abc

Un algoritmo que podría devolver la vida a Einstein o La Mona Lisa.

«Más vale una imagen que mil palabras». Este dicho está condenado a la muerte en la era de las « deep fakes». A medida que las noticias falsas han evolucionado a costa de una nueva tendencia, los vídeos manipulados, el miedo a no saber distinguir si es real lo que aprecian nuestros ojos ha ganado el pulso de la inteligencia. No nos creemos nada, y lo que sí, lo ponemos en barbecho. Ante este escenario, un proyecto de Samsung ha retorcido aún más la capacidad de los algoritmos.

Samsung ha desarrollado un algoritmo ( PDF) capaz de animar fotografías y cuadros con tanto realismo que puede devolver a la «vida» a personalidades que llevan mucho tiempo en el reino de los muertos como Salvador Dalí Albert Einstein o, incluso, personas que por la época en la que vivieron no existen imágenes salvo obras pictóricas como La Gioconda de Leonardo da Vinci.

A partir de una sola imagen, el sistema informático, que cuenta con modelos de Inteligencia Artificial, toma todos los detalles y realiza una simulación precisa de cómo sería el personaje en movimientos e intuyendo, además, los posibles gestos y voz del sujeto. Este avance, que se publicado por un laboratorio de inteligencia artificialde Samsung en Rusia, demuestra la capacidad de convertir de manera convincente obras de arte y fotografías de celebridades en imágenes en movimiento.

Esta tecnología tiene, sin embargo, muchas implicaciones a nivel ético porque abre la posibilidad de crear «falsificaciones profundas» muy convincentes. Videos que muestran a políticos e, incluso, a personas que murieron diciendo cosas que nunca dijeron creadas solo a partir de imágenes fijas de sus caras. La puerta al revisionismo histórico. En el caso de las pinturas, el sistema logró animar las imágenes empleando expresiones faciales de una persona real, mientras que las fotografías de personajes famosos como David Beckham se convirtieron en video usando imágenes de ellos.

Los investigadores han aplicado estos avances a famosos como Marilyn Monroe (fallecida en 1962) o Albert Einstein (fallecido en 1955) únicamente empleando los rasgos faciales móviles de otras personas. Con esta información, a posteriori, se generó un mapa de sus caras. Aunque este método no es nuevo, en logro de Samsung es conseguir este efecto de manera convincente y a partir de un solo paso.

Otro de los ejemplos ha sido la Mona Lisa. El grupo de investigadores mostró sus resultados en un video en donde se muestra en este caso que la pintura se «anima» pero se aprecia de manera diferente según la persona que se utilice como fuente de imagen para crear el movimiento. «Demostramos que este enfoque es capaz de aprender modelos de personas nuevas e incluso retratos, altamente realistas y personalizados», apuntan en un comunicado los autores.

iasamsung-kqu--300x168@abc

El fake más temible que permite la tecnología: suplantar tu identidad en vídeo

El refranero español, tan jugoso, tiene consejos para todo. Una imagen vale más que mil palabras, se suele decir. Nuestros ojos, pensamos, son incapaces de engañarnos. La realidad es otra.Es una cuestión de fe. Estamos sometidos a tal sobreabundancia de información que descubrir las fuentes fiables resulta cada día más complicado. Durante un siglo el video y el audio han sido esenciales a la hora de construir una percepción de la realidad. Ha sido la base por la circulaba la verdad, ahora en entredicho por culpa de las nuevas tecnologías.

Las redes sociales son los espacios principales por donde las llamadas «fake news» o «noticias falsas» se mueven con mayor naturalidad. La tecnología, en cambio, ya está preparada para subir una velocidad más en el arte del engaño con las «mentiras profundas». Así se definen las «deep fakes». Videos manipulados que intentan colarte una mentira en boca de un dirigente político o cualquier personalidad famosas con dotes de influencia. La manipulación de las imágenes hiperrealistas se ha sofisticado rápidamente hasta el punto que son difícilmente detectables.

Los avances en inteligencia artificial empiezan a ser capaces de reproducir audio y video falsos de manera convincente, pero sobre todo mediante un proceso al alcance de cualquiera. Existen programas informáticos que se han aplicado a la industria del sexo. Software que permiten instaurar el rostro de una persona famosa sobre el cuerpo de una actriz de contenidos pornográficos, personalizando las fantasías sexuales. No ha tardado en ponerse en práctica esta capacidad a otro entorno, la de la política.

Lograr que una persona parezca decir o hacer algo que no ha dicho está llevando, según una investigación elaborada por CNN, a la guerra contra la desinformación a un nivel completamente nuevo. Los servicios de inteligencia de países como Estados Unidos ha dado la voz de alarma. Empiezan a trazar un protocolo de actuación para frenar este avance que puede provocar un caos social en caso de extenderse. Porque si no te puedes fiar de nada, en nada vas a creer. El Pentágono, a través de la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA, por sus siglas en inglés), está trabajando con varias instituciones de investigación para adelantarse a estos vídeos manipulados.

Un campo de investigación

El objetivo es adelantarse al fenómeno, aunque para ello hay que bajar al barro. Desde la Universidad de Colorado en Denver, un grupo de investigadores trabajan en un programa informático capaz de generar vídeos manipulados muy convincentes. Crear «deep fakes» en toda regla. Para contrarrestar el envite, otros investigadores están desarrollando una tecnología preparada, teóricamente, para detectar qué es real y qué falso. Una medida que permitiría agilizar la lucha contra los bulos en redes sociales.

También están trabajando en detectar audios falsos. La inteligencia artificial está emergiendo como la próxima frontera que atravesar por las noticias falsas. Y podría provocar que los humanos vuelvan a tener que «adivinar» lo que está viendo con sus propios ojos. «Todavía no hemos llegado a la etapa en la que vemos cómo se usan los ‘deep fakes’ como armas, pero ese momento llegará», valoraba en AFP Robert Chesney, profesor de derecho en la Universidad de Texas.

Jorge Muñoz, experto en Deep Learning y Visión Artificial de Serendeepia, firma especializada en este área, reconoce que esta práctica «da un poco de miedo», aunque rebaja la preocupación porque, de momento, se necesitan ciertas consideraciones para lograr un grado de hiperrealismo: una gran cantidad de datos, vídeos de alta calidad y se se han ensayado con personajes famosos. Hace dos años, precisamente, se realizó una prueba con Barack Obama, expresidente de Estados Unidos. Su resultado fue espeluznante, y es difícil saber si se trata de una secuencia procesada por ordenador.

Este experto, sin embargo, considera que estas técnicas de «deep fakes» funcionan de manera más impactante, llegando incluso a sembrar la confusión, cuando se aplican únicamente a los rostros humanos. «Cuando solo tomas la cara se simplifica el problema. Tomar un cuerpo entero de una persona, con un fondo en el que trabajar, no se consigue ser totalmente realistas, pero ya existe un campo de investigación al respecto», añade.

Pese a lo sofisticado de estos videos falsos, que en manos de personas malintencionadas pueden contribuir a propagar bulos, diversos grupos de investigación ya se han puesto manos a la obra para desarrollar herramientas diseñadas para su detección. «Al mismo tiempo que se está creando contenidos falsos, también se está intentado crear sistemas para detectarlo», recalca Muñoz.

Este experto no pone el grito en el cielo, pero considera que, sin embargo, puede derivar en una situación impredecible: que sea más difícil creernos las cosas. «Lo que está pasando hoy en día con las noticias es que ya no vas a un solo medio, sino a tres o cuatro fuentes que son la que revisas. Intentas consultar varios y te crees antes lo que te dicen los contactos de tus redes sociales. Siempre va a haber una lucha que lo va a poner en duda», apunta.

A su juicio, «si se detecta [un video falso] puedes creerlo una temporada, pero tendrá sus repercusiones. Estas técnicas no se van a aplicar tanto como se está temiendo. No es tan fácil de crear y requiere mucho tiempo de dedicación. Además, cuando haces un video así te sirve para una uno montaje y no para otros». Pero hay argumentos para, al menos, empezar a dudar de lo que se ve. Es época de «fake news». De mentiras y bulos en internet. De «memes» que sirven de formato para la información, aunque a veces la falta de rigor sea lo habitual. Tiempo de sistemas de aprendizaje automático. Y de máquinas. Una era en la que el diseño gráfico ha evolucionado hasta tal punto que un software es capaz de crear rostros humanos de gran realismo, exactos a los reales. Personas que no existen.

Un proyecto de Nvidia, multinacional de componentes informáticos y desarrolladora de tarjetas gráficas para ordenadores, ha logrado crear rostros sintéticos y artificiales cuyo realismo es tal que podría confundirse con una persona real. Mediante una red generativa antagónica (Generativa Adversarial Networks, en inglés), los ingenieros han conseguido que el sistema pueda «inventar» caras humanas a partir de una base de datos de rostros de personas, por lo que por el momento no se puede generar desde cero.

Pero su efecto sorprende. Y asusta, aunque las técnicas de modelaje y reproducción de rostros no es algo nuevo. La industria cinematográfica se ha aprovechado de las posibilidades de la época en algunos de sus productos audiovisuales. Una de las que tuvo más repercusión fue la aparición del actor Peter Cushing en «Star Wars: Rogue One»,resucitando virtualmente veinte años después de su fallecimiento. Un escenario que puede anticipar la creación de figuras artificiales para productos de entretenimiento en el futuro.

obama1-k4dE--620x349@abc