En el estado de Nueva York será delito “comprar” seguidores en Internet

El estado de Nueva York (Estados Unidos) ha sentenciado en contra de Demuvi, una compañía que creaba mediante «bots» perfiles falsos en redes sociales para mejorar las estadísticas de personas famosas, por considerar que estas prácticas constituyen un «fraude online».

La fiscal general del estado de Nueva York, Laetitia James, ha advertido en su fallo, emitido este miércoles, que desde su oficina se perseguirá la venta de seguidores falsos en redes sociales, así como comentarios, «me gusta» y visualizaciones. James ha denunciado la extensión del uso de «bots» en plataformas sociales como YouTube y Twitter, que se hacen pasar por usuarios reales, simulando su comportamiento, y que «a menudo roban identidades de personas reales para llevar a cabo fraudes».

El fallo de la fiscalía de Nueva York llega a raíz de una investigación contra Demuvi, una compañía local ya desaparecida que se especializaba en vender servicios para cuentas de personalidades famosas como artistas, políticos, empresarios y deportistas. Demuvi alteraba las estadísticas de Twitter, YouTube, LinkedIn, SoundCloud y Pinterest a través de la creación de perfiles falsos que expresaban opiniones haciéndose pasar por personas reales, todos ellos gestionados por «bots» o personas individuales, denominadas «titiriteros».

En ocasiones, la compañía llegaba a robar y utilizar las fotografías de perfil de cuentas reales sin su consentimiento, así como a utilizar sus nombres. Además, Demuvi actuaba de manera ilegal al vender a empresas publicidad en canales de «influencers», sin advertir de que se trataba de contenido patrocinado.

Según James, estas prácticas son especialmente sensibles dada la influencia de estas plataformas en las personas, y con ellos la impresa implicada «engañó e intentó afectar la toma de decisiones de las audiencias de las redes sociales». La fiscalía de Nueva York ha interpuesto una multa de 50.000 dólares contra el director general de Demuvi, German Callas, por estas prácticas, pero esta solamente cubre el coste de la investigación, según recoge «CNN». Se estima que la empresa recaudó 15 millones de dólares con la venta de cuentas falsas.

51298327-kthH--620x349@abc

El fake más temible que permite la tecnología: suplantar tu identidad en vídeo

El refranero español, tan jugoso, tiene consejos para todo. Una imagen vale más que mil palabras, se suele decir. Nuestros ojos, pensamos, son incapaces de engañarnos. La realidad es otra.Es una cuestión de fe. Estamos sometidos a tal sobreabundancia de información que descubrir las fuentes fiables resulta cada día más complicado. Durante un siglo el video y el audio han sido esenciales a la hora de construir una percepción de la realidad. Ha sido la base por la circulaba la verdad, ahora en entredicho por culpa de las nuevas tecnologías.

Las redes sociales son los espacios principales por donde las llamadas «fake news» o «noticias falsas» se mueven con mayor naturalidad. La tecnología, en cambio, ya está preparada para subir una velocidad más en el arte del engaño con las «mentiras profundas». Así se definen las «deep fakes». Videos manipulados que intentan colarte una mentira en boca de un dirigente político o cualquier personalidad famosas con dotes de influencia. La manipulación de las imágenes hiperrealistas se ha sofisticado rápidamente hasta el punto que son difícilmente detectables.

Los avances en inteligencia artificial empiezan a ser capaces de reproducir audio y video falsos de manera convincente, pero sobre todo mediante un proceso al alcance de cualquiera. Existen programas informáticos que se han aplicado a la industria del sexo. Software que permiten instaurar el rostro de una persona famosa sobre el cuerpo de una actriz de contenidos pornográficos, personalizando las fantasías sexuales. No ha tardado en ponerse en práctica esta capacidad a otro entorno, la de la política.

Lograr que una persona parezca decir o hacer algo que no ha dicho está llevando, según una investigación elaborada por CNN, a la guerra contra la desinformación a un nivel completamente nuevo. Los servicios de inteligencia de países como Estados Unidos ha dado la voz de alarma. Empiezan a trazar un protocolo de actuación para frenar este avance que puede provocar un caos social en caso de extenderse. Porque si no te puedes fiar de nada, en nada vas a creer. El Pentágono, a través de la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA, por sus siglas en inglés), está trabajando con varias instituciones de investigación para adelantarse a estos vídeos manipulados.

Un campo de investigación

El objetivo es adelantarse al fenómeno, aunque para ello hay que bajar al barro. Desde la Universidad de Colorado en Denver, un grupo de investigadores trabajan en un programa informático capaz de generar vídeos manipulados muy convincentes. Crear «deep fakes» en toda regla. Para contrarrestar el envite, otros investigadores están desarrollando una tecnología preparada, teóricamente, para detectar qué es real y qué falso. Una medida que permitiría agilizar la lucha contra los bulos en redes sociales.

También están trabajando en detectar audios falsos. La inteligencia artificial está emergiendo como la próxima frontera que atravesar por las noticias falsas. Y podría provocar que los humanos vuelvan a tener que «adivinar» lo que está viendo con sus propios ojos. «Todavía no hemos llegado a la etapa en la que vemos cómo se usan los ‘deep fakes’ como armas, pero ese momento llegará», valoraba en AFP Robert Chesney, profesor de derecho en la Universidad de Texas.

Jorge Muñoz, experto en Deep Learning y Visión Artificial de Serendeepia, firma especializada en este área, reconoce que esta práctica «da un poco de miedo», aunque rebaja la preocupación porque, de momento, se necesitan ciertas consideraciones para lograr un grado de hiperrealismo: una gran cantidad de datos, vídeos de alta calidad y se se han ensayado con personajes famosos. Hace dos años, precisamente, se realizó una prueba con Barack Obama, expresidente de Estados Unidos. Su resultado fue espeluznante, y es difícil saber si se trata de una secuencia procesada por ordenador.

Este experto, sin embargo, considera que estas técnicas de «deep fakes» funcionan de manera más impactante, llegando incluso a sembrar la confusión, cuando se aplican únicamente a los rostros humanos. «Cuando solo tomas la cara se simplifica el problema. Tomar un cuerpo entero de una persona, con un fondo en el que trabajar, no se consigue ser totalmente realistas, pero ya existe un campo de investigación al respecto», añade.

Pese a lo sofisticado de estos videos falsos, que en manos de personas malintencionadas pueden contribuir a propagar bulos, diversos grupos de investigación ya se han puesto manos a la obra para desarrollar herramientas diseñadas para su detección. «Al mismo tiempo que se está creando contenidos falsos, también se está intentado crear sistemas para detectarlo», recalca Muñoz.

Este experto no pone el grito en el cielo, pero considera que, sin embargo, puede derivar en una situación impredecible: que sea más difícil creernos las cosas. «Lo que está pasando hoy en día con las noticias es que ya no vas a un solo medio, sino a tres o cuatro fuentes que son la que revisas. Intentas consultar varios y te crees antes lo que te dicen los contactos de tus redes sociales. Siempre va a haber una lucha que lo va a poner en duda», apunta.

A su juicio, «si se detecta [un video falso] puedes creerlo una temporada, pero tendrá sus repercusiones. Estas técnicas no se van a aplicar tanto como se está temiendo. No es tan fácil de crear y requiere mucho tiempo de dedicación. Además, cuando haces un video así te sirve para una uno montaje y no para otros». Pero hay argumentos para, al menos, empezar a dudar de lo que se ve. Es época de «fake news». De mentiras y bulos en internet. De «memes» que sirven de formato para la información, aunque a veces la falta de rigor sea lo habitual. Tiempo de sistemas de aprendizaje automático. Y de máquinas. Una era en la que el diseño gráfico ha evolucionado hasta tal punto que un software es capaz de crear rostros humanos de gran realismo, exactos a los reales. Personas que no existen.

Un proyecto de Nvidia, multinacional de componentes informáticos y desarrolladora de tarjetas gráficas para ordenadores, ha logrado crear rostros sintéticos y artificiales cuyo realismo es tal que podría confundirse con una persona real. Mediante una red generativa antagónica (Generativa Adversarial Networks, en inglés), los ingenieros han conseguido que el sistema pueda «inventar» caras humanas a partir de una base de datos de rostros de personas, por lo que por el momento no se puede generar desde cero.

Pero su efecto sorprende. Y asusta, aunque las técnicas de modelaje y reproducción de rostros no es algo nuevo. La industria cinematográfica se ha aprovechado de las posibilidades de la época en algunos de sus productos audiovisuales. Una de las que tuvo más repercusión fue la aparición del actor Peter Cushing en «Star Wars: Rogue One»,resucitando virtualmente veinte años después de su fallecimiento. Un escenario que puede anticipar la creación de figuras artificiales para productos de entretenimiento en el futuro.

obama1-k4dE--620x349@abc

Puntuados en la alcoba; llega el colchón inteligente que mide tu actividad sexual

El colchón inteligente de Pikolin y Geeksme, SmartPik, ha sido protagonista en la 39º edición de Fitur, celebrada la pasada semana en Madrid, y dedicó un espacio exclusivo a aquellas empresas que promueven servicios tecnológicos dedicados a hacer el turismo más cómodo para el viajero.

Junto al robot Pepper, que permite al viajero solicitar información sobre destinos, rutas, hoteles, vuelos o incluso utilizar su interlocución para realizar el «check in» o «check out» del hotel, la novedosa cama ha cautivado a todos los asistentes. Y es que el colchón es un elemento fundamental en la habitación. Incluso, en la de cualquier hogar, donde toda persona que así lo desee puede contar con este curioso «gadget».

La tecnología SmartP, desarrollada por la compañía española Geeksme e integrada por Pikolin en su gama de colchones, permite a los usuarios analizar y mejorar la calidad de su descanso. Pero también, evaluar su actividad sexual. La solución se compone del colchón, una pulsera y una aplicación.

Al descargar la aplicación SmartPik, disponible tanto para iOS como para Android, el colchón se sincroniza con la pulsera para poder comenzar a proyectar toda la información, ya sea sobre el descanso del usuario o de la actividad que realice sobre él. Y es que cuenta con cuatro modos diferentes.

El modo amor, totalmente opcional, hace un análisis del consumo calórico y el ritmo cardíaco durante el acto sexual. Al igual que activas tu pulsera cuando corres o vas al gimnasio para controlar tu actividad, la compañía invita al usuario a hacer lo mismo cuando hace el amor con su pareja.

Se trata de analizar, de una manera muy divertida, la actividad sexual. Que además es puntuada aunque no con un resultado numérico, sino animal Es decir, el acto sexual se puntúa con el tiburón, el más fogoso, el tucán o el flamenco. Hay 12 en total.

«De manera totalmente opcional y privada puedes medir tu actividad sexual y obtener datos de la misma para conocerte mejor. Información como la duración, hora de inicio y final, calorías y grasas quemadas, intensidad media, ritmo cardíaco y temperatura de la habitación estará disponible en tu aplicación SmartPik cuando sincronices tu pulsera con tu ‘smartphone’ o tableta», informa Pikolín.

La «app» también cuenta con el modo actividad, que muestra toda la actividad física del usuario fuera del colchón; el modo sueño, que permite monitorizar las diferentes etapas de éste; y el modo «coach», que proporciona al usuario retos y consejos para un mejor descanso basados en su estilo de vida.

Pikolin_1-U30835232952p7B-U3019541471789XB-510x200@abc

Un algoritmo reduce el sesgo racial y de género en los sistema de reconocimiento facial

Un equipo de investigadores del Instituto de Tecnología Massachusetts (MIT) ha conseguido desarrollar un algoritmo que reduce al 60% el sesgo racial y de género que resulta del entrenamiento del reconocimiento facial de la Inteligencia Artificial (IA).

Un informe del Laboratorio de Inteligencia Artificial y Ciencia Informática (CSAIL) del Instituto de Tecnología Massachusetts (MIT) se explica cómo un equipo de investigadores ha conseguido reducir el margen de error de los resultados obtenidos en las pruebas con Inteligencia Artificial (IA) de reconocimiento facial con respecto al género y a la raza de la muestra.

Un estudio del año pasado explicaba que el margen de error en el reconocimiento facial de la IA variaba dependiendo de la raza y el género del sujeto. Este estudio, basado en los sistemas de IBM Watson, Microsoft y Facebook, mostró que las fotografías de mujeres tienen un margen de error mayor que las de los hombres; error que aumenta, además, cuando el sujeto a analizar es de piel oscura.

Un equipo del MIT ha avanzado en la solución de este problema al desarrollar un algoritmo que permite identificar y minimizar cualquier sesgo oculto, mediante el aprendizaje tanto de una tarea específica, como es el reconocimiento facial, como de la estructura implícita de los datos del entrenamiento. En las pruebas, para las que se ha empleado la misma base de datos que en el estudio del año pasado, el algoritmo redujo este «sesgo categórico» en más del 60% en comparación con otros modelos más avanzados de detección facial, sin que estos perdieran precisión.

El algoritmo puede analizar un conjunto de datos, aprender qué está intrínsecamente oculto en su interior y volver a muestrearlo para que sea más justo sin necesidad de que intervenga un programador humano. Alexander Amini, doctor del MIT y miembro del equipo a cargo del proyecto, explica la corrección del sesgo es «especialmente importante en tanto que empezamos a ver este tipo de algoritmos en seguridad, cuerpos policiales y otros dominios». Este sistema sería particularmente relevante, como añade Amini, para conjuntos de datos que son demasiado grandes para examinarlos manualmente.

 

Clipboard-0008-kkAE--620x349@abc

Nuevo salto de la inteligencia artificial; derrotar a expertos humanos en deportes electrónicos

La herramienta de Inteligencia Artificial (IA) desarrollada por DeepMind, compañía filial de Google, ha logrado derrotar por primera vez a dos campeones de deportes electrónicos o eSports, tras aprender a jugar al videojuego StarCraft II».

A través de un programa denominado AlphaStar, DeepMind ha desarrollado una red profunda de aprendizaje neuronal entrenada directamente a través de datos en bruto de «StarCraft II», como ha explicado la compañía de Google en un comunicado.

En una serie de pruebas que tuvieron lugar el pasado 19 de diciembre, AlphaStar logró vencer al jugador polaco Grzegorz «MaNa» Komincz y su compañero, el alemán Dario «TLO» Wünsch, ambos miembros del equipo profesional Team Liquid. Esta partida tuvo lugar en un mapa competitivo del juego y sin restricciones de reglas.

Un gran «desafío»

La saga de videojuegos StarCraft, de estrategia en tiempo real y desarrollada por Blizzard, era considerada por DeepMind como un «gran desafío» debido a la complejidad del juego, a su mecánica y a la amplitud de los mapas, lo que complica entrenar a sistemas automáticos para resultar competitivos.