Propuesta para Twitter : edición de tuits entre 5 y 30 segundos después de su envío ?

El consejero delegado y creador de Twitter, Jack Dorsey, ha asegurado en una entrevista que su compañía está estudiando incorporar una ventana de edición de entre cinco y 30 segundos para los «tuits», durante la cual resultará posible modificar un mensaje después de enviarse.

La introducción de este periodo de edición de tuits no afectaría al carácter de tiempo real de la plataforma de «microblogging», como ha asegurado Dorsey en una entrevista en el programa de radio de Joe Rogan. Mediante esta medida, Twitter permitiría a sus usuarios rectificar el contenido del mensaje, principalmente con el objetivo de evitar erratas, retrasando su publicación durante entre 5 y 30 segundos, durante los cuales el usuario puede editar el mensaje.

Dorsey ha explicado que, con el objetivo de mantener sus orígenes inspirados en los mensajes SMS, el límite se marca en los 30 segundos, ya que «el problema con ir más allá de eso es que elimina la naturaleza en tiempo real del flujo la conversación». Este hecho también causa que la compañía no se plantee introducir la posibilidad de eliminar tuits ya enviados.

55580789-ks9E--620x349@abc

La identificación facial de iPhone ya es compatible con WhatsApp

WhatsApp, conocida aplicación de mensajería, continúa apostando por la seguridad informática de su plataforma, utilizada por 1.500 millones de usuarios en todo el mundo. Una de sus últimas medidas ha sido añadir compatibilidad con FaceID, el sistema de reconocimiento facial integrado en los últimos modelos de iPhone.

El servicio, propiedad de Facebook, añadió esta compatibilidad en su última actualización para dispositivos iOS, es decir, iPhone, que estará próximamente para su descarga. Una decisión que permitirá a los usuarios contar con un protocolo de seguridad mayor, aunque se trata de una opción. Esta función llegará próximamente a los móviles Android.

De tal manera que, una vez añadido, hará que los usuarios requieran de autorizar su rostro a través del sensor biométrico del teléfono móvil para poder acceder a WhatsApp. También permitirá evitar que se consulten sus conversaciones por parte de terceros sin el permiso del usuario.

Para activarlo hay que seguir unos simples pasos. Primero, y después de haber descargada la actualización, dirigirse a «Configuración», que se encuentra en un icono en forma de rueda dentada en la parte inferior derecha.

Entonces, hay que entrar en «Cuenta/Privacidad» y aparecerá la opción «Bloqueo de pantalla», desde donde se podrá activar la opción «Requerir FaceID». Además de esta característica, WhatsApp también deja al usuario la elección del tiempo que debe transcurrir hasta solicitar el desbloqueo por rostro, ya sea «Inmediatamente», «Después de un minuto», «Después de 15 minutos» o «Luego de 1 hora».

1201545205-kk6G--620x349@abc

El James Bond español que hace realidad en contraespionaje en Europa

Parece sacado de una película de intriga, pero la nueva ola de cibercriminalidad ha obligado a intentar anticiparse a los delitos. El ciberespionaje más propio de James Bond se hace realidad dede una empresa del País Vasco. Countercraft es la única empresa de contrainteligencia del oeste de Europa. Los ciberataques ya son un hecho frecuente para la inmensa mayoría de las empresas y gobiernos, y se espera que con el tiempo estos ataques se vayan recrudeciendo más y más. Al fin y al cabo, el dinero y la información se encuentran hoy en día al alcance de cualquiera, y eso también lo saben los delincuentes, que han puesto sus ojos sobre la red de redes.

Pero no sólo los ciberdelincuentes utilizan internet como arma, también lo hacen empresas y gobiernos. Cuando Rusia invadió Georgia hace 12 años lo primero que hizo fue paralizar los medios de comunicación y bancos mediante una serie de ciberataques. Las guerras del futuro se libran así, desde la distancia que permite un ordenador. Algo que ahora se ha vuelto muy común. En España cada uno de los ejércitos de tierra, mar y aire tienen sus divisiones de «hackers» y cibermilias que cada vez cobran más importancia para defender y atacar el país, pero aún queda mucho trabajo que hacer.

«La ciberseguridad hasta ahora ha consistido en construir algo parecido a un castillo medieval, levantando cada vez más muros y cavando más fosos para que los enemigos no puedan entrar al palacio. El problema es que cada vez el perímetro a defender de ese castillo es más grande, ya que el número de dispositivos que pueden ser asaltados no deja de crecer», explica en declaraciones a ABC David Barroso, consejero delegado de Countercraft sobre seguridad y contrainteligencia.

A nuevos tiempos, nuevas medidas. Si lo pensamos bien hace 20 años, una empresa tenía una conexión de internet y eso era lo que había que proteger, hoy en día son, ordenadores, móviles, internet de las cosas, wearables y un largo etcétera. Hasta una lámpara WIFI exterior puede ser una puerta de entrada a la empresa para un ciberdelincuente. «Así que probablemente, con el tiempo, los atacantes terminarán encontrando un lugar por donde asaltar ese castillo, la razón de que la seguridad nunca es infalible al 100%. Lo que hacemos, en cambio, es poner trampas a los atacantes, de eso se trata la contrainteligencia», apunta.

Gracias a ese esfuerzo, se trae el mundo de los espías de los espías al mundo real. Por ejemplo, si un empleado te intenta robar, lo puedes denunciar. Pero qué haces si el que te intenta robar es un país o una banda de cibercrimen a miles de kilómetros , no lo puedes denunciar, no tienes herramientas legales para hacerlo. En estos casos lo mejor es dar al atacante una información manipulada, y dejarles que roben soluciones erróneas o incompletas. «Crear información falsa es lo más divertido de nuestro trabajo, porque hay que ser creativo, los ladrones se tienen que ir contentos con lo que han robado, y además les tiene que costar alcanzarla», sostiene.

Nos encontramos en la misma situación que en la guerra fría con la KGB; es mejor tener controlado al espía y suministrarle información falsa que desbarate los planes la estrategia del enemigo, que echarlo y que vengan cinco más, de eso se trata el contraespionaje. Los ataques entre gobiernos y grandes empresas, y gobiernos contra gobiernos, son más comunes de lo que nos imaginamos y ocurren de forma recurrente. Si imaginamos el poder que confiere poder manipular las votaciones de unas elecciones o conocer las propuestas de las empresas en los grandes concursos públicos, son datos que pueden cambiar la dirección de un país en un determinado momento. «James bond ahora tendría más un ordenador que una pistola. El tanque ya no es tan útil si puedes usar ciberarmas, por ejemplo, para cortar los suministros», matiza.

David nos pone un ejemplo, a un cliente suyo le robaban las ofertas preparadas para concursos públicos, de esa manera el competidor podía ganar fácilmente el concurso ofertando siempre a la baja. La solución que le dieron fue ofrecer a los «hackers» ofertas falsas. Aunque esto pueda parecer muy llamativo el caso más común es el fraude interno, donde un empleado vende secretos a un competidor. Esta situación no va a hacer más que crecer en el futuro, la ciberseguridad es un problema global, por eso Countercraft no ha parado de expandirse por Europa y ahora ha llegado el turno de Estados Unidos donde van a desembarcar este año.

1201784977-kGCI--620x349@abc

En el estado de Nueva York será delito “comprar” seguidores en Internet

El estado de Nueva York (Estados Unidos) ha sentenciado en contra de Demuvi, una compañía que creaba mediante «bots» perfiles falsos en redes sociales para mejorar las estadísticas de personas famosas, por considerar que estas prácticas constituyen un «fraude online».

La fiscal general del estado de Nueva York, Laetitia James, ha advertido en su fallo, emitido este miércoles, que desde su oficina se perseguirá la venta de seguidores falsos en redes sociales, así como comentarios, «me gusta» y visualizaciones. James ha denunciado la extensión del uso de «bots» en plataformas sociales como YouTube y Twitter, que se hacen pasar por usuarios reales, simulando su comportamiento, y que «a menudo roban identidades de personas reales para llevar a cabo fraudes».

El fallo de la fiscalía de Nueva York llega a raíz de una investigación contra Demuvi, una compañía local ya desaparecida que se especializaba en vender servicios para cuentas de personalidades famosas como artistas, políticos, empresarios y deportistas. Demuvi alteraba las estadísticas de Twitter, YouTube, LinkedIn, SoundCloud y Pinterest a través de la creación de perfiles falsos que expresaban opiniones haciéndose pasar por personas reales, todos ellos gestionados por «bots» o personas individuales, denominadas «titiriteros».

En ocasiones, la compañía llegaba a robar y utilizar las fotografías de perfil de cuentas reales sin su consentimiento, así como a utilizar sus nombres. Además, Demuvi actuaba de manera ilegal al vender a empresas publicidad en canales de «influencers», sin advertir de que se trataba de contenido patrocinado.

Según James, estas prácticas son especialmente sensibles dada la influencia de estas plataformas en las personas, y con ellos la impresa implicada «engañó e intentó afectar la toma de decisiones de las audiencias de las redes sociales». La fiscalía de Nueva York ha interpuesto una multa de 50.000 dólares contra el director general de Demuvi, German Callas, por estas prácticas, pero esta solamente cubre el coste de la investigación, según recoge «CNN». Se estima que la empresa recaudó 15 millones de dólares con la venta de cuentas falsas.

51298327-kthH--620x349@abc

El fake más temible que permite la tecnología: suplantar tu identidad en vídeo

El refranero español, tan jugoso, tiene consejos para todo. Una imagen vale más que mil palabras, se suele decir. Nuestros ojos, pensamos, son incapaces de engañarnos. La realidad es otra.Es una cuestión de fe. Estamos sometidos a tal sobreabundancia de información que descubrir las fuentes fiables resulta cada día más complicado. Durante un siglo el video y el audio han sido esenciales a la hora de construir una percepción de la realidad. Ha sido la base por la circulaba la verdad, ahora en entredicho por culpa de las nuevas tecnologías.

Las redes sociales son los espacios principales por donde las llamadas «fake news» o «noticias falsas» se mueven con mayor naturalidad. La tecnología, en cambio, ya está preparada para subir una velocidad más en el arte del engaño con las «mentiras profundas». Así se definen las «deep fakes». Videos manipulados que intentan colarte una mentira en boca de un dirigente político o cualquier personalidad famosas con dotes de influencia. La manipulación de las imágenes hiperrealistas se ha sofisticado rápidamente hasta el punto que son difícilmente detectables.

Los avances en inteligencia artificial empiezan a ser capaces de reproducir audio y video falsos de manera convincente, pero sobre todo mediante un proceso al alcance de cualquiera. Existen programas informáticos que se han aplicado a la industria del sexo. Software que permiten instaurar el rostro de una persona famosa sobre el cuerpo de una actriz de contenidos pornográficos, personalizando las fantasías sexuales. No ha tardado en ponerse en práctica esta capacidad a otro entorno, la de la política.

Lograr que una persona parezca decir o hacer algo que no ha dicho está llevando, según una investigación elaborada por CNN, a la guerra contra la desinformación a un nivel completamente nuevo. Los servicios de inteligencia de países como Estados Unidos ha dado la voz de alarma. Empiezan a trazar un protocolo de actuación para frenar este avance que puede provocar un caos social en caso de extenderse. Porque si no te puedes fiar de nada, en nada vas a creer. El Pentágono, a través de la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA, por sus siglas en inglés), está trabajando con varias instituciones de investigación para adelantarse a estos vídeos manipulados.

Un campo de investigación

El objetivo es adelantarse al fenómeno, aunque para ello hay que bajar al barro. Desde la Universidad de Colorado en Denver, un grupo de investigadores trabajan en un programa informático capaz de generar vídeos manipulados muy convincentes. Crear «deep fakes» en toda regla. Para contrarrestar el envite, otros investigadores están desarrollando una tecnología preparada, teóricamente, para detectar qué es real y qué falso. Una medida que permitiría agilizar la lucha contra los bulos en redes sociales.

También están trabajando en detectar audios falsos. La inteligencia artificial está emergiendo como la próxima frontera que atravesar por las noticias falsas. Y podría provocar que los humanos vuelvan a tener que «adivinar» lo que está viendo con sus propios ojos. «Todavía no hemos llegado a la etapa en la que vemos cómo se usan los ‘deep fakes’ como armas, pero ese momento llegará», valoraba en AFP Robert Chesney, profesor de derecho en la Universidad de Texas.

Jorge Muñoz, experto en Deep Learning y Visión Artificial de Serendeepia, firma especializada en este área, reconoce que esta práctica «da un poco de miedo», aunque rebaja la preocupación porque, de momento, se necesitan ciertas consideraciones para lograr un grado de hiperrealismo: una gran cantidad de datos, vídeos de alta calidad y se se han ensayado con personajes famosos. Hace dos años, precisamente, se realizó una prueba con Barack Obama, expresidente de Estados Unidos. Su resultado fue espeluznante, y es difícil saber si se trata de una secuencia procesada por ordenador.

Este experto, sin embargo, considera que estas técnicas de «deep fakes» funcionan de manera más impactante, llegando incluso a sembrar la confusión, cuando se aplican únicamente a los rostros humanos. «Cuando solo tomas la cara se simplifica el problema. Tomar un cuerpo entero de una persona, con un fondo en el que trabajar, no se consigue ser totalmente realistas, pero ya existe un campo de investigación al respecto», añade.

Pese a lo sofisticado de estos videos falsos, que en manos de personas malintencionadas pueden contribuir a propagar bulos, diversos grupos de investigación ya se han puesto manos a la obra para desarrollar herramientas diseñadas para su detección. «Al mismo tiempo que se está creando contenidos falsos, también se está intentado crear sistemas para detectarlo», recalca Muñoz.

Este experto no pone el grito en el cielo, pero considera que, sin embargo, puede derivar en una situación impredecible: que sea más difícil creernos las cosas. «Lo que está pasando hoy en día con las noticias es que ya no vas a un solo medio, sino a tres o cuatro fuentes que son la que revisas. Intentas consultar varios y te crees antes lo que te dicen los contactos de tus redes sociales. Siempre va a haber una lucha que lo va a poner en duda», apunta.

A su juicio, «si se detecta [un video falso] puedes creerlo una temporada, pero tendrá sus repercusiones. Estas técnicas no se van a aplicar tanto como se está temiendo. No es tan fácil de crear y requiere mucho tiempo de dedicación. Además, cuando haces un video así te sirve para una uno montaje y no para otros». Pero hay argumentos para, al menos, empezar a dudar de lo que se ve. Es época de «fake news». De mentiras y bulos en internet. De «memes» que sirven de formato para la información, aunque a veces la falta de rigor sea lo habitual. Tiempo de sistemas de aprendizaje automático. Y de máquinas. Una era en la que el diseño gráfico ha evolucionado hasta tal punto que un software es capaz de crear rostros humanos de gran realismo, exactos a los reales. Personas que no existen.

Un proyecto de Nvidia, multinacional de componentes informáticos y desarrolladora de tarjetas gráficas para ordenadores, ha logrado crear rostros sintéticos y artificiales cuyo realismo es tal que podría confundirse con una persona real. Mediante una red generativa antagónica (Generativa Adversarial Networks, en inglés), los ingenieros han conseguido que el sistema pueda «inventar» caras humanas a partir de una base de datos de rostros de personas, por lo que por el momento no se puede generar desde cero.

Pero su efecto sorprende. Y asusta, aunque las técnicas de modelaje y reproducción de rostros no es algo nuevo. La industria cinematográfica se ha aprovechado de las posibilidades de la época en algunos de sus productos audiovisuales. Una de las que tuvo más repercusión fue la aparición del actor Peter Cushing en «Star Wars: Rogue One»,resucitando virtualmente veinte años después de su fallecimiento. Un escenario que puede anticipar la creación de figuras artificiales para productos de entretenimiento en el futuro.

obama1-k4dE--620x349@abc