Una IA capaz de descrifar textos ilegibles de la Antigua Grecia

Una investigación llevada a cabo por la compañía de desarrollo de inteligencia artificial (IA) de Google Deep Mind, junto a la Universidad de Oxford, ha revelado que su IA es capaz de descifrar textos de la Antigua Grecia que se han dañado y que son casi ilegibles, ofreciendo resultados antes que los humanos y más precisos.

Como han explicado en su página web, los investigadores han utilizado un algoritmo llamado Pythia, que gracias a su red neuronal puede descifrar textos dañados o escritos a los que les faltan partes del texto, en cualquier formato, ya sea en papiro, grabado en piedra, arcilla o metal.

 Pythia ha demostrado que es capaz de ofrecer un texto predictivo con tan solo una tasa de error por carácter del 30,1 por ciento, bastante mejor que el 57,3 por ciento de error que tienen los historiadores y epigrafistas. Además, los investigadores han encontrado que en un 73,5 por ciento de los casos Pythia ha propuesto la secuencia de verdad básica en una de sus 20 hipótesis principales.

Este restaurador de textos está diseñado con el objetivo de ayudar a los historiadores, ya que les aporta distintas opciones de textos traducidos, además de que añade un valor de seguridad de que los textos están bien interpretados. Desde Deep Mind afirman que Pythia no se ha creado para acabar con el trabajo de los historiadores, sino que su fin es ser empleada como herramienta que facilita y respalda el trabajo de estos.

Para entrenar a Pythia, los investigadores recogieron inscripciones en griego en un formato que pudiera entender, además de incluir información sobre símbolos, sintaxis y estructuras de textos similares, para ayudar a Pythia a contextualizar y ofrecer unas predicciones más acertadas.

texto-griego-khv--1240x698@abc

Sin «Me gusta» a los políticos que se salten las reglas.

Twitter ha asegurado que los líderes mundiales no están por encima de las políticas de uso de su plataforma, y ha aclarado que si sus publicaciones violan los contenidos pero tienen interés público, sus tuits se mantendrán en segundo plano, sin que los usuarios puedan retuitearlo o comentarlo. Así lo ha confirmado la aplicación a través de su blog oficial.

En junio, la compañía tecnológica informó del tratamiento que otorgaba a los tuits de los líderes mundiales. En este caso, como dijo, si sus mensajes violaban las políticas de la red social, estos permanecerían en la plataforma solo si tenían interés público, a modo de contexto y en segundo plano.

Este martes, la compañía ha aclarado en un comunicado la forma en que aborda los mensajes de este tipo de usuarios. El fin es «proporcionar una visión directa de nuestra toma de decisiones de cumplimiento, servir a la conversación pública y proteger el derecho del público a escuchar a sus líderes y hacer que rindan cuentas».

«Queremos dejar claro que las cuentas de los líderes mundiales no están por encima de nuestras políticas», aseguran desde Twitter.

 

twitter-2-kjmD--1240x698@abc (1)

Toda la información privada que subes ala nube, es accesible para Google.

Que Google tiene acceso a un caudal de información enorme sobre la vida de los usuarios no es nada nuevo. Especialmente si tenemos en cuenta que, al contrario que otras plataformas, como Facebook o WhatsApp, el navegador por antonomasia no cifra de extremo a extremo los mensajes y los documentos que, cada día, subimos a la nube. Algo que no solo implica que la tecnológica tenga fácil acceso a la información privada que se almacena en la herramienta de colaboración G Suite, de la que forman parte Gmail, Docs y Drive entre otros servicios, sino que esta también puede estar al alcance de los administradores que controlan las cuentas de una empresa y del gobierno de Estados Unidos. Así lo afirma el extrabajador de Google Martin Shelton en un artítulo publicado en el portal « Freedom of the Press Foundation».

«Por ahora, deberíamos considerar cuándo mantener nuestros datos más confidenciales fuera de G Suite, y en su lugar emplear otro medio que ofrezca cifrado de extremo a extremo, almacenamiento local o mantenerlos fuera del ordenador», apunta Shelton en el texto. El extrabajador de la compañía de Silicon Valley señala, a su vez, que a pesar de que el cifrado de los mensajes en la plataforma es bastante fuerte, y especialmente bueno a la hora de protegerse de ataques de ciberespionaje, no es lo suficientemente opaco como para que trabajadores de la compañía tengan acceso. Y, las cosas como son, tampoco lo pretende.

Respecto al objetivo que persigue la plataforma con esta política, Shelton resalta que tiene que ver con «el filtrado de spam, malware (virus informático), la detección de ataques dirigidos, la corrección ortográfica y para ayudar con la búsqueda dentro de la cuenta de Google de un usuario». La empresa también se aprovecha de esta situación para rastrear infracciones en sus términos de uso o aquellos contenidos que, directamente, son ilegales. El que la firma cuente con ese poder, no supone, al menos sobre el papel, que tenga un equipo humano que se dedique a revisar minuciosamente todos los contenidos que se suben a la nube. Sin embargo, en caso de que deseasen hacerlo, cuentan con las facultades para ello.

Esta protección tampoco impide que un gobierno, como el de Estados Unidos, pueda acceder a la información de los usuarios de G Suite. En dicho país las agencias gubernamentales tienen la capacidad de obligar a cualquier proveedor de comunicaciones nacional a revelar información sobre sus usuarios. Según recoge Shelton, las solicitudes de este tipo de información no han dejado de crecer durante los últimos años. Solo en 2018, el gobierno de EE. UU. pidió a la tecnológica los datos de 124.991 cuentas. Requerimientos a los que Google respondió afirmativamente en el 81 por ciento de los casos.

En el caso de las empresas que funcionan con G Suite, los administradores que quieran acceder a la información de los empleados lo único que necesitan hacer es ejecutar Vault, un servicio que les permite recuperar una cantidad bastante amplia de información: «los administradores tienen la opción de conservar copias borrador de correos electrónicos, incluso después de que el correo electrónico se elimine de la carpeta borrador»

 

google-3-kSDD--1240x698@abc

Polémica en Twitter; dejó sin protección los números de teléfono de sus usuarios.

Lo que le sucedió a Facebook le ha pasado, ahora, a Twitter. La compañía propietaria de la conocida red de micromensajes ha admitido que empleó números de teléfono y correos electrónicos proporcionados por los usuarios para configurar el sistema de verificación de dos pasos para mandar publicidad segmentada a sus usuarios. El alcance no ha trascendido. ABC ha preguntado a la filial de la compañía en España, pero no se ha podido averigurar si hay o no usuarios españoles entre los afectados.

La firma estadounidense, que gestiona más de 330 millones de usuarios en todo el mundo, lo ha calificado de «error» y que se utilizó «involuntariamente» esta información privada introducida por motivos de seguridad. «Hemos descubierto recientemente que cuando ustedes proporcionan una dirección de correo electrónico o un número de teléfono por motivos de seguridad seguridad, por ejemplo para la verificación de doble factor, estos datos pueden haber sido involuntariamente usados para publicidad», apuntan fuentes de la empresa un comunicado difundido este martes en el que, además, se informa que ya se ha resuelto el problema.

Aunque no se ha podido concretar el número de usuarios afectados, la multinacional estadounidense ha asegurado que «ha sido un error y pedimos disculpas». También, ha insistido en que no ha compartido los datos a nivel externo y que el problema se resolvió el pasado 17 de septiembre, aunque no se ha informado hasta ahora.

Todo comenzó a raíz del programa de audiencias personalizadas desarrollado por Twitter y que permite a los anunciantes dirigir sus campañas publicitarias basándose en sus propias listas de marketing. Entonces, la empresa descubrió que cuando se cargaban esas listas se hacía coincidir el número de teléfono y las direcciones de correo electrónico que sus usuarios previamente habían introducido para configurar la seguridad de sus perfiles. La red social ha salido al paso asegurando que esa información fue utilizada en sus «sistemas de anuncios para audiencias de socios y para audiencias personalizadas».

El sistema de verificación de dos factores es una medida de seguridad que se ha extendido en los últimos años en los principales servicios digitales con el objetivo de que sea más difícil «hackear» las cuentas de los usuarios por parte de grupos de ciberdelincuentes. Esta revelación sitúa a Twitter en la misma posición que Facebook, que el pasado año también se descubrió que había utilizado los números de teléfono registrados por sus sus usuarios para mandar publicidad personalizada, la gran fuente de ingresos de ambas empresas. Un problema que ocasionó la sanción a Facebook por parte de la Comisión Federal de Comercio de Estados Unidos por valor de 5.000 millones de dólares a principios de este año.

«Han utilizado [por la compañía] un dato para una finalidad que no estaba prevista cuando captaron el dato y luego no tomaron las medidas organizativas y de seguridad que el Reglamento General de Protección de Datos exige permanente para que no pasen estas cosas. Es la demostración de que, aunque fuera por error, no estaban organizados los datos con los permisos para las finalidades previstas y supone una infracción del Reglamento», asegura a este diario Borja Adsuara, jurista experto en derecho digital. «Hay una infracción. Luego la empresa tendrá que presentar sus alegaciones para demostrar si ha sido por error, pero se deberá valorar por los organismos reguladores».

Para Samuel Parra, abogado especializado en protección de datos, los datos del sistema de verificación de dos pasos es «tan sensible» que «debe de tener un acceso restringido». «Los datos personales a nivel general deben resopetarse un principio de calidad, que signifgica que se recaban para una finalidad concreta y no se pueden emplear para otra. Si se quiere hacer hay que pedir un consentimiento que, para las comunicaciones comerciales, debe de ser expreso.

 

0RPA4542jpg-kfrC--1240x698@abc

Pese a sus fallos y el miedo a ser vigilado, se extiende la tecnología facial

El gobierno británico ha puesto en marcha un sistema de identificación facial para su servicio de verificación de las fotos en los pasaportes a pesar de saber que la tecnología falla en personas de algunas minorías étnicas, en especial de piel muy oscura, como las personas negras o del subcontinente indio.

Algunos usuarios no han tardado en hacer llegar sus quejas al Gobierno británico, al considerar que la nueva herramienta «de alguna forma perpetúa la visión social equivocada de que las personas negras son más peligrosas».

Ante la polémica, las autoridades británicas se han visto obligadas a defender las bondades de este nuevo sistema y han señalado que «durante la investigación de usuarios, el rendimiento general se consideró suficiente para desplegar la herramienta», pese a que reconocieron que «había algunas dificultades en la identificación de las personas con piel muy clara o muy oscura».

«Si el sistema se probó antes de ponerlo en marcha, no entendemos por qué lo lanzaron si claramente representa un problema para personas con diferentes tipos de piel. No es un acto responsable ni justo por parte de las autoridades, hay un claro sesgo racial», aseguraron ayer a ABC desde la Comisión de Igualdad y Derechos Humanos del Reino Unido.

El Ministerio del Interior señaló, por su parte, que su intención era que el proceso fuera simple, aunque ya algunos usuarios han denunciado a través de las redes sociales que es todo lo contrario. Cat Hallam, una trabajadora negra de la Universidad de Keele, descubrió que el servicio sugirió erróneamente que tenía los ojos cerrados y la boca abierta. «Lo que es más desalentador de todo esto es que lo sabían», afirmó Hallam a la revista «New Scientist». Y no parece que su uso vaya a suspenderse mientras se mejora, al menos de momento.

De hecho, el aeropuerto de Gatwick (Londres) ya ha anunciado que se convertirá en el primero de Reino Unido en utilizar cámaras de reconocimiento facial de forma permanente para los controles de identidad antes de que los pasajeros aborden los aviones. La medida -esgrimieron las autoridades- «reducirá los tiempos de espera de los viajeros».

FaceApp guarda tus imágenes y puede utilizarlas – ABC

Una vieja disputa

La polémica no es nueva. En Estados Unidos ya muchas voces se han levantado contra el sistema de identificación facial sobre todo por su sesgo étnico. Un ensayo llevado a cabo en julio por el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) demostró que algunos software actuales fallan al analizar rostros de mujeres de piel negra respecto a los de blancas. Facebook o Google, entre otras empresas, han incorporado a muchos de sus servicios sistemas de reconocimiento de rostros. Y han fallado. No son perfectos y, en ocasiones, como sucedió en 2015, se calificaron como «gorilas» a mujeres negras. La razón es que los algoritmos que emplean están «entrenados» a partir de bases de datos que, de por sí, albergan prejuicios y sesgos. Un estudio del MIT concluyó que las aplicaciones identificaban erróneamnete al 35 por ciento de las mujeres con piel oscura.

No es cien por cien seguro

Las dificultades de la tecnología para extraer información de un grupo denso de personas ha provocado que, en más de una ocasión, presente falsos positivos. De hecho, investigadores de la Universidad de Essex se encargaron de supervisar la fiabilidad del proyecto de la Policía metropolitana de Londres. Sus conclusiones dejaron demasiados sinsabores: el software que garantiza la seguridad de la capital londinense falla en un 81 por ciento de las veces al señalar a sospechosos.

«Siempre a toda tecnología le falta perfeccionamiento y es susceptible de mejora. Confiable es, pero es conveniente que exista otro factor de seguridad porque no es 100% seguro», sostiene a este diario Lorenzo Martínez, experto en seguridad informática de Securizame.

Para Juan Luis Rubio, ingeniero y vicerrector de la Universidad a Distancia de Madrid (Udima), es necesario «terminar de mejorar» esta tecnología para obtener resultados más precisos. «Es un proceso muy largo, la identificación de una cara requiere de millones de cálculos. Ha mejorado mucho, pero todavía quedan algunos elementos por resolver dado que existen parámetros que se prestan a confusión», subraya este experto, al tiempo que defiende que «hasta que los algoritmos y la tecnología no estén suficientemente probados es muy arriesgado hacer ensayos a ese nivel»