Archivos por Etiqueta: inteligencia artificial

Los drones Primer Air de Amazon ya son más inteligentes y esquivan bandadas de pájaros.

Amazon lleva años trabajando en Prime Air, su propio servicio de drones repartidores. Fue en 2017 cuando el gigante del comercio electrónico presentó su sistema de aviones no tripulados que, por entonces, estaba a la espera de una legislación. Desde entonces, la compañía que dirige Jess Bezos ha estado madurando la idea, mejorándola, y en los próximos meses -sin concretar fecha- se pondrán en marcha.

Es lo que ha asegurado este miércoles Jeff Wilke, máximo responsable del área de consumo de la compañía, en Las Vegas, donde ha participado en la conferencia de Inteligencia Artificial (IA) re:MARS, organizada por Amazon.

Este evento ha sido el elegido por la compañía para presentar sus último diseño de drones Prime Air. «¿Podemos entregar paquetes a los clientes aún más rápido?», se planteó Amazon. «Creemos que la respuesta es sí, y una forma de conseguirlo es siendo pioneros en la tecnología de drones autónomos», apuntó Wilke.

«Hemos estado trabajando muy duro para construir drones totalmente eléctricoscapaces de volar hasta 15 millas (24 km) y entregar paquetes de menos de 5 libras (2,26 kg) a los clientes en menos de 30 minutos», aseguró el responsable. Se trata de una forma rápida y eficiente de entrega de paquetes que se pondrá en marcha «en cuestión de meses». Jeff Wilke no especificó fecha y tampoco en qué países se pondrá en marcha.

Los nuevos drones han sido mejorados en tres aspectos: eficiencia, estabilidad y, lo más importante, en seguridad. Su diseño híbrido le permite «hacer despegues y aterrizajes verticales, como un helicóptero. Y es eficiente y aerodinámico, como un avión. También transita fácilmente entre estos dos modos», explicó.

Estos aviones no tripulados han abandonado el formato cuadricóptero. Ahora, cuentan con seis alas, cubiertas totalmente por cuestiones de seguridad. Pero además, están protegidas para hacer el vuelo más eficiente y estable, incluso con ráfagas de viento.

Drones inteligentes

«Sabemos que los clientes solo se sentirán cómodos recibiendo entregas de aviones no tripulados si saben que el sistema es increíblemente seguro. Por lo tanto, estamos construyendo un avión no tripulado que no solo es seguro, sino que también utiliza las últimas tecnologías de inteligencia artificial (AI)», apuntó Wilke .

Es decir, los drones son inteligentes. Han sido entrenados mediante «machine learning» (aprendizaje automático), de tal manera que saben cómo reaccionar ante imprevisto en el trayecto.

Durante el vuelo, según explicó Wilke , los drones «deben ser capaces de identificar objetos estáticos y en movimiento provenientes de cualquier dirección». Por ello, están dotados de diversos sensores y algoritmos avanzados para detectar objetos estáticos como una chimenea, edificios, puentes, monumentos… Pero también son capaces de detectar objetos en movimiento, como un parapente o un helicóptero, utilizamos algoritmos de aprendizaje automático y de visión por computadora.

A la hora de aterrizar, el dron utiliza una visión estereoscópica para hacerlo en un lugar seguro, libre de personas, animales u obstáculos, junto a «sofisticados algoritmos de inteligencia artificial entrenados para detectar personas y animales desde arriba», apuntó.

Hacia la sostenibilidad

«El patio de un cliente puede tener tendederos, cables telefónicos o cables eléctricos -continuó-. La detección de cables es uno de los desafíos más difíciles. Mediante el uso de técnicas de visión artificial que hemos inventado, nuestros drones pueden reconocer y evitar los cables a medida que descienden y ascienden del patio de un cliente».

Por último, el responsable apuntó con el impacto ambiental que tendrá su sistema Amazon Prime Air. Es algo con lo que están «encantados» porque es una de las muchas iniciativas de sostenibilidad para ayudar a lograr Shipment Zero, el programa de la compañía cuyo objetivo es reducir al menos al 50% las emisiones de carbono de sus envíos para 2030.

«Nuestros drones son seguros, eficientes, estables y buenos para el medio ambiente. Y estamos emocionados de estar cerca de nuestro objetivo», concluyó.

jeff-wilke-amazon-prime-air-remars-june-2019-kOyD--620x349@abc

Un algoritmo que podría devolver la vida a Einstein o La Mona Lisa.

«Más vale una imagen que mil palabras». Este dicho está condenado a la muerte en la era de las « deep fakes». A medida que las noticias falsas han evolucionado a costa de una nueva tendencia, los vídeos manipulados, el miedo a no saber distinguir si es real lo que aprecian nuestros ojos ha ganado el pulso de la inteligencia. No nos creemos nada, y lo que sí, lo ponemos en barbecho. Ante este escenario, un proyecto de Samsung ha retorcido aún más la capacidad de los algoritmos.

Samsung ha desarrollado un algoritmo ( PDF) capaz de animar fotografías y cuadros con tanto realismo que puede devolver a la «vida» a personalidades que llevan mucho tiempo en el reino de los muertos como Salvador Dalí Albert Einstein o, incluso, personas que por la época en la que vivieron no existen imágenes salvo obras pictóricas como La Gioconda de Leonardo da Vinci.

A partir de una sola imagen, el sistema informático, que cuenta con modelos de Inteligencia Artificial, toma todos los detalles y realiza una simulación precisa de cómo sería el personaje en movimientos e intuyendo, además, los posibles gestos y voz del sujeto. Este avance, que se publicado por un laboratorio de inteligencia artificialde Samsung en Rusia, demuestra la capacidad de convertir de manera convincente obras de arte y fotografías de celebridades en imágenes en movimiento.

Esta tecnología tiene, sin embargo, muchas implicaciones a nivel ético porque abre la posibilidad de crear «falsificaciones profundas» muy convincentes. Videos que muestran a políticos e, incluso, a personas que murieron diciendo cosas que nunca dijeron creadas solo a partir de imágenes fijas de sus caras. La puerta al revisionismo histórico. En el caso de las pinturas, el sistema logró animar las imágenes empleando expresiones faciales de una persona real, mientras que las fotografías de personajes famosos como David Beckham se convirtieron en video usando imágenes de ellos.

Los investigadores han aplicado estos avances a famosos como Marilyn Monroe (fallecida en 1962) o Albert Einstein (fallecido en 1955) únicamente empleando los rasgos faciales móviles de otras personas. Con esta información, a posteriori, se generó un mapa de sus caras. Aunque este método no es nuevo, en logro de Samsung es conseguir este efecto de manera convincente y a partir de un solo paso.

Otro de los ejemplos ha sido la Mona Lisa. El grupo de investigadores mostró sus resultados en un video en donde se muestra en este caso que la pintura se «anima» pero se aprecia de manera diferente según la persona que se utilice como fuente de imagen para crear el movimiento. «Demostramos que este enfoque es capaz de aprender modelos de personas nuevas e incluso retratos, altamente realistas y personalizados», apuntan en un comunicado los autores.

iasamsung-kqu--300x168@abc

Un equipo de escolares españoles conquista Silicon Valley

Tienen solo 12 años pero un futuro prometedor. Y es que, de momento, han sido capaces de cautivar a Silicon Valley. La cuna tecnológica californiana ha caído rendida a los pies de África Fuertes, Irene Aparicio, Aitana Aparicio, Héctor Rivas y Pedro Figuerola después de que el pasado 18 de mayo este equipo de escolares españoles, Pifive Team, fueran premiados durante la final del « AI World Championship» por su proyecto Scoutbot Water Guardian, una especie de «robot socorrista» con el que identificar a posibles víctimas de ahogamiento en piscinas infantiles.

«Estamos muy contentos de haber conseguido este logro porque empezamos el proyecto por diversión», explica a este diario Irene Aparicio, quién jamás pensó que viajaría hasta San Francisco para recoger un galardón más que merecido.

Pifive Team fue uno de los seis finalistas -y el único español- seleccionados en el «AI World Championship», un certamen infantojuvenil que busca incentivar el desarrollo de la Inteligencia Artificial (IA) entre los más jóvenes. Los participantes, que deben tener vínculos familiares, proponen soluciones tecnológicas para resolver problemas cotidianos.

Más de 200 familias de 11 países diferentes han participado en esta primera edición. La organización invitó a los equipos de las seis mejores propuestas a viajar a San Francisco para presentar sus ideas ante un jurado integrado por profesionales de reconocidas empresas como Google, Intel o U.S. Bank. De hecho, fue Jeff Dean, responsable de IA de Google, quien entregó a Pifive Team sus medallas correspondientes.

Pero en esta competición, los escolares no han estado solos. Fernando Aparicio, responsable de I+D+i de Nunsys, empresa tecnológica, y padre de dos de las integrantes del grupo, ha guiado y ayudado a sus pupilos durante los casi nueves meses que ha durado el proyecto.

La idea del «robot socorrista» surgió tras el trágico suceso personal en la familia Aparicio. «Perdimos a nuestro primo cuando solo tenía 4 años. Se ahogó en una piscina», explica Irene a ABC. Tanto ella como el resto de los integrantes de Pifive Team son conscientes de esta problemática tan generalizada.

Según la OMS, los ahogamientos son una amenaza de salud pública grave y desatendida que cada año provoca 372.000 defunciones en el mundo. Los ahogamientos infantiles son la tercera causa de fallecimientos en la infancia en el mundo y la segunda en nuestro país, siendo los menores de 5 años el principal grupo de riesgo.

Además, según el Ministerio de Sanidad, un niño tarda apenas treinta segundos en morir, el tiempo equivalente a contestar, por ejemplo, un mensaje de WhatsApp. Gracias al asesoramiento de los expertos en visión artificial de Nunsys, los niños desarrollaron un sencillo software que identifica a las potenciales víctimas en peligro y envía una alerta al socorrista.

Cómo funciona

«Lo primero que hicimos fue identificar el problema y las causas», explica Fernando Aparicio. «Muchas veces los niños se ahogan por descuidos y los adultos no lo ven», añade. Por ello, Scoutbot Water Guardian se compone, en primer lugar, de un gorro inteligente infantil. «Es divertido, bonito, con dibujos… Para que los niños lo quieran llevar», añade. Este particular accesorio va equipado con una luz «que está verde cuando el niño está encima del agua pero que pasa a rojo si, pasado un tiempo, el niño sigue sumergido».

El segundo elemento que compone este «robot socorrista» es una cámara que vigila la piscina «y sigue a todos los niños que llevan el gorro», explica el responsable. «Eso se representa en un monitor -añade-, que puede ser el teléfono móvil del socorrista o el de los padres, quienes saben en todo momento dónde están los niños posicionados». En el momento en el que la luz se torna roja, salta una alerta en el «smartphone».

Nunsys y Pifive Team están actualmente estudiando la viabilidad del proyecto para desarrollar un prototipo real que pueda ser testado en piscinas municipales. «Si la administración lo financia, mejor, porque los gorros no son costosos», añade Fernando Aparicio. «Además, si se distribuyeran en una piscina pública, todos los usuarios de la misma sabrán para qué son. Así, podremos salvar más vidas».

Una competición internacional

El certamen «AI World Championship» forma parte del programa «Curiosity Machine» de la ONG americana Iridescent, en el estudiantes y familias exploran conceptos básicos de la IA y aplican sus herramientas para resolver problemas comunes.

En España, este proyecto se desarrolla bajo la asociación «Power to code», de la que forma parte Laura Monferrer. «Lo primero que hacemos es explicar a los chavales qué es la IA», explica, ya que el programa «Curiosity Machine» tiene una duración aproximada de unos nueves meses. «Después, los escolares realizan talleres, aprenden conceptos de programación y, finalmente, desarrollan el proyecto».

Pifive-Team-Google-kGJC--620x349@abc

Llegan los robots agricultores que recogen la fruta directamente del árbol como un humano.

La automatización de los procesos industriales no es un fenómeno nuevo. Desde hace décadas, los sectores más arraigados en las sociedades avanzadas y las nuevas empresas han basado su crecimiento en la robotización y mecanización de algunas de sus tareas. Y ello ha permitido un ahorro importante de costes al tiempo que se contribuía al bienestar del trabajador. Con la implosión de los nuevos avances en inteligencia artificial, el futuro de la economía empieza a emerger en la figura de robots de todo tipo.

La agricultura, además, ha sido uno de los sectores donde más impacto ha tenido estos avances. El campo ha venido incorporando numerosos avances tecnológicos, al que deben sumarse la nueva hornada de robots capaces de recoger la fruta directamente del árbol con la misma precisión y sensibilidad de la mano humana. Uninteresante proyecto del Centro Australiano de Robots del Campo de la Universidad de Sydney (Australia) ha puesto, precisamente, ese enfoque en este sector tan tradicional.

Y disponen de varias propuestas curiosas que tienen como misión recolectar productos alimenticios de manera rápida y efectiva. Y con el añadido de estar permanentemente trabajando. Algunos de sus robots, por ejemplo, funcionan por alimentación solar. Unas células fotovoltaicas permiten hacerlos funcionar en campos agrícolas y cultivos de árboles.

Así, prototipos llamados Rippa o Ladybird permiten emplear tecnologías autónomas para tomar decisiones rápidamente en fincas de alta densidad. Robots granjeros de gran precisión.Uno de los más curiosos es una máquina que puede coger una pieza de fruta de un árbol y, sin dañarla, depositarla directamente en una caja para su almacenaje.

Pero, además de esta tarea, está programado para «aprender» del estado de los productos, distinguiendo, incluso, si está o no madura. Además de recolectar, el centro dispone de robots preparados para fugimar, arar la tierra o gestionar el ganado. El centro pretende lanzar el próximo año versiones comerciales de sus robots. Es un proyecto muy ambicioso y más teniendo en cuenta que el mercado global de Robotics e Inteligencia Artificial crece globalmente a 7 billones de dólares en 2018 y está previsto que llegue a más de 26 billones de dólares en el año 2023.

Son muchas las empresas implicadas en este sector. Una de ellas, Small Robot Company, ha empezado a distribuir máquinas más productivas y autónomas que podrían decir adiós en los próximos años a los clásicos tractores. Ante el escaso interés de los trabajadores en desempeñar tareas propias de la agricultura en las últimas décadas, hay iniciativas, incluso, que han conseguido cultivar y cuidar lechugas por robots. Un escenario que se irá repitiendo en un futuro muy cercano.

 

Clipboard-0006-koCC--620x349@abc

Translatroton; la inteligencia artificial de Google de traducción simultánea que puede imitar tu voz

La tecnología, elemento indispensable para romper las barreras, también idiomáticas. La evolución de los servicios basados en Inteligencia Artificial supera nuevos desafíos. Varias décadas después de desarrollar los primeros «convertidores» de audio, Google ha sido capaz de desarrollar un software que puede traducir la voz humana -de un idioma- a otro directamente sin necesidad de realizar ninguna conversión a texto.

Su nombre, sin embargo, suena a película de ciencia-ficción; Translatotron. No oculta sus intenciones porque está concebido para mejorar la relación entre el humano y la máquina, pero, como extensión, mejorar las comunicaciones entre personas igualando así sus condiciones (y limitaciones) idiomáticas. Un sistema que, en un futuro, puede dar pie a traductores automáticos como si se tratase de un teléfono móvil y que supone un nuevo paso en la traducción simultánea.

Esta herramienta combina diferentes tecnologías ya desarrolladas que empiezan, además, a formar parte de la jungla electrónica en la que reside el usuario. Tradicionalmente, estos sistemas eran independientes. Ahora, al separar la conversación en tres escenarios se pueden combinar. Así, el funcionamiento de Translatotron se basa en un solo proceso: en lugar de dividirlo en distintas fases como sucede en los sistemas de traducción actuales, que se apoyan en mecanismos de síntesis de voz a texto: reconocimiento de voz automático que transcriben la voz de origen como texto, los sistemas de traducción automática que convierten el texto transcrito al idioma de destino y, por último, la capacidad de sintetizar texto y voz para generar audio. Es decir, una traducción simultánea y sin apenas intermediarios, aunque no es perfecto: cada uno de estos pasos va arrastrando pequeños errores.

Google va más allá; ahora ha ideado el mecanismo para traducir de manera automática y realizar una traducción de voz a voz, con resultados muy precisos e, incluso, intentar «imitar» el habla de la persona. «Este sistema evita dividir la traducción en etapas separadas, con lo que aporta algunas ventajas sobre otras soluciones, incluido una mayor velocidad y evitando errores de composición entre el reconocimiento y la traducción, lo que facilita la retención de la voz del hablante original después de la traducción y un mejor manejo de palabras que no necesitan ser traducidas, por ejemplo, nombres propios», señalan en un comunicado fuentes del gigante de internet.

El proyecto, todavía en fase de pruebas, se basa en una red de secuencia a secuencia que procesa el audio de origen en espectrogramas -desgloses detallados de frecuencias del audio- y lo trata como un código de entrada, generando otros nuevos modelos de audio con contenido traducido para, posteriormente, convertir en idioma de destino. La gran aportación es que este proceso retiene el carácter de la voz original, por lo que la traducción, al final, no se realiza de forma robótica y enlatada sino intentando conservar algunos detalles del timbre de la voz, su color, la cadena e, incluso, el tono de la frase original.

Así, puede añadirse un mecanismo adicional que aprende las características del habla de una persona y que las codifica para lograr mantener su tono para utilizarlo posteriormente en la sintetización de la traducción de voz. En todo el proceso, la Inteligencia Artificial de Google utiliza objetivos multitarea para predecir los movimientos de la fuente, al mismo tiempo que genera los espectogramas de la traducción.La compañía ha expuesto, además, algunos logros alcanzados por este ingenio a través de varios clips de audio.

 

Clipboard-0003-kbFC--620x349@abc