Archivos por Etiqueta: facebook

Amazon prohíbe a la policía de EEUU usar el reconocimiento facial

La identificación de rostros es uno de los avances en el campo de la Inteligencia Artificial más interesantes. Como si fuera «Terminator», hoy en día es posible conocer muchos datos personales de un sujeto a partir del análisis de su rostro. Y lo que es más jugoso, en tiempo real. Pero esta tecnología emergente, que está presente incluso en productos de consumo como los teléfonos móviles, no está sujeto a fallos. En pleno debate por la muerte de George Floyd, Amazon ha anunciado que prohíbe el uso del reconocimiento facial a las autoridades policiales de Estados Unidos durante un año.

El gigante del comercio electrónico sigue los pasos de IBM, que recientemente anunció su salida del negocio del reconocimiento facial argumentando fallos técnicos y presencia de sesgos raciales. Esta tecnología ha estado cuestionada en los últimos años después de diversos hallazgos en los que los sistemas empleados llegaban a confundir a personas negras con simios. La gran mayoría de empresas de tecnología cuentan con sus propios desarrollos como Google o Facebook.

Amazon, ahora, da un paso más allá y ha decidido bloquear el acceso a los cuerpos de seguridad estadounidenses a su controvertida herramienta de reconocimiento facial llamada Rekognition. El gigante de internet no especificó cómo forzará la aplicación de la prohibición, aunque es probable que lo haga negándose a ofrecer sus servicios a los cuerpos de Policía y eliminando el apoyo técnico a aquellos que ya dispongan de esta tecnología.

La firma con sede en Seattle (estado de Washington, EE.UU.) ha aprovechado para mandar un recado a las autoridades: reclama una regulación más estricta para que en el futuro se utilice esta tecnología de manera ética. «Esperamos que esta moratoria de un año le brinde al Congreso suficiente tiempo para implementar las reglas apropiadas», explican en un comunicado fuentes de la empresa. Y apuntó que, tras el asesinato de Floyd y la consecuente oleada de protestas a lo largo y ancho del país, «parece que el Congreso está preparado para asumir el desafío» de regular el uso de las técnicas de reconocimiento facial.

Este «parón» durará un año, aunque no ha especificado a partir de qué momento entrará en vigor la prohibición. Tampoco ha trascendido si la medida se extiende más allá de Estados Unidos. Esta medida no implica el abandono de los ensayos y experimentos comerciales de la tecnología facial. Amazon ha insistido en que seguirá vendiendo y proporcionando soporte a organizaciones sin ánimo de lucro como Thorn, el Centro Internacional para Niños Desaparecidos y Explotados y Marinus Analytics para ayudar a rescatar a víctimas de trata de personas y ayudar a que niños desaparecidos se encuentren con sus familias.

El uso de Amazon sobre esta tecnología tuvo que someterse a votación entre sus accionistas el año pasado para decidir si seguía vendiendo a agencias gubernamentales. A principios de 2019, además, una alianza formada por 85 expertos de defensa las libertades civiles envió una carta abierta al fundador de la empresa, Jeff Bezos, implorando a dejar de vender su tecnología de reconocimiento facial a las autoridades. La petición apenas tuvo incidencia. ese mismo año se descubrió que el FBI empleaba el reconocimiento facial para sus labores de investigación.

Esta tecnología está cada vez más cuestionada. Gobiernos y agencias de seguridad de todo el mundo hace años que utilizan las técnicas de reconocimiento facial para labores de identificación de criminales, ayudar en las tareas de búsqueda de menores desaparecidos o prevenir el fraude documental. Sin embargo, grupos en defensa de los derechos civiles han asegurado que esta tecnología invade la privacidad de los ciudadanos de forma excesiva, a la vez que puede perpetuar sesgos contra minorías étnicas.

 

1419468725-k1lE--620x349@abc

Tienda virtual de Facebook para ayudar a las empresas.

Facebook está trabajando en el desarrollo de una herramienta para que las empresas puedan crear sus propias tiendas online y publicitar sus comercios y productos a través de la red social. Así lo ha reconocido la tecnológica estadounidense a través de un comunicado remitido a ABC. El servicio, conocido como Facebook Shops, será gratuito, estará disponible en otras «apps» propiedad de Mark Zuckerberg, como Instagram, y será lanzado en los próximos meses.

«Facebook Shops facilita a las empresas la creación de una única tienda online a la que los clientes pueden acceder tanto en Facebook como en Instagram. Crear una tienda de Facebook es gratis y sencillo. Las empresas pueden elegir los productos que quieren presentar de su catálogo y luego personalizar el aspecto de su tienda con una imagen de portada y con los colores que mejor representen su marca», prometen desde la red social.

Facebook afirma que es consciente de que, debido a la crisis sanitaria actual, muchas empresas, especialmente las pequeñas y medianas, se encuentran en apuros económicos; por lo que la nueva plataforma pretende convertirse en un apoyo para que puedan continuar con su negocio desde un entorno digital. Esto no implica, no obstante, que la herramienta esté pensada únicamente para pymes, como reconoce la red social: «Nuestro objetivo es hacer que la compra sea perfecta y permitir que cualquier persona, desde el propietario de una pyme hasta una marca global, utilice nuestras aplicaciones para conectarse con sus clientes. Por eso lanzamos Facebook Shops y estamos invirtiendo en nuevas funcionalidades de nuestras aplicaciones que inspiren a la gente a la hora de comprar y faciliten los procesos de compra y venta online».

Desde la red social afirman, a su vez, que la gente podrá acceder al Facebook Shop de un comercio a través de la propia página de la empresa dentro de Facebook o de la cuenta de Instagram. Allí podrán consultar los productos y guardar los que interesen para, después, realizar un pedido en el sitio web del negocio. Asimismo, la plataforma contará con una función para que el consumidor pueda consultar cualquier duda con el propietario a través de WhatsApp, Messenger o Instagram Direct.

Una vez Facebook Shops esté disponible, la red social promete ir mejorando la experiencia de las empresas que lo utilicen. En este sentido, la compañía de Mark Zuckerberg está trabajando en el diseño de una función que permita realizar compras en vivo. «La gente ha estado usando vídeos en directo en nuestras aplicaciones para mostrar productos durante años, desde zapaterías que anuncian nuevas zapatillas hasta influencers de belleza que se prueban diferentes lápices labiales. Ahora, estamos facilitando la compra de productos en tiempo real. Pronto, los vendedores, las marcas y los creadores podrán etiquetar los productos de su tienda o catálogo de Facebook antes de publicarlos y esos productos se mostrarán en la parte inferior del vídeo para que la gente pueda tocar fácilmente para obtener más información y comprar», apuntan desde Facebook.

 

facebook-kjnD--620x349@abc

¿Influyen las redes sociales más que las fuentes oficiales sanitarias?

Las comunidades de la red social Facebook que ponen en duda los criterios sanitarios establecidos son más eficaces que las fuentes oficiales a la hora de llegar a grupos de «indecisos» y crear un vínculo con ellos, según un estudio publicado en la revista «Nature».

Investigadores de la Universidad George Washington, situada en la capital de Estados Unidos, señalan que esta desconfianza en los tratamientos habituales podría poner en riesgo los esfuerzos de la salud pública para proteger a los ciudadanos de la Covid-19 y de futuras pandemias mediante las vacunas. El profesor Neil Johnson, cabeza del estudio y asociado al Instituto para Datos, Democracia y Política de la facultad, afirma que existe una «nueva guerra mundial en línea» en torno a la confianza en el sistema sanitario y el conocimiento científico.

Para luchar contra la desinformación a través de internet, el equipo de investigación de Johnson desarrolló un mapa que muestra la interrelación de grupos antivacunas con provacunas e indecisos y que permite identificar clústeres y neutralizar a las comunidades que diseminan este tipo de contenido «tan dañino para la población».

Los datos provienen de las conversaciones sobre vacunas de 100 millones de personas en la red social Facebook durante el brote de sarampión de 2019. Aunque había menos individuos en contra que a favor de este tipo de tratamientos, las comunidades antivacunas triplicaban a las provacunas y tenían una mayor capacidad para relacionarse con los indecisos, quienes, lejos de ser observadores pasivos, participaban activamente en el debate.

Mientras científicos de todo el mundo tratan de desarrollar una vacuna para el coronavirus, las redes sociales juegan un papel clave en la difusión de información -y desinformación-, lo que tiene consecuencias importantes sobre la salud pública. «Creíamos que habría instituciones sanitarias en el centro de esta batalla en la red, pero están combatiendo la desinformación en el lugar equivocado», sentencia Johnson.

 

0JPV4803jpg-k5O--620x349@abc

El «Tribunal Supremo» de Facebook se pone en marcha

Siempre ha declarado que no es un medio de comunicación. Ha creado un imperio publicitario, solo reducido por Google y Amazon. Ha querido también manejar la política a su antojo, aunque tuvo aspiraciones que llegaron a molestar a la izquierda estadounidense hace unos años. Mark Zuckerberg, fundador y consejero delegado de Facebook, ha diseñado un plan para limpiarse las manos sobre el contenido que alberga la mayor plataforma social del mundo: ha creado un Consejo Asesor con una veintena de eminencias.

Este comité, una suerte de «tribunal supremo», está formado por periodistas, políticos y jueces de reputación internacional. Entre sus nombres, personalidades conocidas como la exprimera ministra de Dinamarca Helle Thorning-Schmidt, la exrelatora para la libertad de expresión de la Comisión Interamericana de Derechos Humanos (CIDH) Catalina Botero Marino o Alan Rusbridger, director del centro Lady Margaret Hall de la Universidad de Oxford y exeditor del «The Guardian», influyente diario de izquierda británico. Una elección que ha descrito el periódico británico «The Telegraph» como la constatación de un sesgo hacia la izquierda por parte de Facebook.

Todos ellos forman parte de un «Tribunal Supremo» cuya misión será la de moderar los contenidos en Facebook e Instagram, anunció la compañía. La junta desempeñará un papel clave para decidir lo que más de 2.600 millones de personas en todo el mundo pueden y no pueden decir, otorgándole un poder crucial, dándoles poder sobre un grupo que ha protagonizado sonados escándalos en los últimos años. La idea es simple. Thorning-Schmidt y Botero liderarán, junto a dos profesores de derecho estadounidenses, Michael McConnell y Jamal Greene, un equipo que inicialmente está constituido por veinte personas y que será el «juzgado» de última instancia para decidir qué contenidos pueden publicarse y cuáles no en las redes sociales propietarias de la multinacional. Para su funcionamiento, la multinacional destinará unos 130 millones de dólares. Sus miembros recibirán una compensación económica.

La creación de un grupo de supervisión independiente se anunció en 2018 por el propio Zuckerberg para tratar de dar respuesta a las críticas de abuso de poder por parte de la mayor red social del mundo y de arbitrariedad en la moderación de contenidos. Se tratará de un organismo al que acudir cualquier usuario una vez que su caso haya circulado por las distintas instancias anteriores dentro de la red social. Según explican en un comunicado, sus funciones empezarán a entrar en vigor «en los próximos meses» y tendrá un carácter «independiente» cuyas decisiones serán «vinculantes». «Facebook se ha comprometido con el cumplimiento de las decisiones que tomemos y, en caso de que no lo hiciese, como estas serán públicas, tendría un coste reputacional muy alto para la empresa», señaló en un comunicado Botero Marino.

Facebook ha asegurado que los miembros de estos «supervisores» han residido en 27 países y hablan entre todos unos 29 idiomas, aunque una cuarta parte del grupo y dos de los cuatro copresidentes son de los Estados Unidos, donde la compañía tiene su sede. También forman parte el exjuez del Tribunal Europeo de Derechos Humanos, András Sajó, la Directora Ejecutiva de Internet Sans Frontières, Julie Owono, la activista yemení y Premio Nobel de la Paz Tawakkol Karman o el investigador australiano de la gobernanza de internet Nicolas Suzor.

Nick Clegg, responsable de asuntos globales de Facebook y exlíder del Partido Liberal Demócrata, ha asegurado en una conversación con Reuters que la composición de esta junta era importante, pero que su credibilidad se va a obtener con el tiempo. «No espero que la gente diga, ‘Aleluya, son grandes personas, va a ser un gran éxito’. No hay razón por la que alguien deba creer que será un gran éxito hasta que realmente comience a escuchar casos difíciles en los próximos meses», dijo.

La plataforma también se ha criticado en el pasado por regirse por ideas conservadoras y ha manifestado en anteriores ocasiones su oposición a la senadora demócrata Elizabeth Warren, que defendió la necesidad de trocear Facebook para evitar actividades monopolísticas. Las reglas de uso de Facebook, que se aplica a todos sus servicios como Instagram, prohíben, entre otras cosas, publicaciones violentas, discursos extremistas, imágenes sexuales. Cuenta con una combinación de tecnología de revisión automática basada en Inteligencia Artificial y grupos de revisores humanos que determinan si una publicación debe ser eliminada.

Una función que en muchas ocasiones ha despertado el fantasma de la censura y que ha sido acusada de subjetiva. De ahí que florezcan críticas duras por parte de muchos usuarios, que ahora podrán apelar a un «tribunal» que, pese a su vocación independiente, formará parte de la la empresa estadounidense. En el momento de evaluar cada caso y emitir un dictámen, la junta tendrá en cuenta tanto las políticas de uso de la compañía como «las normas internacionales de derechos humanos por lo que respecta a la liberta de expresión», así como al «impacto sobre los usuarios y la sociedad».

 

1412509297-k0pD--620x349@abc

La red social Facebook alertará a los usuarios que interactúen con contenido dañino sobre el coronavirus

Facebook comenzará a mandar mensajes a aquellos usuarios que hayan interactuado con afirmaciones sobre el Covid-19 dañinas para la salud. Tras esto, les pondrá en contacto directamente con el apartado de bulos desmentidos por la Organización Mundial de la Salud (OMS). Así lo ha afirmado hoy mismo la compañía propiedad de Mark Zuckerberg a través de un comunicado. El objetivo, según se expresa en el texto, es proteger a los internautas de los efectos que pueda tener una afirmación incierta y peligrosa para la salud.

«Vamos a empezar a mostrar notificaciones en la sección de Noticias a aquellas personas que hayan dado a me gusta, hayan reaccionado o comentado posts con desinformación sobre COVID-19 perjudicial para la salud, información que ya ha sido eliminada de la plataforma. Esas notificaciones dirigirán a las personas a información sobre los mitos más comunes del COVID-19 que han sido desacreditados por la OMS, incluyendo los que hemos eliminado de nuestra plataforma por inducir a un daño físico inminente», afirma en un comunicado Guy Rosen, videpresidente de Integridad de la compañía.

De este modo, la red social se propone desterrar completamente los efectos dañinos que tiene la desinformación generada al calor de la pandemia. «Ejemplos de desinformación que hemos eliminado incluyen afirmaciones dañinas como que beber lejía cura el virus y teorías como que el distanciamiento social no es eficaz para evitar la propagación de la enfermedad», expresa el vicepresidente de Facebook.

Para llevar a cabo esta labor, la red social está trabajando con más de 60 organizaciones de verificación que revisan y califican el contenido en más de 50 idiomas de todo el mundo, y se ha puesto en marcha un programa de subvenciones para este tipo de organizaciones. El videpresidente de la red social expresa, además, que, hasta el momento, han sido eliminados cientos de miles de contenidos de desinformación que podrían provocar un daño físico inminente.

Cabe recordar que esta medida llega poco después de que WhatsApp, plataforma de mensajería que también pertenece a Mark Zuckerberg, afirmase que solo se podrán reenviar mensajes dentro de la plataforma a un único chat.

Los contenidos falsos no dañinos son etiquetados

La eliminación de contenidos falsos solo afectará, de acuerdo con la compañía, a aquellos que puedan poner en riesgo la salud de los usuarios. Es decir, las afirmaciones que contengan información falsa, o desmentida, pero que no resulten dañinos no serán directamente eliminados. En su lugar, se seguirá reduciendo su distribución y se mostrarán etiquetas de advertencia para que el usuario sea capaz de identificarlos.

«Durante el mes de marzo, mostramos advertencias sobre unos 40 millones de publicaciones en Facebook relacionadas con COVID-19, basadas en casi 4.000 artículos procedentes de nuestros socios de verificación de contenidos. Cuando la gente vio las etiquetas de aviso, el 95% de las veces no siguieron adelante y no vieron el contenido original», expresa Rosen en el comunicado.

 

facebook-kfBG--620x349@abc (1)