Archivos por Etiqueta: desinformacion

BirdWatch, la herramienta de Twitter para combatir la desinformación

Las redes sociales permiten al usuario estar a un «clic» de distancia de cualquiera. Sin embargo, el enorme torrente de publicaciones que fluye dentro de estas herramientas también es capaz de causar problemas; como el de la desinformación, con la que plataformas como Facebook o Twitter llevan lidiando desde hace años. Precisamente, la aplicación del pájaro azul acaba de poner en marcha en Estados Unidos una nueva función que busca combatir las «fake news» que se vierten en su interior. Y, para ello, quiere contar con la colaboración de los internautas corrientes. Su nombre es Birdwatch.

«Birdwatch permite a las personas identificar información en tuits que creen que es engañosa y escribir notas que brindan un contexto informativo. Creemos que este enfoque tiene el potencial de responder rápidamente cuando se difunde información engañosa, agregando un contexto en el que las personas confían y encuentran valioso», explica en un comunicado Keith Coleman, vicepresidente de producto de la red social.

Aunque el servicio, por el momento, solo está disponible en fase pruebas en un sitio aparte de la red social, y al que solo pueden acceder los usuarios de Estados Unidos, desde Twitter se espera que esté disponible próximamente a nivel global: «En este sitio, los participantes de la prueba piloto también pueden calificar la utilidad de las notas agregadas por otros colaboradores». Asimismo, la compañía asegura que ha realizado más de 100 entrevistas con personas de todo el espectro político que utilizan Twitter para hablar sobre la herramienta.

«En particular, las personas valoran que las notas procedan de la comunidad (en lugar de Twitter o una autoridad central) y aprecian que las notas proporcionarán un contexto útil para ayudarles a comprender y evaluar mejor un tuit (en lugar de centrarse en etiquetar el contenido como «verdadero» o «falso»)», expresa Coleman.

 

twitter-5-kfGE--620x349@abc

Lucha contra la desinformación en Twitter y Facebook

Vuelve el fantasma que asusta a los grupos políticos. Vuelve, a la primera línea, las críticas por la posible existencia de sesgos ideológicos en las plataformas de medios sociales. El detonante ha sido una publicación del medio «The New York Post» en la que se informaban de los supuestos vínculos con Ucrania del candidato demócrata a las elecciones presidenciales de Estados Unidos. La noticia, de interés periodístico, no ha circulado de manera masiva por la limitación introducida por Facebook y Twitter. Lo que ha despertado la ira de sus detractores al grito de censura.

Las redes sociales, que han considerado a esta información de «poco fiable», están en el punto de mira en esta próxima cita electoral. Los escándalos de Cambridge Analytica de hace cuatro años y las campañas coordinadas para tratar de influir entre los votantes ha derivado en la adopción de nuevas medidas contra la desinformación. Estos filtros han generado un intenso debate público acerca de si tratar contenidos informativos puede ser considerado censura.

Sin verificación previa

Es, en efecto, una decisión poco habitual de las redes sociales por su carácter marcadamente editorial. bY más, teniendo en cuenta que lo han hecho sin esperar la verificación de hechos de las empresas asociadas de «fact-checkers» con las que tienen acuerdos internacionales como Newtral o Maldita en España.

En el caso de Facebook, la red social por excelencia ha optado por «reducir la distribución» del artículo durante el tiempo en que sus verificadores analizan la historia, mientras que Twitter se ha inclinado en su completa eliminación. ¿Deberían editorializar las compañías tecnológicas? ¿Son acertadas sus decisiones para intentar frenar la lacra de las «fake news»? El polémico artículo se basaba en la recopilación de una serie de correos electrónicos recuperados de un viejo ordenador que, supuestamente, había pertenecido al hijo de Biden. El asunto más espinoso ha sido la revelación de que una copia se entregó al diario por el exalcalde de Nueva York, Rudy Giuliani, actualmente asesor jurídico de Trump. Este hecho ha considerado poco fiable la información publicada.

Ambas empresas han alegado motivos diferentes para justificar la limitación de alcance de la publicación. Andy Stone, responsable de políticas públicas en Facebook, ha instado en un mensaje en su perfil de Twitter a que los grupos externos de verificación de datos asociados a Facebook corroboren la información. «Mientras tanto, estamos reduciendo su distribución en nuestra plataforma», ha insistido.

Y ha añadido: «Esto forma parte de nuestro proceso estandarizado para reducir la difusión de información errónea. Reducimos temporalmente la distribución pendiente de la revisión del verificador de hechos». Twitter, por su parte, ha asegurado que violaba su política interna contra la publicación de material digital robado al considerar que los contenidos se habrían logrado sin el consentimiento de su supuesto dueño.

Donald Trump, actual presidente y candidato republicano, ha calificado en su perfil de Twitter de «terrible» la decisión de las redes sociales, al tiempo que ha llamado de nuevo a eliminar las protecciones legales de las que disfrutan las grandes plataformas de internet bajo la sección 230 de la Ley de Decencia en las Comunicaciones de 1996. El objetivo es una reforma que puede modificar estos servicios que han logrado representar un papel predominante en la política y la distribución de contenidos informativos.

En los últimos meses la relación de estas plataformas con la política se ha tensionado. Las empresas propietarias de estos servicios tan populares han orquestado un plan de acción para evitar la desinformación durante las próximas elecciones. Entre las medidas adoptadas, evitar que se cante victoria antes de tiempo o informar sobre el proceso de votación.

1405516585-khXB--620x349@abc

Los bulos o noticias falsas tendrán consecuencias en Facebook

Facebook impedirá a partir de ahora que las páginas que difunden bulos o contribuyen de manera reiterada a su expansión puedan anunciarse en la red social, que cuenta con 2.000 millones de usuarios. «Si las páginas comparten de manera historias marcadas como falsas, estos infractores reincidentes no se podrán publicitar en Facebook», han anunciado en un blog Tessa Lyons y Satwik Shukla, gerentes de producto de la compañía. El objetivo es cortar las vías de financiación a los sitios especializados en embustes.

La compañía tecnológica ya tomó medidas contra los anunciantes que enlazan a historias catalogadas como falsas por organizaciones de análisis externas, y ahora está «dando un paso adicional» en este ámbito. «La nueva actualización ayudará a reducir la distribución de noticias falsas, lo que impedirá a las páginas que riegan noticias falsas ganar dinero», añadieron.

«Hemos encontrado ejemplos de páginas que utilizan Facebook ads [anuncios de Facebook] para construir audiencias y distribuir noticias falsas más ampliamente», han señalado los responsables de la red social. Ahora, si una de esas páginas comparte «repetidamente» historias que han sido catalogadas como mentira, Facebook le prohibirá comprar anuncios.

«Las noticias falsas son dañinas para nuestra comunidad. Hacen que el mundo esté menos informado y erosiona la confianza», han apuntado los ejecutivos de Facebook, que se han propuesto «desestabilizar» el incentivo económico a la creación de estas piezas. La medida no es irrevocable. Si la página deja de distribuir embustes, podrá acceder a la publicidad de nuevo, como ha apuntado la red social en un comunicado publicado en blog oficial.

Las noticias falsas se convirtieron en un tema dominante durante la campaña presidencial estadounidense del año pasado, con historias claramente fraudulentas circulando por las redes sociales con poder para influir en los votantes.

Google también ha tomado pasos para contrarrestar el impacto de las historias creadas para engañar, incluyendo el lanzamiento de una opción en su buscador para comprobar los hechos descritos en las noticias.

1501805654_588431_1501806545_noticia_normal_recorte1

El plan de Facebook contra la publicación de noticias falsas

Mark Zuckerberg ha reaccionado. Aunque evita el término «noticias falsas» y prefiere hablar de desinformación, el fundador de Facebook se ha pronunciado sobre la polémica que ha perseguido a su red social desde el triunfo electoral de Donald Trump. A través de un mensaje en su muro, escrito con tono cercano, como si se dirigiese a sus amigos, ha explicado que van a tomar medidas para corregir la difusión de bulos.

La figura del editor de contenido es relativamente reciente en Facebook. Por lo general, se han centrado en las críticas de su comunidad para decirles lo que era falso de lo que no. Cuentan con herramientas para ello pero, cierto es también, que nunca desaparecen por completo. Por sus palabras se deduce que tampoco han intentado eliminarlo: “Al igual que no nos gustan los titulares engañosos con gancho, el spam o los timos, en el News Feed [el lugar donde aparecen las noticias], penalizamos este contenido para que no se difunda tanto”.

Una de las máximas de Zuckerberg, que se refleja en muchas de sus acciones, incluso en su iniciativa para erradicar enfermedades, es que todo se comporta como un sistema informático. Considera que cualquier proceso se puede mejorar.

Ante la oleada de críticas y pérdida de confianza Zuckerberg ha publicado una lista de siete medidas para atajar, inicialmente, el problema. Las soluciones propuestas van desde botones para avisar, sistemas de prevención basados en algoritmos o creación de equipos humanos especializados en los que contarán con expertos externos.

Jeff Jarvis, especialista en nuevos medios y profesor de la Universidad de Nueva York, considera que no es labor de la red social decidir qué es o no cierto, pero sí poner herramientas para atajar la difusión. “No se trata tanto de que se juzgue, como si fueran censores. Todos tenemos miedo a terminar con listas negras. Se trata de mejorar la experiencia online de todos, de hacerlo más placentero y fiable”, escribe en su blog.

Vivek Wadhwa, emprendedor y profesor en la Universidad Carnegie Mellon en Silicon Valley, insiste en que no es algo que se solucione con algoritmos, y tampoco solo con humanos, sino que merece una reflexión previa para aclarar qué se quiere detectar y atajar exactamente.

Según ha publicado Mark Zuckerberg, estas son las siete medidas que se ha comprometido a aplicar en Facebook:

Detección más sólida: Esto es lo más importante que podemos hacer para mejorar nuestra capacidad de descubrir la desinformación. Esto se traduce en un mejor sistema técnico para detectar lo que nuestros usuarios marcarán como falso, antes de que lo ellos mismo lo hagan.

Avisos más sencillos: Queremos hacer que sea mucho más fácil avisar de las noticias falsas para que lo frenemos antes.

Verificación a cargo de terceros: Hay muchas organizaciones de prestigio dedicadas a verificar hechos. Ya hemos hablado con algunas. Y esperamos aprender de muchas más.

Advertencias: Estamos viendo cómo etiquetar las historias que terceros ya han marcado como falsas, de modo que los usuarios vean una advertencia sobre su posible falta de veracidad.

Calidad de los artículos relacionados: Estamos subiendo el nivel de las historias que aparecen enlazadas debajo del artículo que se consulta.

Acabar con el negocio de las noticias falsas: Mucha de la desinformación está promovida por los mismos que se benefician del spam. Estamos cambiando nuestro sistema de anuncios, desde esta misma semana, para que se ataje. Empezando por los sistemas organizados de enlaces entre sí.

Escuchar: Vamos a seguir trabajando con periodistas y otros miembros del sector de los medios para tener no solo su opinión, sino también entender mejor sus sistemas de verificación y aprender de ellos.

1479713764_135804_1479733639_noticia_fotograma