Mark Zuckerberg

Entre tantas malas, una buena noticia

Lectura: 6 minutos

En noviembre de 2018, Mark Zuckerberg anunció la creación de un Consejo de Supervisión de los contenidos de Facebook. El propósito de esta entidad será el de defender el principio de darle una voz a la gente al mismo tiempo que se reconozca la realidad de [tener que] preservar la seguridad de las personas (traducción propia, Facebook).

Un artículo publicado por cuatro miembros de este Consejo explica sus funciones: se enfocará en los contenidos más problemáticos para Facebook incluyendo aspectos como discursos de odio, acoso, y la protección de la seguridad y la privacidad de las personas. También decidirá si algunos contenidos deben o no mantenerse a la vista del público (NYT).

Ya era hora…. Pero ¿será suficiente?

Si Facebook junto con Instagram, WhatsApp y Messenger, que también son de su propiedad, eran utilizados por alrededor de dos mil millones de personas en el mundo antes de la pandemia, en este último período su uso se ha intensificado aún más especialmente en las zonas más afectadas por ella, donde el confinamiento ha sido la norma. Su rol en estas circunstancias como medio de comunicación, acercamiento social en el distanciamiento, entretenimiento, educación, entre otros, los han vuelto indispensables, pero también nos ha expuesto más que nunca a información falsa.

facebook y desinformacion
Ilustración: ARTky6.

Facebook, que ha provisto a la humanidad de una forma invaluable de estar en contacto, ha tenido problemas severos para garantizar la veracidad y honestidad de los contenidos que se comparten a través de su plataforma, además de una incapacidad o falta de voluntad para proteger los datos privados de los usuarios –sobre este último tema véase un artículo en esta misma columna–.

Al principio, Facebook –lo mismo que las demás empresas mencionadas que se crearon posteriormente y que fueron absorbidas por ella– parecía un instrumento bastante inocente para mantener contacto e intercambiar fotos y comentarios con amigos, y encontrar nuevas relaciones. En poco tiempo, sus funciones se fueron ampliando de manera vertiginosa, facilitando intercambio de textos, millones de videos, facilitando la organización de conferencias, campañas electorales, entre otros. Pero el mal uso de este medio ha ido creciendo y se ha convertido en un instrumento de intervención externa de campañas políticas  a través de la inserción de publicidad falsa –Rusia en las elecciones de Estados Unidos de 2016–; de la transmisión de ideologías fanáticas que terminan en masacres –de los supremacistas blancos o de yihadistas–; y de tráfico de personas.

No existe una regulación internacional que pueda actuar para detener este tipo de problemas. En el tema de protección de datos personales se han hecho algunos avances como la iniciativa de Regulación General de Protección de Datos de la Unión Europea (GDPR, por sus siglas en inglés) de hace dos años, y muchos países han dictado regulaciones respecto del acceso y uso indebido de estos datos, aunque los resultados han sido insatisfactorios.

Los problemas para filtrar contenidos son múltiples, empezando por la ambivalencia de estas empresas como Facebook para hacerlo, pues enfrentan el dilema de cuánto se puede estar transgrediendo derechos democráticos al censurar la comunicación –tema muy polémico, especialmente cuando se trata de grupos de odio–, y los costos de marginar de sus redes a estos grupos poderosos.

provacidad de datos facebook
Ilustración: Techcrucnh.

Los problemas técnicos no son menos desafiantes. La tarea de filtrar contenidos no puede aún ser resuelto exclusivamente por algoritmos, sino que requiere la intervención de seres humanos. La empresa tenía contratados más de 7,500 revisores de contenido en 40 idiomas en 2018, según un informe de Facebook. La compañía sostiene que tiene vínculos con 60 organizaciones que revisan la veracidad de los datos y hechos que se transmiten a través de su plataforma, y su esfuerzo se ha intensificado ante la situación del coronavirus para evitar la desinformación sobre este tema en particular (Facebook).

El problema es que muchos de los “revisores” de contenido contratados por Facebook no son especialistas en realizar lo que llaman “moderación de contenidos” ilegales o inmorales al público. Muchos de los trabajadores contratados para analizar y filtrar una enorme cantidad de imágenes, videos y textos que se muestran en el sitio de Facebook, de acuerdo con criterios predefinidos, lo hacen individualmente en la esfera gig del empleo, sin capacitación adecuada para esta labor ni apoyo psicológico para hacerlo, y la cantidad de datos o imágenes que deben procesar es enorme. Es decir, están sometidos a un gran estrés –véase artículo sobre las condiciones de trabajos en las plataformas digitales en esta columna–, por lo que el resultado de este esfuerzo es mucho menos que satisfactorio.

Por otra parte, el desarrollo de la tecnología para producir información falsa es muy acelerado, lo que hace aún más difícil detectar las tergiversaciones y manipulación de fotos, videos, discursos, etc. La forma más avanzada de manipulación es la técnica del deepfake –que en sí progresa a gran velocidad–, basada en el “aprendizaje profundo” de una persona a través de la inteligencia artificial –véase artículo en esta columna– y puede transformar su imagen y su voz de manera que en apariencia expresa verbal y gráficamente ideas o discursos falsos que engañan a cualquier observador, a menos que éste sea uno de los escasos profesionales especializados en estas técnicas digitales. En septiembre del año pasado, Facebook decidió contribuir con 10 millones de dólares a un fondo que estudia formas nuevas de detectar el deepfake, y a principios de este año la compañía decidió prohibir la transmisión de contenidos con esta tecnología –eso es, si es que los pueden detectar–.

En la práctica, Facebook ha hecho progresos en manejar contenidos, ya sea porque han ido tomando conciencia espontáneamente o bajo presión. Por ejemplo, en abril de 2018, Facebook publicó los Lineamientos Internos que determinan los estándares de la compañía para censurar contenidos, lo que ayuda a los revisores a eliminar aquellos que se consideran inaceptables. Por ejemplo, respecto a la violencia señala que eliminamos el lenguaje que incita o da lugar a actos graves de violencia. En los casos en los que consideramos que existe riesgo real de daños físicos o amenazas directas a la seguridad pública, eliminamos el contenido, inhabilitamos las cuentas y colaboramos con las autoridades competentes (Facebook).

deepfake
Imagen: Axios.

También se han tomado medidas, especialmente cuando se acercan las elecciones en algún país o localidad, pues son los lapsos de tiempo en los que se carga más la web de mensajes falsos para influir sobre los resultados. Por ejemplo, Facebook removió 2.19 mil millones de informes falsos en el primer trimestre de 2019 y actuó específicamente contra 1,574 páginas no europeas y 168 páginas originadas en la UE –véase artículo en esta columna–, con vistas a reducir las manipulaciones virtuales antes de las elecciones parlamentarias europeas que tuvieron lugar en mayo de 2019. Durante la pandemia también se han tomado medidas especiales. En marzo del presente año, Facebook puso advertencias a unas 40 millones de comunicaciones relacionadas con el COVID-19, basándose en alrededor de 4,000 artículos provistos por los socios especializados en revisión de contenidos (Facebook).

Pero Facebook ahora ha dado un paso más importante. Después de sostener seis talleres y 22 mesas redondas con la participación de 650 personas de 88 países a lo largo del último año y medio, con el propósito de discutir la política que necesitaría la empresa para ser efectivos en la revisión y filtro de contenidos, ha anunciado la creación del Comité Supervisor independiente. Zuckerberg ha nombrado ya a los 20 primeros miembros de este comité y el próximo año se unirían otras 20 personalidades más, todas ellas muy destacadas en diversas disciplinas.

La finalidad del Consejo es proteger la libertad de expresión y formular recomendaciones sobre la política de contenido relevante de la empresa Facebook. Esta nueva entidad podrá escoger algunos casos de contenido que considere importantes de revisar y podrá ratificar o revertir la decisión de ser transmitido por Facebook. Su finalidad es revisar un número limitado de casos muy emblemáticos y determinar si las decisiones se tomaron de acuerdo con las políticas y los valores establecidos de Facebook (Oversight Board).

privacidad facebook
Ilustración: Cointelegraph.

Las opiniones sobre la creación del Comité de Supervisión de Facebook ya es tema de debate. Para algunos es un atentado a la libertad de expresión, mientras que para otros se queda muy corto respecto a lo que pueden realmente hacer para limitar el daño que hacen algunas de sus divulgaciones.

Bajo cualquier enfoque, la tarea de revisar contenidos de las publicaciones o mensajes de más de dos mil millones de personas es colosal, especialmente si los métodos que se quieren seguir son democráticos, es decir, que no trasgredan la libertad de expresión de las personas bien intencionadas. El Consejo conformado por 40 personas difícilmente podrá responder al desafío que se les presenta. Es quizás un primer paso para establecer criterios o una especie de gobernanza de las propias empresas, a falta de acuerdos y reglas internacionales.

Pero las grandes plataformas digitales tendrán que ingeniárselas de alguna manera, pues las exigencias sobre ellas son cada vez mayores. Por ejemplo, Francia acaba de aprobar una ley que da sólo una hora para que se retiren de las redes los mensajes que las autoridades consideren que están relacionadas con terrorismo o abuso sexual infantil. De no cumplirse esta regla, la multa aplicada podría llegar a ser el 4% de los ingresos globales de la empresa transgresora –miles de millones de dólares para una empresa como Facebook– (BBC).


También te puede interesar: El 1%, los gigantes tecnológicos y la pandemia.