protección de datos

Nubes que tienen dueño, riesgo soberano en el almacenamiento de datos digitales

Lectura: 4 minutos

Gaia. Como la diosa madre. Así le han llamado. Con plena conciencia, ni para qué dudarlo, de que se recupera, en el apelativo del proyecto, el de la diosa primigenia. 

Gea, también nombrada así. La madre de todo lo que después del caos emerge.  Gaia/Gea, representación última y primera, a un tiempo, del nuevo comienzo de las cosas, del surgimiento de un orden mínimo donde lo que está por venir encuentra condición de posibilidad.

Gaia X es el nombre con el que la Europa unida cifra uno de sus proyectos tecnológico-digitales más ambiciosos: contar con una Nube propia para resguardar los datos de sus instituciones y ciudadanos.  

Esa información, sensible y estratégica a cuál más, se encuentra hoy mayoritariamente al resguardo de grandes plataformas como Google, Microsoft, Amazon, las tres norteamericanas, o Alibaba, que oferta su servicio desde China.

Datos bancarios, récords de salud, intercambio de mensajes entre gobiernos, y un sinnúmero más de datos se hallan bajo el cuidado de estos gigantes cibernéticos.

datos gaia x
Imagen: Panorama Audiovisual.

Si no fuera real, costaría trabajo pensar, empero, que incluso el órgano ejecutivo, el gobierno de la Unión Europea, tiene sus datos en estos también llamados centros de hiperescalamiento, también llamados “servicios en la nube”.

La pandemia, de proporciones globales, sí, pero de impactos locales, también, ha venido a asentar, aún más, un principio básico: datos y soluciones a los problemas caminan férreamente de la mano.

Si el primer tramo de la Era digital dibujó en su centro a la información como el elemento, a un tiempo, dislocador y organizante de la nueva realidad, hoy los datos ocupan ese sitio.

En buena medida, justamente, en ello recae el paso entre la tercera y la cuarta Revolución Industrial.

Mientras la tercera, surgida a mediados de los noventa, señaló a la información como la pista sobre la que debían repensarse herramientas y procesos, la cuarta, en plena marcha en el presente, obliga a dirigir la mirada hacia los datos.  

Leerlos de modo correcto se torna así en la condición superior para cifrar cualquier intento de compresión de los fenómenos multifactoriales y ampliamente interrelacionados que nos rodean.

En una mirada de Longue durée, resulta más que ilustrativo plantear el tránsito entre las cuatro revoluciones industriales apuntando la mirada hacia lo que fue el combustible esencial de cada una de ellas.

datos abiertos
Imagen: Matt Chinwort.

El vapor para la primera; los combustibles fósiles para la segunda; la información (puesta en computadoras y en el Internet) en la tercera; y, finalmente, hoy, la cuarta, en la que Inteligencia Artificial, Fintech, Internet de las cosas, Blockchain, se soportan sobre la base de los datos, de su calidad, oportunidad, robustez y pertinencia.

Cualquier ruta que menosprecie o relegue aquello que entre los datos reluce, estará condenada a un trazo entre palos de ciego o el caminar en círculos; cuando no, el abierto extravío.

De ahí que el asunto sobre quién posee esos datos, dónde los almacena, bajo qué medidas de seguridad, de acuerdo con la legislación de qué país, se torne en un asunto que rebasa lo meramente cibernético, para insertarse en la lógica de la seguridad soberana.

Unas semanas atrás, el presidente francés, Emmanuel Macron, hablaba de “un tener peso por nosotros mismos”, aludiendo a la Europa unida, y a sus acciones en materia de tecnología digital.

En lo que fue una larga charla con la revista Le grand continent, Macron hace énfasis sobre la idea de “autonomía tecnológica y estratégica”, como pivote de la capacidad para que Europa, dice, sea capaz de “construir sus propias soluciones”.

Si dependemos de las tecnologías norteamericana o china, aseguraba el mandatario francés, “no podemos garantizar a los ciudadanos europeos el secreto de la información ni la seguridad de sus datos privados”.

Tan importante es ello, como lo que concierne, a la manera en que en la actualidad se escurren, territorialmente hablando, responsabilidades jurídicas.

datos digitales
Imagen: Andrei D.

Macron lo planteaba en estos términos, “Europa debe ser capaz de proporcionar soluciones en materia de ‘cloud’; de lo contrario, sus datos se almacenarán en un espacio no sujeto a su derecho, que es la situación en la que nos encontramos”.

De cara a la complejidad del presente y a la necesidad de replantear las rutas preconcebidas hacia el futuro común, los datos tienen, pues, un valor incalculable e insustituible.

Insumo preciadísimo, no es que de quien sean los datos y los sepa organizar y descifrar, será el futuro; pero casi.

De naturaleza titánica, la Europa unida no ha podido elegir mejor resonancia onomástica para pensar en su cloud que Gaia.

Cuenta Georg Jünger acerca esta diosa de cuyo vientre todo volvió a iniciar, Homero la llamaba la Gloriosa y también la que dispensa frutos y vida.

El poder de Gaia, advierte Jünger, abarca lo lumínico, pero también lo subterráneo. Indagadora de lo que está en el orden del cielo, tanto como de lo que está enterrado. Figura tutelar a la le rinden culto los magos y los buscadores de tesoros.

Tesoro inestimable para el presente del futuro, son los datos. No pueden tener mayor dueño que lo público.

Como las nubes; así.


También te puede interesar: Pensamiento creativo y ciencia de los datos en la Era digital.

Entre tantas malas, una buena noticia

Lectura: 6 minutos

En noviembre de 2018, Mark Zuckerberg anunció la creación de un Consejo de Supervisión de los contenidos de Facebook. El propósito de esta entidad será el de defender el principio de darle una voz a la gente al mismo tiempo que se reconozca la realidad de [tener que] preservar la seguridad de las personas (traducción propia, Facebook).

Un artículo publicado por cuatro miembros de este Consejo explica sus funciones: se enfocará en los contenidos más problemáticos para Facebook incluyendo aspectos como discursos de odio, acoso, y la protección de la seguridad y la privacidad de las personas. También decidirá si algunos contenidos deben o no mantenerse a la vista del público (NYT).

Ya era hora…. Pero ¿será suficiente?

Si Facebook junto con Instagram, WhatsApp y Messenger, que también son de su propiedad, eran utilizados por alrededor de dos mil millones de personas en el mundo antes de la pandemia, en este último período su uso se ha intensificado aún más especialmente en las zonas más afectadas por ella, donde el confinamiento ha sido la norma. Su rol en estas circunstancias como medio de comunicación, acercamiento social en el distanciamiento, entretenimiento, educación, entre otros, los han vuelto indispensables, pero también nos ha expuesto más que nunca a información falsa.

facebook y desinformacion
Ilustración: ARTky6.

Facebook, que ha provisto a la humanidad de una forma invaluable de estar en contacto, ha tenido problemas severos para garantizar la veracidad y honestidad de los contenidos que se comparten a través de su plataforma, además de una incapacidad o falta de voluntad para proteger los datos privados de los usuarios –sobre este último tema véase un artículo en esta misma columna–.

Al principio, Facebook –lo mismo que las demás empresas mencionadas que se crearon posteriormente y que fueron absorbidas por ella– parecía un instrumento bastante inocente para mantener contacto e intercambiar fotos y comentarios con amigos, y encontrar nuevas relaciones. En poco tiempo, sus funciones se fueron ampliando de manera vertiginosa, facilitando intercambio de textos, millones de videos, facilitando la organización de conferencias, campañas electorales, entre otros. Pero el mal uso de este medio ha ido creciendo y se ha convertido en un instrumento de intervención externa de campañas políticas  a través de la inserción de publicidad falsa –Rusia en las elecciones de Estados Unidos de 2016–; de la transmisión de ideologías fanáticas que terminan en masacres –de los supremacistas blancos o de yihadistas–; y de tráfico de personas.

No existe una regulación internacional que pueda actuar para detener este tipo de problemas. En el tema de protección de datos personales se han hecho algunos avances como la iniciativa de Regulación General de Protección de Datos de la Unión Europea (GDPR, por sus siglas en inglés) de hace dos años, y muchos países han dictado regulaciones respecto del acceso y uso indebido de estos datos, aunque los resultados han sido insatisfactorios.

Los problemas para filtrar contenidos son múltiples, empezando por la ambivalencia de estas empresas como Facebook para hacerlo, pues enfrentan el dilema de cuánto se puede estar transgrediendo derechos democráticos al censurar la comunicación –tema muy polémico, especialmente cuando se trata de grupos de odio–, y los costos de marginar de sus redes a estos grupos poderosos.

provacidad de datos facebook
Ilustración: Techcrucnh.

Los problemas técnicos no son menos desafiantes. La tarea de filtrar contenidos no puede aún ser resuelto exclusivamente por algoritmos, sino que requiere la intervención de seres humanos. La empresa tenía contratados más de 7,500 revisores de contenido en 40 idiomas en 2018, según un informe de Facebook. La compañía sostiene que tiene vínculos con 60 organizaciones que revisan la veracidad de los datos y hechos que se transmiten a través de su plataforma, y su esfuerzo se ha intensificado ante la situación del coronavirus para evitar la desinformación sobre este tema en particular (Facebook).

El problema es que muchos de los “revisores” de contenido contratados por Facebook no son especialistas en realizar lo que llaman “moderación de contenidos” ilegales o inmorales al público. Muchos de los trabajadores contratados para analizar y filtrar una enorme cantidad de imágenes, videos y textos que se muestran en el sitio de Facebook, de acuerdo con criterios predefinidos, lo hacen individualmente en la esfera gig del empleo, sin capacitación adecuada para esta labor ni apoyo psicológico para hacerlo, y la cantidad de datos o imágenes que deben procesar es enorme. Es decir, están sometidos a un gran estrés –véase artículo sobre las condiciones de trabajos en las plataformas digitales en esta columna–, por lo que el resultado de este esfuerzo es mucho menos que satisfactorio.

Por otra parte, el desarrollo de la tecnología para producir información falsa es muy acelerado, lo que hace aún más difícil detectar las tergiversaciones y manipulación de fotos, videos, discursos, etc. La forma más avanzada de manipulación es la técnica del deepfake –que en sí progresa a gran velocidad–, basada en el “aprendizaje profundo” de una persona a través de la inteligencia artificial –véase artículo en esta columna– y puede transformar su imagen y su voz de manera que en apariencia expresa verbal y gráficamente ideas o discursos falsos que engañan a cualquier observador, a menos que éste sea uno de los escasos profesionales especializados en estas técnicas digitales. En septiembre del año pasado, Facebook decidió contribuir con 10 millones de dólares a un fondo que estudia formas nuevas de detectar el deepfake, y a principios de este año la compañía decidió prohibir la transmisión de contenidos con esta tecnología –eso es, si es que los pueden detectar–.

En la práctica, Facebook ha hecho progresos en manejar contenidos, ya sea porque han ido tomando conciencia espontáneamente o bajo presión. Por ejemplo, en abril de 2018, Facebook publicó los Lineamientos Internos que determinan los estándares de la compañía para censurar contenidos, lo que ayuda a los revisores a eliminar aquellos que se consideran inaceptables. Por ejemplo, respecto a la violencia señala que eliminamos el lenguaje que incita o da lugar a actos graves de violencia. En los casos en los que consideramos que existe riesgo real de daños físicos o amenazas directas a la seguridad pública, eliminamos el contenido, inhabilitamos las cuentas y colaboramos con las autoridades competentes (Facebook).

deepfake
Imagen: Axios.

También se han tomado medidas, especialmente cuando se acercan las elecciones en algún país o localidad, pues son los lapsos de tiempo en los que se carga más la web de mensajes falsos para influir sobre los resultados. Por ejemplo, Facebook removió 2.19 mil millones de informes falsos en el primer trimestre de 2019 y actuó específicamente contra 1,574 páginas no europeas y 168 páginas originadas en la UE –véase artículo en esta columna–, con vistas a reducir las manipulaciones virtuales antes de las elecciones parlamentarias europeas que tuvieron lugar en mayo de 2019. Durante la pandemia también se han tomado medidas especiales. En marzo del presente año, Facebook puso advertencias a unas 40 millones de comunicaciones relacionadas con el COVID-19, basándose en alrededor de 4,000 artículos provistos por los socios especializados en revisión de contenidos (Facebook).

Pero Facebook ahora ha dado un paso más importante. Después de sostener seis talleres y 22 mesas redondas con la participación de 650 personas de 88 países a lo largo del último año y medio, con el propósito de discutir la política que necesitaría la empresa para ser efectivos en la revisión y filtro de contenidos, ha anunciado la creación del Comité Supervisor independiente. Zuckerberg ha nombrado ya a los 20 primeros miembros de este comité y el próximo año se unirían otras 20 personalidades más, todas ellas muy destacadas en diversas disciplinas.

La finalidad del Consejo es proteger la libertad de expresión y formular recomendaciones sobre la política de contenido relevante de la empresa Facebook. Esta nueva entidad podrá escoger algunos casos de contenido que considere importantes de revisar y podrá ratificar o revertir la decisión de ser transmitido por Facebook. Su finalidad es revisar un número limitado de casos muy emblemáticos y determinar si las decisiones se tomaron de acuerdo con las políticas y los valores establecidos de Facebook (Oversight Board).

privacidad facebook
Ilustración: Cointelegraph.

Las opiniones sobre la creación del Comité de Supervisión de Facebook ya es tema de debate. Para algunos es un atentado a la libertad de expresión, mientras que para otros se queda muy corto respecto a lo que pueden realmente hacer para limitar el daño que hacen algunas de sus divulgaciones.

Bajo cualquier enfoque, la tarea de revisar contenidos de las publicaciones o mensajes de más de dos mil millones de personas es colosal, especialmente si los métodos que se quieren seguir son democráticos, es decir, que no trasgredan la libertad de expresión de las personas bien intencionadas. El Consejo conformado por 40 personas difícilmente podrá responder al desafío que se les presenta. Es quizás un primer paso para establecer criterios o una especie de gobernanza de las propias empresas, a falta de acuerdos y reglas internacionales.

Pero las grandes plataformas digitales tendrán que ingeniárselas de alguna manera, pues las exigencias sobre ellas son cada vez mayores. Por ejemplo, Francia acaba de aprobar una ley que da sólo una hora para que se retiren de las redes los mensajes que las autoridades consideren que están relacionadas con terrorismo o abuso sexual infantil. De no cumplirse esta regla, la multa aplicada podría llegar a ser el 4% de los ingresos globales de la empresa transgresora –miles de millones de dólares para una empresa como Facebook– (BBC).


También te puede interesar: El 1%, los gigantes tecnológicos y la pandemia.