05/06/2022

En la era del fascismo digital

Ilustración de Señora Milton.

Algoritmos que regulan fronteras, salarios y hasta la educación de las criaturas. Cuidados, comunidad y software libre para combatirlos. La primera sesión de las Jornadas Democracia, Algoritmos y Resistencias recogió voces para entender y combatir el control que las multinacionales realizan a través de aplicaciones y recogida de datos. Por Teresa Villaverda (Pikara Magazine).


La propuesta de la presidenta de la Comunidad de Madrid, Isabel Díaz Ayuso, durante el confinamiento de 2020, de repartir comida de Telepizza entre niñas y niños vulnerables, despertó las críticas de la sociedad: no se podía admitir como medida pública dar comida basura a las criaturas, y menos contratando a una multinacional que, al menos entonces, no pagaba el salario mínimo en el Estado español, como ha reconocido una sanción de Inspección de Trabajo en 2022. En aquellos días de encierro en que todo se virtualizó, hubo otras medidas del estilo que no suscitaron el mismo debate social. Las empresas Samsung y Google regalaron tablets para facilitar la asistencia a las clases online. Inés Binder, integrante de Labekka, un grupo hackfeminista deslocalizado, entiende que “pensar que la tecnología es neutral” forma parte de “la visión tecnocéntrica”.  “Google y Microsoft, especialmente, están perfilando a los menores de edad. Cuando ese niño o niña salga del colegio ya sabrá usar esas herramientas, las va a pedir en el mercado de trabajo. Están fidelizando clientes desde los cinco años”, explica. Y lo que considera una vulneración de los derechos de la infancia. Así lo explicaba para el reportaje ‘Tecnofeminismo más allá del mito hacker’, publicado en el anuario 9 en papel de Pikara Magazine.

El regalo de las tablets no fue cuestionado, además de por la aparente neutralidad de la tecnología, porque está envuelta en un misticismo que la dota de un halo de complejidad. Pensamos que no sabemos suficiente sobre tecnología, que su funcionamiento lo entienden solo profesionales de la programación y de la ingeniería. Pero no es así. Lo decían las integrantes de LaBekka para el citado reportaje: para saber que queremos consumir lechugas orgánicas y locales no necesitamos saber de agricultura. Es decir, es imprescindible aplicar una mirada multidisciplinar, desde disciplinas laborales, legales, activistas, periodísticas y de derechos humanos, entre otras, que analice los abusos tecnológicos a los que se ve sometida la sociedad. Y con las que pensar en otro mundo tecnológico posible.

“Nuestras instituciones están haciendo product placement de una empresa privada y con una digitalización a la que no podemos acceder. Somos clientes cautivos. Supone una dejadez de funciones muy importante por parte de la institución. Impide, además, la libre empresa. Si no hay software libre que compita en usabilidad –aunque sí en características– y en agilidad [con los de las grandes empresas], es por la infrainversión del sector público. Tenemos que ser  la sociedad civil quien lo haga”, ha dicho  Simona Levy, de XNET, en la mesa online del 26 de mayo que abría las Jornadas Democracia, Algoritmos y Resistencias. El evento, organizado por AlgoraceAlgorightsLafede.cat y el Espai Societat Oberta, se completó con otros dos días presenciales, el 27 y 28, en Barcelona y Madrid. Levy estaba acompañada por Alberto Álvarez, taxista de profesión e integrante del Observatorio de Trabajo, Algoritmo y Sociedad; Youseff M. Ouled, de Fronteras Digitales.

Las dos mesas online de la primera parte de las jornadas versaron justamente sobre esto: cómo funcionan las tecnologías con las que vivimos diariamente, qué consecuencias sociales tienen y qué alternativas tenemos a ellas. Se habló de algoritmos, sí, pero sobre todo de derechos y mundos futuros colectivos, mejorados.

Según Levy, las instituciones deberían velar por una digitalización con base en los derechos humanos, con un código abierto “que todo el mundo pueda trabajar” y que repercuta en las empresas más pequeñas. “La nube no es una nube en el cielo, sino el ordenador de otra persona, en este caso de una gran multinacional. Deberíamos tener acceso a nubes en las que podamos entrar para ver si de verdad se ha borrado mi expediente psiquiátrico de hace sesis años, para que cuando busque trabajo no me digan ‘usted ha sido bulímica, no la contratamos’. Es importante que haya financiación pública”, repitió.

Derechos laborales y fronteras bajo el dominio algorítmico

“Estamos en el mundo del fascismo digital”, afirmó Alberto Álvarez. Un ejemplo práctico. Él, junto con más taxistas, han contratado a un programador que hizo un algoritmo para medir los precios de la ciudad de Madrid y cómo estos variaban dependiendo del poder adquisitivo que hubiera en unos barrios y otros. “Hemos analizado más de tres millones de peticiones de servicio y hemos visto cosas que son escandalosas, ¿cómo una administración pública no hace esto y lo hacen cuatro taxistas o cuatro riders?”, se pregunta. Entre estas cosas “escandalosas”, el algoritmo demostró que los precios bajaban en los barrios con más poder adquisitivo y subían en los más pobres. “Eso son datos objetivos, nuestra interpretación es que es para seleccionar un tipo de cliente no problemático”, concluye.

La tiranía algorítmica no solo se refleja en los precios, también en las puntuaciones que la clientela puede dar a quienes conducen: “No tenemos datos objetivos pero, en una sociedad totalmente polarizada como en la que vivimos, donde por razones de género o raza te miran de una manera u otra, podemos suponerlo”.

La puntuación que da la clientela, además, se puede manipular. La empresa puede bajar la puntuación y eso influye en las condiciones laborales de quien conduce, “en cuántas horas tienes que trabajar y en cuánto cobras”, explica. Esta problemática coincide en gran medida con la que tienen los y las riders de empresas como Glovo. El colectivo Riders X Derechos lleva tiempo reclamando que los comités de estas empresas de economía de plataforma tengan acceso al algoritmo que organiza el trabajo.

Donde sí hay datos objetivos del sesgo racista de estas tecnologías es en el control de fronteras y, de nuevo, la medida que ha venido a reforzarlas se tomó en plena pandemia, cuando el virus copaba titulares, pasando inadvertida. “En 2020, los estados de la Unión Europea firmaron para invertir más de 300 millones de euros en el diseño e implementación del sistema de control biométrico [de fronteras]”, dice Yousef M. Ouled. Desde la organización Fronteras Digitales, explica, denuncian estos usos tecnológicos que refuerzan el racismo. “Pedimos que se corrijan los sesgos. Estamos en contra de la lógica de la existencia de fronteras tal y como existen. Hay alternativas de acogida y las hemos visto con Ucrania. Además, un informe de la relatora de Naciones Unidas de 2019 sobre fronteras digitales muestra cómo hacen más difícil el tránsito migratorio y aumentan la tasa de mortalidad. Lo estamos viendo en la ruta Canaria en el sur de España”, asegura. Esta organización impulsó un manifiesto denunciando la implantación de la inteligencia artificial en fronteras y la vulneración de derechos que realizan, firmado por más de 80 organizaciones. El modelo, sin embargo, se afianzaba años antes con el tratado Entry /Exit System, aprobado por el Parlamento Europeo en 2017, y que busca sustituir el control manual de pasaportes por uno digital, como explica Pablo Jiménez Aradia en un análisis de Ctxt. Este sistema, según Ouled, se plantea “exento de regulación, al margen de derechos que sí protege la ley de ciudadanía europea”.

El dinero que se invierte en esta inteligencia artificial, denuncia Ouled, supone “un aumento de la vulneración de la libre circulación”, porque las personas serán más identificadas: “La automatización cada vez mayor de las fronteras supone un refuerzo de la lógica racial y colonial de la Unión Europea”.

La privacidad, un derecho –francés– del siglo XVII

“Ahora usamos Gmail para todo, hemos retrocedido 300 años”, dice Levy al mencionar el decreto de inviolabilidad de las comunicaciones. El reconocimiento jurídico de la privacidad de las comunicaciones de las personas fue aprobado en 1790 por la Asamblea Nacional francesa y  configuraba la correspondencia como inviolable. En España, el reconocimiento llega con la Constituciónde 1869. En la actualidad, “la FAC (Federación AMPAS de Cataluña), tiene que firmar una autorización para la escolarización digital con Google. Este provee de todo, gestiona toda la documentación. Todo se genera en unas nubes que no son soberanas”, cuenta.

Así, Google sustituiría hoy a los cabinet noir prohibidos por aquel decreto francés, oficinas que investigaban y controlaban de forma sistemática y secreta la correspondencia, prácticas puestas en marcha por el rey Luis XIII y el cardenal Richeleieu, según explica la web de información jurídica VLex.

Esta noción de privacidad, sin embargo, no es la imperante a escala global, sino que es un concepto más bien occidental, como muestra su origen. “En contextos desconectados, que son la mayoría en América Latina, la noción de privacidad en términos individuales no existe. Las familias comparten teléfono. Las tecnologías hegemónicas imponen también una narrativa sobre cuál debe ser nuestra relación con la tecnología. Hay que comenzar por desmontar estas narrativas”, advierte Paola Ricaurte, de Tierra Común, en la segunda mesa de la mañana, moderada por la analista de datos Oyidiya Oji Palino. La otra ponente de la mesa, Paula de la Hoz, de Interferencias, asiente: “Hablamos de consumidoras, pero no de constructoras de tecnología, y esto fomenta que no haya participación activa en lo digital. Por tanto, las empresas son cámaras de eco donde hay grupos que siempre son marginales. Eso es la tecnología privativa, que fomenta la falta de derechos digitales porque faltan las voces de la privacidad, del anonimato…, para ver las necesidades de cada usuaria en vez de adaptarnos a las necesidades globales que se nos suponen. Por eso es necesaria una tecnología accesible”. Y remata diciendo que en la construcción de estas tecnologías “los grupos feministas decoloniales son esenciales para que haya diversidad y se haga tecnología libre para todas. Si solo hacen software libre mujeres blancas, lo harán solo según sus necesidades. En los colectivos transfeministas, por ejemplo, se habla mucho de cuidados y de comunidad, en los de informática, no”.

El hecho de que estas tecnologías se hagan desligadas de los cuerpos de todas, de los territorios y de los cuidados, implica que se obvien sus efectos en estos, como explica Ricaurte: “Un centro de datos, por ejemplo, quita el agua a toda la comunidad que vive donde está instalado. Hay que consumir menos [tecnología] porque el impacto es brutal”.



1 comentarios

1000/1000
Los comentarios publicados y las posibles consecuencias derivadas son de exclusiva responsabilidad de sus autores. Está prohibido la publicación de comentarios discriminatorios, difamatorios, calumniosos, injuriosos o amenazantes. Está prohibida la publicación de datos personales o de contacto propios o de terceros, con o sin autorización. Está prohibida la utilización de los comentarios con fines de promoción comercial o la realización de cualquier acto lucrativo a través de los mismos. Sin perjuicio de lo indicado ANRed se reserva el derecho a publicar o remover los comentarios más allá de lo establecido por estas condiciones sin que se pueda considerar un aval de lo publicado o un acto de censura. Enviar un comentario implica la aceptación de estas condiciones.
Tu dirección de correo electrónico no será publicada.
  1. En la era del fascismo digital – ANRed – Baúl de Noticias: Tecnología · 2022-06-05 12:00:07
    […] Algoritmos que regulan fronteras, salarios y hasta la educación de las criaturas. Cuidados, comunidad y software libre para combatirlos. La primera sesión de las Jornadas Democracia, Algoritmos y Resistencias recogió voces para entender y combatir el control que las multinacionales realizan a través de aplicaciones y recogida de datos. Por Teresa Villaverda (Pikara Magazine). La propuesta de la presidenta de la Comunidad de Madrid, Isabel Díaz Ayuso, durante el confinamiento de 2020, de […] En la era del fascismo digital – ANRed […]

Ir arriba