, ,

JORNADES | II Jornades DAR. Democràcia, Algoritmes i Resistències

En un moment en què s’està debatent sobre el nou Reglament europeu sobre IA (AI Act) i que el govern espanyol assumeix la presidència rotatòria de la UE, LaFede, Algorights i AlgoRace han organitzat les II Jornades DAR. Democràcia, Algoritmes i Resistències com a espai clau perquè les organitzacions socials articulin les seves demandes per tal de garantir els drets humans en aquesta regulació.

|

Com indiquen les entitats organitzadores, les II Jornades DAR se celebren en un moment crucial en què es debat el nou reglament europeu sobre IA (AI Act). Des de l’1 de juliol del 2023, el govern d’Espanya té la Presidència rotatòria del Consell europeu i ha mostrat un gran interès per liderar la carrera de la Intel·ligència Artificial a Europa. L’avançament electoral espanyol situa el país en un moment de convulsió política però les organitzacions socials remarquen que el paper del govern espanyol, sigui quin sigui, ha de ser decisiu a impulsar aquesta regulació per garantir els drets fonamentals i revertir els biaixos de discriminació, segregació i exclusió que sovint aquestes tecnologies perpetuen. Les II Jornades DAR, celebrades el juny de 2023, van comptar amb la participació d’activistes i expertes d’arreu del món sobre el desplegament de la IA i les seves resistències.

En aquest article podeu veure el video del primer dia de les DAR (el segon dia eren tallers) i llegir un resum de les intervencions dels diferents panells. Algunes de les idees destacades que podreu llegir més en detall a sota són:

  • “La IA està començant a aplicar-se sobre els col·lectius més vulnerables però és una dinàmica que després ens arribarà a tots.” (Ismail El Majdou)
  • “Si les infraestructures més bàsiques que fan possible la IA es basen en un sistema racista, és impossible assolir IA feminista i antiracista.” (Ainhoa Nadia Douhaibi Arrazola)
  • “La raça i el racisme han estat elements constitutius de la pròpia existència de les infraestructures tecnològiques: des dels recursos naturals per configurar els hardwares i els cablejats fins a la ma d’obra per a la fabricació o els propis processos d’acumulació i classificacio de dades, en totes aquestes fases, el capitalisme racial està en el centre.” (Ainhoa Nadia Douhaibi Arrazola)
  • “La pregunta de la qual convé partir sempre no és “per què serveix una eina o aplicació d’IA” sinó “per a qui serveix.” (Carolina Matos)
  • “El ‘coneixement’ tal com el concebem actualment —científic, humanista, artístic— és una formació moderna colonial que neix en el moment d’expansió europea i que es funda a partir de l’ansietat per controlar i dominar: controlar els recursos naturals, les plantes, els animals i els humans.” (Anyeli Marin)
  • “La manera fonamental d’exercir un control sobre el bio humà va ser amb la implantació de la idea de raça, perfectament adient per a la dominació del nord global envers el sud global.” (Anyeli Marin)
  • “La tecnologia es pensa com a una solució que traurà a l’ésser humà la tasca de presa decisions a través d’un sistema molt més racional i net (perquè “la tecnologia —la tecnologia blanca, algorítmica, racional, matemàtica— no s’equivoca”) i precisament aquesta tecnologia reprodueix amb una violència encara més gran les categories de raça, de gènere i altres formes d’exclusió que esdevenen més dificils de combatre perquè estan automatitzades.” (Anyeli Marin)
  • “No està clar que tingui sentit parar tanta atenció als biaixos (el biaix algorítmic, el biaix de dades, el biaix de gènere…). És una discusió que distreu perquè en realitat estem anomenant biaixos a l’estructura i no podem lluitar contra l’estructura corregint biaxos.” (Anyeli Marin)
  • “Pensar que descolonitzar el coneixement implica incloure més veus, més llengües, més informació sobre els pobles exclosos, més informació sobre allò que encara no se sap… és una falsa il·lusió i molt errada. Perquè això en el fons és augmentar la racionalitat del nord global per tal que conegui allò que encara no coneix.” (Anyeli Marin)

II Jornades DAR. Democràcia, Algoritmes i Resistències
Data: dj-dv 01-02/06/2023
Hora: tardes 17.30 h- 20.30 h
Lloc: online (streaming) + Espacio Ecooo.
Adreça: c/ de la Escuedra, 11 (Madrid).
Organitzen: La Fede, Algorights i AlgoRace.
Web: https://jornadasdar.org/

Dijous 1/06/2023

Enregistrament del primer dia de les DAR 2023 amb les intervencions de Nina da Hora, Ismail El Majdoubi, Nadia Nadesan, Ivana Felderber, Ainhoa Nadia Douhaibi Arrazola, Paula Santamaría, Priscila Bellini, Carolina Matos, Anyely Marin, Patricia Horrillo, i de les moderadores Lucia Errandonea, Judith Membrives i Paula Guerra Cáceres.

17:30 – 17:40 Presentació de les II Jornadas DAR (vídeo minut 11:58)
Judith Membrives de Lafede.cat, Youssef Ouled i Paula Guerra Cáceres d’Algorace, Lucía Errandonea d’Algorights, presenten les jornades.

17:40 – 18:25 Sessió 1: Democratizar l’Intel·ligència Artificial mitjançant la participació de la societat civil (vídeo minut 17:34)
L’objectiu d’aquesta taula és mostrar pràctiques alternatives de regulació de la IA o d’altres tecnologies mitjançant la participació de la societat civil. Nina da Hora, hacker antiracista, científica i investigadora, explica processos i formes en les quals la societat civil brasilera està participant en la regulació de la IA i quins posicionaments i idees s’ha aconseguit transposar a l’agenda política.

Panelista principal: Nina da Hora (vídeo minut 20:00).
Panelistes: Ismail El Majdoubi (vídeo minut 35:25) y Nadia Nadesan (vídeo minut 43:15).
Moderadora: Lucia Errandonea d’Algorights.

  • Nina da Hora (vídeo minut 20:00): és una enginyera informàtica (Cientista da Computação), investigadora i hacker antiracista brasilera. És fundadora de l’Instituto da Hora, organització formada per dones negres i indígenes que té com a objectiu descentralitzar el coneixement científic i potenciar l’antiracisme. Web: ninadahora.dev. La seva intervenció se centra en una IA responsable, on es prioritzin l’ètica i la responsabilitat i que descentralitzi la mirada des de països occidentals i la focalitzi, en el seu cas, a Brasil i Amèrica Llatina. A partir d’aquí repassa una sèrie de principis clau i consideracions que caldria tenir en compte com són: justícia i eliminació de biaixos, explicació transparent de la presa de decisions i l’emissió de recomanacions, protecció de la privacitat i les dades i, finalment, l’assumpció de responsabilitats de desenvolupadors i organitzacions i la garantia de la solidesa i fiabilitat dels sistemes.
  • Ismail El Majdoubi (vídeo minut 35:25): és un activista defensor dels drets de la infància i la joventut migrant. Forma part del col·lectiu Exmenas i treballa com a mediador cultural a la Creu Roja. TW: @ismajdoubi. En la seva intervenció indica que la IA està començant a aplicar-se sobre els col·lectius més vulnerables però és una dinàmica que després ens arribarà a tots. En concret, a Europa, s’està aplicant sobre el control migratori per impedir que uns col·lectius no entrin a Europa. Com a exemple, podem destacar el projecte de Frontera Inteligente de Ceuta i Melilla, que està en procés de desenvolupament i que pretén aplicar funcionalitats “intel·ligents” per intensificar el control d’alguns permisos i, de ser necessari, crear un nou CIE de retenció de persones. Un altre cas és l’aplicació de màquines per determinar l’edat de les criatures que creuen la frontera, màquines de les quals no sabem quins criteris han estat establerts perquè decideixin una edat o altra.
  • Nadia Nadesan (vídeo minut 43:15): és una investigadora, autora i directora de projectes sobre governança i participació social en l’àmbit digital i de la IA. Treballa a la fundació Platoniq. Respecte a les pràctiques, en primer lloc destaca que hi ha hagut una mena de boom mundial en la creació de principis i guies per a l’ètica de la IA. El problema dels registres i els principis de IA és que no incideixen en com i perquè s’ha implementat la IA a les ciutats, en contextos determinats. L’elaboració de principis pot distreure de la creació d’estructures de governança materials i reals. En aquest sentit, altres iniciatives que considera més útils són, per exemple, les auditories o aquell moviment open knowledge que vol evitar el parasitisme de les empreses privades.

18:30 – 19:15 Sessió 2: Cap a un futur amb Algoritmes Feministes Antiracistes (vídeo minut 1:12:52)
L’objectiu d’aquesta sessió és debatre sobre què aporta la creació de tecnologia amb perspectiva de gènere i quin impacte té això en la consecució d’objectius de justícia de gènere. D’una banda, DataGénero, a través d’una curta explicació, transmet la seva mirada cap a la Intel·ligència Artificial Feminista i explica la seva experiència a través de la conceptualització i disseny d’un sistema d’Intel·ligència Artificial Feminista. La resta de panelistes aporten opinions i visions sobre quins canvis i impacte social podria tenir la tecnologia amb aquestes perspectives.

Panelista principal: Ivana Felderber (DataGenero) (vídeo minut 1:15:40).
Panelistes: Ainhoa Nadia Douhaibi Arrazola (vídeo minut 1:32:50) y Paula Santamaría (vídeo minut 1:27:34).
Moderadora: Judith Membrives de Lafede.cat.

  • Ivana Felderber (DataGénero) (vídeo minut 1:15:40): és una especialista en ciència de dades amb perspectiva de gènere, cofundadora i directora executiva de DataGénero, primer Observatori de Dades de Gènero d’Amèrica Llatina. La falta de dades al voltant de la violència de gènere és important i una de les fonts de dades sobre la mateixa són els fons administratius. En aquesta confluència de fets és on entra el projecte de IA en el que treballa DataGénero (datagenero.org): “Feminismos en IA”. Darrerament i en aquesta línia han iniciat un projecte amb el Jutjat número 10 de la ciutat de Buenos Aires (Juzgado Penal Contravencional y Faltas N° 10 Ciudad de Buenos Aires, TW: @jpcyf10) que fa anys que té una política de dades obertes: totes les sentències del jutge són anonimitzades i pujades a un espai obert [un Google Drive…]. No hi ha noms propis, ni llocs, ni marques de cotxes… Però sí les sentències. Des de DataGènero van crear AymurAI (aymurai.info), un software que recolecta, processa i posa a disposició dades sobre violència de gènere a partir de les sentències, de manera que les processa i estructura.
  • Paula Santamaría (vídeo minut 1:27:34): és una científica de dades que treballa desenvolupant models. A la seva intervenció explica que considera que mantenir un marc feminista i antiracista en el treball amb la IA és possible, però cal plantejar-ho sempre com un tema social. Hi ha dos mecanismes importants que destacaria: en primer lloc, fer explícit com treballen els models automatitzats, que el seu disseny i comportament sigui transparent; i, en segon lloc, que les persones que treballen amb models tinguin un posicionament ètic i que es facin responsables de la feina que fan.
  • Ainhoa Nadia Douhaibi Arrazola (vídeo minut 1:32:50): és professora associada de Sociologia de l’Exclusió a la UOC i tècnica de recerca a la UPF al projecte REACT sobre racisme institucional a les escoles. TW: @ainhoa_nadia. La seva intervenció fa una esmena a la totalitat del plantejament d’una IA en clau feminista i antiracista incidint en el fet que, si les infraestructures més bàsiques que fan possible la IA es basen en un sistema racista, és impossible assolir IA feminista i antiracista. Els estudis crítics de raça i de data ens indiquen que, si analitzem les infraestructures tecnològiques (no només el que fan o allò per al qual estan pensades a fer) des dels vessants més materials i ideològics, veiem que la raça i el racisme han estat elements constitutius de la seva pròpia existència: des dels recursos naturals per configurar els hardwares i els cablejats fins a la ma d’obra per a la fabricació o els propis processos d’acumulació i classificacio de dades, en totes aquestes fases, el capitalisme racial està en el centre. No es podrien desenvolupar sense una lògica racial en origen.

19:20 – 20:05 Sessió 3: Descolonitzar internet mitjançant el coneixement col·lectiu (vídeo minut 2:24:48)
L’objectiu d’aquesta sessió és reflexionar sobre les coordenades d’una internet amb perspectiva de coneixement obert i decolonial. Participen dues panelistes internacionals que, des d’una perspectiva global, expliquen els reptes i aprenentatges dels seus projectes als països del Sud Global per a fomentar les pràctiques feministes i decolonials a internet mitjançant el coneixement obert. A continuació, Patricia Horrillo explica l’experiència de generar coneixement col·lectiu en la xarxa i Anyely Marín introdueix les claus per a la descolonització del coneixement.

Panelistes principals: Priscila Bellini (vídeo minut 2:28:09) i Carolina Matos (vídeo minut 2:37:38).
Panelistes: Patricia Horrillo (vídeo minut 2:47:02) i Anyely Marin (vídeo minut 2:55:50).
Moderadora: Paula Guerra Cáceres de Algorace.

  • Priscila Bellini (vídeo minut 2:28:09): periodista, feminista i coordinadora de comunicació a Whose Knowledge? (whoseknowledge.org). A la seva intervenció destaca que, mentre el sud global representa la majoria de persones connectades en el món, per contra, la majoria del coneixement públic disponible a internet ha estat creat per homes blancs d’Europa i d’Amèrica del Nord, un context molt local que es projecta i considera global envers la resta del món. Des de Whose Knowledge? treballen amb les comunitats històricament marginades per revertir aquest fet que han etiquetat com a “injustícia de coneixement o epistèmica”. Entre les seves accions es troben el qüestionament de quines són les persones que creen coneixement a internet, què es considera coneixement i com es considera coneixement. El propi disseny de les plataformes o la representació lingüística a internet ja denoten aquestes injustícies del coneixement.
  • Carolina Matos (vídeo minut 2:37:38): gestora de projectes a Open Knowledge (okfn.org) i doctora en Història de l’Art per la Universidad Complutense de Madrid. A la seva intervenció destaca que la pregunta de la qual convé partir sempre no és “per què serveix una eina o aplicació d’IA” sinó “per a qui serveix”. Open Knowledge va néixer l’any 2003 i treballa en diferents propostes i projectes vinculats a la cultura i el coneixement lliures. Entre els seus projectes es troben, per exemple, la School of Data (schoolofdata.org), un projecte d’alfabetització digital de referència. Una de les tasques que han fet des dels origens a Open Knowledge és la de definir (i redefinir periòdicament) què s’entén per coneixement obert. En els darrers temps, els models de negoci de les grans tecnològiques de Sillicon Valley han fet moviments contraris al coneixement obert amb el cercament de la informació a través de l’extractivisme de dades, el colonialisme, les desigualtats, etc.
  • Patricia Horrillo (vídeo minut 2:47:02): periodista i fundadora de Wikisfera (wikiesfera.org). Respecte quin rol juguen les dones per fer una internet més democràtica, Horrillo considera que les dones tenim una relació amb internet molt vinculada al treball i els estudis, i que parteix gairebé sempre de la por. Des de l’àmbit femení, hi ha una falta d’atreviment i d’enfoc lúdic cap al mon digital molt clar. Hi ha tota una sèrie d’exigències que ens autoimposem les dones que cal desterrar, com la manca de coneixement o la manca de legitimitat. És des d’aquest enfoc des d’on treballa Wikisfera, una proposta per trencar la bretxa de gènere a Wikipèdia i donar visibilitat a les dones.
  • Anyely Marin (vídeo minut 2:55:50): és investigadora especialitzada en història de la ciència i docent a la UAB. Dinamitza espais de formació sobre metodologies decolonials, feminismes negres i estratègies antiracistes. Pel que fa a la descolonització del saber i la seva relació amb les tecnologies, Marin comença per especificar que el “coneixement” tal com el concebem actualment —científic, humanista, artístic— és una formació moderna colonial que neix en el moment d’expansió europea i que es funda a partir de l’ansietat per controlar i dominar: controlar els recursos naturals, les plantes, els animals i els humans. La manera fonamental d’exercir un control sobre el bio humà va ser amb la implantació de la idea de raça, perfectament adient per a la dominació del nord global envers el sud global. El coneixement científic i humanista està fundat sobre una idea racial de control dels blancs i sobre una idea de control i explotacio de plantes, animals, minerals i persones. Si repassem el naixement de qualsevol ciència, tots els naixements estan vinculats a un afany o ansietat de control, dominació, vigilància, hiperdissecció de cada aspecte de la naturalesa per a exercir un control sobre ella. En conseqüència, el que entenem com a coneixement i allò que se’ns ensenya i se’ns perpetua a secundària i a les universitats està travessat per aquestes dues idees de dominació/explotació i raça. Descolonitzar el coneixement és, per tant, un canvi radical del punt de vista: des d’on veiem allò que es coneix, qui coneix i per a què es coneix. Alhora, qualsevol principi descolonitzador és un principi elementalment violent ja que quan descolonitzem —quan tenim una aproximació diferent al coneixement, a la història o a qualsevol ciència— implica arrencar-nos les nostres creences com a subjectes moderns i implica anar als arrels de com veiem i creiem el món. La masculinitat, evidentment, és el lloc des d’on es funda qui té legitimitat per a explicar la història i està, per tant, en el centre d’aquesta construcció: descolonitzar és també una eina feminista. 
  • Quan es pensa en la tecnologia es pensa en ella com a una solució que per fi li traurà a l’ésser humà la tasca de presa decisions a través d’un sistema molt més racional i net, (perquè “la tecnologia —la tecnologia blanca, algorítmica, racional, matemàtica— no s’equivoca”) i precisament aquesta tecnologia reprodueix amb una violència encara més gran les categories de raça, de gènere i altres formes d’exclusió que esdevenen més dificils de combatre perquè estan automatitzades. Respecte a la relació entre tecnologia i coneixement, Anyeli destaca dues idees clau: en primer lloc, no està clar que tingui sentit parar tanta atenció als biaixos (el biaix algorítmic, el biaix de dades, el biaix de gènere…). És una discusió que distreu perquè en realitat estem anomenant biaixos a l’estructura i no podem lluitar contra l’estructura corregint biaixos. L’altra idea que destaca Anyeli és que pensar que descolonitzar el coneixement implica incloure més veus, més llengües, més informació sobre els pobles exclosos, més informació sobre allò que encara no se sap… és una falsa il·lusió i molt errada. Perquè això en el fons és augmentar la racionalitat del nord global per tal que conegui allò que encara no coneix. No està segura que sigui l’internet que volem: “Tenim dret a l’opacitat” diu Édouard Glissant, tenim el dret a què no se sàpiga tot de nosaltres com a pobles. La descolonització d’internet passaria, per tant, per una democratització de les eines i una democratització de les crítiques que es fan sobre les eines i que les col·lectivitats les usin com vulguin. Ampliar el coneixement a internet, incloure més noms, més mapes… donar més senyals d’allò que encara no sap és entrar i alimentar la racionalitat capitalista i no està clar que sigui una eina que ens serveixi.

Divendres 2/06/2023

17:30 Benvinguda
Judith Membrives de Lafede.cat, Youssef Ouled i Paula Guerra Cáceres d’Algorace, Lucia Errandonea i Thais Ruiz de Alda d’Algorights, presenten els tallers de les Jornades.

17:45 Workshops presencials simultanis

WORKSHOP 1: Descolonitzant internet a través de la Wikipedia
Anyely Marin i Patricia Horrillo

L’objectiu de la sessió era fomentar la reflexió sobre la necessitat de visibilitzar la perspectiva oberta, intercultural i multisabers en la creació de tecnologia i coneixement, mitjançant un exercici pràctic consistent en la revisió i edició de continguts de la Wikipèdia amb la finalitat de descolonitzar una de les fonts de dades i informació més rellevants d’internet. La idea és que les assistents no sols aprenguin a editar la Wikipèdia, sinó també a descolonitzar-la.

WORKSHOP 2: Violencias machistas y datos para visibilizarlas
Paula Santamaría i Ainhoa Nadia Douhaibi Arrazola

El taller consistia a un mapatge de tipologia de dades per a entendre la violència masclista sexual, quines dades es recullen actualment i quines dades haurien d’estar recollides en les denúncies i/o sentències, quins elements racistes i masclistes existeixen en la recol·lecció i processament de dades, i quins aspectes haurien de tenir en compte les institucions per a visibilitzar i activar polítiques preventives.

WORKSHOP 3: Consejo ciudadano de Inteligencia Artificial
Nadia Nadesan

A partir de la simulació d’un consell ciutadà, les persones assistents analitzaven les diferents afectacions que la Intel·ligència Artificial de reconeixement facial genera quant a drets fonamentals com el dret a la intimitat, privacitat o l’anonimat. Les persones assistents simulaven un debat parlamentari on es presentaven les seves conclusions sobre com haurien d’interpretar-se les normes per a tenir un enfocament centrat en els drets de les comunitats afectades.

Lafede.cat és una associació de 124 organitzacions federades vinculades a la defensa dels drets humans, el desenvolupament i la pau.

Algorights és una xarxa col·laborativa que promou la participació de la societat civil en l’àmbit de les tecnologies de la IA amb un enfocament centrat en els Drets Humans.

AlgoRace és un col·lectiu i espai d’anàlisi i propostes sobre l’impacte de la IA en les poblacions racialitzades.