El desafiament d'una IA inclusiva: educació per eliminar biaixos

Notícies

Les dades estan a tot arreu. Juguen un paper visible (i invisible) en cadascuna de les decisions que influeixen a les nostres vides: des de la ubicació d'una parada de bus, les compres en línia, el disseny dels productes que consumim, les xarxes socials i l'atenció mèdica.

Darrere de cada dada, hi ha una societat desigual. El protagonisme creixent de les dades a les nostres vides ens obliga a qüestionar el seu principi d'objectivitat i analitzar quins desafiaments tenim perquè la IA no reprodueixi les desigualtats socials existents a través dels biaixos. Un dels grans reptes és preparar noves generacions per tal que puguin crear, transformar i utilitzar aquestes tecnologies de manera més inclusiva. El gran repte, doncs, és educatiu.

On són les dades a la nostra vida?

A l'era digital en què vivim, les dades són presents en pràcticament tots els aspectes de la nostra quotidianitat. Des dels softwares i la intel·ligència artificial fins al disseny de la roba o els automòbils, la ciència de dades juga un paper fonamental en la recopilació, anàlisi i aplicació de la informació que generem constantment. L'avenç de la tecnologia ha portat a l'expansió i la consolidació de la ciència de dades com un camp de batalla, on s'extreu informació, s'analitza i es prenen decisions informades a partir d'aquestes dades.

La ciència de dades fa servir mètodes estadístics i algorismes per analitzar grans volums d'informació i trobar patrons, tendències i correlacions. Això ha permès avenços significatius en diverses àrees, com ara la medicina, el comerç, la investigació científica i la presa de decisions polítiques. Fent servir el poder de les dades, les empreses, institucions, i entitats poden obtenir una comprensió més profunda dels comportaments i les necessitats de les persones, cosa que alhora pot impulsar el desenvolupament de productes i serveis més adaptats als seus usuaris.

El desenvolupament i consolidació de la ciència de dades té la potencialitat de millorar la qualitat de vida de les societats a partir de polítiques adreçades a la justícia social i de descobriments científics de rellevància.

Però amb aquesta consolidació de la ciència de dades, també arriba la seva revisió i qüestionament. Investigadors assenyalen que, així com la ciència de dades ofereix noves oportunitats que involucren l'individu de manera positiva, també en permet la manipulació i el control a gran escala, a través d'eines de vigilància i monitoratge.

El desenvolupament i consolidació de la ciència de dades té la potencialitat de millorar la qualitat de vida de les societats a partir de polítiques adreçades a la justícia social i de descobriments científics de rellevància; en la mesura que les metodologies i usos estiguin orientades per premisses ètiques i epistemològiques.

No obstant això, les dades són producte de la societat desigual en què vivim, i per tant poden estar esbiaixades des del moment de la seva recol·lecció. Això s'explica perquè les dades sovint estan recopilades tenint en compte una població específica, i deixant de banda minories o grups històricament discriminats. És així com prenen protagonisme els biaixos i la continuïtat de desenvolupament d'una ciència desigual.

Vivim en una societat esbiaixada?

El concepte "biaix" prové de l'estadística i fa referència a “errors sistemàtics que distorsionen les dades o les anàlisis efectuades sobre elles.” Aquests no sempre es generen de manera conscient, sinó que s’entenen alguns supòsits com a veritats que transmeten neutralitat.

Els biaixos es produeixen perquè les dades es generen en el context d'una societat que està estructurada al voltant de les desigualtats de gènere, classe o raça. Això implica que, sovint, es desenvolupa coneixement científic aparentment objectiu, però en realitat basat en universalitats (home, blanc, etc.) on els biaixos passen per naturals. Desenvolupar el coneixement sota característiques que semblen universals, però no ho són, provoca grans conseqüències per a les minories i grups estructuralment discriminats, sobretot quan es considera l'home blanc com el model universal. A més, la gravetat del problema es fa més evident tenint en compte que les produccions de la ciència de dades desemboquen en grans decisions com per exemple; polítiques públiques, lleis o selecció de personal.

Malauradament, doncs, malgrat els beneficis que la ciència de dades pot oferir, vivim en una societat esbiaixada. Els biaixos, tant conscients com inconscients, estan arrelats a les nostres estructures socials i culturals, i es reflecteixen en les dades que generem i utilitzem. Aquests biaixos poden perpetuar la discriminació i la desigualtat en diversos àmbits, com ara la contractació laboral, l'accés a serveis financers i la justícia penal.

Els biaixos, tant conscients com inconscients, estan arrelats a les nostres estructures socials i culturals, i es reflecteixen en les dades que generem i utilitzem.

Per exemplificar des de la quotidianitat*, un algorisme esbiaixat és utilitzat a la majoria dels sistemes de reconeixement facial, que sovint tenen un rendiment deficient en persones racialitzades o en dones. Això es deu al fet que els conjunts de dades utilitzades per entrenar aquests algorismes són datasets esbiaixats en termes de raça i gènere, la qual cosa comporta resultats inexactes i discriminatoris.

*Criado Perez, C. (2019). La mujer invisible. Descubre como los datos configuran un hecho por y para los hombres. 

Com construir una IA sense biaixos: Feminisme de dades

El feminisme de dades es desenvolupa amb una mirada crítica a la realització de la ciència de dades, considerant que les seves metodologies i efectes repercuteixen negativament i encara més sobre dones i altres col·lectius, més enllà que tingui la potencialitat de produir coneixements per a la reducció de les desigualtats.

El feminisme de dades busca contribuir al fet que la ciència sigui un mitjà més per al desenvolupament inclusiu de les persones dins la societat. Analitza qüestions com ara el biaix de gènere, les formes d'exclusió en la producció del coneixement per a les dones i les diversitats i les bretxes de dades de gènere.

El feminisme de dades busca contribuir al fet que la ciència sigui un mitjà més per al desenvolupament inclusiu de les persones dins la societat.

Des dels postulats crítics neixen les apostes al canvi; és essencial comptar amb una visió interracial i amb perspectiva de gènere dins el procés de desenvolupament de la IA. Això significa involucrar persones de diferents orígens i perspectives en la presa de decisions i en la configuració dels sistemes d'intel·ligència artificial, ja que la diversitat a l'equip de desenvolupament pot ajudar a identificar i abordar biaixos que altrament podrien passar desapercebuts. D'aquesta manera, un possible repte per assolir la igualtat seria crear datasets inclusius i representatius de les societats.

Hi ha exemples de bones pràctiques en la construcció d'IA sense biaixos. Algunes companyies han implementat mesures per eliminar biaixos en els seus algorismes de contractació, utilitzant tècniques com la “desidentificació” de dades i la revisió constant del rendiment de l'algorisme per assegurar-se que no hi hagi biaixos perjudicials.

La construcció d'una intel·ligència artificial sense biaixos, doncs, és un repte complex però possible d'abordar. Per aconseguir-ho, és fonamental tenir en compte els biaixos existents a les dades i els algoritmes utilitzats en el procés de desenvolupament de la IA. Construir una IA sense biaixos implica un abordatge interdisciplinari, estructural i que posi èmfasi en les noves generacions, per tant, en l'educació.

Desafiament principal: l'educació

Un dels reptes principals per construir una ciència de dades igualitària i sense biaixos rau en l'educació. És fonamental promoure la participació activa d’alguns grups socials poc representats, com ara les dones i les minories, en els programes educatius del camp de la ciència de dades.

És essencial ensenyar als estudiants a identificar i abordar biaixos en els conjunts de dades, a considerar les implicacions socials i ètiques de les seves decisions. 

Segons la UNESCO, només el 29,3% de les persones que investiguen al món són dones i a les àrees d'enginyeria i informàtica el percentatge és menor. Aquestes dades tenen correlació amb les matrícules d'estudiants femenines als estudis superiors arreu del món: en carreres TIC només un 3% són dones, en matemàtiques i estadística només un 5% i en enginyeria un 8%.

Avui en dia, l'educació en ciència de dades necessita centrar-se en l'eliminació de biaixos i en com utilitzar la tecnologia de manera responsable i ètica. Això implica ensenyar als estudiants a identificar i abordar biaixos en els conjunts de dades, a considerar les implicacions socials i ètiques de les seves decisions i a dissenyar sistemes que siguin inclusius i equitatius. També implica el repte d'implementar la IA com a eina del sistema educatiu des d'un ús crític i això demana la complicitat de tota la comunitat educativa.

Cal fomentar una educació igualitària, on formem futures persones professionals que estiguin preparades per construir sistemes i aplicacions que promoguin la igualtat a la nostra societat.

És essencial ser conscients i crítics del nostre consum d'IA, ser capaços d'identificar-ne els biaixos. Aconseguir-ho implica fomentar una educació igualitària, on formem futures persones professionals que estiguin preparades per construir sistemes i aplicacions que promoguin la igualtat a la nostra societat.

Per parlar d'equitat digital hem de parlar sense biaixos i amb feminisme de dades. No hi ha equitat digital sense la inclusió de totes les persones.

Referències i recomanacions

Per saber-ne més:

  • Reviu l’Exploratori “IA, Com aprenem sense biaixos?” del Laboratori d’Oportunitats Educatives per l’EquitatDigital
    que va tenir lloc el passat 28 de juny de 2023. Pots escoltar totes les ponències i debats al vídeo resum.

Utilitzem cookies pròpies i de tercers per millorar la informació que es fa pública al nostre lloc web i recopilar informació estadística. Si es continua navegant, considereu que s’accepta el seu ús. Podeu canviar la configuració i obtenir més informació aquí.

Acceptar