Code Bias, els biaxos del codi

2021-08-18

"Code Bias" és un documental de Shalini Kantayya que tracta els biaixos algorítmics de la intel·ligència artificial actual. En ell hi participen, entre altres, Joy Buolamwini, Deborah Raji, Meredith Broussard, Cathy O’Neil, Zeynep Tufekci, Safiya Noble, Timnit Gebru, Virginia Eubanks i Silkie Carlo.

El film es va projectar al Festival de Sundance al gener del 2020.

Code Bias a la Wikipedia
Pàgina web de Code Bias

La dona invisible

La Joy Buolamwini està doctorant-se al Media Lab del MIT. En un experiment artístic, idea el "Aspire Mirror", un mirall inspiracional on mirar-se al matí quan es llevés. Però, quan es posa a provar la tecnologia, la intel·ligència artificial (IA) passa literalment de la seva cara... Primer, la Joy pensa que és cosa de la il·luminació de la sala, però després, al posar-se una màscara blanca, descobreix que la tecnologia funciona, però parcialment. Al ser negra, la IA no la reconeix.

És llavors quan comença a interessar-se pels biaixos de les IA actuals. Resulta que els algoritmes, creats majoritàriament per homes blancs, s'entrenen molt més amb cares d'homes blancs que amb cares d'altres identitats ètniques i de gènere. I això, evidentment, té conseqüències. "Data is destiny" (Les dades són el destí), diu la Joy. I per això va crear la Algorithms Justice League (AJL), la lliga de la justícia algorítmica.

Per comprovar com d'estés era el biaix, va provar les tecnologies de IBM, Microsoft, Face ++, Kairos i Google. Tots acerten més les cares si són homes, i si són blanques. Només IBM la convidar a visitar el seu xiringu i van fer millores al bitxo...

Al 2018, juntament amb Timnit Gebru, fan un estudi i, a principis del 2019, escriuen un article al New York Times titulat "Amazon Is Pushing Facial Technology That a Study Says Could Be Biased" (Un estudi alerta que la tecnologia facial impulsada per Amazon podria estar esbiaixada). Amazon intenta desacreditar les investigadores. Al maig de 2019, la Joy, juntament amb altres entitats i advocats, aconsegueixen una audiència pública per evidenciar la problemàtica.

Els referents

Meredith Broussard és autora del llibre "Artificial Unintelligence: How Computers Misunderstand the World" (Desintel·ligència artificial: com els ordinadors han malinterpretat el món), del 2018.

Comenta que la ciència ficció de Hollywood ha donat forma a un imaginari poc acurat. Tenim referents en el HAL de 2001, els replicants de Blade Runner, i robots diversos des de la "Maria" de Metròpolis fins a Terminator, passant pel Robby de Forbidden Planet, l'Spock d'Star Treck o el C3PO de la Guerra de les galàxies. Però, segons l'autora, una "IA estreta" es limita a les matemàtiques.

Al 1956 es comencen experiments en IA al departament de mates de Dartmouth, als Estats Units. Tot homes blancs. Aquests homes, defineixen intel·ligència com a jugar a escacs. Però més enllà de l'habilitat de guanyar a aquests jocs, hi ha altres formes d'intel·ligència, com l'emocional. La cosa és que, si hi ha poques persones que controlen la tecnologia, doncs hi aporten els seus biaixos. Amb les dades entrenem les màquines que reprodueixen patrons i ampliquen els biaixos ja existents.

Les mates com a armes

La Cathy O'Neil és matemàtica i al 2016 va publicar el llibre "Weapons of math destruction" (Armes de destrucció matemàtica).

Cap al 2006 treballava a Wall Street però ho va acabar deixant. Només hi trobava gent poderosa puntuant persones sense poder, decidint què mereixen. Segons ella, els algoritmes tracten d'usar informació històrica per fer prediccions sobre el futur. I el "Machine Learning" (o aprenentatge de la màquina) és un sistema de puntuació que calcula la probabilitat del que faràs. Pagaràs el préstec? Et faran fora de la feina?

Sobretot, és una problemàtica d'asimetria de poder. Qui té la propietat del codi? No hi ha regulació ni, per tant, responsabilitat. Se'ns ven autonomia i llibertat però hi ha una evident vigilància amb les càmeres del carrer i una vigilància més subtil a través de les tecnologies digitals instal·lades als nostres dispositius. Amb IA s'automatitza la desigualtat que, a sobre, es normalitza.

Ja és 1984

La Silkie Carlo és activista i participa a la Big Brother Watch UK. Des de l'entitat, vigilen els vigilants.

Resulta que al Regne Unit hi ha sis milions de càmeres i les coincidències de les tecnologies de reconeixement facial són 98% incorrectes, és a dir, que s'identifica a algú que no és qui es busca.

Des de la Big Brother Watch UK, alerten a la ciutadania. A Londres, hi ha una furgoneta verda amb càmeres de reconeixement facial i, de tant en tant, la poli para a gent. Si algú es tapa la cara davant de la càmera, es permeten el luxe de multar al vianant... Paren menors i els acolloneixen, i després: "Ai, ens hem equivocat. Circulen". Al documental, fins i tot un poli reconeix que el programari no és acurat.

La nostra cara és info biomètrica i està a l'alçada de l'empremta digital o l'ADN. I és un abús de poder experimentar aquestes tecnologies no auditables.

Alimentar o destruir el monstre

Zeynep Tufekci és autora de "Twitter and Tear gas" (Twitter i el gas lacrimògen).

Comenta la Zeynep que hi ha dues maneres de programar les màquines. Fins ara, els hi havíem dit el que havien de fer a través d'instruccions de programació fetes per persones humanes. No és que no hi haguéssin idees per les IA, el que no hi havia era quantitats massives de dades.

Amb l'arribada de les tecnologies digitals com els ordinadors, els telèfons i Internet, doncs és el festival de les dades... I ara sí que es pot programar fer altrament. Ara, es mesclen algoritmes amb quantitats massives de dades esperant un objectiu. I quan l'objectiu és guanyar diners, apareixen nous mals socials, com les notícies falses...

Les màquines classifiquen la informació, i això ho fan molt bé. Però el món és més que mates esbiaixades. Aquests algoritmes d'avui dia, fan errors que no entenem i, com és una caixa negra, ni tan sols les persones que els posen en marxa entenen els perquès de les seves decisions.

Això sí, sempre hi ha qui se les empesca per desestabilitzar abusos de poder. A les protestes de Hong Kong, per exemple, es van projectar làsers per estabornir les càmeres, la gent portava màscares, gorres, maquillatge, es feien servir paraigues, sprays i, de tant en tant, alguna càmera queia en combat.

Els líders de la IA

Amy Webb és futurista i autora de "The Big Nine". Segons explica, hi ha nou empreses que estan definint el futur de la IA. Sis són d'Estats Units (Google, Apple, Facebook, Amazon, Microsoft i IBM), i tres, xineses (Alibaba, Tencent, Baidu). "Cágate lorito", el panorama :_)

Als Estats Units són empreses privades les que creen, apliquen i es benefien econòmicament de les IA que tenen. I s'usen de forma opaca i a voluntat perquè no hi ha cap legislació que ho reguli.

La gent de Microsoft, per exemple, van desenvolupar la Tay, una IA que van deixar anar a Twitter i, en 16h, la van haver de retirar. De les interaccions amb els tuiterus, la Tay va arribar a conclusions com que les dones eren éssers inferiors, que odiava els jueus i que, és clar, Hitler no va fer res dolent. Un espectacle lamentable.

A la Xina és el propi govern que desenvolupa les tecnologies i qui, és clar, també se'n beneficia. Però hi ha qui ho veu com a un sacrifici personal per l'ordre social. Això sí, no se n'amaguen, és un crèdit sòcial explícit i tothom sap que és espiat. Tot va amb reconeixement facial: pagar qualsevol cosa, agafar un tren o un llibre de la biblio, entrar a casa o a la feina...

I si fas alguna cosa que treu punts doncs et pots quedar sense poder agafar un tren, per exemple. O pitjor, corres el risc que hi hagi gent que no es vulgui relacionar amb tu perquè tens baixa puntuació. Per qui hagi vist el capítol Nosedive de Black Mirror, doncs remarcar que la realitat sempre supera la ficció...