La FEC ha celebrat la segona sessió del cicle de webinars “Fòrum d’Economia i Societat: Cinc desafiaments fonamentals en el món d’avui i de demà”. Aquest dimarts a la tarda ha estat el torn de Gemma Galdon, sòcia fundadora d’Eticas Research & Consulting, que ha fet la conferència “Societat digital, privacitat i ètica”. Galdon és experta en l’impacte social, legal i ètic de la tecnologia i especialment en les qüestions de la vigilància i el control, i ha parlat sobre com podem regular les activitats de les grans corporacions tecnològiques per limitar el seu poder i recuperar el control de la informació.

Aquesta analista ha començat plantejant que hi ha moltes disfuncions amb com fem servir la tecnologia actualment. Segons ella, “la societat digital ens ha canviat moltes coses, la forma com treballem, com ens relacionem, com ens informem, com fem notícies i com les expliquem i, també, com ens enamorem”. Però, segons ella, el repte que tenim ara és veure si estem millor o pitjor: “Venim d’una generació que hem sigut un punt naifs amb la tecnologia, hem tendit a abraçar-la de forma acrítica i ens hem de plantejar que els impactes d’aquestes tecnologies no sempre són impactes positius. El repte que tenim és inventar les eines que reconcilien la innovació amb les dinàmiques humanes i els processos democràtics”.

L’avenç en la intel·ligència artificial

La primera part de la sessió ha estat destinada a parlar del moment tecnològic actual. Segons Galdon, “a vegades pensem més en desenvolupaments futurs, que no en coses properes. Sobrevalorem l’impacte a llarg termini i subestimem l’impacte a curt termini que és el que està generant danys o afecta a dinàmiques socials”. El fet més destacat d’aquest moment actual és l’avenç en determinades tècniques d’intel·ligència artificial: “Hem avançat bastant perquè els algoritmes pensin per si mateixos. Durant molts anys, hem multiplicat per molt la capacitat de processament i hem multiplicat per molt els imputs de dades que la societat genera. Ara, ens ha entrat de forma evident la intel·ligència artificial”. Gemma Galdon ha explicat que “la intel·ligència artificial no és un camp nou per la humanitat, però el què és nou és que aquesta intel·ligència artificial aprengui de forma autònoma. Això ens dona moltes oportunitats noves”. També, ha posat sobre la taula la biometria, que està desenvolupant noves manera d’identificar-se.

Però, davant d’aquestes solucions, “hem de pensar si estem millors com a societat”, s’ha preguntat. I ha respost: “Des de l’ètica digital forcem la pregunta de com avaluarem l’impacte de les tecnologies, a qui afecte i com. Hem descobert que la privacitat era un dret que tots teníem –està a totes les Constitucions dels estats moderns–, però que amb les noves tecnologies hi ha espais de la nostra vida que es poden veure afectats”. La privacitat no és important per ella mateixa, sinó que actua com un dret que dona accés a altres drets. “On queda el dret al desenvolupament de l’autonomia personal quan tothom pot accedir a qui eres en el passat i no controles qui hi pot accedir?”, s’ha preguntat.

Segons ella, també veiem infracció de drets en relació a la llibertat d’expressió, associació i manifestació. “Quan saps que qualsevol acte pot ser gravat, fins a quin punt exerceixes en llibertat els teus drets? La possibilitat de registrar-ho absolutament tot també canvia com exercim el dret a la seguretat pública”, ha reflexionat. El mateix passa amb la no discriminació. I ha afirmat: “En el món offline tenim el dret a no ser discriminats per qüestions físiques, religioses, etc. Però, quan els algoritmes aprenen a discriminar-nos, fins a quin punt estem protegits? Estem veient un cert desencaix entre els nous escenaris i la capacitat d’influència del marc offline que tenim”.

Segons Galdon, quan defensem privacitat, ja no només hem de pensar en la privacitat de les comunicacions, sinó en la privacitat dels desitjos, els pensaments o les opinions. “El dret a la privacitat es fa molt més ampli, però també es fa molt més profund. Gestionar la privacitat vol dir també gestionar la nostra identitat. I la tecnologia fa el contrari, fixa identitats. La tecnologia ens categoritza de forma constant”, ha exposat.

Usos poc ètics de la tecnologia

En la segona part de la sessió, Galdon ha entrat als usos poc ètics de la tecnologia. “El desenvolupament tecnològic té conseqüències molt concretes i molt tangibles que no estem abordant de forma eficaç”, ha dit. El cas més clar d’ús poc ètic de la tecnologia és el de Cambridge Analytica, que a partir de dades personals venia serveis a partits polítics per a crear missatges orientats a determinats públics. Gemma Galdon també ha posat altres exemples d’ús irresponsable de la tecnologia, del disseny dels algoritmes, tant en el sector de la banca, l’automoció o el sanitari. “Estem en mig d’un moment d’innovació tecnològica molt evident, però és una innovació que porta moltes disfuncions. Una innovació tecnològica de molt mala qualitat, que busca el benefici immediat enlloc de solucionar problemes i que es relaciona amb una societat que no coneix prou bé la tecnologia”, ha matisat.

Galdon ha exposat: “També estem en un món on tothom vol escalar molt ràpid en aquest sector, tothom vol ser el nou Google, però ningú pensa en altres espais de creixement on es poden vendre productes més pausats, més costumitzats que són necessaris en àmbits com el sector bancari, administració pública o sanitari. Hi ha incentius que maten la innovació responsable”. “Tenim unes bases de dades provinents d’una societat masclista, racista i que discrimina el diferent i, per tant, aquestes dades incorporades als algoritmes reprodueixen aquests patrons. Però, els algoritmes es poden auditar”, ha reblat la sòcia d’Eticas Research & Consulting. “Les dades de base condemnen els grups vulnerables, i tenim una societat que no té les eines legals ni de consciència col·lectiva per fer preguntes que obliguin a aquest sector a enfrontar-se amb el seu impacte social. Tenim una tempesta perfecte i terrible on impera la tecnologia poc responsable”, s’ha exclamat.

Hi ha esperança per un ús responsable de la tecnologia

El debat, però, comença a canviar. Segons aquesta analista, “a Europa hem tingut el debat sobre com rastrejar els contactes de la COVID-19, que malgrat no ser una història d’èxits, tampoc es pot considerar un fracàs, i veiem equips multidisciplinaris d’enginyers que abandonen el tecnosolucionisme”. No obstant i això, “la dinàmica continua sent la de Silicon Valley, la del move fast and break things”. Però, “quan els algoritmes fallen, i estan decidint el número que tenim a la cua d’emergències o si rebem (o no) una prestació d’atur, no fa gràcia. I això està passant, també a Espanya. A Espanya el risc de les dones maltractades també l’assigna un algoritme que no ha estat auditat. I alguns d’aquesta algoritmes obliden el principi de precaució”.

El que veurem en els propers mesos i anys, segons aquesta analista, serà una cascada de decisions dels tribunals que il·legalitzen desenvolupaments tecnològics. A Europa no pots tenir algoritmes no auditats, no poden prendre decisions sols i sempre hi ha d’haver una persona humana que ho validi o, també, a Europa perquè es facin servir les teves dades hi ha d’haver consentiment. “Tenim un marc legal que ens protegeix. Estem en un moment molt anòmal de transició, però en el futur els nostres drets es respectaran”, ha acabat dient de forma optimista. A més a més, va donar una recomanació a tothom qui vol protegir la seva identitat quan usa la tecnologia: s’ha de saber enganyar i “jugar amb les màquines”, és a dir, saber fins a quin punt les dades que hem de donar a les aplicacions o serveis han de ser veritables o ens les podem inventar per evitar que els algoritmes les puguin creuar per crear perfils.

La propera sessió del cicle de webinars serà el proper amb Félix Ovejero, professor d’Ètica i Economia a la Universitat de Barcelona, escriptor i articulista. Aquest professor analitzarà, el 10 de març a les 18h, les patologies de la democràcia i explorarà algunes propostes plantejades per evitar la degeneració de les institucions centrals de l’organització política.