David Casacuberta: “El primer manament de l’usuari d’internet és no escampar les mentides”
A les persones ens mouen les emocions, però el món està cada cop més guiat per algoritmes, els programes que aprofiten els milions de rastres que deixem cada dia a la xarxa per buscar patrons de comportament i treure’n conclusions: escolta aquesta cançó (Spotify), mira aquesta sèrie (Netflix) o llegeix aquesta novel·la romàntica (Amazon). David Casacuberta (Barcelona, 1967) es dedica a la recerca de les implicacions socials, culturals i cognitives de les tecnologies digitals. Va ser convidat pel professor Daniel Gamper al Diàleg de Pedralbes dedicat a parlar de com esdevenir un ciutadà lliure a la xarxa i de l’ús dels algoritmes com a eines polítiques. De la política vam passar a la vida i a com l’algoritme ens pot denegar un crèdit, un llit a l’UCI o l’entrada a un país si els reguladors públics no es prenen molt seriosament la tendència al que el ponent anomena “solucionisme tecnològic”.
Què és un algoritme?
Un algoritme és un llistat d’instruccions precises escrites en un llenguatge matemàtic que ha d’executar un programa. Per exemple, darrere el Word, que ens permet escriure, hi ha un algoritme. Però quan avui parlem d’algoritme ens solem referir a un programa que analitza milions de dades, en treu uns patrons, busca semblances i fa prediccions. Amazon recull informació sobre milions de compres de llibres i per això un dia reps un missatge que et fa dir “com ho sap que m’interessa aquest llibre?” Això ho fa un algoritme que anomenem d’aprenentatge automàtic.
O sigui que les màquines aprenen.
Sí, tot i que les màquines no tenen un sistema conceptual que els permeti entendre què estan fent. Una màquina de reconeixement facial no sap què és un nas, ni una boca, ni un pentinat. Simplement, rep molts píxels i busca semblances. Per això, si els píxels tenen una petita distorsió, el programa et deixa de reconèixer. Hi ha uns adhesius que et pots posar enganxats al front i la càmera ja no et reconeix perquè distorsionen l’algoritme. En canvi, si jo em posés un adhesiu al front, tu em reconeixeries igual perquè el teu coneixement sobre cares és el d’un humà, que pot veure que avui tinc la barba més llarga que l’altre dia, per exemple. I això no és banal: si resulta que un dia decideixo arreglar-me la barba igual com la d’un terrorista en una base de dades, totes les alarmes dels aeroports podrien detectar-me com a terrorista. I no seria gaire agradable.
O sigui, fem servir una aplicació com si fos una eina, però l’aplicació també ens fa servir a nosaltres, perquè aprèn pel que li demanem.
Ni més ni menys. El CEO de Netflix va dir que el seu competidor no són la HBO ni Filmin, sinó Fortnite, perquè l’estona que estàs jugant al Fortnite no estàs veient les seves sèries. I quan estàs amb ells, els dones informació sobre quina sèrie funciona. Vivim en un capitalisme de dades que està organitzat a partir d’explotar la nostra atenció. Quan deixes d’estar en una xarxa, la xarxa perd diners.
Doncs el meu mòbil em diu un cop a la setmana si he estat més o menys temps connectat a la màquina.
Això ho fa Apple perquè el seu negoci és vendre màquines, no les dades. Google no et dirà que has estat massa estona buscant a Google. Apple et diu que no són com aquella tropa que volen saber-ho tot de tu. La política d’Apple és que no t’amoïnis, que les teves dades estan segures amb ells.
Total, que estem molt exposats.
Sí. Quan dius accepto en una pàgina, poden registrar no només el que fem allà sinó en altres pàgines, l’estona, la interacció, etcètera. Això crea perfils genèrics per fer anuncis, i hi ha tot un mercat underground de bases de dades que es poden revendre a una asseguradora, per exemple, que pot utilitzar el que se sap de nosaltres per decidir si som de risc amb el nostre comportament. Això està passant.
I ens hem de preocupar.
El que cal és actuar com a subjectes polítics i demanar moratòries d’usos indiscriminats d’informació de les xarxes. Per exemple, hi ha un programa de reconeixement facial destinat a detectar comportaments perillosos a partir de la roba o els trets facials, i això és una combinació terrible que ens acosta al racisme. Hi ha un software que s’està utilitzant als jutjats dels Estats Units per decidir si una persona pot sortir sota fiança o s’ha de quedar en presó preventiva. El programa rep una fitxa policial i fa una recomanació del perill de reincidència d’aquella persona de l’1 al 10. Doncs una revista d’investigació política va descobrir que aquesta categoria estava molt esbiaixada a favor dels blancs, perquè la màquina estava alimentada amb decisions judicials d’un país on els jutges fiquen a la presó més persones negres que no pas blanques. L’algoritme aprèn el que li dones, i si el que li dones és racista, et tornarà una cosa racista. O els algoritmes per decidir qui està més qualificat per fer una feina, que tendeixen a afavorir els homes i no les dones a l’alta direcció. La raó és la mateixa: hi ha menys dones que homes i l’algoritme ho recomana.
I si la màquina té el mateix biaix que el jutge, el veredicte no canviarà.
Però el jutge i el policia poden parlar i demanar-se explicacions. En canvi, l’algoritme no parla, diu: “Probabilitat de criminalitat: 90%”, i no ho podem discutir, perquè els algoritmes venen tancats, són secrets perquè no els copiï la competència. El perill és l’obsessió per automatitzar-ho tot, per aquesta suposada eficiència, alimentada perquè una màquina estalvia sous de treballadors. Creure que els algoritmes són objectius perquè són matemàtics és una fantasia. Els algoritmes seran tan objectius com la informació que hi introduïm. I no oblidem que si la màquina que juga a escacs no entén què són els escacs, imaginem-nos decidir sobre el món humà, amb la seva complexitat. Vas al banc a demanar un crèdit i l’algoritme diu que no, perquè diu que no el tornaràs.
L’algoritme passa al davant del director de l’oficina, que és qui et coneix.
Sí, i el que ha fet la màquina és comparar la teva història amb històries de persones que s’assemblen a tu. I si vius en un barri on el 70% no tornarà el crèdit? Per això la Unió Europea està demanant que els algoritmes generin explicacions. Ara estic en un projecte de recerca sobre els algoritmes en un hospital. Imagina’t una emergència, al programa li passen l’historial clínic del malalt i la màquina decideix si està en condicions o no per anar a l’UCI, si serà viable. Compte amb aquests usos.
I els algoritmes en política?
Si entres a Facebook i vas dient que això m’agrada i això no m’agrada, la màquina genera un perfil i només t’enviarà coses que t’agradin, i pots acabar pensant que tothom pensa com tu. I això crea una bombolla ideològica. Molta gent no va entendre que guanyés Trump perquè a Facebook o a Twitter tothom deia que Trump era un sonat que no guanyaria mai. I si els diaris s’alimenten del que es diu a les xarxes es potencia aquest efecte bombolla, que és problemàtic per a la democràcia. Hi ha un fenomen general que és la cursa cap al que és més bàsic perquè és el que té més “M’agrada”. I per això el que apareix és cada cop més cridaner. I després hi ha estratègies.
Quines?
Una típica de l’extrema dreta europea per arribar a un públic d’esquerres és dir una cosa provocativa. Llavors tota la gent d’esquerres s’enfada i ho reenvia: “Mireu aquests fatxes el que estan dient!” Resultat: persones que mai havien rebut directament el missatge de l’extrema dreta el poden rebre. Allò de “la teva àvia 400 euros, un mena 4.000 euros” ja ho explicava George Lakoff. Tu al final no et quedes amb l’aclariment que aquella xifra és falsa, et quedes amb la idea que els menors no acompanyats viuen millor que els jubilats. I com que bona part de la premsa fa cas del que és trending topic a les xarxes socials, encara ho amplifiquen més. L’anunci de l’àvia i els menors només estava al metro, però va sortir a tot arreu. L’altre dia, a TV3 van sortir al carrer a preguntar per la frase de l’Ayuso: “A vostè li agrada viure en una ciutat per no trobar-se el seu ex?” Vaig pensar: “Però per què li feu la feina bruta?”
O sigui que millor no reenviar la nostra indignació amb segons què.
Sí, perquè la falta d’atenció els mata. El primer manament de l’usuari d’internet és no escampar mentides, no escampar els estirabots dels altres, que morin en tu tots els missatges de WhatsApp que no fan cap bé.
¿Encara hi ha un potencial emancipador a les xarxes? ¿O l’única manera d’emancipar-se és emancipar-se de les xarxes?
Compte amb caure en el solucionisme tecnològic. El problema no és la tecnologia. El problema és la política. Ara, a Twitter, quan intentes reenviar un article, primer et pregunta si te l’has llegit. És una mica molest, però està bé. I això només ho han fet perquè molta gent com nosaltres ens hem queixat. A vegades és un problema de disseny de la xarxa. Twitter es va tornar molt més tòxic quan es va facilitar el retuit amb comentari. Si odies un polític, t’esperes que digui res per poder-lo massacrar.
Ha abandonat alguna xarxa?
Jo vaig sortir de Facebook per la política de privacitat tan agressiva que té i perquè el tipus de coses que corrien per allà no m’aportava res. I ara hi ha altres xarxes que són d’algoritme obert i no recopilen dades sobre nosaltres. El Mastodont, per exemple. Hi ha l’equivalent de Facebook o de Twitter en lliure. Tens buscadors com el DuckDuckGo, que al contrari de Google no crea perfils personals, sinó que posa anuncis en funció de les paraules que has posat i no guarda cap registre teu. Però voldria acabar amb un missatge de confiança.
Quin?
Tinc prou edat per recordar quan van sortir els primers mòbils: tothom es posava al carrer a parlar per demostrar que tenia mòbil. La febrada de comunicar-se tothora passarà d’aquí cinc anys, i veurem que no cal reenviar 50 coses cada dia. Mireu el cas d’aquesta noia nord-americana que ha demandat els pares perquè un dia va entrar a Facebook i de sobte va començar a veure moltes fotos seves de quan tenia 6 o 7 anys i que no havia vist mai, i es va emprenyar. Les xarxes s’especialitzaran i aquestes grans xarxes massives aniran perdent capacitats. I cada cop hi ha més control legal. La UE s’ha posat molt seriosa en això. La llei de protecció de dades, per exemple, funciona força bé. La nova llei sobre l’ús d’algoritmes per prendre decisions és restrictiva. Demanen als programes que puguin explicar les decisions.