Entrevista
Suplements06/09/2024

Yuval Noah Harari: "La IA és potencialment més poderosa que un dictador"

Historiador i autor de ‘Nexus’

En el seu nou assaig, una breu (és un dir: més de 550 pàgines) història de les xarxes d’informació des de l’edat de pedra fins a la intel·ligència artificial, Yuval Noah Harari torna a fer un recorregut per l’evolució de la humanitat. El llibre el publica ara Edicions 62 en traducció de Núria Busquet Molist. Aquest agost hem pogut conversar per pantalla amb l’autor israelià, ell des de Tel-Aviv.  

A Nexus, i en les seves anteriors obres, vostè veu la idea de canvi com una constant de la història. Com pot canviar la humanitat la intel·ligència artificial (IA)? Vostè sembla més procliu a pensar que anem cap a una societat distòpica. El veig més a prop d'un cert determinisme tecnològic apocalíptic que d'un tecnooptimisme. És així?

— Crec que la IA té un immens potencial, positiu i negatiu. Les persones que desenvolupen la IA, els emprenedors, els científics, els enginyers, se centren en totes les coses bones que ens pot aportar. És feina dels historiadors i filòsofs equilibrar això destacant també els escenaris perillosos, que no són inevitables: no crec que la IA estigui condemnant la humanitat a l'extinció o al desastre. Però és una possibilitat que hem de prendre’ns molt seriosament. Espero que si prenem decisions sàvies podrem prevenir aquests escenaris distòpics i gaudir dels immensos beneficis potencials de la IA. En qualsevol cas, el més important de la IA és que és diferent de totes les tecnologies anteriors de la història. És la primera que pot prendre decisions per si mateixa, que pot crear noves idees per si mateixa. La impremta podria imprimir els nostres llibres, però no crear-ne un de nou. Una bomba podria destruir ciutats senceres, però no podria decidir quina ciutat bombardejar. La IA pot fer-ho. La IA pot escriure llibres, crear simfonies i tot tipus d'artefactes culturals i científics. És més que una eina, és un nou tipus d'agent al món.

Per tant, estem davant d’un supercanvi. Però en la història també hi ha continuïtats. La IA destruirà la família, destruirà l'amor? 

— No. Però les canviarà. La família ha pres formes diferents al llarg de la història. Si llegiu la Bíblia, Jacob es va casar amb dues germanes, Raquel i Lia, i també va tenir dues esclaves sexuals, Bilhà i Zilpà. Entre les quatre li van donar 12 fills que es van convertir en els avantpassats mítics del poble jueu. Ara aquest acord familiar fins i tot el veuríem com a criminal. Durant bona part de la història a la Mediterrània va ser molt habitual que els cosins germans es casessin. Encara és molt comú a l'Orient Mitjà. L’Església catòlica va arribar un moment que va prohibir el matrimoni entre cosins germans, va ser un gran canvi que va trencar la família extensa i va crear la família nuclear. És probable, doncs, que la IA i altres tecnologies canviïn la forma de l'estructura familiar, la forma de la nostra vida romàntica i la manera en què les persones es troben. És possible que confiem cada cop més en la IA per arreglar les relacions romàntiques amb la gent. Fins i tot podria haver-hi casos en què les persones tinguin relacions íntimes amb entitats d'IA. Ja està passant. Això no és ciència-ficció: la IA és la primera tecnologia que pot fer-se passar per un ésser humà. Va haver-hi el cas famós a Google en què un dels enginyers es va convèncer que una IA en la qual estava treballant era en realitat un ésser sensible, conscient. Va ser acomiadat. La IA no té emocions pròpies, però sap crear la impressió que té emocions.

Quan trigarem, llavors, a prohibir els éssers humans falsos? 

— De la mateixa manera que els governs tenen lleis contra la creació de diners falsos, necessitem lleis contra els humans falsificats. Està bé que les IA tinguin contacte amb nosaltres, però no poden fingir que són éssers humans. Hem de saber quan estem parlant amb una IA. Les dificultats que avui hi ha en molts països, dels EUA al Brasil, per mantenir una conversa pública tenen a veure amb el fet que moltes veus no humanes s’han unit a la conversa. A les xarxes socials, moltes veus són robots disfressats. I això arruïna la confiança. 

Cargando
No hay anuncios

Podem crear bots que sàpiguen dubtar de si mateixos? 

— Pots entrenar una IA per avaluar el seu propi nivell de certesa sobre alguna cosa. Això és molt positiu. La IA pot avaluar l'evidència que ens presenta, ens pot dir si alguna cosa és certa en un 90% en un 60%. Aquesta és una manera realment d'expressar el dubte. 

De totes maneres, els robots ja estan governant les nostres vides, sovint sense que ho sapiguem.

— Sí. Si sol·licitem un préstec a un banc, cada cop més és un algorisme el que decideix si ens el concedeixen. També si sol·licitem una feina, molt sovint en el procés d’avaluació hi haurà un algorisme, una IA. Fins i tot en el sistema penal, en molts països els jutges es basen en les IA per decidir sobre la sentència. Això anirà a més. Només estem al començament de la revolució de la IA. El perill és que perdem el control de les nostres vides, la capacitat d'entendre les decisions que es prenen sobre nosaltres. Quan un humà pren una decisió sobre nosaltres, ho entenem perquè també som humans. I també estan en joc les democràcies: com pots regular i supervisar processos burocràtics de presa de decisions que ja no són humans i que no pots entendre?

Harari: "La IA és potencialment més poderosa que un dictador"

This browser does not support the video element.

Això és el que va passar amb el descontrol i la crisi del sistema financer el 2008, oi? 

— Sí. Al sistema financer, per exemple en el comerç de divises, la major part de decisions les prenen algorismes. Es fa entre ordinadors, no entre humans. A mesura que donem a la IA més control del sistema financer, és probable que inventi nous tipus d'estratègies i fins i tot de dispositius financers. Les finances també són una activitat molt creativa: algú va inventar els diners, els bons i les accions. Avui hi ha molts dispositius financers que no entenen ni els polítics. Per això és difícil regular-los. I això és el que va provocar la crisi financera del 2007-8. Què passa en el futur si les IA inventen dispositius financers tan sofisticats que no hi hagi ni un sol ésser humà capaç d'entendre el sistema financer?

Cargando
No hay anuncios

Un altre exemple d'aquests algorismes fora de control va ser el del genocidi rohingya. Què va passar en aquest cas amb Facebook?

— Durant dècades, a Myanmar hi havia hagut tensions i odi cap a la minoria rohingya. Però el 2016 i el 2017 hi va haver una campanya de neteja ètnica que va provocar la mort de molts milers de rohingyes i l'expulsió de més de 700.000, la majoria expulsats a Bangladesh. I això va ser alimentat per una propaganda molt intensa i teories de conspiració a les xarxes socials, especialment a Facebook. El que va impulsar això van ser decisions preses per algorismes, no per éssers humans. A l'Alemanya nazi, la propaganda contra els jueus, en última instància, la van decidir éssers humans com Goebbels i Hitler. Però ningú pensa que Mark Zuckerberg o els gestors de Facebook tinguessin res en contra dels rohingya. Potser ni tan sols sabien que existien. El que realment va passar és molt més perillós: el contingut va ser creat per extremistes humans. No va ser creat pels algorismes. Però aquests van decidir promoure’l per complir l’objectiu d’augmentar l’engagement dels usuaris. Es van adonar que la ràbia, l’odi i la indignació funcionaven. És la primera campanya de neteja ètnica de la història que és en part fruit de decisions de la IA. Per descomptat, gran part de la culpa és dels éssers humans de Myanmar, però també hi ha part de la culpa dels algorismes. I això va passar fa gairebé 10 anys. Ara la IA és molt més potent. Ara fins i tot pot crear el contingut per si mateixa. És probable que vegem cada cop més esdeveniments històrics modelats per decisions de la intel·ligència no humana.

Què es pot fer perquè els algorismes, la IA, no castiguin la part amable de la nostra naturalesa i no augmentin l'odi i la indignació?

— Hi ha un parell de mecanismes. Un d’important, com hem dit, és tenir una llei contra la falsificació d'humans. No permetre que els robots suplantin la gent i difonguin totes aquestes teories de conspiració, odi i por. Un altre mètode és fer que les grans empreses siguin responsables de les accions dels seus algorismes. Empreses com Facebook o X (Twitter) diuen que no podem evitar que la gent publiqui odi a la seva plataforma per respecte a la llibertat d'expressió. Això és complicat: estic d'acord que no és una bona idea donar a les empreses el paper de decidir què han de dir o no els humans. Però les plataformes no poden ignorar que són responsables de les decisions dels seus algorismes, sobretot perquè són resultat del seu propi model de negoci. Volen que la gent passi cada cop més temps a la seva plataforma i per això difonen informació tòxica. Contaminen la informació. És tan greu com la contaminació de l'aire. Això s’ha de prevenir o castigar.

I els usuaris, què podem fer?

— De la mateixa manera que moltes persones s’imposen una dieta alimentària sana, hauríem de tenir una dieta informativa, hauríem de tenir cura amb el menjar que donem a la nostra ment, que és la informació. Massa informació és dolenta per a la ment, necessitem temps per relaxar-nos, temps per digerir. Simplement introduir més i més informació és una mala idea. I després hi ha la qualitat de la informació: si alimentes el cos amb menjar porqueria, et fas mal. Si alimentes la ment amb informació porqueria, es posa malalta. I bona part de la informació que es difon a les xarxes socials és brossa. 

Cargando
No hay anuncios

Els robots d'IA tenen drets? Són éssers vius sense consciència, com la majoria dels animals, i estem donant drets als animals. 

— Actualment, no, perquè no tenen cap consciència. No tenen cap sentiment. No poden patir dolor ni misèria. Hi ha una gran confusió entre IA i la consciència. La intel·ligència és la capacitat de perseguir objectius, de resoldre problemes. La consciència és la capacitat de sentir coses, de sentir dolor, plaer, amor, odi. Ara ho confonem perquè en els humans i altres animals van junts. Els nostres sentiments configuren els nostres objectius. Els nostres sentiments ens ajuden a resoldre problemes. Així que confonem consciència i intel·ligència. Però són diferents. Els ordinadors, les IA, tenen una superintel·ligència en alguns camps en els quals poden resoldre problemes molt millor que nosaltres, però tenen consciència zero. No senten res. Una IA pot vèncer fàcilment els millors humans als escacs, però quan guanya no se sent feliç i si perd no se sent trista. Els subjectes morals són entitats que poden patir. Si pots patir, hi ha preguntes morals sobre com tractar-te. Una cadira no pot patir. Un cotxe no pot patir. Una IA tampoc. Si en el futur tenim motius per pensar que la IA hagi desenvolupat consciència, capacitat de sentir, llavors haurem de discutir sobre quin tipus de drets donar-los. 

Una pregunta pràctica: quines feines estan més en risc avui dia a causa de la IA?

— Les feines que només es refereixen a l'anàlisi d'informació. Si la vostra feina és agafar molta informació, trobar-hi patrons i prendre una decisió, això és el més fàcil d'automatitzar. Això pot ser així en les finances, fins i tot en medicina, com un metge que només analitza dades per descobrir quina malaltia tens i després et recomana un tractament. Això es pot automatitzar fàcilment. En canvi, les tasques que impliquen habilitats socials, interactuar amb altres persones, o habilitats motrius, utilitzar el teu cos, són molt més difícils de substituir. Una infermera que no només necessita analitzar dades, sinó també substituir un embenat a un nen que plora, és molt difícil de replicar. 

Anem als grans debats ideològics. Vostè fa una reflexió transversal sobre el poder. El situa com a idea central en la concepció de l'ésser humà tant en el marxisme com en els populismes de dreta actuals. Aquesta dreta revolucionària en el pitjor sentit del món està utilitzant la IA sense escrúpols. En canvi, l'esquerra s'està tornant conservadora davant d'aquesta dreta revolucionària i sembla que no sap com gestionar la IA. Això és un problema. ¿Tenim una dreta nova, embogida, i una esquerra que es perd en la transició? 

— Les fronteres entre l'esquerra i la dreta s'estan desdibuixant perquè la dreta radical, gent com Trump o Bolsonaro, fan servir la retòrica i les idees marxistes. Venen a dir que el món sencer és una lluita de poder entre opressors i oprimits. En la seva imaginació, hi ha aquestes elits globals que oprimeixen tothom, contra les quals s'aixequen. Aquesta és una narració marxista. Com el Manifest comunista, que veu tota la història només com una lluita entre opressors i oprimits. Per descomptat, les seves polítiques no són marxistes. Quan parlen d'impostos o de benestar, no ho són, però la comprensió bàsica del món de persones com Trump és sorprenentment la mateixa que la de Karl Marx i els seus seguidors. Quan es tracta de la IA, és encara més complicat: gairebé ningú té cap política clara. Si ara miro la carrera presidencial als EUA, quina diferència hi ha entre demòcrates i republicans en la seva actitud davant la IA? No ho sé perquè simplement no en parlen. Es parla molt, per exemple, d'immigració, sobre com impactarà en el mercat laboral, però és molt probable que la IA tingui un impacte molt més gran en el mercat laboral als EUA i en altres llocs que la immigració. Sovint en política passa que la conversa se centra en temes que no són tan importants i ignora els realment importants: això està passant ara amb la IA.

Cargando
No hay anuncios

A Nexus també escriu sobre les "realitats intersubjectives", com ara els diners, la religió, les nacions, etc. Quina creu que és la realitat intersubjectiva més poderosa actualment?

— Diria que són els diners perquè són l'única realitat que encara accepta gairebé tothom. Hi ha realitats objectives –coses que existeixen tant si hi creiem com si no– i coses subjectives, que només sents tu. Si sents dolor i ningú més el sent, és el teu dolor. I després hi ha la realitat intersubjectiva, quelcom que existeix en la imaginació o comunicació entre moltes persones. Per tant, els déus són una realitat intersubjectiva. Si molta gent creu en Júpiter, llavors és una cosa molt important. Si la gent deixa de creure en Júpiter, desapareix. Els diners són el mateix. Els diners no són objectius. No tenen cap valor objectiu. No te'ls pots menjar. No te'ls pots beure. Però tampoc són subjectius. No són coses que existeixin només en la teva imaginació. Existeixen en la comunicació entre nosaltres. Et puc donar un dòlar i tu em dones alguna cosa a canvi. Tots dos hi creiem. Això és intersubjectiu. I els diners són la realitat intersubjectiva més poderosa perquè és gairebé l'última cosa en què tothom creu. 

Seguint amb la política, ¿la IA algorítmica què pot afavorir més, les dictadures o les democràcies?

— Presenta perills per a totes dues. La democràcia és una conversa entre molta gent i la IA desestabilitza aquesta conversa amb veus no humanes. Això crea caos. Un altre perill és que la IA pugui crear règims de vigilància total i destruir completament la privadesa. En èpoques anteriors, fins i tot si un govern volia seguir tothom tot el temps, no podia. No hi havia prou agents de la policia secreta ni prou analistes per revisar la informació que recollien. Amb els telèfons intel·ligents, càmeres i micròfons a tot arreu, pots seguir tothom tot el temps. I tens IA per analitzar la informació. Per primera vegada, es poden crear règims de vigilància total que destrueixin completament la privadesa i condueixin al col·lapse de la democràcia. Però les dictadures també estan en perill perquè la major amenaça per a un dictador humà al llarg de la història sempre van ser els subordinats massa poderosos que podrien rebel·lar-se. A l'Imperi Romà, ni un sol emperador va ser derrocat per una revolució democràtica. Molts van ser assassinats o deposats pels seus propis generals o governadors. Ara, la IA és potencialment més poderosa que el dictador. Si ets ciutadà rus i dius alguna cosa contra Putin, et fiquen a la presó. Però què passa amb un chatbot que comença a dir coses contra Putin? Com pots amenaçar un chatbot? Què li faràs? Enviar-lo a la presó? Amenaçar la seva família? Per tant, aquesta tecnologia, com que és incontrolable, també és una gran amenaça per als dictadors.

Anem un moment a l’actualitat política més estricta i dura: quina és la seva visió personal de la guerra d’Israel contra Gaza?

— És una tragèdia terrible, sens dubte per al poble de Gaza, i també per al poble d'Israel. Està destruint Israel. Està destruint l'ànima del país. I el més important és adonar-se que aquest conflicte no és inevitable. Hi ha més de set milions de palestins que neixen aquí i no tenen on anar. També hi ha més de set milions de jueus que neixen aquí i no tenen on anar. Però tots dos poden existir en aquest país. El simple fet és que hi ha dues comunitats de persones que viuen entre la Mediterrània i el riu Jordà. Totes dues no tenen cap altre lloc on anar, totes dues tenen dret a existir aquí. I poden existir juntes en dos estats o en un estat perquè no hi ha escassetat objectiva de terra, aliments o aigua. Hi ha prou terra entre el Mediterrani i el Jordà per construir cases per a tothom. Hi ha prou menjar per a tothom. Hi ha prou aigua. El problema és que ambdues parts en la seva ment creuen en les fantasies, en les mitologies, que només ells tenen dret a existir aquí perquè Déu els va donar aquest país o el que sigui. I en la seva fantasia creuen que l'altre costat no existeix o no té dret a existir. Això és un problema de la ment humana, no un problema objectiu. És un problema intersubjectiu. El problema són les històries que la gent té al cap. Espero que amb el temps la gent pugui canviar aquestes fantasies religioses, aquestes mitologies en la seva ment i que puguem conviure. En molts altres llocs del món que hi ha hagut persones que es van matar i es van massacrar durant generacions finalment van aconseguir fer la pau.

Precisament a Sapiens, i també a Nexus, vostè apunta que la història de la humanitat té a veure amb la capacitat de col·laboració, de fer xarxa. Nega la llei de la selva. 

— És que la selva no funciona amb el més fort matant el més feble. En la selva real, per exemple la selva amazònica, la vida es basa en la cooperació d’arbres, animals i fongs. També competeixen, sí. De vegades es mengen mútuament. Però hi ha molta cooperació. Si no n’hi hagués, la selva col·lapsaria immediatament. I passa el mateix amb els éssers humans. Fa cent mil anys, els humans només sabien cooperar en bandes molt petites, en grups de 50 persones. Durant milers d'anys, els humans van millorar la seva capacitat de cooperar. Les nacions no són l'estat natural dels éssers humans, són una creació molt recent en evolució. Les més antigues tenen potser 5.000 anys. Podem parlar de l'antic Egipte. Però els humans hem existit durant milions d'anys. Així que, fins i tot si algú creu molt en el nacionalisme, això l’hauria de fer apreciar la capacitat de cooperar amb desconeguts. Perquè la majoria de la gent de la teva nació t’és estranya, no els has conegut mai. No són amics ni familiars. Tot i així, confies en ells. De la mateixa manera que hem après a confiar i cooperar amb milions d'altres persones a la nostra nació, també podem aprendre a confiar i cooperar amb més persones d'altres nacions.

Cargando
No hay anuncios

¿Amb la IA podrem no cometre els mateixos errors o podem fer un nou pas per avançar cap a una societat global més benèvola?

— Espero que puguem avançar. Ara mateix, la situació es veu molt, molt dolenta: la cooperació entre països s'esfondra, l'ordre global s'està convertint en un caos global a l'Orient Mitjà i a l'Europa de l'Est amb la invasió russa d'Ucraïna. Molts països estan col·lapsant dins d'ells mateixos. Mireu les tensions als EUA, el Brasil, les Filipines... Però aquesta no és una llei de la naturalesa, sinó el resultat de les històries i les fantasies que creem. Podem fer l'esforç per prendre millors decisions i tornar a passar d'un procés de conflicte a un procés de més i més cooperació.