COMPARTIR | IMPRIMIR | CORREU ELECTRÒNIC
Abans de la Covid, m'hauria descrit com un optimista tecnològic. Les noves tecnologies gairebé sempre arriben enmig de pors exagerades. Se suposava que els ferrocarrils provocaven col·lapses mentals, es creia que les bicicletes tornaven les dones infèrtils o boges, i l'electricitat primerenca es culpava de tot, des de la decadència moral fins al col·lapse físic. Amb el temps, aquestes ansietats es van esvair, les societats es van adaptar i el nivell de vida va augmentar. El patró era prou familiar com perquè la intel·ligència artificial semblés probable que el seguís: disruptiu, de vegades mal utilitzat, però en última instància manejable.
Els anys de la Covid van pertorbar aquesta confiança, no perquè la tecnologia fallés, sinó perquè sí que ho van fer les institucions.
A gran part del món, els governs i els organismes d'experts van respondre a la incertesa amb intervencions socials i biomèdiques sense precedents, justificades per models del pitjor dels casos i aplicades amb una certesa notable. Les hipòtesis contraposades van ser marginades en lloc de debatudes. Les mesures d'emergència es van consolidar en polítiques a llarg termini. Quan les proves van canviar, les admissions d'errors van ser rares, i la rendició de comptes encara més rara. L'experiència va exposar un problema més profund que qualsevol error polític: les institucions modernes semblen mal equipades per gestionar la incertesa sense exagerar.
Aquesta lliçó ara pesa molt en els debats sobre la intel·ligència artificial.
La bretxa de risc de la IA
En termes generals, la preocupació per la IA avançada es divideix en dos bàndols. Un grup —associat amb pensadors com Eliezer Yudkowsky i Nate Soares— argumenta que una IA prou avançada és catastròficament perillosa per defecte. En la seva formulació deliberadament contundent, Si algú ho construeix, tothom mor, el problema no són les males intencions sinó els incentius: la competència garanteix que algú farà avenços, i un cop un sistema escapa a un control significatiu, les intencions ja no importen.
Un segon bàndol, que inclou figures com Stuart Russell, Nick Bostrom i Max Tegmark, també es pren seriosament el risc de la IA, però és més optimista que l'alineació, la governança acurada i el desplegament gradual poden mantenir els sistemes sota control humà.
Malgrat les seves diferències, ambdós bàndols convergeixen en una conclusió: el desenvolupament de la IA sense restriccions és perillós i cal alguna forma de supervisió, coordinació o restricció. On divergeixen és en la viabilitat i la urgència. El que poques vegades s'examina, però, és si les institucions que s'espera que proporcionin aquesta restricció són adequades per a aquest paper.
La Covid suggereix motius per al dubte.
La Covid no va ser simplement una crisi de salut pública; va ser un experiment real de governança impulsada per experts en condicions d'incertesa. Davant de dades incompletes, les autoritats van triar repetidament intervencions màximes justificades per danys especulatius. La dissidència sovint es va tractar com una fallada moral en lloc d'una necessitat científica. Les polítiques no es van defensar mitjançant anàlisis cost-benefici transparents, sinó mitjançant apel·lacions a l'autoritat i por a futurs hipotètics.
Aquest patró és important perquè revela com es comporten les institucions modernes quan els riscos es plantegen com a existencials. Els incentius es desplacen cap a la decisió, el control narratiu i la certesa moral. La correcció d'errors esdevé costosa per a la reputació. La precaució deixa de ser una eina i es converteix en una doctrina.
La lliçó no és que els experts tinguin defectes singulars. És que les institucions recompensen l'excés de confiança de manera molt més fiable que la humilitat, sobretot quan la política, el finançament i la por pública s'alineen. Un cop es reclamen poders extraordinaris en nom de la seguretat, rarament es renuncien a ells voluntàriament.
Aquestes són precisament les dinàmiques que ara són visibles en els debats sobre la supervisió de la IA.
La màquina dels "Què passaria si"
Una justificació recurrent per a la intervenció estatal expansiva és l'hipotètic actor dolent: Què passa si un terrorista construeix això? Què passa si un estat rebel ho fa? D'aquesta premissa sorgeix l'argument que els governs han d'actuar de manera preventiva, a gran escala i sovint en secret, per evitar una catàstrofe.
Durant la Covid, una lògica similar justificava agendes de recerca biomèdica radicals, autoritzacions d'emergència i controls socials. El raonament era circular: perquè alguna cosa perillosa poder passi, l'estat ha de prendre mesures extraordinàries ara, una acció que en si mateixa comportava riscos importants i mal entesos.
La governança de la IA s'enquadra cada cop més de la mateixa manera. El perill no és només que els sistemes d'IA es comportin de manera imprevisible, sinó que la por a aquesta possibilitat legitimarà una governança d'emergència permanent —control centralitzat sobre la computació, la recerca i els fluxos d'informació— amb el pretext que no hi ha alternativa.
Risc privat, risc públic
Una distinció poc apreciada en aquests debats és entre els riscos generats per actors privats i els riscos generats per l'autoritat estatal. Les empreses privades estan limitades —imperfectament, però significativament— per la responsabilitat, la competència, la reputació i la disciplina de mercat. Aquestes restriccions no eliminen els danys, però creen bucles de retroalimentació.
Els governs operen de manera diferent. Quan els estats actuen en nom de la prevenció de catastròfiques, la retroalimentació s'afebleix. Els errors es poden reclassificar com a necessitats. Els costos es poden externalitzar. El secret es pot justificar per la seguretat. Els hipotètics danys futurs es converteixen en palanques polítiques en el present.
Diversos pensadors de la IA ho reconeixen implícitament. Bostrom ha advertit sobre els efectes de "bloqueig", no només dels sistemes d'IA, sinó també de les estructures de governança creades durant els moments de pànic. La crida d'Anthony Aguirre a la moderació global, tot i que lògicament coherent, es basa en organismes de coordinació internacionals, la trajectòria recent dels quals en humilitat i correcció d'errors és deficient. Fins i tot les propostes més moderades assumeixen que els reguladors són capaços de resistir la politització i la desviació de la missió.
La Covid ens dóna poques raons per confiar en aquesta suposició.
La paradoxa de la supervisió
Això porta a una paradoxa preocupant al cor del debat sobre la IA. Si algú creu realment que la IA avançada s'ha de limitar, frenar o aturar, són els governs i les institucions transnacionals els que tenen més probabilitats de tenir el poder per fer-ho. Tot i això, aquests són precisament els actors el comportament recent dels quals dóna menys confiança en un ús restringit i reversible d'aquest poder.
L'enquadrament d'emergència és enganxós. L'autoritat adquirida per gestionar riscos hipotètics tendeix a persistir i expandir-se. Les institucions poques vegades menystenen la seva pròpia importància. En el context de la IA, això planteja la possibilitat que la resposta al risc de la IA afermi sistemes de control fràgils i polititzats que són més difícils de desfer que qualsevol tecnologia individual.
El perill, en altres paraules, no és només que la IA s'escapi del control humà, sinó que la por a la IA accelera la concentració de l'autoritat en institucions que ja han demostrat ser lentes a admetre l'error i hostils a la dissidència.
Repensar el risc real
Això no és un argument per a la complaença amb la IA, ni una negació que les tecnologies poderoses puguin fer un mal real. És un argument per ampliar el marc. El fracàs institucional és en si mateix una variable existencial. Un sistema que assumeix una governança benèvola i autocorrectiva no és més segur que un que assumeix una superintel·ligència benèvola i alineada.
Abans de la Covid, era raonable atribuir la major part del pessimisme tecnològic al biaix de negativitat humana: la tendència a creure que els reptes de la nostra generació són excepcionalment inmanejables. Després de la Covid, l'escepticisme s'assembla menys a biaix i més a experiència.
La qüestió central en el debat sobre la IA no és, per tant, només si les màquines es poden alinear amb els valors humans, sinó si es pot confiar en les institucions modernes per gestionar la incertesa sense amplificar-la. Si aquesta confiança s'ha erosionat —i la Covid suggereix que sí—, les peticions d'una supervisió àmplia de la IA mereixen almenys tant escrutini com les afirmacions d'inevitabilitat tecnològica.
El risc més gran potser no és que la IA esdevingui massa poderosa, sinó que la por a aquesta possibilitat justifica formes de control que més tard descobrim que són molt més difícils de conviure o de les quals escapar.
-
Roger Bate és Brownstone Fellow, Senior Fellow del Centre Internacional de Dret i Economia (gener de 2023-actualitat), membre de la junta d'Africa Fighting Malaria (setembre de 2000-actualitat) i membre de l'Institut d'Afers Econòmics (gener de 2000-actualitat).
Veure totes les publicacions