COMPARTIR | IMPRIMIR | CORREU ELECTRÒNIC
Ha estat interessant observar el que s'ha escrit sobre la Intel·ligència Artificial (IA) durant les últimes setmanes, sobretot pel que fa a l'exageració al voltant de ChatGPT. Pel que puc jutjar, la major part d'això és essencialment la percepció, o la por, que la IA ha superat els humans pel que fa a la intel·ligència. Dr Harvey Risch compte que obre els ulls de la seva "conversa" amb una IA ha demostrat àmpliament que es tracta d'una percepció errònia, i tanmateix sembla persistir de totes maneres.
Una experiència recent que vaig tenir amb un entusiasta de ChatGPT transmet la mateixa impressió sobre la creença generalitzada que aquesta última AGI (Intel·ligència General Artificial) és l'igual, si no superior, dels humans en el departament d'intel·ligència. Va ocórrer amb motiu d'una xerrada que vaig donar als membres d'una organització cultural sobre el tema de fins a quin punt el treball de Freud i Hannah Arendt pot proporcionar una visió del creixement actual de les mesures totalitàries de control insidiosos a nivell mundial.
Un d'aquests fets reveladors és l'intent de l'Organització Mundial de la Salut de robar als països la seva sobirania modificant amb èxit la seva constitució. Aquest intent va fracassar fa dos anys, quan els països africans es van oposar a les esmenes proposades, però el 2024 l'OMS ho tornarà a intentar, després d'haver pressionat enèrgicament els líders africans mentrestant.
Després de la meva xerrada, algú va relacionar el tema amb la IA. Concretament, això es refereix a la meva afirmació que els conceptes de Freud d'Eros (impuls de vida) i Thanatos (impuls de mort), d'una banda, i les nocions d'Arendt de natalitat (tot humà aporta alguna cosa única al món en néixer) i pluralitat (tots els humans som diferents), de l'altra, il·luminen la naturalesa del totalitarisme. També es relacionava amb la qüestió de si el totalitarisme pot ser sostingut pels qui el promouen. Va resultar que, després de difondre el tema de la meva xerrada, havia demanat a ChatGPT que ho comentés i va portar la "resposta" de l'IA a la reunió en format imprès per mostrar-m'ho.
Com era previsible, per a una màquina de recerca predictiva i habilitada per al reconeixement de patrons lingüístics amb una base de dades enorme (que és el que realment és ChatGPT) no va ser difícil descomprimir amb precisió el que signifiquen els conceptes freudians i arendtians rellevants: qualsevol estudiant podria trobar-ho a Internet. o també en una biblioteca. Però quan la intel·ligència artificial va fallar es referia al vincle que vaig establir entre les idees d'aquests pensadors i els esdeveniments actuals que es desenvolupen a l'espai global.
Recordeu que havia emprat els conceptes de Freud i Arendt heurísticament en relació amb el que, possiblement, són signes de "moviments" totalitaris que s'estan fent en diverses àrees institucionals avui dia. ChatGPT, de nou com era previsible, ho va fer (i possiblement podria) no vaig aprofundir en la connexió que havia implicat en el títol difós de la meva xerrada, i simplement havia "afirmat" que hi havia "alguna" relació entre les idees d'aquests dos pensadors i el totalitarisme.
La raó d'això hauria de ser immediatament evident. Enlloc de la base de dades de ChatGPT hi ha informació: en el format d'una interpretació llegible – de quins esdeveniments, com ara l'intent sostingut de l'OMS d'esdevenir l'òrgan de govern del món (esmentat anteriorment), són símptomes, és a dir, un règim totalitari global incipient. Perquè ChatGPT (o qualsevol altra intel·ligència artificial) pugui arribar a una "interpretació" d'aquest tipus, els seus programadors haurien d'introduir-lo a la seva base de dades, cosa que és improbable, si no impensable, atesa la seva crítica implícita de la mateixa. constel·lació de poders que van donar lloc a la construcció de ChatGPT, o la IA hauria de posseir la capacitat que tenen tots els éssers humans "normals", és a dir, poder interpretar el món experiencial que els envolta. És evident que cap IA té aquesta capacitat per la seva dependència de ser programada.
El meu interlocutor va qüestionar aquesta resposta explicativa per part meva, argumentant que ChatGPT mostra la seva capacitat de "raonar" en cada "resposta" que se'ls planteja a les preguntes que es puguin fer. Vaig assenyalar que això no és una descripció precisa del que fa la IA. Recordeu: ChatGPT produeix respostes antropomòrfiques en llenguatge quotidià a les preguntes que se li fan. Ho fa utilitzant exemples detectats en els colossals conjunts de dades als quals té accés i que li permeten predir paraules successives en frases. En poques paraules: és capaç de trobar patrons estadístics en aquestes grans bases de dades, utilitzant "aprenentatge automàtic".
No és això el que és el raonament, com hauria de saber tot estudiant que ha estudiat la lògica i la història de la filosofia, com va argumentar René Descartes al 17th segle, el raonament és una combinació de percepcions intuïtives i inferència o deducció. Un comença amb una visió intuïtiva -per exemple, que els llums s'han apagat- i a partir d'aquí s'infereix que algú els ha apagat o s'ha interromput el subministrament elèctric. O es pot raonar (per deducció) a partir d'un conjunt de dades (la visió intuïtiva) que un altre és probable o improbable. En cap moment es recorre a quantitats massives de dades que s'escanegen per trobar patrons que presenten similituds i s'aventuren prediccions anticipades sobre aquesta base.
No obstant això, com es pot comprovar per científics informàtics com Dr Arvind Narayanan, professor d'informàtica a la Universitat de Princeton, la gent (com el meu interlocutor) es deixa enganyar fàcilment per una IA com ChatGPT perquè sembla tan sofisticada, i com més sofisticats es tornen, més difícil seria per als usuaris detectar les seves mancances pel que fa a pseudo-raonament així com els seus errors.
Tal com indica el doctor Narayanan, les respostes de ChatGPT a algunes preguntes d'examen d'informàtica que li va plantejar eren falses, però van ser formulades d'una manera tan encertada que la seva falsedat no era immediatament evident, i va haver de comprovar-les tres vegades abans d'estar segur que això va ser el cas. Fins a la capacitat de ChatGPT de "substituir" humans.
Cal recordar, però, que el que s'ha discutit fins ara en termes comparatius és el tema, si una IA com ChatGPT funciona de la mateixa manera que els humans a nivell d'intel·ligència, que es refereix a diferències com el raonament en oposició al reconeixement de patrons, etcètera. També es podria formular la pregunta en termes d'inferioritat i superioritat, és clar, i alguns ho argumenten els humans encara apareixen per superar la intel·ligència artificial, fins i tot si una IA pot realitzar càlculs matemàtics més ràpid que els humans.
Però és només quan es canvia el terreny que les diferències fonamentals entre un ésser humà, vist de manera holística, i una IA, per molt intel·ligent que sigui, es poden veure en perspectiva. Això passa per alt per les persones que participen en el debat sobre els humans en lloc de la intel·ligència "artificial", per la senzilla raó que la intel·ligència és no tot el que importa.
Per il·lustrar el que vull dir, penseu en el que va passar entre el campió mundial d'escacs Garry Kasparov i Blau profund, el "superordinador" d'IBM el 1997. Després d'haver estat derrotat per Kasparov el 1996, Blau profund va aconseguir la primera victòria sobre un ésser humà per una màquina l'any següent, i després, també, com passa amb ChatGPT avui, hi va haver lamentacions universals sobre la suposada "desaparició" de la raça humana, representada per Kaspàrov sent superat per un ordinador ( una IA).
Com avui pel que fa a ChatGPT, aquesta reacció va ser emblemàtica de l'error comès per la gran majoria de persones quan jutgen la relació entre la IA i els humans. Normalment, aquesta avaluació es realitza en termes de cognició, avaluant quin és més "intel·ligent": humans o màquines. Però cal preguntar-se si la intel·ligència era la mesura adequada, i molt menys, la més adequada per comparar humans i ordinadors (com a representants de la IA) aleshores i, de fet, ara.
És comprensible que la humiliació de Kaspàrov per part de la màquina es va informar a tot arreu en aquell moment, i recordo haver trobat un relat d'aquest tipus en què l'escriptor va mostrar una gran comprensió del que tinc en ment quan em refereixo als criteris correctes o adequats per a la comparació entre humans i AI. Després d'haver reconstruït els detalls depriment de la derrota històrica de Kaspàrov Blau profund, aquest escriptor va recórrer a una fantasia humorística, però poc explicativa.
Després de la derrota simbòlica de l'ésser humà, va fabular, l'equip d'enginyers i informàtics que havia dissenyat i construït Blau profund van sortir a la ciutat per celebrar el seu triomf d'època. Seria incorrecte escriure 'la victòria de la seva màquina', perquè en rigor va ser l'equip humà el que va aconseguir una victòria per mitjà del 'seu' ordinador.
El punchline estava preparat per quan l'escriptor va preguntar, retòricament, si Blau profund, també, va sortir a pintar la ciutat de vermell amb rosa clar per gaudir de la seva conquesta. No cal subratllar que la resposta a aquesta pregunta retòrica és negativa. Va ser seguit pel punchline, que deia l'obvi; és a dir, que 'els humans celebrem; els ordinadors (o màquines). no.'
Mirant enrere, sembla que aquest escriptor era una mena de visionari, utilitzant una ficció per destacar el fet que, tot i que els humans i la IA comparteixen "intel·ligència" (encara que sigui de diferents tipus), sí no marquen les diferències més òbvies i irreductibles entre la IA i les persones. Hi ha altres diferències, molt més decisives, entre els humans i la IA, algunes de les quals s'han explorat aquí i aquí .
-
Bert Olivier treballa al Departament de Filosofia de la Universitat de l'Estat Lliure. Bert fa recerca en Psicoanàlisi, postestructuralisme, filosofia ecològica i filosofia de la tecnologia, Literatura, cinema, arquitectura i Estètica. El seu projecte actual és 'Entendre el tema en relació a l'hegemonia del neoliberalisme'.
Veure totes les publicacions