COMPARTIR | IMPRIMIR | CORREU ELECTRÒNIC
Em sento espantat. Molt espantat.
La vigilància i la censura a tota Internet, habilitades pel poder computacional inimaginablement vast de la intel·ligència artificial (IA), són aquí.
Això no és una distopia futurista. Està passant ara.
Les agències governamentals estan treballant amb universitats i organitzacions sense ànim de lucre per utilitzar eines d'IA per vigilar i censurar contingut a Internet.
Això no és polític ni partidista. No es tracta de cap opinió o idea en particular.
El que està passant és que una eina prou potent com per vigilar tot el que es diu i es fa a Internet (o grans porcions) s'està posant a disposició del govern per supervisar-nos a tots, tot el temps. I, a partir d'aquest seguiment, el govern, i qualsevol organització o empresa amb la qual es col·labori, pot utilitzar la mateixa eina per suprimir, silenciar i tancar qualsevol discurs que no li agradi.
Però això no és tot. Utilitzant la mateixa eina, el govern i els seus socis públics-privats, "no governamentals" (penseu, per exemple, l'Organització Mundial de la Salut o Monsanto) també poden tancar qualsevol activitat que estigui vinculada a Internet. Fer banca, comprar, vendre, ensenyar, aprendre, entretenir-se, connectar-se entre ells: si a la IA controlada pel govern no li agrada el que dieu (o als vostres fills!) en un tuit o un correu electrònic, pot tancar-ho tot per vostè.
Sí, això ho hem vist a una escala molt local i polititzada amb, per exemple, els camioners canadencs.
Però si pensàvem que aquest tipus d'activitat no podria, o no podria passar, a escala nacional (o fins i tot més espantosa - global), ens hem de despertar ara mateix i adonar-nos que està passant, i potser no es pot aturar.
Nous documents mostren una IA finançada pel govern destinada a la censura en línia
El subcomitè selecte de la Cambra dels EUA sobre l'armament del govern federal es va formar el gener de 2023 "per investigar qüestions relacionades amb la recollida, l'anàlisi, la difusió i l'ús d'informació sobre ciutadans nord-americans per part de les agències de la branca executiva, inclòs si aquests esforços són il·legals, inconstitucionals o d'una altra manera poc ètics".
Malauradament, el treball del comitè és vist, fins i tot pels seus propis membres, com a gran part polític: els legisladors conservadors estan investigant el que perceben que és el silenci de les veus conservadores per part de les agències governamentals de tendència liberal.
No obstant això, en les seves investigacions, aquest comitè ha descobert alguns documents sorprenents relacionats amb els intents del govern de censurar el discurs dels ciutadans nord-americans.
Aquests documents tenen implicacions crucials i aterridores per a tota la societat.
En l'informe provisional del Subcomitè, del 5 de febrer de 2024, els documents mostren que grups acadèmics i sense ànim de lucre estan presentant a una agència governamental un pla per utilitzar "serveis de desinformació" d'IA per censurar contingut a les plataformes d'Internet.
Concretament, la Universitat de Michigan explica a la National Science Foundation (NSF) que les eines impulsades per IA finançades per la NSF es poden utilitzar per ajudar les plataformes de xarxes socials a realitzar activitats de censura sense haver de prendre decisions sobre què s'ha de censurar.
A continuació es mostra com es visualitza la relació a l'informe del Subcomitè:
Aquí teniu una cita específica presentada a l'informe del Subcomitè. Prové de les "Notes de l'orador de la primera presentació de la Universitat de Michigan a la National Science Foundation (NSF) sobre la seva eina WiseDex, finançada per NSF i impulsada per IA". Les notes es troben a l'arxiu de la comissió.
El nostre servei de desinformació ajuda els responsables polítics de les plataformes que volen... imposar la responsabilitat de judicis difícils a algú de fora de l'empresa... externalitzant la difícil responsabilitat de la censura.
Aquesta és una declaració extraordinària a molts nivells:
- Equipara explícitament el "servei de desinformació" amb la censura.
Aquesta és una equació crucial, perquè els governs d'arreu del món pretenen combatre la desinformació perjudicial quan en realitat ho són. aprovació de lleis de censura massives. La va declarar el WEF "La desinformació i la desinformació" són els "riscos globals més greus" dels propers dos anys, cosa que suposadament significa que els seus majors esforços aniran cap a la censura.
Quan un contractista del govern afirma explícitament que ven un "servei de desinformació" que ajuda les plataformes en línia a "externalitzar la censura", els dos termes es reconeixen com a intercanviables.
- Es refereix a la censura com una "responsabilitat".
En altres paraules, suposa que part del que haurien de fer les plataformes és censura. No protegir els nens dels depredadors sexuals o dels ciutadans innocents de la desinformació, només una censura senzilla i no adulterada.
- Afirma que el paper de la IA és "externalitzar" la responsabilitat de la censura.
Les plataformes tecnològiques no volen prendre decisions de censura. El govern vol prendre aquestes decisions, però no vol ser vist com una censura. Les eines d'IA permeten a les plataformes "externalitzar" les decisions de censura i al govern amagar les seves activitats de censura.
Tot això hauria d'acabar amb la il·lusió que el que els governs d'arreu del món anomenen "contrarestar la desinformació i el discurs de l'odi" no és una censura directa.
Què passa quan la censura de la IA s'aplica completament?
Sabent que el govern ja està pagant per les eines de censura de la IA, hem de pensar en què això implica.
Sense límits de mà d'obra: Com assenyala l'informe del Subcomitè, els límits de la censura en línia del govern han implicat, fins ara, el gran nombre d'humans necessaris per passar per infinitat de fitxers i prendre decisions de censura. Amb la IA, amb prou feines cal que hi participi cap humà, i la quantitat de dades que es poden vigilar pot ser tan gran com tot el que algú diu en una plataforma determinada. Aquesta quantitat de dades és incomprensible per a un cervell humà individual.
Ningú és responsable: Un dels aspectes més aterridors de la censura de la IA és que, quan ho fa, no hi ha cap ésser humà ni organització, ja sigui el govern, les plataformes o la universitat o les organitzacions sense ànim de lucre, que sigui realment responsable de la censura. Inicialment, els humans alimenten les instruccions de l'eina d'IA sobre quines categories o tipus de llenguatge censurar, però després la màquina segueix endavant i pren les decisions cas per cas per si mateixa.
Sense recurs per a reclamacions: Una vegada que l'IA s'hagi alliberat amb un conjunt d'instruccions de censura, escombrarà milions de punts de dades en línia i aplicarà accions de censura. Si voleu impugnar una acció de censura de l'IA, haureu de parlar amb la màquina. Potser les plataformes empraran humans per respondre a les crides. Però, per què ho farien, quan tenen IA que pot automatitzar aquestes respostes?
Sense protecció per als joves: Una de les afirmacions dels censors governamentals és que hem de protegir els nostres fills d'informació en línia nociva, com el contingut que els fa anorèxics, els anima a suïcidar-se, els converteix en terroristes de l'ISIS, etc. També de l'explotació sexual. Tots aquests són temes seriosos que mereixen atenció. Però no són tan perillosos per a un gran nombre de joves com ho és la censura de la IA.
El perill que suposa la censura de la IA s'aplica a tots els joves que passen molt de temps en línia, perquè significa que les seves activitats en línia i el seu llenguatge es poden controlar i utilitzar en contra d'ells, potser no ara, però sempre que el govern decideixi perseguir un tipus concret. del llenguatge o del comportament. Aquest és un perill molt més gran per a un nombre molt més gran d'infants que el perill que suposa qualsevol contingut concret, perquè engloba tota l'activitat que realitzen en línia, tocant gairebé tots els aspectes de la seva vida.
Aquí teniu un exemple per il·lustrar aquest perill: suposem que el vostre adolescent juga a molts videojocs interactius en línia. Diguem que afavoreix els jocs dissenyats per empreses xineses. Potser també veu com els altres juguen a aquests jocs i participa en xats i grups de discussió sobre aquests jocs, en els quals també participen molts ciutadans xinesos.
El govern pot decidir el mes que ve, o l'any que ve, que qualsevol persona que estigui molt involucrada en videojocs de disseny xinès és un perill per a la democràcia. Això pot resultar en tancar els comptes de xarxes socials del vostre fill o negar-li l'accés a eines financeres, com ara préstecs universitaris. També pot implicar marcar-lo a llocs web de feina o de cites com a perillós o indesitjable. Pot significar que se li denega un passaport o que se li inclou en una llista de seguiment.
La vida del teu adolescent es va fer molt més difícil. Molt més difícil que si estigués exposat a un vídeo de reclutament de l'ISIS o a una publicació de TikTok que glorifica el suïcidi. I això passaria a una escala molt més gran que la explotació sexual que fan servir els censors com un cavall de Troia per normalitzar la idea de la censura del govern en línia.
Serveis de censura rentables: Una eina d'IA propietat del govern pot ser teòricament utilitzada per una entitat no governamental amb el permís del govern i amb la benedicció de les plataformes que volen "externalitzar" la "responsabilitat" de la censura. Així, tot i que el govern podria utilitzar la IA per supervisar i suprimir, diguem com a exemple, el sentiment contra la guerra; una empresa podria utilitzar-lo per controlar i suprimir, diguem-ne com a exemple, el sentiment contra el menjar ràpid. El govern podria guanyar molts diners venent els serveis de les eines d'IA a tercers. Les plataformes també podrien demanar un tall. Per tant, les eines de censura d'IA poden beneficiar potencialment el govern, les plataformes tecnològiques i les corporacions privades. Els incentius són tan poderosos que és gairebé impossible imaginar que no seran explotats.
Podem revertir el rumb?
No sé quantes agències governamentals i quantes plataformes estan utilitzant eines de censura d'IA. No sé amb quina rapidesa poden escalar-se.
No sé quines eines tenim a la nostra disposició, a part de conscienciar i intentar pressionar els polítics i presentar demandes judicials per evitar la censura del govern i regular l'ús d'eines d'IA a Internet.
Si algú té altres idees, ara seria el moment de posar-les en pràctica.
-
Debbie Lerman, 2023 Brownstone Fellow, és llicenciada en anglès per Harvard. És una escriptora científica jubilada i una artista en exercici a Filadèlfia, PA.
Veure totes les publicacions