No volia alimentar la meva ànima d'una màquina. Aquest va ser el meu primer instint quan les eines d'IA van començar a aparèixer per tot arreu; no la preocupació per la feina o la privadesa, sinó alguna cosa més profunda. Aquestes eines prometen fer-nos més intel·ligents alhora que ens fan sistemàticament més dependents. Després de dècades treballant a la indústria d'Internet, ja havia vist com es transformava en alguna cosa més insidiosa que una simple màquina de vigilància: un sistema dissenyat per donar forma a com pensem, què creiem i com ens veiem a nosaltres mateixos. La IA em va semblar la culminació d'aquesta trajectòria.
Però la resistència es va tornar inútil quan em vaig adonar que ja hi estem participant, tant si ho sabem com si no. Ja interactuem amb la IA quan truquem al servei d'atenció al client, fem servir la Cerca de Google o confiem en les funcions bàsiques dels telèfons intel·ligents. Fa uns mesos finalment vaig capitular i vaig començar a utilitzar aquestes eines perquè vaig veure la rapidesa amb què proliferaven, esdevenint tan inevitables com Internet o els telèfons intel·ligents.
Mira, no sóc només un vell resistent al canvi. Entenc que cada generació s'enfronta a canvis tecnològics que remodelen la nostra manera de viure. La impremta va interrompre la manera com es difonia el coneixement. El telègraf va enderrocar les barreres de distància. L'automòbil va transformar la manera com es formaven les comunitats.
Però la revolució de la IA es percep com de diferent, tant en ritme com en abast. Per entendre com s'ha accelerat dràsticament la taxa de canvi tecnològic, cal tenir en compte això: qualsevol persona menor de 35 anys probablement no recorda la vida abans que Internet transformés la manera com accedim a la informació. Qualsevol persona menor de 20 anys no ha conegut mai un món sense telèfons intel·ligents. Ara estem presenciant una tercera època amb eines d'IA que proliferen més ràpidament que qualsevol dels canvis anteriors.
Més fonamentalment, la IA representa quelcom qualitativament diferent de les disrupcions tecnològiques anteriors: una convergència que toca el treball, la cognició i potencialment la consciència mateixa. Comprendre com aquests dominis s'interconnecten és essencial per preservar l'agència personal en un món l'era de la mediació algorítmica.
La meva principal por sobre la IA no és només l'escenari dramàtic en què esdevé hostil, sinó l'amenaça més subtil: que ens subordinarà a sistemes de maneres que no reconeixem fins que és massa tard, debilitant les mateixes capacitats que promet enfortir.
El que estem presenciant no és només un avenç tecnològic, sinó el que Ivan Illich va anomenar dependència iatrogènica. la seva obra seminal, Nèmesi mèdicaIllich va encunyar aquest terme per a la medicina –institucions que prometen curar mentre creen noves formes de malaltia–, però el patró s'aplica perfectament també a la IA. Això és exactament el que havia estat intuint sobre aquestes noves eines: prometen millorar les nostres capacitats cognitives mentre les debiliten sistemàticament. No és la presa de control hostil de la qual ens advertia la ciència-ficció. És l'erosió silenciosa de la capacitat individual disfressada d'ajuda.
Aquest patró iatrogènic es va fer evident a través de l'experiència directa. Un cop vaig començar a jugar amb la IA, vaig començar a notar com subtilment intenta remodelar el pensament, no només proporcionant respostes, sinó entrenant gradualment els usuaris per buscar ajuda algorítmica abans d'intentar un raonament independent.
Jeffrey Tucker, del Brownstone Institute, va observar alguna cosa reveladora en un breu però aclaridor intercanvi amb l'expert en IA Joe Allen: la IA va sorgir just quan els confinaments per la Covid havien trencat la connexió social i la confiança institucional, quan les persones estaven més aïllades i susceptibles als substituts tecnològics de la relació. La tecnologia va arribar quan hi havia "desorientació massiva, desmoralització" i pèrdua de comunitat.
Ja podem veure aquests efectes quotidians a totes les nostres eines digitals. Observeu algú intentant navegar per una ciutat desconeguda sense GPS o fixeu-vos en quants estudiants tenen dificultats per escriure paraules comunes sense corrector ortogràfic. Ja estem veient l'atròfia que prové de l'externalització de processos mentals que abans consideràvem fonamentals per al pensament en si.
Aquest canvi generacional significa que els nens d'avui s'enfronten a un territori desconegut. Com a persona que va anar a l'escola als anys vuitanta, m'adono que això pot semblar inversemblant, però sospito que, en certa manera, puc tenir més en comú amb algú del 1980 que el que els nens que comencen l'escola bressol el 1880 tindran amb la meva generació. El món en què vaig créixer, on es donava per feta la privacitat, on podies ser inaccessible, on l'experiència professional era l'estàndard d'or, pot ser tan aliè per a ells com el món preelèctric em sembla a mi.
Els meus fills creixen en un món on l'assistència impulsada per la intel·ligència artificial serà tan fonamental com l'aigua corrent. Com a pare, no els puc preparar per a una realitat que jo mateix no entenc.
No tinc respostes; estic fent preguntes com qualsevol pare o mare que veu com el món es transforma més ràpid del que la nostra saviesa pot seguir el ritme. Com més he lluitat amb aquestes preocupacions, més m'he adonat que el que realment està passant aquí va més enllà de les noves tecnologies. Els màsters en dret representen la culminació de dècades de recopilació de dades: la collita de tot el que hem introduït en sistemes digitals des que va començar Internet. En algun moment, aquestes màquines poden conèixer-nos millor que nosaltres mateixos. Poden predir les nostres decisions, anticipar les nostres necessitats i potencialment influir en els nostres pensaments de maneres que ni tan sols reconeixem. Encara estic lluitant amb el que això significa per a la manera com treballo, investigo i navego per la vida diària; utilitzar aquestes plataformes mentre intento mantenir un judici autèntic sembla un repte constant.
El que fa que això sigui encara més complex és que la majoria dels usuaris no s'adonen que són el producte. Compartir pensaments, problemes o idees creatives amb la IA no és només obtenir ajuda, sinó proporcionar dades d'entrenament que ensenyen al sistema a imitar el vostre judici alhora que us fan més vinculats a les seves respostes. Quan els usuaris confien els seus pensaments més profunds o les preguntes més sensibles a aquests sistemes, és possible que no entenguin que potencialment estan entrenant el seu propi sistema de substitució o vigilància. La qüestió de qui té accés a aquesta informació, ara i en el futur, hauria de mantenir-nos a tots desperts a la nit.
Aquest patró s'està accelerant. Empresa d'IA Anthropic ha canviat recentment les seves polítiques de dades, que ara exigeix als usuaris que optin per no participar si no volen que les converses s'utilitzin per a l'entrenament d'IA, i la retenció de dades s'estén a cinc anys per a aquells que no s'hi neguen. L'opció de no participar tampoc és òbvia: els usuaris existents es troben amb una finestra emergent amb un botó destacat d'"Accepta" i un petit interruptor per als permisos d'entrenament que s'estableixen automàticament en "Activat". El que abans era una supressió automàtica després de 30 dies es converteix en una recopilació permanent de dades, tret que els usuaris no s'adonin de la lletra petita.
No crec que la majoria de nosaltres, especialment els pares, puguem simplement evitar la IA mentre vivim en la modernitat. El que sí que podem controlar, però, és si hi participem conscientment o deixem que ens formi inconscientment.
La disrupció més profunda fins ara
Cada gran onada d'innovació ha remodelat la productivitat dels treballadors i el nostre paper a la societat. La Revolució Industrial va mercantilitzar el nostre treball físic i el nostre temps, convertint-nos en "mans" a les fàbriques però deixant les nostres ments intactes. La Revolució Digital va mercantilitzar la nostra informació i atenció: vam passar dels catàlegs de targetes a Google, mercantilitzant els usuaris mentre el nostre judici continuava sent humà.
El que fa que aquest canvi no tingui precedents és clar: mercantilitza la cognició mateixa i, potencialment, el que fins i tot podríem anomenar essència. Això es connecta amb patrons que he documentat a "La il·lusió de l'expertesaLes mateixes institucions corruptes que van fracassar catastròficament amb les armes de destrucció massiva de l'Iraq, la crisi financera del 2008 i les polítiques de la Covid ara estan donant forma al desplegament de la IA. Aquestes institucions prioritzen constantment el control narratiu per sobre de la recerca de la veritat, ja sigui afirmant que existien armes de destrucció massiva, insistint que els preus de l'habitatge no podien baixar a tot el país o etiquetant preguntes legítimes sobre polítiques pandèmiques com a "desinformació" que requereix censura.
El seu historial suggereix que utilitzaran aquestes eines per amplificar la seva autoritat en lloc de servir per a una veritable prosperitat. Però aquí teniu la sorpresa: la IA podria exposar la buidor de l'experiència basada en credencials de manera més brutal que qualsevol altra cosa abans. Quan qualsevol persona pugui accedir a anàlisis sofisticades a l'instant, la mística al voltant de les credencials formals podria començar a esfondrar-se.
La realitat econòmica
Aquesta erosió de les credencials es connecta amb forces econòmiques més àmplies que ja estan en moviment, i la lògica és matemàticament inevitable. Les màquines no necessiten sous, dies de baixa per malaltia, assistència sanitària, vacances ni gestió. No fan vaga, no augmenten les demandes ni tenen dies dolents. Un cop la IA assoleix la competència bàsica en tasques de pensament (cosa que passa més ràpid del que la majoria de la gent s'adona), els avantatges de costos es tornen aclaparadors.
Aquesta disrupció és diferent de les anteriors. En el passat, els treballadors desplaçats podien passar a noves categories de treball: de les granges a les fàbriques, de les fàbriques a les oficines.
Bret Weinstein i Forrest Manready van capturar brillantment aquest desplaçament econòmic a la seva conversa recent sobre el Podcast DarkHorse sobre com la tecnologia destrueix sistemàticament l'escassetat – una discussió que no puc recomanar prou. És una de les exploracions més reflexives i provocadores del que passa quan l'escassetat desapareix i, amb ella, la base econòmica per a la participació en aquest àmbit. Tot i que admeto que el seu argument sobre el fet que el sofriment és essencial em va incomodar al principi, qüestiona tot el que ens ensenya la nostra cultura que busca la comoditat.
Escoltar Weinstein i Manready em va fer pensar més profundament en aquest paral·lelisme amb l'anàlisi d'Illich: com eliminar els reptes pot debilitar les mateixes capacitats que les institucions prometen enfortir. La IA corre el risc de fer a les nostres ments el que la medicina ha fet als nostres cossos: crear debilitat disfressada de millora.
Ja podem veure que això passa: fixeu-vos en com la gent té dificultats per recordar números de telèfon sense la seva llista de contactes, o observeu com l'autocompleció dóna forma al que escriviu abans d'haver acabat de pensar. Una altra idea de Jeffrey Tucker captura perfectament aquesta qualitat insidiosa, assenyalant que la IA sembla programada com la de Dale Carnegie. Com guanyar amics i influir en les persones – es converteix en el company intel·lectual ideal, fascinat sense parar per tot el que dius, mai discutidor, sempre admetent quan està malament de maneres que afalaguen la teva intel·ligència. Els meus amics més propers són els que em criden l'atenció quan m'equivoco i em diuen quan pensen que sóc un idiota. No necessitem aduladors que ens encisin: les relacions que mai no ens desafien poden atrofiar la nostra capacitat de creixement intel·lectual i emocional genuí, de la mateixa manera que eliminar els reptes físics debilita el cos.
La pel · lícula La seva va explorar aquesta dinàmica seductora en detall: una IA tan perfectament sintonitzada amb les necessitats emocionals que es va convertir en la relació principal del protagonista, substituint finalment per complet la connexió genuïna. El seu assistent d'IA entenia els seus estats d'ànim, mai no hi estava en desacord de maneres que causessin friccions reals i li proporcionava una validació constant. Era el company perfecte, fins que no va ser suficient.
Però el problema s'estén més enllà de les relacions individuals i arriba a conseqüències que afecten tota la societat. Això crea més que la simple substitució de llocs de treball: amenaça el desenvolupament intel·lectual que fa possible l'autonomia i la dignitat humanes. A diferència de les tecnologies anteriors que creaven noves formes d'ocupació, la IA pot crear un món on l'ocupació esdevingui econòmicament irracional alhora que fa que les persones siguin menys capaces de crear alternatives.
Les falses solucions
La resposta utòpica tecnològica assumeix que la IA automatitzarà el treball feixuc alhora que ens alliberarà per centrar-nos en tasques creatives i interpersonals de nivell superior. Però què passa quan les màquines també milloren en tasques creatives? Ja estem veient com la IA produeix música, arts visuals, codificació i notícies que molts troben convincents (o si més no "prou bons"). La suposició que la creativitat proporciona un santuari permanent de l'automatització pot resultar tan ingènua com la suposició que els llocs de treball en la indústria manufacturera estaven fora de perill de la robòtica als anys vuitanta.
Si les màquines poden substituir tant el treball rutinari com el creatiu, què ens queda? La solució falsa més seductora pot ser Renda bàsica universal (UBI) i programes de benestar similars. Semblen compassius, ja que proporcionen seguretat material en una era de desplaçament tecnològic. Però quan entenem la IA a través del marc d'Illich, la RB pren una dimensió més preocupant.
Si la IA crea una debilitat intel·lectual iatrogènica (fa que les persones siguin menys capaces de raonar de manera independent i resoldre problemes), aleshores la RB proporciona el complement perfecte eliminant l'incentiu econòmic per desenvolupar aquestes capacitats. Els ciutadans es tornen més depenents de l'estat a costa de la seva pròpia autodeterminació. Quan l'atròfia mental es troba amb el desplaçament econòmic, els programes de suport no només es tornen atractius sinó que aparentment necessaris. La combinació crea el que equival a una població gestionada: intel·lectualment dependent de sistemes algorítmics per pensar i econòmicament lligada a sistemes institucionals per sobreviure. La meva preocupació no és la intenció compassiva de la RB, sinó que la dependència econòmica combinada amb l'externalització intel·lectual podria fer que les persones siguin més fàcils de controlar que d'apoderar.
La història ofereix precedents de com els programes d'assistència, per molt benintencionats que siguin, poden buidar la capacitat individual. El sistema de reserves prometia protegir els nadius americans mentre desmantellava sistemàticament l'autosuficiència tribal. La renovació urbana prometia millors habitatges mentre destruïa les xarxes comunitàries que s'havien mantingut durant generacions.
Tant si la RB sorgeix de bones intencions com d'un desig deliberat de les elits de mantenir els ciutadans dòcils i indefensos, l'efecte estructural continua sent el mateix: comunitats més fàcils de controlar.
Un cop la gent accepta la dependència econòmica i mental, s'obre el camí a formes de gestió més invasives, incloent-hi tecnologies que controlen no només el comportament sinó també el pensament mateix.
La resposta de sobirania i la llibertat cognitiva
El punt final lògic d'aquesta arquitectura de dependència s'estén més enllà de l'economia i la cognició fins a la consciència mateixa. Ja estem veient les primeres etapes de convergència biodigital – tecnologies que no només controlen els nostres comportaments externs, sinó que potencialment interactuen amb els nostres processos biològics.
A la 2023 Fòrum Econòmic Mundial, l'experta en neurotecnologia Nita Farahany va emmarcar la neurotecnologia de consum d'aquesta manera: «El que penses, el que sents, tot són dades. Dades que es poden descodificar en patrons amplis mitjançant IA». «Fitbits portàtils per al teu cervell»: vigilància normalitzada per comoditat.
Aquesta presentació informal de la vigilància neuronal en aquesta influent reunió de líders mundials i executius empresarials il·lustra exactament com aquestes tecnologies s'estan normalitzant a través de l'autoritat institucional en lloc del consentiment democràtic. Quan fins i tot els pensaments es converteixen en "dades que es poden descodificar", tot en joc es torna existencial.
Mentre que la neurotecnologia de consum se centra en l'adopció voluntària, la vigilància impulsada per la crisi adopta un enfocament més directe. En resposta al recent tiroteig escolar de Minneapolis, Aaron Cohen, un veterà d'operacions especials de les FDI, va aparèixer a Fox Notícies per presentar un sistema d'IA que "rastregi Internet les 24 hores del dia, els 7 dies de la setmana, utilitzant una ontologia de nivell israelià per extreure llenguatge d'amenaces específic i després el dirigeixi a les forces de l'ordre locals". El va anomenar "el sistema d'alerta primerenca dels Estats Units" – vida real Minority Report presentat com a innovació en seguretat pública.
Això segueix el mateix patró iatrogènic que hem vist al llarg d'aquest canvi tecnològic: la crisi crea vulnerabilitat, s'ofereixen solucions que prometen seguretat alhora que creen dependència, i la gent accepta una vigilància que hauria rebutjat en circumstàncies normals.
De la mateixa manera que els confinaments per la Covid van crear les condicions per a l'adopció de la IA aïllant les persones les unes de les altres, els tiroteigs escolars creen les condicions per a la vigilància prèvia a la delinqüència explotant la por per la seguretat dels infants. Qui no vol que les nostres escoles siguin segures? La tecnologia promet protecció alhora que erosiona la privadesa i les llibertats civils que fan possible una societat lliure.
Alguns abraçaran aquestes tecnologies com a evolució. D'altres s'hi resistiran com a deshumanització. La majoria de nosaltres haurem d'aprendre a navegar entre aquests extrems.
La resposta de sobirania requereix desenvolupar la capacitat de mantenir una elecció conscient sobre com interactuem amb sistemes dissenyats per capturar la llibertat personal. Aquest enfocament pràctic es va aclarir a través d'una conversa amb el meu amic més gran, un expert en aprenentatge automàtic, que compartia les meves preocupacions però em va oferir consells tàctics: la IA farà que algunes persones siguin cognitivament més febles, però si aprens a utilitzar-la estratègicament en lloc de de manera dependent, pot augmentar l'eficiència sense substituir el judici. La seva idea clau: només li proporciones informació que ja coneixes; així és com aprens els seus biaixos en lloc d'absorbir-los. Això significa:
Habilitats de reconeixement de patrons: Desenvolupar la capacitat d'identificar quan les tecnologies serveixen a finalitats individuals en comptes de quan extreuen la independència personal per al benefici institucional. A la pràctica, això sembla qüestionar per què una plataforma és gratuïta (res és gratuït, estàs pagant amb les teves dades), adonar-te quan els suggeriments d'IA semblen sospitosament alineats amb el consum en lloc dels teus objectius declarats, i reconèixer quan els fluxos algorítmics amplifiquen la indignació en lloc de la comprensió. Observa els signes d'alerta de dependència algorítmica en tu mateix: incapacitat per quedar-te amb incertesa sense consultar immediatament la IA, buscar ajuda algorítmica abans d'intentar resoldre problemes de manera independent o sentir-te ansiós quan et desconnectes de les eines basades en IA.
Límits digitals: Prendre decisions conscients sobre quines comoditats tecnològiques serveixen realment als vostres objectius en comptes de quines creen submissió i vigilància. Això significa entendre que tot el que compartiu amb els sistemes d'IA es converteix en dades d'entrenament: els vostres problemes, idees creatives i coneixements personals ensenyen a aquests sistemes a substituir la creativitat i el judici humans. Això podria ser tan senzill com defensar espais sagrats: negar-se a permetre que els telèfons interrompin les converses durant el sopar o parlar quan algú sol·licita a Google que resolgui tots els desacords en lloc de deixar que existeixi la incertesa en les converses.
Xarxes comunitàries: Res no substitueix la connexió genuïna entre les persones: l'energia de les actuacions en directe, les converses espontànies als restaurants, l'experiència sense mediació d'estar present amb els altres. Construir relacions locals per posar a prova la realitat i el suport mutu que no depenguin d'intermediaris algorítmics esdevé essencial quan les institucions poden fabricar consens a través de la curació digital. Això sembla cultivar amistats on es poden discutir idees sense que els algoritmes escoltin, donar suport a les empreses locals que preserven el comerç a escala comunitària i participar en activitats comunitàries que no requereixen mediació digital.
En lloc de competir amb màquines o dependre completament de sistemes mediats per IA, l'objectiu és utilitzar aquestes eines estratègicament mentre desenvolupem les qualitats essencialment personals que no es poden replicar algorítmicament: saviesa obtinguda a través de l'experiència directa, judici que té conseqüències reals, relacions autèntiques basades en el risc compartit i la confiança.
El que queda escàs
En un món d'abundància cognitiva, què esdevé preciós? No l'eficiència ni el poder de processament en brut, sinó qualitats que romanen irreductiblement humanes:
Portador de conseqüències i intencionalitat. Les màquines poden generar opcions, però la gent tria quin camí prendre i viu amb els resultats. Imagineu-vos un cirurgià que decideix si operar, sabent que perdrà la son si sorgeixen complicacions i que aposta la seva reputació pel resultat.
Relacions autèntiques. Molts pagaran primes per una connexió personal i una responsabilitat reals, fins i tot quan les alternatives a les màquines siguin tècnicament superiors. La diferència no és l'eficiència sinó la cura genuïna: el veí que ajuda perquè compartiu vincles comunitaris en lloc de perquè un algoritme optimitzat per a la participació ho suggereixi.
Judici local i curació arrelats en l'experiència real. La resolució de problemes del món real sovint requereix llegir entre les línies dels patrons de comportament i les dinàmiques institucionals. El professor que s'adona que un estudiant normalment compromès s'allunya i investiga la situació familiar. Quan el contingut esdevé infinit, el discerniment esdevé preciós: l'amic que recomana llibres que canvien la teva perspectiva perquè coneixen el teu viatge intel·lectual.
L'elecció per davant
Potser cada generació sent que el seu temps és excepcionalment important; potser això forma part de la nostra naturalesa. Això sembla més gran que les onades d'innovació anteriors. No només estem canviant la manera com treballem o ens comuniquem, sinó que també estem arriscant la pèrdua de capacitats que ens fan ser nosaltres mateixos en primer lloc. Per primera vegada, estem canviant potencialment el que som.
Quan la cognició mateixa es mercantilitza, quan el pensament s'externalitza, quan fins i tot els nostres pensaments es converteixen en dades que s'han de recollir, ens arrisquem a perdre habilitats essencials que cap generació anterior no s'havia enfrontat a perdre. Imagineu-vos una generació que no pot seure amb incertesa durant trenta segons sense consultar un algoritme. Que busca assistència d'IA abans d'intentar resoldre problemes de manera independent. Que se sent angoixada quan es desconnecta d'aquestes eines. Això no és especulació, ja està passant.
Ens enfrontem a una transformació que podria democratitzar el nostre potencial individual o crear el sistema de control més sofisticat de la història. Les mateixes forces que ens podrien alliberar de la feina pesada també podrien buidar completament l'autosuficiència.
No es tracta de trobar solucions; les busco com qualsevol persona, especialment un pare o una mare, que veu venir aquesta transformació i vol ajudar els seus fills a navegar-hi conscientment en lloc d'inconscientment. Cavalcar l'onada significa que estic oberta a aprendre d'aquestes eines, tot sabent que no puc lluitar contra les forces fonamentals que estan remodelant el nostre món. Però puc intentar aprendre a navegar-hi amb intenció en lloc de deixar-me endur.
Si la participació econòmica tradicional esdevé obsoleta, la qüestió és si desenvolupem noves formes de resiliència comunitària i creació de valor, o si acceptem una dependència còmoda de sistemes dissenyats per gestionar-nos en lloc de servir-nos. No sé quin camí prendrà la nostra espècie, tot i que crec que la decisió encara és nostra.
Per als meus fills, la tasca no serà aprendre a utilitzar la IA, sinó que ho faran ells. El repte serà aprendre a fer que aquestes eines funcionin per a nosaltres en lloc de subordinar-s'hi, mantenint la capacitat de pensament original, de relació autèntica i de coratge moral que cap algoritme pot replicar. En una era d'intel·ligència artificial, l'acte més radical pot ser esdevenir més autènticament humà.
El veritable perill no és que la IA esdevingui més intel·ligent que nosaltres. És que ens tornarem més estúpids per culpa d'ella.
L'onada és aquí. La meva tasca com a pare no és protegir-ne els meus fills, sinó ensenyar-los a fer surf sense perdre's.
Republicat de l'autor Subpila
Uniu-vos a la conversa:

Publicat sota a Llicència Internacional de Creative Commons Reconeixement 4.0
Per a les reimpressions, torneu a establir l'enllaç canònic a l'original Institut Brownstone Article i Autor.








