COMPARTIR | IMPRIMIR | CORREU ELECTRÒNIC
La meva experiència en medicina em permet distingir entre la innovació genuïna i la reclassificació subtil que altera fonamentalment la pràctica mentre sembla que no ha canviat. La intel·ligència artificial ha atret recentment una atenció considerable, inclosa l'afirmació àmpliament difosa que la IA ha estat "legalment autoritzada a exercir la medicina" als Estats Units. Interpretada literalment, aquesta afirmació és inexacta. Cap consell mèdic ha llicenciat una màquina. Cap algoritme ha fet un jurament, ha acceptat el deure fiduciari ni ha assumit la responsabilitat personal pels danys al pacient. Cap metge robot està obrint una clínica, facturant a les asseguradores o compareixen davant d'un jurat de negligència mèdica.
Tanmateix, aturar-se en aquesta observació passa per alt la qüestió més àmplia. Actualment s'estan redefinint els conceptes legals de responsabilitat, sovint sense consciència pública.
Hi ha una transformació significativa en marxa, que justifica més que un rebuig reflexiu o un entusiasme tecnològic acrític. El desenvolupament actual no és l'atorgament de la llicència a la intel·ligència artificial com a metge, sinó més aviat l'erosió gradual del límit central de la medicina: el vincle intrínsec entre el judici clínic i la responsabilitat humana. El judici clínic implica prendre decisions informades i adaptades a les necessitats i circumstàncies úniques de cada pacient, cosa que requereix empatia, intuïció i una comprensió profunda de l'ètica mèdica.
La responsabilitat humana es refereix a la responsabilitat que els professionals sanitaris assumeixen per aquestes decisions i els seus resultats. Aquesta erosió no és el resultat d'una legislació dramàtica o d'un debat públic, sinó que es produeix silenciosament a través de programes pilot, reinterpretacions reguladores i un llenguatge que oculta intencionadament la responsabilitat. Un cop es dissol aquesta frontera, la medicina es transforma de maneres difícils de revertir.
La principal preocupació no és si la IA pot renovar receptes o detectar resultats de laboratori anormals. La medicina fa temps que utilitza eines i els proveïdors d'atenció mèdica generalment agraeixen l'ajuda que redueix les tasques administratives o millora el reconeixement de patrons. El veritable problema és si el judici mèdic (decidir sobre les accions, els pacients i els riscos correctes) es pot veure com un resultat generat per ordinador separat de la responsabilitat moral. Històricament, els esforços per desconnectar el judici de la rendició de comptes sovint han causat danys sense assumir-ne la responsabilitat.
Els desenvolupaments recents aclareixen els orígens de la confusió actual. En diversos estats, ara hi ha programes pilot limitats que permeten que els sistemes basats en IA ajudin amb les renovacions de receptes per a afeccions cròniques estables sota protocols estrictament definits. A nivell federal, la legislació proposada ha considerat si la intel·ligència artificial podria qualificar-se com a "professional" per a finalitats legals específiques, sempre que estigui regulada adequadament. Aquestes iniciatives es presenten normalment com a respostes pragmàtiques a l'escassetat de metges, els retards d'accés i les ineficiències administratives. Tot i que cap designa explícitament la IA com a metge, col·lectivament normalitzen la premissa més preocupant que les accions mèdiques poden produir-se sense un responsable humà clarament identificable.
A la pràctica, aquesta distinció és fonamental. La medicina no es defineix per l'execució mecànica de tasques, sinó per l'assignació de responsabilitat quan els resultats són desfavorables. Escriure una recepta és senzill; acceptar la responsabilitat de les seves conseqüències, sobretot quan es tenen en compte les comorbiditats, el context social, els valors del pacient o la informació incompleta, és molt més complex. Al llarg de la meva carrera, aquesta responsabilitat ha residit contínuament en un humà que podia ser qüestionat, desafiat, corregit i considerat responsable. Quan el Dr. Smith comet un error, la família sap amb qui contactar, cosa que garanteix una línia directa amb la responsabilitat humana. Cap algoritme, independentment de la seva sofisticació, pot complir aquest paper.
El risc principal no és tecnològic, sinó regulador i filosòfic. Aquesta transició representa un canvi de l'ètica de la virtut al procedimentalisme. Quan els legisladors i les institucions redefineixen la presa de decisions mèdiques com una funció dels sistemes en lloc d'actes personals, el marc moral de la medicina canvia. La responsabilitat esdevé difusa, el dany és més difícil d'atribuir i la responsabilitat passa dels clínics als processos, del judici a l'adherència al protocol. Quan inevitablement es produeixen errors, l'explicació predominant esdevé que "el sistema va seguir les directrius establertes". Reconèixer aquesta transició aclareix el canvi de la presa de decisions ètiques individualitzada al compliment procedimental mecanitzat.
Aquesta preocupació no és teòrica. L'atenció mèdica contemporània ja s'enfronta a reptes relacionats amb la dilució de la responsabilitat. He observat que els pacients perjudicats per decisions basades en algoritmes es perden entre administradors, proveïdors i models opacs, sense una resposta clara a la pregunta fonamental: qui va prendre aquesta decisió? La intel·ligència artificial accelera significativament aquest problema. Un algoritme no pot proporcionar explicacions morals, exercir moderació basada en la consciència, rebutjar accions per motius ètics ni admetre un error a un pacient o a una família.
Els defensors d'una major autonomia de la IA sovint citen l'eficiència com a justificació. Les clíniques estan desbordades, els metges pateixen esgotament i els pacients sovint esperen mesos per una atenció que només hauria de durar uns minuts. Aquestes preocupacions són legítimes i qualsevol clínic honest les reconeix. Tanmateix, l'eficiència per si sola no justifica la modificació dels fonaments ètics de la medicina. Els sistemes optimitzats per a la velocitat i l'escala sovint sacrifiquen el matís, la discreció i la dignitat individual. Històricament, la medicina s'ha resistit a aquesta tendència emfatitzant que l'atenció és fonamentalment una relació més que no pas una transacció.
La intel·ligència artificial corre el risc d'invertir aquesta relació. Quan els sistemes, en lloc dels individus, proporcionen atenció, el pacient ja no està involucrat en un pacte amb un clínic, sinó que passa a formar part d'un flux de treball. El metge assumeix el paper de supervisor de la màquina o, el que és més preocupant, serveix com a amortidor legal que absorbeix la responsabilitat per decisions no preses personalment. Amb el temps, el judici clínic cedeix el pas a l'adherència al protocol i l'agència moral disminueix gradualment.
La IA també introdueix un problema més subtil i perillós: l'emmascarament de la incertesa. La medicina viu en l'ambigüitat. L'evidència és probabilística. Les pautes són provisionals. Els pacients rarament es presenten com a conjunts de dades nets. Els clínics estan entrenats no només per actuar, sinó també per dubtar: per reconèixer quan la informació és insuficient, quan la intervenció pot causar més danys que beneficis o quan el camí correcte és esperar. Imagineu-vos un escenari en què la IA recomana l'alta, però el cònjuge del pacient sembla temorós, cosa que destaca la tensió entre la presa de decisions algorítmiques i la intuïció humana. Aquesta fricció al món real subratlla els riscos de l'ambigüitat.
Els sistemes d'IA no experimenten incertesa; generen resultats. Quan són incorrectes, sovint ho fan amb una confiança injustificada. Aquesta característica no és un defecte de programació, sinó una característica inherent de la modelització estadística. A diferència dels clínics experimentats que expressen obertament dubtes, els models de llenguatge gran i els sistemes d'aprenentatge automàtic no poden reconèixer les seves pròpies limitacions. Produeixen respostes plausibles fins i tot quan les dades són insuficients. En medicina, la plausibilitat sense fonamentació pot ser perillosa.
A mesura que aquests sistemes s'integren abans en els fluxos de treball clínics, els seus resultats influeixen cada cop més en les decisions posteriors. Amb el temps, els clínics poden començar a confiar en les recomanacions no per la seva validesa, sinó perquè s'han normalitzat. El judici canvia gradualment del raonament actiu a l'acceptació passiva. En aquestes circumstàncies, la "persona humana en el bucle" serveix com a poc més que una salvaguarda simbòlica.
Els defensors sovint afirmen que la IA només "augmentarà" els metges en lloc de substituir-los. Tanmateix, aquesta tranquil·litat és feble. Un cop la IA demostra guanys d'eficiència, les pressions econòmiques i institucionals tendeixen a impulsar una major autonomia. Si un sistema pot renovar les receptes amb seguretat, aviat se li pot permetre iniciar-les. Si pot diagnosticar amb precisió afeccions comunes, es qüestiona la necessitat de revisió mèdica. Si supera els humans en punts de referència controlats, la tolerància a la variabilitat humana disminueix.
Tenint en compte aquestes tendències, és essencial implementar mesures de seguretat específiques. Per exemple, les auditories obligatòries de discrepància en el 5% de les decisions basades en la IA podrien servir com a comprovació concreta, garantint l'alineació entre les recomanacions d'IA i el judici clínic humà, alhora que proporcionen als reguladors i als consells d'administració dels hospitals mètriques accionables per supervisar la integració de la IA.
Aquestes preguntes no es plantegen amb mala intenció; emergeixen de manera natural dins dels sistemes centrats en la contenció de costos i l'escalabilitat. Tanmateix, indiquen un futur on el judici humà esdevé l'excepció en lloc de la norma. En un escenari així, les persones amb recursos continuaran rebent atenció humana, mentre que d'altres seran dirigides a través de processos automatitzats. La medicina de dos nivells no serà el resultat de la ideologia, sinó de l'optimització.
El que fa que aquest moment sigui especialment precari és l'absència de línies clares de responsabilitat. Quan una decisió impulsada per la IA perjudica un pacient, qui és el responsable? El metge supervisa nominalment el sistema? La institució que el va implementar? El proveïdor que va entrenar el model? El regulador que va aprovar el seu ús? Sense respostes explícites, la responsabilitat s'evapora. I quan la responsabilitat s'evapora, la confiança aviat segueix.
La medicina depèn fonamentalment de la confiança. Els pacients posen els seus cossos, les seves pors i sovint les seves vides en mans dels clínics. Aquesta confiança no es pot transferir a un algoritme, independentment de la seva sofisticació. Es basa en la seguretat que hi ha un ésser humà present, algú capaç d'escoltar, adaptar-se i ser responsable de les seves accions.
Rebutjar completament la intel·ligència artificial és innecessari. Quan s'utilitza amb prudència, la IA pot reduir les càrregues administratives, identificar patrons que poden eludir la detecció humana i donar suport a la presa de decisions clíniques. Pot permetre als metges dedicar més temps a l'atenció al pacient que a les tasques administratives. Tanmateix, aconseguir aquest futur requereix un compromís clar de mantenir la responsabilitat humana al centre de la pràctica mèdica.
"Human-in-the-loop" ha de significar més que una supervisió simbòlica. Hauria d'exigir que una persona específica sigui responsable de cada decisió mèdica, en comprengui la raó de ser i conservi tant l'autoritat com l'obligació d'invalidar les recomanacions algorítmiques. També ha d'implicar transparència, explicabilitat i consentiment informat del pacient, així com un compromís d'invertir en professionals clínics humans en lloc de substituir-los per IA.
El risc principal no és el poder excessiu de la intel·ligència artificial, sinó la disposició de les institucions a renunciar a la responsabilitat. En la recerca de l'eficiència i la innovació, hi ha el perill que la medicina esdevingui un camp tècnicament avançat i administrativament simplificat, però mancat de substància moral.
A mesura que considerem el futur, és essencial preguntar-nos: quin tipus de sanador imaginem al costat del llit del pacient el 2035? Aquesta pregunta requereix imaginació moral col·lectiva, que ens anima a donar forma a un futur on la responsabilitat humana i l'atenció compassiva romanguin al centre de la pràctica mèdica. Mobilitzar l'agència col·lectiva serà crucial per garantir que els avenços en intel·ligència artificial millorin, en lloc de soscavar, aquests valors fonamentals.
La intel·ligència artificial no té llicència per exercir la medicina. Però la medicina s'està redissenyant discretament al voltant de sistemes que no tenen pes moral. Si aquest procés continua sense control, potser algun dia descobrirem que el metge no ha estat substituït per una màquina, sinó per un protocol, i que quan es produeix un dany, no queda ningú que en respongui.
Això no seria progrés. Seria una abdicació.
-
Josep Varon, doctor en medicina, és metge de cures intensives, professor i president de la Independent Medical Alliance. És autor de més de 980 publicacions revisades per experts i és editor en cap del Journal of Independent Medicine.
Veure totes les publicacions