Vervangt een AI binnenkort je psychiater?

shutterstock_576208246.jpg

" Dag mijnheer. Ga alstublieft zitten. Dus... hoe is het met je gegaan sinds de laatste keer? Wat als deze onschuldige zin over een paar jaar niet meer werd uitgesproken door een psychiater van vlees en bloed, maar door een AI, een kunstmatige intelligentie? Met de recente heropleving van de psychiatrie in het publieke debat, vooral door de gezondheidscrisis, is het idee opgedoken om monitoringsystemen voor de geestelijke gezondheid voor te stellen die AI's integreren.

Het is, laten we eerlijk zijn, verre van nieuw, aangezien we de eerste spoor van een chatbot (dialoogprogramma) gewijd aan de psychiatrie, genaamd ELIZA, uit 1966. In de afgelopen decennia hebben ontwikkelingen op het gebied van kunstmatige intelligentie de opkomst van chatbots, “robottherapeuten” of andere spraakgestuurde gezondheidsdetectiesystemen.

Het bestaat vandaag meer dan twintig robottherapeuten gevalideerd door wetenschappelijke studies in de psychiatrie. Verschillende van deze werken suggereren dat patiënten zouden kunnen: echte therapeutische relaties ontwikkelen met deze technologieën, zelfs dat sommigen van hen zich zelfs meer op hun gemak zouden voelen bij een chatbot dan bij een menselijke psychiater.

De ambities zijn dan ook groot... Vooral omdat deze digitale 'professionals', in tegenstelling tot hun menselijke tegenhangers, objectieve, reproduceerbare en niet-oordelende beslissingen zouden beloven - en te allen tijde beschikbaar zouden zijn.

ELIZA's dialoogpagina, met fragment uit een uitwisseling over de vriend van de gesprekspartner van de robottherapeut
De eerste dialoogsoftware of chatbot is ELIZA, ontworpen in 1966 om een ​​psychotherapeut te simuleren.
DR

Er moet echter worden opgemerkt dat hoewel de naam 'robottherapeut' het beeld oproept van een fysieke robot, de meeste op tekst gebaseerde, mogelijk geanimeerde video's zijn. Naast deze afwezigheid van fysieke aanwezigheid, belangrijk voor de meeste patiënten, erkennen velen niet alle moeilijkheden die worden ervaren door de mensen met wie ze praten. Hoe kunnen we dan passende antwoorden geven, zoals doorverwijzing naar een speciale helpdesk?

Diagnose en intern model bij de psychiater

De psychiater kan in zijn interview met zijn patiënt belangrijke signalen waarnemen die duiden op het bestaan ​​van suïcidale gedachten of huiselijk geweld, die huidige chatbots kunnen missen.

Waarom overtreft de psychiater nog steeds zijn elektronische versie? Wanneer deze specialist aankondigt "U heeft een aandachtstekortstoornis", of "Uw dochter heeft anorexia nervosa", hangt het proces dat hem ertoe bracht deze diagnoses te stellen af ​​van zijn "interne model": een reeks mentale processen, expliciet of impliciet, die hem in staat stellen zijn diagnose te stellen.

net als deengineering haalt inspiratie uit de natuur om hoogwaardige systemen te ontwerpen, kan het relevant zijn om te analyseren wat er in het hoofd van een psychiater omgaat (de manier waarop hij zijn interne model ontwerpt en gebruikt) wanneer hij zijn diagnose stelt om vervolgens de AI die verantwoordelijk is voor de imitatie beter te trainen... Maar in hoeverre zijn een menselijk 'intern model' en dat van een programma vergelijkbaar?

Dit vroegen we ons af in onze artikel onlangs gepubliceerd in het tijdschrift Grenzen in de psychiatrie.

Mens-machine vergelijking

Door te vertrouwen op eerdere studies over diagnostisch redeneren in de psychiatrie, hebben we een vergelijking gemaakt tussen het interne model van de psychiater en dat van RN's. De formulering van een diagnose doorloopt drie hoofdfasen:

Informatie verzamelen en organiseren. Tijdens zijn interview met een patiënt verzamelt de psychiater veel informatie (uit zijn medisch dossier, zijn gedrag, wat er wordt gezegd, enz.), die hij vervolgens selecteert op basis van hun relevantie. Deze informatie kan vervolgens worden gekoppeld aan reeds bestaande profielen met vergelijkbare kenmerken.

AI-systemen doen hetzelfde: op basis van de data waarmee ze zijn getraind, halen ze kenmerken uit hun uitwisseling met de patiënt. functionaliteiten) die ze selecteren en organiseren op basis van hun belang (functie selectie). Ze kunnen ze vervolgens groeperen in profielen en zo een diagnose stellen.

De opbouw van het model. Tijdens hun medische studie, daarna gedurende hun hele loopbaan (klinische praktijk, het lezen van casusrapporten, enz.), formuleren psychiaters diagnoses waarvan ze de uitkomst kennen. Deze voortdurende training versterkt, in hun model, de associaties tussen de beslissingen die ze nemen en de gevolgen ervan.

Ook hier worden de AI-modellen op dezelfde manier getraind: of ze nu tijdens hun initiële training of hun leerproces zijn, ze versterken in hun interne model voortdurend de relaties tussen de descriptoren die uit hun databases worden gehaald en de diagnostische uitkomst. Deze databases kunnen erg groot zijn en zelfs meer gevallen bevatten dan een clinicus in zijn carrière zal zien.

Gebruik van het model. Aan het einde van de twee voorgaande fasen is het interne model van de psychiater klaar om gebruikt te worden om de leiding te nemen over nieuwe patiënten. Verschillende externe factoren kunnen van invloed zijn op hoe hij dit zal doen, zoals zijn salaris of zijn werklast - die hun equivalent vinden in de kosten van apparatuur en de tijd die nodig is om een ​​AI te trainen of te gebruiken.

Zoals hierboven aangegeven, is het vaak verleidelijk om te denken dat de psychiater in zijn beroepspraktijk wordt beïnvloed door een hele reeks subjectieve, fluctuerende en onzekere factoren: de kwaliteit van zijn opleiding, zijn emotionele toestand, de koffie in de ochtend, enz. En dat een AI, die een "machine" is, van al deze menselijke grillen af ​​zou zijn... Dit is een vergissing! Omdat AI ook een belangrijk onderdeel van subjectiviteit omvat; het is gewoon minder direct waarneembaar.

[Bijna 70 lezers vertrouwen op de nieuwsbrief van The Conversation om de belangrijkste problemen van de wereld beter te begrijpen. Schrijf je vandaag nog in]

AI, echt neutraal en objectief?

Inderdaad, alle AI is ontworpen door een menselijke ingenieur. Dus als men de denkprocessen van de psychiater (en dus het ontwerp en het gebruik van hun interne model) en die van de AI wil vergelijken, moet men rekening houden met de invloed van de codeur die het heeft gemaakt. Dit heeft zijn eigen interne model, in dit geval niet om klinische gegevens en diagnose te associëren, maar type AI en probleem dat moet worden geautomatiseerd. En ook daar komen veel technische keuzes maar op basis van de mens in aanmerking (welk systeem, welk classificatie-algoritme, etc.)

Het interne model van deze codeerder wordt noodzakelijkerwijs beïnvloed door dezelfde factoren als die van de psychiater: zijn ervaring, de kwaliteit van zijn opleiding, zijn salaris, de werktijd om zijn code te schrijven, zijn ochtendkoffie, enz. Alles zal van invloed zijn op de ontwerpparameters van de AI en dus indirect op de besluitvorming van de AI, dat wil zeggen op de diagnoses die het zal stellen.

De andere subjectiviteit die het interne model van AI's beïnvloedt, is die van de databases waarop het is getraind. Deze databases zijn inderdaad ontworpen, verzameld en geannoteerd door een of meer andere mensen met hun eigen subjectiviteiten - subjectiviteit die een rol zal spelen bij de keuze van de soorten verzamelde gegevens, het betrokken materiaal, de maatregel die is gekozen om de database te annoteren. , enz.

Hoewel AI's als objectief worden gepresenteerd, ze reproduceren feitelijk de vooroordelen die aanwezig zijn in de databases waarop ze zijn getraind.

Samenvattend diagram waar subjectieve factoren een rol spelen bij het stellen van een diagnose: bij de psychiater, maar ook bij de codeurs, ingenieurs, etc.
Subjectiviteit treedt niet alleen op bij de menselijke psychiater, maar ook bij therapeutische AI's door de keuzes die worden gemaakt door de ingenieurs, programmeurs, enz. die ze hebben ontworpen.
Vincent Martijn, auteur voorzien

De grenzen van AI in de psychiatrie

Uit deze vergelijkingen blijkt dat AI niet vrij is van subjectieve factoren en vooral om deze reden nog niet klaar is om een ​​'echte' psychiater te vervangen. De laatste heeft andere relationele en empathische kwaliteiten om het gebruik van zijn model aan te passen aan de realiteit die hij tegenkomt... waar AI nog steeds moeite mee heeft.

De psychiater is dus in staat om flexibel informatie te verzamelen tijdens zijn klinische interview, waardoor hij toegang heeft tot zeer verschillende temporele informatie: hij kan de patiënt bijvoorbeeld vragen stellen over een symptoom dat weken eerder optrad of de uitwisseling ervan in realtime evolueren volgens de verkregen antwoorden. AI's zijn momenteel beperkt tot een vooraf vastgesteld en daarom rigide schema.

Een andere sterke beperking van AI's is hun gebrek aan lichamelijkheid, een factor heel belangrijk in de psychiatrie. Elke klinische situatie is immers gebaseerd op een ontmoeting tussen twee mensen – en deze ontmoeting omvat spraak en non-verbale communicatie: gebaren, positie van lichamen in de ruimte, lezen van emoties op het gezicht of herkenning van non-verbale sociale signalen. Met andere woorden, de fysieke aanwezigheid van een psychiater vormt een belangrijk onderdeel van de patiënt-zorgverlenerrelatie, die zelf een belangrijk onderdeel van de zorg uitmaakt.

Enige vooruitgang van AI's op dit gebied is afhankelijk van vooruitgang in robotica, waar het interne model van de psychiater al in is belichaamd.

Betekent dit dat we het idee van een virtuele psychiater moeten vergeten? De vergelijking tussen de redenering van de psychiater en die van de AI is toch interessant vanuit een cross-pedagogisch perspectief. Inderdaad, een goed begrip van de manier waarop psychiaters redeneren, zal het mogelijk maken om beter rekening te houden met de factoren die betrokken zijn bij de constructie en het gebruik van AI's in de klinische praktijk. Deze vergelijking werpt ook licht op het feit dat de codeur ook zijn deel van de subjectiviteit naar de AI-algoritmen brengt... die dus niet in staat zijn om de eraan toegeschreven beloften waar te maken.

Alleen door dit soort analyse zal zich in de toekomst een echte interdisciplinaire praktijk kunnen ontwikkelen, die het mogelijk maakt om AI en geneeskunde te hybridiseren, ten gunste van het grootste aantal.

Vincent Martijn, PhD in computerwetenschappen, Universiteit van Bordeaux et Christopher Gauld, kinderpsychiater en slaapdokter, Universiteit van Parijs 1 Panthéon-Sorbonne

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder Creative Commons-licentie. Lees deorigineel artikel.


Recente artikelen >

Samenvatting van het nieuws voor 28 september 2023

geschetst grijs klokpictogram

Recent nieuws >