Wetenschap
Animatie bewerkt met AI

AI doet mensenwerk

Een pact met de duivel?

Animatie bewerkt met AI
Een agent die wordt vervangen door een chatbot, een computer als psychiater: de RUG doet volop onderzoek naar de inzet van AI voor werk dat fundamenteel menselijk lijkt. Maar moeten we dat wel willen? ‘We kunnen maar beter zorgen dat we aan de voorkant heel goed nagedacht hebben.’
3 december om 13:58 uur.
Laatst gewijzigd op 4 december 2024
om 12:22 uur.
december 3 at 13:58 PM.
Last modified on december 4, 2024
at 12:22 PM.
Avatar foto

Door Rob van der Wal

3 december om 13:58 uur.
Laatst gewijzigd op 4 december 2024
om 12:22 uur.
Avatar foto

By Rob van der Wal

december 3 at 13:58 PM.
Last modified on december 4, 2024
at 12:22 PM.
Avatar foto

Rob van der Wal

Rob begon als student-redacteur bij UKrant en is sinds mei 2023 terug als vaste medewerker. Hij schrijft nieuwsberichten, achtergrondartikelen – met een voorkeur voor wetenschap – en houdt zich bezig met internationaliseringszaken. Daarnaast werkt Rob als freelance wetenschapsjournalist. In zijn vrije tijd is hij drummer, radiomaker en moestuinier.

Terwijl je oversteekt, komt van rechts een busje hard aanrijden. Voor je trapt een auto op de rem, maar te laat. Er klinkt een luide knal als de twee op elkaar botsen. Snel bel je de politie.

‘Sta je op een veilige plek?’ hoor je even later een vrouwenstem door de telefoon zeggen. ‘Wat is de datum, plaats en tijd van het ongeval?’ De intonatie is vreemd en de stem klinkt net iets té empathisch. Is dat nou een AI-systeem dat de getuigenverklaring afneemt?

Dit kan over enkele jaren zomaar werkelijkheid worden, denkt Laura Peters, universitair hoofddocent strafrecht en criminologie. Zij onderzoekt of een AI-assistent een agent kan vervangen bij gebeurtenissen als een aanrijding of winkeldiefstal. Het idee: het AI-systeem stelt vragen en zet het gesproken antwoord meteen om in tekst. Dat scheelt tijd en – handig in tijden van personeelstekort – mankracht.

Ook op andere plekken aan de RUG kijken onderzoekers waar we AI zoal voor kunnen gebruiken: om bedrijven hun ideale samenwerkingspartners te laten kiezen, om een psychose vast te stellen en zelfs om de psychiater te vervangen. 

Taken die we altijd door mensen lieten doen, dus. Kunnen die zomaar in handen worden gelegd van een computer? En belangrijker: willen we dat eigenlijk wel? Want AI-toepassingen brengen allerlei ethische dilemma’s met zich mee, en de risico’s zijn niet altijd te overzien. Verkopen we onze ziel niet aan de duivel? Hoe ondervangen onderzoekers dit soort kwesties?

Verkeerde adviezen

Voor hoogleraar psychiatrie Wim Veling zijn ze de basis van zijn onderzoek. Hij wil nagaan of het mogelijk is om de psychiater volledig te vervangen door AI. ‘We hebben ons doel expres zo extreem geformuleerd, omdat het ethische vragen oproept. In eerste instantie is er weerstand: moet je dit nou wel willen?’

We hebben ons doel expres extreem geformuleerd

~ Wim Veling

Het is bijvoorbeeld nog de vraag of een AI-therapeut geen verkeerde adviezen gaat geven, legt hij uit. ‘En bij suïcidaliteit wil je ook dat het systeem veilig is, en er nog ergens een mens in the loop zit.’ 

Op andere gebieden zou een AI-systeem misschien juist wel beter zijn, vermoedt hij. ‘Bij heel erg gestructureerde behandelingen hebben mensen snel de neiging om zijpaden in te slaan.’ Een AI heeft dat niet. ‘En als je ook signalen als pupilreacties en de hartslag kunt aansluiten op het digitale systeem, is dat misschien nog beter in staat om signalen op te pikken dan de mens.’ 

Geen autonomie

Ook Thijs Broekhuizen, universitair hoofddocent marketing en innovatie, is zich bewust van de gevolgen die zijn onderzoek kan hebben. Hij bestudeert de rol van AI bij innovatie door bedrijven. ‘Zij verzinnen hun ideeën niet alleen zelf, maar werken samen met kennisinstellingen, onderzoeksbureaus en andere bedrijven. Voor deze open innovatie moet je veel data met elkaar vergelijken’, legt hij uit.

Alleen: veel bedrijven doen dat nog weinig. ‘Ze zijn bang om het eigenaarschap over hun data te verliezen’, merkt Broekhuizen. ‘Maar met slimme data-technieken kun je die soevereiniteit wel behouden, want dan kijkt er niet iemand rechtstreeks in jouw data.’

Dat klinkt mooi, maar het kan ook doorslaan. ‘De monitoring van data kan zo negatief worden dat het effect heeft op mensen. Wanneer je bijvoorbeeld smartwatchdata of alle toetsaanslagen op je toetsenbord gaat analyseren, bestaat het gevaar dat je voor je gevoel geen autonomie meer hebt.’ Het nachtmerriescenario: een controlestaat zoals China.

Berekende beslissing

Spannend wordt het ook als je de menselijke component eruit haalt en AI volledig zelf beslissingen laat nemen, stelt postdoc Sanne Schuite-Koops, werkzaam in de groep van psychiatrie-hoogleraar Iris Sommer. ‘Sciencefictionboeken staan vol voorbeelden waarbij AI een berekende beslissing maakt die we zelf nooit zouden maken.’ 

We moeten goed uitleggen wat we doen

~ Sanne Schuite-Koops

Schuite-Koops houdt zich bezig met een taalmodel dat mensen kan monitoren die een risico hebben op een terugval in psychoses. ‘Als mensen een psychose hebben, is hun spreektempo en zinslengte opvallend lager’, zegt ze. ‘Een taalmodel kan dat systematischer en objectiever herkennen dan een psychiater.’ 

Bovendien kan AI ingezet worden voor checks tussen de bezoeken aan een psychiater door, waardoor een mogelijke terugval eerder wordt ontdekt. Zijn er langere tijd geen signalen van terugval, dan hoeft iemand wellicht zelfs minder vaak op controle. ‘Dat betekent efficiënter tijdsgebruik van de psychiater.’ 

Zo’n AI-behandeling zal door sommige patiënten wantrouwig ontvangen worden, beseft ze. ‘We moeten goed uitleggen wat we doen. Laten zien wat er met je data gebeurt als die wordt opgeslagen. En dat alleen de arts kan zien wanneer AI aangeeft dat jij een risico hebt op een terugval.’  

Strenge regels

Een Europese AI-wet, die afgelopen augustus in werking trad, moet ervoor gaan zorgen dat AI-systemen aan dit soort veiligheidseisen gaan voldoen. De wet heeft AI-gebruik ingedeeld in verschillende risicoklassen. Het gebruik van een chatbot heeft bijvoorbeeld een laag risico, terwijl AI-systemen die mensen in de gaten houden en een ‘sociale score’ toekennen een onaanvaardbaar hoog risico met zich meebrengen.

Maar, zegt Oskar Gstrein, AI-ethiekexpert aan de RUG: ‘Die wet is niet zo zeer gericht op het gebruik van AI in onderzoek, maar meer op de vermarkting van AI.’ Oftewel: in de onderzoeksfase ligt er veel in de handen van de wetenschappers zelf. 

En dan nog zijn er grote verschillen tussen wetenschappelijke disciplines. In de medische wetenschappen, waarin Veling en Schuite-Koops hun onderzoek doen, is het gebruik van AI aan strenge regels gebonden. Dat is vanwege de grote risico’s bij gebruik op patiënten, zegt Gstrein. ‘En het is normaal voor medici dat systemen langere tijd worden getest.’ 

Maar als het gaat om AI-gebruik bij juridische en fiscale activiteiten, hebben onderzoekers meer de vrije hand. Daar ligt dus een verantwoordelijkheid, vindt Peters. ‘Je moet er als wetenschapper aan meewerken dat er tijdig goede wet- en regelgeving op het gebied van AI komt. Ik vind het ook leuker om voor goede wetgeving te zorgen, dan om achteraf te lopen klagen.’

Klein beginnen

Om risico’s te vermijden, moet je klein beginnen, denkt ze. ‘Wat je ook doet op AI-gebied, het is revolutionair. Dus je kunt ethisch gezien beter niet met een moordzaak beginnen, maar je richten op veel voorkomende kleine criminaliteit.’

Iets ingrijpends als het vervangen van rechters door AI ziet ze voorlopig sowieso niet gebeuren. ‘De rechtspraak wordt daar een beetje zwart-wit van, want AI maakt geen afspraken op basis van gevoelens. Een rechter in Rotterdam kan nu een andere afweging maken dan een rechter in Leeuwarden, en dat is soms nodig.’

De uitkomst van ons onderzoek kan ook zijn dat we dit niet moeten doen

~ Laura Peters

Ook Veling verwacht dat de echte toepassing heel geleidelijk zal gaan. ‘We gaan eerst kijken naar dingen die volgens een vast protocol behandeld worden, zoals niet al te ernstige angstklachten en lichte depressieve klachten.’

Want er zijn nog diverse issues met AI-gebruik. Een bekend probleem is bijvoorbeeld een ingebouwde bias door de gebruikte trainingsdata. En denk ook aan privacy: ‘Van wie zijn de gegevens uit de gesprekken die een AI-systeem met een patiënt voert?’ vraagt Veling zich af. En Schuite-Koops zegt: ‘Een audiobestand kan ik voor mijn onderzoek niet anonimiseren. Als het bijvoorbeeld je achterneef is, dan herken je hem meteen.’

En dus willen ze zeker niet te overhaast met AI in zee gaan. ‘De vraag is niet: gaan we onze tool op de markt brengen, maar: kan het? De uitkomst van ons onderzoek kan ook zijn dat we dit niet moeten doen’, zegt Peters.

Samenwerken

Gstrein kan dan ook maar één ding echt aanraden: ‘Laat professionals uit zo veel mogelijk verschillende disciplines samenwerken: van juristen tot gedragswetenschappers en technici. Zo sluit je mogelijke biases in het eindproduct zo veel mogelijk uit.’

Een advies dat Veling ter harte neemt. Eerst zoekt hij psychologen en andere mensen uit de GGZ om een focusgroep samen te stellen. Zij gaan samenwerken met een breed scala aan technici, beleidsmakers en ethici. ‘Op basis van wat we hebben opgehaald, kunnen we een prototype maken. Soms helpt dat om de ethische vragen beter te snappen.’

Jurist Peters gaat ook de samenwerking zoeken met gedragswetenschappers en psychologen. ‘We wilden bijvoorbeeld weten onder welke omstandigheden mensen bereid zijn om met een bot te praten.’

De psychosetool van Schuite-Koops wordt streng op relevante wetgeving getoetst door een externe jurist en een ethicus. ‘Zij kijken heel erg mee of dit in de juiste procedures wordt getoetst, en of we goed omgaan met de deelnemers. Onze vorige ethische evaluatie zag er echt goed uit.’

Achtervang

En: voorlopig blijft een mens nog altijd de achtervang. ‘AI-systemen moeten niet op zichzelf gaan werken’, zegt Schuite-Koops. ‘We zien nog veel voorbeelden van fouten die ze maken, waarbij ze relevante informatie simpelweg niet meenemen.’

Dankzij deze checks and balances zijn de AI-onderzoekers eensgezind: onderzoek naar kunstmatige intelligentie moet er komen. Al is het maar, zegt Veling, omdat een AI-psychiater hoe dan ook binnen enkele jaren op de markt gaat komen. ‘En dan kunnen we er maar beter voor zorgen dat we aan de voorkant heel goed nagedacht hebben voordat er iets misgaat.’

De ontwikkeling van AI is simpelweg niet te stoppen, stelt ook Peters. ‘Je kunt dan beter met een open blik kijken naar wat er mogelijk is, voordat een ander bedrijf het op de markt brengt. De ogen sluiten vind ik eigenlijk nog veel gevaarlijker.’

Engels