Print Friendly, PDF & Email

Door Laura Hartman en Maartje Schermer.

De nieuwsberichten over Artificiële Intelligentie (AI) buitelen over elkaar heen en de koppen en metaforen liegen er niet om; AI zou uiteindelijk de dokter kunnen vervangen, ‘een revolutie’ in de zorg ontketenen en onze samenleving en het zorglandschap onherkenbaar kunnen veranderen of zelfs ontwrichten. Big data worden ‘het nieuwe goud’ genoemd en de statistische berekeningen van ChatGPT ‘magie’. Kortom, we bevinden ons middenin een hype rondom artificiële intelligentie. Vanuit de hype is het ingewikkeld om de grote beloftes en radicale toekomstvoorspellingen, die vaak ook ingegeven worden door commerciële of andere belangen, op waarde te schatten. Wat zal de daadwerkelijke invloed van AI op het Nederlandse zorglandschap worden? Hoewel dat ingewikkeld is om in te schatten, is die invloed ook iets waar we als samenleving zelf richting aan kunnen geven. Met andere woorden; welke invloed willen wij dat AI op de zorg heeft? Wat zijn de belangrijkste aandachtspunten en hoe kunnen we deze bijsturen? We belichten in deze bijdrage een aantal ethische aspecten van AI in de zorg die naar onze mening meer aandacht, onderzoek en discussie behoeven.

Gaat AI de dokter vervangen?

Binnen radiologie en dermatologie zijn de AI toepassingen het meest vergevorderd en toch is ook daar de daadwerkelijke inzet nog bescheiden te noemen. Een recente review in de radiologie laat zien dat er sprake is van veel obstakels voor een succesvolle implementatie, zoals een gebrek aan vertrouwen onder radiologen (Eltawil et al., 2023). Er lijkt zich een patroon af te tekenen dat AI niet zozeer menselijke arbeid vervangt, maar eerder de werkprocessen, het type zorg en de werkzaamheden van de zorgverlener beïnvloedt. De interactie tussen het algoritme en de dokter verdient nog veel aandacht en nader onderzoek. Zo bleek bijvoorbeeld uit een recente studie dat zelfs ervaren radiologen liever niet tegen de inschatting van een algoritme ingaan, terwijl dit in sommige gevallen wel gerechtvaardigd was (Thomas et al., 2023). Dit wordt de zogenaamde automation bias genoemd; de neiging van mensen om geautomatiseerde processen meer te vertrouwen dan de eigen inschatting. En hoewel een AI toepassing vaak getraind is op veel data, werkt AI fundamenteel anders dan mensen, waardoor het soms fouten kan maken die mensen er zo uit halen.

Een ander aandachtspunt betreffende de interactie tussen het algoritme en de dokter is het doel waarmee het algoritme wordt ontwikkeld en geïmplementeerd. Uit onderzoek naar de inzet van AI binnen magazijnen bleek bijvoorbeeld dat AI het meest gunstig uitpakt voor management (Berkers et al., 2020). Deze vragen zijn ook te stellen over de inzet van AI in de zorg; verkleint of vergroot de AI de beslisruimte van de arts of verpleegkundige? Wordt AI bijvoorbeeld ingezet om nog strakkere roosters te ontwerpen waarbinnen afwijken bijna onmogelijk wordt? Of ondersteunt AI juist in het bieden van maatwerk aan patiënten? Dit zijn keuzes die in de ontwerpfase gemaakt moeten worden: welk probleem moet het algoritme precies oplossen? Dit benadrukt ook het belang van de betrokkenheid van zorgverleners bij de ontwikkeling van algoritmes voor de zorg.

Biases en vooroordelen

Algoritmes lopen een grote kans om bestaande vooroordelen en ongelijkheden in de samenleving te reproduceren en zelfs te versterken, aangezien ze getraind worden op data uit de echte wereld, die vaak vooroordelen bevatten. Zo voorspelde een algoritme in Amerika ten onrechte dat zwarte Amerikanen gezonder waren dan witte Amerikanen omdat het algoritme onder andere getraind was op de hoeveelheid uitgegeven zorgkosten per patiënt. Dat lag een stuk lager bij deze groep (Obermeyer et al., 2019). Een ander voorbeeld is een taalmodel dat ‘vrouw’ associeert met ‘verpleegkundige’ en ‘man’ met ‘arts’.

De wereld gezondheid organisatie (WHO) heeft 6 principes opgesteld voor ethisch verantwoorde AI1 (WHO, 2021). Bij het ontwerp van de algoritmes in de praktijk moeten echter ingewikkelde afwegingen worden gemaakt tussen de principes en moet er nog veel kennis ontwikkeld worden over het vraagstuk op welke manier je deze principes ‘codeert’ in het algoritme. Hoeveel minder accuraat mag een algoritme worden ten gunste van meer gelijkheid tussen verschillende groepen? Accepteren we dat er een bepaalde foutmarge in de modellen zit of is dat altijd onaanvaardbaar? Is het verantwoord om bepaalde data bewust niet mee te nemen zodat het model minder nauwkeurig wordt maar het risico op discriminatie of stigmatisering juist vermindert? En hoe moeten we een waarde als nauwkeurigheid afwegen tegen een waarde als duurzaamheid? Kunnen we een algoritme ook ethische afwegingen laten maken? Dit is slechts een topje van de ijsberg van de vele ingewikkelde ethische vragen die tijdens het ontwikkelen van een model voorbijkomen.

Programmeren en vastzetten van de ‘status quo’

Het feit dat de algoritmes de aanwezige vooroordelen en ongelijkheden in onze samenleving zichtbaar maken, biedt ook weer aanknopingspunten om ze te corrigeren, zowel in het algoritme zelf als in de samenleving. In sommige gevallen is dit corrigeren in de software of in de database echter erg ingewikkeld en traag. Neem het voorbeeld ‘ gender’. De meest basale infrastructuur voor computers is ontwikkeld in de jaren 60, waarbinnen geslacht als een zogenaamde boolean (1 of 0) werd geprogrammeerd, in plaats van een veld met meer flexibiliteit, zoals bijvoorbeeld een [string] (Broussard, 2023). Een ander veld zou de huidige sociale werkelijkheid beter representeren waarbinnen mensen hun geslacht veranderen of zich niet identificeren met beide geslachten. Hier zie je dat computermodellen de vrije ruimte van mensen kunnen inperken in plaats van vergroten.

Dit punt geldt ook in meer algemene zin. Bij iedere ontwikkeling van een computerprogramma of algoritme moeten vele beslissingen worden genomen. Welke type gegevens kunnen er in de gekozen velden? Hoe groot moet elk veld zijn om de gegevens te bevatten? Wie kan en mag wijzigingen aanbrengen en onder welke omstandigheden? Wat zijn de uitkomstmaten? Vaak worden deze beslissingen genomen door de programmeurs of modelbouwers op basis van verschillende scenario’s die zij kunnen bedenken. Soms zijn dit louter technische afwegingen, maar soms ook zijn het sociale waarden of ethische afwegingen die op deze manier gecodeerd worden in het algoritme (Bak, 2022). De belangrijke vraag wordt: wiens waarden en welke wereldbeelden worden gecodeerd en welke niet? Het is van belang dat bij dit soort beslissingen, vaker breder en inclusiever wordt gedacht zodat niet een te eenzijdig waardenpatroon en wereldbeeld wordt gecodeerd, dat vervolgens weer erg moeilijk aan te passen is.

Gebruik in de praktijk: is het nu innovatief of juist conservatief?

Hoewel AI vooral met snelheid, innovatie en flexibiliteit wordt geassocieerd, reproduceert AI dus vaak juist ook de status quo en bemoeilijkt het de sociale vooruitgang of beperkt het de vrijheid van mensen. Het is van belang om AI te demystificeren en de werking toegankelijker te maken zodat we als samenleving en zorg meer gevoel krijgen voor de manier waarop algoritmes werken, de sterke kanten en zwakke kanten beter in beeld hebben, en we meer ethisch, maatschappelijk, zorg gerelateerd en juridisch vocabulaire ontwikkelen om het ontwerp en het gebruik van AI in de zorg bij te sturen.

Over de auteurs
Laura Hartman werkt als ‘embedded ethicus’ bij het 4D PICTURE project vanuit de sectie Medische ethiek, filosofie en geschiedenis van de geneeskunde van Erasmus MC. Ze heeft een aandachtsgebied op de ethische aspecten van artificiële intelligente in de zorg. Maartje Schermer is hoogleraar Filosofie van de geneeskunde en hoofd van de sectie Medische ethiek, filosofie en geschiedenis van de geneeskunde van Erasmus MC.


1De zes kernprincipes van de WHO: 1. Autonomie beschermen; 2. Bevorderen van menselijk welzijn, menselijke veiligheid en het algemeen belang; 3. Zorg voor transparantie, uitlegbaarheid en begrijpelijkheid; 4. Verantwoordelijkheid en aansprakelijkheid bevorderen; 5. Zorg voor inclusiviteit en rechtvaardigheid;6. Promoot AI die responsief en duurzaam is.

Zoektermen voor het internet:

Laura Hartman, Maartje Schermer, AI, Artificial Intelligence, innovatie, big data, ChatGPT, automation bias, algoritme, zorgverlening, modellen, vooroordelen

Schrijf u in voor de nieuwsbrief


En ontvang elke 2 weken de nieuwsbrief met de meest recente artikelen in je mailbox!

Klik hier om in te schrijven

Dit zal sluiten in 10 seconden