Door Laura Hartman en Maartje Schermer.
Ethisch onderzoek naar AI, van algemeen naar toepassing
“Bij elke fase van het trainen en inzetten van een AI-model, zijn menselijke waarden betrokken”, aldus een recent overzichtsartikel in de New England Journal of Medicine over het gebruik van Kunstmatige intelligence (AI) in de zorg (Kun-Hsing et al., 2024). Hoewel er bijna 100 ethische codes en frameworks zijn ontwikkeld voor een ethisch verantwoorde ontwikkeling en implementatie van AI in de zorg, zijn er nog veel vragen onbeantwoord. AI-toepassingen kunnen serieuze schade toebrengen, maar worden op dit moment een stuk minder gereguleerd dan andere medische hulpmiddelen (McLennan et al., 2022). Een deel van het probleem is dat de toepassingen ongelofelijk gevarieerd zijn, en het ethisch onderzoek nu moet verschuiven van AI in de gezondheidszorg in het algemeen naar AI per specifieke toepassing in een bepaald klinisch domein. Bij het voorspellen van postoperatieve infectierisico’s met behulp van AI spelen heel andere ethische kwesties dan bij het lezen van scans binnen de radiologie, of het assisteren van artsen en verpleegkundigen met verslaglegging.
Coderen van principes, waarden, normen en deugden: geen infrastructuur
Een ander probleem is dat de geformuleerde mid-level principes onvoldoende houvast geven bij het daadwerkelijk ontwikkelen van de algoritmes en modellen. Hoe codeer je een waarde als “gelijkheid” of “veiligheid”? Wat houdt dat in voor specifieke ontwikkelkeuzes van een model? Recent onderzoek laat zien dat ontwikkelaars zich vaak wel bewust zijn van de ethische en maatschappelijke gevolgen van keuzes die maken, maar dat ze onvoldoende ondersteuning en infrastructuur ervaren bij het maken van deze keuzes (Griffin et al., 2024). Het feit dat commerciële partijen vaak gefocust zijn op snelheid, innovatie, bedrijfsbelang en winst helpt hier niet aan mee. Er is een gebrek aan een ethische infrastructuur: toegang tot kennis en knowhow over hoe verantwoord om te gaan met ethische vragen, gebrek aan procedures voor het gestructureerd en systematisch doordenken van ethische ontwerp-dilemma’s. Dit leidt ertoe dat AI-ontwikkelaars ethische vragen negeren, afschuiven of bij te veel morele stress een andere baan zoeken. Een voorbeeld dat veel media-aandacht kreeg, betreft het vertrek Timnit Gebru, co-lead van de ethiekafdeling van AI bij Google, die weigerde zich terug te trekken van een wetenschappelijk paper dat de risico’s van grote taalmodellen belichtte (Emily et al., 2021).
Een black box van nullen en enen: transparantie noodzakelijk
Hoewel AI vaak met innovatie en vernieuwing wordt geassocieerd, betoogden we eerder dat het er juist een reëel risico is dat bestaande – soms achterhaalde – waarden, keuzes of vooroordelen in nullen en enen worden vastgelegd. AI-modellen reproduceren dan zaken waar we juist vanaf willen. Het feit dat veel AI-toepassingen door commerciële partijen worden ontwikkeld die beperkte inzage in hun modellen geven is in het kader hiervan problematisch. We moeten in de gezondheidszorg blijven vragen welke normatieve oordelen en vooroordelen in modellen en algoritmen terecht zijn gekomen, wie er precies baat hebben bij bepaalde toepassingen, en hoe we dat kunnen onderzoeken en blootleggen.
Hoe om te gaan met waardeverandering?
Een ander probleem is dat nieuwe waarden en principes die nu in onze samenleving opkomen, zoals bijvoorbeeld duurzaamheid, voor ingewikkelde vragen zorgen. Willen we duurzaamheid ook toepassen bij ontwikkeling en implementatie van AI dan hebben we nieuwe kennis nodig. Hoe implementeer je een AI-toepassing duurzamer? Om dit soort kennis te ontwikkelen hebben we meer ethische sensitiviteit nodig bij AI-ontwikkelaars en meer ethici en clinici die technisch geschoold zijn.
Neemt werkdruk wel af door AI?
Hoewel keer op keer wordt herhaald dat AI de een enorme efficiëntieslag zal realiseren, en een ontlastende invloed op de zorg kan hebben, blijkt dit in de praktijk tegen te vallen. Er is een groot risico dat de werkdruk door AI-toepassingen juist toeneemt of alleen maar verschuift. (Jongsma et al., 2024) Achterhalen waar iets is misgegaan, updates draaien, privacy op orde hebben en houden, model drift onderzoeken en bijhouden, mogelijke schade van het model herstellen, behandelkeuzes maken rondom de nieuwe kennis of mogelijkheden die het model mogelijk ontsluit: het zijn allemaal nieuwe taken die erbij komen.
De voorspelling dat algoritmes artsen of andere zorgverleners zouden vervangen is momenteel verre van werkelijkheid. In tegendeel, artsen zijn steeds meer nodig om de betekenis van AI gegenereerde getallen en voorspellingen te duiden in de actuele klinische context van de patiënt. Het is belangrijk dat artsen leren werken met modellen en de zwakke en sterke kanten leren inschatten; wanneer zijn voorspellingen betrouwbaar en wanneer minder? Wanneer kan je op advies van het model varen en wanneer dien je er juist van af te wijken? Deze vaardigheid moet snel een meer prominente plaats in de curricula krijgen. Tegelijkertijd is meer onderzoek nodig om beter te begrijpen wélke vaardigheden en kennis artsen van de toekomst precies nodig gaan hebben, om de AI-revolutie bij te houden.
Over de auteurs
Laura Hartman werkt als ‘embedded ethicus’ bij het 4D PICTURE project vanuit de sectie Medische ethiek, filosofie en geschiedenis van de geneeskunde van Erasmus MC. Ze heeft een aandachtsgebied op de ethische aspecten van artificiële intelligente in de zorg.
Maartje Schermer is hoogleraar Filosofie van de geneeskunde en hoofd van de sectie Medische ethiek, filosofie en geschiedenis van de geneeskunde van Erasmus MC. Vanaf 15 oktober 2024 bekleedt zij de KNMG-leerstoel Health Ethics in a Technological Society (Digital Health Ethics) aan de Erasmus Universiteit. De leerstoel richt zich op de ethische vraagstukken rond de technologische ontwikkelingen in de gezondheidszorg, zoals digitalisering, robotisering en kunstmatige intelligentie.
Zoektermen voor internet
Laura Hartman, Maartje Schermer, AI-toepassingen, ethisch onderzoek, transparantie, digitalisering,