Door Dirk Lukkien, senior onderzoeker data gedreven zorg bij Vilans.
In de media komen twee tegengestelde opvattingen naar voren over de relatie tussen kunstmatige ofwel artificiële intelligentie (AI) en menselijke intelligentie. Aan de ene kant de hoop dat AI kan bijdragen aan verbetering van de menselijk cognitie. AI zou ons kunnen voorzien van inzichten die onze besluitvorming en ons handelen kunnen verbeteren. Aan de andere kant de angst dat een sterke afhankelijkheid van AI ons als mens minder intelligent maakt. In feite kan de waarheid variëren afhankelijk van de context. Afhankelijk van de specifieke vormgeving van AI-systemen én het gebruik ervan in de praktijk kunnen initiële voordelen van AI omslaan in nadelen. Dit artikel gaat in op de vraag hoe AI te implementeren is in de langdurige zorg met voordelen die opwegen tegen de eventuele nadelen. Onder langdurige zorg versta ik onder meer ouderenzorg, gehandicaptenzorg en geestelijke gezondheidszorg.
AI in de langdurige zorg
De term AI verwijst naar systemen die voor door mensen gedefinieerde doelstellingen, en op basis van de input (data) die ze ontvangen, voorspellingen of aanbevelingen doen, of beslissingen nemen (Yeung, 2020). Verschillende AI-systemen variëren in hun mate van autonomie en aanpassingsvermogen na implementatie. Terwijl de curatieve zorg over het algemeen vooroploopt in de ontwikkeling en implementatie van AI, worden ook in de langdurige zorg voor ouderen steeds geavanceerdere AI-systemen ontwikkeld en ingezet om cliënten en zorgverleners te ondersteunen (Vilans, 2023). In de langdurige zorg is AI een drijvende kracht achter een toenemende verscheidenheid aan toepassingen zoals systemen voor monitoring op afstand, registratie- en beslissingsondersteunende software, sociale robots en virtuele assistenten (Dermody & Fritz, 2018; Mukaetova-Ladinska et al., 2020).
Vier verwachte voordelen van AI
AI-systemen kunnen professionals en hun zorgprocessen op vier manieren ondersteunen:
- AI kan helpen vroegtijdig(er) te anticiperen op zorgbehoeften door – op basis van data uit bronnen zoals monitorings-instrumenten en het elektronisch cliëntendossier – subtiele trends en beginnende problemen met betrekking tot de gezondheid of het welzijn van een cliënt aan het licht te brengen.
- Ook kunnen AI-systemen data uit de context van een individuele cliënt verzamelen en verwerken en combineren met bijvoorbeeld wetenschappelijke kennis. Zo kunnen ze bijdragen aan adaptieve, op data gebaseerde besluitvorming over persoonsgerichte zorg.
- Verder kunnen de inzichten vanuit AI-systemen handvatten bieden voor ‘samen beslissen’ door cliënten en hun (in)formele zorgverleners.
- Bovendien zou de inzet van AI de cognitieve belasting van zorgverleners kunnen verlichten en de werkervaring kunnen verbeteren door het ondersteunen of overnemen van repetitieve, ingewikkelde en belastende analytische en monitoringtaken.
AI kan professionals dus ondersteuning bieden bij het onderzoeken, beoordelen en diagnosticeren van zorgbehoeften en het plannen, implementeren en evalueren van zorgstrategieën die deze behoeften moeten adresseren. Zorgverleners zouden zo mogelijk niet alleen betere beslissingen maken, maar ook meer tijd kunnen overhouden voor bijvoorbeeld persoonlijke aandacht voor de cliënt. De verwachte vooruitgang op het gebied van AI suggereert een steeds pro-actievere rol van data en algoritmen bij besluitvorming over persoonsgerichte zorg.
Balanceren tussen kansen en risico’s
Tegelijkertijd is er ook steeds meer aandacht voor de potentiële onbedoelde negatieve effecten van AI-ondersteunde zorg (Morley et al., 2020; Rubeis, 2020). Hieronder staan zes nadelen:
- Net als bij technologie in het algemeen, worden in gesprek over AI bijvoorbeeld vaak zorgen geuit over privacy, vertrouwen en het vermogen van ouderen om hun eigen beslissingen te nemen.
- Daarbij zou toenemende afhankelijkheid van AI ook het vermogen van zorgverleners tot kritisch redeneren en (samen) beslissen over persoonsgerichte zorg kunnen uithollen.
- Zowel AI-systemen als hun gebruikers houden mogelijk onvoldoende rekening met bepaalde contextuele factoren of cruciale nuances in de kenmerken en behoeften van individuele cliënten.
- Het zorgnetwerk kan door AI worden misleid richting zorgstrategieën die niet of onvoldoende passen bij een specifieke cliënt of situatie.
- Ook zou AI kunnen bijdragen aan stigmatisering en overproblematisering van ‘ouder worden’ door geïdentificeerde trends in data (onnodig) te markeren als ‘problematisch’.
- Verder kan AI-gedreven beslisondersteuning weliswaar de werkdruk van zorgprofessionals verminderen, maar ook hun werkplezier en professionele voldoening. Door inzet van AI zouden immers ook taken uit handen kunnen worden genomen die het werken in de zorg juist interessant of aantrekkelijk maken.
Verantwoorde AI-ondersteunde zorg vraagt dus om een genuanceerde kijk op het samenspel van mogelijke positieve en negatieve effecten. Door verschillende (potentiële of bewezen) effecten van AI zorgvuldig tegen elkaar af te zetten en hier bewuste afwegingen in te maken, kunnen specifieke randvoorwaarden voor verantwoord design en gebruik van AI-systemen in de praktijk worden geformuleerd. Dit moet ‘in context’ plaatsvinden, samen met cliënten, zorgverleners en andere actoren die worden geraakt door de inzet van AI.
Van algemene principes naar…
De afgelopen jaren is er een breed scala aan richtlijnen verschenen voor de ontwikkeling en toepassing van ethische, verantwoorde en vertrouwenswaardige AI, bijvoorbeeld vanuit de Europese Commissie (EC, 2019) en de Wereldgezondheidsorganisatie (WHO, 2020). Een vergelijking van richtlijnen laat zien dat er consensus is over het belang van algemene ethische principes zoals het waarborgen van privacy, transparantie, menselijke autonomie, eerlijkheid en veiligheid (Jobin et al., 2019). Tegelijkertijd zijn bestaande richtlijnen en principes abstract en laten ze nog veel ruimte voor interpretatie over verantwoorde AI-toepassingen in een specifieke context. In een recent literatuuronderzoek (Lukkien et al., 2023) naar verantwoorde AI-innovatie in de context van langdurige zorg hebben we gevonden dat bestaande studies zich vooral richten op algemene discussies over sociale en ethische aspecten van AI, algemene perspectieven van beoogde gebruikers, en algemene principes die op dit gebied moeten worden nagestreefd. Er wordt tot op heden beperkt empirisch onderbouwd welke praktische maatregelen in het design en implementatie van specifieke AI-systemen sociale wenselijkheid en ethische aanvaardbaarheid kunnen bevorderen.
…praktische maatregelen
Dit gebrek aan kennis over handelingsopties is problematisch, maar niet onbegrijpelijk. De zorg en de samenleving als geheel hebben, net als de meeste bedrijven, de beste bedoelingen met de inzet van technologie. Bovendien is het steeds gebruikelijker dat ontwikkelaars en andere betrokkenen in het innovatieproces zich afvragen wat ethische vraagstukken betekenen voor hun eigen werk. Desondanks is men door een gebrek aan (concreet) handelingsperspectief en de waan van de dag vaak geneigd om een diepere reflectie op ethische en sociale implicaties uit te stellen of ze te beleggen bij andere experts. Daarnaast lijkt soms te worden verondersteld dat het betrekken van ‘de gebruiker’ in het innovatieproces vanzelfsprekend leidt tot innovaties die sociaal wenselijk en ethisch aanvaardbaar zijn. Echter kan men in ‘co-creatie’ onbedoeld en onbewust voorbijgaan aan belangrijke thema’s en ethische vraagstukken, zoals hoe om te gaan met het risico dat gebruikers onbewust overmatig vertrouwen op uitkomsten van AI-systemen (Van Velsen et al., 2022).
Vier tips om AI-voordelen te maximeren en nadelen tot een minimum te beperken
Over het algemeen krijgen ethische en sociale implicaties van AI in de zorg tegenwoordig meer aandacht, maar er is ruimte voor verbetering in het nadenken hierover in ‘de praktijk’, als integraal onderdeel van het design en de implementatie van specifieke AI-systemen. Verantwoorde AI-ondersteunde zorg behoeft maatwerk en continue verfijning. Met andere woorden: de wijzen waarop AI-systemen zorgprocessen ondersteunen en interacteren met gebruikers dienen voortdurend te worden afgestemd op de belangen, interesses en ervaringen en rollen van individuele belanghebbenden zoals cliënten en zorgverleners. Om de voordelen van AI te maximaliseren en de negatieve effecten tot een minimum te beperken in de praktijk, geef ik vier tips:
- Ga per situatie na welke specifieke zorgtechnologieën relevant en wenselijk zijn om in te zetten en welke data zodoende kunnen worden verzameld (Berridge, 2021),
- Bedenk vooraf hoe data door AI kunnen en mogen worden verwerkt tot uitkomsten (voorspellingen, aanbevelingen of zelfs beslissingen).
- Spreek ook af wie toegang krijgen tot specifieke data en AI-gedreven inzichten en in hoeverre AI-gedreven inzichten aan gebruikers dienen te worden uitgelegd (Du, 2023).
- Bespreek vooraf én reflecteer tijdens gebruik met elkaar hoe AI-systemen zorgverleners proactief kunnen adviseren over zorgbehoeften en -strategieën zonder daarmee te sturend te worden in de besluitvorming.
Zorgverleners staan aan de basis van verantwoorde AI
Verantwoorde AI-ondersteunde zorg behoeft bovendien een aanpak die verder gaat dan alleen het ontwerp en de technische aspecten van AI. Het vraagt om zorgverleners en andere gebruikers die in staat zijn om op bekwame wijze met deze technologieën om te gaan (Sand et al., 2022). Tegelijkertijd kan van verschillende zorgverleners geen gelijke bijdrage aan verantwoorde inzet van AI worden verwacht. Sommige zorgverleners hebben mogelijk hulp nodig bij het optimaal en verantwoord gebruik ervan. Andere zorgverleners met meer ervaring en affiniteit met technologie en AI kunnen dergelijke praktische hulp bieden aan collega’s. Ook kunnen zij ontwikkelaars ondersteunen bij het vormgeven en iteratief verbeteren van AI-systemen, bijvoorbeeld door het helpen opstellen en testen van aannames over hoe specifieke data kunnen worden omgezet in betekenisvolle inzichten ter ondersteuning van het zorgproces. Ook kunnen ze het (zelf)lerend vermogen van AI-systemen versterken door met systeemleveranciers mee te kijken hoe hun AI-modellen worden verfijnd op basis van gebruikersfeedback en (andere) nieuwe data.
Kortom
Door de grote potentiële meerwaarde en de toenemende zorgkloof is het ethisch gezien niet meer verdedigbaar voor zorgorganisaties om zich helemaal niet te verdiepen in de (on)mogelijkheden van AI. Ook wanneer men besluit om (nog) niet mee te gaan in een bepaalde AI-ontwikkeling, kan men voordeel halen uit het opdoen van kennis. Hoe meer zorgprofessionals zich nu al gaan verdiepen in AI – zowel de kansen als de risico’s ervan – hoe groter de groep die anderen straks kunnen helpen navigeren in het verantwoorde gebruik van steeds geavanceerdere meedenkende technologieën.
Over de auteur
Dirk Lukkien is senior onderzoeker Datagedreven zorg bij Vilans, de kennisorganisatie voor zorg en ondersteuning. Daarnaast is hij deeltijd buitenpromovendus Verantwoorde AI Innovatie bij de Universiteit Utrecht. Met zijn achtergrond in de innovatiewetenschappen slaat hij een brug tussen wat technologisch mogelijk is en wat maatschappelijk haalbaar en wenselijk is op gebied van data- en AI-ondersteunde zorg. Dirk is bereikbaar via D.Lukkien@vilans.nl
Zoektermen op internet:
Dirk Lukkien, AI, langdurige zorg, digitalisering, AI-systemen, zorgprofessionals, Vilans