Het verantwoordelijkheidsgevoel van algoritmes

huisarts meisje

Ik begrijp de aarzeling van artsen om met nieuwe technologie aan de slag te gaan. De verantwoordelijkheid is enorm. Tegelijkertijd is hierop wachten niet meer van deze tijd.

7 maart 2019

Tech-bedrijven komen geregeld in het nieuws met innovaties waarmee zij beweren betere resultaten te leveren dan artsen van vlees en bloed. En tegen lagere kosten, wat met de oplopende zorgkosten een belangrijk argument is. Het valt mij op dat diezelfde tech-bedrijven hun producten vervolgens (meestal) specifiek aanprijzen als beslissingsondersteuning voor artsen; de computer helpt de mens. Dat komt op mij over als een gemiste kans, aangezien je net groots hebt aangetoond dat een algoritme beter en sneller beslissingen neemt dan een arts. Waarom zien de makers dan 'slechts' een bijrol voor hun algoritme?

Verantwoordelijkheid
Eerst dacht ik dat deze bijrol vooral nodig was om de introductie van de technologie in de medische context mogelijk te maken. Als de technologie eenmaal 'binnen' is, dan komt vanzelf de stap naar autonome beslissing, waarbij de dokter niet meer nodig is. Vanuit het perspectief van de arts is dit dus een Trojaans paard. Maar deze gedachte is, naast cynisch, misschien wel verkeerd. Het venijn zit hem hierbij in de verantwoordelijkheid die de arts heeft.

Een arts heeft een enorme verantwoordelijkheid over zijn patiënten. Hij neemt medische beslissingen en is persoonlijk aansprakelijk voor deze beslissingen. In Nederland hebben we instanties, zoals het medisch tuchtcollege, die de patiënt beschermen tegen ondeskundig en onzorgvuldig handelen van artsen en andere zorgverleners. Het is precies die verantwoordelijkheid waar technologiebedrijven misschien wel beducht voor zijn.

Software als medicijn
Er lijkt een aantal routes voor technologiebedrijven om hiermee om te gaan. De eerste optie is om algoritmes of software als een 'medicijn' op de markt te brengen. Dit betekent dat deze software door het hele medische validatieproces gaat, inclusief de clinical trials. Deze route is vooral mogelijk voor zeer specifieke toepassingen, bijvoorbeeld het herkennen van een specifieke tumor via een CT-scan. Dit is een tijdrovend en kostbaar proces.

Op dit moment zijn, van oudsher, farmaceutische bedrijven goed in staat om nieuwe (digitale) geneesmiddelen via deze weg te introduceren. Zij hebben hiervoor de noodzakelijke infrastructuur staan, die bijvoorbeeld ook wordt gebruikt bij de introductie van nieuwe geneesmiddelen. Daarnaast druist het langzame proces van introductie in de praktijk in tegen de 'agile' gedachte van softwareontwikkeling. Hierbij wordt niet een volledig getest en (medisch) gevalideerd product gemaakt, maar juist een product dat in eerste instantie nog weinig eindwaarde heeft. Zodat dit vervolgens samen met de eindgebruikers in hele korte update-cycli verbeterd kan worden.

Gebruiker
Een andere route naar implementatie van artificial intelligence (AI) is wanneer de verantwoordelijkheid voor medische algoritmen opschuift. Op dit moment is óf de arts óf de patiënt verantwoordelijk bij het gebruik van nieuwe technologie. Vergelijk het met navigatiesoftware die bij het opstarten actief aangeeft dat de gebruiker zelf ook moet opletten op de weg. Dat klinkt logisch, maar legt de eindverantwoordelijkheid bij de gebruiker. Bij wie ligt de verantwoordelijkheid als de navigatieapparatuur je een kapotte brug opstuurt. Wat gebeurt er als een dokter op afstand (dr. Google) het bij het verkeerde eind heeft?

Ik begrijp de aarzeling van artsen om met nieuwe technologie aan de slag te gaan. De verantwoordelijkheid is enorm. En tegelijkertijd is hierop wachten niet meer van deze tijd - we missen als maatschappij enorme kansen. Zowel op korte termijn als voor het duurzaam transformeren naar 'de juiste zorg op de juiste plek'. Wetgevers kunnen helpen in dit proces door opnieuw naar kaders, rollen en verantwoordelijkheid te kijken. Recentelijk is hier vanuit de Raad voor Volksgezondheid en Samenleving ook een rapport over verschenen dat onder andere hiervoor aanbevelingen doet. Een AI met verantwoordelijkheidsgevoel zal noodzakelijk zijn om patiënten én zorgaanbieders vertrouwen te geven in de technologie. Dit proces zal waarschijnlijk trager zijn dan de wervelende berichten in de media soms doen denken.

Blog Wiet de Ronde,
manager Zorg Analyse Team bij Menzis         

Op de website van Menzis maken we gebruik van cookies. We doen dit om te zorgen dat de website naar behoren functioneert, om het gebruiksgemak te vergroten en om onze website te verbeteren op basis van analyses. Daarnaast gebruiken we marketingcookies om content en advertenties te personaliseren en voor social media toepassingen. Gaat u akkoord? Dan geeft u Menzis toestemming voor het plaatsen van alle soorten cookies. Wilt u dit liever niet? Dan kunt u via de link “instellingen aanpassen” uw voorkeur aanpassen. Meer informatie over cookies vindt u in onze cookiepolicy.