Läs Kjell Asplunds nya krönika: Moraliska maskiner i vården?

Krönikor på Smers hemsida uttrycker författarens synpunkter. De ska inte uppfattas som uttryck för rådets analyser och ställningstaganden. 

 

Det är mycket om självkörande bilar nu. Det är inte bara att vi snart kan släppa ratten. Dessa bilar kan också få oss att fundera över etiken kring artificiell intelligens och lärande maskiner i hälso- och sjukvården.

De självkörande bilarna klarar sig förträffligt när de möter det väntade. Men hur ska de förarlösa bilarna klara det oväntade: Ett barn springer plötsligt ut på vägen, ska bilen väja in i en betongvägg med risk att båda passagerarna dör? Eller köra på barnet?

Detta är i grunden ett moraliskt dilemma. Vilka moraliska värden ska i så fall styra? Kan bilen ultrasnabbt beräkna riskerna och göra ett utilitaristiskt baserat beslut? Minsta möjliga livskvalitetsjusterade levnadsår som förloras? Eller ska andra värden vägas in?

För att undersöka om man kan väga in människors moraliska värderingar har forskare vid det världsledande teknologiuniversitetet MIT i USA utvecklat ett spel (Moral Machine) där den självkörande bilen ställs inför olika alternativ, alla med dödlig utgång. Du kan själv delta i spelet på http://moralmachine.mit.edu/ och jämföra dina värderingar med de mer än tio miljonerna andra spelarna.

Det är kanske inte så överraskande att majoriteten som ställts inför de olika scenarierna i Moral Machine så långt möjligt försökt reducera antalet dödsfall. Men sedan kommer mer provokativa värdebaserade ställningstaganden. Man kör hellre på män än kvinnor (fast differensen är inte lika stor som mellan djur och människor), hellre äldre än barn, hellre en flyende tjuv än en portföljbärare och hellre en som inte lyder lagen (går mot rött) än en som gör det. Om den man kör på är mager eller fet verkar däremot inte spela någon roll.

Artificiell intelligens är på ingång i sjukvården. Just nu verkar det mest handla om diagnostik. De lärande maskinerna kommer snart att stå för mycket av röntgendiagnostiken och tolkningen av vävnads- och cellprover. Där behöver maskinerna inte etikprogrammeras.

Men sedan? Om maskinerna ska hjälpa till att välja och genomföra en behandling eller rentav hjälpa till med prioriteringar, vilka moraliska ingångsvärden ska då programmeras in?

I Moral Machine-spelet är det långt ifrån alltid principen om människors lika värde som vägleder dem som svarar. Enligt prioriteringsplattformens människovärdesprincip har alla lika värde oavsett kön, ålder, sexuell läggning eller ställning i samhället. Är detta vad som ska programmeras in? Eller är det – som forskningen vid MIT öppnar för – medborgarnas faktiska taxeringar av sina medmänniskors värde som ska vägas in?

I dessa den personcentrerade vårdens tidevarv öppnar sig ytterligare en möjlighet när man i vården har mer tid på sig och patienten kan medverka: Patientens egna värderingar skulle kunna matas in i algoritmerna.

Eller kanske är hela ansatsen fel. Att i ett spel styra legoliknande figurer och fordon in i olika dödliga alternativ, ger det någon användbar information om hur vi reagerar och värderar människor när vi ställs inför reella dilemman som handlar om människor med kropp och själ, om faktiska skador, sjukdomar, lidanden, kanske rentav hotande död? Finns tvivel på detta, måste vi kritiskt fråga oss: Är det överhuvudtaget etiskt godtagbart att maskinerna matas med moraliska algoritmer? I så fall, vilken grundläggande etik ska de få lära sig?

Smer kommer under 2018 att särskilt ägna sig åt etiken kring hur maskin och människa kan samverka i hälso- och sjukvården. För att bredare föra ut de etiska diskussionerna har vi inlett ett samarbete med Tekniska Museet, Institutet för framtidsstudier och Arbetets Museum. Snart kommer långt fler beslut än idag att tas av lärande maskiner. Att etiskt analysera vad detta kommer att innebära för vården är ett uppfordrande uppdrag.

Kjell Asplund

Ordförande Smer

 

 

Kjell Asplund