Det enda beslut som AI inte kan förutse

Vi pratar ofta om personlig medicin; Vi pratar nästan aldrig om personlig död.

Beslut i livets slutskede är några av de mest komplexa och fruktade besluten, både för patienter och vårdpersonal. Även om flera källor indikerar att människor skulle föredra att dö hemma, slutar de i utvecklade länder ofta sina liv på sjukhus och ofta i intensivvårdsmiljöer. Olika skäl har föreslagits för att förklara denna lucka, inklusive underutnyttjande av palliativ vård, delvis på grund av försenade remisser. Hälso- och sjukvårdspersonal inleder inte alltid samtal i livets slutskede, kanske oroar sig för att orsaka ångest, störa patienternas autonomi eller sakna utbildning och färdigheter för att diskutera dessa ämnen.

Vi förknippar flera rädslor med döden. I min praktik som läkare, som arbetat inom palliativ vård i flera år, har jag mött tre huvudsakliga rädslor: rädsla för smärta, rädsla för separation och rädsla för det okända. Men levnadstestamenten eller förhandsdirektiv, som kan anses ta kontroll över processen till viss del, är i allmänhet sällsynta eller inte tillräckligt detaljerade, vilket lämnar familjemedlemmar med ett otroligt svårt val.

Förutom de avsevärda kostnader de står inför, har forskning visat att anhöriga eller surrogatbeslutsfattare kan vara felaktiga i sin förutsägelse av den döende patientens preferenser, möjligen för att dessa beslut påverkar dem personligen och relaterar till deras egna hanteringssystem, övertygelser och deras roll. som barn eller föräldrar (vikten av det senare påvisas i en Ann Arbor-studie).

Kan vi förhindra familjemedlemmar eller behandlande läkare från att fatta dessa beslut genom att lägga ut dem på datoriserade system? Och om vi kan, ska vi göra det?

AI för beslut i livets slutskede

Diskussioner om en “patientpreferensprediktor” är inte nya; Men de har nyligen fått draghjälp i det medicinska samfundet (som dessa två utmärkta forskningsartiklar från Schweiz och Tyskland från 2023), eftersom snabbt utvecklande AI-kapacitet flyttar debatten bort från det hypotetiska. bioetiska sfären till den konkreta. Detta är dock fortfarande under utveckling och end-of-life AI-algoritmer har inte antagits kliniskt.

Förra året publicerade forskare från München och Cambridge en proof-of-concept-studie som visar en maskininlärningsmodell som ger råd om en mängd medicinska moraliska dilemman: Medicinsk etikrådgivare, eller METAD. Författarna uppgav att de valde en specifik moralisk konstruktion, eller uppsättning principer, på vilken de tränade algoritmen. Detta är viktigt att förstå, och även om det är beundransvärt och nödvändigt att du nämnde det tydligt i din artikel, löser det inte ett grundläggande problem med “beslutsstödsystem” i slutet av livet: vilken uppsättning värden bör sådana algoritmer vara baserad på? ?

När man tränar en algoritm behöver datavetare i allmänhet en “grundsanning” som de kan basera sin algoritm på, ofta ett objektivt och entydigt mått. Överväg en algoritm som diagnostiserar hudcancer från en bild av en lesion; det “rätta” svaret är godartat eller malignt; med andra ord definierade variabler som vi kan träna algoritmen med. Men i fallet med beslut i livets slutskede som att inte försöka återuppliva (som tydligt exemplifieras i New England Journal of Medicine), vad är den objektiva sanningen med vilken vi tränar eller mäter algoritmprestanda?

Ett möjligt svar på detta skulle vara att utesluta alla slags moraliska bedömningar och helt enkelt försöka förutsäga patientens egna önskningar; en anpassad algoritm. Lättare sagt än gjort. Prediktiva algoritmer behöver data som de kan basera sina förutsägelser på, och inom medicin tränas AI-modeller vanligtvis på en stor datamängd komplett med relevanta informationsfält. Problemet är att vi inte vet vad är Viktig. Förmodligen, förutom medicinsk historia, kan paramedicinska data, såsom demografi, socioekonomisk status, religiös tillhörighet eller andlig praktik, vara väsentlig information för patientens preferenser i slutet av livet. Dessa detaljerade datamängder är dock praktiskt taget obefintliga. Men den senaste utvecklingen av stora språkmodeller (som ChatGPT) tillåter oss att undersöka data som vi inte kunde bearbeta tidigare.

Om det inte räcker med att använda retrospektiv data, skulle vi då hypotetiskt kunna träna algoritmer för slutskedet? Låt oss föreställa oss att vi frågar tusentals människor om imaginära scenarier. Kan vi lita på att deras svar representerar deras sanna önskningar? Det kan rimligen hävdas att ingen av oss kan förutsäga hur vi kan reagera i verkliga situationer, vilket gör denna lösning opålitlig.

Det finns andra utmaningar också. Om vi ​​bestämmer oss för att lita på en uttjänt algoritm, vad skulle den lägsta noggrannhetströskeln vara vi skulle acceptera? Oavsett referenspunkt kommer vi att behöva presentera den öppet för patienter och läkare. Det är svårt att föreställa sig att möta en familj i en så svår tid och säga ”din älskade är i kritiskt tillstånd och ett beslut måste fattas. En algoritm förutspår att din mamma/son/hustru skulle ha valt… men kom ihåg att algoritmen bara är rätt 87 % av gångerna.” Hjälper eller skapar detta verkligen fler svårigheter, speciellt om rekommendationen går emot familjens önskemål eller ges till personer som inte är tekniskt kunniga och kommer att ha svårt att förstå begreppet algoritmbias eller felaktigheter?

Detta är ännu mer uttalat när vi betraktar den “svarta lådan” eller oförklarliga egenskapen hos många maskininlärningsalgoritmer, vilket gör att vi inte kan ifrågasätta modellen och vad den bygger sin rekommendation på. Förklarlighet, även om den diskuteras i ett bredare sammanhang av AI, är särskilt relevant i etiska frågor, där resonemang kan hjälpa oss att säga upp oss.

Få av oss är någonsin beredda att fatta ett beslut om livets slut, även om det är den enda säkra och förutsägbara händelsen vid varje given tidpunkt. Ju mer vi tar ansvar för våra beslut nu, desto mindre beroende kommer vi att vara av AI för att fylla tomrummet. Anspråk på vår personal val betyder att vi aldrig kommer att behöva en personliga algoritm.

Leave a Reply

Your email address will not be published. Required fields are marked *