När AI skrev sin egen policy blev den mer teologisk än kyrkokansliets

Susanne Wigorts Yngvesson professor i etik, Enskilda Högskolan Stockholm

Så här såg det ut när Kyrkans Tidnings redaktion lät AI-verktyget Chat GPT tolka nyheten om kyrkostyrelsens riktlinjer för AI. Foto: Mikael M Johansson

Förutom de uppenbara, finns även mer svårdefinierade risker med att använda AI. Risker som medföljer ett mänskligt sätt att tänka, skriver Susanne Wigorts Yngvesson i en gästledare.

Svenska kyrkan på nationell nivå har ­tagit fram riktlinjer och policydokument för användande av AI i tjänsten. Det är bra ­eftersom det blir en alltmer integrerad del av arbetet. I en intervju i Kyrkans Tidning nummer 40 2024 nämner David Axelson-Fisk på kyrkokansliet hur AI kan bistå med administration och ge förslag på energisparande i kyrkans fastigheter. Han nämner också områden där AI inte ens ska prövas, såsom i själavård. Tyvärr utvecklar han inte varför, men vi kanske instinktivt bör förstå varför just själavård ska portförbjudas, men är det så självklart egentligen?

Överlag finns det en ambition att begränsa AI i kyrkokansliets arbete till en smart medhjälpare för administration. Jag inser och uppskattar behovet av försiktighet, men är det inte en lite väl hög tröskel av aktsamhet? Kommer vi inte framöver att lära oss att uppskatta dess själavårdande egenskaper, likväl som dess administrativa? Det blir i så fall närmast en fråga om integritetsskydd och tystnadsplikt, snarare än att AI inte skulle kunna bli en själavårdare med bättre lyhördhet än de sämsta prästerna och diakonerna på det området. Det står inget om själavård i dokumenten, utan det var ett exempel som gavs av Axelson-Fisk. 

Vad som däremot står är att det för att tillåtas att använda AI i arbetet krävs en möjlighets- och riskanalys. Den ska bland annat visa att inga ”förutsebara risker medför oacceptabla skador”. Denna princip låter så självklar att det vore ren idioti att bryta mot den, men vad betyder det i den konkreta situationen? De förutse­bara riskerna avgörs ju av nivån hos den eller dem som gör bedömningen (digitaliseringschefen), liksom vad som anses som oacceptabelt. Det som dock identifieras som en oacceptabel skada ska ”inte användas oavsett vilka möjligheterna är”. Det är underförstått i dokumentet att människan har en bättre moralisk kompass än AI.

Frånsett uppenbara risker med användandet, såsom spridning av folks personliga uppgifter, finns det även mer svår­definierade risker. Sådant som ­medföljer ett mänskligt sätt att tänka, såsom att anställda och förtroendevalda väver in ideologiska raster i materialet. En AI kan då förstärka deras bias när de tar fram underlag till en debattartikel, skrivelse eller forskningsrapport. Själva användandet lär sedan AI:n att ”tänka” på det sättet, vilket också kommer att forma hur den svarar på frågor om Svenska kyrkan framöver. Det kan ju ses som bra och praktiskt, om man som enskild delar ideologin i en viss fråga, men kan i värsta fall förstärka kategoriseringar och fördomar gentemot andra uppfattningar. På grund av dokumentens förväntan om transparens och medvetna överväganden finns det därför skäl att hålla i gång samtal om sådana aspekter.

På tal om transparens så bad jag AI:n Chat GPT att besvara vad ett policydokument om AI i Svenska kyrkan bör innehålla. Det blev en intressant jämförelse med nuvarande dokument från kyrkokansliet. AI:n inleder med att poängtera hur viktigt det är att dokumentet ”återspeglar både kyrkans teologiska värderingar och etiska principer, samtidigt som det tar hänsyn till de tekniska och sociala implikationerna av AI”. Därefter ger den exempel på principer som just kyrkan bör integrera. Gemensamt är att båda betonar ansvar och transparens, etik och moral samt integritet och dataskydd. Skillnaderna visar däremot att AI:n har en större teologisk medvetenhet än vad som finns i kyrkokansliets skrivelse. AI:ns första punkt är människans värdighet och skapelsens värde. Senare talar den om vikten av att den etiska designen inriktas på att ”främja rättvisa, omsorg och solidaritet”. Den vill också ha med aspekter av ”andlig och teologisk reflektion”. 

Jag tycker det är intressant att kyrkokansliet avkodar policydokumentet från teologiska och andliga ord, medan GPT betonar dem. Bara det är värt en djupare diskussion. Den teologiskt alerta AI:n menar också att den inte får ”användas på sätt som förminskar människans roll som skapelsens förvaltare” eller för att ”av­humanisera eller behandla människor som enbart data”. Den har dessutom ett uppmuntrande medskick:” Globalt samarbete är viktigt för att förstå hur AI påverkar mänskligheten i stort, och kyrkan bör aktivt bidra till att forma internationella normer för ansvarsfull användning av AI”. Det är ett bra tips för Svenska kyrkans framtida arbete med AI.

Men vad ansåg GPT om att användas i pastorala och själavårdande samman­hang? Den var inte lika skeptisk som Axelson-Fisk, men manade till försiktighet i ”pastorala eller själavårdande roller”. Det kan tolkas som att AI håller på att lära sig förmågan att bistå med förbättring av människans villkor och självinsikt. Men det kan förstås också betyda att det är människan som ska vara försiktig med att ”smitta” AI:n med sina perversa och onda önskningar.

 

Susanne Wigorts Yngvesson, professor i etik, Enskilda Högskolan Stockholm

Prenumerera på Nyhetsbrev

0 Kommentarer

LÄGG TILL NY KOMMENTAR

Du måste vara inloggad för att kommentera. Klicka här för att logga in.