Werken met AI roept ethische dilemma’s op

Diverse bedrijfjes proberen met generatieve AI de doden tot ’leven’ te wekken in de vorm van een chatbot, een avatar of hologram. Terwijl ze er zelf van overtuigd zijn iets goed te doen, krijgen ze steeds meer te maken met ethische dilemma’s. Hoe het werken met AI zeker geen business as usual is.

10 november 2024, 01:21 609 x gelezen

Digitaal onsterfelijk dankzij AI?

Stel je voor dat je met een overleden dierbare zou kunnen praten. Weer even het gevoel hebben dat iemand er weer even is. Hem of haar nog een paar dingen kunnen vertellen of vragen. Een paar jaar geleden leek dit nog verre toekomstmuziek. Inmiddels zijn diverse startups bezig om dat mogelijk te maken met artificiële intelligentie. Wat begon met chatsessies waarbij je tekstberichten intypt, ontwikkelt zich richting hologrammen waarin de overledene als een avatar terugpraat, met zijn eigen mond en stem.

Nu toepassingen als ChatGPT breed beschikbaar zijn wordt steeds zichtbaarder wat de mogelijkheden zijn van het kunnen genereren van teksten, geluiden en beelden met Large Language Models. Neem een smartphone van iemand en een verzameling aan berichten, foto’s en video’s en je hebt alle ingrediënten om iemand na te bootsen. De computer, getraind met alle input, reageert dan ‘net zoals’ de dierbare gereageerd zou hebben. Het voelt alsof je echt met diegene aan het praten bent.

Bedrijfjes die dit ontwikkelen zijn ervan overtuigd dat ze ‘iets goeds’ aan het doen zijn. In de documentaire ‘Eternal You’ komen voorbeelden als Project December, Hereafter.ai en YOV (You Only Virtual) aan het woord. Gaandeweg krijgen ze steeds meer te maken met het onvoorspelbare karakter van AI en de ethische dilemma’s die de toepassingen met zich meebrengen.

Echt of nep?

Tijdens het ontwikkelen blijkt er regelmatig wat mis te gaan. In bepaalde gevallen ging de ‘overledene’ gekke antwoorden geven of ongepaste opmerkingen maken, zelfs grove taal gebruiken tegen de nabestaanden (“You f*king b* you’re gonna pay for this”). Die schrokken zich een hoedje.

Het voorbeeld is veelzeggend. Het werken met AI roept vele vragen op: Horen die scherpe randjes bij de persoon of zijn ze een doorgeschoten karikatuur gemaakt door het algoritme? Hoort het bij de ondoorgrondelijke wegen die AI bewandelt of is de technologie gewoon nog niet goed genoeg?

De ontwikkelaars kunnen er zelf de vinger ook niet precies op leggen: de algoritmes zijn getraind met alle beschikbare informatie over een persoon maar genereren op grond daarvan op onnavolgbare wijze hun antwoorden. Inmiddels proberen ze er handmatig de scherpe randjes van af te halen. Maar al te veel ingrijpen in het algoritme kan ten koste gaan van de geloofwaardigheid of betrouwbaarheid van de avatar in andere situaties.

De parallellen met nieuwsmedia en zoekmachines en het filteren van content zijn groot. Ook deze systemen zijn jarenlang getraind met input en feedback van menselijke gebruikers. Ook deze systemen zijn geoptimaliseerd voor het geven van wenselijke antwoorden en ook hier is een toenemende druk op het filteren van maatschappelijk ongewenste inhoud. En de ontwikkelaars van bijvoorbeeld Google kunnen hun algoritme ook niet volledig uitleggen of navolgen.

De gevolgen kunnen groot zijn. Wat gaan de antwoorden van de avatar doen met het beeld dat nabestaanden zelf hebben van een overledene? In de documentaire zien we dat sommigen de avatar een leugenaar en ‘nep’ gaan noemen en zich ertegen verzetten. Maar in de praktijk kan het veel subtieler liggen en kunnen nabestaanden bijvoorbeeld schuldgevoelens krijgen of gedachten aan zelfdoding. Wie is daar dan voor verantwoordelijk?
Het algoritme is de bril waarmee we naar de wereld kijken, in dit geval onze overledenen.

Mooier dan in het echt

Sommige van de ontwikkelbedrijven vinden dat hun avatars van overledenen alleen het mooie van iemand moeten laten zien en over mooie en positieve onderwerpen moeten spreken. Over de dode niets dan goeds, immers. Positieve herinneringen worden ook beter geaccepteerd door de nabestaanden.

Dit zijn tevens de kopers van het product. Niet voor niets zijn de algoritmen in vele sectoren de afgelopen jaren steeds meer geoptimaliseerd voor het geven van aannemelijke tot wenselijke uitkomsten die klanten tevredenstellen. Of beter nog, trouw of verslavend maken aan een product of dienst. De verleiding om vanuit zo’n verdienmodel te gaan sturen wordt dan groter en groter.

Een avatar kan ‘gewoon’ een toepassing zijn van generatieve AI en ‘slechts’ een interface om nabestaanden toegang te geven tot de content van een overledene en herinneringen te herbeleven. In de praktijk is de impact veel groter. De ervaringen van het praten met de ‘overledenen’ kunnen een grote rol spelen bij het verwerkingsproces van een dood. Een hulp tegen de eenzaamheid van een alleenstaande oude vrouw die haar man moet missen en dat gat niet zomaar even opvult met anderen. Wat als het praten met avatars het proces van rouw en afscheid nemen aantast? Ervoor zorgt dat nabestaanden niet meer verder gaan met hun eigen leven?

Verantwoordelijkheid

Bij het ontwikkelen van een product met AI, zoals de avatar, blijken dus al complexe ethische en medische vragen op te komen. Kennis, die je als bedrijf niet zomaar in huis hebt. En als je je product zou gaan ontwikkelen als een therapie, in hoeverre kun je dan sturen zonder dat de avatar zijn geloofwaardigheid, en daarmee ook een belangrijk deel van zijn effectiviteit, verliest?

De verantwoordelijkheid van de bedrijven die deze ontwikkeling brengen is dus veel complexer en verdergaand dan zij zelf lijken te realiseren of kunnen overzien: als je een product ‘programmeert’, word je eerder aansprakelijk gehouden voor ongewenste effecten dan wanneer deze toevallig en onbedoeld optreden – zelfs als je niet goed kunt uitleggen hoe het algoritme dat ongewenste effect (zoals het eerder genoemde schelden) heeft kunnen oproepen.

Het inzetten van AI bij het ontwikkelen van of als onderdelen van een product is dus geen gewone ‘neutrale’ technologische uitdaging maar vraagt tevens om ethische en medische expertise, zoals we die bij geneesmiddelen en medische hulpmiddelen kennen.

Overheden zijn nog zoekende hoe zij de toepassingen van AI willen reguleren (verbieden, vergunningen vereisen of voorwaarden stellen?). Ondernemers die flink aan de slag willen gaan met AI en voorop willen lopen, zullen zich moeten voorbereiden op pittige ethische dilemma’s en onzekerheid ten aanzien van de complexe regelgeving.

Maurits Kreijveld
futuroloog en strategisch adviseur bij Wisdomofthecrowd.nl

Maurits Kreijveld is futuroloog en strategisch adviseur. Hij onderzoekt en verbeeldt de impact van nieuwe technologieën op organisaties, individuen en de samenleving, en adviseert hierover. Hij is gespecialiseerd in digitale transformatie (platformeconomie, deeleconomie) en innovatie cocreatie. Met zijn boek ‘De plug&play;-organisatie. Handboek voor digitaal transformeren' en bijbehorende workshops en masterclasses helpt hij organisaties digitaal aanpassingsvermogen en wendbaarheid te krijgen. Eerder schreef Maurits 'De kracht van platformen' het eerste Nederlandse boek over de platformeconomie, en ‘Samen slimmer. Hoe de wisdom of crowds onze samenleving zal veranderen’ met toekomstbeelden over de zorg, innovatie en smart cities.

Categorie
Tags

Plaats reactie

Marketingfacts. Elke dag vers. Mis niks!