Zeven vragen over de risico’s van kunstmatige intelligentie

1 juli 2019, 06:00

Uitdagingen voor een verantwoorde ontwikkeling van AI

We zijn met volle vaart het tijdperk van Big Data en kunstmatige intelligentie (AI) aan het ingaan. Denk aan de personal assistents op je smartphone, zoals Alexa, Siri en Google Assistent, waar je tegen kunt praten en vragen aan kunt stellen en aan de productierobot Baxter, zorgrobot Alice en klantenservice assistent Amelia. De intelligente computer heeft een menselijk uiterlijk gekregen. Maar wat gaat er schuil achter de onschuldige glimlach van deze virtuele (meestal) dames? In zeven vragen bespreek ik de belangrijkste risico’s van AI, die ik presenteerde tijdens het jaarcongres van de vereniging van Internal Auditors, IIA.

Data kunnen waardevolle nieuwe inzichten bevatten, maar tegelijkertijd ook oude patronen en vooroordelen. Door AI verliezen data definitief hun onschuld: alles draait om de interpretatie van gegevens en de consequenties die daar door organisaties aan verbonden worden. De volgende vragen zijn geformuleerd als ontwerpvragen: hoe kunnen we de risico’s ervan ondervangen? Dat is de gezamenlijke uitdaging waar ontwikkelaars, bedrijven, burgers en overheden voor staan.

Vraag 1. Wie controleert de algoritmes van kunstmatige intelligentie?

Het voordeel én nadeel van AI: Het is zelflerend en zelf-programmerend. Maar wie controleert wat er eigenlijk gebeurt met data in een algoritme? Met computerprogramma’s kan de kwaliteit van algoritmes getoetst worden, zoals de gemeente Amsterdam doet. Ook kunnen de gebruikte aannames worden geëxpliciteerd en gepubliceerd zodat deze gecontroleerd kunnen worden door derden.

“Door AI verliezen data definitief hun onschuld”

Ook zouden bedrijven, meer dan ze nu doen (vanwege concurrentie), gebruik kunnen maken van elkaars werk door modules en algoritmen, die goed beschreven en geëvalueerd zijn, te hergebruiken. Zo kunnen best practices worden ontwikkeld waarop kan worden voortgebouwd, net zoals veel software gebaseerd is op enkele robuuste open source software-codes.

Vraag 2. Hoe houd je controle over AI?

Talloze sciencefictionfilms hebben ons laten zien wat kan gebeuren als zelflerende en zelf-programmerende systemen een eigen logica ontwikkelen en veel slimmer worden dan wij. Een robuuste manier om controle te houden kan zijn om een uit-knop in te bouwen, een kill-switch: een noodrem waarmee software stilgelegd kan worden en uitgeschakeld kan worden.

Zou dat verplicht moeten zijn? Laboratoria die synthetische virussen ontwikkelen (zoals het lab van Craig Venter) publiceren tegelijkertijd de code waarmee en anti-virus kan worden gemaakt. Zo wil men een wereldwijde epidemie die talloze levens kan eisen, voorkomen. Synthetische virussen zijn ook een soort levende code die zich kan aanpassen aan de omgeving.

Vraag 3. Hoe respecteer je privacy?

Digitale systemen leven van data en het lijkt vrijwel onmogelijk om in zo’n wereld privacy nog te respecteren. Toch is het goed mogelijk om een dienstverlening te ontwikkelen die privacy in beginsel respecteert en beschermt (vaak aangeduid als ‘privacy by design’). Zo kunnen pseudoniemen of anonieme, blanco-profielen ingezet worden om privacy te beschermen. In plaats van data uit te wisselen (te kopiëren van de ene naar de andere aanbieder of computer), kan een bepaalde dienst ook bij elke database een stukje data ophalen, dat verspreid staat over meerdere computers, zonder dat deze worden uitgewisseld, gekopieerd en gecombineerd.

“Het is goed mogelijk om een dienstverlening te ontwikkelen die privacy respecteert en beschermt”

Ook het recht om vergeten te worden of met een schone lei te kunnen beginnen, zoals je je internet-cookies elke dag kunt weggooien, draagt bij aan meer privacy. Internetbrowser Firefox creëert een nep-geschiedenis om daarmee eveneens privacy te beschermen wanneer een website je geschiedenis met eerder bezochte pagina’s opvraagt. Lees meer in ‘Verbied gratis. Zo moet je privacy beschermen‘.

Vraag 4. Hoe bouw je vertrouwen?

Vaak wordt gedacht dat technologie automatisch vertrouwen met zich meebrengt. Zo wordt de blockchain ook wel een ‘trust machine’ genoemd, omdat deze bijna niet gemanipuleerd kan worden. Toch weten we uit de sociologie dat vertrouwen veel meer is dan dat: het gaat om de bereidheid te investeren in een langeretermijnrelatie, en de gezamenlijke lotsverbondheid aan het succes daarvan: samen uit en samen thuis.

Ook belangrijk is de mogelijkheid tot het nemen van ‘wraak’ als een van de partijen het vertrouwen schendt. Hiervoor is een bepaalde mate van gelijkheid nodig: de machtsbalans moet niet te veel doorslaan naar één partij. En dat is nou net wat veel marktpartijen wel creëren met hun systemen: precies weten hoe jij als consument gestuurd kunt worden tot meer aankopen, terwijl jij als consument amper zicht hebt op de werkwijze van bedrijven en amper mogelijkheden hebt om bedrijven of overheden ter verantwoording te roepen. In zo’n geval creëer je geen vertrouwen.

Vraag 5. Hoe kijk je toekomstgericht?

Met historische data heb je kans op vooroordelen en tunnelvisie: ze kijken immers per definitie terug. De kansen van AI liggen in anticiperen en in het vroegtijdig signaleren van de opkomst van veranderingen zoals een trend die op doorbreken staat of een tsunami die in ontwikkeling is. AI zal daarom ook nooit een oplossing bieden voor álles. Organisaties moeten de schijnzekerheid die datasystemen bieden, durven loslaten en AI gebruiken om vanuit meerdere opvattingen en informatiebronnen prognoses te maken en opties te schetsen waarop organisaties kunnen inspelen.

“AI zal nooit een oplossing voor álles bieden”

Daarbij kan AI ook gebruikt worden om met input van mensen de toekomst te verkennen, door gebruik te maken van de wisdom of crowds: ‘Even googelen wat de toekomst gaat brengen‘.

Vraag 6. Hoe kan AI mensen aanvullen en versterken in plaats van vervangen?

Een belangrijke vraag is of we AI inzetten om mensen te vervangen door betweterige experts of dat we AI gebruiken om mensen beter te laten presteren, zowel individueel als in groepen.

Kunstmatige intelligentie kan eraan bijdragen dat organisaties op een hoger niveau functioneren op twee manieren. Ten eerste door te zorgen dat grote hoeveelheden data, die steeds meer verzameld worden, hanteer worden voor mensen. AI kan patronen in data herkennen en effecten van keuzes doorrekenen. Zo kunnen mensen betere, evidence-based, beslissingen nemen.

Ten tweede kan AI processen van het gezamenlijk creëren en beslissen ondersteunen. AI kan de overeenkomsten en verschillen in grote groepen zichtbaar maken en strategieën voorstellen om tot groepsconsensus te komen. Hiervoor worden momenteel modellen ontwikkeld, gebaseerd op groepen bijen of spreeuwen. AI kan heel goed overweg met de complexe voortdurende communicatie en afstemming die nodig is om grote groepen individuen te laten samenwerken en gebruik te maken van de kennis en inzichten die aanwezig zijn in de groep, de ‘wisdom of the crowd‘.

Vraag 7. Hoe bouw je langetermijnrelaties?

Uit de bovenstaande vragen werd al duidelijk dat AI geen hapklare antwoorden gaat serveren op alle vragen. Bepaalde taken en processen in organisaties kunnen drastisch worden geautomatiseerd en efficiënter gemaakt. Wat overblijft zijn complexe morele afwegingen waar organisaties voor staan. Zij kunnen niet afwachten op of zich verschuilen achter overheden die precies aangeven aan welke voorwaarden AI moet voldoen.

“AI zal een groot beroep gaan doen op ons morele besef”

Organisaties die een langeretermijnrelatie aan willen gaan met hun klanten zullen zelf moeten laten zien hoe ze gewetensvol omgaan met alle informatie die zij over hun klanten verzamelen. Laten zien hoe ze afwegingen maken die verder gaan dan zo veel mogelijk proberen te verkopen of zo min mogelijk uit te keren (bij een verzekering bijvoorbeeld). Het vraagt om lastige afwegingen die horen bij het samenleven en waarbij organisaties ook maatschappelijke verantwoordelijkheden dragen. AI zal een groot beroep gaan doen op ons morele besef. Zoals de tv-serie ‘Westworld’ al duidelijk maakte: AI houdt ons mensen een spiegel voor over wie we zelf zijn.

Maurits Kreijveld
futuroloog en strategisch adviseur bij Wisdomofthecrowd.nl

Maurits Kreijveld is futuroloog en strategisch adviseur. Hij onderzoekt en verbeeldt de impact van nieuwe technologieën op organisaties, individuen en de samenleving, en adviseert hierover. Hij is gespecialiseerd in digitale transformatie (platformeconomie, deeleconomie) en innovatie cocreatie. Met zijn boek ‘De plug&play;-organisatie. Handboek voor digitaal transformeren' en bijbehorende workshops en masterclasses helpt hij organisaties digitaal aanpassingsvermogen en wendbaarheid te krijgen. Eerder schreef Maurits 'De kracht van platformen' het eerste Nederlandse boek over de platformeconomie, en ‘Samen slimmer. Hoe de wisdom of crowds onze samenleving zal veranderen’ met toekomstbeelden over de zorg, innovatie en smart cities.

Categorie
Tags

Marketingfacts. Elke dag vers. Mis niks!