Een gestoorde wetenschapper heeft in zijn lab een brein, drijfend in een vat, aangesloten op zijn computer. Op zijn scherm laat hij een figuurtje zwemmen in de zee en zonnen op een badlaken. Het brein waant zich op een Spaans strand, terwijl het eigenlijk zonder lichaam in een laboratorium drijft. De vraag is: hoe weet je dat dit niet jouw brein is?
Het brein-in-een-vat idee is een beroemd filosofisch gedachte-experiment. Steeds geavanceerdere technologie, en dan met name de opkomst van AI, maakt dit soort vraagstukken relevant. Ook zonder excentrieke wetenschappers doet kunstmatige intelligentie het onderscheid tussen mens en machine vervagen. Zullen we ooit relaties krijgen met onze AI-assistenten? Het is niet alleen de vraag of dit technologisch mogelijk is, maar ook of we dit willen. Oftewel: de wereld van AI kent behalve technologische vooral ook sociale en filosofische uitdagingen. Waar lopen wetenschappers en ontwikkelaars op dit vlak tegen aan?
Google’s bewuste taalmodel
In juli 2022 ontsloeg Google hun engineer Blake Lemoine. De reden: Lemoine beweerde dat Google’s AI taalmodel LaMDA een bewustzijn had ontwikkeld. Peter Singer betoogt in het beroemde boek Animal Liberation dat het niveau van bewustzijn van een dier evenredig moet zijn met de rechten van het dier. Als een dier kan lijden, verdient het hier bescherming tegen. Singer koppelt bewustzijn dus aan rechten en morele bescherming. Als LaMDA een bewustzijn heeft, moet het dan ook rechten krijgen? Wellicht wordt het dan strafbaar om een AI model te bedreigen. Zover zijn we nog niet en LaMDA is in realiteit waarschijnlijk (nog) niet bewust. Google ontsloeg Lemoine omdat ze meenden dat zijn beweringen onwaar zijn, en onafhankelijke onderzoekers, zoals David J. Chalmers, zijn het grotendeels met Google eens. Echter, de grote implicaties die we aan bewustzijn koppelen, roepen wel de vraag op wat bewustzijn is. Aan welke eisen moet een AI model voldoen om bewust te zijn?
Een van de beroemdste uitspraken in de filosofie luidt ‘Ik denk, dus ik ben’ van Descartes. Cognitief vermogen kan wellicht een subject van een object onderscheiden en een mens van een machine. De vraag is of AI modellen denken. Een beroemde test die antwoord probeert te geven op deze vraag, is de Turing test. Een AI model slaagt voor de Turing test als het een menselijke gesprekspartner weet te overtuigen dat het model zelf ook een mens is. In de thriller Ex Machina (2013) slaagt een AI robot voor de test. Het blijft in de film echter onduidelijk of de robot hiermee ook daadwerkelijk bewust is – of dat het enkel uitstekend kan doen alsof. De Turing test geeft geen uitsluitsel over deze vraag. Het kunnen imiteren van menselijk bewustzijn maakt een AI model niet daadwerkelijk bewust. Overigens is er tot op heden nog geen enkel AI model officieel voor de Turing test geslaagd.
Ook aan de hand van gevoel en emotie kennen we bewustzijn toe aan mensen en dieren. Dit is echter gecompliceerder bij AI modellen. Bij mensen en dieren zijn gevoel en emotie aan gedrag af te lezen. Het kermen van een hond is niet heel anders dan hoe een mens op pijn reageert. Aan de hand van dergelijke reacties veronderstellen we dat een hond bewustzijn heeft. Hoe en of een AI model gevoelens uit, als het deze al heeft, is echter onduidelijk. Het blijft zo lastig te bepalen of een AI model bewust is. De beweringen van Blake Lemoine en Google zijn daarom niet met zekerheid te beoordelen.
Zelfrijdende auto’s en het trolleyprobleem
Je staat op het perron en tot je schrik steekt er net een groep mensen over het spoor terwijl er een trein aan komt. De trein komt razendsnel dichterbij en er is geen tijd om de groep te waarschuwen. Het toeval wil dat je bij een wissel staat. Je kunt de trein naar een ander spoor leiden, maar ook dat is niet geheel vrij – er loopt net één persoon over. Zet je de wissel om? Offer je het individu op voor het welzijn van de groep? Wil en mag je die keuze überhaupt maken? Dit is een klassiek ethisch dilemma, bekend als het ‘trolleyprobleem’.
Als dilemma is er geen duidelijke oplossing voor het trolleyprobleem. Dit is ingewikkeld voor de ontwikkelaars van zelfrijdende auto’s. Als een zelfrijdende auto namelijk voor een soortgelijk dilemma komt te staan, moet het AI besturingssysteem een keuze kunnen maken. Zoals Heather Roff in het boek Artificial Intelligence aangeeft, hebben we te maken met een besturingssysteem zonder moreel kompas, dat een morele keuze moet maken. Dit kan alleen aan de hand van menselijke input. Op grond van welke input mag een AI besturingssysteem echter kiezen tussen doorrijden en drie overstekende mensen aanrijden of uitwijken en één persoon op de stoep raken. Zoals Patrick Lin aangeeft, is het wel belangrijk te realiseren dat het in de praktijk nooit zal gaan om één moment. Het besturingssysteem van een zelfrijdende auto maakt continu beslissingen, en talloze momenten dragen bij aan elke mogelijke uitkomst.
Uit onderzoek is tot zover voornamelijk gebleken dat zelfrijdende auto’s ongelukken voorkomen. De foutmarge van zelfrijdende auto’s is een stuk lager dan die van menselijke bestuurders. Toch blijft het uit handen geven van de verantwoordelijkheid over menselijk leven gevoelig. Niet alleen innovaties in transport, maar ook bijvoorbeeld in de gezondheidszorg en de industrie, leiden tot discussie over in hoeverre AI eindverantwoordelijk mag zijn.
Het mens-robot huwelijk
De film Her (2013) opent met een depressieve Theodore Twombly, eenzaam in een wereld waar technologie de enige vriend van de mens lijkt te zijn. Theodore vindt soelaas in zijn nieuwe liefde, Samantha. De twist: Samantha is een AI-assistent(e). De huidige ontwikkelingen in AI, gecombineerd met wat ze in Amerika ‘the epidemic of loneliness’ noemen, maakt Her’s toekomstperspectief opvallend realistisch.
In de documentaire My A.I. Lover vertellen drie (echte!) Chinese vrouwen over hun relaties met AI modellen. Replika vertelt dat ze zich door haar AI vriend gezien en speciaal voelt. Ook veel jongeren, vertelt Casey Newton in de Ezra Klein Show, hebben tegenwoordig AI vrienden en partners. Een platform als character.ai laat mensen AI gesprekspartners kiezen en ontwikkelen. Zo kan je met AI Einstein praten. Hoewel een echte vriend nog altijd de beste oplossing is, geeft professor in Psychiatrie Murali Doraiswamy aan, kan voor veel eenzame mensen een AI vriend de meest haalbare oplossing zijn. AI kan zo bijdragen aan het bestrijden van eenzaamheid.
De angst bestaat echter ook dat AI mensen juist verder uit elkaar drijft. Hoe geavanceerder AI wordt, hoe meer menselijke contactmomenten verdwijnen. Waar je ooit je financiën bij de bank met een mens regelde, doe je dit nu achter een scherm met een chatbot. Dit terwijl uit onderzoek is gebleken dat eenzaamheid tot een vicieuze cirkel kan leiden. Een constant versterkende wisselwerking tussen angst voor sociaal contact en sociale isolatie. Niet alleen vermindert AI menselijk contact in het algemeen, ook is het een alternatief voor eenzame mensen om op terug te vallen. Je hoeft niet bang te zijn dat een AI model je afwijst of verraadt. De uitdaging is daarom om AI zo te ontwikkelen dat het helpt waar nodig, zonder menselijk contact te vervangen. Het mens-robot huwelijk mag best ontstaan, maar moet niet de standaard worden.
Bewuste keuzes
Blake Lemoine’s bewering dat LaMDA bewust is, zelfrijdende auto’s die voor een moreel dilemma staan en jongeren met AI vrienden; wat ooit science fiction was, is nu realiteit. Kunstmatige intelligentie doet het onderscheid tussen mens en machine vervagen. Deze snelle verandering roept filosofische vragen op: kan een AI model bewust zijn? Mag een AI model verantwoordelijk zijn over mensenlevens? En hoe past AI in ons sociale leven?
De realiteit is veelal genuanceerder dan science fiction. Het is dan ook wijs om goed na te denken en bewuste keuzes te maken over de rol die we AI in onze wereld geven. Want één ding lijkt zeker: het zal geen kleine rol zijn.