De toekomst van AI: “We bepalen zelf welke rol systemen krijgen”
Hoogleraar Wijnand IJsselsteijn over de interactie tussen mens en AI-model
Alle ogen zijn gericht op de razendsnelle ontwikkeling van Artificial Intelligence sinds ChatGPT gelanceerd werd. Experts over de hele wereld uiten hun zorgen en speculeren over waartoe deze large language models kunnen leiden. In deze serie gaat Cursor samen met wetenschappelijk directeur van EAISI Wim Nuijten in gesprek met TU/e-onderzoekers over hoe zij vanuit hun expertise naar de toekomst van AI kijken. In deel vier: Wijnand IJsselsteijn, hoogleraar Cognition and Affect in Human-Technology Interaction. Hij gebruikt AI als tool om voor mensen met dementie het verschil te maken. Ook is hij actief op het gebied van affective computing en het Metaverse.
Hoe bepaal je in de toekomst of wat je ziet en met wie je praat echt is? Dat zal steeds moeilijker worden, denkt IJsselsteijn, die zich volgend jaar tijdens zijn Distinguished NIAS Lorentz Fellowship gaat verdiepen in de psychologie en ethiek van de Metaverse. De combinatie van Artificial Intelligence en Virtual Reality die in die digitale wereld bij elkaar komen is een krachtige mix voor positieve immersive ervaringen, maar draagt ook duidelijke risico’s in zich, zegt de hoogleraar. “Met zo’n medium maak je meer psychologische impact dan we al van bijvoorbeeld sociale media gewend zijn en trek je tegelijkertijd meer persoonlijke data binnen. Die loop is de ideale marketingmachine.” Generatieve AI-systemen zoals ChatGPT zullen volgens hem een grote rol gaan spelen in de Metaverse, omdat ze kunstmatige personages kunnen genereren die zich menselijk gedragen, geloofwaardige conversaties kunnen opzetten en kunnen inspelen op persoonlijke voorkeuren en karakteristieke wensen, gebaseerd op gedrag. “Dat is geen science fiction uit de verre toekomst; ik denk dat dit te gebeuren staat.”
Het werpt de vraag op of je je als gebruiker van zo’n medium nog kunt beschermen tegen beïnvloeding, die dankzij het toepassen van AI zo vernuftig is dat je niet eens meer beseft dat je überhaupt beïnvloed wordt. “Bekendheid beïnvloedt wat iemand als waarheid ervaart. Als ik iets maar vaak genoeg lees of zie, dan raak ik er bekend mee en zal ik het eerder voor waar aannemen. Dat is heel vernachelend voor democratische processen, het publieke debat en de wetenschap. AI versnelt dat proces en maakt het makkelijker om dingen die niet echt of waar zijn, wel heel echt of plausibel te laten lijken.”
Watermerk
Om dat probleem op te lossen zul je volgens IJsselsteijn op verschillende vlakken moeten investeren. “Je moet zorgen dat bepaalde dingen niet of slechts beperkt mogelijk zijn met de technologie en daar regelgeving voor hebben. De EU is hier bijvoorbeeld sterk mee bezig. Ook moet je grote bedrijven stimuleren om modellen op een verantwoorde manier te ontwikkelen en zorgen dat de gebruiker skills ontwikkelt om dingen te onderscheiden.” Hoewel het opleiden van gebruikers volgens IJsselsteijn al jong zou moeten beginnen, vindt hij niet dat de ‘pijn’ van dat onderscheid maken over het algemeen bij de gebruiker zou moeten liggen. “Er zijn bijvoorbeeld stemgeneratoren die mijn stem precies kunnen nabootsen, daar zou een soort watermerk of waarschuwing bij moeten komen, zodat altijd duidelijk is wanneer het niet echt is.”
Er zijn altijd bad actors. Je moet daarom zorgen dat de meest krachtige tools niet in de verkeerde handen vallen
Toch zullen regelgeving en watermerken niet alles wat misleidend of nep is de wereld uit kunnen helpen, net zoals dat niet alle gevaren van AI voorzien en voorkomen kunnen worden, benadrukt hij. Dat komt omdat mensen maar beperkt inzicht hebben in hoe een technologie daadwerkelijk zal worden gebruikt in de maatschappij – we kunnen niet alles van tevoren bedenken en dichtmetselen. Daarnaast blijven er altijd mensen met slechte bedoelingen, die de kwetsbaarheid van anderen op steeds nieuwe manieren zullen benutten. Zo zijn er nog ook nog steeds phishing mails en fraudeurs die bij oude mensen aanbellen. En zijn er mensen die vuur niet gebruiken om op te koken, maar om een huis mee in brand te steken. “Er zijn altijd bad actors. Je moet daarom zorgen dat de meest krachtige tools niet in de verkeerde handen vallen. Denk aan Poetin die in AI investeert en daarin een potentiele wapenwedloop ziet. Intelligent wapentuig is niet wenselijk, vooral niet met een zekere autonomie om beslissingen te nemen.”
Intelligentie
Of je dat wapentuig überhaupt intelligent moet noemen, daar is IJsselsteijn overigens nog niet zo zeker van. Hij heeft moeite met het gebruik van dat woord, omdat hij de betekenis ervan ziet als veel meer dan alleen de cognitief rationeel logische vorm van intelligentie. “Ik zie intelligentie als een breed palet aan allerlei adaptieve vaardigheden en eigenschappen.” In tegenstelling tot Carlos Zednik, die in een eerder artikel in deze serie aangaf dat je wat hem betreft voor intelligentie geen lichaam van vlees en bloed nodig hebt, vindt IJsselsteijn dat wel degelijk een essentieel onderdeel van menselijke intelligentie. “Veel van ons denken wordt ondersteund en gestructureerd door ons lichaam, de omgeving waarin we ons bevinden, en de relaties tot andere mensen en de cognitieve gereedschappen die je ter beschikking hebt, zoals een papier en pen, of een computer. Als je praat gesticuleer je. Dat is niet losgekoppeld van wat er in je hoofd gebeurt. Het helpt om je eigen communicatie op gang te houden. Zo brak ik een tijdje geleden mijn enkel, waardoor ik tijdens colleges niet meer kon lopen. Dat beïnvloedde echt de kwaliteit van mijn colleges, ik miste mijn mogelijkheid om te bewegen, waarmee ik ook het structureren van mijn gedachten beïnvloed.” In dit kader noemt IJsselsteijn extended cognition, dat refereert aan het idee dat het denken zich niet alleen binnen onze schedel afspeelt, maar ook gebruik maakt van alles om ons heen. “Mijn kantoor wordt daarmee een soort cognitief nest dat me helpt met nadenken. Hoe ik dingen achterlaat is een haakje voor de gedachtes die ik daar had en helpen me die weer op te pakken als ik weer terugkom.”
In de huidige discussie over AI worden volgens IJsselsteijn de mens en computer veel te veel als gelijkwaardig gezien. Veronderstellen dat een autonoom systeem vergelijkbare kwaliteiten heeft als een mens is wat hem betreft zelfs klinkklare onzin. “Systemen als ChatGPT zijn er goed in om mensen op het verkeerde been te zetten. Zelfs een Google-engineer zei dat een vergelijkbaar model bewustzijn had. Dat heeft het helemáál niet. Ik weet niet wat hij voor kinderen thuis heeft zitten, maar vergelijk hen maar eens met zo’n systeem. We hebben nu alleen nog maar een vorm van superintelligentie op heel specifieke gebieden.” Dat zal ook nog wel lang zo blijven, denkt hij. Omdat het common sense probleem, waarbij men intelligent gedrag en mogelijke gevolgen van zulk gedrag in de breedste zin in overweging neemt, voor AI-systemen nog lang niet is opgelost.
Superintelligentie
IJsselsteijn is dan ook kritisch over het idee van een technologische singulariteit - dat AI een soort zelfversterkend vermogen zou hebben, superintelligent wordt, en vervolgens zelfstandig de belangen van de mens opzij zal gaan zetten. Hij heeft het gevoel dat het debat erover een te grote sprong neemt en totaal ongedefinieerd is. ”Het is een theoretische discussie – vol van futuristische visies en utopische en dystopische claims, maar vrijwel losgezongen van een diepgaand en evenwichtig wetenschappelijk debat over wat intelligentie eigenlijk is, hoeveel verschijningsvormen intelligentie kent, en welke rollen en taken we AI willen geven in relatie tot de mens.” Waarom zou een AI-systeem zichzelf door gaan ontwikkelen als we niet expliciet die mogelijkheid hebben gecreëerd, vraagt hij zich af. “We moeten AI niet mythologiseren; dan lijkt het ons te overkomen, en maakt het ons angstig en machteloos. AI is mensenwerk. Wij maken het systeem, wij geven het de knoppen waar het aan mag draaien en wij bepalen welke rol het systeem krijgt. In elke stap in het proces is de mens betrokken, van engineer tot eindgebruiker.”
We vertrouwen al veel te veel op relatief domme systemen, zoals bij de toeslagenaffaire
Voordat we ons zorgen moeten maken om een kunstmatige superintelligentie hebben we volgens hem overigens al veel grotere problemen weten te veroorzaken door AI in te zetten op kritische systemen waarvan we afhankelijk zijn. “Ik zou dus liever de focus hebben op wat er nu al misgaat of dreigt mis te gaan. We vertrouwen bijvoorbeeld al veel te veel op relatief domme systemen, zoals bij de toeslagenaffaire. Dat systeem werd geboren uit een politieke behoefte, omdat mensen ongeoorloofd toeslagen wegsluisden. Maar door een systeemfout zijn er specifieke maatschappelijke groepen ernstig benadeeld. Je moet systemen in dit soort processen niet blind vertrouwen en voortdurend blijven toetsen en bijsturen. De menselijke maat moet hierbij centraal blijven staan, ook al is het systeem in sommige opzichten superieur aan dingen die wij als mens kunnen.” Deze thematiek zal ook aan bod komen bij de nieuwe master AI & Society, die de hoogleraar samen met collega’s ambieert op te zetten.
Open foutencultuur
Systemen zouden volgens IJsselsteijn moeten passen binnen een kader van onze menselijke waardes. Maar is dat wel mogelijk, vraagt Nuijten zich af. Kunnen we toekomstige systemen, die misschien wel miljoenen keren sneller zijn dan wij, nog wel beteugelen? IJsselsteijn denkt van wel. “Maar dat gaat wel met horten en stoten en pijnlijke lessen. We moeten voorzichtig zijn met systemen die niet voldoende getest zijn. Hiervoor hebben we stevige AI regelgeving, gevalideerde testprotocollen en reviewmethodes, en een open foutencultuur nodig.” We kunnen op dat gebied veel leren van de luchtvaart, denkt hij. “De Amerikaanse luchtvaartautoriteiten (FAA en NASA) houden een openbaar gepubliceerde foutendatabase bij waar ongevallen en bijna-ongevallen in staan. Piloten worden niet gestraft maar geprezen als ze meldingen doorgeven, en kunnen desgewenst ook anoniem rapporteren. De gehele luchtvaartorganisatie leert daar enorm veel van. En mede daardoor is de luchtvaart een van de veiligste vormen van transport.”
Ook in zijn eigen ESDiT project bestaat nu een “AI post-mortem groepje”, dat als er iets mis is gegaan met AI kijkt naar hoe dat heeft kunnen gebeuren. “Het is altijd heel complex, maar wel nodig om te leren hoe je AI het beste in kunt zetten.” Dát we AI in de toekomst steeds meer zullen en moeten inzetten staat volgens IJsselsteijn vast. Ook in de zorg zal het een belangrijke rol gaan spelen. “Er zijn straks gewoon niet genoeg handen om voor iedereen te zorgen. Geen technologie gebruiken betekent dat mensen er straks alleen voor staan. Je hoopt iets te kunnen ontwikkelen dat mensen langer menswaardig autonoom laat zijn.” Dat probeert hij ook te doen met zijn onderzoek, waarin hij de doelgroep - mensen met dementie - zelf ook betrekt. In die context is de hoogleraar hoopvol over modellen als ChatGPT, die volgens hem kunnen helpen om mensen op een natuurlijkere manier met technologie te laten communiceren. “Als er een natuurlijke match komt tussen hoe wij ons uitdrukken en wat een systeem kan accepteren als input, dan kunnen we technologie veel toegankelijker maken voor iedereen.”
Menselijke controle
Ziet die toekomst met AI er dan rooskleurig of toch wat donker uit? Waarschijnlijk allebei een beetje, denkt IJsselsteijn. Om ervoor te zorgen dat het niet te donker wordt, moeten we volgens hem failsafes inbouwen aan de voorkant én de achterkant van de systemen. “Ik denk dat menselijke controle en automatisering niet elkaars tegengestelden hoeven te zijn. Je kunt hoog geautomatiseerde systemen met hoge menselijke controle hebben, zoals bijvoorbeeld een digitale camera, die vol zit met AI. Je kan daarmee wel dingen bijstellen, maar je voelt je in controle, want het systeem doet precíes wat je wilt.”
Discussie