De toekomst van AI: “Maak het systeem zelf verantwoordelijk”
Filosoof Carlos Zednik over de intelligentie van AI-systemen
Alle ogen zijn gericht op de razendsnelle ontwikkeling van Artificial Intelligence sinds ChatGPT op de markt kwam. Experts over de hele wereld uiten hun zorgen en speculeren over waartoe deze Large Language Models kunnen leiden. In deze serie gaat Cursor samen met wetenschappelijk directeur van EAISI Wim Nuijten in gesprek met TU/e-onderzoekers over hoe zij vanuit hun expertise naar de toekomst van AI kijken. In deel twee: Carlos Zednik, filosoof en universitair docent bij Industrial Engineering and Innovation Sciences, die zich met zijn onderzoek richt op natuurlijke en kunstmatige cognitieve systemen.
Hoe onderzoek je AI-systemen waarvan niet goed uit te leggen is hoe ze tot bepaalde resultaten komen? Carlos Zednik benadert die vraag vanuit een filosofisch perspectief, met een basis van psychologie, neurowetenschappen en kunstmatige intelligentie. Volgens hem zijn neurale netwerken in staat om taken uit te voeren op een manier waarop het menselijk brein dat ook zou doen. “Het zijn complexe systemen die in staat zijn om zich aan te passen en te leren van hun omgeving, net zoals mensen. Daarom zou je die systemen op dezelfde manier kunnen onderzoeken als neurowetenschappers en psychologen dat met mensen en dieren doen.”
Hoewel Zednik beseft dat het brein vele malen complexer is dan bestaande neurale netwerken, durft hij toch te stellen dat sommige systemen die nu al bestaan oprecht intelligent te noemen zijn. “Ik moet toegeven dat ik hier meer liberale opvattingen over heb dan veel van mijn collega’s. Ik leg de lat voor wat we intelligentie noemen niet zo hoog.” Een probleem is volgens hem dat er geen goede definitie bestaat voor wat intelligentie nou eigenlijk is, omdat het begrip zo veelzijdig is. “Deze systemen kunnen leren, zich aanpassen aan hun omgeving en problemen oplossen. Waarom zou je dat geen intelligentie noemen? Bewustzijn, dat is een ander verhaal. Al weet ik ook niet goed te definiëren wat bewustzijn nou daadwerkelijk is. Ik weet ook niet of jij bewustzijn hebt of niet.”
Vleesgeluiden
Wie AI-systemen met mensen wil vergelijken, moet daarbij volgens Zednik niet ónderschatten wat het AI-systeem kan doen en niet óverschatten waar mensen toe in staat zijn. “Laten we beginnen bij dat laatste: wat bedoelen we als we het hebben over dat mensen dingen 'begrijpen'? Ik maak vleesgeluiden (praten, red.) en iemand reageert daarop met vleesgeluiden. Welke specifieke geluiden ik maak, wordt beïnvloed door de staat van mijn hersenen, wat weer wordt beïnvloed door ervaringen uit het verleden. Het is geen magie. Ik weet daarnaast niet wat jouw werkelijkheid is en hoe jij betekenis aan die vleesgeluiden geeft. Ik kan alleen op jouw input reageren.”
Op die manier kijkt Zednik ook naar AI. “We moeten proberen te begrijpen wat een systeem doet als het bijvoorbeeld in het geval van ChatGPT woorden voorspelt. Je kunt aannemen dat om woorden te kunnen voorspellen in zoveel verschillende situaties, het bepaalde representaties in de wereld moet hebben geleerd. Het moet bepaalde regels en patronen kennen om het gedrag te vertonen dat het nu doet.” Het heeft volgens hem een wiskundige structuur die je kunt analyseren, net zoals de abstracte structuren in hersenen. “Uiteindelijk zijn het allemaal patronen. En hoewel het misschien indrukwekkend is dat een systeem die kan leren, is het niet bijzonder, en waarschijnlijk helemaal niet zo anders dan wat in de hersenen van mensen gebeurt.”
Wat ik indrukwekkend vond aan ChatGPT, was dat er opeens een systeem was dat over élk onderwerp leek te kunnen praten
Wat vast staat is dat Zednik veel overeenkomsten ziet tussen AI-systemen zoals Large Language Models en het menselijk brein. Dat wil echter niet zeggen dat hij verwacht dat er op korte termijn een algemene kunstmatige intelligentie (AGI) zal bestaan. Al ligt ook dat weer aan wat je daar precies onder verstaat. “AI-systemen worden steeds autonomer, maar bij AGI gaat het meer over dat het systeem veel verschillende taken uit kan voeren, in plaats van maar één taak. AI kan schaken, of een zelfrijdende auto besturen, maar ik heb nog geen systeem gezien dat auto kan rijden én kan schaken.” Als je echter de Turing test zou toepassen, waarbij het gaat om of je kunt onderscheiden of je met een mens of computer te maken hebt, dan wordt het een stukje ingewikkelder. Want ook al kan ChatGPT niet schaken of autorijden, het kan daar wel over praten, aldus Zednik. In die zin slaagt het dus voor de Turing Test.
“Wat ik indrukwekkend vond aan ChatGPT, was dat er opeens een systeem was dat over élk onderwerp leek te kunnen praten. En als je overal over kunt praten, dan heb je in zekere zin overal kennis van. Er is dan natuurlijk nog een groot verschil tussen over schaken praten en schaken, en over autorijden praten en autorijden. Maar de eerste stap is om het over al die dingen te kunnen hebben en dat is wat nu lijkt te zijn bereikt met ChatGPT. De uitdaging is nu om het vermogen om te praten over dingen te vertalen naar daadwerkelijk actie ondernemen.”
Net als kinderen
Zednik verwacht wel dat AI in de toekomst in veel taken beter zal zijn dan mensen. Voor bepaalde diagnoses vertrouwt hij nu het beoordelingsvermogen van bepaalde systemen al meer dan de gemiddelde dokter. Maar AI zal volgens hem niet oneindig krachtig worden. Hij maakt zich op dat gebied dan ook geen zorgen over de toekomst. Waar hij zich meer zorgen over maakt, is wat mensen zelf met AI kunnen aanrichten. “Maar ik kies ervoor om niet bang te zijn en om in plaats daarvan bij te dragen aan verantwoorde AI-systemen die we voor goede dingen kunnen gebruiken. Ik heb het daar zo druk mee, dat ik helemaal geen tijd heb om bang te zijn.”
Die positieve invloed op de toekomst van AI probeert hij te bewerkstelligen door zijn studenten op te leiden tot goede ingenieurs die ethisch te werk gaan. Ook is hij betrokken bij het ontwikkelen van ISO-standaarden voor AI, die betrekking hebben tot onder andere privacy, transparantie en aansprakelijkheid. Maar wat heb je aan die aansprakelijkheid als straks een systeem toch een eigen plan gaat trekken en dat proces niet meer te stoppen is, wil EAISI-directeur Wim Nuijten weten. Voor het antwoord op die vraag zet Zednik naar eigen zeggen zijn filosofische pet even op. “Misschien moeten we op een gegeven moment overwegen om het systeem zélf de verantwoordelijkheid en autonomie te geven, wanneer het voldoende autonoom kan opereren. Net zoals je met kinderen doet. Je bent verantwoordelijk tot een bepaald punt en daarna heeft een kind een eigen autonomie en verantwoordelijkheid.”
Eigen persoon
Mocht het zo zijn dat AI-systemen in de toekomst autonoom kunnen opereren en niet volledig meer onder de controle van mensen staan, dan moeten we misschien als maatschappij gaan accepteren dat die systemen een “eigen persoon” zijn, met rechten en verantwoordelijkheden, gaat Zednik nog een stapje verder. “Ik ben daar in zijn algemeenheid niet tegen.” Nuijten lijkt daar andere ideeën over te hebben, en vraagt: “Stel dat die niet-menselijke intelligentie superieur is aan mensen: zijn er gevallen waarbij in een co-existentie van twee (dier)soorten waarvan de één minder intelligent is dan de ander, de minder-intelligente soort floreert?”
Die zijn er volgens Zednik zeker: “Kakkerlakken leven heel succesvol samen met de mens.” Je moet het volgens hem gewoon zien als de evolutie. Als we op een gegeven moment beslissen dat we bepaalde vormen van kunstmatige intelligentie zien als “personen”, wat is dan het verschil tussen iemand creëren op de biologische manier of op een kunstmatige manier? Misschien moeten we die toekomstige systemen volgens hem gewoon zien als onze opvolgers. “Dat idee maakt me niet bang. Het is gewoon een natuurlijk proces.”
Discussie