- Onderzoek
- 05/02/2019
'Ontwikkelaars AI focusten zich niet zoveel op ethiek en eerlijkheid'
Hoe ethisch verantwoord zijn zelflerende algoritmes, wat verstaan we onder ‘eerlijke’ AI en heeft het zin om ons druk te maken over de rechten van een robot? Deze en andere vragen trokken afgelopen vrijdag veel geïnteresseerden naar het symposium Artificial Moral Agents.
“Het zijn opwindende tijden”, zegt Mykola Pechenizkiy tegen een goed gevulde zaal. Pechenizkiy, TU/e-hoogleraar Data Mining, is een van de vier sprekers tijdens het symposium Artificial Moral Agents, een bijeenkomst over de ethische kanten van kunstmatige intelligentie. Het Center for Humans and Technology organiseerde de lezingenmiddag samen met het Data Science Center Eindhoven en het High Tech Systems Centre.
Wat Pechenizkiy zo opwindend vindt, is dat er niet alleen steeds meer toepassingen zijn op het gebied van kunstmatige intelligentie en zelflerende computers, maar dat de ontwikkelaars hiervan steeds vaker te rade gaan bij filosofen, sociologen en andere experts buiten hun vakgebied. “Computerwetenschappers focusten zich voorheen niet op de problemen rondom ethiek en eerlijkheid in machine learning en artificial intelligence. Nu wel.”
Geen overbodige luxe
Dat dit geen overbodige luxe is, blijkt uit elk van de vier lezingen die het publiek voor zijn kiezen krijgt. Het regent voorbeelden van zelflerende algoritmes die het leven gemakkelijker moesten maken, maar onwenselijke neveneffecten bleken te hebben: software die discriminatie op basis van gender, huidskleur, of inkomen in de hand werkt; programma’s die stem- of zoekgedrag manipuleren; surveillancesystemen die privacyrechten aantasten en ga zo maar door.
“Algoritmes zijn bevooroordeeld op allerlei manieren”, vat Pechenizkiy samen. Dankzij die interdisciplinaire samenwerking zijn de problemen gelukkig niet onoplosbaar. Door onder meer na te denken over hoe een ethisch verantwoord systeem zou moeten werken, proberen onderzoekers onwenselijke neveneffecten steeds meer te voorkomen.
CeesJan Mol, adviseur digitale transitie bij Simpaticon B.V., is dankzij een advertentie op LinkedIn naar de bijeenkomst gekomen. Hij deelt het enthousiasme van Pechenizkiy over de genoemde interdisciplinaire samenwerking. Zelf studeerde hij ooit af op vooroordelen met betrekking tot gekleurde mensen bij het bedrijfsleven. “Inmiddels kunnen we zulke ideeën koppelen aan harde data”, zegt hij enthousiast. “Je kunt vaststellen dat er echt iets aan de hand is.”
Angstvisioenen
Vincent Müller, ethisch onderzoeker aan de universiteit van Leeds, besteedt in zijn lezing aandacht aan een van de oudste angstvisioenen van de moderne mensheid, namelijk die van de volledig autonome robot.
Of het nu de robot is die de mensheid meedogenloos aan zich onderwerpt, of de robot die zich juist als een sneue slaaf voegt naar de grillen van die mensheid: moet dat ding geen rechten hebben? Met een prikkelend betoog maakt Müller korte metten met ethici die hiervan een actuele kwestie maken: zolang robots nog geen bewuste, autonoom redenerende sociale actoren zijn, kunnen we ons beter druk maken over hoe robots te bouwen die ethisch verantwoord functioneren.
Het woord ‘autonoom’ is sowieso wat misleidend: zelfs een autonome robot als de Marslander krijgt zijn taak immers ingefluisterd door de ingenieurs die hem ontwierpen. Het voorbeeld komt van spreker Jurriaan van Diggelen, onderzoeker Perceptual and Cognitive Systems bij TNO. Met voorbeelden uit de defensiewereld laat hij zien hoe mens en machine in de praktijk vaak een samenwerkend team vormen.
Robot als adviseur
Cheryl de Meza, bedrijfsjurist uit Utrecht, is naar Eindhoven gekomen om op de hoogte te blijven van de laatste ontwikkelingen op het gebied van AI en robotica. Ze is erg blij dat ze gekomen is. Onder andere spreekster Elizabeth O’Neill, ethiekonderzoeker aan de TU/e, zette haar aan het denken.
O’Neill vertelde over kunstmatige intelligentie als ‘moral agent’: algoritmes die mensen helpen bij het nemen van ethische beslissingen. “Daaraan kleven risico’s en voor mijn werk is dat ook van belang”, vertelt De Meza. “Mijn achtergrond is de ict en privacy. In het buitenland wordt al een beetje geëxperimenteerd met robo-juristen. Als je zo’n robot als adviseur in gaat zetten, zijn daar risico’s aan verbonden.”
Dit soort juridische kwesties zijn volgens De Meza ‘onontgonnen terrein’, er bestaat nog geen wetgeving voor. “Als het gaat om verantwoordelijkheid of aansprakelijkheid, kun je alleen bij bestaande regelgeving terecht. Vaak zal dat voldoende zijn, maar het is belangrijk om je er als jurist in te verdiepen. We moeten hier wel mee aan de slag.”
Van theorie naar praktijk
Wat CeesJan Mol betreft had dat ‘aan de slag gaan’ wel net wat meer aandacht mogen krijgen. “De discussie ging voor een heel groot gedeelte over theoretische noties”, zegt hij. “Het ging niet over wat nu de eerste stap is bij dat operationaliseren. En waar was het bedrijfsleven in de zaal, waar was het MKB?”
Die zaten gewoon in de zaal, vertelt Wijnand IJsselsteijn, wetenschappelijk directeur van het Center for Humans and Technology. “Tussen de twintig en de dertig procent van de aanwezigen was afkomstig uit het bedrijfsleven.”
IJsselsteijn is erg tevreden over de bijeenkomst. “Je ziet dat de werelden van de kunstmatige intelligentie en de sociale wetenschappen langzaam naar elkaar toe aan het groeien zijn. Van beide kanten was er de bereidheid om te praten en respect en erkenning voor de relevantie van elkaars vakgebied. Dat is winst. Ons centrum is met dat doel opgericht, om die kruisbestuiving te bevorderen.”
Discussie