Artificial Intelligence
Verhaal

De uitdaging van AI: computers staan totaal nog niet waar het menselijke brein nu staat

Artificiële intelligentie kan steeds meer cognitieve taken aan, wordt op sociale media ingezet om politieke voorkeuren te sturen en zal volgens vooraanstaande onderzoekers op termijn rechtstreeks communiceren met onze hersencellen: het mag duidelijk zijn dat er rond AI en ethiek een heuse boom kan worden opgezet. Dat doen we met Catherine Middag, onderzoekster AI-design en -technologie, en Kobe Vermeire, senior onderzoeker AI en UX. Beiden zijn verbonden aan Erasmushogeschool Brussel, waar vanaf volgend academiejaar ook twee nieuwe postgraduaten, waarvan één rond AI, worden aangeboden. Op 27/08 organiseren ze alvast een gratis seminarie.

De potentiële maatschappelijke en economische impact van AI is enorm. Denken we maar aan gepersonaliseerde gezondheidszorg, slimme mobiliteit en industrie 4.0. Bovendien, of als gevolg daarvan, zal de vraag naar data scientists, natural language processing researchers en business intelligence analisten alleen maar groter worden. De logische conclusie is dan ook dat er absoluut nood is aan gespecialiseerde opleidingen.

Erasmushogeschool Brussel heeft dat goed begrepen en biedt vanaf volgend academiejaar twee gloednieuwe opleidingen aan: het postgraduaat Applied Artificial Intelligence en het postgraduaat Coding. Vlaanderen, dat onder impuls van voormalig minister van Innovatie Philippe Muyters, de komende jaren sowieso 30 miljoen euro in een Vlaams actieplan Artificiële Intelligentie pompt om projecten te realiseren rond onder meer IoT, Big Data Monitoring, Image en Speech Recognition, Robotica en Mixed, Virtual en Augmented Reality.

Kennis van AI en de skills om het toe te passen

Dat klinkt allemaal veelbelovend, maar wat met het ethische aspect van AI? Komt dat in die nieuwe, praktijkgerichte opleidingen voldoende aan bod? “Absoluut”, beaamt onderzoekster en lector Catherine Middag. “Kijk, AI wordt al in verschillende universitaire opleidingen aangeboden, waar de studenten fundamentele kennis opdoen. Maar in bedrijven moet die AI natuurlijk concreet worden geïmplementeerd. En aangezien er een grote gap is tussen fundamentele kennis en het effectief toepassen, hebben wij twee postgraduaten ingericht om die gap te dichten. Door developers af te leveren met theoretische kennis van AI en de skills om de nieuwste toepassingen praktisch toe te passen.”

“Maar die focus op praktijk neemt niet weg dat er geen aandacht voor ethiek zou zijn – wel integendeel: het moet voor de studenten heel duidelijk zijn wat kan en niet kan. We willen er op die manier ook over waken dat we extreme visies vermijden: voor sommige mensen gaat AI binnenkort de wereld overnemen in de vorm van killer robots, voor anderen is het dan weer de sleutel tot een perfecte toekomst waarin iedereen gelukkig is, omdat AI al onze problemen oplost. De bedoeling van het postgraduaat Applied Artificial Intelligence is dus ook om onze studenten op dat vlak wat op te voeden, zodat ze AI niet verkeerd gaan toepassen”, schetst Middag.

“En het kan verkeerd gaan: zo was er onlangs een bank die via AI wilde bepalen aan welke persoon al dan niet een lening kon worden toegekend. Op basis van historische data werd een voorspellingsmodel getraind om nieuwe klanten te screenen. Waar geen rekening mee werd gehouden, was dat het model op basis van die historische data vaststelde dat gekleurde mensen in het verleden minder vaak een lening kregen, waaruit het dus leerde dat die bevolkingsgroep sowieso minder in aanmerking zou komen. Dat is een voorbeeld van AI inzetten zonder goed te weten waar je mee bezig bent.”

“Een ander voorbeeld is de voorspellende AI die in de VS al wordt gebruikt, waarbij het criminele verleden van je omgeving wordt nagegaan om te zien of ook jij in de gaten moet worden gehouden. Maar omdat data van bepaalde bevolkingsgroepen oververtegenwoordigd zijn in die modellen, creëer je een bepaalde feedback loop die niet strookt met de realiteit. Bovendien neemt het systeem besluiten gebaseerd op menselijk gedrag, en dat kan je nu eenmaal moeilijk voorspellen”, weet Middag.

De bubbel van Facebook

“We spreken in die voorbeelden echt over overtredingen, aangezien er discriminatie en zelfs racisme mee gemoeid is”, vult senior onderzoeker Kobe Vermeire aan. “Dus daar kan duidelijke wetgeving over worden ontwikkeld – net zoals de GDPR in Europa een soort ingebouwde dataveiligheid garandeert. Maar er is ook veel zogenaamde zachte impact, bijvoorbeeld in de zoekalgoritmes van Google waar we dagelijks mee aan de slag gaan. Die kunnen niet meer neutraal werken, omdat ze rekening houden met je volledige zoekgeschiedenis en internetgebruik. De voorstellen die ze vervolgens doen, zullen invloed hebben op je ervaring van de realiteit. Facebook is op die manier een echte bubbel voor de gebruiker geworden, waarin hij of zij alleen nog bevestiging krijgt van het eigen gedachtegoed. Daarnaast zijn er algoritmes die zichzelf verkeerde zaken aanleren, bijvoorbeeld die van Youtube: die gaan mensen met extremistische ideeën bepaalde content laten zien waardoor die nog verder in die richting worden geduwd zonder dat ze het beseffen.”

“De Europese Commissie deed onlangs enkele aanbevelingen rond AI naar grote bedrijven toe, maar die zijn daar sowieso al mee bezig”, verduidelijkt Vermeire. “Het probleem is dat vooral kmo’s en start-ups, die daar nog niet zo goed in thuis zijn, al die bovenstaande fouten beginnen maken. We spreken dan vooral over de blackbox. Dat betekent dat AI tot een bepaald besluit komt, maar niet duidelijk maakt hoe het ertoe is gekomen, omdat het niet op de correcte manier is opgebouwd. Explainable AI is echter veel complexer en duurder dan zo’n blackbox en wordt bijgevolg minder vaak ingezet.”

Ethische commissie opgedoekt

Nu wordt er binnen het Vlaams actieplan Artificiële Intelligentie vijf miljoen euro uitgetrokken voor de ontwikkeling van een kenniscentrum rond AI en ethiek, maar de vraag is of dat centrum veel zal kunnen doen: zo moest Google zijn ethische commissie voor artificiële intelligentie al na een week terug opdoeken wegens onderlinge discussies tussen de leden. “Het is inderdaad een moeilijke kwestie, zeker omdat er intussen ook een aantal nieuwe vraagstukken zijn opgedoken”, aldus Vermeire.

“Bijvoorbeeld rond het nemen van beslissingen: wij als mens kunnen in een fractie van een seconde in een lastige verkeerssituatie noodzakelijkerwijs besluiten om met de auto een gezin met kinderen dan wel een bejaarde man aan te rijden dan wel zelf te crashen. Maar hoe vertaal je die overweging naar een algoritme voor zelfrijdende auto’s? Er zijn namelijk geen kant-en-klare antwoorden voor dergelijke situaties, zeker omdat die ook nog eens cultuurgebonden zijn: in verschillende culturen wordt op dezelfde situaties heel verschillend gereageerd.”

“Dergelijke zogenaamde strong AI-toepassingen, intelligentie dat op ons niveau van intelligente is of juist slimmer, zijn dus nog niet voor morgen, omdat als absolute voorwaarde eerste alle morele menselijke overwegingen moeten kunnen worden ingebouwd om te vermijden dat het daarna misloopt.

Dat wordt volgens mij de grootste uitdaging voor strong AI: hetzelfde morele aanvoelen van mensen in computers programmeren. Want computers staan totaal nog niet waar het menselijke brein nu staat

“Dat is ook de reden waarom die massahysterie rond AI wat moet getemperd worden”, aldus Middag. “Want we staan nog maar aan het begin, dus die doemscenario’s in de pers nemen we best met een korreltje zout. Het is vooral de zachte impact van AI op ons leven die onderbelicht blijft, terwijl die wel veel meer invloed heeft. Nu, ik begrijp die angst en onwetendheid wel: mensen hebben bij AI nu eenmaal het idee van een machine die iets menselijks krijgt, wat bedreigend kan overkomen. Bovendien beginnen ze zich dan de vraag te stellen waar dat alles stopt, met Terminator wellicht als bekendste voorbeeld. En eenmaal die doos van Pandora is geopend, is ze heel moeilijk weer te sluiten. Maar dat heb je nu eenmaal bij nieuwe technologische ontwikkelingen die mensen nog niet zo goed kennen.”

Deel dit