Your web browser is out of date. Update your browser for more security, speed and the best experience on this site.

Waarom AI vaak minder intelligent is dan je denkt

Weinig technologieën spreken zo tot de verbeelding als artificiële intelligentie. Toch loopt het geregeld mis wanneer men AI in de echte wereld wil toepassen. Axxes-developer Stijn Roscam legt uit hoe dat komt.

Sinds 2021 is Stijn Roscam bij Axxes aan de slag. Stijn is .NET Developer, maar heeft daarnaast een interesse voor alles wat met artificiële intelligentie te maken heeft. Die technologie gaat menselijke intelligentie nabootsen door gebruik te maken van technologie?. Deze systemen gaan proberen om menselijke taken uit te voeren, zoals spraakherkenning, vertalen en beeldherkenning. Een innovatie die de wereld kan veranderen - ware het niet dat toepassingen op basis van AI nog onvoldoende correct verlopen. Hoe dat komt zoekt Stijn graag uit.

Deel dit artikel
.NET
AI Insight

Lerende machines

Het concept ‘artificiële intelligentie’ gaat al enkele decennia mee. De Britse wiskundige Alan Turing, bekend van het kraken van de Enigma-code, schreef er bijvoorbeeld over in zijn paper Computing Machinery and Intelligence. Doordat rekenkracht toen zeer duur was heeft Turing zijn concept nooit werkelijkheid zien worden, maar dankzij de Turingtest blijft de naam van de Brit leven in de techwereld. Wanneer je niet meer kan merken dat degene waarmee je communiceert een algoritme in plaats van een mens is, is er volgens Turing sprake van een machine die intelligent gedrag vertoont, gelijkaardig aan dat van mensen.


Dat artificiële intelligentie menselijke taken kan uitvoeren is te danken aan machine learning, een tak van artificiële intelligentie. Computersystemen zijn in staat om te leren zonder specifieke instructies doordat ze algoritmes en statistische modellen gebruiken om data te analyseren en er patronen in te zoeken.


Wil je bijvoorbeeld software ontwikkelen die op een foto honden kan herkennen, dan voed je het systeem eerst duizenden gelabelde foto’s van honden om het algoritme te trainen. Na verloop van tijd zal het systeem zo leren hoe een hond eruitziet. Dan kan je het een nieuwe foto tonen en zal het met een percentage aangeven hoe zeker het is dat er een hond op de foto staat. Geef je een foto van een kat als input, dan zal het algoritme misschien zeggen dat het ‘voor 18 procent een hond is’, omdat de software bepaalde eigenschappen zal herkennen.

Garbage in, garbage out

Dat het soms misloopt heeft meestal te maken met de data waarop het algoritme getraind is. In het voorbeeld van het algoritme dat honden herkent moet je bijvoorbeeld een dataset met verschillende hondenrassen hebben. Niet alleen de diversiteit is belangrijk, ook de hoeveelheid en correctheid van de data.

AI heeft het soms moeilijk om rekening te houden met context. Zie je een rustende hond waar de schaduw van een hek op valt, waardoor hij strepen lijkt te hebben? Dat moet wel een tijger zijn! Een algoritme zou zomaar kunnen denken dat een koe van vijf meter bestaat, omdat hij een foto ziet van twee koeien die elk voor de helft achter een paal staan, waardoor ze één groot beest lijken te vormen.

AI Insight 3 Koe

In de Scottish Championship kunnen ze ervan meespreken. Daar had men een AI-systeem ontwikkelt dat automatisch de voetbal kon volgen, zodat er geen cameraman meer nodig was om de wedstrijd te filmen. Helaas had men er geen rekening mee gehouden dat het algoritme zou kunnen denken dat het kale hoofd van de lijnrechter een voetbal was. Geregeld kregen de kijkers thuis dan ook een close-up van de lijnrechter te zien terwijl het spel nog bezig was.

Wanneer de basis al fout zit

Enkele jaren geleden werd een schoonheidswedstrijd georganiseerd, waarbij artificiële intelligentie de jury vormde. Men had de software geleerd wat ‘schoon’ was door onder andere te focussen op symmetrie in het gezicht en de hoeveelheid rimpels. Uit meer dan een half miljoen inzendingen werden tientallen finalisten geselecteerd, waarvan maar één persoon met een donkere huidskleur. Het probleem zat niet bij de inzendingen - die kwamen van over de hele wereld - maar bij een zeer homogene set trainingsdata.

Een gelijkaardig voorval vond plaats bij Amazon, dat een recruitment tool op basis van artificiële intelligentie had ontwikkeld. Die kon ingestuurde CV’s screenen om te bepalen of een kandidaat in aanmerking kwam voor een job of niet. Het algoritme was getraind op de CV’s van mensen die al bij Amazon werkten - wat voornamelijk mannen waren. Zelfs zonder dat de te beoordelen CV’s foto’s of namen bevatten nam de software significant meer mannen aan, omdat er bijvoorbeeld bepaalde woorden zijn die mannen vaker gebruiken dan vrouwen.

Spelen met taal

Natural Language Processing is een tak van artificiële intelligentie die focust op taal. Daar gaat het soms mis omdat de context ontbreekt, of dat talen grammaticale uitzonderingen hebben. Wanneer je vanuit een taal zonder woordgeslachten vertalingen maakt, kan de software bijvoorbeeld standaard denken dat een dokter een man is, en een verpleegkundige een vrouw, omdat die clichébeelden nu eenmaal bestaan.

Artificiële intelligentie is met andere woorden een krachtige tool, maar kan net als mensen fouten maken. Alles begint bij de data waarop de algoritmes getraind zijn, en de feedback die de software vervolgens krijgt om bij te sturen waar nodig. Wie daar geen rekening mee houdt, die eindigt met… artificiële incompetentie.

Op de hoogte blijven van onze Insights?

Stijn Roscam

Stijn Roscam

.NET Consultant

Nog niet uitgelezen?

Bekijk dan onze andere artikels!

Insights
Axxes