Artikel 20 september 2021

We kunnen schuld van bias niet aan ai geven

Hoewel artificiële intelligentie (ai) ons gemak biedt bij tal van processen en activiteiten in het dagelijks leven, kampt het met een slechte reputatie. Een regelmatig terugkerend probleem lijkt vooringenomenheid (of bias) van de technologie te zijn. Terwijl de schuld daarvan zelden bij ai zelf ligt.

Enkele voorbeelden van ai gone bad. Eerder dit jaar werd een Zuid-Koreaanse chatbot, Lee Luda, van Facebook afgehaald omdat deze racistische taal richting minderheden spuide. Of neem het regelmatig terugkerende probleem van gezichtsherkenningssoftware die gezichten van vrouwen of gekleurde personen niet herkent. En zo zijn er talloze andere voorbeelden te vinden waarbij vooroordelen ai parten speelt.

De technologie zelf is zelden de aanstichter van het kwaad. De grootste uitdaging voor ai wordt gevormd door de mens. Ai-technologie heeft geen geweten of motieven, het gebrek aan aandacht voor ethische factoren en consequenties tijdens het programmeren ligt ten grondslag aan biased ai. En dat is het daadwerkelijke probleem waar we mee te maken hebben. Ai heeft de kracht om geweldige dingen mogelijk te maken en ons leven te verrijken, maar we moeten er secuur mee omgaan. Ai is niet de veroorzaker van bias, het is de manier waarop we ontwikkelen en inzetten.

Bias in computermodellen ontstaat op een manier die te vergelijken is met hoe vooroordelen bij mensen ontstaan. Die worden namelijk gevormd door de omgeving waarin we opgroeien, de mensen met wie we contact mee hebben, onze leraren, de situaties waarin we ons bevinden. Kortom, alles wat ons definieert als persoon.

Lees het volledige artikel op computable.nl

Ook interessant