Artikel 11 augustus 2021

Apple pareert kritiek op kinderporno-scanner

Apple trotseert de felle kritiek vanuit privacy-organisaties over software die op een iPhone of iPad lokaal foto’s scant op kinderporno. Van geïntegreerde snuffelsoftware die een achterdeur openzet naar de privacy van gebruikers, is volgens het techbedrijf dan ook geen sprake.

Apple vindt de vrees ongegrond dat deze wijze van automatische beeldherkenning allerlei neveneffecten kan hebben en zijn doel voorbijstreeft. Ook bezweert het bedrijf de gedachte dat de nieuwe voorziening verder gaat dan de detectie van kindermisbruik en ook op andere gebieden tot massasurveillance kan leiden. De enige bedoeling is te voorkomen dat strafbaar beeldmateriaal op de servers in de iCloud terechtkomt. 

Apple gaat dan ook door met het inbouwen van kunstmatige intelligentie (ai) in updates van het besturingssysteem iOS15. Door foto’s van iOS-gebruikers te vergelijken met de databestanden van kinderbeschermer NCMEC kan de software verdacht beeldmateriaal eruit filteren. Vervolgens laat Apple een menselijk oog over de gewraakte content gaan. Pas daarna wordt bij mogelijke wetsovertreding een organisatie voor kinderbescherming ingeschakeld. In Amerika is dat de NCMEC.

Lees het volledige artikel op computable.nl

Ook interessant