FaceApp, de producent van een app die selfies bewerkt met gebruik van kunstmatige intelligentie, heeft haar excuses aangeboden omdat de ‘hot’ filter de huidskleur automatisch doet oplichten. FaceApp wordt omschreven als een app die ‘neurale netwerken’ gebruikt om gezichtseigenschappen te veranderen, door bijvoorbeeld glimlachen toe te voegen of door gebruikers er jonger of ouder uit te laten zien. Gebruikers ontdekten echter dat één van de opties, aanvankelijk aangeduid als ‘hot’, ervoor zorgt dat mensen worden afgebeeld met een lichtere huidskleur.
De oprichter van FaceApp heeft in een verklaring gezegd dat er geen opzet aan te pas is gekomen, maar dat er sprake is van een onbedoeld effect van het onderliggende neurale netwerk. Om het probleem te verminderen heeft FaceApp de naam van de filter veranderd in ‘spark’, zodat eventuele positieve connotatie daarbij kan worden uitgesloten:
“To mitigate the issue, we have renamed the effect to exclude any positive connotation associated with it.”
Bovenstaande situatie is een tekenend voorbeeld van de risico’s van vooroordelen die in algoritmes vervat kunnen zijn. Een machine learning model is zo goed als de data die wordt ingevoerd en in FaceApp’s geval is het programmeerteam nalatig geweest in het trainen van hun algoritme op een voldoende diverse dataset en daarbij ook het testen van het product.
Regulering
In het verlengde van het adequaat testen van de systemen en het kunnen identificeren van fouten in een algoritme ligt de vraag naar verantwoordelijkheid en toerekenbaarheid bij fouten in algoritmes. Met het toenemende gebruik van kunstmatige intelligentie in de huidige samenleving is er een groeiende behoefte aan eenduidigheid hierover.
Zo heeft Europees Parlement de Europese Commissie eerder dit jaar gevraagd regels op te stellen voor de snel evoluerende sector van robotica en kunstmatige intelligentie. In verschillende landen wordt reeds gewerkt aan regelgeving, maar het Parlement is van mening dat de EU de leiding moet nemen in het opstellen van ethische standaarden en regels. Op deze manier wordt de EU niet gedwongen om de standaarden te volgen die zijn opgesteld door derde landen. De Europarlementsleden benadrukken dat er dringend nood is aan duidelijkheid wanneer het gaat om aansprakelijkheid. (Lees hier meer over het voorstel.)
Aan het belang en de ernst van vooroordelen in algoritmes en systemen wordt overigens in de Algemene Verordening Gegevensbescherming, die in mei 2018 van kracht wordt, al aandacht besteed. Zo worden waarborgen geboden tegen discriminatie op basis van geautomatiseerde besluitvorming en profilering. De verwerkingsverantwoordelijke dient bijvoorbeeld transparant te zijn over een louter op geautomatiseerde verwerking gebaseerd besluit en dient daarbij maatregelen te treffen waarmee het risico op fouten wordt geminimaliseerd.
“(71) Teneinde een voor de betrokkene behoorlijke en transparante verwerking te garanderen (…) dient de verwerkingsverantwoordelijke voor de profilering passende wiskundige en statistische procedures te hanteren en technische en organisatorische maatregelen te treffen waarmee factoren die aanleiding geven tot onjuistheden van persoonsgegevens worden gecorrigeerd en het risico op fouten wordt geminimaliseerd (…) en dat onder meer wordt voorkomen dat zulks voor natuurlijke personen discriminerende gevolgen zou hebben (…)”
Britse expertise
Voor meer expertise op het gebied van kunstmatige intelligentie en eventuele onbedoelde gevolgen daarvan kunnen we overigens te rade bij onze westerburen. Het Verenigd Koninkrijk ziet zichzelf als wereldleider op het gebied van kennis over de gevolgen van kunstmatige intelligentie en stelt intellectueel leiderschap op dit gebied te kunnen bieden. Toch acht het een gecoördineerde aanpak nodig om deze expertise te benutten, zo volgt uit een rapport van het Science and Technology Commitee wat onderdeel is van het Britse parlement. Dit samenspel zal na Brexit van nog groter belang zijn voor het Verenigd Koninkrijk.