Nu ook in de politiek de roep klinkt om de negatieve aspecten van kunstmatige intelligentie en algoritmen het hoofd te bieden, is het tijd om een breed maatschappelijk debat te voeren over de invloed hiervan op de samenleving. De uitkomsten van zo’n debat kunnen helpen bij de vraag of wettelijke maatregelen nodig zijn en op welke wijze overheid en bedrijfsleven zelf stappen kunnen zetten om algoritmen transparanter en eerlijker te maken.
Algoritmen zijn overal aanwezig
We hebben er dagelijks mee te maken. Of het nu gaat om het bepalen van de route van A naar B, het kiezen uit een heel groot aanbod aan artikelen van vele aanbieders op internet, het intikken van zoekopdrachten op Google, leestips van nieuwsbrieven, nepnieuws, beïnvloeding van de Amerikaanse verkiezingen (Cambridge Analytica) of dichterbij huis wat de maximale hoogte van de hypotheek is. Onzichtbare algoritmen hebben invloed op de keuzes die we dagelijks maken. Zij helpen ons om door het oerwoud aan informatie heen te komen door ons de informatie voor te schotelen die gebaseerd is op onze voorkeuren. Dat is handig en efficiënt. In combinatie met social media en `big data’ kunnen bedrijven dienstverlening en service naar klanten gerichter en persoonlijker maken.
Discriminatie ligt op de loer
Je zou hopen dat het gebruik van algoritmen altijd tot rechtvaardige besluiten leidt; een computer heeft immers geen vooroordelen. Helaas is dat niet altijd het geval: algoritmen kunnen, net als mensen, discrimineren. Discriminatie door een algoritme kan op verschillende manieren ontstaan. Gewoonlijk ligt de oorzaak niet zozeer bij het algoritme zelf, maar bij de gebruikte data. Als dit bijvoorbeeld menselijke vooroordelen bevat dan zullen algoritmen die gebaseerd zijn op patroondetectie deze vooroordelen overnemen. Op deze manier kunnen racistische of seksistische chatbots en zoekmachines ontstaan. Een negatief voorbeeld is een algoritme dat voor Amerikaanse rechters de kans op recidive van een gedaagde berekent. De non-profit waakhond ProPublica in New York ontdekte dat dit algoritme aan zwarte Amerikanen een veel hogere recidive-kans toekent dan aan witte Amerikanen hoewel het profiel en de achtergrond van de verdachten vergelijkbaar waren.
Het rapport `algoritmen en grondrechten’ (door Universiteit Utrecht en in opdracht van het ministerie BZK) zegt over algoritmen:
“De ‘oriëntatie op correlatie’ maakt dat algoritmen die worden ingezet bij data-analyse geen inzicht bieden in causale verbanden, maar slechts wijzen op (mogelijk nuttige) correlaties. De oefendata van classificatie-algoritmen kan fouten bevatten en het opstellen van niet-distributieve groepsprofielen is per definitie onnauwkeurig, omdat de kenmerken van een bepaalde groep niet per definitie op alle leden van deze groep van toepassing zijn. Als onnadenkend of onkritisch wordt omgegaan met de uitkomsten van algoritmen, kan dit leiden tot fouten in publieke en private besluitvorming”.
Het boek ‘Weapons of Math Destruction’ van Cathy O’Neal bespreekt nog meer voorbeelden van algoritmen die data verwerken en (onbedoeld) leiden tot sociale of economische onrechtvaardigheid.
Ongemerkt gluren en sturen
Je zou zeggen dat de digitalisering en beschikbaarheid van informatie onze samenleving transparanter maakt. Toch lijkt het tegendeel eerder waar te zijn. Neem als voorbeeld een supermarkt die een algoritme gebruikte om in te schatten of de koper zwanger is. Op basis van de uitkomsten werden gerichte aanbiedingen aan de klant verstuurd. Dit lijkt klantgericht, maar de klanten ervoeren dit als ‘creepy’. De supermarkt loste dit op door ook aanbiedingen op irrelevante producten mee te sturen; voor de klant was het daardoor niet langer duidelijk dat een gerichte, persoonlijke aanbieding was samengesteld. Dit voorbeeld roept de vraag op in hoeverre we moreel verplicht zijn om transparant te zijn over het feit dat een algoritme wordt gebruik en hoe de klantdata leiden tot een positief of negatief besluit.
Bijsturen is gewenst
We kunnen niet aan de zijlijn staan en ons laten geruststellen of verwachten dat het wel goed komt. Een vorm van beleid en correctie is nodig. We willen als mens altijd snappen waarom iets is (een besluit, een aanbod, een keuze) en wat gedaan kan worden om de oorzaak weg te nemen. Dit geldt ook voor kunstmatige intelligentie, machine learning of andere vormen van geautomatiseerde gegevensverwerking. Wat kunnen we doen en hoe?
De ontwikkelaars van algoritmen
Is het mogelijk om algoritmen inhoudelijk te beoordelen voordat deze in de praktijk worden gebracht? Een toetsingskader op basis van vijf richtinggevende principes kan hierin uitkomst bieden:
- Fairness: de ontwikkelaar levert een maximale inspanning om discriminatie of andere vormen van sociale onrechtvaardigheid te voorkomen;
- Menselijke maat: de klant (of patiënt, gebruiker, etc) kan altijd een mens raadplegen over de uitkomst van een algoritmen, zo nodig escaleren. Bij ontwikkeling & toepassing wordt het belang van de klant altijd meegewogen;
- Controle: de klant heeft een zekere mate van invloed over de inzet van algoritmen en de hiervoor gebruikte data;
- Uitlegbaarheid: een besluit is altijd uitlegbaar naar de klant; er moet hierbij een relatie zijn tussen input (data c.q. oorzaak) en output (gevolg c.q. besluit).
- Transparantie:
- de aanbieder informeert de klant hoe hij de algoritmen toepast en welke data hij hierin verwerkt (voorzover wettelijk of veiligheidsmatig mogelijk);
- de ontwikkelaar ontwerpt het algoritme als open-source zodat public scrutiny gewaarborgd is en acceptatie van het algoritme vergroot wordt.
In het boek Ethics & data science, beschrijven Mike Loukides, Hilary Mason, en DJ Patil hoe je als data scientist ethische standaarden onderdeel kunt maken van je dagelijkse werkzaamheden.
Cultuur, bewustwording en training.
In het onderwijs moet niet alleen meer aandacht komen voor nieuwe technologieën en kunstmatige intelligentie maar ook voor de gevolgen ervan op de samenleving en het individu. Ethische principes mogen hierbij niet ontbreken. Studenten gaan idealiter tijdens de studie met elkaar in debat om te begrijpen welke invalshoeken een rol spelen bij het goed programmeren van een algoritme. Naast efficiëntie en eenvoud van het algoritmen dient de ontwikkelaar zich ook bewust te zijn van de stabiliteit van het algoritme wanneer andere datasets worden gehanteerd, of bij afwijkende gebeurtenissen of scenario’s. Richtlijnen ontbreken nu nog hierin. Dit komt omdat de ethiek op het gebied van kunstmatige intelligentie nog onontgonnen terrein is. En omdat richtinggevende principes voor een algoritme per situatie verschillend kunnen zijn. Een beveiligingsalgoritme kent voor militaire toepassingen een andere tolerantie dan voor civiele situaties. Het is dus lastig objectieve of harde grenzen te trekken. Kortom, een dialoog is broodnodig waarin de relevante actoren, waaronder de overheid, het bedrijfsleven, belangengroeperingen, technologie-ondernemingen, de academische wereld en belangenorganisaties met elkaar het gesprek aangaan: “Wat zijn de publieke waarden die we in Nederland willen borgen? En hoe kunnen we algoritmen hierin zo goed mogelijk inzetten?”
Versterking van intern en extern toezicht
Allereerst de commissarissen en toezichthouders van bedrijven en instellingen. Zij dienen in hun toezicht op de besturing zich ervan te vergewissen hoe data binnen de organisatie worden gebruikt en in hoeverre bestuur en management grondige kennis en begrip hebben van de algoritmen. De toezichthouders moeten zich laten inlichten over het risicomanagement rondom data en besluitvorming op basis van algoritmen. Zij verzekeren zich ervan dat de belangen van de stakeholders, en vooral de consumenten of burgers, adequaat geborgd zijn.
Ten tweede is het nodig het toezicht op bedrijven en instellingen te versterken in de vorm van een uitgebreider mandaat voor de Autoriteit Consument & Markt en de Autoriteit Persoonsgegevens. Hoe de taakverdeling onderling eruit ziet, valt nog te bezien. Essentieel is dat de ACM toetst op een level playing field voor bedrijven en de informatiemacht van grote tech bedrijven zo nodig inperkt door data verplicht te delen en platforms open te stellen. Zoals dit in het verleden in de telecom- en energiesector is gedaan en inmiddels ook voor betaaldienstverlening van banken geldt. Op basis van de AVG/GDPR houdt de AP toezicht opdat de klant in control blijft over zijn data. Wellicht moet dit toezicht zich ook strekken tot situaties waarbij klantdata door algoritmen worden verrijkt tot algemene of niet meer tot de klant herleidbare data. Het is overigens interessant te bezien of het standpunt van het kabinet als gevolg van het rapport ‘Opwaarderen’ hierin zal wijzigen. Ik hoop het van harte.
Ten derde is er een rol weggelegd voor de accountant. In het boek ‘Vertrouwen in de slimme samenleving’ van Sander Klous en Nart Wielaard pleiten de auteurs onder meer voor een toezicht op algoritmen dat gebaseerd is op het controlemodel van de accountant. Natuurlijk kan dit per maatschappelijke sector verschillen en geleidelijk aan worden opgebouwd. Ambtenaar Paul Strijp zegt hierover: “Een passend toezicht op algoritmen dient uiteindelijk dan ook het hogere doel van versterking van de lokale democratie en van vertrouwen in politiek en overheid.” Om de financiële gezondheid van een bedrijf te beoordelen, zal de accountant inzicht moeten hebben in hoe de data, algoritmen en modellen binnen het bedrijf worden gebruikt. En ook deze uitkomsten de waarden van de stakeholders op lange termijn beïnvloeden.
Algoritmen mogen niet tot scheefgroei leiden
Momenteel ontbreekt nog een normstelling ten aanzien van het gebruik van algoritmen. Geautomatiseerde dataverwerking en besluitvorming, machine learning, artificial intelligence: het mag eenvoudigweg niet leiden tot scheefgroei in de maatschappij. Ieder mens heeft recht op het eigendom van zijn persoonsgegevens en heeft dus ook het recht om te weten hoe zijn data leiden tot uitkomsten die voor hem/haar van persoonlijk belang zijn. Door algoritmen toe te passen die eerlijk en rechtvaardig zijn, verbreden we de reikwijdte van verantwoord ondernemen dat past bij een gedigitaliseerd tijdperk.