Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Data Services om cookies te gebruiken. verder gaan Created with Sketch.

10 april 2019

Door Valérie Deridder

Algoritmen op de brandstapel: de zin en onzin

VRAAG: Wat doe je met een algoritme dat nog niet optimaal is? ANTWOORD: Je gooit het weg, maar zou je dat ook met een auto doen? Ik ging te rade bij analytics-organisatie over de zin en onzin van de algoritmen-heksenjacht.

Het valt niet te ontkennen dat er tegenwoordig een soort van resistentie heerst tegen AI. We horen allerlei AI-horrorverhalen over wat er nu precies allemaal kan misgaan bij de implementatie van AI-toepassingen.

“Toch moeten die modellen die we bouwen ook effectief gebruikt worden”, meent Véronique Van Vlasselaer, Customer Advisor Decision Science bij SAS. Dat klinkt logisch, aangezien je in principe maar een beperkt overzicht hebt van de “bijwerkingen” van een algoritme wanneer dat in quarantaine zit. Het is pas wanneer je een algoritme in de echte wereld gaat uittesten, dat je de bijwerkingen ook juist kan inschatten.

De bijsluiter van een algoritme

Laat dat nu datgene zijn wat SAS doet. De analytics-organisatie operationaliseert algoritmen, en maakt een berekening vanaf wanneer die aanvaardbaar zijn. Het gaat er echter vaak om interdisciplinaire debatten. Een datawetenschapper kan wel zeggen dat zijn algoritme ‘superaccuraat’ is, toch denkt een AI-ethicus daar misschien heel anders over.

Dat wil echter niet zeggen dat je een algoritme dat in eerste instantie bevooroordeeld is ook maar meteen aan de kant moet schuiven. “Een auto waar iets aan schort, gooi je ook niet zomaar op de schroothoop. Die zet je op de pechstrook of breng je naar de garage.” Aan het woord is Mieke De Ketelaere, Ethical AI evangelist bij SAS.


“Een auto waar iets aan schort, gooi je ook niet zomaar op de schroothoop. Die zet je op de pechstrook of breng je naar de garage.” – Mieke De Ketelaere, ethical AI evangelist SAS

Toch gebeurt dat nog al te vaak. Wanneer een algoritme niet perfect werkt, blijken we er al snel afkerig van te worden en gebruiken we het niet meer. “Terwijl je er net verder aan moet blijven sleutelen tot het wel aan alle standaarden voldoet”, aldus De Ketelaere. Het lijkt een logische stelling. Als je steeds algoritmen aan de kant schuift die 80% scoren, dan moet je ook steeds van nul beginnen wanneer je weer eens een nieuw algoritme ontwikkelt. De logische stap is dus misschien niet dat je dat algoritme links laat liggen, maar dat je de zwakheden erin opspoort en het verder traint.

Nochtans zijn er al heel wat standaarden die bepalen wat mag en niet mag bij de ontwikkeling van een algoritme. Zo zijn er de Basel-akkoorden die bepalen welke data je wel of niet mag gebruiken als input voor je algoritme. Begrijpelijk, aangezien tegenwoordig steeds vaker op basis van algoritmen wordt beslist of iemand een lening krijgt of naar de gevangenis moet omwille van een misdaad die hij of zij niet begaan heeft. Wat doe je echter wanneer die vooroordelen bijna geruisloos in je algoritmen sluipen? Een HR-algoritme neemt bijvoorbeeld wel je IP-adres mee in je jobselectie. Ook dat kan voor vooroordelen zorgen, aangezien steden als Molenbeek een heel andere connotatie oproepen dan pakweg Leuven.

Joint effort

Toch kan je ook die implicietere vooroordelen wegwerken. Daarvoor is wel een doorgedreven samenwerking nodig tussen datawetenschappers enerzijds, en de zakenwereld anderzijds.Spijtig genoeg wordt die zakenwereld niet genoeg betrokken bij de ontwikkeling van die algoritmen. Maar net zij moeten de drijvers zijn van AI, aangezien zij die algoritmen ook op grote schaal operationaliseren. Het probleem met de zakenwereld is dat die altijd erg snel wil vooruitgaan. Datawetenschappers waarschuwen vaak wel voor de mogelijke bijwerkingen van een algoritme, maar de zakenwereld is meestal al blij met een foutenmarge van vijf procent. Maar je zal maar eens deel uitmaken van die vijf procent. Er is enerzijds die drang om razendsnel vooruit te gaan, maar het besef voor ethische implicaties blijft daar vaak achterwege.

De AI-autostrade

Mieke De Ketelaere omschrijft die AI-ontwikkeling met een verkeersmetafoor. “De auto is het algoritme, en bedrijven rijden met die algoritmes. De gewone burger zit er als passagier bij. Het enige probleem is dat de bestuurder geen rijbewijs heeft, een opleiding waarin het bedrijf moet voorzien. Daarnaast zijn er ook verkeersregels nodig, iets waar de overheid voor moet zorgen. Dan is er ook nog de pechstrook, waar foutjes kunnen worden rechtgezet. De passagier wordt ook stilaan zelfbewuster; dat boekje in de auto dat niemand leest? Dat is de cookiewetgeving. En sommige passagiers beginnen die nu wel te lezen, al mag dat gidsje best wat leesbaarder gemaakt worden.”

Toch ontbreken die rijbewijzen, verkeersregels en pechstrook momenteel, en ook de verkeersborden en de wegcode moeten nog steeds geïmplementeerd worden. “Wanneer een algoritme niet werkt gooien we het zomaar weg, maar dat doe je ook niet met je auto.” Algoritmen moeten geoperationaliseerd worden, en het heeft geen nut dat ze tot stand komen in een steriele wetenschapsomgeving. SAS operationaliseert die algoritmen; zij hebben de rijbewijzen en zetten de auto’s regelmatig eens op de pechstrook.

Die vertaalslag van de data science naar de zakenwereld is extreem belangrijk. McKinsey oppert zelfs een nieuwe rol daarvoor; die van analytics translator. De job van de morgen zou wel eens AI-psycholoog kunnen worden. Er staat ons dus nog heel wat te wachten in de toekomst.