juli 17, 2019

Being human in the age of AI

Het thema van de DI Summit dit jaar 26 juni 2019 was “Being human in the age of AI”. Twee terugkerende topics op de summit waar de link tussen mens-zijn en artificiële intelligentie (AI) belicht werd, zijn de bewustwording rond vooroordelen of biases in de algoritmes en de ethische frameworks om het ethische gehalte van AI te evalueren.

Mensen zitten vol biologische en cognitieve biases waarvan sommige ook als positief gezien kunnen worden. De confirmatie bias bij leidende vragen kan bijvoorbeeld gezien worden als een sociale vaardigheid die gebruikt wordt om connectie met andere mensen te maken. Verder maken heel wat business processen al van lang voor de tijd van kunstmatige intelligentie een onderscheid tussen verschillende groepen van mensen op basis van leeftijd en geslacht, bijvoorbeeld in de verzekeringssector. Moeten AI algoritmes dan objectief zijn, en wat betekent objectiviteit in een wereld van waarschijnlijkheden en menselijk gedrag?

Het kan alleszins geen kwaad om de meest voorkomende biases die de algoritmes binnensluipen met enige regelmaat te herhalen in de data science community. Het overzicht van Stephen Probst, CTO van Teradata, was dan ook een nuttige reminder. Zo is er de selectie bias waarbij de selectie van data van individuen of groepen niet afdoende willekeurig gebeurt en zo de resultaten van het algoritme in een bepaalde richting stuurt. Bij de stabiliteitsbias krijgt de toestand die bestond in de data bij de ontwikkeling van het algoritme voorrang over nieuwe fenomenen die in de data voorkomen, waar het algoritme niet goed weg mee weet. Kortom, een algoritme is maar zo goed als de data die gebruikt werd om het te kalibreren. En dan hebben we het nog niet over de cognitieve en sociale biases die optreden bij de mensen die de resultaten interpreteren.

Om het ethisch gehalte van AI na te gaan circuleerden er een aantal acroniemen op de DI summit. Het meest gehoorde was FAT, wat staat voor fairness, accountability, transparancy. Er zijn echter risico’s verbonden aan het benaderen van ethiek als een framework met een checklist. Zo wees Daniel Leufer, technologiefilosoof verbonden aan de KUL en Access Now - een NGO voor digitale rechten, er fijntjes op dat er in de paper ‘A mulching proposal’ met behulp van het FAT framework succesvol geargumenteerd kan worden voor een algoritmisch systeem om ouderen om te zetten in slurry met een hoge voedingswaarde om het honger- en vergrijzingsprobleem aan te pakken. Alleen al het definiëren van ethiek houdt de filosofie al enkele duizenden jaren zonder sluitende conclusie bezig. We moeten dus waakzaam zijn als we mechanismes tegenkomen waarbij ethische beslissingen geautomatiseerd worden.

Een antwoord op de vraag wat het betekent mens te zijn in het tijdperk van artificiële intelligentie (AI) hadden we niet verwacht op een summit rond data innovatie. Tuba Bircan verwoordt het treffend: ‘hoe kunnen we van AI verwachten dat het menselijke waarden begrijpt, wanneer we ze als mensen zelf niet begrijpen’.