#4 : Kunstmatige ongelijkheid

Kunstmatige ongelijkheid

Als algoritmen worden ingezet, is dat vaak gebaseerd op historische of onvolledige data. Hoe kunnen we voorkomen dat zulke systemen bijdragen aan meer ongelijkheid?

Goed bezig!

Van de negen hoofdstukken, heb je er al drie afgerond. Ga zo door! Aan het einde van de cursus krijg je een certificaat van deelname. In dit hoofdstuk staan eerlijke en oneerlijke algoritmen centraal.

ai cursus ethiek

Al-go-wattuh?

Het woord algoritme komt van meneer Al-Khwārizmī... een Perzische wiskundige die in de negende eeuw een boek schreef over het uitvoeren van berekeningen. 

Dit was dus láng voordat we ze ook in computers gingen gebruiken.

ai course

Vandaag de dag worden algoritmen bijna overal gebruikt.

Van het luisteren naar playlists op Spotify tot en met het navigeren via Google Maps... zonder algoritmen was dat allemaal niet mogelijk.

ai course

En als Spotify eens een verkeerd liedje suggereert

Of dat je een keer door Google Maps moet omrijden, is niet erg. Maar als een algoritme in de zorg een fout maakt, kan dat grote gevolgen hebben.

ai in de zorg

Laten we daarom eens kritisch kijken naar zulke systemen.

En dat doen we samen met prof. Sennay Ghebreab. Hij is verbonden aan ICAI... het Innovation Center for AI.

icai website

Maak kennis met Sennay

ICAI heeft de ambitie om de ontwikkelingen rondom AI te versnellen én in goede banen te leiden.

Big data, bigger data

De meeste algoritmen worden ingezet om data te analyseren. Dat noemen we data-gedreven AI.

bigger data

Valkuilen en onbewuste discriminatie

Maar daar zit hem ook de uitdaging. Want als de data over iemand niet kloppen, of onvolledig zijn, kan een AI-systeem niet goed zijn werk doen. Mensen worden dan ongelijk, of onheus behandeld.

ai course

Wacht eens even!

Er wordt toch altijd gezegd dat er data nodig zijn om een objectieve beslissing te nemen? 

Dat klopt. Maar bij het verkrijgen of verwerken van de data kunnen dingen over het hoofd gezien worden.

ai course

We spreken dan over 'bias' in de data.

Sennay legt uit hoe ongelijkheid in datasets terecht kan komen.

-




-




Maar wat is dan precies het probleem?

Laten we eens kijken. Klik op de begrippen om verder te lezen.




Collection Bias

Naast het gebruik van historische data, zijn er nog meer aandachtspunten volgens Sennay. 

Bewust of onbewust?

Sennay introduceert in deze video het begrip 'red lining'.

Tijd voor een voorbeeld...

Toen een makelaar nieuwe huizen wilde verkopen in een 'hippe' buurt, besloot hij online advertenties bij Facebook in te zetten. Maar bij het instellen van de campagne maakte hij een bijzondere keuze.

makelaar

Dit was reden voor een aantal ouderen om naar de rechter te stappen.

Zij vonden het heel vervelend (en onrechtvaardig) dat zij niet de kans hadden gekregen om zich in te schrijven voor de nieuwe woningen. Ze beriepen zich op het argument van gelijke behandeling.

ai course

Kunnen algoritmes dan wél eerlijk worden ingezet?

We vroegen Sennay om wat advies. Waar moet bijvoorbeeld een overheid opletten als ze ook met data en algoritmes werken?

Samenvatting

In deze track heb je geleerd:




Track 4 afgerond!

NEXT UP: Desinformatie en nepnieuws


Je wordt automatisch doorgeschakeld, of klik op bovenstaande knop.