In de vorige tracks maakte je kennis met zoekmachines, machine learning en deep learning.
In deze track gaan we kijken naar de praktijk. Hoe komen bedrijven eigenlijk aan data en hoe gaan ze daar mee om?
Laten we het eens hebben over data...
Klantenkaarten vertellen bedrijven wie wat, waar en wanneer koopt.
En dát is waardevolle informatie. Slimme systemen kunnen patronen ontdekken in grote hoeveelheden data, dus ook in de data van het koopgedrag van mensen in hun winkels.
Klantenkaarten zijn één voorbeeld van hoe data wordt verkregen
Maar eigenlijk creëer je de hele dag door data.
Iedereen creëert data, waardevolle data.
Daarom is het nodig de volgende vraag te stellen: wat mag er allemaal wel en niet met onze data gedaan worden? Het antwoord daarop is afhankelijk van de volgende stelling…
Maar let op, er zijn grenzen: bedrijven mogen niet zomaar alles met je data doen.
Enkele basisregels, die je ook vaak terugleest in de kleine lettertjes, zijn bijvoorbeeld het niet delen van je data met andere partijen en het gebruiken van je data puur en alleen voor bedrijfsdoeleinden.
Zou je het bijvoorbeeld oké vinden...
...om als pizzaliefhebber net iets te vaak advertenties van sportscholen voorgeschoteld te krijgen? Waarschijnlijk niet.
Tenzij je expliciet toestemming hebt gegeven, is het geen verantwoorde manier om met jouw persoonlijke data om te gaan.
Een ander voorbeeld komt van Amazon
Je kent ze vast wel: bekend van hun online winkels en de streamingdienst. Amazon wilde een tijd geleden AI toepassen op hun eigen personeelsbestand.
Een AI-systeem moest bepalen welke medewerkers een promotie moesten krijgen.
Klik op de kruisjes om te lezen wat er gebeurde.
Het systeem selecteerde vooral mannen!
En dat was natuurlijk heel oneerlijk ten opzichte van de vrouwelijke medewerkers van Amazon. Heb jij enig idee hoe deze "bias" (vooringenomenheid) was ontstaan?
Het algoritme had geleerd van de bestaande situatie!
Het feit dat mannen eerder 'manager' konden worden, was niet de schuld van het AI-model. Het was blijkbaar iets dat al jaren lang speelde bij Amazon. Mannen werden al systematisch voorgetrokken. Het algoritme had dit geleerd en daardoor dus eigenlijk aangetoond.
Let dus op. In de pers lees je vaak: een algoritme is oneerlijk, of een AI-systeem discrimineert.
Maar jij weet nu hoe dat zit. Het algoritme doet niks. Het zijn mensen die het ontwerpen en vaak op basis van geselecteerde, historische data.
Hoe dan wel?
Vaak hanteren we dan begrippen uit de ethiek. In deze video bespreken we het Engelse acroniem F.A.C.T.
FACT is belangrijk
Maar volgens Jim hoort daar nog een letter bij. Daarom ging hij op bezoek bij Deloitte.
Nog één keer alle letters op een rij.
Klik op de letters voor een korte samenvatting.
De belangrijkste punten van deze track op een rij
Over de door jou gecreëerde data heb je geen eigendom, wel zeggenschap
Bedrijven moeten zich aan de wet houden
Maar niet alles staat in de wet; dan spreken we over ethiek
FACT(A) is een goed begin om daarnaar te kijken
In de volgende track zoomen we verder in op de vraag: hoe ver willen we gaan?
Want, ook binnen de overheid duiken AI-systemen op. Zo zijn er al uitdagingen met geautomatiseerde overheidsbeslissingen...