Noodzakelijke inclusiviteit
Het woord ‘bias’ komt naar voren in zowel maatschappelijk als wetenschappelijk debat over de inzet van artificiële intelligentie (ai). Het verwijst doorgaans naar een vooroordeel dat iets of iemand vaak onbedoeld heeft. Wanneer dit vooroordeel leidt tot een afwijking in besluitvorming vergeleken met een situatie wanneer dit vooroordeel er niet zou zijn, dan is een bias doorgaans onwenselijk.
Deze vooroordelen ontstaan wanneer systemen, gebaseerd op algoritmen, bevooroordeelde resultaten produceren. Deze bias kan voortkomen uit de datasets waarmee de ai wordt getraind (denk aan een dataset uit de jaren negentig uit een specifieke wijk in een grote stad), de ingebouwde aannames in het algoritme, of de programmeerbenaderingen. Het gevaar van ai-bias is dat het kan leiden tot oneerlijke of onnauwkeurige resultaten, vooral in belangrijke domeinen zoals gezichtsherkenning, besluitvorming en voorspellende analyses.
https://www.computable.nl/2024/02/05/ai-bias-vs-menselijke-bias/