Prof. Hennie Kruger, Algoritmiese Ongeregtigheid, Digitale Frenologie. Kunsmatige Intelligensie (KI)
Digitale Frenologie – die dryfkrag vir algoritmiese ongeregtigheid
Teen ongeveer 1796 het die Duitse fisioloog Franz Joseph Gall (1758 – 1828) die pseudo-wetenskap bekend as frenologie ontwikkel. Die woord frenologie, of phrenology in Engels, kom uit die antieke Grieks en word afgelei van die begrippe ‘phren’, wat losweg verstand beteken, en ‘logos’ wat kennis beteken. Frenologie is gebaseer op die aanname dat die vorm van ‘n persoon se skedel ‘n aanduiding van daardie persoon se karakter is. Aanhangers van hierdie wetenskap het letterlik geglo dat die skedelkenmerke, byvoorbeeld knoppe en duike op n mens skedel, is ‘n aanduiding van ‘n persoon se breinfunksie, persoonlikheid, vermoëns en vaardighede. Frenologie is destyds gereeld gebruik vir karakterontleding waar ‘n persoon beoordeel is op sy of haar uiterlike voorkoms (skedelvorm). Gelukkig het die praktyk reeds in die negentiende eeu in onguns verval en word dit nie meer gebruik nie. Om mense op hulle uiterlike te beoordeel is egter steeds nie ‘n vreemde verskynsel nie. Prof Amanda du Preez van Pretoria skryf in September 2024 in Maroela Media ‘n artikel oor Looksmaxxing, ‘n sosialemediaverskynsel waarvolgens mense hulle voorkoms verander (selfs sjirurgies) om meer sosiaal aanvaarbaar te wees – by implikasie word so ‘n mens se karakter en aanvaarbaarheid dan steeds aan sy of haar beenstruktuur gemeet.
Digitale frenologie is afgelei van die definisie van frenologie en verwys na die algoritmiese gebruik van data en tegnieke wat nie verteenwoordigend is van die ware toedrag van sake nie – gewoonlik lei dit tot die benadeling van individue of sekere groepe mense. Hierdie algoritmiese onreg is iets wat voorkom by veral die gebruik van kunsmatige intelligensie (KI) en masjienleer (ML) toepassings.
Kunsmatige Intelligensie
Kunsmatige intelligensie, of ‘AI’ soos dit in die omgang bekend staan, is tans orals die onderwerp van bespreking en beïnvloed byna almal se werksomstandighede, asook hulle persoonlike lewens. Wie het nog nie van ChatGPT, Claude, Grok, Gemini, Deepseek, ens., gehoor of selfs daarvan gebruik gemaak nie? KI verwys na berekeningsstelsels wat die vermoë besit om sekere take, wat menslike intelligensie vereis, uit te voer. Dit sluit take in soos redeneer, neem van besluite en oplos van probleme. Die gebruik daarvan kom voor in baie toepassings soos byvoorbeeld beeldontledings, taalherkenning, natuurlike taalverwerking, robotika, gesigherkenning en so meer. Een so ‘n sub-area van KI is masjienleer (ML). ML verwys na die vermoë van ‘n masjien (rekenaar) om te leer van ‘n datastel sonder eksplisiete programmering. Hierdie tipe algoritmes identifiseer patrone en maak voorspellings of neem besluite – dink aan die sogenaamde aanbevelingstelsels (kliënte wat hierdie boek koop, koop ook die volgende boeke), of bedrogopsporingstelsels. Toepassings van ML kom amper orals voor – ‘n paar toepassingsareas sluit in opvoeding, regstelsels, maatskaplike werk, misdaadvoorkoming, mediese toepassings, kubersekuriteit ens. Algoritmiese ongeregtigheid kan natuurlik in enige toepassing kop uitsteek, maar dit wil voorkom asof die gebruik van ML en KI in toepassings soos finansiële stelsels, kredietverleningstelsels, en menslike hulpbron stelsels algoritmiese ongeregtigheid makliker maak.
Algoritmiese Ongeregtigheid
Nou wat is hierdie algoritmiese ongeregtigheid dan? Daar is ‘n groot aantal studies wat aandui dat die gebruik van KI en ML-algoritmes probleme veroorsaak – resultate is dikwels bevooroordeeld en onregverdig. Voorbeelde hiervan sluit in diskriminasie op grond van ras, geslag en ouderdom. Die algoritmiese ongeregtigheid verwys dan na die skade wat onregverdige masjienleer algoritmes veroorsaak omdat hulle besluite gebaseer is op beperkte of onvolledige inligting – die besluite kan ook nie altyd rasioneel verklaar word nie. Byvoorbeeld, jy kan nie die werk kry nie omdat jy aan ‘n bepaalde geslag behoort is meestal ‘n onregverdige besluit.
Dink vir n oomblik eers net aan ‘n KI toepassing soos byvoorbeeld ChatGPT. Hierdie tipe toepassings is gebaseer op ‘n groot taalmodel en is in staat om teks soos ‘n mens te genereer en om “sinvolle” gesprekke te voer. Daar is al hoe meer waarskuwings dat die resultate wat so ‘n stelsel lewer nie altyd akkuraat is nie – dit word genoem KI-hallusinasies, maw die stelsel genereer verkeerde inligting en bied dit dan aan as feite. So onlangs soos 21 Maart hierdie jaar, het n Noorweegse man, Arve Hjalmar Holmen, ‘n klag by die Noorweegse Databeskermingsgesag ingedien omdat ChatGPT valslik beweer dat hy sy twee seuns vermoor het en as gevolg daarvan 21 jaar in die tronk was[1]. Die klag is gelê omdat dit onakkurate sowel as lasterlike inligting is wat sy privaatheid skend. ChatGPT se verweer was dat dit ‘n ouer weergawe van die toepassing was wat die verkeerde antwoorde gegee het. Ook taamlik onlangs, op 17 Januarie 2025 berig BBC[2] dat die maatskappy Apple hulle KI gedrewe nuus advertensies (alerts) gestop het omdat daar so baie verkeerde en misleidende nuusopskrifte gegenereer is.
Die gevare van Kunsmatige Intelligensie (KI)
Voorbeelde oor ML toepassings gee ‘n meer duidelike prentjie oor algoritmiese ongeregtigheid en digitale frenologie – dink byvoorbeeld aan n geval wanneer mens n lening geweier word bloot op grond van jou geslag of ras of dalk selfs jou woonadres. ‘n Paar jaar gelede is ‘n gesondheidsorgrisiko algoritme gebruik om te bepaal watter pasiënte kwalifiseer vir gespesialiseerde mediese versorging. Selfs al is ras nie as deel van die data gebruik nie is daar bevind dat die ML toepassing wit pasiente bevoordeel bo swart pasiente. Die rede hiervoor was dat historiese mediese kostes as deel van die data gebruik is en wit mense wat meer van mediese dienste gebruik gemaak het, het dus ‘n beter historiese mediese koste rekord as swart mense wat om verskeie sosiale en maatskaplike redes nie altyd sulke lang mediese geskiedenis rekords gehad het nie. Die resultaat was ‘n bevooroordeelde beslissing wat dui op ‘n algoritmiese ongeregtigheid en digitale frenologie waar nie al die besonderhede (werklike mediese kondisie) in ag geneem is nie. In ‘n ander ML voorbeeld is ‘n stelsel gebruik om gevangenes te klassifiseer as moontlike herhaalde oortreders wat dan hulle aansoeke om borgtog en parool sou beïnvloed. Die resultate van hierdie stelsel was beide ras en geslag bevooroordeeld deurdat dit geneig was om ‘n swart man as hoë risiko te klassififseer teenoor iemand van ‘n ander ras of geslag wat dieselfde profiel het. Weereens blyk dit dat belangrike inligting (byvoorbeeld die tipe oortreding) ondergeskik was aan ander data soos ras en geslag. ‘n Laaste voorbeeld is die geval van ‘n groot en bekende maatskappy wat ‘n ML toepassing, gebaseer op natuurlik taalverwerking, gebruik het om sekere indiensnemingprosesse te outomatiseer. Ook hierdie toepassing het gediskrimineer teen vroulike aansoekers omdat die data waarop die ML toepassing geleer is meer manlike kandidate bevat het en dus “geleer” is om eerder manlike aansoekers aan te beveel as vroulike aansoekers. Dit was wel nie opsetlik nie – die datastel het toevallig meer manlike aansoekers bevat omdat daar vroeer meer mans gesoek is vir tegniese posisies. Dit beklemtoon egter die belangrikheid van die data en die algoritmes wat ook ander inligting in ag moet neem.
Algoritmiese ongeregtigheid is nie n onbekende probleem nie en daar bestaan baie navorsingstukke en boeke oor die onderwerp. Een boek wat uitstaan is die werk van Cathy O’Neil. In haar boek Weapons of Math Destruction, wat reeds in 2016 uitgegee is, toon O’Neil aan hoe KI en ML algoritmes nie net die toekoms voorspel nie, maar in werklikheid die toekoms skep deur bestaande sosiale ongelykhede bloot net te herhaal. Dit gebeur natuurlik omdat resultate gebaseer is op data wat reeds sosiale ongelykhede insluit. Sy wys duidelik, soos in die voorbeelde hierbo, hoe algoritmes mense, wat reeds onderworpe is aan sekere sosiale risikos, verder gepenaliseer en gemarginaliseer word.
Indien algoritmiese ongeregtigheid en digitale frenologie dan steeds voorkom (dikwels onbedoeld) – wat kan gedoen word om dit teen te werk? Baie oplossings word gereeld aangebied maar die kern van ‘n oplossing lê in etiese, of verantwoordelike KI en ML-stelsels. Dit is verblydend dat daar ‘n groeiende aantal organisasies en besighede is wat deeglik bewus is van die probleem en wat toenemend fokus op die ontwikkeling van verantwoordelike (etiese) KI-stelsels. Die idee oor wat die etiese beginsels vir KI toepassings is, sal waarskynlik effens verskil tussen ondernemings en navorsers maar daar bestaan redelik konsensus dat dit ten minste die volgende vyf beginsels insluit:
- Regverdigheid: ‘n Regverdige KI of ML-stelsel sal nie bevooroordeeldheid skep of versterk nie en moet nie diskrimineer teen individue of groepe mense nie. Die verwagting moet wees dat die stelsel dieselfde uitkomstes sal genereer vir verskillende groepe mense. Byvoorbeeld, indiensnemingsalgoritmes behoort kandidate op hulle vaardighede te oorweeg en nie op irrelevante demografiese faktore nie.
- Aanspreeklikheid: KI en ML-stelsels kan nie sonder toesig bedryf word nie. Dit is belangrik dat daar verantwoordelikheid deur individue en organisasies geneem word vir die beslissings wat ‘n stelsel maak, insluitend die hantering van enige skade of onbedoelde gevolge. As ‘n selfbestuur, outonome voertuig ‘n ongeluk veroorsaak, wie is aanspreeklik – die motorvervaardiger, die KI-stelsel, die sagteware-ontwikkelaars of die gebruikers? Aanspreeklikheid vereis waarskynlik regulatoriese raamwerke en riglyne, ouditspore ens.
- Deursigtigheid: Verstaan die gebruiker hoe die stelsel werk? Deursigtigheid van ‘n KI en ML-stelsel beteken dat die besluitnemingsprosesse van die stelsel moet toeganklik wees, verstaanbaar wees en oop vir ondersoeke. Baie van hierdie stelsels, soos byvoorbeeld diep neurale netwerke, staan bekend as “black boxes” wat beteken dat hulle interne werking nie maklik interpreteerbaar is nie. Organisasies het dus ‘n verantwoordelikheid om inligting oor hulle stelsels openbaar te maak. Deursigtigheid bou vertroue en stel reguleerders in staat om te bepaal of organisasies se stelsels voldoen aan etiese en regulatoriese vereistes.
- Verklaarbaarheid: Dit verwys na die vermoë om verstaanbare en interpreteerbare verduidelikings te verskaf (in nie-tegniese taal) oor hoe ‘n KI-stelsel by n sekere besluit of resultaat uitgekom het. Deursigtigheid het verwys na die algehele openheid van die stelsel terwyl verklaarbaarheid fokus op individuele KI-stelsel besluite – as my aansoek om ‘n lening afgekeur word het ek die reg om te weet hoekom is ek afgekeur en hoe het die stelsel by so ‘n besluit uitgekom.
- Privaatheid: Privaatheid verseker dat KI-stelsels individue se regte respekteer, soos om hul persoonlike data te beheer en dat data veilig en eties ingesamel, gestoor en gebruik word.
As die etiese en verantwoordelike beginsels geidentifiseer en aanvaar is dan is die volgende stap natuurlik om dit prakties te implementeer. Daar is weereens verskeie maniere om dit te doen. Die boek van O’Neil is propvol wenke hieroor en vir interessantheid word slegs ‘n paar hier aangehaal. Lesers geinteresseerd in ‘n meer volledige bespreking oor die praktiese oorweginge van etiese beginsels in stelsels word aanbeveel om O’Neil se boek te lees.
Modelleerders en Datawetenskaplikes
‘n Goeie plek om te begin is dalk by die modelleerders – die mense wat die stelsels aanmekaar sit. Datawetenskaplikes is nie kenners op alle gebiede nie en behoort altyd skepties te wees oor waar data vandaan kom (die bron van die data) en of dit die kompleksiteite van die realiteit weerspieël. Stelselontwikkelaar- en modelleerspanne moet ook divers wees en kan nie net uit tegniese personeel bestaan nie. Interessant dat O’Neil selfs aanbeveel dat datawetenskaplikes dalk ‘n soort Hippokratiese eed moet aflê soos mediese dokters om te verseker dat hulle alles in hul vermoë sal doen om etiese en regverdige stelsels te ontwikkel.
Die invoerdata of data wat gebruik word om KI en ML-stelsels te onderrig speel natuurlik ‘n kardinale rol. Invoerdata wat gebruik word moet deeglik geevalueer word – miskien is een van die datavelde ‘n kontakpersoon se naam. Is dit ‘n nodige stukkie inligting as mens byvoorbeeld aansoek doen vir n lening of ‘n werk – en is dit etiese om dit te gebruik vir ‘n lening of ‘n werkaansoek? In ‘n ander voorbeeld het dit gelyk asof lenings afgekeur word op grond van ‘n persoon se ras, al is ras nie as deel van die data gebruik nie – totdat uitgevind is dat die aansoeker se poskode van sy woonbuurt as deel van die invoerdata gebruik is. Die poskode het dan n aanduiding van die persoon se ras gegee en die stelsel het dan op grond daarvan ‘n besluit gemaak. Data wat ingesamel word van ‘n persoon moet deur daardie persoon goedgekeur word en mag nie vir ander doeleindes gebruik word nie.
Etiese stelsels vereis dat daar geleentheid vir terugvoering moet wees. Die probleem is dat ‘n persoon kan nie appèl aanteken teen ‘n besluit van ‘n algoritme nie – in die woorde van O’Neil, ‘algoritmes en hulle logika is doof’. Persone wat geraak word deur ‘n stelselbesluit moet gevra word of hulle die besluit verstaan, of hulle dit aanvaar en indien nie, hoe kan die stelsel verbeter word.
Regverdigheid, wat ook vroeer as een van die vyf beginsels genoem is, bly een van die groot gesprekspunte. Om eties op te tree sal ondernemings moet erken dat regverdigheid ‘n groter rol speel as wins. Die maatstaf vir stelselsukses moet herevalueer word en daar moet n bewustheid wees dat die maatstaf nie noodwendig altyd iets is wat getel kan word nie (wins) maar dat sukses ook gemeet moet word aan nie-numeriese waardes (regverdigheid). ‘n Aanbeveling van O’Neil is om die impak van algoritmiese besluite te meet – maar in plaas van om die sukses van die besluite te probeer bepaal, moet die potensiële skade wat die besluit kan veroorsaak eerder oorweeg word. Byvoorbeeld, wat is die skade van ‘n vals-positiewe uitslag – met ander woorde, hoeveel skade word iemand berokken as ‘n stelsel ‘n verkeerde (hoë) risiko ontleding vir so ‘n persoon sou gee? Of dalk erger, wat se skade word veroorsaak wanneer iemand verkeerdelik van iets vrygespreek word?
Laastens, om regverdigheid te verseker, is dit belangrik dat KI en ML-stelsels oop en beskikbaar is vir die publiek. Hierdie stelsels moet beskikbaar wees vir oudits en standaarde om algoritmes te monitor moet geskep word. Owerhede moet regulatoriese raamwerke in plek stel om etiese en regverdige KI en ML-stelsels te verseker.
Wat van Etiesee Beginsels?
‘n Laaste opmerking oor etiese beginsels vir intelligente rekenaarstelsels. Daar is n sterk koppelvlak tussen filosofie en etiese en regverdige KI en ML-stelsels – dink byvoorbeeld aan wins as maatstaf vir sukses – dit herinner sterk aan n Westerse filosofie van “die wenner kry alles”, teenoor ‘n waarde gedrewe (etiese) maatstaf vir sukses wat aanklank sou vind by die filosofie van Ubuntu met waardes soos omgee, mededeelsaamheid en gemeenskap eerste. Daar is natuurlik ook bestaande filosofiese etiese raamwerke waaraan KI en ML-stelsels gemeet kan word, en in sekere gevalle inderdaad aan gemeet word. Drie bekendste etiese raamwerke uit die filosofie wat hiervoor gebruik kan word is ‘n deontologiese etiese raamwerk (gebaseer op morele reëls en beginsels), ‘n utiliteitsraamwerk (die resultaat of gevolg van ‘n aksie bepaal die korrektheid van die aksie), en ‘n deugde (virtue) etiese raamwerk (doen iets vir die regte rede en nie bloot omdat ‘n reël dit voorskryf nie).
KI en ML-stelsels bied baie geleenthede aan baie verskillende sektore in die samelewing om oneffektiwiteite uit te skakel, resultate te verbeter en om baie stelsels en funksies te transformeer vir ‘n nuwe en veranderde manier van werk. Regverdige en etiese beginsels sal help om digitale frenologie, waar besluite geneem word op te min of irrelvante data, te voorkom en algoritmiese ongeregtigheid te verminder. Gebruikers van KI en ML-stelsels sal egter innovasie met etiese oorwegings moet balanseer om te verseker dat hierdie stelsels gemeenskappe bevoordeel.
Bronne
- Eitel-Porter, R. 2021. Beyond the promise: implementing ethical AI. AI and Ethics, 1(1): 73-80.
- Keykaan, D., Snyman, D., Kruger, H. & Verhoef, A. 2023. Digital phrenology: Algorithms and ethics from a systems perspective. Journal of the International Society for the Systems Sciences, 67.
- O’Neil, C. 2016. Weapons of math destruction: How big data increases inequality and threatens democracy (Vol. 1). Crown.
[1] https://www.bbc.com/news/articles/c0kgydkr516o
[2] https://www.bbc.com/news/articles/cq5ggew08eyo
*
Prof. Hennie Kruger is ‘n voormalige nasionale dienspligtige, en Buitengewone Professor in Rekenaarwetenskap, Fakulteit Rekenaarwetenskap en Inligtingstelsels (SCSIS), Noordwes Universiteit (NWU).
