Hoeveel vertroue kan ons plaas in KI-stelsels?

Deur Riana Crafford

(Argieffoto: Pixabay)

In die vorige artikel het ons gepraat oor etiese aspekte rakende die gebruik van kunsmatige intelligensie-stelsels (KI). Ons het geëindig met die vraag: “Hoeveel vertroue kan ons plaas in KI-stelsels?”

Dus, hoeveel vertroue plaas jý in die toepassings op jou slimtoestelle, waar ten minste ʼn mate van intelligensie ingebou is? Hier praat ons nou van enigiets van jou motor se navigasiestelsel tot jou woordverwerker se speltoetser. Hoeveel keer het jy sonder om dit te bevraagteken sulke kunsmatige intelligensie-besluite sonder meer aanvaar?

Jy weet nie eens watter kriteria gebruik word om sulke besluite te neem nie. Hier is maar één voorbeeld: Google Maps of Waze bereken roetes met afstand of tyd as maatstaf. ʼn Belangrike vraag is dalk of hierdie toepassings die nuanses van die Suid-Afrikaanse samelewing verstaan. Nie alle plekke is ewe veilig om te ry nie. Jy is dalk bereid om ʼn sekere roete net in daglig aan te pak. Ander paaie is vrot van die slaggate…

Ek probeer jou nie bangpraat nie. Dit is aanvaarbaar dat jy hierdie toestelle vertrou. Dis egter ook nodig dat jy gedurig herevalueer. Hoe seker is jy dat die stelsels akkurate inligting verskaf. Hoe kan mens voorspel wanneer hulle gaan faal? Watter planne om op terug te val, het jy wanneer hulle wel misluk?

Dus, wat ek eintlik wil sê: Dink krities en moenie alle besluitneming sonder meer aan kunsmatige intelligensie oorlaat nie. Navorsing dui daarop dat die mensdom al te geneig is om geoutomatiseerde stelsels blindelings te volg. Dis nou alles goed en wel, maar hoe meer besluite deur kunsmatige intelligensie gedryf word, hoe belangriker word dit dat mense hul kop moet gebruik en niks slaafs moet navolg nie.

Ons oorspronklike nagmerrie bly ʼn werklikheid – dit is moontlik dat kwaadwilliges kunsmatige intelligensie sal inspan om hul bose planne uit te voer. Elkeen moet steeds sy eie goeie oordeel gebruik. Diskresie kan nie noodwendig aan slimtoestelle oorgelaat word nie.

Om krities na KI-stelsels te kyk, sluit natuurlik ook in dat gebruikers self moet seker maak dat daar nie partydigheid in hierdie stelsels ingebou is nie. Oorweeg die volgende voorbeeld.

Kundiges het die afgelope jaar allerhande modelle gebruik om vooruitskattings van die Covid-19-pandemie te doen. Hierdie vooruitskattings het op hul beurt weer die Nasionale Beheerraad se besluite rondom hierdie virus beïnvloed. Ons het almal maar ons bedenkinge oor hoe die pandemie in Suid-Afrika hom afgespeel het. As ek dit nie mis het nie, het ons aansteek- en herstelpatrone nie eintlik die Europese tendense gevolg nie. Dus was daar partydigheid in die data vanaf die buiteland.

Europa se bevolking is ouer as ons sʼn en ons seisoene stem nie ooreen nie. Die grootste deel van ons bevolking was nie regtig by magte om doeltreffend te isoleer nie. Ons vakbonde het ʼn groter sê gehad in die besonderhede van die inperking. En vele meer… Om ʼn sinvolle resultaat te kon kry, moes ons dus eintlik ander inligting in ons modelle invoer. Het ons? Dit is waar die kritiese beoordeling nou inkom.

Die nagevolge daarvan as die partydigheid nie onder die loep geneem word nie, is altyd ernstig, maar in Suid-Afrika dalk nog meer so. Dit vra nie veel vir die EFF om “rassisme” of “kolonialisme’ te skree nie. My hart bloei nou nog oor die Clicks-voorval. Partydigheid in die data is gewoonlik die gevolg van onbedoelde partydigheid weens ʼn gebrek aan verteenwoordiging. As die skeppers van die TRESemmé-advertensie toegesien het dat die verskillende soorte probleemhare beter verteenwoordiging uit al die rassegroepe geniet, sou die EFF nie ʼn voet gehad het om op te staan nie.

Suid-Afrikaners maak staat daarop dat ondernemings toesien dat daar geen onder- of oorverteenwoordiging sal wees in die data wat hulle gebruik vir hulle KI-stelsels nie. Met ʼn diverse bevolking soos ons reënboognasie, is dit een van die bydraende faktore tot die sukses van KI-stelsels in Suid-Afrika.

Die kruks van die saak is dat ondernemings pertinent moet aandring op onpartydigheid en nie met aannames tevrede kan wees nie. Daar kan nie goedsmoeds aanvaar word dat onpartydigheid outomaties ingebou is nie. Ons kan dus nie internasionale toepassings en programmatuur onveranderd in ʼn Suid-Afrikaanse konteks implementeer nie.

Alles wat ons in hierdie (en die vorige) artikel bespreek het, dui daarop dat dit wel moontlik is om KI-stelsels te meet aan etiese standaarde. Boonop is dit ongelukkig so dat hierdie stelsels moontlik nie voldoen aan etiese vereistes nie. Ons slotsom is dus: Daar ís so iets soos ʼn onetiese aanwending van KI-stelsels.

Uit die voorbeelde is dit ook duidelik dat Suid-Afrikaners wel soms – onbedoeld of kwaadwillig – gekonfronteer word met onetiese implementering van KI-stelsels. Derhalwe rus daar ʼn verantwoordelikheid op die gebruikers om die impak op hul lewens te evalueer en dienooreenkomstig besluite te neem en oor te gaan in aksie. Hulle moet hul oordeelsvermoë gebruik en aandring op deursigtige en onpartydige KI-stelsels.

Onthou, die rekenaar/robot is vir die mens gemaak en nie die mens vir die rekenaar nie. Die vraag: “Is dit net tot voordeel van die mense wat dit gebruik?” vorm die basis van etiese oorwegings. Indien die antwoord nie ʼn oortuigde “Ja!” is nie, moet daar herbesin word.

  • Riana Crafford is ʼn dosent in bedryfsinligtingstelsels aan Akademia.

ondersteun maroela media só

Sonder Maroela Media sou jy nie geweet het nie. Help om jou gebalanseerde en betroubare nuusbron se toekoms te verseker. Maak nou ’n vrywillige bydrae. Onthou – ons nuus bly gratis.

Maak 'n bydrae

Nou pra' jý

2 Kommentare

O wee, die gesang is uit! Die kommentaar op hierdie berig is gesluit. Kom kuier gerus lekker verder saam op ʼn ander artikel.