Word KI-stelsels op onetiese maniere aangewend?

Deur Riana Crafford

(Argieffoto: Pixabay)

Het jy al die nare gedagte gekry dat kunsmatige intelligensie-stelsels (KI) op die ou end gebruik gaan word om die mensdom te manipuleer en te terroriseer? Veral nou dat die moontlikheid al sterker word dat die al-slimmer-wordende tegnologie in kwaadwilliges se hande kan val…

As dit jou nie laat wakkerlê nie, is ek seker dat dit wel beleidmakers en reguleerders slapelose nagte gee. Hoe kan hulle (en ons) seker maak dat die etiese gebruik van kunsmatige intelligensie-stelsels nagejaag word? Volgens Brian Marr, skrywer en toekomskundige, is daar enkele sake waaraan ondernemings aandag moet gee indien hulle etiese kunsmatige intelligensie-stelsels wil bou.

Deursigtigheid is van kritiese belang: Alle belanghebbendes moet ten volle ingelig wees aangaande ʼn instansie se implementering van kunsmatige intelligensie. Onetiese instansies sal dalk wil wegkom met ʼn beleid van “Wat die oog nie sien nie, kan die hart nie deer nie”, maar ek het slegte nuus vir hulle. Op die ou end lek ongewilde feite altyd uit en dan is vertroue in die onderneming erg geknou.

Dis byvoorbeeld veel beter om vertroue te skep deur vooraf in baie duidelike en verstaanbare taal uiteen te sit hoekom data versamel word en hoe dit gebruik gaan word. Hoe laakbaar is dit nie dat instansies soms die praktyk volg om die ware toedrag van sake in die fynskryf te verskuil (en dit nogal in woes obskure taal wat gʼn normale mens kan verstaan nie.)

Nog ʼn manier hoe vertroue gebou moet word, ook volgens Suid-Afrikaanse wetgewing, (al gehoor van Popi?) is om vóóraf toestemming te vra om kliënte se besonderhede te gebruik. Hoe voel jy oor voorvalle waar daar nie vooraf toestemming gevra is nie, maar agterna word daar om verskoning gevra en dan ook maar net as hulle uitgevang is? Sal jy so ʼn instansie maklik weer vertrou?

Jy sal met my saamstem dat ingeligte toestemming waardevol sal wees. Ek sal, as verbruiker, met die grootste graagte inligting met ʼn instansie deel as ek weet hoe dit gaan waarde toevoeg, nie net vir my nie, maar ook vir die groter samelewing. Watter beweegredes sou vir jou aanvaarbaar wees? Dat dit die onderneming help om beter produkte te lewer? Dat ʼn beter diens wat meer van pas is, gelewer kan word? Dat verbruikers se probleme opgelos kan word? Dat werknemers se werkomstandighede kan verbeter?

Daar is nog ʼn onderwerp van belang by die skep van etiese KI-toepassings. In Suid-Afrika is dit spesifiek ter sprake. Ek verwys hier na die konsep van partydigheid. Jy moet onthou dat kunsmatige intelligensie beide die vermoë het om óf onpartydigheid in ʼn stelsel in te bou óf om partydigheid in te bed. Alhoewel toestelle nie “bagasie” het (soos dié wat samelewings met hulle saamdra nie), is KI afhanklik van die data wat dit gevoer word. Dit wil sê, as daar inherente partydigheid ingebou is in die data, sal die daaropvolgende besluite die partydigheid voortsit.

Professor Jonathan Jansen slaan die spyker op die kop in die Vrye Weekblad waar hy reken die minister lei ons om die bos. Ek kan dit nie meer spitsvondig as hy sê nie: “Om ʼn paar redes, wat politieke inmenging insluit, is dit onwaarskynlik dat die matriekuitslae die werklike akademiese uitkomste weerspieël.

“Die slaagpersentasie onder gevangenes wat die graad 12- of Nasionale Senior Sertifikaat-eksamen afgelê het, was 86,3%, maar net 76,2% vir leerders in skole. Jou kans om ʼn goeie slaagsyfer te behaal, is dus beter in ʼn tronk as in ʼn skool. Ouers behoort dit in gedagte te hou wanneer hulle moet besluit waar om hul kinders in te skryf.

“Jy hoef nie ʼn graad in syfers te hê om te besef dat hierdie stellings op onsinnige logika neerkom nie. En tog, as jy groot hoeveelhede data tot jou beskikking het, kan jy soveel oënskynlik gesaghebbende aansprake maak as wat jy wil net om die publiek om die bos te lei…”

Ingeboude partydigheid is een van die redes waarom logikafoute gemaak kan word in ons data-ontledings (en politici daarmee wegkom).

Volgende keer praat ons verder oor die onderwerp. Ons gaan spesifiek aandag gee aan die vraag: “Hoeveel vertroue kan ons plaas in KI-stelsels?” Hopelik sal ons dan die volgende vrae kan beantwoord: “Kan KI-stelsels op onetiese maniere aangewend word? Indien wel, wat is die toedrag van sake in Suid-Afrika?”

  • Riana Crafford is ʼn dosent in bedryfsinligtingstelsels aan Akademia.

ondersteun maroela media só

Sonder Maroela Media sou jy nie geweet het nie. Help om jou gebalanseerde en betroubare nuusbron se toekoms te verseker. Maak nou ’n vrywillige bydrae. Onthou – ons nuus bly gratis.

Maak 'n bydrae

Nou pra' jý

3 Kommentare

Willem ·

Soos met enige tegnologie , dit kan gebruik word vir goed of kwaad, neem nou maar die atoombom as voorbeeld

Dirk Mostert ·

Dit maak my woedend as my selfoon my sms’e probeer verander. Soms kom mens te laat agter dat jou teks verdraai is.

FM ·

Ek het ‘n mediese praktyk met feitlike inligting vertrou

TOT MY SPYT!!

O wee, die gesang is uit! Die kommentaar op hierdie berig is gesluit. Kom kuier gerus lekker verder saam op ʼn ander artikel.