Etiek van kunsmatige intelligensie

etiek van tegnologie spesifiek vir robotte en ander kunsmatig intelligente wesens

Die etiek van kunsmatige intelligensie is die tak van die etiek van tegnologie spesifiek vir kunsmatige intelligensie (KI) stelsels.[1]

Die etiek van kunsmatige intelligensie dek 'n wye reeks onderwerpe binne die veld wat beskou word as 'n besondere etiese belang. Dit sluit algoritmiese vooroordele, regverdigheid, outomatiese besluitneming, aanspreeklikheid, privaatheid en regulering in. Dit dek ook verskeie opkomende of potensiële toekomstige uitdagings soos (hoe om masjiene te maak wat eties optree), dodelike outonome wapenstelsels, wapenwedloop-dinamika, KI-veiligheid en –belyning, tegnologiese werkloosheid, KI-geaktiveerde verkeerde inligting, hoe om sekere KI te behandel stelsels as hulle 'n morele status het (KI-welsyn en regte), kunsmatige superintelligensie en eksistensiële risiko's.[1] Sommige toepassingsareas kan ook besonder belangrike etiese implikasies hê, soos vir die gesondheidsorg, die onderwys of die militêre omgewing.

Masjien-etiek

Masjien-etiek (of masjienmoraliteit) is die navorsingsveld wat gemoeid is met die ontwerp van kunsmatige morele agente (KMA's), robotte of kunsmatig intelligente rekenaars wat moreel optree of asof hul moreel optree.[2][3][4][5] Om die aard van hierdie agente te verantwoord, is voorgestel om sekere filosofiese idees te oorweeg, soos die standaardkarakteriserings van agentskap, rasionele agentskap, morele agentskap en kunsmatige agentskap, wat verband hou met die konsep van KMA's.[6]

Daar is besprekings oor die skep van toetse om te sien of 'n KI in staat is om etiese besluite te neem. Alan Winfield kom tot die gevolgtrekking dat die Turingtoets gebrekkig is en dat die vereiste vir 'n KI om die toets te slaag te laag is.[7] 'n Voorgestelde alternatiewe toets is een genaamd die Etiese Turing-toets, wat op die huidige toets sal verbeter deurdat verskeie beoordelaars besluit of die KI se besluit eties of oneties is.[7] Neuromorfiese KI kan een manier wees om moreel bekwame robotte te skep, aangesien dit daarop gemik is om inligting soortgelyk aan mense te verwerk, nie-lineêr en met miljoene onderling gekoppelde kunsmatige neurone.[8] Net so kan heelbrein-emulasie (skandeer van 'n brein en simuleer dit op digitale hardeware) ook in beginsel lei tot mensagtige robotte, dus in staat tot morele aksies.[9] En groot taalmodelle is in staat om menslike morele oordele na te maak.[10] Dit laat onvermydelik die vraag ontstaan oor die omgewing waarin sulke robotte van die wêreld sal leer en wie se moraliteit hulle sal erf – of as hulle uiteindelik ook menslike 'swakhede' ontwikkel: selfsug, pro-oorlewingshoudings, inkonsekwentheid, skaalonsensitiwiteit, ens.

In Moral Machines: Teaching Robots Right from Wrong,[11] kom Wendell Wallach en Colin Allen tot die gevolgtrekking dat pogings om robotte reg van verkeerd te leer waarskynlik begrip van menslike etiek sal bevorder deur mense te motiveer om gapings in moderne normatiewe teorie aan te spreek en deur 'n platform vir eksperimentele ondersoek. As een voorbeeld het dit normatiewe etici bekendgestel aan die kontroversiële kwessie van watter spesifieke leeralgoritmes om in masjiene te gebruik. Vir eenvoudige besluite het Nick Bostrom en Eliezer Yudkowsky aangevoer dat besluitnemingsbome (soos ID3) meer deursigtig is as neurale netwerke en genetiese algoritmes,[12] terwyl Chris Santos-Lang ten gunste van masjienleer geargumenteer het op grond daarvan dat die norme van enige ouderdom moet toegelaat word om te verander en dat natuurlike versuim om ten volle aan hierdie spesifieke norme te voldoen noodsaaklik was om mense minder kwesbaar te maak vir kriminele "krakers".[13]

Robot-etiek

Die term "robot-etiek" (soms "roboetiek") verwys na die moraliteit van hoe mense robotte ontwerp, bou, gebruik en behandel.[14] Robot-etiek kruis met die etiek van KI. Robotte is fisiese masjiene, terwyl KI slegs sagteware kan wees.[15] Nie alle robotte funksioneer deur KI-stelsels nie en nie alle KI-stelsels is robotte nie. Robot-etiek oorweeg hoe masjiene gebruik kan word om mense te benadeel of te bevoordeel, hul impak op individuele outonomie en hul uitwerking op sosiale geregtigheid.

Etiese beginsels

In die hersiening van 84[16] etiese riglyne vir KI, is 11 groepe beginsels gevind: deursigtigheid, geregtigheid en regverdigheid, nie-kwaadwilligheid, verantwoordelikheid, privaatheid, weldaad, vryheid en outonomie, vertroue, volhoubaarheid, waardigheid, solidariteit. [16]

Luciano Floridi en Josh Cowls het 'n etiese raamwerk van KI-beginsels geskep wat gestel word deur vier beginsels van bio-etiek (weldadigheid, nie-kwaadwilligheid, outonomie en geregtigheid) en 'n bykomende KI-beginsel – verklaarbaarheid.[17]

Verwysings