Vriendelike kunsmatige intelligensie

hipotetiese kunsmatige algemene intelligensie wat 'n positiewe uitwerking op die mensdom sou hê

Vriendelike kunsmatige intelligensie (ook vriendelike KI of VKI) is hipotetiese kunsmatige algemene intelligensie (KAI) wat 'n positiewe (goedaardige) uitwerking op die mensdom sal hê of ten minste in lyn sal wees met menslike belange of bydra tot die bevordering van die verbetering van die menslike spesie. Dit is deel van die etiek van kunsmatige intelligensie en is nou verwant aan masjien-etiek. Terwyl masjien-etiek gemoeid is met hoe 'n kunsmatig intelligente agent moet optree, is vriendelike kunsmatige intelligensie-navorsing gefokus op hoe om hierdie gedrag prakties teweeg te bring en om te verseker dat dit voldoende beperk word.

Etimologie en gebruik

Eliezer Yudkowsky, KI-navorser en skepper van die term.

Die term is geskep deur Eliezer Yudkowsky,[1] wat veral bekend is vir die popularisering van die idee, [2][3] om superintelligente kunsmatige agente te bespreek wat menslike waardes betroubaar implementeer. Stuart J. Russell en Peter Norvig se voorste kunsmatige intelligensie-handboek, Artificial Intelligence: A Modern Approach, beskryf die idee:[2]

"Yudkowsky (2008) gaan in meer besonderhede oor hoe om 'n vriendelike KI te ontwerp. Hy beweer dat vriendelikheid ('n begeerte om nie mense skade aan te doen nie) van die begin af ontwerp moet word, maar dat die ontwerpers beide moet erken dat hul eie ontwerpe foutief kan wees, en dat die robot mettertyd sal leer en ontwikkel. Die uitdaging is dus een van meganisme-ontwerp - om 'n meganisme te definieer vir ontwikkelende KI-stelsels onder 'n stelsel van kontrole en teenwigte, en om die stelsels nutsfunksies te gee wat vriendelik sal bly in die lig van sulke veranderinge."

'Vriendelik' word in hierdie konteks as tegniese terminologie gebruik, en kies agente uit wat veilig en bruikbaar is, nie noodwendig een wat "vriendelik" in die omgangstaal is nie. Die konsep word hoofsaaklik aangewend in die konteks van besprekings van rekursief selfverbeterende kunsmatige agente wat vinnig in intelligensie ontplof, op grond daarvan dat hierdie hipotetiese tegnologie 'n groot, vinnige en moeilik beheerbare impak op die menslike samelewing sou hê.[4]

Risiko's van onvriendelike KI

Hoof Artikel: Eksistensiële risiko as gevolg van kunsmatige algemene intelligensie

Die wortels van kommer oor kunsmatige intelligensie is baie oud. Kevin LaGrandeur het getoon dat die gevare spesifiek vir KI gesien kan word in antieke literatuur oor kunsmatige menslike dienaars soos die golem, of die proto-robotte van Gerbert van Aurillac en Roger Bacon. In daardie verhale bots die uiterste intelligensie en krag van hierdie menslike skeppings met hul status as slawe (wat van nature as sub-menslik gesien word), en veroorsaak rampspoedige konflik.[5] Teen 1942 het hierdie temas Isaac Asimov aangespoor om die "Three Laws of Robotics" te skep—beginsels wat vasgelê is in al die robotte in sy fiksie, wat bedoel was om te verhoed dat hulle teen hul skeppers draai, of om hulle toe te laat om skade te berokken.[6]

In moderne tye, aangesien die vooruitsig van superintelligente KI nader kom, het filosoof Nick Bostrom gesê dat superintelligente KI-stelsels met doelwitte wat nie met menslike etiek ooreenstem nie, intrinsiek gevaarlik is, tensy uiterste maatreëls getref word om die veiligheid van die mensdom te verseker. Hy het dit so gestel:

“Basies moet ons aanvaar dat 'n 'superintelligensie' in staat sal wees om te bereik watter doelwitte dit ook al het. Daarom is dit uiters belangrik dat die doelwitte waarmee ons dit toeken, en sy hele motiveringstelsel, 'mensvriendelik' is.”

In 2008 het Eliezer Yudkowsky gevra vir die skepping van "vriendelike KI" om die eksistensiële risiko van gevorderde kunsmatige intelligensie te verminder. Hy verduidelik: "Die KI haat jou nie, en is ook nie lief vir jou nie, maar jy is gemaak van atome wat dit vir iets anders kan gebruik."[7]

Steve Omohundro sê dat 'n voldoende gevorderde KI-stelsel, tensy dit uitdruklik teengewerk word, 'n aantal basiese "dryfkragte" sal vertoon, soos hulpbronverkryging, selfbehoud en voortdurende selfverbetering, as gevolg van die intrinsieke aard van enige doelgedrewe stelsels en dat hierdie aandrywers, "sonder spesiale voorsorgmaatreëls", sal veroorsaak dat die KI ongewenste gedrag toon.[8][9]

Alexander Wissner-Gross sê dat KI's wat gedryf word om hul toekomstige vryheid van aksie (of oorsaaklike pad-entropie) te maksimeer as vriendelik beskou kan word as hul beplanningshorison langer as 'n sekere drempel is, en onvriendelik as hul beplanningshorison korter as daardie drempel is.[10][11]

Luke Muehlhauser, wat vir die Machine Intelligence Research Institute skryf, beveel aan dat masjien-etieknavorsers aanneem wat Bruce Schneier die "sekuriteitsingesteldheid" genoem het: Eerder as om te dink oor hoe 'n stelsel sal werk, stel jou voor hoe dit kan misluk. Hy stel byvoorbeeld voor dat selfs 'n KI wat net akkurate voorspellings maak en via 'n tekskoppelvlak kommunikeer, onbedoelde skade kan veroorsaak.[12]

In 2014 het Luke Muehlhauser en Nick Bostrom die behoefte aan 'vriendelike KI' onderstreep;[13] nietemin is die probleme met die ontwerp van 'n 'vriendelike' superintelligensie, byvoorbeeld deur die programmering van kontrafeitelike morele denke, aansienlik.[14][15]

Verwysings