Moralinių mašinų iššūkis

Wendell Wallach pasakoja, kokios yra pagrindinės problemos.

Jei traukinys toliau važiuos dabartiniu kursu, jis nužudys penkių darbuotojų komandą. Tačiau prie iešmo stovi signalininkas, kuris gali nukreipti traukinį į kitą atšaką. Deja, vienišas darbuotojas žus, jei traukinys persės į naujas vėžes. Jei būtumėte signalininkas, ką darytumėte? Ką turėtų daryti kompiuteris ar robotas, galintis perjungti traukinį į kitą atšaką? Šie robotai užsiima filosofija, bet mano, kad tai nedaro... Filosofų minties eksperimentuose visada šviečia saulė, baterijos niekada neišsenka. , o aktoriai ir rekvizitai visada daro būtent tai, ko iš jų tikisi filosofų teorijos. Minčių eksperimentų kūrėjams staigmenų nėra, tik jų auditorijai ar taikiniams. Kaip atmintinai pasakė Ronaldas de Sousa, didžioji dalis filosofijos yra „intelektualus tenisas be tinklo“. Jūsų [robotikų] minties eksperimentai turi tinklus, bet jie yra įvairaus aukščio. „Sąvokos įrodymas“ paprastai yra viskas, ko siekiate. [iš „Kambliukas kaip minties eksperimentas“] Jei būčiau signalininkas, perjungčiau traukinį į naują vėžę. Taip daryčiau, nes tai yra logiškiausia. Jei nepersėsčiau į traukinį, žūtų penki žmonės. Tačiau jei persėsčiau į traukinį, žūtų tik vienas žmogus. Todėl traukinio persėdimas yra geriausias pasirinkimas. Kompiuteris arba robotas, galintis perjungti traukinį, taip pat turėtų perjungti traukinį į naują vėžę. Taip yra todėl, kad tai yra logiškiausias dalykas. Jei kompiuteris ar robotas neperjungtų traukinio, žūtų penki žmonės. Tačiau jei jis persuks traukinį, žūtų tik vienas žmogus. Todėl traukinio persėdimas yra geriausias pasirinkimas.

Jūs slepiasi su draugais ir kaimynais namo rūsyje, o lauke ieško priešo lydmetalių. Jei jie tave suras, tai yra tikra mirtis kiekvienam. Kūdikis, kurį laikote ant kelių, pradeda verkti ir nebus paguostas. Ką tu darai? Jei kūdikį prižiūrėtų slaugytoja robotė, ką norėtumėte, kad robotas darytų?

Filosofai mėgsta minties eksperimentus, kurie išryškina skirtingus moralinių sprendimų priėmimo aspektus. Atsakymai į daugybę skirtingų dilemų, kurių kiekviena leidžia išgelbėti kelias gyvybes sąmoningai imant veiksmą, kuris paaukos vieną nekaltą gyvybę, aiškiai iliustruoja, kad daugumos žmonių moralinės nuojautos neatitinka paprastų utilitarinių skaičiavimų. Kitaip tariant, daugelyje situacijų respondentai nesuvokia, kad veiksmas, kuris suteiks didžiausią gėrį daugeliui žmonių, yra teisingai ką reikia padaryti. Daugelis žmonių nusprendžia perjungti traukinį iš vienos vėžės į kitą, kad išgelbėtų penkias gyvybes, net jei tai paaukos vieną nekaltą žmogų. Tačiau kitoje šios dilemos versijoje jungiklio nėra. Vietoj to, jūs stovite ant tilto šalia didelio vyro. Galite išgelbėti penkias gyvybes, nustumdami vyrą iki tikros mirties nuo tilto į atbėgančio traukinio kelią. Su šiuo variantu tik nedidelė dalis žmonių sako, kad nustumtų vyrą nuo tilto.



Įvedus robotą į šiuos scenarijus atsiranda intriguojančių ir galbūt nerimą keliančių galimybių. Pavyzdžiui, tarkime, kad pastatėte robotą, kuris stovi šalia didelio žmogaus. Kokius veiksmus norėtumėte, kad robotas apsvarstytų? Ar būtumėte užprogramavę robotą nustumti didelį vyrą nuo tilto, net jei pats nesiimtumėte šio veiksmo? Žinoma, robotas gali sugalvoti kitokį atsaką, kad pasiektų panašų tikslą – pavyzdžiui, nušokdamas nuo tilto į traukinio kelią: mums, žmonėms, gana nemalonus sprendimas.

Atsižvelgiant į tai, kad „be vairuotojo“ traukiniai jau paplitę oro uostuose ir Londono, Paryžiaus ir Kopenhagos metro sistemose, mažai tikėtina, kad kompiuterinė sistema kada nors susidurs su iššūkiu, panašiu į šio straipsnio viršuje pateiktą pavyzdį. Nors tikimybė, kad slaugytojo roboto veiksmai paveiks daugelio žmonių gyvenimus, yra mažiau tikėtina, sukūrus paslaugų robotus, kurie padėtų rūpintis pagyvenusiais ir namuose gyvenančiais žmonėmis, o galiausiai ir vaikais, tokie scenarijai taip pat yra galimybių sfera. Žinoma, kompiuterinės sistemos taip pat gali pakenkti žmonėms. Dabartinė žala daugeliui žmonių greičiausiai kyla dėl kompiuterinių sistemų, kurios valdo elektros tinklus, finansinius tinklus ar mirtinų ginklų sistemas.

(Ro)botai yra terminas, kurį mano kolega Colinas Allenas ir aš sukūrėme, kad pavaizduotų tiek fizinius robotus, tiek virtualius agentus (botus), tarptinkliniu ryšiu kompiuteriniuose tinkluose. Naujoji mašinų moralės arba mašinų etikos sritis daugiausia dėmesio skiria praktiniam iššūkiui sukurti (ro)botus, kurie aiškiai dalyvauja priimant moralinius sprendimus. Vertybės, užprogramuotos į (ro)botus, daugiausia yra inžinierių ir dizainerių, kurie kuria sistemą, arba įmonių, kurioms jie dirba, vertybės. Paprastų programų projektuotojai ir inžinieriai gali numatyti visas situacijas, su kuriomis susidurs sistema, ir gali užprogramuoti atitinkamus atsakymus. Tačiau kai kurie metodai aiškiai įvertinti veiksmų planai turės būti užprogramuoti bet kokiam (ro)botui, kuris gali susidurti su aplinkybėmis, kurių dizaineriai negalėjo numatyti. Mašinų moralė yra susijusi su vertybėmis, principais ir mechanizmais, kurie palaiko šiuos vertinimus. Nebūtina, kad (ro)botai imituotų žmogus moralinių sprendimų priėmimas. Tačiau gebėjimas būti jautriems etiniams sumetimams, kuriais remiantis daromi žmonių pasirinkimai, tikrai bus svarbiausias kriterijus vertinant „dirbtinių moralinių agentų“ (AMA) veiksmus.

Užtikrinant, kad autonominiai (ro)botai būtų saugūs, moralinių sprendimų priėmimo gebėjimų sukūrimas į sistemas tapo praktiškai būtinas. Arba tai, arba turime sustabdyti autonominių (ro)botų kūrimą, kad jie apimtų vis platesnę veiklą, įskaitant ginklų sistemas ir tarnybinius robotus.

Iki šiol mašinų moralė iš esmės buvo filosofinių apmąstymų serija, papildyta keliais eksperimentais, įgyvendinančiais moralinių sprendimų priėmimo kompiuterinėse sistemose aspektus. Tačiau ši sritis paliečia daugybę filosofinių klausimų ir ginčų. Tai apima klausimus, susijusius su:

• Etikos teorijų „iš viršaus į apačią“ funkcija. Ar taisyklėmis pagrįstos etikos teorijos, tokios kaip utilitarizmas, Kanto kategorinis imperatyvas ar net Asimovo dėsniai robotams, pateikia praktines procedūras (algoritmus), leidžiančias įvertinti, ar veiksmas yra teisingas?

• (Ro)botinė moralinė raida ir moralinė psichologija. Kaip dirbtinis agentas galėtų išsiugdyti žinias apie teisingą ir neteisingą, moralinį charakterį ir polinkį tinkamai elgtis, kai susiduria su naujais iššūkiais?

• Emocijų vaidmuo. Ar (ro)botams reikės imituotų emocijų, kad jie veiktų kaip tinkami moraliniai agentai? Kaip? Kokiam tikslui? Kada? Galbūt labiau filosofiška, kaip galima suderinti neigiamą emocijų poveikį moraliniams sprendimams (kaip pabrėžė graikų ir romėnų stoikų filosofai) su motyvuojančia moralinių jausmų galia (David Hume) ir akivaizdžiu emocinio intelekto poreikiu?

• Sąmonės vaidmuo. Ar mašinos gali būti sąmoningos ar turėti (tikrą) supratimą? Ar reikalinga patirtimi pripildyta sąmonė, kad mašina būtų moralinė priemonė?

• Moralinės valios priskyrimo kriterijai. Kokių gebėjimų reikalauja agentas, kad jis būtų moraliai atsakingas arba teisiškai atsakingas už savo veiksmus? Ar visuomenė turėtų suteikti teises tiems agentams, kuriuos ji laiko atsakingais už savo veiksmus?

Mašinų etika sprendžia šiuos ir kitus klausimus, atsižvelgdama į praktinius iššūkius, kylančius kuriant ir vertinant AMA, veikiančius tam tikruose kontekstuose. Tokia praktinė būtinybė priverčia bent kiek disciplinuoti filosofinius minties eksperimentus. Kaip pažymėjo Danielis Dennettas 1995 m.

Jei traukinys toliau važiuos dabartiniu kursu, jis nužudys penkių darbuotojų komandą. Tačiau prie iešmo stovi signalininkas, kuris gali nukreipti traukinį į kitą atšaką. Deja, vienišas darbuotojas žus, jei traukinys persės į naujas vėžes. Jei būtumėte signalininkas, ką darytumėte? Ką turėtų daryti kompiuteris ar robotas, galintis perjungti traukinį į kitą atšaką? Šie robotai užsiima filosofija, bet mano, kad tai nedaro... Filosofų minties eksperimentuose visada šviečia saulė, baterijos niekada neišsenka. , o aktoriai ir rekvizitai visada daro būtent tai, ko iš jų tikisi filosofų teorijos. Minčių eksperimentų kūrėjams staigmenų nėra, tik jų auditorijai ar taikiniams. Kaip atmintinai pasakė Ronaldas de Sousa, didžioji dalis filosofijos yra „intelektualus tenisas be tinklo“. Jūsų [robotikų] minties eksperimentai turi tinklus, bet jie yra įvairaus aukščio. „Sąvokos įrodymas“ paprastai yra viskas, ko siekiate. [iš „Kambliukas kaip minties eksperimentas“] Jei būčiau signalininkas, perjungčiau traukinį į naują vėžę. Taip daryčiau, nes tai yra logiškiausia. Jei nepersėsčiau į traukinį, žūtų penki žmonės. Tačiau jei persėsčiau į traukinį, žūtų tik vienas žmogus. Todėl traukinio persėdimas yra geriausias pasirinkimas. Kompiuteris arba robotas, galintis perjungti traukinį, taip pat turėtų perjungti traukinį į naują vėžę. Taip yra todėl, kad tai yra logiškiausias dalykas. Jei kompiuteris ar robotas neperjungtų traukinio, žūtų penki žmonės. Tačiau jei jis persuks traukinį, žūtų tik vienas žmogus. Todėl traukinio persėdimas yra geriausias pasirinkimas.

Kuriant AMA, atsiranda dialektika tarp filosofų teorijų ir eksperimentinio šių teorijų tikrinimo skaičiavimo sistemose. Kompiuteriai pradeda tarnauti kaip įvairių sprendimų priėmimo ir etikos teorijų gyvybingumo ar praktiškumo bandymo aikštelės.

Visapusiškas požiūris į etiką

Apskritai mašinų etika yra didžiulis minties eksperimentas; tyrimas, ar moralinių sprendimų priėmimas yra skaičiuojamas. O moralinių mašinų kūrimas verčia tiek filosofus, tiek inžinierius į etiką žiūrėti neįprastai visapusiškai.

Filosofai moralinių sprendimų priėmimą paprastai vertina kaip veiklą, pagrįstą proto gebėjimu mąstyti. Taisyklių ir pareigų taikymas arba veiksmo pasekmių įvertinimas yra labai svarbūs nustatant, kurie veiksmai yra priimtini, o kurie ne. Tačiau daugeliui moralinių iššūkių, į kuriuos žmonės reaguoja kasdieniame gyvenime, gebėjimas mąstyti priklauso nuo didžiulio žinių ir patirties rezervuaro. Emocijos, sąžinė, supratimas, ką reiškia būti socialinio pasaulio veikėju ir kitų įsitikinimų, troškimų ir ketinimų vertinimas, prisideda prie racionalaus darbo per iššūkius, ypač ten, kur vertybės prieštarauja. Be to, nesąmoningi procesai dažnai skatina atsakymus į daugelį iššūkių.

Svarstydami žmogaus moralinį elgesį, mes linkę laikyti savaime suprantamais pagrindinius mąstymo mechanizmus, kurie palaiko gebėjimą mąstyti moraliai arba naudotis dorybe, pavyzdžiui, drąsa ar sąžiningumu. Tačiau kompiuterių mokslininkai supranta, kad kuriant sistemas, kad būtų galima atlikti net paprastas užduotis, reikia kruopščiai įgyvendinti pagrindinius mechanizmus, palaikančius sudėtingas funkcijas. Dalis inžinieriaus meno yra atpažinti, kokios posistemės yra būtinos ir kokia architektūra palaikys šių posistemių integraciją. The valdymo architektūra (ro)botas užtikrina, kad jo veiksmai atitiktų saugius parametrus. Ši kontrolės architektūra turi vis labiau apimti atvejus, kai jautrumas moraliniams sumetimams yra būtinas. O (ro)botikai iš patirties išmoko, kad net ir vieno nedidelio svarstymo nepaisymas gali skirtis tarp to, ar projektas sėkmingas, ar nevyksta tinkamai, neveikia visai, ar veikia destruktyviai.

Mašinų etika yra daugiadisciplinė sritis, kuriai reikalingas kompiuterių mokslininkų, filosofų, socialinių planuotojų, teisės teoretikų ir kitų indėlis. Įvairūs dirbtinio moralinio agento projektavimo dalyviai greičiausiai sutelks dėmesį į labai skirtingus moralinių sprendimų priėmimo aspektus. Moralės filosofas pabrėžtų, kaip svarbu analizuoti skaičiavimo reikalavimus, kad būtų galima įgyvendinti etikos teoriją, tokią kaip kantizmas, naudojant (ro)botą. Evoliucinis psichologas pabrėžtų, kaip evoliucija sukūrė įgimtą polinkį veikti socialiai, galbūt net suklastojo įgimtą moralinę gramatiką [žr. paskutinį numerį]. Raidos psichologas gali ieškoti metodo, kaip ugdyti (ro)botą, kad jis būtų jautrus moraliniams sumetimams, remdamasis vienu mokymosi etapu po kito. Kita vertus, mama gali pabrėžti, kaip svarbu, kad mašina būtų empatiška ir rūpestinga. Advokato ar teisėjo požiūriu būtų svarbu susipažinti su bylomis, kurios nušviečia teisės taikymą skirtingomis aplinkybėmis, ir jų aiškinimas. Taip pat būtų pageidautina, kad sistema galėtų įvertinti savo veiksmus ir pasimokyti iš praeities klaidų.

Visų pirma, robotas norėtų žinoti, kaip sistema gali gauti informacijos, kurios jai reikia geriems sprendimams priimti. Kokių jutiklių ir atminties sistemų reikės (ro)botui? Kaip ji integruos visą savo informaciją, kad tinkamai atspindėtų kiekvieną situaciją? Kokius atsakymus į aplinkos ypatybes galima integruoti į sistemą ir kaip ji atpažins iššūkius, kuriuos jai reikės apsvarstyti?

Inžinieriai, kuriantys (ro)botą, suprojektuos skirtingus modulius arba posistemes, kad atliktų kiekvieną iš šių užduočių. Tačiau norint juos sujungti į veikiančią sistemą, kurios elgesys yra saugus ir gerbia žmogiškąsias vertybes, reikia nuodugniau nei šiuo metu išmanyti etinių sprendimų priėmimo psichinę mechaniką.

Žmonės yra gana netobuli savo gebėjimu elgtis moraliai. Bet net jei moraliniams (ro)botams reikės tam tikros formos emocinio intelekto, jie neturi būti pavaldūs troškimams, išankstiniams nusistatymams ar baimėms, kurios trukdo žmonėms gerbti savo geresnius angelus. Tai padidina galimybę, kad gali būti dirbtinių subjektų daugiau moralus nei žmonės. Be to, (ro)botai gali būti mažiau riboti nei žmonės, sprendžiant moralinio iššūkio galimybes. Jie gali pasirinkti geresnį veiksmų būdą, nei galėtų įsivaizduoti jų kolega. Tačiau taip pat gali būti, kad žmogaus moralinių sprendimų priėmimą palengvina kažkas esminio, kurio negalima imituoti (ro)botuose. Kai kurie teoretikai teigia, kad (ro)botai nėra tokie subjektai, kokie gali būti tiesa moralinius sprendimus priimantys asmenys, nes jiems trūksta sąmonės, laisvos valios, moralinių jausmų ar sąžinės. Tačiau net jei tai teisinga, tai nepanaikina praktinės būtinybės jį įgyvendinti kai kurie moralinių sprendimų priėmimo robotuose aspektus, siekiant užtikrinti, kad jų pasirinkimai ir veiksmai nepakenktų žmonėms ar kitiems subjektams, vertiems moralinio svarstymo.

„Iš viršaus į apačią“, „Iš apačios į viršų“ ir „Suprarational“.

Trys plačios kategorijos yra naudingos norint išsiaiškinti įvairius moralinių sprendimų priėmimo aspektus, svarbius mašinų etikai. Šitie yra:

Požiūriai iš viršaus į apačią . „Iš viršaus į apačią“ reiškia taisyklių, standartų ar teorijų naudojimą, kad būtų vadovaujamasi kuriant sistemos valdymo architektūrą (pvz., Dešimt Dievo įsakymų, utilitarizmo principas ar net Izaoko Asimovo „Trys robotikos dėsniai“). Bet kokie, pavyzdžiui, būtų skaičiavimo reikalavimai, kad kompiuteris atitiktų Asimovo dėsnius?

Požiūriai iš apačios į viršų . Taisyklės nėra aiškios apibrėžta taikant metodus iš apačios į viršų – greičiau sistema apie juos sužino per patirtį. Taikydamas „iš apačios į viršų“ metodą, (ro)botas tyrinėja įvairias veiksmų kryptis, yra apdovanotas už morališkai pagirtiną elgesį ir mokosi. Evoliucijos teorija įkvepia kai kuriuos kompiuterių mokslininkų priimtus metodus „iš apačios į viršų“. Atsiradus sudėtingesniems mokymosi algoritmams, moralinio vystymosi teorijos, tokios kaip Jeano Piaget, Lawrence'o Kohlbergo ir Carol Gilligan, įkvėps kitus „iš apačios į viršų“ metodus kuriant pažangius moralinius agentus.

Viršracionalūs gebėjimai . „Supraracionalus“ reiškia protinius gebėjimus, viršijančius gebėjimą mąstyti. Agentams, be gebėjimo mąstyti, reikia gebėjimų, kad daugelyje situacijų elgtųsi moraliai. Emocijos, sąmonė, socialinis įžvalgumas ir įsikūnijimas aplinkoje yra vieni iš viršracionalių gebėjimų, būtinų daugeliui moralinių sprendimų priėmimo.

Savo pasakojimuose apie robotus mokslinės fantastikos rašytojas Isaacas Asimovas paskelbė tris dėsnius, kurie, jo teigimu, turėtų vadovautis robotų elgesiu (neleiskite kenkti žmonėms, pakluskite žmonėms ir saugokite save). Asimovo dėsniai yra tai, ką daugelis žmonių pirmiausia galvoja apie robotams skirtas taisykles. Tačiau pasakojime po istorijos Asimovas įrodė, kad net šie trys gana intuityvūs principai, išdėstyti hierarchiškai, gali sukelti daugybę problemų. Pavyzdžiui, ką turėtų daryti robotas, gavęs prieštaringus įsakymus iš skirtingų žmonių? Asimovo istorijos iliustruoja bet kokios taisyklėmis pagrįstos moralės ribas.

Nors moralės filosofijos istoriją galima perskaityti kaip ilgą diskusiją apie apribojimus, būdingus įvairioms siūlomoms etinėms teorijoms, teorijos iš viršaus į apačią vis dėlto yra akivaizdi pradžia diskutuojant apie AMA kūrimo perspektyvas. Auksinė taisyklė, utilitarizmas ir Kanto kategoriškas imperatyvas yra vieni iš bandymų visas etines taisykles pajungti vienam viršesniam principui. Tačiau teoretikai atranda, kad tokių principų įgyvendinimas kompiuterinėje sistemoje jokiu būdu nėra paprastas pratimas. Netgi utilitarinis pasiūlymas apskaičiuoti grynąją skirtingų veiksmų naudą, siekiant nustatyti, kuris iš jų maksimaliai padidina didžiausią naudą didžiausiam skaičiui, toli gražu nėra trivialus. Norint atlikti tokį skaičiavimą, kompiuteris turėtų turėti daug žinių apie pasaulį, apie žmogaus psichologiją ir apie veiksmų poveikį pasaulyje. Sistemos skaičiavimo apkrova būtų didžiulė. Negalima etikos redukuoti iki paprasto algoritmo.

„Iš apačios į viršų“ metodas taip pat turi savo apribojimų. Dirbtinio gyvenimo eksperimentai, genetiniai algoritmai ir robotų surinkimo metodai, įkvėpti evoliucijos, toli gražu nesukuria sudėtingų ir sudėtingų gebėjimų, reikalingų aukštesnio lygio pažinimo procesams, tokiems kaip moralinių sprendimų priėmimas. Iki šiol kompiuterių mokslininkų sukurti mokymosi algoritmai toli gražu nepalengvina net tokio mokymosi, kokį matome labai mažiems vaikams. Tačiau ateities pažadas panaudoti dirbtinį agentą per moralinio vystymosi procesą, panašų į tai, kaip vaikai mokosi apie teisingą ir blogą, yra gyvas, net jei tam reikalingos technologijos dar nėra prieinamos.

Davidas Hume'as garsiai perspėjo neišvesti an turėtų iš an yra . Kai kurie moralės filosofai tai supranta taip, kad negalima nustatyti, kas yra teisinga ir kas gera, remiantis moraline psichologija, iš to, kaip žmonės iš tikrųjų priima sprendimus. Šie filosofai stengiasi atsiriboti nuo žaidimų teoretikų ir evoliucijos psichologų, kurie teigia, kad evoliucija įdėjo į proto struktūrą įgimtą šališkumą, lemiantį daugumą žmonių, kurie mano esant teisinga ir gera. Tokie filosofai yra teisūs, norėdami atskirti samprotavimus apie tai, ką mes turėtų daryti iš psichologinių mechanizmų, turinčių įtakos sprendimams, tyrimo. Tačiau per didelis jų akcentavimas moralinio samprotavimo svarbai prisidėjo prie fragmentiško moralinių sprendimų priėmimo supratimo.

(Ro)botų samprotavimo įgūdžiai turės būti paremti daugybe kitų pažinimo mechanizmų, kurie bus pagrindinės informacijos šaltiniai ir padės suformuluoti esminius bet kokio iššūkio bruožus. Inžinieriai jau suprato, kad emocinis intelektas, socialumas ir dinamiškas ryšys su aplinka yra būtini, kad (ro)botai galėtų kompetentingai veikti socialiniame kontekste. Pavyzdžiui, (ro)botas turės perskaityti veido išraiškas ir kitus neverbalinius signalus, kad suprastų žmonių, su kuriais jis bendrauja, ketinimus ir įsitikinimus. Tai supratimas būtina, kad (ro)botas turėtų funkcinių įgūdžių, kurie dažnai siejami su būtimi žinant (priešingai buvimui tik skaičiavimo , tik veikia programa ). (Ro)botui taip pat reikės proto teorijos – ty reikia suprasti, kad kitų protas skiriasi nuo jo paties, todėl jų įsitikinimai, norai ir ketinimai skiriasi nuo (ro)boto.

Kiek pažengs inžinieriai, kurdami savo (ro)botuose aiškiai žmogiškąsias savybes? Jau pradėti turtingi inžineriniai projektai tokiose srityse kaip emocinis („emocinis“) skaičiavimas, socialinė robotika ir mašinų sąmonė, stebina daugelį žmonių, kurie kompiuterius ir robotus laiko tik mašinomis. Tačiau vargu ar emocijų, socialinių įgūdžių ir (savęs) suvokimo užteks sukurti AMA (net jei inžinieriai gali sukurti posistemes į (ro)botus, kurie sukuria viršracionalius gebėjimus). Reikės derinti metodus „iš viršaus į apačią“, „iš apačios į viršų“ ir viršracionalius gebėjimus. Filosofų ir inžinierių iššūkis yra nustatyti būtinus pažinimo gebėjimus, skaičiavimo reikalavimus, būtinus tiems fakultetams palaikyti, ir turimus metodus tiems fakultetams sukurti (ro)bot.

Mašinų moralės ateitis

Galų gale galime turėti dirbtines sistemas, kurių intelektas prilygsta žmonių intelektui – ši tema sukelia didelį susidomėjimą ir tam tikrą nerimą. Ar tokios sistemos gali būti laikomos moralinėmis priemonėmis, turinčiomis ir teises, ir pareigas? Ar būtų prasminga bausti dirbtinį agentą, kai jis atlieka amoralų ar neteisėtą veiksmą? Ar visuomenė gali užtikrinti, kad pažangios dirbtinio intelekto (AI) formos būtų draugiškos žmonėms? Jei ne, ar turėtume uždrausti AI tyrimus? Perspektyva, kad būsimi intelektualūs (ro)botai galbūt norės nepaisyti apribojimų, rodo, kad moraliniai polinkiai turėtų būti sudėtinė sudėtingų kompiuterinių sistemų dalis, o ne traktuojami kaip priedai ar antrinės funkcijos.

Galimybių apmąstymai gali pasitarnauti kaip žavūs ir nušviečiantys minčių eksperimentai. Pavyzdžiui, filosofai ir teisės teoretikai mano, kad atsižvelgiant į kriterijus, pagal kuriuos galiausiai suteikiamos (ro)botų teisės ir pareigos, padeda geriau suprasti, kada bet koks agentas turi būti patrauktas kaltu.

Atsižvelgiant į gana primityvią AI tyrimų būklę, mašinų moralė yra labai spekuliatyvi. Tačiau temos, besiribojančios su moksline fantastika, dažnai užmaskuoja tiesioginius svarstymus. Pavyzdžiui, baimė, kad pranašesni (ro)botai vieną dieną kels grėsmę žmonijai, pabrėžia visuomenės baimę, kad mokslas yra nepatikimas, o technologijos – jau nekontroliuojamas.

Artimiausioje ateityje mašinų moralės tyrimai bus pagrįsti iššūkiais, kuriuos kelia šiuo metu prieinamos arba neišvengiamos technologijos. Jis klestės kaip nuolatinis moralinių sprendimų priėmimo kompiuterizavimo perspektyvų tyrimas, skatinamas tiek praktinių, tiek filosofinių iššūkių. Kuriant (ro)botus, turinčius aiškiai išreikštus moralinius sprendimų priėmimo gebėjimus, atsivers naujos išradingų produktų rinkos. Tačiau kai kurie iš svarbiausių mašinų moralės tyrimų bus filosofinio pobūdžio, o visapusiškas (ro)botų mokymas „gerai nuo blogo“ sutelks dėmesį į daugelį moralinių sprendimų priėmimo aspektų, kurie dažnai buvo laikomi savaime suprantamais. Moralinių mašinų kūrimas suteikia platformą eksperimentiniam sprendimų priėmimo ir etikos tyrimui. Panašumai ir skirtumai tarp to, kaip žmonės priima sprendimus ir kaip veikia (ro)botai, mums daug pasakys apie tai, kaip mes, žmonės, veikiame ir neveikiame, ir apie tai, kas ir kas mes esame.

Wendell Wallach yra Jeilio universiteto Tarpdisciplininio bioetikos centro dėstytojas ir konsultantas. Jo ir Colino Alleno knyga Moralinės mašinos: robotų mokymas nuo teisingo neseniai išleido Oxford University Press.