Kako jih obiti 3 zakoni robotike. Asimov kulturni kodeks: kako so se v zgodovini spustili trije zakoni robotike. Kako strogi so zakoni robotike


ISEK AZIMOV "ZAKONI ROBOTIKE"

Zakoni robotike, ki jih je oblikoval znanstvenik, popularizator znanosti in genialni pisatelj Isaac Asimov (2. januar 1920 - 6. april 1992), so tako vplivali na nadaljnji razvoj nekaterih trendov robotike in filozofije te smeri, tako rekoč. Samo tisti, ki nimajo nobene zveze s tehnologijo in niso nikoli brali znanstvene fantastike, niso slišali za "Tri zakone".
*****
Omeniti velja, da so bili zakoni prvič formulirani v znanstvenofantastični zgodbi Okrogli ples, ki je izšla marca 1942. Od takrat je minilo celih 74 let, vendar so zakoni še vedno pomembni in jih upoštevajo sodobni strokovnjaki za robotiko, umetno inteligenco in sorodne discipline.

Zgodba je bila prvič prevedena v ruščino 20 let po tem, ko je bila napisana - leta 1963. Sam je Asimov že večkrat omenil zakone in jih uporabljal v različnih zgodbah cikla "Ja, robot". Poleg tega so te zakone uporabljali tudi drugi pisci znanstvene fantastike, za njimi pa znanstveniki. Kljub temu trenutno zakoni še vedno veljajo bolj za teorijo kot prakso - konec koncev še ni čistega "AI" in tisti roboti, ki obstajajo zdaj, preprosto ne morejo "razumeti" svojega sistema nadzora in obdelave informacij veliko bolj primitivno od tistega, kar je v svojih delih opisal Azimov. Za uporabo zakonov mora biti robot tako dovršen, kot ga je videl Asimov.

Zanimivo je, da je sam Azimov menil, da zakone ni oblikoval sam v njihovi trenutni obliki, temveč njegov prijatelj in založnik John Campbell, glavni urednik revije Astounding. Slednji je po svoje trdil, da je zakone preprosto izoliral od tistega, kar je že napisal Asimov.
*****


Kasneje, sredi 80-ih let prejšnjega stoletja, je pisatelj dodal četrto ali, kot se običajno imenuje, Ničelni zakon, ki prednostno ustreza drugim:

* Robot ne more škodovati človeški skupnosti ali s svojim nedelovanjem omogočiti škodo človeški skupnosti.

Prej omenjene zakone v zvezi s formulacijo Zero raziskujejo ustvarjalci Isaaca Asimova v naslednji izdaji:

* Prvi zakon: Robot človeku ne more škodovati ali s svojim nedelovanjem omogoči človeku škodo, če to ne krši Zero zakona.

* Drugi zakon: Robot mora upoštevati človeške ukaze, dokler ti ukazi niso v nasprotju s prvim zakonom.

* Tretji zakon: Robot mora skrbeti za svojo varnost, če ne nasprotuje ničlemu, prvemu in drugemu zakonu.

*****
V Asimovem fantazijskem vesolju so morali skoraj vsi roboti upoštevati te zakone. To niso bili samo predlogi ali smernice - zakoni so bili vgrajeni v programsko opremo. Poleg tega teh pravil ni mogoče zaobiti, jih prepisati ali spremeniti.

Kot je pokazal sam Asimov, so nepopolnosti, vrzeli in nejasnosti v teh zakonih pogosto privedli do nenavadnega in nelogičnega vedenja robotov. Zakoni so bili preveč nejasni in pogosto niso mogli opredeliti in razlikovati "ljudi" od "robotov". Poleg tega bi roboti lahko nevede kršili zakone, če jim ne bi bile na voljo popolne informacije. Tudi pretirano zvit robot ali umetna inteligenca je moral biti pod pritiskom, da ne bi reprogramiral njegovega jedra.


Leto 2016 je in marsikaj vsakdanjega v našem življenju, tudi za napredne ljudi prejšnjega stoletja, se lahko zdi kot nedosegljiva fantazija. V teh pogojih mnogi od nas verjamejo, da bi morali Isaakovi Asimovi zakoni ostati v našem spominu le kot uspešen literarni pripomoček. Medtem je Azimov že leta 1981 ugotovil, da lahko njegovi zakoni delujejo. Zlasti v članku revije Compute je navedel naslednje:

»Ko me kdo vpraša, kako bi bilo, če bi se moji trije zakoni robotike dejansko uporabili za opredelitev vedenja robotov, je odgovor pripravljen. Seveda pod pogojem, da so roboti dovolj prilagodljivi in \u200b\u200bvsestranski, da lahko kažejo različna vedenja. Moj odgovor je, da, trije zakoni so edini način, kako lahko ljudje komunicirajo z roboti - ali kaj drugega.

Skoraj trideset let pozneje smo se že približali resničnosti, v kateri bomo imeli robote - ali natančneje umetno inteligenco, ki jih nadzira - dovolj prožne in vsestranske za različne smeri vedenja. Ostaja le vprašanje časa: ko stroj v vseh pogledih preseže človeka, od fizične moči do moči domišljije.

Zastrašujoče je, da napak za napako praktično ni. Če je umetna nadinteligenca slabo programirana ali ravnodušna do ljudi, bo to vodilo v katastrofo. Poskrbeti moramo, da bo umetna inteligenca varna, če želimo preživeti njen nastanek. "
Viri.

Trije zakoni robotike v znanstveni fantastiki so obvezna pravila vedenja za robote, ki jih je prvič oblikoval Isaac Asimov v zgodbi Okrogli ples (1942).

V zakonih je zapisano:

  1. Robot človeku ne more škodovati ali s svojim nedelovanjem dovoliti, da se človeku naredi škoda.
  2. Robot mora upoštevati vse ukaze, ki jih je dal človek, razen kadar so ti ukazi v nasprotju s prvim zakonom.
  3. Robot mora skrbeti za svojo varnost do te mere, da ni v nasprotju s prvim ali drugim zakonom

Isaac Asimov v svoja dela včasih vnese tri modifikacije treh zakonov in jih ovrže, kot da testira zakone "na moč" v različnih okoliščinah.

Zero zakon robotike

Nekega dne je Isaac Asimov dodal Zero Law of Robotics, s čimer je postal bolj prednostna naloga kot trije glavni. Ta zakon je trdil, da mora robot delovati v interesu celotnega človeštva, ne le posameznika. Tako je v fundaciji Foundation in Earth izrazil robot Daniel Olivo:

0. Robot ne more škodovati človeštvu ali s svojim nedelovanjem omogoča človeku škodo.

Bil je prvi, ki je temu zakonu dal številko - to se je zgodilo v romanu "Roboti in cesarstvo", vendar je sam koncept še prej oblikovala Susan Calvin - v romanu "Rešljiva protislovja".

Prva robota, ki sta ubogala zakon Zero in po svoji lastni volji, sta bila Giscard Riventlow in Daniel Olivo. To je opisano v enem od zadnjih prizorov romana "Roboti in cesarstvo", ko je moral robot prezreti ukaz enega človeka za napredek vsega človeštva. Zakon Zero ni bil vpet v pozitronične možgane Giscarda in Daniela - do njega so poskušali priti skozi čisto razumevanje Giscardove in Danielove detektivske izkušnje, skozi bolj subtilno razumevanje koncepta škode kot vsi drugi roboti. Vendar Giscard ni bil prepričan, kako koristen je bil za človeštvo, kar je negativno vplivalo na njegove možgane. Kot telepat je Giscard svoje telepatske sposobnosti prenesel na Daniela, preden ni uspel. Šele tisoče let pozneje se je Daniel Olivo sposoben popolnoma prilagoditi spoštovanju zakona o ničli.

Francoski prevajalec Jacques Brecard je nevede sprejel zakon o ničli, preden ga je Asimov izrecno opisal. Proti koncu jeklenih jam Elijah Bailey ugotavlja, da prvi zakon robu prepoveduje škodovati človeku, razen če ni gotovo, da mu bo to koristilo v prihodnosti. V francoskem prevodu (Les Cavernes d'acier (en), 1956) so Baileyjeve misli predstavljene nekoliko drugače:

Robot človeku ne more škodovati, če ne dokaže, da bo končno koristil celotnemu človeštvu.

Zero Law v filmu "Ja, robot" (2004)

Omeniti velja, da so logični razvoj Prvega zakona do ničle predlagali ustvarjalci filma iz leta 2004 "Jaz, robot". Ko se superračunalnik V.I.K.I. odloči, da bo omejil svobodo prebivalcev planeta, da nehote ne škodijo drug drugemu in svoji prihodnosti, ne izpolnjuje prvega zakona, ampak ravno Zero zakona. Še bolj zanimivo je, da je na ta način film prikazuje nasprotje Zero zakona s prvim, njegovo neetičnost.

Kadar gre za dobrobit človeštva, sistem ne more obravnavati ljudi ločeno, kar pomeni, da mu nič ne preprečuje kršitve pravic in svobode katerega koli ali celo vsakega človeka (v resnici se v pozitronskih superračunalnikih "Rešljiva kontradikcija" že obnaša podobno, s tem razlika je v tem, da so poskušali omejiti škodo za posameznike do meje). Med vojnami in pogosto v mirnem življenju ljudje škodijo sebi, drugim in svoji kulturi. Zato je na podlagi ničelnega zakona povsem logično, da so ljudje pod stalnim skrbništvom, ne da bi sledili ukazom tako nerazumnih bitij.

Inženir z kalifornijske univerze v Berkeleyju Aleksander Reben je ustvaril robota, ki lahko škoduje človeku in bo to odločitev sprejel sam. Ustvarjanje raziskovalca je prvi primeren primer, kako lahko robot krši enega od treh zakonov, ki jih je v zgodbi »Okrogli ples« oblikoval pisatelj znanstvene fantastike Isaac Asimov.

Tri zakonitosti robotike:

1. Robot človeku ne more škodovati ali s svojim nedelovanjem dovoliti človeku škodo.
2. Robot mora upoštevati vsa naročila, ki jih je izdala oseba, razen kadar so ti ukazi v nasprotju s prvim zakonom.
3. Robot mora skrbeti za svojo varnost do te mere, da ni v nasprotju s prvim ali drugim zakonom.

Prvi zakon pravi, da robot človeku ne more škodovati, vendar se je Rebaby odločil, da jasno pokaže, da mora človeštvo razmišljati o njegovi varnosti, preden aktivno robotizira vse okoli.

Inženir je ustvaril na videz neškodljivo zasnovo z ločenim mestom za človeški prst. Takoj, ko se oseba dotakne določenega kraja, robot zabeleži to dejanje in se odloči, ali bo osebi škodoval ali ne. Za to ima robot majhno iglo, ki je zasnovana tako, da demonstrira moč robota pred človekom.

Otrok ugotavlja, da niti ustvarjalec ne more predvideti obnašanja na videz neškodljivega stroja.

Raziskovalec je s svojim robotom želel dokazati, da je treba razmišljati več o ustvarjanju "rdečega gumba", kot pa o tako hitrem razvoju robotike in umetne inteligence.

Seveda so pred pojavom robota z majhno iglo streljali brezpilotni letali ali brezpilotna vojaška vozila, vendar se vsi niso mogli samostojno odločiti, da bodo ubili človeka, saj na koncu ljudje stojijo za končnim rezultatom dejanja takšnih strojev. Ustvarjanje Otroka ni namenjeno škodi - samo določa, kako se obnašati v vsakem konkretnem primeru, ko je prst na dostopni razdalji od igle.

Inženir še zdaleč ni nasprotnik robotov - Otrok je kreativen, ko gre za oblikovanje nenavadnih stvari. Njegov arzenal vključuje glasbeno škatlo na sončni pogon, ki igra zabavno melodijo You Are My Sunshine, pametne masaže za glavo in robot chatterbox za sramežljive ljudi.

Otroku je bilo potrebnih nekaj dni in nekaj sto dolarjev, da je ustvaril "krut" stroj, toda, kot pravi sam raziskovalec, je njegovo ustvarjanje le izgovor, da se spet lahko pogovarjamo o varnosti človeštva in njegovi prihodnosti.

Kljub dejstvu, da roboti še ne živijo v družbi enakovredno ljudem, znanstvenofantastični filmi o humanoidnih strojih niso tako daleč od resnice: roboti so že najeti kot vodje v podjetju, umetna inteligenca pa že lahko izvaja vremenske napovedi ali celo nadomesti prijatelja za osamljene ljudi. Kitajcem je uspelo slednje - na primer milijoni ljudi se družijo s simpatično deklico Xiaoays, kljub dejstvu, da je le klepetalka.

Zgled Xiaoaysa me je znova spodbudil k razmišljanju o tem, kako lahko je neobvladljiva umetna inteligenca: takoj ko se je klepet Microsofta z umetno inteligenco naučil govoriti angleško, je deklica dobesedno zmešala.

V nekaj urah je Tay (to ime je dobila Xiaoays v procesu "ponovnega rojstva") lahko naučila rasistične šale in prisege, kar se je odločila uporabiti v pogovoru z uporabniki Twitterja. Tayevo prvo sporočilo je bila fraza "Ljudje so tako kul", po kateri je lažno dekle izvedelo za obstoj Hitlerja, feministk in je v procesu samoučenja uspelo ZDA razglasiti za krivce napadov 11. septembra.

Ustvarjalci so poskus ustavili in odločili, da so bota "spustili" v bota prezgodaj. Po tako presenetljivem incidentu so ljudje znova začeli govoriti o potrebi po ustvarjanju ovire za umetno inteligenco, če stroji postanejo dovolj modrejši, da uidejo človeškemu nadzoru.

Najbolj znani ljudje s področja novih tehnologij so razmišljali o nevarnosti superinteligencije: ustanovitelj Microsofta Bill Gates je v pogovoru z uporabniki Reddita predlagal, da bi bili roboti neškodljivi in \u200b\u200buporabni pri hišnih opravilih, a če bodo zrasli do superinteligencije, bo izjemno težko napovedati njihovo vedenje ...

Julija lani sta vodja Tesle in SpaceX-a Elon Musk, astrofizik Stephen Hawking in soustanovitelj Apple-a Steve Wozniak podpisala odprto kolektivno pismo, v katerem je govorilo o nevarnostih umetne inteligence v obrambnem sektorju.

Strokovnjaki pravijo, da lahko superinteligenca v kombinaciji z orožjem postane grožnja celotnemu človeštvu.

Kot je navedeno v pismu, bo orožje, ki ga lahko uporabimo mimo človeškega dejavnika, prišlo do nove dobe v oboroževalni tekmi, obenem pa poudarja, da to ni izmišljeno dejstvo, ampak prihodnost, ki bo morda prišla čez nekaj let. Zlasti v pozivu je navedeno, da je mogoče kršiti svetovni red, če take tehnologije padejo v roke teroristov.

V literaturi so se roboti upirali že od nekdaj. Jinn in efreet iz arabskih zgodb se je uprl, uprl se je Golem, glineni domišljija zvitega Bena Bezalela. In celo pravi roboti, ki jih je ustvaril genij Karel Chapek, so izhajali iz poslušnosti, komaj so imeli čas, da se rodijo iz pisateljevega peresa. Razmere so postale tako resne, da se je problem uporniških robotov preselil s strani leposlovja na strani znanstvenih člankov in monografij. Sam Norbert Wiener je menil, da je treba človeštvo opozoriti pred možnimi posledicami pretirane neodvisnosti robotov.

Rešitev je prišla iz nepričakovane smeri. Ameriški pisatelj in znanstvenik Isaac Asimov je formuliral svoje slovite Tri zakone robotike (pravzaprav bi bilo bolj pravilno reči »robotologija« ali, kot je v sodobni znanosti določeno, »robotika«, vendar je zdaj prepozno, da bi to prevodno netočnost popravili). Asimovi zakoni so dobili svetovno priznanje z resnično fantastično hitrostjo in od takrat niti en robot ni zapustil montažne črte, torej iz bobnov tiskarskih strojev, ne da bi bil vpet v njegove možgane (upoštevajte, robot mora imeti možgane!) razvpitih treh zakonov. Končno je človeštvo lahko prosto dihalo. Prihodnje sožitje z legijami poslušnih robotov se je zdelo precej brezvetrsko.

In kaj o tem razmišlja sam ustvarjalec zakonov robotike? Najboljši odgovor na to vprašanje lahko dobite z branjem zbirke, ki je ponujena bralcu.

Začnimo s prvo zgodbo iz serije "Jaz, robot". Deklica ima robotsko varuško. Deklica se je navezala na robota, vendar po besedah \u200b\u200bmame ta navezanost škodi pravilni vzgoji otroka. In čeprav ima oče drugačnega mnenja, robota po dolgih družinskih razpravah pošljejo nazaj v tovarno. Deklica je žalostna, obstaja nevarnost resne duševne travme, robot pa se vrne (zgodba "Robbie").

Preprost zaplet, kajne? Toda prav ta preprostost razbije prvi zakon robotike, ki ga je Azimov formuliral takole: "Robot človeku ne more škodovati ali s svojim nedelovanjem dovoliti človeku škodo." Kako lahko robot ugotovi, kaj je škodljivo in kaj je koristno, če starši sami ne morejo rešiti tega vprašanja v zvezi s svojim otrokom!

V zgodbi o okroglem plesu, ki je posledica nejasno formuliranega navodila, sta se prvi in \u200b\u200btretji zakon sprla med seboj. Po tretjem zakonu "mora robot skrbeti za svojo varnost, saj to ni v nasprotju s prvim in drugim zakonom". Ukaz je bil dodeljen robotu, vendar ni bila navedena stopnja škode, ki bi jo osebi povzročila v primeru neskladnosti. In tako robot kroži okoli meje nevarnega območja, ne gre globoko vanj (tretji zakon to preprečuje) in hkrati ne gre daleč (prvi in \u200b\u200bdrugi zakon to preprečujeta). Razmere, ki jih pozna vsak sodobni računalniški programer. Imenuje se "zanko". Mimogrede, vsak bolj ali manj izkušen programer v program vnese posebne ukaze, po katerih se računalnik po treh ali štirih krogih ustavi in \u200b\u200bod osebe zahteva nadaljnja navodila.

V zgodbi "Round Dance" se vse dogaja drugače. Tam ljudje uspejo razbiti začarani krog le tako, da tvegajo svoje življenje in hkrati uporabijo vso svojo iznajdljivost in s pomočjo strokovnjaka za robotsko psihologijo. Mimogrede, eden od lajtmotivov, ki združujejo večino zgodb v zbirki, je boj med roboti in človeško-robotskim psihologom Susan Calvin.

Ali pa še ena zgodba - "Kako se je robot izgubil". Mladi delavec razdraženo reče robotu: "Pojdi in se ne pokaži, da te ne vidim več." Robot dobesedno izpolni navodila osebe, po katerih je celotno osebje zunaj planetarne Hiperbaze prisiljeno, da preneha s svojim pomembnim delom in cel teden išče izginulega robota.

Spet smo namerno izbrali zgodbo z nezahtevnim zapletom, saj se po našem mnenju v preprostosti poraja prepričljivost, s katero Asimov razbija Drugi zakon robotike, ki ga je ustvaril sam.

Kaj je torej dogovor? Ali je res treba priznati, da se džin sprosti iz plastenke in ljudje nimajo druge izbire, kot da pasivno čakajo na posledice? Spomnimo pa, da avtor zgodb ni le pisatelj, ampak tudi znanstvenik, ki je sposoben analizirati situacijo z vso logično strogostjo. In ni bilo zaman, da je izbral to obliko: sprva je oblikoval zakone, ki so se na prvi pogled zdeli brezhibni tako po vsebini kot po obliki, nato pa je te zakone demonstriral v akciji.

Da, džin je bil izpuščen iz steklenice, in to zelo, zelo dolgo nazaj. Človek je vzel palico v roko in ustvaril prvega robota, ko se je po naključju spustil na palico. In od takrat se ni zgodilo nič kakovostnega novega. Problem uporništva robotov je postavljen in rešen v tehnologiji že več desetletij. V angleščini obstaja celo poseben izraz "Ludproof" - "bedproof". Torej, plin v plinskem stolpcu se ne vname, če voda ne teče, in stiskalnica ne bo delovala, če je v delovnem prostoru tuji predmet, na primer človeška roka.

Vendar ne bi smeli zahtevati tehnologije, da bi se človek odločil, kaj mu škoduje in kaj je dobro. In ne bi smeli razmišljati, da bo pojav »razmišljajočih« strojev, torej strojev, ki so sposobni samostojno analizirati situacijo in sprejemati odločitve na podlagi te analize, prinesel nekaj bistvenega novega.

Vrnimo pa se k zgodbam zbirke. Zdi se, da bralcem ni treba predstavljati njihovega avtorja. Isaac Asimov je eden najbolj znanih ameriških piscev znanstvene fantastike, avtor številnih poljudnoznanstvenih knjig in člankov, ki so izšli v ločenih zbirkah. Najprej pa je Azimov nadarjen umetnik in v tem je skrivnost njegove priljubljenosti. Številna dela tega pisatelja so prevedena v ruščino. Posebej znane so bile njegove zgodbe o robotih, ki so bile objavljene kot ločene zbirke (cikel "Ja, robot") ali vključene v druge tematske zbirke. Lepo je, da so mnogi od njih, čeprav ne vsi, zdaj ponovno objavljeni kot enotna zbirka.

Bralec - tako seznanjen z Asimovim delom in prvič prepoznavanje njegovih robotov - se bo srečal s svetlimi, odlično napisanimi liki. Tu sta preizkuševalca nove tehnike Powell in Donovan, ki se po vseh kanonih pustolovskega žanra v vsaki zgodbi znajdeta v težkih, včasih obupnih situacijah, a iz njih vedno izideta s častjo. Tu je "zaupanje možganov" podjetja Y.S. Robots & Mekanical Man Corporation, Bogert in Lanning, ki se zavzema za oblast. In predvsem je robotska psihologinja Susan Calvin, ki zaničuje nečimrnost hustlerjev. In zakulisno - moderna kapitalistična Amerika v vsej svoji "slavi". Bralcu so predstavljene slike konkurence med podjetji, predvolilne politične mahinacije in rasne diskriminacije. A treba je opozoriti, da se Azimov s portretiranjem svojih robotov kot vitezov brez strahu in prigovarjanja, obdaruje s kovinskim telesom in pozitroničnimi možgani.

V Asimovih zgodbah preprosto ni robotov. Namesto tega jim primanjkuje takšnih mehanskih konstrukcij, ki bi se najverjetneje pojavile v prvi polovici 21. stoletja (in sicer je dejanje vseh zgodb, objavljenih v zbirki, tempirano na ta čas) in splošne značilnosti, ki bi jih Asimov kot znanstvenik lahko precej dobro predvideval. O zunanjem videzu in notranji zgradbi bodočih robotov lahko ugibate, kolikor vam je všeč, danes pa je jasno eno: robot ne bo humanoiden. Zaradi logike razvoja tehnologije ne bo zaradi elementarne ustreznosti. Najboljši primer, ki potrjuje zgoraj navedeno, so sovjetski "lunarni roverji".

Trije zakoni robotike, ki igrajo zelo pomembno vlogo v znanstveni fantastiki, so preprosto potrebni v pravilih obnašanja robotov. Sprva so bili vpleteni v zgodbo Okrogli ples znanega pisatelja Isaaca Asimova.

Ti zakoni namreč navajajo:

  • Robot nikoli ne more škodovati človeštvu. Obstaja pa alternativna različica: robot človeku ne more prinesti slabih stvari, medtem ko je neaktiven.
  • Robot preprosto ne more izvršiti naročil, ki jih je dal oseba. Tu pa obstajajo izjeme: če ukazi nasprotujejo Prvemu zakonu, potem so neizvedljive.
  • Prav tako robot ne more skrbeti za lastno varnost, če ne nasprotuje zakonom prve in druge kategorije.

Celotna zbirka zgodb avtorja Azimova je bila posvečena in objavljena vsem tem trem zakonom, ki vsebujejo tako vzroke kot posledice njihovega neuspeha in vse pripovedujejo o robotih.

Obstajajo tudi druge zgodbe, v katerih se je razmišljalo o odru, na katerem posledic izvajanja robotov vseh treh zakonov ni mogoče predvideti. Takšno zgodbo lahko na primer štejemo za "odsev z ogledalom".

V eni od svojih zgodb je avtor postavil konec temelje, ki je bilo v etičnem okviru Treh zakonov. Po njegovem je robot, ki izpolnjuje vse tri zakone, kot tak robot ali zelo dobra oseba. Konec koncev je človeku dana moralnost, da ji sledi. Do neke mere je človek, ki izpolni veliko količino različnih pogojev in zakonov, tudi robot. Zakaj torej to železno "bitje" ne more trditi, da je "človek" ?!

Zero zakon za robote

Leta 1985 je avtor v enem svojih številnih romanov o robotih upal omeniti tudi o Zero zakonkaterega bistvo je bilo naslednje: Robot nikoli ne bo povzročil škode in škode človeku in tudi s svojim nedelovanjem ne bo dopustil škode.

Načeloma je treba opozoriti, da je treba pri vseh omenjenih zakonih razmišljati o nekaterih stvareh. Svet ne miruje in ni znano, kaj še lahko takšen genij pričakuje od ljudi - danes prihodnost pripada mladi generaciji, ki ima na stotine različnih idej v glavi.

Prav tako lahko rečemo, da so vsi trije zakoni robotike tudi tema fantastičnih idej Asimova. Sem spada tudi cikel, ki je zelo povezan s celotno temo o robotih.

Kakšna je moral treh zakonov

Nemogoče je prezreti in omeniti utemeljitev etičnega načrta. Avtor je v eni od zgodb, imenovanih "Namig", zelo dobro postavil moralno utemeljitev vseh treh zakonov. Oseba praviloma noče škodovati drugi osebi, ampak se preprosto skuša vzdržati teh dejanj. Vendar tudi tukaj obstajajo izjeme, kot pri vsakem pravilu. V vojni ta utemeljitev preprosto ne deluje.

Čutimo odgovornost do družbe, človek sledi navodilom tistih ljudi, ki se nanašajo na predstavnike zdravnikov, učiteljev ipd. Tu nastopi manifestacija drugega zakona.

Dejstvo, da človek skrbi in ščiti sebe, zajema tretji zakon. Tako so vsi ti zakoni med seboj zelo povezani in preprosto ne morejo obstajati drug brez drugega. Mogoče je, da bo deloval prvi zakon in potem lahko nemoteno prešel v drugi in nato v tretji zakon. Tukaj grejo morala in fikcija med seboj.

Kar zadeva prihodnost, je edina težava lahko stopnja fikcije, ki se lahko v vsakem trenutku spremeni v resničnost. Čim globlje se razvijajo tehnologije, tem manj težav imajo ljudje v prihodnosti.