ISAAC ASIMOV - A humanika törvényei

Megelégedéssel látom, hogyan emelik ki robottörténeteimből a különféle témákat, ötleteket a Robotváros könyei, és milyen ügyesen bánnak velük.

Például első három robotregényem rejtélyes gyilkosságokról szólt, és ezekben az ügyekben Elijah Baley nyomozott. A másodikban, A mezítelen nap ban egy zárt szoba titkát kellett megfejteni abban az értelemben, hogy a megölt személy mellett nem találtak fegyvert, de eltávolítani sem lehetett a helyiségből semmiféle gyilkos szerszámot.

Annak idején sikerült kielégítő megoldást találnom, de többé nem kísérleteztem ilyesmivel, örömmel látom hát, hogy Mikc McQuay ismét nekigyürkőzött a feladatnak ebben a regényében.

Negyedik robottémájú regényemnek, a Robotok és Birodalom nak már nem kifejezetten gyilkossági ügy állt a középpontjában. Elijah Baley békés öregkort élt meg, természetes úton hunyt el, a könyv pedig az Alapítvány világa felé kanyarodott, tehát világosan látszott, hogy mindkét sikeres témaköröm – a robotsorozat és az Alapítvány-sorozat – előbb-utóbb átfogó egységgé olvad össze. (Erre nem valamiféle szeszélyből került sor. Az 1940-es és 1950-es években fogalmazott elbeszéléseimhez kezdtem folytatásokat írni az 1980-as években, ez kényszerpályára állított.)

A Robotok és Birodalom ban kedvenc robotszereplőm, Giskard „a humanika törvényei”-vel kezdett foglalkozni, amelyekkel, mint akkor jeleztem, megvethetik a tudományos alapot a pszichohistóriához, amely döntő szerepet játszik az Alapítvány-sorozatban.

A humanika törvényeinek azt kellene tömör formában leírniuk, hogy miként viselkednek az emberi lények. Ilyen leírás természelesen nem létezik. Még azok a pszichológusok is, akik tudományos alapossággal vizsgálják (legalábbis reményeim szerint) ezt a területet, képtelenek felmutatni akár egyetlen „törvényt”; csupán hosszú és terjengős leírásokat adnak az emberek megfigyelhető viselkedéséről. De ezek a meghatározások nem tartalmaznak semmiféle előírást. Amikor egy lélekbúvár azt állítja, hogy az emberek ilyen és ilyen módon reagálnak egy bizonyos ingerre, csupán arra gondolhat, hogy némelyek néha így reagálnak. Mások viszont egyáltalán nem.

Ha ki kell várnunk az emberi magatartást ténylegesen meghatározó törvényeket, hogy a pszichohistóriát valóban megalapozhassuk (ezt feltétlenül meg kell tennünk), akkor ehhez még jó adag türelemre lesz szükségünk.

Mi legyen addig is a humanika törvényeivel? Annyit megtehetünk, hogy lerakunk legalább néhány alapkövet, s majd később ezekre építkezünk tovább, ameddig lehet.

Így hát a Robotok és Birodalom ban egy robot – Giskard – veti fel a humanika törvényeinek kérdését. Gépemberként természetesen mindent a robotika három törvényének szemszögéből vizsgál. Ezek a törvények igazi előírások, valóságos parancsolatok, mert a robotok kénytelenek engedelmeskedni nekik, képtelenek arra, hogy ellenük szegüljenek.

A robotika Három Törvénye a következő:

1. A robotnak nem szabad kárt tennie emberi lényben, sem tétlenül tűrnie, hogy emberi lény sérülést szenvedjen.

2. A robot engedelmeskedni köteles az emberi lények utasításainak, kivéve, ha ezek az utasítások ellentétesek az Első Törvénnyel.

3. A robotnak gondoskodnia kell saját védelméről, amíg ez nem kerül ellentétbe az Első vagy a Második Törvénnyel.

Úgy vélem, a robotok azt képzelik, hogy az emberi lényeknek olyan magatartást kell tanúsítaniuk, amellyel megkönnyítik számukra ezeknek a törvényeknek a betartását.

Bizony-bizony, egy erkölcsös embernek éppúgy illenék igyekeznie megkönnyíteni a robotok életét, ahogyan azt a robotok tennék. Ezt a témát pendítettem meg A két évszázados ember című elbeszélésemben, amely 1976-ban jelent meg. Itt az egyik emberi szereplő egyebek között ezt mondja: „Ha egy embernek jogában áll utasítania egy robotot bármire, kivéve, hogy kárt tegyen emberi lényekben, akkor a tisztesség megkívánja, hogy sohase adjon a robotnak olyan utasítást, amely egy másik robot sérülését idézné elő, kivéve, ha ezt egy ember biztonsága feltétlenül megköveteli. A hatalommal felelősség jár, és ha a robotokra három törvény vonatkozik, hogy megvédjék az embereket, vajon nagy kérés lenne, hogy az emberek is tartsanak be egy vagy két törvényt, amellyel megvédik a robotokat?” Például az Első Törvény két részből áll. Az első szerint „A robotnak nem szabad kárt tennie emberi lényben”, ami annyira általános érvényű, hogy nem is érdemes rá több szót vesztegetni.

A második rész: „…sem tétlenül tűrnie, hogy emberi lény sérülést szenvedjen”, már egy kissé vitatható. Egy emberi lény olyan módon is sérülést szenvedhet, hogy valamilyen élettelen tárgy játszik szerepet az események alakulásában. Nehéz súly eshet rá, elcsúszhat, beleeshet egy tóba, vagy számtalan más baleset érheti. Ilyenkor a robotnak egyszerűen meg kell mentenie az emberi lényt: kihúzza például a gerenda alól, vagy talpra segíti stb.

Fenyegetheti az embert egy másfajta élőlény is – például egy oroszlán –, és a robot akkor is köteles őt megvédeni.

Mi van azonban, ha egy emberi lény cselekvése azzal a veszéllyel fenyeget, hogy egy másik emberi lény szenved sérülést? Ekkor a robotnak döntenie kell, mit tegyen. Megmenthet-e egy emberi lényt anélkül, hogy kárt tenne egy másikban? Vagy ha mégis sérülést kell okoznia, milyen cselekvési módot válasszon, hogy a lehető legkisebbre csökkentse ennek kockázatát?

Sokkal könnyebb lenne a robot dolga, ha az emberi lények ugyanúgy aggódnának a másik emberi lény épségéért, ahogyan ezt a robotoktól elvárják. És valóban, minden ésszerű etikai kódex előírja, hogy az embereknek óvniuk kell egymást, és nem szabad kárt tenniük egymásban. Vagyis éppen arról a magatartásról van szó, amelyet az emberek a robotokba építettek. Ennélfogva a humanika Első Törvénye a robotok szempontjából a következő:

1. Emberi lénynek nem szabad kárt tennie másik emberi lényben, sem tétlenül tűrnie, hogy emberi lény sérülést szenvedjen. Ha ezt a törvényt betartják, a robotra csak annyi feladat hárul, hogy élettelen tárgyak vagy nem emberi lények által okozott balesetektől óvja meg az embert, ami nem jár erkölcsi dilemmákkal. A robotnak természetesen akkor is közbe kell lépnie, ha egy emberi lény akaratlanul tenne kárt egy másik emberben. Akkor is segítségére kell sietnie a veszélyeztetett emberi lénynek, ha a helyszínen levő másik emberi lény nem képes erre elég gyorsan. Ám még egy robot is sérülést okozhat akaratlanul egy emberi lénynek, és még egy robot sem lehet mindig elég gyors, hogy idejében a tett színhelyére érjen, vagy elég ügyes, hogy a szükséges cselekedetet hajtsa végre. Semmi sem tökéletes.

Ez vezet át bennünket a robotika Második Törvényéhez, amely előírja a robot számára, hogy engedelmeskedni köteles az emberi lények utasításainak, kivéve, ha ezek az utasítások ellentétesek az Első Törvénnyel. Ez azt jelenti, hogy az emberi lények korlátlanul adhatnak a robotoknak bármilyen utasítást, amíg ezek nem vezetnek egy másik emberi lény sérüléséhez.

Ám egy emberi lény utasítást adhat egy robotnak valamilyen lehetetlen feladat végrehajtására is, vagy olyan ellentmondás elé állítja, amely tönkreteheti a gépember agyát.

1940-ben megjelent Te hazug! című novellámban egy ember szándékosan hoz egy robotot olyan kínos döntesi helyzetbe, amelytől a robot agya kiég és felmondja a szolgálatot.

Sőt az is elképzelhető, hogy az egyre okosodó és öntudatosodó robotnemzedékek valamelyik tagjának agya oly érzékennyé válik, hogy sérülést szenved, ha szükségtelenül valamilyen zavarba ejtő vagy méltatlan cselekedetre kényszerítik. Következésképp a humanika Második Törvénye így szólhat:

2. Az emberi lény a robotnak csak olyan utasításokat adhat, amelyek megőrzik a robot létét, kivéve, ha ezek az utasítások veszélyeztetnék emberi lények épségét. A robotika Harmadik Törvénye azért született, hogy védje a robotot, de egy gépember szempontjából ez nem tűnhet eléggé hatékonynak. A robotnak fel kell áldoznia magát, ha az Első vagy Második Törvény úgy kívánja. Ami az Első Törvényt illeti, ezen nincs mit vitatkozni. A robotnak le kell mondania saját létéről, ha csupán így kerülheti el, hogy kárt tegyen egy emberi lényben, vagy ha ezzel előzheti meg egy emberi lény sérülését. Ha elismerjük az emberi lények felsőbbrendűségét a robotokkal szemben (amit én kissé vonakodva teszek), akkor ez elkerülhetetlen.

Másfelől viszont fel kell-e áldoznia a robotnak saját létét azzal, hogy engedelmeskedik egy alkalmasint hétköznapi vagy éppen rosszindulatú parancsnak? A két évszázados ember című elbeszélésemben néhány huligán szándékosan utasít egy robotot önmaga szétszedésére, hogy szórakozhasson a bizarr látványon. A humanika Harmadik Törvényének tehát így kell szólnia:

3. Emberi lénynek nem szabad kárt tennie a robotban, sem tétlenül tűrnie, hogy a robot sérülést szenvedjen, kivéve, ha ezzel a sérüléssel megakadályozható egy másik emberi lény sérülése, vagy lehetővé válik egy létfontosságú parancs végrehajtása. Ezeket a törvényeket természetesen nem erőltethetjük rá senkire úgy, ahogyan a robotika törvényei vezérlik a gépembereket. Nem tervezhetjük meg az emberi agyat, ahogy megszerkesztjük egy robot agyát. De ezzel a Három Törvénnyel megtehetjük a kezdő lépéseket, és őszintén hiszem, hogy ha meg akarjuk őrizni hatalmunkat az értelmes robotok felett, akkor ennek arányában kell vállalnunk a felelősséget is irántuk, ahogyan ezt A két évszázados ember ben veti fel az emberi szereplő.

A Robotvárosban bizony éppen ezeket a törvényeket ajánlják a bolygón tartózkodó két emberi lény figyelmébe a robotok, amint ez hamarosan kiderül.