De Humanicawetten
Isaac Asimov
Ik ben zeer tevreden over de manier waarop de verschillende thema's en verwijzingen uit mijn robotverhalen worden opgepikt en uitgewerkt in de Robot City-boeken.
Neem bijvoorbeeld mijn eerste drie robotromans. Dat waren hoofdzakelijk misdaadverhalen met Elijah Baley in de rol van detective. Van deze romans draaide de tweede, The Naked Sun, om een moord die had plaatsgevonden in een gesloten ruimte. Op de plaats van het misdrijf werd weliswaar een slachtoffer aangetroffen, maar geen moordwapen, hoewel dat onmogelijk kon zijn weggehaald.
Het lukte me om een bevredigende oplossing te construeren, maar sindsdien heb ik nooit meer iets dergelijks gedaan. Ik ben dan ook blij dat Mike McQuay zich er nu aan heeft gewaagd.
Mijn vierde robotroman, Robots and Empire, was niet in de eerste plaats een misdaadverhaal. Elijah Baley was op hoge leeftijd een natuurlijke dood gestorven en het boek ging de richting op van de wereld van de Foundation. Het was dus duidelijk dat mijn twee belangrijke verhalenreeksen - de Robotreeks en de Foundation-reeks - zouden opgaan in een groter geheel. (Nee, dat heb ik niet zonder reden gedaan. Ik kon er eenvoudig niet meer omheen toen er in de jaren tachtig behoefte ontstond aan een vervolg op de verhalen die oorspronkelijk waren geschreven in de jaren veertig en vijftig.)
In Robots and Empire begon mijn robotpersonage Giskard, waarop ik erg gesteld was, zich te interesseren voor de 'Humanicawetten'. Ik suggereerde dat ze uiteindelijk zouden kunnen dienen als basis voor de psychohistorie, een wetenschap die een zeer belangrijke rol speelde in de Foundation-reeks.
Strikt genomen zouden de Humanicawetten een beknopte beschrijving moeten zijn van de wijze waarop mensen zich in de praktijk gedragen. Een dergelijke beschrijving bestaat uiteraard niet. Zelfs psychologen, die deze materie (naar ik hoop) op wetenschappelijke wijze bestuderen, komen niet met 'wetten' voor de dag. Ze geven alleen saaie, breedvoerige beschrijvingen van hetgeen mensen schijnen te doen. En dat is in geen geval wetmatig. Als een psycholoog zegt dat mensen op een of andere wijze op een bepaalde stimulus reageren, dan bedoelt hij alleen dat sommigen dat weleens doen. Anderen doen het op een ander moment of misschien zelfs helemaal niet. Als we moeten wachten op echte wetten die het menselijk gedrag beschrijven teneinde daarmee de psychohistorie van de grond te krijgen (en dat moeten we beslist), dan denk ik dat we nog heel lang kunnen wachten.
Welnu, wat doen we dan met de Humanicawetten? Ik denk dat we heel kleinschalig en aan de basis moeten beginnen, zodat we ze later, als dat mogelijk is, langzaam kunnen opbouwen. Daarom is het in Robots and Empire een robot, Giskard, die de Humanicawetten ter sprake brengt. Omdat hij een robot is benadert hij alles vanuit het standpunt van de drie Roboticawetten - die absoluut onontkoombaar zijn, want robots zijn gedwongen ze te gehoorzamen en kunnen ze onmogelijk negeren. De Drie Roboticawetten zijn:
1. Een robot mag een mens geen letsel toebrengen, noch mag hij, door niets te doen, toestaan dat een mens letsel wordt toegebracht.
2. Een robot moet de instructies van mensen opvolgen, behalve wanneer die instructies in strijd zijn met de Eerste Wet.
3. Een robot moet zichzelf beschermen zolang dat niet in strijd is met de Eerste of de Tweede Wet.
Welnu, het lijkt me dat een robot er wel van uit moet gaan dat het menselijk gedrag erop is gericht om het voor robots eenvoudiger te maken deze wetten te kunnen gehoorzamen. Je zou zelfs kunnen stellen dat redelijk denkende mensen, net zoals robots, hun best zullen doen om het leven van robots even aangenaam te maken als robots dat voor hen zouden doen. Ik heb dat gegeven gebruikt in mijn verhaal The Bicentennia1 Man, dat in 1976 werd uitgegeven. Hierin liet ik op een gegeven moment iemand zeggen: 'Als een mens het recht heeft een robot ieder denkbaar bevel te geven, zolang dat maar niet leidt tot het toebrengen van letsel aan een mens, dan zou hij het fatsoen moeten hebben een robot nooit een bevel te geven dat het beschadigen van een robot tot gevolg heeft, tenzij absoluut vaststaat dat de menselijke veiligheid in het geding is. Macht schept verantwoordelijkheid, en als robots drie wetten hebben die de mens beschermen, is het dan teveel gevraagd dat de mens een paar wetten heeft die robots beschermen?'
De Eerste Wet, bijvoorbeeld, bestaat uit twee gedeelten. Het eerste deel, 'Een robot mag een mens geen letsel toebrengen', is onvoorwaardelijk en daaraan behoeft niets te worden veranderd. Het tweede deel, 'noch mag hij, door niets te doen, toestaan dat een mens letsel wordt toegebracht', laat ruimte voor interpretatie. Een mens kan op het punt staan gewond te raken als gevolg van een gebeurtenis waarbij een levenloos voorwerp is betrokken. Hij zou door een zwaar gewicht kunnen worden verpletterd, of hij kan uitglijden en in een meer vallen; er zijn oneindig veel van dit soort ongelukken denkbaar. In een dergelijke situatie moet de robot slechts zijn best doen de mens te redden door hem weg te trekken, staande te houden, enzovoorts. Een mens kan natuurlijk ook worden bedreigd door een niet-menselijke levensvorm - bijvoorbeeld een leeuw - waartegen de robot hem moet verdedigen.
Maar wat als een mens wordt bedreigd door het handelen van een ander mens? In zo'n geval moet de robot zelf een beslissing nemen. Kan hij de ene mens redden zonder de andere letsel toe te brengen? En als het onvermijdelijk is dat een van beiden gewond raakt, welke actie moet er dan worden ondernomen om het letsel zo gering mogelijk te houden?
Het zou voor de robot een stuk eenvoudiger zijn als mensen evenzeer waren begaan met het welzijn van hun medemensen als robots worden geacht te zijn. En uiteraard zou iedere menselijke ethische code de mens opdragen om zorgvuldig met anderen om te gaan en anderen geen letsel toe te brengen. Dat is tenslotte ook de opdracht die de mens de robots heeft meegegeven. Daarom luidt de Eerste Humanicawet, vanuit het standpunt van de robots:
1. Een mens mag een ander mens geen letsel toebrengen, noch mag hij, door niets te doen, toestaan dat een mens letsel wordt toegebracht.
Als deze wet in de praktijk wordt gebracht, zal de robot alleen mensen hoeven te beschermen tegen ongelukken met levenloze objecten en niet-menselijk leven, hetgeen voor hem geen ethische dilemma's veroorzaakt. Uiteraard moet de robot nog steeds waakzaam zijn voor onopzettelijk door een ander mens toegebracht letsel. Hij moet eveneens klaar staan om een mens in gevaar te hulp te schieten als andere aanwezige mensen niet tijdig op de plaats van handeling kunnen zijn. Maar ook een robot kan een mens onopzettelijk letsel toebrengen, en zelfs een robot is niet altijd snel genoeg om op tijd op de plaats van handeling te arriveren, of voldoende bekwaam om de noodzakelijke actie te ondernemen. Niets is perfect.
Dat brengt ons op de tweede Roboticawet, die een robot verplicht alle bevelen te gehoorzamen die hem door mensen worden gegeven, behalve wanneer die bevelen in strijd zijn met de Eerste Wet. Dit houdt in dat mensen robots ieder denkbaar bevel kunnen geven, zolang dat maar niet leidt tot het toebrengen van letsel aan een mens.
Aan de andere kant zou een mens een robot iets onmogelijks kunnen opdragen, of hem een bevel kunnen geven dat een dilemma zou veroorzaken als gevolg waarvan zijn brein zou worden beschadigd. Zo liet ik in mijn korte verhaal Liar!, dat in 1940 werd uitgegeven, een mens opzettelijk een robot voor een dilemma plaatsen dat zijn brein liet doorbranden en verder functioneren onmogelijk maakte.
Het is zelfs denkbaar dat naarmate een robot intelligenter en zelfbewuster wordt, zijn brein gevoelig genoeg zou kunnen worden om pijn gewaar te worden als hij zou worden gedwongen iets te doen dat nodeloos gênant of verwerpelijk is. Derhalve zou de Tweede Humanicawet moeten luiden:
2. Een mens dient een robot instructies te geven die het voortbestaan van de robot garanderen, tenzij deze instructies letsel toebrengen aan mensen of hen in verlegenheid brengen.
De Derde Roboticawet is opgesteld om de robot te beschermen, maar vanuit het standpunt van een robot is het duidelijk dat deze wet niet ver genoeg gaat. De robot moet zijn bestaan opofferen als de Eerste of de Tweede Wet dat nodig maakt. Over de Eerste Wet is geen discussie mogelijk. Een robot moet zijn bestaan opgeven als dat de enige mogelijkheid is om het verwonden dan wel gewond raken van een mens te voorkomen. Als we erkennen dat de mens van nature superieur is aan de robot (hetgeen ik eerlijk gezegd met enige terughoudendheid doe), dan is dat onvermijdelijk.
Aan de andere kant, moet een robot zijn bestaan opofferen, alleen maar om een mogelijkerwijs onbelangrijk of zelfs kwaadaardig bedoeld bevel op te volgen? In The Bicentennial Man laat ik een stel vandalen een robot bevelen zichzelf te demonteren, alleen maar omdat ze het grappig vinden ernaar te kijken. De Derde Humanicawet moet derhalve luiden:
3. Een mens mag een robot geen letsel toebrengen, noch mag hij, door niets te doen, toestaan dat een robot letsel wordt toegebracht, tenzij dit noodzakelijk is om een mens te beschermen tegen letsel of om ervoor zorg te dragen dat een essentiële instructie wordt uitgevoerd.
Uiteraard kunnen deze wetten niet worden afgedwongen zoals de Roboticawetten. De menselijk geest kan nu eenmaal niet worden ontworpen zoals een robotbrein. Maar het is in ieder geval een begin, en ik ben er werkelijk van overtuigd dat als we leiding willen geven aan intelligente robots, we een zelfde soort verantwoordelijkheid voor hen moeten voelen als het personage in mijn verhaal The Bicentennial Man aangaf.
Zoals u hieronder kunt lezen zijn het - zeker in Robot City - dit soort voorschriften die robots zouden kunnen hanteren voor de enige mensen op de planeet.