机器人三定律疑问.

来源:百度知道 编辑:UC知道 时间:2024/09/22 22:28:38
一.机器人不得伤害人,也不得见人受到伤害而袖手旁观
二.机器人应服从人的一切命令,但不得违反第一定律
三.机器人应保护自身的安全,但不得违反第一、第二定律

疑问在定律3, 如果保证第2条定律, 那么任何一个人让机器人去死,
机器人就得去死么....

定律3应理解为机器人保证自身不受来自外界的伤害吧,这样的话就不包括自己对自己的伤害了!

机器人应保护自身的安全,但不得违反第一、第二定律,着就是第三条定律了,就是不损害自己的情况下才去服从一切命令的!

我理解就是保护自身的前提条件是不违反一二定律,可以拒绝人给出的自杀命令,但不得因为此而伤害人类。

楼上回答的还行
其实这三条定律是阿西莫夫在小说《我,机器人》中提出的
写这些小说的时候,还没有机器人问世(可见阿西莫夫有多么强)
而小说的内容全是有关这三条定律的逻辑和矛盾的
换句话说,这三条定律还是有漏洞可钻的,但是世上本来就没有完美的定律
后人把这三条定律奉为机器人学的基础不断完善
后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。