机器人三原则

机器人三原则

为保护人类的对机器人做出的规定
机器人三原则是1940年由科幻作家阿西莫夫所提出的为保护人类的对机器人做出的规定。虽然最早这只是阿西莫夫著名科幻小说的文学创作。然而,还是有很多人将此定律看作是能使我们免于机器末日的方案。
    中文名:机器人三原则 外文名: 别名: 民族: 出生地: 毕业院校: 身高: 体重: 运动项目: 所属运动队: 专业特点: 主要奖项: 重要事件: 第一条:机器人不得伤害人类 第二条:机器人必须服从人类的命令 第三条:机器人必须保护自己

机器人三原则的起源

科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三原则”,阿西莫夫也因此获得“机器人学之父”的桂冠!

机器人三原则

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

The Three Laws of Robotics:

1.A robot may not injure a human being, or, through inaction.

2.A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

发展

机器人三原则理论提出的半个世纪以来,不断的被科幻作家和导演使用。但有趣的是,凡是出现三原则的电影和小说里,机器人几乎都违反了本条例。其中主要的一点就是机器人对“人类”这个词的定义不明确,或者是更改人类的定义。比如某个极端主义者,像3K党有反对黑人倾向这样的组织,利用电脑病毒等手段,把机器人对人类的定义是:“只有白人是人类。”这样,机器人很有可能成为种族屠杀的工具。

缺陷

在阿西莫夫的科幻世界中,这些规则被纳入几乎所有智能机器人中。这些规则不是单纯的建议或执导方针,是被嵌入到机器人的行为支配软件中。更为重要的是,这些规则在编写或修订中是不能被绕过的。

当然,如果你认为所谓的“规则”是完美的,那就大错特错了。专业人士们例举了三定律的几大缺陷:

1.内在的对抗性(天生树敌)

2.根据有缺陷的道德框架

3.研究人员拒绝

4.甚至在科幻文学中也有的问题

相关词条

相关搜索

其它词条