機器人三原則

機器人三原則

為保護人類的對機器人做出的規定
機器人三原則是1940年由科幻作家阿西莫夫所提出的為保護人類的對機器人做出的規定。雖然最早這隻是阿西莫夫著名科幻小說的文學創作。然而,還是有很多人将此定律看作是能使我們免于機器末日的方案。
    中文名:機器人三原則 外文名: 别名: 民族: 出生地: 畢業院校: 身高: 體重: 運動項目: 所屬運動隊: 專業特點: 主要獎項: 重要事件: 第一條:機器人不得傷害人類 第二條:機器人必須服從人類的命令 第三條:機器人必須保護自己

機器人三原則的起源

科學技術的進步很可能引發一些人類不希望出現的問題。為了保護人類,早在1940年科幻作家阿西莫夫就提出了“機器人三原則”,阿西莫夫也因此獲得“機器人學之父”的桂冠!

機器人三原則

第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.

第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。

第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。

The Three Laws of Robotics:

1.A robot may not injure a human being, or, through inaction.

2.A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

發展

機器人三原則理論提出的半個世紀以來,不斷的被科幻作家和導演使用。但有趣的是,凡是出現三原則的電影和小說裡,機器人幾乎都違反了本條例。其中主要的一點就是機器人對“人類”這個詞的定義不明确,或者是更改人類的定義。比如某個極端主義者,像3K黨有反對黑人傾向這樣的組織,利用電腦病毒等手段,把機器人對人類的定義是:“隻有白人是人類。”這樣,機器人很有可能成為種族屠殺的工具。

缺陷

在阿西莫夫的科幻世界中,這些規則被納入幾乎所有智能機器人中。這些規則不是單純的建議或執導方針,是被嵌入到機器人的行為支配軟件中。更為重要的是,這些規則在編寫或修訂中是不能被繞過的。

當然,如果你認為所謂的“規則”是完美的,那就大錯特錯了。專業人士們例舉了三定律的幾大缺陷:

1.内在的對抗性(天生樹敵)

2.根據有缺陷的道德框架

3.研究人員拒絕

4.甚至在科幻文學中也有的問題

上一篇:李宗南

下一篇:李駿

相關詞條

相關搜索

其它詞條