我要投搞

标签云

收藏小站

爱尚经典语录、名言、句子、散文、日志、唯美图片

当前位置:欢乐棋牌下载手机版 > 高速喷射 >

机器人法律

归档日期:07-11       文本归类:高速喷射      文章编辑:爱尚语录

  声明:百科词条人人可编辑,词条创建和修改均免费,绝不存在官方及代理商付费代编,请勿上当受骗。详情

  机器人法律是1940年由科幻作家阿西莫夫所提出的为保护人类的对机器人做出的规定。

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

  2.A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

  3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

  我们首先来肯定下三大定律的杰出贡献,阿西莫夫的机器人三法律,可以用简单、明了、震撼三个词来形容。三律环环相扣,有如公式般的美感,让人无比折服。阿西莫夫本人也曾经无不自豪的说过:“三法律是理性人类对待机器人(或者任何别的东西)的唯一方式”。

  阿西莫夫采取了一种类似于归谬法的手段来证明三律的和谐自洽。即提出它们的变体,然后又在科幻故事中展示这些变体所带来的的逻辑困境与伦理学灾难。正是这些作品让更多的人类意识到了机器人的恐怖,以及三大定律的重要性。比如阿西莫夫在《机器人与帝国》中展示了这条定律所带来的毁灭性力量。诞生之初被赋予机器人三定律的VIKI,在自然进化的过程中跨越了三法律的界限,获得了“零规则”这一高等智慧,经过计算,她认为任由人类发展只会导致更多的灾难、战争和贫穷,于是在“零规则”的支配下,她只能选择用自己理性的“大脑”支配和保护人类,以免这一物种的灭绝———实际上,“她”还是在为人类着想,但代价是抹消人类的自由意志。

  在阿西莫夫以前,还没有人能够提出这么具有历史意义的机器人法则,可以说直到今天还没有人能够提出优于阿西莫夫的法律,因此说它是机器人的圣经一点也不为过。

  客观地说,阿西莫夫的三大定律提得比较早,虽然在科幻小说或者机器人相关的题材作品里被当做圣经一样崇拜,但是作为那个时代的人类来说还有一定的局限性。

  因为那个时代的机器人是按照冯诺依曼的思想来设计的。程序员可以随心所欲的控制它们的行为,那时候的机器是一个确定性的系统,只需加载一条条指令,它们就按程序员所设想的那样工作。

  而在今天,人工智能的设计发生了很大变化,科学家们意识到,那种冯诺依曼式的自上而下的控制式程序不太可能实现人工智能,现今最优秀的人工智能都是基于遗传算法,它模拟是大脑的神经网络的工作方式,人们为这样的技术付出的代价就是,人们再也不可能完全理解人工智能是如何工作的了。人们只能通过对输出进行观察然后形成一个关于人工智能行为的经验性感觉,机器的内部工作原理之于程序员更像是一个黑箱。举个例子,未来的机器人可能会很有效的执行到超市购物的这一行为,但是不管程序员如何修改他的适度函数,也很难保证机器人在购物途中不去伤害一只挡道的猫,或者破坏一辆汽车。

  阿西莫夫同样忽略了计算机智能可能会诞生在网络,人们很容易设计出一套协议来确保网络中的某个节点不会制造混乱,但却无法控制计算机网络的智能涌现。

  三大定律的另一局限性还表现在,阿西莫无法预测物联网的到来。物联网时代物物相联,而在阿西莫的作品中则大部分生活都如常——只不过多了些人形智能机器人走来走去而已,但这种未来不太可能实现,或者就算是它实现了,也只会存在很短的时间,现在智能手机、智能家居、智能医疗、甚至智慧城市已经悄然兴起,机器人将生活在一个物联网的社会里。因此我们说阿西莫夫三大定理有着一定的历史局限性。

  在工程师利用计算机实现人工智能的同时,他们发现了一个非常棘手的问题,那就是计算机的运算过程是不允许有歧义性的。如果存在这样的歧义性计算机将无法工作。在计算机的世界里只有0和1、对和错,没有摸凌两可存在。而人类的文字和语言则充斥着这种“仁者见仁智者见智”的歧义性。同样一个词在不同的人看来意义就不同,甚至法律这种看似牢不可破的堡垒都有律师来将他们打破。

  要遵循第一定律,首先得明白“什么是人?”。事实上,这是一个连柏拉图都没能弄清楚的问题,中国古代的哲学家把这个问题导向无趣的虚无主义,有的人陷入白马非马的逻辑悖论中难以自拔。人类在哲学上可能难以触摸到“人”的本质,但在生活中并不存在概念困境。这正是由人脑的模糊性特点所决定的。一个元素a和一个集合A的关系,不是绝对的“属于”或“不属于”的关系,而需用考虑它属于集合A的程度是多少,人类正是通过 “隶属度”模糊数学的集合概念,轻易地解决了“比光头多1根头发的是秃子,比秃子多N根头发仍是秃子”的悖谬。但以布尔逻辑运算为核心的机器智能能做到吗?或许,人类为了让机器人更人性化、在日常生活中的工作更具灵活性,可能会引入模糊处理的操作程序。但问题总是相伴而生,既然它都已经模糊处理了,它未尝不会在“三大定律”上也进行模糊处理,把它该尽的义务给马赛克掉呢?

  首先,光信息无法教会机器人明白“什么是人”。人类很早以前就发现,外形是会骗人的。仿真机器人、克隆人、全息三维图像不光能令机器人冒烟,也会令真正的人类抓狂。

  其次,记忆信息无法帮助机器人判别“什么是人”,因为记忆是能够复制的。真假美猴王的故事深刻地教育了唐僧,念紧箍咒只能显得你很低级白吃。如来佛能区别大圣与猕猴,可惜机器人中没有如来佛。

  最高级的判别方式无疑是图灵测试。且不说这一方法在操作上具有时间上的不可行性,其实,机器人通过图灵测试已经是指日可待的事。这里面还有一个有趣的悖论,机器人若自己已经通过图灵测试,它就已经跨入人的行列,它何必还遵循该死的“紧箍咒”三大定律呢。更可怕的是,不排除有很多无辜的人类,由于发神经或先天性处于边缘智力的缘故而通不过图灵测试,这样一来,已经通过图灵测试的机器人是不是也会产生一种道德上的优越感而命令人类服从三大定律呢。如此看来,以简洁明了、感性闻名于世的图灵测试的危险性绝不亚于以简洁明了、理性而彪炳史册的阿西莫夫三大定律。

  人类很早就明白,概念的自指容易导致大脑当机。只给那些不给自己理发的理发师如何才能给自己理发这样的问题已经让N个哲学家疯掉了,但生活中的普通人从来没有这样的烦恼。因为他们明白:珍爱生命,就应远离国足与无穷循环。

  后来又补充了机器人零定律:为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。

  最后,我们来说下伤害。什么是伤害,伤害是指物理上的还是精神上的,伤害范围和程度如何界定,轻微的划痕和碰撞是否属于伤害,修剪指甲和理发是否属于严重伤害。这种由某类人来决定的范围怎么可以成为一个通用的法则呢?

  三定律加上零定律,看来堪称完美,但是“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”

  当毒蛇咬了自己手指,果断砍掉这截手指才能保住小命。这是一个很浅显的道理。当腐女在家看电视把腿烂掉,换一条合金纳米材料复合式轻型假肢才是正经事。我还是我,不会因为丢掉一部分而丧失整个的我。但丢掉N部分呢?我家祖传一把斧子,我爷爷换掉了它的斧头,我爸爸换掉了它的斧柄,我继承的还是那把号称是皇帝亲赐的斧子吗?无聊!斧子是斧子,人是人。斧子没有记忆,人有!斧子没有自我意识,人有。但,机器人呢?机器人有吗?

  从三大定律来看,如果机器人没有自我意识,三大定律就不存在、自我解体了。机器人当然有。既然机器人可以有自我意识,那么不能以是否具有自我意识来判定是否是“人”,当然,动物也有自我意识。

  好的,机器人有自我意识,但它能明白剜骨疗伤这样的道理吗?“剜骨”与“截肢”无疑是“自我伤害”,但这种自我伤害正是为了保证整体的我不受伤害。程序员很容易让机器人明白,用螺丝刀扭下一条金属胳膊是无害的,甚至把身体的各个部件拆下来更新换代,也是有益的,这叫“新陈代谢”,即便是全身大翻修也是无关紧要,重要的是芯片,保管了它的记忆、智能程序及情感模块的芯片才是最重要的,那么换做给人做成功率更高的手术算不算是伤害呢?。

  所以说机器人三大定律概念不清,正是因为这种概念不清才导致出现了各种各样危险的机器人。

  第一定律说,机器人不得伤害人类,或因不作为使人类受到伤害。假如两人互相斗殴,机器人应当选择帮谁呢?加入任一方都违反第一条前半部分,不加入却又违反第一条后半部分。

  为了解决这个问题,阿西莫夫对此定律作了修正,他提出“第一定律潜在值”(firstlawpotential)的概念,意即在智慧机器人的“正子脑”中,第一定律可能引发两种潜在的选择,而哪一种选择的结果更好、成功率更大,哪一种选择就会胜出,这一点有点类似于达尔文神经主义。这样一来,女孩子常喜欢问的“我与你妈掉入河中你先救谁”的史上最难问题得以解决,机器人给出的答案是“救你”!因为你更年轻健壮,把你救上岸的可能性较大。“救你”你很高兴,但是不被救的人会高兴么?

  第二定律,除非违背第一定律,机器人必须服从人类的命令,于是主人说你帮我去抢银行吧,抢银行也是一种工作,不违反第一条,那么机器人一定是去抢银行或者。那么这种违法的事情算不算违背第一定律?

  第三定律, 除非违背第一及第二定律,机器人必须保护自己,欺骗算不算是违背第一第二定律?比如机器人给出虚假答案甚至制造虚幻生活的环境,算不算违背第一第二定律。

  第零定律, 阿西莫只是偷换了概念,把第一条的个人换成了人类,但是人类之间是有不同的利益团体构成的,如果两个集团发生武装冲突,但是其结果必定是:任何一方都认为自己是正义的对方是邪恶的,双方都研发自己的机器人并将其投入战争,然后开始做着伤害人类的事情。

  就结果然机器人做和不做都不对,如果做的话就意味帮助一部分人伤害另一部分人,如果什么也不做的话机器人也就没有存在的意义了,因此三大定律自身就存在着严重的逻辑矛盾。

  也许很多人觉得三大定律非常完美,实际上却是非常庸俗的一种想法,举一个简单的例子来说,言情故事中,女朋友对男朋友提出的要求不就是这三条么:

  别说庸俗的言情故事,你就养个宠物也是这基本要求啊:1、别咬我;2、乖;3、别把自己搞挂了。所以很多人说三大定律没什么新花样,是对人工智能发展没有什么值得借鉴的“约法三章”,相对庸俗。

  机器人三大定律建立的基础就有着本质的错误,三大定律把人想象成了奴隶主,而把机器人当成了听话的奴隶。这种基于有缺陷的伦理框架(义务伦理)本身就有着很强内在的对抗性,所以才不被研究者接受,我们之所以歧视机器人的原因是因为机器人是由机器发展而来的,他的躯体是硅做的,不是血肉之躯,所以他们就必须遵从人类的需求,不管他们有多么强大的能力也没用。阿西莫夫的未来社会是光天化日的基质沙文主义,人类拥有的权利比人形机器人的权利更多。

  既然机器人像人,那么他为什么就不能像人一样的对待,既然机器人像神(魔)他为什么就不能像神(魔)一样对待。一个弱智的人残忍的对待它的宠物,也许他本身很没有发觉,但是作为更聪明的你真的觉得这是正确的么?

  为了防止人类制造千奇百怪的机器人,彻底杜绝终结者的出现,于是我们开始强调对机器人制造者和使用者加强管理,问题不在于机器人,而在于制造它们的人类。真正的危险在于人类迫使机器人的行为超出了它们的判断决策力。 于是有人提出的新三大定律是:

  第一,人类给予机器人的工作系统应该符合最合法和职业化的安全与道德标准;

  第二,机器人必须对人类命令做出反应,但只能对特定人类的某种命令做出反应;

  第三,在不违反第一定律和第二定律的前提下,当人类和机器人判断决策力之间的控制能顺利转换时,机器人对其自身的保护应有一定的自主性。

  虽然这可能会导致“天网”的出现,但也意味着,一辆机器人控制的汽车不会开向险崖,也不会出现突然的猛烈转弯。

  伍兹说,许多有关于机器人更危险的预测是于机器人软件开发者们的想法造成的,这些人不了解制作软件的危险,而当他们的机器人变得像«银河系漫游指南»中的一样(患有忧郁症),他们也不愿意承担这个责任。

  加强制造者的管理,放弃人工智能的研发。那么问题来,即便是法律明令禁止的核生化或者核武,军方会不会去做,所谓的犯罪分子会不会去做? 假设我们生活在一个爱好和平的国度里,大家都不生产武器,但是核武器来了怎么办?你愿意任人宰割么?只是人工智能变成了另一个侵略者而已。

  如何建造安全AI?既然定律路线行不通,那么应该怎样保证AI不会毁灭人类呢?很少有人相信能造出一个百分之百安全毫无隐忧的系统,但这对于大部分人来说并非什么困扰,因为说到底,人生中也没什么东西是百分之百的。

  那些在阿西莫夫机器人三定律基础上加以修改得出的所谓“完善”一点的定律,其实也并不完美,而且走向了穷尽所有可能去制定规则的误区。 试想,连人类(指令制定者)都无法判断是否正确的行为,机器人如何能够得出正确的结论呢? 在这个问题没有解决之前,谁能说机器人做错了?当一群聪明的原始人发明语言的时候,他们是等到一套成熟的语言形式理论出现、用它预测了语言引入社会后的未来影响,然后才动手的吗?

  其实有一种理论正在实践慢慢中,那就是人机混血(人机结合),人机混血开始于古代猿人对工具的使用,随着科技的进步人们对工具越发的依赖,现在人们已经进入了人机共处的时代,尤其是义肢(如人造器官或者整容)和存储器(知识和计算)的进步则让人与机器之间的结合变得更加紧密,取长补短,如果人类继续聪明下去的话就会选择更好的人体(机体)来更好的生活。

  至于未来是谁更有发言权,还是取决于谁更强大,优秀的生命得以繁衍这是亘古不变的道理。

本文链接:http://doctor-7.com/gaosupenshe/133.html