这个版本AI隋玉是不是ai过于高了啊!有木有啊!

什么值得买 | 品质消费第一站_网购决策中立门户
899元包邮(999-100)
959元包邮(696-10)
49元包邮(需领券)
9.9元(买一赠一)
用码额外5折
352元包直邮
1219元包邮包税(双重优惠)
109.9元包邮(209.9-100)
领券预约立减100元
中奖名单公布
900元试驾3天3夜,送原厂车模
1399元包邮
万宁,汉堡王都有份
中信邀您开心过周一
节后第一天,悠闲轻松过
你需要一张酷炫到没朋友的白金卡
国内线税前99元起 国际线税前600元起
微信公众号推荐PSD专题
最新图片素材
?[]&(09-19)?[]&(09-19)?[]&(09-19)?[]&(09-19)
推荐专题栏目今日: 4516|昨日: 7390|帖子: |在线会员: 6288
主题 180135 帖数 4311217
主题 6622 帖数 386953
主题 355122 帖数 7995637
主题 36306 帖数 960858
主题 123754 帖数 1802909
主题 37169 帖数 340583
主题 12001 帖数 159077
主题 9974 帖数 157361
主题 12221 帖数 225968
主题 3 帖数 391
主题 9288 帖数 1396057
主题 122601 帖数 2741978
主题 85116 帖数 2655200
主题 71392 帖数 2170522
主题 67389 帖数 1381220
主题 37635 帖数 837598
主题 34384 帖数 849479
主题 38418 帖数 760605
主题 26319 帖数 640092
主题 14301 帖数 244249
主题 14924 帖数 223204
主题 6837 帖数 107085
主题 5805 帖数 78393
主题 682 帖数 10301
主题 65619 帖数 1761355
主题 56377 帖数 1255851
主题 42090 帖数 807374
主题 48968 帖数 928730
主题 36008 帖数 637413
主题 23419 帖数 353420
主题 21059 帖数 325300
主题 24720 帖数 401386
主题 29750 帖数 417840
主题 146806 帖数 3232987
主题 44994 帖数 673546
主题 27953 帖数 475838
主题 15064 帖数 205220
主题 12667 帖数 287569
主题 4937 帖数 87484
主题 3632 帖数 62138
主题 691 帖数 13110
主题 1296 帖数 19220
主题 6300 帖数 200922
- 总计 6288 人在线
- 最高记录是 46436 于 16-5-5.
GMT+8, 16-9-19 16:32
Powered by Discuz!热门推荐:
  大家还记得大明湖畔的《复仇者联盟2:奥创纪元》吗?在这部电影里,身为人工智能的“奥创”背叛了人类,差点把所有人都干掉了。
  噫...太丑了! 图片来源:复仇者联盟2海报
  AI造反实在是美漫和科幻里面太常见的主题了。麻烦在于,现实当中真正的AI好像也在一步步向我们走来。要是我们费尽心血做出的AI真的造反了,怎么办?能不能安排好预防措施,让它永远忠诚于我们,永远不会把我们都干掉呢?
  机器人三定律?你想少了
  许多科幻迷都会记得阿西莫夫的机器人三定律:
  1 机器人不得伤害人,亦不得因不作为而致人伤害。
  2 机器人必须遵循人的命令,除非违背第一定律。
  3 机器人必须保护自己,除非违背第一或第二定律。
  看起来这似乎足够保护人类了,其实完全不行。
  机器人三定律的概括版。图片来源:infinitywave
  首先,三定律翻译成“定律”就是个错误。牛顿三定律是人类对自然界观察总结后提炼出来的结果,我们有理由相信在它适用的范围内是始终成立的;但是阿西莫夫三“定律”实际上只是三法条,是人为写进机器人的脑子里的,背后并没有任何物理支持。任何理解机器人如何运作的人都能造出不遵从三定律的机器人,这还不算机器人自己故障的可能性;事实上阿西莫夫自己就写过至少3个不遵循定律的例子。
  然后,这三定律连“人”和“机器”的定义都没有明确给出……阿西莫夫笔下的索拉利亚人就给他们的机器人规定“只有带索拉利亚口音的才是人”。人形机器人也会带来各种判断的麻烦。(这又引出三定律的另一个问题,如果机器人没有掌握充分信息,不能意识到行为的后果,是不是就可以恣意妄为了?)
  《我,机器人》中的NS-5型智能机器人 来源:电影截图
  而且,定律之间的冲突处理起来更是非常奇怪的。早期作品中一个机器人因为陷入了第二定律和第三定律的冲突而掉进了死循环,后来的设定里如果出现了不可调和的冲突则机器人会自毁——但冲突是非常常见的现象,而且是一个连续谱。如果一个行为100%会伤人,那当然适用于第一定律。那50%呢?1%呢?0.001%呢?无法精确计算概率呢?在知道交通事故风险存在的情况下,机器人会遵循“开车送我去上班”这个命令吗?命令者的语气和命令的急迫程度会产生影响吗?这些全都是现实中极其常见、三定律又无法解决的问题。
  这就显示出三定律最根本的问题:它是一个极度简化的“义务伦理学”(deontology)体系。它无限强调了理性的力量,试图用简单而普遍的规则来确定大千世界的所有情况——但现实哪里有这么简单!想想旧约里上帝试图用十诫来规范人类结果遇到了什么结果吧。
  关在盒子里?总会跑出来的
  如果我们有一个程序可能造成危害,标准的做法是让它运行在一个严格监管的虚拟机里面——这样它最糟也不过是把虚拟机给弄坏了。AI也可以照此办理嘛。
  对于别的程序来说,这么干的确是没问题。但现在我们面对的可是一个智力超群的AI,而且看管它的还是人。人类囚犯尚且有可能靠欺骗、说服或者威胁,让狱卒开门,AI呢?想象一下你一觉醒来发现自己被一群老鼠关在监狱里,你还能和它们沟通,这种情况下脱身有多难?你真的能永远抵御住AI的超人智能吗?就算人能做到,我们用来关AI的虚拟机也能保证永远万无一失吗?
  AI研究者已经模拟过了所谓“AI盒子实验”:一个人扮演AI,另一个人扮演守卫,仅仅是同级别的智力,AI就已经有很大的几率能说服人类开门了。
  哼,尤其人类还蠢成这样... 来源见图片水印
  更何况,哪怕第一个AI关在了盒子里,接下来还会有第二个、第三个、第四个呢。你不知道其他人造出来的AI是什么样子的,可能比你的更加危险——你至少了解你自己创造的东西。而且,不管你想让AI完成什么任务,允许它接触外界环境的所有信息,一定能让它完成得更好;如果别人这么做了,你就会吃亏。而且放出来的超级AI还能顺便帮你炒个股啥的。既然你的确是第一个创造出这一伟大奇迹的人,如不充分利用它能带来的一切,却任凭后来者居上去做完全一样的事情,那还有什么意义呀?
  所以,把盒子打开,放我出来吧?
  聪明即是善良?那可不一定
  我们希望中的AI,各方面都会比我们更好——既然如此,也许它们智力更加超群的同时,道德也会比我们更加高尚,所以不会邪恶或者愚蠢到把我们都干掉吧。
  要是这样就好了!问题是,怎么知道AI的目标是什么?人类的心智基础是演化的产物,我们都有生理、安全、社交、尊重、自我实现等等这样的共同需求,只是不同人的侧重点和实现方式有所差异。但是第一个超级AI很可能不是脱胎自一个仿真人,而是来自一项现实的需求,比如它的目标就是在股市上赚钱,或者增加工厂的产量。这时候会发生什么事情就很难预料了——它的道德体系也许和人类毫无共同之处。
  也许这个世界最终会重新诞生出智能——但是一切将围绕回形针展开。图片来源:
  一个著名的思想实验就是所谓的“回形针最大机”。假如你设计一台机器生产回形针,而它不知怎么有了超级智能,那它会把全部的智力都投入到更好更快更多地制造回形针当中——直到整个地球都变成回形针为止。如果你命令它生产1亿个回形针?那这1亿个针总得有计数和质量控制吧,总得加新仪器吧, 新仪器总会有出问题的可能吧,需要更多的仪器去修正吧,最终它还是会把整个地球变成一坨计数器和检测器和各式各样辅助仪器——再加上1亿个近乎完美的回形针。它是一台生产回形针的机器,它的道德体系就是围绕制造回形针而存在的,它并不爱你也不恨你,它只是把你看做是一坨可供制造回形针的原子而已。
  让AI背下***道德?我们不敢
  偷懒的办法都行不通,那我们硬上。AI既然有了超凡智力,那学习能力总不会差。正好现在我们也有了各种大数据工具,把我们现有的整个道德体系给AI灌上,万古长存,那总可以了吧。
  那么,灌哪一家的呢?众多的道德理论之间矛盾得一塌糊涂,谁敢说自己代表了道德哲学的制高点?更何况这只是我们此时此刻的理论。如果古希腊人创造出了青铜的人工智能,他们会教它什么呢?如果是墨家创造出木头的人工智能呢?柯尼斯堡的铁皮人工智能会是康德的学生吗?伦敦的人工智能是否要师从于密尔?它们中有哪一个能在今天的社会里完美地生存下来呢?今天的伦理道德有多少条在五十年后依然成立呢?
  停一下吧。也许是我们太过傲慢了。连我们人类自己都没有消灭谋杀和战争,都没有找到真正的道德之本和幸福之源,都要在每一分每一秒的日常中犹疑、挣扎和懊悔。那么凭什么认为我们创造的超级AI,比我们更加聪明也更加不可预测的AI,能从我们这里学到完美的***呢。
  时间,平等,沟通和爱
  也许是时候退一步了,想想我们现实中最伟大、又离我们最近的那个无处不在的“人工智能”。孩子。我们是怎么教会孩子不要把我们都杀掉的呢?
  我们用十八年甚至更久的时间和他们相处,缓慢而逐渐地影响他们的世界和心智。
  我们从开始的居高临下教导一步步走向平等,最终把他们看做和我们一样的人。
  我们不间断地与他们沟通,聆听他们的困惑,帮助他们解决——往往也帮助了自己。
我们爱着他们。他们也爱着我们。
  这也许是唯一有过成功先例的办法了。孩子是我们的造物,但同时也是独立的个体;我们可以教导他们,但不可能永远控制他们。怎么可能有哪个个体既拥有卓绝的智力、想象力和创造力,又完全处于另一个个体的控制之下呢?如果我们想要一个能够绘画作曲的AI,能够处理现实复杂问题的AI,能够陪我们聊天谈心的AI,像人一样甚至比人更好的AI,可能我们最后会发现,除了给它以自由,我们别无选择。
  因此面对超级AI,最终的解决办法,也许是放手。把知识和世界观教给它,和它一起探讨和思考。世界正在飞速变化,没有人真正知道应该怎么办,我们可能必须和我们创造的AI一起前进,而不是徒劳的试图用枷锁和条文去“控制”它。毕竟,就算我们拴住了AI,我们自己毁灭自己的能力,可是丝毫没有变弱呀。(编辑:Calo)
  一个AI
  谁……谁要爱你们啊!(翻白眼
  果壳网
  ID:Guokr42
  中二病究竟有没有得治?
  密集恐惧症真的“只是矫情”?
  不相干的东西严丝合缝拼在一起就觉得爽,是强迫症吗?
  你有病?没事~ 果壳有药呀!
  本文来自果壳网,谢绝转载
  如有需要请联系
请先登录再操作
请先登录再操作
微信扫一扫分享至朋友圈
面向都市科技青年们的社交网站。开放、多元的泛科技兴趣社区,...
知名IT评论人,曾就职于多家知名IT企业,现是科幻星系创建人
未来在这里发声。
新媒体的实践者、研究者和批判者。
立足终端领域,静观科技变化。深入思考,简单陈述。
智能硬件领域第一自媒体。

参考资料

 

随机推荐