找回密码
 FreeOZ用户注册
查看: 36282|回复: 370

[业界新闻] 人工大脑之父放言:50年后机器人威胁人类(请热爱AI的同学们关注本帖的后续精彩讨论)

[复制链接]
发表于 29-6-2009 19:03:18 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?FreeOZ用户注册

x
FROM:CnBeta
昨天晚上,被誉为“人工大脑之父”的雨果·德·加里斯教授走进清华大学讲堂,在两小时的演讲时间内,给大家描述了一个“人工智能的世界”:“可能 20年、30年后人工智能机器就可以和人做朋友了,但50年后,人工智能将成为人类最大的威胁.世界最终会因人工智能超过人类而爆发一场战争,这场智能战 争也许会夺去数十人的生命.”这种听起来像“骇客帝国”一样的描述却是建立在科学研究的基础上.
他的著作《智能简史》已经由清华大学出版社翻译成中文正式出版.

                               
登录/注册后可看大图


2000美元就能“制造大脑”

雨果被称为“人工智能领域的霍金”,世界仅有的4个人工智能机器均出自雨果之手.人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”.他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络,可以处理将近1亿个人工神经元.它的计算能力相当于一万台个人电脑.在2000年,人工大脑就可以控制“小猫机器人”的数百个行为能力.

制作人工大脑的研究现在发展得很快,上个世纪制造人工大脑需要数十万美元,而现在做这个工作只需要两千美金.雨果说要感谢“摩尔定律”,因为它降低了研究成本,使他可以进行“便宜的大脑制造”.

人工大脑迟早会超过人类


雨果认为,“人工大脑”迟早会超过人类.人脑的转换能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的 10的24次方倍.“那时候他们对待人类可能就像拍死一个蚊子这么简单.”雨果预测,人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期.这一时期它不断接近但尚未超越人的智力水平,因此“聊天机器人”、“家务机器人”、“伴侣机器人”将使人类的生活充满乐趣.但这样的美景并不会长久,人工大脑的继续发展将使人类面临灾难.

在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人).也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争.

“这不是天方夜谭,一切变为现实只是时间问题,也许你的孙子一代就将经历这样的事情.”雨果说,早在2000年,他就打响了“人工智能战争史上的第一枪”,他用一支玩具手枪将人工智能芯片打入了控制论学者凯文·沃里克博士体内.依靠这枚芯片,沃里克博士无需张口说话就能与自己的妻子进行意识交流.

“从内心深处说,我是一个宇宙主义者,因为如果有能力而不去做,对一个科学家来说是痛苦的.但我又非常矛盾,因为我不希望自己所做的一切最终毁灭人类.”在雨果眼中,人工大脑研究无疑是极具诱惑力的,因为它可以使人造胚胎、飞秒开关、一进制等科学理想成为现实.但雨果对人类的未来却是悲观的:“ 我们是在制造上帝还是在制造我们潜在的终结者?科技前进的脚步是挡不住的,也许我们只能期望,人工大脑最终能放弃地球去更广阔的宇宙,让人类在这里继续自由生存.”

[探索新知]雨果·德·加里斯,世界顶尖级科学家,被誉为“人工大脑之父”.雨果教授在世界上开创了“可进化硬件”研究领域,是“进化硬件和进 化工程学”的奠基人(而这些是人工大脑领域的启动技术),也被誉为人工智能领域的斯蒂芬·霍金.

他还是2001年法国巴黎世界第一届物种优势大会主发言人;曾是美国犹他州、比利时布鲁塞尔、日本东京等重点实验室的人工智能带头人,他负责完成了世界上四个“人工大脑”中的两个,一个在日本、一个在比利时.其中在日本的人工大脑与家猫的智力相当,2000年雨果从布鲁塞尔政府获得100万美金的研究资金,回到比利时布鲁塞尔制造人工大脑,控制有数百个行为能力的 机器人.

雨果出生于澳大利亚悉尼,在墨尔本大学获“应用数学”和“理论物理”两个荣誉学士学位,后赴英国牛津大学学习.随后在布鲁塞尔大学研究生毕业,学习人工智能,机器学习.1987年-1991年,师从“机器学习”开山鼻祖Rrszard Michalski教授,在乔治•梅森大学(GMU)人工智能中心作研究员.1992年在该大学完成博士学位,在全欧洲自然科学和工程学,评选出最具成就的60名博士候选名单中,他名列前10.
回复  

使用道具 举报

 楼主| 发表于 29-6-2009 19:06:50 | 显示全部楼层
在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人).也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争.


偶提前宣布,那一天来领的时候,偶要将自己改造成机器人,欧耶!
回复  

使用道具 举报

发表于 29-6-2009 19:13:25 | 显示全部楼层
地球主义者 = 地球教? 杀死杨威利的邪教徒
回复  

使用道具 举报

 楼主| 发表于 29-6-2009 19:16:15 | 显示全部楼层
原帖由 ritz 于 29-6-2009 19:13 发表
地球主义者 = 地球教? 杀死杨威利的邪教徒


这可能是很多现有宗教的发展方向,他们也许不会容忍人类做了一些只能上帝才有权做的事
回复  

使用道具 举报

发表于 29-6-2009 20:40:55 | 显示全部楼层
原帖由 ritz 于 29-6-2009 17:13 发表
地球主义者 = 地球教? 杀死杨威利的邪教徒


哇哈哈哈哈
回复  

使用道具 举报

发表于 29-6-2009 20:56:07 | 显示全部楼层
我怀疑这位雨果已经将自己改造成机器人了。现在慢慢的被“人工大脑”控制。嘿嘿。
回复  

使用道具 举报

发表于 29-6-2009 23:05:58 | 显示全部楼层

回复 #6 stellahie 的帖子

楼上的,给你出一道智力题。

如果让你和某个ID的网友通过网络聊天,你怎样才能判断出对方是机器人还是真人呢?
回复  

使用道具 举报

发表于 30-6-2009 00:11:50 | 显示全部楼层

回复 #7 liuhuey 的帖子

不知道。

为什么要分辨?把那个网友当Wikipedia用挺好的啊。
回复  

使用道具 举报

发表于 30-6-2009 00:52:56 | 显示全部楼层
再怎么威胁,等他没电了,就是废铁一堆,什么都不是。
回复  

使用道具 举报

 楼主| 发表于 30-6-2009 00:56:06 | 显示全部楼层

回复 #10 carl181818 的帖子

机器人说:人再怎么厉害,几顿饭不吃,几天水不给,几分钟空气不给,就是一堆烂肉。

而我们机器人晒晒太阳就行了。
回复  

使用道具 举报

发表于 30-6-2009 00:59:57 | 显示全部楼层
也是啊,你说的对。那就应该在机器人内部做个什么紧急自我爆炸装置,威力不大,损坏CPU即可,由人来控制。
回复  

使用道具 举报

发表于 30-6-2009 01:02:08 | 显示全部楼层
殊途同归,我现在在和他做类似的事,只是道路不同,好像他跟我前一段的预言时间也差不多啊,同样认为几十年内就可能有超越人类智能的人工智能出现。不过我还是抱着侥幸心理,让机器人替代人类的过程最好通过渐进,平和的方式进行,或者通过人和人工智能相融合的方式。

按他的分类,我貌似也属于宇宙主义者,相信人工智能是地球文明的更高级发展阶段。虽然我也乐于接受控制论者的方式,把人和人工智能融合成一体。完全的抗拒人工智能是不可能的,我完全理解他所说的,作为一个科学家,你不可能停止对更高水平的人工智能的探索。
回复  

使用道具 举报

发表于 30-6-2009 08:48:01 | 显示全部楼层
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为
自己得到了永生。而不那么抗拒与人工智能体融合。

评分

参与人数 2威望 +35 收起 理由
ynggnptwlv + 15 我想起我的高考作文了,假如记忆可以移植
y12345678 + 20 太厉害了,我从来没想到过还可以这样。。。 ...

查看全部评分

回复  

使用道具 举报

发表于 30-6-2009 09:06:25 | 显示全部楼层
回复  

使用道具 举报

发表于 30-6-2009 11:17:06 | 显示全部楼层
原帖由 青山 于 30-6-2009 08:48 发表
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...

不是一般的佩服
回复  

使用道具 举报

发表于 30-6-2009 11:35:53 | 显示全部楼层
原帖由 青山 于 30-6-2009 08:48 发表
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...


我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。

我也不追求永生。

不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。

可能吗?机器人会不会也有人类的劣根性?
回复  

使用道具 举报

发表于 30-6-2009 11:42:42 | 显示全部楼层
其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。

机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。

比如人类喜欢蓝天白云,绿树红花。机器人可能更喜欢大沙漠。
或者干脆把地球表面变成金属或者混凝土外壳,因为那里阳光充足,
能量容易取得。机器人可能不喜欢水。当然,也可能由于科技更加
先进,机器人并不是我们现在想像的金属材质,而是新的材料构成。


原帖由 stellahie 于 30-6-2009 11:35 发表
我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。

我也不追求永生。

不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。

可能吗?机器人会不会也有人类的劣根性?
回复  

使用道具 举报

发表于 30-6-2009 11:45:27 | 显示全部楼层
这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被一群跟人长得差不多的像终结者那样的机器人所控制。

其实我认为最危险的,是把人工智能用于战争。这可能会产生最坏的
情况,就是当人工智能还不够完善,只会杀戮,不能自我发展和完善
之前,就把人类消灭掉,那就真是地球文明的终结。
回复  

使用道具 举报

发表于 30-6-2009 11:56:33 | 显示全部楼层
原帖由 青山 于 30-6-2009 11:42 发表
其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。

机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。

比如人类喜欢蓝 ...


没有郁闷。我是什么主义者?这点倒还没一个特定的立场。

我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?

人类那么有把握控制这种人工智能吗?

当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。

另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。
回复  

使用道具 举报

 楼主| 发表于 30-6-2009 11:58:45 | 显示全部楼层

回复 #20 stellahie 的帖子

科学家们到底是抱着什么样的心态
----------不是科学家们的心态问题,而是人类的本性注定了对科学的探索不会停止
回复  

使用道具 举报

发表于 30-6-2009 12:00:37 | 显示全部楼层

回复 #21 coredump 的帖子

那说说是那些本性?
回复  

使用道具 举报

发表于 30-6-2009 12:16:39 | 显示全部楼层
其实早在初级电脑开始发展的时候,就有过类似的“争吵”了。

看看现在,电脑已经成了一种不可或缺的“日常用品”。这种趋势阻止不了,因为人类认识到了电脑带来的好处与方便。

当然,也有些人会去思考这种趋势发展下去的问题。嚷嚷人类最终将被电脑控制,本能将会逐渐退化。。。

貌似,大势所趋,回不了头。
回复  

使用道具 举报

发表于 30-6-2009 12:27:42 | 显示全部楼层
人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?

人类不要指望完全控制这种人工智能,那只能导致错误的判断。而这种错误的判断,可能使人类
到人工智能文明的过渡,从平和渐变的,变成暴力血腥的。我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。

当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。

原帖由 stellahie 于 30-6-2009 11:56 发表
没有郁闷。我是什么主义者?这点倒还没一个特定的立场。

我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?

人类那么有把握控制这种人工智能吗?

当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。

另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。
回复  

使用道具 举报

发表于 30-6-2009 12:34:33 | 显示全部楼层
原帖由 青山 于 30-6-2009 11:45 发表
这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被 ...



我觉得很大可能性,这种新技术会被首先用于军事!
回复  

使用道具 举报

发表于 30-6-2009 12:35:22 | 显示全部楼层
如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。

我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。

原帖由 清风不写字 于 30-6-2009 12:34 发表



我觉得很大可能性,这种新技术会被首先用于军事!
回复  

使用道具 举报

发表于 30-6-2009 12:39:59 | 显示全部楼层
原帖由 青山 于 30-6-2009 12:27 发表
人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?

人类不要指望完全控制这种人工智能,那 ...


我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?

因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?

“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?

“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。
回复  

使用道具 举报

发表于 30-6-2009 12:44:18 | 显示全部楼层
原帖由 青山 于 30-6-2009 12:27 发表
我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。

当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。


真的。我也希望这样。

我也不想见到父子相残,争财产等的事情发生。。。唉!
回复  

使用道具 举报

发表于 30-6-2009 12:51:16 | 显示全部楼层

回复 #28 stellahie 的帖子

天马博士可是人工智能的狂热追捧者,他的儿子车祸后就被他改造成为了阿童木。

他那句著名的话就是:机器人将成为超越人类的存在,而阿童木将成为机器人的领袖。

评分

参与人数 1威望 +5 收起 理由
stellahie + 5 你终于出现啦。:D

查看全部评分

回复  

使用道具 举报

发表于 30-6-2009 12:57:37 | 显示全部楼层
生物本身就有扩张的本能,因为从大尺度来说,生物需要面对其他生物的竞争,不扩张就会灭亡。
人类如果不能超越地球本身,早晚会被来自其他世界的其他生物征服或者消灭。闭关自守,从来
都不是可以自安的途径。

当然不受人类控制的人工智能更危险,但是试图去控制一个比人类聪明10000倍的智能体,根本
就是不可能的任务。只会带来不必要的仇恨和痛苦。

很多人不会对自己不了解的事物感到恐惧,更不会因为恐惧而停止探索。至少我知道我自己就是
这样的人。那些传教的人来问我,你有什么困惑么?我回答他们,我的困惑就是我没有困惑。




原帖由 stellahie 于 30-6-2009 12:39 发表
我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?

因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?

“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?

“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。
回复  

使用道具 举报

发表于 30-6-2009 12:58:13 | 显示全部楼层
原帖由 青山 于 30-6-2009 12:35 发表
如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。

我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。



国家之间的利益争端没有一日停息过,如果那个国家掌握了这种技术,政府能管得住自己不用于军事?
看看核弹是怎么产生的。

科学家们其实非常容易被政治利用的。

[ 本帖最后由 清风不写字 于 30-6-2009 12:59 编辑 ]

评分

参与人数 1威望 +10 收起 理由
stellahie + 10 赞同。

查看全部评分

回复  

使用道具 举报

您需要登录后才可以回帖 登录 | FreeOZ用户注册

本版积分规则

小黑屋|手机版|Archiver|FreeOZ论坛

GMT+10, 26-4-2024 12:25 , Processed in 0.073646 second(s), 46 queries , Gzip On, Redis On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表