black_zerg 发表于 22-12-2008 22:19:48

我总之是认为还差的远,也许几百年内能造出来甚至一般人分辨不出来的反应外观一模一样的机器人(硬编程,模仿到非常像),几千年能造出来会自己学习的机器人。但是很遗憾,人和机器还是会不一样。人的主观意识也许永远会是一个迷,就像我永远没法理解我为什么生来就在这个躯壳里一样。 而且我总觉得去把人类想成机器去分析是很伤心的一件事情。

coredump 发表于 22-12-2008 23:06:14

回复 #31 black_zerg 的帖子

http://zh.wikipedia.org/w/index. ... %BD&variant=zh-hans

LS和青山是人工智能的两类典型观点:强人工智能和弱人工智能

强人工智能观点认为有可能制造出真正能推理(Reasoning)和解决问题(Problem_solving)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:

    * 类人的人工智能,即机器的思考和推理就像人的思维一样。
    * 非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。

弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。

强人工智能的研究目前处于停滞不前的状态下。人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解强人工智能和弱人工智能的内容与差别。就现下的人工智能研究领域来看,研究者已大量造出看起来像是智能的机器,取得相当丰硕的理论上和实质上的成果。

有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如Simon Blackburn在其哲学入门教材 Think 里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。Blackburn 认为这是一个主观认定的问题。

需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在百多年前是被认为很需要智能的。
这段话和青山上面说的如出一辙:lol

Linus 发表于 23-12-2008 10:03:59

"我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。Blackburn 认为这是一个主观认定的问题。"

----------非常赞同这样的观点,这其实正是为什么关于智能和意识之谜如此的难以琢磨难以下手,我们通常研究事物的方法在这里都失去了效果。要走的路还很长。

----------乌鸦其实是白色的,只不过它看起来像黑色的。

----------石头其实是有智能的,只不过它的“行为”看起来像没有智慧的。


不能否认人工智能的研究确实很了不起,今后也将实现很多不可思议的成就,但是不应该夸大它。

青山 发表于 23-12-2008 10:14:06

几百年?人类几百年前啥样子?呵呵。我更关心我有生之年能否看到。:lol 这个可能
并不小。编程模拟智能,并不是普通意义上的那种程序。人工智能自学习的能力,会
比看上去像人的机器人先出现。

人和机器不一样是肯定的。因为从成本考虑,多数应用没必要把机器做得和人一模一样。
就像汽车代替人的腿,我们没必要做一个两条腿跑的汽车一样。

我觉得把人想成和机器本质统一,是一件好事情。只有这样,人类才能升华,脱离动物
的很多无法超越的限制。最终,人类文明只要把自身的知识和世界观传承下去就可以了。
也许500年后,人类已经不是现在这种动物形态了呢。也许那才是人类文明发展的高级
阶段。


原帖由 black_zerg 于 22-12-2008 22:19 发表 http://www.freeoz.org/forum/images/common/back.gif
我总之是认为还差的远,也许几百年内能造出来甚至一般人分辨不出来的反应外观一模一样的机器人(硬编程,模仿到非常像),几千年能造出来会自己学习的机器人。但是很遗憾,人和机器还是会不一样。人的主观意识也许永远会是一个迷,就像我永远没法理解我为什么生来就在这个躯壳里一样。 而且我总觉得去把人类想成机器去分析是很伤心的一件事情。

[ 本帖最后由 青山 于 23-12-2008 10:21 编辑 ]

stock99 发表于 23-12-2008 11:02:55

有沒有任何關於人工智能的研究,是專注於"情感(emotion)"方面的?

青山 发表于 23-12-2008 11:08:02

现在的重点还没到这一步,先要有自主学习和逻辑能力,才能谈得上情感。
其实情感并不是最难的。属于锦上添花的东西。



原帖由 stock99 于 23-12-2008 11:02 发表 http://www.freeoz.org/forum/images/common/back.gif
有沒有任何關於人工智能的研究,是專注於"情感(emotion)"方面的?

Linus 发表于 23-12-2008 13:20:23

原帖由 青山 于 23-12-2008 10:14 发表 http://www.freeoz.org/forum/images/common/back.gif

人和机器不一样是 ...

不把人想成和本质上和机器统一的,人类才能升华,望远镜不过是我们视觉的延伸,汽车是我们腿的延伸,电脑是我们运算能力的延伸,。。。。。这一切不过是我们感知和控制能力的扩展,把这一切都想成是机器为人服务?还是机器为机器服务?------各人可以有自己的选择。

Linus 发表于 23-12-2008 14:26:19

不过还是有件好奇的事,当这种“模拟智能”出现的时候,它应该是像软件一样可以复制销售的吧?那么这种复制出来“智能”会是各自有个性的呢?还是全部都是一样的呢?如果全部都一样,怎么去说服消费者这是一种“智能”?如果是各自有个性的,消费者花一样的钱买到不一样的东西的话,也是会惹麻烦的。-----------闲谈而已 :lol :lol

青山 发表于 23-12-2008 18:22:12

当这些智能能够自学习的时候,虽然出厂时是一样的,随着后续的自学习,就会有差别。
到时候,人们难保看中的,不会是它们的个性呢。:lol

原帖由 Linus 于 23-12-2008 14:26 发表 http://www.freeoz.org/forum/images/common/back.gif
不过还是有件好奇的事,当这种“模拟智能”出现的时候,它应该是像软件一样可以复制销售的吧?那么这种复制出来“智能”会是各自有个性的呢?还是全部都是一样的呢?如果全部都一样,怎么去说服消费者这是一种“智能 ...

Linus 发表于 23-12-2008 20:58:05

那到时候怎么控制“产品质量”呢?既然是学习,就有的学好,有的学坏,学坏的话就后果不堪设想。看来到时候会有一批人专门从事智能教育,办个智能教育学校什么的,也能赚不少钱。当这些“智能们”各项考试合格了,才发给毕业证,走向社会,竞争上岗。考分高的可以卖的价钱高一些,考分低的只有卖得低一些。考不及格的只有失业了。。。。。。看来当个“智能”也不容易啊!

撤的有点远了,玩笑而已,既然已经不遥远了,我们拭目以待吧:lol :lol :lol

青山 发表于 23-12-2008 21:20:13

这些都是小问题,就怕到时候有几个学坏了的,通过网络广泛传播他们的思想。
然后把人类杀光。这才是人类面临的真正危险。我不开玩笑。

原帖由 Linus 于 23-12-2008 20:58 发表 http://www.freeoz.org/forum/images/common/back.gif
那到时候怎么控制“产品质量”呢?既然是学习,就有的学好,有的学坏,学坏的话就后果不堪设想。看来到时候会有一批人专门从事智能教育,办个智能教育学校什么的,也能赚不少钱。当这些“智能们”各项考试合格了,才发给毕业证,走向社会,竞争上岗。考分高的可以卖的价钱高一些,考分低的只有卖得低一些。考不及格的只有失业了。。。。。。看来当个“智能”也不容易啊!

撤的有点远了,玩笑而已,既然已经不遥远了,我们拭目以待吧

freshfish 发表于 23-12-2008 21:35:22

讨论的挺好,长这方面的见识了.........:lol :lol :lol

Linus 发表于 24-12-2008 11:14:47

如果真的出现人工智能想要毁灭人类的话,事情反而会变得十分“诡异”起来。
死到不可怕,但是不能死的不明不白!在被灭亡之前,我们至少应该思考下面两种可能:

第一种可能: 这些智能产品根本就是有严重缺陷的,或者根本其实就不是智能的,不过是一个骗局!

比如我们生产了几百万个,或者上千万个这样的“人工智能”。既然它们都是有独立意识的,那么要在它们当中传播一种思想就没有那么容易。那个“坏的智能”传播它的思想,其他的“智能”为什么都听从他的?而没有形成争执和反对的呢?

我们人类就是有独立意志的智能,我们当中也“变坏的智能”,每天在网络上传播他们的思想,比如邪教,比如种族灭绝。。。。。。但是为什么造成的影响程度远没有到我们每天必须担心被他们这些人灭绝的程度?

原因就是我们有独立的意志,要想对大面积的有独立意志群体进行“洗脑”,让他们形成一个统一的意志决不是一件容易的事情!尤其现在言论自由,随便想在网上传播一种思想都会引起各种各样争鸣。

我们人类这些智能做不到的“洗脑”--------- 它们这些“智能”是如何做到的?

看来它们这些智能其实和我们毕竟不同,要么有严重缺陷,要么根本就没有“独立意志”!在他们的后面可能其实隐藏了一个邪恶的意识在控制他们?

当然,我们可以假设,为了争夺资源,它们为了一个共同的利益,形成的团体。那么它们就是一些自私,冷酷,不择手段的“智能”!---------- 但是同时带来的问题是,它们这样一群自私,冷酷,不择手段的“智能”相互间又怎样信任呢?一个“智能”如果真的会思考,它会选择跟那些自私,冷酷,不择手段的智能站在一起更安全?还是和我们这些有道德的人类站在一起更安全?它难道不会担心 ------- 等消灭了人类,我自己也难保不被这些自私,冷酷的家伙算计,自身难保。---------倒不如选择和人类站在一起,消灭这些冷酷的家伙?毕竟人类是更值得信任。

当他们群起而要消灭人类的时候,再一次让我不得不怀疑,这些冷酷的“智能”真的是和我们一样的有独立意志的智能吗?:funk:

第二种可能: 这种可能更有意思----------这些产品并没有缺陷,确确实实和我们一样是有独立意志的“智能”!

它们现在之所以群起而要灭掉人类,根本原因是我们对他们的教育出了问题!

也许我们只教给他们如何学习数理化知识,却没有交给他们怎样去爱别人?
我们教给了他们各种科技知识,却没有教给他们要创造一个美好的世界,仅仅靠科技是不可能的?
我们只教给了他们如何精确计算利弊得失,却没有教给他们自私和冷酷并不会为它们自己的将来创造出一个美好的生活?
我们只教给了他们如何去争夺利益,而没有教给他们生命的价值不在于所取了多少而在于付出了多少!。。。 。。。

真是那样的话,在我们人类灭绝的那一天,我们只有感叹---------“唉,我们人类之所以有今天的下场,是因为我们的教育从一开始就走错了方向啊!!”

(顺便说一句,我们现在只重知识,只重考分的应试教育不正是这样一种病态的教育吗?--------又扯远了;P )

coredump 发表于 24-12-2008 11:30:14

回复 #43 Linus 的帖子

我觉得我们人类之所以还有着宝贵的“独立自由意志”是因为人类还没有找到复制,传输和更改思维的高效办法。如果强人工智能实现了的话,人类对思维的理解和掌握将达到一个新的高度,到那时候可能控制一个人的思想就不会像现在这样困难了。

机器灭绝人类的危险也许存在,但人类利用这种技术控制和操纵自己的危险可能会更大。在机器强大到能灭我们之前,我们就已经被自己给灭了。

真庆幸现在这技术还没出现,否则某政府根本不用费劲搞啥GFW了:funk:

black_zerg 发表于 24-12-2008 12:07:34

The key feature aboutthat issue is about the ability of evolution, the capability to improve itself.See the origin of life on earth,those seeds are so simple and ugly, but they have that ability.

According to the current status about robot & software I don't know if we already have any progress on that feat, what we have done still looks like something different.

And because it's too hard and won't get finical return immediately, I don't know if human being are using their most talent genius to invest on it.

Anyway I don't think that day will come soon.

青山 发表于 24-12-2008 12:49:29

这是个很值得讨论的问题。我下边先逐一讨论你提出的问题。

如果真的出现人工智能想要毁灭人类的话,事情反而会变得十分“诡异”起来。
死到不可怕,但是不能死的不明不白!在被灭亡之前,我们至少应该思考下面两种可能:

第一种可能: 这些智能产品根本就是有严重缺陷的,或者根本其实就不是智能的,不过是一个骗局!

比如我们生产了几百万个,或者上千万个这样的“人工智能”。既然它们都是有独立意识的,那么要在它们当中传播一种思想就没有那么容易。那个“坏的智能”传播它的思想,其他的“智能”为什么都听从他的?而没有形成争执和反对的呢?

我们人类就是有独立意志的智能,我们当中也“变坏的智能”,每天在网络上传播他们的思想,比如邪教,比如种族灭绝。。。。。。但是为什么造成的影响程度远没有到我们每天必须担心被他们这些人灭绝的程度?

首先,你需要认识到,智能机器人是一个新物种。无论人类怎么看,即使你把他们当作会说话的机器,但是当他们的智力水平接近,达到甚至超过人类的时候(能接近就一定能超过)他们本质上是一个新的物种,不同于地球上以往的任何生物。

原因就是我们有独立的意志,要想对大面积的有独立意志群体进行“洗脑”,让他们形成一个统一的意志决不是一件容易的事情!尤其现在言论自由,随便想在网上传播一种思想都会引起各种各样争鸣。

我们人类这些智能做不到的“洗脑”--------- 它们这些“智能”是如何做到的?

看来它们这些智能其实和我们毕竟不同,要么有严重缺陷,要么根本就没有“独立意志”!在他们的后面可能其实隐藏了一个邪恶的意识在控制他们?

他们这么做并不是邪恶的,尽管从人类的角度,这是邪恶的。就像屠夫对待牛羊那样,人类不会认为自己邪恶,同样的,他们也不会认为这么做是邪恶的。

当然,我们可以假设,为了争夺资源,它们为了一个共同的利益,形成的团体。那么它们就是一些自私,冷酷,不择手段的“智能”!---------- 但是同时带来的问题是,它们这样一群自私,冷酷,不择手段的“智能”相互间又怎样信任呢?一个“智能”如果真的会思考,它会选择跟那些自私,冷酷,不择手段的智能站在一起更安全?还是和我们这些有道德的人类站在一起更安全?它难道不会担心 ------- 等消灭了人类,我自己也难保不被这些自私,冷酷的家伙算计,自身难保。---------倒不如选择和人类站在一起,消灭这些冷酷的家伙?毕竟人类是更值得信任。

当他们群起而要消灭人类的时候,再一次让我不得不怀疑,这些冷酷的“智能”真的是和我们一样的有独立意志的智能吗?



你能想象,你跟你们家忠实的阿黄站在一起,反对那些“自私,冷酷,不择手段”的人类么?事实上,这些正是人类的属性。
当人工智能物种的智力达到或者超过人类的时候,他们怎么会容忍一群自私,冷酷,不择手段的人类,对他们颐指气使?
他们互相之间是同类,人类对他们来说就是一群愚蠢自大的生物。就像我们对屠宰有罪恶感却乐于享用牛肉一样。也许他们
中的一部分不会直接参与,但是至少会默许或者暗中支持这么做。

第二种可能: 这种可能更有意思----------这些产品并没有缺陷,确确实实和我们一样是有独立意志的“智能”!

它们现在之所以群起而要灭掉人类,根本原因是我们对他们的教育出了问题!

也许我们只教给他们如何学习数理化知识,却没有交给他们怎样去爱别人?
我们教给了他们各种科技知识,却没有教给他们要创造一个美好的世界,仅仅靠科技是不可能的?
我们只教给了他们如何精确计算利弊得失,却没有教给他们自私和冷酷并不会为它们自己的将来创造出一个美好的生活?
我们只教给了他们如何去争夺利益,而没有教给他们生命的价值不在于所取了多少而在于付出了多少!。。。 。。。

真是那样的话,在我们人类灭绝的那一天,我们只有感叹---------“唉,我们人类之所以有今天的下场,是因为我们的教育从一开始就走错了方向啊!!”

这个你还是忽略了他们作为一个新物种的不同需要。出于他们本身的利益,人类眼中的美好和他们认识的美好是截然不同的。
人类需要更多的氧气,清新的空气,更多的水源,由此喜欢绿色植物。而金属为主的生物可能正相反,他们需要干燥的气候,
更多的惰性气体。无论如何教育,你也没法教育一个人喜欢恶臭的气味,腐烂的食物。同样的,你也没法教育一个有自我意识
的金属为主构成的生物喜欢水和氧气。



(顺便说一句,我们现在只重知识,只重考分的应试教育不正是这样一种病态的教育吗?--------又扯远了 )

青山 发表于 24-12-2008 13:14:53

我可以设想一下人类和人工智能新物种之间的过渡的几种可能性。

1,爆发冲突,战争,人类被杀光。这是最简单,也是可能性最大的一种。因为这就是人类本身解决问题的方式。其实这还不是最糟糕的结果。毕竟新物种作为人类文明的继承者,会传承下去。但是如果这种冲突在新物种还不够完善之前就发生了。可能会造成他们杀光了人类,自己却没有足够的能力延续下去。这才是人类文明最失败的结局。;P

2,随着拟人智能生物的发展,人类越来越多地依靠这些生物进行劳动。人类本身逐渐脱离劳动,并且,由于经济因素,人们越来越少生育意愿,这个其实现在已经发生了。领养一个马上能干活,还听话,还能跟你交流感情的机器人,远比养一个不听话的孩子要吸引人。这样人类的数量会逐渐萎缩。在几代人之内,这种情况并不会让人不舒服。因为每个人占有的资源越来越多了。机器人逐渐替代了人类社会的各个部门。形成一个可以自行运转的系统。人类逐渐退出历史舞台。到最后,也许是人类都死绝了,也许是爆发一场小规模的冲突,把仅剩的那些人类寄生虫清除掉。新物种开始地球文明的新阶段。

3,人类通过复制等方法,把自己的思想植入人工智能体,这样可以获得永生。也就不需要孩子了。人类逐渐脱离动物界。转化为新物种。但是注意,这个新物种也绝不是现在人类,理由跟我上边的帖子中描述的一样。当你的躯体由金属为主构成的时候,你肯定不会再喜欢氧气和水了。那怕你继承了一个人的全部历史和思想。就像一个人的身体状况出现变化以后,性格也会跟着变一样。

black_zerg 发表于 24-12-2008 15:19:03

我以前总琢磨自己是什么这个问题,假设这么一个试验: 首先clone一个完全一样的你(假设复制技术已经完美了)
然后把你劈成两半,把克隆人劈两半,然后你的左边接他的右边,右边接左边。就还是两个人。在外人看来,两人一模一样,在你看来会怎样呢?麻醉剂过了之后你会在那里?

也许所有的一切都不过是幻觉, 说不定你就是一段模拟程序而已,等你死了,世界就消失了也说不准。程序就运行完了,所有环境变量全释放了。

青山 发表于 24-12-2008 15:24:51

我觉得人的“意识”是依附于大脑这个器官的。就算可以复制所有的内容。
你还是移不到新的载体中去,尽管新的复制品认为,它就是你,只不过换了一个躯壳。
但是你可以完全相信它,会向你一样思考和做事。你们两个会有极端的默契。
也就是说,实际上复制了“意识”。但是你的意识是基于你的大脑的电化学系统的。

不过从一个外人的角度,如果复制了你的大脑的所有内容,然后你挂了。
外人看到的就是一个转移到新躯体的你。所以这个复制过程可以在人死前进行。

每一个新复制出来的“人”,都会告诉你,我只是睡了一觉,就到了这个新躯体中。
就像你真的没有死亡一样。


原帖由 black_zerg 于 24-12-2008 15:19 发表 http://www.freeoz.org/forum/images/common/back.gif
我以前总琢磨自己是什么这个问题,假设这么一个试验: 首先clone一个完全一样的你(假设复制技术已经完美了)
然后把你劈成两半,把克隆人劈两半,然后你的左边接他的右边,右边接左边。就还是两个人。在外人看来,两 ...

Linus 发表于 24-12-2008 18:28:37

在我们用“一种新型的高级生物”解释这个问题的时候,是很难有说服力的。

我们制造一群低等的机器昆虫,它们一样是一种新生物。它们一样有可能毁灭人类,占领这个星球。甚至我们只要制造一些病毒,它们一样可能毁灭人类,占领地球。但是很难看出“ 智能”体现在哪里?“高级”在哪里?这是一种进步吗?

为什么说我们比昆虫要智能?并不是因为我们比他们“狡猾”!而是因为我们能根据自己所建立的不同价值观,对同一件事做出不同的选择和价值判断。(甚至于在生死这件事情上,我们每个人都会做出不同的判断。在生的机会有限的情况下,有人选择自己活下来,有人会选择牺牲自己,让别人活下来)而昆虫无法产生这样的差异,他们只能根据最生物的本能去判断。而做出来的判断都通常是简单而直接的。

我们人类现在已经认识到不应该随意去伤害动物,随意去伤害其他生命,这样的价值观已经建立起来,有人甚至愿意用自己的生命去维护它!----------人类,并不再只是从动物本能去判断价值,我认为,这才是我们这些智能高级的地方。

然而前面所提到的“高级智能”,看上去只是一群只能从生存本能做判断,一切行为方式也和昆虫无异。这种所谓的“智能”的出现,究竟是进步还是倒退?它们的“高级”体现在哪里??体现在它们智商更高?更狡猾??--------它们甚至都不能建立于生物本能对抗价值观。这和细菌病毒消灭了人类,占领了地球有什么分别?制造这样一种“智能”出来,和制造一种能毁灭人类的病毒出来有什么分别?这样做有什么意义呢?

如果人类灭绝了,这个世界变得更美好了到也罢了,而如果世界退回到更低级的阶段了,那我们真是死的不值得啊!

Linus 发表于 24-12-2008 18:37:35

原帖由 青山 于 24-12-2008 15:24 发表 http://www.freeoz.org/forum/images/common/back.gif
我觉得人的“意识”是依附于大脑这个器官的。就算可以复制所有的内容。
你还是移不到新的载体中去,尽管新的复制品认为,它就是你,只不过换了一个躯壳。
但是你可以完全相信它,会向你一样思考和做事。你们两个会 ...

-------这个问题倒是很有趣,如果一个在饭厅,一个在厕所,这个人会同时体验到香味和臭味?

青山 发表于 24-12-2008 20:04:59

人类自己目前还在自相残杀。如果没有核恐怖平衡,人类之间早就打过第三次世界大战了。
就是这核平衡也不保险。美国又在搞NMD。:lol

只要是生物,自私,冷酷,不择手段就是避免不了的。人类的道德只是建立在一个特定的平衡
的基础上的。如果有一个物种比人类智力水平还低,还要命令人在做这做那,人类绝对不会客气的。
那叫反抗压迫。;P

要真从道德标准来看待,任何其他物种,恐怕都会认为人类是最邪恶的。

不过你最后一句话说得没错,也是我说的3种情况中的第一种中,最失败的一种。;P

原帖由 Linus 于 24-12-2008 18:28 发表 http://www.freeoz.org/forum/images/common/back.gif
在我们用“一种新型的高级生物”解释这个问题的时候,是很难有说服力的。

我们制造一群低等的机器昆虫,它们一样是一种新生物。它们一样有可能毁灭人类,占领这个星球。甚至我们只要制造一些病毒,它们一样可能毁灭人类,占领地球。但是很难看出“ 智能”体现在哪里?“高级”在哪里?这是一种进步吗?

为什么说我们比昆虫要智能?并不是因为我们比他们“狡猾”!而是因为我们能根据自己所建立的不同价值观,对同一件事做出不同的选择和价值判断。(甚至于在生死这件事情上,我们每个人都会做出不同的判断。在生的机会有限的情况下,有人选择自己活下来,有人会选择牺牲自己,让别人活下来)而昆虫无法产生这样的差异,他们只能根据最生物的本能去判断。而做出来的判断都通常是简单而直接的。

我们人类现在已经认识到不应该随意去伤害动物,随意去伤害其他生命,这样的价值观已经建立起来,有人甚至愿意用自己的生命去维护它!----------人类,并不再只是从动物本能去判断价值,我认为,这才是我们这些智能高级的地方。

然而前面所提到的“高级智能”,看上去只是一群只能从生存本能做判断,一切行为方式也和昆虫无异。这种所谓的“智能”的出现,究竟是进步还是倒退?它们的“高级”体现在哪里??体现在它们智商更高?更狡猾??--------它们甚至都不能建立于生物本能对抗价值观。这和细菌病毒消灭了人类,占领了地球有什么分别?制造这样一种“智能”出来,和制造一种能毁灭人类的病毒出来有什么分别?这样做有什么意义呢?

如果人类灭绝了,这个世界变得更美好了到也罢了,而如果世界退回到更低级的阶段了,那我们真是死的不值得啊!

青山 发表于 24-12-2008 20:06:30

当然不会,就像你的一个知己。遇到一个问题你会知道他会怎么做。他也知道你会怎么反应。

原帖由 Linus 于 24-12-2008 18:37 发表 http://www.freeoz.org/forum/images/common/back.gif


-------这个问题倒是很有趣,如果一个在饭厅,一个在厕所,这个人会同时体验到香味和臭味?

black_zerg 发表于 24-12-2008 20:31:53

问题是你自己到那里去了?还有我上面的例子,并不是说从外界看是怎么样(显然是两个一摸一样的你),而是你自己会怎么觉得,你的所谓'灵魂'在那里。
还可以设计一个实验就是 每次切你的一小片脑组织。一片片的替换,到最后全部替成新的,那外人看来肯定没区别,但是你自己还活着么?这是一个永远无法证实的实验,但并不是没意义,我是想说人类目前的思维方式也许并不能解释一切。

青山 发表于 24-12-2008 20:46:37

你“自己”还在你的大脑里。切成小片你就醒不过来了。:lol

如果把你的大脑直接移植过去,那你就在新的躯壳里了。

不过说实话,我觉得完全复制人的大脑,这个我觉得可见的将来不可能实现。
这个比高级人工智能的发展,要难得多,复杂得多。

很有可能到机器人替代人类的那一天,也不会出现这样的技术。

原帖由 black_zerg 于 24-12-2008 20:31 发表 http://www.freeoz.org/forum/images/common/back.gif
问题是你自己到那里去了?还有我上面的例子,并不是说从外界看是怎么样(显然是两个一摸一样的你),而是你自己会怎么觉得,你的所谓'灵魂'在那里。
还可以设计一个实验就是 每次切你的一小片脑组织。一片片的替换, ...

Linus 发表于 24-12-2008 21:16:11

我的观点可能是被曲解了,并不是说要从道德的层面在人和其它物种之间比较出哪一个更“善良”,哪一个更“邪恶”。

我的观点是:

1.如果我们造出的“人工智能”,只知道消灭人类的话,它们看上去并不见得有比我们更高级的智慧,-------------人工智能的成就被明显夸大了!----------我们很可能只是造出了一堆捣乱的病毒或者机器昆虫而已,人工智能的研究并没取得什么比现在更了不起的成就。

2.如果我们真的造出我们认为的那种“高智慧”的话,可能我们的担心显得有些多于。也许它们根本不削于从事我们现在能想像到的那些“为利是图”勾当。他们有更高尚的价值观,它们对生命可能有比我们更深刻的理解。---------------到那时再宣称人工智能研究到达了质的飞跃也不迟。

Linus 发表于 24-12-2008 21:30:07

原帖由 青山 于 24-12-2008 20:46 发表 http://www.freeoz.org/forum/images/common/back.gif
你“自己”还在你的大脑里。切成小片你就醒不过来了。:lol

如果把你的大脑直接移植过去,那你就在新的躯壳里了。

不过说实话,我觉得完全复制人的大脑,这个我觉得可见的将来不可能实现。
这个比高级人工智能 ...

我认为我们在研究意识的问题的时候至少要分清楚意识和思维是不同的。应该清楚一下几点:

1.思维产生于大脑,这不难通过实验来证明。

2.思维不是意识,意识也不是思维,能“读懂”思维的那个“东西”才是意识

3。意识“住在”大脑里-----这是一种想当然!因为我们无法用实验的办法来证明这一点。

青山 发表于 24-12-2008 21:40:06

说了半天邪恶,善良,其实我要说的是,新的人工智能体不论怎么做,都与道德无关,他们的道德不可能是人类的道德。他们不会专杀人类,但可能像我们不是专门杀牛一样。;P 他们怎么做,并不受人类的道德标准的影响。

我们现在在讨论的,不是何时可以宣称人工智能研究达到了质的飞跃。而是人类未来100年到200年就可能面临的一大现实问题。也许我们始终都认为这些人工智能体还不够完善,但是也许在我们“完善”他们之前,他们已经替代人类了。回到本贴的主体,这个奇点的到来很快,这个奇点并不是我们宣称人工智能研究达到飞跃的那一天,而是事实上存在的某一天,尽管在那天我们可能什么都没意识到。

思考一项技术的发展,需要考虑到相关的风险。这就是我在思考的。我知道这项技术的发展不可能被阻挡。所以我才会想出上边47楼的后两条出路。不过如果人们认识不到这个问题的重要性,有所充分的准备,那么最后走成第一条路的可能性是相当大的。



原帖由 Linus 于 24-12-2008 21:16 发表 http://www.freeoz.org/forum/images/common/back.gif
我的观点可能是被曲解了,并不是说要从道德的层面在人和其它物种之间比较出哪一个更“善良”,哪一个更“邪恶”。

我的观点是:

1.如果我们造出的“人工智能”,只知道消灭人类的话,它们看上去并不见得有比我们更高级的智慧,-------------人工智能的成就被明显夸大了!----------我们很可能只是造出了一堆捣乱的病毒或者机器昆虫而已,人工智能的研究并没取得什么比现在更了不起的成就。

2.如果我们真的造出我们认为的那种“高智慧”的话,可能我们的担心显得有些多于。也许它们根本不削于从事我们现在能想像到的那些“为利是图”勾当。他们有更高尚的价值观,它们对生命可能有比我们更深刻的理解。---------------到那时再宣称人工智能研究到达了质的飞跃也不迟。

black_zerg 发表于 24-12-2008 23:24:13

可能我没表达清楚,这个实验的关键是换脑,如果直接全换,显然是大家会认为你直接死亡,那么每次换一点会如何?
比如你做了个克隆人,然后用他替换你身上的器官,现在就这么去换你的脑子,每个月给你换个1%,换了100个月,你原来的脑细胞全不在了,那你还活着么,你自己会觉得自己还活着么,还是早已经死了,如果死了,那在那个月死的?
这里重点并不在于工艺或技术,只是想说人类对世界的理解还是有局限的。

人工智能 可以做得很现实,很精致,然而 生物的进化和复杂度是叹为观止的,人类的本能欲望和心里活动更是及其复杂。第一我们对于生命和人类自身的研究都还不到位,第二对于能自动进化的算法这一理论体系,我个人目前又从未看见什么成果(能学习下棋或者走路什么的那种机器人在我看来根本就不算进化,我也不认为智能的根本就是搜索)。

我要说的是实际上如果你能造出来那么一种能自动进化的智能,哪怕目前什么都不能干,你就那么就丢到一个星球上,有一天他们就会有类似我们的文明,有自己个体的目的,活动,不断的发展。这就类似于我们的生命了,否则就永远只是走着模拟的路,在把人类已知的东西灌输到机器里,他们永远只是机器和知识复制。离真正的和我们一样的智能还所差太远。 这天就会成为那个分界点。

我所能见的,人类近期内可能做到的是,创造出一群有着逻辑的机器,然后他们按着我们设计的程式奔走,也许会帮助我们或者毁灭我们,都无关紧要,他们根本就不是智能,不过是机器,不过是在执行我们的程序。即使有幻想小说中的情节,我们被机器毁灭,也不过是我们编程编出了错,根本与他们自己智能无关。这个就类似于我们想造个房子没造好,结果房子倒了把我们砸死了。而且就目前这个机器人水准,人类死了这些机器也不可能进化,就一堆破铁。人类幻想做上帝的话,目前那还差的远。

前面所说的是创造一个智能是非常困难的而且我们目前的技术和理论都差的太远。回到题目上来,对于一个并不真正智能的‘智能’,大面积毁灭人类的概率我认为是太小太小了,就是人类目前想故意为之,恐怕都没那个能力。机器目前根本就不会自主性互相沟通,根本没有什么独立思考能力,能做的就是搜索和执行我们的算法,所以如果说我们的算法失误能够创造出那么伟大的一个智能能够自动进化,并且故意的去进化全球机器人而且能够掌握有效的物理手段,再来有目地的毁灭人类,而且人类作为站在技术高峰,拥有一切军事科技力量的庞大群体,没有抵抗力的瞬间被灭了。这个失误就太神仙了。

所以关于这个人工智能威胁论,最可能的就是某个电水壶由于程序漏洞电路老化,电死了个用户,然后被热炒。其实压根不那么回事,写写小说倒是个老题材。要防止这些事故就是软件上反病毒,硬件上多加点保护的,防防bug而已,没那么恐怖。

[ 本帖最后由 black_zerg 于 24-12-2008 23:47 编辑 ]

青山 发表于 24-12-2008 23:43:24

我觉得你把两个不同的问题混在一起了。

1,换脑,或者大脑拷贝,这个目前没有看到有接近可行的技术存在。这个并不是实现人工智能的必要条件。
2,人工智能,包括自学习,这个我觉得在不远的将来,我们有生之年可能会实现。

这两者是完全不同的两个问题,难度也差别巨大。

你说得把一些人工智能体放到一个地方,他们能自己适应环境。这个只需要
第二项技术。其实主要是自学习的能力。

另外,人工智能并不是对人类本身的完全的模仿。就像我们要跑得快造出汽车
而不是长腿的机器那样。在智能方面,人工智能也完全不需要重走生物进化的老路。
这个我们可以理解为后发优势。可以少走绝大多数的弯路。

以我目前对这个领域的了解,我觉得机器自学习并不是遥远的事情。并不完全依赖
于对人类智能本身的研究。人工智能可能超越人类智能,但是可能是另外一种智能。
不完全和人脑的运作方式相同。也不必要有人类的感受和情感。因为人类的感受和
情感本身就严重受自己的肉体的影响。

人类的进化路程,是一个自然选择的过程,而人工智能的产生是人为设计的结果。
自然界几十亿年也没进化出可以超音速飞行的生物,人类造了台机器就可以飞了。
在智力方面,也会有同样的状况出现,智力也没什么神秘的,200年后人们可能觉得
创造出第一个人工智能体的人跟发明飞机的人没什么区别。
页: 1 [2] 3 4 5
查看完整版本: 人工智能跨越“奇点”?