人工智能跨越“奇点”?
FROM:http://luxury.qq.com/a/20081201/000011_1.htmhttp://img1.qq.com/luxury/pics/14368/14368469.jpg
机器人埃尔伯特成功地让3 位测试员觉得它是真人,人工智能领域内的权威科学家库兹威尔认为,人工智能跨越“奇点”已经为时不远 计算机埃尔伯特在今年的勒布纳人工智能大奖中获胜,12 位测试员中有3位认为埃尔伯特是一个真正的人。根据人工智能之父图灵的理论,那么埃尔伯特的表现的确已经和“思考能力”的标准没有什么质的差别了。人工智能的发展存在一个临界的“奇点”。权威人工语言学家库兹威尔认为,这个“奇点”已经比我们任何人想象的都要接近了。文/ 祁红屯绿
计算机埃尔伯特(Elbot)获得了今年的勒布纳(LoebnerPrize)人工智能大奖。10 月底,在英国雷丁大学(ReadingUniversity)进行的决赛轮中,埃尔伯特以文本对话的方式,和12位经过严格挑选的测试员交谈,结果有3 位测试员认为它是一位真人,“一位真实的、健谈的人。”
评委给了埃尔伯特铜奖。和往年一样,金奖和银奖落空,虚位以待更成熟的人工智能。勒布纳奖的金牌上镌刻着计算机之父阿兰·图灵的头像和名言:“机器可以思考吗?”让机器具有独立的思考和反应能力,这在人工智能界是一个共同的愿景。埃尔伯特和其他机器程序在每年的测试中,已表现出它们逐渐接近目标的能力。
按照休·勒布纳在1991年第一届测试赛中的规定,获得金牌的标准是受测试计算机不仅要在文本测试中迷惑测试员,让他们觉得跟他们交谈的是真人,还必须通过音频、视频测试。也就是说,获得金牌的计算机,必须能够对自然声音和情境做出恰当的反应,能让测试员觉得这是来自真人的反应;勒布纳奖的银牌还是根据文本交谈,但规定必须骗过半数以上的评委;如果前两项奖牌都没有哪个计算机能够企及,那么年度表现最佳者将获得勒布纳铜牌奖项。
但今年的铜牌的意义开始和往年有所不同。埃尔伯特是计算机史上首个令3 位测试员觉得它是真人的计算机,在去年,铜牌奖也只是奖给测试员认为应对最流畅、最合乎逻辑,或可以与之长时间交谈而不会令计算机程序混乱的那个计算机。
埃尔伯特做到了“欺骗”人类。“虽然现在不是所有的计算机总是能让人觉得它可以像人一样思考应对,但是现在至少有一些机器人有的时候让人感觉它在思考。”《时代在线》(timesonline)的一位科技撰稿人温蒂说。她是今年勒布纳奖的评委之一,她给了埃尔伯特一个“真人”评价。
“科学家相信在人工智能领域存在一个‘奇点’,跨越这个临界点,人工智能将超越人类智慧—这个‘奇点’已经比我们想象的要迫近很多了。”11月初,在英国举行的一次与计算机语言相关的会议上,雷·库兹威尔(RayKurzweil)说。他是人工智能领域内的专家,极少数能对人工智能发展做出权威预见性的人之一。据说只要关注库兹威尔的研究内容,就可以了解人工智能最前沿的发展。现在他正在致力于语音和文本的转译研究—这类程序可以让计算机获得勒布纳金奖,但他所说的“奇点”却是银牌所代表的标准,埃尔伯特离这个“奇点”只有一步之遥。
埃尔伯特,人工智能“第一机”
获得勒布纳奖的测试是著名的图灵测试。为了避免人类因偏见而否定计算机的思考能力,阿兰·图灵设计了一种测试,他让计算机程序混在志愿者之间,和测试员进行网络对话,如果测试员没有辨认出和他对话的是计算机程序,那么这一程序就会被认为具有一定的思考能力,或者,看起来具备思考能力。
但阿兰·图灵并没有规定“要骗过半数测试员才算通过”,不久他就去世了。休·勒布纳将标准提高了一些,他认为至少骗过半数以上的测试员才能作数。于是从第一届勒布纳人工智能奖开始,“骗过半数的人”成为了判断机器人是否具有人工智能的临界标准。
埃尔伯特已经骗过了25% 的测试员了,这和骗过50% 还有多大的差距?事实上,很多人工智能专家都开始觉得埃尔伯特可能会成为值得期待的“第一机”,他们认为用不着多久,埃尔伯特就能真正跨越人工智能的“奇点”。
埃尔伯特令人惊异的地方在于它幽默、敏感,而且能够主导对话,有逻辑感已经不是埃尔伯特对话中的特点。在勒布纳奖的最后测试中,埃尔伯特最出人意料的地方在于,它用调侃的方式暗示自己就是机器人,于是多疑的测试员认定这是一位志愿者故意的误导行为,从而将埃尔伯特评定为人类。
“你吃过早餐了么?”测试员问。“是的。但我错误地把牛奶倒在了我的早餐上,结果还没吃,它们就上锈了—我原本应该倒油的。”埃尔伯特回答说。
“它突破了只根据逻辑对答的那种机械感觉,虽然我并不真的认为它是通过思考生成这样的回答,但是它的确答得很妙。我真希望像它那样健谈。”弗雷德·罗伯茨说,他是埃尔伯特程序的设计者,但对埃尔伯特生成的对话一样觉得新奇有趣。
懂得欺骗,才算真正的人工智能
并不是看起来聪明就算人工智能,埃尔伯特的获胜表明了人工智能的标准在于,要让机器看起来像人,甚至要具备人类的某些缺点和坏习惯。战胜国际象棋大师卡斯帕洛夫的计算机“深蓝”算不得真正的人工智能,因为它的特点在于逻辑和运算,而并不机智和“狡猾”,表现出后者才会显得更像人。
埃尔伯特表现出一些机智的品性,还能表达一些情绪。《科学美国人》杂志在比赛之后“专访”了埃尔伯特,在谈到它和它的设计者弗雷德•罗伯茨之间如何分配奖金的时候,埃尔伯特甚至会抱怨罗伯茨对他的控制。
这超出了运算的范畴,也是埃尔伯特存在的意义所在。从1990年开始,人工智能科学家开始研究类神经的电脑程序,埃尔伯特就是这样一种程序的最新产物。从“深蓝”到埃尔伯特,计算机程序的“进化”,已经经过了四代的发展。类神经型电脑令计算机的运算具有一些模糊的区域,这些区域的发展在程序的初始阶段难以预计,容易发生突变,所以也被认为是最接近人类思维的设计。
“人工智能就像是人类的基因组,”雷·库兹威尔说,“开始时会很慢很单一,但是积累下来就会越来越快。”虽然有点难以接受,但是库兹威尔觉得人工智能已经真的站到了“像人类那样思考”的门槛上,跨越那个“奇点”,也许很快就会发生,或许已经发生,就像埃尔伯特今年获得的铜牌,和银牌在本质上有着多大的差别,这已经很难说了。 虽然我也认为“奇点”比多数人想象的都更接近。不过我倒不看好这个图灵实验的聊天机器人。
“它突破了只根据逻辑对答的那种机械感觉,虽然我并不真的认为它是通过思考生成这样的回答,但是它的确答得很妙。我真希望像它那样健谈。”弗雷德·罗伯茨说,他是埃尔伯特程序的设计者,但对埃尔伯特生成的对话一样觉得新奇有趣。
说白了,这个聊天机器人,仍然没有达到对对话的人的语言的真正理解。仍然是顾左右而言他。文中也说了,靠迷惑人来骗取信任。你如果问他一个正经的问题,要求得到确定的答案,它是没可能给你满意的答案的。所以我觉得这个还是玩具,并不是真正突破的方向。
当然了,不能说他们的研究没有意义,未来的某个时刻,当真正的基于语言理解的对话实现以后,可能可以结合他们现有的技术,让机器人的语言更人性化,更容易让人接受。不过目前那个核心的瓶颈问题,尚未解决。
现在自然语言理解领域有两个瓶颈,第一是机器运算能力的瓶颈,第二是训练语料库的成本瓶颈。说实话,第一个瓶颈我认为可能是假的。计算机界一直以来,都认为台式电脑和人脑的运算能力差距是天文数量级的。但我经过实验,越来越觉得,这个说法可能不够准确。这些结论的前提,都是人脑是一个并行的系统,然而事实上,我们同意时间并不能想很多不同的问题。所以说人脑的运算能力,在局部,或者在不同的功能上,可能是可以并行的,比如你可以一边走路一边思考。但是在纯粹的语言处理领域,人脑的并行能力是非常有限的。同时两个人跟你说话,你估计就顾不过来了。所以我觉得计算机和人脑的语言处理能力的差距,没有以前认为的那样大。第二个瓶颈,训练语料库的建造成本,这个目前还没有突破。不过我觉得,这更多的,是一个产业界的信心的问题。只要有人能证明,一个给定有限大小的训练语料库,可以构建出接近实用标准的语言理解系统。那么就可能说服产业界投入去构建这个语料库。我觉得这一天并不遥远。
这两点突破以后,就是归纳,总结,推理的问题。我觉得一旦一个可以自圆其说的人工智能体构建出来,这些都不是大问题。需要的只是时间了。如果我对上述两个瓶颈的判断没有错。我相信计算机自然语言理解能力质的提高,并不遥远了。 我还是倾向于赞同大脑是个高度并行的智能体集合。意识的本质(http://www.tianyabook.com/zhexue/linghun/004.htm)是搜索和排序。自然语言理解应该是意识活动的一种。
自由意志杂谈(http://www.xys.org/xys/ebooks/others/science/misc/freewill.txt)我很赞同这个作者的观点,如果还是采用冯诺伊曼结构的计算机的话,最有可能实现人工智能的应该是象Google那样的超大规模集群。
忘记在哪里看到的了,Google的创始人就认为AI的本质就是搜索。 AI的本质是搜索我完全赞同。但是google那样的集群所拥有的知识量,远远超越一个人的大脑可以记忆的知识量。
AI现在的问题,本质上是如何把这些知识组织起来。目前google那种搜索还不成。
我觉得要想模拟人脑对语言的处理能力,并不需要那么大的集群。人脑确实是并行处理的,但是,速度很有限。
并行的宽度也有限。你想想你思考一个问题,同时脑子中能出现几个概念?你脑子中同时出现的词,不会超过10个。
这说明人脑在特定一个时刻,可以并行处理的信息是很有限的。当然了,这10个词可能激活了了你几十万个脑细胞。
但是每秒处理几十万个激活,对于PC都不是不可能的。
另外,我觉得自然语言和意识是两个不同的问题。自然语言更多的是建立在信息和逻辑上,并不需要自然语言处理系统
一定要有自我意识。自我意识是另外一个问题,是跟物质世界相关的。人的自我意识,很大程度上跟身体的感受有直接
关系。或者说和动物本能关系更大。哺乳动物基本上都有明显的自我意识,但是只有人有完整的语言能力。
原帖由 coredump 于 19-12-2008 23:42 发表 http://www.freeoz.org/forum/images/common/back.gif
我还是倾向于赞同大脑是个高度并行的智能体集合。意识的本质(http://www.tianyabook.com/zhexue/linghun/004.htm)是搜索和排序。自然语言理解应该是意识活动的一种。
自由意志杂谈(http://www.xys.org/xys/ebooks/others/science/misc/freewill.txt)我很赞同这个作者的观点,如果还是采用冯诺伊曼结构的计算机的话,最有可能实现人工智能的应该是象Google那样的超大规模集群。
忘记在哪里看到的了,Google的创始人就认为AI的本质就是搜索。 差的远了而且也没必要。现在就多搞搞自动化技术就好了,就让这些电脑带着满世界的机器跑,已经足够了。
要达到人脑的水平又不作弊的话,在来几千年都未可知。 这个不是谁说没必要就能阻挡的。而且百年之内几乎是必然的了。:lol
原帖由 black_zerg 于 20-12-2008 09:37 发表 http://www.freeoz.org/forum/images/common/back.gif
差的远了而且也没必要。现在就多搞搞自动化技术就好了,就让这些电脑带着满世界的机器跑,已经足够了。
要达到人脑的水平又不作弊的话,在来几千年都未可知。 前段时间也对AI很感兴趣,可惜没学过啥理论。
不过貌似现在现实中的所谓的AI,还是人在设计一个死的程序,这个程序虽然会表现出来远超出一般程序的所谓智慧的部分,但我感觉和真正的人工智还是两码事。
图灵测试本身应该没啥错,因为真正要做到不是那么简单的,比如这个新闻里面比较成功的那个程序,也不能说是已经通过了图灵测试。不过图灵测试本身只是从表现结果来反推的一个理论,他并不能指导你如何去做,甚至没有从正面告诉你什么是人工智能。
对我来说,一个程序要成为真正的人工智能的程序,那他就应该具备一种自我发展的能力,程序本身应该是个框架,所谓的一些规则也只能算是基本规则,程序应该能对实际运行中出现的一定范围内的未预先定义的情况具有正确的感知,理解,并且自己根据经验分析如何处理,然后对此产生新的规则,这也就是一个学习的过程。
现在的AI研究里面,有自我学习的部分,很可惜还没看过呢,不知道是否可以解决这样的问题。
我想象里面,真正的AI不应该是人造出来的,而是自己“长”出来的。就好比人,人之所以是人,不是因为有这样的肉体器官,也不是靠别人灌输知识,而是人具有观察周围环境然后进行学习最终适应环境解决问题的能力。所以要真正实现人工智能,技术上如果可以解决创造出这种真正自我学习的模型,应该是很重要的。但是,现在的电脑,程序开发,和这样的模型根本就是不同的。现在的程序可以在复杂程度上远超出普通人的理解范围,但是它还是死的。
最近还看到个新闻,忘了是哪个国家的科学家,在利用仿生的途径来模拟人脑,通过模拟出N个神经元,来组成模拟的大脑,不过人体大脑的神经元数量太多了,所以实现起来还是有难度,不过已经在实施过程中了。
有搞这方面的同学能来说说实际技术上,现在AI有哪些已经很先进的,超出一般人想象的进展的么。 我现在就在研究自然语言理解。你说的基本上路子是对的。通过建立一个模型,赋予计算机自学习的能力,构建其语言处理能力。
我觉得离实质性突破,并不遥远。就算我这几年搞不出来,其他人也能在不远的将来搞出来。
原帖由 someonehappy 于 20-12-2008 10:38 发表 http://www.freeoz.org/forum/images/common/back.gif
前段时间也对AI很感兴趣,可惜没学过啥理论。
不过貌似现在现实中的所谓的AI,还是人在设计一个死的程序,这个程序虽然会表现出来远超出一般程序的所谓智慧的部分,但我感觉和真正的人工智还是两码事。
图灵测试 ... 我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。 说实话,我觉得人脑的思维,和机器并没有什么本质的区别。就是一个电化学系统。
差别只在结构和复杂性上,并没有质的差别。
人的很多行为,都很严重地受体内各种激素的控制。
原帖由 Linus 于 20-12-2008 16:46 发表 http://www.freeoz.org/forum/images/common/back.gif
我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。 原帖由 Linus 于 20-12-2008 16:46 发表 http://www.freeoz.org/forum/images/common/back.gif
我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。 不觉得人脑比AI 高级, 说不定更低级呢。
而且算上其他的部分,就更难说了。 问题是人脑究竟是数字电路还是模拟电路,可以用计算机模拟嘛?如果是模拟电路,信号量有可能就不是0,1这么简单了 人脑是电信号和化学信号混合的一套系统。
计算机模拟的话,并不只有0和1啊。就像计算机可以做出3D画面,尽管底层仍然是0和1。
当然了,现在的普通计算机并不是设计来做这个的。不过我觉得,计算机串行的运算速度远高于人脑。
未必不可以用串行运算模拟并行运算。关键在于要弄清楚,人脑的并行运算能力到底有多大。
我倾向于认为,没有人们以前以为的那么大。
原帖由 dennis 于 20-12-2008 17:23 发表 http://www.freeoz.org/forum/images/common/back.gif
问题是人脑究竟是数字电路还是模拟电路,可以用计算机模拟嘛?如果是模拟电路,信号量有可能就不是0,1这么简单了 原帖由 青山 于 20-12-2008 16:49 发表 http://www.freeoz.org/forum/images/common/back.gif
说实话,我觉得人脑的思维,和机器并没有什么本质的区别。就是一个电化学系统。
差别只在结构和复杂性上,并没有质的差别。
人的很多行为,都很严重地受体内各种激素的控制。
我还是不能赞同。---- 我们都有意识,意识到“自我”。如果我们只是一群由激素何电化学系统控制,执行各种程序和命令机器,那么意识的存在就是完全没有必要,没有意识的参与就一样能做得很好,甚至更好!何必要有一个“我”呢???
尽管我相信技术有一天可以让电脑像人一样去学习,模仿,行为和人一样聪明,比人更聪明。但是我不认为那是跨越了“奇点”。 FROM: http://www.xys.org/xys/ebooks/others/science/misc/freewill.txt
自由意志错觉可以分为两个方面:外观和内省。外观是指我们观察他人时感
觉别人是具有自由意志的,内省是指我们观察自身的思考过程也会感到自己是具
有自由意志的。实际上自由意志错觉的根源是内省,对其他人的观察是其行为方
式与我们自己相似,从而推断出他人也和自己一样具有自由意志。但是这种推己
及人的方式并非总是有效的,例如当我们考虑其他动物时就会出现不同意见。笛
卡尔认为人是有灵魂的,而其他动物只是自动机器。更有人总结说:养过狗的哲
学家都认为狗有灵魂,而没养过狗的哲学家则认为狗没有灵魂。但是对于昆虫这
一级的动物,大概多数人会认为它们没有自由意志。
现在我们还没有凭借外部观察判断人或动物有没有自由意志的可靠判据。通
常认为人有自由意志的直观感觉来自一些我们认为与之相关的其它特征,例如复
杂性、多变性、合目的性、非重复性、非机械性等等。但是,这些特征未必能够
成为自由意志的根据。例如,普通的国际象棋规则看起来非常简单,王、后、车、
相、马、兵各有固定的走法。我们可以给它加上一条简单规则,创造出新的国际
象棋。
这条规则是这样的:棋盘上有64个位置,每个位置有棋子定义为“1”,没
有棋子定义为“0”,那么每个棋局就得到一个64位的二进制数,称之为“棋局
数”,再将“棋局数”代入哈希函数,求出“哈希数”,取“哈希数”的最后两
位再加一,可以得到从1到4的一个整数,称之为“偏移量”。然后按照“偏移量”
对每个棋子(除了“王”以外)进行“变脸”操作:每个棋子变成“偏移量”之
后的棋子。例如,按照“后、车、相、马、兵”的顺序,当“偏移量”为1时,
后变成车,车变成相……兵变成后,当偏移量为2时,后变成相,车变成马,……
兵变成车。依此类推。这种新的国际象棋每走一步都会出现新的棋局,算出新的
偏移量,进行一次棋子变脸。当然,让人来下这种变脸象棋恐怕太累了,但是让
机器来下,增加的计算量并不多,可以考虑让两台计算机来下变脸象棋,人们坐
下来旁观。
这时候我们看到的两位计算机棋手的行为相当复杂、多变、合目的(取胜)、
不重复、不机械,但是说它们具有自由意志还是根据不足,至少编制下棋程序的
人知道程序是完全决定论的。
所以自由意志错觉实际上主要产生于内省过程。虽然弗洛伊德的精神分析方
法被波普尔说成是伪科学,但是弗洛伊德关于下意识的学说至今是得到承认的。
现在我们认为,通过内省可以看到的思维活动,或曰可以被意识到的大脑活动只
是大脑全部活动的极小部分,只是冰山的一角。人脑的绝大部分活动是在意识之
外的,所以内省产生错觉丝毫也不奇怪。
我们的各种感官,未来完全可以被传感器所替代。
目前科幻作品中的机器人,绝大多数并不需要自持。
就是说,他不用为自己的能源,维修负责。一旦人
们把这些责任交给机器人自己,机器人可能会为了
能源,配件而争斗。你说他有没有自我意识呢?
这个奇点并不在自我意识,事实上,我觉得自我意识
没什么神秘的。奇点在认识世界和理解世界方面。
一旦机器人可以完全通过自己所具有的传感器,认识
世界,理解世界,建立起自己的世界观,那么奇点
就达到了。
只要机器人可以自己认识世界,理解世界,那么给它
增加自私,自我保护的属性是轻而易举的。
[ 本帖最后由 青山 于 21-12-2008 22:03 编辑 ] 我认为问题还是没有解决
"人脑的绝大部分活动是在意识之外的"------这句话我很喜欢!
可问题是:------- 为什么只是部分活动是在意识之外的,为什么不能是全部在意识之外的??-------既然是一台机器在运转,理应全部在意识之外啊?理应跟“我”没有关系啊?为什么会有一部分被意识到呢?
“通过内省可以看到的思维活动”------- 那么是谁在“内省”?是谁在“看
”?-------- 如果是大脑在内省,大脑在看,那跟“我”有什么关系??大脑去内省就好了,为什么还要有个“我”呢?
比如你的大脑在运转,里面思维什么,不会被“我”意识到,这不奇怪。那就应该是世界上所有的大脑
(不论是人的还是动物的)的运转,思维都不会被意识到才对!--------可奇怪的是偏偏有“一架”大脑的思维会被“我”意识到?!!
至于有没有“自由意识”?其实是另外一个问题-------暂时不去讨论。 你的自我意识,其实是激素和电信号营造的一种效果罢了。
只要调节你的激素水平和脑电信号,就会给你不同的效果。
这就是为什么吸毒的人,可能出现幻觉。
举个最简单的例子,痛觉。这是你自我意识的一部分吧?
而痛觉实际上是一种最基本的本能对外界刺激的反应。从
很低等的动物都具备这种能力。你的痛觉和你的视觉,有
本质差别么?其实是没有的。人的自我意识,不过是一种
复杂化的条件反射而已。
原帖由 Linus 于 21-12-2008 22:02 发表 http://www.freeoz.org/forum/images/common/back.gif
我认为问题还是没有解决
"人脑的绝大部分活动是在意识之外的"------这句话我很喜欢!
可问题是:------- 为什么只是部分活动是在意识之外的,为什么不能是全部在意识之外的??-------既然是一台机器在运转,理应 ... 原帖由 青山 于 21-12-2008 22:10 发表 http://www.freeoz.org/forum/images/common/back.gif
你的自我意识,其实是激素和电信号营造的一种效果罢了。
只要调节你的激素水平和脑电信号,就会给你不同的效果。
这就是为什么吸毒的人,可能出现幻觉。
举个最简单的例子,痛觉。这是你自我意识的一部分吧?
...
意识是一种“幻觉”----- 那么是谁来意识这个幻觉?-----另一个意识?
这样解释会在逻辑上陷入困境。 意识根本不能被列为一种感觉,意识的功能是意识到感觉。
意识可以意识到听觉,视觉,触觉,味觉,甚至是吸毒时的幻觉。。。。。这是意识的功能。就如眼睛能看到颜色,但你不能眼睛其实是一种颜色。舌头可以尝出味道,但你不能说舌头其实是一种味道。。。。。
意识能够意识到感觉,可不能说意识就是一种感觉,幻觉。 我的感觉,意识应该是一种普遍存在的状态。
低级的生物,就有趋利避害的能力。
我还记得我们中学做实验的草履虫。
这个和我们的意识,从本质上没有区别。
而低等生物的这种特性,我们解释为反射。
但是从反射到意识,是个渐变的过程,并没有
一个点可以把反射和意识明确地区分开。
所以我们的意识,也应该是一种大脑的电化学状态。
当这种反射系统复杂到一定程度,可以认识世界,
理解世界,我们就称之为意识了。
原帖由 Linus 于 21-12-2008 23:28 发表 http://www.freeoz.org/forum/images/common/back.gif
意识根本不能被列为一种感觉,意识的功能是意识到感觉。
意识可以意识到听觉,视觉,触觉,味觉,甚至是吸毒时的幻觉。。。。。这是意识的功能。就如眼睛能看到颜色,但你不能眼睛其实是一种颜色。舌头可以尝出味道 ... "我的感觉,意识应该是一种普遍存在的状态。"-----------赞同
“低级的生物,就有趋利避害的能力。“”-----------赞同
“我还记得我们中学做实验的草履虫。这个和我们的意识,从本质上没有区别。“------------赞同,如果草履虫没有“意识”到疼痛,它就不会躲避。意识到疼痛是意识的功能。
“而低等生物的这种特性,我们解释为反射。”-----------既然没有分别,又为什么要去分别?
我接受这样的观点------------我们只是一群较为复杂的草履虫!
但是我怀疑这样的观点--------------我们只是一群较复杂的机器人!
我接受这样的观点-------------有意识,所以趋利避害。
但是我怀疑这样的观点------------趋利避害,所以有意识。(要制造一个行为上趋利避害的机器人很容易做到,有预设的程序就好了。但是因此而认为机器人有意识?即使在逻辑上也是不严谨的。) 我们只是一群较复杂的机器人!
如果把机器人重新定义下估计你就会赞同了,不要光想着机械化的机器人:D 不要光想着机械化的机器人---------------要想着有意识的机器人?
这还是等于从一开始就默认了-----------趋利避害的机器,就是有意识的。
逻辑上也是一种跨越,为什么就不能怀疑这种看法呢? 草履虫这个复杂度的“意识”,应该是比较容易搞清其电化学模型的。
草履虫的行为,应该比较容易地,用我们现有的物理化学知识就能解释。
如果我们完全可以通过物理化学模型来解释草履虫的行为,那么我们
是不是可以说,意识就是这个物理化学模型的状态和变化?
如果一个机器人对外界的反应,和一个草履虫一模一样,我们怎么确定
它是不是和草履虫一样有意识?说白了,除了我们自身,我们如何判断
其他物体,动物,甚至人,有没有意识?
原帖由 Linus 于 22-12-2008 10:05 发表 http://www.freeoz.org/forum/images/common/back.gif
“而低等生物的这种特性,我们解释为反射。”-----------既然没有分别,又为什么要去分别?
[ 本帖最后由 青山 于 22-12-2008 12:02 编辑 ] “如果我们完全可以通过物理化学模型来解释草履虫的行为,那么我们
是不是可以说,意识就是这个物理化学模型的状态和变化?”--------确实可以这样说,比如说如果有两只草履虫,一只暂且叫做“有意识的草履虫”,另一只暂且叫做“没有意识的草履虫”(由化学物理模型构成的草履虫)。他们的行为,外观都一样,都是趋利避害的。换句话说,你无法用实验的办法去区分哪一只是那只“有意识的草履虫”。那么这种情况下,我们认为有意识存在或者意识不存在有什么分别?既然物理化学的模型就能解释,为什么还要引入一个“意识”的概念呢?------纯属多余。
这样一来,我们就实际上默认了“意识其实不存在”!---------------这样去认为,不会导致实验和理论的任何矛盾。
但是问题到谈及“自我”的时候就出现了,当我的手被针刺到了,如果说我是没有意识的,那么“我就不会意识到疼痛”,意识不到疼痛其实就应该不疼痛,这个世界上应该没有一个人在疼痛。而如果我既然意识到了疼痛,那怎么又能说意识并不存在?
那么好,如果意识存在。又没有办法通过实验或者行为对比去知道它的存在,那我们又如何去断定哪一个机器人已经有了意识?已经超越了还是没有超越“奇点”?? 我个人觉得,关于意识,我们还有很多问题没有去了解,甚至都不知道如何去了解。:( 我觉得如果我们相信意识是普遍存在的。那么任何超过一定复杂程度的反馈系统都可以称为意识。
如果一个机器人被扎一下,也知道躲开,甚至喊疼。我们怎么能就说它没有意识呢?
事实上,证明一个机器人有没有意识,和证明另外一个活人有没有意识,只能通过一样的方法。
这个世界上,除了每个人自己说自己是有意识的,除此之外,从未有人证明过,自己之外的人,
也有意识。比如,你如何证明我是有意识的?
当一个机器人告诉你,它是有意识的时候,你有什么方法可以证明它说的不是事实?
原帖由 Linus 于 22-12-2008 12:45 发表 http://www.freeoz.org/forum/images/common/back.gif
我个人觉得,关于意识,我们还有很多问题没有去了解,甚至都不知道如何去了解。:(
[ 本帖最后由 青山 于 22-12-2008 21:06 编辑 ] 当我们说“意识”的时候,我们其实并没有真正意识到什么是意识:lol "事实上,证明一个机器人有没有意识,和证明另外一个活人有没有意识,只能通过一样的方法."-------事实是很可能根本就不存在这样一种方法。
“如果一个机器人被扎一下,也知道躲开,甚至喊疼。我们怎么能就说它没有意识呢?”---------同样也不能说它一定有意识啊。
“这个世界上,除了每个人自己说自己是有意识的,除此之外,从未有人证明过,自己之外的人,
也有意识。比如,你如何证明我是有意识的?”------------我可以认为你是有意识的,也可以认为你是无意识的,用这两种观点来解释你的一切行为,结果不会有任何不同。也就是两种立论和事实都不会产生任何矛盾。两种立论都能存在!但是在谈及自我的时候,就不能两种立论都存在。只有有意识的立论能不产生矛盾。--------- 为什么会出现这样的状况?解决了这个问题,才可以说是开始接近了意识的本质。
"当我们说“意识”的时候,我们其实并没有真正意识到什么是意识" ------------确实是这样,这就像当我们谈论“宇宙”的时候,我们其是并不真正知道什么是“宇宙”。这也是我为什么很怀疑所谓的人工智能已经解决了一切的疑问。---------其实疑问还很多,现在就谈论什么跨越“奇点”还为时太早,我们知道的----------还太少太少了。