青山 发表于 20-4-2009 16:01:54

图灵测试确实有严重的缺陷。目前得奖的,基本上都是伪智能。
基本上都是以误导为主要手段的系统。

青山 发表于 20-4-2009 16:05:23

这东西,貌似不以人的意志为转移。如果很快能搞出真正的人工智能,我相信很多科学家即使冒着掉脑袋的风险也会去搞的。
禁止是禁止不了的。

原帖由 清风不写字 于 20-4-2009 13:22 发表 http://www.freeoz.org/forum/images/common/back.gif
这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?

反正人类就是 ...

清风不写字 发表于 20-4-2009 16:10:22

原帖由 青山 于 20-4-2009 15:05 发表 http://www.freeoz.org/forum/images/common/back.gif
这东西,貌似不以人的意志为转移。如果很快能搞出真正的人工智能,我相信很多科学家即使冒着掉脑袋的风险也会去搞的。
禁止是禁止不了的。



是啊,这种事情是阻止不了的。所以说我的看法是比较悲观的。
不过任何事物总有发展灭亡的这个过程,人类文明也一样,任何事物也逃不掉这个结果!

key 发表于 8-5-2009 00:35:24

原帖由 black_zerg 于 24-12-2008 22:57 发表 http://www.freeoz.org/forum/images/common/back.gif
我举的例子是说明人身本身智慧的复杂性,心理,动机,存在感等等。如果连人类智慧本身都没有弄明白,谈什么超越?
我的观点还是:从进化,抽象理论系统的掌握,文化艺术,情感欲望等一系列上,起码几千年内机器不能 ...

其实要说“人工智能”超势“人”的智能,那就早已经超越了。。。随便找台电子计算器就算得比人快……
机器有机器的特点,人有人的特点,个人觉得完全没有必要去考虑谁超越谁。

就图灵机的定义来看,这种AI永远都只会是机器。

倒是“生物机器人”这个方向多少会有点危险。

青山 发表于 8-5-2009 00:47:30

心理,动机,存在感等等,这些都不是最难的。人工智能体的心理,动机,存在感跟人肯定不同,但是同类的活动并不难理解。

我目前研究的过程中就有一个猜想——存在感来源于一个被顺序激活的神经元组成的环路。就是一个群神经元,互相有因果关系,然后逐一被激活,重复地被激活。说白了,存在感来源于神经元的一个运动状态。你睡着了,这个环路不存在了,你也就失去存在感了。你苏醒的过程,就是重建这个环路的过程。

动机就更容易解释了。比如你的笔记本电脑电池快没电了,如果它是个机器人,就会去找地方充电。这就是动机。

ubuntuhk 发表于 8-5-2009 00:53:08

回复 #95 青山 的帖子

你这说得太玄了,等你建立这个玄学理论,还得发展一套相应的神经元计算机系统,否则现在的01计算机系统应该没法实现:lol :lol :lol

key 发表于 8-5-2009 01:00:41

原帖由 青山 于 7-5-2009 23:47 发表 http://www.freeoz.org/forum/images/common/back.gif
心心理,动机,存在感等等,这些都不是最难的。人工智能体的心理,动机,存在感跟人肯定不同,但是同类的活动并不难理解。

我目前研究的过程中就有一个猜想——存在感来源于一个被顺序激活的神经元组成的环路。就是一个群神经元,互相有因果关系,然后逐一被激活,重复地被激活。说白了,存在感来源于神经元的一个运动状态。你睡着了,这个环路不存在了,你也就失去存在感了。你苏醒的过程,就是重建这个环路的过程。

动机就更容易解释了。比如你的笔记本电脑电池快没电了,如果它是个机器人,就会去找地方充电。这就是动机。
:P

其实你说的这些还是离不开if/else判断,即使应用了一些高级的数学模型。我不知道你所说的“神经元”是否指人工神经网络中的神经元,
还是广义的通过人工智能运算建立的神经单位。如果你说的是人工神经网络科学中的神经元,到最后还是数学运算、条件判断、反馈运算等东西,
可能加入一些伪随机数,以增加不确定性和多态选择吧。这些东西,无论怎样说,都只是运算,而不是真的“智能”。只是利用了现代计算机,
或未来计算机高速运算能力来模拟一些和人相似的操作。

人类思绪的独立性和原生性,我觉得图灵机的发展方向永远都不会达到。

key 发表于 8-5-2009 01:19:33

原帖由 coredump 于 25-12-2008 00:07 发表 http://www.freeoz.org/forum/images/common/back.gif
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。:$

ML(Machine Learning)目前比较热。但如果你在数学上,尤其是在统计学上没有特别的兴趣和优势,
想在这方面出成绩,看来不容易。

现在的ML算法,很大程度上建立在统计学习理论上,这方面也是比较成熟的方向。

也有采用其他方法来实现,比如人工神经网络的应用,但无论怎样弄,数学是最基础。

key 发表于 8-5-2009 01:24:36

原帖由 coredump 于 25-12-2008 00:24 发表 http://www.freeoz.org/forum/images/common/back.gif
转个和本话题有关的wiki条目:遗传编程 Genetic programming

FROM:http://zh.wikipedia.org/w/index.php?title=遗传编程
            http://en.wikipedia.org/wiki/Genetic_programming


遗传编程,或称 ...

不要被遗传两个字编了,遗传计算在AI中不是什么高深的学问,采用优胜劣汰,加入随便选择,从而建立一个模拟生物进化过程的一种
计算科学理论而已。最简单的遗传算法估计你只需要30分钟就写出来了。

key 发表于 8-5-2009 01:35:11

原帖由 青山 于 25-12-2008 08:54 发表 http://www.freeoz.org/forum/images/common/back.gif
确实,research主要是写论文。我现在通过实验的方法做研究,也是承受着我导师的不小的压力的。
这种方法并不被目前多数学院派的研究者所喜爱。不过压力归压力,我该怎么做还是怎么做。
我个人认为,AI这边的研究主 ...

我的看法和你正好相反。我觉得机器学习就是一门数学应用。
现在可以找到的最成功的机器学习算法,什么贝叶斯分类器、SVM、BP神经网络,遗传算法等,
无一不是建立在数学基本上。

key 发表于 8-5-2009 01:41:24

原帖由 woodheadz 于 20-4-2009 11:45 发表 http://www.freeoz.org/forum/images/common/back.gif



我想要做一个能够自动分析一段文字的内容所属类别的程序,青山兄能否指点下相关的理论/开源算法呢? 一些入门的提示就可以了。THX!

如果你想做分类器算法的实验研究,可以考虑用rainbow,这是 CMU 大学开发的一套用于文本分类的多算法集成开源系统。http://www.cs.cmu.edu/~mccallum/bow/rainbow/
如果你只是想做一个简单的文本分类器,可以考虑bmf,这是一个以简单贝叶斯算法为基础的文本分类器;另一个类似的分类器是bogofilter,应用也很广泛。
如果你想学习上面这些开源系统的理论,可以找一本《统计学习理论》http://www.china-pub.com/20254,来看

coredump 发表于 8-5-2009 01:42:04

回复 #100 key 的帖子

能不能讲讲支持向量机(SVM),我以前听过一个SVM的讲座,一直没搞明白, 神经网络和遗传算法倒是都挺容易的。

key 发表于 8-5-2009 02:12:35

原帖由 coredump 于 8-5-2009 00:42 发表 http://www.freeoz.org/forum/images/common/back.gif
能不能讲讲支持向量机(SVM),我以前听过一个SVM的讲座,一直没搞明白, 神经网络和遗传算法倒是都挺容易的。

SVM我本身也学得不太好,我尝试说一下,但估计不对的可能性大一些,哈哈。

SVM是一个建立在N维空间的超平面学习器。首先把输入数据当做一个N维空间的两组向量,分别有正和负两类。
在这个N维空间中建立一个超平面,调整个这超平面的形状和位置,使得输入向量与超平面之间形成的margin是最大的。

数学表示就是
D = { (xi,ci) | xi为N维空间中的向量,ci是+1, -1中的一个值 }
这样的(xi, ci)有n个

如果有一个超平面 W * X - b = 0,其中W为一个向量,X为任意的点在空间的表示。整个算式代表一个N维空间的超平面。

我们要做的事就是把这样的一个超平面找出来,目前当然就是调节W和b了。于是同时建立两个平行的超平面

W * X - b = 1 和 W * X - b = -1 (01)

通过几何运算,可以得到这两个平面的距离实质上就是 2 / ||W||,只要||W||的值达到最小,那么这两个平面的距离
就是最大。

而我们是用(01)中的两个平面来匹配输入集合中的xi的,所以,我们把所有的ci==+1的xi代入(01)中的前一个式,
把ci==-1的xi代入(02)中的第二个式,得到:

W * xi - b >= 1 和 W * xi - b <= -1

这里之所以不是=,理由很明显,因为一般来说我们很难得到一个perfect的的超平面,使所有的xi都在上面。
上面这两个式子又可以简化为:
ci(W * xi - b) >= 1 (02)

然后就是按照(02)式进行优化运算,使得||W||最小

上面的(02)又可以转化为优化(1/2)||W||^2为最小,使用(02)式成立。

我能说的就这么多了,再写下去我自己会疯掉的。。。

key 发表于 8-5-2009 02:14:51

原帖由 coredump 于 8-5-2009 00:42 发表 http://www.freeoz.org/forum/images/common/back.gif
能不能讲讲支持向量机(SVM),我以前听过一个SVM的讲座,一直没搞明白, 神经网络和遗传算法倒是都挺容易的。

另外,不要因为觉得某种算法容易、简单,就轻易放弃不用。能把简单算法用好,其实本身就是一件了不起的事。

key 发表于 8-5-2009 02:18:11

原帖由 青山 于 20-4-2009 13:14 发表 http://www.freeoz.org/forum/images/common/back.gif
你对AI现状的了解基本上差不多。不过我不赞同你的结论。

模糊识别并不是一定要新的结构的计算机才可以实现的。
我认为模糊识别本身,就是一种通过算法可实现的东西。

另外,通过模糊识别和训练样本中的要素做 ...

青山同学在哪个大学读的研究生?

key 发表于 8-5-2009 02:36:50

原帖由 key 于 8-5-2009 01:12 发表 http://www.freeoz.org/forum/images/common/back.gif


SVM我本身也学得不太好,我尝试说一下,但估计不对的可能性大一些,哈哈。

SVM是一个建立在N维空间的超平面学习器。首先把输入数据当做一个N维空间的两组向量,分别有正和负两类。
在这个N维空间中建立一个超 ...

对于上面一大堆的代数运算,我们可以用简单的例子来解析一下,用我自己的话来说,就是把这些数学问题庸俗一下,哈哈

给数据集:D = { ({1}, 1), ({-1}, -1) },也就是x1 = {1}, c1 = 1, x2 = {-1}, c2 = -1。想都不用想,就知道这个一维“超平面”为:W = {1}, b = 0
给数据集:D = { ({1, 0}, +1), ({0, 1}, +1), ({-1, 0}, -1), ({0, -1}, -1) }, 在平面直角坐标系中画一下这四个点,很容易就得到一个“超平面”:W={1, 1}, b = 0

而svm要解决的问题是N很大,而数据集中还存在一些误判数据,这些才是svm算法的精华。。。希望上面的东西对你的入门有一定的帮助吧。

青山 发表于 8-5-2009 14:39:24

Swinburne 目前Phd在读。
国内本科毕业。

原帖由 key 于 8-5-2009 01:18 发表 http://www.freeoz.org/forum/images/common/back.gif


青山同学在哪个大学读的研究生?

青山 发表于 8-5-2009 14:42:38

我现在做的就是尝试把我的猜想,在现有的计算机上建立模型,实现出来。

到目前为止,在理论上我没碰到任何真正过不去的地方。相反,随着猜想的深入和细化,很多现象都让我觉得我离目标越来越近了。

我现在主要的障碍其实是训练集不足。

原帖由 ubuntuhk 于 7-5-2009 23:53 发表 http://www.freeoz.org/forum/images/common/back.gif
你这说得太玄了,等你建立这个玄学理论,还得发展一套相应的神经元计算机系统,否则现在的01计算机系统应该没法实现:lol :lol :lol

青山 发表于 8-5-2009 14:47:01

没错,模型最终就建立在数学运算,条件判断之上。没什么神秘的。
我说的神经元环路产生自我意识,指人脑的神经元,但是这种环路并非不可模拟的。
我觉得也没有大多数人认为的那样神秘。我现在就在努力在现有的计算机上建立模型,
模拟这种神经元活动。

这个模型和以往的神经元模型还是有区别的。但是没有本质差别。我觉得现在之所以
还没有模拟出人脑的活动,只是神经元的传播和激活策略还跟人脑差距比较大。
并没有根本性的障碍。



原帖由 key 于 8-5-2009 00:00 发表 http://www.freeoz.org/forum/images/common/back.gif

其实你说的这些还是离不开if/else判断,即使应用了一些高级的数学模型。我不知道你所说的“神经元”是否指人工神经网络中的神经元,
还是广义的通过人工智能运算建立的神经单位。如果你说的是人工神经网络科学中的神经元,到最后还是数学运算、条件判断、反馈运算等东西,
可能加入一些伪随机数,以增加不确定性和多态选择吧。这些东西,无论怎样说,都只是运算,而不是真的“智能”。只是利用了现代计算机,
或未来计算机高速运算能力来模拟一些和人相似的操作。

人类思绪的独立性和原生性,我觉得图灵机的发展方向永远都不会达到。

青山 发表于 8-5-2009 14:50:19

机器学习就是数学应用,没错。你说的这些算法也都在特定的领域起作用。
但是,现在人工智能问题的关键在建模,而不在算法。

就像建立一个模型都需要加减乘除一样,你可以说这个课题是加减乘除的应用,
但是,研究的主要挑战,显然并不是加减乘除。

原帖由 key 于 8-5-2009 00:35 发表 http://www.freeoz.org/forum/images/common/back.gif


我的看法和你正好相反。我觉得机器学习就是一门数学应用。
现在可以找到的最成功的机器学习算法,什么贝叶斯分类器、SVM、BP神经网络,遗传算法等,
无一不是建立在数学基本上。

青山 发表于 8-5-2009 14:55:18

把machine learning等同于,或者过度依赖于统计学,这正是目前这个领域的问题所在。
现在大多数自然语言理解的算法,都建立在各种统计学算法之上。但是我恰恰觉得因此他们走在死胡同里。

自然语言的多样性,决定了依靠传统的统计学,永远只能挂一漏万,自然语言处理中,共性是相对的。
规则也是相对的,特殊性却是普遍存在的。从统计学的角度去解决这些问题,到一个程度就无法前进了。
这正是过去10年自然语言理解没有实质性进展的原因。



原帖由 key 于 8-5-2009 00:19 发表 http://www.freeoz.org/forum/images/common/back.gif


ML(Machine Learning)目前比较热。但如果你在数学上,尤其是在统计学上没有特别的兴趣和优势,
想在这方面出成绩,看来不容易。

现在的ML算法,很大程度上建立在统计学习理论上,这方面也是比较成熟的方向 ...

青山 发表于 8-5-2009 15:00:33

这点我很赞同。我现在就觉得,一个建立在相对简单算法上的,符合实际的模型,是解决人工智能问题的关键。
人的大脑的处理方式,并不需要多么复杂的数学理论。神经元传导和激活的方式,应该是简单的数学模型就可以表达和模拟的。

原帖由 key 于 8-5-2009 01:14 发表 http://www.freeoz.org/forum/images/common/back.gif


另外,不要因为觉得某种算法容易、简单,就轻易放弃不用。能把简单算法用好,其实本身就是一件了不起的事。

青山 发表于 8-5-2009 15:10:13

现在的计算机谈不上智能。只是运算。

虽然我觉得智能可以建立在运算之上,但是仍然有一个量变到质变的过程。
人们讨论的所谓“奇点”,也就是这个质变的点。

原帖由 key 于 7-5-2009 23:35 发表 http://www.freeoz.org/forum/images/common/back.gif

其实要说“人工智能”超势“人”的智能,那就早已经超越了。。。随便找台电子计算器就算得比人快……
机器有机器的特点,人有人的特点,个人觉得完全没有必要去考虑谁超越谁。

就图灵机的定义来看,这种AI永远都只会是机器。

倒是“生物机器人”这个方向多少会有点危险。

klux 发表于 9-5-2009 21:00:31

原帖由 青山 于 8-5-2009 13:55 发表 http://www.freeoz.org/forum/images/common/back.gif
把machine learning等同于,或者过度依赖于统计学,这正是目前这个领域的问题所在。
现在大多数自然语言理解的算法,都建立在各种统计学算法之上。但是我恰恰觉得因此他们走在死胡同里。

自然语言的多样性,决定 ...

正好相反吧,machine learning本身就是从统计学来的,靠统计学才热的。基于规则的那一套早期的AI一直在做

klux 发表于 9-5-2009 21:06:14

原帖由 key 于 8-5-2009 00:00 发表 http://www.freeoz.org/forum/images/common/back.gif

:P

其实你说的这些还是离不开if/else判断,即使应用了一些高级的数学模型。我不知道你所说的“神经元”是否指人工神经网络中的神经元,
还是广义的通过人工智能运算建立的神经单位。如果你说的是人工神经网络 ...

个人以为智能的本质就是计算。
人脑不过是几十亿的神经元的组合,神经元的行为方式也就是冲动或抑制,还超越不了图灵机的表达能力

青山 发表于 9-5-2009 21:30:25

现在说的machine learning确实是从统计学来的。但是我认为machine learning如果不超越统计学,就没前途。

另外,我的思路并不是主要基于规则。而是基于搜索。我很赞同那个说法,就是人工智能的本质是搜索。
当然了,这个搜索,不是现在常见的那种keyword搜索。

原帖由 klux 于 9-5-2009 20:00 发表 http://www.freeoz.org/forum/images/common/back.gif


正好相反吧,machine learning本身就是从统计学来的,靠统计学才热的。基于规则的那一套早期的AI一直在做

青山 发表于 9-5-2009 21:31:26

我赞同你说的这个。我认为神经元的状态,只需要相对简单的数学就可以表达。

原帖由 klux 于 9-5-2009 20:06 发表 http://www.freeoz.org/forum/images/common/back.gif


个人以为智能的本质就是计算。
人脑不过是几十亿的神经元的组合,神经元的行为方式也就是冲动或抑制,还超越不了图灵机的表达能力

klux 发表于 9-5-2009 23:30:11

原帖由 青山 于 9-5-2009 20:30 发表 http://www.freeoz.org/forum/images/common/back.gif
现在说的machine learning确实是从统计学来的。但是我认为machine learning如果不超越统计学,就没前途。

另外,我的思路并不是主要基于规则。而是基于搜索。我很赞同那个说法,就是人工智能的本质是搜索。
当然 ...

well, 广义上任何一种算法都是在解空间的搜索,不同的限制条件和搜索策略有时可以使算法急剧简化。
你说的搜索指什么呢

青山 发表于 10-5-2009 17:15:18

海量模式的搜索。我现在的研究,就是语义模式的发现和相关的匹配策略。

你说对了,由于自然语言语义关系的空间分布不均匀,搜索的时间复杂性和空间复杂性,都有很大的余地去优化。

很多人总用复杂性理论来说这个不可能,那个不可能。但是复杂性理论研究的,是最坏的情况。如你所说,适当的限制条件和策略可以大大降低复杂性。



原帖由 klux 于 9-5-2009 22:30 发表 http://www.freeoz.org/forum/images/common/back.gif


well, 广义上任何一种算法都是在解空间的搜索,不同的限制条件和搜索策略有时可以使算法急剧简化。
你说的搜索指什么呢

klux 发表于 10-5-2009 20:59:01

原帖由 青山 于 10-5-2009 16:15 发表 http://www.freeoz.org/forum/images/common/back.gif
海量模式的搜索。我现在的研究,就是语义模式的发现和相关的匹配策略。

你说对了,由于自然语言语义关系的空间分布不均匀,搜索的时间复杂性和空间复杂性,都有很大的余地去优化。

很多人总用复杂性理论来说这 ...

确实,对于做理论的人来说,找到一个界之后他们就不care了,但在一个具体应用中还是可能有很多可以优化的地方。
能具体谈谈你做的问题定义吗?或者指点一下相关的文章
页: 1 2 3 [4] 5
查看完整版本: 人工智能跨越“奇点”?