说了半天邪恶,善良,其实我要说的是,新的人工智能体不论怎么做,都与道德无关,他们的道德不可能是人类的道德。他们不会专杀人类,但可能像我们不是专门杀牛一样。;P 他们怎么做,并不受人类的道德标准的影响。
...
先重申一下,我并没有从道德上去评价,更没有从善恶上去评价整件事情。我关心的只是真实的情况是否被夸大了?
另外,我不赞成我们应该去阻止任何的研究,不能阻止人们去探求真理。而且我们也无法阻止,就如所说的“无法阻挡”。
至于说风险,人们不会因研究一个技术而导致我们的毁灭,只会因为滥用一个技术而导致我们毁灭。
我们已经研究了核能,研究了病毒,研究了克隆,。。。。这些研究并没有导致我们灭亡。然而所有这些研究一旦被滥用都会导致我们的灭亡。
研究人工智能不会导致我们灭亡,当我们研究的这种“智能”成功了,真的出现了,我们要考虑如何不被滥用的时候才是风险评估最中要的时机。那要由当时人类的智慧来决定。
而现在,这种研究的成果都还没出现,就来想退路,其实也没有多少意义。
现在,这种研究甚至还没有进行到那一步,更
研究人工智能不会导致我们灭亡 我举的例子是说明人身本身智慧的复杂性,心理,动机,存在感等等。如果连人类智慧本身都没有弄明白,谈什么超越?
我的观点还是:从进化,抽象理论系统的掌握,文化艺术,情感欲望等一系列上,起码几千年内机器不能够做到比人类复杂和绚丽,这个几千年也就是我随便猜的。一百年内我认为是绝对不可能的。
如果你认为机器智能不一定要走人类这条路,那问题就变成你怎么看'超越‘,如果你认为机器算的快或者下棋厉害就算超越了那早超越了。
再说实在点,有个机器人坦克游戏,你可以写程序去打别人的坦克,也可以写点类似于学习的程序,根据别人的行动采取更有利的策略,看起来是学习,其实压根不是,不过是if else。我认为目前的所谓机器自学习恐怕也都属于判断,寻路搜索之类,比新生儿牙牙学语甚至也许比蚂蚁搬米粒那都差了太多太多。
[ 本帖最后由 black_zerg 于 25-12-2008 00:03 编辑 ] ---------------------------------------------------------------------------------------------------------------------------
插句无关的话:大家的讨论太精彩了,我忍不住要加精华了, 虽然我是LZ,虽然是个转帖
我就占各位这个便宜了:$
---------------------------------------------------------------------------------------------------------------------------
楼下请继续:victory: 我不但没有想过要阻止人们去探求,相反,我自己就在研究机器学习。正因为如此,我深刻地体会到这个发展方向不可阻挡。但是在研究的同时,我也在考虑未来的风险和解决的办法,这应该是负责任的研究工作者所必须的。尽管我不完全确定我的有生之年能否看到接近甚至超越人类智力的人工智能体的出现。风险即不应该被夸大,也不应该被忽视。
而且我觉得人工智能体和以往的发明不同,对于以往的发明,我们可以说危险来自于人类本身的滥用,但是人工智能体不同,通过一个特定的点之后,主动权可能就不掌握在我们手中了。就像某些国家的社会一样,如果统治者不自上而下地改变,被统治者就会自下而上的革命。这个道理对未来的人与人工智能体的关系同样适用。
我觉得给人类留下的准备时间已经不多了,人类太习惯于自己是绝对的最高级生物了。有可能在几代的时间内,人类就将面临要和一种更高智力的物种共处的情况。如何算更高我们不用争论,只要这个物种的智力足以跟人类对抗,就够了。
原帖由 Linus 于 24-12-2008 23:44 发表 http://www.freeoz.org/forum/images/common/back.gif
先重申一下,我并没有从道德上去评价,更没有从善恶上去评价整件事情。我关心的只是真实的情况是否被夸大了?
另外,我不赞成我们应该去阻止任何的研究,不能阻止人们去探求真理。而且我们也无法阻止,就如所说的“无法阻挡”。
至于说风险,人们不会因研究一个技术而导致我们的毁灭,只会因为滥用一个技术而导致我们毁灭。
我们已经研究了核能,研究了病毒,研究了克隆,。。。。这些研究并没有导致我们灭亡。然而所有这些研究一旦被滥用都会导致我们的灭亡。
研究人工智能不会导致我们灭亡,当我们研究的这种“智能”成功了,真的出现了,我们要考虑如何不被滥用的时候才是风险评估最中要的时机。那要由当时人类的智慧来决定。
而现在,这种研究的成果都还没出现,就来想退路,其实也没有多少意义。
现在,这种研究甚至还没有进行到那一步,更
研究人工智能不会导致我们灭亡
回复 #64 青山 的帖子
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。:$遗传编程/GP
转个和本话题有关的wiki条目:遗传编程 Genetic programmingFROM:http://zh.wikipedia.org/w/index.php?title=遗传编程
http://en.wikipedia.org/wiki/Genetic_programming
遗传编程,或称基因编程/GP ,是一种从生物演化过程得到灵感的自动化生成和选择计算机程序来完成用户定义的任务的技术。从理论上讲,人类用遗传编程只需要告诉计算机"需要完成什么",而不用告诉它"如何去完成",最终可能实现真正意义上的人工智能:自动化的发明机器。
遗传编程是一种特殊的利用进化算法的机器学习技术, 它开始于一群由随机生成的千百万个计算机程序组成的"人群",然后根据一个程序完成给定的任务的能力来确定某个程序的适合度,应用达尔文的自然选择(适者生存)确定胜出的程序,计算机程序间也模拟两性组合,变异,基因复制,基因删除等代代进化,直到达到预先确定的某个中止条件为止。
遗传编程的首批试验由斯蒂芬.史密斯 (1980)和Nichael .克拉姆 (1985)发表。约翰.Koza(1992)也写了一本著名的书,《遗传编程:用自然选择让计算机编程》,来介绍遗传编程。
使用遗传编程的计算机程序可以用很多种编程语言来写成。早期(或者说传统)的GP实现中,程序的指令和数据的值使用树状结构的组织方式,所以那些本来就提供树状组织形式的编程语言最适合与GP,例如Koza使用的Lisp语言。其他形式的GP也被提倡和实现,例如相对简单的适合传统编程语言(例如Fortran, BASIC, and C)的线性遗传编程。有商业化的GP软件把线性遗传编程和汇编语言结合来获得更好的性能,也有的实现方法直接生成汇编程序。
遗传编程所需的计算量非常之大(处理大量候选的计算机程序),以至于在90年代的时候它只能用来解决一些简单的问题。近年来,随着遗传编程技术自身的发展和中央处理器计算能力的指数级提升,GP开始产生了一大批显著的结果。例如在2004年左右,GP在多个领域取得近40项成果:量子计算,电子设计,游戏比赛,排序,搜索等等。这些计算机自动生成的程序(算法)中有些与2000年后人工产生的发明十分类似,甚至有两项结果产生了可以申请专利的新发明。
在90年代,人们普遍认为为遗传编程发展一个理论十分困难,GP在各种搜索技术中也处于劣势。2000年后,GP的理论取得重大发展,建立确切的GP概率模型和 马尔可夫链模型已成为可能。遗传编程比遗传算法适用的范围更广(实际上包含了遗传算法)
除了生成计算机程序,遗传编程也被用与产生可发展的硬件。
Juergen Schmidhuber进一步提出了宏遗传编程,一种使用遗传编程来生成一个遗传编程系统的技术。一些评论认为宏遗传编程在理论上不可行,但是需要更多的研究在确认。
参考文献
[*]Banzhaf, W., Nordin, P., Keller, R.E., Francone, F.D. (1997), Genetic Programming: An Introduction: On the Automatic Evolution of Computer Programs and Its Applications, Morgan Kaufmann[*]Cramer, Nichael Lynn (1985), "A representation for the Adaptive Generation of Simple Sequential Programs" in Proceedings of an International Conference on Genetic Algorithms and the Applications, Grefenstette, John J. (ed.), CMU[*]Koza, J.R. (1990), Genetic Programming: A Paradigm for Genetically Breeding Populations of Computer Programs to Solve Problems, Stanford University Computer Science Department technical report STAN-CS-90-1314. A thorough report, possibly used as a draft to his 1992 book.[*]Koza, J.R. (1992), Genetic Programming: On the Programming of Computers by Means of Natural Selection, MIT Press[*]Koza, J.R. (1994), Genetic Programming II: Automatic Discovery of Reusable Programs, MIT Press[*]Koza, J.R., Bennett, F.H., Andre, D., and Keane, M.A. (1999), Genetic Programming III: Darwinian Invention and Problem Solving, Morgan Kaufmann[*]Langdon, W. B., Poli, R. (2001), Foundations of Genetic Programming, Springer-Verlag[*]Poli, R., Langdon, W. B., McPhee, N. F. (2008), A Field Guide to Genetic Programming, freely available via Lulu.com.[*]Smith, S.F. (1980), A Learning System Based on Genetic Adaptive Algorithms, PhD dissertation (University of Pittsburgh)
遗传编程:蒙娜丽莎的进化
FROM:http://developers.solidot.org/article.pl?sid=08/12/09/1343232用50个半透明多边形重画《蒙娜丽莎》对每个程序员都是一次挑战,Roger Alsing使用遗传编程方法轻松的完成了这一挑战(http://rogeralsing.com/2008/12/07/genetic-programming-evolution-of-mona-lisa/)。他的blog提供了一系列图像展示了蒙娜丽莎是如何在约一百万代后进化到一个比较满意的结果,从中你可体会到进化算法的强大。 我做研究根多数从本科,硕士那么上来的人也不太相同,我也是本科毕业做了很多年程序员。
他们主要是看了很多论文。我目前基本的路子是所有研究都是基于实验的。目前软件方面的research,
依靠实验的人很少,我个人认为这是个误区。很多人就靠看别人的论文,然后通过数学和逻辑理论推演,
做研究。这个对其他领域可能可以,但是在人工智能这边,我觉得不成。
我目前的方法是通过基础的语义网络,加上阅读理解人工标注的训练文集,建立一个基本的知识库。
然后试图通过阅读未经过人工标注的,比如互联网上随便的文章,来扩展这个知识库。当然,
这个方法也有其他人在做。我觉得我的优势在大量的实验。劣势在理论体系不够系统。
具体的当前的题目是Word Sense Disambiguation,就是多义词释疑。一个词一般都有多个意思。
要想真的理解文章,第一步就是确定每个词在上下文中的实际含义。然后再根据这些词义,建立知识
网络。
基础包括WordNet,SemCor,Senseval这些东西,网上可以查到。还有相关的论文。
原帖由 coredump 于 25-12-2008 01:07 发表 http://www.freeoz.org/forum/images/common/back.gif
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。:$ 我也做了很多年程序员,最近一直在打算读个研究生,对ai也挺有兴趣。不过确实貌似research主要靠数学,写论文,不知道如果有机会真的做了,会不会不是我喜欢的。 确实,research主要是写论文。我现在通过实验的方法做研究,也是承受着我导师的不小的压力的。
这种方法并不被目前多数学院派的研究者所喜爱。不过压力归压力,我该怎么做还是怎么做。
我个人认为,AI这边的研究主要靠数学是不成的,必须有大量的实验做基础。
原帖由 someonehappy 于 25-12-2008 02:46 发表 http://www.freeoz.org/forum/images/common/back.gif
我也做了很多年程序员,最近一直在打算读个研究生,对ai也挺有兴趣。不过确实貌似research主要靠数学,写论文,不知道如果有机会真的做了,会不会不是我喜欢的。 ai 这玩意没有几千年是成不了物种的,不用担心,而且他还得有动机,且掌握物理手段才能威胁人类吧。人类掌握一切科技和武装,真有那种事情,瞬间就把突变的这机器给崩了。有点可能的就是某个破国家的控制核弹的电脑出毛病中病毒,(被 黑客侵入可能性更大点),乱发核弹那是能炸死人。那也没办法阿,那就是出bug了,就是事故,和核子泄露一个本质。那种东西一般都会设计的好多重保险吧。概率太低了。
个人以为人工智能这个没有理论支持是很难突破的,上面的遗传编程我认为思路是正确的,但限于本身水平我也不知道他到底发展的如何了,就直觉来说感觉还要上千年才能造出个蚂蚁(具有所有的能力,繁殖,进化,群体协作,自主活动),而且我倾向于造出个实体蚂蚁到处跑,不然怎么学习自然环境呢。所以这需要很多科技,上千年都是个乐观的。
上帝本身就是个程序员,我们就是这么给造出来的,当年他老人家也是呕心沥血阿,不容易的。 看来还必须澄清一下:
1.首先对AI的研究表示极大的尊敬,这样的研究是对智能和意识之谜的探索的前沿阵地。从事这项研究的工作者都是探索真理的道路上的勇士!每一个人为此付出的心血和努力都值得全人类感激和骄傲的!:handshake
2.我说的“夸大”是指的对我们认识阶段的夸大,不是指的对风险的夸大(风险大小尚不得而知,如何知道是否夸大?)。-------在我们对一件事的认识还有如此之多的“未知”的时候,本着科学工作者的严谨,我们不应夸大为“已知”。在谈论超越“奇点”,谈论人类不过是一群运行复杂程序的机器人的时候,我们很可能下意识的忽略了很多未知的因素,把整件事情想的过于简单,把这些“未知”当成了“已知”。----------这就是夸大。
3.在我谈到人类“价值观”的概念的时候,不是想从人类和昆虫“谁更高尚”去道德比较,那样没有意义,正如前面所提到的,动物可能认为人是最卑劣的。---------这样比较没有任何意义。
----------应该比较的是行为,判断的复杂性!人类经常根据”价值观“做出”违反生物本能“的行为判断,对同一件事的判断和审视是非常多样性的。--------这种行为和判断复杂性正是更高级的智能导致的。
而一种”生物“,如果我们观察它,它始终只会从生物本能去做相对简单的反应和判断-----------是否可以认为它其实只具有相对”低级“的智能呢?-------------我说的”高级“和”低级“主要是从这里来评价的(而不是从道德来评价的)。
4.关于“凡是生物,都是自私,冷酷,残忍的”----------也是需要澄清一下的:
其实不是说一种生物要消灭我们,我们就骂它们“自私,冷酷,残忍!!!”-------不是这个意思!:lol(那就又变成从人类道德上去评价了)
这个问题真正的包含的是:这种要消灭我们的新型“高智能”似乎看上去根本无法与我们进行“情感上的交流 ”。人和动物是不同的物种,却可以有“情感的交流”,不同动物之间甚至也可以有“情感的交流。我们对动物的怜爱也是这种情感交流产生的。如果能够和”它们“产生交流,为什么不能与它们协商而建立一种互不伤害,和平共存,互惠互利的关系呢?人类不也是这样协调了不同利益团体间的共存吗?不就是因为互相能够产生交流吗?
当然,我们可以托词说,我们这些生物在进化上都是”同源“的,所以我们可以产生情感的交流。而这种”新生物“根本不是由进化而产生的,跟我们有根本的不同!所以我们根本没有办法与他们有情感上有任何的交流!
可是不是说我们的人工智能能够做的自主学习吗?它们为什么就不能学习和人类交流呢?不是说在这些智能中加入情感并不难,加入情感只是”锦上添花“吗?象这样"小菜一蝶”的事情怎么就会导致了我们最后灭亡了呢?
回到一开始的观点,最有可能的解释还是: 我们从一开始就夸大了我们对整件事情的认识。把事情想的过于简单了。忽略了太多本应该考虑进去的因素。
要知道,这样违背科学严谨的夸大---------------才是对AI研究最大的不尊敬!
[ 本帖最后由 Linus 于 26-12-2008 08:47 编辑 ] 我觉得不尊敬完全谈不上。科学的进步就是建立在猜想之上的。任何对未来的判断都是基于概率的,都是有不确定性的,不然就成了现在而不是未来了。
我觉得楼上的大大地高估了人类本身“违反生物本能的行为判断”能力。人类在这方面的能力其实是很弱的。近几千年以来,杀死人类最多的,就是人类。同类之间的情感交流,都不能阻止相互的屠杀,何况截然不同的两种不同的生命形式?部分人类对其他生物的仅有的那一点同情心,也是建立在人类占有绝对的统治地位的基础上的。
我认为人工智能体和人类发生冲突的可能性很大,是基于他们在智力水平和人类相近的阶段,也拥有和人类接近的道德水平这个假设。
我认为如果他们的“道德水平”和我们人类接近,那么这种冲突几乎不可避免。 科学需要猜想,但猜想不是科学。
不需要去关注“违背本能”在人类历史上产生了什么影响,应该关注“违背本能”的出现对智能意味这什么?更复杂还是更简单?是更高级的阶段还是低级阶段?
如果这种“智能”出现了没有人可以认为“冲突一定可以避免”,而是说想通过分析灭亡和不灭亡这两种猜想来说明我们可能夸大了现阶段的认识,其结果可能是 -----------以我们现在所认识的这些因素,这种“智能”根本就还造不出来。只不过我们以为能造出来而已。他们都不出现,冲突如何产生??
[ 本帖最后由 Linus 于 26-12-2008 09:24 编辑 ] 猜想不是科学本身,但猜想引导科学,猜想是研究的重要组成部分。人类历史上的
众多科学进步,都启自猜想。很多有价值的猜想,也都建立在现有的研究之上。
在没有成为现实之前,任何可能都存在。我只是根据我的研究心得,做出我的推测。
可能我们造不出来,但我们也可能能造出来,风险就存在于这种可能之中。
那么在我们向着这种可能迈进的过程中,对风险的讨论和准备,也是正常和必要的。
我们的差别只是在于,对于这种前景产生的几率的判断不同。我倾向于相信在不远
的将来,我们就会面临这个问题,你倾向于相信几千年内都不会面临这个问题。
另外,这个帖子并不是讨论人类道德的。但是楼上有一个假设我觉得有点一厢情愿。
就是你说如果这些人工智能体智力超过人类,那么他们的“道德”水平也自然会
超过人类,以至于他们不会消灭人类。这个假设我觉得是没有根据的。我之所以提及
人类本身的道德,是为了说明即使他们和人类拥有近似的“道德”水平,他们仍然会
试图消灭人类。
原帖由 Linus 于 26-12-2008 09:22 发表 http://www.freeoz.org/forum/images/common/back.gif
科学需要猜想,但猜想不是科学。
如果这种“智能”出现了没有人可以认为“冲突一定可以避免”,而是说想通过分析灭亡和不灭亡这两种猜想来说明我们可能夸大了现阶段的认识,其结果可能是 -----------以我们现在所认识的这些因素,这种“智能”根本就还造不出来。只不过我们以为能造出来而已。他们都不出现,冲突如何产生??
其实不是说智力比人类高,道德就比人类高。我没有这样推理。
充分的交流可以避免冲突。寻求双赢的解决途径。
而是说如果他们是我们造出来的高智力,而却连和我们交流的会有问题的话,我们却为什么要夸口说以现在的技术,让它们会思考,会独立学习,加入感情也根本不成问题呢?-------- 这不是夸大是什么呢??
问题的始终并没有涉及道德。 不是不能猜想,世界在下一秒毁灭的概率也是有的,不过不能吧“已知”和“未知”混淆起来。这是不严谨的态度。 双赢并不是自然界中最普遍存在的现象。尤其在不同的物种之间。更多的是竞争和资源,空间的争夺。
会思考,会独立学习,这些都是具体的技术课题。能否实现这些技术课题和能否把人工智能体的道德
与交流提高到比人类现有的水平还高的程度,没有直接关系。至于情感,前边说的不过是模拟人类的情感,
这个是另外的问题。这些情感并不能真正左右人工智能体的决定。
我不明白这跟夸口有什么关系。从技术角度来说,我认为实现人工智能体会思考,会独立学习并不遥远。
但是让人工智能体出于本身的利益,而不是某些人为设定的限制,而乐于跟人类双赢,这是完全另外一个问题。
可能永远也不可能实现。
难道制造出的人工智能体,只要不愿意跟人类双赢,我们就不承认他们会思考,会独立学习?
“因为人工智能体出于本意未必会和人类追求双赢,所以我们就造不出能够独立思考和学习的人工智能体。”
楼上这个判断的逻辑在哪里?
原帖由 Linus 于 26-12-2008 10:53 发表 http://www.freeoz.org/forum/images/common/back.gif
其实不是说智力比人类高,道德就比人类高。我没有这样推理。
充分的交流可以避免冲突。寻求双赢的解决途径。
而是说如果他们是我们造出来的高智力,而却连和我们交流的会有问题的话,我们却为什么要夸口说以现在的技术,让它们会思考,会独立学习,加入感情也根本不成问题呢?-------- 这不是夸大是什么呢??
问题的始终并没有涉及道德。 不知道是不是表达的还不够清楚。
逻辑是:对于智能和意识,我们知道的其实没有我们认为的那么多(我们的认识被夸大了),所以现阶段我们的认识,知识,其实很可能造不出我们所期望的那种“智能”。
这就如同人们曾经认为通过“炼金术”可以炼出金子一样,那时的人的认识阶段其实还很初级。现在我们知道了,要炼出“金子”其实哪里是把各种物质熔在一起,产生物理化学反应那么简单??
我们现在的阶段就很相似,甚至还不如一些,古人至少知道什么是金子,当炼出来一个东西他们可以有办法去鉴定那东西是不是金子。而我们要造出智能,造出独立意识,我们甚至都没有办法去鉴别我们造出来的究竟是不是我们说的那种智能,还是不过是一个“四不像的模仿品”??
至于认为双赢不是自然界的普遍现象---------那怎么解释多物种的共存?按照这种观点,自然界应该是只存在一个最强的物种而已,因为它消灭了所有比自己弱的物种?
不过走的有些远了,我们分析讨论这么多假设,甚至扯到双赢这样的问题上来,其实只是想说明我们对于整件事的认识还远远不够。缺失的信息还很多。
一开始我们认为一种有智能,独立意志,能学习,有感情的“可教之才”的新生物就要降生了!------------可是仔细分析了各种可能性以后发现他们其实这个也不能,那个也不能,这个也是模拟,那个也是模拟,甚至于能否与之交流都还两说着呢,究竟是不是一种“四不像的模仿品”?。。。。。。这其实已经很能说明我们的认识阶段还很初级。
不过我很赞成“模拟情感”这样的概念,其实AI从一开始就是在模拟人类,我们现在也其实是在复杂的通过程序“模拟人类思维”,“模拟人类行为”,“模拟人类自主学习的行为”,“模拟人类感情”。。。。。。。
在加上一个“模拟”以后,夸大的成分就完全没有了。
比如“模拟感情”其实就说我们现阶段还虽然很难界定怎样是“有感情”,怎样是“没感情”,现阶段也还不清楚感情是怎样产生的,不清楚其产生的全部机理---------------但是我们可以用程序模拟出“有感情”的状况,就像现在流行的“电子宠物一样”。虽然暂时还炼不出金子,做个模仿品还是容易实现的。
总之一句话,如果我们说不久的将来,会有一种具有模拟思维,模拟学习能力,模拟独立思考能力,具有模拟情感的“模拟智能新生物”会出现的话,就毫无夸大,非常严谨,非常赞同。但是要说有一种“新智能生物”出现,其实是跨越了很多难以鉴定的因素,是一厢情愿的夸大。:handshake 学习能力和独立思考的能力,谈不上模拟。这些如果能做出来,就是真正的。
之所以说情感是模拟,原因在于情感是建立在人体这种生物体之上的。受人的
各种激素水平的控制。所以要想把机器人做得和人类似,就只能模拟。
事实上,感情这个问题并不是我提出来的。我说的人工智能体,就是能够独立思考
和学习。有这两天就够了。我们为什么非要要求他们有跟人类相似的感情?
我认为能够独立思考和学习的人工智能体,在不远的将来甚至是我们有生之年就会
出现。不要扯上感情和道德。这些都跟我的命题无关。我也判断不了。感情和道德
并不是判断人工智能奇点的必要条件。因为一旦人工智能体有了自主思考和学习的
能力。不管你说它是什么,都不得不重视它,因为它开始不完全受人类的控制了。 原帖由 青山 于 20-12-2008 12:02 发表 http://www.freeoz.org/forum/images/common/back.gif
我现在就在研究自然语言理解。你说的基本上路子是对的。通过建立一个模型,赋予计算机自学习的能力,构建其语言处理能力。
我觉得离实质性突破,并不遥远。就算我这几年搞不出来,其他人也能在不远的将来搞出来。
...
我想要做一个能够自动分析一段文字的内容所属类别的程序,青山兄能否指点下相关的理论/开源算法呢? 一些入门的提示就可以了。THX! 如果机器人变得跟人类一样狡猾,贪婪的时候,还有人类生存的空间么? 基于真正理解的文本分类,现在还没有。有了奇点就跨过了。
现在的大多数都是基于统计学的分类方法。
比较简单的。就是把已经人工分类的文章按类别分开。
新来一篇待分类的文章,统计每个词在不同分类文章中出现
的次数。说实话,我觉得这方法误差还是蛮大的,不过目前
大多数都是基于这种统计学方法的分类方法。
别说多个类别分类,就是二选一,都是大问题。比如垃圾邮
件识别,就是这种分类问题的最简单应用。但是即便如此,
误判仍然是相当多的。所以我觉得,这种简单的统计学方法,
基本上是走进了死胡同。
原帖由 woodheadz 于 20-4-2009 11:45 发表 http://www.freeoz.org/forum/images/common/back.gif
我想要做一个能够自动分析一段文字的内容所属类别的程序,青山兄能否指点下相关的理论/开源算法呢? 一些入门的提示就可以了。THX! AI这一块含义很广,但实质上的东西却很相近。AI现在说得最多的可能是机器学习,它是很多应用的基础,比如data mining, pattern recognition,语义分析也是机器学习的范畴。机器学习的核心是分类。具体地说分类又可分成supervised和unsupervised等。再具体就是很多模型,像HMM, SVM, neural Network等等非常多。大家不要把AI认为是让电脑和人一样聪明或思考,现阶段AI本质是对训练样本进行归纳总结,得到一个分类函数或所说的分类器。它和所谓的独立思考是两回事。如果有一天机器能理解自然语言,那将会是一个伟大的成就,但也只能说电脑可以提炼出句子结构像主,谓,宾语等,并能将它们与训练样本中的意义做匹配。那也不是思维。不要被一些科普的噱头吓住,有一点是现在的计算机是可控的,只有模糊概念才会产生不可控情况,而现在的电脑从根本上不识别模糊概念,所以代替人类的思维很难,除非有全新结构的计算机产生。
[ 本帖最后由 dover 于 20-4-2009 13:09 编辑 ] 我觉得最终基于人工智能的文明可能彻底替代人类目前基于动物体的文明。
差别只在于,过度是平稳的,渐变的,传承的,还是血腥的,革命式的。
如果是后者,可能是灾难性的。而且机器文明本身在尚未成熟之前,如果就
消灭了人类文明,那么它们自身也很容易崩溃。
原帖由 清风不写字 于 20-4-2009 12:15 发表 http://www.freeoz.org/forum/images/common/back.gif
如果机器人变得跟人类一样狡猾,贪婪的时候,还有人类生存的空间么? 你对AI现状的了解基本上差不多。不过我不赞同你的结论。
模糊识别并不是一定要新的结构的计算机才可以实现的。
我认为模糊识别本身,就是一种通过算法可实现的东西。
另外,通过模糊识别和训练样本中的要素做匹配,我认
为就是真正的思维。事实上,人的思维就是这么进行的。
只不过人因为有感官,所以训练样本很大而已。
原帖由 dover 于 20-4-2009 12:59 发表 http://www.freeoz.org/forum/images/common/back.gif
AI这一块含义很广,但实质上的东西却很相近。AI现在说得最多的可能是机器学习,它是很多应用的基础,比如data mining, pattern recognition,语义分析也是机器学习的范畴。机器学习的核心是分类。具体地说分类又可分成supervised和unsupervised等。再具体就是很多模型,像HMM, SVM, neural Network等等非常多。大家不要把AI认为是让电脑和人一样聪明或思考,现阶段AI本质是对训练样本进行归纳总结,得到一个分类函数或所说的分类器。它和所谓的独立思考是两回事。如果有一天机器能理解自然语言,那将会是一个伟大的成就,但也只能说电脑可以提炼出句子结构像主,谓,宾语等,并能将它们与训练样本中的意义做匹配。那也不是思维。不要被一些科普的噱头吓住,有一点是现在的计算机是可控的,只有模糊概念才会产生不可控情况,而现在的电脑从根本上不识别模糊概念,所以代替人类的思维很难,除非有全新结构的计算机产生。
这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?
反正人类就是爱折腾,最后肯定也是自己把自己玩死。
回复 #83 青山 的帖子
基本同意。补充一点,同一篇文章可以有几个类别,然而如何划分/定义类别是比较主观的(不同人有不同的标准)。同理在最后分类的时候最好是给出一串概率,代表一篇文章在各类的可能性。应该用NAIVE BAYES就可以求出来。 原帖由 清风不写字 于 20-4-2009 13:22 发表 http://www.freeoz.org/forum/images/common/back.gif这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?
反正人类就是 ...
我们主观上不想把自己玩死,但不可否认的是随着科技水平的提高我们在下一秒被毁灭的概率越来越大了。克隆,核武,AI。随意一个擦枪走火造成的影响是冷兵器和常规武器时代难以想象的。 刚看到这个帖子,匆忙读了一遍都让我很有启发。
谈谈自己对这一方面的感觉(不成熟,所以称不上观点):
1,意识、道德、智慧、学习等等概念,目前还很不统一,尤其是在较为精确的语境下讨论时。很难下一个明确的定义----什么是学习?什么是道德?什么是智能?
例如一个10岁小孩可以宣称:我知道什么是动物,我最早认识的动物是蚂蚁。但一个生物学博士可能会说:动物的概念除少数物种外,可以被明确地区分。而一个顶尖领域的专家则可能说:从某种意义上讲,植物和动物其实是一回事。
比如一些天文理论中就有这样的概念:我们看到的整个宇宙都是一个黑洞,现在我们就在黑洞内部。
在这些概念明确之前,AI这张会计报表的期初数都在不断变动,是万万平不了的。
2,图灵测试和人工智能的关系
测试始终和实际是有差距的,只是判断的方法。通过了测试也不代表就有智能了,没通过测试也不代表没有智能。
可能某位测试人员智力比较低,或者知识面稍窄,或者先入为主的思维方式较为严重。三句话一说就产生一个初步判断了,那么这个测试结果就可能会有问题。
换句话说:高分低能的情况也许不仅在中国高考制度中存在,图灵测试中可能更严重!:) :)
那么怎么才能真正确定有没有人工智能呢?我也不知道,因为我连什么是智能都不知道。