找回密码
 FreeOZ用户注册
楼主: coredump
打印 上一主题 下一主题

[业界新闻] 人工大脑之父放言:50年后机器人威胁人类(请热爱AI的同学们关注本帖的后续精彩讨论)

[复制链接]
331#
发表于 2-7-2009 16:55:13 | 只看该作者
原帖由 青山 于 2-7-2009 16:27 发表
对我来说,以最短的时间,推进实质性的进展是最重要的。
如果我每用一个模型都去证明,我这3年肯定不会有什么成果。

自然语言这个领域,如果你最终能有实用性的系统,谁不承认也没用。

换句话说,我发10篇顶级 ...


好吧,既然你是这种想法,good luck.
回复  

使用道具 举报

332#
发表于 2-7-2009 18:25:00 | 只看该作者
又见ai贴啊,个人是非常非常希望有生之年能看到那一天,但依我目前的直觉来说感觉不大容易
回复  

使用道具 举报

333#
 楼主| 发表于 2-7-2009 18:32:57 | 只看该作者

回复 #333 black_zerg 的帖子

是呀,讨论AI必火,说明这是个非常热门的研究领域
回复  

使用道具 举报

334#
发表于 2-7-2009 21:46:21 | 只看该作者
原帖由 coredump 于 2-7-2009 18:32 发表
是呀,讨论AI必火,说明这是个非常热门的研究领域


讨论AI青山必火
而前面有同学说了,没人陪青山同学,他该多寂寞呀
于是贴子就火了

评分

参与人数 1威望 +30 收起 理由
coredump + 30 你太有才了!

查看全部评分

回复  

使用道具 举报

335#
发表于 3-7-2009 00:18:07 | 只看该作者
人类的天性决定必然走向自我毁灭,呵呵, 应对办法是coredump斩却三尸,其中一个附到机器人身上,成就金钢不坏之身,然后解放全人类......

[ 本帖最后由 空明七心 于 3-7-2009 00:21 编辑 ]
回复  

使用道具 举报

336#
发表于 3-7-2009 00:35:18 | 只看该作者
原帖由 key 于 2-7-2009 19:46 发表
讨论AI青山必火
而前面有同学说了,没人陪青山同学,他该多寂寞呀
于是贴子就火了


前场是老乞丐做的铺垫,中场是俺使出十八般武艺陪练,后场是群雄齐上只见无数术语、图示、论文杀来杀去.........

青山果然好身手!!!



[ 本帖最后由 liuhuey 于 2-7-2009 22:37 编辑 ]
回复  

使用道具 举报

337#
发表于 3-7-2009 17:25:31 | 只看该作者
强贴继续顶

我认为吧,AI最终是可以实现的,但是肯定不是通过计算机
回复  

使用道具 举报

338#
发表于 3-7-2009 17:43:16 | 只看该作者
其实我现在发现,底层结构并不重要,因为只要你的处理能力够强,非并行的系统一样可以模拟并行的系统。
当然了,等到结构都弄清楚了,用并行的系统最终实现,可能性能更高。但是从研究的角度,现有的计算机
完全可以模拟并行处理的系统,没有根本性的障碍。

原帖由 beysup 于 3-7-2009 17:25 发表
强贴继续顶

我认为吧,AI最终是可以实现的,但是肯定不是通过计算机
回复  

使用道具 举报

339#
发表于 3-7-2009 17:48:55 | 只看该作者
青山同学不妨研究研究用一种新的模型或者理论来实现AI,跳出计算机思想的圈子,有时候思维的局限就在于站在了巨人的肩膀上。读过PhD的人都知道,做research的规则就是要在别人的基础上,做出一些与别人有区别,有改进的事情。我们目前只能想到通过计算机来试图实现AI,我们完全可以用一种逆向的逻辑,假设一个完善的AI系统已经建立,它应该具备哪些特点,什么体系,模式,我们可以根据这些需求去创建新的理论,系统。冯诺伊曼体系和图灵机理论已经不适应未来的需求了,我们应该尝试去建立新体系,理论,取代计算机。
回复  

使用道具 举报

340#
发表于 3-7-2009 17:57:06 | 只看该作者
目前的multicore系统实现完并行已经不是问题,当然按照现在系统的性能,这点差别意义不大。

原帖由 青山 于 3-7-2009 17:43 发表
其实我现在发现,底层结构并不重要,因为只要你的处理能力够强,非并行的系统一样可以模拟并行的系统。
当然了,等到结构都弄清楚了,用并行的系统最终实现,可能性能更高。但是从研究的角度,现有的计算机
完全可 ...
回复  

使用道具 举报

341#
发表于 3-7-2009 20:11:47 | 只看该作者
其实顶楼书的作者就是这样的思路。但是我读Phd,只有3年半。这么搞时间不够。
如果我现在有个10年的合同,我就可以这么搞。

而事实上,在自然语言理解的领域,我的思路就是你说的这样的,我用PC,只是用
现有的程序模拟并行处理。这是我仅有的资源,但是目前来看,在理论验证阶段,
已经够用了。

正因为我的思路不是从现有的WSD理论的最前沿的基础上加,所以很多东西都要靠
自己总结。比如我不但分析人类阅读的优势,也会分析人类阅读中的错误和误解
的产生。关键是找到更接近人类阅读理解的模型。

我现在的模型本来就不受冯诺伊曼体系的限制,本质上是并行的架构。不过我发现
只要处理速度够快,冯诺伊曼体系的机器模拟并行,也不是不可以用。这个并不影响
我们创立新的,并行架构的理论。

原帖由 beysup 于 3-7-2009 17:48 发表
青山同学不妨研究研究用一种新的模型或者理论来实现AI,跳出计算机思想的圈子,有时候思维的局限就在于站在了巨人的肩膀上。读过PhD的人都知道,做research的规则就是要在别人的基础上,做出一些与别人有区别,有改进的事情。我们目前只能想到通过计算机来试图实现AI,我们完全可以用一种逆向的逻辑,假设一个完善的AI系统已经建立,它应该具备哪些特点,什么体系,模式,我们可以根据这些需求去创建新的理论,系统。冯诺伊曼体系和图灵机理论已经不适应未来的需求了,我们应该尝试去建立新体系,理论,取代计算机。
回复  

使用道具 举报

342#
发表于 3-7-2009 23:24:26 | 只看该作者

回复 #342 青山 的帖子

大哥,各路英雄们都回去了。他们说不是你的对手。

不是因为你武功怎么厉害,而是因为你打不死
回复  

使用道具 举报

343#
发表于 3-7-2009 23:29:42 | 只看该作者
二弟,72般变化就有72条命,所以打不死。

原帖由 liuhuey 于 3-7-2009 23:24 发表
大哥,各路英雄们都回去了。他们说不是你的对手。

不是因为你武功怎么厉害,而是因为你打不死
回复  

使用道具 举报

344#
 楼主| 发表于 4-7-2009 13:23:46 | 只看该作者

回复 #344 青山 的帖子

你是说自己是悟空啊,哦,呵呵~~
回复  

使用道具 举报

345#
发表于 4-7-2009 13:48:44 | 只看该作者
是啊,我在给二弟解释打不死的原因啊。

原帖由 coredump 于 4-7-2009 13:23 发表
你是说自己是悟空啊,哦,呵呵~~
回复  

使用道具 举报

346#
发表于 4-7-2009 20:02:35 | 只看该作者
原帖由 青山 于 4-7-2009 11:48 发表
是啊,我在给二弟解释打不死的原因啊。



难道你嘲笑我是猪八戒?

评分

参与人数 1威望 +30 收起 理由
coredump + 30 恭喜你!

查看全部评分

回复  

使用道具 举报

347#
 楼主| 发表于 4-7-2009 20:12:56 | 只看该作者
原帖由 liuhuey 于 4-7-2009 20:02 发表


难道你嘲笑我是猪八戒?


请问青山:人工智能要是达到刘叔这种推理水平得等多少年?
回复  

使用道具 举报

348#
发表于 4-7-2009 21:13:57 | 只看该作者

回复 #348 coredump 的帖子

嘿嘿,这点就奉劝青山不用白费劲了。我的思维不是用简单的跳跃能形容的,那简直是一团风暴啊!

不过我还碰到更BT的人士,真人真事。

我们在办公室开每日例会,他讲完了坐一边发呆,突然冒出来一句话:XXX,你和你老婆的性生活过得还和谐吧?

雷啊~~巨雷~~~
回复  

使用道具 举报

349#
发表于 4-7-2009 21:45:23 | 只看该作者


原帖由 liuhuey 于 4-7-2009 21:13 发表
嘿嘿,这点就奉劝青山不用白费劲了。我的思维不是用简单的跳跃能形容的,那简直是一团风暴啊!

不过我还碰到更BT的人士,真人真事。

我们在办公室开每日例会,他讲完了坐一边发呆,突然冒出来一句话:XXX ...
回复  

使用道具 举报

350#
发表于 16-7-2009 00:21:44 | 只看该作者
人类和人工智能的关系,与低级生物和人类不能做简单类比。
从技术上来讲,50年内人工智能达到人的高度是极有可能的,但要完全消灭人类,或者类似现在像人类看猴子一样的状态,是很难讲的,毕竟当他们一旦表现出一定威胁的时候,人类的法律体系,道德体系就可以发生作用,只有几个高智力的智能人即使个体再厉害,也完全无法跟几十亿人对抗,其实人类的威胁随时都存在,比如疾病,不明显的艾滋反而危险比较大,但明显危险的埃博拉病毒,几天就封锁了,高级智能人狠可能会研究出来,但仅仅在表现出一点意识的时候就会被消灭,这点跟低级生物看人类是完全不一样的,最关键就是在这个研究过程中,人类是可以干扰进程的。
回复  

使用道具 举报

351#
发表于 16-7-2009 13:39:14 | 只看该作者
唉,人类的未来不是Terminator的模式,就是Matrix的模式

评分

参与人数 1威望 +1 收起 理由
babyinair + 1 说不定已经是matrix的模式了。。。

查看全部评分

回复  

使用道具 举报

352#
发表于 16-7-2009 13:53:06 | 只看该作者
人工智能不完善的时候,往往就是类似表现。

原帖由 liuhuey 于 4-7-2009 21:13 发表
嘿嘿,这点就奉劝青山不用白费劲了。我的思维不是用简单的跳跃能形容的,那简直是一团风暴啊!

不过我还碰到更BT的人士,真人真事。

我们在办公室开每日例会,他讲完了坐一边发呆,突然冒出来一句话:XXX ...
回复  

使用道具 举报

353#
发表于 16-7-2009 13:53:58 | 只看该作者
毒品这种直接的威胁都禁不了,不要说人工智能了,靠法律和道德是限制不了人工智能的发展的。


原帖由 matureman 于 16-7-2009 00:21 发表
人类和人工智能的关系,与低级生物和人类不能做简单类比。
从技术上来讲,50年内人工智能达到人的高度是极有可能的,但要完全消灭人类,或者类似现在像人类看猴子一样的状态,是很难讲的,毕竟当他们一旦表现出一定威胁的时候,人类的法律体系,道德体系就可以发生作用,只有几个高智力的智能人即使个体再厉害,也完全无法跟几十亿人对抗,其实人类的威胁随时都存在,比如疾病,不明显的艾滋反而危险比较大,但明显危险的埃博拉病毒,几天就封锁了,高级智能人狠可能会研究出来,但仅仅在表现出一点意识的时候就会被消灭,这点跟低级生物看人类是完全不一样的,最关键就是在这个研究过程中,人类是可以干扰进程的。
回复  

使用道具 举报

354#
发表于 24-7-2009 01:22:30 | 只看该作者
原帖由 coredump 于 4-7-2009 20:12 发表


请问青山:人工智能要是达到刘叔这种推理水平得等多少年?



直接设定一个程式

刘叔=猪八戒

AI一看见刘叔 自然反应就是猪八戒
回复  

使用道具 举报

355#
发表于 9-8-2009 00:11:01 | 只看该作者

哇塞!

哇塞! 这专业术语满天的大讨论, 我大半看不懂,晕死......
回复  

使用道具 举报

356#
发表于 10-8-2009 15:29:30 | 只看该作者
http://www.21ai.com/showtopic.asp?TOPIC_ID=254&Forum_ID=19
AI科普帖,看到结尾我很怀疑作者就是青山。
回复  

使用道具 举报

357#
发表于 10-8-2009 15:43:38 | 只看该作者

回复 #357 babyinair 的帖子

不像,作者举了非常多的例子来推论证明,青山不是这样的;行文风格也不像。
回复  

使用道具 举报

358#
发表于 10-8-2009 16:59:17 | 只看该作者

回复 #358 liuhuey 的帖子

整篇文章确实不像,但是仅看最后一段的话,真的很像青山在第二第三页发的那几帖。
回复  

使用道具 举报

359#
发表于 10-8-2009 19:32:56 | 只看该作者

回复 #359 babyinair 的帖子

你是说这一段么?
真正的对手  是  我自己!


很幽默啊,哈哈

评分

参与人数 1威望 +5 收起 理由
babyinair + 5 ........................上海话说,您就是 ...

查看全部评分

回复  

使用道具 举报

360#
发表于 10-8-2009 19:45:48 | 只看该作者
王晋康? 青山原名不叫青山啊?
回复  

使用道具 举报

您需要登录后才可以回帖 登录 | FreeOZ用户注册

本版积分规则

小黑屋|手机版|Archiver|FreeOZ论坛

GMT+10, 4-5-2024 00:43 , Processed in 0.077087 second(s), 50 queries , Gzip On, Redis On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表