登录注册   忘记密码
查看: 58|回复: 3
上一主题 下一主题

[发布] 为什么有很多名人让人们警惕人工智能?

楼主
发表于 2017/7/21 16:14:02 | 只看该作者

一些新闻:

霍金:人工智能会导致人类灭亡
比尔・盖茨:人类需要敬畏人工智能的崛起
马斯克称人工智能是人类生存最大威胁


这是因为人工智能要进入新阶段了?这些名人是不是可能比较先得到信息,所以向人们预警?
或者是每年都有很多人提出这个问题,只是今年报道的比较多?
有人说在人工智能的发展上存在一个奇点,越过这个奇点就能通过图灵测试。
如果人工智能已经越过了这个奇点,这个世界会发生怎样的质变?
超体和超验骇客都出现过类似越过奇点后,科技的突然爆发。
这又让我想起三体里面,宇宙丛林法则中,由于对对方的不了解,又担心对方文明的突然爆发,所以选择了摧毁。
如果人工智能突然越过奇点,瞬间产生了意识,可以迅速吸收人类的文明,发展出新的文明。
人类跟人工智能之间,会不会出现类似三体里面的博弈?


但是,我还有一个问题:
弱人工智能是不是只是模拟了人思维的一部分?并且这部分能力是足够应付图灵测试。
换句话说,图灵测试并不能测试完整的人的思维能力?它只能测试人思维的一部分。
或者说,只通过语言交流是不能够得到被测试物的完整信息?那么这是语言交流的缺陷?或者说人类语言在交流过程中会带来信息流失?

还有一个想法:
是否可以开发出强图灵测试:
比如有针对的出一系列问题,对人工智能作一些全方位的思维能力测试,最后得出它在各个方面的水平,比如在创新能力上,几乎为零,虽然它可以采用插科打诨的方法来避免正面回答,但是最终我们可以得到它在创新能力上的水平。

1 楼
发表于 2017/7/28 | 只看该作者

翻译得很辛苦,也确实提供了有趣的视角,

但应该注明这是作家写的,而不是科学家写的。

文章引用的都是畅销书,而不是peer reviewed论文。
这种貌似严谨的文章最容易造成误导。

以下批评针对原文,不针对翻译。
没有回答“为什么名人让我们警惕人工智能”,只是提醒大家,不一定要警惕人工智能。


文中真正“专家”的言论只有两处:

2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。

并且得出结论:

从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。

强人工智能是有可能实现的,但是现在的技术离强人工智能的距离还非常远。

原文中第一个图很有意思,就是技术发展曲线。
全文的所有论据,都建立在“指数发展”这个假设上。
指数曲线在接近0的时候是类似线性的,
不光是指数,多项式函数、对数函数、甚至多重指数在小范围内也可以用线性拟合得很好。
而且不同的指数都在0附近都很接近,

但对“奇点”何时到来的估算可能误差千百年。

如果按照“指数发展”来算,而且乐观的估计指数的系数,
那你妹的什么技术都不是问题啊,人类分分钟占领全宇宙。

我更相信的是,科学发展是有爆发期和稳定期的。
一个技术突破会带来难以想象的繁荣,之后的科学发展都比之前的更快,
但不会天天都是技术突破。


比如,二十世纪上半页的物理学十分辉煌,相对论和量子力学的建立引发了一系列技术革命。但从那以后物理学一直很平稳。
杨振宁就说过他赶上了物理学的好时候,让他现在做学术,可能就不会选物理学了。

要是科幻作家站在1950年前后,用指数发展估计物理学的发展,
那到今天我们早就弄出大统一理论搞定核聚变发电了。
又比如人均寿命从先秦时的二十几岁发展到现在的80岁,如果用指数拟合,
那过几十年是不是要活几百岁了啊?

--------------------------------------
文中提到的可能支持人工智能指数发展的路线包括:抄袭人脑,进化算法,电脑自己解决。
我不知道这几条是不是对应类似machine learning, neural network, evolutionary algorithm, program synthesis之类的领域。
如果是的话,这几个领域我都有一点粗浅的了解。
欢迎大神批评补充。

比如machine learning和neural network, 核心都是回归和数据拟合,离智能化还很远。
光靠这个实现强人工智能我是不信滴。

关于evolutionary algorithm,去年有一个大牛的talk,推荐大家看一下。
全篇都是技术讨论没有涉及“奇点”,大家可以自己判断现在的研究前沿离真正的强人工智能还有多远。从43分钟开始:

program synthesis里,现在计算机能自己生成的程序还很弱智,
而且算法复杂度都是exponential time甚至doubly exponential time的。

用的方法本质上是先靠程序员输入一个程序模板和参数空间,
然后用各种方法遍历所有可能的程序,看看是不是满足要求。

这其实引出了一个很有意思的问题:
现在我们CPU的计算能力是指数增长的,
但按照今天的算法,许多真正有趣的问题都是需要“指数时间”,甚至多重指数时间才能解决的。
那么,我们实际解决新问题的速度一定是指数发展的吗?

让该领域内的专家来介绍现在的研究成果和面临的巨大问题,
比起作家自己泛泛而谈要好得多。


2 楼
发表于 2017/7/31 | 只看该作者

比起大家熟悉的以人为研究对象的博弈论囚徒困境,AI在连续社会困境(sequential social dilemmas)的实验中是否会协作?在什么条件下协作?都是这次试验要研究和观察的内容。

实际上实验一共设计了两项游戏,涉及两个马尔可夫博弈(Markov games)模型:一个是水果收集博弈模型,就是上文中提到的“摘苹果”(Gathering)游戏,我们已经知道结论了;另一项则是群狼狩猎博弈模型,实验中设计为“狼群”(wolfpack)游戏,规则是:两位AI玩家要在游戏设置的重重障碍下捕捉AI猎物,捕获猎物时,不仅成功捕获的玩家得分,在其附近的玩家也可得分,在这个实验中,执行复杂策略能力越强的AI玩家,促成的协作也越多,这与第一个实验中的结果是相反的。

当实验中的AI的行为被冠以与理性经济人(homo economicus)行为等价近似的时候,我们是否会进一步思考,当我们将实验的对象换成AI与人类的博弈时,又会怎样?人类与拥有复杂决策执行能力的AI之间能够实现协作么?是怎样的协作呢?

最后回到问题,警惕人工智能,与其说警惕人工智能,不如说警惕人类自己,就目前阶段看来,人工智能并没有摆脱人类控制,实现其独立发展和进化,人工智能从某种程度上来讲,和枪是一样的,枪本身不会杀人,杀人的是持枪的人。


3 楼
发表于 2017/12/1 | 只看该作者

我不说智械战争这种虚无缥缈的东西。

强人工智能目前还是人类的幻想。

你们别想多了。

我来说点实际的。

人工智能会引发社会不稳定,甚至战争,这个命题始终存在。

这里面的内在逻辑是这样的:

人工智能大量量产以后,

不知疲倦,

顶替了绝大部分低端的重复性劳动岗位以及少数高端劳动岗位。

而这个时候,所有理想主义者告诉你的都是:

人类社会会找到新的就业机会。

这个是大概率事件。尤其是高端人才一般来讲是大概率有新的社会分工需求在等着他们的。

但是,你们想过没有,万一,我是说万一,人类短时间内没有找到新的就业机会呢?

是的,社会将面临有史以来最恐怖,规模最庞大,比例最惊人的失业潮。

请问,你拿什么去喂饱这些人?

让资本家割肉吗?

九十年代下岗潮,资本家割肉了吗?

资本家情愿拿这个钱去造飞机大炮。

然后,爱因斯坦说过的话你们还记得吗?

人类的第四次世界大战,用的一定是棍棒和石头。

是的,我说的是,人工智能想要毁灭这个世界,

根本不需要变成强人工智能。

只需要有足够廉价,还能专注完成某些工作的弱人工智能,

这个世界弄不好就会自己崩溃了。

不过各位也不要惊慌。

如果有那么一天到来了,在人类给自己的弱智同胞找到可以发挥他们生产力的岗位之前,

政府会帮你们守住最后的底线,

强行给机器人使用者横征暴敛的待遇,

来禁止廉价劳动力的出现的……

请你们这个时候还是要相信党国一记。

中国这不是至今没有普及大规模机械化养殖么……


验证码
看不清换一张