翻译得很辛苦,也确实提供了有趣的视角,
但应该注明这是作家写的,而不是科学家写的。
文章引用的都是畅销书,而不是peer reviewed论文。
这种貌似严谨的文章最容易造成误导。
以下批评针对原文,不针对翻译。
没有回答“为什么名人让我们警惕人工智能”,只是提醒大家,不一定要警惕人工智能。
文中真正“专家”的言论只有两处:
2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。
并且得出结论:
从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。
强人工智能是有可能实现的,但是现在的技术离强人工智能的距离还非常远。
原文中第一个图很有意思,就是技术发展曲线。
全文的所有论据,都建立在“指数发展”这个假设上。
指数曲线在接近0的时候是类似线性的,
不光是指数,多项式函数、对数函数、甚至多重指数在小范围内也可以用线性拟合得很好。
而且不同的指数都在0附近都很接近,
但对“奇点”何时到来的估算可能误差千百年。
如果按照“指数发展”来算,而且乐观的估计指数的系数,
那你妹的什么技术都不是问题啊,人类分分钟占领全宇宙。
我更相信的是,科学发展是有爆发期和稳定期的。
一个技术突破会带来难以想象的繁荣,之后的科学发展都比之前的更快,
但不会天天都是技术突破。
比如,二十世纪上半页的物理学十分辉煌,相对论和量子力学的建立引发了一系列技术革命。但从那以后物理学一直很平稳。
杨振宁就说过他赶上了物理学的好时候,让他现在做学术,可能就不会选物理学了。
要是科幻作家站在1950年前后,用指数发展估计物理学的发展,
那到今天我们早就弄出大统一理论搞定核聚变发电了。
又比如人均寿命从先秦时的二十几岁发展到现在的80岁,如果用指数拟合,
那过几十年是不是要活几百岁了啊?
--------------------------------------
文中提到的可能支持人工智能指数发展的路线包括:抄袭人脑,进化算法,电脑自己解决。
我不知道这几条是不是对应类似machine learning, neural network, evolutionary algorithm, program synthesis之类的领域。
如果是的话,这几个领域我都有一点粗浅的了解。
欢迎大神批评补充。
比如machine learning和neural network, 核心都是回归和数据拟合,离智能化还很远。
光靠这个实现强人工智能我是不信滴。
关于evolutionary algorithm,去年有一个大牛的talk,推荐大家看一下。
全篇都是技术讨论没有涉及“奇点”,大家可以自己判断现在的研究前沿离真正的强人工智能还有多远。从43分钟开始:
program synthesis里,现在计算机能自己生成的程序还很弱智,
而且算法复杂度都是exponential time甚至doubly exponential time的。
用的方法本质上是先靠程序员输入一个程序模板和参数空间,
然后用各种方法遍历所有可能的程序,看看是不是满足要求。
这其实引出了一个很有意思的问题:
现在我们CPU的计算能力是指数增长的,
但按照今天的算法,许多真正有趣的问题都是需要“指数时间”,甚至多重指数时间才能解决的。
那么,我们实际解决新问题的速度一定是指数发展的吗?
让该领域内的专家来介绍现在的研究成果和面临的巨大问题,
比起作家自己泛泛而谈要好得多。