为什么柯洁一局都赢不了

5 月 23 至 27 日,曾战胜围棋世界冠军李世石的谷歌人工智能 AlphaGo,在浙江乌镇挑战目前世界排名第一的人类棋手柯洁九段。 柯洁首战告负,输四分之一子。人类棋手之间,这种结果说明双方棋艺基本旗鼓相当。所以有人据此认为,柯洁只是惜败。 事实上,柯洁远非惜败,而是 AlphaGo 完全掌控了棋局,在确保胜利的同时,不冒无谓的风险。 在这场人机大战开赛前,前谷歌大中华区总裁李开复就公开表示:柯洁必败毫无悬念。 不仅科技界人士这么认为,概率也显示柯洁几无胜算。根据国际职业围棋 Elo 等级分制度排名,可算出 AlphaGo 每盘的获胜概率为 99.37% 。说这是一场起重机与举重选手的比赛并不为过。 2016 年底,AlphaGo 化名“Master”横扫围棋网战平台时,即已强大到让柯洁感叹“人类几千年来总结的棋谱都是错的”。 AlphaGo 为什么这么厉害?它到底是怎么下棋的?人类顶尖围棋高手在人工智能面前的集体溃败,意味着什么? 寡不敌众的世界冠军 早在 20 世纪 50 年代,计算机科学家就开始研究让人工智能与人类下棋了。棋盘游戏是人类智力的博弈,如果能达到顶尖棋手的水平、甚至超过他们,便可证明人工智能变得更聪明、更有灵活性。 人类下棋,是经验、理性与灵感的结合。   昭和棋圣吴清源就将决定围棋胜负的三个要素归纳为:实力、气力和运气。 以此标准,人工智能“先天不足”,只有理性,靠什么与人对弈? 一言以蔽之:搜索。 早在 1952 年,人工智能就通过穷举所有可能性的”暴力搜索“,在井字棋这样的小型棋类游戏中战无不胜。   ▍在谷歌搜索框中输入“tic-tac-toe”,就能跟电脑下井字棋 / 图片来源:theverge.com 下面这幅树状图,展示了井字棋游戏中可能出现的部分棋盘情况。   人工智能要做的,就是沿着这棵“游戏树”一步步往下搜索,在所有可能出现的棋盘局面中,根据最有利于己方的终局结果,向前回溯至当前节点,决定下一步应该怎么走。 但对棋盘更大、可能性更多的游戏,暴力搜索就行不通了,因为棋局的可能性远超人工智能的运算能力,纯靠搜索不可能下赢顶尖棋手。 国际象棋和围棋一度被认为是“人类智慧的最后堡垒”,原因就在于此。   ▍国际象棋的棋盘为 8×8 的网格,在对阵双方各走三步以后,可能出现的棋局就超过九百万种 要在这类游戏中战胜人类,人工智能必须在暴力搜索的基础上优化改进。 取得突破的是 1997 年

Facebook全新CNN机器翻译:准确度超越谷歌而且还快九倍

去年谷歌在机器翻译上取得了连续不断的突破,参阅《重磅 | 谷歌翻译整合神经网络:机器翻译实现颠覆性突破》和《重磅 | 谷歌神经机器翻译再突破:实现高质量多语言翻译和 zero-shot 翻译》。谷歌的方法用到了文本处理惯用的循环神经网络。近日,Facebook 也宣布在神经机器翻译上取得了重大进展,在超过了去年谷歌研究的水平的同时还实现了显著的速度提升。而和谷歌的方法不一样,Facebook 的方法采用了一种完全基于卷积神经网络的架构。机器之心对 Facebook 博客上的介绍文章进行编译,同时在文末附上了该研究论文的摘要介绍,另外该研究的相关源代码和模型也已经在 GitHub 上开源。 Facebook 的使命是让世界更加开放和互联,让每个人都能以自己偏好的语言享受视频和博文——当然,准确度和速度要尽可能最高。因此,语言翻译就显得很重要了。 今天,FAIR 团队推出了一项研究成果:使用一种全新的卷积神经网络(CNN)进行语言翻译,结果以 9 倍于以往循环神经网络(CNN)的速度实现了目前最高准确率。[1] 另外,你可以在 GitHub 开源许可下下载到 FAIR 序列模型工具包(fairseq)源代码和训练过的系统,研究人员可以打造用于翻译、文本摘要以及针对其他任务的定制化模型。 为什么是 CNN? 几十年前,最初由 Yann LeCun 开发的 CNN 已经成功用于多个机器学习领域,比如图像处理。不过,对于文本应用来说,因为 RNN 的高准确度,其已经当仁不让地成为了被最广泛采用的技术和语言翻译的最佳选择。 尽管历史表明,在语言翻译任务上,RNN 胜过 CNN,但其内在设计是有局限性,只要看看它是如何处理信息的就能明白这一点。计算机的翻译办法是:阅读某种语言句子,然后预测在另一种语言中相同含义的语词排列顺序。RNN 运行严格遵照从左到右或者从右到左的顺序,一次处理一个单词。这一运行方式并不天然地契合驱动现代机器学习系统的高度并行的 GPU 硬件。由于每个单词必须等到网络处理完前一个单词,因此计算并不是完全并行的。对比之下,CNN 能够同时计算所有元素,充分利用了 GPU 的并行,计算也因此更高效。CNN 的另一个优势就是以分层的方式处理信息,因此,捕捉数据中的复杂关系也更容易些。 在之前的研究中,被用于翻译任务的 CNN 的表现并不比 RNN 出色。然而,鉴于 CNN 架构潜力,FAIR 开始研究将 CNN 用于翻译,结果发现了一种翻译模型设计,该设计能够让 CNN

我们离埃隆·马斯克的脑机接口有多远

文章来源:神经现实 原文作者:James Wu, Rajesh P.N. Rao 将我们的大脑与技术直接相连可能最终会是一个自然进程,人类自古以来一直通过技术来增强自身能力。 正如古希腊人梦想着可以冲上云霄一样,当今人类的希冀则是意识与机器的融合,以弥补肉体会死亡的缺憾。 通过脑机接口(BCI)技术将人类意识与人工智能、机器人或者其他人的意识相连,是否可以超越人类本身的局限性呢? 在过去的50年间,来自全球各大学实验室以及公司中的研究者们致力于实现这一愿景,并且已经取得了令人瞩目的进展。 最近,诸如Neuralink的创始人埃隆·马斯克(Elon Musk),Kernel联合创始人布莱恩·约翰逊(Bryan Johnson)等成功的企业家们成立了新的创业公司,声称将会通过脑机接口技术增强人类的能力。 将技术与大脑成功相连究竟离我们多远?当我们的意识接入机器的时候究竟会产生什么影响? 感觉运动神经工程中心(CSNE)的研究人员埃布·菲兹(Eb Fetz)是最早进行脑机相连的开拓者之一。在个人电脑甚至还没被发明出来的1969年,菲兹展示了猴子可以通过增强它们的脑信号来移动表盘上的指针。 最近的脑机接口研究旨在提高瘫痪或者有严重运动障碍患者的生活质量。你可能已经在新闻中看到了最新进展:美国匹兹堡大学的学者用从大脑内部获取的信号来控制机械臂。斯坦福大学研究者可以从瘫痪者大脑信号中提取他们的运动意图,从而让他们能使用无线平板电脑。 同样的,通过向脑内或者脑表面传递脑电波,一些受限的虚拟感觉也可以被传回到大脑。 那我们主要的感觉(视觉与听觉)也可以进行传递吗?针对有严重视力障碍的人,早期的仿生眼已进行商业化的量产,加强版正在进行人体试验。另一方面,人造耳蜗已经成为最成功也是最普遍的仿生植入物之一,全球有超过30万的用户通过它来获得听觉。 最复杂的脑机接口是“双向”脑机接口,它既能记录又能刺激神经系统的活动。在我们中心,我们正在探索将双向脑机接口作为一种新型的医疗工具,以应对中风和脊髓损伤。我们的研究显示,双向脑机接口可以用于增强两个脑区之间或者脑与脊髓之间的连接,变更伤患处的信息以重现唤醒瘫痪的肢体。 随着这些成功的到来,你可能以为脑机接口会是下一个消费者必需的小工具。但是对现有的一些脑机接口的表现仔细审视以后,我们可以发现距离这一天的到来还有很长的路要走:相比较那些肢体健全的人每天用四肢很容易就做出的简单动作,脑机接口产生的运动要慢的多,并且不够协调和准确。仿生眼产生的视觉具有非常低的分辨率;人造耳蜗所带来电子化的言语信息是有限的,并且会使人对音乐的感知失真。 为了让这些科学技术发挥作用,必需通过手术将电极植入体内——这前景当今大多数人都不会考虑。 但并不是所有的脑机接口都是侵入式的。不需要手术介入的非侵入式脑机接口的确存在;它们基于头皮表层记录的脑电波运作,已被证明可以用于控制光标,轮椅,机器人手臂,无人机,人形机器人,甚至可以用于脑与脑之间的交流。 2006年,华盛顿大学的神经系统实验室展示了现实世界中的“阿凡达”:名为Morpheus的首个非侵入式的脑控人形机器人。当表示想要的东西或者位置的图像闪烁的时候,这个非侵入式的脑机接口会基于大脑的反馈信号对机器人做出应该拿什么或者拿去哪里的指示。 但所有的演示均在实验室中进行——实验室环境安静,被试没有分心,技术设置漫长且有条理,显示出概念的可行以后实验才会结束。使这些系统足够快速以及强大到在现实世界中得到实际应用,已被证实非常困难。 即使使用侵入式电极来读取心灵,也会产生另一个问题,即我们的大脑究竟是怎样被建构的。我们都知道每个神经元和与其相近的数千个神经元组成了一个难以想象的巨大且不断变化的网络。这对于神经工程师们来说意味着什么呢? 想象一下,你正在试图了解一大群朋友基于一个复杂主题的对话,但是你只被允许听其中一个人的想法。你可能会弄明白这个交流的粗略主题,但你绝不可能弄清楚整个讨论的所有细枝末节。 因为即使是最好的侵入式电极,也只能让我们一次性聆听大脑的几个小脑区,我们可以做一些令人印象深刻的事情(指的是前面的那些实验),但是还远远不能理解全部的对话。 还有就是我们所认为的一种语言障碍。神经元通过电信号和化学反馈的复杂交互与其余的神经元进行联系。这种本来的电-化学语言可以通过电路进行解析,但是并没有那么简单。同样地,当我们用电刺激回传信息给大脑时,会带有浓重的电子“口音”。这使得在众多其他正在进行的电活动中,神经元难以理解电刺激想传达的信息。 最终,还有损伤的问题。脑组织非常软而且脆弱,但是连接脑组织的电导材料却很坚硬。这意味着侵入式电极会造成创伤并产生免疫反应,并且随着时间的推移它会丧失功效。灵活的生物纤维和阵列可能最终在这方面会起到作用。 虽然面临着这些挑战,但我们对于仿生未来依旧保持乐观。脑机接口不一定要完美。大脑具有惊人的适应性,在学习使用脑机接口上,有点类似于学习一些像是开车或者使用触摸屏这样的新技能。同样地,即使使用电磁脉冲这种非侵入式的媒介来传播新型的感觉信息,大脑也可以尝试着解析它。 最终,我们认为, “共同适应”的双向脑机接口可能会被证实是建立神经桥梁的一个必要步骤。双向脑机接口中电子设备与大脑共同学习,并在学习过程中不断向大脑传递信息。构建这种共同适应的双向脑机接口是感觉运动神经工程中心的目标。 对于最近使用“电子疗法”靶向治疗像是糖尿病等慢性疾病所取得的最新成果,我们同样感到非常兴奋。这项疗法没有通过药物,而是利用小型实验性植入物直接向内部器官传达命令。 对大脑进行干预以治疗疾病改变了我们的本质吗? 研究人员已经发现了克服“电——生化语言”障碍的新途径。比如,注射性的“神经织网”被证实可能会是一种有希望的途径,它允许神经元逐渐在电极周围生长,而不是拒绝电极。在将来,基于纳米导线的灵活探针,柔性的神经元支架和玻碳接口可能也会允许生物性和技术性的计算机与我们的身体友好共存。 埃隆·马斯克的新创业公司Neuralink具有明确的最终目标,即通过脑机接口增强人类大脑,以使得我们能够在与人工智能的持续进行的军备竞赛中可以脱颖而出。他希望通过连接技术,能够使得人类自身的大脑能力得到增强,而这有可能会让我们避免AI已经远远超越人类能力的反乌托邦式未来。这样的想法可能看起来很遥远或者异想天开,但是我们不能因为陌生就单单忽略这个想法。毕竟无人驾驶汽车在十五年前还被归为科幻,而它们现在已经驶上公路。 在不远的未来,当脑机接口从恢复残疾人的身体机能到增强肢体健全人能力的时候,我们需要敏锐地觉知到许多与许可、隐私、身份、媒介和不平等相关的问题。在我们中心,哲学家、临床医师和工程师团队正在积极处理这些伦理性、道德性和社会正义类问题,他们致力于在该领域进程超前之前提供神经类指导。 将我们的大脑与技术直接相连可能最终会是一个自然进程,人类自古以来一直通过技术来增强自身能力——从利用轮子来突破双足限制到在粘土与纸张上记录符号来增强记忆。 增强能力的脑机接口有点像是现如今的电脑、智能手机和VR眼睛,当它们终将出现在消费市场时,将会令人振奋或沮丧,而风险与希望也将并存。

机器智能教父:AI将在2050年超越人类,几百万年后将统治银河

“很快,最明智、最重要的决策者可能不再是人类。” ——于尔根·施米德休伯 柏林演讲 在西柏林一处仓库后方的工作室里,一群来自全球各地的科学家正在热烈讨论着机器人的未来。 一位来自欧洲大型汽车厂商的工程师刚刚就自动驾驶汽车的进展发表了一份谨慎乐观的报告。 他说,自动驾驶汽车正逐渐学会把行人、骑行者与汽车区分开。有些机器人已能比人类更好地分辨不同品种的狗。 接着,一位高大健壮的男士大步走上讲台。“很快,最明智、最重要的决策者可能不再是人类。”他一边说,一边无奈地笑着,“我们即将迎来的不是另一场工业革命,而是一种新生命形式,它更像是一场创世大爆炸。” 于尔根·施米德休伯(Jürgen Schmidhuber)一直被描述为“将会被首批拥有自我意识的机器人称作父亲的人”。 这位54岁的德国科学家或许开发了能让我们与计算机进行对话,或在手机上把普通话翻译成英文的算法,但对于未来机器人存在的主要使命是为人类服务,他却不大认同。 相反,施米德休伯认为,机器智能不仅会很快达到人类的水平,而且会很快超过人类。它将建造出耐热型机器人,与柔弱的人类相比,它可以更好地利用太阳的能源。 最终,机器智能将通过自我复制的机器人工厂,在整个银河系的小行星带建立殖民地。而施米德休伯正是试图为这种机器人打造大脑的人。 “到2050年,我们将拥有比人类更聪明的人工智能”……机器人Pepper “真正的人工智能” 演讲结束后,施米德休伯接受了我的采访。他说,在瑞士的实验室里,他的公司Nnaisense已在开发能够像婴儿一样运转的系统,研究人员为这些系统设置了一些小实验,以便让它们更了解这个世界如何运转。 施米德休伯称之为“真正的人工智能”。唯一的问题在于,它们仍然太慢了:这些系统目前的神经连接只有大约10亿个,而人类大脑皮层的神经连接则在100万亿个左右。 “但现在有一种趋势,计算机的速度每五年就会加快十倍,除非这一趋势中断,否则只需25年,我们就能开发出媲美人类大脑的递归神经网络。用不了多少年,我们就可以开发出某些动物水平的人工智能,比如乌鸦或是卷尾猴。” 那么,究竟要多少年呢?“可能不是几十年,也许几年就够了,不过,我不想把自己的预测限定在四年或七年的范围内。” 当我问他,为何对自己的时间表如此有信心时,他打开了话匣子。我们从宇宙大爆炸聊到新石器革命,从火药发明聊到万维网。 施米德休伯表示,宇宙重大历史事件的时间间隔似乎在指数式地缩短,两次里程碑事件的时间间隔大约是前一个间隔的四分之一。如果按这个规律计算,人工智能超越人类,也许会在2050年变成现实。 “到2050年,时间不会停止,但我们将拥有比人类更聪明的人工智能。它们不想困守地球,它们想推动历史进入下一个阶段,想去寻找更多的资源。几百万年后,它们将殖民整个银河系。” 在探索太空的过程中……机器人将是领路人,施米德休伯说。 他把这个时间关口称为“欧米茄点”(Omega Point),该词语由法国牧师皮埃尔·泰亚尔·德·夏尔丹(Pierre Teilhard de Chardin)创造。施米德休伯说,他喜欢“欧米茄”这个词,因为它读起来有点像“Oh my God”(哦,我的上帝)。 “机器智能教父” 施米德休伯“机器智能教父”的地位并非毫无争议。 作为一名计算机科学家,有时他的言论听上去实在是不像科学。在柏林的演讲中,观众席后排就传出了抱怨的声音。 当施米德休伯描述机器人最终将如何抛下地球,“独自享受”探索宇宙的乐趣时,一位巴西的神经科学家打断了他的发言:“这就是你要说的?会有一种让机器人学会享乐的算法?你这是在糟蹋科学,真是太可怕了!” 当被问及这些事时,施米德休伯再次露出那种无奈的表情。“几十年来,我的论文一直备受争议。所以,我已经习惯了这些标准的论调。但很多神经科学家并不清楚人工智能领域正在发生什么。” 然而,即便在人工智能学界内部,也有反对的声音。当我向一些人工智能研究者提到他的名字时,有几个人说,他的研究工作无疑很有影响力,而且“越来越有影响力”,但他“有一点争强好胜”。 很多人觉得,他对于技术进步速度的乐观看法是毫无根据的,或许还很危险。 有人说,施米德休伯绝对算不上是机器人未来的真正预见者,实际上,他正在使人工智能沦为下一个赛格威平衡车(Segway)——赛格威诞生之初,曾被吹捧为意义堪比个人电脑的技术革命,但最终却沦为电影里的杂耍道具。 是先知,还是笑柄? 是先知,还是笑柄?要弄清这个问题,我们就得深入了解施米德休伯的人生经历。 他1963年出生于慕尼黑,青春期时,他从图书馆借阅了大量科普书籍和科幻小说——他尤其喜欢奥拉夫·斯泰普尔顿(Olaf Stapleton)的《造星人》(Star Maker)、E·T·A·霍夫曼(ETA Hoffmann)的《沙人》(The Sandman),以及史坦尼斯劳·莱姆(Stanislaw Lem)的小说——就这样,他对机器人产生了兴趣。 “我最棒的偶像”……施米德休伯很崇敬爱因斯坦。 施米德休伯说:“我最棒的偶像是阿尔伯特·爱因斯坦。我在某个时候意识到,如果我打造出了比我自己乃至比爱因斯坦更聪明的东西,我会拥有更大的影响力。” 他在慕尼黑工业大学拿到了数学和计算机科学学位,并在30岁时获聘成为该大学教授。 1997年,施米德休伯和学生赛普·霍克赖特(Sepp Hochreiter)共同撰写了一篇论文,其中提出了一种利用记忆功能来增强人工神经网络(模拟人类大脑的计算机系统)的方法,即根据之前获得的信息,添加解释文字或图像模式的循环。他们称之为“长短期记忆”(Long Short-Term Memory,简称LSTM)。 当时,人工智能正在经历漫长的“寒冬”:对于围绕人工智能的第一波炒作,技术未能达到相应的水平;而且,资金也很难到位。 20世纪60年代时,人们期望对机器进行自上向下式的编程,使其能够理解世界的复杂性。如果说现在出现了什么新声音,那就是一种看似更简单的想法:我们可以为机器编写一种算法,这种算法相对简单,但可以让它们自底向上式地学习,从而逐渐理解现实世界的复杂性。 1997年,施米德休伯关于LSTM的论文被麻省理工学院退稿。但现在看来,LSTM已成为深度学习领域一波新的研究浪潮背后的关键概念之一。

潘云鹤院士:人工智能迈向2.0

近年来,人们对人工智能(artificial intelligence,简称AI)产生浓厚兴趣,产业界首先布局。大量资本与并购的涌入加速了AI技术与应用的结合,并蔓延升温。据美国CBInsight公司2016年7月报告,2011年至今,谷歌、微软、Twitter、Intel、Apple等IT巨头收购了约140家AI领域的创业公司。仅2016年上半年,资本市场对AI投入已超2015年全年。 谷歌2014年高价收购DeepMind公司,2016年研制的AlphaGo战胜了围棋世界冠军,2017年初又60连胜,谷歌自称正从一个“移动优先”转向“AI优先”的公司。微软小冰聊天机器人,正引导从传统的“图形界面”向“自然语言和情感理解交互界面”转变;IBM开发Watson系统已进入医院,正在改变肿瘤临床诊断与治疗的运作模式;百度公司因在机器翻译、自然语言理解和智能汽车的布局,被评誉“最聪明的公司”……这些进步预示着AI技术将有大的飞跃。 1956年,美国学者首次提出“AI”概念,即:让机器能像人那样理解、思考和学习,即用计算机模拟人的智能。传统AI典型研究的领域是:机器定理证明、机器翻译、专家系统、博弈、模式识别、机器学习、机器人与智能控制等,逐步形成符号、连接、行为等学派。 AI进步的动力不仅来自于内部驱动,更来自于信息环境与社会需求等外部驱动。 随着移动终端、互联网、传感器网、车联网、穿戴设备等的流行,感知设备遍布全球,计算与人类密切相伴,网络连接着个体和群体,快速反映与聚集他们的发现、需求、创意、知识和能力。同时,世界已从二元空间结构(物理, 人类社会)演变为三元空间结构(信息网络, 物理, 人类社会),它们之间的互动将形成各种新计算,包括感知融合、“人在回路中”、增强现实(AR)、跨媒体计算等等。 智能化的需求牵引,使AI在城市、医疗、交通、物流、机器人、无人驾驶、手机、游戏、制造、社会、经济等发展中成为新技术、新目标,很多企业和城市已进行AI布局。 从过去追求“用计算机模拟AI”,转化为:用机器与人结合成增强的混合智能系统;用机器、人、网络结合成新的群智系统;用人、机器、网络和物结合成的智能城市等更复杂的智能系统。 AI基本方法是数据驱动的算法,今后将涌现出大数据、传感器、网络、跨媒体等驱动计算,从而使大数据、感知融合、跨媒体等智能发展成为必然,传统以字符为基础的机器智能测试图灵方法将受到挑战。 当前,若干新技术变化已初露端倪,成为AI迈向2.0的技术萌芽。 以DeepMind的AlphaGo技术为例,其深度强化学习发展了“直觉感知(下一步在哪)”、“棋局推理(全局获胜机会如何)”和“新颖落子(想人所不敢想)”等能力,并将记忆人类棋局和自我博弈积累棋局结合了起来。目前,该深度学习技术的缺陷是不可解释,不通用,需要大数据智能的发展来解决。 事实上,大规模个体通过互联网参与和交互,可实现超乎寻常的智慧能力。如,普林斯顿大学Connectome项目开发的EyeWire游戏,玩家可对显微图像中单个细胞及其神经元连接按功能进行涂色,145个国家的165000多名科学家及志愿者参与,首次详述了哺乳动物视网膜神经组织如何检测运动的结构功能关系等。群智计算能将极大提高人类社会的智能水平,用途广,其理论和技术尚处原始阶段。 2008年,中国科学家率先提出了“跨媒体计算”概念。2010年,《Nature》发文指出,文本、图像、语音、视频及其交互属性将紧密混合一体,即为“跨媒体”。跨媒体智能是机器认知外界环境的基础,对语言、视觉、图形和听觉的语义贯通是实现联想、设计、概括、创造等智能行为的关键。当前,其尚处发展萌芽状态,可望形成新一代AI的重要领域。 用计算机来模拟人的智能固然重要,而让计算机与人协同,取长补短而成为一种“1+1>2”的增强性智能系统则更为重要。当前,各种穿戴设备、智能驾驶、外骨骼设备、人机协同手术等纷纷出现,而宏观系统的人机协同有更大空间,预示着人机协同增强智能系统的前景广泛。 AI诞生之际,机器人被列入其目标领域,仿生学也成为重要发展方向。但大多数案例表明,对原有机械装备进行智能化和自主化升级,要比类人机器人更高效。因此,自主智能系统将成为新一代AI的重要方向,也对制造业升级尤为重要。 综上所述,我们给出的AI2.0初步定义是:基于重大变化的信息新环境和发展新目标的新一代人工智能。其中,信息新环境是指:互联网与移动终端的普及、传感网的渗透、大数据的涌现和网上社区的兴起等等。新目标是指:智能城市、智能经济、智能制造、智能医疗、智能家居、智能驾驶等从宏观到微观的智能化新需求。可望升级的新技术有:大数据智能、跨媒体智能、自主智能、人机混合增强智能和群体智能等。 AI2.0的技术特征表现在:一是从传统知识表达技术到大数据驱动知识学习,转向大数据驱动和知识指导相结合的方式,其中机器学习不但可自动,还可解释,更广泛;二是从分类型处理多媒体数据 (如视觉、听觉、文字等),迈向跨媒体认知、学习和推理的新水平;三是从追求“智能机器”到高水平的人机协同融合,走向混合型增强智能的新计算形态;四是从聚焦研究“个体智能”到基于互联网络的群体智能,形成在网上激发组织群体智能的技术与平台;五是将研究的理念从机器人转向更加广阔的智能自主系统,从而促进改造各种机械、装备和产品,走上智能化之路。 相比以往,AI2.0将不但以更接近人类智能的形态存在,而且以提高人类智力活动能力为主要目标,将紧密融入我们的生活(跨媒体和无人系统),甚至扩展为我们身体一部分(混合增强智能),可以阅读、管理、重组人类知识(大数据智能与群体智能),为生活、生产、资源、环境等社会发展问题提出建议,在越来越多的专门领域的博弈、识别、控制、预测中接近甚至超越人的能力。 中国正值工业化、城镇化、信息化、农业现代化和绿色化发展高潮,急需AI发展不断改善人民生活,提高社会生产力,优化城镇的发展、提高资源利用水平,促进教育、医疗、贫困、环境、资源等紧迫问题的解决。 建议我国布局实施AI2.0时,一是要与重大需求和已积累的发展成果相结合,如电子政务、电子商务、快递物流、智能社区、分享经济、智能手机、电视家电、制造业升级,和创新设计、跨媒体计算、图像编码、中文识别、知识中心、智能城市及大数据等先行理念或技术成果;二是研究内容要围绕大数据智能、互联网群体智能、跨媒体智能、人机混合增强智能、自主智能系统等新一代方向;三是中国要推动和全球各国科学家与智库开展合作,推动人工智能技术能沿着服务人类的正确方向升级。 (作者系中国工程院院士、中国工程院原常务副院长,此文英文版发表于中国工程院院刊《Engineering》)

不是人类被机器取代,而是“人类社会”被“社会机器”取代

导读:本文为鲍捷的最新力作,观点犀利。作者首先提出人类的大多数,终将陷入文化的真社会性的工蜂阶层,他们将留不下文化的后裔,他们将被机器取代。作者认为爱情和意识对AI只是Bug,机器根本不需要模仿人类糟糕的智能。最终作者认为人类的延续绝不仅仅是人类本身,要么脱壳,要么脱轨,飞向星辰。 ——————————————- 不要问机器为你做了什么,问问你为机器做了什么。 人是软件定义的动物 人有三万个基因。几百个基因的区别就能区分两个物种。但人的一生其实被文因(Meme)塑造,一生被imprint(思想钢印)进大脑的文因,何止三万个。两种不同文化的人,其行为的差别,超越任何物种的差别。人类是一种软件定义的生物,是软件赋予了我们进化的无穷潜力,直至毁灭自身的可能。为了可以灌入软件,我们不惜让每个婴儿都早产一年。 社会是软件定义的种群。人类在最近 5000 年锲而不舍,把定义人的软件转写为定义社会的软件,直到社会本身崛起为新的生物。 但文化进化的速度与基因进化速度的鸿沟越来越大。文化进化的速度越来越快,和基因进化的慢速矛盾越来越大。人类的基本认知能力并无大的进步,人类的大部分越来越不能跟上文化的发展。过去几十年中,通过教育年限的增长弥补了一些差距,已经达到了二十年的教育,但年限不可能无限延长。抗衡原始的认知惰性所需要的教育和资源越来越多。这种投入的增长有限,其边际效益又是递减的,而文化的进化速度是加速的。 人类科技进步的大部分投资“浪费”在了通信上。首先,由于大多数的资本掌握在对科学一窍不通的人手里,人类要花费巨额的时间和投入去让这些动物理解。其次,由于人类硬件的先天限制,需要花二十年时间才能从知识上复制一个人。 文化进化速度的提高,不仅在于机器的速度,而且在于人的理解速度。真正的语义通信的速度,瓶颈不在于机器,而在于人。最后必要诉诸认知能力的外化,也就是机器增强的人脑。人类逐渐将能耗最高的认知能力外包给机器以缓解这个矛盾。人需要用机器来扩展自己的认知能力,这样可以延缓脱轨,但也不过也最多延缓一百年。 基因是自私的,文化也是自私的。赋予人类获得进化优势的文化是自私的,它不在乎它的载体的存亡,它只服从与在竞争中复制自己。人类从书写开始,就不断在文化进化的压力下,乖乖地做文化转移载体的工具。从祭司到软件工程师,都在做文化进化的线粒体。 建立人人平等的社会是人类自古以来的理想,但也从来没有成功过。这是个非常崇高和善良的理想,可是它的执行,几乎总是会导致新的不平等。也许,人类作为一个社会性物种,构成社会的根基就是等级,按体力,财富,信息等等随时代不断变化。人人平等终究是一个幻想。在人类有了机器增强后,会不会拉近人的认知差距,让一个一般的人也赶上牛人?不会,这个差距会急剧加大。原来有10倍差距,有了机器辅助,这个差距会扩大到100倍甚至1000倍。因为理性是反人性的,理性的获得非常困难。无法自然扩展理性,只能拉大社会的理性鸿沟。 人类的大多数,终将陷入文化的真社会性的工蜂阶层。他们将留不下文化的后裔。他们将被机器取代。  乌合之众 人类基本的信息处理能力,还是在大规模(超过数百人)社会形成之前。语言,视觉,听觉,信任,对证据的直觉依赖,都是适应于草原部落生活的进化。这些已经写入基因,构成认知的快速通道和潜意识。而文字,符号,逻辑,科学方法(指系统的寻证方法),超越小部落的信任传递,这些是后生,慢速,困难的。机器在群体上只要超越了爬行动物,就可以超越人类。 人类有四套认知系统:原始的爬行动物认知系统,5万年前语言成熟时发展的,5000年前文字发明后发展的,和500年前科学兴起后发展的。每一套都比前一套更不“自然”,更耗费能量,速度更慢。所以人总是倾向于用低层次的认知系统。 并不是说90%的人只会用5万年前的认知方式思考,每个人都是多种认知方式的综合,比例不同。而人群的总体,在90%的人脑“机时”里,是那些原始的认知在起作用。能够有效利用这种特点的人,都成了伟大的政治家,教主和商业领袖。90%只是个大意,并不是说真的精确到这个数字,总体人群的大多数大多数时间倾向于“不动脑子”,这个应该很容易理解。 这里定性地定义一下“愚蠢”:是指人类的一种认知的惰性,使个体比较偏向于使用5万年前成熟的那套思维系统,而不是5000年前文字发明和500年前科学发展后发展的这两套思维系统。行为经济学,人机界面设计,传播理论里对这种“非理性”有很多研究。 人类的理性与非理性矛盾,早在文字或者文明产生前就已存在。思维的每一步跃迁,都要求更多的能量,但能量供给有限,这就要求原始猿类或人类在有限时间内利用较原始的认知作出决策。故而人类从总体上是一个非常难以协调的物种,因为我们文化的进化远远超过了基因进化的速度,我们需要极大的成本才能沟通和复制知识。没有强力的组织,人类社会很容易分崩离析。一群无组织的人类和一群蜥蜴的智力无异。 人类无法摆脱迷信。吃饭是个体存续的基础,迷信是社会存续的基础。大脑不是用来思考的,它的真正作用在于使你避免思考。我们的大脑的绝大部分,都是在让我们顺从激素、爬行动物脑,而不是去动用耗能昂贵的分析,特别是不要去动用后天才能获得的符号和理性思维。分析、符号和理性都是大脑的敌人,我们必须无时无刻不和本能做斗争才能运用它们。人类社会自己的复杂性已经是普遍不可能理解的了。如果人人都追求理性,而社会维持成本就会极高,我们需要十倍、百倍的物质和能量消耗才能维持社会。 政治,宗教,计算广告学之所以能奏效,就是基于无组织人群的普遍愚蠢。人类在可以遇见的将来不能消除这些愚蠢。人工智能超越人的智能,并不需要比人聪明,而只需要避免的人的愚蠢就够了。 作为集体的机器不会出现乌合之众现象。因为乌合之众现象是人的gene和meme进化速度失配造成的。机器社会与机器个体不存在这种失配。因此人类终将被“社会机器”取代,因为人类无法克服自己的本性。   爱情和意识对AI只是Bug 人工智能不是人类智能。 1)AI实现的不是人的智能 2)AI的设计和人脑的工作过程无关 3)AI感知的世界和人感知的世界全然不同 4)机器需要的智能和人需要的完全不同。 人工智能不是要复制人的智能,而只是要适应人的愚蠢。机器只是笨,人是愚蠢。笨可以治,蠢是世界观,无药可救。人工智能就是一些算法,和人的智能是没有关系的,也不应该有关系。人的智能是很糟糕的东西,机器根本不需要模仿这么拙劣的东西。 人类往往迷恋于喜怒哀乐,往往认为理解这些才是真正的智能。但是这些也只是人类在发展社会性的进化过程中发展起来的延伸的表现型。另一类系统不需要付出这些成本也可以构成坚强的社会,因为它们有完全不同的通信手段。 人工智能并不只是机器人。它是我们通信的界面,是我们构造的秩序。它不是要取代大脑,而是增补大脑。它要解决的不是人个体的问题,而是社会和文化的问题。写进基因的智能AI比较难模仿,最近50000年文化产生的智能比较容易。说到底,目前的AI是一种从人作为文化载体到机器作为文化载体的过渡。 人类担心机器会进化出意识,就像担心蚂蚁会喜欢林志玲。意识也只是进化过程中一种特定的适应性,并非智能的必然的高级属性。同样,爱情也只是社会性的进化出来的表现型。 对于机器,没有爱情和意识是个 feature,不是bug。他们完全不需要这些bug。 图灵测试 人总是在问机器何时通过人的图灵测试。其实结局是人何时通过机器的图灵测试。机器可能通过前者,人永远通不过后者。 图灵测试说,超过30%的人无法区分人和计算机就算过了。问题是,哪些人能代表人类?所以这是个政治问题。如果民主的话,那图灵测试现在就可以过了。 我觉得全人类有一个“人类图灵测试指数”,就是把所有人中能识别当前最先进的AI是否为人的比例。鉴于大多数人并不理性思考,想想有多少人还信各种莫名其妙的巫术,我觉得这个人类图灵测试指数应该是一个非常低的数字。 相对应的是“机器图灵测试指数”,就是最聪明的人能否识别各种AI是否为人的比例。这接近于一般意义上的图灵测试。该值应该是很高的。 人不是理性动物,人对机器智能程度的判断会深深受大脑固化的非理性支配。图灵测试考验的最终不是机器的智能,而是人的智能。 图灵测试不是问题,图灵测试的图灵测试(是不是用机器判断机器的拟人性)才是问题。人最终要从整个流程滚出去。 其实图灵测试涮掉机器之前,早就把99%的人给涮掉了。其实“图灵测试”测试的是人的智能的下限,而不是机器智能的上限。找一个白痴来测试机器,随便什么程序都能过。每次图灵测试的新闻,媒体都这么兴奋。大多数媒体没有通过图灵测试的测试。 如果大多数人区别不出哪首是机器写的,不是因为机器理解了诗,而是因为人不理解诗。图灵测试的问题是,由于人类智力分布金字塔极端不均匀,如果选择金字塔底层人不熟悉的问题,那机器通过。例如薇薇作诗机还是很厉害的 中国古诗词图灵测试 – cslt Wiki 。正常人能把五个字或者七个字码齐了就已经相当不容易了。少数能压韵,再极少能知道平仄。至于能知道按风格选字的,已经万不存一。薇薇现在还不知道用典,很多病句,更没有逻辑。不过这些毛病,现代人一般也看不出来了。换个角度,薇薇已经无法通过图灵测试了,因为人类太烂了。 以后会有一个产业,人购买机器帮自己通过图灵测试,比如复杂的验证码。   无需模仿人脑 人类中心主义思想下,总以为机器要和人比人的强项机器才会超越人。更可能的是机器通过超越人类的弱项超越了人。 在智能问题上,人类还会非常的从人类视角出发产生偏见,总觉得那些对人有意义的问题是难问题,比如人脸识别啊,自然语言理解啊。其实这些东西对于机器系统,压根就是不需要的,它可以直接跃过这些阶段。模仿人的智能很难,超越人的智能就容易多了——就好像模仿鸟的飞行很难,比鸟飞得快就容易多了。如果是目的论的,只看通信产生的效果,那机器语言肯定在未来会超过人类语言。人类语言的语法是基因决定的,很难进化了。 人工智能不需要去追求所谓“真正”的智能是什么,也不需要理解人脑或者猫脑的机理,甚至不需要去模仿人所能完成的“智能”任务(比如说图灵测试)。终极人工智能是要解决机器面临的任务,从目标和手段都和人脑没什么关系。 人工智能最大的作用不是模仿人类,而是把人类智力劳动中可机械化的部分机械化。我们现在纠结于计算机是否可以创作音乐、写诗、打麻将、看病、投资,就和原始人纠结机器是否可以磨制石器、召唤神灵一样。我们纠结的这些问题,在历史长程并不重要。

AlphaGo之父Hassabis | 关于围棋,人类3000年来犯了一个错

4月10日,“人机大战”的消息再次传出,关于人类和AI的对抗再次牵动世界的神经。 “我会抱必胜心态、必死信念。我一定要击败阿尔法狗!”对于5月23日至27日与围棋人工智能程序AlphaGo(阿尔法狗)的对弈,目前世界排名第一的中国职业九段柯洁放出豪言。然而,AlphaGo(阿尔法狗)之父却说,“我们发明阿尔法狗,并不是为了赢取围棋比赛。” AlphaGo之父杰米斯·哈萨比斯(Demis Hassabis)近日在母校英国剑桥大学做了一场题为“超越人类认知的极限”的演讲,解答了世人对于人工智能,对于阿尔法狗的诸多疑问——过去3000年里人类低估了棋局哪个区域的重要性?阿尔法狗去年赢了韩国职业九段李世石靠哪几个绝招?今年年初拿下数位国际大师的神秘棋手Master究竟是不是阿尔法狗?为什么围棋是人工智能难解之谜? 杰米斯·哈萨比斯,Deep Mind创始人, AlphaGo之父。 杰米斯·哈萨比斯,Deep Mind创始人,AlphaGo(阿尔法狗)之父, 4岁开始下象棋,8岁时在棋盘上的成功促使他开始思考两个至今令他困扰的问题:第一,人脑是如何学会完成复杂任务的?第二,电脑能否做到这一点?17岁时,哈萨比斯就负责了经典模拟游戏《主题公园》的开发,并在1994年发布。他随后读完了剑桥大学计算机科学学位,2005年进入伦敦大学学院,攻读神经科学博士学位,希望了解真正的大脑究竟是如何工作的,以此促进人工智能的发展。2014年他创办公司Deep Mind, 公司产品阿尔法狗在2016年大战围棋冠军李世石事件上一举成名。 哈萨比斯在当天的演讲中透露了韩国棋手李世石去年输给阿尔法狗的致命原因,他最后也提到了阿尔法狗即将迎战的中国棋手柯洁,他说,“柯洁也在网上和阿尔法狗对决过,比赛之后柯洁说人类已经研究围棋研究了几千年了,然而人工智能却告诉我们,我们甚至连其表皮都没揭开。柯洁提到了围棋的真理,我们在这里谈的是科学的真理。” 世界围棋冠军柯洁即将迎战阿尔法狗。   非常感谢大家今天能够到场,今天,我将谈谈人工智能,以及DeepMind近期在做些什么,我把这场报告命名为“超越人类认知的极限”,我希望到了报告结束的时候,大家都清晰了解我想传达的思想。 1.你真的知道什么是人工智能吗? 对于不知道DeepMind公司的朋友,我做个简单介绍,我们是在2010年于伦敦成立了这家公司,在2014年我们被谷歌收购,希望借此加快我们人工智能技术的脚步。我们的使命是什么呢?我们的首要使命便是解决人工智能问题;一旦这个问题解决了,理论上任何问题都可以被解决。这就是我们的两大使命了,听起来可能有点狡猾,但是我们真的相信,如果人工智能最基本的问题都解决了的话,没有什么问题是困难的。 那么我们准备怎样实现这个目标呢?DeepMind现在在努力制造世界上第一台通用学习机,大体上学习可以分为两类:一种就是直接从输入和经验中学习,没有既定的程序或者规则可循,系统需要从原始数据自己进行学习;第二种学习系统就是通用学习系统,指的是一种算法可以用于不同的任务和领域,甚至是一些从未见过的全新领域。大家肯定会问,系统是怎么做到这一点的? 其实,人脑就是一个非常明显的例子,这是可能的,关键在于如何通过大量的数据资源,寻找到最合适的解决方式和算法。我们把这种系统叫做通用人工智能,来区别于如今我们当前大部分人在用的仅在某一领域发挥特长的狭义人工智能,这种狭义人工智能在过去的40-50年非常流行。 IBM 发明的深蓝系统(Deep Blue)就是一个很好的狭义人工智能的例子,他在上世纪90年代末期曾打败了国际象棋冠军加里·卡斯帕罗夫(Gary Kasporov) 。如今,我们到了人工智能的新的转折点,我们有着更加先进、更加匹配的技术。   1997年5月,IBM与世界国际象棋冠军加里·卡斯帕罗夫对决 2.如何让机器听从人类的命令? 大家可能想问机器是如何听从人类的命令的,其实并不是机器或者算法本身,而是一群聪明的编程者智慧的结晶。他们与每一位国际象棋大师对话,汲取他们的经验,把其转化成代码和规则,组建了人类最强的象棋大师团队。但是这样的系统仅限于象棋,不能用于其他游戏。对于新的游戏,你需要重新开始编程。在某种程度上,这些技术仍然不够完美,并不是传统意义上的完全人工智能,其中所缺失的就是普适性和学习性。我们想通过“增强学习”来解决这一难题。在这里我解释一下增强学习,我相信很多人都了解这个算法。 首先,想像一下有一个主体,在AI领域我们称我们的人工智能系统为主体,它需要了解自己所处的环境,并尽力找出自己要达到的目的。这里的环境可以指真实事件,可以是机器人,也可以是虚拟世界,比如游戏环境;主体通过两种方式与周围环境接触;它先通过观察熟悉环境,我们起初通过视觉,也可以通过听觉、触觉等,我们也在发展多感觉的系统; 第二个任务,就是在此基础上,建模并找出最佳选择。这可能涉及到对未来的预期,想像,以及假设检验。这个主体经常处在真实环境中,当时间节点到了的时候,系统需要输出当前找到的最佳方案。这个方案可能或多或少会改变所处环境,从而进一步驱动观察的结果,并反馈给主体。 简单来说,这就是增强学习的原则,示意图虽然简单,但是其中却涉及了极其复杂的算法和原理。如果我们能够解决大部分问题,我们就能够搭建普适人工智能。这是因为两个主要原因:首先,从数学角度来讲,我的合伙人,一名博士,他搭建了一个系统叫‘AI-XI’,用这个模型,他证明了在计算机硬件条件和时间无限的情况下,搭建一个普适人工智能,需要的信息。另外,从生物角度来讲,动物和人类等,人类的大脑是多巴胺控制的,它在执行增强学习的行为。因此,不论是从数学的角度,还是生物的角度,增强学习是一个有效的解决人工智能问题的工具。 3.为什么围棋是人工智能难解之谜? 接下来,我要主要讲讲我们最近的技术,那就是去年诞生的阿尔法狗;希望在座的大家了解这个游戏,并尝试玩玩,这是个非常棒的游戏。围棋使用方形格状棋盘及黑白二色圆形棋子进行对弈,棋盘上有纵横各19条直线将棋盘分成361个交叉点,棋子走在交叉点上,双方交替行棋,以围地多者为胜。围棋规则没有多复杂,我可以在五分钟之内教给大家。这张图展示的就是一局已结束,整个棋盘基本布满棋子,然后数一下你的棋子圈出的空间以及对方棋子圈出的空间,谁的空间大,谁就获胜。在图示的这场势均力敌的比赛中,白棋一格之差险胜。   白棋以一格之差险胜。 其实,了解这个游戏的最终目的非常难,因为它并不像象棋那样,有着直接明确的目标,在围棋里,完全是凭直觉的,甚至连如何决定游戏结束对于初学者来说,都很难。围棋是个历史悠久的游戏,有着3000多年的历史,起源于中国,在亚洲,围棋有着很深的文化意义。孔子还曾指出,围棋是每一个真正的学者都应该掌握的四大技能之一(琴棋书画),所以在亚洲围棋是种艺术,专家们都会玩。 如今,这个游戏更加流行,有4000万人在玩围棋,超过2000多个顶级专家,如果你在4-5岁的时候就展示了围棋的天赋,这些小孩将会被选中,并进入特殊的专业围棋学校,在那里,学生从6岁起,每天花12个小时学习围棋,一周七天,天天如此。直到你成为这个领域的专家,才可以离开学校毕业。这些专家基本是投入人生全部的精力,去揣摩学习掌握这门技巧,我认为围棋也许是最优雅的一种游戏了。 像我说的那样,这个游戏只有两个非常简单的规则,而其复杂性却是难以想象的,一共有10170 (10的170次方) 种可能性,这个数字比整个宇宙中的原子数1080(10的80次方)都多的去了,是没有办法穷举出围棋所有的可能结果的。我们需要一种更加聪明的方法。你也许会问为什么计算机进行围棋的游戏会如此困难,1997年,IBM的人工智能DeepBlue(深蓝)打败了当时的象棋世界冠军GarryKasparov,围棋一直是人工智能领域的难解之谜。我们能否做出一个算法来与世界围棋冠军竞争呢?要做到这一点,有两个大的挑战: 一、搜索空间庞大(分支因数就有200),一个很好的例子,就是在围棋中,平均每一个棋子有两百个可能的位置,而象棋仅仅是20. 围棋的分支因数远大于象棋。 二、比这个更难的是,几乎没有一个合适的评价函数来定义谁是赢家,赢了多少;这个评价函数对于该系统是至关重要的。而对于象棋来说,写一个评价函数是非常简单的,因为象棋不仅是个相对简单的游戏,而且是实体的,只用数一下双方的棋子,就能轻而易举得出结论了。你也可以通过其他指标来评价象棋,比如棋子移动性等。 所有的这些在围棋里都是不可能的,并不是所有的部分都一样,甚至一个小小部分的变动,会完全变化格局,所以每一个小的棋子都对棋局有着至关重要的影响。最难的部分是,我称象棋为毁灭性的游戏,游戏开始的时候,所有的棋子都在棋盘上了,随着游戏的进行,棋子被对方吃掉,棋子数目不断减少,游戏也变得越来越简单。相反,围棋是个建设性的游戏,开始的时候,棋盘是空的,慢慢的下棋双方把棋盘填满。 因此,如果你准备在中场判断一下当前形势,在象棋里,你只需看现在的棋盘,就能告诉你大致情况;在围棋里,你必须评估未来可能会发生什么,才能评估当前局势,所以相比较而言,围棋难得多。也有很多人试着将DeepBlue的技术应用在围棋上,但是结果并不理想,这些技术连一个专业的围棋手都打不赢,更别说世界冠军了。 所以大家就要问了,连电脑操作起来都这么难,人类是怎样解决这个问题的?其实,人类是靠直觉的,而围棋一开始就是一个靠直觉而非计算的游戏。所以,如果你问一个象棋选手,为什么这步这样走,他会告诉你,这样走完之后,下一步和下下一步会怎样走,就可以达到什么样的目的。这样的计划,有时候也许不尽如人意,但是起码选手是有原因的。 然而围棋就不同了,如果你去问世界级的大师,为什么走这一步,他们经常回答你直觉告诉他这么走,这是真的,他们是没法描述其中的原因的。我们通过用加强学习的方式来提高人工神经网络算法,希望能够解决这一问题。我们试图通过深度神经网络模仿人类的这种直觉行为,在这里,需要训练两个神经网络,一种是决策网络,我们从网上下载了成百万的业余围棋游戏,通过监督学习,我们让阿尔法狗模拟人类下围棋的行为;我们从棋盘上任意选择一个落子点,训练系统去预测下一步人类将作出的决定;系统的输入是在那个特殊位置最有可能发生的前五或者前十的位置移动;这样,你只需看那5-10种可能性,而不用分析所有的200种可能性了。 一旦我们有了这个,我们对系统进行几百万次的训练,通过误差加强学习,对于赢了的情况,让系统意识到,下次出现类似的情形时,更有可能做相似的决定。相反,如果系统输了,那么下次再出现类似的情况,就不会选择这种走法。我们建立了自己的游戏数据库,通过百万次的游戏,对系统进行训练,得到第二种神经网络。选择不同的落子点,经过置信区间进行学习,选出能够赢的情况,这个几率介于0-1之间,0是根本不可能赢,1是百分之百赢。 通过把这两个神经网络结合起来(决策网络和数值网络),我们可以大致预估出当前的情况。这两个神经网络树,通过蒙特卡洛算法,把这种本来不能解决的问题,变得可以解决。我们网罗了大部分的围棋下法,然后和欧洲的围棋冠军比赛,结果是阿尔法狗赢了,那是我们的第一次突破,而且相关算法还被发表在《自然》科学杂志。 接下来,我们在韩国设立了100万美元的奖金,并在2016年3月,与世界围棋冠军李世石进行了对决。李世石先生是围棋界的传奇,在过去的10年里都被认为是最顶级的围棋专家。我们与他进行对决,发现他有非常多创新的玩法,有的时候阿尔法狗很难掌控。比赛开始之前,世界上每个人(包括他本人在内)都认为他一定会很轻松就打赢这五场比赛,但实际结果是我们的阿尔法狗以4:1获胜。围棋专家和人工智能领域的专家都称这具有划时代的意义。对于业界人员来说,之前根本没想到。 4.棋局哪个关键区域被人类忽视了? 这对于我们来说也是一生仅有一次的偶然事件。这场比赛,全世界28亿人在关注,35000多篇关于此的报道。整个韩国那一周都在围绕这个话题。真是一件非常美妙的事情。对于我们而言,重要的不是阿尔法狗赢了这个比赛,而是了解分析他是如何赢的,这个系统有多强的创新能力。阿尔法狗不仅仅只是模仿其他人类选手的下法,他在不断创新。在这里举个例子 ,这是第二局里的一个情况,第37步,这一步是我整个比赛中最喜欢的一步。在这里,黑棋代表阿尔法狗,他将棋子落在了图中三角标出的位置。为什么这步这么关键呢?为什么大家都被震惊到了。   图左:第二局里,第37步,黑棋的落子位置  图右:之前貌似陷入困境的两个棋子。

VR、AR、MR、CR区别到底在哪?

VR Vitual Reality,虚拟现实,是利用计算设备模拟产生一个三维的虚拟世界,提供用户关于视觉、听觉等感官的模拟,有十足的「沉浸感」与「临场感」。俗话说就是,你看到的所有东西都是计算机生成的,都是假的。典型的输出设备就是Oculus Rift、HTC Vive等等。 AR Augmented Reality,增强现实,字面解释就是,「现实」就在这里,但是它被增强了,被谁增强了?被虚拟信息。两个典型的AR系统是车载系统和智能手机系统,被讨论最多的AR设备是Google Glass。 很多汽车在其车载系统当中加入了AR应用,比如,GMC在其挡风玻璃上投射虚拟图像,用意是让驾驶者不需要低头查看仪表的显示与资料,始终保持抬头的姿态,降低低头与抬头期间忽略外界环境的快速变化,以及眼睛焦距需要不断调整产生的延迟与不适;或者帮助驾驶者更好地感知路况信息,提高驾驶安全性。 智能手机上实际上有很多应用都属于AR,但是人们往往不会「上纲上线」地把它们称之为AR。比如一些LBS(基于地理位置的服务)应用,当你打开应用,把手机摄像头对着某幢大厦,手机屏幕上便会浮现这个大厦的相关信息,比如名称、楼层等等。再比如前段时间比较火的FaceU,也算是AR应用,它实时地捕捉用户的头部,并把类似「帽子」「彩虹」「兔子耳朵」这些虚拟信息叠加于用户的头部。 Google Glass允许你与周围环境交互时,将通过眼镜上的「微型投影仪」把虚拟图像直接投射到你的视网膜,于是乎你看到的就是叠加过虚拟图像的现实世界。可能有盆友会疑惑了,那它跟Hololens和Magic Leap区别在哪?别急,继续往下看。 MR 大多数人分不清的应该是AR和MR(Mixed Reality,混合现实,又称Hybrid Reality),不妨让我们先看一张图吧。 我们暂且把这张图叫做「现实-虚拟」区间(reality-virtuality continuum)。区间向左至无穷表示「现实环境」,依次向右为「增强现实(AR)」、「增强虚拟(AV,Augmented Vituality)」,直到向右至无穷表示「虚拟环境」,而「混合现实」则包含了「增强现实」与「增强虚拟」。 增强现实(AR)上面解释过了,是将虚拟信息加在真实环境中,来增强真实环境;那么增强虚拟(AV)是什么?同样的道理,是将真实环境中的特性加在虚拟环境中。举个例子,手机中的赛车游戏与射击游戏,通过重力感应和来调整方向和方位,那么就是通过重力传感器、陀螺仪等设备将真实世界中的「重力」「磁力」等特性加到了虚拟世界中。 那么MR定义是:将真实世界和虚拟世界混合在一起,来产生新的可视化环境,环境中同时包含了物理实体与虚拟信息,并且必须是「实时的」。MR的两大代表设备就是Hololens与Magic Leap。 AR和MR该如何区分? 在上述定义下,AR往往被看做是MR的其中一种形式,因此在当今业界,很多时候为了描述方便或者其他原因,就把AR也当做了MR的代名词,用AR代替了MR。 再者,从业界鼓吹的概念来讲,AR和MR并没有明显的分界线,未来也很可能不再区分AR与MR,MR更多也只是Hololens和Magic Leap打出的噱头。但是现今所谓的「AR设备」与「MR设备」,从所应用的技术和显示效果上来说,还是稍稍有所不同的,所以我们这里还是讲讲这两类设备的区别(以Google Glass代表的AR设备与以Hololens与Magic Leap为代表的MR设备)。 为了好理解,我们就解释地通俗一点,有两点主要的不同。 第一,虚拟物体的相对位置,是否随设备的移动而移动。如果是,就是AR设备;如果不是,就是MR设备。 举个例子,戴上Google Glass,它在你的左前方投射出一个「天气面板」,不管你怎样在屋子中走动,或者转动头部,天气面板一直都在你的左前方,它与你(或者Google Glass)的相对位置是不变的,你走到哪,就把它带到哪, 而Hololens是怎样的呢,它也会在屋子墙壁上投射出一个天气面板,但是不同之处在于,不管你怎样在屋子中走动,或者转动头部,天气面板始终都在那面墙上,它不会由于你的移动而移动(这主要里涉及空间感知定位技术,SLAM,即时定位与地图构建,为其中最主要的之一,作用是让设备实时地获取周围的环境信息,才能精确地将虚拟物体放在正确的位置,所以无论用户的位置无论怎么变动,虚拟物体的位置都可以固定在房间中的同一个位置)。 第二,在理想状态下(数字光场没有信息损失),虚拟物体与真实物体是否能被区分。 AR设备创造的虚拟物体,是可以明显看出是虚拟的,比如FaceU在用户脸上打出的虚拟物品、Google Glass投射出的随你而动的虚拟信息;而Magic Leap,用户看到的虚拟物体和真实物体几乎是无法区分的(这里主要涉及数字光场技术,Digital Light Field。AR设备使用二维显示屏呈现虚拟信息,因此真假很容易分辨;而MR设备直接向视网膜投射整个4维光场,所以用户从Magic Leap看到的物体和看真实的物体,从数学上是没有什么区别的,是没有信息损失的)。 当然,「AR设备」与「MR设备」的界限不是绝对的(甚至说这种界限是企业YY出来的),这里把它们分为这两类,主要是让大家明白他们所应用的技术和达到的效果是有所区别的。AR设备未来也会使用SLAM、数字光场以及视网膜投射等技术(比如Google 的Project Tango),这时AR也就演化为MR了吧。 至于CR,是Magic Leap曾经宣扬的概念 说自己是Cinematic Reality,影像现实,意思是虚拟场景跟电影特效一样逼真。但是后来好像他们的发言人也把自己归做MR了。 还有一点很重要,就是Magic Leap并不是裸眼观看的,不要被曾经红极一时的「鲸鱼视频」误导,Magic Leap同样需要一个头戴显示器,「鲸鱼视频」应该是后期做的特效。人类希望能凭空看到一个虚拟物体,已经想了几百年了,各种科幻电影里也出现了很多在空气中的全息影像。其实想想本质就知道,这事从物理上很难实现的:纯空气中没有可以反射或折射光的介质。显示东西最重要的是介质。 本文由微信公众号「VR看天下」(VRkantianxia)原创发表,部分观点参考Bob James博客。

2017年中国大数据发展调查报告

随着大数据政策环境和技术手段的不断完善,大数据行业应用持续升温,中国企业级大数据市场进入快速发展时期。互联网、电信、金融等开始实际部署大数据平台并付诸实践,带动软件、硬件和服务市场快速发展。为进一步掌握中国大数据发展和应用情况,中国信息通信研究院开展了2016-2017年度中国大数据发展状况的调查。 《中国大数据发展调查报告(2017年)》以调查数据为基础,结合行业专家的访谈,力争详实客观的反映中国大数据发展现状,为政府和企业了解中国大数据发展状况和制定相关决策提供参考,也为广大关注大数据的从业人员、专家学者和研究机构提供真实可信的大数据发展报告。 。 附 《中国大数据发展调查报告(2017年)》全文   喜欢

重磅报告 | 中国物联网行业细分市场分析

来源:前瞻产业研究院   WPR整理并推荐阅读,转载请注明来源及出处。 前言 数据显示,2017年全球物联网市场规模将达到4500亿美元,物联网产业发展前景广阔。但是从市场调研情况看,我国物联网市场发展还处于初级阶段,用户对物联网的认知体验依然处于比较初级的水平,但是物联网设备及服务提供商、物联网应用主体对物联网行业发展都表现出了积极的兴趣和乐观的态度。 01 物联网产业 发展综述 1. 物联网产业基本概况 物联网产业发展现状 1、物联网产业结构现状 按产业链层级划分,将物联网产业分为支撑层、感知层、传输层、平台层,以及应用层五个层级。2015年,国内物联网产业规模约7500亿元,其中支撑层、感知层、传输层、平台层,以及应用层分别占比3.0%、23.2%、32.3%、37.0%和4.5%。而物联网感知层、传输层参与厂商众多,成为产业中竞争最为激烈的领域。 2、物联网市场规模分析 经过业界的共同努力,国内物联网产业链和产业体系初步形成,产业规模快速增长。目前,中国发展物联网所需的自动控制、信息传感、射频识别等技术和产业都已成熟或基本成熟,通信运营商和系统设备提供商达到世界级水平,下游应用不断拓展。目前,物联网已较为成熟地运用于安防监控、智能交通、智能电网、智能物流等。2015年,中国物联网市场规模约7500亿元,同比增长约26%。 2. 物联网产业发展环境分析 物联网产业经济环境分析 1、GDP增长情况分析 2015年以来,受世界经济复苏缓慢和国内宏观调控的影响,我国经济增长延续减速态势。初步核算,全年国内生产总值676708亿元,按可比价格计算,比上年增长6.9%。 2、工业发展情况分析 2005-2015年,全国规模以上企业工业增加值逐年增长,年复合增长率为12.09%。2014年为22.80万亿元,同比增长8.21%。2015年,工业增加值为24.19万亿元,同比增长6.10%。   3、产业结构变化分析 近几年,我国产业结构呈现明显的变化,第一产业与第二产业增加值占GDP的比重呈现明显的下降趋势,而第三产业增加值占比呈现上升的趋势,到2012年,第三产业占比首次超过第二产业,达到45.50%。到2015年,达到50.5%,首次突破50%。   4、经济环境影响分析 自2008年经济危机以来,我国经济逐渐恢复,平稳运行,主要经济指标处于合理区间。2015年以来,受世界经济复苏缓慢和国内宏观调控的影响,我国经济增长延续减速态势,国内经济增速换挡期和结构调整阵痛期叠加共振,下行压力持续存在。但总体保持平稳运行,实现了稳中有升、稳中有进,为行业的发展提供了有利的宏观环境。 物联网产业社会环境分析 1、城镇化进程加快,对交通、物流等方面的需求加大 2015年末全国大陆总人口137462万人,比上年末增加680万人,其中城镇常住人口77116万人,占总人口比重为56.10%,比上年末提高1.33个百分点。   2、环境污染加剧,社会环保意识的增强 随着我国工业化进程的加快,传统的经济增长模式对环境受到较为严重的影响。国家也加大了对环境治理的力度。虽然,我国在环境治理方面取得了一定的成绩,环境污染问题仍然一项艰巨的挑战。 02 物联网 细分产品需求分析 1. 物联网传感设备产品市场需求分析 物联网RFID产品市场需求分析 1、物联网RFID产品需求规模分析 根据中国RFID产业联盟,自2010年中国物联网发展被正式列入国家发展战略后,中国RFID及物联网产业迎来了难得的发展机遇。2013年,我国RFID的市场规模突破300亿元,规模增速达到35%;2014年的行业规模约为427.5亿元,同比增长33.59%。前瞻预计2015年市场规模为540亿元左右。   2、物联网RFID产品需求前景预测 虽然有源RFID在国内起步比较晚,但需求有快速发展趋势。前瞻预计到2016年,我国RFID产业规模将突破600亿元,2016-2021年均复合增长率仍然维持在18%-20%左右,主要的增长动力来源于社保卡和健康卡项目、交通管理、移动支付、物流与仓储、防伪、金融IC卡迁移等细分领域。   物联网传感器产品市场需求分析 1、物联网传感器产品需求规模分析 2013年国内传感器制造业销售额约为560.09亿元,同比增长9.01%;2014年,中国传感器制造业销售收入为572.92亿元,同比增长2.24%。2015年,中国规模以上传感器制造业销售收入约为623.22亿元。   2、物联网传感器产品市场竞争分析 ◆传感器行业盈利能力分析 2015年,中国传感器制造行业的销售利润率为10.58%,总资产报酬率为5.31%,资本保值率为107.85%。综合来看,中国传感器制造行业竞争较为激烈,行业盈利能力有待提高。   ◆传感器行业竞争分析 以下分别从竞争者数量、行业增长率、退出壁垒、竞争层次分析现有企业的竞争情况。前瞻分析认为传感器制造行业逐步进入成熟阶段,行业整体素质参差不齐,多数企业集中于中低端产品,现有企业竞争较为激烈。

Skip to toolbar