-
云计算实现IT投资的利用率最大化,让人工智能享受了计算性能的大步提升
2017/4/26 10:31:22 来源:中国产业发展研究网 【字体:大 中 小】【收藏本页】【打印】【关闭】
核心提示:AlphaGo 战胜人类冠军,人工智能再次成为世界焦点。由于棋类游戏通常被认为是 人类智慧的浓缩,可作为检验智力程度的试金石,AlphaGo 战胜曾获得世界冠军的人类 九段围棋高手李世石,是历史上第一次机器在最高难度的棋类项目—AlphaGo 战胜人类冠军,人工智能再次成为世界焦点。由于棋类游戏通常被认为是 人类智慧的浓缩,可作为检验智力程度的试金石,AlphaGo 战胜曾获得世界冠军的人类 九段围棋高手李世石,是历史上第一次机器在最高难度的棋类项目——围棋上战胜了人 类,继 IBM 超级计算机深蓝后,人工智能再次成为世界焦点。
AlphaGo 核心系统主要为值网络、策略网络、蒙特卡洛搜索树等,其使用蒙特卡洛 树搜索(Monte Carlo tree search),借助值网络(value network)与策略网络(policy network)两种深度神经网络,通过值网络来评估大量选点,策略网络选择落点。
人工智能发展历史和理论派别
1956 年在 Dartmouth 会议上,第一次提出了“人工智能”这个词,至今为止已有 60 年,今天的技术井喷来源于六十多年的持续前进。
人工智能简单讲即是由机器来仿真或模拟人智能的系统,其研究包含了推理、规划、 学习、交流、感知、移动、操作等,目前对其智能级别归纳为感知、决策、反馈三个层 次。
人工智能三个层次
数据来源:公开资料整理
一、人工智能发展历史分析
继潜水艇、汽车、飞机等模仿生物的发明诞生后,人类开始研究模仿大脑思维运作 的机器——即计算机,而计算机科学的发展促成了人工智能。1950 年,阿兰.图灵以“图 灵测试”来判定计算机是否智能,即如果一个机器能够与人类对话而不被发现是机器身 份,那么这个机器具备智能。
人工智能发展历史
数据来源:公开资料整理
人工智能第一次浪潮在 1956 年—1974 年,达特茅斯会议推动了第一次人工智能浪 潮出现,当时出现了增强学习的雏形、第一个计算机神经网络—感知器(深度学习模型)、 第一个能够模拟人活动的机器人 Robot C。
20 世纪 70 年代末,神经网络学习由于理论缺失和计算机有限的内存及处理速度, 发展陷入低潮期。直到 20 世纪 80 年代中期,MLP(多层感知器)、ID3 算法(决策树算 法)等各种算法的提出并应用到实际,机器学习开始复苏。
第二次浪潮在 1990s-2000s, 新理论、新理念、摩尔定律都使 AI 迎来曙光。
进入二十一世纪,至今人工智能迎来第三次浪潮,机器学习大大放光芒。2006 年, 机器学习领域的泰斗 Hinton 和他的学生 Salakhutdinov 在《 Scince》上 发表了一篇文章, 开启了深度学习的热潮。前期监督深度学习算法的理论研究和工程化的成熟,计算机运 算能力大幅提升,云计算、大数据、移动互联网融合推动了人工智能加速发展。
当前,人工智能已在众多方面取得了突破性进展:机器学习进入增强学习算法阶段 (从任意初始状态开始,机器与外部环境持续交互,通过不断试错和累积回报来“学习” 最佳策略)、机器语音识别形成产业链、视觉识别逼近奇点、情感算法进入新阶段、神经 元芯片取得关键性成功等。
二、人工智能三大理论派别
人工智能理论领域呈现三足鼎立的局面,分别为联结主义、符号主义、行为主义。 符号主义注重人脑的抽象思维特性,联结主义讲究模仿人的形象思维特性,行为主义强 调人类智能的行为特性及其进化过程,三大学派各有所长。
人工智能三大理论派别
数据来源:公开资料整理
目前发展最火的是深度学习,深度神经网络,属于联结主义;符号主义代表成就是 上个世纪的专家系统,机器人控制则属于行为主义的领域。
人工智能感知、计算、学习技术变革
人工智能致力于用机器模拟人类行为,实现人类智慧才能实现的事情。人类的发展 在其一步步通过工具拓展自身,人工智能的发展亦是如此
2020 年有 500 亿个连接设备
全球运动检测传感器市场
数据来源:公开数据整理
二、云计算和大规模 GPU 并行计算是深度学习进一步发展的运算能力基础。
人工智能进行深度学习需要将数以万计的图片、声音视频收集存储起来,收集数据、 查询数据、处理数据的数亿次运作需要强大的计算能力。
云计算以整合、共享和动态的硬件设备供应来实现 IT 投资的利用率最大化, GPU、 TPU 的加入,让人工智能享受了计算性能的大步提升。
从 CPU 计算,到 GPU(Graphic Processing Unit)、 FPGA(现场可变成门阵列)、TPU (Tensor Processing Unit)等超速处理硬件发展起来后,硬件密集计算能力升级换代。
CPU 遵循冯诺依曼架构,核心是存储程序,顺序执行,在更大规模和更快速度的运 行上效率不高。
GPU 内部结构控制相对较为简单,对 cache 需求较少,可针对密集的、高并行的计 算,其单位面积拥有的处理单元更高,更擅长图像并行计算。
FPGA 是一种半定制集成电路,通过可编辑的连接,可以将 FPGA 內部的逻辑块连接 起来,其运行速度相对较慢,但是成本较低。
FPGA结构图
数据来源:公开资料整理
TPU(Tensor Processing Unit)微软为机器学习定制的芯片,效能更高,已应用在 “google 街景”提高地图与导航的准确性以及 AlphaGo 的硬件平台,未来将应用在更多 人工智能平台上。
三、按照机器学习模型的层次结构可分为浅层学习和深度学习。
浅层学习模型包含不超过一层或两层的非线性特征变换,包括获取数据、特征表达 和机器学习部分。深度学习对叠多个层次,其特征学习能力更为优异,通过构建具有很多隐层的机器学习模型和海量的训练数据,学习更有用的特征。
浅层学习和深度学习的结构区别
数据来源:公开资料整理
面对海量数据,深度学习算法区别于传统算法的标记学习和有监督学习(即必须人 为干预对样本进行标注才能让机器学会如何识别特定对象),采用从未标记的数据开始学 习,通过训练自行掌握概念,最后输出结果随着数据处理量的增加而更加准确。深度学 习能让机器具备自主学习的能力,从而真正意义上引爆了机器学习的浪潮。
产业链完备,期待商业价值落地
AI 产业层链可分为基础层、技术层、行业应用层。
基础层包括芯片、传感器、存储设备等硬件及大数据资源;技术层包括机器学习、 自然语言处理、计算机视觉等;应用层主要分布在金融、医疗、安防、教育等领域。
人工智能产业链层次
数据来源:公开资料整理
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,邮箱:cidr@chinaidr.com。 -
- 直达16个行业