2017⇆2019 AI三年浮沉记
167
2019-12-03 10:46    文章来源:AI前线 原创: 赵钰莹、李冬梅 (ai-front)
文章摘要:最近,“2017 vs 2019”成为热题。回顾过往,人工智能技术也是更迭换代,风云跌宕。年关将至,AI 前线也趁着这股小热度总结了下 2017 年到 2019 年人工智能领域有哪些“暗潮涌动”。

据 Gartner 发布的 2017 年《技术成熟度报告》显示,其中出现了 8 项新增技术成果,其中包括 5G、人工通用智能、深度学习、深度强化学习、数字孪生、边缘计算、无服务器 PaaS 以及认知计算。时移世易,2019 年技术的创新和发展已经超出了我们的想象,据人工智能行业分析机构 CBInsights 发布的《2019 年 AI 趋势报告》来看,人工智能正在以可见的速度渗透到各行各业中。

2.png

深度学习热度过后的「冷思考」

2017 年,人们对深度学习的发展寄予了厚望,认为它将会产生最多的利润,众多资本涌入人工智能的各个领域,最好的例子就是 AlphaGo 的胜利。2017 年 5 月,在中国乌镇围棋峰会上,AlphaGo 与排名世界第一的世界围棋冠军柯洁对战,以 3 比 0 的总比分获胜。到 2017 年底,超强版 AlphaGo Zero 完全不依赖于人类数据,在只知道比赛规则的情况下自我对弈,3 天训练后就以 100 比 0 战胜了 AlphaGo。

在棋类游戏中,围棋所包含的巨大的搜索空间(其状态数远远超过整个宇宙中的原子数)一直是 机器学习 未能攻克的难题,甚至一度被认为在近期内是不可能被 AI 解决的。AlphaGo 的成功不仅让人们看到了强化学习和随机模拟技术(也称「蒙特卡罗」技术)的魅力,也让深度学习变得更加炙手可热。冷静之余,人们认识到 AlphaGo 的算法更适用于大规模概率空间的智能搜索,其环境和状态都是可模拟的。DeepMind 的创始人德米斯·哈萨比斯表示,对于那些环境难以模拟的决策问题(如自动驾驶),这些算法也无能为力。

NLP 完成从量到质的跃迁

2017 年是自然语言处理领域的重要一年,这一年的种种实践(Word2vec 和 GloVe)证明:预训练词嵌入模型已经成为解决 NLP 问题的一类关键性工具。举例来说,来自 Facebook AI Research(简称 FAIR)实验室的 fastText 即提供包含 294 种语言的预训练向量,这无疑给整个技术社区带来了巨大的贡献与推动作用。尽管已经实现了一定进展,但这方面仍有大量工作需要完成,这个领域需要更好的 预训练模型 的出现。

4.png

2018 年,谷歌发布了 BERT,因其在问题答复到语言推理等不同任务上的卓越表现而引发关注。BERT 是近期 NLP(GPT、GPT2、ULMFiT 和 roBERTa)等模型中的一部分,这些模型的系统性能较之前有了很大改进,因此一些研究人员会称 NLP 正处于它的「高光时刻」。谷歌充分利用了 BERT 的优越性并且将其加入到了 搜索引擎 中,这也从侧面说明了这些技术兼具了研究和商业价值。2018 年 11 月 24 日,谷歌正式放出 BERT 官方代码和预训练模型,包括模型的 TensorFlow 实现、BERT-Base 和 BERT-Large 预训练模型和 TensorFlow 代码。

同样,2018 年 6 月,OpenAI 发表论文首次介绍了自己的语言模型 GPT。2019 年年初,OpenAI 宣布开发出了一个大型语言模型,可以生成合成文本,名为 GPT-2。出于谨慎考虑,公司并没有公开 GPT-2 的所有代码,同时也是担心它可能被误用。5 月,OpenAI 发布了一个 3.5 亿参数的版本,并宣布将与有限的合作伙伴共享 7.62 亿参数和 15 亿参数,同时他们也在研究针对恶意使用 GPT-2 的对策。这款被业内传为「最强假新闻生成器」的 GPT-2 AI 模型,从诞生开始就引起大量关注。时隔半年,GPT-2 的阶段性开放终于进入尾声。11 月 6 日,OpenAI 正式放出 GPT-2 最后一个部分的完整代码——包含 15 亿参数的最大版本。

这两个预训练模型的开放解决了标注数据缺乏的问题,帮助 NLP 完成了从量的积累到质的飞跃的转变。

联邦学习的征途是星辰大海

2016 年,谷歌提出了 联邦学习,原本是用来解决安卓手机终端用户在本地更新模型的问题,其可使用的机器学习算法不局限于 神经网络,还包括 随机森林 等重要算法。联邦学习本质上是一种 分布式机器学习 技术,或 机器学习框架,目标是在保证数据隐私安全及合法合规的基础上,实现共同建模,提升 AI 模型的效果。

5.png

过去几年,这一技术的标准在不断完善。IEEE 联邦学习国际标准项目应运而生,这一项目由 微众银行 发起,于去年 12 月获批,是国际上首个针对人工智能协同技术框架订立标准的项目,目前已经召开了四次工作组会议。联邦学习标准草案预计将于 2020 年 2 月推出,正式标准预计将于 2020 年上半年出台。联邦学习正在从「点到点的发展阶段」转向「应用落地、积累案例阶段」。

在框架方面,2019 年取得了重要进展,诞生了首个 工业级开源框架 FATE,这是微众银行 AI 团队自主研发的开源框架,FATE 在今年 2 月份首发了 0.1 版本,3 月份的时候有了第一位外部 Contributor,同时 GitHubStar 突破 100,5 月份发布了 0.2 版本,支持了联邦特征工程和在线推理,6 月份发布了 0.3 版本,把主要的合作伙伴迁移到了 FATE,并把 FATE 捐献给了 Linux Fundation,8 月份发布了 1.0 版本,支持 FATE-Flow 和 FATE-Board。10 月 31 日,FATE v1.1 版本正式发布,联合 VMware 中国研发开放创新中心云原生实验室团队发布了 KubeFATE 项目,通过把 FATE 的所有组件用容器的形式封装,实现了使用 Docker Compose 或 Kubernetes(Helm Charts)来部署。不到三年的时间,联邦学习已经快速地发展了起来,而且在业界也得到回应,京东、腾讯云、平安科技 等等企业也已经加入到联邦学习的队伍中来。

在推广联邦学习的过程中,建立一致的标准是目前面临的一大挑战。就在近期,IEEE P3652.1(联邦学习基础架构与应用)标准工作组第四次会议于北京成功召开。北京大学、IEEE、微众银行、创新工场、京东、中国电信、腾讯、小米、阿里巴巴、依图、星云 Clustar、第四范式、华为终端、VMWare、LogiOcean、SensesGlobal、Swiss Re、Intel、CETC BigData、蚂蚁金服、华夏基金、富数科技共 22 家头部企业与研究机构参与,会议聚焦于联邦学习的场景分类与需求分类,着重对联邦学习的安全测评与评级进行规划,进一步探讨联邦学习标准制定,这可谓是联邦学习发展的奠基性的贡献。虽然目前联邦学习还没有迎来爆发式发展阶段,但好在,未来可期。

自动驾驶既不是天使也不是魔鬼

2017 年中是 自动驾驶 新闻疯狂爆涨的一年,几乎每隔一个月就会爆出一条自动驾驶领域大事件。6 月 13 日,通用宣布首批 130 辆搭载公司最新一代自动驾驶技术的测试版雪佛兰 Bolt 纯电动车在密歇根州的奥莱恩工厂下线。算上当时由 50 辆雪佛 Bolt 纯电动车组成的测试车队,通用已经拥有了一个由 180 辆 Bolt 组成的自动驾驶车队,在旧金山、亚利桑那州斯科茨代尔以及底特律开展公共道路测试。7 月 11 日,奥迪新款 A8 发布,其号称是全球首款具备 L3 级自动驾驶功能的量产车型,可以实现 60km/h 以下的低速条件下,在拥堵路况中实现自动驾驶。同年年末,北京颁布《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》和《北京市自动驾驶车辆道路测试管理实施细则(试行)》这两份红头文件,标志着北京成为了中国首个开放公共道路自动驾驶路测的城市。

6.png

彼时,自动驾驶一片利好的大背景下,人们把自动驾驶技术比作解放双手的「天使"。只是,好景不长。2018 年,Uber 自动驾驶汽车发生了全球首例致死车祸,一名女子在过马路的途中被撞身亡。此事随即引发了全球对无人车的关注,尤其是安全问题,这起惨烈的事故让人们意识到了一个最重要的事实——安全性重于一切,只预估科技能避免多少事故是绝对不够的。同年 5 月,谷歌旗下自动驾驶公司 Waymo 也出了一次车祸,事故导致一名测试人员受伤。后续的调查显示,这起车祸仍旧是人为因素导致的,测试员走神打盹,才没能及时处理突发情况,进而引发了这起悲剧。

目前,一些车厂也已经实现了 L3 级自动驾驶,最有名的案例莫过于特斯拉一直以来宣传的自动驾驶功能。有不少用户已经拍摄了相关的自动驾驶视频上传到了社交网络,虽然是对自动驾驶技术的最佳宣传,但是特斯拉官方仍然表示:并不支持用户完全放开手脚进行自动驾驶,目前该功能仍然需要驾驶员随时集中注意力观察路况。而 L4 级别的自动驾驶则是目前大部分公司正在攻克的难关。如今,公众也开始更加客观地看待自动驾驶这项技术,它既不是无害的「天使」,也不是残忍的」魔鬼」。

AI 芯片从受制于人到「奋发图强」

2016 年中国 芯片 领域相关设计公司数量较 2015 年增长了 600 多家;到 2017 年末,国内共有约 1380 家芯片设计公司。根据 Soopat 数据,国内芯片相关专利每年公开数量都在上升,2018 年至今已经公布了 18871 件。然而,这些都还远远不够。

2018 年美国制裁 中兴事件 给我们「狠狠上了一课」,随后的华为在美受到种种针对进一步让过渡依赖国外芯片进口的企业觉醒——落后就要挨打,在哪个领域都是如此。在核心技术上需争高下,大企业需要当仁不让,如果不掌握核心技术就是在别人的基础上砌房子。种种困境让中国科学界意识到「芯片当自强」的重要性。

7.png

2019 年,意识到这些问题之后,不少中国芯片企业开始奋起直追,尤其在专用芯片领域取得了较为亮眼的成绩。

在 9 月 25 日的 杭州云栖大会 上,阿里巴巴集团首席技术官、阿里云智能总裁兼达摩院院长张建锋现场展示了的 AI 芯片——含光 800。阿里巴巴方面表示:在业界标准的 ResNet-50 测试中,含光 800 推理性能达到 78563 IPS,比当时业界最好的 AI 芯片性能高 4 倍;能效比 500 IPS/W,是第二名的 3.3 倍。

继双模 5G 芯片巴龙 5000 和全球首款 5G 基站芯片 天罡 问世后,华为今年推出了首款内置 5G 基带的 麒麟 990 5G SoC——首颗商用 5G 旗舰芯片。不久前,芯片大厂联发科也宣布推出 5G 芯片新品牌天玑,名源于北斗七星之一,其意为领先,并推出该品牌首款产品 5G SoC 芯片——天玑 1000。国产芯片在尝尽了「受制于人」的冷眼后也开始自立自强,可见,核心技术只有掌握在自己手里,才能立于不败之地。

5G 从技术萌芽走向大爆发

2017 年 12 月 21 日(北京时间),第五代移动通信结束「5G NR」首发版在 RAN 第 78 次全会代表的掌声中正式冻结并发布,这是 5G 标准化的一个重要里程碑。从年初 3GPP 通过 5G 网络加速的提案,到年底收官 3GPP 宣布完成了首个可实施的 5G 新空口(5G NR)规范,这一年 5G 的发展速度飞快。

8.png

2019 年 5G 已经从技术名词真正走向商业落地。今年 6 月 6 日,我国对三大运营商及中国广电发放 5G 牌照,这标志着 5G 正式进入商用阶段,基站部署速度大幅加快,这将为 AI 带来很大的性能提升。

边缘计算即将掀起波澜

根据调研机构 Forrester 公司的调查,目前全球有 32%的电信公司决策者正在部署或扩展 边缘计算 设施,另外 27%的决策者表示计划在一年内部署边缘计算设施。越来越多的企业开发和部署边缘计算的主要动力来自带宽、成本、网络延迟的迫切性和敏感性。

9.png

边缘计算是计算系统从扁平到边缘,以及面向 5G 网络架构演进的必然技术,同时也提供了一种新的生态系统和价值链。第三方数据分析机构 IDC 预测,到 2020 年,全球将有约 500 亿的智能设备接入互联网,其中主要涉及智能手机、可穿戴设备、个人交通工具等,其中 40% 的数据需要边缘计算服务。边缘计算有着强大市场潜力,也引起了各研究机构、标准组织、服务提供商和产业界极大的关注。

结语:

对于瞬息万变的技术领域来讲,三年的时间已经足够长。我们已经从人工智能即将改变未来的遥远的梦境中逐渐清醒过来,能够真正冷静、客观地考量技术发展的中的利与弊。那么,作为一名技术从业者,你的 2017 到 2019 又发生了哪些变化?


版权声明:

凡本网内容请注明来源:T媒体(http://www.cniteyes.com)”的所有原创作品,版权均属于易信视界(北京)管理咨询有限公司所有,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,易信视界(北京)管理咨询有限公司将追究其相关法律责任。

评论