【猎云网(微信号:ilieyun)北京】7月4日报道(文/马丽)
今日,第二届百度AI开发者大会“Baidu Create 2018”在北京召开。刚刚登场,李彦宏就开启了吐槽模式,说他这一年来不断被问到、问得最多的问题是百度无人车到底什么时候量产?对于这个问题,李同学“皮”了一下:“创新总是有很多风险和确定性,造车和造PPT不一样,造车会经常有延迟交付的……”不过,百度的量产无人车今天如约而至,没有让翘首以盼的观众失望。他用一段视频介绍了百度无人车的研发过程和进展,阿波龙小巴车--全球首款L4级别的自动驾驶汽车已经量产下线。
阿波龙的商业化落地也同步展开。已经完成总装的阿波龙即将发往北京、雄安、广州、深圳、日本、平潭等地区开展商业化运营。阿波龙内部设计非常有科技感,没有方向盘,也没有驾驶位,没有油门和刹车踏板,同时,乘坐也很舒服。在日本,百度将与软银合作,阿波龙被用于一些核电站内部的人员接驳,也会用于东京地区一些高龄化社区的穿梭接送。
李彦宏说2018年将是自动驾驶产品化元年,堪比当年T型车下线的历史节点。要说AI时代最大的颠覆,就是将汽车复杂的零部件逐渐简化(阿波龙已经没有方向盘、没有驾驶位),取而代之的是大量的代码。据说Apollo平台目前已经开放22W+行代码,比去年增长了6倍,代表了AI时代的真正速度!
2018年,百度开创了自动驾驶产品化的元年,但这仅仅是自动驾驶汽车进化的起点。阿波龙没有再去增加硬件的元器件,相反没有了方向盘和驾驶位,硬件元器件在减少,但是在软件层面,复杂度却在迅速地提升。在阿波龙的背后是Apollo计划的快速发展,仅仅是Apollo托管在GitHub上的开放代码数量,在一年之内就增长了6倍。
自动驾驶汽车的进步主要会体现在软件层面。相对传统汽车,自动驾驶汽车将以完全不同的逻辑进化。我们可以把自动驾驶看作是一个四轮机器人,未来,它可以给我们送快递,自动为我们打扫卫生,充当餐厅的服务生,陪伴、护理病患,在路面情况允许的景区和场馆为我们导游,承担公共场所的安防工作,辅助进行抢险救灾,甚至完全自动化地跑到农村的田间地头,插秧播种。这些东西,都将由开发者来定义、实现。
对话式AI改变人机交互方式,重构工作和生活
这种不断进化的能力不仅催生了智能音箱这样的新产品,也给一些服务性行业带来全新的变化。例如,百度AI开发者大会召开前,百度智能客服曾经打出了数百通电话给参会的开发者。收到电话的很多开发者都没有意识到,和他对话的其实是机器人。面对开发者的提问,智能客服总能对答如流,交通、餐饮、会议嘉宾等信息都如数家珍。哪怕被机智的开发者“看穿身份”,在受到“调戏”时也能机智回复。
李彦宏表示,人类经过几十万年进化完善的语言能力,正在越来越逼真地被机器所模仿。在这背后,是这些年来AI技术的持续大规模投入。百度汇聚了上万名AI工程师,每年有超过百亿的研发投入,百万台服务器组成的高性能计算集团军,支持千亿级参数、千亿级样本及特征训练的超大神经网络,加上万亿级训练数据的“喂养”,才不断推动算法、算力的提升和迭代。
在PC时代,百度的使命是让人们最平等便捷地获取信息,通过技术创新,希望去不断弥合信息鸿沟。在未来,百度将通过把自己积累多年的AI技术,也就是数据、算力、算法开放出来,让人们平等获取AI能力,来一起跨越 “智能鸿沟”。
百度大脑再升级,迭代至3.0版本
百度大脑再升级,迭代至3.0版本。2016年10月,“百度大脑1.0”的横空出世,不到两年的时间,“百度大脑”实现了从初步的搭建基础,到能力更丰富的全面开放。百度大脑3.0已经是涵盖了技术、平台、生态落地全栈布局。
越来越多的行业在拥抱人工智能,在使用这些能力。从去年11月份百度世界大会到现在,仅仅过了半年多的时间,语音能力的调用次数增长了94%,视觉能力的日调用量增长了416%,自然语言处理的日调用次数增长了180%。此外,视觉中的人脸识别技术,调用次数更是涨了近8倍。这些显著的增长也仅仅是开始。因为开源和开放,AI正在渗透到经济社会毛细血管中。
通过技术交流与开放,百度的AI技术也正在为国内、国外的生产服务领域带来福利。比如,像圣象这样的大型地板制造企业,在生产的很多环节都早已实现了自动化,但地板分拣这个工作,却要完全依靠人的肉眼识别,一秒一块地进行分拣。现在,在AI的辅助下,地板制造业分拣流程自动化成为了可能,这样,不仅能提升效率,也能把工人从那种需要脑力判断的重复、低效、繁重的工作中解放出来。而在国外,AI技术的应用领域也逐步延展。在美国,百度用AI能力赋能零售Checkpoint,用以避免在收银台端的损失。无论在哪里,百度都致力于让人们都能平等便捷获取AI能力,为各国的生产服务领域带来福利。
自主研发首款云端全功能AI芯片——“昆仑”
近年来,业界都在讨论摩尔定律的终结,但实际上,传统计算硬件还在发展,只是速率慢了。但同时,随着大数据、人工智能的崛起,需要AI运算处理的数据,差不多每24个月就至少增长一倍,建构模型的复杂度是原来的五倍,与之相关,就需要计算能力强大十倍芯片能及时跟上。这一计算能力的提升,需要算法、软件和硬件工艺相互配合共同来完成。这就是AI时代的新摩尔定律。
AI应用的爆发,对运算能力提出越来越高的要求,基于传统芯片的AI运算加速,已经不能满足需求。从2011年起,为了深度学习运算的需要,百度开始基于FPGA研发AI加速器,并同期开始使用GPU。在过去几年中,百度对FPGA和GPU都进行了大规模部署。
李彦宏在今天的开发者大会上重磅发布了由百度自主研发首款云端全功能AI芯片——“昆仑”。“昆仑”是中国在大规模AI运算实践中催生出的芯片,基于百度8年的CPU、GPU和FPGA的AI加速器的研发,20多次迭代而生,它的运算能力比最新基于FPGA的AI加速器,性能提升了近30倍,是中国AI芯片的又一里程碑。
“昆仑”拥有高性能、高性价比、易用3大特点。“昆仑”AI芯片的主要参数:14nm 三星工艺;260Tops性能;512GB/s内存带宽;100+瓦特功耗,由几万个小核心构成。针对语音、NLP、图像等专门优化;同等性能下成本降低10倍;支持paddle等多个深度学习框架;编程灵活度高;灵活支持训练和预测。
“昆仑”是迄今为止业内设计算力较高的AI芯片,可高效地同时满足训练和推断的需求,除了常用深度学习算法等云端需求,还能适配诸如自然语言处理,大规模语音识别,自动驾驶,大规模推荐等具体终端场景的计算需求。
李彦宏表示,中国改革开放40年来,在我们的发展过程当中,对于高端芯片而言,其实一直依赖进口,这是我们这一代IT人心中永远的痛。当进入人工智能时代,情况将会发生改变。百度自主研发的高端芯片,将去满足全世界开发者的各种需求,支撑几十万为社会造福。
百度的AI芯片战略将以开放生态合作的方式来有条不紊地推进。未来,百度将面向智能汽车、智能设备,语音图像等更多场景,持续打造AI时代的中国“芯”力量。