2.1.1 芯片产业
随着中兴事件和华为芯片断供事件的发生,大家都高度重视芯片。的确,AI的“大脑”在于芯片和算法。AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块。当前,AI芯片主要分为GPU、FPGA、ASIC和类脑芯片。在人工智能时代,它们各自发挥优势,呈现出百花齐放的状态。在美国人工智能企业中,融资占比排名第一的领域为芯片/处理器,占比31%。AI芯片由于投资周期长、专业技术壁垒厚,导致竞争非常激烈且难以进入。
AI芯片的计算场景可分为云端AI和终端AI。英伟达首席科学家William Dally将深度学习的计算场景分为三类,分别是数据中心的训练、数据中心的推理和嵌入式设备的推理。前两者可以总结为云端的应用,后者可以概括为终端的应用。终端智能芯片的一个经典案例是苹果的A13神经引擎,每秒运算次数最高可达万亿次。它实现了基于深度学习的高准确性人脸识别解锁方式(Face ID),并解决了云接口(Cloud-Based API)带来的延时和隐私问题,以及庞大的训练数据和计算量与终端硬件限制的矛盾。
AI芯片目前有三个技术路径,通用的GPU(既能作为图形处理器引爆游戏业务,又能渗透数据中心横扫训练端)、可编程的FPGA(适用于迭代升级,各类场景化应用前景超大)以及专业的ASIC(叩开终端AI的大门)。其中,英伟达、英特尔两大传统芯片巨头在三大路径,特别是通用芯片和半定制芯片都有布局,掌握强大的先发优势,在数据中心、汽车等重要蓝海布局扎实;在ASIC方面,谷歌从TPU出发开源生态进行布局,且TPU展露了训练端芯片市场的野心。ASIC定制化的特点有效规避了传统巨头的垄断局面,有着可靠健康的发展路线。表2-1总结了目前几个主流的AI芯片厂商。
表2-1 AI芯片厂商列表
英伟达是GPU的行业领袖。GPU是目前深度学习领域的主流芯片,拥有强大的并行计算力。而另一个老牌芯片巨头英特尔则是通过大举收购进入FPGA人工智能芯片领域的。谷歌的TPU是专门为其深度学习算法TensorFlow设计的,TPU也用在了AlphaGo系统中。第三代Cloud TPU理论算力达到了420T Flops,能够对机器学习模型的训练和运行带来显著的加速效果。类脑芯片是一种基于神经形态工程,借鉴人脑信息处理方式,具有学习能力的超低功耗芯片。IBM从2008年开始模拟人类大脑的芯片项目。苹果公司的“苹果神经引擎(Apple Neural Engine,简称ANE)”是一款专用芯片。该芯片定位于本地设备的AI任务处理,把人脸识别、语音识别等任务集中到AI模块上,提升AI算法效率。苹果神经引擎芯片属于嵌入式神经网络处理器(NPU)。
自动驾驶系统与AI芯片紧密相关,比如,特斯拉的电动车使用的是英伟达的芯片。在美国市场上,正在逐渐形成英伟达与英特尔-Mobileye联盟两大竞争者。Mobileye已经被英特尔收购。Mobileye的机器视觉算法与英特尔的芯片、数据中心、AI和传感器融合,加上地图服务,正协同打造一个全新的自动驾驶供应商。在Mobileye的官网上,有一段40分钟的视频,它记录了在特别复杂的街道上自动驾驶的整个过程。对于自动驾驶感兴趣的读者,可以观看一下,我相信你一定会深有体会的。图2-3是视频中截取的两幅图,左边是在自动驾驶软件上呈现的分析图,右边是实况,其中上面有一个圆圈的汽车就是自动驾驶的汽车。
图2-3 自动驾驶案例
人工智能芯片领域,这是一个包含数十家创业公司,以及英特尔、AMD、高通和英伟达这样的传统硬件厂商的重要市场。随着时代的发展,谷歌和亚马逊已不再是纯粹的互联网企业,苹果和微软已不再是纯粹的终端设备和软件公司,它们都已或多或少地开始扮演起芯片制造者的角色。