2022人工智能全景陈述!AI芯片火爆,元世界、生命科学深度交融 |
发布时间:2022-06-20 文章来源:本站 浏览次数:2940 |
随同全球数字化进程的加速,人工智能成为引领未来世界开展的要害技能。近年来,各国政府、科研教育机构、科技企业及专家学者纷繁参加到推进人工智能工业开展的过程中,人工智能技能与工业交融程度不断加深。 本期的智能内参,我们引荐尚普咨询的陈述《2022年全球人工智能工业研讨陈述》,揭秘人工智能的开展前沿。 来源 尚普咨询 《2022年全球人工智能工业研讨陈述》 作者:孙硕 宿硕 刘宇 张祎 周文青 一、人工智能工业概略近年来,人工智能技能得到快速开展,其对经济社会开展以及出发生活方式变革将发生重大影响。全球范围内美国、欧盟、英国、日本、我国等国家和地区均大力支撑人工智能工业开展,相关新兴运用不断落地。依据Deloitte陈述猜测,全球人工智能工业规划从2017年的6,900亿美元添加至2025年的64,000亿美元,2017-2025年复合添加率32.10%,出现较快添加走势。 投融资方面,全球人工智能出资商场近年来快速开展,全体融资规划从2015年的63亿美元添加至2021年的668亿美元。2021年全球医疗AI融资规划较高到达122亿美元,金融科技AI融资规划为39亿美元,零售AI融资规划为37亿美元。 尚普研讨院依据CB Insights数据统计,全球现有人工智能企业超越11,000家,累计融资总额超越2,500亿美元。其间,美国具有AI相关企业到达4,171家,累计融资金额到达1,601.9亿美元,在公司数量和融资规划上均位居世界首位;我国具有1,275家AI公司,融资总金额为470.7亿美元,位居世界第二位。英国、印度、加拿大等国家也各自具有百余家AI公司,AI企业数量排名前10位的国家占全球总数的78.3%,累计融资金额则到达全球总额的95%,AI企业和融资活动集中在美、中、英等国家。 尚普研讨院将处于全球人工智能工业链中的典型上市公司进行整理,名单中以具备综合实力的科技巨头为主,国外如Google、Amazon、Microsoft等,国内如百度、阿里巴巴、腾讯等。此外,国内的商汤、科大讯飞等具有强技能属性的AI公司受重视度较高。 二、AI芯片,广泛运用于云、边、端各类场景AI芯片(AI Chip):专门用于处理人工智能相关的核算使命,其架构针对人工智能算法和运用进行专门优化,具有高效处理很多结构化和非结构化数据的特征,可高效支撑视觉、语音、自然言语处理等智能处理使命。当时AI芯片类型首要触及GPU、FPGA、TPU、IPU、DPU、NPU等类别。从运用场景来看,AI芯片广泛运用于云端、边际端、终端等各类场景,其间云端AI芯片具备高功能特征,终端AI芯片具有低功耗和高能效特性,而边际端AI芯片功能介于云端和终端之间。 现在,点评AI芯片功能的方针首要包括:TOPS、TOPS/W、时延、本钱、功耗、可扩展性、精度、适用性、吞吐量、热管理等。其间,TOPS/W是用于衡量在1W功耗的情况下,芯片能进行多少万亿次操作的要害方针。近年来,MIT、Nvidia等研发人员开发专门的芯片软件点评东西关于AI芯片的功能做出了系统、全面点评,如Accelergy(评价芯片架构级能耗)、Timeloop(评价芯片运算履行情况)等。MLPerf是由来自学术界、研讨实验室和相关行业的AI领导者组成的联盟,旨在“构建公平和有用的基准测试”,可用于衡量深度学习软件框架、AI芯片和云渠道功能。 CPU作为通用处理器,包括操控单元(指令读取及指令译码)、存储单元(CPU片内缓存和寄存器)及运算单元(ALU约占20%CPU空间)三个首要模块,但受制于本钱/功耗/技能难度/算力瓶颈等问题,现在仍未出现适配AI高算力要求的主流CPU产品。GPU是一种由很多中心组成的大规划并行核算架构,具有较多运算单元(ALU)和较少缓存(cache),是一款专为一起处理多重使命而规划的芯片,具备良 好的矩阵核算才能和并行核算优势,能满足深度学习等AI算法的处理需求,成为主流云端AI芯片。 英伟达A100芯片为多个SM单元(Streaming Multiprocessors,流式多处理器)构成的并发多核处理器,不同SM单元同享L2 Cache存储资源进行数据访存,A100的安培架构中有128个SM核,SM结构是芯片架构晋级的中心。Tensor Core是英伟达GPU架构中专为深度学习矩阵运算设置的张量核算单元,是英伟达GPU系列深度学习运算加速的中心。Tensor Core处理的是大型矩阵运算,其履行一种专门的矩阵数学运算,适用于深度学习和某些类型的高功能核算。Tensor Core功能是履行交融乘法和加法的运算,其间两个4*4 FP16矩阵相乘,然后将成果添加到4*4 FP32或FP64矩阵中,终究输出新的4*4 FP32或FP64矩阵。 AIoT经过交融AI和IoT技能完成万物智联,其首要触及到安防、移动互联网等多样化场景。在才智安防方面,因为终端摄像头每天发生很多的视频数据,若全部回传到云数据中心将会对网络带宽和数据中心资源造成极大占用。经过在终端加装AI芯片,可完成数据本地化实时处理,即仅将经过结构化处理、要害信息提取后带有要害信息的数据回传云端,大大下降网络传输带宽压力。当时主流解决方案为前端摄像头设备内集成AI芯片,在边际端采用智能服务器级产品,后端在边际服务器中集成智能推理芯片。现在国内外企业正在加大对边际端AI视觉处理芯片的研发和投入,相关芯片产品如英伟达Jetson AGX Xavier、地平线旭日3、华为海思Hi3559A V100等。 跟着智能驾驶等级的进步,技能不断迭代促使车用AI芯片功能逐渐增强。SAE(世界自动机工程师学会)将自动驾驶划分为六个等级:L0(非自动化)、L1(驾驶员辅佐)、L2(部分自动化,如交通拥堵辅佐和高级紧急制动+转向)、L3(有条件自动化,如高速路途自动驾驶)、L4(高度自动化,如城市自动驾驶)和L5(完全自动化,如全场景自动驾驶)。从L3开端每一等级均需求强大的算力进行实时分析,处理很多数据,履行复杂的逻辑运算,对核算才能有着极高要求。每一等级自动驾驶轿车所需的芯片核算才能一般认为是:L3约为250TOPS,L4超越500TOPS,L5超越1,000TOPS。跟着芯片规划和制造工艺的进步,车用AI芯片正朝着高算力、低功耗的方向开展。 估计到2025年,全球车用AI芯片商场规划将打破17亿美元。跟着轿车操控方式逐渐由机械式转向电子式,每辆轿车对车用AI芯片需求进步,带动车用AI芯片长期开展。依据Yole猜测,2025年全球车用AI芯片产量将到达67.19亿颗,商场规划将到达17.76亿美元,年复合增速分别到达99.28%和59.27%。此外,车用AI芯片逐渐往高能效方向开展,如英特尔2022年推出的EyeQ Ultra自动驾驶轿车芯片,根据经过验证的Mobileye EyeQ架构而打造,其含有8个PMA、16个VMP、24个MPC、2个CNN Accelerator视觉处理单元(VPU),经过优化算力和效能以到达176TOPS,可满足L4自动驾驶场景,该产品将于2023年末供货,估计在2025年全面完成车规级量产。 AI芯片在图画辨认、语音辨认和快速树立用户画像等方面具有重要效果。依据Yole猜测,2026年全球消费电子AI芯片商场规划将到达55.8亿美元,其间笔记本电脑、平板电脑和智能手机AI芯片渗透率将分别到达100%、100%和91%,未来全球消费电子AI芯片商场规划和渗透率出现逐渐添加态势。 三、人工智能趋势展望Transformer模型:由Google的Ashish Vaswani等人和多伦多大学的Aidan N.Gomez于2017年初次提出,是一种根据自注意力机制(在Transformer模型中起基础效果,可削减对外部信息的依赖,更拿手捕捉数据或特征的内部联系,优化模型练习成果)的深度学习模型,该模型首要由编码器和解码器构成,模型本身并行度较高,在精度和功能上均要优于传统的循环神经网络(RNN)和卷积神经网络(CNN)。Transformer模型在简单言语问答和言语建模使命上有着较好表现。Transformer模型仍存在一些不足,如对局部信息的获取才能弱于RNN和CNN、不能很好表征单词的方位信息、顶层梯度消失等问题。 BERT模型:由Google于2018年提出,是根据Transformer Encoder构建的一种模型。模型基本思想:给定上下文来猜测下一个词。BERT模型架构是由多接口组成的Transformer编码器层,即全衔接神经网络添加自注意力机制。关于序列中的每个输入符号,每个接口核算键、值和查询向量,相关向量用于创建加权表明,兼并同一层中所有接口输出并经过全衔接层运转。每个层运用跳跃衔接进行包装,之后将层归一化处理。BERT模型传统作业流首要包括预练习和模型微调两部分,其间预练习环节触及MLM和NSP两个半监督使命;模型微调环节包括一个或更多全衔接层,通常添加到终究编码器层的顶部。BERT模型已集成在谷歌查找中,并进步10%的查询准确率。 ViT模型(Vision Transformer):由Google公司Alexey Dosovitskiy等人在2021年提出,其原理是将本来用于NLP范畴的根据自注意力机制的Transformer模型运用于核算机视觉范畴。比较于传统CNN算法,ViT模型在大数据集上辨认率更高、本钱更低。ViT模型的基本原理:1)将图片切分为相同巨细的块,每个块可以看做一个“单词”;2)每个块经过线性投射层(全衔接层)的操作得到方位编码(图画分类问题转化为NLP问题);3)将线性投射后的图画块输入由L层Transformer模型构成的编码器;4)输出成果经过多层感知机(MLP)得到终究分类成果。现在,ViT已开展出多种改善模型,在核算机视觉物体检测等方面具有很大运用潜力。 自监督学习(Self-supervised Learning):旨在关于无标签数据,经过规划辅佐使命来挖掘数据本身的表征特性作为监督信息,来进步模型的特征提取才能,将无监督问题转化为有监督问题的办法。辅佐使命是自监督学习要害内容,现在首要包括自然言语处理NLP和核算机视觉CV两大类使命。其间,自然言语处理包括单词猜测、语句序列猜测、词序列猜测;核算机视觉包括图画使命、视频使命等。闻名AI科学家Yann Lecun曾经提出,假如将人工智能比作一块蛋糕,蛋糕的大部分是自监督学习,蛋糕上的糖衣是监督学习,蛋糕上的樱桃是强化学习,自监督学习在人工智能范畴占据重要地位。 类脑核算(Brain-Inspired Computing):又称神经形态核算,是借鉴生物神经系统信息处理形式和结构的核算理论、系统结构、芯片规划以及运用模型与算法的总称。类脑核算可模拟人类大脑信息处理方式,以极低的功耗对信息进行异步、并行、高速和分布式处理,并具备自主感知、辨认和学习等多种才能,是完成通用人工智能的途径之一。2020年10月,清华大学张悠慧等人在Nature杂志发表论文,初次提出“类脑核算齐备性”,添补类脑研讨齐备性理论与相应系统层次结构方面的空白。类脑核算技能的开展将推进图画辨认、语音辨认、自然言语处理等前沿技能的打破,有望推进新一轮技能革命。 AI大模型(Foundation Models):是指经过大规划数据练习且在经微调后即可适应广泛下流使命的模型。跟着参数规划不断扩大,AI大模型在言语、视觉、推理、人机交互等范畴出现出新才能。因为各类AI大模型可有效运用于多种使命,各类AI大模型同质化特征益发明显。随同2017年Transformer模型的提出,深度学习模型参数数量打破1亿个。此后,模型参数数量迅速添加,其间BAGUALU模型于2021年7月发布,参数规划已到达174万亿个。模型参数规划的增大,有助于进一步进步模型的运算精度。AI大模型的运用向多个运用场景供给预练习方案,其运用的自监督学习办法也可削减标示数据的运用,下降练习研发本钱。详细而言,AI大模型在医疗和生物医药、法令和教育等范畴具有宽广运用前景。 元世界(Metaverse):本质上是对现实世界的虚拟化、数字化过程,其首要包括基础设施、人机交互、空间核算等七层架构,其间核算机视觉、AI芯片和嵌入式AI等人工智能技能及基础设施一起助力元世界加速落地。元世界包括芯片、云核算、技能渠道、通信、智能设备、内容服务等庞大生态系统。当时全球科技企业纷繁投入到元世界建造热潮中,如Nvidia、Meta、Microsoft等科技巨头及国内企业推出元世界解决方案,运用于办公、娱乐、规划等范畴。 人工智能与生命科学:AlphaFold是由谷歌旗下DeepMind团队根据深度学习算法的蛋白质结构猜测的人工智能系统,其被视作人工智能深化到生物范畴的一大打破。现在AlphaFold已对98.5%的人类蛋白质结构做出猜测,此外还关于大肠杆菌、果蝇、斑马鱼、小鼠等研讨时常用生物的蛋白质结构进行猜测。DeepMind与欧洲生物信息研讨所(EMBL-EBI)联合发布由AlphaFold猜测的蛋白质结构数据库—AlphaFold Protein Structure Database,该数据库已包括约35万个蛋白质结构。 人工智能与新冠疫情:Eva是用于检测入境旅客新冠病毒的强化学习系统,其由美国南加州大学、美国宾夕法尼亚大学、AgentRisk以及希腊相关专家合作开发。2020年,Eva系统被部署到希腊所有入境口岸(机场、港口、车站等),用于辨认约束新冠无症状旅客入境。借助Eva系统,希腊每天对抵达或途经该国大约41,000户家庭中约17%人员进行检测。经过比较,Eva发现感染的旅行者比原先严格依照其国籍检测的方式多1.25-1.45倍。与随机检测比较,Eva在旅行旺季发现感染的旅行者是前者的4倍,非旅行旺季的成果是随机检测的1.85倍,获得杰出检测效果。 人工智能与半导体:功耗、功能和面积(PPA)是芯片规划中的三个重要优化方针。为使PPA优化成果更佳,一起为应对芯片安全性需求进步、规划规划攀升及工艺节点微缩等趋势,EDA厂商开端使用AI技能解决半导体芯片规划问题。在EDA中,数据快速提取模型、布局和布线、电路仿真模型、PPA优化决议计划等环节均有AI技能参加。AI运用于EDA首要有两种形式:1)运用于EDA东西以优化单一芯片规划环节,如Google、西门子EDA;2)运用于全体芯片规划流程优化,如Cadence、Synopsys。此外,华大九霄、台积电等公司亦将AI纳入芯片出产各个环节。将AI与芯片规划作业结合,不仅有助于开释人力本钱、进步作业功率,还将进一步弱化人在其间的效果,乃至或许改动EDA工业格局。 人工智能与碳中和:自2015年第21届联合国气候改动大会后,碳中和已成为全球共识。当时,碳中和已获得全球超越40个国家和地区承诺,其间大部分国家宣布将于2050年左右完成碳中和方针。从全体来看,人工智能将从猜测、监测、优化三大环节助力碳中和,如猜测未来碳排放量、实时监测碳足迹、优化作业流程等。依据BCG数据,到2030年人工智能的运用有望削减26-53亿吨二氧化碳排放量,占全球减排总量5-10%。从行业来看,人工智能在不同范畴及不同环节发挥重要效果,其首要在城市、制造、轿车、电力四大范畴助力“碳中和”。 人工智能与冬奥会:2022年2月,第24届冬季奥林匹克运动会成功在北京举办。人工智能技能在冬奥会开幕式、竞赛项目、运动员练习等多个场景完成运用,助力科技冬奥方针完成。Intel打造的3DAT技能,一方面可以帮助教练员提出科学练习计划,有效进步运动员练习功率,一起还可以在开幕式中完成与艺人互动效果;商汤科技为冬奥会冰壶竞赛打造的“冰壶运动轨道捕捉”技能,完成对冰壶检测追寻和轨道捕捉。未来,人工智能与体育赛事、体育运动的交融程度将逐渐加深。 人工智能工业开展的途径探究:结合人工智能工业特点,梳理出“创新投入—科研成果—商业化落地”的开展途径。其间,创新投入首要触及人才投入、本钱投入和要素投入;科研成果包括论文、开源软硬件和专利;商业化落地包括AI产品、AI解决方案和AI渠道。当时人工智能工业从投入端到科研成果端开展较快,人工智能在学术研讨范畴不断获得打破。但另一方面,人工智能从技能成果到商业化落地环节仍面对许多挑战,如算法练习的通用性不强、泛化才能不强、商业化本钱较高、相关工业及企业关于人工智能技能承受程度不高等问题,需求不断从方针机制、技能开展以及管理层观念等方面不断完善,才能终究推进人工智能在商业化方面完成快速开展。 热点问题:道德与安全:跟着人工智能技能的高速开展与遍及运用,由其发生的道德与安全问题日益受到重视。人工智能不光延续信息技能的道德问题,又因深度学习算法具有不透明、难解释、自适应、运用广泛等特征而在基本人权、社会秩序、国家安全等方面发生新问题。人工智能典型道德问题包括:威胁公民生命安全、算法轻视、威胁隐私权、影响公民知情权和监督权、虚假信息泛滥、损坏商场竞争环境、引起权利结构改动、影响劳动者权益、AI兵器威胁世界和平等问题。现在,全球人工智能管理尚处于初期探究阶段,各国正加大人工智能范畴的管理力度,出台人工智能道德相关原则,以预防AI在运用过程中发生的风险。未来,全球人工智能管理将由原则向操作攻略、行业标准等层面逐渐深化,加速构建人工智能世界管理系统。 工作:人工智能将经过改动劳动分工与人力本钱价值结构深刻影响工作商场。AI与劳动力工作联系包括三个方面:1)当AI本钱低于劳动力工资水平、且产品附加值又不足以弥补用工本钱时,AI运用将直接替代相应劳动岗位;2)AI运用添补劳动者无法担任的岗位,既可下降错误率,进步产品质量,也可维护人身安全和健康;3)AI运用催生新作业岗位,AI带来出发生活方式的变革与社会功率的进步,全社会产能完成跃升,进一步发生新作业岗位。世界经济论坛发布的《2020未来工作陈述》估计,到2025年,机器或许会替代8,500万个作业岗位,在AI推进下经济添加会发生9,700万个新岗位。跟着AI技能开展,作业岗位、员工技能和使命类型将重塑,工作替代出现行业性特征,整体工作岗位数量仍将上升。 国家间技能约束:当时,开源深度学习框架、开源东西集、开源运用软件快速开展,世界间AI技能交流不断深化,但部分国家和政府间组织为保持本身AI技能优势,约束AI技能交流。如美国在2021年6月发布《创新与竞争法案》,在AI、无人机、芯片等多个范畴约束与我国合作;美国商务部于2019年10月和2020年5月将商汤科技、科大讯飞等多家我国AI公司参加其实体清单,实施出资约束;2022年白宫修订“要害和新兴技能(CET)清单”,对AI技能详细分类并实施技能封闭。欧盟则于2021年9月经过新出口控制法规,内容包括人脸辨认等AI技能。上述相关方针与未来人工智能开展趋势背道而驰,不利于各国开展技能合作。 人工智能在60多年的开展过程中阅历了几度起落。近年来,移动互联网高速开展带来的海量数据、深度学习算法的持续开展等一起推进人工智能技能在多个范畴获得打破,与之前技能革命中的蒸汽机、电力等新技能比较,人工智能对经济社会的影响将更具颠覆性,成为新一轮科技革命和工业变革的重要驱动力量。 |