芯片处理器怎么在深度学习中发挥作用

时间:2025-11-02  作者:Diven  阅读:0

随着AI的应用,深度学习已成为当前AI研究和运用的主流方式。面对海量数据的并行运算,AI对于算力的要求不断提升,对硬件的运算速度及功耗提出了更高的要求。

芯片处理器怎么在深度学习中发挥作用

目前,除通用CPU外,作为硬件加速的GPU、NPU、FPGA等一些芯片处理器在深度学习的不同应用中有着着各自的优势,但孰优孰劣?

以人脸识别为例,其处理基本流程及对应功能模块所需的算力分布如下:

为什么会有这样的应用区分?

意义在哪里?

想要知道其中的答案,需要我们先从CPU、GPU、NPU、FPGA各自的原理、架构及性能特点来了解。

我们先来了解一下通用CPU的架构。

CPU

CPU(Central Processing Unit)中央处理器,是一块超大规模的集成电路,主要逻辑架构包括控制单元Control,运算单元ALU和高速缓冲存储器(Cache)及实现之间联系的数据(Data)、控制及状态的总线(Bus)。

简单说,

就是计算单元、控制单元和存储单元。

架构图如下所示:

CPU遵循的是冯诺依曼架构,其核心是存储程序、顺序执行。CPU的架构中需要大量的空间去放置存储单元(Cache)和控制单元(Control),相比之下计算单元(ALU)只占据了很小的一部分,所以在大规模并行计算能力上极受限制,而更擅长于逻辑控制。

CPU无法做到大量矩阵数据并行计算的能力,但GPU可以。

GPU

GPU(GraphICs Processing Unit),即图形处理器,是由大量运算单元组成的大规模并行计算架构,专为同时处理多重任务而设计。

为什么GPU可以做到并行计算的能力?GPU中也包含基本的计算单元、控制单元和存储单元,但GPU的架构与CPU有所不同,如下图所示:

与CPU相比,CPU芯片空间的不到20%是ALU,而GPU芯片空间的80%以上是ALU。即GPU拥有更多的ALU用于数据并行处理。

以Darknet构建的神经网络模型AlexNet、VGG-16及Restnet152在GPU Titan X, CPU Intel i7-4790K (4 GHz) 进行ImageNet分类任务预测的结果:

由此可见,GPU处理神经网络数据远远高效于CPU。

GPU具有如下特点:

1 、多线程,提供了多核并行计算的基础结构,且核心数非常多,可以支撑大量数据的并行计算。

2、拥有更高的访存速度。

3、更高的浮点运算能力。

GPU比CPU更适合深度学习中的大量训练数据、大量矩阵、卷积运算。

GPU虽然在并行计算能力上尽显优势,但并不能单独工作,需要CPU的协同处理,对于神经网络模型的构建和数据流的传递还是在CPU上进行。同时存在功耗高,体积大的问题。

性能越高的GPU体积越大,功耗越高,价格也昂贵,对于一些小型设备、移动设备来说将无法使用。

体积小、功耗低、计算性能高、计算效率高的专用芯片NPU诞生了。

NPU

NPU (Neural Networks Process Units)神经网络处理单元。NPU工作原理是在电路层模拟人类神经元和突触,并且用深度学习指令集直接处理大规模的神经元和突触,一条指令完成一组神经元的处理。相比于CPU和GPU,NPU通过突触权重实现存储和计算一体化,从而提高运行效率。

NPU是模仿生物神经网络而构建的,CPU、GPU处理器需要用数千条指令完成的神经元处理,NPU只要一条或几条就能完成,因此在深度学习的处理效率方面优势明显。

实验结果显示,同等功耗下NPU 的性能是 GPU 的 118 倍。

与GPU一样,NPU同样需要CPU的协同处理才能完成特定的任务。下面,我们可以看一下GPU和NPU是如何与CPU协同工作的。

GPU的加速

GPU当前只是单纯的并行矩阵的乘法和加法运算,对于神经网络模型的构建和数据流的传递还是在CPU上进行。

CPU加载权重数据,按照代码构建神经网络模型,将每层的矩阵运算通过CUDA或OpenCL等类库接口传送到GPU上实现并行计算,输出结果;CPU接着调度下层神经元组矩阵数据计算,直至神经网络输出层计算完成,得到最终结果。

CPU 与GPU的交互流程:

1获取GPU信息,配置GPU id

2 加载神经元参数到GPU

3 GPU加速神经网络计算

4接收GPU计算结果

NPU的加速

NPU与GPU加速不同,主要体现为每层神经元计算结果不用输出到主内存,而是按照神经网络的连接传递到下层神经元继续计算,因此其在运算性能和功耗上都有很大的提升。

CPU将编译好的神经网络模型文件和权重文件交由专用芯片加载,完成硬件编程。

CPU在整个运行过程中,主要是实现数据的加载和业务流程的控制,其交互流程为:

1打开NPU专用芯片设备

2 传入模型文件,得到模型task

3 获取task的输入输出信息

4 拷贝输入数据到模型内存中

5 运行模型,得到输出数据

除NPU外,在功耗及计算能力上有一拼的还有FPGA。

FPGA

FPGA(Field-Programmable Gate Array)称为现场可编程门阵列,用户可以根据自身的需求进行重复编程。与 CPU、GPU 相比,具有性能高、功耗低、可硬件编程的特点。

FPGA基本原理是在芯片内集成大量的数字电路基本门电路以及存储器,而用户可以通过烧入FPGA 配置文件来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,可重复编写定义,重复配置。

FPGA的内部结构如下图所示:

FPGA的编程逻辑块(Programable LogIC Blocks)中包含很多功能单元,由LUT(Look-up Table)、触发器组成。FPGA是直接通过这些门电路来实现用户的算法,没有通过指令系统的翻译,执行效率更高。

我们可以对比一下

CPU/GPU/NPU/FPGA各自的特点

各芯片架构特点

【CPU】

70%晶体管用来构建Cache,还有一部分控制单元,计算单元少,适合逻辑控制运算。

【GPU】

晶体管大部分构建计算单元,运算复杂度低,适合大规模并行计算。主要应用于大数据、后台服务器、图像处理。

【NPU 】

在电路层模拟神经元,通过突触权重实现存储和计算一体化,一条指令完成一组神经元的处理,提高运行效率。主要应用于通信领域、大数据、图像处理。

【 FPGA】

可编程逻辑,计算效率高,更接近底层IO,通过冗余晶体管和连线实现逻辑可编辑。本质上是无指令、无需共享内存,计算效率比CPU、GPU高。主要应用于智能手机、便携式移动设备、汽车。

CPU作为最通用的部分,协同其处理器完成着不同的任务。GPU适合深度学习中后台服务器大量数据训练、矩阵卷积运算。NPU、FPGA在性能、面积、功耗等方面有较大优势,能更好的加速神经网络计算。而FPGA的特点在于开发使用硬件描述语言,开发门槛相对GPU、NPU高。

可以说,每种处理器都有优势和不足,在不同的应用场景中,需要根据需求权衡利弊,选择合适的芯片。

猜您喜欢

电子元器件中,rvt贴片电解电容是常见的。的耐压值很重要,直接影响电路的稳定性。本文将介绍rvt贴片电解电容耐压值的对应字母表。耐压值的定义耐压值是电容可以承受...
2025-03-23 15:31:39

精密电阻作为关键的电子元件,是不可少的配件。融欣(JACKCON)作为一家专业的精密电阻制造商,高品质的产品和完善的服务赢得了行业的认可。许多电子工程师和采购人...
2023-10-19 01:00:49

压敏电阻作为重要的电路保护元件,得到了应用。ASJ作为新加坡知名的压敏电阻品牌,其产品以优异的性能和稳定的质量深受市场青睐。本文将围绕“ASJ(新加坡)压敏电阻...
2024-06-07 04:56:41

电阻器作为电子元器件中的重要组成部分,其性能和规格也日益多样化。susumu作为知名的电子元件制造品牌,其四端子电阻因高精度和稳定性应用于各种精密测量和测试设备...
2016-10-10 05:33:04

随着电动汽车、智能手机和笔记本电脑等电子设备的普及,电池技术正以前所未有的速度发展。然而,电池在充放电过程中产生的热量,成为了制约其性能和寿命的关键因素。电池热...
2024-09-10 00:00:00

可调电阻或电位器是应用于电子设备的元件,主要功能是调节电流或电压。在音频设备中,电位器常用于音量控制,使用户能够根据个人喜好调整音量大小。在家用电器中,如洗衣机...
2021-10-30 00:00:00

五金制品在我们的生活中是重要配件,除了常见的螺丝、钉子等,还有许多其分类。工具类五金包括手动工具和电动工具,如锤子、扳手、电钻等,应用于建筑和维修行业。配件类五...
2017-03-30 00:00:00

1月8日,记者从西部(重庆)科学城获悉,奥松半导体8英寸MEMS特色芯片IDM产业基地一期项目FAB主厂房近日封顶,标志着该项目建设取得阶段性进展。预计今年年中...
2025-01-09 18:25:00

采样电阻作为电路中关键的元器件,应用于电流检测、功率测量和信号采样等领域。TMTEC(泰铭)作为国内知名的采样电阻制造商,凭借其高品质的产品和完善的服务,赢得了...
2013-07-16 09:23:30

在危险的工作环境中,安全是首要考虑的因素。我们的防爆工具套装专为高风险行业设计,确保在极端条件下也能保持工作效率和人员安全。每套工具均采用高强度、耐腐蚀材料,经...
2010-01-11 00:00:00