CN114298295A - 芯片、加速卡以及电子设备、数据处理方法 - Google Patents
芯片、加速卡以及电子设备、数据处理方法 Download PDFInfo
- Publication number
- CN114298295A CN114298295A CN202111653009.9A CN202111653009A CN114298295A CN 114298295 A CN114298295 A CN 114298295A CN 202111653009 A CN202111653009 A CN 202111653009A CN 114298295 A CN114298295 A CN 114298295A
- Authority
- CN
- China
- Prior art keywords
- processing
- video frame
- unit
- chip
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0875—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with dedicated cache, e.g. instruction or stack
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Neurology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本公开实施例提供一种芯片、加速卡以及电子设备、数据处理方法,通过芯片内部的控制单元实现对网络参数的调度,并通过芯片内部的第二处理子单元实现对神经网络处理后的第一视频帧进行的后处理。这样,实现了将Host CPU的调度及后处理下沉到芯片,有效减少了Host CPU对加速卡的内存访问频率,减小了Host CPU的数据处理压力;此外,本公开采用片上缓存单元来缓存神经网络处理后的第一视频帧,无需将第一视频帧存储到加速卡的内存单元中,从而减少了加速卡的内存占用量,实现了加速卡的内存优化,减小了加速卡的内存压力。
Description
技术领域
本公开涉及芯片技术领域,尤其涉及一种芯片、加速卡以及电子设备、数据处理方法。
背景技术
近年来,神经网络广泛应用于图像处理、故障诊断、视频安防等各种领域中。相关技术中,一般需要通过Host端的主处理器(例如,Host CPU)与加速卡进行配合来实现神经网络的训练/推理,因而在AI训练/推理的过程中存在Host CPU对加速卡的大量访存操作,且大量数据需要在加速卡的内存与Host CPU之间传输,导致加速卡的内存压力与Host CPU的数据处理压力都较大。
发明内容
第一方面,本公开实施例提供一种芯片,所述芯片包括:控制单元、片上缓存单元和处理单元,所述处理单元包括第一处理子单元和第二处理子单元;所述控制单元,用于将神经网络的网络参数调度到所述第一处理子单元;所述第一处理子单元,用于基于调度到本处理单元的网络参数对待处理视频帧进行第一处理,得到第一视频帧,并将所述第一视频帧输出至所述片上缓存单元进行缓存;所述第二处理子单元,用于从所述片上缓存单元中读取所述第一视频帧,对读取的所述第一视频帧进行第二处理,得到第二视频帧并输出。
在一些实施例中,所述处理单元还包括第三处理子单元,用于对所述待处理视频帧进行第三处理后输出至所述片上缓存单元进行缓存;所述第一处理子单元用于从所述片上缓存单元中读取经第三处理的所述待处理视频帧,并对经第三处理的所述待处理视频帧进行第一处理。
在一些实施例中,所述芯片还包括:视频解码单元,所述视频解码单元用于在所述控制单元的控制下,对输入视频进行视频解码,得到所述待处理视频帧。
在一些实施例中,所述控制单元还用于基于第一预设条件从所述待处理视频帧中筛选出第一目标视频帧;所述芯片还包括:第一图像编码单元,用于对所述第一目标视频帧进行图像压缩,压缩后的第一目标视频帧用于输出至外部处理单元。
在一些实施例中,所述控制单元还用于基于第二预设条件从所述第二视频帧中筛选出第二目标视频帧;所述芯片还包括:第二图像编码单元,用于对所述第二目标视频帧进行图像压缩,压缩后的第二目标视频帧用于输出至外部处理单元。
在一些实施例中,所述处理单元的数量大于1,第i+1个处理单元中的第一子单元用于读取第i个处理单元中的第二处理子单元输出的第二视频帧,并将所述第i个处理单元中的第二处理子单元输出的第二视频帧作为待处理视频帧进行所述第一处理,i为正整数。
在一些实施例中,所述神经网络包括多个子网络,各个子网络的网络参数均存储在加速卡的内存单元中;所述控制单元用于从所述内存单元中将神经网络的网络参数调度到所述第一处理子单元。
在一些实施例中,第i个处理单元采用所述神经网络包括的第i个子网络执行所述第一处理。
在一些实施例中,所述内存单元包括多个分区;所述多个子网络中的至少两个子网络的网络参数被存储在不同的分区中。
第二方面,本公开实施例提供一种加速卡,所述加速卡包括:内存单元,用于存储神经网络的网络参数;以及任一实施例所述的芯片。
第三方面,本公开实施例提供一种电子设备,所述电子设备包括:第二方面所述的加速卡;以及外部处理单元,用于将所述神经网络的网络参数输出至所述内存单元。
第四方面,本公开实施例提供一种数据处理方法,应用于本公开任一实施例所述的芯片,所述方法包括:所述控制子单元将神经网络的网络参数调度到所述第一处理子单元;所述第一处理子单元基于调度到本处理单元的网络参数对待处理视频帧进行第一处理,得到第一视频帧,并将所述第一视频帧输出至所述片上缓存单元进行缓存;所述第二处理子单元从所述片上缓存单元中读取所述第一视频帧,对读取的所述第一视频帧进行第二处理,得到第二视频帧并输出。
在一些实施例中,所述处理单元还包括第三处理子单元,用于对所述待处理视频帧进行第三处理后输出至所述片上缓存单元进行缓存;所述方法还包括:所述第一处理子单元从所述片上缓存单元中读取经第三处理的所述待处理视频帧,并对经第三处理的所述待处理视频帧进行第一处理。
在一些实施例中,所述方法还包括:所述控制单元控制视频解码单元对输入视频进行视频解码,得到所述待处理视频帧。
在一些实施例中,所述方法还包括:所述控制单元基于第一预设条件从所述待处理视频帧中筛选出第一目标视频帧,并将所述第一目标视频帧输出至第一图像编码单元进行图像压缩,压缩后的第一目标视频帧用于输出至外部处理单元。
在一些实施例中,所述方法还包括:所述控制单元基于第二预设条件从所述第二视频帧中筛选出第二目标视频帧,并将所述第二目标视频帧输出至第二图像编码单元进行图像压缩,压缩后的第二目标视频帧用于输出至外部处理单元。
在一些实施例中,所述处理单元的数量大于1,第i+1个处理单元中的第一子单元用于读取第i个处理单元中的第二处理子单元输出的第二视频帧,并将所述第i个处理单元中的第二处理子单元输出的第二视频帧作为待处理视频帧进行所述第一处理,i为正整数。
在一些实施例中,所述神经网络包括多个子网络,各个子网络的网络参数均存储在加速卡的内存单元中;所述方法还包括:所述控制单元从所述内存单元中将神经网络的网络参数调度到所述第一处理子单元。
在一些实施例中,第i个处理单元采用所述神经网络包括的第i个子网络执行所述第一处理。
在一些实施例中,所述内存单元包括多个分区;所述多个子网络中的至少两个子网络的网络参数被存储在不同的分区中。
第五方面,本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开任一实施例所述的芯片中的控制单元执行的方法。
本公开实施例通过芯片内部的控制单元实现对网络参数的调度,并通过芯片内部的第二处理子单元实现对神经网络处理后的第一视频帧进行的后处理。这样,实现了将Host CPU的调度及后处理下沉到芯片,有效减少了Host CPU对加速卡的内存访问频率,减小了Host CPU的数据处理压力;此外,本公开采用片上缓存单元来缓存神经网络处理后的第一视频帧,无需将第一视频帧存储到加速卡的内存单元中,从而减少了加速卡的内存占用量,实现了加速卡的内存优化,减小了加速卡的内存压力。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本公开的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1是本公开实施例的芯片的示意图;
图2是相关技术中Host CPU与加速卡之间的交互过程的示意图;
图3是本公开实施例的Host CPU与加速卡之间的交互过程的示意图;
图4是相关技术中的AI推理过程的时序图;
图5是本公开实施例的加速卡的硬件结构示意图;
图6是本公开实施例的AI推理过程的时序图;
图7是本公开根据一示例性实施例示出的一种加速卡的示意图;
图8是本公开根据一示例性实施例示出的加速卡数据传输过程的示意图;
图9是本公开根据一示例性实施例示出的一种电子设备的示意图;
图10是本公开根据一示例性实施例示出的一种数据处理方法的示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
近年来,神经网络广泛应用于图像处理、故障诊断、视频安防等各种领域中,在神经网络技术领域,通过样本数据对神经网络模型进行训练的过程可以称为AI训练,利用神经网络算法对对象进行处理的过程可以称为AI推理。相关技术中,终端一般借助更适合执行运算任务的加速卡来完成AI训练/推理。然而,在AI训练/推理的过程中存在Host CPU对加速卡的大量访存操作,且大量数据需要在加速卡的内存与Host CPU之间传输,导致加速卡的内存压力与Host CPU的数据处理压力都较大。
基于此,本公开实施例提供一种芯片,用于解决上述问题。
为了使本技术领域的人员更好的理解本公开实施例中的技术方案,并使本公开实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本公开实施例中的技术方案作进一步详细的说明。
如图1所示,是本公开实施例的芯片的示意图。所述芯片包括:
控制单元101、片上缓存单元102和处理单元103,所述处理单元103包括第一处理子单元1031和第二处理子单元1032;
所述控制单元101用于将神经网络的网络参数调度到所述第一处理子单元1031;
所述第一处理子单元1031用于基于调度到本处理单元的网络参数对待处理视频帧进行第一处理,得到第一视频帧,并将所述第一视频帧输出至所述片上缓存单元102进行缓存;
所述第二处理子单元1032用于从所述片上缓存单元102中读取所述第一视频帧,对读取的所述第一视频帧进行第二处理,得到第二视频帧并输出。
在本公开实施例中,神经网络的网络参数可以存储在加速卡的内存单元中,所述控制单元101可以从所述内存单元中将神经网络的网络参数调度到所述第一处理子单元1031。后续实施例均以AI加速卡为例进行说明。AI加速卡是一种专门设计的用来加速AI算法执行的处理器产品,该AI加速卡可以是包括用于进行AI运算的芯片、通信接口等硬件模块的电路板,该用于进行AI运算的芯片可以是GPU(Graphics Processing Unit,图形处理器)、FPGA(Field Programmable Gate Array,现场可编程逻辑门阵列)、ASIC(ApplicationSpecific Integrated Circuit,专用集成电路)中的任意一种,也可以是其他类型的芯片,本公开对此不作限制。AI加速卡可以插设在插槽中并通过通信接口,例如PCIe(PeripheralComponent Interconnect Express,高速串行计算机扩展总线标准)接口与Host CPU进行通信,当然,在其他实施例中,AI加速卡也可以通过其他类型的通信接口,如QPI(QuickPath Interconnect,快速通道互联)接口,作为与Host CPU之间的交互通道。
上述内存单元可以是DRAM(Dynamic Random Access Memory,动态随机存取存储器)或SDRAM(Synchronous Dynamic Random Access Memory,同步动态随机存取存储器),也可以是其他类型的存储器,本公开对此不作限制。在本实施例中,该内存单元用于存储神经网络的网络参数,该网络参数可以包括算子(例如,加法算子、乘法算子等)和算子进行运算所需的参数。
上述处理单元103是AI加速卡中执行AI运算任务的功能模块,可以称为运算单元(Computing Unit,CU)。所述处理单元可以包括第一处理子单元和第二处理子单元,第一处理子单元中可以包括执行加法运算的子单元、执行乘法运算的子单元、执行卷积乘运算的子单元等多个子单元,这些子单元可以称为可重构簇,这些可重构簇可以组合起来,通过重构的方式形成不同的运算通路去执行不同的任务。第一处理子单元1031基于调度到本处理单元的神经网络的网络参数对待处理视频帧进行第一处理,该第一处理的具体内容可以根据该神经网络所实现的功能来确定,例如,一个神经网络可以用于对待处理视频帧进行人脸分割,则基于该神经网络所进行的第一处理可以是指从待处理视频帧中分割出人脸图像,所述第一视频帧可以是分割出的所述人脸图像。需要说明的是,本实施例的方案可用于神经网络的训练阶段,也可以用于神经网络的推理阶段,后续内容以神经网络的推理阶段为例进行描述。
在本实施例中,第一处理子单元1031基于神经网络的网络参数对待处理视频帧进行第一处理的操作是在控制单元的控制调度下执行的。可选地,该控制单元可以是MCU(Microcontroller Unit,微控制单元)。也就是说,不同于相关技术中单纯作为slave设备的AI加速卡,本实施例通过在AI加速卡中增设MCU,用以替代Host CPU来对神经网络进行控制调度,从而减少Host CPU对AI加速卡的内存访问频率。当然,在其他实施例中,该控制单元也可以是arm、risc-v、PowerPC等架构的处理器芯片。在一些实施例中,所述芯片还包括视频解码单元,所述视频解码单元用于在所述控制单元的控制下,对输入视频进行视频解码,得到所述待处理视频帧。
在实际应用中,经常需要对神经网络处理后的视频帧进行加工处理,如裁剪、锐化、缩放等等,这些加工处理称为后处理。相关技术中,由于GPU或AI加速卡受限于硬件条件不支持通用性的处理操作,因此,后处理过程一般是由Host CPU来实现的。在这一过程中,需要将神经网络处理后的视频帧先输出至AI加速卡的内存单元中进行存储,再由Host CPU从AI加速卡的内存单元中读取处理后的视频帧并进行后处理,然后将经过后处理的视频帧返回至AI加速卡的内存中,由AI加速卡继续进行其他处理。可以看出,上述过程产生了较多的访存操作。在神经网络包括多个子网络,且每个子网络的输出结果都需要进行后处理的情况下,或者在神经网络需要对输入的视频帧进行多次处理,且每次处理得到的输出结果都需要进行后处理的情况下,随着子网络数量的增加或者神经网络对输入的视频帧进行的总处理次数的增加,访存次数以及Host CPU进行的后处理次数也会增加,这会同时增加AI加速卡的内存压力以及Host CPU的数据处理压力。
而本实施例通过在AI加速卡中增设第二处理子单元,替代Host CPU来执行模型后处理任务,从而能将Host CPU上执行的后处理操作下沉到芯片,从而减轻了Host CPU的数据处理压力,同时也减少了Host CPU对AI加速卡内存的访问频率,减轻了AI加速卡的内存单元的数据传输压力。此外,本公开采用片上缓存单元来缓存神经网络处理后的第一视频帧,无需将第一视频帧存储到AI加速卡的内存单元中,从而减少了AI加速卡的内存占用量,实现了AI加速卡的内存优化,减小了AI加速卡的内存的数据存储压力。所述的第二处理可以包括裁剪处理、锐化处理、旋转处理、缩放处理、透明处理、NMS(Non-MaximumSuppression,非极大值抑制)等图像处理中的至少一种。
为了便于理解本公开实施例的技术效果,下面结合附图,对相关技术以及本公开实施例中Host CPU与加速卡之间的交互过程分别进行说明。如图2所示,以AI加速卡为例,是相关技术中Host CPU与AI加速卡之间的交互过程的示意图。假设需要通过神经网络对输入的视频帧进行N(N为正整数)次处理,Host CPU通过视频解码模块对视频码流进行解码后,将解码后的视频帧pic1传递给AI加速卡的内存单元;AI加速卡中的模型推理模块基于神经网络对视频帧pic1进行处理,并将处理后的视频帧pic1A存于内存单元中;Host CPU从AI加速卡的内存单元中读取视频帧pic1A,以通过模型后处理单元进行模型后处理;之后,Host CPU将经模型后处理的视频帧pic1B传递给AI加速卡的内存,由AI加速卡基于神经网络对视频帧pic1B再次进行处理;以此类推,直至Host CPU获取到想要的结果(图中记为pic1N)。在这一过程中,神经网络处理次数越多,则对AI加速卡的访存操作次数也越多。
以AI加速卡为例,如图3所示,是本公开实施例的Host CPU与AI加速卡之间的交互过程的示意图。Host CPU通过PCIe或以太网接口将视频码流传递给AI加速卡的内存单元;视频解码单元从内存单元中读取视频码流并进行解码,得到视频帧pic2,AI加速卡的第一处理子单元基于神经网络对视频帧pic2进行处理并将处理后的视频帧pic2A传递给片上缓存单元,第二处理子单元从片上缓存单元中获取视频帧pic2A,对视频帧pic2A进行模型后处理,并将经模型后处理的视频帧pic2B再传递给第一处理子单元;重复上述过程,直至第二处理子单元输出所需的视频帧pic2N,并将视频帧pic2N输出至内存单元,由内存单元将视频帧pic2N回传给Host CPU。在这一过程中,无论神经网络处理了多少次,Host CPU只需要将待处理视频帧传递给AI加速卡的内存以及从AI加速卡的内存读取最后的AI推理结果即可,访存频率较低,Host CPU的处理压力以及Host CPU与AI加速卡的内存之间的数据传输压力较小。同时,由于第一处理子单元与第二处理子单元的中间处理结果可以通过片上缓存单元进行缓存,因此,减轻了内存单元的数据存储压力。
一些应用场景下可能需要多个神经网络配合起来才能执行一个具体的任务,例如,在美颜场景下,需要通过人脸检测网络从视频帧中检测出人脸,再通过五官检测网络从人脸图像中检测出五官的位置,然后通过五官美化网络对检测出的五官进行美化处理。因此,在一些例子中,神经网络可以包括多个子网络,每个子网络可以是一个独立的神经网络,也可以包括神经网络的一个或多个网络层。这种情况下,AI加速卡的内存单元可以用于存储神经网络包括的多个子网络中每个子网络的网络参数。一个子网络可以通过其对应的网络参数,将输入映射成输出。不同的子网络可以实现不同的功能,例如,在上述美颜场景下,神经网络包括的各个子网络分别为人脸检测网络、五官检测网络和五官美化网络。需要说明的是,一个子网络的类型可以是CNN(Convolutional Neural Network,卷积神经网络)、RNN(Recurrent Neural Network,循环神经网络)、LSTM(Long Short-Term Memory,长短期记忆网络)等的任意一种,不同子网络的类型可以相同,也可以不同,本公开对此不作限制。
针对神经网络包括多个子网络的情况,在一些例子中,上述内存单元可以设置有多个分区,不同子网络的网络参数存储在不同分区中。也就是说,该内存单元的存储空间可以采用层次化的分区结构,以实现对各子网络的网络参数的分区存储管理。进一步地,为了方便对指定子网络的网络参数的读取,可以创建分区表,该分区表可以记录每个分区的起始地址、大小、对应的子网络的标识等信息,这样其他单元可以通过查找该分区表来确定指定子网络的存储地址,进而根据该存储地址读取到该指定子网络的网络参数;或者,可以为不同子网络设置不同的分区标识,内存单元根据子网络的分区标识确定分区路径,并将该子网络的网络参数存储在该分区路径对应的分区中,相对应地,其他单元也可以根据指定子网络的分区标识从内存单元中查找到该指定子网络的网络参数。当然,在其他实施例中,也可以根据具体场景的需要设置其他的存储管理方式。
在神经网络包括多个子网络的情况下,第一处理子单元可以基于调度到本处理单元的子网络的网络参数对待处理视频帧进行第一处理,该第一处理的具体内容可以根据子网络所实现的功能来确定。在一些例子中,该控制单元可以通过向第一处理子单元发送使能信号的方式,将网络参数调度到第一处理子单元中。该使能信号类似一个触发信号,通过这一信号可以触发第一处理子单元读取网络参数,进而基于读取的子网络的网络参数对待处理视频帧进行第一处理。可选地,该控制单元可以在使能第一处理子单元后,为该第一处理子单元配置需要读取的子网络的网络参数的存储地址,以使该第一处理子单元到该存储地址下读取相应的数据。
在一个可选的实施例中,若神经网络包括串接的多个子网络,即神经网络的功能基于多个子网络的功能实现,且一个子网络的输出是下一个子网络的输入,控制单元可以先将第一个子网络的网络参数调度到第一处理子单元,再将第二个子网络的网络参数调度到第一处理子单元,依次类推,以保证各个子网络的有序运行。而在另一个可选的实施例中,在只包括一个神经网络的情况下,控制单元也可以将神经网络的网络参数调度到第一处理子单元,并多次使能该第一处理子单元,以使第一处理子单元基于该神经网络对待处理视频帧进行多次处理,从而提升AI推理的效果。
为了保证控制单元对多个子网络的网络参数的合理调度,在一些例子中,该第一处理子单元可以在当前的第一处理执行完成的情况下,向控制单元发送中断信号;该控制单元在接收到该中断信号的情况下,将下一个子网络的网络参数调度到该第一处理子单元上。也就是说,第一处理子单元在基于一个子网络对待处理视频帧的处理完成的情况下,可以通过向控制单元发送中断信号的方式通知控制单元,以使控制单元调度下一个子网络的网络参数。这样,第一处理子单元可以基于下一个子网络的网络参数对待处理视频帧进行处理。如此,AI加速卡可以在完成第一个子网络的AI推理后,立即启用第二个子网络的AI推理,依次类推,直到完成最后一个子网络的AI推理,从而提升处理效率。
在一些实施例中,所述处理单元还包括第三处理子单元,用于对所述待处理视频帧进行第三处理后输出至所述片上缓存单元进行缓存。所述第一处理子单元用于从所述片上缓存单元中读取经第三处理的所述待处理视频帧,并对经第三处理的所述待处理视频帧进行第一处理。第三处理子单元也可以称为预处理单元或前处理单元,相应地,第三处理可以称为预处理或前处理。具体地,所述第三处理可以包括但不限于调整尺寸大小、图像分割和数据归一化等中的至少一者。在相关技术中,预处理过程一般也是由Host CPU执行的,而本公开实施例通过将预处理下沉到芯片端来执行,从而减轻了Host CPU的处理压力。
在上述实施例中,第一处理子单元、第二处理子单元和第三处理子单元可以是从功能上划分的子单元,即,第一处理子单元用于基于神经网络的网络参数对待处理视频帧进行处理,第二处理子单元用于进行后处理,第三处理子单元用于进行预处理。在实际应用中,各个子单元的数量可以根据实际需要设置为大于或等于1的数值,本公开对此不做限制。例如,可以通过两个第三处理子单元依次进行预处理,再将这两个第三处理子单元最终输出的视频帧作为待处理视频帧,并输入到第一处理子单元进行处理。
在一些实施例中,所述处理单元的数量大于1,第i+1个处理单元中的第一子单元用于从所述内存单元中读取第i个处理单元中的第二处理子单元输出的第二视频帧,并将所述第i个处理单元中的第二处理子单元输出的第二视频帧作为待处理视频帧进行所述第一处理,i为正整数。其中,第i个处理单元可以采用所述神经网络包括的第i个子网络执行所述第一处理。
处理单元103的数量可以大于或等于神经网络包括的子网络的数量,也可以小于神经网络包括的子网络的数量。在处理单元103的数量大于或等于神经网络包括的子网络的数量的情况下,可以分别将各个子网络的网络参数调度到不同的处理单元上。在处理单元103的数量小于神经网络包括的子网络的数量的情况下,可以先将一部分子网络的网络参数调度到处理单元上,在某个处理单元处理完成的情况下,再向该处理单元调度其他子网络的网络参数。
在上述实施例中,第i个处理单元可以是固定的某个处理单元,例如,第i个处理单元是编号为XXXXXYi的处理单元。或者,第i个处理单元可以是第i个处于空闲状态(即未执行任何数据处理)的处理单元。例如,编号为XXXXXY3的处理单元为第1个处于空闲状态的处理单元,编号为XXXXXY6的处理单元为第2个处于空闲状态的处理单元,则将编号为XXXXXY3的处理单元确定为第1个处理单元,并将编号为XXXXXY6的处理单元确定为第2个处理单元。但在其他的情况下,第1个处理单元和第2个处理单元也可能是其他编号的处理单元。
进一步地,每个处理单元103均可以包括至少一个第三处理子单元,第i个处理单元103中的第三处理子单元用于对待处理视频帧进行预处理,并将预处理后的待处理视频帧输出至片上缓存单元102,第i个处理单元103中的第一处理子单元可以从片上缓存单元102中读取预处理后的待处理视频帧并进行第一处理。这样,由于AI加速卡的内存单元无需对第三处理子单元输出的中间数据进行存储,减小了内存单元的存储压力。
应当说明的是,本公开实施例中,一个处理单元中的第一处理子单元所处理的待处理视频帧,可以是上一个处理单元中的第二处理子单元处理完成的视频帧。第一个处理单元中的第一处理子单元所处理的待处理视频帧,可以是从视频流中解码得到的视频帧经第一个处理单元中的第三处理子单元处理完成后得到的视频帧。
考虑到AI加速卡的内存单元需要存储多个子网络的网络参数,AI加速卡的内存空间的占用可能较大,因此,为了减少内存空间的占用,在一些例子中,芯片的控制单元可以用于基于第一预设条件从待处理视频帧中筛选出第一目标视频帧;芯片还可以包括第一图像编码单元,该第一图像编码单元用于对该第一目标视频帧进行图像压缩后输出至内存单元,压缩后的第一目标视频帧用于输出至外部处理单元。该第一预设条件是对待处理视频帧进行筛选的选图条件,可选地,该第一预设条件可以与待处理视频帧的时间戳、序号或者包括的对象相关,例如,第一目标视频帧可以是每隔预设时间从待处理视频帧中筛选出来的,也可以是每隔预设帧数从待处理视频帧中筛选出来的,也可以是图像内容中包括特定目标的待处理视频帧。也就是说,芯片可以对解码得到的待处理视频帧进行筛选以及图像压缩,这样可以避免因未压缩的视频帧占用较多的存储空间而导致开销较大的问题。其中,该第一图像编码单元可以包括图像编解码器,即能够对图像进行压缩或者解压缩的程序或者设备;该外部处理单元可以是Host CPU,以由Host CPU对压缩后的第一目标视频帧进行相应处理后,输出给用于显示视频的显示组件,或者,该外部处理单元也可以包括用于显示视频的显示组件,即压缩后的第一目标视频帧直接输出给显示组件进行显示。
在一个可选的实施例中,控制单元可以是响应于第一处理子单元所发送的中断信号,控制第一图像编码单元开始进行图像压缩的;该中断信号可以是第一处理子单元在第一处理完成的情况下向控制单元发送的。也就是说,第一处理子单元在完成对待处理视频帧的第一处理的情况下,可以以中断信号的形式,将第一处理完成的消息通知给控制单元,以使控制单元立即控制第一图像编码单元开始进行图像压缩,如此,提升AI加速卡内部的处理效率。
而在另一些例子中,芯片的控制单元可以用于基于第二预设条件从第二视频帧中筛选出第二目标视频帧;芯片还可以包括第二图像编码单元,该第二图像编码单元用于对该第二目标视频帧进行图像压缩后输出至内存单元,压缩后的第一目标视频帧用于输出至外部处理单元。该第二预设条件是对第二视频帧进行筛选的选图条件,同样的,该第二预设条件可以与第二视频帧的时间戳、序号或者包括的对象相关,例如,第二目标视频帧可以是每隔预设时间从第二视频帧中筛选出来的,也可以是每隔预设帧数从第二视频帧中筛选出来的,也可以是图像内容中包括特定目标的第二视频帧。也就是说,芯片也可以对AI推理完成后的视频帧进行筛选以及图像压缩,这样同样可以避免因未压缩的视频帧占用较多的存储空间而导致开销较大的问题。相对应地,该第一图像编码单元也可以包括图像编解码器;该外部处理单元可以是Host CPU,也可以包括用于显示视频的显示组件。同样地,控制单元可以响应于第二处理子单元所发送的中断信号,控制第二图像编码单元开始进行图像压缩;该中断信号可以是第二处理子单元在第二处理完成的情况下向控制单元发送的。也就是说,第二处理子单元在完成对第一视频帧的第二处理的情况下,可以以中断信号的形式,将第二处理完成的消息通知给控制单元,以使控制单元立即控制第二图像编码单元开始进行图像压缩,如此,提升AI加速卡内部的处理效率。上述第一图像编码单元和第二图像编码单元可以是相同的图像编码单元,也可以是两个相互独立的、不同的图像编码单元。
外部处理单元获取到解码后的视频帧和/或AI推理后的视频帧后,可以利用些视频帧输出显示画面,在提升AI推理的处理效率后,显示画面的流畅性能够得到提升。
需要说明的是,上述的第一预设条件和第二预设条件还可以根据预设的图像质量参数来确定,例如,第一目标视频帧可以是待处理视频帧中信噪比超过预设的信噪比阈值的视频帧;第二目标视频帧可以是第二视频帧中分辨率超过预设的分辨率阈值的视频帧。当然,所选择的图像质量参数以及阈值可以根据具体场景的需要来设置,该第一预设条件和该第二预设条件可以相同,也可以不同,本公开对此不作限制。
为了对本公开实施例的芯片做更为详细的说明,接下来介绍一具体实施例:
本实施例的芯片应用于AI加速卡,该AI加速卡插设在终端的主板插槽中。本实施例的场景是该终端利用神经网络技术对接收到的视频进行人脸识别的场景,该场景中,需要经视频解码、人脸区域识别、人脸局部特征分析等多个步骤提取特征才能实现最终的人脸识别,其中涉及N个神经网络,以这N个神经网络包括子网络1和子网络2为例,子网络1是用于人脸区域识别的神经网络,子网络2是用于人脸局部特征分析的神经网络。这2个神经网络的网络参数存在Host主存里。
相关技术中,加速卡一般是作为纯slave设备,用于辅助Host CPU的工作,以AI加速卡为例,终端执行AI推理的过程如图4所示,其过程包括:
S401、Host CPU对视频进行解码,得到帧数据;
S402、Host CPU将帧数据以及子网络1的网络参数下载到AI加速卡的内存里;
S403、AI加速卡通过子网络1对帧数据进行模型推理,并将结果存放在内存中;
S404、Host CPU从AI加速卡的内存中读取子网络1输出的结果;
S405、Host CPU对子网络1输出的结果进行后处理;
S406、Host CPU将加工处理后的数据和子网络2下载到AI加速卡的内存里;
S407、AI加速卡通过子网络2对处理后的数据进行模型推理,并将结果存放在内存中;
S408、Host CPU读取AI加速卡的内存中存放的推理结果。
上述流程存在大量的Host与加速卡间的内存访问动作,需要占用较多的Host CPU资源,AI推理的效率较低。相关技术中,终端也可以借助GPU来执行AI训练/推理任务,然而,GPU同样常常需要等待Host CPU进行访存操作而处于空闲状态,造成资源浪费,其效率同样较低。
而本实施例中,在加速卡内部做了硬件改进,以AI加速卡为例,图5是本公开实施例示出的一种AI加速卡的硬件结构示意图,其中,该AI加速卡包括MCU(即上述控制单元)、DRAM(即AI加速卡的内存单元)、Video Codec(即上述视频解码单元)、JPEG Codec(即上述第一图像编码单元和第二图像编码单元)、PCIe以及若干个CU;其中,DRAM是AI加速卡的内存单元,用于存储神经网络的网络参数以及处理前后的视频帧;MCU用于调度模型的网络参数到CU中,以及对Video Codec和JPEG Codec进行控制调度;每个CU用于基于神经网络对视频帧进行模型推理,CU中包括前处理单元和后处理单元,前处理单元用于负责模型的前处理任务,后处理单元用于负责模型的后处理任务;Video Codec是视频编解码器,用于对视频进行解码;JPEG Codec是图像编解码器,用于对视频帧进行压缩;PCIe是AI加速卡与HostCPU之间的交互通路,用于实现AI加速卡与Host CPU之间的命令下发、数据传输等,视频码流也可通过该PCIe传输到AI加速卡的内存中;另外,在AI加速卡内,上述的各模块通过NoC(Network On Chip,片上网络)等互联总线和内存实现互联。
本实施例中,终端执行AI推理的过程如图6所示,其过程包括:
S601、Host CPU将待处理视频、子网络1的网络参数和子网络2的网络参数传输至AI加速卡的内存中;
S602、AI加速卡内的MCU控制Video Codec对内存中的视频进行解码,并控制前处理单元对解码后的视频帧进行数据预处理(例如,调整尺寸大小、图像分割和数据归一化)后,将得到的帧大图存放到内存中;
S603、AI加速卡内的MCU控制CU读取解码得到的帧大图并传输到子网络1,再使能子网络1开始进行第一阶段的模型推理,得到的结果数据传输到后处理单元,同时,MCU基于第一预设条件挑选部分帧大图传输到JPEG Codec进行图像压缩,压缩后的帧大图存放到内存中,等待Host CPU读取;
S604、AI加速卡内的MCU控制后处理单元将模型1的输出数据进行图像分割,得到符合要求的帧小图(例如,去掉背景特征,并保留人脸局部特征等),并将帧小图存放到内存中;
S605、AI加速卡内的MCU控制CU读取帧小图并传输到子网络2,再使能子网络2开始进行第二阶段的模型推理,得到的结果数据传输到后处理单元,同时,MCU基于第二预设条件挑选部分帧小图传输到JPEG Codec进行图像压缩,压缩后的帧小图存放到内存中,等待Host CPU读取;
S606、将AI加速卡的内存中所存储的压缩后的帧大图和压缩后的帧小图传输至Host CPU,用于终端显示。其中,压缩后的帧大图和压缩后的帧小图可以在不同的步骤中进行传输,例如,压缩后的帧大图的步骤也可以在步骤S603中进行图像压缩完成后即开始传输。
需要说明的是,本实施例中以子网络1和子网络2为例,但在实际应用中,神经网络的数量可以大于等于3,即可以有多个神经网络,而针对子网络2之后的子网络的推理过程,可以参见S604和S605的步骤,本实施例在此不再赘述。本实施例中,AI加速卡针对视频人脸识别任务时的部分参数设置如表1所示。
表1 参数设置
基于该参数设置,AI加速卡在采用图像压缩与不采用图像压缩时内存占比的对比情况如表2所示。
表2 内存占比对比
其中,节点i1、fb1、fb2、o1、o2、o3依次是指前面步骤中提到的待处理视频、数据预处理后得到的帧大图、图像分割后得到的帧小图、压缩后的帧大图、压缩后的帧小图、子网络2模型推理得到的图像;同时,JPG这一列是指采用图像压缩时的内存占用情况,RGB24这一列是指不采用图像压缩时的内存占用情况,对比可见,针对同一码率为4MB/s的视频,在不做图像压缩的情况下,该图像在AI推理过程中需要占用2100MB的内存空间,导致AI推理的速度很慢,在试验时每秒仅能够处理1至2张图像;而在使用了图像压缩的技术后,该图像在AI推理过程中所占用的内存空间仅为104.8MB,AI推理的速度较快。由此可见,本实施例的方案可以有效地减少内存占用。
本实施例的方案至少具有以下优点:
(1)将视频解码、图像编码、模型前后处理等业务下沉到AI加速卡端,Host CPU只需将相关模型和视频码流传输给AI加速卡即可,极大地减轻了Host CPU的工作负担;
(2)将所有的网络参数一次性下载到AI加速卡端,通过AI加速卡内的MCU控制调度,实现了多模型间的pipeline,而且,“模型前处理-模型推理-模型后处理”在AI加速卡内部执行,实现更好的pipeline处理;
(3)模型间的数据传递不再需要依赖Host CPU控制调度,减少了Host CPU对AI加速卡的内存访问频率,因而进一步提升了处理效率;
(4)采用图像压缩技术从帧大图与帧小图中挑选出一个子集来做压缩,减少了对内存空间的占用,同时减少了PCIe的数据量和交互次数,因而提升了处理效率。
经试验发现,经本实施例的方案得到的终端显示结果,相较于相关技术方案得到的终端显示结果而言,有效避免了掉帧的情况,终端显示的画面更加流畅。
与前述的芯片的实施例相对应,本公开还提供了加速卡及其对应的设备的实施例。如图7所示,是本公开根据一示例性实施例示出的一种加速卡的示意图,所述加速卡包括:
内存单元702,用于存储神经网络的网络参数;以及
芯片702。
上述芯片702可以采用前述任一实施例所述的芯片。加速卡中各部分的数据传输过程如图8所示。其中,模型1和模型2分别为前述实施例中的神经网络中的两个子网络。为了简洁,上述实施例以子网络数量为2的情况进行说明,在其他实施例中,子网络的数量也可以是其他数量,此处不再赘述。
如图9所示,是本公开实施例的一种电子设备的示意图,所述电子设备包括加速卡901以及外部处理单元902,其中,所述加速卡901可以采用前述任一实施例中的加速卡;所述外部处理单元902可以是前述实施例中的Host CPU,用于将所述神经网络的网络参数输出至所述内存单元。
上述加速卡以及电子设备中各个组件的功能和作用的实现过程具体详见上述芯片中对应组件的实现过程,在此不再赘述。需要说明的是,上述芯片所对应的其他改进内容同样适用于加速卡以及电子设备。
如图10所示,本公开实施例还提供一种数据处理方法,所述方法应用于本公开任一实施例所述的芯片,所述方法包括:
步骤1001:所述控制子单元将神经网络的网络参数调度到所述第一处理子单元;
步骤1002:所述第一处理子单元基于调度到本处理单元的网络参数对待处理视频帧进行第一处理,得到第一视频帧,并将所述第一视频帧输出至所述片上缓存单元进行缓存;
步骤1003:所述第二处理子单元从所述片上缓存单元中读取所述第一视频帧,对读取的所述第一视频帧进行第二处理,得到第二视频帧并输出。
在一些实施例中,所述处理单元还包括第三处理子单元,用于对所述待处理视频帧进行第三处理后输出至所述片上缓存单元进行缓存;所述方法还包括:所述第一处理子单元从所述片上缓存单元中读取经第三处理的所述待处理视频帧,并对经第三处理的所述待处理视频帧进行第一处理。
在一些实施例中,所述方法还包括:所述控制单元控制视频解码单元对输入视频进行视频解码,得到所述待处理视频帧。
在一些实施例中,所述方法还包括:所述控制单元基于第一预设条件从所述待处理视频帧中筛选出第一目标视频帧,并将所述第一目标视频帧输出至第一图像编码单元进行图像压缩,压缩后的第一目标视频帧用于输出至外部处理单元。
在一些实施例中,所述方法还包括:所述控制单元基于第二预设条件从所述第二视频帧中筛选出第二目标视频帧,并将所述第二目标视频帧输出至第二图像编码单元进行图像压缩,压缩后的第二目标视频帧用于输出至外部处理单元。
在一些实施例中,所述处理单元的数量大于1,第i+1个处理单元中的第一子单元用于从所述内存单元中读取第i个处理单元中的第二处理子单元输出的第二视频帧,并将所述第i个处理单元中的第二处理子单元输出的第二视频帧作为待处理视频帧进行所述第一处理,i为正整数。
在一些实施例中,所述神经网络包括多个子网络,各个子网络的网络参数均存储在加速卡的内存单元中;所述方法还包括:所述控制单元从所述内存单元中将神经网络的网络参数调度到所述第一处理子单元。
在一些实施例中,第i个处理单元采用所述神经网络包括的第i个子网络执行所述第一处理。
在一些实施例中,所述内存单元包括多个分区;所述多个子网络中的至少两个子网络的网络参数被存储在不同的分区中。
本公开实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开任一实施例所述的芯片中的控制单元执行的方法。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类别的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本公开实施例可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本公开实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开实施例各个实施例或者实施例的某些部分所述的方法。
上述实施例阐明的模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
以上所描述的各实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,在实施本公开实施例方案时可以把各模块的功能在同一个或多个软件和/或硬件中实现。也可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本公开实施例的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本公开实施例原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本公开实施例的保护范围。
Claims (13)
1.一种芯片,其特征在于,所述芯片包括:
控制单元、片上缓存单元和处理单元,所述处理单元包括第一处理子单元和第二处理子单元;
所述控制单元,用于将神经网络的网络参数调度到所述第一处理子单元;
所述第一处理子单元,用于基于调度到本处理单元的网络参数对待处理视频帧进行第一处理,得到第一视频帧,并将所述第一视频帧输出至所述片上缓存单元进行缓存;
所述第二处理子单元,用于从所述片上缓存单元中读取所述第一视频帧,对读取的所述第一视频帧进行第二处理,得到第二视频帧并输出。
2.根据权利要求1所述的芯片,其特征在于,所述处理单元还包括第三处理子单元,用于对所述待处理视频帧进行第三处理后输出至所述片上缓存单元进行缓存;
所述第一处理子单元用于从所述片上缓存单元中读取经第三处理的所述待处理视频帧,并对经第三处理的所述待处理视频帧进行第一处理。
3.根据权利要求1或2所述的芯片,其特征在于,所述芯片还包括:
视频解码单元,所述视频解码单元用于在所述控制单元的控制下,对输入视频进行视频解码,得到所述待处理视频帧。
4.根据权利要求1至3任一项所述的芯片,其特征在于,所述控制单元还用于基于第一预设条件从所述待处理视频帧中筛选出第一目标视频帧;所述芯片还包括:
第一图像编码单元,用于对所述第一目标视频帧进行图像压缩,压缩后的第一目标视频帧用于输出至外部处理单元。
5.根据权利要求1至4任一项所述的芯片,其特征在于,所述控制单元还用于基于第二预设条件从所述第二视频帧中筛选出第二目标视频帧;所述芯片还包括:
第二图像编码单元,用于对所述第二目标视频帧进行图像压缩,压缩后的第二目标视频帧用于输出至外部处理单元。
6.根据权利要求1至5任一项所述的芯片,其特征在于,所述处理单元的数量大于1,第i+1个处理单元中的第一子单元用于读取第i个处理单元中的第二处理子单元输出的第二视频帧,并将所述第i个处理单元中的第二处理子单元输出的第二视频帧作为待处理视频帧进行所述第一处理,i为正整数。
7.根据权利要求6所述的芯片,其特征在于,所述神经网络包括多个子网络,各个子网络的网络参数均存储在加速卡的内存单元中;
所述控制单元用于从所述内存单元中将神经网络的网络参数调度到所述第一处理子单元。
8.根据权利要求7所述的芯片,其特征在于,第i个处理单元采用所述神经网络包括的第i个子网络执行所述第一处理。
9.根据权利要求7或8所述的芯片,其特征在于,所述内存单元包括多个分区;所述多个子网络中的至少两个子网络的网络参数被存储在不同的分区中。
10.一种加速卡,其特征在于,所述加速卡包括:
内存单元,用于存储神经网络的网络参数;以及
权利要求1至9任一项所述的芯片。
11.一种电子设备,其特征在于,所述电子设备包括:
权利要求10所述的加速卡;以及
外部处理单元,用于将所述神经网络的网络参数输出至所述内存单元。
12.一种数据处理方法,其特征在于,应用于权利要求1至9任意一项所述的芯片,所述方法包括:
所述控制子单元将神经网络的网络参数调度到所述第一处理子单元;
所述第一处理子单元基于调度到本处理单元的网络参数对待处理视频帧进行第一处理,得到第一视频帧,并将所述第一视频帧输出至所述片上缓存单元进行缓存;
所述第二处理子单元从所述片上缓存单元中读取所述第一视频帧,对读取的所述第一视频帧进行第二处理,得到第二视频帧并输出。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至9任意一项所述的芯片中的控制单元执行的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111653009.9A CN114298295A (zh) | 2021-12-30 | 2021-12-30 | 芯片、加速卡以及电子设备、数据处理方法 |
PCT/CN2022/126090 WO2023124428A1 (zh) | 2021-12-30 | 2022-10-19 | 芯片、加速卡以及电子设备、数据处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111653009.9A CN114298295A (zh) | 2021-12-30 | 2021-12-30 | 芯片、加速卡以及电子设备、数据处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114298295A true CN114298295A (zh) | 2022-04-08 |
Family
ID=80972649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111653009.9A Pending CN114298295A (zh) | 2021-12-30 | 2021-12-30 | 芯片、加速卡以及电子设备、数据处理方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114298295A (zh) |
WO (1) | WO2023124428A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124428A1 (zh) * | 2021-12-30 | 2023-07-06 | 上海商汤智能科技有限公司 | 芯片、加速卡以及电子设备、数据处理方法 |
JP7492793B1 (ja) | 2023-05-18 | 2024-05-30 | 深▲せん▼市宗匠科技有限公司 | 電子機器、その肌質分析方法及び装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111338695B (zh) * | 2018-12-19 | 2022-05-17 | 中科寒武纪科技股份有限公司 | 基于流水线技术的数据处理方法及相关产品 |
CN112860597B (zh) * | 2019-11-27 | 2023-07-21 | 珠海格力电器股份有限公司 | 一种神经网络运算的系统、方法、装置及存储介质 |
CN111160545A (zh) * | 2019-12-31 | 2020-05-15 | 北京三快在线科技有限公司 | 人工神经网络处理系统及其数据处理方法 |
CN113537448A (zh) * | 2020-04-22 | 2021-10-22 | 杭州智芯科微电子科技有限公司 | 流式数据处理的方法、装置、半导体芯片和计算机设备 |
US20210166114A1 (en) * | 2021-02-10 | 2021-06-03 | Intel Corporation | Techniques for Accelerating Neural Networks |
CN112948126A (zh) * | 2021-03-29 | 2021-06-11 | 维沃移动通信有限公司 | 数据处理方法、装置及芯片 |
CN114298295A (zh) * | 2021-12-30 | 2022-04-08 | 上海阵量智能科技有限公司 | 芯片、加速卡以及电子设备、数据处理方法 |
-
2021
- 2021-12-30 CN CN202111653009.9A patent/CN114298295A/zh active Pending
-
2022
- 2022-10-19 WO PCT/CN2022/126090 patent/WO2023124428A1/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023124428A1 (zh) * | 2021-12-30 | 2023-07-06 | 上海商汤智能科技有限公司 | 芯片、加速卡以及电子设备、数据处理方法 |
JP7492793B1 (ja) | 2023-05-18 | 2024-05-30 | 深▲せん▼市宗匠科技有限公司 | 電子機器、その肌質分析方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2023124428A1 (zh) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023124428A1 (zh) | 芯片、加速卡以及电子设备、数据处理方法 | |
US10582250B2 (en) | Integrated video codec and inference engine | |
US11537857B2 (en) | Pooling processing method and system applied to convolutional neural network | |
CN110321448B (zh) | 一种图像检索方法、装置和存储介质 | |
CN111479095B (zh) | 一种业务处理控制系统、方法及装置 | |
CN116204308A (zh) | 音视频算力动态调节方法和装置、电子设备 | |
US20210233280A1 (en) | Encoding device control method and device, and storage medium | |
WO2014008294A1 (en) | Non-video codecs with video conferencing | |
WO2023124361A1 (zh) | 芯片、加速卡、电子设备和数据处理方法 | |
CN111405293A (zh) | 一种视频传输方法及装置 | |
CN112068965A (zh) | 数据处理方法、装置、电子设备和可读存储介质 | |
CN108665062B (zh) | 一种基于小波变换减少io开销的神经网络处理系统 | |
US11741349B2 (en) | Performing matrix-vector multiply operations for neural networks on electronic devices | |
CN114254563A (zh) | 数据处理方法及装置、电子设备、存储介质 | |
CN112565778A (zh) | 一种基于时间片管理的数据存取方法 | |
CN112991172A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113992493A (zh) | 视频处理方法、系统、设备及存储介质 | |
CN115731111A (zh) | 图像数据处理装置及方法、电子设备 | |
WO2020037564A1 (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111935431A (zh) | 高帧速率视频记录 | |
CN114727082B (zh) | 图像处理装置、图像信号处理器、图像处理方法和介质 | |
CN212873459U (zh) | 一种用于数据压缩存储的系统 | |
CN112102193B (zh) | 图像增强网络的训练方法、图像处理方法及相关设备 | |
US20210042056A1 (en) | Data processing method and device | |
JP7481167B2 (ja) | 圧縮データの解凍システム及びメモリシステム並びにデータ解凍方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40062798 Country of ref document: HK |