CN107220702B - 一种低计算能力处理设备的计算机视觉处理方法及装置 - Google Patents
一种低计算能力处理设备的计算机视觉处理方法及装置 Download PDFInfo
- Publication number
- CN107220702B CN107220702B CN201710474436.8A CN201710474436A CN107220702B CN 107220702 B CN107220702 B CN 107220702B CN 201710474436 A CN201710474436 A CN 201710474436A CN 107220702 B CN107220702 B CN 107220702B
- Authority
- CN
- China
- Prior art keywords
- weight
- inner product
- row
- sequence
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Abstract
本发明公开一种低计算能力处理设备的计算机视觉处理方法及装置,以解决现有技术神经网络处理速度慢、实时性差的问题。方法包括:对全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列;将所述全连接层的网络权重进行转置,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列;将输入数据序列中的数据元素分别与各行权重序列的权重元素进行内积运算,得到输入数据序列与各行权重序列的内积结果;根据输入数据序列与各行权重序列的内积结果得到所述全连接层的输出结果。本发明技术方案能够提高神经网络处理速度和实时性。
Description
技术领域
本发明涉及计算机视觉领域,特别涉及一种低计算能力处理设备的计算机视觉处理方法及装置。
背景技术
近几年来,深度神经网络在计算机视觉领域的各类应用中取得了巨大的成功,如图像分类、目标检测、图像分割等。但深度神经网络的模型往往包含大量的模型参数,计算量大、处理速度慢,无法在一些低功耗、低计算能力的设备(如嵌入式设备、集成设备等)上进行实时计算。
发明内容
鉴于上述问题,本发明提供一种低计算能力处理设备的计算机视觉处理方法及装置,以解决现有技术神经网络处理速度慢、实时性差的问题。。
本发明实施例,一方面提供一种神经网络优化方法,该方法包括:
对全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列;
将所述全连接层的网络权重进行转置,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列;
将输入数据序列中的数据元素分别与各行权重序列的权重元素进行内积运算,得到输入数据序列与各行权重序列的内积结果;
根据输入数据序列与各行权重序列的内积结果得到所述全连接层的输出结果。
本发明实施例,另一方面提供一种神经网络优化装置,该装置包括:
数据处理单元,用于对全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列;
权重处理单元,用于将所述全连接层的网络权重进行转置,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列;
内积运算单元,用于将输入数据序列中的数据元素分别与各行权重序列的权重元素进行内积运算,得到输入数据序列与各行权重序列的内积结果;
结果输出单元,用于根据输入数据序列与各行权重序列的内积结果得到所述全连接层的输出结果。
本发明技术方案,一方面,将神经网络的全连接层的输入数据和网络权重进行二值化和位打包操作得到输入数据序列和权重序列,不仅对输入数据和网络权重进行数据压缩使得参与运算的数据量大大减少,而且输入数据与网络权重的运算由现有技术的浮点数与浮点数相乘变成了无符号整数与无符号整数之间的按位操作,提高了运算速度;另一方面,对网络权重进行转置之后的每一行权重处理成一行权重序列,从而使得输入数据序列可以直接按行与网络权重的每一行权重序列依次进行内积运算,从而加快矩阵乘法的数据读取速度,从而进一步提高内积运算速度。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明实施例神经网络优化方法的流程图;
图2为本发明实施例中全连接层的输入数据和其对应的输入数据序列的示意图;
图3A为本发明实施例中全连接层的网络权重的示意图;
图3B为本发明实施例中转置后的网络权重的示意图;
图3C为本发明实施例中经过二值化处理和位打包操作之后的网络权重;
图4为本发明实施例中神经网络优化装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
实施例一
参见图1,为本发明实施例提供的神经网络优化方法的流程图,该方法包括:
步骤101、对全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列。
步骤102、将所述全连接层的网络权重进行转置,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列。
步骤103、将输入数据序列中的数据元素分别与各行权重序列的权重元素进行内积运算,得到输入数据序列与各行权重序列的内积结果。
步骤104、根据输入数据序列与各行权重序列的内积结果得到所述全连接层的输出结果。
优选地,本发明实施例中,前述步骤101,具体可通过以下步骤A1~步骤A2实现:
步骤A1、对输入数据进行二值化处理得到二值化输入数据;
步骤A2、从二值化输入数据的第一个数据开始,将每M个连续数据打包成一个数据元素得到包含多个数据元素的输入数据序列,M为32的整数倍。
M的取值可以为32、64、128、256等等,本申请不作严格限定。
如图2所示为全连接层的输入数据、以及该输入数据对应的输入数据序列的示意图,输入数据的长度为N,输入数据序列的长度为N/M。
优选地,前述步骤102中,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列,具体可通过以下步骤B1~步骤B2实现:
步骤B1、对一行权重进行二值化处理得到一行二值化权重;
步骤B2、从该行二值化权重的第一个权重开始,将每M个连续权重打包成一个权重元素得到包含多个权重元素的权重序列。
如图3A所示为全连接层的网络权重示意图,网络权重包含N行和H列,图3B为转置后的网络权重示意图,图3C为经过二值化处理和位打包操作之后的网络权重。
优选地,前述步骤103具体可通过以下步骤C1~步骤C2实现:
步骤C1、将每一行权重序列的每个权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算,以得到每个权重元素与相应数据元素的内积结果。
步骤C2、根据一行权重序列的各权重元素与相应元素的内积结果,得到输入数据序列与该行权重序列的内积结果。
根据以下公式(1)计算得到输入数据序列与一行权重序列的内积结果:
在计算机程序代码中,针对输入数据序列与一行权重序列,需要进行N/M次乘法和累加运算,若采用循环语句则需要判断N/M次,循环开销较大。
优选地,为节省循环开销,本发明实施例中,针对输入数据序列与一行权重序列,为每一对需要进行卷积运算的数据元素和权重元素配置一个内积运算执行指令,即设置N/M个内积运算执行指令,直接根据该N/M个内积运算执行指令分别对N/M对数据元素和权重元素进行内积运算,无需进行循环判断,节省循环开销。因此,在前述步骤103中还包括以下步骤:
步骤C0、为每行权重序列的每个权重元素配置相应的一个内积运算执行指令;
此时,前述步骤C1具体实现如下:按照权重元素在一行权重序列中的先后顺序,根据权重元素对应的内积运算执行指令对该权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算。
神经网络的全连接层的W维一般是256的整数倍(例如AlexNet第一个全连接层中W=4096,VGGNet第一个全连接层中W=25088),AVX提供的256位长度指令集可进一步加速二值化向量与矩阵的乘法,因此,本发明实施例,可将输入数据和一行权重进行256位打包操作,即每256个连续的数据打包成一个AVX支持的256位长度整型数据,用_mm256_xor_si256指令对两个256位长度整型数据进行按位异或操作,再通过4次_mm_popcnt_u64指令累加得到上一步运算结果中1的总个数。
优选地,为进一步提高输入数据序列与各行权重序列的内积运算速度,本发明实施例,将各行权重序列与输入数据序列的内积运算分布到CPU(Central Processing Unit,中央处理器)的多个核上进行并行处理,由CPU的各个核对分配到该核上的输入数据序列和行权重序列进行前述内积运算,并输出内积运算的内积结果。例如,假设行权重序列总共为H个,CPU包含k个核,可以是直接将该H个行权重序列平均分配到k个核上,由该k个核分别依次对其分配得到的H/k个行权重序列与输入数据序列进行内积运算;还可以是根据该k个核的负载量分配相应比例数量的行权重序列。本申请不做严格限定。
实施例二
基于前述实施例一提供的神经网络优化方法的相同构思,本发明实施例二提供一种神经网络优化装置,该装置的结构如图4所示,包括:
数据处理单元41,用于对全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列;
权重处理单元42,用于将所述全连接层的网络权重进行转置,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列;
内积运算单元43,用于将输入数据序列中的数据元素分别与各行权重序列的权重元素进行内积运算,得到输入数据序列与各行权重序列的内积结果;
结果输出单元44,用于根据输入数据序列与各行权重序列的内积结果得到所述全连接层的输出结果。
优选地,所述内积运算单元43包括:
内积运算模块,用于将每一行权重序列的每个权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算,以得到每个权重元素与相应数据元素的内积结果;
确定模块,用于根据一行权重序列的各权重元素与相应元素的内积结果,得到输入数据序列与该行权重序列的内积结果。
具体可根据前述公式(1)计算得到输入数据序列与一行权重序列的内积结果,在此不再赘述。
优选地,为进一步节省循环开销,所述内积运算单元43还进一步包括:
指令生成模块,用于为每行权重序列的每个权重元素配置相应的一个内积运算执行指令;
内积运算模块具体用于:按照权重元素在一行权重序列中的先后顺序,根据权重元素对应的内积运算执行指令对该权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算。
优选地,所述内积运算单元43,具体用于:将各行权重序列与输入数据序列的内积运算,分布到CPU的多个核上进行并行处理,从所述多个核中得到输入数据序列与各行权重序列的内积结果。
优选地,所述数据处理单元41具体用于:对输入数据进行二值化处理得到二值化输入数据;从二值化输入数据的第一个数据开始,将每M个连续数据打包成一个数据元素得到包含多个数据元素的输入数据序列,所述M为32的整数倍。
优选地,所述权重处理单元42对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列,具体包括:对一行权重进行二值化处理得到一行二值化权重;从该行二值化权重的第一个权重开始,将每M个连续权重打包成一个权重元素得到包含多个权重元素的权重序列。
本发明技术方案,一方面,将神经网络的全连接层的输入数据和网络权重进行二值化和位打包操作得到输入数据序列和权重序列,不仅对输入数据和网络权重进行数据压缩使得参与运算的数据量大大减少,而且输入数据与网络权重的运算由现有技术的浮点数与浮点数相乘变成了无符号整数与无符号整数之间的按位操作,提高了运算速度;另一方面,对网络权重进行转置之后的每一行权重处理成一行权重序列,从而使得输入数据序列可以直接按行与网络权重的每一行权重序列依次进行内积运算,从而加快矩阵乘法的数据读取速度,从而进一步提高内积运算速度;再一方面,在将输入数据序列与一行权重序列进行卷积运算时,直接根据各个数据元素的内积运算执行指令进行数据元素与相应权重元素的内积运算,无需循环判断,节省循环开销;最后一方面,通过CPU的多个核并行处理输入数据序列与各行权重序列的内积运算,进一步提高输入数据序列与各行权重序列的内积运算速度和效率。
以上是本发明的核心思想,为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明实施例中技术方案作进一步详细的说明。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种低计算能力处理设备的计算机视觉处理方法,其特征在于,包括:
在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;
所述处理设备使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络中包括全连接层,所述处理设备对所述全连接层执行的处理包括:
对所述全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列;
将所述全连接层的网络权重进行转置,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列;
将输入数据序列中的数据元素分别与各行权重序列的权重元素之间的内积运算分配到中央处理器CPU的多个核上,多个核并行执行所述内积运算,得到输入数据序列与各行权重序列的内积结果,具体包括:为每一对需要进行卷积运算的数据元素和权重元素配置一个内积运算执行指令,以直接根据该内积运算执行指令分别对各对数据元素和权重元素进行内积运算;
根据输入数据序列与各行权重序列的内积结果得到所述全连接层的输出结果。
2.根据权利要求1所述的方法,其特征在于,将输入数据序列中的数据元素分别与各行权重序列的权重元素进行内积运算,得到输入数据序列与各行权重序列的内积结果,具体包括:
将每一行权重序列的每个权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算,以得到每个权重元素与相应数据元素的内积结果;
根据一行权重序列的各权重元素与相应元素的内积结果,得到输入数据序列与该行权重序列的内积结果。
3.根据权利要求2所述的方法,其特征在于,将每一行权重序列的每个权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算之前还包括:为每行权重序列的每个权重元素配置相应的一个内积运算执行指令;
将每一行权重序列的每个权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算,具体包括:按照权重元素在一行权重序列中的先后顺序,根据权重元素对应的内积运算执行指令对该权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算。
4.根据权利要求1所述的方法,其特征在于,对所述全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列,具体包括:对输入数据进行二值化处理得到二值化输入数据;从二值化输入数据的第一个数据开始,将每M个连续数据打包成一个数据元素得到包含多个数据元素的输入数据序列,M为32的整数倍;
对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列,具体包括:对一行权重进行二值化处理得到一行二值化权重;从该行二值化权重的第一个权重开始,将每M个连续权重打包成一个权重元素得到包含多个权重元素的权重序列。
5.一种低计算能力处理设备的计算机视觉处理装置,其特征在于,在实时的计算机视觉处理过程中,低计算能力的处理设备获取图像数据;所述计算机视觉处理装置使用预先设置的神经网络对获取到的图像数据进行计算机视觉处理,得到计算机视觉处理结果;其中,所述神经网络中包括全连接层,所述计算机视觉处理装置包括:
数据处理单元,用于对所述全连接层的输入数据进行二值化和位打包操作得到包含多个数据元素的输入数据序列;
权重处理单元,用于将所述全连接层的网络权重进行转置,对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列;
内积运算单元,用于将输入数据序列中的数据元素分别与各行权重序列的权重元素之间的内积运算分配到中央处理器CPU的多个核上,多个核并行执行所述内积运算,得到输入数据序列与各行权重序列的内积结果,具体用于:为每一对需要进行卷积运算的数据元素和权重元素配置一个内积运算执行指令,以直接根据该内积运算执行指令分别对各对数据元素和权重元素进行内积运算;
结果输出单元,用于根据输入数据序列与各行权重序列的内积结果得到所述全连接层的输出结果。
6.根据权利要求5所述的装置,其特征在于,所述内积运算单元包括:
内积运算模块,用于将每一行权重序列的每个权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算,以得到每个权重元素与相应数据元素的内积结果;
确定模块,用于根据一行权重序列的各权重元素与相应元素的内积结果,得到输入数据序列与该行权重序列的内积结果。
7.根据权利要求6所述的装置,其特征在于,内积运算单元还包括:
指令生成模块,用于为每行权重序列的每个权重元素配置相应的一个内积运算执行指令;
内积运算模块具体用于:按照权重元素在一行权重序列中的先后顺序,根据权重元素对应的内积运算执行指令对该权重元素与相应数据元素进行包含一次异或操作和bit-count操作的内积运算。
8.根据权利要求5所述的装置,其特征在于,所述数据处理单元具体用于:对输入数据进行二值化处理得到二值化输入数据;从二值化输入数据的第一个数据开始,将每M个连续数据打包成一个数据元素得到包含多个数据元素的输入数据序列,所述M为32的整数倍;
所述权重处理单元对转置后的每一行权重进行二值化和位打包操作得到包含多个权重元素的权重序列,具体包括:对一行权重进行二值化处理得到一行二值化权重;从该行二值化权重的第一个权重开始,将每M个连续权重打包成一个权重元素得到包含多个权重元素的权重序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710474436.8A CN107220702B (zh) | 2017-06-21 | 2017-06-21 | 一种低计算能力处理设备的计算机视觉处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710474436.8A CN107220702B (zh) | 2017-06-21 | 2017-06-21 | 一种低计算能力处理设备的计算机视觉处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107220702A CN107220702A (zh) | 2017-09-29 |
CN107220702B true CN107220702B (zh) | 2020-11-24 |
Family
ID=59949971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710474436.8A Active CN107220702B (zh) | 2017-06-21 | 2017-06-21 | 一种低计算能力处理设备的计算机视觉处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107220702B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3624019A4 (en) * | 2017-12-30 | 2021-03-24 | Cambricon Technologies Corporation Limited | CHIP DEVICE WITH INTEGRATED CIRCUIT AND ASSOCIATED PRODUCT |
CN109800869B (zh) * | 2018-12-29 | 2021-03-05 | 深圳云天励飞技术有限公司 | 数据压缩方法及相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1415273A1 (en) * | 2001-08-10 | 2004-05-06 | Saffron Technology, Inc. | Artificial neurons including weights that define maximal projections |
CN101187861A (zh) * | 2006-09-20 | 2008-05-28 | 英特尔公司 | 用于执行点积运算的指令和逻辑 |
CN106816147A (zh) * | 2017-01-25 | 2017-06-09 | 上海交通大学 | 基于二值神经网络声学模型的语音识别系统 |
CN106875011A (zh) * | 2017-01-12 | 2017-06-20 | 南京大学 | 二值权重卷积神经网络加速器的硬件架构及其计算流程 |
-
2017
- 2017-06-21 CN CN201710474436.8A patent/CN107220702B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1415273A1 (en) * | 2001-08-10 | 2004-05-06 | Saffron Technology, Inc. | Artificial neurons including weights that define maximal projections |
CN101187861A (zh) * | 2006-09-20 | 2008-05-28 | 英特尔公司 | 用于执行点积运算的指令和逻辑 |
CN106875011A (zh) * | 2017-01-12 | 2017-06-20 | 南京大学 | 二值权重卷积神经网络加速器的硬件架构及其计算流程 |
CN106816147A (zh) * | 2017-01-25 | 2017-06-09 | 上海交通大学 | 基于二值神经网络声学模型的语音识别系统 |
Non-Patent Citations (2)
Title |
---|
Espresso: Efficient Forward Propagation for BCNN;Fabrizio Pedersoli et al.;《arXiv》;20170519;第1-10页 * |
EXNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks;Mohammad Rastegari et al.;《arXiv》;20160802;第1-17页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107220702A (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107145939B (zh) | 一种低计算能力处理设备的计算机视觉处理方法及装置 | |
CN107819569B (zh) | 登录信息的加密方法及终端设备 | |
US20170132514A1 (en) | System and method for parallelizing convolutional neural networks | |
CN110163358B (zh) | 一种计算装置及方法 | |
CN109767000A (zh) | 基于Winograd算法的神经网络卷积方法及装置 | |
CN112449009B (zh) | 一种基于svd的联邦学习推荐系统通信压缩方法及装置 | |
CN103309893A (zh) | 一种字符串的比较方法及装置 | |
CN107220702B (zh) | 一种低计算能力处理设备的计算机视觉处理方法及装置 | |
CN112286864A (zh) | 加速可重构处理器运行的稀疏化数据处理方法及系统 | |
CN114138231B (zh) | 执行矩阵乘法运算的方法、电路及soc | |
CN110109646A (zh) | 数据处理方法、装置和乘加器及存储介质 | |
Nykolaychuk et al. | Theoretical foundations of the modified perfect form of residue number system | |
CN113222150A (zh) | 一种量子态的变换方法及装置 | |
CN111914987A (zh) | 基于神经网络的数据处理方法及装置、设备和可读介质 | |
CN112149047A (zh) | 数据的处理方法及装置、存储介质和电子装置 | |
CN116633526B (zh) | 一种数据处理方法、装置、设备及介质 | |
CN110728351A (zh) | 数据处理方法、相关设备及计算机存储介质 | |
WO2023124371A1 (zh) | 数据处理装置、方法、芯片、计算机设备及存储介质 | |
CN107256203A (zh) | 一种矩阵向量乘法的实现方法和装置 | |
CN110795227B (zh) | 一种区块链的数据处理方法及相关设备 | |
Datta et al. | Fast parallel algorithm for prefix computation in multi-mesh architecture | |
CN110059291A (zh) | 一种基于gpu的三阶低秩张量补全方法 | |
Kaveh et al. | Eigensolution of augmented graph products using shifted inverse iteration method | |
CN116737390B (zh) | 原子操作的处理方法、装置、电子设备和存储介质 | |
CN109726820A (zh) | 能源节点重要度的计算方法及装置、存储介质、电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200325 Address after: 101300, No. two, 1 road, Shunyi Park, Zhongguancun science and Technology Park, Beijing, Shunyi District Applicant after: BEIJING TUSENZHITU TECHNOLOGY Co.,Ltd. Address before: 101300, No. two, 1 road, Shunyi Park, Zhongguancun science and Technology Park, Beijing, Shunyi District Applicant before: TuSimple |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |