CN109214506A - 一种卷积神经网络的建立装置及方法 - Google Patents

一种卷积神经网络的建立装置及方法 Download PDF

Info

Publication number
CN109214506A
CN109214506A CN201811066203.5A CN201811066203A CN109214506A CN 109214506 A CN109214506 A CN 109214506A CN 201811066203 A CN201811066203 A CN 201811066203A CN 109214506 A CN109214506 A CN 109214506A
Authority
CN
China
Prior art keywords
characteristic pattern
unit
pixel
weight
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811066203.5A
Other languages
English (en)
Other versions
CN109214506B (zh
Inventor
杨志明
杨超
陈巍巍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Shenxin Intelligent Technology Co Ltd
Original Assignee
深思考人工智能机器人科技(北京)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深思考人工智能机器人科技(北京)有限公司 filed Critical 深思考人工智能机器人科技(北京)有限公司
Priority to CN201811066203.5A priority Critical patent/CN109214506B/zh
Publication of CN109214506A publication Critical patent/CN109214506A/zh
Application granted granted Critical
Publication of CN109214506B publication Critical patent/CN109214506B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Abstract

本发明公开了一种卷积神经网络的建立装置及方法,根据特征图的数据量,在FPGA上设置了2~64个相同的卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中,将特征图的9个像素输入到设置的卷积运算单元中;对于每个像素,由设置的卷积运算单元根据该像素对应权值进行卷积运算,得到该像素的卷积值;然后对特征图的9个像素的卷积值进行像素累加;再将像素累加后的卷积值进行输入通道累加;最终得到经过了CNN运算的特征图,输出。这样,就采用FPGA简单实现了CNN的特征图的卷积神经运算。

Description

一种卷积神经网络的建立装置及方法
技术领域
本发明涉及嵌入式系统的大数据量深度学习计算领域,特别涉及一种采用现场可编程门阵列(FPGA)上实现卷积神经网络的建立装置及方法。
背景技术
卷积神经网络(CNN)是近年发展起来,并引起广泛重视的一种高效识别方法。特别是在模式分类领域,CNN由于避免了对特征图的复杂前期预处理,可以直接输入原始特征图,并得到最终的特征图的分类结果,因而得到了更为广泛的应用。由于CNN涉及运算的特征图的数据量大且运算复杂,一般都采用大型计算机编程实现,这会增加实现的难度及费用。
发明内容
有鉴于此,本发明实施例提供一种CNN的建立装置,该装置采用FPGA简单实现CNN的特征图的卷积神经运算。
本发明实施例还提供一种CNN的建立方法,该方法采用FPGA简单实现CNN的特征图的卷积神经运算。
本发明实施例是这样实现的:
一种卷积神经网络的建立装置,在现场可编程门阵列FPGA设置2~64个卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中包括:特征图输入缓存单元、特征图加载单元、特征图重排序单元、卷积运算单元、权值缓存单元及权值加载单元、输入通道累加单元及特征图输出缓存单元;其中,
特征图输入缓存单元,用于缓存特征图,将特征图的9个像素并行发送给特征图加载单元;
特征图加载单元,用于并行接收特征图中的9个像素并寄存;
特征图重排序单元,用于从特征图加载单元中接收特征图中的9个像素,并按照卷积计算所采用的像素顺序进行重排序;
权值缓存单元,用于缓存9个像素对应的权值,并行发送给权值加载单元;
权值加载单元,用于并行接收对应9个像素的权值并寄存;
卷积运算单元,用于根据从特征图重排序单元提取的重排序的9个像素,及从权值加载单元接收对应于9个像素的权值,并行进行9个像素的卷积累加运算,得到像素累加后的卷积值,输出到输入通道累加单元;
输入通道累加单元,用于对卷积运算单元输出的像素累加后的卷积值进行输入通道累加,最终得到经过卷积神经运算的特征图;
特征图输出缓存单元,用于接收经过卷积神经运算的特征图,并进行缓存。
一种卷积神经网络的建立方法,包括:
根据特征图的数据量,在FPGA上设置了2~64个卷积计算模块,分别处理不同的输出通道;
在每个卷积计算模块中,将特征图的9像素输入到设置的卷积运算单元中;
对于每个像素,由设置的卷积运算单元根据该像素对应的权值进行卷积运算,得到该像素的卷积值后,对9个像素的卷积值进行像素累加;
将像素累加后的卷积值进行输入通道累加,最终得到经过了CNN运算的特征图,输出。
如上可见,本发明实施例根据特征图的数据量,在FPGA上设置了2~64个相同的卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中,将特征图的9个像素输入到设置的卷积运算单元中;对于每个像素,由设置的卷积运算单元根据该像素对应权值进行卷积运算,得到该像素的卷积值;然后对特征图的9个像素的卷积值进行像素累加;再将像素累加后的卷积值进行输入通道累加;最终得到经过了CNN运算的特征图,输出。这样,就采用FPGA简单实现了CNN的特征图的卷积神经运算。
附图说明
图1为本发明实施例提供的CNN的建立装置结构示意图;
图2为本发明实施例提供的卷积计算模块结构示意图;
图3为本发明实施例提供的CNN的建立方法流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
为了简单且容易的情况下,实现CNN的卷积神经运算,本发明实施例采用FPGA实现,具体地,根据特征图的数据量,在FPGA上设置了2~64个相同的卷积计算模块;在每个卷积计算模块中,将特征图的9个像素输入到设置的卷积运算单元中;对于每个像素,由设置的卷积运算单元根据该像素对应权值进行卷积运算,得到该像素的卷积值;然后对特征图的9个像素的卷积值进行像素累加;再将像素累加后的卷积值进行输入通道累加;最终得到经过了CNN运算的特征图,输出。这样,就采用FPGA简单实现了CNN的特征图的卷积神经运算,简单且降低费用。
以下以具体采用32个卷积计算模块对本发明实施例进行详细说明,但是需要注意的是,卷积计算模块的数量范围在2~64个,这里并不限制。
图1为本发明实施例提供的CNN的建立装置结构示意图:在FPGA上设置的32个相同的卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中包括:特征图输入缓存单元、特征图加载单元、特征图重排序单元、卷积运算单元、权值缓存单元及权值加载单元、输入通道累加单元及特征图输出缓存单元;其中,
特征图输入缓存单元,用于缓存特征图,将特征图的9个像素并行发送给特征图加载单元;
特征图加载单元,用于并行接收特征图中的9个像素并寄存;
特征图重排序单元,用于从特征图加载单元中接收特征图中的9个像素,并按照卷积计算所采用的像素顺序进行重排序;
权值缓存单元,用于缓存9个像素对应的权值,并行发送给权值加载单元;
权值加载单元,用于并行接收对应9个像素的权值并寄存;
卷积运算单元,用于根据从特征图重排序单元提取的重排序的9个像素,及从权值加载单元接收对应于9个像素的权值,并行进行9个像素的卷积累加运算,得到像素累加后的卷积值,输出到输入通道累加单元;
输入通道累加单元,用于对卷积运算单元输出的像素累加后的卷积值进行输入通道累加,最终得到经过卷积神经运算的特征图;
特征图输出缓存单元,用于接收经过卷积神经运算的特征图,并进行缓存。
在该装置中,所述特征图输入缓存单元在每个卷积计算模块中有16个,采用在FPGA上的块随机存取存储器(BRAM)实现,特征图加载单元采用FPGA上的reg类型的寄存器实现,具体由9个reg类型的寄存器构成。
在该装置中,卷积运算单元采用设置在FPGA上的处理元件(PE)构成,所述PE是由数字信号处理(DSP)实现,具体卷积运算单元由9个PE构成。
在该装置中,权值缓存单元采用BRAM实现,具体由9个BRAM构成,权值加载单元采用FPGA上的reg类型的寄存器实现,具体由9个reg类型的寄存器实现。
在该装置中,特征图输出缓存单元采用BRAM实现。
图2为本发明实施例提供的卷积计算模块结构示意图,如图所示,其中,特征图输入缓存单元采用IBRAM表示,含义是特征图的BRAM,特征图加载单元采用IREG表示,含义是特征图的reg类型的寄存器;权值缓存单元采用WBRAM,含义是权值的BRAM,权值加载单元采用WREG表示,表示的是权值的reg类型的寄存器;卷积运算单元采用PE表示。
本发明实施例采用了32个卷积计算模块,同时处理32个输出通道及每个卷积计算模块可同时进行9个像素点的乘加运算,处理能力强大,可以处理任意大小的图片。
图3为本发明实施例提供的CNN的建立方法流程图,其具体步骤为:
步骤301、根据特征图的数据量,在FPGA上设置了32个相同的卷积计算模块,分别处理不同的输出通道;
步骤302、在每个卷积计算模块中,将特征图的9像素输入到设置的卷积运算单元中;
步骤303、对于每个像素,由设置的卷积运算单元根据该像素对应的权值进行卷积运算,得到该像素的卷积值后,对9个像素的卷积值进行像素累加;
步骤304、将像素累加后的卷积值进行输入通道累加,最终得到经过了CNN运算的特征图,输出。
在该方法中,在步骤302之前,还包括:所述特征图的9个像素经过缓存后,再发送给FPGA的reg类型寄存器寄存及按照卷积计算所采用的像素顺序重排序。
在该方法中,在步骤303之前,还包括获取对应9个像素的权值过程:
9个像素对应的权值经过缓存后,再发送给FPGA的reg类型权值寄存器寄存后,提供给卷积运算单元进行卷积运算。
在该方法中,所述卷积运算单元采用设置在FPGA上的PE实现,具体是采用DSP实现。
该方法还包括:输出后将经过了CNN运算的特征图进行缓存,具体采用BRAM进行缓存。
可以看出,本发明实施例采用了FPGA实现了特征图的卷积神经网络运算,适用于深度学习芯片场景。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (9)

1.一种卷积神经网络的建立装置,其特征在于,在现场可编程门阵列FPGA设置2~64个卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中包括:特征图输入缓存单元、特征图加载单元、特征图重排序单元、卷积运算单元、权值缓存单元及权值加载单元、输入通道累加单元及特征图输出缓存单元;其中,
特征图输入缓存单元,用于缓存特征图,将特征图的9个像素并行发送给特征图加载单元;
特征图加载单元,用于并行接收特征图中的9个像素并寄存;
特征图重排序单元,用于从特征图加载单元中接收特征图中的9个像素,并按照卷积计算所采用的像素顺序进行重排序;
权值缓存单元,用于缓存9个像素对应的权值,并行发送给权值加载单元;
权值加载单元,用于并行接收对应9个像素的权值并寄存;
卷积运算单元,用于根据从特征图重排序单元提取的重排序的9个像素,及从权值加载单元接收对应于9个像素的权值,并行进行9个像素的卷积累加运算,得到像素累加后的卷积值,输出到输入通道累加单元;
输入通道累加单元,用于对卷积运算单元输出的像素累加后的卷积值进行输入通道累加,最终得到经过卷积神经运算的特征图;
特征图输出缓存单元,用于接收经过卷积神经运算的特征图,并进行缓存。
2.如权利要求1所述的装置,其特征在于,所述特征图输入缓存单元采用FPGA中的块随机存取存储器BRAM;
所述特征图加载单元采用FPGA上的reg类型的寄存器实现。
3.如权利要求1所述的装置,其特征在于,所述卷积运算单元采用数字信号处理DSP实现。
4.如权利要求1所述的装置,其特征在于,所述权值缓存单元采用BRAM;
所述权值加载单元采用FPGA上的reg类型的寄存器;
所述特征图输出缓存单元采用BRAM。
5.一种卷积神经网络的建立方法,其特征在于,包括:
根据特征图的数据量,在FPGA上设置了2~64个卷积计算模块,分别处理不同的输出通道;
在每个卷积计算模块中,将特征图的9像素输入到设置的卷积运算单元中;
对于每个像素,由设置的卷积运算单元根据该像素对应的权值进行卷积运算,得到该像素的卷积值后,对9个像素的卷积值进行像素累加;
将像素累加后的卷积值进行输入通道累加,最终得到经过了CNN运算的特征图,输出。
6.如权利要求5所述的方法,其特征在于,在所述将特征图的9像素输入到设置的卷积运算单元中之前,还包括:
所述特征图的9个像素经过缓存后,再发送给FPGA的reg类型寄存器寄存及按照卷积计算所采用的像素顺序重排序。
7.如权利要求5所述的方法,其特征在于,所述由设置的卷积运算单元根据该像素对应的权值及特征图进行卷积运算之前,还包括获取对应9个像素的权值过程:
9个像素对应的权值经过缓存后,再发送给FPGA的reg类型权值寄存器寄存后,提供给卷积运算单元进行卷积计算。
8.如权利要求5~7任一所述的方法,其特征在于,所述卷积运算单元采用DSP实现。
9.如权利要求5所述的方法,其特征在于,该方法还包括:输出后将经过卷积神经运算的特征图进行缓存。
CN201811066203.5A 2018-09-13 2018-09-13 一种基于像素的卷积神经网络建立装置及方法 Active CN109214506B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811066203.5A CN109214506B (zh) 2018-09-13 2018-09-13 一种基于像素的卷积神经网络建立装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811066203.5A CN109214506B (zh) 2018-09-13 2018-09-13 一种基于像素的卷积神经网络建立装置及方法

Publications (2)

Publication Number Publication Date
CN109214506A true CN109214506A (zh) 2019-01-15
CN109214506B CN109214506B (zh) 2022-04-15

Family

ID=64983576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811066203.5A Active CN109214506B (zh) 2018-09-13 2018-09-13 一种基于像素的卷积神经网络建立装置及方法

Country Status (1)

Country Link
CN (1) CN109214506B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858622A (zh) * 2019-01-31 2019-06-07 福州瑞芯微电子股份有限公司 深度学习神经网络的数据搬运电路和方法
CN110399591A (zh) * 2019-06-28 2019-11-01 苏州浪潮智能科技有限公司 基于卷积神经网络的数据处理方法和装置
WO2021115149A1 (zh) * 2019-12-09 2021-06-17 Oppo广东移动通信有限公司 神经网络处理器、芯片和电子设备
WO2021115208A1 (zh) * 2019-12-09 2021-06-17 Oppo广东移动通信有限公司 神经网络处理器、芯片和电子设备
CN113313228A (zh) * 2020-02-26 2021-08-27 杭州知存智能科技有限公司 数据缓存电路和方法
US11216375B2 (en) 2020-02-26 2022-01-04 Hangzhou Zhicun Intelligent Technology Co., Ltd. Data caching

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029471A1 (en) * 2009-07-30 2011-02-03 Nec Laboratories America, Inc. Dynamically configurable, multi-ported co-processor for convolutional neural networks
CN106228240A (zh) * 2016-07-30 2016-12-14 复旦大学 基于fpga的深度卷积神经网络实现方法
CN106355244A (zh) * 2016-08-30 2017-01-25 深圳市诺比邻科技有限公司 卷积神经网络的构建方法及系统
US9665799B1 (en) * 2016-01-29 2017-05-30 Fotonation Limited Convolutional neural network
CN107003988A (zh) * 2014-12-19 2017-08-01 英特尔公司 用于执行卷积运算的存储设备和方法
US20180046894A1 (en) * 2016-08-12 2018-02-15 DeePhi Technology Co., Ltd. Method for optimizing an artificial neural network (ann)
CN107992940A (zh) * 2017-12-12 2018-05-04 郑州云海信息技术有限公司 一种卷积神经网络在fpga上的实现方法及装置
CN108090496A (zh) * 2017-12-22 2018-05-29 银河水滴科技(北京)有限公司 基于卷积神经网络的图像处理的方法和装置
CN108154229A (zh) * 2018-01-10 2018-06-12 西安电子科技大学 基于fpga加速卷积神经网络框架的图片处理方法
CN108416422A (zh) * 2017-12-29 2018-08-17 国民技术股份有限公司 一种基于fpga的卷积神经网络实现方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029471A1 (en) * 2009-07-30 2011-02-03 Nec Laboratories America, Inc. Dynamically configurable, multi-ported co-processor for convolutional neural networks
CN107003988A (zh) * 2014-12-19 2017-08-01 英特尔公司 用于执行卷积运算的存储设备和方法
US9665799B1 (en) * 2016-01-29 2017-05-30 Fotonation Limited Convolutional neural network
CN106228240A (zh) * 2016-07-30 2016-12-14 复旦大学 基于fpga的深度卷积神经网络实现方法
US20180046894A1 (en) * 2016-08-12 2018-02-15 DeePhi Technology Co., Ltd. Method for optimizing an artificial neural network (ann)
CN106355244A (zh) * 2016-08-30 2017-01-25 深圳市诺比邻科技有限公司 卷积神经网络的构建方法及系统
CN107992940A (zh) * 2017-12-12 2018-05-04 郑州云海信息技术有限公司 一种卷积神经网络在fpga上的实现方法及装置
CN108090496A (zh) * 2017-12-22 2018-05-29 银河水滴科技(北京)有限公司 基于卷积神经网络的图像处理的方法和装置
CN108416422A (zh) * 2017-12-29 2018-08-17 国民技术股份有限公司 一种基于fpga的卷积神经网络实现方法及装置
CN108154229A (zh) * 2018-01-10 2018-06-12 西安电子科技大学 基于fpga加速卷积神经网络框架的图片处理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MULUKEN HAILESELLASIE等: "A fast FPGA-based deep convolutional neural network using pseudo parallel memories", 《2017 IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS (ISCAS)》 *
YURAN QIAO等: "Optimizing OpenCL Implementation of Deep Convolutional Neural Network on FPGA", 《IFIP INTERNATIONAL CONFERENCE ON NETWORK AND PARALLEL COMPUTING》 *
方睿等: "卷积神经网络的FPGA并行加速方案设计", 《计算机工程与应用》 *
杨薇: "卷积神经网络的FPGA并行结构研究", 《数字技术与应用》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858622A (zh) * 2019-01-31 2019-06-07 福州瑞芯微电子股份有限公司 深度学习神经网络的数据搬运电路和方法
CN109858622B (zh) * 2019-01-31 2021-03-02 瑞芯微电子股份有限公司 深度学习神经网络的数据搬运电路和方法
CN110399591A (zh) * 2019-06-28 2019-11-01 苏州浪潮智能科技有限公司 基于卷积神经网络的数据处理方法和装置
CN110399591B (zh) * 2019-06-28 2021-08-31 苏州浪潮智能科技有限公司 基于卷积神经网络的数据处理方法和装置
WO2021115149A1 (zh) * 2019-12-09 2021-06-17 Oppo广东移动通信有限公司 神经网络处理器、芯片和电子设备
WO2021115208A1 (zh) * 2019-12-09 2021-06-17 Oppo广东移动通信有限公司 神经网络处理器、芯片和电子设备
CN113313228A (zh) * 2020-02-26 2021-08-27 杭州知存智能科技有限公司 数据缓存电路和方法
WO2021168944A1 (zh) * 2020-02-26 2021-09-02 杭州知存智能科技有限公司 数据缓存电路和方法
US11216375B2 (en) 2020-02-26 2022-01-04 Hangzhou Zhicun Intelligent Technology Co., Ltd. Data caching

Also Published As

Publication number Publication date
CN109214506B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
CN109214506A (zh) 一种卷积神经网络的建立装置及方法
EP3746945B1 (en) Improving performance of neural network arrays
US10445638B1 (en) Restructuring a multi-dimensional array
CN110050267B (zh) 用于数据管理的系统和方法
JP6946572B2 (ja) 加速された量子化積和演算
US20230014783A1 (en) Processing for multiple input data sets
Cavigelli et al. Origami: A convolutional network accelerator
CN106599989B (zh) 神经网络单元和神经处理单元阵列
CN108416422A (zh) 一种基于fpga的卷积神经网络实现方法及装置
US9858220B2 (en) Computing architecture with concurrent programmable data co-processor
CN108108809A (zh) 一种针对卷积神经元网络进行推理加速的硬件架构及其工作方法
WO2017180712A2 (en) Method, system and program product for mask-based compression of a sparse matrix
CN110097174A (zh) 基于fpga和行输出优先的卷积神经网络实现方法、系统及装置
CN108564168A (zh) 一种对支持多精度卷积神经网络处理器的设计方法
CN108647774A (zh) 一种优化稀疏性矩阵运算的神经网络方法和电路
Chen et al. StereoEngine: An FPGA-based accelerator for real-time high-quality stereo estimation with binary neural network
Dundar et al. Memory access optimized routing scheme for deep networks on a mobile coprocessor
CN109446996A (zh) 基于fpga的人脸识别数据处理装置及处理方法
CN109272113A (zh) 一种卷积神经网络的建立装置及方法
CN101650706A (zh) Fft分支计算方法及装置
CN105955896B (zh) 一种可重构dbf算法硬件加速器及控制方法
CN108764182A (zh) 一种优化的用于人工智能的加速方法和装置
CN112988229B (zh) 基于异构计算的卷积神经网络资源优化配置方法
Lian A framework for FPGA-based acceleration of neural network inference with limited numerical precision via high-level synthesis with streaming functionality
Kim et al. Binarized encoder-decoder network and binarized deconvolution engine for semantic segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190619

Address after: B203-205, Block B, Zhongguancun Development Building, 12 Information Road, Haidian District, Beijing, 100085

Applicant after: Deep thinking artificial intelligence robot technology (Beijing) Co., Ltd.

Applicant after: Shanghai Shenxin Intelligent Technology Co., Ltd.

Address before: 100084 B203, Zone B, Zhongguancun Development Building, 12 Shangdi Information Road, Haidian District, Beijing

Applicant before: Deep thinking artificial intelligence robot technology (Beijing) Co., Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: B203-205, Block B, Zhongguancun Development Building, 12 Information Road, Haidian District, Beijing, 100085

Applicant after: IDEEPWISE ARTIFICIAL INTELLIGENCE ROBOT TECHNOLOGY (BEIJING) Co.,Ltd.

Applicant after: Deep thinking of artificial intelligence technology (Shanghai) Co.,Ltd.

Address before: B203-205, Block B, Zhongguancun Development Building, 12 Information Road, Haidian District, Beijing, 100085

Applicant before: IDEEPWISE ARTIFICIAL INTELLIGENCE ROBOT TECHNOLOGY (BEIJING) Co.,Ltd.

Applicant before: Shanghai Shenxin Intelligent Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant