CN109272113A - 一种卷积神经网络的建立装置及方法 - Google Patents

一种卷积神经网络的建立装置及方法 Download PDF

Info

Publication number
CN109272113A
CN109272113A CN201811066153.0A CN201811066153A CN109272113A CN 109272113 A CN109272113 A CN 109272113A CN 201811066153 A CN201811066153 A CN 201811066153A CN 109272113 A CN109272113 A CN 109272113A
Authority
CN
China
Prior art keywords
characteristic pattern
input
convolution
weight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811066153.0A
Other languages
English (en)
Other versions
CN109272113B (zh
Inventor
杨志明
陈巍巍
杨超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Shenxin Intelligent Technology Co Ltd
Original Assignee
深思考人工智能机器人科技(北京)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深思考人工智能机器人科技(北京)有限公司 filed Critical 深思考人工智能机器人科技(北京)有限公司
Priority to CN201811066153.0A priority Critical patent/CN109272113B/zh
Publication of CN109272113A publication Critical patent/CN109272113A/zh
Application granted granted Critical
Publication of CN109272113B publication Critical patent/CN109272113B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Neurology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种卷积神经网络的建立装置及方法,根据特征图的数据量,在FPGA上设置了2~64个相同的卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中,将特征图中2~32个输入通道1个像素的数据同时输入到设置的卷积运算单元中;对于每个输入通道,由设置的卷积运算单元根据该输入通道对应的权值进行卷积运算,得到该输入通道的卷积值,然后累加所有输入通道的卷积值,再将累加的卷积值进行像素累加,最终得到经过了CNN运算的特征图,输出。这样,就采用FPGA简单实现了CNN的特征图的卷积神经运算。

Description

一种卷积神经网络的建立装置及方法
技术领域
本发明涉及嵌入式系统的大数据量深度学习计算领域,特别涉及一种采用现场可编程门阵列(FPGA)上实现卷积神经网络的建立装置及方法。
背景技术
卷积神经网络(CNN)是近年发展起来,并引起广泛重视的一种高效识别方法。特别是在模式分类领域,CNN由于避免了对特征图的复杂前期预处理,可以直接输入原始特征图,并得到最终的特征图的分类结果,因而得到了更为广泛的应用。由于CNN涉及运算的特征图的数据量大且运算复杂,一般都采用大型计算机编程实现,这会增加实现的难度及费用。
发明内容
有鉴于此,本发明实施例提供一种CNN的建立装置,该装置采用FPGA简单实现CNN的特征图的卷积神经运算。
本发明实施例还提供一种CNN的建立方法,该方法采用FPGA简单实现CNN的特征图的卷积神经运算。
本发明实施例是这样实现的:
一种卷积神经网络的建立装置,在现场可编程门阵列FPGA设置2~64个卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中包括:特征图输入缓存单元、特征图加载单元、卷积运算单元、权值缓存单元、权值加载单元、全输入通道累加单元、像素累加单元及特征图输出缓存单元;其中,
特征图输入缓存单元,用于缓存特征图,将2~32个输入通道的1个像素的特征图数据发送给特征图加载单元;
特征图加载单元,用于接收2~32个输入通道的1个像素的特征图数据,并寄存;
权值缓存单元,用于缓存2~32个输入通道对应的权值,并行发送给权值加载单元;
权值加载单元,用于并行接收对应16个输入通道的权值,并寄存;
卷积运算单元,用于根据从特征图加载单元接收的2~32个输入通道的1个像素的特征图数据,及从权值加载单元接收2~32个输入通道的对应权值,并行进行2~32个输入通道的1个像素的特征图数据的卷积累加运算,得到累加后的卷积值;
全输入通道累加单元,用于累加所有输入通道的卷积值,发送给像素累加单元;
像素累加单元,用于对全输入通道累加单元累加的所有输入通道的卷积值进行像素累加,最终得到经过卷积神经运算的特征图;
特征图输出缓存单元,用于接收经过卷积神经运算的特征图,并进行缓存。
一种卷积神经网络的建立方法,包括:
根据特征图的数据量,在FPGA上设置2~64个卷积计算模块,分别处理不同的输出通道;
在每个卷积计算模块中,将特征图中2~32个输入通道1个像素的数据同时输入到设置的卷积运算单元中;
对于每个输入通道,由设置的卷积运算单元根据该输入通道对应的权值进行卷积运算,得到该输入通道的卷积值,然后累加所有输入通道的卷积值;
将累加的卷积值进行像素累加,最终得到经过了CNN运算的特征图,输出。
如上可见,本发明实施例根据特征图的数据量,在FPGA上设置了2~64个相同的卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中,将特征图中2~32个输入通道1个像素的数据同时输入到设置的卷积运算单元中;对于每个输入通道,由设置的卷积运算单元根据该输入通道对应的权值进行卷积运算,得到该输入通道的卷积值,然后累加所有输入通道的卷积值,再将累加的卷积值进行像素累加,最终得到经过了CNN运算的特征图,输出。这样,就采用FPGA简单实现了CNN的特征图的卷积神经运算。
附图说明
图1为本发明实施例提供的CNN的建立装置结构示意图;
图2为本发明实施例提供的卷积计算模块结构示意图;
图3为本发明实施例提供的CNN的建立方法流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
为了简单且容易的情况下,实现CNN的卷积神经运算,本发明实施例采用FPGA实现,具体地,根据特征图的数据量,在FPGA上设置了2~64个相同的卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中,将特征图中2~32个输入通道1个像素的数据同时输入到设置的卷积运算单元中;对于每个输入通道,由设置的卷积运算单元根据该输入通道对应的权值进行卷积运算,得到该输入通道的卷积值,然后累加所有输入通道的卷积值,再将累加的卷积值进行像素累加,最终得到经过了CNN运算的特征图,输出。这样,就采用FPGA简单实现了CNN的特征图的卷积神经运算。
以下以具体采用32个卷积计算模块及16个输入通道对本发明实施例进行详细说明,但是需要注意的是,卷积计算模块的数量范围在2~64个,输入通道的数量范围在2~32个,这里并不限制。
图1为本发明实施例提供的CNN的建立装置结构示意图:在FPGA上设置相同的32个卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中包括:特征图输入缓存单元、特征图加载单元、卷积运算单元、权值缓存单元、权值加载单元、全输入通道累加单元、像素累加单元及特征图输出缓存单元;其中,
特征图输入缓存单元,用于缓存特征图,将16个输入通道的1个像素的特征图数据发送给特征图加载单元;
特征图加载单元,用于接收16个输入通道的1个像素的特征图数据,并寄存;
权值缓存单元,用于缓存16个输入通道对应的权值,并行发送给权值加载单元;
权值加载单元,用于并行接收对应16个输入通道的权值,并寄存;
卷积运算单元,用于根据从特征图加载单元接收的16个输入通道的1个像素的特征图数据,及从权值加载单元接收16个输入通道的对应权值,并行进行16个输入通道的1个像素的特征图数据的卷积累加运算,得到累加后的卷积值;
全输入通道累加单元,用于累加所有输入通道的卷积值,发送给像素累加单元;
像素累加单元,用于对全输入通道累加单元累加的所有输入通道的卷积值进行像素累加,最终得到经过卷积神经运算的特征图;
特征图输出缓存单元,用于接收经过卷积神经运算的特征图,并进行缓存。
在该装置中,所述特征图输入缓存单元采用在FPGA上的块随机存取存储器(BRAM)实现,具体由16个BRAM组成;特征图加载单元采用FPGA上的reg类型的寄存器实现,具体由16个reg类型的寄存器组成。
在该装置中,卷积运算单元采用设置在FPGA上的处理元件(PE)构成,所述PE具体是由数字信号处理(DSP)实现的,具体由16个PE组成。
在该装置中,权值缓存单元采用BRAM实现,具体由16个BRAM组成;权值加载单元采用FPGA上的reg类型的寄存器实现,具体由16个reg类型的寄存器组成;
在该装置中,特征图输出缓存单元采用BRAM实现。
图2为本发明实施例提供的卷积计算模块结构示意图,如图所示,其中,特征图输入缓存单元采用IBRAM表示,含义是特征图的BRAM,特征图加载单元采用IREG表示,含义是特征图的reg类型的寄存器;权值缓存单元采用WBRAM,含义是权值的BRAM,权值加载单元采用WREG表示,表示的是权值的reg类型的寄存器;卷积运算单元采用PE表示。
本发明实施例采用了32个卷积计算模块,同时处理32个输出通道,及每个卷积计算模块中进行16个输入通道的乘加运算,处理能力强大,可以处理任意大小的图片。
图3为本发明实施例提供的CNN的建立方法流程图,其具体步骤为:
步骤301、根据特征图的数据量,在FPGA上设置了32个相同的卷积计算模块,分别处理不同的输出通道;
步骤302、在每个卷积计算模块中,将特征图中16个输入通道1个像素的数据同时输入到设置的卷积运算单元中;
步骤303、对于每个输入通道,由设置的卷积运算单元根据该输入通道对应的权值进行卷积运算,得到该输入通道的卷积值,然后累加所有输入通道的卷积值;
步骤304、将累加的卷积值进行像素累加,最终得到经过了CNN运算的特征图,输出。
在该方法中,在步骤302之前,还包括:将16个输入通道的1个像素的特征图数据进行缓存后,发送给FPGA的reg类型寄存器寄存。
在该方法中,在步骤303之前,还包括获取该输入通道对应的权值过程:
16个输入通道对应的权值经过缓存后,发送给FPGA的reg类型权值寄存器寄存后,提供给卷积运算单元。
在该方法中,所述卷积运算单元采用设置在FPGA上的PE实现,具体采用DSP实现。
该方法还包括:输出后进行缓存,具体采用BRAM进行缓存。
可以看出,本发明实施例采用了FPGA简单实现了特征图的卷积神经网络运算,适用于深度学习芯片场景。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (9)

1.一种卷积神经网络的建立装置,其特征在于,在现场可编程门阵列FPGA设置2~64个卷积计算模块,分别处理不同的输出通道;在每个卷积计算模块中包括:特征图输入缓存单元、特征图加载单元、卷积运算单元、权值缓存单元、权值加载单元、全输入通道累加单元、像素累加单元及特征图输出缓存单元;其中,
特征图输入缓存单元,用于缓存特征图,将2~32个输入通道的1个像素的特征图数据发送给特征图加载单元;
特征图加载单元,用于接收2~32个输入通道的1个像素的特征图数据,并寄存;
权值缓存单元,用于缓存2~32个输入通道对应的权值,并行发送给权值加载单元;
权值加载单元,用于并行接收对应2~32个输入通道的权值,并寄存;
卷积运算单元,用于根据从特征图加载单元接收的2~32个输入通道的1个像素的特征图数据,及从权值加载单元接收2~32个输入通道的对应权值,并行进行2~32个输入通道的1个像素的特征图数据的卷积累加运算,得到累加后的卷积值;
全输入通道累加单元,用于累加所有输入通道的卷积值,发送给像素累加单元;
像素累加单元,用于对全输入通道累加单元累加的所有输入通道的卷积值进行像素累加,最终得到经过卷积神经运算的特征图;
特征图输出缓存单元,用于接收经过卷积神经运算的特征图,并进行缓存。
2.如权利要求1所述的装置,其特征在于,所述特征图输入缓存单元采用在FPGA上的块随机存取存储器BRAM;
所述特征图加载单元采用FPGA上的reg类型的寄存器实现。
3.如权利要求1所述的装置,其特征在于,所述卷积运算单元采用数字信号处理DSP实现。
4.如权利要求1所述的装置,其特征在于,所述权值缓存单元采用BRAM;
所述权值加载单元采用FPGA上的reg类型的寄存器;
所述特征图输出缓存单元采用BRAM。
5.一种卷积神经网络的建立方法,其特征在于,包括:
根据特征图的数据量,在FPGA上设置2~64个卷积计算模块,分别处理不同的输出通道;
在每个卷积计算模块中,将特征图中2~32个输入通道1个像素的数据同时输入到设置的卷积运算单元中;
对于每个输入通道,由设置的卷积运算单元根据该输入通道对应的权值进行卷积运算,得到该输入通道的卷积值,然后累加所有输入通道的卷积值;
将累加的卷积值进行像素累加,最终得到经过了CNN运算的特征图,输出。
6.如权利要求5所述的方法,其特征在于,在将特征图中2~32个输入通道1个像素的数据同时输入到设置的卷积运算单元中之前,还包括:
将2~32个输入通道的1个像素的特征图数据进行缓存后,发送给FPGA的reg类型寄存器寄存。
7.如权利要求5所述的方法,其特征在于,所述由设置的卷积运算单元根据该输入通道的权值进行卷积累加运算之前,该方法还包括获取该输入通道的权值过程:
2~32个输入通道对应的权值经过缓存后,发送给FPGA的reg类型权值寄存器寄存后,提供给卷积运算单元。
8.如权利要求5~7任一所述的方法,其特征在于,所述卷积运算单元采用DSP实现。
9.如权利要求5所述的方法,其特征在于,该方法还包括:输出后将经过卷积神经运算的特征图进行缓存。
CN201811066153.0A 2018-09-13 2018-09-13 一种基于通道的卷积神经网络建立装置及方法 Active CN109272113B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811066153.0A CN109272113B (zh) 2018-09-13 2018-09-13 一种基于通道的卷积神经网络建立装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811066153.0A CN109272113B (zh) 2018-09-13 2018-09-13 一种基于通道的卷积神经网络建立装置及方法

Publications (2)

Publication Number Publication Date
CN109272113A true CN109272113A (zh) 2019-01-25
CN109272113B CN109272113B (zh) 2022-04-19

Family

ID=65188904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811066153.0A Active CN109272113B (zh) 2018-09-13 2018-09-13 一种基于通道的卷积神经网络建立装置及方法

Country Status (1)

Country Link
CN (1) CN109272113B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814675A (zh) * 2020-07-08 2020-10-23 上海雪湖科技有限公司 基于fpga支持动态分辨率的卷积神经网络特征图组装系统
WO2022007266A1 (zh) * 2020-07-08 2022-01-13 嘉楠明芯(北京)科技有限公司 一种卷积神经网络的加速方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203621A (zh) * 2016-07-11 2016-12-07 姚颂 用于卷积神经网络计算的处理器
US20170200291A1 (en) * 2014-07-29 2017-07-13 Hitachi, Ltd. Magnetic resonance imaging apparatus and image reconstruction method
CN106951395A (zh) * 2017-02-13 2017-07-14 上海客鹭信息技术有限公司 面向压缩卷积神经网络的并行卷积运算方法及装置
CN107229969A (zh) * 2017-06-21 2017-10-03 郑州云海信息技术有限公司 一种基于fpga的卷积神经网络实现方法及装置
CN107992940A (zh) * 2017-12-12 2018-05-04 郑州云海信息技术有限公司 一种卷积神经网络在fpga上的实现方法及装置
CN108133270A (zh) * 2018-01-12 2018-06-08 清华大学 卷积神经网络加速方法及装置
CN108197705A (zh) * 2017-12-29 2018-06-22 国民技术股份有限公司 卷积神经网络硬件加速装置及卷积计算方法及存储介质
CN108375861A (zh) * 2018-04-14 2018-08-07 上海交通大学 可实现智能信号处理的高速高精度光模数转换装置和方法
US20180232621A1 (en) * 2017-02-10 2018-08-16 Kneron, Inc. Operation device and method for convolutional neural network
CN108416422A (zh) * 2017-12-29 2018-08-17 国民技术股份有限公司 一种基于fpga的卷积神经网络实现方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170200291A1 (en) * 2014-07-29 2017-07-13 Hitachi, Ltd. Magnetic resonance imaging apparatus and image reconstruction method
CN106203621A (zh) * 2016-07-11 2016-12-07 姚颂 用于卷积神经网络计算的处理器
US20180232621A1 (en) * 2017-02-10 2018-08-16 Kneron, Inc. Operation device and method for convolutional neural network
CN106951395A (zh) * 2017-02-13 2017-07-14 上海客鹭信息技术有限公司 面向压缩卷积神经网络的并行卷积运算方法及装置
CN107229969A (zh) * 2017-06-21 2017-10-03 郑州云海信息技术有限公司 一种基于fpga的卷积神经网络实现方法及装置
CN107992940A (zh) * 2017-12-12 2018-05-04 郑州云海信息技术有限公司 一种卷积神经网络在fpga上的实现方法及装置
CN108197705A (zh) * 2017-12-29 2018-06-22 国民技术股份有限公司 卷积神经网络硬件加速装置及卷积计算方法及存储介质
CN108416422A (zh) * 2017-12-29 2018-08-17 国民技术股份有限公司 一种基于fpga的卷积神经网络实现方法及装置
CN108133270A (zh) * 2018-01-12 2018-06-08 清华大学 卷积神经网络加速方法及装置
CN108375861A (zh) * 2018-04-14 2018-08-07 上海交通大学 可实现智能信号处理的高速高精度光模数转换装置和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DONG WANG等: "PipeCNN:An OpenCL-based FPGA accelerator for large-scale convolution neuron networks", 《ARXIV》 *
杨薇: "卷积神经网络的FPGA并行结构研究", 《数字技术与应用》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814675A (zh) * 2020-07-08 2020-10-23 上海雪湖科技有限公司 基于fpga支持动态分辨率的卷积神经网络特征图组装系统
WO2022007266A1 (zh) * 2020-07-08 2022-01-13 嘉楠明芯(北京)科技有限公司 一种卷积神经网络的加速方法及装置
CN111814675B (zh) * 2020-07-08 2023-09-29 上海雪湖科技有限公司 基于fpga支持动态分辨率的卷积神经网络特征图组装系统

Also Published As

Publication number Publication date
CN109272113B (zh) 2022-04-19

Similar Documents

Publication Publication Date Title
CN109214506A (zh) 一种卷积神经网络的建立装置及方法
US10459876B2 (en) Performing concurrent operations in a processing element
CN110050267B (zh) 用于数据管理的系统和方法
US10445638B1 (en) Restructuring a multi-dimensional array
CN107871163A (zh) 用于卷积神经网络的操作装置及方法
CN110263925B (zh) 一种基于fpga的卷积神经网络前向预测的硬件加速实现装置
CN108090093B (zh) 生成推荐结果的方法和装置
CN106203617B (zh) 一种基于卷积神经网络的加速处理单元及阵列结构
CN108009626A (zh) 利用神经网络计算单元中的输入数据稀疏
CN106126481A (zh) 一种计算引擎和电子设备
CN108564168A (zh) 一种对支持多精度卷积神经网络处理器的设计方法
CN106951926A (zh) 一种混合架构的深度学习系统方法及装置
US20240020514A1 (en) Improper neural network input detection and handling
CN109272113A (zh) 一种卷积神经网络的建立装置及方法
CN101650706B (zh) Fft分支计算方法及装置
CN108647774A (zh) 一种优化稀疏性矩阵运算的神经网络方法和电路
CN112446544A (zh) 交通流预测模型训练方法、装置、电子设备及存储介质
CN101086729A (zh) 一种基于fpga的动态可重构高性能运算方法与装置
KR20180125843A (ko) (국문)다양한 cnn 모델에 적용 가능한 하드웨어 분류기
CN108960960A (zh) 一种处理高并发数据的方法及服务器
CN114792378A (zh) 一种量子图像识别方法及装置
CN102567254B (zh) 采用dma控制器进行数据归一化处理的方法
Lin et al. Hard-odt: Hardware-friendly online decision tree learning algorithm and system
CN109117352B (zh) 服务器性能预测方法和装置
Lee et al. Memory‐efficient SURF architecture for ASIC implementation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190619

Address after: B203-205, Block B, Zhongguancun Development Building, 12 Information Road, Haidian District, Beijing, 100085

Applicant after: Deep thinking artificial intelligence robot technology (Beijing) Co., Ltd.

Applicant after: Shanghai Shenxin Intelligent Technology Co., Ltd.

Address before: 100084 B203, Zone B, Zhongguancun Development Building, 12 Shangdi Information Road, Haidian District, Beijing

Applicant before: Deep thinking artificial intelligence robot technology (Beijing) Co., Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: B203-205, Block B, Zhongguancun Development Building, 12 Information Road, Haidian District, Beijing, 100085

Applicant after: IDEEPWISE ARTIFICIAL INTELLIGENCE ROBOT TECHNOLOGY (BEIJING) Co.,Ltd.

Applicant after: Deep thinking of artificial intelligence technology (Shanghai) Co.,Ltd.

Address before: B203-205, Block B, Zhongguancun Development Building, 12 Information Road, Haidian District, Beijing, 100085

Applicant before: IDEEPWISE ARTIFICIAL INTELLIGENCE ROBOT TECHNOLOGY (BEIJING) Co.,Ltd.

Applicant before: Shanghai Shenxin Intelligent Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant