CN106600652A - 一种基于人工神经网络的全景摄像头定位方法 - Google Patents
一种基于人工神经网络的全景摄像头定位方法 Download PDFInfo
- Publication number
- CN106600652A CN106600652A CN201611257515.5A CN201611257515A CN106600652A CN 106600652 A CN106600652 A CN 106600652A CN 201611257515 A CN201611257515 A CN 201611257515A CN 106600652 A CN106600652 A CN 106600652A
- Authority
- CN
- China
- Prior art keywords
- human body
- image
- observed image
- pixel
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 3
- 241000949477 Toona ciliata Species 0.000 claims description 2
- 238000011410 subtraction method Methods 0.000 abstract description 3
- 238000007781 pre-processing Methods 0.000 abstract 2
- 230000004807 localization Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于人工神经网络的全景摄像头定位方法,在全景摄像头覆盖区域选择位置坐标已知的训练点,利用全景摄像头获得一定数量的训练图像,对其预处理后利用背景减除法检测得到观测图像上的人体目标,并搜索最能代表人体目标位置的像素,得到该像素在观测图像上的位置坐标,利用观测图像像素的位置作为ANN的输入,真实的位置作为输出,训练ANN,建立坐标映射模型。在线定位时,对观测图像做相同的预处理,利用背景减除法识别人体并搜索人体位置像素点的位置,将其输入已建立的坐标映射模型,估计出人体目标真实的位置坐标。本发明不需要用户携带任何设备,仅需要在待定位区域内布置一个全景摄像头,就能够达到亚米级的定位精度。
Description
技术领域
本发明属于室内定位技术领域,特别涉及了一种基于人工神经网络的全景摄像头定位方法。
背景技术
随着移动计算的发展和智能终端的不断普及,基于位置的服务在人们的生活中扮演了重要的角色,可以为物品定位和跟踪、交通调度、社交网络、紧急救援等应用中提供位置信息。据统计,人们平均每天有大部分时间在室内度过,但是由于楼体对卫星信号的遮挡以及室内复杂环境对无线信号的影响,使得常用于室外定位的卫星定位系统通常在室内环境无法使用,蜂窝网络定位产生的误差相对于室内环境也过大。因此,人们开发出了基于不同技术的室内定位系统,例如:基于超声波、蓝牙、超宽带、红外线、Wi-Fi和视觉的定位系统等。
在这些定位系统中,基于Wi-Fi的室内定位系统因其可利用广泛布置在室内环境的Wi-Fi接入点(Access Point,AP)以及广泛普及的智能终端而受到青睐,这种定位系统无需增加任何硬件设备,仅需要软件升级即可实现定位功能,节省系统建立的时间和成本。但是,其缺点是使用者必须携带终端设备接收AP发射的信号强度,从而实现位置坐标的计算。这使得当定位目标无法或者不方便携带终端设备时,就无法应用,例如:对于老年人和儿童的定位。与此同时,近年来在人们生活中同样广泛布置的视频监控设备却为免携带设备目标定位创造了条件。利用为监控和安全考虑而布置的摄像头实现人体定位,使人们不再需要携带终端设备。
发明内容
为了解决上述背景技术提出的技术问题,本发明旨在提供一种基于人工神经网络的全景摄像头定位方法,不需要用户携带任何设备,仅需要在待定位区域内布置一个全景摄像头,就能够达到亚米级的定位精度。
为了实现上述技术目的,本发明的技术方案为:
一种基于人工神经网络的全景摄像头定位方法,包括以下步骤:
(1)在待定位的室内区域的中心位置安装全景摄像头;
(2)离线阶段,在全景摄像头的拍摄覆盖区域内选择位置坐标已知的若干训练点,当用户位于这些训练点时,利用全景摄像头获取M个观测图像作为训练样本,M个观测图像对应的训练点的坐标为
(3)对M个观测图像进行预处理,建立观测图像的背景图像模型;
(4)根据背景图像模型,判定观测图像上的像素点是否属于人体目标,遍历所有像素点,实现对人体目标的检测;
(5)在属于人体目标的像素点集合中搜索作为用户在观测图像上的位置坐标
(6)将坐标与用户真实坐标分别作为人工神经网络的输入和输出,训练坐标映射模型,即得到坐标到坐标的映射f;
(7)在线阶段,利用全景摄像头获取观测图像作为测试样本,经步骤(3)、(4)、(5)后,从检测出的人体目标中搜索出作为用户在观测图像上的位置坐标将该坐标输入所训练的映射f,即得到定位坐标
进一步地,在步骤(3)中,所述预处理包括调整大小和角度、灰度化以及反色处理。
进一步地,在步骤(3)中,建立观测图像的背景图像模型的过程如下:
设观测图像经过预处理后的图像序列为{F1,F2,…,Ft},计算观测图像上位置(x,y)的像素值Bt(x,y):
上式中,Ft-k(x,y)为图像Ft-k上位置(x,y)处的像素值,L为用于计算背景图像所用的观测图像的数量;
根据上式,遍历所有像素点,即得到背景图像Bt。
进一步地,步骤(4)的具体过程如下:
设为观测图像上位置(x,y)处的像素值,由下式判定位置(x,y)处的像素点是否属于上的人体目标:
上式中,T为设定的检测门限;
若上式满足,则判定位置(x,y)处的像素点属于人体目标,否则判定其为背景像素。
进一步地,步骤(5)的具体过程如下:
设属于人体目标的像素点在观测图像上的位置为R为人体目标包含的像素点数目,(xCam,yCam)为全景摄像头中心在观测图像上的位置,计算与(xCam,yCam)的欧几里得距离其中最小所对应的即为坐标
采用上述技术方案带来的有益效果:
本发明所提出的基于人工神经网络(Artificial Neural Network,ANN)的全景摄像头定位方法,利用用于监控的全景摄像头在其覆盖区域内实现定位功能,可有效节省定位系统建设的成本。同时,该定位方法不但能在人体目标不携带设备的情况下对其定位,而且还能达到亚米级的定位精度。
附图说明
图1是本发明的流程图。
图2是本发明人工神经网络的结构图。
图3是实施例的实验楼层示意图。
图4是本发明的实验结果示意图,包括(a)、(b)、(c)三幅图,图(a)为观测图像的背景图像,图(b)为检测到的人体目标图,图(c)为定位结果图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
一种基于人工神经网络的全景摄像头定位方法,如图1所示,步骤如下:
步骤1:首先在待定位房间的中心位置布置全景摄像头。并且该摄像头通过无线或有线的方式与上位机相连。
步骤2:在离线阶段,在全景摄像头覆盖区域内选择位置坐标已知的训练点,当用户位于这些训练点时,利用全景摄像头获得M个观测图像作为训练样本,M个观测图像对应的训练点的坐标为
步骤3:对M个观测图像进行预处理,即调整大小和角度、灰度化以及反色处理。采用背景减除法减除人体目标,该方法需要首先建立背景模型。在背景建模的过程中,设观测图像经过图像预处理后的灰度图像序列为{F1,F2,…,Ft}和Bt(x,y)为在观测图像上位置(x,y)处的像素值,那么Bt(x,y)可由下式计算:
其中,Ft-k(x,y)为在图像Ft-k上位置(x,y)处的像素值;L为用于计算背景图像所用的观测图像数量。利用上式计算所有像素点的值,即可得到背景图像Bt。
步骤4:设当训练图像被检测时,设为在该图像上位置(x,y)处的像素值,则可由下式判定在位置(x,y)处的像素点是否属于前景目标:
其中,T为检测门限,用于判定像素是否属于前景目标。如果上式被满足,则判定位置(x,y)处的像素点属于前景目标(即人体目标),否则判定其为背景像素。当所有像素点都被判定后,即实现对人体目标的检测。
步骤5:设所检测的人体目标包含R个像素点,为前景像素点在观测图像上的位置和(xCam,yCam)为全景摄像头中心在观测图像上的位置。由于本方法采用的全景摄像头布置在监控区域的中心位置,跟据全景摄像头成像原理,用户脚部也即用户所站的位置最接近全景图像的中心。因此,可计算每个前景像素点位置与(xCam,yCam)的欧几里得距离将最小欧几里得距离所对应的像素点作为用户在观测图像上的位置像素点,其坐标为该过程可由下式表示:
步骤6:将坐标与用户真实坐标分别作为人工神经网络(如图2所示)的输入和输出,训练坐标映射模型,即得到坐标到坐标的映射f,即
步骤7:在线定位时,全景摄像头获取观测图像作为测试样本,按照步骤3、4、5的过程,可得到在观测图像上被检测人体目标的像素点位置输入所训练的非线性映射函数f,即可计算得到定位坐标
在图3的实验环境下测试本发明的有效性。其中,实验楼层的面积为51.6m×20.4m,房间620的面积为5.1m×8.5m,高度都为2.7m。一个28mm的CMOS全景摄像头布置房间620天花板的中心位置。本发明采集300的观测图像作为ANN的训练数据,沿着实验路径共530个的观测图像作为测试数据。ANN的中间层神经元数量为6个,训练迭代次数为3000次,检测门限T的值设为32。为了比较所提出定位方法的性能,在房间620内也实现基于Wi-Fi的位置指纹定位法。如图3所示,在楼层内共布置有7个TP-LINK TL-WR845N的Wi-Fi的AP并利用K最近邻(K-nearest neighbors,KNN)位置指纹定位算法计算定位结果。房间620内共选择16个参考点每个参考点采集120个来自AP的接收信号强度(Received Signal Strength,RSS)样本用于建立位置指纹定位的射频地图,沿着实验路径共采集780个RSS测试样本用于测试KNN算法性能。KNN定位方法和本发明的误差如表1所示。
表1
定位方法 | KNN算法 | 本发明 |
平均定位误差(m) | 1.70 | 0.84 |
图4表现了采用本发明定位方法的实验结果,图(c)中的圆点即为定位结果。
由此可见,本发明所提出的基于ANN的全景摄像头人体定位方法,可利用用于监控的全景摄像头在其覆盖区域内实现定位功能,可有效节省定位系统建设的成本。同时,该定位方法不但能在人体目标不携带设备的情况下对其定位,而且还能达到亚米级的定位精度。因此,该实验有力地证明了本发明所提出方法的价值和有效性。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (5)
1.一种基于人工神经网络的全景摄像头定位方法,其特征在于,包括以下步骤:
(1)在待定位的室内区域的中心位置安装全景摄像头;
(2)离线阶段,在全景摄像头的拍摄覆盖区域内选择位置坐标已知的若干训练点,当用户位于这些训练点时,利用全景摄像头获取M个观测图像作为训练样本,M个观测图像对应的训练点的坐标为
(3)对M个观测图像进行预处理,建立观测图像的背景图像模型;
(4)根据背景图像模型,判定观测图像上的像素点是否属于人体目标,遍历所有像素点,实现对人体目标的检测;
(5)在属于人体目标的像素点集合中搜索作为用户在观测图像上的位置坐标
(6)将坐标与用户真实坐标分别作为人工神经网络的输入和输出,训练坐标映射模型,即得到坐标到坐标的映射f;
(7)在线阶段,利用全景摄像头获取观测图像作为测试样本,经步骤(3)、(4)、(5)后,从检测出的人体目标中搜索出作为用户在观测图像上的位置坐标将该坐标输入所训练的映射f,即得到定位坐标
2.根据权利要求1所述基于人工神经网络的全景摄像头定位方法,其特征在于:在步骤(3)中,所述预处理包括调整大小和角度、灰度化以及反色处理。
3.根据权利要求1所述基于人工神经网络的全景摄像头定位方法,其特征在于:在步骤(3)中,建立观测图像的背景图像模型的过程如下:
设观测图像经过预处理后的图像序列为{F1,F2,…,Ft},计算观测图像上位置(x,y)的像素值Bt(x,y):
上式中,Ft-k(x,y)为图像Ft-k上位置(x,y)处的像素值,L为用于计算背景图像所用的观测图像的数量;
根据上式,遍历所有像素点,即得到背景图像Bt。
4.根据权利要求3所述基于人工神经网络的全景摄像头定位方法,其特征在于:步骤(4)的具体过程如下:
设为观测图像上位置(x,y)处的像素值,由下式判定位置(x,y)处的像素点是否属于上的人体目标:
上式中,T为设定的检测门限;
若上式满足,则判定位置(x,y)处的像素点属于人体目标,否则判定其为背景像素。
5.根据权利要求1-4中任意一项所述基于人工神经网络的全景摄像头定位方法,其特征在于:步骤(5)的具体过程如下:
设属于人体目标的像素点在观测图像上的位置为R为人体目标包含的像素点数目,(xCam,yCam)为全景摄像头中心在观测图像上的位置,计算与(xCam,yCam)的欧几里得距离其中最小所对应的即为坐标
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611257515.5A CN106600652A (zh) | 2016-12-30 | 2016-12-30 | 一种基于人工神经网络的全景摄像头定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611257515.5A CN106600652A (zh) | 2016-12-30 | 2016-12-30 | 一种基于人工神经网络的全景摄像头定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106600652A true CN106600652A (zh) | 2017-04-26 |
Family
ID=58581452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611257515.5A Pending CN106600652A (zh) | 2016-12-30 | 2016-12-30 | 一种基于人工神经网络的全景摄像头定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106600652A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108012244A (zh) * | 2017-11-29 | 2018-05-08 | 南京工业大学 | 基于簇的公路车载自组织网络数据服务通信系统及方法 |
CN108037520A (zh) * | 2017-12-27 | 2018-05-15 | 中国人民解放军战略支援部队信息工程大学 | 阵列幅相误差条件下基于神经网络的直接定位偏差修正方法 |
CN108875762A (zh) * | 2017-05-16 | 2018-11-23 | 富士通株式会社 | 分类器训练方法、图像识别方法和图像识别设备 |
CN109996182A (zh) * | 2019-04-19 | 2019-07-09 | 无锡艾森汇智科技有限公司 | 一种基于uwb定位与监控结合的定位方法、装置及系统 |
CN111832542A (zh) * | 2020-08-15 | 2020-10-27 | 武汉易思达科技有限公司 | 三目视觉识别与定位方法及装置 |
CN112949485A (zh) * | 2021-03-01 | 2021-06-11 | 八维通科技有限公司 | 基于人工智能的数据处理方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1874497A (zh) * | 2006-05-30 | 2006-12-06 | 浙江工业大学 | 基于全方位计算机视觉的独居老人家庭安保装置 |
CN102387345A (zh) * | 2011-09-09 | 2012-03-21 | 浙江工业大学 | 基于全方位视觉的独居老人安全监护系统 |
CN102629329A (zh) * | 2012-02-28 | 2012-08-08 | 北京工业大学 | 基于自适应sift算法的人员室内定位方法 |
CN102932738A (zh) * | 2012-10-31 | 2013-02-13 | 北京交通大学 | 一种改进的基于分簇神经网络的室内指纹定位方法 |
CN104023228A (zh) * | 2014-06-12 | 2014-09-03 | 北京工业大学 | 一种基于全局运动估计的自适应室内视觉定位方法 |
CN104239865A (zh) * | 2014-09-16 | 2014-12-24 | 宁波熵联信息技术有限公司 | 一种基于多级检测的行人检测与跟踪方法 |
CN105354856A (zh) * | 2015-12-04 | 2016-02-24 | 北京联合大学 | 一种基于mser与orb相结合的人体匹配与定位方法及系统 |
CN106162868A (zh) * | 2016-06-08 | 2016-11-23 | 南京理工大学 | 基于位置指纹的高效室内定位方法 |
-
2016
- 2016-12-30 CN CN201611257515.5A patent/CN106600652A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1874497A (zh) * | 2006-05-30 | 2006-12-06 | 浙江工业大学 | 基于全方位计算机视觉的独居老人家庭安保装置 |
CN102387345A (zh) * | 2011-09-09 | 2012-03-21 | 浙江工业大学 | 基于全方位视觉的独居老人安全监护系统 |
CN102629329A (zh) * | 2012-02-28 | 2012-08-08 | 北京工业大学 | 基于自适应sift算法的人员室内定位方法 |
CN102932738A (zh) * | 2012-10-31 | 2013-02-13 | 北京交通大学 | 一种改进的基于分簇神经网络的室内指纹定位方法 |
CN104023228A (zh) * | 2014-06-12 | 2014-09-03 | 北京工业大学 | 一种基于全局运动估计的自适应室内视觉定位方法 |
CN104239865A (zh) * | 2014-09-16 | 2014-12-24 | 宁波熵联信息技术有限公司 | 一种基于多级检测的行人检测与跟踪方法 |
CN105354856A (zh) * | 2015-12-04 | 2016-02-24 | 北京联合大学 | 一种基于mser与orb相结合的人体匹配与定位方法及系统 |
CN106162868A (zh) * | 2016-06-08 | 2016-11-23 | 南京理工大学 | 基于位置指纹的高效室内定位方法 |
Non-Patent Citations (2)
Title |
---|
徐德 等 编著: "《机器人视觉测量与控制》", 31 January 2016 * |
龚阳 等: ""基于RBF神经网络的室内定位算法研究"", 《电子测量技术》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875762A (zh) * | 2017-05-16 | 2018-11-23 | 富士通株式会社 | 分类器训练方法、图像识别方法和图像识别设备 |
CN108875762B (zh) * | 2017-05-16 | 2022-03-15 | 富士通株式会社 | 分类器训练方法、图像识别方法和图像识别设备 |
CN108012244A (zh) * | 2017-11-29 | 2018-05-08 | 南京工业大学 | 基于簇的公路车载自组织网络数据服务通信系统及方法 |
CN108012244B (zh) * | 2017-11-29 | 2020-12-01 | 南京工业大学 | 基于簇的公路车载自组织网络数据服务通信系统及方法 |
CN108037520A (zh) * | 2017-12-27 | 2018-05-15 | 中国人民解放军战略支援部队信息工程大学 | 阵列幅相误差条件下基于神经网络的直接定位偏差修正方法 |
CN109996182A (zh) * | 2019-04-19 | 2019-07-09 | 无锡艾森汇智科技有限公司 | 一种基于uwb定位与监控结合的定位方法、装置及系统 |
CN109996182B (zh) * | 2019-04-19 | 2021-01-19 | 无锡艾森汇智科技有限公司 | 一种基于uwb定位与监控结合的定位方法、装置及系统 |
CN111832542A (zh) * | 2020-08-15 | 2020-10-27 | 武汉易思达科技有限公司 | 三目视觉识别与定位方法及装置 |
CN111832542B (zh) * | 2020-08-15 | 2024-04-16 | 武汉易思达科技有限公司 | 三目视觉识别与定位装置 |
CN112949485A (zh) * | 2021-03-01 | 2021-06-11 | 八维通科技有限公司 | 基于人工智能的数据处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106600652A (zh) | 一种基于人工神经网络的全景摄像头定位方法 | |
CN106793086B (zh) | 一种室内定位方法 | |
CN109743683B (zh) | 一种采用深度学习融合网络模型确定手机用户位置的方法 | |
WO2020000697A1 (zh) | 行为识别方法、装置、计算机设备及存储介质 | |
CN106792465A (zh) | 一种基于众包指纹的室内指纹地图构建方法 | |
CN104394588B (zh) | 基于Wi‑Fi指纹和多维尺度分析的室内定位方法 | |
CN111275760A (zh) | 一种基于5g与深度图像信息的无人机目标跟踪系统及方法 | |
CN114299417A (zh) | 一种基于雷视融合的多目标跟踪方法 | |
CN110501010A (zh) | 确定移动设备在地理区域中的位置 | |
CN109785368A (zh) | 一种目标跟踪方法和装置 | |
CN112070807A (zh) | 多目标跟踪方法和电子装置 | |
JP6959888B2 (ja) | 物体認識情報及び受信電磁波情報に係るモデルを用いて端末位置を推定する装置、プログラム及び方法 | |
CN105975967A (zh) | 一种目标定位方法和系统 | |
CN109116298B (zh) | 一种定位方法、存储介质及定位系统 | |
Tang et al. | Indoor crowd density estimation through mobile smartphone wi-fi probes | |
CN104700408A (zh) | 一种基于摄像机网络的室内单目标定位方法 | |
CN112325883A (zh) | 一种WiFi和视觉多源融合的移动机器人室内定位方法 | |
CN111257830B (zh) | 基于预先设定ap位置的wifi定位算法 | |
Mazan et al. | A Study of Devising Neural Network Based Indoor Localization Using Beacons: First Results. | |
Radaelli et al. | Using cameras to improve wi-fi based indoor positioning | |
Varma et al. | Indoor localization for IoT applications: Review, challenges and manual site survey approach | |
Hung et al. | Model-driven traffic data acquisition in vehicular sensor networks | |
CN112348891A (zh) | 一种图像检测及定位方法、装置、存储介质及电子装置 | |
CN108985131A (zh) | 一种目标识别方法及图像处理设备 | |
CN103824299B (zh) | 一种基于显著度的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 210009, 5 new model street, Gulou District, Jiangsu, Nanjing Applicant after: Nanjing University of Technology Address before: 211800 Puzhu South Road, Pukou District, Nanjing, Jiangsu 30 Applicant before: Nanjing University of Technology |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170426 |