CN110349186B - 基于深度匹配的大位移运动光流计算方法 - Google Patents

基于深度匹配的大位移运动光流计算方法 Download PDF

Info

Publication number
CN110349186B
CN110349186B CN201910640016.1A CN201910640016A CN110349186B CN 110349186 B CN110349186 B CN 110349186B CN 201910640016 A CN201910640016 A CN 201910640016A CN 110349186 B CN110349186 B CN 110349186B
Authority
CN
China
Prior art keywords
image
pixel
matched
matching
pixel points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910640016.1A
Other languages
English (en)
Other versions
CN110349186A (zh
Inventor
陈震
张道文
张聪炫
江少锋
尚璇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN201910640016.1A priority Critical patent/CN110349186B/zh
Publication of CN110349186A publication Critical patent/CN110349186A/zh
Application granted granted Critical
Publication of CN110349186B publication Critical patent/CN110349186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度匹配的大位移运动光流计算方法,首先使用DeepMatch匹配算法获取连续两帧图像间大量的匹配像素点,然后将匹配像素点分配到对应的图像网格,获得连续两帧图像之间的图像网格匹配关系;再使用结构森林快速边缘检测算法获取图像边缘信息,根据边缘保护距离,使用仿射变换方程,对参考帧进行由稀疏到稠密的插值,获得初始稠密对应场;将稠密对应场作为初始值带入能量泛函求最优解,输出光流计算结果。本发明显著提高了光流计算精度并有效保护了运动边缘,克服了像素点匹配关系不准确、匹配像素点数量过少等问题,对于非刚性大位移场景和复杂边缘图像序列具有更高的计算精度和更好的适用性。

Description

基于深度匹配的大位移运动光流计算方法
技术领域
本发明涉及图像匹配优化技术,特别涉及一种基于深度匹配的大位移运动光流计算方法。
背景技术
光流计算是研究利用图像序列中像素强度信息的时域变化和相关性来确定各像素位置的“运动”,即研究图像灰度在时间上的变化与景象中物体结构及其运动的关系。光流场不仅包含了被观察物体的运动信息,而且携带有光景物三维结构的信息,所以光流场在不同的领域中具有重要作用,如执行各种任务的机器人视觉系统、资源勘探、气象云图分析和预报、军事勘察中的自动分析系统、车辆无人驾驶等。
近年来,随着光流计算方法的不断发展,针对简单场景的图像序列大位移光流计算技术取得了显著的成果。目前基于刚性描述子的像素点匹配定位模型被广泛采用,能够对刚性大位移运动有效定位提高光流的计算精度。但是该类方法在局部形变、大位移运动、运动模糊、弱纹理等场景中,易导致像素点匹配关系不准确、匹配像素点数量过少等问题仍未妥善解决。
发明内容
本发明的目的是提供一种基于深度匹配的大位移光流计算方法,准确地对图像大位移运动进行有效定位,并计算得到准确性更高,具有边缘保护效果的光流结果。
为了解决上述技术问题,本发明采取以下技术方案。基于深度匹配的大位移运动光流计算方法,其步骤如下:
1)输入图像序列连续两帧图像,使用DeepMatch匹配算法获取连续两帧图像的匹配像素点集M1;
2)使用网格近似法,将连续两帧图像分别划分为n×n的非重叠图像网格,然后根据像素点坐标,将匹配到的像素点分配到对应的图像网格;
3)遍历第一帧图像内匹配像素点数大于0的图像网格,统计该图像网格在第二帧图像网格内的像素点数量,并将像素点数量最多的图像网格标记为潜在的匹配图像网格,获得连续两帧图像之间的图像网格匹配关系;
4)评估图像网格匹配的准确性,建立如下阈值函数:
Figure BDA0002131524240000011
式中,N表示划分的非重叠图像网格数量,i表示第一帧图像中的第i个图像网格,j表示与第一帧图像第i个图像网格对应第二帧图像中的图像网格,T表示匹配正确的图像网格,F表示匹配错误的图像网格,
Figure BDA0002131524240000021
表示潜在的匹配图像网格{i,j}的匹配置信度,
Figure BDA0002131524240000022
表示与第一帧图像中第i个图像网格相邻的第k个网格和第二帧图像中第j个网格相邻的第k个网格内互相匹配的像素点个数,τi表示第一帧图像中第i个图像网格与第二帧图像中对应的图像网格的匹配置信度阈值;
5)遍历所有匹配像素点,并检查其所分配的图像网格是否为匹配正确的图像网格;当匹配像素点位于正确匹配的图像网格时,则为正确的匹配像素点;反之则是错误的匹配像素点,并剔除;
6)为消除可能存在的误划分像素点,将匹配像素点分别在x和y方向上移动半个像素,并循环执行步骤3)~步骤5)三次,标记在任意方向与所分配图像网格保持匹配一致性的像素点为正确匹配像素点,获得新的匹配像素点集M2;
7)对第一帧图像使用结构森林快速边缘检测算法,获得含有图像边缘信息的代价图C;根据代价图C计算第一帧图像像素点间的边缘保护距离,公式如下:
Figure BDA0002131524240000023
式中,DG(p,q)为像素p与像素q的边缘保护距离,ρp,q为像素p与像素q之间所有可能的路径,C(ps)表示通过像素ps的代价;
8)根据边缘保护距离,将第一帧图像中所有像素点分配到其最近的匹配像素点,得到像素分配图L;
Figure BDA0002131524240000024
式中,L(p1)为第一帧图像中像素点p1的像素分配结果。DG(p1,pm)为像素点p1与匹配像素点pm间的边缘保护距离;
9)遍历匹配像素点集M2中的所有匹配像素点,使用迪杰斯特算法查找匹配像素点的K个最近匹配像素点,建立超定方程组,计算局部权重仿射变换参数:
Figure BDA0002131524240000025
式中,AP和tp为第一帧图像像素点p1的仿射变换参数,pm为像素p1的K个最近匹配像素点之一,p'm为pm在下一帧图像中对应的匹配像素点,kD(pm,p1)为高斯核函数;
10)遍历参考帧所有像素点,根据像素分配图L,使用仿射变换方程,对参考帧进行由稀疏到稠密的插值,获得初始稠密对应场;
Figure BDA0002131524240000031
式中,p1为第一帧图像中任意像素点,
Figure BDA0002131524240000032
为像素点p1的最近匹配像素点的仿射变换参数;
11)将初始稠密对应场带入以下能量泛函求最优解:
Figure BDA0002131524240000033
式中,w=(u,v)为计算光流,Ψ为惩罚函数,j0为符合亮度守恒假设的运动张量分量,γ为梯度守恒权重,jxy为符合梯度守恒的运动张量分量,
Figure BDA0002131524240000034
为平滑项局部平滑权重;
12)输出光流计算结果。
本发明通过特征匹配与图像网格一致性检测,对场景中大位移区域进行有效定位,结合了一种具有边缘保护效果的插值方法,显著提高了光流计算精度并有效保护了运动边缘,克服了像素点匹配关系不准确、匹配像素点数量过少等问题,对于非刚性大位移场景和复杂边缘图像序列具有更高的计算精度和更好的适用性,在航天、军事、工业、商业和医学等领域具有广泛的应用前景。
附图说明
图1a是temple_3图像序列连续两帧图像中的第一帧图像;
图1b是temple_3图像序列连续两帧图像中的第二帧图像;
图2是本发明中对temple_3图像序列连续两帧图像使用DeepMatch匹配算法获得的图像序列匹配结果图(其中:圆点代表匹配像素点位置,成匹配关系的像素点用线连接);
图3是本发明中图像序列匹配像素点单元分配示意图(其中:十字形符号代表匹配点位置);
图4是本发明中通过结构森林快速边缘检测算法获取的代价图;
图5是本发明中像素分配示意图(其中:十字形符号代表匹配点位置);
图6是本发明计算所获得的temple_3图像序列光流图。
具体实施方式
以下结合附图和实施例对本发明作进一步说明。参见图1a至图6,一种基于深度匹配的大位移运动光流计算方法,使用temple_3序列图像进行实验说明:
1)输入图1a和图1b是temple_3图像序列连续两帧图像;其中:图1a是第一帧图像,图1b是第二帧图像;
2)如图2所示,为了对连续两帧图像中大位移运动区域进行有效定位,使用DeepMatch匹配算法获取temple_3图像序列连续两帧图像之间的匹配像素点集M1;
3)如图3所示,使用网格近似法,将连续两帧图像分别划分为n×n的非重叠图像网格,然后根据像素点坐标,将匹配到的像素点分配到对应的图像网格;
4)遍历第一帧图像内匹配像素点数大于0的图像网格,统计该图像网格在第二帧图像网格内的像素点数量,并将像素点数量最多的图像网格标记为潜在的匹配图像网格,获得连续两帧图像之间的图像网格匹配关系;
5)如式(1)所示,建立阈值函数评估图像网格匹配的准确性;
Figure BDA0002131524240000041
式(1)中,N表示划分的非重叠图像网格数量,i表示第一帧图像中的第i个图像网格,j表示与第一帧图像第i个图像网格对应第二帧图像中的图像网格,T表示匹配正确的图像网格,F表示匹配错误的图像网格,
Figure BDA0002131524240000042
表示潜在的匹配图像网格{i,j}的匹配置信度,
Figure BDA0002131524240000043
表示与第一帧图像中第i个图像网格相邻的第k个网格和与第二帧图像中第j个网格相邻的第k个网格内互相匹配的像素点个数,τi表示第一帧图像中第i个图像网格与第二帧图像中对应的图像网格的匹配置信度阈值;
6)遍历所有匹配像素点,并检查其所分配的图像网格是否为匹配正确的图像网格;当匹配像素点位于正确匹配的图像网格时,则为正确的匹配像素点;反之则是错误的匹配像素点,并剔除;
7)由于在匹配像素点分配到图像网格的过程中可能存在某些匹配像素点位于不同图像网格间的边缘,导致这些像素点可能被误划分到错误的图像网格。为消除可能存在的误划分像素点,将匹配像素点分别在x和y方向上移动半个像素,并循环执行步骤3)~步骤5)三次,标记在任一方向与所分配图像网格保持匹配一致性的像素点为正确匹配像素点,获得新的匹配像素点集M2;
8)如图4所示,对第一帧图像使用结构森林快速边缘检测算法,获得含有图像边缘信息的代价图C。根据代价图C计算第一帧图像像素点间的边缘保护距离公式如下:
Figure BDA0002131524240000044
式(2)中,DG(p,q)为像素p与像素q的边缘保护距离,ρp,q为像素p与像素q之间所有可能的路径,C(ps)表示通过像素ps的代价;
9)如图5所示,根据边缘保护距离,将第一帧图像中所有像素点分配到其最近的匹配像素点,得到像素分配图L;
Figure BDA0002131524240000051
式(3)中L(p1)为第一帧图像中像素点p1的像素分配结果。DG(p1,pm)为像素点p1与匹配像素点pm间的边缘保护距离;
10)遍历匹配像素点集M2中的所有匹配像素点,使用迪杰斯特算法查找匹配像素点的K个最近匹配像素点,建立超定方程组计算局部权重仿射变换参数:
kD(pm,p1)(AP1pm+tp1-p'm)=0 (4)
式(4)中,AP和tp为第一帧图像像素点p1的仿射变换参数,pm为像素p1的K个最近匹配像素点之一,p'm为pm在下一帧图像中对应的匹配像素点,kD(pm,p1)为高斯核函数;
11)遍历参考帧所有像素点,根据像素分配图L,使用式(5)所示的仿射变换方程,对参考帧进行由稀疏到稠密的插值,获得初始稠密对应场;
Figure BDA0002131524240000052
式(5)中,p1为第一帧图像中任意像素点,
Figure BDA0002131524240000053
为像素点p1的最近匹配像素点的仿射变换参数;
12)为了提升计算精度,将初始稠密对应场带入以下能量泛函求最优解:
Figure BDA0002131524240000054
式(11)中w=(u,v)为计算光流,Ψ为惩罚函数,j0为符合亮度守恒假设的运动张量分量,γ为梯度守恒权重,jxy为符合梯度守恒的运动张量分量,
Figure BDA0002131524240000055
为平滑项局部平滑权重;
13)基于亮度守恒假设与梯度守恒假设,式(6)能量泛函最小化,输出光流计算结果,如图6所示。本发明方法对于大位移运动场景和弱纹理图像序列具有更高的计算精度和更好的适用性,在航天、军事、工业、商业和医学等领域具有广泛的应用前景。

Claims (1)

1.基于深度匹配的大位移运动光流计算方法,其特征在于,其步骤如下:
1)输入图像序列连续两帧图像,使用DeepMatch匹配算法获取连续两帧图像的匹配像素点集M1;
2)使用网格近似法,将连续两帧图像分别划分为n×n的非重叠图像网格,然后根据像素点坐标,将匹配到的像素点分配到对应的图像网格;
3)遍历第一帧图像内匹配像素点数大于0的图像网格,统计该图像网格在第二帧图像网格内的像素点数量,并将像素点数量最多的图像网格标记为潜在的匹配图像网格,获得连续两帧图像之间的图像网格匹配关系;
4)评估图像网格匹配的准确性,建立如下阈值函数:
Figure FDA0002947991440000011
式中,N表示划分的非重叠图像网格数量,i表示第一帧图像中的第i个图像网格,j表示与第一帧图像第i个图像网格对应第二帧图像中的图像网格,T表示匹配正确的图像网格,F表示匹配错误的图像网格,
Figure FDA0002947991440000012
表示潜在的匹配图像网格{i,j}的匹配置信度,
Figure FDA0002947991440000013
表示与第一帧图像中第i个图像网格相邻的第k个网格和第二帧图像中第j个网格相邻的第k个网格内互相匹配的像素点个数,ti表示第一帧图像中第i个图像网格与第二帧图像中对应的图像网格的匹配置信度阈值;
5)遍历所有匹配像素点,并检查其所分配的图像网格是否为匹配正确的图像网格;当匹配像素点位于正确匹配的图像网格时,则为正确的匹配像素点;反之则是错误的匹配像素点,并剔除;
6)为消除可能存在的误划分像素点,将匹配像素点分别在x和y方向上移动半个像素,并循环执行步骤3)~步骤5)三次,标记在任意方向与所分配图像网格保持匹配一致性的像素点为正确匹配像素点,获得新的匹配像素点集M2;
7)对第一帧图像使用结构森林快速边缘检测算法,获得含有图像边缘信息的代价图C;根据代价图C计算第一帧图像像素点间的边缘保护距离,公式如下:
Figure FDA0002947991440000014
式中,DG(p,q)为像素p与像素q的边缘保护距离,ρp,q为像素p与像素q之间所有可能的路径,C(ps)表示通过像素ps的代价,Γ表示像素p和q之间的任意一条路径;
8)根据边缘保护距离,将第一帧图像中所有像素点分配到其最近的匹配像素点,得到像素分配图L;
Figure FDA0002947991440000021
式中,L(p1)为第一帧图像中像素点p1的像素分配结果,DG(p1,pm)为像素点p1与匹配像素点pm间的边缘保护距离;
9)遍历匹配像素点集M2中的所有匹配像素点,使用迪杰斯特算法查找匹配像素点的K个最近匹配像素点,建立超定方程组,计算局部权重仿射变换参数:
Figure FDA0002947991440000022
式中,AP和tp为第一帧图像像素点p1的仿射变换参数,pm为像素p1的K个最近匹配像素点之一,p'm为pm在下一帧图像中对应的匹配像素点,kD(pm,p1)为高斯核函数;
10)遍历参考帧所有像素点,根据像素分配图L,使用仿射变换方程,对参考帧进行由稀疏到稠密的插值,获得初始稠密对应场;
Figure FDA0002947991440000023
式中,p1为第一帧图像中任意像素点,
Figure FDA0002947991440000024
为像素点p1的最近匹配像素点的仿射变换参数;
11)将初始稠密对应场带入以下能量泛函求最优解:
Figure FDA0002947991440000025
式中,w=(u,v)为计算光流,初始稠密对应场
Figure FDA0002947991440000026
为w=(u,v)的初始值,Ψ为惩罚函数,j0为符合亮度守恒假设的运动张量分量,γ为梯度守恒权重,jxy为符合梯度守恒的运动张量分量,
Figure FDA0002947991440000027
为平滑项局部平滑权重;
12)输出光流计算结果。
CN201910640016.1A 2019-07-16 2019-07-16 基于深度匹配的大位移运动光流计算方法 Active CN110349186B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910640016.1A CN110349186B (zh) 2019-07-16 2019-07-16 基于深度匹配的大位移运动光流计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910640016.1A CN110349186B (zh) 2019-07-16 2019-07-16 基于深度匹配的大位移运动光流计算方法

Publications (2)

Publication Number Publication Date
CN110349186A CN110349186A (zh) 2019-10-18
CN110349186B true CN110349186B (zh) 2021-05-11

Family

ID=68175428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910640016.1A Active CN110349186B (zh) 2019-07-16 2019-07-16 基于深度匹配的大位移运动光流计算方法

Country Status (1)

Country Link
CN (1) CN110349186B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529052A (zh) * 2020-11-25 2021-03-19 维沃移动通信有限公司 图像处理方法、装置及电子设备
CN112509014B (zh) * 2020-12-14 2022-03-22 南昌航空大学 金字塔遮挡检测块匹配的鲁棒插值光流计算方法
CN112985388B (zh) * 2021-02-08 2022-08-19 福州大学 基于大位移光流法的组合导航方法及系统
CN113405644B (zh) * 2021-05-17 2022-04-08 中山大学 非接触的振动测量方法、装置和存储介质
CN113658231B (zh) * 2021-07-07 2023-09-26 北京旷视科技有限公司 光流预测方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537691A (zh) * 2014-12-30 2015-04-22 中国人民解放军国防科学技术大学 基于分块同向速度累加光流场分割的运动目标检测方法
CN107249464A (zh) * 2015-02-27 2017-10-13 西门子保健有限责任公司 荧光成像中的鲁棒钙化跟踪
CN108986136A (zh) * 2018-07-23 2018-12-11 南昌航空大学 一种基于语义分割的双目场景流确定方法及系统
CN109544613A (zh) * 2018-11-23 2019-03-29 南昌航空大学 一种基于稠密网络深度学习的双目立体匹配方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230303B2 (en) * 2013-04-16 2016-01-05 The United States Of America, As Represented By The Secretary Of The Navy Multi-frame super-resolution of image sequence with arbitrary motion patterns
CN103700117A (zh) * 2013-11-21 2014-04-02 北京工业大学 一种基于tv-l1变分模型的鲁棒光流场估计方法
CN103761749B (zh) * 2014-02-12 2016-08-17 北京工业大学 一种基于非线性多重网格法的光流场快速估计方法
CN106447696B (zh) * 2016-09-29 2017-08-25 郑州轻工业学院 一种基于双向sift流运动评估的大位移目标稀疏跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537691A (zh) * 2014-12-30 2015-04-22 中国人民解放军国防科学技术大学 基于分块同向速度累加光流场分割的运动目标检测方法
CN107249464A (zh) * 2015-02-27 2017-10-13 西门子保健有限责任公司 荧光成像中的鲁棒钙化跟踪
CN108986136A (zh) * 2018-07-23 2018-12-11 南昌航空大学 一种基于语义分割的双目场景流确定方法及系统
CN109544613A (zh) * 2018-11-23 2019-03-29 南昌航空大学 一种基于稠密网络深度学习的双目立体匹配方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Flow Fields: Dense Correspondence Fields for Highly Accurate Large Displacement Optical Flow Estimation;Christian Bailer 等;《2015 IEEE International Conference on Computer Vision (ICCV)》;20160218;第4015-4023页 *
基于遗传算法的直线光流刚体运动重建;杨建伟 等;《计算机工程》;20090430;第35卷(第8期);第205-207页 *

Also Published As

Publication number Publication date
CN110349186A (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
CN110349186B (zh) 基于深度匹配的大位移运动光流计算方法
CN111402336B (zh) 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN111832655B (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN108898676B (zh) 一种虚实物体之间碰撞及遮挡检测方法及系统
CN111340797A (zh) 一种激光雷达与双目相机数据融合检测方法及系统
CN111693972A (zh) 一种基于双目序列图像的车辆位置与速度估计方法
JP2012151851A (ja) 深さ情報を用いたカメラモーションの推定方法および装置、拡張現実システム
CN110910421B (zh) 基于分块表征和可变邻域聚类的弱小运动目标检测方法
JP2013020616A (ja) オブジェクト追跡方法及びオブジェクト追跡装置
CN110533716B (zh) 一种基于3d约束的语义slam系统及方法
KR20190030474A (ko) 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
CN107369131A (zh) 图像的显著性检测方法、装置、存储介质和处理器
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
Filatov et al. Any motion detector: Learning class-agnostic scene dynamics from a sequence of lidar point clouds
Chen et al. A stereo visual-inertial SLAM approach for indoor mobile robots in unknown environments without occlusions
CN112947419A (zh) 避障方法、装置及设备
CN112686952A (zh) 一种图像光流计算系统、方法及应用
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
US11080861B2 (en) Scene segmentation using model subtraction
CN108492308B (zh) 一种基于相互结构引导滤波的变分光流的确定方法及系统
CN110706288A (zh) 目标检测的方法、装置、设备及可读存储介质
Wang et al. Estimating Optical Flow by Integrating Multi-Frame Information.
CN115661341A (zh) 一种基于多传感器融合的实时动态语义建图方法与系统
Yi et al. Real-time Estimation of Road Surfaces using Fast Monocular Depth Estimation and Normal Vector Clustering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant