CN113592706B - 调整单应性矩阵参数的方法和装置 - Google Patents
调整单应性矩阵参数的方法和装置 Download PDFInfo
- Publication number
- CN113592706B CN113592706B CN202110858627.0A CN202110858627A CN113592706B CN 113592706 B CN113592706 B CN 113592706B CN 202110858627 A CN202110858627 A CN 202110858627A CN 113592706 B CN113592706 B CN 113592706B
- Authority
- CN
- China
- Prior art keywords
- image
- homography matrix
- reference plane
- feature
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011159 matrix material Substances 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000013519 translation Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 15
- 230000011218 segmentation Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开实施例公开了一种调整单应性矩阵参数的方法和装置,其中,该方法包括:获取参考图像与目标图像的参考平面的单应性矩阵参数;基于所述单应性矩阵参数和所述参考图像,生成所述参考图像的重建图像;基于所述单应性矩阵参数和所述参考图像的参考平面掩码,确定所述重建图像的参考平面掩码;基于所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码,确定所述重建图像与所述目标图像之间在参考平面上的图像误差;基于所述图像误差,调整所述单应性矩阵参数。本公开实施例可以降低成像噪声对平面视差法的影响,进而可以适用于自动驾驶领域通过平面视差法进行三维场景重现。
Description
技术领域
本公开涉及计算机视觉技术领域和车辆技术领域,尤其是一种调整单应性矩阵参数的方法和装置。
背景技术
平面视差最初用于平面运动建模,其核心思想是找到一个合适的参考平面,利用参考平面来扭曲两张图像,扭曲后的两张图像中处于参考平面上的点是对齐的,未对齐的残留图像运动与三维结构密切相关。
平面视差法可以消除相机旋转的影响,但是容易受到成像噪声的影响,难以被广泛采用。如何降低成像噪声对平面视差法的影响,是一种亟待解决的问题。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种调整单应性矩阵参数的方法和装置。
根据本公开实施例的第一方面,提供了一种调整单应性矩阵参数的方法,包括:
获取参考图像与目标图像的参考平面的单应性矩阵参数;
基于所述单应性矩阵参数和所述参考图像,生成所述参考图像的重建图像;
基于所述单应性矩阵参数和所述参考图像的参考平面掩码,确定所述重建图像的参考平面掩码;
基于所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码,确定所述重建图像与所述目标图像之间在参考平面上的图像误差;
基于所述图像误差,调整所述单应性矩阵参数。
根据本公开实施例的第二方面,提供了一种调整单应性矩阵参数的装置,包括:
参数获取模块,用于获取参考图像与目标图像的参考平面的单应性矩阵参数;
图像重建模块,用于基于所述单应性矩阵参数和所述参考图像,生成所述参考图像的重建图像;
掩码处理模块,用于基于所述单应性矩阵参数和所述参考图像的参考平面掩码,确定所述重建图像的参考平面掩码;
误差确定模块,用于基于所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码,确定所述重建图像与所述目标图像之间的图像误差;
参数调整模块,用于基于所述图像误差,调整所述单应性矩阵参数。
根据本公开实施例的第三方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述第一方面所述的调整单应性矩阵参数的方法。
根据本公开实施例的第四方面,提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述第一方面所述的调整单应性矩阵参数的方法。
基于本公开上述实施例提供的调整单应性矩阵参数的方法和装置,获取相机拍摄的、间隔N帧、且均包含参考平面(例如路面)的参考图像和目标图像。基于单应性矩阵参数对参考图像进行图像映射和掩码映射,得到参考图像和参考图像的参考平面掩码,进而基于重建图像、重建图像的参考平面掩码、目标图像和目标图像的参考平面掩码,确定重建图像与目标图像之间的图像误差,根据图像误差对单应性矩阵参数进行调整,直至图像误差满足预设误差要求为止。本公开可以降低成像噪声对平面视差法的影响,进而可以适用于自动驾驶领域通过平面视差法进行三维场景重现。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本公开实施例提供的调整单应性矩阵参数的方法的流程示意图。
图2是本公开一个示例中的参考图像。
图3是本公开一个示例中的目标图像。
图4是图2的路面掩码示意图。
图5是图3的路面掩码示意图。
图6是本公开实施例提供的单应性矩阵参数的优化装置的结构框图。
图7是公开一个示例中误差确定模块的结构框图。
图8是公开一个示例中参数获取模块610的结构框图。
图9是公开另一个示例中参数获取模块610的结构框图。
图10是本公开实施例提供的电子设备的结构示意图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
申请概述
在实现本公开的过程中,发明人发现,根据图像进行单应性估计时,至少存在以下问题:
使用基于特征的方法进行单应性估计,首先进行关键点检测和匹配,然后通过估计器找到最佳单应性。但是在特征点不足时准确率低,很难应用于无纹理区域。
使用直接法进行单应性估计,通过最小化两个输入图像之间的对齐误差来找到最佳单应性。但是如果两个输入图像之间运动太大,则效果差。
使用深度学习方法进行单应性估计,将一对图像作为输入,产生角位移矢量以估计单应性。但是计算量大,有监督方案依赖真值,真实场景很难获取。
示例性的调整单应性矩阵参数的方法
图1是本公开实施例提供的调整单应性矩阵参数的方法的流程示意图。如图1所示,本公开实施例提供的调整单应性矩阵参数的方法,包括:
S1:获取参考图像与目标图像的参考平面的单应性矩阵参数。其中,参考图像和目标图像具有相应的参考平面,例如在自动驾驶场景下,参考图像和目标图像均是在车辆行驶过程中通过车辆上的相机拍摄得到的,且参考图像和目标图像间隔N帧,N为大于等于1的自然数。在本实施例中,参考图像和目标图像中均包括路面,因此将路面作为参考图像与目标图像的参考平面。作为一种优选方式,N为1至10之间的自然数。
本公开实施例的以下部分将以自动驾驶场景进行说明,但本领域技术人员可以理解,除了自动驾驶场景以外,任何适应于本公开的技术方案的场景在可以实施本公开的技术方案。例如某个人在海边上行走时,通过手机拍摄视频,从视频中选择其中的两帧图像,分别作为参考图像和目标图像。其中,参考平面可以是海边的沙滩,或者沙滩与树木的组合。
S2:基于单应性矩阵参数和参考图像,生成参考图像的重建图像。
图2是本公开一个示例中的参考图像,图3是本公开一个示例中的目标图像。如图2和图3所示,在本示例中,参考图像和目标图像的参考平面为路面,且参考图像和目标图像中路面像素没有对齐,需要基于单应性矩阵参数生成单应性矩阵后,基于单应性矩阵对参考图像进行反向映射,生成参考图像的重建图像。
S3:基于单应性矩阵参数和参考图像的参考平面掩码,确定重建图像的参考平面掩码。
图4为图2的路面掩码示意图。如图4所示,基于参考图像的路面掩码可以得到参考图像中的路面图像。基于单应性矩阵参数,对参考图像的路面掩码进行反向映射,可以确定重建图像的路面掩码。
S4:基于重建图像、重建图像的参考平面掩码、目标图像和目标图像的参考平面掩码,确定重建图像与目标图像之间的图像误差。
图5为图3的路面掩码示意图。如图2至图5所示,基于重建图像和重建图像的参考平面掩码,可以得到重建图像中的路面图像。基于目标图像和目标图像的参考平面掩码,可以得到目标图像中的路面图像。基于重建图像中的路面图像和目标图像中的路面图像之间的误差。其中,该误差可以通过像素比对的方式得到。
S5:基于图像误差,调整单应性矩阵参数。
具体地,基于图像误差,采用反向传播的方式调整单应性矩阵参数,即调整相机旋转信息,相机平移信息,地面法线信息和相机高度。
在本实施例中,获取相机拍摄的、间隔N帧、且均包含参考平面(例如路面)的参考图像和目标图像。基于单应性矩阵参数对参考图像进行图像映射和掩码映射,得到参考图像和参考图像的参考平面掩码,进而基于重建图像、重建图像的参考平面掩码、目标图像和目标图像的参考平面掩码,确定重建图像与目标图像之间在参考平面上的图像误差,根据图像误差对单应性矩阵参数进行调整,可以降低成像噪声对平面视差法的影响,进而可以适用于自动驾驶领域通过平面视差法进行三维场景重现。
在本公开的一个实施例中,在无法获取参考图像和目标图像的雷达点云数据时,步骤S1包括:
S1-A-1:对参考图像进行特征提取,得到第一图像特征。其中,第一图像特征包括参考平面内的特征点信息(例如像素点坐标和像素值),以及参考平面外的特征点信息。
S1-A-2:对目标图像进行特征提取,得到第二图像特征。其中,提取第一图像特征和第二图像特征时,使用相同的特征提取方法。示例性地,提取尺度不变特征变换(Scale-invariant feature transform,SIFT)特征,得到一系列的角点。
S1-A-3:去除第一图像特征和第二图像特征中参考平面外的点对应的特征,得到第一兴趣特征和第二兴趣特征。其中,可以使用预先训练好的语义分割模型对第一图像特征中,分割参考平面内像素点对应的特征(即第一兴趣特征)和参考平面外像素点对应的特征。采用与得到第一兴趣特征相同的方式获取第二兴趣特征。
S1-A-4:基于第一兴趣特征和第二兴趣特征,得到单应性矩阵。利用公式p2=Hp1计算单应性矩阵H。其中,p1和p2分别为参考图像和目标图像中一组对应的特征点坐标。
S1-A-5:基于单应性矩阵,确定相机旋转信息、相机平移信息、路面法线信息和相机高度。其中,单应性矩阵参数包括相机旋转信息、相机平移信息、路面法线信息和相机高度。
其中,K表示相机内参,K-1表示K的逆矩阵,R表示相机旋转信息,N表示地面法线信息,t表示相机平移信息,d表示相机高度(即相机距离路面的距离)。在本示例中,单应性矩阵H是3*3且H[3][3]=1的矩阵。
使用4对特征点构成方程组即可求解单应性矩阵H;然后利用矩阵分解方法将H分解为相机旋转信息R,相机平移信息t,地面法线信息N和相机高度d。其中R是3x3的矩阵,t和N都是1x3的向量,d是一个标定值。
在本实施例中,在无法获取参考图像和目标图像的雷达点云数据的情况下,通过图像处理的方式可以得到参考图像和目标图像在参考平面上兴趣特征,进而基于参考图像和目标图像在参考平面上兴趣特征构建并分解单应性矩阵,从而可以得到不太准确的单应性矩阵参数,具有处理速度快,依赖条件少的优点。后续步骤需要针对单应性矩阵参数中的相机旋转信息、相机平移信息、路面法线信息和相机高度,均进行调整。
在本公开的一个实施例中,步骤S1-A-3包括:
S1-A-3-1:基于第一图像特征和第二图像特征,采用特征匹配方法得到参考图像和目标图像的匹配点对。其中,首先获取第一图像特征和第二图像特征中所有特征点的特征信息,基于特征点的特征信息进行特征点匹配,基于第一图像特征的特征点与第二图像特征得到特征点中所有匹配成功的特征点,构建匹配点对。
S1-A-3-2:基于第一图像特征和第二图像特征,使用语义识别模型确定参考图像中的参考平面特征和目标图像中的参考平面特征。其中,语义分割模型是预先训练好的,用于对模型输入图像,分割出指定特征和其他特征。在本示例中,语义分割模型用于分割出图像中的路面特征和路面外的特征。即使用语义分割模型分割出参考图像中的路面特征和目标图像中的路面特征。
S1-A-3-3:基于匹配点对以及参考图像中的参考平面特征和目标图像中的参考平面特征,确定第一兴趣特征和第二兴趣特征。其中,基于语义分割模型分割出的参考图像中的路面特征和目标图像中的路面特征,筛选匹配点对中的特征,得到第一兴趣特征和第二兴趣特征。
在本实施例中,通过获取特征点对,结合及语义分割模型,可以快速、准确地获取参考图像和目标图像中的兴趣特征,即参考图像和目标图像中的路面像素特征。
在本公开的另一个实施例中,在可以获取到参考图像和目标图像的雷达点云数据时,步骤S1包括:
S1-B-1:获取相机旋转信息和相机平移信息。其中,相机旋转信息和相机平移信息可以通过惯性传感器(Inertial Measurement Unit,IMU)以及多传感器融合技术得到。
S1-B-2:获取对应参考图像的第一雷达点云数据,并获取对应目标图像的第二雷达点云数据。其中,参考图像和目标图像均具有图像拍摄时间,可以根据参考图像和目标图像的图像拍摄时间,获取参考图像和目标图像的图像拍摄时间相应的雷达点云数据,作为第一雷达点云数据和第二雷达点云数据。
S1-B-3:基于第一雷达点云数据和参考图像,得到第三兴趣特征。其中,基于语义分割模型,可以分割出参考图像中的路面特征和路面外的物体特征。基于第一雷达点云数据可以得到路面外的物体特征。去除参考图像中路面外的物体特征,既可以得到第三兴趣特征。
S1-B-4:基于第二雷达点云数据和目标图像,得到第四兴趣特征。其中,得到第四兴趣特征的方式与得到第三兴趣特征的方式相同。
S1-B-5:基于第三兴趣特征和第四兴趣特征,确定路面法线信息和相机高度。其中,由于第三兴趣特征和第四兴趣特征中均包括路面法线的特征,因此,基于第三兴趣特征与第四兴趣特征的路面法线的特征之间的偏差,以及相机内外参数,可以得到路面法线信息和相机高度。
在本实施例中,借助参考图像和目标图像的雷达点云数据,可以准确地得到单应性矩阵参数中的路面法线信息和相机高度,后续步骤仅需要针对单应性矩阵参数中不太准确的相机旋转信息和相机平移信息进行调整即可。
在本公开的一个实施例中,步骤S1-B-3包括:
S1-B-3-1:将去除参考图像中参考平面外的像素点之后参考图像中剩余的像素点映射到雷达坐标系中,得到第一雷达坐标点集。其中,使用语义识别模型得到参考图像中路面图像的像素,以及路面图像外的像素。可以通过相关技术中的像面图像将参考图像中路面图像的像素映射到雷达坐标系中,得到第一雷达坐标点集。
S1-B-3-2:通过对第一雷达坐标点集进行RANSAC处理,确定参考图像的参考平面的雷达坐标点集。其中,给定RANSAC处理的内点率阈值,如果RANSAC处理结果的内点率小于内点率阈值,则拒绝结果以保证准确性;如果RANSAC处理结果的内点率大于等于内点率阈值,则接受RANSAC处理结果。
S1-B-3-3:基于参考图像的参考平面的雷达坐标点集,得到与雷达坐标点集对应的相机坐标点集。其中,根据雷达坐标与相机坐标之间映射关系,可以得到对应雷达坐标点集和相机坐标点集。
S1-B-3-4:基于相机坐标点集得到第三兴趣特征,即参考图像的路面图像特征。
在本实施例中,基于雷达坐标与相机坐标之间的映射关系,以及雷达点云数据,可以准确地获取参考图像的路面图像特征。
在本公开的一个实施例中,步骤S4包括:
S4-1:基于IOU损失系数、重建图像、重建图像的参考平面掩码、目标图像和目标图像的参考平面掩码得到IOU损失误差。
在本实施例中,交并比(Intersection over Union,IOU)损失系数通过以下公式得到:
其中,LIOU表示IOU损失系数,A和B在表示参考图像的路面像素和目标录像的路面像素。
IOU损失误差=LIOU(It*Mt,Isw*Msw)
其中,It表示目标图像,Mt表示目标图像的路面掩码,Isw表示重建图像,Isw表示重建图像的路面掩码。
S4-2:基于光度损失系数、重建图像、重建图像的参考平面掩码、目标图像和目标图像的参考平面掩码得到光度损失误差。
在本实施例中,光度损失系数通过以下公式得到:
其中,Lp表示光度损失系数,SSIM(It,Isw)表示参考图像和重建图像的结构相似参数,α表示权重,且α为常数。
光度损失误差=Lp(It*Mt,Isw*Msw)。
S4-3:基于边缘损失系数、重建图像、重建图像的参考平面掩码、目标图像和目标图像的参考平面掩码得到边缘损失误差。
在本实施例中,边缘损失系数通过以下公式得到:
Le=|Et-Esw|
其中,Le表示边缘损失系数,Et表示目标图像的边缘信息,Esw表示重建图像的边缘信息。
边缘损失误差=Le(It*Mt,Isw*Msw)。
S4-4:基于IOU损失误差、光度损失误差和边缘损失误差得到图像误差。
图像误差=IOU损失误差+光度损失误差+边缘损失误差
=LIOU(It*Mt,Isw*Msw)+Lp(It*Mt,Isw*Msw)+Le(It*Mt,Isw*Msw)。
在本实施例中,通过IOU损失误差、光度损失误差和边缘损失误差,可以准确体现重建图像与目标图像之间在参考平面上的图像误差。
示例性装置
图6是本公开实施例提供的单应性矩阵参数的优化装置的结构框图。如图6所示,本公开实施例提供的单应性矩阵参数的优化装置,包括:参数获取模块610、图像重建模块620、掩码处理模块630、误差确定模块640和参数调整模块650。
其中,参数获取模块610用于获取参考图像与目标图像的参考平面的单应性矩阵参数。图像重建模块620用于基于所述单应性矩阵参数和所述参考图像,生成所述参考图像的重建图像。掩码处理模块630用于基于所述单应性矩阵参数和所述参考图像的参考平面掩码,确定所述重建图像的参考平面掩码。误差确定模块640用于基于所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码,确定所述重建图像与所述目标图像之间在参考平面上的图像误差。参数调整模块650用于基于所述图像误差,调整所述单应性矩阵参数。
图7是公开一个示例中误差确定模块的结构框图。如图7所示,在本公开的一个实施例中,误差确定模块640包括:第一误差确定单元6401,用于基于IOU损失系数、所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码得到IOU损失误差;第二误差确定单元6402,用于基于光度损失系数、所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码得到光度损失误差;第三误差确定单元6403,用于基于边缘损失系数、所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码得到边缘损失误差;误差汇总单元6404,用于基于所述IOU损失误差、所述光度损失误差和所述边缘损失误差得到所述图像误差。
图8是公开一个示例中参数获取模块610的结构框图。如图8所示,在本公开的一个实施例中,参数获取模块610包括图像特征提取单元6101,用于对所述参考图像进行特征提取得到第一图像特征,并对所述目标图像进行特征提取得到第二图像特征;兴趣特征获取单元6102,用于去除所述第一图像特征和所述第二图像特征中参考平面外的点对应的特征,得到第一兴趣特征和第二兴趣特征;单应性矩阵获取单元6103,用于基于所述第一兴趣特征和所述第二兴趣特征,得到单应性矩阵;矩阵参数获取单元6104,用于基于所述单应性矩阵,确定相机旋转信息、相机平移信息、路面法线信息和相机高度。其中,所述单应性矩阵参数包括相机旋转信息、相机平移信息、路面法线信息和相机高度。
在本公开的一个实施例中,所述兴趣特征获取单元6102用于基于所述第一图像特征和所述第二图像特征,采用特征匹配方法得到所述参考图像和所述目标图像的匹配点对;所述兴趣特征获取单元6102还用于基于所述第一图像特征和所述第二图像特征,使用语义识别模型确定所述参考图像中的参考平面特征和所述目标图像中的参考平面特征;所述兴趣特征获取单元6102还用于基于所述匹配点对以及所述参考图像中的参考平面特征和所述目标图像中的参考平面特征,确定所述第一兴趣特征和所述第二兴趣特征。
图9是公开另一个示例中参数获取模块610的结构框图。如图9所示,在本公开的一个实施例中,参数获取模块610包括:第一单应性矩阵参数获取单元6105,用于获取相机旋转信息和相机平移信息;雷达数据获取单元6106,用于获取对应所述参考图像的第一雷达点云数据,并获取对应所述目标图像的第二雷达点云数据;兴趣特征确定单元6107,用于基于所述第一雷达点云数据和所述参考图像得到第三兴趣特征,并基于所述第二雷达点云数据和所述目标图像得到第四兴趣特征;第二单应性矩阵参数获取单元6108,用于基于所述第三兴趣特征和所述第四兴趣特征,确定路面法线信息和相机高度。其中,所述单应性矩阵参数包括所述相机旋转信息、所述相机平移信息、所述路面法线信息和所述相机高度。
在本公开的一个实施例中,所述兴趣特征确定单元6107用于将去除所述参考图像中参考平面外的像素点之后所述参考图像中剩余的像素点映射到雷达坐标系中,得到第一雷达坐标点集;所述兴趣特征确定单元6107还用于通过对所述第一雷达坐标点集进行随机抽样一致性处理,确定所述参考图像的参考平面的雷达坐标点集;所述兴趣特征确定单元6107还用于基于据所述参考图像的参考平面的雷达坐标点集,得到与所述雷达坐标点集对应的相机坐标点集;所述兴趣特征确定单元6107还用于基于所述相机坐标点集得到所述第三兴趣特征。
在本公开的一个实施例中,所述参考图像和所述目标图像均是在车辆行驶过程中通过相机拍摄得到的,且所述参考图像和所述目标图像间隔N帧,N为大于等于1的自然数。
需要说明的是,本公开实施例的调整单应性矩阵参数的装置的具体实施方式与本公开实施例的调整单应性矩阵参数的方法的具体实施方式类似,具体参见调整单应性矩阵参数的方法部分,为了减少冗余,不作赘述。
示例性电子设备
下面,参考图10来描述根据本公开实施例的电子设备。图10图示了根据本公开实施例的电子设备的框图。
如图10所示,电子设备包括一个或多个处理器1001和存储器1002。
处理器1001可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器1002可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器1001可以运行所述程序指令,以实现上文所述的本公开的各个实施例的调整单应性矩阵参数的方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备还可以包括:输入装置1003和输出装置1004,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入设备1003还可以包括例如键盘、鼠标等等。
当然,为了简化,图10中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的调整单应性矩阵参数的方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的调整单应性矩阵参数的方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (9)
1.一种调整单应性矩阵参数的方法,包括:
获取参考图像与目标图像的参考平面的单应性矩阵参数;
基于所述单应性矩阵参数和所述参考图像,生成所述参考图像的重建图像;
基于所述单应性矩阵参数和所述参考图像的参考平面掩码,确定所述重建图像的参考平面掩码;
基于所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码,确定所述重建图像与所述目标图像之间在参考平面上的图像误差;
基于所述图像误差,调整所述单应性矩阵参数;
其中,所述获取参考图像与目标图像的参考平面的单应性矩阵参数,包括:
获取相机旋转信息和相机平移信息;
获取对应所述参考图像的第一雷达点云数据,并获取对应所述目标图像的第二雷达点云数据;
基于所述第一雷达点云数据和所述参考图像,得到第三兴趣特征;
基于所述第二雷达点云数据和所述目标图像,得到第四兴趣特征;
基于所述第三兴趣特征和所述第四兴趣特征,确定路面法线信息和相机高度;
其中,所述单应性矩阵参数包括所述相机旋转信息、所述相机平移信息、所述路面法线信息和所述相机高度。
2.根据权利要求1所述的调整单应性矩阵参数的方法,其中,所述基于所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码,确定所述重建图像与所述目标图像之间在参考平面上的图像误差,包括:
基于交并化IOU损失系数、所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码得到IOU损失误差;
基于光度损失系数、所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码得到光度损失误差;
基于边缘损失系数、所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码得到边缘损失误差;
基于所述IOU损失误差、所述光度损失误差和所述边缘损失误差得到所述图像误差。
3.根据权利要求1所述的调整单应性矩阵参数的方法,其中,所述获取参考图像与目标图像的参考平面的单应性矩阵参数,包括:
对所述参考图像进行特征提取,得到第一图像特征;
对所述目标图像进行特征提取,得到第二图像特征;
去除所述第一图像特征和所述第二图像特征中参考平面外的点对应的特征,得到第一兴趣特征和第二兴趣特征;
基于所述第一兴趣特征和所述第二兴趣特征,得到单应性矩阵;
基于所述单应性矩阵,确定相机旋转信息、相机平移信息、路面法线信息和相机高度;
其中,所述单应性矩阵参数包括相机旋转信息、相机平移信息、路面法线信息和相机高度。
4.根据权利要求3所述的调整单应性矩阵参数的方法,其中,所述去除所述第一图像特征和所述第二图像特征中参考平面外的点对应的特征,得到第一兴趣特征和第二兴趣特征,包括:
基于所述第一图像特征和所述第二图像特征,采用特征匹配方法得到所述参考图像和所述目标图像的匹配点对;
基于所述第一图像特征和所述第二图像特征,使用语义识别模型确定所述参考图像中的参考平面特征和所述目标图像中的参考平面特征;
基于所述匹配点对以及所述参考图像中的参考平面特征和所述目标图像中的参考平面特征,确定所述第一兴趣特征和所述第二兴趣特征。
5.根据权利要求1所述的调整单应性矩阵参数的方法,其中,所述基于所述第一雷达点云数据和所述参考图像,得到第三兴趣特征,包括:
将去除所述参考图像中参考平面外的像素点之后所述参考图像中剩余的像素点映射到雷达坐标系中,得到第一雷达坐标点集;
通过对所述第一雷达坐标点集进行随机抽样一致性处理,确定所述参考图像的参考平面的雷达坐标点集;
基于据所述参考图像的参考平面的雷达坐标点集,得到与所述雷达坐标点集对应的相机坐标点集;
基于所述相机坐标点集得到所述第三兴趣特征。
6.根据权利要求1所述的调整单应性矩阵参数的方法,其中,所述参考图像和所述目标图像均是在车辆行驶过程中通过相机拍摄得到的,且所述参考图像和所述目标图像间隔N帧,N为大于等于1的自然数。
7.一种调整单应性矩阵参数的装置,包括:
参数获取模块,用于获取参考图像与目标图像的参考平面的单应性矩阵参数;
图像重建模块,用于基于所述单应性矩阵参数和所述参考图像,生成所述参考图像的重建图像;
掩码处理模块,用于基于所述单应性矩阵参数和所述参考图像的参考平面掩码,确定所述重建图像的参考平面掩码;
误差确定模块,用于基于所述重建图像、所述重建图像的参考平面掩码、所述目标图像和所述目标图像的参考平面掩码,确定所述重建图像与所述目标图像之间在参考平面上的图像误差;
参数调整模块,用于基于所述图像误差,调整所述单应性矩阵参数;
其中,所述参数获取模块包括:
第一单应性矩阵参数获取单元,用于获取相机旋转信息和相机平移信息;
雷达数据获取单元,用于获取对应所述参考图像的第一雷达点云数据,并获取对应所述目标图像的第二雷达点云数据;
兴趣特征确定单元,用于基于所述第一雷达点云数据和所述参考图像得到第三兴趣特征,并基于所述第二雷达点云数据和所述目标图像得到第四兴趣特征;
第二单应性矩阵参数获取单元,用于基于所述第三兴趣特征和所述第四兴趣特征,确定路面法线信息和相机高度;
其中,所述单应性矩阵参数包括所述相机旋转信息、所述相机平移信息、所述路面法线信息和所述相机高度。
8.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-6任一所述的调整单应性矩阵参数的方法。
9.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-6任一所述的调整单应性矩阵参数的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110858627.0A CN113592706B (zh) | 2021-07-28 | 2021-07-28 | 调整单应性矩阵参数的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110858627.0A CN113592706B (zh) | 2021-07-28 | 2021-07-28 | 调整单应性矩阵参数的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113592706A CN113592706A (zh) | 2021-11-02 |
CN113592706B true CN113592706B (zh) | 2023-10-17 |
Family
ID=78251243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110858627.0A Active CN113592706B (zh) | 2021-07-28 | 2021-07-28 | 调整单应性矩阵参数的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113592706B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114049388A (zh) * | 2021-11-10 | 2022-02-15 | 北京地平线信息技术有限公司 | 图像数据的处理方法和装置 |
CN114170325A (zh) * | 2021-12-14 | 2022-03-11 | 北京地平线信息技术有限公司 | 确定单应性矩阵的方法、装置、介质、设备和程序产品 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166077A (zh) * | 2018-08-17 | 2019-01-08 | 广州视源电子科技股份有限公司 | 图像对齐方法、装置、可读存储介质及计算机设备 |
CN110088563A (zh) * | 2019-03-13 | 2019-08-02 | 深圳市汇顶科技股份有限公司 | 图像深度的计算方法、图像处理装置及三维测量系统 |
CN110880160A (zh) * | 2019-11-14 | 2020-03-13 | Oppo广东移动通信有限公司 | 图片帧超分方法、装置、终端设备及计算机可读存储介质 |
CN111429354A (zh) * | 2020-03-27 | 2020-07-17 | 贝壳技术有限公司 | 图像拼接及全景图拼接方法和装置、存储介质、电子设备 |
CN112258409A (zh) * | 2020-10-22 | 2021-01-22 | 中国人民武装警察部队工程大学 | 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置 |
CN113129366A (zh) * | 2020-01-10 | 2021-07-16 | 北京字节跳动网络技术有限公司 | 单目slam初始化方法、装置及电子设备 |
CN113160294A (zh) * | 2021-03-31 | 2021-07-23 | 中国科学院深圳先进技术研究院 | 图像场景深度的估计方法、装置、终端设备和存储介质 |
-
2021
- 2021-07-28 CN CN202110858627.0A patent/CN113592706B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166077A (zh) * | 2018-08-17 | 2019-01-08 | 广州视源电子科技股份有限公司 | 图像对齐方法、装置、可读存储介质及计算机设备 |
CN110088563A (zh) * | 2019-03-13 | 2019-08-02 | 深圳市汇顶科技股份有限公司 | 图像深度的计算方法、图像处理装置及三维测量系统 |
CN110880160A (zh) * | 2019-11-14 | 2020-03-13 | Oppo广东移动通信有限公司 | 图片帧超分方法、装置、终端设备及计算机可读存储介质 |
CN113129366A (zh) * | 2020-01-10 | 2021-07-16 | 北京字节跳动网络技术有限公司 | 单目slam初始化方法、装置及电子设备 |
CN111429354A (zh) * | 2020-03-27 | 2020-07-17 | 贝壳技术有限公司 | 图像拼接及全景图拼接方法和装置、存储介质、电子设备 |
CN112258409A (zh) * | 2020-10-22 | 2021-01-22 | 中国人民武装警察部队工程大学 | 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置 |
CN113160294A (zh) * | 2021-03-31 | 2021-07-23 | 中国科学院深圳先进技术研究院 | 图像场景深度的估计方法、装置、终端设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113592706A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5830546B2 (ja) | 対象物のモデル変換に基づくモデルパラメータの決定 | |
CN109191512B (zh) | 双目图像的深度估计方法及装置、设备、程序及介质 | |
CN113592706B (zh) | 调整单应性矩阵参数的方法和装置 | |
US9865061B2 (en) | Constructing a 3D structure | |
CN112435193B (zh) | 一种点云数据去噪的方法、装置、存储介质和电子设备 | |
KR20100098641A (ko) | 불변적인 시각적 장면 및 객체 인식 | |
CN113592940B (zh) | 基于图像确定目标物位置的方法及装置 | |
WO2023109221A1 (zh) | 确定单应性矩阵的方法、装置、介质、设备和程序产品 | |
CN110009683B (zh) | 基于MaskRCNN的实时平面上物体检测方法 | |
CN113570667B (zh) | 视觉惯导补偿方法、装置及存储介质 | |
JP2023065296A (ja) | 平面検出装置及び方法 | |
CN114820987A (zh) | 一种基于多视角图像序列的三维重建方法及系统 | |
CN105074729A (zh) | 光度边缘描述 | |
CN111260544B (zh) | 数据处理方法及装置、电子设备和计算机存储介质 | |
CN112199978B (zh) | 视频物体检测方法和装置、存储介质和电子设备 | |
CN112241967B (zh) | 目标跟踪方法、装置、介质和设备 | |
Li et al. | Fast matching method of UAV aerial photography enhanced low illumination image | |
CN116684748B (zh) | 摄影构图框的生成方法、装置及摄影设备 | |
Strauss et al. | Neural Network-Based Stereo Vision Outlier Removal | |
Weber et al. | Learning implicit depth information for monocular 3d object detection | |
He | Research on outdoor garden scene reconstruction based on PMVS Algorithm | |
Rolin et al. | View synthesis for pose computation | |
Alyousefi et al. | Ego-motion estimation using affine correspondences | |
Mittseva et al. | Three-dimensional real object modeling based on modified closest-point algorithm for monitoring in intelligent manufacturing | |
Junior et al. | Linear-time computation of indexing based stereo correspondence for cameras with automatic gain control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |