CN113240678B - 平面信息检测方法及系统 - Google Patents

平面信息检测方法及系统 Download PDF

Info

Publication number
CN113240678B
CN113240678B CN202110505159.9A CN202110505159A CN113240678B CN 113240678 B CN113240678 B CN 113240678B CN 202110505159 A CN202110505159 A CN 202110505159A CN 113240678 B CN113240678 B CN 113240678B
Authority
CN
China
Prior art keywords
plane
information
plane information
point cloud
physical environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110505159.9A
Other languages
English (en)
Other versions
CN113240678A (zh
Inventor
吴涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Xiaoniao Kankan Technology Co Ltd
Original Assignee
Qingdao Xiaoniao Kankan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Xiaoniao Kankan Technology Co Ltd filed Critical Qingdao Xiaoniao Kankan Technology Co Ltd
Priority to CN202110505159.9A priority Critical patent/CN113240678B/zh
Publication of CN113240678A publication Critical patent/CN113240678A/zh
Priority to PCT/CN2021/118287 priority patent/WO2022237026A1/zh
Priority to US17/816,377 priority patent/US11741621B2/en
Application granted granted Critical
Publication of CN113240678B publication Critical patent/CN113240678B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

本发明提供一种平面信息检测方法及系统,其中的方法包括:获取用户物理环境下的点云信息;对点云信息进行迭代回归,拟合出与物理环境对应的所有平面信息;对所有平面信息进行预设规则的合并,以获取合并后的平面信息集;基于预训练的平面分割模型对平面信息集进行平面分割,获取分割后的平面信息;对分割后的平面信息进行筛选,确定与物理环境对应的所有目标平面信息。利用上述发明能够提高物理环境下的平面检测和提取的精度和稳定性。

Description

平面信息检测方法及系统
技术领域
本发明涉及平面检测技术领域,更为具体地,涉及一种平面信息检测方法及系统。
背景技术
目前,VR/AR/MR一体机设备越来越多的进入到人们生活中,其主要的应用场景是当用户进行VR/AR/MR场景交互时,通过头戴上的多目追踪摄像头自动识别跟踪用户手一些行为轨迹信息,并通过手的一些行为轨迹检测手势指令,然后作为人造虚拟现实系统的输入信息,和虚拟场景进行交互。
现有的VR、AR或者MR均是人基于虚拟场景物体和物理环境物体进行交互,其中最为基础和最为常见的交互物体是平面,平面检测的精度往往代表了VR、AR或者MR人机交互的基础体验,由于不同的物理环境,例如办公室场所、商场场所或者家里客厅、卧室等不同环境下的场所,使其平面环境变的多种多样,其平面检测的难度和复杂度也的越来越高。
目前在VR、AR或者MR领域中,主要是通过计算处理器生成物理环境的点云数据,通过对点云数据进行平面检测和平面拟合,然后获取物理环境中的各种平面信息,但是,现有方法存在对物理环境下的一些场景的平面检测不充分,或者过充分的情况,影响平面检测精度和稳定性。
发明内容
鉴于上述问题,本发明的目的是提供一种平面信息检测方法及系统,解决目前平面检测存在的检测不充分或过充分,影响检测精度和稳定性等问题。
本发明提供的平面信息检测方法,包括获取用户物理环境下的点云信息;对点云信息进行迭代回归,拟合出与物理环境对应的所有平面信息;对所有平面信息进行预设规则的合并,以获取合并后的平面信息集;基于预训练的平面分割模型对平面信息集进行平面分割,获取分割后的平面信息;对分割后的平面信息进行筛选,确定与物理环境对应的所有目标平面信息。
此外,可选的技术方案是,平面分割模型的训练过程包括:采集平面图像数据,并对平面图像数据进行数据标注,以获取平面图像标注集;基于平面图像标注集训练神经网络模型,直至神经网络模型收敛在预设范围内,形成平面分割模型。
此外,可选的技术方案是,平面信息包括当前平面中所有的点云信息以及与各点云信息分别对应的二维图像信息;点云信息通过虚拟现实显示装置内的头戴定位追踪模块获取。
此外,可选的技术方案是,对点云信息进行迭代回归的过程包括:对点云信息进行RANSAC算法处理,拟合与物理环境对应的所有平面信息;其中,拟合的最小点云信息的个数为10。
此外,可选的技术方案是,拟合出与物理环境对应的所有平面信息的过程包括:在点云信息中随机获取预设个数的距离最近的点云,并进行RANSAC算法的平面拟合,以获取初始平面;获取初始平面的法向量;随机获取点云信息中的随机点云,并对随机点云和初始平面的点云进行平面拟合,获取新的法向量;判断初始平面的法向量和新的法向量之间的差异,如果差异符合预设范围,则重复上述迭代步骤,否则,保留最后一次迭代的平面信息,直至获取所有平面信息。
此外,可选的技术方案是,预设范围为1cm~4cm。
此外,可选的技术方案是,对所有平面信息进行预设规则的合并的过程包括:判断所有平面信息中任意两平面信息之间的倾斜角,当倾斜角满足第一阈值时,判断两平面信息上的三维空间点云之间的距离在预设值以内的点云的个数是否满足第二阈值;当第一阈值和第二阈值均满足时,对两平面信息进行合并。
此外,可选的技术方案是,第一阈值为4°~12°;第二阈值为8~20个。
此外,可选的技术方案是,对分割后的平面信息进行筛选的过程包括:获取分割后的平面信息中各平面的像素点个数在平面信息集中对应的平面中的占比率;当占比率满足预设阈值时,确定平面信息为物理环境下的目标平面信息。
根据本发明的另一方面,提供一种平面信息检测系统,包括:点云信息获取单元,用于获取用户物理环境下的点云信息;平面信息拟合单元,用于对点云信息进行迭代回归,拟合出与物理环境对应的所有平面信息;平面信息集获取单元,用于对所有平面信息进行预设规则的合并,以获取合并后的平面信息集;分割处理单元,用于基于预训练的平面分割模型对平面信息集进行平面分割,获取分割后的平面信息;目标平面信息确定单元,用于对分割后的平面信息进行筛选,确定与物理环境对应的所有目标平面信息。
利用上述平面信息检测方法及系统,获取用户物理环境下的点云信息;对点云信息进行迭代回归,拟合出与物理环境对应的所有平面信息;对所有平面信息进行预设规则的合并,以获取合并后的平面信息集;基于预训练的平面分割模型对平面信息集进行平面分割,获取分割后的平面信息;对分割后的平面信息进行筛选,确定与物理环境对应的所有目标平面信息,能够稳定的提取屋里环境下的平面信息,提取准确度高、可适用范围广。
为了实现上述以及相关目的,本发明的一个或多个方面包括后面将详细说明的特征。下面的说明以及附图详细说明了本发明的某些示例性方面。然而,这些方面指示的仅仅是可使用本发明的原理的各种方式中的一些方式。此外,本发明旨在包括所有这些方面以及它们的等同物。
附图说明
通过参考以下结合附图的说明,并且随着对本发明的更全面理解,本发明的其它目的及结果将更加明白及易于理解。在附图中:
图1为根据本发明实施例的平面信息检测方法的流程图;
图2为根据本发明实施例的平面信息检测系统的逻辑方框图。
在所有附图中相同的标号指示相似或相应的特征或功能。
具体实施方式
在下面的描述中,出于说明的目的,为了提供对一个或多个实施例的全面理解,阐述了许多具体细节。然而,很明显,也可以在没有这些具体细节的情况下实现这些实施例。在其它例子中,为了便于描述一个或多个实施例,公知的结构和设备以方框图的形式示出。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
为详细描述本发明实施例的平面信息检测方法及系统,以下将结合附图对本发明的具体实施例进行详细描述。
图1示出了根据本发明实施例的平面信息检测方法的流程。
如图1所示,本发明实施例的平面信息检测方法,主要包括以下步骤:
S110:取用户物理环境下的点云信息;
S120:对所述点云信息进行迭代回归,拟合出与所述物理环境对应的所有平面信息;
S130:对所述所有平面信息进行预设规则的合并,以获取合并后的平面信息集;
S140:基于预训练的平面分割模型对平面信息集进行平面分割,获取分割后的平面信息;
S150:对分割后的平面信息进行筛选,确定与物理环境对应的所有目标平面信息。
其中,本发明实施例的平面信息检测方法主要包括两个阶段,一个阶段为平面分割模型的训练阶段,另一个阶段为基于平面分割模型获取目标平面信息的阶段,以下将结合具体实施例对上述两个阶段进行分别描述。
具体地,平面分割模型的训练过程包括:采集平面图像数据,并对平面图像数据进行数据标注,以获取平面图像标注集;基于平面图像标注集训练神经网络模型,直至神经网络模型收敛在预设范围内,形成平面分割模型。
作为具体示例,可通过虚拟现实显示设备(HMD)采集各种场景下的平面图像数据,比如办公室场景下的办公桌面、地面、会议桌面等平面图像数据,家里的客厅环境下的平面图像数据,比如客厅餐桌、客厅地面或者客厅茶几等平面图像数据等其他环境场景下的平面图像数据,共采集300万张平面图像数据,形成平面图像数据集,然后对数据集中每一张图像数据进行平面数据标注,获取对应的平面图像标注集;然后,基于神经网络模型进行平面分割模型的训练,直至获取高精度的平面分割模型。
进一步地,在上述虚拟现实显示设备(HMD)内设置有头戴定位追踪传感器,该头戴定位追踪传感器通常为鱼眼光脚摄像机,在虚拟现实显示设备(HMD)内一般设置有两个及以上个数的鱼眼广角摄像机。例如,在本发明的平面信息检测方法中,可通过获取的HMD内置的鱼眼广角摄像机的图像数据进行平面分割模型的训练。
上述步骤S110中,可通过HMD的头戴定位追踪传感器获取用户物理环境下的点云信息,点云主要是指目标表面特性的海量点集合,根据激光测量原理得到的点云,包括三维坐标和激光反射强度,而根据摄影测量原理得到的点云,包括三维坐标和颜色信息,本发明中的点云信息可包括目标表面特性的海量的三维坐标、颜色信息和激光反射强度。
进一步地,对获取的点云信息进行迭代回归,拟合出与物理环境对应的所有平面信息;其中,平面信息包括当前平面中所有的点云信息以及与各点云信息分别对应的二维图像信息,点云信息通过虚拟现实显示装置内的头戴定位追踪模块获取。
作为具体示例,对点云信息进行迭代回归的过程可包括:对点云信息进行RANSAC算法处理,拟合与物理环境对应的所有平面信息;其中,为了提高平面拟合的精度和稳定性,拟合的最小点云信息的个数可设置为10。
进一步地,拟合出与物理环境对应的所有平面信息的过程包括:在点云信息中随机获取预设个数的距离最近的点云,并进行RANSAC算法的平面拟合(例如,随机获取10个相互距离最近的点云进行平面拟合),以获取初始平面;然后,获取初始平面的法向量;随机获取点云信息中的随机点云,并对随机点云和初始平面的点云进行平面拟合,获取新的法向量;判断初始平面的法向量和新的法向量之间的差异,如果差异符合预设范围,例如1cm~4cm,则重复上述迭代步骤,继续在点云信息(池)中随机获取一个点云,继续做平面拟合;否则,如何差异大于预设范围,则保留最后一次迭代的平面信息;然后,继续在点云信息中随机获取预设个数的距离最近的点云进行平面拟合,直至获取所有的平面信息,形成平面信息集。
在上述步骤S130中,对所有平面信息进行预设规则的合并的过程包括:判断所有平面信息中任意两平面信息之间的倾斜角,当倾斜角满足第一阈值时,判断两平面信息上的三维空间点云之间的距离在预设值以内的点云的个数是否满足第二阈值;进而,当第一阈值和第二阈值均满足时,对两平面信息进行合并。
在本发明的一个具体实施方式中,第一阈值可设置为4°~12°;第二阈值可设置为8~20个。
作为示例,针对所有平面信息,判断任意两平面信息之间的倾斜角在8°以内并且两个平面信息上的最近三维空间点云之间的距离在10cm以内的点云个数如果超过10个,在对该两个平面信息进行合并,并获取合并后的一个平面信息,在合并过程中,可将两个平面信息对应的点云信息组合在一起,然后进行一次平面拟合,即可获取合并后的平面信息。
然后,按照上述预设规则的判断标准,对检测出的所有平面进行判断合并,获取对应物理环境下所有平面信息,作为合并后的平面信息集。
上述步骤S140中,通过训练完成的平面分割模型对平面信息集中的所有平面信息进行平面分割,由于在进行分割前,可能存在不是平面的误检测概率,即在上述步骤中获取的物理环境中的平面可能存在误检测的可能,为此可通过平面分割对上述检测到的平面信息进一步结合语义信息进行确认,以精准获取真实物理环境下的平面信息。
在获取分割后的平面信息后,进一步对分割后的平面信息进行筛选,筛选的过程包括:获取分割后的平面信息中各平面的像素点个数在平面信息集中对应的平面中的占比率;当占比率满足预设阈值时,确定平面信息为物理环境下的目标平面信息。
例如,计算分割后的平面信息中每个平面的像素点个数在平面信息集中对应的平面中的占比率,如果占比率大于85%(该占比率可根据具体的应用场景或需求进行设置及调整),确认对应的平面为物理环境中的平面信息,即可作为目标平面信息,按照上述筛选方式,对分割后的所有平面信息均进行筛选,以获取对应的物理环境下的所有的目标平面信息。
其中,像素点对应二维点,空间点云对应空间三维点,每一个像素点对应一个空间三维点云。
与上述平面信息检测方法相对应,本发明还提供一种平面信息检测系统。具体地,图2示出了根据本发明实施例的平面信息检测系统的示意逻辑。
如图2所示,本发明实施例的平面信息检测系统200,可以包括:
点云信息获取单元210,用于获取用户物理环境下的点云信息;
平面信息拟合单元220,用于对点云信息进行迭代回归,拟合出与物理环境对应的所有平面信息;
平面信息集获取单元230,用于对所有平面信息进行预设规则的合并,以获取合并后的平面信息集;
分割处理单元240,用于基于预训练的平面分割模型对平面信息集进行平面分割,获取分割后的平面信息;
目标平面信息确定单元250,用于对分割后的平面信息进行筛选,确定与物理环境对应的所有目标平面信息。
需要说明的是,上述平面信息检测系统的实施例可参考平面信息检测方法实施例中的描述,此处不再一一赘述。
利用上述根据本发明提供的平面信息检测方法及系统,结合人工神经网络模型的语义分割技术,实现对物理环境下的平面的检测和提取,能够提高物理环境下的平面检测精度和稳定性。
如上参照附图以示例的方式描述根据本发明的平面信息检测方法及系统。但是,本领域技术人员应当理解,对于上述本发明所提出的平面信息检测方法及系统,还可以在不脱离本发明内容的基础上做出各种改进。因此,本发明的保护范围应当由所附的权利要求书的内容确定。

Claims (9)

1.一种平面信息检测方法,其特征在于,包括:
获取用户物理环境下的点云信息;
对所述点云信息进行迭代回归,拟合出与所述物理环境对应的所有平面信息;所述平面信息包括当前平面中所有的点云信息以及与各点云信息分别对应的二维图像信息;
对所述所有平面信息进行预设规则的合并,以获取合并后的平面信息集,包括:判断所述所有平面信息中任意两平面信息之间的倾斜角,当所述倾斜角满足第一阈值时,判断所述两平面信息上的三维空间点云之间的距离在预设值以内的点云的个数是否满足第二阈值;当所述第一阈值和所述第二阈值均满足时,对所述两平面信息进行合并;
基于预训练的平面分割模型对所述平面信息集进行平面分割,获取分割后的平面信息;
对分割后的平面信息进行筛选,确定与所述物理环境对应的所有目标平面信息。
2.如权利要求1所述的平面信息检测方法,其特征在于,所述平面分割模型的训练过程包括:
采集平面图像数据,并对所述平面图像数据进行数据标注,以获取平面图像标注集;
基于所述平面图像标注集训练神经网络模型,直至所述神经网络模型收敛在预设范围内,形成所述平面分割模型。
3.如权利要求1所述的平面信息检测方法,其特征在于,
所述点云信息通过虚拟现实显示装置内的头戴定位追踪模块获取。
4.如权利要求1所述的平面信息检测方法,其特征在于,对所述点云信息进行迭代回归的过程包括:
对所述点云信息进行RANSAC算法处理,拟合与所述物理环境对应的所有平面信息;其中,
所述拟合的最小点云信息的个数为10。
5.如权利要求4所述的平面信息检测方法,其特征在于,所述拟合出与所述物理环境对应的所有平面信息的过程包括:
在所述点云信息中随机获取预设个数的距离最近的点云,并进行RANSAC算法的平面拟合,以获取初始平面;
获取所述初始平面的法向量;
随机获取所述点云信息中的随机点云,并对所述随机点云和所述初始平面的点云进行平面拟合,获取新的法向量;
判断所述初始平面的法向量和所述新的法向量之间的差异,如果所述差异符合预设范围,则重复上述迭代步骤,否则,保留最后一次迭代的平面信息,直至获取所述所有平面信息。
6.如权利要求5所述的平面信息检测方法,其特征在于,
所述预设范围为1cm~4cm。
7.如权利要求1所述的平面信息检测方法,其特征在于,
所述第一阈值为4°~12°;
所述第二阈值为8~20个。
8.如权利要求1所述的平面信息检测方法,其特征在于,对分割后的平面信息进行筛选的过程包括:
获取所述分割后的平面信息中各平面的像素点个数在所述平面信息集中对应的平面中的占比率;
当所述占比率满足预设阈值时,确定所述平面信息为所述物理环境下的目标平面信息。
9.一种平面信息检测系统,其特征在于,包括:
点云信息获取单元,用于获取用户物理环境下的点云信息;
平面信息拟合单元,用于对所述点云信息进行迭代回归,拟合出与所述物理环境对应的所有平面信息;所述平面信息包括当前平面中所有的点云信息以及与各点云信息分别对应的二维图像信息;
平面信息集获取单元,用于对所述所有平面信息进行预设规则的合并,以获取合并后的平面信息集,包括:判断所述所有平面信息中任意两平面信息之间的倾斜角,当所述倾斜角满足第一阈值时,判断所述两平面信息上的三维空间点云之间的距离在预设值以内的点云的个数是否满足第二阈值;当所述第一阈值和所述第二阈值均满足时,对所述两平面信息进行合并;
分割处理单元,用于基于预训练的平面分割模型对所述平面信息集进行平面分割,获取分割后的平面信息;
目标平面信息确定单元,用于对分割后的平面信息进行筛选,确定与所述物理环境对应的所有目标平面信息。
CN202110505159.9A 2021-05-10 2021-05-10 平面信息检测方法及系统 Active CN113240678B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110505159.9A CN113240678B (zh) 2021-05-10 2021-05-10 平面信息检测方法及系统
PCT/CN2021/118287 WO2022237026A1 (zh) 2021-05-10 2021-09-14 平面信息检测方法及系统
US17/816,377 US11741621B2 (en) 2021-05-10 2022-07-29 Method and system for detecting plane information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110505159.9A CN113240678B (zh) 2021-05-10 2021-05-10 平面信息检测方法及系统

Publications (2)

Publication Number Publication Date
CN113240678A CN113240678A (zh) 2021-08-10
CN113240678B true CN113240678B (zh) 2023-05-30

Family

ID=77133193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110505159.9A Active CN113240678B (zh) 2021-05-10 2021-05-10 平面信息检测方法及系统

Country Status (2)

Country Link
CN (1) CN113240678B (zh)
WO (1) WO2022237026A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741621B2 (en) 2021-05-10 2023-08-29 Qingdao Pico Technology Co., Ltd. Method and system for detecting plane information
CN113240678B (zh) * 2021-05-10 2023-05-30 青岛小鸟看看科技有限公司 平面信息检测方法及系统
CN117635888B (zh) * 2023-12-07 2024-04-26 腾讯科技(深圳)有限公司 一种数据处理方法及相关装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507982A (zh) * 2019-06-28 2020-08-07 浙江大学 一种基于深度学习的点云语义分割方法
CN112396650A (zh) * 2020-03-30 2021-02-23 青岛慧拓智能机器有限公司 一种基于图像和激光雷达融合的目标测距系统及方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070570B (zh) * 2019-03-20 2023-05-26 重庆邮电大学 一种基于深度信息的障碍物检测系统及方法
CN109993783B (zh) * 2019-03-25 2020-10-27 北京航空航天大学 一种面向复杂三维建筑物点云的屋顶及侧面优化重建方法
CN110458805B (zh) * 2019-03-26 2022-05-13 华为技术有限公司 一种平面检测方法、计算设备以及电路系统
CN110197215A (zh) * 2019-05-22 2019-09-03 深圳市牧月科技有限公司 一种自主驾驶的地面感知点云语义分割方法
CN110264572B (zh) * 2019-06-21 2021-07-30 哈尔滨工业大学 一种融合几何特性与力学特性的地形建模方法及系统
CN110264468B (zh) * 2019-08-14 2019-11-19 长沙智能驾驶研究院有限公司 点云数据标注、分割模型确定、目标检测方法及相关设备
CN111639682A (zh) * 2020-05-13 2020-09-08 北京三快在线科技有限公司 基于点云数据的地面分割方法及装置
CN111985322B (zh) * 2020-07-14 2024-02-06 西安理工大学 一种基于激光雷达的道路环境要素感知方法
CN111882610B (zh) * 2020-07-15 2022-09-20 中国科学院自动化研究所 基于椭圆锥人工势场的服务机器人抓取目标物体的方法
CN111932688B (zh) * 2020-09-10 2021-02-09 深圳大学 一种基于三维点云的室内平面要素提取方法、系统及设备
CN112184736B (zh) * 2020-10-10 2022-11-11 南开大学 一种基于欧式聚类的多平面提取方法
CN112329946A (zh) * 2020-11-10 2021-02-05 广州极飞科技有限公司 地面分割学习模型训练方法、地平面确定方法及相关装置
CN112365575B (zh) * 2020-11-10 2022-06-21 广州极飞科技股份有限公司 地平面数据测量方法、装置、可移动设备和可读存储介质
CN113240678B (zh) * 2021-05-10 2023-05-30 青岛小鸟看看科技有限公司 平面信息检测方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507982A (zh) * 2019-06-28 2020-08-07 浙江大学 一种基于深度学习的点云语义分割方法
CN112396650A (zh) * 2020-03-30 2021-02-23 青岛慧拓智能机器有限公司 一种基于图像和激光雷达融合的目标测距系统及方法

Also Published As

Publication number Publication date
CN113240678A (zh) 2021-08-10
WO2022237026A1 (zh) 2022-11-17

Similar Documents

Publication Publication Date Title
CN113240678B (zh) 平面信息检测方法及系统
Gao et al. Robust RGB-D simultaneous localization and mapping using planar point features
JP6295645B2 (ja) 物体検出方法及び物体検出装置
JP5722502B2 (ja) モバイルデバイスのための平面マッピングおよびトラッキング
CN106203423B (zh) 一种融合上下文探测的弱结构感知视觉目标跟踪方法
US8831337B2 (en) Method, system and computer program product for identifying locations of detected objects
Tang et al. ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans
EP3274964B1 (en) Automatic connection of images using visual features
CN108510528B (zh) 一种可见光和红外图像配准融合的方法及装置
US20220051372A1 (en) Feature matching using features extracted from perspective corrected image
CN110544268B (zh) 一种基于结构光及SiamMask网络的多目标跟踪方法
JP2015002547A (ja) 画像処理装置、プログラム、および画像処理方法
Yang et al. A new hybrid synthetic aperture imaging model for tracking and seeing people through occlusion
JP5248236B2 (ja) 画像処理装置および画像処理方法
WO2022227462A1 (zh) 定位方法、装置、电子设备及存储介质
CN113362441A (zh) 三维重建方法、装置、计算机设备和存储介质
US11741621B2 (en) Method and system for detecting plane information
Kochi et al. 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera
CN110929583A (zh) 一种高检测精度人脸识别方法
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Nishio et al. Moving objects extraction for building environmental maps describing human walking activity using a 3D LiDAR
CN114998743A (zh) 一种视觉地图点的构建方法、装置、设备及介质
JP6795469B2 (ja) 注視領域推定装置及びプログラム
Song et al. SCE-SLAM: a real-time semantic RGBD SLAM system in dynamic scenes based on spatial coordinate error
CN111739086A (zh) 测量面积的方法及装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant