CN112288815A - 一种目标模位置测量方法、系统、存储介质及设备 - Google Patents
一种目标模位置测量方法、系统、存储介质及设备 Download PDFInfo
- Publication number
- CN112288815A CN112288815A CN202011228499.3A CN202011228499A CN112288815A CN 112288815 A CN112288815 A CN 112288815A CN 202011228499 A CN202011228499 A CN 202011228499A CN 112288815 A CN112288815 A CN 112288815A
- Authority
- CN
- China
- Prior art keywords
- target
- target object
- pixel
- images
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种目标模位置测量方法、系统、存储介质及设备,采集目标物体不同位置的两幅图像;分别对两幅图像进行分割,得到图像中待测量的目标物体,并获取目标物体的像素集合;以其中一幅图为参考图像,对两幅图像中目标物体的像素点进行匹配,得到两幅图像中目标物体像素点的对应关系;利用已知参考基准点的像素坐标和世界坐标,求解图像采集时的设备姿态,基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量,进而求解目标点的实际空间坐标;重复上述步骤,遍历计算目标像素集合中的每一个点,得到最终目标物体的模位置;本发明通过采集目标的两幅图像即可实现目标物体的模位置测量。
Description
技术领域
本发明属于目标定位技术领域,具体涉及一种目标模位置测量方法、系统、存储介质及设备。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
很多场景下都需要进行针对目标物体的定位,但据发明人了解,传统意义上的定位结果大多是以一个二维或者三维点坐标的形式呈现,这种方式存在以下问题:
一般需要多幅连续图像,才能实现目标物体的空间定位;当目标物体较大或具有一定体积/面积时,却只有一个点坐标,对于很多场景,如交通管制、机器人巡检时,会造成对于目标物体边界的模糊,影响定位精度,具有一定的安全隐患。
发明内容
本发明为了解决上述问题,提出了一种目标模位置测量方法、系统、存储介质及设备,本发明通过采集目标的两幅图像即可实现目标物体的模位置测量。
根据一些实施例,本发明采用如下技术方案:
一种目标模位置测量方法,包括以下步骤:
采集目标物体不同位置的两幅图像;
分别对两幅图像进行分割,得到图像中待测量的目标物体,并获取目标物体的像素集合;
以其中一幅图为参考图像,对两幅图像中目标物体的像素点进行匹配,得到两幅图像中目标物体像素点的对应关系;
利用已知参考基准点的像素坐标和世界坐标,求解图像采集时的设备姿态,基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量,进而求解目标点的实际空间坐标;
重复上述步骤,遍历计算目标像素集合中的每一个点,得到最终目标物体的模位置。
作为可选择的实施方式,利用双目相机采集目标的左右两幅图像,得到目标成像位置不同的两幅图。
作为可选择的实施方式,通过张正友标定法获得两个相机的内参矩阵和畸变参数。
作为可选择的实施方式,分别对两幅图像进行分割,得到图像中待测量的目标物体的具体过程包括:
对采集的两幅图像,利用基于深度学习的实例分割算法对目标物体的分割,得到图像中待测量目标实体在图像中的像素位置。
作为可选择的实施方式,对两幅图像中目标物体的像素点进行匹配的具体过程包括:在参考图像中选择一个像素点,选择该点邻域内一个滑动窗口,根据相似性判断准则,在待匹配图像中寻找与参考图像中目标窗口最相似的窗口,该窗口所对应的像素点即为对应的匹配点。
作为进一步的限定,所述相似性判断准则为计算滑动窗内每个像素对应数值之差的绝对值之和,得到的差值之和越小,越相似。
作为可选择的实施方式,求解图像采集时的设备姿态的具体过程包括:在场景中布设N个基准点,测量其空间位置,同时获得N个基准点在图像中的像素位置,通过这N组3D-2D点对,利用PnP算法求解出相机姿态。
作为可选择的实施方式,基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量的具体过程包括:给予得到相机的姿态,根据目标点的像素坐标,得到相机光心与目标点的直线方向,即目标点的空间方向向量,进而求解目标点相对于两个相机的空间方向向量。
作为可选择的实施方式,求解目标点的实际空间坐标的具体过程包括:在得到目标点相对于两个相机的方向向量后,根据直线交汇原理,目标点应该为两个方向向量的交点,通过求解两条直线的交点即可得到目标点的世界坐标;
当两条直线不相交的情况,取空间中对两条直线距离最近的点作为目标点。
一种目标模位置测量系统,包括:
图像采集模块,被配置为采集目标物体不同位置的两幅图像;
像素提取模块,被配置为分别对两幅图像进行分割,得到图像中待测量的目标物体,并获取目标物体的像素集合;
图像匹配模块,被配置为以其中一幅图为参考图像,对两幅图像中目标物体的像素点进行匹配,得到两幅图像中目标物体像素点的对应关系;
空间坐标计算模块,被配置为利用已知参考基准点的像素坐标和世界坐标,求解图像采集时的设备姿态,基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量,进而求解目标点的实际空间坐标;
模位置计算模块,被配置为遍历计算目标像素集合中的每一个点,得到最终目标物体的模位置。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种目标模位置测量方法中的步骤。
一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种目标模位置测量方法中的步骤。
与现有技术相比,本发明的有益效果为:
本发明不再将目标当作一个质点,而是具有空间占据的实体。同时,采用实例分割算法,能够将同一类型的不同实体区分出来,因此可实现每一个目标实体空间位置的精确解算。
本发明采用图像处理的方式实现模位置测量,区别于当前利用GPS接收机、UWB或蓝牙标签等位置测量方法,该方法无需用户的人为参与,可实现位置的无感测量。
本发明能够实现目标实体的位置和空间占据信息感知,有利于实现目标实体的管理控制。具有较广泛的应用空间,可以用于工业自动化生产过程中工件或代加工物体的位置与占据空间;可以用于场景内机器人等巡检设备的精确定位,对待检测设备的避障和有效采集;可以用于智能建筑或智能家居控制;交通控制与管制等诸多领域。
本发明能够得到不同目标实体的模位置,可实现实景的快速三维建模。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为定位流程示意图;
图2为双目相机采集目标图像示意图;
图3为图像实例分割示意图;
图4为目标像素点匹配示意图;
图5为目标点空间方向向量示意图;
图6为目标点空间位置求解示意图。
具体实施方式:
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一:
本实施例提出一种基于双目相机的目标模位置测量方法。如图1所示,首先通过双目相机采集目标实体的左右两幅图像。分别对左右两幅图像进行实例分割,得到图像中待测量的目标实体,并获取左右两幅图像中待测量目标的像素集合。以左图为参考图像,对两幅图像中目标的像素点进行匹配,得到左右图像中目标像素点的一一对应关系。
利用已知参考基准点的像素坐标和世界坐标,求解两个相机的姿态。基于相机姿态和待测目标的像素坐标,解算目标点的空间方向向量。得到左右图像对应点的空间方向向量后,根据直线交汇原理,求解目标点的实际空间坐标。依照上述步骤,遍历计算目标像素集合中的每一个点,得到最终目标的模位置。
下面针对每个步骤进行详细说明:
1、双目相机采集图像
通过双目相机采集目标的左右两幅图像,得到目标成像位置不同的左右两图。同时,通过张正友标定法获得两个相机的内参矩阵和畸变参数。如图2所示。
2、图像的实例分割:
对采集的左右两幅RGB图像基于深度学习的实例分割算法实现对目标实体的分割。当前,用来实现实例分割的常用深度学习模型有Mask R-CNN、Mask Scoring R-CNN、TensorMask、SOLO、BlendMask、YOLACT等。其中,YOLACT能够取得33FPS的分割速度,可以达到实时的效果。
在本实施例中,采用YOLACT作为实例分割的优选实施,实例分割的结果能够得到RGB图像中待测量目标实体在图像中的像素位置。如图3所示,狗是待测量的目标实体,经过图像的实例分割后,狗被分割出来并用不同的颜色表示。需要说明的是,无论采用哪种神经网络模型实现图像的实例分割,都不影响本方案的实质。
3、左右目标像素点的匹配
在步骤二的图像实例分割中,已获得待测量目标的像素集合。对于同一个待测量目标,在左右两幅图像中的成像位置是不同的,需要对目标中像素点进行匹配,得到左右两图中目标像素点的一一对应关系。
如图4所示,本实施例采用局部匹配算法,具体为:以左图为参考图像,对目标中的每一个像素点建立9*9的窗口,选择右图中每一个像素点对应的9*9滑动窗,计算滑动窗内每个像素对应数值之差的绝对值之和。计算得到的差值之和越小,说明越相似,以最相似的窗口对应的像素点作为匹配点。
当然,在其他实施例中,可以替换为其他已有匹配方法,如全局匹配方法等。在此不再赘述。但这些替换属于简单替换,理应属于本发明的保护范围。
4、目标点的空间方向向量
求解目标点的空间方向向量,即求解相机光心与目标点的空间直线方程。
首先对相机进行姿态估计。求解时可通过求解3D-2D点对运动的方法,通过多组3D-2D点的匹配,在相机内参已知的情况下,利用最小化重投影误差来求解相机位姿。在本发明中,采用PnP实现相机姿态的求解。具体为:在场景中布设4个基准点,精确测量其空间位置,同时获得4个基准点在图像中的像素位置,通过这4组3D-2D点对,利用PnP算法求解出相机姿态。
当然,在其他实施例中,可以选用3对点估计位姿的P3P、直接线性变换(DLT)、EPnP(Efficient PnP)等。
在得到相机姿态的基础上,根据目标点的像素坐标,可以得到相机光心与目标点的直线方向,即目标点的空间方向向量,如图5所示的直线OcP。对左右两幅图像进行上述操作,求解目标点相对于两个相机的空间方向向量。
5、求解目标点的空间坐标
如图6所示,在得到目标点相对于两个相机的方向向量后,根据直线交汇原理,目标点应该为两个方向向量的交点。因此,通过求解两条直线的交点即可得到目标点的世界坐标。在实际实施中,由于误差可能存在两条直线不相交的情况,可取空间中对两条直线距离最近的点作为目标点。
6、求解目标的模位置
步骤4-5实现了图像中目标的一个点的世界坐标求解,根据步骤2和3得到的待测量目标的全部像素点及匹配关系,遍历全部像素点执行步骤4-5实现该目标上全部点的测量,即目标模位置的测量。
本实施例通过双目相机采集目标图像即可实现目标表面所有点的空间位置测量。不再将目标当作一个质点,而是具有空间占据的实体。同时,采用实例分割算法,能够将同一类型的不同实体区分出来,因此可实现每一个目标实体空间位置的精确解算。
同时,整个过程无需用户的人为参与,可实现位置的无感测量,实现目标的模位置测量,即实现目标实体的位置和空间占据信息感知,有利于实现目标实体的管理控制。
作为应用实施例,以不同实施例进行说明实施例一的应用场景,但并不代表本发明仅有以下几种应用场景。
实施例二:
利用实施例一的方法对工业自动化生产车间对于包装箱(例如立方体箱子)的定位:通过测量一个工业自动化生产场景中立方体箱子的模位置,能够得到立方体箱子在场景中的位置和占据空间,机械手可以根据箱子的模位置对其进行精准地抓取操作。
实施例三:
利用实施例一的方法对变电站内的各个电力设备进行定位,确定电力设备的边界,在巡检任务中标定上述边界,以控制机器人进行避障。
另外,提供以下产品实施例:
实施例四:
一种目标模位置测量系统,包括:
图像采集模块,被配置为采集目标物体不同位置的两幅图像;
像素提取模块,被配置为分别对两幅图像进行分割,得到图像中待测量的目标物体,并获取目标物体的像素集合;
图像匹配模块,被配置为以其中一幅图为参考图像,对两幅图像中目标物体的像素点进行匹配,得到两幅图像中目标物体像素点的对应关系;
空间坐标计算模块,被配置为利用已知参考基准点的像素坐标和世界坐标,求解图像采集时的设备姿态,基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量,进而求解目标点的实际空间坐标;
模位置计算模块,被配置为遍历计算目标像素集合中的每一个点,得到最终目标物体的模位置。
实施例五:
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种目标模位置测量方法中的步骤。
实施例六:
一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种目标模位置测量方法中的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种目标模位置测量方法,其特征是:包括以下步骤:
采集目标物体不同位置的两幅图像;
分别对两幅图像进行分割,得到图像中待测量的目标物体,并获取目标物体的像素集合;
以其中一幅图为参考图像,对两幅图像中目标物体的像素点进行匹配,得到两幅图像中目标物体像素点的对应关系;
利用已知参考基准点的像素坐标和世界坐标,求解图像采集时的设备姿态,基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量,进而求解目标点的实际空间坐标;
重复上述步骤,遍历计算目标像素集合中的每一个点,得到最终目标物体的模位置。
2.如权利要求1所述的一种目标模位置测量方法,其特征是:利用双目相机采集目标的左右两幅图像,得到目标成像位置不同的两幅图;通过张正友标定法获得两个相机的内参矩阵和畸变参数。
3.如权利要求1所述的一种目标模位置测量方法,其特征是:分别对两幅图像进行分割,得到图像中待测量的目标物体的具体过程包括:
对采集的两幅图像,利用基于深度学习的实例分割算法对目标物体的分割,得到图像中待测量目标实体在图像中的像素位置。
4.如权利要求1所述的一种目标模位置测量方法,其特征是:对两幅图像中目标物体的像素点进行匹配的具体过程包括:在参考图像中选择一个像素点,选择该点邻域内一个滑动窗口,根据相似性判断准则,在待匹配图像中寻找与参考图像中目标窗口最相似的窗口,该窗口所对应的像素点即为对应的匹配点;
或进一步的,所述相似性判断准则为计算滑动窗内每个像素对应数值之差的绝对值之和,得到的差值之和越小,越相似。
5.如权利要求1所述的一种目标模位置测量方法,其特征是:求解图像采集时的设备姿态的具体过程包括:在场景中布设N个基准点,测量其空间位置,同时获得N个基准点在图像中的像素位置,通过这N组3D-2D点对,利用PnP算法求解出相机姿态。
6.如权利要求1所述的一种目标模位置测量方法,其特征是:基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量的具体过程包括:给予得到相机的姿态,根据目标点的像素坐标,得到相机光心与目标点的直线方向,即目标点的空间方向向量,进而求解目标点相对于两个相机的空间方向向量。
7.如权利要求1所述的一种目标模位置测量方法,其特征是:求解目标点的实际空间坐标的具体过程包括:在得到目标点相对于两个相机的方向向量后,根据直线交汇原理,目标点应该为两个方向向量的交点,通过求解两条直线的交点即可得到目标点的世界坐标;
当两条直线不相交的情况,取空间中对两条直线距离最近的点作为目标点。
8.一种目标模位置测量系统,其特征是:包括:
图像采集模块,被配置为采集目标物体不同位置的两幅图像;
像素提取模块,被配置为分别对两幅图像进行分割,得到图像中待测量的目标物体,并获取目标物体的像素集合;
图像匹配模块,被配置为以其中一幅图为参考图像,对两幅图像中目标物体的像素点进行匹配,得到两幅图像中目标物体像素点的对应关系;
空间坐标计算模块,被配置为利用已知参考基准点的像素坐标和世界坐标,求解图像采集时的设备姿态,基于所述姿态和目标物体的像素坐标,解算目标物体的空间方向向量,进而求解目标点的实际空间坐标;
模位置计算模块,被配置为遍历计算目标像素集合中的每一个点,得到最终目标物体的模位置。
9.一种计算机可读存储介质,其特征是:其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行权利要求1-7中任一项所述的一种目标模位置测量方法中的步骤。
10.一种终端设备,其特征是:包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行权利要求1-7中任一项所述的一种目标模位置测量方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011228499.3A CN112288815B (zh) | 2020-11-06 | 2020-11-06 | 一种目标模位置测量方法、系统、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011228499.3A CN112288815B (zh) | 2020-11-06 | 2020-11-06 | 一种目标模位置测量方法、系统、存储介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112288815A true CN112288815A (zh) | 2021-01-29 |
CN112288815B CN112288815B (zh) | 2023-10-17 |
Family
ID=74351747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011228499.3A Active CN112288815B (zh) | 2020-11-06 | 2020-11-06 | 一种目标模位置测量方法、系统、存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112288815B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022188733A1 (en) * | 2021-03-08 | 2022-09-15 | Hangzhou Taro Positioning Technology Co., Ltd. | Scenario triggering and interaction based on target positioning and identification |
CN115950436A (zh) * | 2023-03-13 | 2023-04-11 | 南京汽车人信息技术有限公司 | 运动物体于既定空间内的定位方法及系统、存储介质 |
CN116958220A (zh) * | 2023-09-20 | 2023-10-27 | 深圳市信润富联数字科技有限公司 | 相机视野范围的生成方法及装置、存储介质、电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103616016A (zh) * | 2013-11-29 | 2014-03-05 | 大连理工大学 | 基于点线组合特征的位姿视觉测量方法 |
CN105841687A (zh) * | 2015-01-14 | 2016-08-10 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN107767423A (zh) * | 2017-10-10 | 2018-03-06 | 大连理工大学 | 一种基于双目视觉的机械臂目标定位抓取方法 |
CN110509281A (zh) * | 2019-09-16 | 2019-11-29 | 中国计量大学 | 基于双目视觉的位姿识别与抓取的装置与方法 |
CN111340797A (zh) * | 2020-03-10 | 2020-06-26 | 山东大学 | 一种激光雷达与双目相机数据融合检测方法及系统 |
AU2020101932A4 (en) * | 2020-07-16 | 2020-10-01 | Xi'an University Of Science And Technology | Binocular vision–based method and system for pose measurement of cantilever tunneling equipment |
-
2020
- 2020-11-06 CN CN202011228499.3A patent/CN112288815B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103616016A (zh) * | 2013-11-29 | 2014-03-05 | 大连理工大学 | 基于点线组合特征的位姿视觉测量方法 |
CN105841687A (zh) * | 2015-01-14 | 2016-08-10 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN107767423A (zh) * | 2017-10-10 | 2018-03-06 | 大连理工大学 | 一种基于双目视觉的机械臂目标定位抓取方法 |
CN110509281A (zh) * | 2019-09-16 | 2019-11-29 | 中国计量大学 | 基于双目视觉的位姿识别与抓取的装置与方法 |
CN111340797A (zh) * | 2020-03-10 | 2020-06-26 | 山东大学 | 一种激光雷达与双目相机数据融合检测方法及系统 |
AU2020101932A4 (en) * | 2020-07-16 | 2020-10-01 | Xi'an University Of Science And Technology | Binocular vision–based method and system for pose measurement of cantilever tunneling equipment |
Non-Patent Citations (3)
Title |
---|
《万方数据》: "双目视觉在工件识别定位中的应用研究", 《万方数据》 * |
闫帆等: "基于多摄像位的空间定位系统的研究与设计", 《微计算机信息》 * |
高智伟等: "基于双目视觉的物体识别定位与抓取", 《科学技术与工程》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022188733A1 (en) * | 2021-03-08 | 2022-09-15 | Hangzhou Taro Positioning Technology Co., Ltd. | Scenario triggering and interaction based on target positioning and identification |
CN115950436A (zh) * | 2023-03-13 | 2023-04-11 | 南京汽车人信息技术有限公司 | 运动物体于既定空间内的定位方法及系统、存储介质 |
CN116958220A (zh) * | 2023-09-20 | 2023-10-27 | 深圳市信润富联数字科技有限公司 | 相机视野范围的生成方法及装置、存储介质、电子设备 |
CN116958220B (zh) * | 2023-09-20 | 2024-01-12 | 深圳市信润富联数字科技有限公司 | 相机视野范围的生成方法及装置、存储介质、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112288815B (zh) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113450408B (zh) | 一种基于深度相机的非规则物体位姿估计方法及装置 | |
CN112288815B (zh) | 一种目标模位置测量方法、系统、存储介质及设备 | |
CN105021124B (zh) | 一种基于深度图的平面零件三维位置和法向量计算方法 | |
CN111325843A (zh) | 一种基于语义逆深度滤波的实时语义地图构建方法 | |
CN110281231B (zh) | 无人化fdm增材制造的移动机器人三维视觉抓取方法 | |
CN111476841B (zh) | 一种基于点云和图像的识别定位方法及系统 | |
Kohn et al. | Towards a real-time environment reconstruction for VR-based teleoperation through model segmentation | |
Babu et al. | An autonomous path finding robot using Q-learning | |
CN111340834B (zh) | 基于激光雷达和双目相机数据融合的衬板装配系统及方法 | |
Ann et al. | Study on 3D scene reconstruction in robot navigation using stereo vision | |
CN109636897B (zh) | 一种基于改进RGB-D SLAM的Octomap优化方法 | |
CN114750154A (zh) | 一种配网带电作业机器人的动态目标识别定位与抓取方法 | |
CN110517323A (zh) | 基于机械手单相机多目视觉的三维定位系统及方法 | |
Lee et al. | Implementation of a robotic arm with 3D vision for shoes glue spraying system | |
Deng et al. | Sensor guided robot path generation for surface repair tasks on a large-scale buoyancy module | |
CN111198563B (zh) | 一种用于足式机器人动态运动的地形识别方法及系统 | |
Neubert et al. | Automatic training of a neural net for active stereo 3D reconstruction | |
Kitayama et al. | 3D map construction based on structure from motion using stereo vision | |
Zhang et al. | Visual 3d reconstruction system based on rgbd camera | |
Stengel et al. | Efficient 3d voxel reconstruction of human shape within robotic work cells | |
Qian et al. | An improved ORB-SLAM2 in dynamic scene with instance segmentation | |
CN111678511B (zh) | 一种机器人的多传感器融合定位方法和系统 | |
Ling et al. | Research and Application of Semantic Point Cloud on Indoor Robots | |
CN113379663B (zh) | 一种空间定位方法和装置 | |
Durovsky | Point cloud based bin picking: object recognition and pose estimation using region growing segmentation algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |