CN113436241B - 一种采用深度信息的干涉校验方法及系统 - Google Patents
一种采用深度信息的干涉校验方法及系统 Download PDFInfo
- Publication number
- CN113436241B CN113436241B CN202110714522.8A CN202110714522A CN113436241B CN 113436241 B CN113436241 B CN 113436241B CN 202110714522 A CN202110714522 A CN 202110714522A CN 113436241 B CN113436241 B CN 113436241B
- Authority
- CN
- China
- Prior art keywords
- target object
- area
- depth
- interference
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于干涉校验领域,提供了一种采用深度信息的干涉校验方法及系统。其中,采用深度信息的干涉校验方法包括设定需要进行区域干涉校验的区域,获取设定区域内的深度数据;计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标,根据深度数据的位置分布来判断设定区域是否存在目标对象或判断是否从目标区域集合中删除。
Description
技术领域
本发明属于干涉校验领域,尤其涉及一种采用深度信息的干涉校验方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
深度信息是物体的三维表示形式,一般通过立体照相机或者TOF照相机等3D设备获取,常见的有深度图像(depth image)、距离影像(range image)、点云数据(point clouddata)等。目前,深度信息的获取方法有激光雷达深度成像法、计算机立体视觉成像、坐标测量机法、莫尔条纹法、结构光法等。
以深度图像为例,其是指将从图像采集器到场景中各点的距离(深度)作为像素值的图像,它直接反映了景物可见表面的几何形状。深度图像经过坐标转换可以计算为点云数据,有规则及必要信息的点云数据也可以反算为深度图像数据。深度数据流所提供的图像帧中,每一个像素点代表的是在深度感应器的视野中,该特定的(x,y)坐标处物体到离摄像头平面最近的物体到该平面的距离(以毫米为单位)。因此,基于深度信息的特点,常应用于分割技术、边缘检测技术、基于不同视点的多幅深度图像的配准技术、三维重建技术、三维目标识别技术、多分辨率建模和几何压缩技术等领域,相比二维数据,其具备更加的表达能力,应用前景广泛。
发明人发现,传统的深度学习图像识别或实例分割应用,往往是基于深度信息获取物体的距离、位置信息,应用场景单一,安全性较差,且没有充分发挥3D设备的优势。
发明内容
为了解决上述背景技术中存在的至少一项技术问题,本发明提供一种采用深度信息的干涉校验方法及系统,其充分利用深度数据进行干涉校验,为项目工程实践带来更安全、更可靠的判断结果。
为了实现上述目的,本发明采用如下技术方案:
本发明的第一个方面提供一种采用深度信息的干涉校验方法。
在一个或多个实施例中,一种采用深度信息的干涉校验方法,其包括:
设定需要进行区域干涉校验的区域,获取设定区域内的深度数据;
计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标以及根据深度数据的位置分布来判断设定区域是否存在目标对象。
作为一种实施方式,当判断设定区域存在目标对象时:
获取该目标对象的图像数据,确定出该目标对象在二维平面内的位置信息,通过校验该目标对象的深度信息,判定该目标对象在工作空间的位置;
基于该目标对象在工作空间的位置以及预先设定的工作任务,判定对应集合元素是否从目标对象集合中删除。
上述技术方案的优点在于,将区域干涉校验和图像干涉校验相结合,提高校验结果的准确性。
作为一种实施方式,采用深度学习模型和目标对象的图像数据来确定出目标对象在二维平面内的位置信息。
作为一种实施方式,基于目标对象的图像数据,采用图像分割及特征匹配的方法来确定出目标对象在二维平面内的位置信息。
作为一种实施方式,还根据深度数据的位置分布来判断是否从目标区域集合中删除。
本发明的第二个方面提供一种采用深度信息的干涉校验系统。
在一个或多个实施例中,一种采用深度信息的干涉校验系统,其包括:
深度数据获取模块,其用于设定需要进行区域干涉校验的区域,获取设定区域内的深度数据;
区域干涉校验模块,其用于计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标以及根据深度数据的位置分布来判断设定区域是否存在目标对象。
作为一种实施方式,所述采用深度信息的干涉校验系统,还包括:
图像干涉校验模块,其用于当判断设定区域存在目标对象时,获取该目标对象的图像数据,确定出该目标对象在二维平面内的位置信息,通过校验该目标对象的深度信息,判定该目标对象在工作空间的位置;
基于该目标对象在工作空间的位置以及预先设定的工作任务,判定对应集合元素是否从目标对象集合中删除。
在一个或多个实施例中,一种采用深度信息的干涉校验系统,包括:
采集装置,其用于采集设定需要进行区域干涉校验的区域内的深度数据;
干涉校验处理器,其用于干涉校验这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标以及根据深度数据的位置分布来判断设定区域是否存在目标对象。
本发明的第三个方面提供一种计算机可读存储介质。
在一个或多个实施例中,一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的采用深度信息的干涉校验方法中的步骤。
本发明的第四个方面提供一种计算机设备。
在一个或多个实施例中,一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的采用深度信息的干涉校验方法中的步骤。
与现有技术相比,本发明的有益效果是:
(1)本发明的采用深度信息的干涉校验方法能够充分利用设备获取的深度信息,挖掘数据潜力,为项目工程实践带来更安全、更可靠的判断结果;理论体系清晰,可集成到多类技术实施中,如区域检测、干涉校验、避障等。
(2)基于采用深度信息的干涉校验方法理论的技术具有广泛的适用场景,如货位监测、复杂夹具干涉校验、自动拆垛顺序判断、机械手避障、路径规划等;该方法能够根据项目工程特点,采用一套3D相机设备,设备配置简单,且可灵活选用不同的技术实施方案。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例的采用深度信息的干涉校验方法流程图;
图2为本发明实施例的采用深度信息的干涉校验方法在检空判定上的应用举例;
图3为本发明实施例的采用深度信息的干涉校验方法在异形夹具干涉校验上的应用举例;
图4为本发明实施例的采用深度信息的干涉校验方法在路径避障规划上的应用举例。
其中,1-1.3D相机/设备、1-2.深度数据、1-3.图像数据、1-4.图像干涉校验、1-5.障碍物/特定区域、1-6.区域设定、1-7.区域校验、1-8.校验结果判定;2-1.3D/设备、2-2.物体、2-3.工作区域;3-1.异形夹具的吸盘、3-2.托爪、3-3.其他附属结构;4-1.3D相机/设备、4-2.障碍物/特定区域、4-3.任务路径起点、4-4.工作区域、4-5.任务路径终点。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
参照图1,本实施例提供了一种采用深度信息的干涉校验方法,其包括:
步骤(1):设定需要进行区域干涉校验的区域,获取设定区域内的深度数据。
在具体实施中,获取设定区域内的深度数据的设备可采用3D相机/设备。
步骤(2):计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标(比如:可应用于货位监控、车位监控、仓储监控等)以及根据深度数据的位置分布来判断设定区域是否存在目标对象(比如:进行异形夹具干涉校验等)。
当判断设定区域存在目标对象时:
步骤(2.1):获取该目标对象的图像数据,确定出该目标对象在二维平面内的位置信息,通过校验该目标对象的深度信息,判定该目标对象在工作空间的位置。
在具体实施中,采用深度学习模型和目标对象的图像数据来确定出目标对象在二维平面内的位置信息。
此处可以理解的是,在其他实施例中,也可基于目标对象的图像数据,采用图像分割及特征匹配的方法来确定出目标对象在二维平面内的位置信息。
步骤(2.2):基于该目标对象在工作空间的位置以及预先设定的工作任务,判定对应集合元素是否从目标对象集合中删除。这样能够使得区域干涉校验和图像干涉校验相结合,提高校验结果的准确性。
在一些实施例中,还根据深度数据的位置分布来判断是否从目标区域集合中删除(比如:进行路径避障规划等应用)。
如图2所示,介绍了该方法在检空判定上的应用举例:
可采用在一个工作区域(2-3)上方配置的一套3D相机/设备(2-1)来获取深度数据。
设定工作区域(2-3)内的一个空间范围作为特定区域(1-5),当该区域内有物体(2-2)时,通过查看其内的深度信息,可判断有物体存在于该区域内;否则,该区域是空的,没有物体存在。此技术方案可用于货位监控、车位监控、仓储监控等应用场景。
以进行异形夹具干涉校验为例,如图3所示:
在物流仓储项目中,拆、码垛、拣选等任务往往需要各类吸盘来抓取货物。图中所描绘的夹具属于一类异形夹具,主要由吸盘(3-1)、托爪(3-2)和其他附属结构(3-3)等,除了直接参与工作的吸盘(3-1)外,其他结构往往会对抓取货物带来干扰,需要进行干涉校验。若校验存在干涉,则证明该物体不能被抓取或该区域不能放置物体;否则,该物体可被抓取或该区域可放置物体。依次进行此过程,同时结合图像干涉校验(1-4),便实现了一个安全、可靠的拆、码垛任务顺序。此技术方案可用于采用异形夹具的拆垛、码垛、拣选等应用场景。
如图4所示,在路径避障规划上的应用举例:
可采用在一个工作区域(4-4)上方配置的一套3D相机/设备(4-1)来获取深度数据。且区域内有障碍物/特定区域(4-2)。图4所示,如不采用深度信息进行干涉校验,机械手将从任务路径起点(4-3)沿着图中直线路径移动到任务路径终点(4-5),则没有进行路径避障规划,发生碰撞事故;图4所示,此物体被视为障碍物/特定区域(1-5),对其空间位置进行区域设定(1-6),采用深度数据(1-2)和区域设定(1-6)进行区域校验(1-7),判定该区域为禁止到达区域,需要设计合理的避障路径,最终机械手会沿着图右曲线路径避开障碍物区域,避免发生碰撞。此技术方案可用于机械手避障、路径规划等应用场景。
实施例二
本实施例提供了一种采用深度信息的干涉校验系统,其包括:
深度数据获取模块,其用于设定需要进行区域干涉校验的区域,获取设定区域内的深度数据;
区域干涉校验模块,其用于计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标以及根据深度数据的位置分布来判断设定区域是否存在目标对象。
在一些实施例中,所述采用深度信息的干涉校验系统,还包括:
图像干涉校验模块,其用于当判断设定区域存在目标对象时,获取该目标对象的图像数据,确定出该目标对象在二维平面内的位置信息,通过校验该目标对象的深度信息,判定该目标对象在工作空间的位置;
基于该目标对象在工作空间的位置以及预先设定的工作任务,判定对应集合元素是否从目标对象集合中删除。
本实施例的采用深度信息的干涉校验系统中的各个模块,与实施例一中的采用深度信息的干涉校验方法中的各个步骤一一对应,其具体实施过程相同,此处不再累述。
实施例三
本实施例提供了一种采用深度信息的干涉校验系统,包括:
(1)采集装置,其用于采集设定需要进行区域干涉校验的区域内的深度数据。
在具体实施中,采集装置可采用3D相机/设备来实现。
(2)干涉校验处理器,其用于计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标以及根据深度数据的位置分布来判断设定区域是否存在目标对象。
本实施例的采用深度信息的干涉校验系统的工作原理为:
采用3D相机/设备(1-1)(或其他可以获取物体三维信息的设备),获取图像数据(1-3)和深度数据(1-2);根据工作任务中障碍物/特定区域(1-5),设定需要进行干涉校验的物体或区域设定(1-6)等信息;使用图像数据(1-3)和深度数据(1-2),可以实现图像干涉校验(1-4);也可使用深度数据(1-2)和区域设定(1-6)信息,可以实现区域校验(1-7);最终,可以根据校验信息,进行校验结果判定(1-8)。
如图1中所示,根据实际应用场景的不同,可单独采用图像干涉校验(1-4)如图1中虚线流程;可单独采用仅仅基于深度数据(1-2)的区域校验(1-7),如图1中实线流程,也可将两种方式相结合,实现校验结果判定(1-8)。如异形夹具干涉校验任务中,结合两种校验方式可获得更加可靠的判定结果;检空(或监控)、避障检测任务中,可只需要采用区域校验(1-7)实现。
实施例四
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例一所述的采用深度信息的干涉校验方法中的步骤。
实施例五
本实施例提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述实施例一所述的采用深度信息的干涉校验方法中的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例或结合软硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种采用深度信息的干涉校验方法,其特征在于,包括:
设定需要进行区域干涉校验的区域,获取设定区域内的深度数据;
计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标以及根据深度数据的位置分布来判断设定区域是否存在目标对象;
当判断设定区域存在目标对象时:
获取该目标对象的图像数据,确定出该目标对象在二维平面内的位置信息,通过校验该目标对象的深度信息,判定该目标对象在工作空间的位置;
基于该目标对象在工作空间的位置以及预先设定的工作任务,判定对应集合元素是否从目标对象集合中删除;还根据深度数据的位置分布来判断是否从目标区域集合中删除。
2.如权利要求1所述的采用深度信息的干涉校验方法,其特征在于,采用深度学习模型和目标对象的图像数据来确定出目标对象在二维平面内的位置信息。
3.如权利要求1所述的采用深度信息的干涉校验方法,其特征在于,基于目标对象的图像数据,采用图像分割及特征匹配的方法来确定出目标对象在二维平面内的位置信息。
4.一种采用深度信息的干涉校验系统,其特征在于,包括:
深度数据获取模块,其用于设定需要进行区域干涉校验的区域,获取设定区域内的深度数据;
区域干涉校验模块,其用于计算这些深度数据在设定区域内的分布情况,根据设定区域内有无深度数据来监控设定目标以及根据深度数据的位置分布来判断设定区域是否存在目标对象;
图像干涉校验模块,其用于当判断设定区域存在目标对象时,获取该目标对象的图像数据,确定出该目标对象在二维平面内的位置信息,通过校验该目标对象的深度信息,判定该目标对象在工作空间的位置;
基于该目标对象在工作空间的位置以及预先设定的工作任务,判定对应集合元素是否从目标对象集合中删除;还根据深度数据的位置分布来判断是否从目标区域集合中删除。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-3中任一项所述的采用深度信息的干涉校验方法中的步骤。
6.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-3中任一项所述的采用深度信息的干涉校验方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110714522.8A CN113436241B (zh) | 2021-06-25 | 2021-06-25 | 一种采用深度信息的干涉校验方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110714522.8A CN113436241B (zh) | 2021-06-25 | 2021-06-25 | 一种采用深度信息的干涉校验方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113436241A CN113436241A (zh) | 2021-09-24 |
CN113436241B true CN113436241B (zh) | 2023-08-01 |
Family
ID=77755364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110714522.8A Active CN113436241B (zh) | 2021-06-25 | 2021-06-25 | 一种采用深度信息的干涉校验方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113436241B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111950543A (zh) * | 2019-05-14 | 2020-11-17 | 北京京东尚科信息技术有限公司 | 一种目标检测方法和装置 |
CN112650300A (zh) * | 2021-01-07 | 2021-04-13 | 深圳市君航品牌策划管理有限公司 | 一种无人机避障方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019133640A1 (en) * | 2017-12-29 | 2019-07-04 | PlusAI Corp | Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same |
WO2019144300A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 目标检测方法、装置和可移动平台 |
JP7074546B2 (ja) * | 2018-04-13 | 2022-05-24 | フォルシアクラリオン・エレクトロニクス株式会社 | 画像処理装置および方法 |
CN109146947B (zh) * | 2018-09-04 | 2021-09-28 | 清华-伯克利深圳学院筹备办公室 | 海洋鱼类三维图像获取及处理方法、装置、设备及介质 |
CN109461185B (zh) * | 2018-09-10 | 2021-08-17 | 西北工业大学 | 一种适用于复杂场景的机器人目标主动避障方法 |
CN110956181A (zh) * | 2019-07-04 | 2020-04-03 | 中联重科股份有限公司 | 起重机配重块检测方法、设备及起重机 |
CN112380926B (zh) * | 2020-10-28 | 2024-02-20 | 安徽农业大学 | 一种田间除草机器人除草路径规划系统 |
CN112611374A (zh) * | 2020-10-29 | 2021-04-06 | 华中科技大学鄂州工业技术研究院 | 基于激光雷达和深度相机的路径规划及避障的方法及系统 |
-
2021
- 2021-06-25 CN CN202110714522.8A patent/CN113436241B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111950543A (zh) * | 2019-05-14 | 2020-11-17 | 北京京东尚科信息技术有限公司 | 一种目标检测方法和装置 |
CN112650300A (zh) * | 2021-01-07 | 2021-04-13 | 深圳市君航品牌策划管理有限公司 | 一种无人机避障方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113436241A (zh) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3497672B1 (en) | Pallet localization systems and methods | |
US20230106134A1 (en) | Warehouse robot control method and apparatus, device, and readable storage medium | |
AU2015307191B2 (en) | Combination of stereo and structured-light processing | |
KR102293263B1 (ko) | 움직이는 객체가 존재하는 경우에 로봇을 제어하는 방법 | |
Broggi et al. | Terrain mapping for off-road autonomous ground vehicles using rational b-spline surfaces and stereo vision | |
CN104842361A (zh) | 具有3d箱体定位功能的机器人系统 | |
CN110587597B (zh) | 一种基于激光雷达的slam闭环检测方法及检测系统 | |
KR20110011424A (ko) | 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇 | |
CN111381594A (zh) | 基于3d视觉的agv空间避障方法及系统 | |
CN109213138B (zh) | 一种避障方法、装置及系统 | |
WO2018068446A1 (zh) | 一种追踪方法及追踪设备、计算机存储介质 | |
CN113284178A (zh) | 物体码垛方法、装置、计算设备及计算机存储介质 | |
CN112508912A (zh) | 地面点云数据滤除方法及装置、臂架防碰撞方法及系统 | |
US20230410362A1 (en) | Target object detection method and apparatus, and electronic device, storage medium and program | |
CN106682584B (zh) | 无人机障碍物检测方法及装置 | |
CN113436241B (zh) | 一种采用深度信息的干涉校验方法及系统 | |
Vatavu et al. | Real-time modeling of dynamic environments in traffic scenarios using a stereo-vision system | |
Lin et al. | Computer vision system R&D for EAST Articulated Maintenance Arm robot | |
US20220130147A1 (en) | Method and device for monitoring the environment of a robot | |
CN110728710B (zh) | 视觉里程计算方法、装置和计算机可读存储介质 | |
CN110533717A (zh) | 一种基于双目视觉的目标抓取方法及装置 | |
Iz et al. | An image-based path planning algorithm using a UAV equipped with stereo vision | |
Spampinato et al. | An embedded stereo vision module for industrial vehicles automation | |
EP4245480A1 (en) | Measuring system, measuring device, measuring method, and measuring program | |
JP6114572B2 (ja) | 対象物領域推定方法、対象物領域推定装置およびそれを備えた対象物検出装置、車両。 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |