CN111742349B - 信息处理装置、信息处理方法以及信息处理存储介质 - Google Patents

信息处理装置、信息处理方法以及信息处理存储介质 Download PDF

Info

Publication number
CN111742349B
CN111742349B CN201980012034.3A CN201980012034A CN111742349B CN 111742349 B CN111742349 B CN 111742349B CN 201980012034 A CN201980012034 A CN 201980012034A CN 111742349 B CN111742349 B CN 111742349B
Authority
CN
China
Prior art keywords
dimensional
information
dimensional model
unit
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980012034.3A
Other languages
English (en)
Other versions
CN111742349A (zh
Inventor
小西嘉典
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of CN111742349A publication Critical patent/CN111742349A/zh
Application granted granted Critical
Publication of CN111742349B publication Critical patent/CN111742349B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Abstract

本发明提供一种能够以高精度识别三维位置姿势的信息处理装置、信息处理方法以及信息处理存储介质。信息处理装置包括:第一输入部,接受用于生成识别对象物的三维模型的三维模型信息的输入;模板生成部,根据三维模型信息,生成表示所述识别对象物的上缘部的形状的二维模板;坐标关系确定部,生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息;第二输入部,接受拍摄有所述识别对象物的拍摄图像的输入;匹配部,将所述拍摄图像与所述二维模板进行匹配;以及识别部,对于对应于由匹配部获得的二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照坐标关系信息来识别识别对象物的三维位置及姿势。

Description

信息处理装置、信息处理方法以及信息处理存储介质
技术领域
本发明涉及一种信息处理装置、信息处理方法以及信息处理存储介质。
背景技术
近年来,利用相机等拍摄对象物,对应于所述拍摄结果来辨别构件的位置后,利用臂来进行抓住或组装所述对象物等操作的产业机器人正在普及。此处,例如在组装工厂等中,大多将同一种类的多个构件装入被称为集装箱的箱型构件中来进行搬运等。为了进行利用产业机器人的臂来举起已装入所述集装箱中的构件等操作,必须以臂不撞上集装箱的边缘的方式进行控制。
例如,在专利文献1中记载有根据信息拍摄多个箱型臂来获取整体图像,检测箱状工件的边缘部分,利用距离传感器以点群的形式测量多个箱型工件整体的三维形状。在所述方法中,提取由距离传感器所得的测量点的点群信息,根据所述点群信息,从三维形状识别各箱状工件的位置与姿势。
现有技术文献
专利文献
专利文献1:日本专利第5429614号
发明内容
发明所要解决的问题
此处,通常容纳作为对象物的构件的集装箱大多边缘细。若边缘细,则因在箱状工件的边缘难以获得照射光的反射等理由,而难以利用如专利文献1中所记载的距离传感器来获取三维点群信息。例如,若产业机器人对于集装箱的识别失败,则有时产生所述产业机器人的臂撞上集装箱的边缘等不良情况。
本发明的几个实施例鉴于所述问题而形成,其将提供能够以高精度识别三维位置姿势的信息处理装置、信息处理方法以及程序作为目的之一。
解决问题的技术手段
本发明的一实施例的信息处理装置包括:第一输入部,接受用于生成识别对象物的三维模型的三维模型信息的输入;模板生成部,根据三维模型信息,生成表示所述识别对象物的上缘部的形状的二维模板;坐标关系确定部,生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息;第二输入部,接受拍摄有所述识别对象物的拍摄图像的输入;匹配部,将所述拍摄图像与所述二维模板进行匹配;以及识别部,对于对应于由所述匹配部获得的二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息来识别所述识别对象物的三维位置及姿势。
在所述构成中,生成二维模板,对应于拍摄图像与所述二维模板的匹配,检测识别对象物的三维位置及姿势。宽度窄的物体或由光容易进行正反射的原材料形成的物体难以测量三维坐标,但根据二维中的匹配处理来检测识别对象物的三维位置及姿势,因此能够以高精度对识别对象物的姿势位置进行识别。由此,例如当将所述构成的信息处理装置应用于具有臂的产业机器人中的、作为识别对象物的集装箱的姿势位置的识别时,可防止伴随机械臂冲撞集装箱的机械臂和/或集装箱的破损等事态。
本发明的一实施例的信息处理方法使信息处理装置进行如下的处理:接受用于生成识别对象物的三维模型的三维模型信息的输入的处理;根据三维模型信息,生成表示所述识别对象物的上缘部的形状的二维模板的处理;生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息的处理;接受拍摄有所述识别对象物的拍摄图像的输入的处理;将所述拍摄图像与所述二维模板进行匹配的处理;以及对于对应于二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息来识别所述识别对象物的三维位置及姿势的处理。
在所述构成中,生成二维模板,对应于拍摄图像与所述二维模板的匹配,检测识别对象物的三维位置及姿势。宽度窄的物体或由光容易进行正反射的原材料形成的物体难以测量三维坐标,但根据二维中的匹配处理来检测识别对象物的三维位置及姿势,因此能够以高精度对识别对象物的姿势位置进行识别。由此,例如当将所述构成的信息处理方法应用于具有臂的产业机器人中的作为识别对象物的集装箱的姿势位置的识别时,可防止伴随机械臂冲撞集装箱的机械臂和/或集装箱的破损等事态。
本发明的一实施例的信息处理存储介质,其存储用于使计算机作为如下部发挥功能的程序使信息处理装置执行如下的处理:接受用于生成识别对象物的三维模型的三维模型信息的输入的处理;根据三维模型信息,生成表示所述识别对象物的上缘部的形状的二维模板的处理;生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息的处理;接受拍摄有所述识别对象物的拍摄图像的输入的处理;将所述拍摄图像与所述二维模板进行匹配的处理;以及对于对应于二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息来识别所述识别对象物的三维位置及姿势的处理。
在所述构成中,生成二维模板,对应于拍摄图像与所述二维模板的匹配,检测识别对象物的三维位置及姿势。宽度窄的物体或由光容易进行正反射的原材料形成的物体难以测量三维坐标,但根据二维中的匹配处理来检测识别对象物的三维位置及姿势,因此能够以高精度对识别对象物的姿势位置进行识别。由此,例如当将所述构成的程序应用于具有臂的产业机器人中的作为识别对象物的集装箱的姿势位置的识别时,可防止伴随机械臂冲撞集装箱的机械臂和/或集装箱的破损等事态。
另外,在本发明中,“部”或“部件”、“装置”、“系统”并非仅表示物理部件,也包含通过软件来实现所述“部”或“部件”、“装置”、“系统”具有的功能的情况。另外,可通过两个以上的物理部件或装置来实现一个“部”或“部件”、“装置”、“系统”具有的功能,也可以通过一个物理部件或装置来实现两个以上的“部”或“部件”、“装置”、“系统”的功能。
附图说明
图1是用于说明实施方式的信息处理装置的处理的一例的图。
图2是用于说明实施方式的信息处理装置的处理的一例的图。
图3是用于说明实施方式的信息处理装置的处理的一例的图。
图4是用于说明实施方式的信息处理装置的处理的一例的图。
图5是用于示意性地例示实施方式的信息处理装置的构成的一例的图。
图6是例示实施方式的信息处理装置的处理顺序的一例的流程图。
图7是例示实施方式的信息处理装置的处理顺序的一例的流程图。
图8是例示实施方式的信息处理装置的处理顺序的一例的流程图。
图9是例示实施方式的信息处理装置的处理顺序的一例的流程图。
[符号的说明]
100:信息处理装置
110:模板生成部
111:模型输入部
113:相机参数输入部
115:上缘部图像生成部
117:坐标关系信息生成部
119:输出部
130:数据库(DB)
131:二维模板
133:坐标关系信息
150:识别部
151:亮度图像输入部
153:模板匹配部
155:特征点坐标算出部
157:三维位置姿势算出部
159:输出部
901:控制部
905:存储部
907:控制程序
911:通信接口(I/F)部
913:输入部
915:输出部
917:总线
具体实施方式
以下,参照附图对本发明的实施方式进行说明。但是,以下所说明的实施方式只是例示,并不意图排除以下未明示的各种变形或技术的应用。即,本发明可在不脱离其主旨的范围内进行各种变形来实施。另外,在以下的附图的记载中,对相同或类似的部分附加相同或类似的符号来表示。附图是示意性的附图,未必与实际的尺寸或比率等一致。有时在附图相互间也包含彼此的尺寸的关系或比率不同的部分。
[1应用例]
首先,一面参照图1至图4,一面对实施方式的整体的概要进行说明。本实施方式的信息处理装置例如可用于识别集装箱等的三维位置姿势,所述集装箱容纳作为具有臂的产业机器人的操作对象物的构件。若可高精度地识别集装箱的三维位置姿势,则产业机器人能够以不使臂冲撞集装箱的方式进行控制,因此可防止臂和/或集装箱的由冲撞所引起的破损。此外,实施方式的信息处理装置识别三维位置姿势的识别对象物并不限定于集装箱,但在以下的说明中以集装箱的情况为中心进行说明。
信息处理装置事先生成表示集装箱的上缘部的形状的二维模板后,并非通过由距离传感器等所得的三维信息来检测集装箱的上缘部,而是通过对由相机所拍摄的包含集装箱的二维图像进行二维模板匹配来检测集装箱的上缘部。如以下说明那样,本实施方式的信息处理装置的处理包含二维模板的生成处理、及使用所生成的二维模板的三维位置姿势的识别处理。以下,对所述两个处理进行说明。
[1.1二维模板生成处理]
以下,一面参照图1及图2,一面对二维模板的生成处理进行说明。信息处理装置首先接受与集装箱的三维模型相关的三维计算机辅助设计(Computer Aided Design,CAD)信息的输入,并对所述CAD信息进行分析。由此,如图1所示,确定集装箱的三维模型的上缘部在何处后,对所述上缘部的特征点进行提取等,由此生成如图2所示的表示集装箱的三维模型的上缘部的形状的二值化二维图像即二维模板图像。此时生成的二维模板图像相当于在假想空间内配置有假想相机与集装箱的三维模型时,拍摄集装箱的三维模型的上缘部所得的上缘部图像。
另外,信息处理装置从集装箱的三维模型中提取也包含上缘部以外的部分的特征点后,确定这些特征点在由配置在假想空间内的假想相机所拍摄的二维图像中位于何处。由此,存储集装箱的三维模型的三维坐标与由假想相机所拍摄的二维图像上的二维坐标的对应关系。此外,所述对应关系相当于后述的坐标关系信息。
此外,在图1及图2中图示方形的集装箱,但并不限定于此,也可以考虑将圆形的集装箱、或内部具有隔板的集装箱等作为处理对象。
[1.2识别处理]
继而,一面参照图3及图4,一面对针对在实际环境中相机等所拍摄的二维的摄像图像的处理进行说明。若从相机接受如图3所示的摄像图像的输入,则信息处理装置将所述摄像图像变换成亮度图像后(或者也可以将输入设为亮度图像),如图4所示,进行与事先生成的二维模板的匹配。由此,信息处理装置可识别相当于成为生成二维模板的根源的三维模型的集装箱以何种旋转角度配置在摄像图像上的哪个位置(x,y坐标)。进而,信息处理装置将经匹配的二维模板作为基准,确定摄像图像上的特征点的位置。使用所述坐标关系信息来变换这些特征点的位置,由此识别集装箱的三维位置姿势。
[2构成例]
以下,一面参照图5,一面对本实施方式的信息处理装置100的运行构成例进行说明。信息处理装置100大体上包含模板生成部110、数据库(Database,DB)130、识别部150。此外,所述各构成也可以作为在处理器上运行的程序来实现、或者也可以作为专用的一个或多个半导体等硬件来实现。另外,信息处理装置100也可以物理式地作为一个计算机等来实现、或者也可以物理式地作为多个计算机等来实现。例如,可通过不同的计算机来实现模板生成部110与识别部150。关于将模板生成部110或识别部150作为程序来实现时的硬件构成或作为程序的运行等,其后一面参照图9一面叙述。
模板生成部110包含:模型输入部111、相机参数输入部113、上缘部图像生成部115、坐标关系信息生成部117、以及输出部119。
模型输入部111接受集装箱的三维CAD模型的输入。或者,也可以输入集装箱的各尺寸值来代替三维CAD模型。此处,模型输入部111是本发明的“第一输入部”的一例。三维CAD模型及集装箱的各尺寸值是本发明的“三维模型信息”的一例。此外,将由模型输入部111接受了输入的集装箱的CAD模型、或根据尺寸值所生成的集装箱的模型总称为“三维集装箱模型”。
相机参数输入部113接受与在配置三维集装箱模型的假想空间上拍摄所述三维集装箱模型的假想相机相关的相机参数的输入。所述相机参数可包含假想相机相对于三维集装箱模型的相对的位置或方向、拍摄角度等信息。此时,也可以对照为了拍摄识别部150识别集装箱的三维位置姿势时所使用的亮度图像而配置的实际环境的相机的位置或方向等,设定所述相机参数。如上所述,信息处理装置100对作为利用假想相机拍摄三维集装箱模型的上缘部的结果的上缘部图像进行变换来生成二维模板131。信息处理装置100随后将实际环境中的拍摄图像(相当于后述的亮度图像)与所述二维模板131进行匹配。此时,若使二维模板131的生成时所使用的假想相机的位置或角度等、与拍摄实际环境中的拍摄图像时所使用的相机的位置或角度等大致一致,则可直接使用模板生成部110已生成的二维模板,进行拍摄图像与二维模板的匹配。相机相对于实际环境的集装箱的相对的位置或姿势可通过在设置集装箱的平面上放置间隔已知的标记,在利用实际环境的相机所拍摄的图像上识别标记来算出。通过使用已算出的实际环境的相机的相对位置姿势与集装箱的三维模型,可制作将包含集装箱的空间的任意平面投影在相机的图像。
此外,在将生成二维模板131时所使用的假想相机的位置或方向等(相机参数)设定成与实际环境中的相机的位置或方向不同的情况下,模板生成部110只要根据二维模板131的生成中所使用的假想相机的位置、与用于拍摄被输入至识别部150的亮度图像的相机的位置或角度的相对的信息,变换被输入至识别部150的亮度图像和/或二维模板131即可。关于对应于相机的相对的关系来变换亮度图像和/或二维模板131时的处理,其后一面参照图8一面叙述。
上缘部图像生成部115生成通过利用相机参数来设定位置等的假想相机,在假想空间上拍摄了三维集装箱模型时的、相当于集装箱的上缘部的图像(以下称为“上缘部图像”)。更具体而言,上缘部图像生成部115首先根据构成三维集装箱模型的网格的法线方向及高度,确定三维集装箱模型的上缘部在何处。例如,可将构成三维集装箱模型的各网格之中,法线朝向大致铅垂方向(至少与水平方向相比朝向上方)、且比周围的网格高的部分确定为上缘部。确定上缘部后,上缘部图像生成部115生成设想在由利用相机参数来确定位置等的假想相机拍摄了所述上缘部时生成的上缘部图像。上缘部图像的生成例如图2所示。上缘部图像生成部115进而通过亮度来对上缘部图像进行二值化及边缘提取,由此生成用于从在实际环境中所拍摄的二维图像中确定上缘部的二维模板131。此外,二维模板131也可以不必是经二值化及边缘提取的二维模板,但通过进行此种处理,可实现二维模板131的信息量的降低、及使用其的匹配处理中的运算量的减少。此处,上缘部图像生成部115是本发明的“模板生成部”的一例。
此外,上缘部图像生成部115也可以对应于利用相机参数来确定的假想相机的方向和/或用于拍摄实际环境中的亮度图像的相机的方向,变换二维模板131、或成为其根源的上缘部图像。
坐标关系信息生成部117从三维集装箱模型中提取多个特征点后,确定通过利用相机参数来确定位置等的假想相机,分别拍摄了所述三维集装箱模型的多个特征点时的、假想空间上的三维坐标、与上缘部图像上的二维坐标的关系。坐标关系信息生成部117生成表示已确定的所述关系(各特征点的三维坐标与二维坐标的关系)的坐标关系信息133。
输出部119将由上缘部图像生成部115所生成的二维模板131、及由坐标关系信息生成部117所生成的坐标关系信息133作为DB 130输出至任意的存储介质。
识别部150包含:亮度图像输入部151、模板匹配部153、特征点坐标算出部155、三维位置姿势算出部157、以及输出部159。
亮度图像输入部151接受在实际环境中,拍摄想要确定三维位置姿势的集装箱所得的亮度图像的输入。此处,亮度图像输入部151是本发明的“第二输入部”的一例。
模板匹配部153对从亮度图像输入部151输入的亮度图像进行与二维模板131的匹配,由此确定亮度图像中的相当于集装箱的上缘部的位置。由此,可确定在亮度图像中,集装箱的上缘部以何种角度配置在哪个位置(x,y)。此外,此时模板匹配部153也可以在模板匹配后,通过迭代最近点(Iterative Closest Point,ICP)处理来进行详细的对位。此处,模板匹配部153是本发明的“匹配部”的一例。
特征点坐标算出部155将由模板匹配部153所确定的集装箱的上缘部的位置及角度作为基准,确定亮度图像中的集装箱的特征点的位置(坐标)。
三维位置姿势算出部157根据特征点坐标算出部155已算出的特征点的坐标、及坐标关系信息133,求出集装箱的各特征点的三维坐标。由此,三维位置姿势算出部157可识别在亮度图像中所拍摄的集装箱在实际空间中的位置及姿势。此处,三维位置姿势算出部157是本发明的“识别部”的一例。
输出部159输出表示三维位置姿势算出部157已算出的集装箱的位置及姿势的三维位置姿势信息。例如,产业机器人若接受所述三维位置姿势信息的输入,则可在对应于所述信息来确定集装箱的位置及姿势后,一面以臂不冲撞所述集装箱的方式进行控制,一面进行已被载置在集装箱内部的构件的拾取等。
[3处理的流程]
继而,一面参照图6及图7,一面对构成例1的信息处理装置100的处理的流程进行说明。图6及图7是表示信息处理装置100的处理的流程的流程图。
此外,后述的各处理步骤也可以在处理内容不产生矛盾的范围内,任意地变更顺序或并列地执行。另外,也可以在各处理步骤间追加执行其他步骤。进而,为了方便说明而作为一个步骤来记载的步骤也可以分成多个步骤来执行,也可以将为了方便说明而分成多个来记载的步骤作为一个步骤来执行。关于后述的图8的流程图,也同样如此。
[3.1二维模板的生成]
首先,一面参照图6,一面对模板生成部110进行的模板生成的处理的流程进行说明。
模板生成部110的模型输入部111接受三维CAD模型的输入(S601)。如上所述,模型输入部111也可以接受集装箱的尺寸值的输入来代替三维CAD模型。相机参数输入部113接受相机参数的输入,所述相机参数规定为了生成二维模板131而拍摄三维集装箱模型的假想相机的位置、方向、拍摄角度等(S603)。
上缘部图像生成部115首先针对由模型输入部接受了输入的三维集装箱模型,根据构成三维集装箱模型的网格的法线方向及高度来确定相当于上缘部的部分(S605)。如上所述,上缘部图像生成部115例如可将构成三维集装箱模型的网格的法线至少与水平方向相比朝向上侧、且在高度上比周围的网格高的部分作为上缘部。
另外,上缘部图像生成部115生成上缘部图像,所述上缘部图像相当于通过利用相机参数来确定位置等的假想相机,拍摄了所述三维集装箱模型的上缘部时的拍摄结果(S607)。
进而,上缘部图像生成部115对所述上缘部图像进行二值化及边缘提取等,由此生成用于从二维拍摄图像中检测集装箱的上缘部的二维模板131(S609)。
坐标关系信息生成部117从三维集装箱模型中提取多个特征点后,生成表示所述多个特征点各自在三维假想空间中的坐标、与这些特征点在上缘部图像上的二维坐标的关系的坐标关系信息133(S611)。
输出部119将在S609及S611中所生成的二维模板131及坐标关系信息133输出至任意的存储介质(S613)。
[3.2位置姿势的识别处理]
继而,一面参照图7,一面对识别部150进行的、针对拍摄有集装箱的亮度图像的集装箱的三维位置姿势的识别处理的流程进行说明。
首先,亮度图像输入部151接受拍摄有集装箱的亮度图像的输入(S701)。模板匹配部153对所述亮度图像进行与事先准备的集装箱的二维模板的匹配,由此确定亮度图像内的集装箱的上缘部的位置与旋转角度(S703)。然后,特征点坐标算出部155将由模板匹配部153所确定的集装箱的上缘部作为基准,算出亮度图像中的集装箱的特征点的二维坐标(S705)。
三维位置姿势算出部157使用坐标关系信息133来变换在S705中所确定的亮度图像中的各特征点的二维坐标,由此生成各特征点的三维坐标(S707)。由此,三维位置姿势算出部157识别在亮度图像中所拍摄的集装箱在实际空间中的位置及姿势。
输出部159将表示已算出的集装箱的位置及姿势的位置姿势信息输出至外部(S709)。
[3.3变形例]
此外,在一面参照图6及图7一面进行说明的处理中,以如下的情况为中心进行了说明,但并不限定于此,即:使由用于从三维集装箱模型生成二维模板的相机参数来确定的假想相机的拍摄位置或方向等、与实际环境中的相机的拍摄位置或方向等大致一致。例如,也可以想到若知道拍摄二维图像的假想相机的位置或方向等、与在实际环境中拍摄集装箱的相机的位置或方向等的相对的关系,则根据所述关系来变换图像后进行处理。
例如,可考虑在利用假想相机从正上方拍摄三维集装箱模型来生成二维模板后,对从正上方以外的方向拍摄集装箱所得的亮度图像进行识别处理。一面参照图8,一面对此情况的处理进行说明。
亮度图像输入部151接受拍摄有集装箱的亮度图像的输入(S801)。此时,亮度图像输入部151对应于生成二维模板131时所使用的假想相机的位置及方向等、与用于拍摄亮度图像的相机的位置及方向等的相对的关系(相机外部参数),变换已被输入的亮度图像(S803)。作为所述变换处理的方法,例如可考虑平面射影变换(plane projectivetransformation)(单应性变换(homography transformation))等。此处,设为变换成从正上方拍摄了集装箱时的图像的方法。另外,平面射影变换参数可根据假想相机外部参数来算出。
模板匹配部153在所述变换后的输入亮度图像与二维模板131之间进行匹配,由此确定变换后的输入图像内的集装箱的上缘部的位置与旋转角度(S805)。S807及S809的处理与一面参照图7一面说明的S707及S709的处理相同。
[4硬件构成]
以下,一面参照图9,一面对可实现信息处理装置100的硬件构成进行说明。图9示意性地例示本实施方式的信息处理装置100的硬件构成的一例。
图9的例子中所示的信息处理装置100包含:控制部901、存储部905、通信接口(Interface,I/F)部911、输入部913、以及输出部915,各部可经由总线917而相互可通信地选择。
控制部901包含中央处理器(Central Processing Unit,CPU)、随机存取存储器(Random Access Memory,RAM)903、只读存储器(Read Only Memory,ROM)等,对应于信息处理来进行各构成元件的控制。更具体而言,例如可包含在控制部901中的CPU从存储部905朝RAM 903读入控制程序907,并执行所述控制程序907,由此可执行与图5中所示的模板生成部110及识别部150相关的所述各种处理。
存储部905例如为硬盘驱动器(Hard Disk Drive,HDD)、固态驱动器(Solid StateDrive,SSD)等辅助存储装置,存储由控制部901所执行的控制程序907、及数据库(DB)130等。在DB 130中,如上所述,可管理二维模板131或坐标关系信息133等。此外,也可以考虑在DB 130上管理相机参数等信息。
控制程序907是用于执行一面参照图1至图8一面说明的信息处理装置100的处理的程序。尤其,图5中所示的模板生成部110及识别部150的各构成可作为控制程序907来实现。
通信I/F部911例如为用于通过有线或无线来与其他装置进行通信的通信组件。通信I/F部911用于与其他装置的通信的通信方式任意,例如可列举:局域网(Local AreaNetwork,LAN)或通用串行总线(Universal Serial Bus,USB)等。例如,可考虑经由通信I/F部911来进行朝未图示的产业机器人的三维位置姿势信息的输出等。
输入部913例如为可通过鼠标或键盘、触摸屏等来实现的、用于受理来自用户的各种输入操作等的器件。输出部915例如为显示器或扬声器等用于通过显示或声音等来朝利用信息处理装置100的用户等报告各种信息的装置。例如,可考虑输出部915对由识别部150所得的集装箱的位置姿势的识别结果进行显示等,由此对用户进行报告。
[5实施方式的效果]
如以上说明那样,本实施方式的信息处理装置100事先生成表示例如集装箱等姿势位置的识别对象物的上缘部的形状的二维模板后,对识别对象物的拍摄图像进行与所述二维模板的匹配,由此确定集装箱的位置等。宽度窄的物体或由光容易进行正反射的原材料形成的物体难以测量三维坐标,但本实施方式仅通过对于二维图像的匹配处理来检测集装箱等识别对象物的位置及姿势,因此能够以高精度检测识别对象物的姿势位置。
另外,尤其在集装箱等内部可装入其他构件的构件为识别对象物的情况下,拍摄了识别对象物时的外观对应于是否装入有其他构件、或已装入的构件的数量而变化,因此若为利用集装箱整体的图像的匹配等,则难以检测。但是,在本实施方式的信息处理装置100中,使用集装箱的上缘部的图像进行检测,因此不论内部是否装入有构件等,均能够以高精度检测对象物的姿势位置。
进而,在本实施方式的信息处理装置100中,根据对应于二维信息的匹配来检测集装箱的位置及姿势,因此与使用三维信息来检测集装箱的位置及姿势的情况相比,可减少运算量。
[6附记]
以上所说明的实施方式是用于使本发明的理解变得容易的实施方式,并非用于对本发明加以限定来进行解释的实施方式。实施方式所包括的各元件及其配置、材料、条件、形状及尺寸等并不限定于例示者,可适宜变更。另外,可将在不同的实施方式中所示的构成彼此部分地替换或组合。
(附记1)
一种信息处理装置100,包括:
第一输入部111,接受用于生成识别对象物的三维模型的三维模型信息的输入;
模板生成部110,根据三维模型信息,生成表示所述识别对象物的上缘部的形状的二维模板131;
坐标关系确定部117,生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息133;
第二输入部151,接受拍摄有所述识别对象物的拍摄图像的输入;
匹配部153,将所述拍摄图像与所述二维模板131进行匹配;以及
识别部157,对于对应于由所述匹配部153获得的二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息133来识别所述识别对象物的三维位置及姿势。
(附记2)
一种信息处理方法,使信息处理装置100进行如下的处理:
接受用于生成识别对象物的三维模型的三维模型信息的输入的处理;
根据三维模型信息,生成与表示所述识别对象物的上缘部的形状的上缘部图像对应的二维模板131的处理;
生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息133的处理;
接受拍摄有所述识别对象物的拍摄图像的输入的处理;
将所述拍摄图像与所述二维模板131进行匹配的处理;以及
对于对应于由所述匹配部获得的二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息133来识别所述识别对象物的三维位置及姿势的处理。
(附记3)
一种程序,用于使信息处理装置100执行如下的处理:
接受用于生成识别对象物的三维模型的三维模型信息的输入的处理;
根据三维模型信息,生成与表示所述识别对象物的上缘部的形状的上缘部图像对应的二维模板131的处理;
生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息133的处理;
接受拍摄有所述识别对象物的拍摄图像的输入的处理;
将所述拍摄图像与所述二维模板131进行匹配的处理;以及
对于对应于由所述匹配部获得的二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息133来识别所述识别对象物的三维位置及姿势的处理。

Claims (3)

1.一种信息处理装置,其特征在于,包括:
第一输入部,接受用于生成识别对象物的三维模型的三维模型信息的输入;
模板生成部,根据三维模型信息,在构成所述三维模型的各网格之中,确定法线自水平方向向上并且高于周围的网格的部分为所述识别对象物的上缘部,以生成表示所述识别对象物的所述上缘部的形状的二维模板;
坐标关系确定部,生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息;
第二输入部,接受拍摄有所述识别对象物的拍摄图像的输入;
匹配部,将所述拍摄图像与所述二维模板进行匹配;以及
识别部,对于对应于由所述匹配部获得的二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息来识别所述识别对象物的三维位置及姿势。
2.一种信息处理方法,其特征在于,使信息处理装置进行如下的处理:
接受用于生成识别对象物的三维模型的三维模型信息的输入的处理;
根据三维模型信息,在构成所述三维模型的各网格之中,确定法线自水平方向向上并且高于周围的网格的部分为所述识别对象物的上缘部,以生成表示所述识别对象物的所述上缘部的形状的二维模板的处理;
生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息的处理;
接受拍摄有所述识别对象物的拍摄图像的输入的处理;
将所述拍摄图像与所述二维模板进行匹配的处理;以及
对于对应于二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息来识别所述识别对象物的三维位置及姿势的处理。
3.一种信息处理存储介质,其存储用于使计算机作为如下部发挥功能的程序,所述信息处理存储介质的特征在于,用于使信息处理装置执行如下的处理:
接受用于生成识别对象物的三维模型的三维模型信息的输入的处理;
根据三维模型信息,在构成所述三维模型的各网格之中,确定法线自水平方向向上并且高于周围的网格的部分为所述识别对象物的上缘部,以生成表示所述识别对象物的所述上缘部的形状的二维模板的处理;
生成表示所述三维模型的三维坐标与拍摄了所述三维模型时的二维坐标的关系的坐标关系信息的处理;
接受拍摄有所述识别对象物的拍摄图像的输入的处理;
将所述拍摄图像与所述二维模板进行匹配的处理;以及
对于对应于二维匹配结果来检测的所述拍摄图像的所述识别对象物,通过参照所述坐标关系信息来识别所述识别对象物的三维位置及姿势的处理。
CN201980012034.3A 2018-03-14 2019-02-18 信息处理装置、信息处理方法以及信息处理存储介质 Active CN111742349B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018046664A JP7161857B2 (ja) 2018-03-14 2018-03-14 情報処理装置、情報処理方法、及びプログラム
JP2018-046664 2018-03-14
PCT/JP2019/005762 WO2019176450A1 (ja) 2018-03-14 2019-02-18 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
CN111742349A CN111742349A (zh) 2020-10-02
CN111742349B true CN111742349B (zh) 2023-09-29

Family

ID=67906553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980012034.3A Active CN111742349B (zh) 2018-03-14 2019-02-18 信息处理装置、信息处理方法以及信息处理存储介质

Country Status (5)

Country Link
US (1) US11823414B2 (zh)
EP (1) EP3767589A4 (zh)
JP (1) JP7161857B2 (zh)
CN (1) CN111742349B (zh)
WO (1) WO2019176450A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202233370A (zh) * 2021-02-18 2022-09-01 日商發那科股份有限公司 機器人系統及控制裝置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置
CN105654464A (zh) * 2014-11-28 2016-06-08 佳能株式会社 图像处理装置及图像处理方法
CN106182045A (zh) * 2014-09-10 2016-12-07 发那科株式会社 物品搬运系统
CN106355614A (zh) * 2015-07-14 2017-01-25 财团法人工业技术研究院 机械系统的校正及监测装置
CN107030520A (zh) * 2015-12-10 2017-08-11 发那科株式会社 去除系统以及加工系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5429614B2 (ja) 2009-04-16 2014-02-26 株式会社Ihi 箱状ワーク認識装置および方法
US20130124156A1 (en) * 2009-05-26 2013-05-16 Embodee Corp Footwear digitization system and method
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
US9804751B2 (en) * 2015-07-27 2017-10-31 Applied Software Technology, Inc. Creating and merging two-dimensional floor plans within three-dimensional models
US10410089B2 (en) * 2018-01-19 2019-09-10 Seiko Epson Corporation Training assistance using synthetic images
US10671835B2 (en) * 2018-03-05 2020-06-02 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Object recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置
CN106182045A (zh) * 2014-09-10 2016-12-07 发那科株式会社 物品搬运系统
CN105654464A (zh) * 2014-11-28 2016-06-08 佳能株式会社 图像处理装置及图像处理方法
CN106355614A (zh) * 2015-07-14 2017-01-25 财团法人工业技术研究院 机械系统的校正及监测装置
CN107030520A (zh) * 2015-12-10 2017-08-11 发那科株式会社 去除系统以及加工系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Fast Edge-Based Detection and Localization of Transport Boxes and Pallets in RGB-D Images for Mobile Robot Bin Picking";Dirk Holz,Sven Behnke;《Proceedings of ISR 2016: 47st International Symposium on Robotics》;第1-8页 *

Also Published As

Publication number Publication date
EP3767589A4 (en) 2021-12-15
CN111742349A (zh) 2020-10-02
US20200394818A1 (en) 2020-12-17
WO2019176450A1 (ja) 2019-09-19
US11823414B2 (en) 2023-11-21
JP7161857B2 (ja) 2022-10-27
JP2019159901A (ja) 2019-09-19
EP3767589A1 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
US8755562B2 (en) Estimation apparatus, control method thereof, and program
US20170307354A1 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
JP2008506953A (ja) 機械視覚のための方法及び装置
US11654571B2 (en) Three-dimensional data generation device and robot control system
KR20160003776A (ko) 자세 추정 방법 및 로봇
JP6703812B2 (ja) 3次元物体検査装置
EP3229208B1 (en) Camera pose estimation
JP6836561B2 (ja) 画像処理装置及び画像処理方法
US10957067B2 (en) Control apparatus, object detection system, object detection method and program
JP2018136896A (ja) 情報処理装置、システム、情報処理方法、および物品の製造方法
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
CN111742349B (zh) 信息处理装置、信息处理方法以及信息处理存储介质
US20210042576A1 (en) Image processing system
JP2009216480A (ja) 三次元位置姿勢計測方法および装置
US20220230459A1 (en) Object recognition device and object recognition method
JP2021012043A (ja) 機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラム
JP6766229B2 (ja) 位置姿勢計測装置及び方法
JP2014235680A (ja) 画像処理装置、画像処理方法、ロボット及びプログラム
JP2014164641A (ja) 画像処理装置、ロボット制御システム、ロボット、プログラム及び画像処理方法
JP2014127092A (ja) 画像処理装置、画像処理方法、ロボット及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant