JP5716433B2 - Shape recognition device, shape recognition method, and program thereof - Google Patents
Shape recognition device, shape recognition method, and program thereof Download PDFInfo
- Publication number
- JP5716433B2 JP5716433B2 JP2011024352A JP2011024352A JP5716433B2 JP 5716433 B2 JP5716433 B2 JP 5716433B2 JP 2011024352 A JP2011024352 A JP 2011024352A JP 2011024352 A JP2011024352 A JP 2011024352A JP 5716433 B2 JP5716433 B2 JP 5716433B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- information
- posture
- recognition target
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、任意の認識対象物の位置および姿勢を認識可能な形状認識装置、形状認識方法、および、そのプログラムに関する。 The present invention relates to a shape recognition apparatus, a shape recognition method, and a program for recognizing the position and orientation of an arbitrary recognition object.
規則的に載置された複数の認識対象物を自律的に認識し、その認識した認識対象物を産業用のロボットに1つずつピッキング処理させるピッキングシステムが普及している。また、近年では、認識対象物が規則的に載置されていない場合であっても、認識対象物の位置や姿勢を特定し、その位置や姿勢に合わせて認識対象物をピッキングすることができるようになってきた。 A picking system that autonomously recognizes a plurality of regularly placed recognition objects and picks up the recognized recognition objects one by one by an industrial robot has become widespread. Further, in recent years, even when the recognition target object is not regularly placed, it is possible to specify the position and orientation of the recognition target object and pick the recognition target object according to the position and orientation. It has become like this.
例えば、特定の形状(円柱形状や円錐形状)の3次元モデルを予め保持し、2次元カメラによる任意の投影像から3次元モデルに相当する認識対象物の画像特徴(特徴量)を抽出すると共に、保持していた3次元モデルの3次元位置および姿勢を修正し、その認識対象物と3次元モデルとの特徴量を比較して、一致する程度を判定する技術が公開されている(例えば、特許文献1)。また、投影像の明度を変換し特定色相を強調した画像から画像特徴を抽出し特徴量とする技術(例えば、特許文献2)や、スリット光を認識対象物に照射し、スリット光の投影パターンに基づいて輪郭線を抽出して特徴量とする技術(例えば、特許文献3)、円柱形状部を有する物体の輪郭に相当する平行な1対の線分を抽出して特徴量とする技術(例えば、特許文献4)も知られている。 For example, a three-dimensional model having a specific shape (cylindrical shape or conical shape) is stored in advance, and an image feature (feature amount) of a recognition target corresponding to the three-dimensional model is extracted from an arbitrary projection image by a two-dimensional camera. A technique is disclosed that corrects the three-dimensional position and orientation of the held three-dimensional model, compares the feature quantities of the recognition object and the three-dimensional model, and determines the degree of matching (for example, Patent Document 1). In addition, a technique (for example, Patent Document 2) that extracts image features from an image in which the brightness of a projected image is converted and emphasizes a specific hue to obtain a feature amount, or a slit light projection pattern by irradiating a recognition object with slit light. A technique for extracting a contour line based on the above and making it a feature quantity (for example, Patent Document 3), and a technique for extracting a pair of parallel line segments corresponding to the outline of an object having a cylindrical shape part and making it a feature quantity ( For example, Patent Document 4) is also known.
また、認識対象物の表面にスリット光を投影し、そのスリット像との2次元空間周波数スペクトルと、既知の標準物体の2次元空間周波数スペクトルとの類似度によって認識対象物体の形状を認識する技術も開示されている(例えば、特許文献5)。 Also, a technique for projecting slit light onto the surface of the recognition object and recognizing the shape of the recognition object based on the similarity between the two-dimensional spatial frequency spectrum of the slit image and the two-dimensional spatial frequency spectrum of a known standard object Is also disclosed (for example, Patent Document 5).
しかし、上述した特許文献1〜5に基づく技術は、認識対象物の形状が、円柱形状や円錐形状といった非常に単純な形状に限定されている。したがって、特許文献1〜5に基づく技術では、認識対象物が丸みを帯びた形状ではなかったり、明確な直線やエッジを持たない場合や、その表面に凹凸が形成されている場合には、認識対象物を的確に認識することができなかった。
However, in the techniques based on
ピッキングシステムにおける形状認識では、上述した単純な形状に限らず、様々な形状の認識対象物を認識できることが望まれる。このような様々な形状を画一的に捉えるため、本願発明者は、例えば、認識対象物の形状の偏りにより生じる長手軸によって形状を特徴付けることを試みた。 The shape recognition in the picking system is not limited to the simple shape described above, and it is desired that recognition objects of various shapes can be recognized. In order to grasp such various shapes uniformly, the inventor of the present application tried to characterize the shape by a longitudinal axis caused by, for example, deviation of the shape of the recognition object.
しかし、長手軸を有する認識対象物とその3次元モデルとは、パターンマッチングが収束する収束点(認識対象物と3次元モデルとの一致度が最大となる点)として、長手軸が等しいが互いに対称的に配される2つの姿勢があり、そのうちの正しい姿勢にパターンマッチングが収束すれば、的確な認識結果を得ることができるが、誤った姿勢にパターンマッチングが収束すると、認識対象物と3次元モデルとが同一であるにも拘わらず異なっていると誤判定されたり、同一と見なせる閾値に到達せず、無駄に処理時間を費やしてしまうおそれがある。 However, the recognition object having the longitudinal axis and the three-dimensional model thereof have the same longitudinal axis as the convergence point where the pattern matching converges (the point where the degree of coincidence between the recognition object and the three-dimensional model is maximized). There are two postures arranged symmetrically, and if the pattern matching converges to the correct one of them, an accurate recognition result can be obtained, but if the pattern matching converges to the wrong posture, the recognition object 3 Although the dimensional model is the same, it may be erroneously determined to be different, or the threshold that can be regarded as the same will not be reached, and processing time may be wasted.
本発明は、このような課題に鑑み、単純な形状に限らず認識対象物を的確に抽出可能な形状認識装置、形状認識方法、および、そのプログラムを提供することを目的としている。 In view of such problems, the present invention has an object to provide a shape recognition device, a shape recognition method, and a program thereof that can accurately extract not only a simple shape but also a recognition object.
上記課題を解決するために、本発明の形状認識装置は、長手軸を有する3次元モデルを示す3次元モデル情報を保持するモデル保持部と、認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、認識対象情報と3次元モデル情報とに基づいて、認識対象物または3次元モデルを長手軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、認識対象物の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデルの姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定する認識対象物特定部とを備えることを特徴とする。 In order to solve the above-described problem, a shape recognition apparatus according to the present invention includes a model holding unit that holds three-dimensional model information indicating a three-dimensional model having a longitudinal axis, and recognition target information that indicates a three-dimensional shape of a recognition target. Posture candidate information indicating two posture candidates in which the recognition target object or the three-dimensional model is symmetrically arranged along the longitudinal axis based on the recognition target information acquisition unit to be acquired, the recognition target information, and the three-dimensional model information. The position and orientation of the recognition target object based on the posture candidate information generation unit to be generated and the posture candidate information and three-dimensional model information of the recognition target object, or based on the recognition target information and the posture candidate information of the three-dimensional model. A recognition object specifying unit for specifying
形状認識装置は、認識対象情報と3次元モデル情報とに基づいて、認識対象物の1または複数の軸を特定する軸特定部をさらに備え、姿勢候補情報生成部は、軸特定部で特定された1または複数の軸毎に2つの姿勢候補を示す姿勢候補情報を生成してもよい。 The shape recognition device further includes an axis specifying unit that specifies one or more axes of the recognition target based on the recognition target information and the three-dimensional model information, and the posture candidate information generation unit is specified by the axis specifying unit. Alternatively, posture candidate information indicating two posture candidates for one or more axes may be generated.
上記課題を解決するために、本発明の他の形状認識装置は、1または複数の回転角度において、回転前と回転後の形状が高い一致度を得る複数の軸を有する3次元モデルを示す3次元モデル情報を保持するモデル保持部と、認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、認識対象情報と3次元モデル情報とに基づいて、認識対象物または3次元モデルの軸同士が成す角の角度分回転した軸と同数の姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、認識対象物の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデルの姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定する認識対象物特定部とを備えることを特徴とする。 In order to solve the above problems, another shape recognition apparatus of the present invention shows a three-dimensional model having a plurality of axes that obtain a high degree of coincidence between shapes before and after rotation at one or more rotation angles. Based on the recognition target information or the three-dimensional model information based on the recognition target information and the three-dimensional model information, the model holding unit that holds the three-dimensional model information, the recognition target information acquisition unit that acquires the recognition target information indicating the three-dimensional shape of the recognition target object, Based on the posture candidate information generation unit that generates posture candidate information indicating the same number of posture candidates as the number of axes rotated by the angle formed by the axes of the three-dimensional model, the posture candidate information of the recognition object, and the three-dimensional model information Or a recognition object specifying unit that specifies the position and orientation of the recognition object based on the recognition object information and the attitude candidate information of the three-dimensional model.
形状認識装置は、認識対象情報と3次元モデル情報とに基づいて、認識対象物の1または複数の形状認識装置は、軸を特定する軸特定部をさらに備え、姿勢候補情報生成部は、軸特定部で特定された1または複数の軸に沿って軸と同数の姿勢候補を示す姿勢候補情報を生成してもよい。 The shape recognition device includes one or more shape recognition devices for the recognition target based on the recognition target information and the three-dimensional model information, and further includes an axis specifying unit for specifying an axis. Posture candidate information indicating the same number of posture candidates as the number of axes may be generated along one or a plurality of axes specified by the specifying unit.
認識対象物特定部はICPを用いて認識対象物の位置および姿勢を特定してもよい。 The recognition target specifying unit may specify the position and orientation of the recognition target using ICP.
上記課題を解決するために、本発明の形状認識方法は、長手軸を有する3次元モデルを示す3次元モデル情報を予め保持し、認識対象物の3次元形状を示す認識対象情報を取得し、認識対象情報と3次元モデル情報とに基づいて、認識対象物または3次元モデルを長手軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成し、認識対象物の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデルの姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定することを特徴とする。 In order to solve the above-mentioned problem, the shape recognition method of the present invention previously holds 3D model information indicating a 3D model having a longitudinal axis, acquires recognition object information indicating the 3D shape of the recognition object, Based on the recognition target information and the three-dimensional model information, posture candidate information indicating two posture candidates in which the recognition target object or the three-dimensional model is symmetrically arranged along the longitudinal axis is generated, and the posture candidate of the recognition target object The position and orientation of the recognition target are specified based on the information and the three-dimensional model information, or based on the recognition target information and the posture candidate information of the three-dimensional model.
上記課題を解決するために、本発明の他の形状認識方法は、1または複数回転角度において、回転前と回転後の形状が高い一致度を得る複数の軸を有する3次元モデルを示す3次元モデル情報を予め保持し、認識対象物の3次元形状を示す認識対象情報を取得し、認識対象情報と3次元モデル情報とに基づいて、認識対象物または3次元モデルの軸同士が成す角の角度分回転した軸と同数の姿勢候補を示す姿勢候補情報を生成し、認識対象物の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデルの姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定することを特徴とする。 In order to solve the above-mentioned problem, another shape recognition method of the present invention is a three-dimensional model showing a three-dimensional model having a plurality of axes that obtain a high degree of coincidence between shapes before and after rotation at one or a plurality of rotation angles. The model information is held in advance, the recognition target information indicating the three-dimensional shape of the recognition target object is acquired, and the angle formed by the axes of the recognition target object or the three-dimensional model is determined based on the recognition target information and the three-dimensional model information . Posture candidate information indicating the same number of posture candidates as the number of axes rotated by an angle is generated, and based on the posture candidate information of the recognition target and the three-dimensional model information, or the recognition target information and the posture candidate information of the three-dimensional model Based on the above, the position and orientation of the recognition object are specified.
上記課題を解決するために、コンピュータを、認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、認識対象情報と、長手軸を有する3次元モデルを示す3次元モデル情報とに基づいて、認識対象物または3次元モデルを長手軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、認識対象物の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデルの姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定する認識対象物特定部として機能させるためのプログラムが提供される。 In order to solve the above problem, a computer uses a recognition target information acquisition unit that acquires recognition target information indicating a three-dimensional shape of a recognition target object, a recognition target information, and a three-dimensional model indicating a three-dimensional model having a longitudinal axis. A posture candidate information generating unit that generates posture candidate information indicating two posture candidates in which a recognition object or a three-dimensional model is symmetrically arranged along the longitudinal axis based on the information, and posture candidate information of the recognition target And a program for functioning as a recognition target specifying unit for specifying the position and orientation of a recognition target based on the recognition target information and the three-dimensional model posture candidate information Is done.
また、上記課題を解決するために、コンピュータを、認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、認識対象情報と、1または複数の回転角度において、回転前と回転後の形状が高い一致度を得る複数の軸を有する3次元モデルを示す3次元モデル情報とに基づいて、認識対象物または3次元モデルの軸同士が成す角の角度分回転した軸と同数の姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、認識対象物の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデルの姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定する認識対象物特定部として機能させるためのプログラムが提供される。 In order to solve the above problem, the computer is configured to recognize a recognition target information acquisition unit that acquires recognition target information indicating a three-dimensional shape of the recognition target object, recognition target information, and at one or a plurality of rotation angles. And the axis rotated by the angle of the angle formed by the axes of the recognition object or the three-dimensional model based on the three-dimensional model information indicating the three-dimensional model having a plurality of axes that obtain a high degree of coincidence with the shape after rotation Based on the posture candidate information generating unit that generates posture candidate information indicating the same number of posture candidates, and the posture candidate information and the three-dimensional model information of the recognition target object, or the recognition target information and the posture candidate information of the three-dimensional model and A program for functioning as a recognition object specifying unit that specifies the position and orientation of a recognition object based on the above is provided.
本発明によれば、単純な形状に限らず認識対象物を的確に抽出可能となる。 According to the present invention, not only a simple shape but also a recognition object can be accurately extracted.
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.
(第1の実施形態:ピッキングシステム100)
図1は、ピッキングシステム100の概略的な接続関係を示した説明図である。ピッキングシステム100は、3次元形状測定装置110と、形状認識装置120と、ロボット制御装置130と、ロボット140とを含んで構成される。
(First Embodiment: Picking System 100)
FIG. 1 is an explanatory diagram showing a schematic connection relationship of the picking system 100. The picking system 100 includes a three-dimensional
3次元形状測定装置110は、例えば、レーザースキャナ方式の3次元距離センサで構成され、不規則に積み上げられ乱雑に重なっている複数の認識対象物(ワーク)112の測定面(表面)における複数の検出点の3次元座標を検出する。具体的に、3次元形状測定装置110としての3次元距離センサは、測定面上の複数の検出点の、3次元形状測定装置110からの距離を示すZ軸座標と、検出方向に垂直な面(XY平面)上におけるX、Y軸座標とを合わせて3次元座標とし、複数の検出点すべての3次元座標を示す情報である認識対象情報を生成する。こうして生成された認識対象情報は、形状認識装置120に送信される。ここでは、認識対象情報として、認識対象物上の複数の検出点における3次元座標を送信しているが、かかる場合に限られず、認識対象物の3次元形状を表す様々な情報を送信することができる。また、3次元形状測定装置110として、3次元距離センサを挙げているが、3次元形状が把握可能な既存の様々なセンサを採用することが可能である。
The three-dimensional
形状認識装置120は、3次元形状測定装置110から受信した認識対象情報に基づいて認識対象物112を抽出し、パターンマッチング等により、その認識対象物112が3次元モデル122で示される所望する認識対象物112であることを認識し、その認識対象物112の位置や姿勢を特定する。
The
ロボット制御装置130は、そのようにして認識された1の認識対象物112の位置や姿勢を示す情報を形状認識装置120から受信して、ロボット140に認識対象物112をピッキングさせる制御指令を発する。ロボット140は、その制御指令を受けて、指示された1の認識対象物112を、吸着式バンド142を通じてピッキングする。このようなピッキングシステム100によって、例えば、不規則に積み上げられた認識対象物112を所定の位置に整列させる作業を自動化することができる。
The
このようなピッキングシステム100における形状認識では、円柱形状や円錐形状といった単純な形状に限らず、様々な形状の認識対象物112を認識できることが望まれる。しかし、形状の異なるすべての認識対象物112を画一的に処理するのは困難である。そこで、本願発明者は、このような様々な形状を画一的に捉えるため、認識対象物112の形状の偏りにより生じる長手軸によって形状を特徴付け得ることに着目した。球体の様に完全に対称な認識対象物を除き、一般的な認識対象物112は長手軸(長手方向)を有する。長手軸は、形状が偏ることにより長手となった軸を言う。
Such shape recognition in the picking system 100 is not limited to a simple shape such as a cylindrical shape or a conical shape, and it is desired that recognition objects 112 having various shapes can be recognized. However, it is difficult to uniformly process all recognition objects 112 having different shapes. Therefore, the inventor of the present application has focused on the fact that the shape can be characterized by the longitudinal axis caused by the deviation of the shape of the
しかし、長手軸を特定しても、その長手軸を有する認識対象物112が長手軸方向に対して完全に点対称(順方向と逆方向に向けた形状が完全に一致する)ではない場合は、順方向と逆方向の2つの異なる姿勢が存在し、その2つの姿勢候補のいずれが真の姿勢であるかは、やはりパターンマッチングの結果を待たなければ分からない。このように2つの姿勢候補が存在するのは、認識対象物112と3次元モデル122との長手軸が合っていると、それが誤った姿勢であってもパターンマッチングの一致度が高くなることに起因する。
However, even if the longitudinal axis is specified, the
ここで、パターンマッチングにおける、長手軸方向のマッチング誤差と、短手軸(長手軸に垂直な軸)方向のマッチング誤差がもたらす影響に着目すると、短手軸方向のマッチング誤差は、姿勢収束時にさほど大きな影響を与えないが、長手軸方向のマッチング誤差は大きく影響を与え、誤った収束点(姿勢)に一度収束し始めると、真の収束点に方向転換することができなくなる。したがって、パターンマッチングの初期値や収束方向によって、誤った姿勢にパターンマッチングが収束してしまうと、認識対象物112と3次元モデル122とが同一であるにも拘わらず異なっていると誤判定されたり、同一と見なせる閾値に到達せず、無駄に処理時間を費やしてしまうおそれがある。
Here, focusing on the effects of the matching error in the longitudinal axis direction and the matching error in the short axis direction (axis perpendicular to the longitudinal axis) in pattern matching, the matching error in the short axis direction is much less during posture convergence. Although there is no great influence, the matching error in the longitudinal axis direction has a great influence, and once it starts to converge to the wrong convergence point (posture), it cannot be changed to the true convergence point. Therefore, if the pattern matching converges in an incorrect posture depending on the initial value and the convergence direction of pattern matching, it is erroneously determined that the
そこで、本願発明者は、認識対象物112と3次元モデル122とのパターンマッチングの収束点が複数想定される場合、認識対象物112または3次元モデル122に関し、収束し得る複数の姿勢候補を予め生成して、その複数の姿勢候補それぞれをパターンマッチングに用いることとした。
Therefore, when a plurality of pattern matching convergence points between the
例えば、認識対象物112が長手軸を有する場合、一致度の高くなる極値点(収束点)は2つ存在することとなるので、形状認識装置120は、3次元形状測定装置110に取得された認識対象物112の姿勢そのものと、その認識対象物112を単純にZ軸周りに180°回転した姿勢の2つの姿勢候補を準備し、認識対象物112の2つの姿勢候補と3次元モデル122とのパターンマッチングを実行して認識対象物112の位置および姿勢を特定する。あるいは、形状認識装置120は、3次元モデル122の姿勢と、3次元モデル122を単純に180°回転した姿勢の2つの姿勢候補を準備し、3次元モデル122の2つの姿勢候補と認識対象物112とのパターンマッチングを実行して認識対象物112の位置および姿勢を特定する。
For example, when the
かかる構成により、パターンマッチングにおいて、2つの姿勢候補のうちの、少なくとも一方の姿勢候補が真の収束点に到達するので、他方の姿勢候補が収束不能や誤判定に陥ったとしても、そのことが結果に影響することなく、一方の姿勢候補により的確に認識対象物112の位置および姿勢を特定することが可能となる。
With this configuration, in pattern matching, at least one of the two posture candidates reaches the true convergence point, so even if the other posture candidate fails to converge or falls into an erroneous determination, Without affecting the result, the position and posture of the
しかし、上述した、最初から2つの姿勢候補を準備するパターンマッチングにおいては、パターンマッチング全工程に亘り、姿勢候補とのパターンマッチングを並行して2回行わなければならないので、処理負荷が重くなってしまう。また、一部のマッチング手法では収束点探索の仕方が単純ではないため両候補とも誤った姿勢に収束することもある。そこで、本願発明者は、さらに、パターンマッチングを2段階に分けて処理負荷を軽減した。即ち、1段階目において、認識対象物112と3次元モデル122とのパターンマッチングの結果が収束し得る軸を特定し、特定した軸に対して互いに逆向きに揃えた2つの姿勢候補を生成し、2段階目において、その姿勢候補を用いてパターンマッチングを厳密に行う。ただし、軸を有する3次元モデルが長手軸の方向に完全に対称である場合は、2つの候補姿勢(順方向、逆方向)のどちらも真であるため、候補姿勢を作る必要はない。
However, in the above-described pattern matching for preparing two posture candidates from the beginning, the pattern matching with the posture candidates must be performed twice in parallel over the entire pattern matching process, which increases the processing load. End up. In addition, in some matching methods, the method of searching for a convergence point is not simple, so both candidates may converge to an incorrect posture. Therefore, the present inventor further reduced the processing load by dividing pattern matching into two stages. That is, in the first stage, an axis on which the result of pattern matching between the
図2は、2段階のパターンマッチングの概要を説明するための説明図である。例えば、図2(a)のように、長手軸を有する「鍵」をイメージした認識対象物112と3次元モデル122とがあるとする。ここでは、理解を容易にするため、認識対象物112の長手軸が、3次元モデル122の長手軸を図2(a)中時計回りに270°回転した状態となっており、長手軸回りのスピン角度は考慮しないものとする。パターンマッチングでは、まず、3次元モデル122を基準として、両者の一致度が高くなる方向(図2(b)中一致度の軌跡に沿った矢印で示す。)に、認識対象物112を回転する。そして、一致度が極値に落ち着くと、その点をパターンマッチングの収束点としている。
FIG. 2 is an explanatory diagram for explaining an outline of two-stage pattern matching. For example, as shown in FIG. 2A, it is assumed that there is a
このとき、パターンマッチングの初期値が、図2(b)における認識対象物112の回転角度が180°以上に相当する姿勢であれば、3次元モデル122と一致する正しい姿勢(270°)にパターンマッチングが収束し、的確な認識結果を得ることができる。しかし、パターンマッチングの初期値が、認識対象物112の回転角度が180°未満に相当する姿勢であれば、誤った姿勢(90°)にパターンマッチングが収束することとなってしまう。
At this time, if the initial value of the pattern matching is an attitude corresponding to the rotation angle of the
ここでは、正しい姿勢(270°)と誤った姿勢(90°)のいずれに収束するかは不明であるが、正しい姿勢(270°)と誤った姿勢(90°)とが互いに180°回転した姿勢であることは推測することができる。したがって、1段階目において、パターンマッチングが収束すると予想される軸を抽出し、2段階目において、その抽出した軸に沿って対称的に配置された(180°回転した)2つの姿勢について厳密なパターンマッチングを行うことで、正しいマッチング姿勢を得る。 Here, it is unclear whether the correct posture (270 °) or the wrong posture (90 °) converges, but the correct posture (270 °) and the wrong posture (90 °) are rotated by 180 ° relative to each other. It can be inferred that it is a posture. Therefore, in the first stage, the axis where the pattern matching is expected to converge is extracted, and in the second stage, the two postures that are symmetrically arranged (rotated 180 °) along the extracted axis are strict. A correct matching posture is obtained by performing pattern matching.
例えば、図2(c)に示すように、(1)認識対象物112を0°からZ軸を中心に時計回りに回転し、その一致度が1つ目の極値(90°)になる前の所定の閾値に達した時点で、一旦パターンマッチングを停止する。図2(c)の例では、認識対象物112が80°回転した時点で所定の閾値に達したとする。そして、80°に回転した認識対象物112を2段階目の姿勢候補とすると共に、さらに180°回転した(260°回転した)認識対象物112も姿勢候補とする。続いて、(2)認識対象物112の2つの姿勢候補(80°、260°)に基づいて、厳密なパターンマッチングを並行して行う。
For example, as shown in FIG. 2C, (1) the
すると、2つの姿勢候補は、それぞれ90°と270°において極値を示すが、そのうち一致度が高い270°の姿勢が認識対象物112の真の姿勢であると判断される。ここでは、1つの長手軸に対して2つの姿勢候補があるので、そのいずれもパターンマッチングを行うことで、誤った姿勢にのみパターンマッチングが収束するのを回避している。
Then, the two posture candidates show extreme values at 90 ° and 270 °, respectively, and the posture of 270 ° having a high degree of coincidence is determined as the true posture of the
また、その2つの姿勢の関係、例えば、軸に沿って対称的な関係にあることは把握されているので、軸の特定に関しては、いずれか一方の姿勢の軸を用いればよく、そのときに厳密なパターンマッチングを要さない。即ち、1段階目では、厳密なパターンマッチング(極値探索)を行うまでもなく、緩い閾値で一方のみの軸を抽出すればよいこととなる。 In addition, since it is known that there is a relationship between the two postures, for example, a symmetrical relationship along the axis, the axis of one of the postures may be used for specifying the axis. Does not require strict pattern matching. That is, in the first stage, it is not necessary to perform strict pattern matching (extreme value search), and only one axis may be extracted with a gentle threshold.
ここでは、少なくとも一方の姿勢候補に関して、最適な収束点(極値)が導出されるので、他方の収束点を導出するまでもなく、パターンマッチングが完了する。したがって、認識対象物112の位置と姿勢とが的確に導出される。また、軸を抽出するまでのパターンマッチングを2つの極値それぞれについて実行せず、いずれか一方でのみ行うので、処理負荷の軽減を図ることができる。以上が本実施形態のパターンマッチングの概要である。以下では、軸を有する認識対象物112を的確に抽出可能な形状認識装置120の具体的な構成を示し、その後、具体的な処理の流れ(形状認識方法)を詳述する。
Here, since the optimum convergence point (extreme value) is derived for at least one posture candidate, the pattern matching is completed without deriving the other convergence point. Therefore, the position and orientation of the
(形状認識装置120)
図3は、形状認識装置120の概略的な構成を示した機能ブロック図である。形状認識装置120は、モデル保持部210と、データバッファ212と、中央制御部214とを含んで構成される。形状認識装置120は、認識対象物112の1または複数の軸に対して、軸毎に2つの姿勢候補を生成するが、ここでは、理解を容易にするため、1軸(長手軸)に対する2つの姿勢を挙げて説明する。しかし、1軸に限定されないことは言うまでもない。
(Shape recognition device 120)
FIG. 3 is a functional block diagram illustrating a schematic configuration of the
モデル保持部210は、ROM、不揮発性RAM、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、認識対象物112に対応する3次元モデル122、特に長手軸を有する3次元モデル122を示す3次元モデル情報を保持する。
The
図4は、長手軸を有する3次元モデルを例示した説明図である。例えば、図4(a)は円柱形状、図4(b)はコーン形状、図4(c)は径の異なる円柱を結合した形状、図4(d)は直方体形状、図4(e)は、斜柱体形状を示し、いずれも形状が偏ることにより図4中、上下方向に長手軸250を有することが共通している。また、他にも、建築物の柱、ポスト、電話ブース、電柱等、長手軸250を有する様々な認識対象物112を想定している。
FIG. 4 is an explanatory diagram illustrating a three-dimensional model having a longitudinal axis. For example, FIG. 4 (a) is a cylindrical shape, FIG. 4 (b) is a cone shape, FIG. 4 (c) is a shape combining cylinders with different diameters, FIG. 4 (d) is a rectangular parallelepiped shape, and FIG. 4 shows a shape of a slanted column, and in both cases, it is common to have a
データバッファ212は、SRAM、DRAM等で構成され、3次元形状測定装置110から受信した認識対象情報を一時的に保持する。
The
中央制御部214は、中央処理装置(CPU)や信号処理装置(DSP:Digital Signal Processor)、プログラム等が格納されたROMやメモリ、ワークエリアとしてのRAM等を含む半導体集積回路により、形状認識装置120全体を管理および制御する。また、本実施形態において、中央制御部214は、認識対象情報取得部230と、軸特定部232と、姿勢候補情報生成部234と、認識対象物特定部236としても機能する。
The
認識対象情報取得部230は、3次元形状測定装置110から任意の認識対象物112の3次元形状を示す認識対象情報を取得し、データバッファ212に保持させる。
The recognition target information acquisition unit 230 acquires recognition target information indicating the three-dimensional shape of an arbitrary
軸特定部232は、認識対象情報と3次元モデル情報とに基づいて、認識対象物112の1または複数の軸を特定する。かかる軸特定部232による軸の特定は、図2(c)を用いて説明した2段階のパターンマッチングの1段階目に当たる。したがって、軸特定部232は、認識対象物112と3次元モデル122との厳密なパターンマッチングを行わず、パターンマッチングが収束し得る軸のみを特定する。
The axis specifying unit 232 specifies one or more axes of the
ここで、軸特定部232は、認識対象物112と3次元モデル122とのパターンマッチング(軸特定)において、いずれか一方を基準とし、他方の位置や姿勢を変更することとなるが、いずれを基準とするかは限定されない。本実施形態では、3次元モデル122の方が認識対象物112より情報量が多いので、計算負荷を軽減すべく、3次元モデル122を基準として認識対象物112の位置や姿勢を変更することとする。
Here, in the pattern matching (axis specification) between the
尚、かかる軸特定には、ICP(Iterative Closest Points)やPCA(Principal Component Analysis)等、様々な手法を用いることができるが、ここでは、その一例としてICPを用いる。ICPは、6自由度ある3次元モデル122の位置や姿勢を、認識対象物112と3次元モデル122とを特定するためのそれぞれの対応点間の距離の合計(ノルム)が閾値以下になるまで共役勾配法等を利用して反復的に更新する手法である。PCAは、入力されたデータが空間内でどのように主軸を有しているかを調べる手法(主軸成分解析)である。ICPは、例えば、PCA等と異なり、認識対象物112と3次元モデル122との点群同士のマッチングを利用するので、認識対象物112が重なること等による認識対象物112の部分的な欠落に強いため、ロバスト性に優れ、比較的高精度に認識対象物112の位置や姿勢を特定することが可能となる。
For such axis identification, various methods such as ICP (Iterative Closest Points) and PCA (Principal Component Analysis) can be used. Here, ICP is used as an example. The ICP determines the position and orientation of the three-
軸特定部232は、図2(c)を用いて説明したように、厳密なパターンマッチングを行わず、姿勢候補を生成するための大凡の軸を抽出することを目的としている。したがって、パターンマッチング手法としてICPを用いる場合、軸特定部232は、パターンマッチング完了の判断材料であるノルムに対する閾値を緩め、ある程度の一致度を得ることができれば、それ以上の認識対象物112の位置や姿勢の変更を止め、そのときの認識対象物112の位置や姿勢によって軸(ここでは長手軸)を特定する。
As described with reference to FIG. 2C, the axis specifying unit 232 is intended to extract an approximate axis for generating a posture candidate without performing strict pattern matching. Therefore, when using ICP as the pattern matching method, the axis specifying unit 232 loosens the threshold for the norm that is a material for determining the completion of pattern matching, and if a certain degree of coincidence can be obtained, the position of the
図5は、中央制御部214の処理動作を説明するための説明図である。例えば、図5(a)に示すように、軸特定部232は、認識対象物112の位置や姿勢を変更して、3次元モデル122とある程度の一致度を得ると、その認識対象物112の位置や姿勢によって長手軸250を特定する。また、図5(b)のように、軸特定部232は、認識対象物112の位置や姿勢を変更し、収束した結果、認識対象物112の姿勢が誤った姿勢になったとしても、3次元モデル122とある程度の一致度を得ると、図5(a)同様、その認識対象物112の位置や姿勢によって長手軸250を特定する。軸特定部232は、正誤の姿勢に共通する長手軸250を特定することを目的としており、1段階目における、図5(a)と図5(b)のような姿勢の正誤の影響は受けない。
FIG. 5 is an explanatory diagram for explaining the processing operation of the
また、軸特定部232では、パターンマッチングの閾値が緩く設定されているので、形状の厳密な一致は問われず、仮に他の認識対象物112によって覆われ、認識対象物112の一部が認識されていない場合であっても容易に軸を特定することができる。
Further, in the axis specifying unit 232, since the pattern matching threshold is set to be loose, the exact matching of the shapes is not questioned, and it is temporarily covered by another
姿勢候補情報生成部234は、認識対象情報と3次元モデル情報とに基づいて、認識対象物112または3次元モデル122の、特定された1または複数の軸毎に、軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成する。ここでは、1の長手軸250に対して、極値が2つ存在することと、その2つの極値は、認識対象物112を対称的に配置した2つの姿勢で生じることが予め把握されている。したがって、姿勢候補情報生成部234は、特定された軸を用いて、極値に近い2つの姿勢候補を生成することができる。例えば、上述した図5(a)のように、認識対象物112の長手軸250を特定した場合、図5(c)に示すように、その長手軸250に沿って、対称的な2つの認識対象物112a、112bを生成する。かかる2つの認識対象物112a、112bが姿勢候補となる。
The posture candidate information generation unit 234 symmetrically along the axis for each of one or more specified axes of the
認識対象物特定部236は、姿勢候補情報生成部234が生成した、認識対象物112の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデル122の姿勢候補情報とに基づいて認識対象物112の厳密な位置および姿勢を特定する。このとき、姿勢候補を基準として3次元モデル122の姿勢候補を変位させた場合、3次元モデル122の移動量および回転量が認識対象物112の位置および姿勢となり、3次元モデル122を基準として認識対象物112の姿勢候補を変位させた場合、認識対象物112の移動量および回転量の符号を反転した量が認識対象物112の位置および姿勢となる。認識対象物特定部236で用いられるパターンマッチング手法も、様々なパターンマッチング手法を用いることが可能であるが、その一例としてICPを用いる。
The recognition target object specifying unit 236 is based on the posture candidate information and the three-dimensional model information of the
認識対象物特定部236は、例えば、認識対象物112の2つの姿勢候補それぞれと3次元モデルとを並行してパターンマッチングするため、少なくとも一方の姿勢候補に関しては長手方向の姿勢がほぼ一致した状態でパターンマッチングを開始でき、追加処理は短手軸方向の姿勢を収束させる処理のみとなる。したがって、図5(d)に示したように、認識対象物112に重なりや計測の欠損が無い場合、少なくとも一方の姿勢候補(認識対象物112a)に関し、その極値が収束点と判定されるので、他方の姿勢候補(認識対象物112b)の極値を判定するまでもなく、パターンマッチングが完了する。このとき他方の姿勢候補に関しては、一致度が所定の閾値以上にならないので、自動的に破棄される。したがって、認識対象物112の位置と姿勢とが的確に特定される。また、重なりや計測点の欠損がある場合は、より一致度の高いものを選び出す。
For example, the recognition target specifying unit 236 performs pattern matching on each of the two posture candidates of the
以上、説明した形状認識装置120では、対称的な2つの姿勢について並行してパターンマッチングを行うことにより、いずれか一方で正しい結果を得ることが可能となり、誤った姿勢にのみ収束することなく、的確に認識対象物112の位置や姿勢を特定することが可能となる。また、軸を特定するまでのパターンマッチングを2つの極値それぞれで行わず、いずれか一方でのみ行うので、処理負荷の軽減を図ることができる。
As described above, in the
さらに、本実施形態では、パターンマッチング手法として、ICPを用いているので、直線や円形部がない様々な形状を有する認識対象物112に対しても位置や姿勢を特定できる。ICPでは、認識対象物112の一部が隠されていた場合においてもロバスト性が高いので有効な結果を得ることが可能となる。
Furthermore, in this embodiment, since ICP is used as the pattern matching method, the position and orientation can be specified even for the
また、コンピュータによって形状認識装置120として機能するプログラムや、当該プログラムを記憶した記憶媒体も提供される。さらに、当該プログラムは、記憶媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。
In addition, a program that functions as the
(形状認識方法)
また、形状認識装置120を用いた形状認識方法も提供される。以下、このような形状認識方法を詳細に説明する。図6は、形状認識方法の処理の流れを示したフローチャートである。特に、図6(a)は形状認識方法の全体的な処理の流れを、図6(b)はICPに関するサブルーチンを示している。ここで、モデル保持部210は3次元モデル情報を予め保持している。
(Shape recognition method)
A shape recognition method using the
認識対象情報取得部230は、3次元形状測定装置110から、任意の認識対象物112の3次元形状を示す認識対象情報を取得する(S300)。そして、軸特定部232は、認識対象情報と3次元モデル情報とに基づいて、ICPによるパターンマッチングを行い、緩い閾値によって認識対象物112の1または複数の軸(長手軸)を特定する(S302)。
The recognition target information acquisition unit 230 acquires recognition target information indicating the three-dimensional shape of an arbitrary
図6(b)を用いて軸特定部232によるICPの処理の流れを簡単に説明する。3次元形状測定装置110から取得された認識対象情報には、認識対象物112の測定面における配列された複数の検出点に関する3次元座標(3次元点群データ)が示されている。3次元点群データの点の数は、認識対象物112の大きさと、パターンマッチングの要求精度に応じて決定される。軸特定部232が参照するICPエンジンは、ICPの繰り返し処理を行う前に、このような認識対象情報中の3次元点群データに対し、床や支柱、コンテナ等の明らかな背景計測点があれば、それを除外する(S350)。
The flow of ICP processing by the axis specifying unit 232 will be briefly described with reference to FIG. In the recognition target information acquired from the three-dimensional
ICPエンジンは、初期姿勢を用意し、それに回転や並行移動変換などの姿勢変更処理を施す(S352)。姿勢変更処理は認識対象物112に対して施すことも可能であるし、3次元モデル122側に対して施すことも可能である。例えば、点数の少ないほうを動かして、計算処理を少なくしてもよい。続いて、姿勢変更処理後の認識対象物112と3次元モデル122との間でそれぞれ対応する点を求め(S354:ペアリング)、対応点間の距離合計(ノルム)を計算する(S356)。このノルムが小さいほうが形状の一致度合いが高いといえる。一致度合いが高かった姿勢を取り出し(S358)、一致度が閾値以下(ノルムが閾値以上)の間(S360におけるNO)、それを初期姿勢に置き換えて、上記処理を繰り返す。このように、一致度が閾値を超える(ノルムが閾値以下になる)まで(S360におけるYES)共役勾配法等を利用して反復的に更新し、パターンマッチングを遂行する。ノルムの取り方(メトリック)としては、例えば、L1ノルムやL2ノルム等があり、用途に応じて適した取り方を採用する。こうして導出された位置および姿勢は、最終的に、形状認識装置120の座標系からロボット140の座標系に変換される。
The ICP engine prepares an initial posture and performs posture change processing such as rotation and parallel movement conversion on the initial posture (S352). The posture changing process can be performed on the
このような軸特定部232によるICPを用いた、パターンマッチング(軸特定)では、おおよその軸方向さえ特定すればよいので、パターンマッチングを終了する閾値を緩く設定することができる。例えば、軸を30度ずらした時に得られる一致度を閾値として設定しても、正しい動作を望む事ができる。また、軸特定部232では、認識対象物112が他の認識対象物112によって覆われ、認識対象物112の一部が認識されていない場合であっても軸を特定することができる。
In pattern matching (axis specification) using such an ICP by the axis specifying unit 232, it is only necessary to specify an approximate axial direction, so that a threshold value for ending pattern matching can be set loosely. For example, even if the degree of coincidence obtained when the axis is shifted by 30 degrees is set as a threshold value, a correct operation can be desired. Further, the axis specifying unit 232 can specify the axis even when the
図7は、認識対象物112の特定処理を説明するための説明図である。IPCでは、3次元モデル122の長手軸が短手軸の2倍以上の長さであれば、長手軸の50%以下が隠れていても短手軸と誤認されることはない。したがって、図7のように認識対象物112cが他の認識対象物112d、112eに覆われていても、長手軸を有する2つの領域(図中、領域1と領域2)を認識することができる。ここでは、2つの領域が一時的に独立して把握されるが、その2つの領域にパターンマッチングする3次元モデル122が同一となるので、結果的に1つの3次元モデル122を通じて2つの領域が同一の認識対象物112cの部位であると判定される。このように、ICPを用いることで、認識対象物112が傾いている場合、重なり合っている場合、異物が混入した場合であっても安定して認識対象物112を抽出することが可能となる。
FIG. 7 is an explanatory diagram for explaining the identification process of the
姿勢候補情報生成部234は、認識対象情報と3次元モデル情報とに基づいて、認識対象物112または3次元モデル122の、軸特定部232で導出された軸毎に、軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成する(S304)。
The posture candidate information generation unit 234 is symmetrical along the axis for each axis derived by the axis specifying unit 232 of the
認識対象物特定部236は、認識対象物112の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデル122の姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定する(S306)。認識対象物特定部236においても、パターンマッチングとしてICPを用いることができる。ICPに関しては図6(b)を用いて既に説明したので、ここでは、その詳細な説明を省略する。ただし、認識対象物特定部236では、厳密なパターンマッチングを目的としているので、ノルムの閾値も厳しく、一致度が最大値に収束したところ(極値)でパターンマッチングの成否を判断する。かかる極値から、2つの姿勢候補のうちいずれの一致度が高いか、または、一致度が所定の閾値に至らず、認識対象物112と3次元モデル122とは異なると判断される。
The recognition target specifying unit 236 determines the position of the recognition target based on the posture candidate information and the three-dimensional model information of the
このような形状認識方法においても、対称的な2つの姿勢に対して並行してパターンマッチングを行うことにより、いずれか一方で正しい結果を得ることが可能となり、誤った姿勢にのみ収束することなく、的確に認識対象物112の位置や姿勢を特定することが可能となる。また、軸を特定するまでのパターンマッチングを2つの極値それぞれで行わず、いずれか一方でのみ行うので、処理負荷の軽減を図ることができる。
Even in such a shape recognition method, by performing pattern matching in parallel on two symmetric postures, it becomes possible to obtain a correct result on either side, without converging only on a wrong posture. It becomes possible to accurately identify the position and orientation of the
(第2の実施形態:形状認識装置420)
第1の実施形態では、軸特定部232が認識対象物112の1または複数の軸を特定し、その軸に沿って対称的に配置された2つの姿勢候補に基づいて、認識対象物特定部236が認識対象物112の位置と姿勢とを特定していた。しかし、認識対象物112における複数の軸が、軸同士が成す角を等しくしている場合、1つの軸に対して2つの姿勢を生成しても、長手軸のように2つの姿勢のいずれも一致度が高くなることはなく、2つの姿勢の生成の必要性に乏しい。その代わり、軸を合わせるように認識対象物112を適宜回転すると、やはり一致度が高くなる。したがって、第2の実施形態では、2つの姿勢を生成する代わりに、複数の軸を合わせるように回転した姿勢を生成する例を述べる。
(Second Embodiment: Shape Recognition Device 420)
In the first embodiment, the axis specifying unit 232 specifies one or more axes of the
図8は、第2の実施形態における形状認識装置420の概略的な構成を示した機能ブロック図である。形状認識装置420は、モデル保持部210と、データバッファ212と、中央制御部414とを含んで構成され、中央制御部414は、認識対象情報取得部230と、軸特定部232と、姿勢候補情報生成部434と、認識対象物特定部436としても機能する。第1の実施形態における構成要素として既に述べたモデル保持部210と、データバッファ212と、認識対象情報取得部230、軸特定部232とは、実質的に機能が同一なので重複説明を省略し、ここでは、構成が相違する、中央制御部414の姿勢候補情報生成部434および認識対象物特定部436を主に説明する。
FIG. 8 is a functional block diagram illustrating a schematic configuration of the
姿勢候補情報生成部434は、認識対象情報と3次元モデル情報とに基づいて、認識対象物112または3次元モデル122の、軸特定部232で導出された1または複数の軸に沿って、軸同士が成す角の角度分回転した際、一致度が高くなった数と同数の姿勢候補を示す姿勢候補情報を生成する。
The posture candidate information generation unit 434 generates an axis along one or more axes derived by the axis specifying unit 232 of the
図9は、回転を施す事で一致度が高くなる認識対象物112を説明するための説明図である。例えば、図9(a)の認識対象物112は、3つの軸450がそれぞれ成す角を120°として形成されている。かかる認識対象物112は、その回転によって極値を3つ有すこととなる。したがって、姿勢候補情報生成部434は、例えば、軸特定部232で導出された3つの軸に沿って120°分回転した、3つの姿勢候補を示す姿勢候補情報を生成する。同様に、図9(b)の認識対象物112は成す角が等しい放射状の4つの軸を有し、図9(c)の認識対象物112は成す角が等しい放射状の6つの軸を有し、それぞれ4つおよび6つの姿勢候補を示す姿勢候補情報を生成する。認識対象物112の対称性が高い場合は、幾つかの回転角度において、回転前と回転後の形状が完全に一致する事もある。この場合はどちらの回転角度に収束しても正しい答えであるので、候補姿勢のどちらかを省略してもいい。
FIG. 9 is an explanatory diagram for explaining the
認識対象物特定部436は、認識対象物112の姿勢候補情報と3次元モデル情報とに基づいて、または、認識対象情報と3次元モデル122の姿勢候補情報とに基づいて認識対象物の位置および姿勢を特定する。
The recognition target object specifying unit 436 determines the position of the recognition target object based on the posture candidate information and the three-dimensional model information of the
当該形状認識装置420においても、第1の実施形態の形状認識装置120同様、極値が高くなることが想定される複数の姿勢に対して並行してパターンマッチングを行うことにより、いずれか1つで正しい結果を得ることが可能となり、誤った姿勢に収束することなく、的確に認識対象物112の位置や姿勢を特定することが可能となる。
In the
また、形状認識装置420を用いて、図6同様、形状認識を行う形状認識方法や、コンピュータによって形状認識装置420として機能するプログラム、当該プログラムを記憶した記憶媒体も提供される。さらに、当該プログラムは、記憶媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。
Further, similarly to FIG. 6, using the
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.
なお、本明細書の形状認識方法における各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 Note that each step in the shape recognition method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.
本発明は、任意の認識対象物の位置および姿勢を認識可能な形状認識装置、形状認識方法、および、そのプログラムに利用することができる。 The present invention can be used for a shape recognition device, a shape recognition method, and a program for recognizing the position and posture of an arbitrary recognition target.
100 …ピッキングシステム
112 …認識対象物
120、420 …形状認識装置
122 …3次元モデル
210 …モデル保持部
230 …認識対象情報取得部
232 …軸特定部
234、434 …姿勢候補情報生成部
236、436 …認識対象物特定部
DESCRIPTION OF SYMBOLS 100 ... Picking
Claims (9)
認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、
前記認識対象情報と前記3次元モデル情報とに基づいて、前記認識対象物または前記3次元モデルを前記長手軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、
前記認識対象物の姿勢候補情報と前記3次元モデル情報とに基づいて、または、前記認識対象情報と前記3次元モデルの姿勢候補情報とに基づいて前記認識対象物の位置および姿勢を特定する認識対象物特定部と、
を備えることを特徴とする形状認識装置。 A model holding unit for holding 3D model information indicating a 3D model having a longitudinal axis;
A recognition target information acquisition unit for acquiring recognition target information indicating a three-dimensional shape of the recognition target;
Based on the recognition target information and the three-dimensional model information, a posture candidate that generates posture candidate information indicating two posture candidates in which the recognition target or the three-dimensional model is arranged symmetrically along the longitudinal axis An information generator,
Recognition that identifies the position and orientation of the recognition object based on the recognition object posture candidate information and the 3D model information, or based on the recognition object information and the 3D model posture candidate information The object identification part;
A shape recognition device comprising:
前記姿勢候補情報生成部は、前記軸特定部で特定された前記1または複数の軸毎に2つの姿勢候補を示す姿勢候補情報を生成することを特徴とする請求項1に記載の形状認識装置。 An axis specifying unit that specifies one or more axes of the recognition object based on the recognition object information and the three-dimensional model information;
The shape recognition apparatus according to claim 1, wherein the posture candidate information generation unit generates posture candidate information indicating two posture candidates for each of the one or a plurality of axes specified by the axis specifying unit. .
認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、
前記認識対象情報と前記3次元モデル情報とに基づいて、前記認識対象物または前記3次元モデルの前記軸同士が成す角の角度分回転した該軸と同数の姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、
前記認識対象物の姿勢候補情報と前記3次元モデル情報とに基づいて、または、前記認識対象情報と前記3次元モデルの姿勢候補情報とに基づいて前記認識対象物の位置および姿勢を特定する認識対象物特定部と、
を備えることを特徴とする形状認識装置。 A model holding unit for holding three-dimensional model information indicating a three-dimensional model having a plurality of axes that obtain a high degree of coincidence between shapes before and after rotation at one or a plurality of rotation angles;
A recognition target information acquisition unit for acquiring recognition target information indicating a three-dimensional shape of the recognition target;
Based on the recognition target information and the three-dimensional model information, generate posture candidate information indicating the same number of posture candidates as the number of rotations of the recognition target object or the angle formed by the axes of the three-dimensional model. A posture candidate information generation unit to perform,
Recognition that identifies the position and orientation of the recognition object based on the recognition object posture candidate information and the 3D model information, or based on the recognition object information and the 3D model posture candidate information The object identification part;
A shape recognition device comprising:
前記姿勢候補情報生成部は、前記軸特定部で特定された前記1または複数の軸に沿って該軸と同数の姿勢候補を示す姿勢候補情報を生成することを特徴とする請求項3に記載の形状認識装置。 An axis specifying unit that specifies one or more axes of the recognition object based on the recognition object information and the three-dimensional model information;
The posture candidate information generation unit generates posture candidate information indicating the same number of posture candidates as the axis along the one or a plurality of axes specified by the axis specifying unit. Shape recognition device.
認識対象物の3次元形状を示す認識対象情報を取得し、
前記認識対象情報と前記3次元モデル情報とに基づいて、前記認識対象物または前記3次元モデルを前記長手軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成し、
前記認識対象物の姿勢候補情報と前記3次元モデル情報とに基づいて、または、前記認識対象情報と前記3次元モデルの姿勢候補情報とに基づいて前記認識対象物の位置および姿勢を特定することを特徴とする形状認識方法。 3D model information indicating a 3D model having a longitudinal axis is stored in advance,
Obtaining recognition object information indicating the three-dimensional shape of the recognition object;
Based on the recognition target information and the three-dimensional model information, generate posture candidate information indicating two posture candidates in which the recognition target or the three-dimensional model is symmetrically arranged along the longitudinal axis ,
Identifying the position and orientation of the recognition object based on the posture candidate information of the recognition object and the 3D model information or based on the recognition object information and the posture candidate information of the 3D model. A shape recognition method characterized by the above.
認識対象物の3次元形状を示す認識対象情報を取得し、
前記認識対象情報と前記3次元モデル情報とに基づいて、前記認識対象物または前記3次元モデルの前記軸同士が成す角の角度分回転した該軸と同数の姿勢候補を示す姿勢候補情報を生成し、
前記認識対象物の姿勢候補情報と前記3次元モデル情報とに基づいて、または、前記認識対象情報と前記3次元モデルの姿勢候補情報とに基づいて前記認識対象物の位置および姿勢を特定することを特徴とする形状認識方法。 At one or a plurality of rotation angles, three-dimensional model information indicating a three-dimensional model having a plurality of axes that obtain a high degree of coincidence between the shapes before and after the rotation is previously held,
Obtaining recognition object information indicating the three-dimensional shape of the recognition object;
Based on the recognition target information and the three-dimensional model information, generate posture candidate information indicating the same number of posture candidates as the number of rotations of the recognition target object or the angle formed by the axes of the three-dimensional model. And
Identifying the position and orientation of the recognition object based on the posture candidate information of the recognition object and the 3D model information or based on the recognition object information and the posture candidate information of the 3D model. A shape recognition method characterized by the above.
認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、
前記認識対象情報と、長手軸を有する3次元モデルを示す3次元モデル情報とに基づいて、前記認識対象物または前記3次元モデルを前記長手軸に沿って対称的に配置した2つの姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、
前記認識対象物の姿勢候補情報と前記3次元モデル情報とに基づいて、または、前記認識対象情報と前記3次元モデルの姿勢候補情報とに基づいて前記認識対象物の位置および姿勢を特定する認識対象物特定部と、
して機能させるためのプログラム。 Computer
A recognition target information acquisition unit for acquiring recognition target information indicating a three-dimensional shape of the recognition target;
Based on the recognition target information and three-dimensional model information indicating a three-dimensional model having a longitudinal axis, two posture candidates in which the recognition target object or the three-dimensional model is arranged symmetrically along the longitudinal axis A posture candidate information generating unit that generates posture candidate information to be shown;
Recognition that identifies the position and orientation of the recognition object based on the recognition object posture candidate information and the 3D model information, or based on the recognition object information and the 3D model posture candidate information The object identification part;
Program to make it function.
認識対象物の3次元形状を示す認識対象情報を取得する認識対象情報取得部と、
前記認識対象情報と、1または複数の回転角度において、回転前と回転後の形状が高い一致度を得る複数の軸を有する3次元モデルを示す3次元モデル情報とに基づいて、前記認識対象物または前記3次元モデルの前記軸同士が成す角の角度分回転した該軸と同数の姿勢候補を示す姿勢候補情報を生成する姿勢候補情報生成部と、
前記認識対象物の姿勢候補情報と前記3次元モデル情報とに基づいて、または、前記認識対象情報と前記3次元モデルの姿勢候補情報とに基づいて前記認識対象物の位置および姿勢を特定する認識対象物特定部と、
して機能させるためのプログラム。 Computer
A recognition target information acquisition unit for acquiring recognition target information indicating a three-dimensional shape of the recognition target;
The recognition target object based on the recognition target information and three-dimensional model information indicating a three-dimensional model having a plurality of axes that obtain a high degree of coincidence between shapes before and after rotation at one or a plurality of rotation angles. Alternatively, a posture candidate information generation unit that generates posture candidate information indicating posture candidates equal to the number of the axes rotated by an angle formed by the axes of the three-dimensional model;
Recognition that identifies the position and orientation of the recognition object based on the recognition object posture candidate information and the 3D model information, or based on the recognition object information and the 3D model posture candidate information The object identification part;
Program to make it function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024352A JP5716433B2 (en) | 2011-02-07 | 2011-02-07 | Shape recognition device, shape recognition method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024352A JP5716433B2 (en) | 2011-02-07 | 2011-02-07 | Shape recognition device, shape recognition method, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012163450A JP2012163450A (en) | 2012-08-30 |
JP5716433B2 true JP5716433B2 (en) | 2015-05-13 |
Family
ID=46842974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011024352A Active JP5716433B2 (en) | 2011-02-07 | 2011-02-07 | Shape recognition device, shape recognition method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5716433B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6548789B2 (en) * | 2013-02-07 | 2019-07-24 | キヤノン株式会社 | Position and orientation measurement apparatus and method |
JP6370038B2 (en) * | 2013-02-07 | 2018-08-08 | キヤノン株式会社 | Position and orientation measurement apparatus and method |
JP6042289B2 (en) * | 2013-08-23 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | Posture estimation apparatus, posture estimation method and program |
JP6642968B2 (en) | 2014-03-20 | 2020-02-12 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP6703812B2 (en) * | 2015-08-05 | 2020-06-03 | Kyoto Robotics株式会社 | 3D object inspection device |
JP6117901B1 (en) | 2015-11-30 | 2017-04-19 | ファナック株式会社 | Position / orientation measuring apparatus for a plurality of articles and a robot system including the position / orientation measuring apparatus |
JP6528723B2 (en) | 2016-05-25 | 2019-06-12 | トヨタ自動車株式会社 | Object recognition apparatus, object recognition method and program |
JP7091673B2 (en) | 2018-01-25 | 2022-06-28 | 富士通株式会社 | Movable degree of freedom estimation device and movable degree of freedom estimation program |
JP6644846B1 (en) * | 2018-08-31 | 2020-02-12 | 株式会社トキワシステムテクノロジーズ | Work position and orientation recognition device and picking system |
CN113034490B (en) * | 2021-04-16 | 2023-10-10 | 北京石油化工学院 | Stacking safety distance monitoring method for chemical warehouse |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04279811A (en) * | 1991-03-08 | 1992-10-05 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional object discrimination method and posture decision method |
JP3385056B2 (en) * | 1993-03-18 | 2003-03-10 | 株式会社キーエンス | Inertial principal axis calculation device, image pattern inclination correction device, and image processing device |
JP3453861B2 (en) * | 1994-08-12 | 2003-10-06 | 松下電工株式会社 | Displacement detection method by image processing |
JPH09141594A (en) * | 1995-11-17 | 1997-06-03 | Ishikawajima Harima Heavy Ind Co Ltd | Posture detecting method for three-dimensional shapes structure |
-
2011
- 2011-02-07 JP JP2011024352A patent/JP5716433B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012163450A (en) | 2012-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5716433B2 (en) | Shape recognition device, shape recognition method, and program thereof | |
WO2021212844A1 (en) | Point cloud stitching method and apparatus, and device and storage device | |
US10562182B2 (en) | Robot, robot system, control device, and control method | |
US9044858B2 (en) | Target object gripping apparatus, method for controlling the same and storage medium | |
CN108537841B (en) | Robot picking method and device and electronic equipment | |
US9118823B2 (en) | Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image | |
CN107452062B (en) | Three-dimensional model construction method and device, mobile terminal, storage medium and equipment | |
WO2022078467A1 (en) | Automatic robot recharging method and apparatus, and robot and storage medium | |
WO2014077272A1 (en) | Three-dimensional object recognition device and three-dimensional object recognition method | |
CN112836558B (en) | Mechanical arm tail end adjusting method, device, system, equipment and medium | |
CN109129445A (en) | Hand and eye calibrating method, scaling board, device, equipment and the storage medium of mechanical arm | |
US20130058526A1 (en) | Device for automated detection of feature for calibration and method thereof | |
JP2004333422A (en) | Image processing device | |
JPH0788791A (en) | Robot device and its peripheral device | |
JP2016181183A (en) | Information processing apparatus, information processing method, and program | |
US11813754B2 (en) | Grabbing method and device for industrial robot, computer storage medium, and industrial robot | |
US9934563B2 (en) | 3D object rotation-based mechanical parts selection through 2D image processing | |
JP4327289B2 (en) | Component recognition method and apparatus | |
JP5093591B2 (en) | 3D position and orientation measurement method and apparatus | |
CN115409808A (en) | Weld joint recognition method and device, welding robot and storage medium | |
CN115855082A (en) | Dual-mode quick repositioning method based on point cloud prior map | |
KR20230128862A (en) | Method and system for auto calibration of robot workcells | |
JP2009128192A (en) | Object recognition device and robot device | |
CN114719844B (en) | Space projection-based all-celestial sphere star map identification method, device and medium | |
JP4793109B2 (en) | Object detection method and robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140722 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150302 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5716433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |