JP2013069100A - Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium - Google Patents
Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium Download PDFInfo
- Publication number
- JP2013069100A JP2013069100A JP2011206964A JP2011206964A JP2013069100A JP 2013069100 A JP2013069100 A JP 2013069100A JP 2011206964 A JP2011206964 A JP 2011206964A JP 2011206964 A JP2011206964 A JP 2011206964A JP 2013069100 A JP2013069100 A JP 2013069100A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- target
- captured images
- captured
- target region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
この発明は、物体を異なる視点から撮像した複数の撮像画像に対してステレオマッチング処理を行って、三次元における物体の位置および姿勢を求める技術に関する。 The present invention relates to a technique for obtaining the position and orientation of an object in three dimensions by performing stereo matching processing on a plurality of captured images obtained by imaging the object from different viewpoints.
特許文献1では、三次元における物体の位置および姿勢を認識する三次元認識技術が記載されている。この三次元認識技術では、異なる視点から物体を撮像して得られる複数の撮像画像に対してステレオマッチング処理が実行されて、三次元における物体の位置および姿勢が認識される。詳しくは、このステレオマッチング処理では、複数の撮像画像の中から類似する特徴を有する部分どうしが対応付けられて、これらの部分の間の視差から三次元における物体の位置および姿勢が求められる。
ところで、機械部品や電子部品等の部品を組み立てる産業用ロボットに、上述のような技術を応用することが考えられる。具体例を挙げると、このような産業用ロボットとしては、部品を取り上げて移動させるアームを用いて部品を組み立てるものがある。この際、部品を確実に取り上げるには、三次元における部品の位置および姿勢を正確に把握する必要がある。そこで、上述のように、異なる視点から部品を撮像して得られる複数の撮像画像にステレオマッチング処理を施して、三次元における部品の位置・姿勢を認識し、この認識結果に基づいて産業用ロボットのアームを制御することが考えられる。 By the way, it is conceivable to apply the above-described technology to an industrial robot for assembling parts such as mechanical parts and electronic parts. As a specific example, there is an industrial robot that assembles parts using an arm that picks up and moves the parts. At this time, in order to reliably pick up the part, it is necessary to accurately grasp the position and orientation of the part in three dimensions. Therefore, as described above, a stereo matching process is performed on a plurality of captured images obtained by imaging components from different viewpoints to recognize the position and orientation of the components in three dimensions, and the industrial robot is based on the recognition result. It is conceivable to control the arm.
ただし、このような産業用ロボットは、複数の部品の中から認識対象部品を選び出して取り上げるといった動作を行うことが求められる。このような場合、ステレオマッチング処理のために撮像される各撮像画像には、認識対象部品と他の部品とが混在することになる。そのため、一の撮像画像中の認識対象部品と他の撮像画像中の他の部品とが互いに類似した特徴(例えば、エッジ形状)を有していること等に起因して、ステレオマッチング処理において互いに異なるこれらの部品間で誤って対応付けが行われるといった誤対応が発生するおそれがあった。そして、このような誤対応が発生すると、当然の事ながら、認識対象部品の三次元における位置および姿勢を正しく認識することはできない。 However, such an industrial robot is required to perform an operation of selecting and picking up a recognition target part from a plurality of parts. In such a case, the recognition target component and other components are mixed in each captured image captured for the stereo matching process. For this reason, the recognition target component in one captured image and the other components in another captured image have similar features (for example, edge shapes). There is a possibility that an erroneous correspondence such that these different parts are erroneously associated with each other may occur. If such an erroneous response occurs, naturally, the position and orientation of the recognition target component in three dimensions cannot be correctly recognized.
この発明は上記課題に鑑みなされたものであり、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能とする技術の提供を目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of suppressing the occurrence of erroneous correspondence such that association is performed between different objects in stereo matching processing.
この発明にかかる三次元位置・姿勢認識装置は、上記目的を達成するために、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得部と、画像取得部が取得した複数の撮像画像それぞれから、認識対象物が写る対象領域を抽出する対象領域抽出部と、対象領域抽出部が抽出した各撮像画像の対象領域に対してステレオマッチング処理を行って、三次元における認識対象物の位置および姿勢を認識する認識部とを備えることを特徴としている。 In order to achieve the above object, a three-dimensional position / posture recognition apparatus according to the present invention acquires an image acquisition unit that acquires a plurality of captured images obtained by imaging a plurality of objects including a recognition target object from different viewpoints, and an image acquisition unit A target region extraction unit that extracts a target region in which a recognition target object is captured from each of a plurality of captured images acquired by the camera, and a stereo matching process on the target region of each captured image extracted by the target region extraction unit, And a recognition unit for recognizing the position and orientation of the original recognition object.
この発明にかかる産業用ロボットは、上記目的を達成するために、部品を取って移動させる部品移動手段と、上記の三次元位置・姿勢認識装置と、三次元位置・姿勢認識装置により認識対象物としての部品の三次元での位置および姿勢を認識した結果に基づいて、部品移動手段を制御する制御手段とを備えることを特徴としている。 In order to achieve the above object, the industrial robot according to the present invention includes a component moving means for picking up and moving a component, the three-dimensional position / posture recognition device, and a recognition object by the three-dimensional position / posture recognition device. And a control unit that controls the component moving unit based on the result of recognizing the three-dimensional position and orientation of the component.
また、この発明にかかる三次元位置・姿勢認識方法は、上記目的を達成するために、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得工程と、画像取得工程で取得した複数の撮像画像それぞれから、認識対象物が写る対象領域を抽出する対象領域抽出工程と、対象領域抽出工程で抽出した各撮像画像の対象領域に対してステレオマッチング処理を行って、三次元における認識対象物の位置および姿勢を認識する認識工程とを備えることを特徴としている。 The three-dimensional position / posture recognition method according to the present invention includes an image acquisition step of acquiring a plurality of captured images obtained by capturing a plurality of objects including a recognition target object from different viewpoints, From each of the plurality of captured images acquired in the acquisition step, a target region extraction step for extracting a target region in which the recognition target object is captured, and a stereo matching process on the target region of each captured image extracted in the target region extraction step And a recognition step of recognizing the position and orientation of the recognition object in three dimensions.
また、この発明にかかるプログラムは、上記目的を達成するために、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得機能と、画像取得工程で取得した複数の撮像画像それぞれから、認識対象物が写る対象領域を抽出する対象領域抽出機能と、対象領域抽出工程で抽出した各撮像画像の対象領域に対してステレオマッチング処理を行って、三次元における認識対象物の位置および姿勢を認識する認識機能とを、コンピューターに実現させることを特徴としている。 In order to achieve the above object, the program according to the present invention includes an image acquisition function for acquiring a plurality of captured images obtained by capturing a plurality of objects including a recognition target object from different viewpoints, and a plurality of images acquired in an image acquisition step. The target area extraction function that extracts the target area in which the recognition target object is captured from each of the captured images, and the stereo matching processing is performed on the target area of each captured image extracted in the target area extraction step, and the recognition target in three dimensions It is characterized by having a computer realize a recognition function for recognizing the position and posture of an object.
また、この発明にかかる記録媒体は、上記目的を達成するために、上記のプログラムが記録されており、コンピューターにより読み取りが可能であることを特徴としている。 In order to achieve the above object, a recording medium according to the present invention records the above program and is readable by a computer.
このように構成された発明(三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体)では、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像それぞれから、認識対象物が写る対象領域が抽出される。そして、複数の撮像画像それぞれの対象領域に対して、ステレオマッチング処理が実行される。つまり、この発明は、ステレオマッチング処理を行う領域を、撮像画像のうちの認識対象物を含む対象領域に限定している。そのため、対象領域から認識対象物以外の物体を外してステレオマッチング処理を実行することができ、その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能となる。 In the invention configured in this way (three-dimensional position / posture recognition device, industrial robot, three-dimensional position / posture recognition method, program, recording medium), a plurality of images obtained by imaging a plurality of objects including recognition objects from different viewpoints A target region in which the recognition target object is captured is extracted from each of the captured images. Then, a stereo matching process is executed for each target region of the plurality of captured images. That is, according to the present invention, the region where the stereo matching process is performed is limited to the target region including the recognition target object in the captured image. For this reason, it is possible to execute the stereo matching process by removing objects other than the recognition target object from the target region, and as a result, it is possible to suppress the occurrence of miscorrespondence such that associations are performed between different objects in the stereo matching process. Is possible.
なお、上述のような三次元位置・姿勢認識装置では、互いのエピポーラ線が平行な状態で複数の撮像画像を取得するように画像取得部を構成することができる。そして、このような構成では、エピポーラ線に直交する直交方向における位置は、複数の撮像画像の間で揃うこととなる。換言すれば、直交方向においては、認識対象物が存在する区間が複数の撮像画像間で揃う。したがって、直交方向において認識対象物が存在する区間については、複数の撮像画像のうちの一の撮像画像について特定すれば、すなわち複数の撮像画像のそれぞれについて特定したこととなる。そこで、認識対象物が存在する領域の抽出を簡便化するために、次のように構成しても良い。 In the three-dimensional position / posture recognition apparatus as described above, the image acquisition unit can be configured to acquire a plurality of captured images in a state where the epipolar lines are parallel to each other. In such a configuration, the positions in the orthogonal direction orthogonal to the epipolar line are aligned among the plurality of captured images. In other words, in the orthogonal direction, the section where the recognition target object exists is aligned between the plurality of captured images. Therefore, the section where the recognition target object exists in the orthogonal direction is identified for one of the plurality of captured images, that is, for each of the plurality of captured images. Therefore, in order to simplify the extraction of the region where the recognition target object exists, the following configuration may be used.
つまり、画像取得部は、互いのエピポーラ線が平行な状態で複数の撮像画像を取得し、対象領域抽出部は、複数の撮像画像のうちの一の撮像画像から、エピポーラ線に直交する直交方向における認識対象物の写る区間を特定し、複数の撮像画像それぞれにおいて区間と直交方向に一致する領域を対象領域として抽出するように、三次元位置・姿勢認識装置を構成しても良い。このように、一の撮像画像から直交方向における認識対象物の写る区間を特定し、複数の撮像画像それぞれにおいて当該区間と直交方向に一致する領域を対象領域として抽出することで、認識対象物が存在する対象領域の抽出を簡便に実行することができる。 That is, the image acquisition unit acquires a plurality of captured images in a state in which the epipolar lines are parallel to each other, and the target region extraction unit is orthogonal to the epipolar line from one of the plurality of captured images. The three-dimensional position / posture recognition apparatus may be configured such that a section where the recognition target object is captured is identified, and a region that coincides with the section in the orthogonal direction is extracted as a target region in each of the plurality of captured images. In this way, by identifying a section in which the recognition target object in the orthogonal direction is captured from one captured image, and extracting a region matching the section and the orthogonal direction as a target area in each of the plurality of captured images, the recognition target object is Extraction of existing target areas can be easily performed.
なお、このような構成では、エピポーラ線に平行な平行方向においては対象領域が限定されない。そのため、稀なケースではあるが、この平行方向に認識対象物と他の物体が並んだような場合には、これらの間で上述の誤対応が発生するおそれがある。 In such a configuration, the target region is not limited in the parallel direction parallel to the epipolar line. Therefore, although it is a rare case, when the recognition target object and another object are arranged in the parallel direction, there is a possibility that the above-described erroneous correspondence occurs between them.
そこで、対象領域抽出部は、撮像画像に写る各物体の複数の撮像画像間における対応関係に基づいて、エピポーラ線に平行な平行方向およびエピポーラ線に直交する直交方向の両方向において、各撮像画像で認識対象物が写る対象領域を特定することで、複数の撮像画像それぞれから対象領域を抽出するように、三次元位置・姿勢認識装置を構成しても良い。このような構成では、撮像画像に写る各物体の複数の撮像画像間における対応関係に基づいて、平行方向および直交方向の両方向において対象領域が特定される。したがって、これらの各方向において認識対象物以外の物体を対象領域から外すことができる。その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生をより確実に抑制することを可能となる。 Therefore, the target area extraction unit is configured to obtain each captured image in both the parallel direction parallel to the epipolar line and the orthogonal direction orthogonal to the epipolar line based on the correspondence between the captured images of each object captured in the captured image. The three-dimensional position / posture recognition apparatus may be configured to extract a target region from each of a plurality of captured images by specifying a target region in which a recognition target object is captured. In such a configuration, the target area is specified in both the parallel direction and the orthogonal direction based on the correspondence between the plurality of captured images of each object shown in the captured image. Therefore, objects other than the recognition target object can be removed from the target area in each of these directions. As a result, it is possible to more reliably suppress the occurrence of erroneous correspondence such that correspondence is performed between different objects in the stereo matching processing.
なお、ステレオマッチング処理は、複数の撮像画像間で対応点を探索することで実行される。そこで、認識部は、各撮像画像の対象領域に対するステレオマッチング処理において各撮像画像間の対応点を探索する探索範囲を、対象領域抽出部が抽出した対象領域の位置に関する情報に基づいて設定するように、三次元位置・姿勢認識装置を構成しても良い。このような構成では、探索範囲を適切に設定して、対応点の探索に要する処理時間を短縮することが可能となる。 Note that the stereo matching process is performed by searching for corresponding points between a plurality of captured images. Therefore, the recognition unit sets a search range for searching for corresponding points between the captured images in the stereo matching process for the target region of each captured image based on the information regarding the position of the target region extracted by the target region extraction unit. In addition, a three-dimensional position / posture recognition apparatus may be configured. In such a configuration, it is possible to appropriately set the search range and reduce the processing time required for searching for corresponding points.
なお、上述のような、平行方向および直交方向の両方向における対象領域の抽出や、その後のステレオマッチング処理は、各撮像画像のエピポーラ線を平行した状態で行うことで簡便に実行することができる。そこで、画像取得部は、互いのエピポーラ線が平行な状態で複数の撮像画像を取得するように、三次元位置・姿勢認識装置を構成しても良い。 Note that the extraction of the target region in both the parallel direction and the orthogonal direction as described above, and the subsequent stereo matching processing can be easily performed by performing the epipolar lines of each captured image in parallel. Therefore, the image acquisition unit may configure the three-dimensional position / posture recognition apparatus so as to acquire a plurality of captured images in a state where the epipolar lines are parallel to each other.
ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することが可能となる。 It is possible to suppress the occurrence of miscorrespondence such that association is performed between different objects in the stereo matching process.
第1実施形態
図1は、本発明を適用可能な双腕ロボットの一例を模式的示す斜視図である。図2は、図1の双腕ロボットが具備する電気的構成を模式的に示すブロック図である。図1および以下に示す図では、鉛直方向をz軸方向とするxyz直交座標軸を適宜示すこととする。
First Embodiment FIG. 1 is a perspective view schematically showing an example of a double-arm robot to which the present invention is applicable. FIG. 2 is a block diagram schematically showing the electrical configuration of the double-arm robot of FIG. In FIG. 1 and the drawings shown below, xyz orthogonal coordinate axes having the vertical direction as the z-axis direction are shown as appropriate.
双腕ロボット1は、ロボット本体2とこのロボット本体2の動作を制御するコンピューター3で構成される。ロボット本体2は、胴体部21に2本のアーム22を取り付けた概略構成を備える。詳しくは、各アーム22は、駆動モーターM23に接続された肩関節23を介して取り付けられている。そして、駆動モーターM23で肩関節23を回転させることで、アーム22を動かすことができる。
The double-
また、各アーム22の先端には、手首関節24を介してハンド25が取り付けられている。この手首関節24には駆動モーターM24が接続されている。したがって、駆動モーターM24で手首関節24を回転させることで、ハンド25の向きを変えることができる。さらに、ハンド25には駆動モーターM25が接続されており、駆動モーターM25によりハンド25を開閉させることができる。
A
そして、双腕ロボット1は、駆動モーターM23〜M25を制御することで、部品トレイ9の上に並ぶ部品91(機械部品、電子部品)をハンド25で掴んで所定位置まで運んだり、ハンド25を回転させて部品91の姿勢を変えたり、ハンド25から部品91を放して所定位置に載置したりといった種々の動作を実行できる。つまり、このような各種動作を組み合わせて実行することで、双腕ロボット1は、部品91を組み立てることができる。
Then, the double-
また、2本のアーム22の一方には、2つの撮像カメラC1、C2が取り付けられている。これら撮像カメラC1、C2は一方のアーム22と一体的に移動しつつ、部品91を適宜撮像するものである。そして、後述するように、撮像カメラC1、C2により部品91を撮像した結果に基づいて、アーム22およびハンド25の動作が制御されて、部品91の組立が実行される。
Further, two
さらに、双腕ロボット1は、胴体部21から上方に延びる首部26と、首部26の先端に取り付けられた頭部27を有している。これら首部26および頭部27は、鉛直方向zおよび当該方向zを中心とする回転方向Drに一体的に移動できる。
Further, the double-
このようなロボット本体2の動作は、コンピューター3により制御される。コンピューター3は、ドライバー4と、三次元認識部5とを具備している。ドライバー4は、コンピューター3により読み取りが可能な記録媒体6に記録されたプログラム7を読み出す機能を果たす。このような記録媒体6としては、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリー等の種々のものが挙げられる。そして、ドライバー4が記録媒体6から読み出したプログラム7に従って、三次元認識部5が三次元認識を行う。
Such an operation of the
この三次元認識部5は、制御回路50によって他の構成回路51〜55を制御する概略構成を備えるものであり、コンピューター3に備えられたCPU(Central Processing Unit)およびメモリーにより実現される。続いて、三次元認識部5が実行する三次元認識の説明を通じて、三次元認識部5の構成について説明する。 The three-dimensional recognition unit 5 includes a schematic configuration in which the other configuration circuits 51 to 55 are controlled by the control circuit 50, and is realized by a CPU (Central Processing Unit) and a memory provided in the computer 3. Next, the configuration of the three-dimensional recognition unit 5 will be described through the description of the three-dimensional recognition performed by the three-dimensional recognition unit 5.
図3は、三次元認識で実行される動作のフローの一例を示すフローチャートである。三次元認識では、制御回路50が撮像カメラC1、C2に撮像指令を出力すると、撮像カメラC1、C2のそれぞれが部品91の画像を撮像して、制御回路50に出力する。こうして、異なる視点から部品91を撮像した2枚の撮像画像I1、I2が取得される(ステップS101)。
FIG. 3 is a flowchart showing an example of a flow of operations executed in the three-dimensional recognition. In the three-dimensional recognition, when the control circuit 50 outputs an imaging command to the imaging cameras C1 and C2, each of the imaging cameras C1 and C2 captures an image of the
これら2枚の撮像画像I1、I2は、平行化回路51で平行化処理を受ける。この平行化回路51は、制御回路50から受け取った撮像画像I1、I2それぞれのエピポーラ線を平行にする平行化処理(画像変換)を撮像画像I1、I2に対して行うものである(ステップS102)。そして、平行化処理を受けた撮像画像I1、I2が対象領域抽出回路52へ出力される。 These two captured images I1 and I2 are subjected to parallelization processing by the parallelization circuit 51. The parallelization circuit 51 performs parallelization processing (image conversion) on the captured images I1 and I2 to make the epipolar lines of the captured images I1 and I2 received from the control circuit 50 parallel (step S102). . Then, the captured images I 1 and I 2 that have undergone the parallelization processing are output to the target region extraction circuit 52.
この対象領域抽出回路52は、受け取った撮像画像I1、I2から、ステレオマッチング処理を行う対象領域R1、R2(ROI:Region Of
Interest)を抽出する(ステップS103)。つまり、撮像画像I1、I2には、認識対象となる部品91を含む複数の部品91が混在している。そこで、この実施形態では、後のステレオマッチング処理を適切に実行するために、撮像画像I1、I2から認識対象部品91の写っている領域(対象領域R1、R2)が抽出される。対象領域抽出回路52が実行するこのような対象領域抽出処理の詳細は次のとおりである。
The target region extraction circuit 52 performs target matching R1, R2 (ROI: Region Of) for performing stereo matching processing from the received captured images I1, I2.
Interest) is extracted (step S103). That is, in the captured images I1 and I2, a plurality of
図4は、第1実施形態における対象領域抽出処理のフローの一例を示すフローチャートである。図5は、図4の対象領域抽出処理で行われる各画像処理の一例を模式的に示した図である。図5の各欄の左上では、当該欄内に示す画像処理が実行される図4のフローチャート中のステップが示されている。 FIG. 4 is a flowchart illustrating an example of a flow of target area extraction processing in the first embodiment. FIG. 5 is a diagram schematically illustrating an example of each image process performed in the target area extraction process of FIG. In the upper left of each column of FIG. 5, the steps in the flowchart of FIG. 4 in which the image processing shown in the column is executed are shown.
この対象領域抽出処理では、2枚の撮像画像I1、I2のうち一方の撮像画像I1に対してエッジ検出が実行されて、各部品91a〜91cのエッジが求められる(ステップS201)。そして、このエッジ検出結果に基づいて、部品91a〜91cの中から認識対象となる部品91aが特定される。
In this target area extraction processing, edge detection is performed on one of the two captured images I1 and I2, and the edges of the
具体的には、二次元(xy平面)における認識対象部品91aのパターンPが対象領域抽出回路52に予め記憶されている。そして、ステップS201で求めた各部品91a〜91cのエッジとパターンPとを比較する二次元パターンマッチングが実行される(ステップS202)。その結果、パターンPと形状が適合しなかった部品91b、91cは認識対象部品でないと判断される一方、パターンPと形状が適合した部品91aが認識対象部品であると特定される(ステップS203)。
Specifically, the pattern P of the
続くステップS204は、撮像画像I1で認識対象部品91aの写る区間ΔYがY軸方向において特定される。そして、ステップS205では、2枚の撮像画像I1、I2のそれぞれにおいて、この区間ΔYとY軸方向に一致する領域が対象領域R1、R2として抽出される。以上が対象領域抽出処理(ステップS103)の一例である。
In the subsequent step S204, the section ΔY in which the
図3に戻って、同図のフローチャートの説明を続ける。このように対象領域抽出回路52で抽出された対象領域R1、R2は、ステレオマッチング回路53に出力される。そして、ステレオマッチング回路53では、撮像画像I1、I2から抽出された対象領域R1、R2に対してのみステレオマッチング処理が実行される(ステップS104)。このステレオマッチング処理では、撮像画像I1の対象領域R1と撮像画像I2の対象領域R2の間で特徴の類似する点(微小領域)どうしが部品91の同一部分に対応するとして、互いに対応付けられる。
Returning to FIG. 3, the description of the flowchart of FIG. The target areas R1 and R2 extracted by the target area extraction circuit 52 in this way are output to the stereo matching circuit 53. Then, in the stereo matching circuit 53, the stereo matching process is executed only for the target areas R1 and R2 extracted from the captured images I1 and I2 (step S104). In this stereo matching process, points (microregions) having similar features between the target region R1 of the captured image I1 and the target region R2 of the captured image I2 are associated with each other assuming that they correspond to the same part of the
具体的に説明すると、対象領域R1中の注目点と、この注目点を通るエピポーラ線上にある対象領域R2中の各点との間で特徴の類似性が判断されて、対象領域R1の注目点と特徴の類似する点が対象領域R2中から探索される。ここでは撮像画像I1、I2のエピポーラ線が互いに平行であって、互いに対応する点のy座標は一致しているため、y座標が注目点と同じである対象領域R2の各点と注目点との間で特徴の類似性が判断される。その結果、対象領域R2の各点のうち最も類似性の高い点が、対象領域R1の注目点と対応付けられる。さらに、対象領域R1中の注目点を移動させながら同様の動作を繰り返すことで、対象領域R1の各点と対象領域R2の各点とが対応付けられる。 More specifically, feature similarity is determined between the target point in the target region R1 and each point in the target region R2 on the epipolar line passing through the target point, and the target point in the target region R1 Are searched for in the target region R2. Here, since the epipolar lines of the captured images I1 and I2 are parallel to each other and the y-coordinates of the corresponding points coincide with each other, each point of the target region R2 having the same y-coordinate as the attention point and the attention point The similarity of features is determined. As a result, the point having the highest similarity among the points in the target region R2 is associated with the point of interest in the target region R1. Further, by repeating the same operation while moving the target point in the target region R1, each point in the target region R1 and each point in the target region R2 are associated with each other.
そして、ステレオマッチング回路53は、こうして対応付けられた2つの点の間の視差pを算出する。具体的には、対象領域R1中の点とこれに対応する対象領域R2中の点との視差pが求められて、対象領域R1中の点に対して視差pが付与される。このようにして、対象領域R1中の各点(x,y)に対して視差pを付与した視差画像Isが生成される。言い換えれば、視差画像Isは、対象領域R1の各点(x,y)での視差p(x,y)を示す情報である。 Then, the stereo matching circuit 53 calculates the parallax p between the two points thus associated. Specifically, the parallax p between the point in the target region R1 and the corresponding point in the target region R2 is obtained, and the parallax p is given to the point in the target region R1. In this way, the parallax image Is with the parallax p added to each point (x, y) in the target region R1 is generated. In other words, the parallax image Is is information indicating the parallax p (x, y) at each point (x, y) of the target region R1.
こうして、ステレオマッチング回路53で生成された視差画像Isは、三次元情報生成回路54に出力される。この三次元情報生成回路54は、受け取った視差画像Isから三次元情報Sを生成する(ステップS106)。つまり、xy平面での位置(x,y)での視差pを示す情報Isが、当該位置(x,y)でのz成分を示す三次元情報Sに変換される。こうして、三次元の座標系(x,y,z)における位置を示す三次元情報Sが生成される。
Thus, the parallax image Is generated by the stereo matching circuit 53 is output to the three-dimensional
なお、この三次元情報Sの変換にあたっては、撮像カメラC1、C2の焦点距離等の内部パラメーターや、撮像カメラC1、C2の位置関係を示す基礎行列Fが必要となる。この基礎行列Fについては、予め行われた撮像カメラC1、C2の校正時に求められて、三次元情報生成回路54に記憶されている。
Note that when converting the three-dimensional information S, internal parameters such as the focal lengths of the imaging cameras C1 and C2 and a basic matrix F indicating the positional relationship between the imaging cameras C1 and C2 are required. The basic matrix F is obtained when the imaging cameras C1 and C2 are calibrated in advance and is stored in the three-dimensional
こうして、求められた部品91の三次元情報Sは、三次元情報生成回路54からモデルマッチング回路55へ出力される。そして、モデルマッチング回路55は、部品91aの三次元形状を示す三次元モデルと三次元情報Sとをマッチングさせるモデルマッチング処理を行う(ステップS106)。このとき使用される部品91aのモデルは、部品91aの外形を示すCAD(computer aided design)データから求められて、モデルマッチング回路55に予め記憶されている。
Thus, the obtained three-dimensional information S of the
モデルマッチング処理の結果Rmは、モデルマッチング回路56から制御回路50に出力される。制御回路50は、モデルマッチング結果Rmに基づいて、三次元における部品91aの位置および姿勢を認識する三次元認識処理を実行する(ステップS107)。言い換えれば、ステップS107では、モデルマッチング結果Rmに基づいて、三次元における部品91aの位置および姿勢を示す三次元モデルが生成される(三次元モデリング)。そして、制御回路50は、部品91aの三次元モデルとロボット本体2の座標系に基づいて、各駆動モーターM23〜M25を制御して、双腕ロボット1による部品91aに対する動作を実行する。
The result Rm of the model matching process is output from the model matching circuit 56 to the control circuit 50. Based on the model matching result Rm, the control circuit 50 executes a three-dimensional recognition process for recognizing the position and orientation of the
以上のように構成された実施形態では、認識対象部品91aを含む複数の部品91a〜91cを異なる視点から撮像した複数の撮像画像I1、I2それぞれから、認識対象部品91aが写る対象領域R1、R2が抽出される。そして、複数の撮像画像I1、I2それぞれの対象領域R1、R2に対して、ステレオマッチング処理が実行される。つまり、この実施形態は、ステレオマッチング処理を行う領域R1、R2を、撮像画像I1、I2のうちの認識対象部品91aを含む対象領域R1に限定している。そのため、対象領域R1から認識対象部品91a以外の部品91b、91cを外してステレオマッチング処理を実行することができ、その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能となる。
In the embodiment configured as described above, the target regions R1, R2 in which the
また、この実施形態では、ステレオマッチング処理を実行する領域が、撮像画像I1、I2のうち認識対象部品91aの写っている対象領域R1、R2に限定される。したがって、ステレオマッチング処理に要する時間を短縮できるといった効果も奏される。
In this embodiment, the area where the stereo matching process is executed is limited to the target areas R1 and R2 in which the
なお、この実施形態では、制御回路50および平行化回路51で構成された画像取得部は、エピポーラ線が平行な状態で複数の撮像画像I1、I2を取得している。そして、このような構成では、エピポーラ線に直交するY軸方向における位置は、複数の撮像画像I1、I2の間で揃うこととなる。換言すれば、Y軸方向においては、認識対象部品91aが存在する区間ΔYが複数の撮像画像I1、I2間で揃う。したがって、Y軸方向において認識対象部品91aが存在する区間ΔYについては、複数の撮像画像I1、I2のうちの一の撮像画像I1について特定すれば、すなわち複数の撮像画像I1、I2のそれぞれについて特定したこととなる。そこで、この実施形態では、認識対象部品91aが存在する領域R1、R2の抽出を簡便化するために、次のような構成を有する。
In this embodiment, the image acquisition unit configured by the control circuit 50 and the parallelizing circuit 51 acquires a plurality of captured images I1 and I2 with the epipolar lines in parallel. In such a configuration, the positions in the Y-axis direction orthogonal to the epipolar line are aligned between the plurality of captured images I1 and I2. In other words, in the Y-axis direction, the section ΔY where the
つまり、対象領域抽出回路52では、複数の撮像画像I1、I2のうちの一の撮像画像I1から、Y軸方向における認識対象部品91aの写る区間ΔYが特定される(ステップS204)。そして、複数の撮像画像I1、I2それぞれにおいて区間ΔYとY軸方向に一致する領域が対象領域R1、R2として抽出される(ステップS205)。このように、一の撮像画像I1からY軸方向における認識対象部品91aの写る区間ΔYを特定し、複数の撮像画像I1、I2それぞれにおいて当該区間ΔYとY軸方向に一致する領域を対象領域R1、R2として抽出することで、認識対象部品91aが存在する対象領域R1、R2の抽出を簡便に実行することができる。
That is, in the target area extraction circuit 52, the section ΔY in which the
第2実施形態
第1実施形態では、エピポーラ線に平行なx軸方向においては対象領域R1、R2が限定されない。そのため、稀なケースではあるが、このx軸方向に認識対象部品91aと他の部品91b、91cが並んだような場合には、これらの間で上述の誤対応が発生するおそれがある。そこで、以下に説明する第2実施形態は、y軸方向のみならずx軸方向にも対象領域R1、R2を限定する構成を備える。
Second Embodiment In the first embodiment, the target regions R1 and R2 are not limited in the x-axis direction parallel to the epipolar line. Therefore, although it is a rare case, when the
第2実施形態の三次元認識においても、基本的には図3に示したフローが実行される。したがって、第1実施形態と同様に、制御回路50が撮像カメラC1、C2を用いて、異なる視点から部品91を撮像した2枚の撮像画像I1、I2を取得する(ステップS101)。そして、平行化回路51がこれらの撮像画像I1、I2に対して平行化処理を実行して、撮像画像I1、I2それぞれのエピポーラ線を平行にする(ステップS102)。ただし、続くステップS103で実行される対象領域抽出処理の内容が、第1実施形態と異なっている。
Also in the three-dimensional recognition of the second embodiment, the flow shown in FIG. 3 is basically executed. Therefore, as in the first embodiment, the control circuit 50 uses the imaging cameras C1 and C2 to acquire two captured images I1 and I2 obtained by imaging the
図6は、第2実施形態における対象領域抽出処理のフローの一例を示すフローチャートである。図7は、図6の対象領域抽出処理で行われる各画像処理の一例を模式的に示した図である。図7の各欄の左上では、当該欄内に示す画像処理が実行される図6のフローチャート中のステップが示されている。 FIG. 6 is a flowchart illustrating an example of a flow of target area extraction processing in the second embodiment. FIG. 7 is a diagram schematically illustrating an example of each image processing performed in the target region extraction processing of FIG. In the upper left of each column of FIG. 7, steps in the flowchart of FIG. 6 in which the image processing shown in the column is executed are shown.
この対象領域抽出処理では、2枚の撮像画像I1、I2それぞれに対してエッジ検出が実行されて、各部品91a〜91cのエッジが求められる(ステップS301)。続くステップS302では、第1実施形態でのステップS202と同様の二次元パターンマッチングが撮像画像I1に対して実行されて、撮像画像I1において認識対象部品91aが確認される。
In this target area extraction processing, edge detection is performed on each of the two captured images I1 and I2, and the edges of the
ステップS303では、撮像画像I1、I2のそれぞれにおいて、各部品91a〜91cのエッジの幾何重心が算出される。これによって、撮像画像I1において3個の幾何重心G11、G12、G13が求められるとともに、撮像画像I2において3個の幾何重心G21、G22、G23が求められる。そして、これら幾何重心の位置に応じて、撮像画像I1、I2の各部品に対してラベルL1、L2、…が付される(ステップS304)。
In step S303, the geometric gravity center of the edge of each
具体的には、図7の例では、撮像画像I1、I2それぞれにおいて、幾何重心のx座標の小さい部品91a、91b、91cから順番に、ラベルL1、L2、L3が付されている。なお、図7の例は該当しないが、幾何重心のx座標が同じ部品が複数存在する場合には、これらの部品については、例えば幾何重心のy座標の小さい部品から順にラベルを付せば良い。こうして、撮像画像I1の各部品に対して順にラベルL1、L2、L3が付されるとともに、撮像画像I2の各部品に対して順にラベルL1、L2、L3が付される。これによって、2枚の撮像画像I1、I2それぞれに写る同一部品に対して、同一のラベルが付されることとなる。
Specifically, in the example of FIG. 7, labels L1, L2, and L3 are attached in order from the
このようなラベリング結果に基づいて、撮像画像I1中の認識対象部品91aと同じラベルL1が付された部品を撮像画像I2中から見つけ出すことで、撮像画像I2中の認識対象部品91aを特定することができる。こうして、撮像画像I1、I2中のそれぞれにおいて、認識対象部品91aを特定することができる(ステップS305)。つまり、この実施形態では、撮像画像I1、I2に写る各部品91a、91b、91cの2枚の撮像画像I1、I2間における対応関係に基づいて、撮像画像I1、I2それぞれにおいて認識対象部品91aが特定される。
Based on such a labeling result, the
そして、ステップS306では、撮像画像I1、I2のそれぞれから、認識対象部品91aが写る対象領域R1、R2が抽出される(ステップS306)。この対象領域R1、R2は、その内部に認識対象部品91aを完全に包含するように設定され、認識対象部品91aの輪郭と一致する外形、あるいは認識対象部品91aの輪郭に対して若干大きい外形を有する。これによって、エピポーラ線に直交するy軸方向のみならずエピポーラ線に平行なx軸方向においても、撮像画像I1、I2で認識対象部品91aの写る対象領域R1、R2が特定される。換言すれば、撮像画像I1、I2において、認識対象部品91a以外の部品91b、91cは、x軸方向およびy軸方向のいずれの方向においても対象領域R1、R2から外される。
In step S306, target regions R1 and R2 in which the
このように、この実施形態では、撮像画像I1、I2に写る部品91a、91b、91cの2枚の撮像画像I1、I2間における対応関係に基づいて、エピポーラ線に平行なx軸方向およびエピポーラ線に直交するy軸方向の両方向において、各撮像画像I1、I2で認識対象部品91aが写る対象領域R1、R2を特定し、これらを抽出している。以上が第2実施形態における対象領域抽出処理(ステップS103)の一例である。
Thus, in this embodiment, the x-axis direction and the epipolar line parallel to the epipolar line are based on the correspondence between the two captured images I1 and I2 of the
図3を用いて、対象領域抽出処理に続くフローの説明を続ける。このように対象領域抽出回路52で抽出された対象領域R1、R2は、ステレオマッチング回路53に出力される。そして、ステレオマッチング回路53では、撮像画像I1、I2から抽出された対象領域R1、R2に対してのみステレオマッチング処理が実行される(ステップS104)。 The description of the flow following the target area extraction processing will be continued using FIG. The target areas R1 and R2 extracted by the target area extraction circuit 52 in this way are output to the stereo matching circuit 53. Then, in the stereo matching circuit 53, the stereo matching process is executed only for the target areas R1 and R2 extracted from the captured images I1 and I2 (step S104).
図8は、第2実施形態でのステレオマッチング処理の一例を模式的に示した図である。第2実施形態のステレオマッチング処理では、対象領域R1中の注目点Nに対応する対象領域R2中の点をエピポーラ線E上で探索するという点では、第1実施形態のステレオマッチング処理と共通する。ただし、第2実施形態では、ステレオマッチング処理において対応点を探索する探索範囲Rsが、対象領域R1、R2の抽出結果に基づいて決定される。 FIG. 8 is a diagram schematically illustrating an example of a stereo matching process in the second embodiment. The stereo matching process of the second embodiment is common to the stereo matching process of the first embodiment in that a point in the target region R2 corresponding to the target point N in the target region R1 is searched on the epipolar line E. . However, in the second embodiment, the search range Rs for searching for the corresponding points in the stereo matching process is determined based on the extraction results of the target areas R1 and R2.
具体的には、このステレオマッチング処理では、対象領域R1のx軸方向両端のx座標α1、β1と、対象領域R2のx軸方向両端のx座標α2、β2が求められる。そして、対象領域R1中の注目点Nのx座標をγとしたとき、x座標γを起点として距離Δx1だけ離れた位置から距離Δx2だけ離れた位置までが、対象領域R2における探索範囲Rsとして設定される。ここで、距離Δx1、Δx2
Δx1=min(α2−α1、β2−β1)
Δx2=max(α2−α1、β2−β1)
で与えられる。また、min(α2−α1、β2−β1)は、(α2−α1)および(β2−β1)のうちの最小値を意味し、max(α2−α1、β2−β1)は、(α2−α1)および(β2−β1)のうちの最大値を意味する。
Specifically, in this stereo matching process, x coordinates α1, β1 at both ends of the target region R1 in the x axis direction and x coordinates α2, β2 at both ends of the target region R2 in the x axis direction are obtained. Then, when the x coordinate of the target point N in the target area R1 is γ, the search distance Rs in the target area R2 is set from the position separated by the distance Δx1 starting from the x coordinate γ to the position separated by the distance Δx2. Is done. Here, the distances Δx1, Δx2
Δx1 = min (α2−α1, β2−β1)
Δx2 = max (α2−α1, β2−β1)
Given in. Also, min (α2-α1, β2-β1) means the minimum value of (α2-α1) and (β2-β1), and max (α2-α1, β2-β1) is (α2-α1 ) And (β2-β1).
そして、対象領域R1での注目点Nに対応する点が、対象領域R2に対して設定された探索範囲Rsから見つけ出されて、注目点Nに対応付けられる。この対応付けは、対象領域R1で注目点Nを移動させながら繰り返し実行される。これによって、対象領域R1の各点と対象領域R2の各点が対応付けられて、対象領域R1、R2に対するステレオマッチング処理が実行される。 A point corresponding to the target point N in the target region R1 is found from the search range Rs set for the target region R2, and is associated with the target point N. This association is repeatedly executed while moving the attention point N in the target region R1. Thereby, each point of the target region R1 and each point of the target region R2 are associated with each other, and the stereo matching process for the target regions R1 and R2 is executed.
このステレオマッチング処理(ステップS104)が完了すると、第1実施形態と同様に、図3に示すステップS105〜ステップS107が実行されて、三次元における部品91aの位置および姿勢が認識される。そして、制御回路50は、この認識結果に基づいて、各駆動モーターM23〜M25を制御して、双腕ロボット1による部品91aに対する動作を実行する。
When this stereo matching process (step S104) is completed, as in the first embodiment, steps S105 to S107 shown in FIG. 3 are executed to recognize the position and orientation of the
以上のように構成された実施形態では、認識対象部品91aを含む複数の部品91a〜91cを異なる視点から撮像した複数の撮像画像I1、I2それぞれから、認識対象部品91aが写る対象領域R1、R2が抽出される。そして、複数の撮像画像I1、I2それぞれの対象領域R1、R2に対して、ステレオマッチング処理が実行される。つまり、この実施形態は、ステレオマッチング処理を行う領域R1、R2を、撮像画像I1、I2のうちの認識対象部品91aを含む対象領域R1に限定している。そのため、対象領域R1から認識対象部品91a以外の部品91b、91cを外してステレオマッチング処理を実行することができ、その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能となる。
In the embodiment configured as described above, the target regions R1, R2 in which the
また、この実施形態では、ステレオマッチング処理を実行する領域が、撮像画像I1、I2のうち認識対象部品91aの写っている対象領域R1、R2に限定される。したがって、ステレオマッチング処理に要する時間を短縮できるといった効果も奏される。
In this embodiment, the area where the stereo matching process is executed is limited to the target areas R1 and R2 in which the
また、この実施形態では、撮像画像I1、I2に写る部品91a〜91cの複数の撮像画像I1、I2間における対応関係に基づいて、エピポーラ線に平行なx軸方向およびエピポーラ線に直交するy軸方向の両方向において、各撮像画像I1、I2で認識対象部品91aが写る対象領域R1、R2を特定することで、複数の撮像画像I1、I2それぞれから対象領域R1、R2を抽出している。つまり、撮像画像I1、I2に写る各部品91a〜91cの複数の撮像画像I1、I2間における対応関係に基づいて、x軸方向およびy軸方向の両方向において対象領域R1、R2が特定される。したがって、これらの各方向において認識対象部品91a以外の部品91b、91cを対象領域R1、R2から外すことができる。その結果、ステレオマッチング処理において互いに異なる部品間で対応付けが行われるといった誤対応の発生をより確実に抑制することを可能となる。
In this embodiment, the x-axis direction parallel to the epipolar line and the y axis orthogonal to the epipolar line are based on the correspondence between the plurality of captured images I1 and I2 of the
なお、上述のとおり、ステレオマッチング処理は、複数の撮像画像I1、I2間で対応点を探索することで実行される。そこで、この実施形態では、各撮像画像I1、I2の対象領域R1、R2に対するステレオマッチング処理において各撮像画像I1、I2間の対応点を探索する探索範囲Rsを、抽出された対象領域R1、R2の位置に関する情報に基づいて設定されている。このような構成では、探索範囲Rsを適切に設定して、対応点の探索に要する処理時間を短縮することが可能となる。 As described above, the stereo matching process is executed by searching for a corresponding point between the plurality of captured images I1 and I2. Accordingly, in this embodiment, the search range Rs for searching for corresponding points between the captured images I1 and I2 in the stereo matching processing for the target regions R1 and R2 of the captured images I1 and I2 is extracted as the extracted target regions R1 and R2. It is set based on the information regarding the position of. In such a configuration, it is possible to appropriately set the search range Rs and reduce the processing time required for searching for corresponding points.
その他
このように上記実施形態では、撮像カメラC1、C2と三次元認識部5で構成されるステレオ撮像系SS(図2)が本発明の「三次元位置・姿勢認識装置」に相当し、双腕ロボット1が本発明の「産業用ロボット」に相当し、コンピューター3が本発明の「コンピューター」に相当し、記録媒体6が本発明の「記録媒体」に相当し、プログラム7が本発明の「プログラム」に相当する。また、撮像カメラC1、C2、制御回路50および平行化回路51が本発明の「画像取得部」として機能し、対象領域抽出回路52が本発明の「対象領域抽出部」に相当し、ステレオマッチング回路53、三次元情報生成回路54、モデルマッチング回路55および制御回路50が本発明の「認識部」に相当する。また、アーム22およびハンド25が本発明の「部品移動手段」に相当し、制御回路50が本発明の「制御手段」に相当する。また、ステップS101、S102が本発明の「画像取得工程」に相当し、ステップS103が本発明の「対象領域抽出工程」に相当し、ステップS104〜ステップS107が本発明の「認識工程」に相当する。また、部品91aが本発明の「認識対象物」に相当し、部品91a〜91cが本発明の「物体」に相当し、撮像画像I1、I2が本発明の「撮像画像」に相当し、対象領域R1、R2が本発明の「対象領域」に相当する。また、x軸方向が本発明の「平行方向」に相当し、y軸方向が本発明の「直交方向」に相当する。
Others As described above, in the above-described embodiment, the stereo imaging system SS (FIG. 2) including the imaging cameras C1 and C2 and the three-dimensional recognition unit 5 corresponds to the “three-dimensional position / posture recognition device” of the present invention. The
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態では、二次元パターンマッチング(ステップS202、S302)によって、撮像画像I1から認識対象部品91aが確認されていた。この二次元パターンマッチングは部品91aのエッジに対するパターンマッチングを行うものであった、しかしながら、撮像画像I1から認識対象部品91aを確認する方法についても種々の変形が可能である。
The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. For example, in the above embodiment, the
具体的には、各部品91a〜91cの面積や輪郭の長さの違いによって、部品91a〜91cから認識対象部品91aを確認しても良い。あるいは、色の違いによって部品91a〜91cを識別できる場合は、撮像カメラC1、C2としてカラーカメラを用いて、撮像画像I1での色に基づいて認識対象部品91aを確認しても良い。さらには、部品91a〜91cそれぞれを撮像画像I1から抽出した上で、これらの抽出結果の中で例えばマッチングスコアの最も高いものを選択しても良い。あるいは、マッチングスコアの高い順にソーティングする等によってこれらの抽出結果に対して系列付けを実施して、それぞれについて三次元認識を行った後に、三次元認識のマッチング率(認識率)が高いものを選択しても良い。
Specifically, the
また、上記の第2実施形態では、対象領域R1での注目点Nに対応する点を対象領域R2から探索する際の範囲が探索範囲Rsに限定されていた。しかしながら、このような探索範囲の限定を行わずに、対象領域R1での注目点Nに対応する点を対象領域R2の全体から探索するように構成しても良い。 In the second embodiment, the range when searching for a point corresponding to the point of interest N in the target region R1 from the target region R2 is limited to the search range Rs. However, the search range may be searched from the entire target region R2 without limiting the search range.
また、上記実施形態では、三次元認識部5は、コンピューター3の内蔵するCPUやメモリーで構成されていた。しかしながら、三次元認識部5は、FPGA(Field-Programmable Gate Array)等のプログラマブルロジックデバイスや、ディスクリートな回路素子を組み合わせて構成されても良い。 Moreover, in the said embodiment, the three-dimensional recognition part 5 was comprised by CPU and memory which the computer 3 built in. However, the three-dimensional recognition unit 5 may be configured by combining a programmable logic device such as an FPGA (Field-Programmable Gate Array) or a discrete circuit element.
また、上述のエッジ抽出(ステップS201、S301)についても種々の方法により実行することができ、例えば、Roberts、Sobel、Prewitt等の演算子を用いた方法を採用可能である。 Also, the above-described edge extraction (steps S201 and S301) can be executed by various methods. For example, a method using operators such as Roberts, Sobel, and Prewitt can be employed.
また、撮像カメラC1、C2の個数や、取り付け位置等についても上述したものに限られず、適宜変更可能である。 Further, the number of the imaging cameras C1, C2 and the attachment positions are not limited to those described above, and can be changed as appropriate.
また、上記実施形態では、撮像画像I1、I2中に3個の部品91a〜91cが写っている場合が例示されていた。しかしながら、撮像画像I1、I2中に3個以外の個数の部品が写っている場合に対しても本発明を適用可能である。
Moreover, in the said embodiment, the case where the three
また、三次元における部品91の位置および姿勢を求める方法についても、上述のモデルマッチングに限られず、適宜変更可能である。
The method for obtaining the position and orientation of the
また、本発明を適用可能な産業用ロボットは、上述の双腕ロボット1に限られない。しがたって、その他の構成を具備するロボットに対して本発明を適用することもできる。
The industrial robot to which the present invention can be applied is not limited to the above-described double-
この発明は、三次元での画像認識技術の全般に対して適用可能であり、特に産業用ロボットにおいて三次元における部品の位置・姿勢を認識する技術に好適に適用することができる。 The present invention can be applied to all three-dimensional image recognition techniques, and can be suitably applied particularly to a technique for recognizing the position and orientation of a part in three dimensions in an industrial robot.
1…双腕ロボット
2…ロボット本体
22…アーム
25…ハンド
3…コンピューター
4…ドライバー
5…三次元認識部
50…制御回路
51…平行化回路
52…対象領域抽出回路
53…ステレオマッチング回路
54…三次元情報生成回路
55…モデルマッチング回路
6…記録媒体
7…プログラム
91,91a,91b,91c…部品
C1,C2…撮像カメラ
I1,I2…撮像画像
R1,R2…対象領域
Is…視差画像
E…エッジE
S…三次元情報S
SS…ステレオ撮像系
DESCRIPTION OF
S ... 3D information S
SS ... Stereo imaging system
Claims (9)
前記画像取得部が取得した前記複数の撮像画像それぞれから、前記認識対象物が写る対象領域を抽出する対象領域抽出部と、
前記対象領域抽出部が抽出した前記各撮像画像の前記対象領域に対してステレオマッチング処理を行って、三次元における前記認識対象物の位置および姿勢を認識する認識部と
を備えることを特徴とする三次元位置・姿勢認識装置。 An image acquisition unit for acquiring a plurality of captured images obtained by imaging a plurality of objects including a recognition target object from different viewpoints;
A target region extraction unit that extracts a target region in which the recognition target object is captured from each of the plurality of captured images acquired by the image acquisition unit;
And a recognition unit that performs stereo matching processing on the target region of each captured image extracted by the target region extraction unit to recognize the position and orientation of the recognition target in three dimensions. 3D position and orientation recognition device.
前記対象領域抽出部は、前記複数の撮像画像のうちの一の前記撮像画像から、前記エピポーラ線に直交する直交方向における前記認識対象物の写る区間を特定し、前記複数の撮像画像それぞれにおいて前記区間と前記直交方向に一致する領域を前記対象領域として抽出する請求項1に記載の三次元位置・姿勢認識装置。 The image acquisition unit acquires the plurality of captured images in a state where the epipolar lines are parallel to each other,
The target area extraction unit identifies a section in which the recognition target object is captured in an orthogonal direction orthogonal to the epipolar line from one of the plurality of captured images, and each of the plurality of captured images The three-dimensional position / posture recognition apparatus according to claim 1, wherein a region that coincides with a section in the orthogonal direction is extracted as the target region.
請求項1ないし5のいずれか一項に記載の三次元位置・姿勢認識装置と、
前記三次元位置・姿勢認識装置により前記認識対象物としての前記部品の三次元での位置および姿勢を認識した結果に基づいて、前記部品移動手段を制御する制御手段と
を備えることを特徴とする産業用ロボット。 Parts moving means for picking up and moving parts;
A three-dimensional position / posture recognition apparatus according to any one of claims 1 to 5,
Control means for controlling the part moving means based on the result of recognizing the three-dimensional position and orientation of the part as the recognition object by the three-dimensional position / posture recognition apparatus. Industrial robot.
前記画像取得工程で取得した前記複数の撮像画像それぞれから、前記認識対象物が写る対象領域を抽出する対象領域抽出工程と、
前記対象領域抽出工程で抽出した前記各撮像画像の前記対象領域に対してステレオマッチング処理を行って、三次元における前記認識対象物の位置および姿勢を認識する認識工程と
を備えることを特徴とする三次元位置・姿勢認識方法。 An image acquisition step of acquiring a plurality of captured images obtained by imaging a plurality of objects including a recognition target object from different viewpoints;
From each of the plurality of captured images acquired in the image acquisition step, a target region extraction step for extracting a target region in which the recognition target object is captured;
A recognition step of performing a stereo matching process on the target region of each captured image extracted in the target region extraction step to recognize the position and orientation of the recognition target in three dimensions. 3D position / posture recognition method.
前記画像取得工程で取得した前記複数の撮像画像それぞれから、前記認識対象物が写る対象領域を抽出する対象領域抽出機能と、
前記対象領域抽出工程で抽出した前記各撮像画像の前記対象領域に対してステレオマッチング処理を行って、三次元における前記認識対象物の位置および姿勢を認識する認識機能と
を、コンピューターに実現させることを特徴とするプログラム。 An image acquisition function for acquiring a plurality of captured images obtained by imaging a plurality of objects including a recognition object from different viewpoints;
A target area extraction function for extracting a target area in which the recognition target object is captured from each of the plurality of captured images acquired in the image acquisition step;
Performing a stereo matching process on the target region of each captured image extracted in the target region extraction step, and causing a computer to realize a recognition function for recognizing the position and orientation of the recognition target in three dimensions. A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011206964A JP2013069100A (en) | 2011-09-22 | 2011-09-22 | Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011206964A JP2013069100A (en) | 2011-09-22 | 2011-09-22 | Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013069100A true JP2013069100A (en) | 2013-04-18 |
Family
ID=48474750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011206964A Withdrawn JP2013069100A (en) | 2011-09-22 | 2011-09-22 | Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013069100A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016206066A (en) * | 2015-04-24 | 2016-12-08 | トヨタ自動車株式会社 | Object recognition apparatus and object recognition method |
WO2019188198A1 (en) * | 2018-03-30 | 2019-10-03 | 倉敷紡績株式会社 | Three-dimensional measurement device for linear object and three-dimensional measurement method for linear object |
CN111836030A (en) * | 2019-04-17 | 2020-10-27 | 未来市股份有限公司 | Interactive image processing method, apparatus and medium using depth engine |
CN111836034A (en) * | 2019-04-17 | 2020-10-27 | 未来市股份有限公司 | Interactive image processing system using infrared camera |
CN111836035A (en) * | 2019-04-17 | 2020-10-27 | 未来市股份有限公司 | Interactive image processing method and device and storage device |
WO2021157114A1 (en) * | 2020-02-03 | 2021-08-12 | 株式会社日立製作所 | Installation control device and installation control method |
JP2021185016A (en) * | 2017-03-06 | 2021-12-09 | 株式会社Fuji | Image processing device |
-
2011
- 2011-09-22 JP JP2011206964A patent/JP2013069100A/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016206066A (en) * | 2015-04-24 | 2016-12-08 | トヨタ自動車株式会社 | Object recognition apparatus and object recognition method |
JP7197653B2 (en) | 2017-03-06 | 2022-12-27 | 株式会社Fuji | Image processing device |
JP2021185016A (en) * | 2017-03-06 | 2021-12-09 | 株式会社Fuji | Image processing device |
WO2019188198A1 (en) * | 2018-03-30 | 2019-10-03 | 倉敷紡績株式会社 | Three-dimensional measurement device for linear object and three-dimensional measurement method for linear object |
JPWO2019188198A1 (en) * | 2018-03-30 | 2021-03-25 | 倉敷紡績株式会社 | Three-dimensional measuring device for linear objects and three-dimensional measuring method for linear objects |
JP2020177618A (en) * | 2019-04-17 | 2020-10-29 | 未來市股▲ふん▼有限公司 | Method, apparatus, and medium for interactive image processing using depth engine and digital signal processor |
JP2020177617A (en) * | 2019-04-17 | 2020-10-29 | 未來市股▲ふん▼有限公司 | Method, apparatus, and medium for interactive image processing using depth engine |
US10885671B2 (en) | 2019-04-17 | 2021-01-05 | XRSpace CO., LTD. | Method, apparatus, and non-transitory computer-readable medium for interactive image processing using depth engine and digital signal processor |
CN111836035A (en) * | 2019-04-17 | 2020-10-27 | 未来市股份有限公司 | Interactive image processing method and device and storage device |
US11039118B2 (en) | 2019-04-17 | 2021-06-15 | XRSpace CO., LTD. | Interactive image processing system using infrared cameras |
CN111836034A (en) * | 2019-04-17 | 2020-10-27 | 未来市股份有限公司 | Interactive image processing system using infrared camera |
CN111836030A (en) * | 2019-04-17 | 2020-10-27 | 未来市股份有限公司 | Interactive image processing method, apparatus and medium using depth engine |
WO2021157114A1 (en) * | 2020-02-03 | 2021-08-12 | 株式会社日立製作所 | Installation control device and installation control method |
JP2021123433A (en) * | 2020-02-03 | 2021-08-30 | 株式会社日立製作所 | Installation control device and installation control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013069100A (en) | Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium | |
Song et al. | CAD-based pose estimation design for random bin picking using a RGB-D camera | |
Nieuwenhuisen et al. | Mobile bin picking with an anthropomorphic service robot | |
Holz et al. | Active recognition and manipulation for mobile robot bin picking | |
JP2012254518A (en) | Robot control system, robot system and program | |
US20130054030A1 (en) | Object gripping apparatus, object gripping method, and object gripping program | |
CN111085997A (en) | Capturing training method and system based on point cloud acquisition and processing | |
Lin et al. | Robotic grasping with multi-view image acquisition and model-based pose estimation | |
Helmer et al. | Multiple viewpoint recognition and localization | |
Chen et al. | Random bin picking with multi-view image acquisition and cad-based pose estimation | |
Chaudhury et al. | Using collocated vision and tactile sensors for visual servoing and localization | |
CN110930442A (en) | Method and device for determining positions of key points in robot hand-eye calibration based on calibration block | |
JP2014170368A (en) | Image processing device, method and program and movable body | |
JP5609760B2 (en) | Robot, robot operation method, and program | |
Jerbić et al. | Robot assisted 3D point cloud object registration | |
CN114286739A (en) | Information processing device, setting device and method, image recognition system, robot system, learning device, and method for generating learned model | |
CN114341930A (en) | Image processing device, imaging device, robot, and robot system | |
D'Avella et al. | Multimodal grasp planner for hybrid grippers in cluttered scenes | |
JP2021000694A (en) | Device for teaching robot and robot system | |
JP5839671B2 (en) | 3D position / attitude recognition device, industrial robot, 3D position / attitude recognition method, program, recording medium | |
Lutz et al. | Probabilistic object recognition and pose estimation by fusing multiple algorithms | |
Ibrayev et al. | Recognition of curved surfaces from “one-dimensional” tactile data | |
CN114897974B (en) | Target object space positioning method, system, storage medium and computer equipment | |
JP5868005B2 (en) | Imaging apparatus, imaging condition setting method, program | |
Liang et al. | Rgb-d camera based 3d object pose estimation and grasping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141202 |