JP2013069100A - Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium - Google Patents

Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium Download PDF

Info

Publication number
JP2013069100A
JP2013069100A JP2011206964A JP2011206964A JP2013069100A JP 2013069100 A JP2013069100 A JP 2013069100A JP 2011206964 A JP2011206964 A JP 2011206964A JP 2011206964 A JP2011206964 A JP 2011206964A JP 2013069100 A JP2013069100 A JP 2013069100A
Authority
JP
Japan
Prior art keywords
recognition
target
captured images
captured
target region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011206964A
Other languages
Japanese (ja)
Inventor
Yasushi Sasa
泰志 佐々
Shigeo Murakami
繁男 村上
Hiroyuki Onishi
浩之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2011206964A priority Critical patent/JP2013069100A/en
Publication of JP2013069100A publication Critical patent/JP2013069100A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To prevent miss-matching among different parts 91a-91c in stereo matching processing.SOLUTION: Target areas R1 and R2 in which a recognition target part 91a is photographed are extracted from each of plural captured images I1 and I2 of plural parts 91a-91c including the recognition target part 91a taken from different view-point. Stereo matching processing is executed on each target area R1, R2 of plural captured images I1 and I2. That is, the target areas R1 and R2 to be subjected to the stereo matching processing are limited to the target area R1 including the recognition target part 91a in the captured images I1 and I2. Therefore, the stereo matching processing can be executed while excluding the parts 91b and 91c other than the recognition target part 91a from the target area R1. As a result, miss-matching among different parts are prevented in the stereo matching processing.

Description

この発明は、物体を異なる視点から撮像した複数の撮像画像に対してステレオマッチング処理を行って、三次元における物体の位置および姿勢を求める技術に関する。   The present invention relates to a technique for obtaining the position and orientation of an object in three dimensions by performing stereo matching processing on a plurality of captured images obtained by imaging the object from different viewpoints.

特許文献1では、三次元における物体の位置および姿勢を認識する三次元認識技術が記載されている。この三次元認識技術では、異なる視点から物体を撮像して得られる複数の撮像画像に対してステレオマッチング処理が実行されて、三次元における物体の位置および姿勢が認識される。詳しくは、このステレオマッチング処理では、複数の撮像画像の中から類似する特徴を有する部分どうしが対応付けられて、これらの部分の間の視差から三次元における物体の位置および姿勢が求められる。   Patent Document 1 describes a three-dimensional recognition technique for recognizing the position and orientation of an object in three dimensions. In this three-dimensional recognition technique, stereo matching processing is performed on a plurality of captured images obtained by imaging an object from different viewpoints, and the position and orientation of the object in three dimensions are recognized. Specifically, in this stereo matching process, parts having similar characteristics are associated with each other from a plurality of captured images, and the position and orientation of the object in three dimensions are obtained from the parallax between these parts.

特開平08−201041号公報Japanese Patent Laid-Open No. 08-201041

ところで、機械部品や電子部品等の部品を組み立てる産業用ロボットに、上述のような技術を応用することが考えられる。具体例を挙げると、このような産業用ロボットとしては、部品を取り上げて移動させるアームを用いて部品を組み立てるものがある。この際、部品を確実に取り上げるには、三次元における部品の位置および姿勢を正確に把握する必要がある。そこで、上述のように、異なる視点から部品を撮像して得られる複数の撮像画像にステレオマッチング処理を施して、三次元における部品の位置・姿勢を認識し、この認識結果に基づいて産業用ロボットのアームを制御することが考えられる。   By the way, it is conceivable to apply the above-described technology to an industrial robot for assembling parts such as mechanical parts and electronic parts. As a specific example, there is an industrial robot that assembles parts using an arm that picks up and moves the parts. At this time, in order to reliably pick up the part, it is necessary to accurately grasp the position and orientation of the part in three dimensions. Therefore, as described above, a stereo matching process is performed on a plurality of captured images obtained by imaging components from different viewpoints to recognize the position and orientation of the components in three dimensions, and the industrial robot is based on the recognition result. It is conceivable to control the arm.

ただし、このような産業用ロボットは、複数の部品の中から認識対象部品を選び出して取り上げるといった動作を行うことが求められる。このような場合、ステレオマッチング処理のために撮像される各撮像画像には、認識対象部品と他の部品とが混在することになる。そのため、一の撮像画像中の認識対象部品と他の撮像画像中の他の部品とが互いに類似した特徴(例えば、エッジ形状)を有していること等に起因して、ステレオマッチング処理において互いに異なるこれらの部品間で誤って対応付けが行われるといった誤対応が発生するおそれがあった。そして、このような誤対応が発生すると、当然の事ながら、認識対象部品の三次元における位置および姿勢を正しく認識することはできない。   However, such an industrial robot is required to perform an operation of selecting and picking up a recognition target part from a plurality of parts. In such a case, the recognition target component and other components are mixed in each captured image captured for the stereo matching process. For this reason, the recognition target component in one captured image and the other components in another captured image have similar features (for example, edge shapes). There is a possibility that an erroneous correspondence such that these different parts are erroneously associated with each other may occur. If such an erroneous response occurs, naturally, the position and orientation of the recognition target component in three dimensions cannot be correctly recognized.

この発明は上記課題に鑑みなされたものであり、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能とする技術の提供を目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of suppressing the occurrence of erroneous correspondence such that association is performed between different objects in stereo matching processing.

この発明にかかる三次元位置・姿勢認識装置は、上記目的を達成するために、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得部と、画像取得部が取得した複数の撮像画像それぞれから、認識対象物が写る対象領域を抽出する対象領域抽出部と、対象領域抽出部が抽出した各撮像画像の対象領域に対してステレオマッチング処理を行って、三次元における認識対象物の位置および姿勢を認識する認識部とを備えることを特徴としている。   In order to achieve the above object, a three-dimensional position / posture recognition apparatus according to the present invention acquires an image acquisition unit that acquires a plurality of captured images obtained by imaging a plurality of objects including a recognition target object from different viewpoints, and an image acquisition unit A target region extraction unit that extracts a target region in which a recognition target object is captured from each of a plurality of captured images acquired by the camera, and a stereo matching process on the target region of each captured image extracted by the target region extraction unit, And a recognition unit for recognizing the position and orientation of the original recognition object.

この発明にかかる産業用ロボットは、上記目的を達成するために、部品を取って移動させる部品移動手段と、上記の三次元位置・姿勢認識装置と、三次元位置・姿勢認識装置により認識対象物としての部品の三次元での位置および姿勢を認識した結果に基づいて、部品移動手段を制御する制御手段とを備えることを特徴としている。   In order to achieve the above object, the industrial robot according to the present invention includes a component moving means for picking up and moving a component, the three-dimensional position / posture recognition device, and a recognition object by the three-dimensional position / posture recognition device. And a control unit that controls the component moving unit based on the result of recognizing the three-dimensional position and orientation of the component.

また、この発明にかかる三次元位置・姿勢認識方法は、上記目的を達成するために、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得工程と、画像取得工程で取得した複数の撮像画像それぞれから、認識対象物が写る対象領域を抽出する対象領域抽出工程と、対象領域抽出工程で抽出した各撮像画像の対象領域に対してステレオマッチング処理を行って、三次元における認識対象物の位置および姿勢を認識する認識工程とを備えることを特徴としている。   The three-dimensional position / posture recognition method according to the present invention includes an image acquisition step of acquiring a plurality of captured images obtained by capturing a plurality of objects including a recognition target object from different viewpoints, From each of the plurality of captured images acquired in the acquisition step, a target region extraction step for extracting a target region in which the recognition target object is captured, and a stereo matching process on the target region of each captured image extracted in the target region extraction step And a recognition step of recognizing the position and orientation of the recognition object in three dimensions.

また、この発明にかかるプログラムは、上記目的を達成するために、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得機能と、画像取得工程で取得した複数の撮像画像それぞれから、認識対象物が写る対象領域を抽出する対象領域抽出機能と、対象領域抽出工程で抽出した各撮像画像の対象領域に対してステレオマッチング処理を行って、三次元における認識対象物の位置および姿勢を認識する認識機能とを、コンピューターに実現させることを特徴としている。   In order to achieve the above object, the program according to the present invention includes an image acquisition function for acquiring a plurality of captured images obtained by capturing a plurality of objects including a recognition target object from different viewpoints, and a plurality of images acquired in an image acquisition step. The target area extraction function that extracts the target area in which the recognition target object is captured from each of the captured images, and the stereo matching processing is performed on the target area of each captured image extracted in the target area extraction step, and the recognition target in three dimensions It is characterized by having a computer realize a recognition function for recognizing the position and posture of an object.

また、この発明にかかる記録媒体は、上記目的を達成するために、上記のプログラムが記録されており、コンピューターにより読み取りが可能であることを特徴としている。   In order to achieve the above object, a recording medium according to the present invention records the above program and is readable by a computer.

このように構成された発明(三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体)では、認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像それぞれから、認識対象物が写る対象領域が抽出される。そして、複数の撮像画像それぞれの対象領域に対して、ステレオマッチング処理が実行される。つまり、この発明は、ステレオマッチング処理を行う領域を、撮像画像のうちの認識対象物を含む対象領域に限定している。そのため、対象領域から認識対象物以外の物体を外してステレオマッチング処理を実行することができ、その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能となる。   In the invention configured in this way (three-dimensional position / posture recognition device, industrial robot, three-dimensional position / posture recognition method, program, recording medium), a plurality of images obtained by imaging a plurality of objects including recognition objects from different viewpoints A target region in which the recognition target object is captured is extracted from each of the captured images. Then, a stereo matching process is executed for each target region of the plurality of captured images. That is, according to the present invention, the region where the stereo matching process is performed is limited to the target region including the recognition target object in the captured image. For this reason, it is possible to execute the stereo matching process by removing objects other than the recognition target object from the target region, and as a result, it is possible to suppress the occurrence of miscorrespondence such that associations are performed between different objects in the stereo matching process. Is possible.

なお、上述のような三次元位置・姿勢認識装置では、互いのエピポーラ線が平行な状態で複数の撮像画像を取得するように画像取得部を構成することができる。そして、このような構成では、エピポーラ線に直交する直交方向における位置は、複数の撮像画像の間で揃うこととなる。換言すれば、直交方向においては、認識対象物が存在する区間が複数の撮像画像間で揃う。したがって、直交方向において認識対象物が存在する区間については、複数の撮像画像のうちの一の撮像画像について特定すれば、すなわち複数の撮像画像のそれぞれについて特定したこととなる。そこで、認識対象物が存在する領域の抽出を簡便化するために、次のように構成しても良い。   In the three-dimensional position / posture recognition apparatus as described above, the image acquisition unit can be configured to acquire a plurality of captured images in a state where the epipolar lines are parallel to each other. In such a configuration, the positions in the orthogonal direction orthogonal to the epipolar line are aligned among the plurality of captured images. In other words, in the orthogonal direction, the section where the recognition target object exists is aligned between the plurality of captured images. Therefore, the section where the recognition target object exists in the orthogonal direction is identified for one of the plurality of captured images, that is, for each of the plurality of captured images. Therefore, in order to simplify the extraction of the region where the recognition target object exists, the following configuration may be used.

つまり、画像取得部は、互いのエピポーラ線が平行な状態で複数の撮像画像を取得し、対象領域抽出部は、複数の撮像画像のうちの一の撮像画像から、エピポーラ線に直交する直交方向における認識対象物の写る区間を特定し、複数の撮像画像それぞれにおいて区間と直交方向に一致する領域を対象領域として抽出するように、三次元位置・姿勢認識装置を構成しても良い。このように、一の撮像画像から直交方向における認識対象物の写る区間を特定し、複数の撮像画像それぞれにおいて当該区間と直交方向に一致する領域を対象領域として抽出することで、認識対象物が存在する対象領域の抽出を簡便に実行することができる。   That is, the image acquisition unit acquires a plurality of captured images in a state in which the epipolar lines are parallel to each other, and the target region extraction unit is orthogonal to the epipolar line from one of the plurality of captured images. The three-dimensional position / posture recognition apparatus may be configured such that a section where the recognition target object is captured is identified, and a region that coincides with the section in the orthogonal direction is extracted as a target region in each of the plurality of captured images. In this way, by identifying a section in which the recognition target object in the orthogonal direction is captured from one captured image, and extracting a region matching the section and the orthogonal direction as a target area in each of the plurality of captured images, the recognition target object is Extraction of existing target areas can be easily performed.

なお、このような構成では、エピポーラ線に平行な平行方向においては対象領域が限定されない。そのため、稀なケースではあるが、この平行方向に認識対象物と他の物体が並んだような場合には、これらの間で上述の誤対応が発生するおそれがある。   In such a configuration, the target region is not limited in the parallel direction parallel to the epipolar line. Therefore, although it is a rare case, when the recognition target object and another object are arranged in the parallel direction, there is a possibility that the above-described erroneous correspondence occurs between them.

そこで、対象領域抽出部は、撮像画像に写る各物体の複数の撮像画像間における対応関係に基づいて、エピポーラ線に平行な平行方向およびエピポーラ線に直交する直交方向の両方向において、各撮像画像で認識対象物が写る対象領域を特定することで、複数の撮像画像それぞれから対象領域を抽出するように、三次元位置・姿勢認識装置を構成しても良い。このような構成では、撮像画像に写る各物体の複数の撮像画像間における対応関係に基づいて、平行方向および直交方向の両方向において対象領域が特定される。したがって、これらの各方向において認識対象物以外の物体を対象領域から外すことができる。その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生をより確実に抑制することを可能となる。   Therefore, the target area extraction unit is configured to obtain each captured image in both the parallel direction parallel to the epipolar line and the orthogonal direction orthogonal to the epipolar line based on the correspondence between the captured images of each object captured in the captured image. The three-dimensional position / posture recognition apparatus may be configured to extract a target region from each of a plurality of captured images by specifying a target region in which a recognition target object is captured. In such a configuration, the target area is specified in both the parallel direction and the orthogonal direction based on the correspondence between the plurality of captured images of each object shown in the captured image. Therefore, objects other than the recognition target object can be removed from the target area in each of these directions. As a result, it is possible to more reliably suppress the occurrence of erroneous correspondence such that correspondence is performed between different objects in the stereo matching processing.

なお、ステレオマッチング処理は、複数の撮像画像間で対応点を探索することで実行される。そこで、認識部は、各撮像画像の対象領域に対するステレオマッチング処理において各撮像画像間の対応点を探索する探索範囲を、対象領域抽出部が抽出した対象領域の位置に関する情報に基づいて設定するように、三次元位置・姿勢認識装置を構成しても良い。このような構成では、探索範囲を適切に設定して、対応点の探索に要する処理時間を短縮することが可能となる。   Note that the stereo matching process is performed by searching for corresponding points between a plurality of captured images. Therefore, the recognition unit sets a search range for searching for corresponding points between the captured images in the stereo matching process for the target region of each captured image based on the information regarding the position of the target region extracted by the target region extraction unit. In addition, a three-dimensional position / posture recognition apparatus may be configured. In such a configuration, it is possible to appropriately set the search range and reduce the processing time required for searching for corresponding points.

なお、上述のような、平行方向および直交方向の両方向における対象領域の抽出や、その後のステレオマッチング処理は、各撮像画像のエピポーラ線を平行した状態で行うことで簡便に実行することができる。そこで、画像取得部は、互いのエピポーラ線が平行な状態で複数の撮像画像を取得するように、三次元位置・姿勢認識装置を構成しても良い。   Note that the extraction of the target region in both the parallel direction and the orthogonal direction as described above, and the subsequent stereo matching processing can be easily performed by performing the epipolar lines of each captured image in parallel. Therefore, the image acquisition unit may configure the three-dimensional position / posture recognition apparatus so as to acquire a plurality of captured images in a state where the epipolar lines are parallel to each other.

ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することが可能となる。   It is possible to suppress the occurrence of miscorrespondence such that association is performed between different objects in the stereo matching process.

本発明を適用可能な双腕ロボットの一例を模式的示す斜視図である。It is a perspective view which shows typically an example of the double arm robot which can apply this invention. 図1の双腕ロボットが具備する電気的構成を模式的に示すブロック図である。It is a block diagram which shows typically the electric constitution which the double arm robot of FIG. 1 comprises. 三次元認識で実行される動作のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the operation | movement performed by three-dimensional recognition. 第1実施形態における対象領域抽出処理のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the target area | region extraction process in 1st Embodiment. 図4の対象領域抽出処理で行われる各画像処理の一例を模式的に示した図である。It is the figure which showed typically an example of each image process performed by the target area | region extraction process of FIG. 第2実施形態における対象領域抽出処理のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the target area | region extraction process in 2nd Embodiment. 図6の対象領域抽出処理で行われる各画像処理の一例を模式的に示した図である。It is the figure which showed typically an example of each image processing performed by the object area | region extraction process of FIG. 第2実施形態でのステレオマッチング処理の一例を模式的に示した図である。It is the figure which showed typically an example of the stereo matching process in 2nd Embodiment.

第1実施形態
図1は、本発明を適用可能な双腕ロボットの一例を模式的示す斜視図である。図2は、図1の双腕ロボットが具備する電気的構成を模式的に示すブロック図である。図1および以下に示す図では、鉛直方向をz軸方向とするxyz直交座標軸を適宜示すこととする。
First Embodiment FIG. 1 is a perspective view schematically showing an example of a double-arm robot to which the present invention is applicable. FIG. 2 is a block diagram schematically showing the electrical configuration of the double-arm robot of FIG. In FIG. 1 and the drawings shown below, xyz orthogonal coordinate axes having the vertical direction as the z-axis direction are shown as appropriate.

双腕ロボット1は、ロボット本体2とこのロボット本体2の動作を制御するコンピューター3で構成される。ロボット本体2は、胴体部21に2本のアーム22を取り付けた概略構成を備える。詳しくは、各アーム22は、駆動モーターM23に接続された肩関節23を介して取り付けられている。そして、駆動モーターM23で肩関節23を回転させることで、アーム22を動かすことができる。   The double-arm robot 1 includes a robot body 2 and a computer 3 that controls the operation of the robot body 2. The robot body 2 has a schematic configuration in which two arms 22 are attached to the body portion 21. Specifically, each arm 22 is attached via a shoulder joint 23 connected to a drive motor M23. The arm 22 can be moved by rotating the shoulder joint 23 with the drive motor M23.

また、各アーム22の先端には、手首関節24を介してハンド25が取り付けられている。この手首関節24には駆動モーターM24が接続されている。したがって、駆動モーターM24で手首関節24を回転させることで、ハンド25の向きを変えることができる。さらに、ハンド25には駆動モーターM25が接続されており、駆動モーターM25によりハンド25を開閉させることができる。   A hand 25 is attached to the tip of each arm 22 via a wrist joint 24. A drive motor M24 is connected to the wrist joint 24. Therefore, the direction of the hand 25 can be changed by rotating the wrist joint 24 with the drive motor M24. Further, a drive motor M25 is connected to the hand 25, and the hand 25 can be opened and closed by the drive motor M25.

そして、双腕ロボット1は、駆動モーターM23〜M25を制御することで、部品トレイ9の上に並ぶ部品91(機械部品、電子部品)をハンド25で掴んで所定位置まで運んだり、ハンド25を回転させて部品91の姿勢を変えたり、ハンド25から部品91を放して所定位置に載置したりといった種々の動作を実行できる。つまり、このような各種動作を組み合わせて実行することで、双腕ロボット1は、部品91を組み立てることができる。   Then, the double-arm robot 1 controls the drive motors M23 to M25 so that the components 91 (mechanical components and electronic components) arranged on the component tray 9 are grasped by the hand 25 and carried to a predetermined position. Various operations such as changing the posture of the component 91 by rotating it or releasing the component 91 from the hand 25 and placing it at a predetermined position can be executed. That is, the two-arm robot 1 can assemble the component 91 by executing such various operations in combination.

また、2本のアーム22の一方には、2つの撮像カメラC1、C2が取り付けられている。これら撮像カメラC1、C2は一方のアーム22と一体的に移動しつつ、部品91を適宜撮像するものである。そして、後述するように、撮像カメラC1、C2により部品91を撮像した結果に基づいて、アーム22およびハンド25の動作が制御されて、部品91の組立が実行される。   Further, two imaging cameras C 1 and C 2 are attached to one of the two arms 22. These imaging cameras C1 and C2 image the component 91 as appropriate while moving integrally with one arm 22. As will be described later, the operations of the arm 22 and the hand 25 are controlled based on the result of imaging the component 91 by the imaging cameras C1 and C2, and the assembly of the component 91 is executed.

さらに、双腕ロボット1は、胴体部21から上方に延びる首部26と、首部26の先端に取り付けられた頭部27を有している。これら首部26および頭部27は、鉛直方向zおよび当該方向zを中心とする回転方向Drに一体的に移動できる。   Further, the double-arm robot 1 has a neck portion 26 extending upward from the body portion 21 and a head portion 27 attached to the tip of the neck portion 26. The neck portion 26 and the head portion 27 can move integrally in a vertical direction z and a rotation direction Dr with the direction z as a center.

このようなロボット本体2の動作は、コンピューター3により制御される。コンピューター3は、ドライバー4と、三次元認識部5とを具備している。ドライバー4は、コンピューター3により読み取りが可能な記録媒体6に記録されたプログラム7を読み出す機能を果たす。このような記録媒体6としては、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリー等の種々のものが挙げられる。そして、ドライバー4が記録媒体6から読み出したプログラム7に従って、三次元認識部5が三次元認識を行う。   Such an operation of the robot body 2 is controlled by the computer 3. The computer 3 includes a driver 4 and a three-dimensional recognition unit 5. The driver 4 functions to read the program 7 recorded on the recording medium 6 that can be read by the computer 3. Examples of such a recording medium 6 include various types such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a USB (Universal Serial Bus) memory. Then, according to the program 7 read out from the recording medium 6 by the driver 4, the three-dimensional recognition unit 5 performs three-dimensional recognition.

この三次元認識部5は、制御回路50によって他の構成回路51〜55を制御する概略構成を備えるものであり、コンピューター3に備えられたCPU(Central Processing Unit)およびメモリーにより実現される。続いて、三次元認識部5が実行する三次元認識の説明を通じて、三次元認識部5の構成について説明する。   The three-dimensional recognition unit 5 includes a schematic configuration in which the other configuration circuits 51 to 55 are controlled by the control circuit 50, and is realized by a CPU (Central Processing Unit) and a memory provided in the computer 3. Next, the configuration of the three-dimensional recognition unit 5 will be described through the description of the three-dimensional recognition performed by the three-dimensional recognition unit 5.

図3は、三次元認識で実行される動作のフローの一例を示すフローチャートである。三次元認識では、制御回路50が撮像カメラC1、C2に撮像指令を出力すると、撮像カメラC1、C2のそれぞれが部品91の画像を撮像して、制御回路50に出力する。こうして、異なる視点から部品91を撮像した2枚の撮像画像I1、I2が取得される(ステップS101)。   FIG. 3 is a flowchart showing an example of a flow of operations executed in the three-dimensional recognition. In the three-dimensional recognition, when the control circuit 50 outputs an imaging command to the imaging cameras C1 and C2, each of the imaging cameras C1 and C2 captures an image of the component 91 and outputs it to the control circuit 50. In this way, two captured images I1 and I2 obtained by capturing the component 91 from different viewpoints are acquired (step S101).

これら2枚の撮像画像I1、I2は、平行化回路51で平行化処理を受ける。この平行化回路51は、制御回路50から受け取った撮像画像I1、I2それぞれのエピポーラ線を平行にする平行化処理(画像変換)を撮像画像I1、I2に対して行うものである(ステップS102)。そして、平行化処理を受けた撮像画像I1、I2が対象領域抽出回路52へ出力される。   These two captured images I1 and I2 are subjected to parallelization processing by the parallelization circuit 51. The parallelization circuit 51 performs parallelization processing (image conversion) on the captured images I1 and I2 to make the epipolar lines of the captured images I1 and I2 received from the control circuit 50 parallel (step S102). . Then, the captured images I 1 and I 2 that have undergone the parallelization processing are output to the target region extraction circuit 52.

この対象領域抽出回路52は、受け取った撮像画像I1、I2から、ステレオマッチング処理を行う対象領域R1、R2(ROI:Region Of
Interest)を抽出する(ステップS103)。つまり、撮像画像I1、I2には、認識対象となる部品91を含む複数の部品91が混在している。そこで、この実施形態では、後のステレオマッチング処理を適切に実行するために、撮像画像I1、I2から認識対象部品91の写っている領域(対象領域R1、R2)が抽出される。対象領域抽出回路52が実行するこのような対象領域抽出処理の詳細は次のとおりである。
The target region extraction circuit 52 performs target matching R1, R2 (ROI: Region Of) for performing stereo matching processing from the received captured images I1, I2.
Interest) is extracted (step S103). That is, in the captured images I1 and I2, a plurality of components 91 including the component 91 to be recognized are mixed. Therefore, in this embodiment, in order to appropriately execute the subsequent stereo matching process, regions (target regions R1, R2) where the recognition target component 91 is captured are extracted from the captured images I1, I2. Details of such target area extraction processing executed by the target area extraction circuit 52 are as follows.

図4は、第1実施形態における対象領域抽出処理のフローの一例を示すフローチャートである。図5は、図4の対象領域抽出処理で行われる各画像処理の一例を模式的に示した図である。図5の各欄の左上では、当該欄内に示す画像処理が実行される図4のフローチャート中のステップが示されている。   FIG. 4 is a flowchart illustrating an example of a flow of target area extraction processing in the first embodiment. FIG. 5 is a diagram schematically illustrating an example of each image process performed in the target area extraction process of FIG. In the upper left of each column of FIG. 5, the steps in the flowchart of FIG. 4 in which the image processing shown in the column is executed are shown.

この対象領域抽出処理では、2枚の撮像画像I1、I2のうち一方の撮像画像I1に対してエッジ検出が実行されて、各部品91a〜91cのエッジが求められる(ステップS201)。そして、このエッジ検出結果に基づいて、部品91a〜91cの中から認識対象となる部品91aが特定される。   In this target area extraction processing, edge detection is performed on one of the two captured images I1 and I2, and the edges of the components 91a to 91c are obtained (step S201). Based on the edge detection result, the component 91a to be recognized is identified from the components 91a to 91c.

具体的には、二次元(xy平面)における認識対象部品91aのパターンPが対象領域抽出回路52に予め記憶されている。そして、ステップS201で求めた各部品91a〜91cのエッジとパターンPとを比較する二次元パターンマッチングが実行される(ステップS202)。その結果、パターンPと形状が適合しなかった部品91b、91cは認識対象部品でないと判断される一方、パターンPと形状が適合した部品91aが認識対象部品であると特定される(ステップS203)。   Specifically, the pattern P of the recognition target component 91 a in two dimensions (xy plane) is stored in advance in the target area extraction circuit 52. Then, two-dimensional pattern matching is performed for comparing the edges of the components 91a to 91c obtained in step S201 with the pattern P (step S202). As a result, it is determined that the parts 91b and 91c whose shape does not match the pattern P are not recognition target parts, while the part 91a whose shape matches the pattern P is specified as the recognition target part (step S203). .

続くステップS204は、撮像画像I1で認識対象部品91aの写る区間ΔYがY軸方向において特定される。そして、ステップS205では、2枚の撮像画像I1、I2のそれぞれにおいて、この区間ΔYとY軸方向に一致する領域が対象領域R1、R2として抽出される。以上が対象領域抽出処理(ステップS103)の一例である。   In the subsequent step S204, the section ΔY in which the recognition target component 91a is captured in the captured image I1 is specified in the Y-axis direction. In step S205, in each of the two captured images I1 and I2, areas that coincide with the section ΔY in the Y-axis direction are extracted as target areas R1 and R2. The above is an example of the target area extraction process (step S103).

図3に戻って、同図のフローチャートの説明を続ける。このように対象領域抽出回路52で抽出された対象領域R1、R2は、ステレオマッチング回路53に出力される。そして、ステレオマッチング回路53では、撮像画像I1、I2から抽出された対象領域R1、R2に対してのみステレオマッチング処理が実行される(ステップS104)。このステレオマッチング処理では、撮像画像I1の対象領域R1と撮像画像I2の対象領域R2の間で特徴の類似する点(微小領域)どうしが部品91の同一部分に対応するとして、互いに対応付けられる。   Returning to FIG. 3, the description of the flowchart of FIG. The target areas R1 and R2 extracted by the target area extraction circuit 52 in this way are output to the stereo matching circuit 53. Then, in the stereo matching circuit 53, the stereo matching process is executed only for the target areas R1 and R2 extracted from the captured images I1 and I2 (step S104). In this stereo matching process, points (microregions) having similar features between the target region R1 of the captured image I1 and the target region R2 of the captured image I2 are associated with each other assuming that they correspond to the same part of the component 91.

具体的に説明すると、対象領域R1中の注目点と、この注目点を通るエピポーラ線上にある対象領域R2中の各点との間で特徴の類似性が判断されて、対象領域R1の注目点と特徴の類似する点が対象領域R2中から探索される。ここでは撮像画像I1、I2のエピポーラ線が互いに平行であって、互いに対応する点のy座標は一致しているため、y座標が注目点と同じである対象領域R2の各点と注目点との間で特徴の類似性が判断される。その結果、対象領域R2の各点のうち最も類似性の高い点が、対象領域R1の注目点と対応付けられる。さらに、対象領域R1中の注目点を移動させながら同様の動作を繰り返すことで、対象領域R1の各点と対象領域R2の各点とが対応付けられる。   More specifically, feature similarity is determined between the target point in the target region R1 and each point in the target region R2 on the epipolar line passing through the target point, and the target point in the target region R1 Are searched for in the target region R2. Here, since the epipolar lines of the captured images I1 and I2 are parallel to each other and the y-coordinates of the corresponding points coincide with each other, each point of the target region R2 having the same y-coordinate as the attention point and the attention point The similarity of features is determined. As a result, the point having the highest similarity among the points in the target region R2 is associated with the point of interest in the target region R1. Further, by repeating the same operation while moving the target point in the target region R1, each point in the target region R1 and each point in the target region R2 are associated with each other.

そして、ステレオマッチング回路53は、こうして対応付けられた2つの点の間の視差pを算出する。具体的には、対象領域R1中の点とこれに対応する対象領域R2中の点との視差pが求められて、対象領域R1中の点に対して視差pが付与される。このようにして、対象領域R1中の各点(x,y)に対して視差pを付与した視差画像Isが生成される。言い換えれば、視差画像Isは、対象領域R1の各点(x,y)での視差p(x,y)を示す情報である。   Then, the stereo matching circuit 53 calculates the parallax p between the two points thus associated. Specifically, the parallax p between the point in the target region R1 and the corresponding point in the target region R2 is obtained, and the parallax p is given to the point in the target region R1. In this way, the parallax image Is with the parallax p added to each point (x, y) in the target region R1 is generated. In other words, the parallax image Is is information indicating the parallax p (x, y) at each point (x, y) of the target region R1.

こうして、ステレオマッチング回路53で生成された視差画像Isは、三次元情報生成回路54に出力される。この三次元情報生成回路54は、受け取った視差画像Isから三次元情報Sを生成する(ステップS106)。つまり、xy平面での位置(x,y)での視差pを示す情報Isが、当該位置(x,y)でのz成分を示す三次元情報Sに変換される。こうして、三次元の座標系(x,y,z)における位置を示す三次元情報Sが生成される。   Thus, the parallax image Is generated by the stereo matching circuit 53 is output to the three-dimensional information generation circuit 54. The three-dimensional information generation circuit 54 generates three-dimensional information S from the received parallax image Is (step S106). That is, the information Is indicating the parallax p at the position (x, y) on the xy plane is converted into the three-dimensional information S indicating the z component at the position (x, y). Thus, the three-dimensional information S indicating the position in the three-dimensional coordinate system (x, y, z) is generated.

なお、この三次元情報Sの変換にあたっては、撮像カメラC1、C2の焦点距離等の内部パラメーターや、撮像カメラC1、C2の位置関係を示す基礎行列Fが必要となる。この基礎行列Fについては、予め行われた撮像カメラC1、C2の校正時に求められて、三次元情報生成回路54に記憶されている。   Note that when converting the three-dimensional information S, internal parameters such as the focal lengths of the imaging cameras C1 and C2 and a basic matrix F indicating the positional relationship between the imaging cameras C1 and C2 are required. The basic matrix F is obtained when the imaging cameras C1 and C2 are calibrated in advance and is stored in the three-dimensional information generation circuit 54.

こうして、求められた部品91の三次元情報Sは、三次元情報生成回路54からモデルマッチング回路55へ出力される。そして、モデルマッチング回路55は、部品91aの三次元形状を示す三次元モデルと三次元情報Sとをマッチングさせるモデルマッチング処理を行う(ステップS106)。このとき使用される部品91aのモデルは、部品91aの外形を示すCAD(computer aided design)データから求められて、モデルマッチング回路55に予め記憶されている。   Thus, the obtained three-dimensional information S of the component 91 is output from the three-dimensional information generation circuit 54 to the model matching circuit 55. Then, the model matching circuit 55 performs a model matching process for matching the three-dimensional information indicating the three-dimensional shape of the component 91a with the three-dimensional information S (step S106). The model of the component 91a used at this time is obtained from CAD (computer aided design) data indicating the outer shape of the component 91a and is stored in the model matching circuit 55 in advance.

モデルマッチング処理の結果Rmは、モデルマッチング回路56から制御回路50に出力される。制御回路50は、モデルマッチング結果Rmに基づいて、三次元における部品91aの位置および姿勢を認識する三次元認識処理を実行する(ステップS107)。言い換えれば、ステップS107では、モデルマッチング結果Rmに基づいて、三次元における部品91aの位置および姿勢を示す三次元モデルが生成される(三次元モデリング)。そして、制御回路50は、部品91aの三次元モデルとロボット本体2の座標系に基づいて、各駆動モーターM23〜M25を制御して、双腕ロボット1による部品91aに対する動作を実行する。   The result Rm of the model matching process is output from the model matching circuit 56 to the control circuit 50. Based on the model matching result Rm, the control circuit 50 executes a three-dimensional recognition process for recognizing the position and orientation of the component 91a in three dimensions (step S107). In other words, in step S107, a three-dimensional model indicating the position and orientation of the component 91a in three dimensions is generated based on the model matching result Rm (three-dimensional modeling). Then, the control circuit 50 controls each of the drive motors M23 to M25 based on the three-dimensional model of the component 91a and the coordinate system of the robot body 2, and executes the operation on the component 91a by the double-arm robot 1.

以上のように構成された実施形態では、認識対象部品91aを含む複数の部品91a〜91cを異なる視点から撮像した複数の撮像画像I1、I2それぞれから、認識対象部品91aが写る対象領域R1、R2が抽出される。そして、複数の撮像画像I1、I2それぞれの対象領域R1、R2に対して、ステレオマッチング処理が実行される。つまり、この実施形態は、ステレオマッチング処理を行う領域R1、R2を、撮像画像I1、I2のうちの認識対象部品91aを含む対象領域R1に限定している。そのため、対象領域R1から認識対象部品91a以外の部品91b、91cを外してステレオマッチング処理を実行することができ、その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能となる。   In the embodiment configured as described above, the target regions R1, R2 in which the recognition target component 91a is captured from the plurality of captured images I1, I2 obtained by capturing the plurality of components 91a to 91c including the recognition target component 91a from different viewpoints. Is extracted. Then, a stereo matching process is performed on the target areas R1 and R2 of the plurality of captured images I1 and I2. That is, in this embodiment, the regions R1 and R2 for performing the stereo matching process are limited to the target region R1 including the recognition target component 91a in the captured images I1 and I2. For this reason, it is possible to execute the stereo matching process by removing the components 91b and 91c other than the recognition target component 91a from the target region R1, and as a result, the correspondence between different objects is performed in the stereo matching process. Generation | occurrence | production can be suppressed.

また、この実施形態では、ステレオマッチング処理を実行する領域が、撮像画像I1、I2のうち認識対象部品91aの写っている対象領域R1、R2に限定される。したがって、ステレオマッチング処理に要する時間を短縮できるといった効果も奏される。   In this embodiment, the area where the stereo matching process is executed is limited to the target areas R1 and R2 in which the recognition target component 91a is captured in the captured images I1 and I2. Therefore, an effect that the time required for the stereo matching process can be shortened is also achieved.

なお、この実施形態では、制御回路50および平行化回路51で構成された画像取得部は、エピポーラ線が平行な状態で複数の撮像画像I1、I2を取得している。そして、このような構成では、エピポーラ線に直交するY軸方向における位置は、複数の撮像画像I1、I2の間で揃うこととなる。換言すれば、Y軸方向においては、認識対象部品91aが存在する区間ΔYが複数の撮像画像I1、I2間で揃う。したがって、Y軸方向において認識対象部品91aが存在する区間ΔYについては、複数の撮像画像I1、I2のうちの一の撮像画像I1について特定すれば、すなわち複数の撮像画像I1、I2のそれぞれについて特定したこととなる。そこで、この実施形態では、認識対象部品91aが存在する領域R1、R2の抽出を簡便化するために、次のような構成を有する。   In this embodiment, the image acquisition unit configured by the control circuit 50 and the parallelizing circuit 51 acquires a plurality of captured images I1 and I2 with the epipolar lines in parallel. In such a configuration, the positions in the Y-axis direction orthogonal to the epipolar line are aligned between the plurality of captured images I1 and I2. In other words, in the Y-axis direction, the section ΔY where the recognition target component 91a is present is aligned between the plurality of captured images I1 and I2. Therefore, regarding the section ΔY where the recognition target component 91a exists in the Y-axis direction, if one of the plurality of captured images I1 and I2 is specified, that is, each of the plurality of captured images I1 and I2 is specified. It will be done. Therefore, in this embodiment, in order to simplify the extraction of the regions R1 and R2 where the recognition target component 91a exists, the following configuration is provided.

つまり、対象領域抽出回路52では、複数の撮像画像I1、I2のうちの一の撮像画像I1から、Y軸方向における認識対象部品91aの写る区間ΔYが特定される(ステップS204)。そして、複数の撮像画像I1、I2それぞれにおいて区間ΔYとY軸方向に一致する領域が対象領域R1、R2として抽出される(ステップS205)。このように、一の撮像画像I1からY軸方向における認識対象部品91aの写る区間ΔYを特定し、複数の撮像画像I1、I2それぞれにおいて当該区間ΔYとY軸方向に一致する領域を対象領域R1、R2として抽出することで、認識対象部品91aが存在する対象領域R1、R2の抽出を簡便に実行することができる。   That is, in the target area extraction circuit 52, the section ΔY in which the recognition target component 91a is captured in the Y-axis direction is specified from one of the plurality of captured images I1 and I2 (step S204). Then, in each of the plurality of captured images I1 and I2, regions that match the section ΔY and the Y-axis direction are extracted as target regions R1 and R2 (step S205). In this way, the section ΔY in which the recognition target component 91a is captured in the Y-axis direction is identified from one captured image I1, and the areas that match the section ΔY and the Y-axis direction in each of the plurality of captured images I1 and I2 are the target area R1. By extracting as R2, it is possible to easily extract the target areas R1, R2 where the recognition target component 91a exists.

第2実施形態
第1実施形態では、エピポーラ線に平行なx軸方向においては対象領域R1、R2が限定されない。そのため、稀なケースではあるが、このx軸方向に認識対象部品91aと他の部品91b、91cが並んだような場合には、これらの間で上述の誤対応が発生するおそれがある。そこで、以下に説明する第2実施形態は、y軸方向のみならずx軸方向にも対象領域R1、R2を限定する構成を備える。
Second Embodiment In the first embodiment, the target regions R1 and R2 are not limited in the x-axis direction parallel to the epipolar line. Therefore, although it is a rare case, when the recognition target component 91a and the other components 91b and 91c are arranged in the x-axis direction, there is a possibility that the above-described erroneous correspondence occurs between them. Therefore, the second embodiment described below includes a configuration that limits the target regions R1 and R2 not only in the y-axis direction but also in the x-axis direction.

第2実施形態の三次元認識においても、基本的には図3に示したフローが実行される。したがって、第1実施形態と同様に、制御回路50が撮像カメラC1、C2を用いて、異なる視点から部品91を撮像した2枚の撮像画像I1、I2を取得する(ステップS101)。そして、平行化回路51がこれらの撮像画像I1、I2に対して平行化処理を実行して、撮像画像I1、I2それぞれのエピポーラ線を平行にする(ステップS102)。ただし、続くステップS103で実行される対象領域抽出処理の内容が、第1実施形態と異なっている。   Also in the three-dimensional recognition of the second embodiment, the flow shown in FIG. 3 is basically executed. Therefore, as in the first embodiment, the control circuit 50 uses the imaging cameras C1 and C2 to acquire two captured images I1 and I2 obtained by imaging the component 91 from different viewpoints (step S101). Then, the parallelization circuit 51 executes parallelization processing on these captured images I1 and I2 to make the epipolar lines of the captured images I1 and I2 parallel (step S102). However, the contents of the target area extraction process executed in subsequent step S103 are different from those in the first embodiment.

図6は、第2実施形態における対象領域抽出処理のフローの一例を示すフローチャートである。図7は、図6の対象領域抽出処理で行われる各画像処理の一例を模式的に示した図である。図7の各欄の左上では、当該欄内に示す画像処理が実行される図6のフローチャート中のステップが示されている。   FIG. 6 is a flowchart illustrating an example of a flow of target area extraction processing in the second embodiment. FIG. 7 is a diagram schematically illustrating an example of each image processing performed in the target region extraction processing of FIG. In the upper left of each column of FIG. 7, steps in the flowchart of FIG. 6 in which the image processing shown in the column is executed are shown.

この対象領域抽出処理では、2枚の撮像画像I1、I2それぞれに対してエッジ検出が実行されて、各部品91a〜91cのエッジが求められる(ステップS301)。続くステップS302では、第1実施形態でのステップS202と同様の二次元パターンマッチングが撮像画像I1に対して実行されて、撮像画像I1において認識対象部品91aが確認される。   In this target area extraction processing, edge detection is performed on each of the two captured images I1 and I2, and the edges of the components 91a to 91c are obtained (step S301). In subsequent step S302, the same two-dimensional pattern matching as in step S202 in the first embodiment is performed on the captured image I1, and the recognition target component 91a is confirmed in the captured image I1.

ステップS303では、撮像画像I1、I2のそれぞれにおいて、各部品91a〜91cのエッジの幾何重心が算出される。これによって、撮像画像I1において3個の幾何重心G11、G12、G13が求められるとともに、撮像画像I2において3個の幾何重心G21、G22、G23が求められる。そして、これら幾何重心の位置に応じて、撮像画像I1、I2の各部品に対してラベルL1、L2、…が付される(ステップS304)。   In step S303, the geometric gravity center of the edge of each component 91a-91c is calculated in each of the captured images I1, I2. As a result, three geometric centroids G11, G12, and G13 are obtained in the captured image I1, and three geometric centroids G21, G22, and G23 are obtained in the captured image I2. Then, labels L1, L2,... Are attached to the parts of the captured images I1, I2 according to the positions of these geometric centroids (step S304).

具体的には、図7の例では、撮像画像I1、I2それぞれにおいて、幾何重心のx座標の小さい部品91a、91b、91cから順番に、ラベルL1、L2、L3が付されている。なお、図7の例は該当しないが、幾何重心のx座標が同じ部品が複数存在する場合には、これらの部品については、例えば幾何重心のy座標の小さい部品から順にラベルを付せば良い。こうして、撮像画像I1の各部品に対して順にラベルL1、L2、L3が付されるとともに、撮像画像I2の各部品に対して順にラベルL1、L2、L3が付される。これによって、2枚の撮像画像I1、I2それぞれに写る同一部品に対して、同一のラベルが付されることとなる。   Specifically, in the example of FIG. 7, labels L1, L2, and L3 are attached in order from the components 91a, 91b, and 91c having the smallest x coordinate of the geometric center of gravity in the captured images I1 and I2, respectively. Although the example of FIG. 7 is not applicable, if there are a plurality of parts having the same geometric center of gravity x-coordinate, these parts may be labeled in order, for example, from the part of the geometric center of gravity having the smallest y-coordinate. . Thus, the labels L1, L2, and L3 are sequentially attached to the components of the captured image I1, and the labels L1, L2, and L3 are sequentially attached to the components of the captured image I2. As a result, the same label is attached to the same component shown in each of the two captured images I1 and I2.

このようなラベリング結果に基づいて、撮像画像I1中の認識対象部品91aと同じラベルL1が付された部品を撮像画像I2中から見つけ出すことで、撮像画像I2中の認識対象部品91aを特定することができる。こうして、撮像画像I1、I2中のそれぞれにおいて、認識対象部品91aを特定することができる(ステップS305)。つまり、この実施形態では、撮像画像I1、I2に写る各部品91a、91b、91cの2枚の撮像画像I1、I2間における対応関係に基づいて、撮像画像I1、I2それぞれにおいて認識対象部品91aが特定される。   Based on such a labeling result, the recognition target component 91a in the captured image I2 is identified by finding the component with the same label L1 as the recognition target component 91a in the captured image I1 from the captured image I2. Can do. In this way, the recognition target component 91a can be specified in each of the captured images I1 and I2 (step S305). That is, in this embodiment, the recognition target component 91a in each of the captured images I1 and I2 is based on the correspondence between the two captured images I1 and I2 of the components 91a, 91b and 91c shown in the captured images I1 and I2. Identified.

そして、ステップS306では、撮像画像I1、I2のそれぞれから、認識対象部品91aが写る対象領域R1、R2が抽出される(ステップS306)。この対象領域R1、R2は、その内部に認識対象部品91aを完全に包含するように設定され、認識対象部品91aの輪郭と一致する外形、あるいは認識対象部品91aの輪郭に対して若干大きい外形を有する。これによって、エピポーラ線に直交するy軸方向のみならずエピポーラ線に平行なx軸方向においても、撮像画像I1、I2で認識対象部品91aの写る対象領域R1、R2が特定される。換言すれば、撮像画像I1、I2において、認識対象部品91a以外の部品91b、91cは、x軸方向およびy軸方向のいずれの方向においても対象領域R1、R2から外される。   In step S306, target regions R1 and R2 in which the recognition target component 91a is captured are extracted from the captured images I1 and I2 (step S306). The target regions R1 and R2 are set so as to completely include the recognition target component 91a therein, and have a contour that matches the contour of the recognition target component 91a or a contour that is slightly larger than the contour of the recognition target component 91a. Have. As a result, the target regions R1, R2 in which the recognition target component 91a is captured are specified in the captured images I1, I2 not only in the y-axis direction orthogonal to the epipolar line but also in the x-axis direction parallel to the epipolar line. In other words, in the captured images I1 and I2, the components 91b and 91c other than the recognition target component 91a are excluded from the target regions R1 and R2 in both the x-axis direction and the y-axis direction.

このように、この実施形態では、撮像画像I1、I2に写る部品91a、91b、91cの2枚の撮像画像I1、I2間における対応関係に基づいて、エピポーラ線に平行なx軸方向およびエピポーラ線に直交するy軸方向の両方向において、各撮像画像I1、I2で認識対象部品91aが写る対象領域R1、R2を特定し、これらを抽出している。以上が第2実施形態における対象領域抽出処理(ステップS103)の一例である。   Thus, in this embodiment, the x-axis direction and the epipolar line parallel to the epipolar line are based on the correspondence between the two captured images I1 and I2 of the components 91a, 91b and 91c shown in the captured images I1 and I2. In both directions of the y-axis direction orthogonal to the target regions R1 and R2 in which the recognition target component 91a appears in the captured images I1 and I2, these are extracted. The above is an example of the target area extraction process (step S103) in the second embodiment.

図3を用いて、対象領域抽出処理に続くフローの説明を続ける。このように対象領域抽出回路52で抽出された対象領域R1、R2は、ステレオマッチング回路53に出力される。そして、ステレオマッチング回路53では、撮像画像I1、I2から抽出された対象領域R1、R2に対してのみステレオマッチング処理が実行される(ステップS104)。   The description of the flow following the target area extraction processing will be continued using FIG. The target areas R1 and R2 extracted by the target area extraction circuit 52 in this way are output to the stereo matching circuit 53. Then, in the stereo matching circuit 53, the stereo matching process is executed only for the target areas R1 and R2 extracted from the captured images I1 and I2 (step S104).

図8は、第2実施形態でのステレオマッチング処理の一例を模式的に示した図である。第2実施形態のステレオマッチング処理では、対象領域R1中の注目点Nに対応する対象領域R2中の点をエピポーラ線E上で探索するという点では、第1実施形態のステレオマッチング処理と共通する。ただし、第2実施形態では、ステレオマッチング処理において対応点を探索する探索範囲Rsが、対象領域R1、R2の抽出結果に基づいて決定される。   FIG. 8 is a diagram schematically illustrating an example of a stereo matching process in the second embodiment. The stereo matching process of the second embodiment is common to the stereo matching process of the first embodiment in that a point in the target region R2 corresponding to the target point N in the target region R1 is searched on the epipolar line E. . However, in the second embodiment, the search range Rs for searching for the corresponding points in the stereo matching process is determined based on the extraction results of the target areas R1 and R2.

具体的には、このステレオマッチング処理では、対象領域R1のx軸方向両端のx座標α1、β1と、対象領域R2のx軸方向両端のx座標α2、β2が求められる。そして、対象領域R1中の注目点Nのx座標をγとしたとき、x座標γを起点として距離Δx1だけ離れた位置から距離Δx2だけ離れた位置までが、対象領域R2における探索範囲Rsとして設定される。ここで、距離Δx1、Δx2
Δx1=min(α2−α1、β2−β1)
Δx2=max(α2−α1、β2−β1)
で与えられる。また、min(α2−α1、β2−β1)は、(α2−α1)および(β2−β1)のうちの最小値を意味し、max(α2−α1、β2−β1)は、(α2−α1)および(β2−β1)のうちの最大値を意味する。
Specifically, in this stereo matching process, x coordinates α1, β1 at both ends of the target region R1 in the x axis direction and x coordinates α2, β2 at both ends of the target region R2 in the x axis direction are obtained. Then, when the x coordinate of the target point N in the target area R1 is γ, the search distance Rs in the target area R2 is set from the position separated by the distance Δx1 starting from the x coordinate γ to the position separated by the distance Δx2. Is done. Here, the distances Δx1, Δx2
Δx1 = min (α2−α1, β2−β1)
Δx2 = max (α2−α1, β2−β1)
Given in. Also, min (α2-α1, β2-β1) means the minimum value of (α2-α1) and (β2-β1), and max (α2-α1, β2-β1) is (α2-α1 ) And (β2-β1).

そして、対象領域R1での注目点Nに対応する点が、対象領域R2に対して設定された探索範囲Rsから見つけ出されて、注目点Nに対応付けられる。この対応付けは、対象領域R1で注目点Nを移動させながら繰り返し実行される。これによって、対象領域R1の各点と対象領域R2の各点が対応付けられて、対象領域R1、R2に対するステレオマッチング処理が実行される。   A point corresponding to the target point N in the target region R1 is found from the search range Rs set for the target region R2, and is associated with the target point N. This association is repeatedly executed while moving the attention point N in the target region R1. Thereby, each point of the target region R1 and each point of the target region R2 are associated with each other, and the stereo matching process for the target regions R1 and R2 is executed.

このステレオマッチング処理(ステップS104)が完了すると、第1実施形態と同様に、図3に示すステップS105〜ステップS107が実行されて、三次元における部品91aの位置および姿勢が認識される。そして、制御回路50は、この認識結果に基づいて、各駆動モーターM23〜M25を制御して、双腕ロボット1による部品91aに対する動作を実行する。   When this stereo matching process (step S104) is completed, as in the first embodiment, steps S105 to S107 shown in FIG. 3 are executed to recognize the position and orientation of the component 91a in three dimensions. Then, the control circuit 50 controls the drive motors M23 to M25 based on the recognition result, and executes the operation on the component 91a by the double-arm robot 1.

以上のように構成された実施形態では、認識対象部品91aを含む複数の部品91a〜91cを異なる視点から撮像した複数の撮像画像I1、I2それぞれから、認識対象部品91aが写る対象領域R1、R2が抽出される。そして、複数の撮像画像I1、I2それぞれの対象領域R1、R2に対して、ステレオマッチング処理が実行される。つまり、この実施形態は、ステレオマッチング処理を行う領域R1、R2を、撮像画像I1、I2のうちの認識対象部品91aを含む対象領域R1に限定している。そのため、対象領域R1から認識対象部品91a以外の部品91b、91cを外してステレオマッチング処理を実行することができ、その結果、ステレオマッチング処理において互いに異なる物体間で対応付けが行われるといった誤対応の発生を抑制することを可能となる。   In the embodiment configured as described above, the target regions R1, R2 in which the recognition target component 91a is captured from the plurality of captured images I1, I2 obtained by capturing the plurality of components 91a to 91c including the recognition target component 91a from different viewpoints. Is extracted. Then, a stereo matching process is performed on the target areas R1 and R2 of the plurality of captured images I1 and I2. That is, in this embodiment, the regions R1 and R2 for performing the stereo matching process are limited to the target region R1 including the recognition target component 91a in the captured images I1 and I2. For this reason, it is possible to execute the stereo matching process by removing the components 91b and 91c other than the recognition target component 91a from the target region R1, and as a result, the correspondence between different objects is performed in the stereo matching process. Generation | occurrence | production can be suppressed.

また、この実施形態では、ステレオマッチング処理を実行する領域が、撮像画像I1、I2のうち認識対象部品91aの写っている対象領域R1、R2に限定される。したがって、ステレオマッチング処理に要する時間を短縮できるといった効果も奏される。   In this embodiment, the area where the stereo matching process is executed is limited to the target areas R1 and R2 in which the recognition target component 91a is captured in the captured images I1 and I2. Therefore, an effect that the time required for the stereo matching process can be shortened is also achieved.

また、この実施形態では、撮像画像I1、I2に写る部品91a〜91cの複数の撮像画像I1、I2間における対応関係に基づいて、エピポーラ線に平行なx軸方向およびエピポーラ線に直交するy軸方向の両方向において、各撮像画像I1、I2で認識対象部品91aが写る対象領域R1、R2を特定することで、複数の撮像画像I1、I2それぞれから対象領域R1、R2を抽出している。つまり、撮像画像I1、I2に写る各部品91a〜91cの複数の撮像画像I1、I2間における対応関係に基づいて、x軸方向およびy軸方向の両方向において対象領域R1、R2が特定される。したがって、これらの各方向において認識対象部品91a以外の部品91b、91cを対象領域R1、R2から外すことができる。その結果、ステレオマッチング処理において互いに異なる部品間で対応付けが行われるといった誤対応の発生をより確実に抑制することを可能となる。   In this embodiment, the x-axis direction parallel to the epipolar line and the y axis orthogonal to the epipolar line are based on the correspondence between the plurality of captured images I1 and I2 of the components 91a to 91c shown in the captured images I1 and I2. In both directions, the target regions R1 and R2 in which the recognition target component 91a appears in the captured images I1 and I2 are identified, and the target regions R1 and R2 are extracted from the plurality of captured images I1 and I2, respectively. That is, the target regions R1 and R2 are specified in both the x-axis direction and the y-axis direction based on the correspondence relationship between the plurality of captured images I1 and I2 of the components 91a to 91c shown in the captured images I1 and I2. Therefore, the components 91b and 91c other than the recognition target component 91a can be removed from the target regions R1 and R2 in each of these directions. As a result, it is possible to more reliably suppress the occurrence of erroneous correspondence such that correspondence is performed between different parts in the stereo matching processing.

なお、上述のとおり、ステレオマッチング処理は、複数の撮像画像I1、I2間で対応点を探索することで実行される。そこで、この実施形態では、各撮像画像I1、I2の対象領域R1、R2に対するステレオマッチング処理において各撮像画像I1、I2間の対応点を探索する探索範囲Rsを、抽出された対象領域R1、R2の位置に関する情報に基づいて設定されている。このような構成では、探索範囲Rsを適切に設定して、対応点の探索に要する処理時間を短縮することが可能となる。   As described above, the stereo matching process is executed by searching for a corresponding point between the plurality of captured images I1 and I2. Accordingly, in this embodiment, the search range Rs for searching for corresponding points between the captured images I1 and I2 in the stereo matching processing for the target regions R1 and R2 of the captured images I1 and I2 is extracted as the extracted target regions R1 and R2. It is set based on the information regarding the position of. In such a configuration, it is possible to appropriately set the search range Rs and reduce the processing time required for searching for corresponding points.

その他
このように上記実施形態では、撮像カメラC1、C2と三次元認識部5で構成されるステレオ撮像系SS(図2)が本発明の「三次元位置・姿勢認識装置」に相当し、双腕ロボット1が本発明の「産業用ロボット」に相当し、コンピューター3が本発明の「コンピューター」に相当し、記録媒体6が本発明の「記録媒体」に相当し、プログラム7が本発明の「プログラム」に相当する。また、撮像カメラC1、C2、制御回路50および平行化回路51が本発明の「画像取得部」として機能し、対象領域抽出回路52が本発明の「対象領域抽出部」に相当し、ステレオマッチング回路53、三次元情報生成回路54、モデルマッチング回路55および制御回路50が本発明の「認識部」に相当する。また、アーム22およびハンド25が本発明の「部品移動手段」に相当し、制御回路50が本発明の「制御手段」に相当する。また、ステップS101、S102が本発明の「画像取得工程」に相当し、ステップS103が本発明の「対象領域抽出工程」に相当し、ステップS104〜ステップS107が本発明の「認識工程」に相当する。また、部品91aが本発明の「認識対象物」に相当し、部品91a〜91cが本発明の「物体」に相当し、撮像画像I1、I2が本発明の「撮像画像」に相当し、対象領域R1、R2が本発明の「対象領域」に相当する。また、x軸方向が本発明の「平行方向」に相当し、y軸方向が本発明の「直交方向」に相当する。
Others As described above, in the above-described embodiment, the stereo imaging system SS (FIG. 2) including the imaging cameras C1 and C2 and the three-dimensional recognition unit 5 corresponds to the “three-dimensional position / posture recognition device” of the present invention. The arm robot 1 corresponds to the “industrial robot” of the present invention, the computer 3 corresponds to the “computer” of the present invention, the recording medium 6 corresponds to the “recording medium” of the present invention, and the program 7 corresponds to the present invention. Corresponds to "Program". The imaging cameras C1, C2, the control circuit 50, and the parallelizing circuit 51 function as the “image acquisition unit” of the present invention, and the target region extraction circuit 52 corresponds to the “target region extraction unit” of the present invention. The circuit 53, the three-dimensional information generation circuit 54, the model matching circuit 55, and the control circuit 50 correspond to the “recognition unit” of the present invention. Further, the arm 22 and the hand 25 correspond to “component moving means” of the present invention, and the control circuit 50 corresponds to “control means” of the present invention. Steps S101 and S102 correspond to the “image acquisition process” of the present invention, step S103 corresponds to the “target region extraction process” of the present invention, and steps S104 to S107 correspond to the “recognition process” of the present invention. To do. The component 91a corresponds to the “recognition target object” of the present invention, the components 91a to 91c correspond to the “object” of the present invention, the captured images I1 and I2 correspond to the “captured image” of the present invention, and the target Regions R1 and R2 correspond to the “target region” of the present invention. The x-axis direction corresponds to the “parallel direction” of the present invention, and the y-axis direction corresponds to the “orthogonal direction” of the present invention.

なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態では、二次元パターンマッチング(ステップS202、S302)によって、撮像画像I1から認識対象部品91aが確認されていた。この二次元パターンマッチングは部品91aのエッジに対するパターンマッチングを行うものであった、しかしながら、撮像画像I1から認識対象部品91aを確認する方法についても種々の変形が可能である。   The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. For example, in the above embodiment, the recognition target component 91a is confirmed from the captured image I1 by two-dimensional pattern matching (steps S202 and S302). This two-dimensional pattern matching is to perform pattern matching for the edge of the component 91a. However, various modifications can be made to the method for confirming the recognition target component 91a from the captured image I1.

具体的には、各部品91a〜91cの面積や輪郭の長さの違いによって、部品91a〜91cから認識対象部品91aを確認しても良い。あるいは、色の違いによって部品91a〜91cを識別できる場合は、撮像カメラC1、C2としてカラーカメラを用いて、撮像画像I1での色に基づいて認識対象部品91aを確認しても良い。さらには、部品91a〜91cそれぞれを撮像画像I1から抽出した上で、これらの抽出結果の中で例えばマッチングスコアの最も高いものを選択しても良い。あるいは、マッチングスコアの高い順にソーティングする等によってこれらの抽出結果に対して系列付けを実施して、それぞれについて三次元認識を行った後に、三次元認識のマッチング率(認識率)が高いものを選択しても良い。   Specifically, the recognition target component 91a may be confirmed from the components 91a to 91c based on differences in the areas and contour lengths of the components 91a to 91c. Alternatively, when the components 91a to 91c can be identified by the color difference, the recognition target component 91a may be confirmed based on the color in the captured image I1 using a color camera as the imaging cameras C1 and C2. Furthermore, after extracting each of the components 91a to 91c from the captured image I1, for example, the one with the highest matching score may be selected from these extraction results. Alternatively, after sorting these extracted results by sorting in descending order of matching score, etc., and performing 3D recognition for each, select the one with the highest 3D recognition matching rate (recognition rate) You may do it.

また、上記の第2実施形態では、対象領域R1での注目点Nに対応する点を対象領域R2から探索する際の範囲が探索範囲Rsに限定されていた。しかしながら、このような探索範囲の限定を行わずに、対象領域R1での注目点Nに対応する点を対象領域R2の全体から探索するように構成しても良い。   In the second embodiment, the range when searching for a point corresponding to the point of interest N in the target region R1 from the target region R2 is limited to the search range Rs. However, the search range may be searched from the entire target region R2 without limiting the search range.

また、上記実施形態では、三次元認識部5は、コンピューター3の内蔵するCPUやメモリーで構成されていた。しかしながら、三次元認識部5は、FPGA(Field-Programmable Gate Array)等のプログラマブルロジックデバイスや、ディスクリートな回路素子を組み合わせて構成されても良い。   Moreover, in the said embodiment, the three-dimensional recognition part 5 was comprised by CPU and memory which the computer 3 built in. However, the three-dimensional recognition unit 5 may be configured by combining a programmable logic device such as an FPGA (Field-Programmable Gate Array) or a discrete circuit element.

また、上述のエッジ抽出(ステップS201、S301)についても種々の方法により実行することができ、例えば、Roberts、Sobel、Prewitt等の演算子を用いた方法を採用可能である。   Also, the above-described edge extraction (steps S201 and S301) can be executed by various methods. For example, a method using operators such as Roberts, Sobel, and Prewitt can be employed.

また、撮像カメラC1、C2の個数や、取り付け位置等についても上述したものに限られず、適宜変更可能である。   Further, the number of the imaging cameras C1, C2 and the attachment positions are not limited to those described above, and can be changed as appropriate.

また、上記実施形態では、撮像画像I1、I2中に3個の部品91a〜91cが写っている場合が例示されていた。しかしながら、撮像画像I1、I2中に3個以外の個数の部品が写っている場合に対しても本発明を適用可能である。   Moreover, in the said embodiment, the case where the three components 91a-91c were reflected in the captured images I1 and I2 was illustrated. However, the present invention can also be applied to a case where a number of parts other than three are shown in the captured images I1 and I2.

また、三次元における部品91の位置および姿勢を求める方法についても、上述のモデルマッチングに限られず、適宜変更可能である。   The method for obtaining the position and orientation of the component 91 in three dimensions is not limited to the above-described model matching, and can be changed as appropriate.

また、本発明を適用可能な産業用ロボットは、上述の双腕ロボット1に限られない。しがたって、その他の構成を具備するロボットに対して本発明を適用することもできる。   The industrial robot to which the present invention can be applied is not limited to the above-described double-arm robot 1. Therefore, the present invention can also be applied to robots having other configurations.

この発明は、三次元での画像認識技術の全般に対して適用可能であり、特に産業用ロボットにおいて三次元における部品の位置・姿勢を認識する技術に好適に適用することができる。   The present invention can be applied to all three-dimensional image recognition techniques, and can be suitably applied particularly to a technique for recognizing the position and orientation of a part in three dimensions in an industrial robot.

1…双腕ロボット
2…ロボット本体
22…アーム
25…ハンド
3…コンピューター
4…ドライバー
5…三次元認識部
50…制御回路
51…平行化回路
52…対象領域抽出回路
53…ステレオマッチング回路
54…三次元情報生成回路
55…モデルマッチング回路
6…記録媒体
7…プログラム
91,91a,91b,91c…部品
C1,C2…撮像カメラ
I1,I2…撮像画像
R1,R2…対象領域
Is…視差画像
E…エッジE
S…三次元情報S
SS…ステレオ撮像系
DESCRIPTION OF SYMBOLS 1 ... Dual arm robot 2 ... Robot main body 22 ... Arm 25 ... Hand 3 ... Computer 4 ... Driver 5 ... Three-dimensional recognition part 50 ... Control circuit 51 ... Parallelizing circuit 52 ... Target area extraction circuit 53 ... Stereo matching circuit 54 ... Tertiary Original information generation circuit 55 ... Model matching circuit 6 ... Recording medium 7 ... Programs 91, 91a, 91b, 91c ... Parts C1, C2 ... Imaging cameras I1, I2 ... Imaging images R1, R2 ... Target area Is ... Parallax image E ... Edge E
S ... 3D information S
SS ... Stereo imaging system

Claims (9)

認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記複数の撮像画像それぞれから、前記認識対象物が写る対象領域を抽出する対象領域抽出部と、
前記対象領域抽出部が抽出した前記各撮像画像の前記対象領域に対してステレオマッチング処理を行って、三次元における前記認識対象物の位置および姿勢を認識する認識部と
を備えることを特徴とする三次元位置・姿勢認識装置。
An image acquisition unit for acquiring a plurality of captured images obtained by imaging a plurality of objects including a recognition target object from different viewpoints;
A target region extraction unit that extracts a target region in which the recognition target object is captured from each of the plurality of captured images acquired by the image acquisition unit;
And a recognition unit that performs stereo matching processing on the target region of each captured image extracted by the target region extraction unit to recognize the position and orientation of the recognition target in three dimensions. 3D position and orientation recognition device.
前記画像取得部は、互いのエピポーラ線が平行な状態で前記複数の撮像画像を取得し、
前記対象領域抽出部は、前記複数の撮像画像のうちの一の前記撮像画像から、前記エピポーラ線に直交する直交方向における前記認識対象物の写る区間を特定し、前記複数の撮像画像それぞれにおいて前記区間と前記直交方向に一致する領域を前記対象領域として抽出する請求項1に記載の三次元位置・姿勢認識装置。
The image acquisition unit acquires the plurality of captured images in a state where the epipolar lines are parallel to each other,
The target area extraction unit identifies a section in which the recognition target object is captured in an orthogonal direction orthogonal to the epipolar line from one of the plurality of captured images, and each of the plurality of captured images The three-dimensional position / posture recognition apparatus according to claim 1, wherein a region that coincides with a section in the orthogonal direction is extracted as the target region.
前記対象領域抽出部は、前記撮像画像に写る前記各物体の前記複数の撮像画像間における対応関係に基づいて、エピポーラ線に平行な平行方向および前記エピポーラ線に直交する直交方向の両方向において、前記各撮像画像で前記認識対象物が写る前記対象領域を特定することで、前記複数の撮像画像それぞれから前記対象領域を抽出する請求項1に記載の三次元位置・姿勢認識装置。   The target area extraction unit, based on a correspondence relationship between the plurality of captured images of each object captured in the captured image, in both a parallel direction parallel to an epipolar line and an orthogonal direction orthogonal to the epipolar line, The three-dimensional position / attitude recognition apparatus according to claim 1, wherein the target area is extracted from each of the plurality of captured images by specifying the target area in which the recognition target object is captured in each captured image. 前記認識部は、前記各撮像画像の前記対象領域に対する前記ステレオマッチング処理において前記各撮像画像間の対応点を探索する探索範囲を、前記対象領域抽出部が抽出した前記対象領域の位置に関する情報に基づいて設定する請求項3に記載の三次元位置・姿勢認識装置。   The recognition unit uses information regarding the position of the target region extracted by the target region extraction unit as a search range for searching for a corresponding point between the captured images in the stereo matching process for the target region of each captured image. The three-dimensional position / attitude recognition apparatus according to claim 3, which is set based on the setting. 前記画像取得部は、互いのエピポーラ線が平行な状態で前記複数の撮像画像を取得する請求項3または4に記載の三次元位置・姿勢認識装置。   The three-dimensional position / posture recognition apparatus according to claim 3, wherein the image acquisition unit acquires the plurality of captured images in a state where the epipolar lines are parallel to each other. 部品を取って移動させる部品移動手段と、
請求項1ないし5のいずれか一項に記載の三次元位置・姿勢認識装置と、
前記三次元位置・姿勢認識装置により前記認識対象物としての前記部品の三次元での位置および姿勢を認識した結果に基づいて、前記部品移動手段を制御する制御手段と
を備えることを特徴とする産業用ロボット。
Parts moving means for picking up and moving parts;
A three-dimensional position / posture recognition apparatus according to any one of claims 1 to 5,
Control means for controlling the part moving means based on the result of recognizing the three-dimensional position and orientation of the part as the recognition object by the three-dimensional position / posture recognition apparatus. Industrial robot.
認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得工程と、
前記画像取得工程で取得した前記複数の撮像画像それぞれから、前記認識対象物が写る対象領域を抽出する対象領域抽出工程と、
前記対象領域抽出工程で抽出した前記各撮像画像の前記対象領域に対してステレオマッチング処理を行って、三次元における前記認識対象物の位置および姿勢を認識する認識工程と
を備えることを特徴とする三次元位置・姿勢認識方法。
An image acquisition step of acquiring a plurality of captured images obtained by imaging a plurality of objects including a recognition target object from different viewpoints;
From each of the plurality of captured images acquired in the image acquisition step, a target region extraction step for extracting a target region in which the recognition target object is captured;
A recognition step of performing a stereo matching process on the target region of each captured image extracted in the target region extraction step to recognize the position and orientation of the recognition target in three dimensions. 3D position / posture recognition method.
認識対象物を含む複数の物体を異なる視点から撮像した複数の撮像画像を取得する画像取得機能と、
前記画像取得工程で取得した前記複数の撮像画像それぞれから、前記認識対象物が写る対象領域を抽出する対象領域抽出機能と、
前記対象領域抽出工程で抽出した前記各撮像画像の前記対象領域に対してステレオマッチング処理を行って、三次元における前記認識対象物の位置および姿勢を認識する認識機能と
を、コンピューターに実現させることを特徴とするプログラム。
An image acquisition function for acquiring a plurality of captured images obtained by imaging a plurality of objects including a recognition object from different viewpoints;
A target area extraction function for extracting a target area in which the recognition target object is captured from each of the plurality of captured images acquired in the image acquisition step;
Performing a stereo matching process on the target region of each captured image extracted in the target region extraction step, and causing a computer to realize a recognition function for recognizing the position and orientation of the recognition target in three dimensions. A program characterized by
請求項8に記載のプログラムが記録されており、コンピューターにより読み取りが可能であることを特徴とする記録媒体。   A recording medium on which the program according to claim 8 is recorded and can be read by a computer.
JP2011206964A 2011-09-22 2011-09-22 Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium Withdrawn JP2013069100A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011206964A JP2013069100A (en) 2011-09-22 2011-09-22 Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011206964A JP2013069100A (en) 2011-09-22 2011-09-22 Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium

Publications (1)

Publication Number Publication Date
JP2013069100A true JP2013069100A (en) 2013-04-18

Family

ID=48474750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011206964A Withdrawn JP2013069100A (en) 2011-09-22 2011-09-22 Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium

Country Status (1)

Country Link
JP (1) JP2013069100A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016206066A (en) * 2015-04-24 2016-12-08 トヨタ自動車株式会社 Object recognition apparatus and object recognition method
WO2019188198A1 (en) * 2018-03-30 2019-10-03 倉敷紡績株式会社 Three-dimensional measurement device for linear object and three-dimensional measurement method for linear object
CN111836030A (en) * 2019-04-17 2020-10-27 未来市股份有限公司 Interactive image processing method, apparatus and medium using depth engine
CN111836034A (en) * 2019-04-17 2020-10-27 未来市股份有限公司 Interactive image processing system using infrared camera
CN111836035A (en) * 2019-04-17 2020-10-27 未来市股份有限公司 Interactive image processing method and device and storage device
WO2021157114A1 (en) * 2020-02-03 2021-08-12 株式会社日立製作所 Installation control device and installation control method
JP2021185016A (en) * 2017-03-06 2021-12-09 株式会社Fuji Image processing device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016206066A (en) * 2015-04-24 2016-12-08 トヨタ自動車株式会社 Object recognition apparatus and object recognition method
JP7197653B2 (en) 2017-03-06 2022-12-27 株式会社Fuji Image processing device
JP2021185016A (en) * 2017-03-06 2021-12-09 株式会社Fuji Image processing device
WO2019188198A1 (en) * 2018-03-30 2019-10-03 倉敷紡績株式会社 Three-dimensional measurement device for linear object and three-dimensional measurement method for linear object
JPWO2019188198A1 (en) * 2018-03-30 2021-03-25 倉敷紡績株式会社 Three-dimensional measuring device for linear objects and three-dimensional measuring method for linear objects
JP2020177618A (en) * 2019-04-17 2020-10-29 未來市股▲ふん▼有限公司 Method, apparatus, and medium for interactive image processing using depth engine and digital signal processor
JP2020177617A (en) * 2019-04-17 2020-10-29 未來市股▲ふん▼有限公司 Method, apparatus, and medium for interactive image processing using depth engine
US10885671B2 (en) 2019-04-17 2021-01-05 XRSpace CO., LTD. Method, apparatus, and non-transitory computer-readable medium for interactive image processing using depth engine and digital signal processor
CN111836035A (en) * 2019-04-17 2020-10-27 未来市股份有限公司 Interactive image processing method and device and storage device
US11039118B2 (en) 2019-04-17 2021-06-15 XRSpace CO., LTD. Interactive image processing system using infrared cameras
CN111836034A (en) * 2019-04-17 2020-10-27 未来市股份有限公司 Interactive image processing system using infrared camera
CN111836030A (en) * 2019-04-17 2020-10-27 未来市股份有限公司 Interactive image processing method, apparatus and medium using depth engine
WO2021157114A1 (en) * 2020-02-03 2021-08-12 株式会社日立製作所 Installation control device and installation control method
JP2021123433A (en) * 2020-02-03 2021-08-30 株式会社日立製作所 Installation control device and installation control method

Similar Documents

Publication Publication Date Title
JP2013069100A (en) Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium
Song et al. CAD-based pose estimation design for random bin picking using a RGB-D camera
Nieuwenhuisen et al. Mobile bin picking with an anthropomorphic service robot
Holz et al. Active recognition and manipulation for mobile robot bin picking
JP2012254518A (en) Robot control system, robot system and program
US20130054030A1 (en) Object gripping apparatus, object gripping method, and object gripping program
CN111085997A (en) Capturing training method and system based on point cloud acquisition and processing
Lin et al. Robotic grasping with multi-view image acquisition and model-based pose estimation
Helmer et al. Multiple viewpoint recognition and localization
Chen et al. Random bin picking with multi-view image acquisition and cad-based pose estimation
Chaudhury et al. Using collocated vision and tactile sensors for visual servoing and localization
CN110930442A (en) Method and device for determining positions of key points in robot hand-eye calibration based on calibration block
JP2014170368A (en) Image processing device, method and program and movable body
JP5609760B2 (en) Robot, robot operation method, and program
Jerbić et al. Robot assisted 3D point cloud object registration
CN114286739A (en) Information processing device, setting device and method, image recognition system, robot system, learning device, and method for generating learned model
CN114341930A (en) Image processing device, imaging device, robot, and robot system
D'Avella et al. Multimodal grasp planner for hybrid grippers in cluttered scenes
JP2021000694A (en) Device for teaching robot and robot system
JP5839671B2 (en) 3D position / attitude recognition device, industrial robot, 3D position / attitude recognition method, program, recording medium
Lutz et al. Probabilistic object recognition and pose estimation by fusing multiple algorithms
Ibrayev et al. Recognition of curved surfaces from “one-dimensional” tactile data
CN114897974B (en) Target object space positioning method, system, storage medium and computer equipment
JP5868005B2 (en) Imaging apparatus, imaging condition setting method, program
Liang et al. Rgb-d camera based 3d object pose estimation and grasping

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202