JPH08201041A - Method for recognizing three-dimensional shape - Google Patents

Method for recognizing three-dimensional shape

Info

Publication number
JPH08201041A
JPH08201041A JP7011083A JP1108395A JPH08201041A JP H08201041 A JPH08201041 A JP H08201041A JP 7011083 A JP7011083 A JP 7011083A JP 1108395 A JP1108395 A JP 1108395A JP H08201041 A JPH08201041 A JP H08201041A
Authority
JP
Japan
Prior art keywords
image
dimensional shape
representative point
recognizing
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7011083A
Other languages
Japanese (ja)
Inventor
Tomoharu Nakahara
智治 中原
Hidekazu Araki
秀和 荒木
Katsuhiro Sasada
勝弘 笹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP7011083A priority Critical patent/JPH08201041A/en
Publication of JPH08201041A publication Critical patent/JPH08201041A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide a method for recognizing the three-dimensional shape where the processing for obtaining distance information is speeded up by simpli fying the Process for obtaining a parallax. CONSTITUTION: The image of a target is picked up by TV cameras 11a and 11b from two different positions and first and second images are obtained from the TV cameras 11 a and 11b. Representative extraction parts 13a and 13b detect the position of the same representative point of a target among first and second images and obtains the parallax between the first and second images by associating the representative point in the first image with that of the second image at a representative associating part 14. When the parallax is obtained, the triangulation method is applied at a three-dimensional position calculation part 15, thus obtaining the distance between the TV cameras 11a and 11b and the representative point. By combining the above distance onto the two-dimensional shape of a target obtained by either the first image or the second image, the three-dimensional shape of the target can be recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、TVカメラのような撮
像手段によって1つの対象物を異なる位置から撮像し、
各位置で得た画像間の視差に基づいて対象物の3次元形
状を認識するようにした3次元形状の認識方法に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention picks up one object from different positions by an image pickup means such as a TV camera,
The present invention relates to a three-dimensional shape recognition method for recognizing a three-dimensional shape of an object based on parallax between images obtained at each position.

【0002】[0002]

【従来の技術】従来より、対象物の位置の認識には、T
Vカメラのような撮像手段によって対象物の表面を撮像
し、その画像を濃度について2値化して求めた2値画像
内で対象物の重心を求め、この重心の位置を対象物の位
置とする方法が知られている。しかしながら、この方法
では撮像装置と対象物の表面との間の距離を認識するこ
とができないから、撮像手段によって得た画像内での対
象物の寸法が等しいときには、距離(つまり対象物の高
さ)が異なっていても認識できない。つまり、生産工程
における物品の認識にこの種の方法を用いる場合には、
高さ寸法のみが異なる2種類の物品を混在させることが
できないという制約が生じる。
2. Description of the Related Art Conventionally, a T
The surface of the object is imaged by an image pickup means such as a V camera, and the center of gravity of the object is obtained in a binary image obtained by binarizing the image for the density, and the position of this center of gravity is set as the position of the object. The method is known. However, this method cannot recognize the distance between the imaging device and the surface of the object. Therefore, when the dimensions of the object in the image obtained by the imaging means are the same, the distance (that is, the height of the object). ) Is different, it cannot be recognized. In other words, when using this kind of method for recognition of goods in the production process,
There is a restriction that two types of articles having different height dimensions cannot be mixed.

【0003】これに対して、物品の高さまで認識できる
ようにした3次元形状の認識方法としては、特開昭60
−173403号公報に示された「ステレオ画像の対応
付け処理方法」が知られている。すなわち、規定の位置
関係に配置した2台の撮像手段を用いて2枚の画像を得
た後、2枚の画像間の視差を求め、2台の撮像手段に関
する既知の位置関係と求めた視差とに基づいて三角測量
法を適用し、対象物と撮像装置との間の距離情報を求め
るのである。視差は、2枚の画像の線成分から抽出した
線セグメントを用いて、線セグメント同士の対応付けを
行なうことで求めるようにしてある。
On the other hand, as a method for recognizing a three-dimensional shape which enables recognition of the height of an article, Japanese Patent Laid-Open No. Sho 60 has been proposed.
The "stereo image association processing method" disclosed in Japanese Patent Publication No. 173403 is known. That is, after two images are obtained by using two image pickup means arranged in a prescribed positional relationship, the parallax between the two images is obtained, and the known positional relationship between the two image pickup means and the obtained parallax are obtained. Then, the triangulation method is applied to obtain the distance information between the object and the imaging device. The parallax is obtained by associating the line segments with each other using the line segments extracted from the line components of the two images.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
た方法では2枚の画像を対応付けるために、すべての線
セグメントの対応付けを行なう必要があり、視差を求め
る処理に要する時間が長くなるという問題がある。本発
明は上記事由に鑑みて為されたものであり、その目的
は、視差を求める処理を簡略化して距離情報を求める処
理を高速化した3次元形状の認識方法を提供することに
ある。
However, in the above-mentioned method, it is necessary to associate all the line segments in order to associate the two images with each other, which causes a problem that the time required for the parallax obtaining process becomes long. is there. The present invention has been made in view of the above circumstances, and an object thereof is to provide a three-dimensional shape recognition method in which the process of obtaining parallax is simplified and the process of obtaining distance information is speeded up.

【0005】[0005]

【課題を解決するための手段】請求項1の発明は、対象
物に対して異なる2位置で対象物の表面に略直交する方
向から撮像手段によって第1画像および第2画像を撮像
し、第1画像および第2画像をそれぞれ濃度について2
値化した2つの2値画像を求め、2つの2値画像に基づ
いて第1画像および第2画像の中での対象物の表面の同
一の代表点の位置をそれぞれ検出し、第1画像と第2画
像とにおける上記代表点を対応付けることによって第1
画像と第2画像との視差を求め、三角測量法を適用する
ことにより対象物の表面に直交する方向における撮像手
段との間の距離情報を求め、第1画像あるいは第2画像
より求められる対象物の2次元形状に上記距離情報を組
み合わせることによって対象物の3次元形状を認識する
ことを特徴とする。
According to a first aspect of the present invention, the first image and the second image are picked up by the image pickup means at two different positions with respect to the object from a direction substantially orthogonal to the surface of the object, and 1 image and 2nd image for each 2
The two binarized images are obtained, and the positions of the same representative points on the surface of the object in the first image and the second image are detected based on the two binarized images. By associating the representative points in the second image with each other, the first
The parallax between the image and the second image is obtained, the distance information between the image pickup means in the direction orthogonal to the surface of the object is obtained by applying the triangulation method, and the object obtained from the first image or the second image It is characterized in that the three-dimensional shape of the object is recognized by combining the two-dimensional shape of the object with the distance information.

【0006】請求項2の発明では、代表点は2値画像の
中での対象物の重心であることを特徴とする。請求項3
の発明は、第1画像から求めた2値画像における重心
と、第2画像から求めた2値画像における重心とを一致
させる際に各重心の周囲の濃度の類似度に基づいて第1
画像と第2画像との対応付けを行なうことを特徴とす
る。
According to a second aspect of the invention, the representative point is the center of gravity of the object in the binary image. Claim 3
According to the first aspect of the present invention, when the center of gravity in the binary image obtained from the first image and the center of gravity in the binary image obtained from the second image are matched, the first method is based on the similarity of the densities around the respective centers of gravity.
It is characterized in that the image and the second image are associated with each other.

【0007】請求項4の発明は、第1画像および第2画
像の中での対象物の慣性主軸を求め、第1画像から求め
た2値画像における重心と、第2画像から求めた2値画
像における重心とを一致させる際に、慣性主軸の方向の
類似度に基づいて第1画像と第2画像との対応付けを行
なうことを特徴とする。請求項5の発明は、第1画像と
第2画像とを撮像する際の撮像手段の光軸を平行とし、
かつ第1画像と第2画像との中心間を結ぶ方向を第1画
像および第2画像の水平軸に平行とし、さらに第1画像
と第2画像とを撮像する撮像手段の拡大率を等しく設定
したときの代表点の位置に一致するように、第1画像と
第2画像とにおける代表点の位置を補正し、補正後の代
表点の位置に基づいて第1画像と第2画像とを対応付け
ることを特徴とする。
According to a fourth aspect of the present invention, the principal axis of inertia of the object in the first image and the second image is obtained, and the center of gravity in the binary image obtained from the first image and the binary value obtained from the second image are obtained. It is characterized in that the first image and the second image are associated with each other based on the degree of similarity in the direction of the principal axis of inertia when matching the center of gravity in the image. According to a fifth aspect of the invention, the optical axes of the image pickup means are parallel when the first image and the second image are picked up,
Further, the direction connecting the centers of the first image and the second image is parallel to the horizontal axes of the first image and the second image, and the enlargement ratio of the image capturing means for capturing the first image and the second image is set to be equal. The positions of the representative points in the first image and the second image are corrected so as to match the positions of the representative points at the time, and the first image and the second image are associated with each other based on the corrected positions of the representative points. It is characterized by

【0008】請求項6の発明は、対象物に対して異なる
2位置で対象物の表面に略直交する方向から撮像手段に
よって濃淡画像である第1画像および第2画像を撮像
し、第1画像および第2画像と基準画像とのそれぞれの
パターンマッチングによって第1画像および第2画像の
中での対象物の表面の1つの代表点の位置をそれぞれ検
出し、第1画像と第2画像とにおける上記代表点を対応
付けることによって第1画像と第2画像との視差を求
め、三角測量法を適用することにより対象物の表面に直
交する方向における撮像手段との間の距離情報を求め、
第1画像あるいは第2画像より求められる対象物の2次
元形状に上記距離情報を組み合わせることによって対象
物の3次元形状を認識することを特徴とする。
According to a sixth aspect of the present invention, the first image and the second image, which are grayscale images, are picked up by the image pickup means in two different positions with respect to the object from a direction substantially orthogonal to the surface of the object, and the first image is obtained. And the position of one representative point on the surface of the object in the first image and the second image is detected by pattern matching between the second image and the reference image, respectively. By ascertaining the parallax between the first image and the second image by associating the representative points with each other, and by applying the triangulation method, the distance information between the object and the image pickup means in the direction orthogonal to the surface of the object is obtained.
It is characterized in that the three-dimensional shape of the object is recognized by combining the distance information with the two-dimensional shape of the object obtained from the first image or the second image.

【0009】請求項7の発明は、第1画像より求めた代
表点の位置に基づいて第2画像における代表点の存在領
域を制限して第2画像から代表点を抽出することを特徴
とする。請求項8の発明は、撮像手段を用いて第1画像
を撮像した後に、同じ撮像手段を所定距離だけ移動させ
て第2画像を撮像することを特徴とする。
According to a seventh aspect of the present invention, the representative point is extracted from the second image by limiting the area where the representative point exists in the second image based on the position of the representative point obtained from the first image. . The invention of claim 8 is characterized in that after the first image is captured by the image capturing means, the same image capturing means is moved by a predetermined distance to capture the second image.

【0010】請求項9の発明は、第1画像と第2画像と
を各別の撮像手段によって撮像することを特徴とする。
請求項10の発明は、1つの対象物について複数個の代
表点を求め、複数の代表点の距離情報に基づいて対象物
の形状を認識することを特徴とする。請求項11の発明
は、第1画像および第2画像はカラー画像から特定色成
分を抽出した画像であることを特徴とする
The invention of claim 9 is characterized in that the first image and the second image are imaged by different imaging means.
The invention of claim 10 is characterized in that a plurality of representative points are obtained for one object, and the shape of the object is recognized based on distance information of the plurality of representative points. The invention of claim 11 is characterized in that the first image and the second image are images obtained by extracting a specific color component from a color image.

【0011】[0011]

【作用】本発明は、生産工程で対象物の形状が既知であ
る場合には、対象物を認識するためにすべての線セグメ
ントについての距離情報は必要ではなく、対象物の特定
部分の距離情報があれば十分なことが多いという点に着
目し、視差を求める演算を線セグメントを用いることな
く簡単に求めるようにしたものである。
According to the present invention, when the shape of the object is known in the production process, the distance information about all the line segments is not necessary for recognizing the object. In consideration of the fact that there are many cases where there is such a case, the calculation for obtaining the parallax is easily performed without using the line segment.

【0012】請求項1の発明は、ステレオ画像法におい
て、第1画像および第2画像の中での対象物の表面の同
一の代表点の位置をそれぞれ検出し、第1画像と第2画
像とにおける上記代表点を対応付けることによって第1
画像と第2画像との視差を求めているから、従来のよう
に、画像内でのすべての線セグメントを対応付ける処理
に比較すれば、第1画像と第2画像との中での対象物の
代表点を対応付けるだけの簡単な処理になって、距離情
報を求める処理を高速化することができる。
According to a first aspect of the present invention, in the stereo image method, the positions of the same representative points on the surface of the object in the first image and the second image are respectively detected, and the first image and the second image are detected. By associating the above representative points in
Since the parallax between the image and the second image is obtained, as compared with the conventional process of associating all the line segments in the image, the object in the first image and the second image is compared. This is a simple process of associating representative points, and the process of obtaining distance information can be speeded up.

【0013】請求項2の発明では、2値画像の中での対
象物の重心を代表点に用いるから、再現性のよい代表点
を簡単な方法で求めることができる。請求項3の発明
は、第1画像と第2画像とから求めた対象物の重心を位
置情報によって対応付けるだけでなく、各重心の周囲の
濃度の類似度に基づいて第1画像と第2画像との対応付
けを行なうから、重心の位置に他の情報も付加して用い
ることで、第1画像と第2画像との対応付けを一層正確
に行なうことができるのである。
According to the invention of claim 2, since the center of gravity of the object in the binary image is used as the representative point, the representative point with good reproducibility can be obtained by a simple method. According to the invention of claim 3, not only the center of gravity of the object obtained from the first image and the second image is associated with the position information, but also the first image and the second image are based on the degree of similarity in density around each center of gravity. Since other information is also added to the position of the center of gravity, the first image and the second image can be more accurately associated with each other.

【0014】請求項4の発明は、第1画像と第2画像と
から求めた対象物の重心を位置情報によって対応付ける
だけでなく、第1画像および第2画像の中での対象物の
慣性主軸の方向の類似度に基づいて第1画像と第2画像
との対応付けを行なうから、重心の座標のみを用いる場
合に比較して情報量が多くなることで対応付けが一層正
確に行なえることになる。
According to the invention of claim 4, not only the center of gravity of the object obtained from the first image and the second image is associated with the position information, but also the principal axis of inertia of the object in the first image and the second image is associated. Since the first image and the second image are associated with each other based on the similarity in the direction of, the amount of information is larger than that when only the coordinates of the center of gravity are used, so that the association can be performed more accurately. become.

【0015】請求項5の発明は、第1画像と第2画像と
における代表点の位置を第1画像と第2画像とを撮像す
る際の撮像手段の光軸を平行とし、かつ第1画像と第2
画像との中心間を結ぶ方向を第1画像および第2画像の
水平軸に平行とし、さらに第1画像と第2画像とを撮像
する撮像手段の拡大率を等しく設定したときの代表点の
位置に一致するように補正し、補正後の代表点の位置に
基づいて第1画像と第2画像とを対応付けるから、代表
点の対応付けをより正確に行なうことができ、求めた距
離情報の信頼性が高くなるのである。
According to a fifth aspect of the present invention, the positions of the representative points in the first image and the second image are set so that the optical axes of the image pickup means for picking up the first image and the second image are parallel to each other, and And the second
The position of the representative point when the direction connecting the centers of the images is parallel to the horizontal axes of the first image and the second image and the enlargement ratios of the image capturing means for capturing the first image and the second image are set to be equal to each other. Since the first image and the second image are associated with each other based on the position of the corrected representative point, the representative points can be more accurately associated with each other, and the reliability of the obtained distance information can be improved. The higher the quality.

【0016】請求項6の発明は、第1画像および第2画
像を基準画像にパターンマッチングさせることによって
第1画像および第2画像の中での対象物の表面の1つの
代表点の位置をそれぞれ検出するから、代表点の位置を
求める処理が簡単になる。請求項7の発明は、第1画像
より求めた代表点の位置に基づいて第2画像における代
表点の存在領域を制限して第2画像から代表点を抽出す
るのであり、第1画像から得られた情報に基づいて制限
された範囲で第2画像の代表点を抽出するから、第2画
像において代表点を抽出する処理が簡単になり、より一
層高速かつ精度よく3次元形状を認識することができ
る。
According to a sixth aspect of the present invention, by pattern matching the first image and the second image with the reference image, the position of one representative point on the surface of the object in the first image and the second image is determined. Since the detection is performed, the process of obtaining the position of the representative point is simplified. According to the invention of claim 7, the representative point is extracted from the second image by limiting the area where the representative point exists in the second image based on the position of the representative point obtained from the first image. Since the representative points of the second image are extracted in a limited range based on the obtained information, the process of extracting the representative points in the second image is simplified, and the three-dimensional shape can be recognized with higher speed and accuracy. You can

【0017】請求項8の発明は、撮像手段を用いて第1
画像を撮像した後に、同じ撮像手段を所定距離だけ移動
させて第2画像を撮像するから、1台の撮像手段を用い
て低コストで3次元形状を認識することができる。請求
項9の発明は、2台の撮像手段を用いるから第1画像と
第2画像とを短時間で得ることができ、しかも、両撮像
手段の位置関係を固定しておくことができるから、精度
よく視差を求めることができる。
The invention according to claim 8 is the first invention using the image pickup means.
After capturing the image, the same image capturing unit is moved by a predetermined distance to capture the second image, so that the three-dimensional shape can be recognized at low cost by using one image capturing unit. According to the invention of claim 9, since the two image pickup means are used, the first image and the second image can be obtained in a short time, and moreover, the positional relationship between both the image pickup means can be fixed. The parallax can be obtained accurately.

【0018】請求項10の発明は、1つの対象物につい
て複数個の代表点を求め、複数の代表点の距離情報に基
づいて対象物の形状を認識するから、より正確に対象物
を認識することができる。請求項11の発明は、第1画
像および第2画像はカラー画像から特定色成分を抽出し
た画像であって、色情報を用いることで代表点の対応付
けが容易かつ正確になり、求めた距離情報の信頼性が高
くなる。
According to the tenth aspect of the invention, a plurality of representative points are obtained for one object, and the shape of the object is recognized based on the distance information of the plurality of representative points. Therefore, the object is recognized more accurately. be able to. According to an eleventh aspect of the present invention, the first image and the second image are images obtained by extracting the specific color component from the color image, and by using the color information, the representative points can be easily and accurately associated with each other, and the calculated distance can be obtained. Increased reliability of information.

【0019】[0019]

【実施例】【Example】

(実施例1)本発明で用いる装置は、図1に示すよう
に、2台のTVカメラ11a,11bを備える。両TV
カメラ11a,11bは、図2に示すように、光軸A
a,Abを平行とし、かつ両TVカメラ11a,11b
のレンズ中心を結ぶ線分を画像の水平方向に平行とする
ように配置され、さらに両TVカメラ11a,11bの
拡大率が等しく設定されている。以後、このように設定
されたTVカメラ11a,11bの配置を平行ステレオ
配置と呼ぶことにする。両TVカメラ11a,11bの
視野は、少なくとも対象物1の代表点2を含むように設
定される。
(Embodiment 1) The apparatus used in the present invention comprises two TV cameras 11a and 11b, as shown in FIG. Both TV
As shown in FIG. 2, the cameras 11a and 11b have an optical axis A.
a and Ab are parallel and both TV cameras 11a and 11b
The line segments connecting the lens centers of are parallel to the horizontal direction of the image, and the TV cameras 11a and 11b are set to have the same enlargement ratio. Hereinafter, the arrangement of the TV cameras 11a and 11b set in this way will be referred to as a parallel stereo arrangement. The fields of view of both TV cameras 11a and 11b are set so as to include at least the representative point 2 of the object 1.

【0020】TVカメラ11a,11bでそれぞれ撮像
された画像は、フレームメモリのような画像蓄積部12
a,12bにそれぞれ格納され、画像蓄積部12a,1
2bに蓄積された画像に基づいて代表点抽出部13a,
13bで対象物1の代表点の位置を抽出する。本実施例
では、TVカメラ11a,11bで撮像した画像は濃淡
画像であって、代表点抽出部13a,13bでは画素の
濃淡を2値化した後に代表点の抽出を行なう。ここにお
いて、代表点としては、たとえば2値化した画像内での
対象物1の重心などを用いる。
The images captured by the TV cameras 11a and 11b are stored in the image storage unit 12 such as a frame memory.
image storage units 12a, 1b, which are respectively stored in a and 12b.
Based on the images accumulated in 2b, the representative point extraction unit 13a,
The position of the representative point of the object 1 is extracted at 13b. In the present embodiment, the images captured by the TV cameras 11a and 11b are grayscale images, and the representative point extracting units 13a and 13b binarize the grayscales of the pixels and then extract the representative points. Here, for example, the center of gravity of the object 1 in the binarized image is used as the representative point.

【0021】各TVカメラ11a,11bで撮像された
2つの画像から代表点が抽出されると、代表点対応付け
部14において代表点2の対応付けを行ない、各画像内
での対象物1の同一点を対応付ける。ここで、画像内で
は対象物1の代表点2に対応する点は、2台のTVカメ
ラ11a,11bの配置によって決まるエピポーラ線上
に存在することが知られており、上述のようにTVカメ
ラ11a,11bを平行ステレオ配置とした場合には、
エピポーラ線は画像の水平軸と平行になる。いま、画像
の水平方向をX方向、垂直方向をY方向とするときに、
両TVカメラ11a,11bで得た画像内で代表点2に
対応する点のY座標は等しくなる。つまり、各画像が図
3のように得られているとすると、図4に示すように両
画像での代表点2のY座標は等しくなる。
When the representative point is extracted from the two images picked up by the TV cameras 11a and 11b, the representative point associating unit 14 associates the representative point 2 with each other, and the representative point 2 of the object 1 in each image is correlated. Match the same points. Here, it is known that the point corresponding to the representative point 2 of the object 1 in the image exists on the epipolar line determined by the arrangement of the two TV cameras 11a and 11b, and as described above, the TV camera 11a. , 11b in a parallel stereo arrangement,
The epipolar line is parallel to the horizontal axis of the image. Now, when the horizontal direction of the image is the X direction and the vertical direction is the Y direction,
In the images obtained by both TV cameras 11a and 11b, the Y coordinate of the point corresponding to the representative point 2 becomes equal. That is, assuming that each image is obtained as shown in FIG. 3, the Y coordinates of the representative point 2 in both images are the same as shown in FIG.

【0022】上述のようにして代表点対応付け部14で
代表点2の対応付けを行なえば、3次元位置算出部15
では、両画像内での代表点のX座標の差によって両TV
カメラ11a,11bから見た代表点2の視差を求める
ことができる。つまり、各画像内での代表点2の座標を
(x1 ,y1 )、(x2 ,y2 )とすると、上述したよ
うにy1 =y2 であって、x1 とx2 との差が視差に対
応するのである。両TVカメラ11a,11bのレンズ
の中心間の距離およびレンズの焦点距離は既知であるか
ら、視差が求まれば、三角測量法を適用することによっ
て、以下の式より、TVカメラ11a,11bと対象物
1の代表点2との距離を求めることができる。 Z=B×F/D (ただし、Z:TVカメラ11a,11bと対象物1の
代表点2との距離、B:TVカメラ11a,11bのレ
ンズの中心間の距離、F:TVカメラ11a,11bの
レンズの焦点距離、D:視差) 一般に生産工程では、対象物1が配置されている面とT
Vカメラ11a,11bとの距離は既知であるから、上
述のようにTVカメラ11a,11bと対象物1の代表
点2との距離を求めれば、対象物1を配置している基準
面からの対象物1の代表点2の高さを求めることができ
る。
If the representative point associating unit 14 associates the representative points 2 as described above, the three-dimensional position calculating unit 15
Then, depending on the difference in the X coordinate of the representative point in both images, both TVs
The parallax of the representative point 2 viewed from the cameras 11a and 11b can be obtained. That is, assuming that the coordinates of the representative point 2 in each image are (x 1 , y 1 ), (x 2 , y 2 ), y 1 = y 2 as described above, and x 1 and x 2 The difference between the two corresponds to the parallax. Since the distance between the centers of the lenses of both TV cameras 11a and 11b and the focal length of the lenses are known, if the parallax is obtained, the triangulation method is applied to calculate the TV cameras 11a and 11b from the following equations. The distance between the object 1 and the representative point 2 can be obtained. Z = B × F / D (where, Z: the distance between the TV cameras 11a and 11b and the representative point 2 of the object 1, B: the distance between the centers of the lenses of the TV cameras 11a and 11b, F: the TV camera 11a, 11b lens focal length, D: parallax) Generally, in the production process, the surface on which the object 1 is arranged and T
Since the distance between the V cameras 11a and 11b is known, if the distance between the TV cameras 11a and 11b and the representative point 2 of the object 1 is obtained as described above, the distance from the reference plane on which the object 1 is arranged is determined. The height of the representative point 2 of the object 1 can be obtained.

【0023】また、生産工程では、両TVカメラ11
a,11bの光軸は対象物1において代表点2が設定さ
れている面に直交しているから、3次元位置算出部15
で求めた代表点の3次元位置を物体認識部16に送るこ
とによって、対象物1の形状や位置を認識することがで
きるのである。上述のようにステレオ画像法によって求
めた対象物1について代表点2を対応付けるだけで、対
象物1の形状や位置を認識することができるから、処理
が簡単であり、処理時間も短くなる。
In the production process, both TV cameras 11
Since the optical axes of a and 11b are orthogonal to the surface of the object 1 on which the representative point 2 is set, the three-dimensional position calculation unit 15
The shape and position of the object 1 can be recognized by sending the three-dimensional position of the representative point obtained in step 1 to the object recognition unit 16. As described above, the shape and position of the target object 1 can be recognized only by associating the representative point 2 with the target object 1 obtained by the stereo image method. Therefore, the processing is simple and the processing time is short.

【0024】(実施例2)本実施例では、図5に示すよ
うに、実施例1のようにして対象物1の形状や位置を認
識し(実施例1における画像蓄積部12a,12bから
物体認識部16までをまとめて3次元認識装置10とし
て示してある)、その結果を用いてロボット3を制御す
ることにより、複数種類の対象物11 ,12 を各別のト
レイ41 ,42 に分類して整列するようにした例を示
す。各対象物11 ,12 は、高さ(つまり、TVカメラ
11a,11bとの距離)のみが異なり、他の寸法は等
しいものとする。
(Embodiment 2) In the present embodiment, as shown in FIG. 5, the shape and position of the object 1 are recognized as in the case of Embodiment 1 (from the image accumulating units 12a and 12b in Embodiment 1 to the object). The recognition unit 16 is collectively shown as the three-dimensional recognition apparatus 10), and the robot 3 is controlled by using the result, so that the plurality of types of objects 1 1 and 1 2 are different trays 4 1 and 4 respectively. An example of classifying into 2 and arranging them is shown. Each object 1 1, 1 2, the height (i.e., TV camera 11a, the distance between 11b) differ only, other dimensions are equal.

【0025】図6に示すように、TVカメラ11a,1
1bによって対象物11 ,12 の画像を取り込み(S
1)、両画像を2値化する(S2)。次に、2値化した
両画像から対象物11 ,12 の重心を代表点として求め
(S3)、両画像で得た重心を対応付けることによって
視差を求める(S4)。このようにして視差が求まれ
ば、代表点2の3次元位置を求めることができる(S
5)。ここで、対象物11 ,12 の高さは既知であるか
ら、一方の対象物11 の高さをZ1 とすれば、代表点の
高さZがZ1 に一致するか否かで、どちらの対象物
1 ,12 かを認識することができる。そこで、Z=Z
1 か否かの判定を行ない(S6)、Z=Z1 が成立すれ
ばロボット3を移動させて(S7)、対象物11 を掴み
(S8)、トレイ4 1 に整列する(S9)。また、Z=
1 が成立しなければロボット3を移動させて(S1
0)、対象物12 を掴み(S11)、トレイ42 に整列
する(S12)。
As shown in FIG. 6, the TV cameras 11a, 1
Object 1 by 1b1, 12Image of (S
1), both images are binarized (S2). Next, binarized
Object 1 from both images1, 12Find the center of gravity of
(S3), by correlating the centroids obtained in both images
The parallax is obtained (S4). In this way parallax is calculated
Then, the three-dimensional position of the representative point 2 can be obtained (S
5). Here, object 11, 12The height of the
One object 11The height of Z1If so, of the representative point
Height Z is Z1Which object to match
11, 12You can recognize what. Therefore, Z = Z
1It is determined whether or not (S6), Z = Z1Is established
If the robot 3 is moved (S7), the object 11Grab
(S8), tray 4 1(S9). Also, Z =
Z1If is not established, the robot 3 is moved (S1
0), object 12Grasp (S11), Tray 42Aligned to
Yes (S12).

【0026】以上のようにして、高さのみが異なる複数
種類の対象物11 ,12 を仕分けしてトレイ41 ,42
に整列することができるのである。本実施例では、2種
類の対象物11 ,12 について説明しているが、さらに
多種類の対象物が存在する場合でも同様に処理すること
ができる。他の処理は実施例1と同様である。 (実施例3)本実施例も実施例2と同様に複数種類の対
象物11 ,12 を仕分けし、ロボット3によって各別の
トレイ41 ,42 に整列させる例を示す。ただし、対象
物1 1 ,12 は、高さだけではなく、代表点2を含む面
の明るさが異なっている。対象物11 ,12 の表面の明
るさを異ならせるには、一般に対象物11 ,12 の表面
の反射率を異ならせて置けばよい。
As described above, a plurality of different heights are used.
Object of type 11, 12Sort and Tray 41, 42
Can be aligned. In this embodiment, two types
Object of class 11, 12Is explained, but further
If there are many types of objects, do the same.
Can be. Other processes are the same as those in the first embodiment. (Embodiment 3) This embodiment also has a plurality of types of pairs as in the second embodiment.
Elephant 11, 12The robots and sort them by the robot 3.
Tray 41, 42The following shows an example of aligning. However, the target
Thing 1 1, 12Is not only the height but also the plane containing the representative point 2.
The brightness of is different. Object 11, 12Surface light
In order to make it different1, 12Surface of
You can set different reflectances.

【0027】いま、図8のように、一方のTVカメラ1
1aの視野内には1個の対象物があり、他方のTVカメ
ラ11bの視野内には2個の対象物が撮像されているも
のとする。ここで、各画像内での代表点のY座標がすべ
て等しい場合には、一方のTVカメラ11bの視野内の
2個の対象物のうちのどちらが目的の対象物かをY座標
のみでは識別することができない。そこで、各対象物の
明るさの相違を利用する。
Now, as shown in FIG. 8, one TV camera 1
It is assumed that there is one object in the field of view of 1a and two objects are imaged in the field of view of the other TV camera 11b. Here, when the Y coordinates of the representative points in each image are all the same, which of the two objects in the field of view of one TV camera 11b is the target object is identified only by the Y coordinate. I can't. Therefore, the difference in brightness of each object is used.

【0028】すなわち、各対象物の代表点として2値化
した画像内での重心G1 ,G2 ,G 3 を用い、各重心G
1 ,G2 ,G3 の近傍の画素(8近傍でよい)の明るさ
の平均値V1 ,V2 ,V3 を求める。同一の対象物につ
いての明るさの平均値V1 ,V2 ,V3 はほぼ等しいは
ずであるから、上記他方のTVカメラ11bの視野内に
存在する2個の対象物についての明るさの平均値V2
3 と、上記一方のTVカメラ11aの視野内の対象物
についての明るさの平均値V1 との差を求めると、差の
小さいほうが重心G1 ,G2 ,G3 の周囲の濃度の類似
度が高いと考えられるから類似度の高いほうが目的の対
象物のG1 ,G2 ,G3 であると判断できるのである。
つまり、|V1 −V2 |,|V1 −V3 |の値が小さい
ほうの重心G1 ,G2 ,G3 の組を対応付けることによ
って、対象物の代表点の3次元位置を求めることができ
る。
That is, binarization is performed as a representative point of each object.
Center of gravity G in the image1, G2, G 3And each center of gravity G
1, G2, G3Brightness of pixels in the vicinity of 8
Average value V1, V2, V3Ask for. To the same object
Average brightness V1, V2, V3Is almost equal to
Therefore, it is within the field of view of the other TV camera 11b.
Average brightness V for two existing objects2,
V3And an object within the field of view of the one TV camera 11a
Brightness average value V1If you find the difference between
The smaller the center of gravity G1, G2, G3Similarity of density around
Since it is considered that the degree of similarity is high, the pair with higher similarity is the target pair.
Elephant G1, G2, G3It can be determined that
That is, | V1-V2|, | V1-V3The value of | is small
Center of gravity G1, G2, G3By associating pairs of
Therefore, the three-dimensional position of the representative point of the object can be obtained.
It

【0029】その後、高さにより対象物11 ,12 を仕
分けしてトレイ41 ,42 に整列させるのである。以上
の処理手順をまとめると図7のようになる。すなわち、
TVカメラ11a,11bによって対象物11 ,12
画像を取り込み(S1)、両画像を2値化する(S
2)。次に、2値化した両画像から対象物11 ,12
重心G1 ,G2 ,G3 を代表点として求めるとともに
(S3)、重心G1 ,G2 ,G3 の8近傍の明るさの平
均値V1 ,V2 ,V3 を求める(S4)。次に、|V 1
−V2 |と|V1 −V3 |との大小関係を求め(S
5)、|V1 −V2 |が|V1 −V3 |より小さいとき
には、重心G1 と重心G2 とが同じ対象物の代表点であ
るとみなして対応付け(S6)、|V1 −V2 |が|V
1 −V3 |より大きいときには、重心G1 と重心G3
が同じ対象物の代表点であるとみなして対応付ける(S
7)。以後の処理は実施例2と同様であって、視差を求
めて代表点の3次元位置を求め(S8)、Z=Z1 か否
かの判定を行ない(S9)、Z=Z1が成立すればロボ
ット3を移動させて(S10)、対象物11 を掴み(S
11)、トレイ41 に整列する(S12)。また、Z=
1 が成立しなければロボット3を移動させて(S1
3)、対象物12 を掴み(S14)、トレイ42 に整列
する(S15)。
After that, depending on the height, the object 11, 12The cut
Separate and Tray 41, 42To line up. that's all
The processing procedure of is summarized in FIG. That is,
Object 1 by TV camera 11a, 11b1, 12of
Capture the image (S1) and binarize both images (S1)
2). Next, the object 1 is extracted from both binarized images.1, 12of
Center of gravity G1, G2, G3As a representative point
(S3), center of gravity G1, G2, G3Brightness near 8
Average value V1, V2, V3Is calculated (S4). Next, | V 1
-V2| And | V1-V3Find the magnitude relationship with | (S
5), | V1-V2| Is | V1-V3When less than
Has a center of gravity G1And the center of gravity G2And are representative points of the same object
Corresponding (S6), | V1-V2| Is | V
1-V3| When it is larger, the center of gravity G1And the center of gravity G3When
Are regarded as representative points of the same object and are associated (S
7). The subsequent processing is the same as that in the second embodiment, and the parallax is obtained.
The three-dimensional position of the representative point (S8), Z = Z1Or not
Is determined (S9), Z = Z1If
Object 3 is moved (S10).1Grab (S
11), tray 41(S12). Also, Z =
Z1If is not established, the robot 3 is moved (S1
3), object 12Grasp (S14), Tray 42Aligned to
Yes (S15).

【0030】以上のようにして、明るさに関する情報を
併用して代表点の対応付けを行なうから、TVカメラ1
1a,11bの視野内に複数個の対象物11 ,12 が存
在する場合でも対応付けが可能になる確率が高く、求め
た3次元位置の信頼性が高くなるのである。本実施例で
は、2種類の対象物11 ,12 について説明している
が、さらに多種類の対象物が存在する場合でも同様に処
理することができる。
As described above, since the representative points are associated with each other using the information on the brightness, the TV camera 1
Even if a plurality of objects 1 1 and 1 2 exist within the visual fields of 1a and 11b, there is a high probability that they can be associated with each other, and the reliability of the obtained three-dimensional position is high. In this embodiment, two types of object 1 1, 1 2 has been described, can be treated in the same manner even if there are still many types of objects.

【0031】(実施例4)本実施例も実施例3と同様に
1台のTVカメラ11a,11bの視野内に複数個の対
象物が存在する場合の例であって、実施例3では代表点
の8近傍の明るさの平均値を用いていたが、本実施例で
は対象物の慣性主軸の方向を比較することで代表点の対
応付けを行なうようにしてある。
(Embodiment 4) This embodiment is also an example in the case where a plurality of objects are present in the visual field of one TV camera 11a, 11b as in the case of Embodiment 3, and is representative in Embodiment 3. Although the average value of the brightness in the vicinity of 8 points is used, in the present embodiment, the representative points are associated by comparing the directions of the principal axes of inertia of the objects.

【0032】すなわち、図10に示すように、各TVカ
メラ11a,11bにより撮像した画像を濃度について
2値化した画像内で、対象物の慣性主軸B1 ,B2 ,B
3 の方向(水平方向に対する角度)θ1 ,θ2 ,θ3
求める。同じ対象物については、慣性主軸B1 ,B2
3 の方向θ1 ,θ2 ,θ3 は一致するはずである。し
たがって、いま、TVカメラ11aの視野には1個の対
象物が存在し、TVカメラ11bの視野内には2個の対
象物が存在するとすれば、TVカメラ11bによって得
た画像内の各対象物の慣性主軸B2 ,B3 の方向θ2
θ3 と、TVカメラ11aによって得た画像内の対象物
の慣性主軸B1 の方向θ1 との差を求め、差の小さいほ
うが対応していると考えることができる。すなわち、|
θ1 −θ 2 |と|θ1 −θ3 |との大小関係を求め、小
さいほうの組について代表点である重心G1 ,G2 ,G
3 の対応付けを行なえばよい。
That is, as shown in FIG.
Regarding the density of the images taken by the cameras 11a and 11b
In the binarized image, the principal axis of inertia B of the object1, B2, B
3Direction (angle to the horizontal) θ1, Θ2, Θ3To
Ask. For the same object, the principal axis of inertia B1, B2,
B3Direction θ1, Θ2, Θ3Should match. Shi
Therefore, one pair is now in the field of view of the TV camera 11a.
There is an elephant, and there are two pairs in the field of view of the TV camera 11b.
If there is an elephant, obtain it with the TV camera 11b.
Inertial principal axis B of each object in the image2, B3Direction θ2,
θ3And the object in the image obtained by the TV camera 11a
Principal axis of inertia B1Direction θ1The difference between
It can be considered that the ginger corresponds. That is, |
θ1−θ 2| and │θ1−θ3| seeking a size relationship with
Center of gravity G, which is the representative point for the Saihou group1, G2, G
3Should be associated with each other.

【0033】以上の処理手順をまとめると図9のように
なる。すなわち、TVカメラ11a,11bによって対
象物11 ,12 の画像を取り込み(S1)、両画像を2
値化する(S2)。次に、2値化した両画像から対象物
1 ,12 の重心G1 ,G2,G3 を代表点として求め
るとともに慣性主軸B1 ,B2 ,B3 の方向θ1
θ 2 ,θ3 を求める(S3)。次に、|θ1 −θ2 |と
|θ1 −θ3 |との大小関係を求め(S4)、|θ1
θ2 |が|θ1 −θ3 |より小さいときには、重心G1
と重心G2 とが同じ対象物の代表点であるとみなして対
応付け(S5)、|θ1 −θ2 |が|θ1 −θ3 |より
大きいときには、重心G1 と重心G3 とが同じ対象物の
代表点であるとみなして対応付ける(S6)。つまり、
慣性主軸B1,B2 ,B3 の方向θ1 ,θ2 ,θ3 の類
似度が高いということは、方向θ1 ,θ2 ,θ3 の差が
小さいということであるから、|θ1 −θ2 |と|θ1
−θ3|との大小を比較することで、慣性主軸B1 ,B
2 ,B3 の方向θ1 ,θ2 ,θ 3 の類似度を判断できる
のである。以後の処理は実施例2と同様であって、視差
を求めて代表点の3次元位置を求め(S7)、Z=Z1
か否かの判定を行ない(S8)、Z=Z1 が成立すれば
ロボット3を移動させて(S9)、対象物11 を掴み
(S10)、トレイ41 に整列する(S11)。また、
Z=Z1 が成立しなければロボット3を移動させて(S
12)、対象物12 を掴み(S13)、トレイ42 に整
列する(S14)。
The above processing procedure is summarized as shown in FIG.
Become. That is, the pair of TV cameras 11a and 11b
Elephant 11, 12Image (S1), both images 2
The value is converted (S2). Next, the object from both binarized images
11, 12Center of gravity G1, G2, G3As a representative point
Along with the principal axis of inertia B1, B2, B3Direction θ1,
θ 2, Θ3Is calculated (S3). Next, | θ1−θ2| and
│θ1−θ3The magnitude relationship with | is obtained (S4), | θ1
θ2| Is | θ1−θ3| When it is smaller than the center of gravity G1
And the center of gravity G2And are regarded as the representative points of the same object.
Response (S5), | θ1−θ2| Is | θ1−θ3From
When large, the center of gravity G1And the center of gravity G3Of the same object as
It is regarded as a representative point and associated (S6). That is,
Principal axis of inertia B1, B2, B3Direction θ1, Θ2, Θ3Kind of
High similarity means direction θ1, Θ2, Θ3Is the difference
Because it is small, | θ1−θ2| and │θ1
−θ3The main axis of inertia B1, B
2, B3Direction θ1, Θ2, Θ 3Can determine the similarity of
Of. The subsequent processing is the same as that in the second embodiment, and the parallax
To obtain the three-dimensional position of the representative point (S7), Z = Z1
It is determined whether or not (S8), Z = Z1If is established
The robot 1 is moved (S9), and the object 11Grab
(S10), tray 41(S11). Also,
Z = Z1If is not established, move the robot 3 (S
12), object 12Grasp (S13), Tray 42In order
Line up (S14).

【0034】以上のようにして、対象物の慣性主軸の方
向を併用して代表点の対応付けを行なうから、TVカメ
ラ11a,11bの視野内に複数個の対象物11 ,12
が存在する場合でも対応付けが可能になる確率が高く、
求めた3次元位置の信頼性が高くなる。本実施例では、
2種類の対象物11 ,12 について説明しているが、さ
らに多種類の対象物が存在する場合でも同様に処理する
ことができる。
As described above, since the representative points are associated with each other by using the directions of the principal axes of inertia of the objects, a plurality of objects 1 1 , 1 2 are included in the visual fields of the TV cameras 11a, 11b.
Even if there is, there is a high probability that matching will be possible,
The reliability of the obtained three-dimensional position becomes high. In this embodiment,
2 types of objects 1 1, 1 2 has been described, can be treated in the same manner even if there are still many types of objects.

【0035】(実施例5)本実施例も複数種類の対象物
を仕分けし、ロボット3を用いて各対象物ごとにトレイ
に整列させようとするものであって、上述した各実施例
ではエピポーラ線の上に代表点が存在している場合の例
であったが、本実施例では図12に示すように、代表点
(重心G1 ,G2 )がエピポーラ線からずれている場合
について説明する(y1 ≠y2 )。要するに、両TVカ
メラ11a,11bが平行ステレオ配置から少しずれて
いるのである。現実的には2台のTVカメラ11a,1
1bの位置関係を完全な平行ステレオ配置とするように
調節するのは困難であるから、平行ステレオ配置から少
しずれた位置関係を想定するのは実使用上で有用であ
る。
(Embodiment 5) In this embodiment as well, a plurality of types of objects are sorted, and the robot 3 is used to align the objects in a tray. In each of the above-described embodiments, the epipolar is used. This is an example of the case where the representative point exists on the line, but in the present embodiment, as shown in FIG. 12, the case where the representative point (centers of gravity G 1 and G 2 ) deviates from the epipolar line will be described. (Y 1 ≠ y 2 ). In short, both TV cameras 11a and 11b are slightly displaced from the parallel stereo arrangement. In reality, the two TV cameras 11a, 1
Since it is difficult to adjust the positional relationship of 1b so as to have a perfect parallel stereo arrangement, it is useful in actual use to assume a positional relationship that is slightly deviated from the parallel stereo arrangement.

【0036】しかして、本実施例では、図11に示すよ
うに、各TVカメラ11a,11bでの撮像によって得
られた各画像から得た対象物の代表点としての重心
1 ,G 2 の座標(x1 ,y1 ),(x2 ,y2 )に基
づいて、両TVカメラ11a,11bを平行ステレオ配
置とした場合の重心G1 ,G2 の座標位置を求める(S
1〜S4)。このような座標変換は周知であって平行ス
テレオ変換と呼ばれている。平行ステレオ変換を施した
後の重心をG1 ′,G2 ′として、各座標を(x1′,
1 ′),(x2 ′,y2 ′)とすれば、平行ステレオ
変換の後のエピポーラ線は画像の水平方向と平行になる
から、y1 ′=y2 ′になる。つまり、x1′とx2
との差に基づいて視差を求めることができ、重心
1 ′,G2 ′の対応付けが可能になる(S5)。以後
の処理は、実施例2のステップS5以降の処理手順と同
様である。
Therefore, in this embodiment, as shown in FIG.
Sea urchin, obtained by imaging with each TV camera 11a, 11b
Center of gravity as a representative point of the object obtained from each image obtained
G1, G 2Coordinates of (x1, Y1), (X2, Y2) Based on
Then, both TV cameras 11a and 11b are arranged in parallel stereo.
Center of gravity G1, G2The coordinate position of (S
1 to S4). Such coordinate transformations are well known and are parallel scans.
It is called the Tereo transformation. Parallel stereo conversion
G for the center of gravity after1′, G2′, Each coordinate is (x1′,
y1′), (X2′, Y2′), Parallel stereo
Epipolar lines after conversion are parallel to the horizontal direction of the image
From y1′ = Y2'become. That is, x1′ And x2
The parallax can be calculated based on the difference between
G1′, G2'Can be associated (S5). After that
Processing is the same as the processing procedure after step S5 of the second embodiment.
It is like.

【0037】このように、TVカメラ11a,11bの
配置が平行ステレオ配置でない場合には、平行ステレオ
変換を施す手順を加えて補正を施すことによって、以後
の処理を平行ステレオ配置の場合と同様に行なうことが
できる。他の処理手順は実施例2と同様である。 (実施例6)上述した各実施例では、対象物の代表点と
して2値化した画像内での対象物の重心を用いていた
が、このような代表点は照明の方向などによって位置が
ずれる場合もある。そこで、本実施例では、あらかじめ
基準となる対象物について設定した基準画像を用い、T
Vカメラ11a,11bで撮像した各画像と基準画像と
のパターンマッチングによって代表点の位置を求めてい
る。ここに、基準画像内で代表点の位置を規定しておけ
ば、代表点としては対象物に関するどのような点であっ
てもよい。
As described above, when the TV cameras 11a and 11b are not arranged in parallel stereo, correction is performed by adding a procedure for performing parallel stereo conversion, so that the subsequent processing is performed in the same manner as in the case of parallel stereo arrangement. Can be done. The other processing procedure is the same as that of the second embodiment. (Embodiment 6) In each of the above-described embodiments, the center of gravity of the object in the binarized image is used as the representative point of the object, but such a representative point is displaced depending on the direction of illumination and the like. In some cases. Therefore, in this embodiment, the reference image set in advance for the reference object is used, and T
The position of the representative point is obtained by pattern matching between each image captured by the V cameras 11a and 11b and the reference image. Here, if the position of the representative point is defined in the reference image, the representative point may be any point on the object.

【0038】パターンマッチングの処理に際しては、図
13に示すように、TVカメラ11a,11bで撮像し
た画像に対して基準画像をパターンマッチングさせ、類
似度が最大になる位置を求める(S1,S2,S3)。
基準画像には代表点が設定してあるから、パターンマッ
チングにより求めた位置から代表点の位置を求め、両画
像から得た代表点同士を対応付けるようにして視差を求
める(S4)。以後の処理は、実施例2におけるステッ
プS5以降の処理手順と同様であって、代表点の3次元
位置を求めた後に、対象物の種類を仕分けしてトレイに
整列するのである。
In the pattern matching process, as shown in FIG. 13, the reference image is pattern-matched with the images picked up by the TV cameras 11a and 11b, and the position where the degree of similarity is maximum is obtained (S1, S2). S3).
Since the representative point is set in the reference image, the position of the representative point is obtained from the position obtained by pattern matching, and the parallax is obtained by associating the representative points obtained from both images with each other (S4). Subsequent processing is the same as the processing procedure from step S5 onward in the second embodiment, and after determining the three-dimensional position of the representative point, the types of objects are sorted and aligned on the tray.

【0039】(実施例7)本実施例は、実施例6と同様
に基準画像とのパターンマッチングによって各画像内で
の対象物の代表点の位置を求める方法である。ただし、
一方の画像について代表点の位置を求めれば、平行ステ
レオ配置の場合には、他方の画像での代表点と上記一方
の画像から求めた代表点とのY座標がほぼ一致するとい
う知見に基づいて、上記他方の画像から代表点を求める
際に代表点を探索する範囲を制限することで、処理の高
速化を図っている。
(Embodiment 7) This embodiment is a method for obtaining the position of the representative point of the object in each image by pattern matching with the reference image, as in the case of the embodiment 6. However,
Based on the finding that if the position of the representative point is obtained for one image, the Y coordinate of the representative point of the other image and the Y-coordinate of the representative point obtained from the one image substantially match in the case of parallel stereo arrangement. By limiting the range in which the representative point is searched when obtaining the representative point from the other image, the processing speed is increased.

【0040】すなわち、図15に示すように、一方の画
像(左側の画像)から代表点の座標を求めた後、他方の
画像(右側の画像)から代表点を求めるに際して、図示
する範囲TにY座標を制限してパターンマッチングを行
なうことにより、画像内の全領域でパターンマッチング
を行なう場合に比較して、基準画像との類似度が最大に
なる位置を短時間で抽出できるようにしているのであ
る。
That is, as shown in FIG. 15, after obtaining the coordinates of the representative point from one image (the image on the left side) and then obtaining the representative point from the other image (the image on the right side), within the range T shown in the figure. By performing pattern matching while limiting the Y coordinate, the position where the degree of similarity with the reference image is maximized can be extracted in a short time as compared with the case where pattern matching is performed in the entire area of the image. Of.

【0041】上述した処理手順をまとめると、図14の
ようになり、両TVカメラ11a,11bで撮像した画
像のうちの一方について基準画像とのパターンマッチン
グによって代表点の位置を求め(S1,S2)、その
後、他方の画像内において基準画像とのパターンマッチ
ングを行なうY座標の領域を制限し(S3)、制限され
た範囲内で基準画像とのパターンマッチングを行ない代
表点を抽出するのである(S4)。以上のようにして、
両画像から代表点を抽出した後の処理は実施例2のステ
ップS5以降と同様であって、代表点のX座標の差から
視差を求めて代表点の3次元位置を求め、対象物を仕分
けしてトレイに整列させるのである。
The processing procedure described above can be summarized as shown in FIG. 14, and the position of the representative point is obtained by pattern matching with one of the images captured by the TV cameras 11a and 11b with the reference image (S1, S2). ) After that, the area of the Y coordinate for pattern matching with the reference image in the other image is limited (S3), and pattern matching with the reference image is performed within the limited range to extract the representative point ( S4). As described above,
The process after extracting the representative points from both images is the same as that of step S5 and subsequent steps of the second embodiment, and the parallax is obtained from the difference between the X coordinates of the representative points to obtain the three-dimensional position of the representative points, and the objects are sorted. Then align them on the tray.

【0042】(実施例8)上記各実施例は、2台のTV
カメラ11a,11bを用いていたが、本実施例は図1
7に示すように1台のTVカメラ11を用い、対象物1
とTVカメラ11とを相対的に移動させることによっ
て、2台のTVカメラ11a,11bを用いた場合と同
様の処理を可能にしている。実際には、TVカメラ11
を固定しておき、対象物1を移動させているのであっ
て、生産工程などでワークを対象物とする場合に、ワー
クは搬送されているから、このような処理方法を採用す
ることは実用性がある。
(Embodiment 8) In each of the above embodiments, two TVs are used.
Although the cameras 11a and 11b were used, in this embodiment, FIG.
As shown in FIG. 7, one TV camera 11 is used and the object 1
By relatively moving the TV camera 11 and the TV camera 11, the same processing as in the case of using the two TV cameras 11a and 11b is enabled. Actually, the TV camera 11
Is fixed and the object 1 is moved, and when the workpiece is the object in the production process or the like, since the workpiece is transported, it is practical to adopt such a processing method. There is a nature.

【0043】すなわち、図16に示すように、TVカメ
ラ11によって対象物1を撮像し(S1)、対象物1を
既知の移動量だけ既知方向に移動させた後に(S2)、
TVカメラ11によって再び対象物1を撮像する(S
3)。このようにして画像蓄積部12a,12bには対
象物1の各位置での画像を格納することができるから、
以後の処理は実施例2のステップS2以降と同様にな
る。
That is, as shown in FIG. 16, the object 1 is imaged by the TV camera 11 (S1), and the object 1 is moved in the known direction by the known movement amount (S2).
The image of the object 1 is captured again by the TV camera 11 (S
3). In this way, the images at each position of the object 1 can be stored in the image storage units 12a and 12b.
Subsequent processing is the same as step S2 and subsequent steps in the second embodiment.

【0044】(実施例9)上述した各実施例では、1つ
の対象物1ごとに1個の代表点を用いていたが、本実施
例では、1つの対象物について複数個の代表点を用いる
例を示す。たとえば、対象物1として、図19に示すよ
うに、複数本(ここでは3本)のピンC1,C2 ,C3
が突出している2種類の物品であって、各物品では各ピ
ンC1 ,C 2 ,C3 の高さが異なると想定している。両
物品についてピンC1 ,C2 ,C3の高さを除く寸法は
等しいものとする。そこで、各ピンC1 ,C2 ,C3
頂上面にそれぞれ代表点を設定するとすれば、各物品
(対象物)について3個ずつの代表点が存在することに
なる。いま、TVカメラ11a,11bで撮像した画像
について(図18のS1)、濃度を適当な閾値で2値化
することにより(図18のS2)、図20に示すよう
に、ピンC1 ,C2 ,C3 の頂上面のみを抽出すること
ができる。そこで、各ピンC1 ,C2 ,C3 の頂上面の
重心G1 〜G6 を抽出し代表点として用いる(図18の
S3)。重心G1 〜G6 を対応付けは実施例2と同様で
あって、平面ステレオ配置を仮定することによって、各
重心G1 〜G 6 の対応付けをエピポーラ線上で行なうこ
とができる。つまり、対応する重心G 1 〜G6 は同じY
座標を有しているから、容易に対応付けることができる
(図18のS4)。
(Embodiment 9) In each of the embodiments described above, one
Although one representative point was used for each target object of
In the example, multiple representative points are used for one object
Here is an example: For example, the object 1 is shown in FIG.
Sea urchin, multiple (here three) pins C1, C2, C3
Are two types of articles with
C1, C 2, C3Assume that the heights of the different. Both
About goods Pin C1, C2, C3Dimensions excluding the height of
Shall be equal. Therefore, each pin C1, C2, C3of
If a representative point is set on the top surface,
There are three representative points for (object)
Become. Images taken by TV cameras 11a and 11b
(S1 in FIG. 18), the density is binarized with an appropriate threshold.
By doing (S2 in FIG. 18), as shown in FIG.
On pin C1, C2, C3Extract only the top surface of
Can be. Therefore, each pin C1, C2, C3On the top of
Center of gravity G1~ G6Is extracted and used as a representative point (see FIG. 18).
S3). Center of gravity G1~ G6The correspondence is the same as in the second embodiment.
By assuming a planar stereo arrangement, each
Center of gravity G1~ G 6Be matched on the epipolar line.
You can That is, the corresponding center of gravity G 1~ G6Is the same Y
Since it has coordinates, it can be easily associated
(S4 in FIG. 18).

【0045】こうして重心G1 〜G6 を対応付けた後
に、対応する各重心(G1 ,G4 ),(G2 ,G5 ),
(G3 ,G6 )によって求めた視差から3個の代表点の
3次元位置を求める(図18のS5)。さらに、ステッ
プS6のように、3個の代表点の高さデータの並びパタ
ーンPaを記憶し、さらにステップS7でその並びパタ
ーンPaとあらかじめ登録されている対象物11 の高さ
データの並びパターンP 1 とを比較することにより、対
象物の種類を識別することができる。つまり、以後の処
理は実施例2におけるステップS7以降の処理と同様で
あって、対象物の種類に応じてトレイに仕分けて整列さ
せることができる。
Center of gravity G1~ G6After associating
, The corresponding center of gravity (G1, GFour), (G2, GFive),
(G3, G6) Of the three representative points from the parallax
A three-dimensional position is obtained (S5 in FIG. 18). In addition,
As in step S6, the pattern of the height data of the three representative points is arranged.
Memory Pa, and in step S7, the arrangement pattern is stored.
Object 1 that is registered in advance with Pane Pa1Height of
Data arrangement pattern P 1By comparing and
You can identify the type of elephant. In other words,
The processing is the same as the processing after step S7 in the second embodiment.
It is sorted and arranged in trays according to the type of object.
Can be made.

【0046】(実施例10)本実施例では、TVカメラ
11a,11bとしてカラー画像を取り込むことができ
るものを用いており、対象物1には他の部位とは異なる
色に着色した代表点を設けている。いま、代表点の色を
赤色とすれば、図21に示すように、各TVカメラ11
a,11bで撮像し(S1)、対象物1の画像から赤色
成分のみを抽出する(S2)。代表点は赤色成分の箇所
の重心であるから、赤色成分の箇所の重心を抽出し(S
3)、抽出した重心の対応付けを行なう(S4)。以後
の処理は実施例2におけるステップS5以降の処理と同
様になる。
(Embodiment 10) In the present embodiment, TV cameras 11a and 11b capable of capturing a color image are used, and the object 1 has a representative point colored in a color different from other parts. It is provided. Now, assuming that the color of the representative point is red, as shown in FIG.
Imaging is performed with a and 11b (S1), and only the red component is extracted from the image of the object 1 (S2). Since the representative point is the center of gravity of the red component, the center of gravity of the red component is extracted (S
3) The extracted centroids are associated (S4). The subsequent processing is the same as the processing after step S5 in the second embodiment.

【0047】[0047]

【発明の効果】請求項1の発明は、ステレオ画像法にお
いて、第1画像および第2画像の中での対象物の表面の
同一の代表点の位置をそれぞれ検出し、第1画像と第2
画像とにおける上記代表点を対応付けることによって第
1画像と第2画像との視差を求めているから、従来のよ
うに、画像内でのすべての線セグメントを対応付ける処
理に比較すれば、第1画像と第2画像との中での対象物
の代表点を対応付けるだけの簡単な処理になって、距離
情報を求める処理を高速化することができるという利点
がある。
According to the invention of claim 1, in the stereo image method, the positions of the same representative point on the surface of the object in the first image and the second image are respectively detected, and the first image and the second image are detected.
Since the parallax between the first image and the second image is obtained by associating the representative points in the image with each other, the first image can be compared with the conventional process of associating all the line segments in the image. This is a simple process of associating the representative points of the target object in the second image with those of the second image, and has an advantage that the process of obtaining the distance information can be speeded up.

【0048】請求項2の発明では、2値画像の中での対
象物の重心を代表点に用いるから、再現性のよい代表点
を簡単な方法で求めることができるという効果がある。
請求項3の発明は、第1画像と第2画像とから求めた対
象物の重心を位置情報によって対応付けるだけでなく、
各重心の周囲の濃度の類似度に基づいて第1画像と第2
画像との対応付けを行なうから、重心の位置に他の情報
も付加して用いることで、第1画像と第2画像との対応
付けを一層正確に行なうことができるという利点を有す
る。請求項4の発明は、第1画像と第2画像とから求め
た対象物の重心を位置情報によって対応付けるだけでな
く、第1画像および第2画像の中での対象物の慣性主軸
の方向の類似度に基づいて第1画像と第2画像との対応
付けを行なうから、重心の座標のみを用いる場合に比較
して情報量が多くなることで対応付けが一層正確に行な
えるという利点がある。
According to the second aspect of the present invention, since the center of gravity of the object in the binary image is used as the representative point, the representative point having good reproducibility can be obtained by a simple method.
The invention of claim 3 not only correlates the center of gravity of the object obtained from the first image and the second image with position information, but also
The first image and the second image based on the similarity in density around each centroid.
Since the images are associated with each other, there is an advantage that the first image and the second image can be more accurately associated with each other by adding other information to the position of the center of gravity. According to the invention of claim 4, not only the center of gravity of the object obtained from the first image and the second image is associated with the position information, but also the direction of the principal axis of inertia of the object in the first image and the second image is determined. Since the first image and the second image are associated with each other based on the degree of similarity, there is an advantage that the amount of information is larger than that when only the coordinates of the center of gravity are used so that the association can be performed more accurately. .

【0049】請求項5の発明は、第1画像と第2画像と
における代表点の位置を第1画像と第2画像とを撮像す
る際の撮像手段の光軸を平行とし、かつ第1画像と第2
画像との中心間を結ぶ方向を第1画像および第2画像の
水平軸に平行とし、さらに第1画像と第2画像とを撮像
する撮像手段の拡大率を等しく設定したときの代表点の
位置に一致するように補正し、補正後の代表点の位置に
基づいて第1画像と第2画像とを対応付けるから、代表
点の対応付けをより正確に行なうことができ、求めた距
離情報の信頼性が高くなるという効果を奏する。
According to a fifth aspect of the present invention, the positions of the representative points in the first image and the second image are set such that the optical axes of the image pickup means for picking up the first image and the second image are parallel, and And the second
The position of the representative point when the direction connecting the centers of the images is parallel to the horizontal axes of the first image and the second image and the enlargement ratios of the image capturing means for capturing the first image and the second image are set to be equal to each other. Since the first image and the second image are associated with each other based on the position of the corrected representative point, the representative points can be more accurately associated with each other, and the reliability of the obtained distance information can be improved. It has the effect of increasing the property.

【0050】請求項6の発明は、第1画像および第2画
像を基準画像にパターンマッチングさせることによって
第1画像および第2画像の中での対象物の表面の1つの
代表点の位置をそれぞれ検出するから、代表点の位置を
求める処理が簡単になるという利点がある。請求項7の
発明は、第1画像より求めた代表点の位置に基づいて第
2画像における代表点の存在領域を制限して第2画像か
ら代表点を抽出するのであり、第1画像から得られた情
報に基づいて制限された範囲で第2画像の代表点を抽出
するから、第2画像において代表点を抽出する処理が簡
単になり、より一層高速かつ精度よく3次元形状を認識
することができるという利点を有する。
According to the sixth aspect of the invention, the position of one representative point on the surface of the object in each of the first image and the second image is determined by pattern matching the first image and the second image with the reference image. Since the detection is performed, there is an advantage that the process of obtaining the position of the representative point becomes simple. According to the invention of claim 7, the representative point is extracted from the second image by limiting the area where the representative point exists in the second image based on the position of the representative point obtained from the first image. Since the representative points of the second image are extracted in a limited range based on the obtained information, the process of extracting the representative points in the second image is simplified, and the three-dimensional shape can be recognized with higher speed and accuracy. It has the advantage that

【0051】請求項8の発明は、撮像手段を用いて第1
画像を撮像した後に、同じ撮像手段を所定距離だけ移動
させて第2画像を撮像するから、1台の撮像手段を用い
て低コストで3次元形状を認識することができるという
利点がある。請求項9の発明は、2台の撮像手段を用い
るから第1画像と第2画像とを短時間で得ることがで
き、しかも、両撮像手段の位置関係を固定しておくこと
ができるから、精度よく視差を求めることができるとい
う利点がある。
According to the invention of claim 8, the image pickup means is used.
After capturing the image, the same image capturing unit is moved by a predetermined distance to capture the second image, which is advantageous in that the three-dimensional shape can be recognized at low cost using one image capturing unit. According to the invention of claim 9, since the two image pickup means are used, the first image and the second image can be obtained in a short time, and moreover, the positional relationship between both the image pickup means can be fixed. There is an advantage that the parallax can be obtained with high accuracy.

【0052】請求項10の発明は、1つの対象物につい
て複数個の代表点を求め、複数の代表点の距離情報に基
づいて対象物の形状を認識するから、より正確に物体を
認識することができるという利点がある。請求項11の
発明は、第1画像および第2画像はカラー画像から特定
色成分を抽出した画像であって、色情報を用いることで
代表点の対応付けが容易かつ正確になり、求めた距離情
報の信頼性が高くなるという利点がある。
According to the tenth aspect of the present invention, a plurality of representative points are obtained for one object, and the shape of the object is recognized based on the distance information of the plurality of representative points. Therefore, the object can be recognized more accurately. The advantage is that According to an eleventh aspect of the present invention, the first image and the second image are images obtained by extracting the specific color component from the color image, and by using the color information, the representative points can be easily and accurately associated with each other, and the calculated distance can be obtained. There is an advantage that the reliability of information becomes high.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例1を示すブロック図である。FIG. 1 is a block diagram showing a first embodiment.

【図2】実施例1の動作説明図である。FIG. 2 is an operation explanatory diagram of the first embodiment.

【図3】実施例1におけるTVカメラで撮像した画像を
示す図である。
FIG. 3 is a diagram showing an image captured by a TV camera according to the first embodiment.

【図4】実施例1における2値化後の画像を示す図であ
る。
FIG. 4 is a diagram showing an image after binarization in the first embodiment.

【図5】実施例2における装置の例を示す概略構成図で
ある。
FIG. 5 is a schematic configuration diagram showing an example of an apparatus according to a second embodiment.

【図6】実施例2の処理手順を示す動作説明図である。FIG. 6 is an operation explanatory view showing the processing procedure of the second embodiment.

【図7】実施例3の処理手順を示す動作説明図である。FIG. 7 is an operation explanatory view showing the processing procedure of the third embodiment.

【図8】実施例3における2値化後の画像を示す図であ
る。
FIG. 8 is a diagram showing an image after binarization according to a third embodiment.

【図9】実施例4の処理手順を示す動作説明図である。FIG. 9 is an operation explanatory diagram illustrating a processing procedure of the fourth embodiment.

【図10】実施例4における2値化後の画像を示す図で
ある。
FIG. 10 is a diagram showing an image after binarization in the fourth embodiment.

【図11】実施例5の処理手順を示す動作説明図であ
る。
FIG. 11 is an operation explanatory view showing the processing procedure of the fifth embodiment.

【図12】実施例5における2値化後の画像を示す図で
ある。
FIG. 12 is a diagram showing an image after binarization in a fifth example.

【図13】実施例6の処理手順を示す動作説明図であ
る。
FIG. 13 is an operation explanatory diagram illustrating a processing procedure of the sixth embodiment.

【図14】実施例7の処理手順を示す動作説明図であ
る。
FIG. 14 is an operation explanatory view showing the processing procedure of the seventh embodiment.

【図15】実施例7における2値化後の画像を示す図で
ある。
FIG. 15 is a diagram showing an image after binarization in Example 7.

【図16】実施例8の処理手順を示す動作説明図であ
る。
FIG. 16 is an operation explanatory view showing the processing procedure of the eighth embodiment.

【図17】実施例8の概念説明図である。FIG. 17 is a conceptual explanatory diagram of the eighth embodiment.

【図18】実施例9の処理手順を示す動作説明図であ
る。
FIG. 18 is an operation explanatory view showing the processing procedure of the ninth embodiment.

【図19】実施例9で認識する対象物の形状を示す斜視
図である。
FIG. 19 is a perspective view showing the shape of an object recognized in Example 9.

【図20】実施例9における2値化後の画像を示す図で
ある。
FIG. 20 is a diagram showing an image after binarization in Example 9.

【図21】実施例10の処理手順を示す動作説明図であ
る。
FIG. 21 is an operation explanatory view showing the processing procedure of the tenth embodiment.

【符号の説明】[Explanation of symbols]

1 対象物 11 対象物 12 対象物 2 代表点 3 ロボット 41 トレイ 42 トレイ 11a TVカメラ 11b TVカメラ 12a 画像蓄積部 12b 画像蓄積部 13a 代表点抽出部 13a 代表点抽出部 14 代表点対応付け部 15 3次元位置算出部 16 物体認識部 G1 重心 G2 重心 G3 重心 G4 重心 G5 重心 G6 重心1 Target 1 1 Target 1 2 Target 2 Representative Point 3 Robot 4 1 Tray 4 2 Tray 11a TV Camera 11b TV Camera 12a Image Storage Section 12b Image Storage Section 13a Representative Point Extraction Section 13a Representative Point Extraction Section 14 Representative Point Correspondence Attaching part 15 3D position calculating part 16 Object recognition part G 1 centroid G 2 centroid G 3 centroid G 4 centroid G 5 centroid G 6 centroid

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 対象物に対して異なる2位置で対象物の
表面に略直交する方向から撮像手段によって第1画像お
よび第2画像を撮像し、第1画像および第2画像をそれ
ぞれ濃度について2値化した2つの2値画像を求め、2
つの2値画像に基づいて第1画像および第2画像の中で
の対象物の表面の同一の代表点の位置をそれぞれ検出
し、第1画像と第2画像とにおける上記代表点を対応付
けることによって第1画像と第2画像との視差を求め、
三角測量法を適用することにより対象物の表面に直交す
る方向における撮像手段との間の距離情報を求め、第1
画像あるいは第2画像より求められる対象物の2次元形
状に上記距離情報を組み合わせることによって対象物の
3次元形状を認識することを特徴とする3次元形状の認
識方法。
1. A first image and a second image are picked up by an image pickup means at two different positions with respect to the object from a direction substantially orthogonal to the surface of the object, and the first image and the second image are respectively set to 2 in terms of density. Find two binarized images, 2
By detecting the positions of the same representative point on the surface of the object in the first image and the second image based on the two binary images, respectively, and by associating the representative points in the first image and the second image with each other. Calculate the parallax between the first image and the second image,
By applying the triangulation method, the distance information between the object and the imaging means in the direction orthogonal to the surface of the object is obtained,
A method for recognizing a three-dimensional shape, characterized by recognizing a three-dimensional shape of an object by combining the distance information with the two-dimensional shape of the object obtained from an image or a second image.
【請求項2】 代表点は2値画像の中での対象物の重心
であることを特徴とする請求項1記載の3次元形状の認
識方法。
2. The three-dimensional shape recognition method according to claim 1, wherein the representative point is the center of gravity of the object in the binary image.
【請求項3】 第1画像から求めた2値画像における重
心と、第2画像から求めた2値画像における重心とを一
致させる際に各重心の周囲の濃度の類似度に基づいて第
1画像と第2画像との対応付けを行なうことを特徴とす
る請求項2記載の3次元形状の認識方法。
3. The first image based on the similarity in density around each centroid when matching the centroid in the binary image obtained from the first image with the centroid in the binary image obtained from the second image. The method for recognizing a three-dimensional shape according to claim 2, characterized in that the second image and the second image are associated with each other.
【請求項4】 第1画像および第2画像の中での対象物
の慣性主軸を求め、第1画像から求めた2値画像におけ
る重心と、第2画像から求めた2値画像における重心と
を一致させる際に、慣性主軸の方向の類似度に基づいて
第1画像と第2画像との対応付けを行なうことを特徴と
する請求項2記載の3次元形状の認識方法。
4. An inertial principal axis of an object in the first image and the second image is obtained, and a center of gravity in the binary image obtained from the first image and a center of gravity in the binary image obtained from the second image are calculated. The method for recognizing a three-dimensional shape according to claim 2, wherein the first image and the second image are associated with each other based on the degree of similarity in the direction of the principal axis of inertia when they match.
【請求項5】 第1画像と第2画像とを撮像する際の撮
像手段の光軸を平行とし、かつ第1画像と第2画像との
中心間を結ぶ方向を第1画像および第2画像の水平軸に
平行とし、さらに第1画像と第2画像とを撮像する撮像
手段の拡大率を等しく設定したときの代表点の位置に一
致するように、第1画像と第2画像とにおける代表点の
位置を補正し、補正後の代表点の位置に基づいて第1画
像と第2画像とを対応付けることを特徴とする請求項1
ないし請求項4のいずれかに記載の3次元形状の認識方
法。
5. The first image and the second image are arranged such that the optical axes of the image pickup means are parallel to each other when the first image and the second image are picked up and the centers of the first image and the second image are connected to each other. Of the first image and the second image so as to be parallel to the horizontal axis of the first image and to match the position of the representative point when the enlargement ratios of the image capturing means for capturing the first image and the second image are set to be equal. The point position is corrected, and the first image and the second image are associated with each other based on the corrected position of the representative point.
The method for recognizing a three-dimensional shape according to claim 4.
【請求項6】 対象物に対して異なる2位置で対象物の
表面に略直交する方向から撮像手段によって濃淡画像で
ある第1画像および第2画像を撮像し、第1画像および
第2画像と基準画像とのそれぞれのパターンマッチング
によって第1画像および第2画像の中での対象物の表面
の1つの代表点の位置をそれぞれ検出し、第1画像と第
2画像とにおける上記代表点を対応付けることによって
第1画像と第2画像との視差を求め、三角測量法を適用
することにより対象物の表面に直交する方向における撮
像手段との間の距離情報を求め、第1画像あるいは第2
画像より求められる対象物の2次元形状に上記距離情報
を組み合わせることによって対象物の3次元形状を認識
することを特徴とする3次元形状の認識方法。
6. A first image and a second image, which are grayscale images, are picked up by an image pickup means from two directions different from each other in a direction substantially orthogonal to the surface of the target object, and the first image and the second image are taken. The position of one representative point on the surface of the object in each of the first image and the second image is detected by the respective pattern matching with the reference image, and the representative points in the first image and the second image are associated with each other. By so doing, the parallax between the first image and the second image is obtained, and by applying the triangulation method, the distance information between the object and the imaging means in the direction orthogonal to the surface of the object is obtained.
A method for recognizing a three-dimensional shape, characterized by recognizing a three-dimensional shape of an object by combining the distance information with the two-dimensional shape of the object obtained from an image.
【請求項7】 第1画像より求めた代表点の位置に基づ
いて第2画像における代表点の存在領域を制限して第2
画像から代表点を抽出することを特徴とする請求項1な
いし請求項6のいずれかに記載の3次元形状の認識方
法。
7. The second region is limited by limiting the area where the representative point exists in the second image based on the position of the representative point obtained from the first image.
The method for recognizing a three-dimensional shape according to any one of claims 1 to 6, wherein a representative point is extracted from the image.
【請求項8】 撮像手段を用いて第1画像を撮像した後
に、同じ撮像手段を所定距離だけ移動させて第2画像を
撮像することを特徴とする請求項1ないし請求項7のい
ずれかに記載の3次元形状の認識方法。
8. The method according to claim 1, wherein after the first image is captured by the image capturing means, the same image capturing means is moved by a predetermined distance to capture the second image. The three-dimensional shape recognition method described.
【請求項9】 第1画像と第2画像とを各別の撮像手段
によって撮像することを特徴とする請求項1ないし請求
項7のいずれかに記載の3次元形状の認識方法。
9. The method for recognizing a three-dimensional shape according to claim 1, wherein the first image and the second image are imaged by different imaging means.
【請求項10】 1つの対象物について複数個の代表点
を求め、複数の代表点の距離情報に基づいて対象物の形
状を認識することを特徴とする請求項1ないし請求項7
のいずれかに記載の3次元形状の認識方法。
10. The method according to claim 1, wherein a plurality of representative points are obtained for one object, and the shape of the object is recognized based on distance information of the plurality of representative points.
The method for recognizing a three-dimensional shape according to any one of 1.
【請求項11】 第1画像および第2画像はカラー画像
から特定色成分を抽出した画像であることを特徴とする
請求項1ないし請求項7のいずれかに記載の3次元形状
の認識方法。
11. The three-dimensional shape recognition method according to claim 1, wherein the first image and the second image are images obtained by extracting a specific color component from a color image.
JP7011083A 1995-01-26 1995-01-26 Method for recognizing three-dimensional shape Pending JPH08201041A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7011083A JPH08201041A (en) 1995-01-26 1995-01-26 Method for recognizing three-dimensional shape

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7011083A JPH08201041A (en) 1995-01-26 1995-01-26 Method for recognizing three-dimensional shape

Publications (1)

Publication Number Publication Date
JPH08201041A true JPH08201041A (en) 1996-08-09

Family

ID=11768091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7011083A Pending JPH08201041A (en) 1995-01-26 1995-01-26 Method for recognizing three-dimensional shape

Country Status (1)

Country Link
JP (1) JPH08201041A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289631A (en) * 2000-04-06 2001-10-19 Nippon Signal Co Ltd:The Distance measuring apparatus and distance measuring method
JP2007187524A (en) * 2006-01-12 2007-07-26 Shimadzu Corp Magnetic mapping device
CN102506753A (en) * 2011-11-04 2012-06-20 西安电子科技大学 Fourteen-point spherical wavelet transformation-based shape difference detection method for irregular parts
CN111919086A (en) * 2018-03-30 2020-11-10 仓敷纺绩株式会社 Three-dimensional measuring device and three-dimensional measuring method for linear object

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289631A (en) * 2000-04-06 2001-10-19 Nippon Signal Co Ltd:The Distance measuring apparatus and distance measuring method
JP4531921B2 (en) * 2000-04-06 2010-08-25 日本信号株式会社 Distance measuring device
JP2007187524A (en) * 2006-01-12 2007-07-26 Shimadzu Corp Magnetic mapping device
CN102506753A (en) * 2011-11-04 2012-06-20 西安电子科技大学 Fourteen-point spherical wavelet transformation-based shape difference detection method for irregular parts
CN111919086A (en) * 2018-03-30 2020-11-10 仓敷纺绩株式会社 Three-dimensional measuring device and three-dimensional measuring method for linear object

Similar Documents

Publication Publication Date Title
JP3525896B2 (en) Three-dimensional object recognition method and bin picking system using the same
Tabata et al. High-speed 3D sensing with three-view geometry using a segmented pattern
CN111551559A (en) LCD (liquid Crystal display) liquid crystal screen defect detection method based on multi-view vision system
CN101813636B (en) LED chip panoramic scanning matching method
CN112518748A (en) Automatic grabbing method and system of vision mechanical arm for moving object
CN106067031A (en) Cooperate with the degree of depth learning network Machine Vision Recognition system based on artificial mechanism for correcting errors
CN109454004B (en) Robot scanning and sorting system and method
JPH10240934A (en) Object extractor
JP3372419B2 (en) Object recognition method
JPH08201041A (en) Method for recognizing three-dimensional shape
JPH05215547A (en) Method for determining corresponding points between stereo images
JP2017030115A (en) Picking device, picking method and picking program
JP5263501B2 (en) Work position recognition apparatus and method for depalletizing
JPH0778252A (en) Object recognition method
Nakashima et al. Object detection by using interframe difference algorithm
JPH05157518A (en) Object recognizing apparatus
Hashimoto et al. 3-D Object Recognition Based on Integration of Range Image and Gray-scale Image.
US6915010B2 (en) Real time object localization and recognition from silhouette images
JPH05122602A (en) Range moving image input processing method
EP3376435B1 (en) Image processing apparatus, image processing system, image processing method, and program
US20230150141A1 (en) Training data generation device, training data generation method using the same and robot arm system using the same
JP2001134762A (en) Selector for bottles
CN116883321A (en) Sorting and sorting method and system for stacking fluorescence immunochromatography reagent cards
JPH01311207A (en) Three-dimensional shape measuring method
Au et al. Affine invariant recognition of 2D occluded objects using geometric hashing and distance transformation

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20001017