JP2921496B2 - Image processing device and object transfer device - Google Patents

Image processing device and object transfer device

Info

Publication number
JP2921496B2
JP2921496B2 JP8184917A JP18491796A JP2921496B2 JP 2921496 B2 JP2921496 B2 JP 2921496B2 JP 8184917 A JP8184917 A JP 8184917A JP 18491796 A JP18491796 A JP 18491796A JP 2921496 B2 JP2921496 B2 JP 2921496B2
Authority
JP
Japan
Prior art keywords
image
distance image
distance
generating
hypothesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8184917A
Other languages
Japanese (ja)
Other versions
JPH1031742A (en
Inventor
橋本  学
和彦 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP8184917A priority Critical patent/JP2921496B2/en
Priority to TW085112386A priority patent/TW324781B/en
Priority to KR1019960061142A priority patent/KR100271408B1/en
Publication of JPH1031742A publication Critical patent/JPH1031742A/en
Application granted granted Critical
Publication of JP2921496B2 publication Critical patent/JP2921496B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、積荷を自動的に
移載するロボットや産業機械の積載された荷物の位置を
認識する画像処理装置および物体移載装置に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an object transfer apparatus for recognizing a position of a loaded load of a robot or an industrial machine for automatically transferring a load.

【0002】[0002]

【従来の技術】積荷を自動的に移載する手段の画像処理
装置の例として特開平6ー249631号公報に開示さ
れたものがある。図16はその発明の画像計測の処理手
順の概略説明図、図17に動作を示すフローチャート、
18はパターン光を用いた空間コード化の原理を示す
図である。
2. Description of the Related Art An example of an image processing apparatus for automatically transferring a load is disclosed in Japanese Patent Application Laid-Open No. 6-249631. FIG. 16 is a schematic explanatory diagram of the image measurement processing procedure of the invention, FIG. 17 is a flowchart showing the operation,
FIG. 18 is a diagram showing the principle of space coding using pattern light.

【0003】この画像処理装置は、パレット1上に積載
された段ボール箱Wを計測対象とするものであり、図
に示すように、パレット1の斜め上方に投光器2、パ
レット1の中心部上方に配置されたカメラ3からなり、
投光器2は各種のパターン光時系列的に投光すること
により、測定空間を互いに積層された楔状測定領域r0
〜rnに分割するスリットパターン光を投光するもので
ある。スリットパターンは、例えば図18のA、B、C
の白黒の2値パターンの3つのパターン光を投光するよ
うになっており、白は光の当たっている部分、黒は光の
当たっていない部分である。このようなパターンは、例
えば液晶シャッターのようなドットマトリクス電気シャ
ッタ−を用いて作ることができる。
[0003] The image processing apparatus is for the cardboard box W stacked on the pallet 1 and the measurement object, Figure 1
As shown in FIG. 8 , the pallet 1 comprises a light projector 2 obliquely above and a camera 3 disposed above the center of the pallet 1.
The light projector 2 emits various pattern lights in chronological order, so that the measurement space is overlapped with a wedge-shaped measurement area r0.
To rn. A slit pattern, for example, FIG. 18, B, C
The black and white binary patterns of the three patterns are projected. White is a light-irradiated part, and black is a light-irradiated part. Such a pattern can be created, for example, using a dot matrix electric shutter such as a liquid crystal shutter.

【0004】光が当たっている状態を“1”、当たって
いない状態を“0”と表現すると、図16においては、
パターンAが投光されている時は前から後ろに向かっ
て、半分づつ1、0となる。パターンBでは、前から順
に1/4づつ1、0、1、0となる。パターンCでは、
1/8づつ1、0、1、0、1、0、1、0となる。
[0004] The state light is striking "1", when expressed as "0" when no hit, in FIG. 16,
When the pattern A is projected, the values are half and 1, 0 from the front to the rear. In pattern B, the values are 1, 0, 1, and 0 in quarters from the front. In pattern C,
It becomes 1, 0, 1, 0, 1, 0, 1, 0 in 1/8 increments.

【0005】これら3つのパターンを投光してそれぞれ
画像を撮像すると、各画素については「000」から
「111」の3ビットコードにコード化されたデータの
どれかに対応させることができる。このようなコードを
空間コードと呼ぶ。ある空間コードに対応するのは3次
元空間上では楔状領域であり。そこに物体Wが存在して
いると物体の表面上の画像領域にコードが割り当てられ
ることになる。一方、カメラで撮像した画像から、画像
上のある画素の空間コードがわかれば、どの楔状領域に
相当するかがわかるので、三角測量の原理によって物体
表面の高さ、即ちカメラからの距離がわかることにな
る。この説明ではパターンの種類をA、B、Cの3種類
としたため、画像全体をつの楔状領域に分割したが、パ
ターンの種類を8種類とすれば、楔状領域の数は256
になり、より精密に距離情報の精度を向上させることが
できる。即ち、空間コード画像を生成することによっ
て、画像上のそれぞれの画素のカメラからの距離が計測
できる。
When an image is picked up by projecting these three patterns, each pixel can be made to correspond to any of data encoded into a 3-bit code of “000” to “111”. Such a code is called a space code. A wedge-shaped area in a three-dimensional space corresponds to a certain space code. If the object W exists there, a code is assigned to an image area on the surface of the object. On the other hand, from the image captured by the camera, if the spatial code of a certain pixel on the image is known, it is possible to determine which wedge-shaped area corresponds to it. Therefore, the height of the object surface, that is, the distance from the camera can be determined by the principle of triangulation. Will be. In this description, since the types of patterns are three types of A, B, and C, the entire image is divided into two wedge-shaped regions. However, if the number of types of patterns is eight, the number of wedge-shaped regions is 256.
And the accuracy of the distance information can be more precisely improved. That is, by generating a space code image, the distance of each pixel on the image from the camera can be measured.

【0006】図16について、図17に示すフローチャ
ートにしたがって説明する。ステップST01でシステ
ムが起動されると、ステップST02において空間コー
ド画像が生成され、図16(A)の状態にある積荷の上
面に同図(D)のような空間コード画像が得られ、画像
を水平に左から右に走査し、もっとも空間コードの大き
いデータを持つ領域を抽出すれば同図(E)のように最
上段物体の上面部分荷対応する画像が得られる。ステッ
プST04では、最上段物体領域をグループ化してい
る。空間コード画像において隣接する画素間で空間コー
ドが所定の範囲内に近接している時、それら領域を同じ
グループと判断したり、各積荷上縁間に生じる溝状の部
分やすき間部分の空間コードの変化をもとにグループ化
している。グループ化された各物体は、続くステップS
T05で各物体の3次元位置が計測される。グループ化
された物体の辺縁部分に相当する部分の3次元座標を何
点かサンプリングし、ステップST06で、それらをも
とに物体の重心位置と姿勢、および高さ情報を得る。ス
テップST07で処理を終了する。このようにして得ら
れた積荷の位置データを用いて、ロボット等で積荷をひ
とつづつ移載することができる。
FIG. 16 will be described with reference to the flowchart shown in FIG . When the system is started in step ST01, the generated spatial code image in step ST02, the spatial code image as shown in FIG. (D) on the upper surface of the load in the state shown in FIG. 16 (A) is obtained, image By horizontally scanning from left to right and extracting an area having data having the largest space code, an image corresponding to the upper surface partial load of the uppermost object can be obtained as shown in FIG. In step ST04, the uppermost object regions are grouped. When spatial codes are close to each other within a predetermined range between adjacent pixels in a spatial code image, those areas are determined to be the same group, or a spatial code of a groove-shaped portion or a gap generated between upper edges of each cargo. Are grouped on the basis of changes. Each grouped object is processed in the following step S
At T05, the three-dimensional position of each object is measured. Some three-dimensional coordinates of a portion corresponding to a peripheral portion of the grouped objects are sampled, and in step ST06, the center of gravity position, posture, and height information of the object are obtained based on the three-dimensional coordinates. The process ends in step ST07. Using the position data of the cargo thus obtained, the cargo can be transferred one by one by a robot or the like.

【0007】この画像処理装置では、積荷の認識に必要
な情報をすべて空間コード画像から獲得し、例えば解像
度256×256または512×512画素といった高
い解像度の距離画像を生成する必要があり、時系列的に
投光パターンを変化させる機構を有する高精度のパター
ン投光器が使用され、時系列で発生させた複数の投光パ
ターンそれぞれに対応させて、画像を入力するので、大
容量の画像メモリを必要とする。
In this image processing apparatus, it is necessary to obtain all information necessary for cargo recognition from a spatial code image and generate a high-resolution distance image such as a resolution of 256 × 256 or 512 × 512 pixels. A high-precision pattern projector with a mechanism to change the light projection pattern is used, and an image is input corresponding to each of multiple light emission patterns generated in time series, so a large capacity image memory is required And

【0008】他の従来例として、電子情報通信学会論文
誌Vol.J71−D.No.7p1240〜1257
に掲載された佐藤、井口の論文「液晶レンジファインダ
−−液晶シャッタ−による高速距離画像計測システム−
−」に記載された内容を紹介する.この技術は、上記の
16〜図18に示された技術で使用された空間コード
化法による距離画像獲得システムに関するものであり、
19にその原理を示す。液晶シャッター4を用いて時
系列的に交番2進コードによるスリットパターンを物体
に投影し、カメラ3でそれぞれのパターンに対応する画
像を撮像して空間コード画像を生成するものである。パ
ターンとしては図16のような7枚のパターンを用い
る。計測の原理は上記図16〜図18の従来技術で用い
られているものと同一である。
[0008] As another conventional example, see IEICE Transactions Vol. J71-D. No. 7p1240-1257
Sato and Iguchi's paper, "Liquid Crystal Range Finder -High-speed Range Image Measurement System Using Liquid Crystal Shutter-"
Introduce the contents described in “−”. This technique relates to a distance image acquiring system according to the spatial encoding method used in the above 16 to 18 to the indicated techniques,
FIG. 19 shows the principle. A slit pattern based on an alternating binary code is projected onto an object in time series using the liquid crystal shutter 4, and an image corresponding to each pattern is captured by the camera 3 to generate a spatial code image. As the patterns, seven patterns as shown in FIG. 16 are used. The principle of measurement is the same as that used in the prior art of FIG. 16 to 18.

【0009】また別の従来技術として、特開平7−10
3734号公報に記載された「ステレオ対応探索装置」
について説明する。図20は、この発明の階層的ブロッ
クマッチング(疎密探索法)の説明図であり、図21
の発明の動作のフローチャートである。
Another conventional technique is disclosed in Japanese Patent Application Laid-Open No. 7-10 / 1995.
"Stereo-compatible search device" described in Japanese Patent No. 3734
Will be described. FIG. 20 is an explanatory diagram of the hierarchical block matching (sparse / dense search method) of the present invention, and FIG. 21 is a flowchart of the operation of the present invention.

【0010】ステレオ視覚とは、複数の異なる位置に配
置された画像入力手段から入力された2つの画像の対象
物上の同一点に対応する視差を計測することにより、三
角測量の原理からカメラと対象点との距離を計算する手
法である。図21のフローチャートのST11において
画像が入力され、ST12で入力された2つの画像がそ
れぞれ画像メモリに格納され、ST13において、格納
された画像を階層的により低い解像度に変換する処理が
行われて階層画像が生成れる。図20は第D階層の画像
と第D+1階層の画像との対応関係を摸式的に表したも
のである。この例では、第D階層の画像の1/4領域を
第D+1階層の画像としている。
[0010] Stereo vision refers to measuring the parallax corresponding to the same point on an object between two images input from image input means arranged at a plurality of different positions, and using a camera based on the principle of triangulation. This is a method for calculating the distance to the target point. In ST11 of the flowchart of FIG. 21 , an image is input, the two images input in ST12 are respectively stored in an image memory, and in ST13, processing for converting the stored image to a hierarchically lower resolution is performed. An image is generated. FIG. 20 schematically shows the correspondence between the image of the D-th layer and the image of the D + 1-th layer. In this example, a quarter area of the image on the D-th layer is an image on the D + 1-th layer.

【0011】ステップST14において、画像が小ブロ
ックに分割され、ステップST15において、各ブロッ
クは初期探索位置計算器によって初期探索位置が計算さ
れ、ステップST16でパターンマッチングによって他
画像におけるブロックの対応点が計算され、ステップS
T17において、2つの画像間の対応点の位置情報を用
い、視差計算器によって視差が計算される。このように
して得られた視差画像をもとに、一段階高解像度の画像
を用いて再び視差が計算される。この処理を繰り返し行
ない最終的には入力画像と同じ最高解像度の画像に対す
る対応点探索を行なう。
In step ST14, the image is divided into small blocks. In step ST15, an initial search position of each block is calculated by an initial search position calculator. In step ST16, a corresponding point of a block in another image is calculated by pattern matching. And step S
At T17, the parallax is calculated by the parallax calculator using the position information of the corresponding point between the two images. Based on the parallax image obtained in this way, the parallax is calculated again using a one-step high-resolution image. By repeating this process, a corresponding point search is finally performed on an image having the same highest resolution as the input image.

【0012】[0012]

【発明が解決しようとする課題】上記図16〜図18
示された画像処理装置では、積荷の認識に必要な情報を
すべて空間コード画像から獲得しており、例えば解像度
256×256または512×512画素といった高い
解像度の距離画像を生成する必要があり、高精度のパタ
ーン投光器が必要であり、しかもそれは時系列的に投光
パターンを変化させる機構を有するものが必要であり、
大規模な高価な装置となり、さらに、時系列で発生させ
た複数の投光パターンそれぞれに対応させて画像を入力
する必要があり、大容量の画像メモリも必要とし、大規
模な高価な装置となる問題点があった。またそれに要す
る画像入力時間の総計も多くかかるという問題点もあっ
た。
In the image processing apparatus shown in FIGS. 16 to 18 , all the information necessary for recognizing the cargo is obtained from the spatial code image. For example, the resolution is 256 × 256 or 512 ×. It is necessary to generate a distance image with a high resolution of 512 pixels, a high-precision pattern projector is required, and it is necessary to have a mechanism for changing the projection pattern in a time-series manner.
It becomes a large-scale expensive device, and furthermore, it is necessary to input an image corresponding to each of a plurality of light-emitting patterns generated in time series, a large-capacity image memory is required, and a large-scale expensive device is required. There was a problem. In addition, there is also a problem that the total image input time required for this takes much time.

【0013】上記図19に示す技術においても、空間コ
ード画像のみをもとに積荷を認識するので、図16〜図
18の場合と同様に、大きな画像メモリも必要とし、大
規模な高価な装置となる問題点があった。
[0013] Also in the technique shown in FIG. 19, since recognizing the load on the basis of only the spatial code image, FIGS. 16 to
As in the case of No. 18 , there is a problem that a large image memory is required and a large-scale expensive device is required.

【0014】さらに、図16〜図18、および図19
画像処理装置は、積荷に必要な情報を全て空間コード画
像から獲得するために、積荷において把持したい物体と
隣接物体が密に接触している場合、すなわち、稜線の面
とり量の小さい段ボール箱においては隣接する物体との
境界が三次元的に明確に段差として現れないもの、ある
いは、軟らかい内容物が収納されたセメント袋のような
袋物の場合は、隣接する物体と密接するため、境界が三
次元的には不明確であり、個々の物体を個別に分離して
移送手段に把持させることが困難であるという問題点が
あった。
Further, in the image processing apparatus shown in FIGS. 16 to 18 and 19 , in order to obtain all the information necessary for the cargo from the space code image, the object to be grasped in the cargo and the adjacent object are brought into close contact. In other words, in the case of a cardboard box with a small ridge chamfer, the boundary with the adjacent object does not clearly appear as a three-dimensional step, or a bag such as a cement bag containing soft contents. In the case of (3), since the object is in close contact with the adjacent object, the boundary is unclear three-dimensionally, and there is a problem that it is difficult to separate the individual objects and hold them by the transfer means.

【0015】図20、図21に示された画像処理装置で
は、高速にステレオ対応点を探索し、距離画像を短い時
間で獲得することを目的としているが、画像中の対象物
の如何によらず常に画像上に画一的に設定された小ブロ
ック単位でより粗な解像度の画像から順により密な解像
度の画像へと探索を行なうので、あらかじめ高解像度情
報が必要な部位がわかっている場合は、逆に処理時間が
長くかかるという問題点があった。
The image processing apparatus shown in FIGS. 20 and 21 aims at searching for a stereo corresponding point at high speed and acquiring a distance image in a short time. The search always starts from the image with the coarser resolution to the image with the higher resolution in small block units that are set uniformly on the image, so if a part that needs high-resolution information is known in advance However, there is a problem that the processing time is long.

【0016】この発明は、上記問題点を解決するたもに
なされたものであり、大容量の画像メモリを必要とせ
ず、簡単な装置構成で短時間で物体の三次元的な位置が
把握できる画像処理装置およびこの画像処理装置を装備
した物体移載装置を提供することを目的とする。
The present invention has been made to solve the above-mentioned problem, and does not require a large-capacity image memory, and can grasp the three-dimensional position of an object in a short time with a simple device configuration. It is an object of the present invention to provide an image processing device and an object transfer device equipped with the image processing device.

【0017】[0017]

【課題を解決するための手段】この発明の請求項1に係
る画像処理装置は、積載された複数の物体の距離画像を
生成する距離画像生成手段と、距離画像から積載された
物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域から物体を個々に分離して抽出する最
上段物体候補抽出手段と、認識対象物体の寸法データを
格納する物体寸法データベースと、物体の寸法データを
もとに物体の2次元画像上での標準的パターン画像を生
成する2次元基準パターン生成手段と、カメラから入力
された濃淡原画像を格納する濃淡原画像格納手段と、個
別に抽出された最上段物体候補について2次元基準パタ
ーンと濃淡原画像の情報を用いて物体の位置を検出する
物体位置検出手段と、各手段で得られた物体位置の検出
結果と距離画像生成手段とによって得られた個々の物体
の距離情報とを統合する情報統合手段とを備えたもので
ある。
According to a first aspect of the present invention, there is provided an image processing apparatus, comprising: a distance image generating means for generating a distance image of a plurality of loaded objects; A top-level surface area extracting unit for extracting a surface region, a top-level object candidate extracting unit for individually separating and extracting objects from the top-level surface region, an object size database storing size data of a recognition target object, A two-dimensional reference pattern generating means for generating a standard pattern image on a two-dimensional image of the object based on the size data of the object, and a gray-scale original image storing means for storing a gray-scale original image input from the camera. Object position detecting means for detecting the position of the object using the two-dimensional reference pattern and the information of the grayscale original image with respect to the extracted top-level object candidate, and detecting the object position obtained by each means and generating a distance image It is obtained and an information integration unit for integrating the distance information of each object obtained by the stage.

【0018】この発明の請求項2に係る物体移載装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から積載された物体の最上段面
領域を抽出する最上段面領域抽出手段と、最上段面領域
から物体を個々に分離して抽出する最上段物体候補抽出
手段と、認識対象物体の寸法データを格納する物体寸法
データベースと、物体の寸法データをもとに物体の2次
元画像上での標準的パターン画像を生成する2次元基準
パターン生成手段と、カメラから入力された濃淡原画像
を格納する濃淡原画像格納手段と、個別に抽出された最
上段物体候補について2次元基準パターンと濃淡原画像
の情報を用いて物体の位置を検出する物体位置検出手段
と、各手段で得られた物体位置の検出結果と距離画像生
成手段とによって得られた個々の物体の距離情報とを統
合する情報統合手段とを備えた画像処理装置と物体を把
持し移載する物体移載手段とを備えたものである。
According to a second aspect of the present invention, there is provided an object transfer apparatus for generating a distance image of a plurality of stacked objects, and extracting an uppermost surface area of the stacked object from the distance images. A top-level surface area extracting unit, a top-level object candidate extracting unit that individually separates and extracts objects from the top-level surface region, an object size database that stores size data of the recognition target object, and a size data of the object. A two-dimensional reference pattern generating means for generating a standard pattern image on a two-dimensional image of the object; a gray-scale original image storing means for storing a gray-scale original image input from a camera; Object position detecting means for detecting the position of the object using the information of the two-dimensional reference pattern and the grayscale original image for the object candidate, and the object position detection result obtained by each means and the distance image generating means. The is that a object transfer means for gripping and transferring an image processing apparatus and the object with an information integration unit for integrating the distance information of each object.

【0019】この発明の請求項3に係る画像処理装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第二の画像入力手段が撮像した二つ
の画像間の対応付を行なうステレオ画像ブロック対応付
手段で構成されたものである。
According to a third aspect of the present invention, in the image processing apparatus, the distance image generating means emits a random texture pattern, the first image input means inputs a stereo image, and the second image input means inputs a stereo image. And stereo image block associating means for associating the two images taken by the first and second image input means.

【0020】この発明の請求項4に係る物体移載装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第の画像入力手段が撮像した二つ
の画像間の対応付を行なうステレオ画像ブロック対応付
手段で構成された画像処理装置と、物体を把持し移載す
る物体移載手段とを備えたものである。
According to a fourth aspect of the present invention, in the object transfer device, the distance image generating means projects a random texture pattern, the first image inputting means for inputting a stereo image and the second image inputting means. An image processing apparatus comprising two image input means, a stereo image block associating means for associating two images taken by the first and second image input means, and holding and transferring an object Object transfer means.

【0021】この発明の請求項5に係る画像処理装置
は、距離画像生成手段が、解像度の粗い距離画像を生成
する低解像度距離画像生成手段と、低解像度距離画像か
ら物体の段差領域部を抽出する段差領域抽出手段と、段
差領域に対して高い解像度の距離画像を生成する高解像
度距離画像生成手段と、低解像度距離画像と高解像度距
離画像の解像度の異なる2つの距離画像を合成する距離
画像合成手段とで構成されているものである。
According to a fifth aspect of the present invention, in the image processing apparatus, the distance image generating means includes a low-resolution distance image generating means for generating a coarse-resolution distance image, and extracts a step region portion of the object from the low-resolution distance image. Step area extracting means, high-resolution distance image generating means for generating a high-resolution distance image for the step area, and a distance image combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image And a combining means.

【0022】この発明の請求項6に係る物体移載装置
は、距離画像生成手段が解像度の粗い距離画像を生成す
る低解像度距離画像生成手段と、低解像度距離画像から
物体の段差領域部を抽出する段差領域抽出手段と、段差
領域に対して高い解像度の距離画像を生成する高解像度
距離画像生成手段と、低解像度距離画像と高解像度距離
画像の解像度の異なる2つの距離画像を合成する距離画
像合成手段とで構成された画像処理装置と、物体を把持
し移載する物体移載手段とを備えたものである。
According to a sixth aspect of the present invention, there is provided an object transfer apparatus, wherein the distance image generating means generates a low-resolution distance image having a coarse resolution, and extracts a step region portion of the object from the low-resolution distance image. Step area extracting means, high-resolution distance image generating means for generating a high-resolution distance image for the step area, and a distance image combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image The image processing apparatus includes an image processing device configured by a combining unit and an object transfer unit that grips and transfers an object.

【0023】この発明の請求項7に係る画像処理装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行ない、
この認識した画像と距離画像生成手段によって得られた
個々の物体の距離情報とを統合する情報統合手段とを備
えたものである。
According to a seventh aspect of the present invention, there is provided an image processing apparatus, comprising: a distance image generating means for generating a distance image of a plurality of stacked objects; and extracting an uppermost surface area of an uppermost object from the distance image. A top-level surface region extracting unit, a plurality of object candidate combination hypothesis generating units that enumerate and generate a plurality of combinations of object candidates from the output of the top-level surface region extracting unit, A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using the information included in the two-dimensional reference pattern and the grayscale original image; Recognize based on hypotheses,
An information integrating means for integrating the recognized image and the distance information of each object obtained by the distance image generating means.

【0024】この発明の請求項8に係る物体移載装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行い、こ
の認識した画像と距離画像生成手段によって得られた個
々の物体の距離情報とを統合する情報統合手段とを備
え、個々の対象物体の三次元位置情報を出力する画像処
理装置と、物体を把持し移載する移載手段を備えたもの
である。
According to an eighth aspect of the present invention, there is provided an object transfer apparatus, comprising: a distance image generating means for generating a distance image of a plurality of stacked objects; An uppermost plane area extracting means for extracting, an object candidate combination hypothesis generating means for generating a plurality of combinations of object candidates as hypotheses from the output of the uppermost plane area extracting means, and an object size database for storing dimension data of the recognition target object A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using information included in the two-dimensional reference pattern and the grayscale original image; Information recognition means for performing recognition based on a high hypothesis, and integrating the recognized image with the distance information of each object obtained by the distance image generation means, and An image processing apparatus for outputting dimension position information, in which with a transfer means for transferring the object is gripped.

【0025】この発明の請求項9に係る画像処理装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、基準データと比較して正しい配列かどうか
を判定する物体配列判定手段と、認識した画像が基準デ
ータに整合しないときに判定の結果を作業者に警告する
警告発生手段を有するものである。
An image processing apparatus according to a ninth aspect of the present invention provides an object array reference database for storing data serving as a reference for an object array, and a hypothesis validity for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement determining unit that compares the image recognized by the sex verification unit with the reference data to determine whether the arrangement is correct, and a warning that warns the operator of a determination result when the recognized image does not match the reference data Means.

【0026】この発明の請求項10に係る物体移載装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、上記基準データと比較して正しい配列かど
うかを判定する物体配列判定手段と、認識した画像が基
準データに整合しないときに判定の結果を作業者に警告
する警告発生手段を有する画像処理装置と、物体を把持
し移載する移載手段とを備えたものである。
According to a tenth aspect of the present invention, an object array reference database for storing data serving as an object array reference, and a hypothesis for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement determining unit for comparing the image recognized by the validity verification unit with the reference data to determine whether or not the arrangement is correct; and warning an operator of a determination result when the recognized image does not match the reference data. The image processing apparatus includes an image processing apparatus having a warning generating unit, and a transfer unit that holds and transfers an object.

【0027】[0027]

【発明の実施の形態】実施の形態1. 実施の形態1の構成を示すブロック図を図1、動作の流
れを示すフローチャートを図2、生成された各段階の画
像を図3に示す。ここでは動作説明が理解され易いよう
に認識すべき物体は、例えばば段ボール箱のような多面
体形状を想定し、物体は同一形状および同一サイズのも
のが積まれている状態として説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a block diagram showing the configuration of the first embodiment, FIG. 2 is a flowchart showing the flow of operation, and FIG. 3 shows images generated at each stage. Here, the object to be recognized is assumed to have a polyhedral shape such as a cardboard box, for example, so that the description of the operation is easy to understand.

【0028】図1において、11は所定の間隔をおいて
配置された2台のカメラで構成された画像入力手段、1
2は画像入力手段11の撮像した画像から距離画像を生
成する距離画像生成手段、13は距離画像から最上段面
を抽出する最上段面領域抽出手段、14は最上段物体候
補抽出手段、15は原画像を格納する濃淡画像格納手
段、16は物体寸法データベース、17は物体寸法デー
タベース16に格納された情報を基に2次元パターンと
しての基準パターンを自動的に生成する2次元基準パタ
ーン生成手段、18は2次元的な物体位置を検出する物
体位置検出手段、19は物体位置検出手段18によって
検出された物体位置と距離画像の距離情報を統合する情
報統合手段である。
In FIG. 1, reference numeral 11 denotes an image input means comprising two cameras arranged at a predetermined interval;
2 is a distance image generating means for generating a distance image from the image captured by the image input means 11, 13 is an uppermost plane area extracting means for extracting the uppermost plane from the distance image, 14 is an uppermost object candidate extracting means, 15 is Density image storage means for storing an original image; 16 an object size database; 17 a two-dimensional reference pattern generation means for automatically generating a reference pattern as a two-dimensional pattern based on information stored in the object size database 16; Reference numeral 18 denotes an object position detecting unit that detects a two-dimensional object position, and 19 denotes an information integrating unit that integrates the object position detected by the object position detecting unit 18 and the distance information of the distance image.

【0029】図3の(a)は画像入力手段11が撮像し
た原画像、(b)は最上段面領域抽出手段13が抽出し
た最上段物体領域、(c)は2次元基準パターン生成手
段により物体寸法データを用いて生成された基準パター
ンのテンプレート、(d)は最上段物体領域から抽出さ
れた候補の一つを示す摸式図、(e)はテンプレートマ
ッチング法による位置決め状況を示す。
FIG. 3A shows an original image captured by the image input means 11, FIG. 3B shows an uppermost object area extracted by the uppermost surface area extracting means 13, and FIG. 3C shows a two-dimensional reference pattern generating means. A template of the reference pattern generated using the object size data, (d) is a schematic diagram showing one of the candidates extracted from the uppermost object region, and (e) shows a positioning situation by the template matching method.

【0030】ステップST101で、装置が起動される
と、画像入力手段11によって図3(a)に示す認識対
象の画像が距離画像生成手段12に入力される。ステッ
プST102では、距離画像生成手段12によって距離
画像が生成される。距離画像の生成手段としては区間コ
ード化法またはステレオ対応探索法等がある。ステップ
ST103で最上段物体領域抽出手段13により、図3
(b)に示す最上段の物体に相当する高さをもつ最上段
物体領域が抽出される。ステップST104で画像入力
手段11で撮影した原画像が濃淡画像格納手段15に格
納され、ステップST105では2次元基準パターン生
成手段17によって、物体寸法データベース16に格納
された情報をもとに2次元パターンとしての基準パター
ンが自動的に生成される。この基準パターンはテンプレ
ートと呼ばれ、図3()に示すようにテンプレートは
物体の輪郭部分を表現した輪郭プレートとなっている。
In step ST 101, when the apparatus is started, the image to be recognized shown in FIG. In step ST102, a distance image is generated by the distance image generating means 12. Means for generating a distance image include a section coding method or a stereo correspondence search method. In step ST103, the uppermost object region extracting means 13 performs
An uppermost object region having a height corresponding to the uppermost object shown in (b) is extracted. In step ST104, the original image photographed by the image input unit 11 is stored in the grayscale image storage unit 15, and in step ST105, the two-dimensional reference pattern generation unit 17 uses the two-dimensional pattern based on the information stored in the object size database 16. Is automatically generated. This reference pattern is called a template, and as shown in FIG. 3C , the template is a contour plate expressing the contour of the object.

【0031】ステップST106では、2値で表現され
た最上段物体領域の物体は画像上では矩形パターンに見
えることから、直角に交わる辺縁部を検出することによ
って候補を抽出される。上記の通り距離画像の解像度が
粗いことから、候補の位置は不正確である。ステップS
T107において、前記物体候補が物体位置検出手段1
7によって位置決めされ、位置決めには、前記2次元基
準パターンが用いられ、テンプレートマッチング法によ
る処理がなされる。ただし、大まかな位置は既に候補抽
出の段階で検出されていることから、マッチングは候補
検出位置からそのごく近傍のみを探索する処理で十分で
ある。したがってテンプレートマッチングも高速に実行
可能である。位置決めの様子は図3(e)に示す。物体
位置が検出されたならば、その2次元的な物体位置情報
は、情報統合手段19によって前記距離画像生成手段1
2による距離情報と統合され、それが最終的な結果とし
て出力される。
In step ST106, since the object in the uppermost object region represented by the binary image looks like a rectangular pattern on the image, candidates are extracted by detecting edges that intersect at right angles. As described above, since the resolution of the range image is coarse, the position of the candidate is inaccurate. Step S
At T107, the object candidate is determined by the object position detecting means 1
The positioning is performed by the template matching method using the two-dimensional reference pattern. However, since the rough position has already been detected at the stage of candidate extraction, matching is sufficient with a process of searching for only the nearest neighbor from the candidate detection position. Therefore, template matching can be executed at high speed. The state of the positioning is shown in FIG. When the object position is detected, the two-dimensional object position information is transmitted to the distance image generation unit 1 by the information integration unit 19.
2 and is output as the final result.

【0032】ステップST108では、すべての物体を
検出したかどうかを判定し、もし検出していなければ処
理流れのうちステップST106から再び実行され、別
の物体候補について一連の処理ステップST106、S
T107が実施される。もし、すべての物体が検出され
ていれば、ステップST109で認識処理を終了させ
る。以上の通り、この発明により粗く距離画像を生成
し、その結果を元に物体の候補を抽出して詳細な位置検
出は2次元の汎用的な処理手法であるテンプレートマッ
チングをそのパターン探索の範囲を非常に限定した形で
実行することで、距離画像生成装置の装置規模を小さく
することができるものである。
In step ST108, it is determined whether or not all the objects have been detected. If no object has been detected, the process is repeated from step ST106 in the processing flow, and a series of processing steps ST106 and S106 are performed for another object candidate.
T107 is performed. If all the objects have been detected, the recognition process ends in step ST109. As described above, according to the present invention, a range image is roughly generated, an object candidate is extracted based on the result, and detailed position detection is performed using template matching, which is a two-dimensional general-purpose processing method, in the range of pattern search. By performing the processing in a very limited form, the device scale of the range image generation device can be reduced.

【0033】なお、距離画像生成手段として、空間コー
ド化法を解像度を粗くして用いる方法、あるいは、ステ
レオ視覚やスリット光走査による光切断法のような方法
であってもよく、粗い解像度の距離画像が生成され得る
装置であればよい。
It should be noted, as the distance image generating means, how Ru used to roughen the resolution spatial encoding method, or may be a method such as a light-section method according to the stereo vision or slit light scanning, coarse resolution Any device can be used as long as the device can generate the distance image of.

【0034】また、輪郭情報によるテンプレートマッチ
ングによる位置決めの例を示したが、同じく物体の輪郭
を直線の組合せと考えて直線として辺ごとに位置合わせ
を行う方法を用いてもよい。また、物体寸法データベー
スの内容を使い、通常の2次元テンプレートマッチング
を用いても良い。また、テンプレートマッチング処理内
部で使用されるデータ格納形式に関して特に明示しなか
ったが、2次元画像として格納する方法の他に、輪郭部
分のエッジの位置を1次元的に内部に羅列して格納する
方法を用いてもよい。
Although the example of the positioning by the template matching based on the contour information has been described, a method may be used in which the contour of the object is regarded as a combination of straight lines and the position is aligned for each side as a straight line. Further, normal two-dimensional template matching may be used using the contents of the object size database. Although the data storage format used inside the template matching process is not particularly specified, in addition to the method of storing the data as a two-dimensional image, the positions of the edges of the outline part are arranged one-dimensionally and stored inside. A method may be used.

【0035】さらに、最上段物体の候補を抽出する際
に、距離画像から得られた最上段面領域情報からそのコ
ーナー部分を利用する手法を示したが、この他にも例え
ば上記の2値の距離画像を用いて、別途用意した2値の
距離画像としてのテンプレートを使って2値のテンプレ
ートマッチングの方法によって粗く位置を検出する方法
を適用しても同様の効果を奏する。
Further, when extracting the candidates for the top object, the method of using the corner portion from the top surface area information obtained from the distance image has been described. The same effect can be obtained by applying a method of coarsely detecting a position by a binary template matching method using a separately prepared template as a binary distance image using a distance image.

【0036】図2の動作フローチャートは、一例であ
り、図1に示した各手段の入出力関係が適正でさえあれ
ば別の処理流れであってもよい。例えば、距離画像生成
と濃淡原画像入力のステップはどちらが先に行なわれて
もよい。
The operation flowchart of FIG. 2 is an example, and another processing flow may be used as long as the input / output relationship of each unit shown in FIG. 1 is appropriate. For example, either the step of generating the distance image or the step of inputting the original grayscale image may be performed first.

【0037】以上は、認識すべき対象物体として多面体
即ち箱状の物体の単一品種物体を想定した説明であった
が、例えばセメント袋、米袋などのように袋状の物体で
あっても、この発明の構成を何ら変えることなく同一の
構成で画像認識を実現することができる。次に袋状物体
の認識する場合の状況について、上記箱状物体における
場合との違いを説明する。
The above description has been made on the assumption that a single-type object of a polyhedron, that is, a box-shaped object is assumed as an object to be recognized. However, even if the object is a bag-shaped object such as a cement bag or a rice bag, Image recognition can be realized with the same configuration without changing the configuration of the present invention. Next, the situation in the case of recognizing a bag-shaped object will be described in comparison with the case of the box-shaped object.

【0038】図2のステップST105において、2次
元基準パターン生成手段16によって2次元基準パター
ンが自動的に生成される。これは物体の位置決めを行な
うためのテンプレートマッチングにおけるテンプレート
生成に相当する。袋状物体の場合は辺縁が変形するなど
箱状物体とは異なり形状が不安定であるので、前記基準
パターンとしては図3のような矩形の輪郭部分を取り出
しただけでは不十分である。この場合は物体のコーナー
部のみを輪郭で表現した部分テンプレート、あるいは物
体の辺部を表現した直線輪郭部分テンプレートを自動的
に生成する。いづれの場合も、袋状物体の寸法を格納し
た物体寸法データベース15の内容を参照して生成され
る。
In step ST105 of FIG. 2, a two-dimensional reference pattern is automatically generated by the two-dimensional reference pattern generation means 16. This corresponds to template generation in template matching for positioning an object. In the case of a bag-shaped object, since the shape is unstable unlike a box-shaped object such as a deformed edge, it is not sufficient to take out a rectangular contour portion as shown in FIG. 3 as the reference pattern. In this case, a partial template representing only the corners of the object by the contour or a straight-line contour partial template representing the sides of the object is automatically generated. In either case, the contents are generated with reference to the contents of the object size database 15 storing the size of the bag-shaped object.

【0039】ステップST106の物体候補抽出におい
ては、袋状物体の場合は上で述べたような直角に交わる
縁部などの情報を用いて候補を抽出することは困難であ
る。この場合は最上段物体領域が表現された画像を2値
画像とみなし、物体寸法データベース15に格納されて
いる袋状物体モデルに関する情報から2値の物体テンプ
レートを自動的に生成し、これらを粗く2値テンプレー
トマッチングさせることで大まかな候補抽出が可能とな
る。
In the object candidate extraction in step ST106, in the case of a bag-shaped object, it is difficult to extract a candidate using the information of the edges that intersect at right angles as described above. In this case, the image expressing the uppermost object region is regarded as a binary image, and a binary object template is automatically generated from the information on the bag-shaped object model stored in the object size database 15 and these are roughly processed. By performing binary template matching, rough candidate extraction becomes possible.

【0040】ステップST107では、物体の位置が検
出されるが、ここでは前記のような物体のコーナー部
分、あるいは、直線辺縁部分の輪郭テンプレートが部分
テンプレートとして入力画像から得たエッジ画像とマッ
チングされる。物体の位置はマッチングの結果として、
複数の部分テンプレートのマッチングした位置から総合
的に判断、計算される、以上のように、袋状の物体に関
しても箱状物体に対する認識と同じ程度に動作させるこ
とができる。
In step ST107, the position of the object is detected. Here, the contour template of the corner portion or the straight edge portion of the object is matched with the edge image obtained from the input image as a partial template. You. The position of the object is the result of the matching
Comprehensively determined and calculated from matching positions of a plurality of partial templates. As described above, a bag-shaped object can be operated to the same degree as recognition of a box-shaped object.

【0041】また、以上説明した実施の形態1では、単
一の品種の物体が積まれている状況を想定したが、物体
寸法データベース16に複数の物体の寸法データを格納
しておき、複数の2次元基準パターンを自動的に生成
し、物体位置検出手段17においては前記複数の基準パ
ターンを全てマッチングさせて最も類似性の高いテンプ
レートが存在する物体であるとするような動作をさせる
ことで、異なる種類の物体が複数個積まれている状況に
対しても適確に動作させることができる。
In the first embodiment described above, a situation in which objects of a single type are stacked is assumed. However, the dimension data of a plurality of objects is stored in the By automatically generating a two-dimensional reference pattern and causing the object position detecting means 17 to perform an operation of matching all of the plurality of reference patterns and determining that the object has a template with the highest similarity. It can be operated properly even in a situation where a plurality of different types of objects are stacked.

【0042】上記構成の画像処理装置を物体移載装置に
組み込むことにより、高精度のパターン投光器、大容量
の画像メモリを必要とせず、また画像入力時間も短時間
で行える正確に動作する物体移載装置となる。
By incorporating the image processing apparatus having the above-described configuration into the object transfer apparatus, it is possible to eliminate the need for a high-precision pattern projector and a large-capacity image memory and to operate the object transfer apparatus which can operate in a short time with a short image input time. Mounting device.

【0043】実施の形態2. 実施の形態2の構成を示すブロック図を図4、動作の流
れを示すフローチャートを図5に示す。図6はランダム
ドットパターン照射の説明図、図7はステレオ画像から
ブロック対応付処理の方法を示す説明図である。この実
施の形態2.は、実施の形態1の距離画像生成手段の部
分をランダムテクスチャパターン投光によりステレオ対
応付して距離画像を生成するようにしたものであり、こ
の点が相違し、その他の構成は実施の形態1と同じであ
る。
Embodiment 2 FIG. 4 is a block diagram showing the configuration of the second embodiment, and FIG. 5 is a flowchart showing the operation flow. FIG. 6 is an explanatory diagram of random dot pattern irradiation, and FIG. 7 is an explanatory diagram illustrating a method of block association processing from a stereo image. Embodiment 2 Is to generate a distance image by associating a part of the distance image generating means of Embodiment 1 with stereo by random texture pattern projection. This point is different, and the other configuration is different from that of Embodiment 1. Same as 1.

【0044】図4において、20はランダムドットパタ
ーンを投光するランダムテクスチャパターン投光手段、
21は画像入力手段であり、第一画像入力手段21aと
第二の画像入力手段21bとで構成されている。22は
ステレオ画像ブロック対応付手段である。その他の最上
段画像領域抽出手段13、最上段物体候補抽出手段1
4、濃淡原画像格納手段15、物体寸法データベース1
6、2次元基準パターン生成手段17、物体位置検出手
段18および情報統合手段19は実施の形態1.と同一
の構成である。
In FIG. 4, a random texture pattern projecting means 20 projects a random dot pattern.
Reference numeral 21 denotes an image input unit, which includes a first image input unit 21a and a second image input unit 21b. Reference numeral 22 denotes a stereo image block associating unit. Other uppermost image area extracting means 13, uppermost object candidate extracting means 1
4. Original density image storage means 15, object size database 1
6. The two-dimensional reference pattern generating means 17, the object position detecting means 18, and the information integrating means 19 are the same as those in the first embodiment. This is the same configuration as.

【0045】以下この実施の形態2について図5のフロ
ーチャートにしたがって動作を説明する。ステップST
201で電源がONされると、ランダムテクスチャパタ
ーン投光手段20の電源が入り、認識対象物に対してラ
ンダムドットパターンが投影される。ランダムテクスチ
ャパターン投光手段は図6(a)に示すように、パター
ン投光器30により、認識すべき対象物に対してランダ
ムドットパターンを投光するものである。パターン投光
器は図6のように物体の上方に下向きに設置し、図6
(b)に示したようなランダムドットを認識物体に投影
する。実施の形態2.では、認識すべき対象物体は、段
ボール箱であるが、例えばセメント袋のような袋状の物
体であっても認識可能である。対象物の上面にランダム
ドットが投影され、ステップST203では、第一の画
像入力手段2aおよび第二の画像入力手段21bによ
って撮像された一対の画像のステレオ画像が入力され
る。このステレオ画像は、光軸を所定の距離はなして同
一の解像度、同一の焦点距離の二つのカメラで撮像され
る。
The operation of the second embodiment will be described below with reference to the flowchart of FIG. Step ST
When the power is turned on at 201, the power of the random texture pattern projection unit 20 is turned on, and a random dot pattern is projected on the recognition target. As shown in FIG. 6A, the random texture pattern projecting means projects a random dot pattern on an object to be recognized by the pattern projector 30. The pattern floodlight is installed downward above the object as shown in FIG.
A random dot as shown in (b) is projected on the recognition object. Embodiment 2 FIG. In, the target object to be recognized is a cardboard box, but a bag-like object such as a cement bag can be recognized. Random dot is projected on the upper surface of the object, in step ST 203, the stereo image of the pair of images captured by the first image input unit 2 1 a and the second image input unit 21b is input. This stereo image is captured by two cameras having the same resolution and the same focal length at a predetermined distance from the optical axis.

【0046】次にランダムドットパターンについて説明
する。図6(b)に示したランダムドットは、この実施
の形態2では、128×128の解像度で構成され、各
画素は正方形であり、計算機によって一様乱数的に各画
素ごとに白か黒かの値が割り当てられ、白と黒の画素数
の比率はほぼ1:1となっている。パターン投光器30
には投影パターンの焦点を調節する機構が設けられてお
り、投光器と対象物体の大まかな距離がわかっている場
合にはそのデータをもとに物体表面で合焦するように焦
点が調節される。あらかじめ全く距離がわかっていない
場合には、事前に調整された距離において焦点が合うよ
うに動作する。
Next, the random dot pattern will be described. In the second embodiment, the random dots shown in FIG. 6B are configured with a resolution of 128 × 128, each pixel is a square, and a computer randomly determines whether each pixel is white or black. Is assigned, and the ratio of the number of white and black pixels is approximately 1: 1. Pattern floodlight 30
Is equipped with a mechanism to adjust the focus of the projection pattern, and if the approximate distance between the projector and the target object is known, the focus is adjusted to focus on the object surface based on that data . If no distance is known in advance, the camera operates so as to focus on the distance adjusted in advance.

【0047】ステレオ画像ペアの入力が終ると、ステッ
プST204でランダムテクスチャパターン投光手段2
0がOFFされる。次にステップST205でステレオ
画像がブロック対応付段22によってステレオ画像が処
理される。図7(a)および(b)は対象物体を撮影し
たステレオ画像の一対の画像である。図7(a)を左画
像、図7(b)を右画像と呼ぶこととする。ブロックマ
ッチングは右画像を図のように格子状の小ブロックに分
割することから行なう。いま、分割されて生成された複
数の小ブロックのうち、注目しているブロックbRを注
目ブロックと呼ぶ、実際には左および右画像には上記ラ
ンダムドットパターンが投影されているが、図を簡略化
するためにここではパターンは描いていない。この注目
ブロックbRに対応する左画像上での位置を探索する。
別途設定した探索範囲の中でbRと同じパターンを有す
るパターンを探索する。探索の方法として累積差分絶対
値最小化による探索を採用する。これは左画像上の探索
範囲の中を注目ブロックbRを動かしながら逐次重ね合
わせ、その類似性がもっとも良くなる位置をもって対応
点とするものである。この際、類似性の評価としては、
累積差分絶対値を用いる。例えば、注目ブロックをbR
(i,j)、左画像をbL(i,j)、ブロックサイズ
をN×Nとすると、左画像上の位置(dx,dy)にお
ける累積差分絶対値SSAD(dx,dy)は、(式1)
で表される。この実施の形態2.ではN=16である。
When the input of the stereo image pair is completed, in step ST204, the random texture pattern
0 is turned off. Next, in step ST205, the stereo image is processed by the block-corresponding stage 22. FIGS. 7A and 7B are a pair of stereo images obtained by photographing a target object. 7A is called a left image, and FIG. 7B is called a right image. Block matching is performed by dividing the right image into small blocks in a grid as shown in the figure. Now, of the plurality of divided small blocks generated, the block of interest bR is called a block of interest. Actually, the random dot pattern is projected on the left and right images. Here, the pattern is not drawn for the sake of conversion. A position on the left image corresponding to the block of interest bR is searched.
A pattern having the same pattern as bR is searched for in a separately set search range. As a search method, a search based on minimizing the accumulated difference absolute value is employed. In this method, the blocks of interest bR are sequentially superimposed in the search range on the left image while being moved, and a position at which the similarity becomes the best is set as a corresponding point. At this time, the similarity evaluation
The cumulative difference absolute value is used. For example, if the target block is bR
Assuming that (i, j), the left image is bL (i, j), and the block size is N × N, the cumulative difference absolute value S SAD (dx, dy) at the position (dx, dy) on the left image is ( Equation 1)
It is represented by Embodiment 2 Then, N = 16.

【0048】[0048]

【数1】 (Equation 1)

【0049】(式1)で求めたSSADが最小になる(d
x,dy)を検出することで、注目ブロックbRに対応
する左画像上のブロックbLが見つかったことになる。
ステレオ法は、このようにして得たブロック間の位置か
ら、その差を視差とし、三角測量の原理よってカメラか
ら物体までの距離を得る方法である。以上説明した一連
のブロック対応付処理を右画像上のすべての小ブロック
に対して繰り返して行い、各ブロックごとに対応する左
画像上の位置を探索し、距離画像を生成する。
The S SAD obtained by (Equation 1) is minimized (d
By detecting (x, dy), a block bL on the left image corresponding to the target block bR is found.
The stereo method is a method of obtaining the distance from a camera to an object based on the principle of triangulation by using the difference between the blocks obtained in this way as parallax. The series of block association processing described above is repeatedly performed on all the small blocks on the right image, and the corresponding position on the left image is searched for each block to generate a distance image.

【0050】これ以降は実施の形態1と同じである。ス
テップST206において、最上段面領域抽出手段13
によって距離画像から最上段物体面に相当する領域が抽
出され、続くステップST207では、第一の画像入力
手段20a、または第二の画像入力手段20bによって
撮像された濃淡原画像が濃淡原画像格納手段15に格納
される。この時は当然のことながらランダムドットパタ
ーンは投影されていない。ステップST208では、物
体寸法データベース16に格納されている認識対象物体
の寸法データを使って、2次元基準パターン生成手段1
7によって2次元基準パターンが自動的に生成される。
The subsequent steps are the same as in the first embodiment. In step ST206, the uppermost surface area extracting means 13
The area corresponding to the uppermost object plane is extracted from the distance image by the following step ST207. In the subsequent step ST207, the grayscale original image captured by the first image input unit 20a or the second image input unit 20b is stored in the grayscale original image storage unit. 15 is stored. At this time, of course, the random dot pattern is not projected. In step ST208, using the dimension data of the recognition target object stored in the object dimension database 16, the two-dimensional reference pattern generating means 1 is used.
7, a two-dimensional reference pattern is automatically generated.

【0051】ステップST209では、上記最上段面領
域が抽出された画像は、最上段面とそれ以外の面の2つ
に分けられ、2値化され、最上段物体候補抽出手段14
によって最上段物体候補の一つが抽出される。ステップ
ST210では、抽出された一つの物体候補の位置近傍
に関し、上記2次元基準パターンと物体位置検出手段1
5に格納された濃淡原画像情報を用いて、物体位置検出
手段18によって候補物体の精密な位置が計測され検出
される。ステップ211で、決定した候補物体の2次元
位置は、情報統合手段19によって前記距離画像情報と
統合され、ステップST212で全ての物体を認識した
と判断するまで、ステップST209からST211ま
での処理が繰り返され、ステップST212の判断が全
ての物体が認識したと判断されれば、最終的に物体の3
次元情報として出力される。
In step ST 209, the image from which the uppermost surface area is extracted is divided into two, that is, the uppermost surface and the other surfaces, and is binarized.
With this, one of the top-level object candidates is extracted. In step ST210, the two-dimensional reference pattern and the object position detecting means 1 are used for the vicinity of the position of the extracted one object candidate.
The accurate position of the candidate object is measured and detected by the object position detecting means 18 using the gray-scale original image information stored in 5. In step 211, the determined two-dimensional position of the candidate object is integrated with the distance image information by the information integration means 19, and the processing in steps ST209 to ST211 is repeated until it is determined in step ST212 that all objects have been recognized. If it is determined in step ST212 that all objects have been recognized, finally,
Output as dimension information.

【0052】ステップST209からST211までの
処理によってすべての物体を認識したと判断されればス
テップST213で処理を終了する。すべての物体が認
識されたかどうかの判定は、上記最上段面領域が抽出さ
れた2値化された距離画像をもとに順次物体の位置が確
定したものを消去し、なおかつ画像上に残っている最上
段面領域が存在するか否かを調べることによって行う。
If it is determined that all the objects have been recognized by the processing from steps ST209 to ST211, the processing ends in step ST213. The determination as to whether or not all the objects have been recognized is performed by sequentially erasing the objects whose positions have been determined based on the binarized distance image from which the uppermost surface area has been extracted, and remaining on the image. This is performed by checking whether or not the uppermost surface area exists.

【0053】以上説明したように、この実施の形態2.
では、認識対象物体に対してランダムドットパターンを
投光するので、例えば表面に図柄の存在しない無地の段
ボール箱であっても、その表面各位置における距離デー
タを得ることが可能であり、物体表面に宛先ラベルなど
の位置不定なテクスチャに影響されないステレオ画像を
得ることが可能である。またステレオ対応づけのための
マッチング処理も単純なブロックマッチングを適用する
ことができる。
As described above, the second embodiment.
Since a random dot pattern is projected on the recognition target object, for example, even in the case of a plain cardboard box having no pattern on the surface, it is possible to obtain distance data at each position on the surface, and It is possible to obtain a stereo image which is not affected by an indeterminate texture such as a destination label. Also, a simple block matching can be applied to the matching process for stereo correspondence.

【0054】なお、この実施の形態2ではカメラの解像
度として、カメラ視野に対して128×128画素のラ
ンダムドットパターンを投影したが、認識対象のサイズ
によってはさらに細かいか、または粗いドットパターン
を投影しても良く、またブロックマッチングのブロック
サイズとして16×16画素のサイズを採用したが、8
×8画素、32×32画素等でもよい。また、ブロック
の形状も必ずしも正方形でなくても良い。さらにマッチ
ング時の探索範囲は、図7では長方形に設定したが、状
況に応じてさまざまに変化させることでマッチングの信
頼性を向上させたり処理時間を短縮することもできるこ
とは一般のステレオ対応と同様である。
In the second embodiment, as the resolution of the camera, a random dot pattern of 128 × 128 pixels is projected on the camera field of view. However, depending on the size of the recognition target, a finer or coarser dot pattern is projected. The size of 16 × 16 pixels was adopted as the block size for block matching.
× 8 pixels, 32 × 32 pixels, or the like may be used. Also, the shape of the block need not necessarily be square. Further, the search range at the time of matching is set to a rectangle in FIG. 7, but it is possible to improve the reliability of the matching and to shorten the processing time by variously changing according to the situation. It is.

【0055】さらに、この実施の形態2では、ランダム
ドットパターンとして白黒の2値正方形ドットを用いた
が、例えば濃淡をつけたドットパターンや着色したパタ
ーンであっても良い。また形状についてもさまざまな大
きさのさまざまな形状のマークを組み合わせて使用して
も良く、また、パターン投光器と対象物体との幾何学的
位置関係については、物体に対して鉛直上方から真下に
向けてパターンを投影する例を示したが、斜めから投影
しても同様に距離画像が検出できる。
Further, in the second embodiment, black and white binary square dots are used as random dot patterns, but dot patterns with shading or colored patterns may be used, for example. Regarding the shape, it is also possible to use a combination of marks of various sizes and various shapes, and the geometrical positional relationship between the pattern projector and the target object can be viewed from vertically above the object to directly below it. Although the example of projecting a pattern has been described, a range image can be similarly detected by projecting obliquely.

【0056】また投光するパターンとしてランダムな位
置に発生させたドットパターンを使った例を示したが、
ブロック対応づけ処理において対応点を探索する場合に
ほとんど水平方向の探索になることを考えると、例えば
周期のランダムな縦スリット群、あるいは幅のランダム
な縦スリット群をパターンとして投影しても同様の効果
を奏することはいうまでもない。
Also, an example in which a dot pattern generated at a random position is used as a pattern to be projected has been described.
Considering that the search for a corresponding point in the block matching process is almost a search in the horizontal direction, for example, even if a vertical slit group with a random period or a vertical slit group with a random width is projected as a pattern, the same applies. Needless to say, it works.

【0057】また、パターン投光器の構成方法に関して
は、特に詳しく説明しなかったが、ランダムドットの投
影位置精度は高精度が不必要であり、処理の途中で投影
パターンを変化させる必要がないことから、例えば従来
技術で示したように、液晶プロジェクタのような複雑な
投影装置は不要であり、たとえば通常の家庭用のスライ
ド上映機のような簡単な構成の装置で十分である。この
ことは本発明の装置構成上の利点の一つである。
Although the method of forming the pattern projector has not been described in detail, the accuracy of the projection position of random dots is not required to be high, and it is not necessary to change the projection pattern during the processing. For example, as shown in the prior art, a complicated projection device such as a liquid crystal projector is not required, and a device having a simple configuration such as an ordinary home slide screen is sufficient. This is one of the advantages of the device configuration of the present invention.

【0058】実施の形態2は、既に述べたように、認識
対象物体として段ボール箱、即ち手面体状の物体を想定
して動作を説明したが、その他の形状の物体、例えばセ
メント袋のような袋状の物体であっても本発明の構成に
より容易に距離画像を生成することができ、前記本実施
例における認識手順により対象物の3次元的位置を計測
することができる。なお、距離画像生成より以降の処理
については前述の実施の形態1と同じである。即ち2次
元基準パターンとして物体のコーナー部分や直線輪郭部
をもち、それぞれの認識対象との位置決め結果を統合す
ることで最終的な物体位置検出が可能である。このよう
実施の形態2は物体の形状が多面体の場合だけでな
く、袋のような形状その他の場合でも物体の3次元情報
を認識することができる。
In the second embodiment, as described above, the operation has been described on the assumption that the object to be recognized is a cardboard box, that is, a hand-shaped object, but an object having another shape, for example, a cement bag. Even with a bag-shaped object, a range image can be easily generated by the configuration of the present invention, and the three-dimensional position of the target object can be measured by the recognition procedure in the present embodiment. The processes after the generation of the distance image are the same as those in the first embodiment . In other words, a final object position can be detected by having a corner portion and a linear contour portion of the object as a two-dimensional reference pattern and integrating the results of positioning with each recognition target. As described above, in the second embodiment, the three-dimensional information of the object can be recognized not only in the case where the shape of the object is a polyhedron but also in the case of a shape such as a bag.

【0059】実施の形態3. 実施の形態3の構成を示すブロック図を図8、動作の流
れを示すフローチャートを図9に示す。図10は低解像
度距離画像から段差領域部を抽出し、高解像度距離画像
の段差領域部のみ高解像度のステレオ対応付行う状況の
説明図である。図8において、13〜19は、実施の形
態2.と同一機能を有するものであり説明は省略する。
31は画像入力手段21が低解像度で撮像したステレオ
画像から低解像度の距離画像を生成する低解像度ブロッ
ク対応付手段、32は低解像度で段差領域を抽出する段
差領域抽出手段、33は低解像度の画像から抽出した段
差領域部について高解像度の距離画像を生成する高解像
度ブロック対応付手段、34は低解像度距離画像と、こ
の距離画像から抽出した段差領域部の高解像度距離画像
とを合成する距離画像合成手段である。
Embodiment 3 FIG. 8 is a block diagram showing the configuration of the third embodiment, and FIG. 9 is a flowchart showing the operation flow. FIG. 10 is an explanatory diagram of a situation in which a step region portion is extracted from a low-resolution distance image, and high-resolution stereo correspondence is performed only in the step region portion of the high-resolution distance image. In FIG. It has the same function as, and the description is omitted.
Reference numeral 31 denotes a low-resolution block associating unit that generates a low-resolution distance image from a stereo image captured by the image input unit 21 at a low resolution; 32, a step-region extracting unit that extracts a step region at a low resolution; A high-resolution block association unit for generating a high-resolution distance image for the step region extracted from the image; a distance for combining the low-resolution distance image and the high-resolution distance image of the step region extracted from the distance image; Image combining means.

【0060】ステップST301で電源がONされ起動
すると、ステップST302で、ランダムテクスチャパ
ターン投光手段20のランプ電源がONされ、認識対象
物に対してランダムドットパターンが投影される。ステ
ップST303では、一対のカメラで構成される画像入
力手段21により一対の画像のステレオ画像が低解像度
ブロック対応付手段31および高解像度ブロック対応付
手段32に入力される。ステレオ画像が入力が終わると
ステップST304でランダムテクスチャパターン投光
手段20はOFFする。ステップST305では第一の
画像入力手段21aまたは第二の画像入力手段21bか
ら対象物体の濃淡画像が濃淡画像格納手段に15に格納
される。
In step ST301, when the power is turned on and started, in step ST302, the lamp power of the random texture pattern projecting means 20 is turned on, and a random dot pattern is projected on the recognition target. In step ST303, a stereo image of a pair of images is input to the low-resolution block association unit 31 and the high-resolution block association unit 32 by the image input unit 21 including a pair of cameras. When the input of the stereo image is completed, the random texture pattern projection unit 20 is turned off in step ST304. In step ST305, the gray image of the target object is stored in the gray image storage means 15 from the first image input means 21a or the second image input means 21b.

【0061】ステップST306では、低解像度ブロッ
ク対応づけ手段31によってステレオ画像が処理され
る。図10(a)は低解像度ブロック対応付手段31に
よって得られた低解像度距離画像部分Aを摸式的に表し
た図である。画像入力手段として512×512画素の
解像度のCCDカメラを使用しているが、低解像度距離
画像としては32×32画素の距離画像を生成し、ブロ
ックマッチングの方法は実施の形態1で示した方法と同
様の方法で行い、例えばブロックサイズを16×16画
素にすることで得られる。ステップST307では上記
低解像度距離画像をもとに、段差領域抽出手段32で対
象物の段差領域部分Bを抽出する。段差領域部分Bの摸
式図を図10(b)に示す。ステップST308では、
高解像度ブロック対応付手段33により、上記段差領域
部分(B−Aの斜線部分)についてのみ、より高解像度
の距離画像を生成する。この場合は高解像度とは128
×128画素である。この処理はブロックマッチング処
理においてブロックサイズを8×8に設定し、かつ、ブ
ロックを4画素づつずらしながら対応点を検出すること
で得られ、図10(c)に段差領域部分の距離画像Cを
示す。図10(c)において、斜線部分(Bの枠内)は
低解像度距離画像から得られた物体の段差領域、灰色の
部分(Cの枠内)は、高解像度距離画像生成の結果新た
に得られた距離画像の段差領域部分に相当する部分であ
る。ステップST309では、距離画像合成手段34に
よって上記低解像度距離画像と高解像度距離画像を合成
し、図10(d)のような128×128の解像度の距
離画像が得られる。
In step ST306, the stereo image is processed by the low resolution block association means 31. FIG. 10A is a diagram schematically showing a low-resolution distance image portion A obtained by the low-resolution block association unit 31. Although a CCD camera with a resolution of 512 × 512 pixels is used as the image input means, a distance image of 32 × 32 pixels is generated as the low-resolution distance image, and the method of block matching is the method described in the first embodiment. The method is performed in the same manner as described above, for example, by setting the block size to 16 × 16 pixels. In step ST307, the step region extracting means 32 extracts a step region portion B of the object based on the low resolution distance image. FIG. 10B is a schematic diagram of the step region portion B. In step ST308,
The high-resolution block association unit 33 generates a higher-resolution distance image only for the step area (the hatched area B-A). In this case, the high resolution is 128
× 128 pixels. This process is obtained by setting the block size to 8 × 8 in the block matching process, and detecting the corresponding point while shifting the block by 4 pixels. FIG. 10C shows the distance image C of the step region portion. Show. In FIG. 10C, a hatched portion (in the frame B) is a step region of the object obtained from the low-resolution distance image, and a gray portion (in the frame C) is newly obtained as a result of generating the high-resolution distance image. This is a portion corresponding to the step region portion of the obtained distance image. In step ST309, the low-resolution distance image and the high-resolution distance image are synthesized by the distance image synthesizing means 34, and a distance image having a resolution of 128 × 128 as shown in FIG. 10D is obtained.

【0062】ステップST310以降は、実施の形態
2.と同様に処理される。ステップ310では、最上段
面領域抽出手段13により、距離画像から最上段物体面
に相当する最上段領域が抽出され、ステップST311
では、物体寸法データベース16に格納されている認識
対象物体の寸法データを使って、2次元基準パターン生
成手段17によって2次元基準パターンが自動的に生成
される。ステップST312では、上記最上段面領域が
抽出された画像が、最上段面とそれ以外の面の2つに分
けられて2値化され、最上段物体候補抽出手段14によ
って最上段物体候補の一つが抽出される。ステップST
313では、抽出された一つの物体候補の位置近傍に関
し、上記2次元基準パターンと、上記濃淡原画像情報を
用いて、物体位置検出手段18によって候補物体の精密
な位置が計測され検出される。このようにして決定した
候補物体の2次元位置は、情報統合手段19によって上
記合成された高解像度の距離画像情報と統合され、最終
的に物体の3次元情報として出力する。ステップST3
14では、ステップST312、ST313の処理によ
って、すべての物体を認識したか、否かの判断を行い
したと判断されればステップST315で処理を終了
となり、認識していない物体がまだ存在すると判断され
れば、ステップST312、ST313に戻って物体候
補を抽出する処理を繰り返す。すべての物体が認識され
たかどうかの判定は、上記最上段面領域が抽出された2
値化された距離画像をもとに順次物体の位置が確定した
ものを消去し、なおかつ画像上に残っている最上段面領
域が存在するかどうか調べることによって行う。
Step ST310 and subsequent steps are the same as those in the second embodiment. Is processed in the same way as In step 310, the uppermost plane area extracting means 13 extracts the uppermost area corresponding to the uppermost object plane from the distance image, and then proceeds to step ST311.
Then, the two-dimensional reference pattern is automatically generated by the two-dimensional reference pattern generation means 17 using the size data of the recognition target object stored in the object size database 16. In step ST312, the image from which the above-mentioned uppermost plane area is extracted is divided into two, that is, the uppermost plane and the other planes, and is binarized. One is extracted. Step ST
In 313, the precise position of the candidate object is measured and detected by the object position detecting means 18 using the two-dimensional reference pattern and the grayscale original image information in the vicinity of the position of the extracted one object candidate. The two-dimensional position of the candidate object determined in this way is integrated with the synthesized high-resolution range image information by the information integration means 19, and finally output as three-dimensional information of the object. Step ST3
At 14, it is determined whether or not all the objects have been recognized by the processing of steps ST312 and ST313, and the recognition is performed.
If it is determined that the identification will end the processing at step ST 315, if the object does not recognize it is determined that still exists, repeat the processing of extracting the object candidate returns to the step ST 312, ST 313. It is determined whether or not all the objects have been recognized.
The determination is performed by erasing the objects whose positions of the object are sequentially determined based on the digitized distance image and checking whether or not the uppermost surface area remaining on the image exists.

【0063】以上のように、この実施の形態3は、最終
的に高解像度の距離画像を得るために、予め低解像度の
距離画像を短時間で得ておき、物体の段差部分に相当す
る領域に限定して高解像度のステレオ対応付処理を行な
うことにして、少ない演算時間で高い解像度の距離画像
を生成することを可能としたものであり、物体候補の抽
出精度等も向上させることができる。
As described above, in the third embodiment, in order to finally obtain a high-resolution distance image, a low-resolution distance image is obtained in a short time in advance, and an area corresponding to a step portion of an object is obtained. By performing high-resolution stereo correspondence processing limited to the above, it is possible to generate a high-resolution distance image in a short calculation time, and it is possible to improve the extraction accuracy of object candidates and the like. .

【0064】低解像度距離画像は32×32画素、高解
像度距離画像は128×128画素として使用したが、
許容される処理時間や認識したい対象物体の寸法などを
考慮して、これと異なる解像度を設定してもよく、高速
処理の低解像度距離画像生成の時間と、高解像度ステレ
オ対応付処理の組合せによるメリットは失われることは
ない。
The low-resolution distance image was used as 32 × 32 pixels, and the high-resolution distance image was used as 128 × 128 pixels.
A different resolution may be set in consideration of the permissible processing time, the size of the target object to be recognized, etc., depending on the combination of the high-speed processing of the low-resolution distance image generation and the high-resolution stereo correspondence processing. The benefits are not lost.

【0065】また、低解像度距離画像生成時のステレオ
画像と、高解像度距離画像生成時のステレオ画像を同じ
画像として構成したが、低解像度ステレオ画像として、
フル解像度(CCDカメラ解像度と同じ解像度)の画像
を1/2や1/4などに縮退させて得た縮退画像をもと
にブロックマッチングを行なってもよい。さらに、高解
像度距離画像生成時には第一および第二の画像入力手段
21のCCDカメラのレンズをズームアップさせ、低解
像度距離画像における物体の段差部分をより詳細に撮像
するようにしても良い。
Further, the stereo image at the time of generating the low-resolution distance image and the stereo image at the time of generating the high-resolution distance image are configured as the same image.
Block matching may be performed based on a reduced image obtained by reducing an image of a full resolution (the same resolution as the CCD camera resolution) to に or 1 /. Further, at the time of generating a high-resolution distance image, the lenses of the CCD cameras of the first and second image input means 21 may be zoomed up so as to capture a step portion of the object in the low-resolution distance image in more detail.

【0066】さらに、対象物体に投影するランダムドッ
トパターンを一定のパターンとしたが、2種類の異なる
大きさのドットパターン投光器を用意し、低解像度距離
画像生成時には大きなドットパターン投影を行ない、高
解像度距離画像生成時にはより小さなドットパターン投
影を行なうように変形して実施すれば、精度の高い距離
画像が得られる。
Further, the random dot pattern projected on the target object is a fixed pattern. However, two types of dot pattern projectors having different sizes are prepared, and a large dot pattern is projected when a low-resolution distance image is generated. When the distance image is generated and modified so as to project a smaller dot pattern, a highly accurate distance image can be obtained.

【0067】実施の形態. 実施の形態の構成を示すブロック図を図11、動作の
流れを示すフローチャートを図12に示す.図11にお
いて、11〜13、15〜17、19、21は実施の形
態1と同一機能を有するものであり説明は省略する。図
において、64は物体候補組合せ仮説生成手段、65は
仮説妥当性検証手段、69は物体位置検出手段である。
Embodiment 4 FIG. FIG. 11 is a block diagram showing the configuration of the fourth embodiment, and FIG. 12 is a flowchart showing the operation flow. In FIG. 11, 11 to 13, 15 to 17, 19, and 21 have the same functions as in the first embodiment, and a description thereof will be omitted. In the figure, reference numeral 64 denotes an object candidate combination hypothesis generation unit, 65 denotes a hypothesis validity verification unit, and 69 denotes an object position detection unit.

【0068】ステップST601で、装置が起動される
と、画像入力手段11の2つのカメラで対象物体の画像
が距離画像生成手段12に入力され、個別に格納され
る。2つのカメラは、光軸を共有しない同一の仕様のも
のが使用される。ステップST602で、距離画像生成
手段12によって上記2枚のステレオ画像がステレオマ
ッチングされ、その視差から距離画像が生成される。
When the apparatus is started in step ST601, the images of the target object are input to the distance image generation means 12 by the two cameras of the image input means 11 and stored individually. The two cameras having the same specifications without sharing the optical axis are used. In step ST602, the two stereo images are stereo-matched by the distance image generation means 12, and a distance image is generated from the parallax.

【0069】ステップST603で、画像入力手段11
により撮像された濃淡原画像が濃淡原画像格納手段に格
納される。この実施の形態6.の認識対象とする物体の
濃淡原画像を図13(a)に示す。物体は段ボール箱等
の箱状の物体であり、それらが何段かに積載されてい
る。ステップST604で距離画像はから、最上段面領
域抽出手段13によって、最上段物体の上面部分の画像
から領域として抽出される。図13(b)は、抽出され
た最上段物体領域である。図のように、最上段以外の領
域も示されている。
At step ST603, the image input means 11
Is stored in the grayscale image storage means. Sixth Embodiment FIG. 13A shows an original grayscale image of an object to be recognized. The object is a box-like object such as a cardboard box, and they are stacked in several stages. In step ST604, the distance image is extracted as an area from the image of the upper surface of the uppermost object by the uppermost surface area extracting means 13. FIG. 13B shows the extracted uppermost object region. As shown in the figure, areas other than the top row are also shown.

【0070】ステップST605では、箱状物体の寸法
データを格納した物体寸法データベース16に格納され
たデータを用いて、2次元基準パターン生成手段17に
よって物体の2次元的な画像パターンを表現した基準パ
ターンを自動的に生成する。図13(c)にその基準パ
ターンの摸式図を示す。
In step ST605, using the data stored in the object dimension database 16 storing the dimension data of the box-shaped object, the reference pattern expressing the two-dimensional image pattern of the object by the two-dimensional reference pattern generating means 17 is used. Is automatically generated. FIG. 13C shows a schematic diagram of the reference pattern.

【0071】以下の動作の説明が、この実施の形態
本質となる部分である。ステップST607において、
物候補組合せ仮説生成手段64によって、上記抽出され
た最上段面領域と2次元基準パターンとから、物体候補
の組合せ仮説が一つ生成される。仮説とは図13(c)
に示されたようなものであり、この実施の形態では、
この仮説を「仮説1」と呼ぶ。仮説は図13(b)のよ
うな最上段物体領域を画像で表現したものに対し、認識
対象物の基準パターンをパターンマッチング、例えばテ
ンプレートマッチングの技法によって処理し、図13
(b)のような最上段面領域を形成する2次元基準パタ
ーンの組合せを類推することによって得られる。また、
同時に、物体位置検出手段69によって図13(d)の
ように物体2次元的位置が検出される。物体位置検出
は,上記格納された濃淡原画像と上記2次元基準パター
ンとの比較によって行う。2次元基準パターンの輪郭部
分の情報を用い、上記濃淡画像から検出したエッジ画像
との間でテンプレートマッチング行なう。その際、仮説
生成の段階で物体の粗い位置は既知なので、テンプレー
トマッチング処理におけるパターン探索領域は上記位置
近傍のみでよい。
The following description of the operation is the essential part of the fourth embodiment. In step ST607,
The object candidate combination hypothesis generating means 64 generates one combination hypothesis of the object candidate from the extracted uppermost surface area and the two-dimensional reference pattern. Fig. 13 (c)
In the fourth embodiment,
This hypothesis is called “hypothesis 1”. The hypothesis is that a reference pattern of a recognition target is processed by pattern matching, for example, a template matching technique with respect to an image expressing the uppermost object region as shown in FIG.
It is obtained by inferring a combination of two-dimensional reference patterns forming the uppermost surface area as shown in FIG. Also,
At the same time, the two-dimensional position of the object is detected by the object position detecting means 69 as shown in FIG. The object position detection is performed by comparing the stored grayscale original image with the two-dimensional reference pattern. Using the information of the contour portion of the two-dimensional reference pattern, template matching is performed with the edge image detected from the grayscale image. At this time, since the coarse position of the object is known at the hypothesis generation stage, the pattern search area in the template matching process need only be near the above position.

【0072】ステップST608では、上記仮説が妥当
であるか否かが検証される。仮説妥当性検証手段65は
図13(d)のような仮説画像を生成し、物体候補1か
ら6までの6個の物体の組合せによって、図13(b)
のような最上段面領域が合理的に生成され得るかどうか
を計算する。即ち、上記6個の物体候補によって生成さ
れる仮説画像と、最上段面画像とを比較し、その差とな
る領域の面積を算出して上記面積が大きいほど誤った仮
説であると判定するように動作する。ステップST60
8ではこのようにステップST606で生成した一つの
仮説に対し、その妥当性指標を一つ与える。上記面積の
逆数が妥当性指標となる。
In step ST608, it is verified whether the above hypothesis is valid. The hypothesis validity verification unit 65 generates a hypothesis image as shown in FIG. 13D, and generates a hypothesis image by combining six objects from object candidates 1 to 6 as shown in FIG.
It is calculated whether the uppermost surface region such as can be generated reasonably. That is, the hypothesis image generated by the six object candidates is compared with the top-level surface image, and the area of the difference region is calculated. The larger the area is, the more erroneous the hypothesis is determined. Works. Step ST60
In step 8, one validity index is given to one hypothesis generated in step ST606. The reciprocal of the above area is the validity index.

【0073】ステップST609では、ステップST6
06からST608までの処理を考えられる仮説をすべ
て生成するまで繰り返し、ステップST610では、仮
説をすべて生成し、それらの中でもっとも妥当性の高い
仮説を選択する。即ち、各仮説についての前記妥当性指
標を比較し、最も高い指標を持つ仮説を選ぶ。図13
(e)(f)は、それぞれ別の仮説2および仮説3であ
る。図から明らかなように、この場合は仮説2が最も高
い妥当性指標を持つのでこれが最もよい仮説として、ス
テップST610において選択されることになる。
In step ST609, step ST6
The processes from 06 to ST608 are repeated until all possible hypotheses are generated, and in step ST610, all the hypotheses are generated, and the hypothesis with the highest validity is selected from them. That is, the validity index for each hypothesis is compared, and the hypothesis having the highest index is selected. FIG.
(E) and (f) are different hypotheses 2 and 3, respectively. As is clear from the figure, in this case, hypothesis 2 has the highest validity index, and this is selected as the best hypothesis in step ST610.

【0074】ステップST611では、情報統合手段1
9によって、上記の最もよい仮説に相当する2次元位置
情報と前記距離画像が統合され、ステップST612で
認識結果として装置から出力されて処理を終了する。
In step ST611, the information integrating means 1
In step ST612, the two-dimensional position information corresponding to the above-described best hypothesis and the distance image are integrated. In step ST612, the distance image is output from the apparatus as a recognition result, and the process ends.

【0075】この実施の形態4は、距離画像生成手段と
して2つのカメラによるステレオ視を用いたが、3つ以
上のカメラによるステレオ視、ランダムドット等の特徴
ある投光パターンの投光を併用したステレオ視、あるい
は従来技術として説明した空間コード化法による距離画
像生成手段でもよい。この実施の形態は、距離画像か
ら得た認識結果の仮説を検証して尤もらしい結果を得る
ことに特徴があるので、距離画像の生成方法はどんなも
のでも良い。
In the fourth embodiment, stereo vision by two cameras is used as the distance image generation means, but stereo vision by three or more cameras and projection of a characteristic projection pattern such as random dots are also used. It may be a stereo image or a range image generating means using a spatial coding method described as a conventional technique. Embodiment 4 is characterized in that a hypothesis of a recognition result obtained from a distance image is verified to obtain a plausible result, so that any method of generating a distance image may be used.

【0076】また、この実施の形態4は、仮説の妥当性
を検証する方法として、仮説画像と実際の画像との差を
もとに妥当性指標を計算する方法を用いたが、例えば、
上記仮説を得る際に計算されたテンプレートマッチング
の類似度のすべての候補物体に対する総和が大きいほど
妥当性が高いとするような指標を用いても同様の効果を
得ることができる。
In the fourth embodiment, as a method of verifying the validity of a hypothesis, a method of calculating a validity index based on a difference between a hypothesis image and an actual image is used.
A similar effect can be obtained by using an index such that the larger the sum of the similarities of the template matching calculated in obtaining the above hypothesis for all the candidate objects, the higher the validity is.

【0077】また、この実施の形態4では物体位置の検
出方法として、基準パターンから得た物体の輪郭情報
と、濃淡原画像から生成したエッジ画像とをテンプレー
トマッチング手法により処理していたが、これを2値画
像のテンプレートマッチングなどの位置決め手法を用い
ても同様の効果得ることができる。
In the fourth embodiment, as a method of detecting an object position, contour information of an object obtained from a reference pattern and an edge image generated from an original gray-scale image are processed by a template matching method. The same effect can be obtained by using a positioning method such as template matching of a binary image.

【0078】さらに、この実施の形態4では、物体候補
の組合せ仮説の生成と検証を逐次行なうような処理フロ
ーを説明したが、多数の仮説を一度に生成して格納して
おき、それらの妥当性検証を一度に行って最も妥当性の
高いものを選択するようにしてもよい。
Further, in the fourth embodiment, a processing flow in which generation and verification of combination hypotheses of object candidates are sequentially performed has been described. However, a large number of hypotheses are generated and stored at once, and their validity is stored. It is also possible to perform sex verification at one time and select the most appropriate one.

【0079】さらに、実施の形態4では、すべての仮説
を生成するように説明したが、仮説は物体候補の組合せ
として得られることから、物体の組合せ最適化問題とし
て扱い、近似解を求めても同様の効果が得られる。
Further, in the fourth embodiment, all hypotheses have been described as being generated. However, since hypotheses are obtained as combinations of object candidates, they can be treated as an object combination optimization problem and an approximate solution can be obtained. Similar effects can be obtained.

【0080】実施の形態5. 実施の形態5の構成を示すブロック図を図14、動作の
流れを示すフローチャートを図15に示す。図14にお
いて、11〜13、15〜19は実施の形態6.と同一
機能を有するものであり説明は省略する。71は物体配
列基準データベース、72は物体配列判定手段、73は
警告発生手段である。
Embodiment 5 FIG. 14 is a block diagram showing the configuration of the fifth embodiment, and FIG. 15 is a flowchart showing the operation flow. 14, 11 to 13 and 15 to 19 correspond to the sixth embodiment. It has the same function as, and the description is omitted. Reference numeral 71 denotes an object array reference database, 72 denotes an object array determining unit, and 73 denotes a warning generating unit.

【0081】この実施の形態5は、実施の形態4の構成
に、物体配列が誤って配列されているときに警告を発生
するように構成したものである。したがって、図15の
フローのステップST701〜ST711は、図12の
ステップ601〜611と同じである。
The fifth embodiment is different from the fourth embodiment in that a warning is issued when an object array is incorrectly arranged. Therefore, steps ST701 to ST711 of the flow in FIG. 15 are the same as steps 601 to 611 in FIG.

【0082】ステップST701で装置が起動される
と、画像入力手段11によって対象物体の画像が距離画
像生成手段に入力され、個別に格納される。ステップS
T702で、距離画像生成手段12によって上記2枚の
画像がステレオマッチングされ、その視差から距離画像
が生成される。この処理は、必ずしも単純なステレオマ
ッチングである必要性はなく、例えば実施の形態2.に
示したようなパターン投光器を併用したステレオ視覚で
あってもよい。
When the apparatus is started in step ST701, the image of the target object is input to the distance image generating means by the image input means 11 and stored individually. Step S
At T702, the two images are stereo-matched by the distance image generation unit 12, and a distance image is generated from the parallax. This processing does not necessarily need to be simple stereo matching. The stereo vision using a pattern projector as shown in FIG.

【0083】ステップST703では、画像入力手段1
1により認識対象物の濃淡原画像が入力され、濃淡原画
像格納手段15に格納される。ステップST704で最
上段面領域抽出手13により最上段面領域が抽出され
る。ステップST705では、箱状物体の寸法データを
格納した物体寸法データベース16を用いて2次元基準
パターン生成手段17によって物体の2次元的な画像パ
ターンを表現した基準パターンを自動的に生成する。ス
テップST706では、物体候補組合せ仮説生成手段6
4によって、上記抽出された最上段面領域と基準パター
ンとから、物体候補の組合せ仮説が一つ生成される。仮
説とは実施の形態6.で説明したと同様の図13(d)
に示されたようなものである。この実施の形態7.にお
いては、仮説は図13(b)のような最上段物体領域を
画像で表現したものに対し、認識対象物の基準パターン
をパターンマッチング、例えばテンプレートマッチング
の技法によって処理し、図13(b)のような最上段面
領域を形成する2次元基準パターンの組合せを類推する
ことによって得ている。ステップST707では、物体
位置検出手段69によって図13(d)のように上記仮
説に含まれる候補物体それぞれの2次元的位置が検出さ
れる。物体位置検出は、上記格納された濃淡原画像と、
上記2次元基準パターンの輪郭部分の情報を用い、濃淡
画像から検出したエッジ画像との間でテンプレートマッ
チングによって検出される。
In step ST703, the image input means 1
The gray scale original image of the recognition target is input by 1 and stored in the gray scale original image storage means 15. In step ST704, the uppermost surface area extraction unit 13 extracts the uppermost surface area. In step ST705, a reference pattern expressing a two-dimensional image pattern of the object is automatically generated by the two-dimensional reference pattern generation means 17 using the object size database 16 storing the size data of the box-shaped object. In step ST706, the object candidate combination hypothesis generation unit 6
In step 4, one combination hypothesis of the object candidate is generated from the extracted uppermost surface area and the reference pattern. Embodiment 6 is a hypothesis. FIG. 13D similar to that described in FIG.
It is as shown in. Embodiment 7 In FIG. 13B, the hypothesis is obtained by processing the reference pattern of the recognition target object by pattern matching, for example, a template matching technique, with respect to an image expressing the uppermost object region as shown in FIG. Is obtained by estimating a combination of two-dimensional reference patterns forming the uppermost surface area as described above. In step ST707, the two-dimensional position of each of the candidate objects included in the above hypothesis is detected by the object position detecting means 69 as shown in FIG. The object position detection is performed by using the stored grayscale original image,
Using the information of the contour part of the two-dimensional reference pattern, it is detected by template matching with the edge image detected from the grayscale image.

【0084】ステップST708では、上記複数の物体
候補によって生成される仮説画像と、最上段面画像とを
比較し、その差となる領域の面積を算出して大きいほど
誤った仮説である可能性が高いと判定する。ステップ7
09では、ステップST706〜708の処理を考えら
れる仮説をすべて生成するまで繰り返し、ステップ71
0では、仮説をすべて生成し、それらの中でもっとも妥
当性の高い仮説を選択する。即ち、各仮説についての前
記妥当性指標を比較し、最も高い指標を持つ仮説を選
ぶ。
In step ST708, the hypothesis image generated by the plurality of object candidates is compared with the top image, and the area of the difference area is calculated. Judge as high. Step 7
In step 09, the processing of steps ST706 to ST708 is repeated until all possible hypotheses are generated.
At 0, all hypotheses are generated and the most relevant hypothesis is selected. That is, the validity index for each hypothesis is compared, and the hypothesis having the highest index is selected.

【0085】ステップST711では、情報統合手段1
9によって上記仮説で最もよい仮説に相当する2次元位
置情報と上記距離画像が統合される。この時点で、この
実施の形態における画像処理装置は物体の配列および
各々の物体の3次元的位置を知ったことになり装置内部
に格納される。ステップ712では、物体配列判定手段
72によって上記格納された認識結果が、予め用意され
た正しい配列データと比べて合致しているか否かが判定
される。正しい配列データは、物体配列基準データベー
ス71に格納された被認識物体によって決められた配列
パターンである。例えば、この実施の形態5よる装置が
使用されるような物流工場においては、認識対象物体と
しての段ボール箱はその形状や寸法によって予め正しい
「積みパターン」と呼ばれるパレット上への箱の積み方
が決められている。
In step ST711, the information integrating means 1
9 integrates the two-dimensional position information corresponding to the best hypothesis and the distance image. At this point, the image processing apparatus according to the fifth embodiment knows the arrangement of the objects and the three-dimensional position of each object, and is stored inside the apparatus. In step 712, the object arrangement determination means 72 determines whether the stored recognition result matches the correct arrangement data prepared in advance or not. The correct array data is an array pattern determined by the recognized object stored in the object array reference database 71. For example, in a logistics factory in which the apparatus according to the fifth embodiment is used, a cardboard box as a recognition target object needs to be stacked in advance on a pallet called a “stacking pattern” that is correct according to its shape and dimensions. It is decided.

【0086】上記物体配列基準データベースにはそのよ
うな基準とすべき物体の配列が記述されている。ステッ
プST712において認識した結果が基準となる積みパ
ターンと合致していない場合には、ステップST713
において、警告発生手段73によって装置使用者や上位
システムの管理者に対して警告を発生して物体が正しく
積まれていないことを知らせる。この実施の形態5は、
ブザーによる音と、装置に接続された表示用ディスプレ
イ装置への文字表示によって警告が発生される。ステッ
プST712において認識結果が正しいパターンである
と判定された場合は、情報統合手段19によって最終的
な物体認識結果が出力され、例えばロボットにデータが
送信されることによりロボットによる物体の把持動作が
行なわれることになる。認識動作としてはステップST
715で動作を終了する。
The object array reference database describes the array of objects to be used as such a reference. If the result recognized in step ST712 does not match the reference stacking pattern, the process proceeds to step ST713.
In the above, a warning is generated by the warning generating means 73 to the user of the apparatus or the manager of the host system to notify that the object is not correctly loaded. This Embodiment 5
A warning is generated by the sound of the buzzer and the display of characters on the display device connected to the device. If it is determined in step ST712 that the recognition result is a correct pattern, the final object recognition result is output by the information integration means 19, and the data is transmitted to the robot, for example, so that the robot performs the object gripping operation. Will be. Step ST for the recognition operation
The operation ends at 715.

【0087】この実施の形態5では、このように物体を
認識するだけでなく、その配列パターンを基準データと
比較することによって予想された配列なのかどうかを判
定し、さらに上記認識結果が基準データと異なる場合に
は警告を発生する機能を有している。これにより、作業
者が自分の積み作業ミスに気づいたり輸送中の激しい荷
崩れを検知できるという利点がある。
In the fifth embodiment, in addition to recognizing an object as described above, it is determined whether or not the array is an expected array by comparing the array pattern with reference data. If it is different from the above, it has a function to generate a warning. As a result, there is an advantage that the operator can notice a mistake in his / her loading operation or detect a severe collapse of the cargo during transportation.

【0088】なお、距離画像生成手段として2つのカメ
ラによるステレオ視を、仮説の妥当性検証の方法として
仮説画像と実際の画像との差をもとに検証する方法を、
そして物体位置の検出方法として物体の輪郭情報を利用
したテンプレートマッチング手法をそれぞれ利用してい
る。しかし、これら部分的な処理手段処理手段は、他の
手法により実現しても同様の効果を奏することはいうま
でもない。例えば、距離画像生成手段として、実施の形
態2.で説明したパターンを併用するステレオ視を、仮
説の妥当性検証方法として各物体を濃淡基準パターンと
比較した類似度の総和が高いほど妥当性が高いと判断さ
れるような方法を物体位置検出方法として仮説に含まれ
る各物体を予め用意した濃淡画像パターンと正規化相互
相関によるテンプレートマッチング法を、それぞれ採用
してもよい。
As a method of verifying the validity of a hypothesis, a method of verifying stereoscopic vision by two cameras as a distance image generating means based on a difference between a hypothesis image and an actual image is described.
As a method of detecting an object position, a template matching method using contour information of an object is used. However, it is needless to say that the same effect can be obtained even if these partial processing means are realized by another method. For example, Embodiment 2 is used as a distance image generation unit. The stereo vision using the pattern described in the above is used as a method for verifying the validity of the hypothesis.A method that determines that the higher the sum of similarities comparing each object with the gray level reference pattern, the higher the validity is, is the object position detection method. Alternatively, a template matching method using a normalized cross-correlation and a grayscale image pattern prepared in advance for each object included in the hypothesis may be adopted.

【0089】また、認識結果が予め格納された物体配列
基準データベースと比較して合わないと判断した時に警
告を発生する例を説明したが、基準データとの類似度合
に応じて、警告の内容を変えて装置使用者や作業者に知
らしめるようにしてもよい。例えば、制御表示器に『自
動認識の結果判定された積み方の正しさはレベル8で
す』などと表示する。さらに認識した結果、積荷の荷崩
れ状態が非常に顕著であり、このまま作業を継続するこ
とが適当でないと判断される場合には上記警告を発生す
るだけでなく、上位の管理計算機にシステムの停止を要
求したり、または本装置が直接システム停止したりする
ようにしてもよい。
Also, an example has been described in which a warning is issued when it is determined that the recognition result does not match the object array reference database stored in advance, but the content of the warning is determined according to the degree of similarity with the reference data. Alternatively, the device user or the operator may be notified. For example, a message such as "The correctness of the stacking method determined as a result of the automatic recognition is level 8" is displayed on the control display. Furthermore, as a result of the recognition, the collapse state of the cargo is very remarkable, and if it is judged that it is not appropriate to continue the work as it is, not only will the above warning be issued, but also the upper management computer will stop the system. May be requested, or the system may directly stop the system.

【0090】さらに、警告手段としてブザーと表示器に
よる文字表示を採用したが、この他にも人間に警告を送
る手段として、合成された人間の声を発生させるなどの
方法を用いてもよい。
Further, although a character display by a buzzer and a display is employed as the warning means, a method of generating a synthesized human voice may be used as a means for transmitting a warning to a human.

【0091】[0091]

【発明の効果】この発明の請求項1に係る画像処理装置
は、複数の物体の距離画像を生成する距離画像生成手段
と、距離画像から物体の最上段面領域を抽出する最上段
面領域抽出手段と、最上段面領域から物体を個々に分離
して抽出する最上段物体候補抽出手段と、認識対象物体
の寸法データをもとに物体の2次元画像上での2次元基
準パターンを生成する2次元基準パターン生成手段と、
カメラから入力された濃淡原画像を格納する濃淡原画像
格納手段と、個別に抽出された最上段物体候補について
2次元基準パターンと濃淡原画像の情報を用いて物体の
位置を検出する物体位置検出手段と、各手段で得られた
物体位置の検出結果と距離画像生成手段とによって得ら
れた個々の物体の距離情報とを統合する情報統合手段と
を備えたものとしたことにより、認識対象物体が粗い距
離画像と2次元基準パターンのマッチングによって物体
候補が検出できるので、画像メモリは小さな容量のもの
でよくなり、画像入力時間が短くなり、個々の物体が三
次元的に明確に検出できる。
According to the first aspect of the present invention, there is provided an image processing apparatus comprising: a distance image generating means for generating a distance image of a plurality of objects; and an uppermost surface region extraction for extracting an uppermost surface region of the object from the distance images. Means, an uppermost object candidate extracting means for individually extracting and extracting an object from the uppermost surface area, and generating a two-dimensional reference pattern on a two-dimensional image of the object based on the size data of the object to be recognized Two-dimensional reference pattern generation means;
Original gray-scale image storage means for storing the gray-scale original image input from the camera, and object position detection for detecting the position of the object using the information of the two-dimensional reference pattern and the gray-scale original image for the individually extracted top-level object candidate Means, and information integration means for integrating the distance information of each object obtained by the distance image generation means and the detection result of the object position obtained by each means, and Since the object candidates can be detected by matching the coarse distance image with the two-dimensional reference pattern, the image memory can be of a small capacity, the image input time is shortened, and individual objects can be clearly detected three-dimensionally.

【0092】この発明の請求項2に係る物体移載装置
は、複数の物体の距離画像を生成する距離画像生成手段
と、距離画像から物体の最上段面領域を抽出する最上段
面領域抽出手段と、最上段面領域から物体を個々に分離
して抽出する最上段物体候補抽出手段と、認識対象物体
の寸法データをもとに物体の2次元画像上での2次元基
準パターンを生成する2次元基準パターン生成手段と、
カメラから入力された濃淡原画像を格納する濃淡原画像
格納手段と、個別に抽出された最上段物体候補について
2次元基準パターンと濃淡原画像の情報を用いて物体の
位置を検出する物体位置検出手段と、各手段で得られた
物体位置の検出結果と距離画像生成手段とによって得ら
れた個々の物体の距離情報とを統合する情報統合手段と
を備えた画像処理装置を物体移載装置に組み合わせたも
のであり、このようにしたことにより、物体移載装置と
して、物体の検出時間が短く、位置は正確に検出され、
物体の移載は素早く正確に行うことができる。
The object transfer device according to a second aspect of the present invention is a distance image generating means for generating a distance image of a plurality of objects, and an uppermost surface area extracting means for extracting an uppermost surface area of the object from the distance images. And an uppermost-stage object candidate extracting means for individually separating and extracting objects from the uppermost-plane region, and generating a two-dimensional reference pattern on a two-dimensional image of the object based on the size data of the recognition target object. Dimensional reference pattern generation means;
Original gray-scale image storage means for storing the gray-scale original image input from the camera, and object position detection for detecting the position of the object using the information of the two-dimensional reference pattern and the gray-scale original image for the individually extracted top-level object candidate Means, and an image processing apparatus having information integrating means for integrating the distance information of each object obtained by the distance image generating means and the detection result of the object position obtained by each means. In this way, as an object transfer device, the object detection time is short, the position is accurately detected,
The transfer of objects can be performed quickly and accurately.

【0093】この発明の請求項3に係る画像処理装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第2の画像入力手段が撮像した二つ
の画像間の対応付を行なうステレオ画像ブロック対応付
手段とで構成したので、認識対象物体に対してランダム
ドットパターンが投光されるため、表面に図柄のない無
地の物体、あるいは表面に光が反射するラベルが貼って
あっても、表面各位値のにおける距離データを正確に得
ることができる効果がある。
According to a third aspect of the present invention, in the image processing apparatus, the distance image generating means projects a random texture pattern, the first image inputting means for inputting a stereo image, and the second image inputting means. And a stereo image block associating means for associating the two images taken by the first and second image input means, so that a random dot pattern is projected on the recognition target object. Since light is emitted, even when a solid object having no design on the surface or a label reflecting light is affixed to the surface, there is an effect that distance data at each value of the surface can be accurately obtained.

【0094】この発明の請求項4に係る物体移載装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第2の画像入力手段が撮像した二つ
の画像間の対応付を行なうステレオ画像ブロック対応付
手段で構成された画像処理装置を物体移載手段に組み合
わせたものであり、このようにしたことにより、認識対
象物体に対してランダムドットパターンが投光されるた
め、表面に図柄のない無地の物体、あるいは表面に光が
反射するラベルが貼ってあっても、表面各位値が正確に
得られ、物体移載装置として、物体の検出時間が短く、
物体の位置は正確に検出され、物体の移載は素早く正確
に行うことができる。
According to a fourth aspect of the present invention, in the object transfer device, the distance image generation means projects a random texture pattern, the first image input means for inputting a stereo image, and the second image input means. Combination of an object processing means with an image processing apparatus comprising two image input means and a stereo image block associating means for associating two images captured by the first and second image input means. By doing so, since a random dot pattern is projected on the recognition target object, even if a solid object without a pattern on the surface, or even if a label reflecting light is affixed to the surface, Each surface value is accurately obtained, and as an object transfer device, the object detection time is short,
The position of the object is accurately detected, and the transfer of the object can be performed quickly and accurately.

【0095】この発明の請求項5に係る画像処理装置
は、距離画像生成手段が、解像度の粗い距離画像を生成
する低解像度距離画像生成手段と、低解像度距離画像か
ら物体の段差領域部を抽出する段差領域抽出手段と、段
差領域に対して高い解像度の距離画像を生成する高解像
度距離画像生成手段と、低解像度距離画像と高解像度距
離画像の解像度の異なる2つの距離画像を合成する距離
画像合成手段とで構成されたものとしたので、少ない画
像メモリで、短い演算時間で、高解像度の距離画像が生
成され、物体候補の抽出精度も高くすることができる効
果がある。
According to a fifth aspect of the present invention, in the image processing apparatus, the distance image generating means extracts a stepped area of the object from the low resolution distance image, the low resolution distance image generating means generating a coarse resolution distance image. Step area extracting means, high-resolution distance image generating means for generating a high-resolution distance image for the step area, and a distance image combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image Since it is configured with the synthesizing means, there is an effect that a high-resolution distance image can be generated with a small amount of image memory in a short calculation time, and the extraction accuracy of an object candidate can be increased.

【0096】この発明の請求項6に係る物体移載装置
は、距離画像生成手段が、解像度の粗い距離画像を生成
する低解像度距離画像生成手段と、低解像度距離画像か
ら物体の段差領域部を抽出する段差領域抽出手段と、段
差領域に対して高い解像度の距離画像を生成する高解像
度距離画像生成手段と、低解像度距離画像と高解像度距
離画像の解像度の異なる2つの距離画像を合成する距離
画像合成手段とで構成された画像処理装置を、物体移載
手段に組み合わせたものであり、短い演算時間で、高解
像度の距離画像が得られ、物体候補の抽出時間が短く、
抽出精度が高く、物体の位置は正確に検出され物体の移
載は素早く正確に行うことができる。
According to a sixth aspect of the present invention, in the object transfer device, the distance image generating means includes a low-resolution distance image generating means for generating a coarse-resolution distance image, and a step area portion of the object from the low-resolution distance image. A stepped region extracting means for extracting, a high-resolution distance image generating means for generating a high-resolution distance image for the stepped region, and a distance for combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image An image processing apparatus configured with an image synthesizing unit is combined with an object transferring unit. In a short calculation time, a high-resolution range image is obtained, and an object candidate extraction time is short.
The extraction accuracy is high, the position of the object is accurately detected, and the transfer of the object can be performed quickly and accurately.

【0097】この発明の請求項7に係る画像処理装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行ない、
この認識した画像と距離画像生成手段によって得られた
個々の物体の距離情報とを統合する情報統合手段とを備
えたものとし、距離画像から抽出された最上断面領域に
対して、対象物体の配置仮説から候補物体の位置を検出
するので、不規則に積載された対象物体においても正確
に位置を検出することができる。
According to a seventh aspect of the present invention, there is provided an image processing apparatus, comprising: a distance image generating means for generating a distance image of a plurality of loaded objects; and extracting an uppermost surface area of the uppermost object from the distance image. A top-level surface region extracting unit, a plurality of object candidate combination hypothesis generating units that enumerate and generate a plurality of combinations of object candidates from the output of the top-level surface region extracting unit, and an object size database storing size data of the recognition target object. A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using the information included in the two-dimensional reference pattern and the grayscale original image; Recognize based on hypotheses,
Information integrating means for integrating the recognized image with the distance information of each object obtained by the distance image generating means, and the arrangement of the target object is performed with respect to the top cross-sectional area extracted from the distance image. Since the position of the candidate object is detected from the hypothesis, it is possible to accurately detect the position of the randomly stacked target object.

【0098】この発明の請求項8に係る物体移載装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行ない、
この認識した画像と距離画像生成手段によって得られた
個々の物体の距離情報とを統合する情報統合手段とを備
え、個々の対象物体の三次元位置情報を出力する画像処
理装置と物体移載手段と組み合わせたものとしたので、
不規則に積載された対象物体であっても正確に把持して
移載することができる。
An object transfer device according to an eighth aspect of the present invention is a distance transfer device for generating a distance image of a plurality of stacked objects, wherein the distance image generation unit generates a distance image of the plurality of stacked objects. An uppermost plane area extracting means for extracting, an object candidate combination hypothesis generating means for generating a plurality of combinations of object candidates as hypotheses from the output of the uppermost plane area extracting means, and an object size database for storing dimension data of the recognition target object A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using information included in the two-dimensional reference pattern and the grayscale original image; Recognize based on high hypotheses,
An image processing device for outputting three-dimensional position information of an individual target object, comprising: an information integration unit for integrating the recognized image and distance information of each object obtained by the distance image generation unit; and an object transfer unit Because it was combined with
Even irregularly stacked target objects can be accurately grasped and transferred.

【0099】この発明の請求項9に係る画像処理装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、基準データと比較して正しい配列かどうか
を判定する物体配列判定手段と、認識した画像が基準デ
ータに整合しないときに判定の結果を作業者に警告する
警告発生手段を有するものとしたので、認識物体の積み
パターンが基準となる積みパターンになっていない場合
に装置使用者や上位システムの管理者に正しく積まれて
いないことを警告し危険な状態を回避することができ
る。
An image processing apparatus according to a ninth aspect of the present invention provides an object array reference database for storing data serving as a reference for an object array, and a hypothesis validity test for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement determining unit that compares the image recognized by the sex verification unit with the reference data to determine whether the arrangement is correct, and a warning that warns the operator of a determination result when the recognized image does not match the reference data Since the means is provided, if the stacking pattern of the recognized object is not the standard stacking pattern, a warning is issued to the user of the device or the manager of the host system to prevent the stacking from being performed correctly, thereby avoiding a dangerous state. be able to.

【0100】この発明の請求項10に係る物体移載装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、上記基準データと比較して正しい配列かど
うかを判定する物体配列判定手段と、認識した画像が基
準データに整合しないときに判定の結果を作業者に警告
する警告発生手段を有する画像処理装置と移載手段とを
組み合わせたものとしたので、認識物体の積みパターン
が基準となる積みパターンになっていない場合に装置使
用者や上位システムの管理者に正しく積まれていないこ
とを警告し危険な状態を回避することができる。
An object transfer device according to a tenth aspect of the present invention provides an object array reference database storing data serving as an object array reference, and a hypothesis for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement determining unit for comparing the image recognized by the validity verification unit with the reference data to determine whether or not the arrangement is correct; and warning an operator of a determination result when the recognized image does not match the reference data. Since the image processing apparatus having the warning generating means and the transfer means are combined, if the stacking pattern of the recognition object is not the standard stacking pattern, the stacking pattern can be correctly stacked with the apparatus user or the manager of the host system. It warns that it is not rare and avoids dangerous situations.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1の構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a configuration of a first embodiment of the present invention.

【図2】 実施の形態1の動作の流れを示すフローチャ
ートである。
FIG. 2 is a flowchart showing a flow of an operation according to the first embodiment.

【図3】 実施の形態1における各段階において生成さ
れた画像である。
FIG. 3 is an image generated at each stage according to the first embodiment.

【図4】 この発明の実施の形態2の構成を示すブロッ
ク図である。
FIG. 4 is a block diagram showing a configuration of a second embodiment of the present invention.

【図5】 実施の形態2の動作の流れを示すフローチャ
ートである。
FIG. 5 is a flowchart showing a flow of an operation according to the second embodiment.

【図6】 ランダムドットパターンの照射説明図であ
る。
FIG. 6 is an explanatory diagram of irradiation of a random dot pattern.

【図7】 ステレオ画像のブロックマッチングの説明図
である。
FIG. 7 is an explanatory diagram of block matching of a stereo image.

【図8】 この発明の実施の形態3の構成を示すブロッ
ク図である。
FIG. 8 is a block diagram showing a configuration of a third embodiment of the present invention.

【図9】 実施の形態3の動作の流れを示すフローチャ
ートである。
FIG. 9 is a flowchart showing a flow of an operation according to the third embodiment.

【図10】 低解像度距離画像から段差領域部を抽出
し、高解像度距離画像の段差領域部をのみ高解像度のス
テレオ対応を行う状況の説明図である。
FIG. 10 is an explanatory diagram of a situation in which a step region portion is extracted from a low-resolution distance image, and high-resolution stereo correspondence is performed only in a step region portion of a high-resolution distance image.

【図11】 この発明の実施の形態4の構成を示すブロ
ック図である。
FIG. 11 is a block diagram showing a configuration of a fourth embodiment of the present invention.

【図12】 実施の形態4の動作の流れを示すフローチ
ャートである。
FIG. 12 is a flowchart showing a flow of an operation according to the fourth embodiment.

【図13】 物体候補仮説を用いて物体候補を抽出する
動作状況の各段階をを示す図ある。
FIG. 13 is a diagram showing each stage of an operation state of extracting an object candidate using the object candidate hypothesis.

【図14】 この発明の実施の形態5の構成を示すブロ
ック図である。
FIG. 14 is a block diagram showing a configuration of a fifth embodiment of the present invention.

【図15】 実施の形態5の動作の流れを示すフローチ
ャートである。
FIG. 15 is a flowchart showing a flow of an operation according to the fifth embodiment.

【図16】 従来の画像処理装置の処理手順を示す説明
図である。
FIG. 16 is a diagram illustrating a processing procedure of a conventional image processing apparatus.
FIG.

【図17】 図16に示す処理動作のフローチャートで
ある。
FIG. 17 is a flowchart of the processing operation shown in FIG . 16;
is there.

【図18】 パターン光を用いた空間コード化の原理を
示す図である。
FIG. 18 illustrates the principle of spatial coding using pattern light .
FIG.

【図19】 他の従来例の距離画像計測システムの説明
図である。
FIG. 19 is a description of another conventional range image measurement system.
FIG.

【図20】 従来の別の画像処理のステレオ対応探索装
置の説明図である。
FIG. 20 shows another conventional stereo-compatible search device for image processing.
FIG.

【図21】 従来の別の画像処理の図20のフローチャ
ートである。
21 is a flowchart of another conventional image processing shown in FIG. 20;
It is.

【符号の説明】[Explanation of symbols]

11 画像入力手段、12 距離画像生成手段、13
最上段面領域抽出手段、14 最上段物体候補抽出手
段、15 濃淡原画像格納手段、16 物体寸法データ
ベース、17 2次元基準パターン生成手段、18 物
体位置検出手段、19 情報統合手段、20 ランダム
テクスチャパターン投光手段、21 画像入力手段、2
2 ステレオ画像ブロック対応付手段、30 パターン
投光器、31 低解像度ブロック対応付手段、32 段
差領域抽出手段、33 高解像度ブロック対応付手段、
34 距離画像合成手段、64 物体候補組合せ仮説生
成手段、65 仮説妥当性検証手段、69 物体位置検
出手段、71 物体配列基準データベース、72 物体
配列判定手段、73 警告発生手段。
11 image input means, 12 distance image generation means, 13
Top-level surface area extraction means, 14 Top-level object candidate extraction means, 15 density original image storage means, 16 object size database, 17 two-dimensional reference pattern generation means, 18 object position detection means, 19 information integration means, 20 random texture pattern Light emitting means, 21 Image input means, 2
2 stereo image block correspondence means, 30 pattern projectors, 31 low resolution block correspondence means, 32 step area extraction means, 33 high resolution block correspondence means,
34 range image synthesis means, 64 object candidate combination hypothesis generation means, 65 hypothesis validity verification means, 69 object position detection means, 71 object array reference database, 72 object array determination means, 73 warning generation means.

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 積載された複数の物体の距離画像を生成
する距離画像生成手段と、距離画像から最上段に位置す
る物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域から物体を個々に分離して抽出する最
上段物体候補抽出手段と、認識対象物体の寸法データを
格納する物体寸法データベースと、物体の寸法データを
もとに物体の2次元画像上での標準的パターン画像を生
成する2次元基準パターン生成手段と、カメラから入力
された濃淡原画像を格納する濃淡原画像格納手段と、上
記個別に抽出された最上段物体候補について、上記2次
元基準パターンと上記濃淡原画像の情報を用いて物体の
位置を検出する物体位置検出手段と、上記各手段で得ら
れた物体位置の検出結果と距離画像生成手段によって得
られた個々の物体の距離情報とを統合する情報統合手段
とを備え、個々の対象物体の三次元位置情報を出力する
画像処理装置。
1. A distance image generating means for generating a distance image of a plurality of stacked objects, an uppermost surface area extracting means for extracting an uppermost surface area of an uppermost object from the distance image, An uppermost-stage object candidate extracting means for individually separating and extracting an object from the surface region, an object size database for storing size data of the recognition target object, and a two-dimensional image of the object based on the size data of the object. A two-dimensional reference pattern generating means for generating a standard pattern image, a gray-scale original image storage means for storing a gray-scale original image input from a camera, and the two-dimensional reference pattern for the individually extracted top-level object candidate And object position detecting means for detecting the position of the object using the information of the grayscale original image, and the detection result of the object position obtained by each of the above means and the individual object obtained by the distance image generating means. An image processing apparatus comprising: information integration means for integrating distance information; and outputting three-dimensional position information of each target object.
【請求項2】 積載された複数の物体の距離画像を生成
する距離画像生成手段と、距離画像から最上段に位置す
る物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域から物体を個々に分離して抽出する最
上段物体候補抽出手段と、認識対象物体の寸法データを
格納する物体寸法データベースと、物体の寸法データを
もとに物体の2次元画像上での標準的パターン画像を生
成する2次元基準パターン生成手段と、カメラから入力
された濃淡原画像を格納する濃淡原画像格納手段と、上
記個別に抽出された最上段物体候補について、上記2次
元基準パターンと上記濃淡原画像の情報を用いて物体の
位置を検出する物体位置検出手段と、上記各手段で得ら
れた物体位置の検出結果と距離画像生成手段によって得
られた個々の物体の距離情報とを統合する情報統合手段
とを備え、個々の対象物体の三次元位置情報を出力する
画像処理装置および物体を把持し移載する物体移載手段
とを備え、上記画像処理装置の出力信号に基いて物体
を移載する物体移載装置。
2. A distance image generating means for generating a distance image of a plurality of stacked objects, an uppermost surface area extracting means for extracting an uppermost surface area of an uppermost object from the distance image, An uppermost-stage object candidate extracting means for individually separating and extracting an object from the surface region, an object size database for storing size data of the recognition target object, and a two-dimensional image of the object based on the size data of the object. A two-dimensional reference pattern generating means for generating a standard pattern image; a gray-scale original image storage means for storing a gray-scale original image input from a camera; And object position detecting means for detecting the position of the object using the information of the grayscale original image, and the detection result of the object position obtained by each of the above means and the individual object obtained by the distance image generating means. Information integration means for integrating the distance information, and an image processing apparatus for outputting three-dimensional position information of each target object, and an object transfer means for gripping and transferring the object, the output of the image processing apparatus object transfer device for transferring the object have groups Dzu the signal.
【請求項3】 距離画像生成手段は、ランダムなテクス
チャパターンを投光するランダムテクスチャ投光手段
と、ステレオ画像を入力する第一の画像入力手段および
第二の画像入力手段と、上記第一および第2の画像入力
手段が撮像した二つの画像間の対応付を行うステレオ画
像ブロック対応付手段とで構成されていることを特徴と
する請求項1記載の画像処理装置。
3. The distance image generating unit includes: a random texture projecting unit that projects a random texture pattern; a first image input unit and a second image input unit that input a stereo image; 2. The image processing apparatus according to claim 1, further comprising stereo image block associating means for associating the two images captured by the second image input means.
【請求項4】 距離画像生成手段が、ランダムなテクス
チャパターンを投光するランダムテクスチャ投光手段
と、ステレオ画像を入力する第一の画像入力手段および
第二の画像入力手段と、上記第一および第2の画像入力
手段が撮像した二つの画像間の対応付を行うステレオ画
像ブロック対応付手段で構成された画像処理装置と物体
を把持し移載する物体移載手段とを備え、上記画像処理
装置の出力信号に基づいて物体を移載する請求項2記載
の物体移載装置。
4. A distance image generating means, comprising: a random texture light projecting means for projecting a random texture pattern; a first image input means and a second image input means for inputting a stereo image; An image processing apparatus comprising stereo image block association means for associating two images captured by the second image input means and an object transfer means for gripping and transferring an object; 3. The object transfer device according to claim 2, wherein the object is transferred based on an output signal of the device.
【請求項5】 距離画像生成手段は、解像度の粗い距離
画像を生成する低解像度距離画像生成手段と、低解像度
距離画像から物体の段差領域部を抽出する段差領域抽出
手段と、段差領域に対して高い解像度の距離画像を生成
する高解像度距離画像生成手段と、上記低解像度距離画
像と高解像度距離画像の解像度の異なる2つの距離画像
を合成する距離画像合成手段とで構成されていることを
特徴とする請求項1記載の画像処理装置。
5. A distance image generating means, comprising: a low resolution distance image generating means for generating a coarse resolution distance image; a step area extracting means for extracting a step area portion of an object from the low resolution distance image; And a distance image synthesizing unit for synthesizing two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image. The image processing apparatus according to claim 1, wherein:
【請求項6】 距離画像生成手段は、解像度の粗い距離
画像を生成する低解像度距離画像生成手段と、低解像度
距離画像から物体の段差領域部を抽出する段差領域抽出
手段と、段差領域に対して高い解像度の距離画像を生成
する高解像度距離画像生成手段と、上記低解像度距離画
像と高解像度距離画像の解像度の異なる2つの距離画像
を合成する距離画像合成手段で構成された画像処理装置
と物体を把持し移載する物体移載手段とを備え、上記画
像処理装置の出力信号に基づいて物体を移載する請求項
2記載の物体移載装置。
6. A distance image generating means, comprising: a low-resolution distance image generating means for generating a coarse-resolution distance image; a step area extracting means for extracting a step area portion of an object from the low-resolution distance image; A high-resolution distance image generating means for generating a high-resolution distance image, and an image processing apparatus comprising distance image synthesizing means for synthesizing two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image. 3. The object transfer device according to claim 2, further comprising an object transfer means for holding and transferring the object, and transferring the object based on an output signal of the image processing device.
【請求項7】 積載された複数の物体の距離画像を生成
する距離画像生成手段と、距離画像から最上段に位置す
る物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域抽出手段の出力から物体候補の組合せ
を仮説として複数列挙生成する物体候補組合せ仮説生成
手段と、認識対象物体の寸法データを格納する物体寸法
データベースと、2次元基準パターンと濃淡原画像に含
まれる情報を使って上記仮説生成手段が生成した物体候
補組合せ仮説の妥当性を検証する仮説妥当性検証手段
と、複数の仮説のうち最も評価値の高い仮説をもとに認
識を行ない、この認識した画像と距離画像生成手段によ
って得られた個々の物体の距離情報とを統合する情報統
合手段とを備え、個々の対象物体の三次元位置情報を出
力する画像処理装置。
7. A distance image generating means for generating a distance image of a plurality of stacked objects, an uppermost surface area extracting means for extracting an uppermost surface area of an uppermost object from the distance image, Object candidate combination hypothesis generation means for generating a plurality of combinations of object candidates as hypotheses from the output of the surface region extraction means, an object size database for storing the size data of the recognition target object, included in the two-dimensional reference pattern and the grayscale original image Hypothesis validity verification means for verifying the validity of the object candidate combination hypothesis generated by the above-mentioned hypothesis generation means using the information generated by the hypothesis generation means, and performing recognition based on the hypothesis having the highest evaluation value among a plurality of hypotheses, and An image processing apparatus comprising: information integrating means for integrating the obtained image and distance information of each object obtained by the distance image generating means, and outputting three-dimensional position information of each target object.
【請求項8】 積載された複数の物体の距離画像を生成
する距離画像生成手段と、距離画像から最上段に位置す
る物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域抽出手段の出力から物体候補の組合せ
を仮説として複数列挙生成する物体候補組合せ仮説生成
手段と、認識対象物体の寸法データを格納する物体寸法
データベースと、2次元基準パターンと濃淡原画像に含
まれる情報を使って上記仮説生成手段が生成した物体候
補組合せ仮説の妥当性を検証する仮説妥当性検証手段
と、複数の仮説のうち最も評価値の高い仮説をもとに認
識を行ない、この認識した画像と距離画像生成手段によ
って得られた個々の物体の距離情報とを統合する情報統
合手段とを備え、個々の対象物体の三次元位置情報を出
力する画像処理装置と物体を把持し移載する移載手段を
備え、上記画像処理装置の出力信号に基づいて物体を移
載する物体移載装置。
8. A distance image generating means for generating a distance image of a plurality of loaded objects, an uppermost surface area extracting means for extracting an uppermost surface area of an object located at an uppermost position from the distance image, Object candidate combination hypothesis generation means for generating a plurality of combinations of object candidates as hypotheses from the output of the surface region extraction means, an object size database for storing the size data of the recognition target object, included in the two-dimensional reference pattern and the grayscale original image Hypothesis validity verification means for verifying the validity of the object candidate combination hypothesis generated by the above-mentioned hypothesis generation means using the information generated by the hypothesis generation means, and performing recognition based on the hypothesis having the highest evaluation value among a plurality of hypotheses, and An image processing device, comprising information integration means for integrating the obtained image and the distance information of each object obtained by the distance image generation means, and outputting three-dimensional position information of each target object; An object transfer device comprising a transfer means for holding and transferring an object, and transferring the object based on an output signal of the image processing device.
【請求項9】 物体配列の基準となるデータを格納する
物体配列基準データベースと、仮説生成手段が生成した
物体候補組合せ仮説の妥当性を検証する仮説妥当性検証
手段が認識した画像と、上記基準データと比較して正し
い配列かどうかを判定する物体配列判定手段と、認識し
た画像が基準データに整合しないときに判定の結果を作
業者に警告する警告発生手段を有することを特徴とする
請求項7記載の画像処理装置。
9. An object array reference database storing data serving as a reference of the object array, an image recognized by a hypothesis validity verification unit for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation unit, and An object arrangement determining means for comparing the data with the data to determine whether the arrangement is correct, and warning generating means for warning an operator of a result of the determination when the recognized image does not match the reference data. 8. The image processing device according to 7.
【請求項10】 物体配列の基準となるデータを格納す
る物体配列基準データベースと、仮説生成手段が生成し
た物体候補組合せ仮説の妥当性を検証する仮説妥当性検
証手段が認識した画像と、上記基準データと比較して正
しい配列かどうかを判定する物体配列判定手段と、認識
した画像が基準データに整合しないときに判定の結果を
作業者に警告する警告発生手段を有する画像処理装置と
物体を把持し移載する移載手段とを備え、上記画像処理
装置の出力信号に基づいて物体を移載する請求項8記載
の物体移載装置。
10. An object array reference database for storing data serving as a reference for the object array, an image recognized by a hypothesis validity verification unit for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation unit, An image processing apparatus having an object arrangement determining means for comparing the data with the data to determine whether or not the arrangement is correct, and a warning generating means for warning an operator of a result of the determination when the recognized image does not match the reference data, and grasping the object 9. The object transfer device according to claim 8, further comprising a transfer unit that transfers the object based on an output signal of the image processing device.
JP8184917A 1996-07-15 1996-07-15 Image processing device and object transfer device Expired - Fee Related JP2921496B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP8184917A JP2921496B2 (en) 1996-07-15 1996-07-15 Image processing device and object transfer device
TW085112386A TW324781B (en) 1996-07-15 1996-10-08 Image processing apparatus and object loader
KR1019960061142A KR100271408B1 (en) 1996-07-15 1996-11-27 An image processing apparatus and an apparatus for moving and loading an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8184917A JP2921496B2 (en) 1996-07-15 1996-07-15 Image processing device and object transfer device

Publications (2)

Publication Number Publication Date
JPH1031742A JPH1031742A (en) 1998-02-03
JP2921496B2 true JP2921496B2 (en) 1999-07-19

Family

ID=16161599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8184917A Expired - Fee Related JP2921496B2 (en) 1996-07-15 1996-07-15 Image processing device and object transfer device

Country Status (3)

Country Link
JP (1) JP2921496B2 (en)
KR (1) KR100271408B1 (en)
TW (1) TW324781B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319229A (en) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc Correlation calculation method for image
JP2009070078A (en) * 2007-09-12 2009-04-02 Fanuc Ltd Robot programming device for palletizing operation by robot

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3384329B2 (en) * 1998-06-22 2003-03-10 富士ゼロックス株式会社 3D image capturing device
JP3482990B2 (en) * 1998-08-18 2004-01-06 富士ゼロックス株式会社 3D image capturing device
CN1162681C (en) 1999-03-19 2004-08-18 松下电工株式会社 Three-D object recognition method and pin picking system using the method
JP3654042B2 (en) * 1999-04-21 2005-06-02 松下電工株式会社 Object identification method and apparatus
JP4406978B2 (en) * 1999-11-10 2010-02-03 株式会社安川電機 Template matching method
JP4110501B2 (en) * 1999-11-22 2008-07-02 ソニー株式会社 Random pattern generation apparatus and method, distance image generation apparatus and method, and program providing medium
JP4337203B2 (en) * 2000-01-24 2009-09-30 ソニー株式会社 Distance image generating apparatus, distance image generating method, and program providing medium
JP2001266128A (en) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for obtaining depth information and recording medium recording depth information obtaining program
JP2002109512A (en) * 2000-09-28 2002-04-12 Fuji Photo Film Co Ltd Candidate shade abnormality detector, and recording medium therefor
JP2002120909A (en) * 2000-10-16 2002-04-23 Meidensha Corp Inventory control system
JP4419320B2 (en) * 2000-12-25 2010-02-24 コニカミノルタホールディングス株式会社 3D shape data generator
JP4259418B2 (en) * 2004-07-30 2009-04-30 パナソニック電工株式会社 Image processing device
WO2006011674A1 (en) 2004-07-30 2006-02-02 Matsushita Electric Works, Ltd. Image processing device
JP4645177B2 (en) * 2004-11-30 2011-03-09 パナソニック電工株式会社 Measuring device
JP4501587B2 (en) * 2004-08-18 2010-07-14 富士ゼロックス株式会社 Three-dimensional image measuring apparatus and method
JP2006300929A (en) * 2005-03-22 2006-11-02 Jfe Engineering Kk Device for recognizing three-dimensional position of object, and depalettizing system
JP4960599B2 (en) * 2005-03-23 2012-06-27 三井造船株式会社 Collision prevention device and vehicle equipped with collision prevention device
JP4701848B2 (en) * 2005-06-13 2011-06-15 日本電気株式会社 Image matching apparatus, image matching method, and image matching program
US7683962B2 (en) * 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
JP5214205B2 (en) * 2007-09-28 2013-06-19 富士フイルム株式会社 File generation apparatus and method, file display apparatus and method, and program
JP5221939B2 (en) * 2007-11-21 2013-06-26 三菱重工業株式会社 POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT
JP5322206B2 (en) * 2008-05-07 2013-10-23 国立大学法人 香川大学 Three-dimensional shape measuring method and apparatus
KR101095579B1 (en) 2009-09-10 2011-12-19 부산대학교 산학협력단 A method for positioning and orienting of a pallet based on monocular vision
JP5156731B2 (en) * 2009-12-24 2013-03-06 本田技研工業株式会社 Image processing apparatus, image processing method, and image processing program
JP5556382B2 (en) * 2010-05-28 2014-07-23 トヨタ自動車株式会社 Work stacking state recognition device
JP5496008B2 (en) * 2010-08-06 2014-05-21 キヤノン株式会社 Position / orientation measuring apparatus, position / orientation measuring method, and program
JP6009206B2 (en) * 2012-04-23 2016-10-19 シャープ株式会社 3D measuring device
JP2014041074A (en) * 2012-08-23 2014-03-06 Ricoh Co Ltd Image processing apparatus and inspection apparatus
JP6413648B2 (en) * 2014-06-20 2018-10-31 株式会社リコー Measurement system, object extraction system, measurement method and program
JP6486114B2 (en) * 2015-01-16 2019-03-20 株式会社東芝 Handling equipment
JP6705636B2 (en) * 2015-10-14 2020-06-03 東芝ライフスタイル株式会社 Vacuum cleaner
JP2018055429A (en) * 2016-09-29 2018-04-05 ファナック株式会社 Object recognition device and object recognition method
JP6893429B2 (en) * 2017-03-21 2021-06-23 株式会社富士通アドバンストエンジニアリング Object detection method, object detection program and object detection device
JP7065632B2 (en) * 2018-02-13 2022-05-12 Kyoto Robotics株式会社 Box-shaped object picking device and its method
JP7040147B2 (en) * 2018-03-09 2022-03-23 セイコーエプソン株式会社 Control devices, robots, robot systems, and methods for recognizing objects
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
DE112019000125B4 (en) 2018-10-30 2021-07-01 Mujin, Inc. SYSTEMS, DEVICES AND METHODS FOR AUTOMATED PACKAGING REGISTRATION
JP6815422B2 (en) * 2019-02-19 2021-01-20 株式会社東芝 Cargo handling equipment and control equipment
US20220189055A1 (en) * 2019-03-19 2022-06-16 Kabushiki Kaisha Toyota Jidoshokki Item detection device, item detection method, and industrial vehicle
JP6806845B2 (en) * 2019-06-11 2021-01-06 ファナック株式会社 Robot system and robot control method
US11900652B2 (en) * 2021-03-05 2024-02-13 Mujin, Inc. Method and computing system for generating a safety volume list for object detection
KR102463034B1 (en) * 2021-03-31 2022-11-03 한국로봇융합연구원 Apparatus and method for separating layers of cargo using RGB-D cameras

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319229A (en) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc Correlation calculation method for image
JP4517449B2 (en) * 2000-05-10 2010-08-04 株式会社豊田中央研究所 Correlation calculation method for images
JP2009070078A (en) * 2007-09-12 2009-04-02 Fanuc Ltd Robot programming device for palletizing operation by robot
US8644984B2 (en) 2007-09-12 2014-02-04 Fanuc Ltd Robot programming device for palletizing operation by robot

Also Published As

Publication number Publication date
JPH1031742A (en) 1998-02-03
TW324781B (en) 1998-01-11
KR980010354A (en) 1998-04-30
KR100271408B1 (en) 2000-12-01

Similar Documents

Publication Publication Date Title
JP2921496B2 (en) Image processing device and object transfer device
JP3867512B2 (en) Image processing apparatus, image processing method, and program
US8929608B2 (en) Device and method for recognizing three-dimensional position and orientation of article
JP2919284B2 (en) Object recognition method
US20110019243A1 (en) Stereoscopic form reader
JP4996245B2 (en) Method, apparatus, computer program and storage medium for position decoding
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
TWI672937B (en) Apparatus and method for processing three dimensional images
WO2014084181A1 (en) Image measurement device
EP1697880B1 (en) Method, apparatus, computer program and storage medium for recording a movement of a user unit
JP3709879B2 (en) Stereo image processing device
KR100508763B1 (en) System for detecting and recognizing a car plate area by using stereo vision and method thereof
KR20200005818A (en) System and method of building load map
JP3621215B2 (en) 3D measuring device
JP2007233440A (en) On-vehicle image processor
Saleem et al. Effects of ground manifold modeling on the accuracy of stixel calculations
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
JP2001076055A (en) Assessed amount calculating method and damage assessment system
CN112802114A (en) Multi-vision sensor fusion device and method and electronic equipment
JP4833406B2 (en) Method and apparatus for calculating the similarity between a first structure and at least one preset second structure
JP3475700B2 (en) Object recognition method, object recognition device, and vehicle recognition device
KR100276445B1 (en) Property recognition apparatus
JPH05173644A (en) Three-dimensional body recording device
JP7304992B2 (en) code recognizer
EP3376435B1 (en) Image processing apparatus, image processing system, image processing method, and program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080430

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090430

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100430

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100430

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110430

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120430

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees