JPH1031742A - Image processor and object transfer device - Google Patents
Image processor and object transfer deviceInfo
- Publication number
- JPH1031742A JPH1031742A JP8184917A JP18491796A JPH1031742A JP H1031742 A JPH1031742 A JP H1031742A JP 8184917 A JP8184917 A JP 8184917A JP 18491796 A JP18491796 A JP 18491796A JP H1031742 A JPH1031742 A JP H1031742A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance image
- distance
- generating
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Image Input (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、積荷を自動的に
移載するロボットや産業機械の積載された荷物の位置を
認識する画像処理装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for recognizing a position of a loaded luggage of a robot or an industrial machine for automatically transferring a luggage.
【0002】[0002]
【従来の技術】積荷を自動的に移載する手段の画像処理
装置の例として特開平6−249631号公報に開示さ
れたものがある。図27はその発明の画像計測の処理手
順の概略説明図、図28に動作を示すフローチャート、
図29はパターン光を用いた空間コード化の原理を示す
図である。2. Description of the Related Art An example of an image processing apparatus for automatically transferring a load is disclosed in Japanese Patent Application Laid-Open No. Hei 6-249631. FIG. 27 is a schematic explanatory diagram of the image measurement processing procedure of the invention, FIG. 28 is a flowchart showing the operation,
FIG. 29 is a diagram showing the principle of spatial coding using pattern light.
【0003】この画像処理装置は、パレット1上に積載
された段ボール箱Wを計測対象とするものであり、図2
9に示すように、パレット1の斜め上方に投光器2、パ
レット1の中心部上方に配置されたカメラ3からなり、
投光器2は各種のパターン光を時系列的に投光すること
により、測定空間を互いに積層された楔状測定領域r0
〜rnに分割するスリットパターン光を投光するもので
ある。スリットパターンは、例えば図29のA、B、C
の白黒の2値パターンの3つのパターン光を投光するよ
うになっており、白は光の当たって部分、黒は光の当た
っていない部分である。このようなパターンは、例えば
液晶シャッタのようなドットマトリクス電気シャッタを
用いて作ることができる。This image processing apparatus measures a cardboard box W stacked on a pallet 1 as shown in FIG.
As shown in FIG. 9, the projector 2 comprises a projector 2 disposed diagonally above the pallet 1 and a camera 3 disposed above the center of the pallet 1.
The light projector 2 emits various pattern lights in chronological order, so that the measurement space is overlapped with a wedge-shaped measurement area r0.
To rn. The slit pattern is, for example, A, B, C in FIG.
The black and white binary pattern is projected, and white is a portion that is exposed to light, and black is a portion that is not exposed to light. Such a pattern can be created, for example, using a dot matrix electric shutter such as a liquid crystal shutter.
【0004】光が当たっている状態を“1”、当たって
いない状態を“0”と表現すると、図29においては、
パターンAが投光されている時は前から後ろに向かっ
て、半分づつ1、0となる。パターンBでは、前から順
に1/4づつ1、0、1、0となる。パターンCでは、
1/8づつ1、0、1、0、1、0、1、0となる。When a state where light is illuminated is expressed as “1” and a state where light is not illuminated is expressed as “0”, FIG.
When the pattern A is projected, the values are half and 1, 0 from the front to the rear. In pattern B, the values are 1, 0, 1, and 0 in quarters from the front. In pattern C,
It becomes 1, 0, 1, 0, 1, 0, 1, 0 in 1/8 increments.
【0005】これら3つのパターンを投光してそれぞれ
画像を撮像すると、各画素については「000」から
「111」の3ビットコードにコード化されたデータの
どれかに対応させることができる。このようなコードを
空間コードと呼ぶ。ある空間コードに対応するのは3次
元空間上では楔状領域であり。そこに物体Wが存在して
いると物体の表面上の画像領域にコードが割り当てられ
ることになる。一方、カメラで撮像した画像から、画像
上のある画素の空間コードがわかれば、どの楔状領域に
相当するかがわかるので、三角測量の原理によって物体
表面の高さ、即ちカメラからの距離がわかることにな
る。この説明ではパターンの種類をA、B、Cの3種類
としたため、画像全体を8つの楔状領域に分割したが、
パターンの種類を8種類とすれば、楔状領域の数は25
6になり、より精密に距離情報の精度を向上させること
ができる。即ち、空間コード画像を生成することによっ
て、画像上のそれぞれの画素のカメラからの距離が計測
できる。When an image is captured by projecting these three patterns, each pixel can be made to correspond to any of data encoded into a 3-bit code of “000” to “111”. Such a code is called a space code. A wedge-shaped area in a three-dimensional space corresponds to a certain space code. If the object W exists there, a code is assigned to an image area on the surface of the object. On the other hand, from the image captured by the camera, if the spatial code of a certain pixel on the image is known, it is possible to know which wedge-shaped region corresponds to the height of the object surface, that is, the distance from the camera, based on the principle of triangulation. Will be. In this description, since the pattern types are A, B, and C, the entire image is divided into eight wedge-shaped regions.
If the number of patterns is eight, the number of wedge-shaped regions is 25.
6, the accuracy of the distance information can be improved more precisely. That is, by generating a space code image, the distance of each pixel on the image from the camera can be measured.
【0006】図27について、フローチャートにしたが
って説明する。ステップST01でシステムが起動され
ると、ステップST02において空間コード画像が生成
され、図27(A)の状態にある積荷の上面に同図
(D)のような空間コード画像が得られ、画像を水平に
左から右に走査し、もっとも空間コードの大きいデータ
を持つ領域を抽出すれば同図(E)のように最上段物体
の上面部分荷対応する画像が得られる。ステップST0
4では、最上段物体領域をグループ化している。空間コ
ード画像において隣接する画素間で空間コードが所定の
範囲内に近接している時、それら領域を同じグループと
判断したり、各積荷上縁間に生じる溝状の部分やすき間
部分の空間コードの変化をもとにグループ化している。
グループ化された各物体は、続くステップST05で各
物体の3次元位置が計測される。グループ化された物体
の辺縁部分に相当する部分の3次元座標を何点かサンプ
リングし、ステップST06で、それらをもとに物体の
重心位置と姿勢、および高さ情報を得る。ステップST
07で処理を終了する。このようにして得られた積荷の
位置データを用いて、ロボット等で積荷をひとつづつ移
載することができる。FIG. 27 will be described with reference to a flowchart. When the system is started in step ST01, a space code image is generated in step ST02, and a space code image as shown in FIG. 27D is obtained on the upper surface of the cargo in the state of FIG. By horizontally scanning from left to right and extracting an area having data having the largest space code, an image corresponding to the upper surface partial load of the uppermost object can be obtained as shown in FIG. Step ST0
In 4, the uppermost object area is grouped. When the space code is close to a predetermined range between adjacent pixels in the space code image, the regions are determined to be the same group, or the space code of a groove-shaped portion or a gap generated between the upper edges of each cargo. Are grouped on the basis of changes.
The three-dimensional position of each of the grouped objects is measured in the subsequent step ST05. Some three-dimensional coordinates of a portion corresponding to the peripheral portion of the grouped objects are sampled, and in step ST06, the position and orientation of the center of gravity and the height of the object are obtained based on them. Step ST
The process ends at 07. Using the position data of the cargo thus obtained, the cargo can be transferred one by one by a robot or the like.
【0007】この画像処理装置では、積荷の認識に必要
な情報をすべて空間コード画像から獲得し、例えば、解
像度256×256または512×512画素といった
高い解像度の距離画像を生成する必要があり、時系列的
に投光パターンを変化させる機構を有する高精度のパタ
ーン投光器が使用され、時系列で発生させた複数の投光
パターンそれぞれに対応させて、画像を入力するので、
大容量の画像メモリを必要とする。In this image processing apparatus, it is necessary to obtain all information necessary for cargo recognition from a spatial code image and to generate a high-resolution distance image such as a resolution of 256 × 256 or 512 × 512 pixels. Since a high-precision pattern projector having a mechanism to change the projection pattern in a sequential manner is used, and an image is input in correspondence with each of a plurality of projection patterns generated in a time series,
Requires a large image memory.
【0008】他の従来例として、電子情報通信学会論文
誌Vol.J71−D.No.7p1240〜1257
に掲載された佐藤、井口の論文「液晶レンジファインダ
・・液晶シャッタによる高速距離画像計測システム・
・」に記載された内容を紹介する。この技術は、上記の
図27〜図29に示された技術で使用された空間コード
化法による距離画像獲得システムに関するものであり、
図30にその原理を示す。液晶シャッタ41を用いて時
系列的に交番2進コードによるスリットパターンを物体
に投影し、カメラ3でそれぞれのパターンに対応する画
像を撮像して空間コード画像を生成するものである。パ
ターンとしては図42のような7枚のパターンを用い
る。計測の原理は上記図27〜図29の従来技術で用い
られているものと同一である。[0008] As another conventional example, see IEICE Transactions Vol. J71-D. No. 7p1240-1257
Sato and Iguchi's paper "Liquid crystal range finder-High speed range image measurement system using liquid crystal shutter-
・ Introduce the contents described in "." This technique relates to a range image acquisition system based on the spatial coding method used in the techniques shown in FIGS.
FIG. 30 shows the principle. A slit pattern of an alternating binary code is projected onto an object in time series using the liquid crystal shutter 41, and images corresponding to the respective patterns are captured by the camera 3 to generate a space code image. As the patterns, seven patterns as shown in FIG. 42 are used. The principle of the measurement is the same as that used in the prior art shown in FIGS.
【0009】また別の従来技術として、特開平7−10
3734号公報に記載された「ステレオ対応探索装置」
について説明する。図31は、この発明の階層的ブロッ
クマッチング(疎密探索法)の説明図であり、図32は
その発明の動作のフローチャートである。Another conventional technique is disclosed in Japanese Patent Application Laid-Open No. 7-10 / 1995.
"Stereo-compatible search device" described in Japanese Patent No. 3734
Will be described. FIG. 31 is an explanatory diagram of the hierarchical block matching (sparse / dense search method) of the present invention, and FIG. 32 is a flowchart of the operation of the present invention.
【0010】ステレオ視覚とは、複数の異なる位置に配
置された画像入力手段から入力された2つの画像の対象
物上の同一点に対応する視差を計測することにより、三
角測量の原理からカメラと対象点との距離を計算する手
法である。図32のフローチャートのST11において
画像が入力され、ST12で入力された2つの画像がそ
れぞれ画像メモリに格納され、ST13において、格納
された画像を階層的により低い解像度に変換する処理が
行われて階層画像が生成れる。図31は第D階層の画像
と第D+1階層の画像との対応関係を摸式的に表したも
のである。この例では、第D階層の画像の1/4領域を
第D+1階層の画像としている。ステップST14にお
いて、画像が小ブロックに分割され、ステップST90
5において、各ブロックは初期探索位置計算器によって
初期探索位置が計算され、ステップST16でパターン
マッチングによって他画像におけるブロックの対応点が
計算され、ステップST17において、2つの画像間の
対応点の位置情報を用い、視差計算器によって視差が計
算される。このようにして得られた視差画像をもとに、
一段階高解像度の画像を用いて再び視差が計算される。
この処理を繰り返し行ない最終的には入力画像と同じ最
高解像度の画像に対する対応点探索を行う。[0010] Stereo vision refers to measuring a parallax corresponding to the same point on an object between two images input from image input means arranged at a plurality of different positions, and using a camera based on the principle of triangulation. This is a method for calculating the distance to the target point. In ST11 of the flowchart of FIG. 32, an image is input, the two images input in ST12 are respectively stored in an image memory, and in ST13, processing for converting the stored image to a hierarchically lower resolution is performed. An image is generated. FIG. 31 schematically shows the correspondence between the image of the D-th hierarchy and the image of the D + 1-th hierarchy. In this example, a quarter area of the image on the D-th layer is an image on the D + 1-th layer. In step ST14, the image is divided into small blocks, and in step ST90
In step 5, the initial search position of each block is calculated by the initial search position calculator. In step ST16, the corresponding point of the block in the other image is calculated by pattern matching. In step ST17, the position information of the corresponding point between the two images is calculated. Is used to calculate the parallax by the parallax calculator. Based on the parallax image obtained in this way,
The disparity is calculated again using the one-step high-resolution image.
By repeating this processing, a corresponding point search is finally performed on the image having the same highest resolution as the input image.
【0011】[0011]
【発明が解決しようとする課題】上記図27〜図29に
示された画像処理装置では、積荷の認識に必要な情報を
すべて空間コード画像から獲得しており、例えば解像度
256×256または512×512画素といった高い
解像度の距離画像を生成する必要があり、高精度のパタ
ーン投光器が必要であり、しかもそれは時系列的に投光
パターンを変化させる機構を有するものが必要であり、
大規模な高価な装置となり、さらに、時系列で発生させ
た複数の投光パターンそれぞれに対応させて画像を入力
する必要があり、大容量の画像メモリも必要とし、大規
模な高価な装置となる問題点があった。またそれに要す
る画像入力時間の総計も多くかかるという問題点もあっ
た。In the image processing apparatus shown in FIGS. 27 to 29, all the information necessary for recognizing the cargo is obtained from the spatial code image. For example, the resolution is 256 × 256 or 512 ×. It is necessary to generate a high-resolution range image such as 512 pixels, a high-precision pattern projector is required, and it is necessary to have a mechanism for changing the projection pattern in a time-series manner.
It becomes a large-scale expensive device, and furthermore, it is necessary to input an image corresponding to each of a plurality of light emitting patterns generated in time series, a large-capacity image memory is required, and a large-scale expensive device is required. There was a problem. In addition, there is also a problem that the total image input time required for this takes much time.
【0012】上記図30に示す技術においても、空間コ
ード画像のみをもとに積荷を認識するので、図27〜図
29の場合と同様に、大きな画像メモリも必要とし、大
規模な高価な装置となる問題点があった。In the technique shown in FIG. 30 as well, since the cargo is recognized based only on the spatial code image, a large image memory is required as in the case of FIGS. There was a problem.
【0013】さらに、図27〜図29、および図30の
画像処理装置は、積荷に必要な情報を全て空間コード画
像から獲得するために、積荷において把持したい物体と
隣接物体が密に接触している場合、すなわち、稜線の面
とり量の小さい段ボール箱においては隣接する物体との
境界が三次元的に明確に段差として現れないもの、ある
いは、軟らかい内容物が収納されたセメント袋のような
袋物の場合は、隣接する物体と密接するため、境界が三
次元的には不明確であり、個々の物体を個別に分離して
移送手段に把持させることが困難であるという問題点が
あった。Further, in the image processing apparatus shown in FIGS. 27 to 29 and 30, in order to obtain all the information necessary for the cargo from the spatial code image, the object to be grasped in the cargo and the adjacent object come into close contact with each other. In other words, in the case of a cardboard box with a small ridge chamfer, the boundary with the adjacent object does not clearly appear as a three-dimensional step, or a bag such as a cement bag containing soft contents. In the case of (3), since the object is in close contact with the adjacent object, the boundary is unclear three-dimensionally, and there is a problem that it is difficult to separate the individual objects and hold them by the transfer means.
【0014】図31、図32に示された画像処理装置で
は、高速にステレオ対応点を探索し、距離画像を短い時
間で獲得することを目的としているが、画像中の対象物
の如何によらず常に画像上に画一的に設定された小ブロ
ック単位でより粗な解像度の画像から順により密な解像
度の画像へと探索を行うので、あらかじめ高解像度情報
が必要な部位がわかっている場合は、逆に処理時間が長
くかかるという問題点があった。The image processing apparatus shown in FIGS. 31 and 32 aims at searching for a stereo correspondence point at high speed and acquiring a distance image in a short time. The search is always performed from the image with the coarser resolution to the image with the denser resolution in small block units that are set uniformly on the image, so if a part that needs high-resolution information is known in advance However, there is a problem that the processing time is long.
【0015】この発明は、上記問題点を解決するために
なされたものであり、大容量の画像メモリを必要とせ
ず、簡単な装置構成で短時間で物体の三次元的な位置が
把握できる画像処理装置およびこの画像処理装置を装備
した物体移載装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and does not require a large-capacity image memory. It is an object to provide a processing device and an object transfer device equipped with the image processing device.
【0016】[0016]
【課題を解決するための手段】この発明の請求項1に係
る画像処理装置は、積載された複数の物体の距離画像を
生成する距離画像生成手段と、距離画像から積載された
物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域から物体を個々に分離して抽出する最
上段物体候補抽出手段と、認識対象物体の寸法データを
格納する物体寸法データベースと、物体の寸法データを
もとに物体の2次元画像上での標準的パターン画像を生
成する2次元基準パターン生成手段と、カメラから入力
された濃淡原画像を格納する濃淡原画像格納手段と、個
別に抽出された最上段物体候補について2次元基準パタ
ーンと濃淡原画像の情報を用いて物体の位置を検出する
物体位置検出手段と、各手段で得られた物体位置の検出
結果と距離画像生成手段によって得られた個々の物体の
距離情報とを統合する情報統合手段とを備えたものであ
る。According to a first aspect of the present invention, there is provided an image processing apparatus, comprising: a distance image generating means for generating a distance image of a plurality of loaded objects; An uppermost-level surface area extracting means for extracting a surface area; an uppermost-level object candidate extracting means for individually extracting and extracting objects from the uppermost-level surface area; an object size database storing dimension data of a recognition target object; A two-dimensional reference pattern generating means for generating a standard pattern image on a two-dimensional image of the object based on the size data of the object, and a gray-scale original image storage means for storing a gray-scale original image input from the camera. Object position detecting means for detecting the position of the object using the two-dimensional reference pattern and the information of the original gray-scale image for the extracted top-level object candidate, the detection result of the object position obtained by each means and generation of a distance image It is obtained and an information integration unit for integrating the distance information of each object obtained by stage.
【0017】この発明の請求項2に係る物体移載装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から積載された物体の最上段面
領域を抽出する最上段面領域抽出手段と、最上段面領域
から物体を個々に分離して抽出する最上段物体候補抽出
手段と、認識対象物体の寸法データを格納する物体寸法
データベースと、物体の寸法データをもとに物体の2次
元画像上での標準的パターン画像を生成する2次元基準
パターン生成手段と、カメラから入力された濃淡原画像
を格納する濃淡原画像格納手段と、個別に抽出された最
上段物体候補について2次元基準パターンと濃淡原画像
の情報を用いて物体の位置を検出する物体位置検出手段
と、各手段で得られた物体位置の検出結果と距離画像生
成手段によって得られた個々の物体の距離情報とを統合
する情報統合手段とを備えた画像処理装置と物体を把持
し移載する物体移載手段とを備えたものである。According to a second aspect of the present invention, there is provided an object transfer device for generating a distance image of a plurality of stacked objects, and extracting an uppermost surface area of the stacked object from the distance images. A top-level surface area extracting unit, a top-level object candidate extracting unit that individually separates and extracts objects from the top-level surface region, an object size database storing dimension data of the recognition target object, and an object size data. A two-dimensional reference pattern generating means for generating a standard pattern image on a two-dimensional image of the object; a gray-scale original image storing means for storing a gray-scale original image input from a camera; Object position detecting means for detecting the position of the object using the information of the two-dimensional reference pattern and the grayscale original image for the object candidate; the object position detection result obtained by each means and the distance image generating means; And those in which a object transfer means for gripping and transferring an image processing apparatus and the object with an information integration unit for integrating the distance information of each object.
【0018】この発明の請求項3に係る画像処理装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第二の画像入力手段が撮像した二つ
の画像間の対応付を行うステレオ画像ブロック対応付手
段で構成されたものである。According to a third aspect of the present invention, in the image processing apparatus, the distance image generating means emits a random texture pattern, the first texture input means inputs a stereo image, and the second image input means inputs a stereo image. And a stereo image block associating means for associating the two images captured by the first and second image input means.
【0019】この発明の請求項4に係る物体移載装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第二の画像入力手段が撮像した二つ
の画像間の対応付を行うステレオ画像ブロック対応付手
段で構成された画像処理装置と、物体を把持し移載する
物体移載手段とを備えたものである。According to a fourth aspect of the present invention, there is provided an object transfer device, wherein the distance image generating means projects a random texture pattern, the first image inputting means for inputting a stereo image, and the second image inputting means. An image processing apparatus including two image input means, a stereo image block associating means for associating two images captured by the first and second image input means, and holding and transferring an object Object transfer means.
【0020】この発明の請求項5に係る画像処理装置
は、距離画像生成手段が、解像度の粗い距離画像を生成
する低解像度距離画像生成手段と、低解像度距離画像か
ら物体の段差領域部を抽出する段差領域抽出手段と、段
差領域に対して高い解像度の距離画像を生成する高解像
度距離画像生成手段と、低解像度距離画像と高解像度距
離画像の解像度の異なる2つの距離画像を合成する距離
画像合成手段とで構成されているものである。According to a fifth aspect of the present invention, in the image processing apparatus, the distance image generation means includes a low resolution distance image generation means for generating a coarse resolution distance image, and extracts a step region portion of the object from the low resolution distance image. Step area extracting means, high-resolution distance image generating means for generating a high-resolution distance image for the step area, and a distance image combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image And a combining means.
【0021】この発明の請求項6に係る物体移載装置
は、距離画像生成手段が、解像度の粗い距離画像を生成
する低解像度距離画像生成手段と、低解像度距離画像か
ら物体の段差領域部を抽出する段差領域抽出手段と、段
差領域に対して高い解像度の距離画像を生成する高解像
度距離画像生成手段と、低解像度距離画像と高解像度距
離画像の解像度の異なる2つの距離画像を合成する距離
画像合成手段とで構成された画像処理装置と、物体を把
持し移載する物体移載手段とを備えたものである。According to a sixth aspect of the present invention, in the object transfer apparatus, the distance image generating means includes a low-resolution distance image generating means for generating a coarse-resolution distance image; A stepped region extracting means for extracting, a high-resolution distance image generating means for generating a high-resolution distance image for the stepped region, and a distance for combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image The image processing apparatus includes an image processing apparatus configured by an image synthesizing unit, and an object transfer unit that grips and transfers an object.
【0022】この発明の請求項7に係る画像処理装置
は、ブロック対応付手段が、左右の対応画像ブロックを
高速に探索する高速類似度計算手段と、探索結果である
ブロックのペアに関して高信頼に類似度を計算する高信
頼類似度計算手段と、高信頼類似度が一定しきい値以下
であれば対応ブロック無しと判定する対応ブロック信頼
度判定手段とで構成されたものである。According to a seventh aspect of the present invention, in the image processing apparatus, the block associating means includes a high-speed similarity calculating means for quickly searching for the left and right corresponding image blocks, and a pair of blocks as a search result with high reliability. It comprises high-reliability similarity calculating means for calculating similarity, and corresponding-block reliability determining means for determining that there is no corresponding block if the high-reliability similarity is equal to or less than a certain threshold value.
【0023】この発明の請求項8に係る物体移載装置
は、ブロック対応付手段が、左右の対応画像ブロックを
高速に探索する高速類似度計算手段と、探索結果である
ブロックのペアに関して高信頼に類似度を計算する高信
頼類似度計算手段と、高信頼類似度が一定しきい値以下
であれば対応ブロック無しと判定する対応ブロック信頼
度判定手段とで構成された画像処理装置と、物体を把持
し移載する物体移載手段とを備えたものである。In the object transfer apparatus according to an eighth aspect of the present invention, the block associating means includes a high-speed similarity calculating means for quickly searching for the left and right corresponding image blocks, and a highly reliable pair of the search result blocks. An image processing apparatus comprising: a high-reliability similarity calculating means for calculating the similarity to the object; and a corresponding block reliability determining means for determining that there is no corresponding block if the high-reliability similarity is equal to or less than a predetermined threshold value; And an object transfer means for holding and transferring the object.
【0024】この発明の請求項9に係る画像処理装置
は、3つ以上の画像入力手段を有し、ブロック対応付手
段が、3つ以上の画像入力手段から得られるそれぞれの
画像の内2つの画像を選択した画像ペアを2種類以上選
択し、ブロック対応付を行ない、それぞれの対応付探索
結果を統合して距離画像を生成するものである。According to a ninth aspect of the present invention, there is provided an image processing apparatus having three or more image input means, wherein the block associating means comprises two of the respective images obtained from the three or more image input means. Two or more types of image pairs from which images have been selected are selected, block association is performed, and a search result of each association is integrated to generate a distance image.
【0025】この発明の請求項10に係る物体移載装置
は、3つ以上の画像入力手段を有し、ブロック対応付手
段が上記3つ以上の画像入力手段から得られるそれぞれ
の画像の内2つの画像を選択した画像ペアを2種類以上
選択し、ブロック対応付を行ない、それぞれの対応付探
索結果を統合して距離画像を生成する画像処理装置と、
物体を把持し移載する物体移載手段とを備えたものであ
る。According to a tenth aspect of the present invention, there is provided an object transfer device having three or more image input means, and the block association means is one of two of the images obtained from the three or more image input means. An image processing device that selects two or more types of image pairs in which one image is selected, performs block association, and integrates each association search result to generate a distance image;
Object transfer means for holding and transferring an object.
【0026】この発明の請求項11に係る画像処理装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行ない、
この認識した画像と距離画像生成手段によって得られた
個々の物体の距離情報とを統合する情報統合手段とを備
えたものである。[0026] An image processing apparatus according to an eleventh aspect of the present invention is a distance image generating means for generating a distance image of a plurality of stacked objects, and extracting an uppermost surface area of an uppermost object from the distance image. A top-level surface area extracting unit, an object candidate combination hypothesis generating unit that enumerates and generates a plurality of combinations of object candidates from the output of the top-level surface region extracting unit, and an object size database that stores size data of the recognition target object. A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using information included in the two-dimensional reference pattern and the grayscale original image; Recognize based on hypotheses,
An information integrating means for integrating the recognized image and the distance information of each object obtained by the distance image generating means.
【0027】この発明の請求項12に係る物体移載装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行ない、
この認識した画像と距離画像生成手段によって得られた
個々の物体の距離情報とを統合する情報統合手段を備
え、個々の対象物体の三次元位置情報を出力する画像処
理装置と、物体を把持し移載する移載手段を備えたもの
である。According to a twelfth aspect of the present invention, there is provided an object transfer device, comprising: a distance image generating means for generating a distance image of a plurality of stacked objects; An uppermost plane area extracting means for extracting, an object candidate combination hypothesis generating means for generating a plurality of combinations of object candidates as hypotheses from the output of the uppermost plane area extracting means, and an object size database for storing dimension data of the recognition target object A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using the information included in the two-dimensional reference pattern and the grayscale original image; Recognize based on high hypotheses,
An image processing device that includes information integration means for integrating the recognized image and distance information of each object obtained by the distance image generation means, and outputs three-dimensional position information of each target object; It is provided with transfer means for transferring.
【0028】この発明の請求項13に係る画像処理装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、基準データと比較して正しい配列かどうか
を判定する物体配列判定手段と、認識した画像が基準デ
ータに整合しないときに判定の結果を作業者に警告する
警告発生手段を有するものである。According to a thirteenth aspect of the present invention, there is provided an image processing apparatus, comprising: an object array reference database storing data serving as an object array reference; and a hypothesis validity verifying validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement judging means for comparing the image recognized by the sex verification means with the reference data to determine whether or not the arrangement is correct, and generating a warning to warn an operator of the judgment result when the recognized image does not match the reference data Means.
【0029】この発明の請求項14に係る物体移載装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、上記基準データと比較して正しい配列かど
うかを判定する物体配列判定手段と、認識した画像が基
準データに整合しないときに判定の結果を作業者に警告
する警告発生手段を有する画像処理装置と、物体を把持
し移載する移載手段とを備えたものである。An object transfer device according to a fourteenth aspect of the present invention provides an object array reference database storing data serving as an object array reference, and a hypothesis for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement determining unit that compares the image recognized by the validity verification unit with the reference data to determine whether the arrangement is correct, and warns an operator of a determination result when the recognized image does not match the reference data; The image processing apparatus includes an image processing apparatus having a warning generating unit, and a transfer unit that holds and transfers an object.
【0030】この発明の請求項15に係る画像処理装置
は、物体配列の基準となるデータを格納する物体寸法デ
ータベースから自動的に生成される人工基準パターンを
用い、対象となる物体の位置を検出して、検出位置にお
いて前記対象物体に相当する画像領域を切り出す実画像
基準パターン切り出し手段と、切り出された実画像基準
パターンを格納する実画像基準パターン格納手段とを有
し、以降の認識動作においては前記実画像基準パターン
を利用するように動作するように構成したものである。An image processing apparatus according to a fifteenth aspect of the present invention detects the position of a target object by using an artificial reference pattern automatically generated from an object size database storing data serving as a reference of an object arrangement. And a real image reference pattern cutout unit that cuts out an image area corresponding to the target object at the detection position, and a real image reference pattern storage unit that stores the cut out real image reference pattern. Is configured to operate so as to use the actual image reference pattern.
【0031】この発明の請求項16に係る物体移載装置
は、物体配列の基準となるデータを格納する物体寸法デ
ータベースから自動的に生成される人工基準パターンを
用い、対象となる物体の位置を検出して、検出位置にお
いて対象物体に相当する画像領域を切り出す実画像基準
パターン切り出し手段と、切り出された実画像基準パタ
ーンを格納する実画像基準パターン格納手段とを有し、
以降の認識動作においては実画像基準パターンを利用す
るように動作するように構成した画像処理装置と、物体
を把持し移載する移載手段を備えたものである。The object transfer device according to claim 16 of the present invention uses an artificial reference pattern automatically generated from an object size database that stores data serving as a reference of an object arrangement, and determines the position of the target object. Detected and has a real image reference pattern cutout means for cutting out an image area corresponding to the target object at the detection position, and a real image reference pattern storage means for storing the cut out real image reference pattern,
The subsequent recognition operation includes an image processing apparatus configured to operate so as to use the real image reference pattern, and a transfer unit that grips and transfers an object.
【0032】この発明の請求項17に係る画像処理装置
は、段積みされた複数の対象物体の画像入力手段からの
距離分布を計測する距離画像生成手段と、生成された距
離画像を格納する第一の距離画像格納手段と、この第一
の距離画像生成手段に格納された距離画像の情報をもと
に、物体の把時位置を計算する初期把時位置計算手段
と、一時的に物体を所定の位置に退避させた後に、残り
の積荷の距離画像を格納する第二の距離画像格納手段
と、第一の距離画像格納手段に格納された距離画像と、
第二の距離画像格納手段に格納された距離画像とを比較
する距離画像比較手段と、この距離画像比較手段の比較
結果を基に退避した物体の把持位置を決定し、この把持
位置と初期把持位置との差を位置補正値として検出する
位置補正量検出手段とを有するものである。According to a seventeenth aspect of the present invention, there is provided an image processing apparatus comprising: a distance image generating means for measuring a distance distribution of a plurality of stacked target objects from an image input means; One distance image storage means, an initial grasping position calculating means for calculating the grasping position of the object based on the information of the distance image stored in the first distance image generating means, After being evacuated to a predetermined position, a second distance image storage unit that stores a distance image of the remaining cargo, a distance image stored in the first distance image storage unit,
A distance image comparing means for comparing the distance image stored in the second distance image storing means, and a gripping position of the evacuated object is determined based on a comparison result of the distance image comparing means; Position correction amount detecting means for detecting a difference from the position as a position correction value.
【0033】この発明の請求項18に係る物体移載装置
は、段積みされた複数の対象物体の画像入力手段からの
距離分布を計測する距離画像生成手段と、生成された距
離画像を格納する第一の距離画像格納手段と、物体を把
持し移動する物体移動手段と、上記距離画像の情報をも
とにして物体の把時位置を計算する初期把時位置計算手
段と、物体移載手段によって物体を把持位置で把持し、
一時的に所定の位置に対比させた後に残りの積荷の距離
画像を格納する第二の距離画像格納手段と、第一の距離
画像格納手段に格納された距離画像と、第二の距離画像
格納手段に格納された距離画像を比較する距離画像比較
手段と、距離画像の比較結果を使用して退避した物体の
把持位置を決定し初期把持位置との差を位置補正値とし
て検出する位置補正量検出手段とを有する画像処理装置
と、物体を把持し移載する移載装置を備えたものであ
る。An object transfer device according to an eighteenth aspect of the present invention stores a distance image generating means for measuring a distance distribution of a plurality of stacked target objects from an image input means, and stores the generated distance image. First distance image storage means, object moving means for gripping and moving an object, initial holding position calculating means for calculating the holding position of the object based on the information of the distance image, and object transferring means Grips the object at the gripping position,
Second distance image storage means for temporarily storing a distance image of the remaining cargo after being compared with a predetermined position, a distance image stored in the first distance image storage means, and a second distance image storage A distance image comparison means for comparing the distance images stored in the means, and a position correction amount for determining a gripping position of the retracted object using the comparison result of the distance images and detecting a difference from the initial gripping position as a position correction value The image processing apparatus includes an image processing apparatus having a detecting unit, and a transfer device for gripping and transferring an object.
【0034】[0034]
実施の形態1.実施の形態1.の構成を示すブロック図
を図1、動作の流れを示すフローチャートを図2、生成
された各段階の画像を図3に示す。ここでは、動作説明
が理解され易いように認識すべき物体は、例えば段ボー
ル箱のような多面体形状を想定し、物体は同一形状およ
び同一サイズのものが積まれている状態として説明す
る。Embodiment 1 FIG. Embodiment 1 FIG. FIG. 1 is a block diagram showing the configuration of FIG. 1, FIG. 2 is a flowchart showing the operation flow, and FIG. 3 shows the generated images at each stage. Here, it is assumed that the object to be recognized so that the operation description is easy to understand is assumed to be a polyhedral shape such as a cardboard box, and that the objects are stacked in the same shape and the same size.
【0035】図1において、11は所定の間隔をおいて
配置された2台のカメラで構成された画像入力手段、1
2は画像入力手段11の撮像した画像から距離画像を生
成する距離画像生成手段、13は距離画像から最上段面
を抽出する最上段面領域抽出手段、14は最上段物体候
補抽出手段、15は原画像を格納する濃淡画像格納手
段、16は物体寸法データベース、17は物体寸法デー
タベース16に格納された情報を基に2次元パターンと
しての基準パターンを自動的に生成する2次元基準パタ
ーン生成手段、18は2次元的な物体位置を検出する物
体位置検出手段、19は物体位置検出手段18によって
検出された物体位置と距離画像の距離情報を統合する情
報統合手段である。In FIG. 1, reference numeral 11 denotes an image input means composed of two cameras arranged at a predetermined interval;
2 is a distance image generating means for generating a distance image from the image captured by the image input means 11, 13 is an uppermost plane area extracting means for extracting the uppermost plane from the distance image, 14 is an uppermost object candidate extracting means, 15 is Density image storage means for storing an original image; 16 an object size database; 17 a two-dimensional reference pattern generation means for automatically generating a reference pattern as a two-dimensional pattern based on information stored in the object size database 16; Reference numeral 18 denotes an object position detecting unit that detects a two-dimensional object position, and 19 denotes an information integrating unit that integrates the object position detected by the object position detecting unit 18 and the distance information of the distance image.
【0036】図3の(a)は画像入力手段11が撮像し
た原画像、(b)は最上段面領域抽出手段13が抽出し
た最上段物体領域、(c)は2次元基準パターン生成手
段により物体寸法データを用いて生成された基準パター
ンのテンプレート、(d)は最上段物体領域から抽出さ
れた候補の一つを示す摸式図、(e)はテンプレートマ
ッチングによる法により位置決め状況を示す。3A shows an original image captured by the image input means 11, FIG. 3B shows an uppermost object area extracted by the uppermost surface area extracting means 13, and FIG. 3C shows a two-dimensional reference pattern generating means. A template of a reference pattern generated using object size data, (d) is a schematic diagram showing one of the candidates extracted from the uppermost object region, and (e) shows a positioning situation by a method using template matching.
【0037】ステップST101で、装置が起動される
と、画像入力手段11によって図3(a)に示す認識対
象の画像が距離画像生成手段12に入力される。ステッ
プST102では、距離画像生成手段12によって距離
画像が生成される。距離画像の生成手段としては区間コ
ード化法またはステレオ対応探索法等がある。ステップ
ST103で最上段物体領域抽出手段13により、図3
(b)に示す最上段の物体に相当する高さをもつ最上段
物体領域が抽出される。ステップST104で画像入力
手段11で撮影した原画像が濃淡画像格納手段15に格
納され、ステップST105では2次元基準パターン生
成手段17によって、物体寸法データベース16に格納
された情報をもとに2次元パターンとしての基準パター
ンが自動的に生成される。この基準パターンはテンプレ
ートと呼ばれ、図3(C)に示すようにテンプレートは
物体の輪郭部分を表現した輪郭プレートとなっている。In step ST 101, when the apparatus is started, the image to be recognized shown in FIG. In step ST102, a distance image is generated by the distance image generating means 12. Means for generating a distance image include a section coding method or a stereo correspondence search method. In step ST103, the uppermost object region extracting means 13 performs
An uppermost object region having a height corresponding to the uppermost object shown in (b) is extracted. In step ST104, the original image captured by the image input unit 11 is stored in the grayscale image storage unit 15, and in step ST105, the two-dimensional reference pattern generation unit 17 uses the two-dimensional pattern based on the information stored in the object size database 16. Is automatically generated. This reference pattern is called a template, and as shown in FIG. 3C, the template is an outline plate expressing the outline of the object.
【0038】ステップST106では、2値で表現され
た最上段物体領域の物体は画像上では矩形パターンに見
えることから、直角に交わる辺縁部を検出することによ
って候補が抽出される。上記の通り距離画像の解像度が
粗いことから、候補の位置は不正確である。ステップS
T107において、前記物体候補が物体位置検出手段1
7によって位置決めされ、位置決めには、前記2次元基
準パターンが用いられ、テンプレートマッチング法によ
る処理がなされる。ただし、大まかな位置は既に候補抽
出の段階で検出されていることから、マッチングは候補
検出位置からそのごく近傍のみを探索する処理で十分で
ある。したがってテンプレートマッチングも高速に実行
可能である。位置決めの様子は図3(e)に示す。物体
位置が検出されたならば、その2次元的な物体位置情報
は、情報統合手段19によって前記距離画像生成手段1
2による距離情報と統合され、それが最終的な結果とし
て出力される。In step ST106, since the object in the uppermost object region represented by the binary value looks like a rectangular pattern on the image, candidates are extracted by detecting edges that intersect at right angles. As described above, since the resolution of the range image is coarse, the position of the candidate is inaccurate. Step S
At T107, the object candidate is determined by the object position detecting means 1
The positioning is performed by the template matching method using the two-dimensional reference pattern. However, since the rough position has already been detected at the stage of candidate extraction, matching is sufficient with a process of searching for only its nearest neighbor from the candidate detected position. Therefore, template matching can be executed at high speed. The state of the positioning is shown in FIG. When the object position is detected, the two-dimensional object position information is transmitted to the distance image generation unit 1 by the information integration unit 19.
2 and is output as the final result.
【0039】ステップST108では、すべての物体を
検出したかどうかを判定し、もし検出していなければ処
理流れのうちステップST106から再び実行され、別
の物体候補について一連の処理ステップST106、S
T107が実施される。もし、すべての物体が検出され
ていれば、ステップST109で認識処理を終了させ
る。以上の通り、この発明により粗く距離画像を生成
し、その結果を元に物体の候補を抽出して詳細な位置検
出は2次元の汎用的な処理手法であるテンプレートマッ
チングをそのパターン探索の範囲を非常に限定した形で
実行することで、距離画像生成装置の装置規模を小さく
することができるものである。In step ST108, it is determined whether or not all the objects have been detected. If not, the process is executed again from step ST106 in the processing flow, and a series of processing steps ST106 and S106 are performed for another object candidate.
T107 is performed. If all the objects have been detected, the recognition process ends in step ST109. As described above, according to the present invention, a distance image is roughly generated, object candidates are extracted based on the result, and detailed position detection is performed by using template matching, which is a general two-dimensional processing method, in the range of pattern search. By performing the processing in a very limited form, the device scale of the range image generation device can be reduced.
【0040】なお、距離画像生成手段として、空間コー
ド化法を解像度を粗くして用いるような方法、あるい
は、ステレオ視覚やスリット光走査による光切断法のよ
うな方法であってもよく、粗い解像度の距離画像が生成
され得る装置であればよい。As the distance image generating means, a method such as using a spatial coding method with a coarse resolution, or a method such as a stereoscopic vision or a light cutting method using slit light scanning may be used. Any device can be used as long as the device can generate the distance image of.
【0041】また、輪郭情報に基づいたテンプレートマ
ッチングによる位置決めの例を示したが、同じく物体の
輪郭を直線の組合せと考えて直線として辺ごとに位置合
わせを行う方法を用いてもよい。また、物体寸法データ
ベースの内容を使い、通常の2次元テンプレートマッチ
ングを用いても良い。また、テンプレートマッチング処
理内部で使用されるデータ格納形式に関して特に明示し
なかったが、2次元画像として格納する方法の他に、輪
郭部分のエッジの位置を1次元的に内部に羅列して格納
する方法を用いてもよい。Although the example of the positioning by the template matching based on the contour information has been described, a method may be used in which the contour of the object is regarded as a combination of straight lines and the position is aligned for each side as a straight line. Further, normal two-dimensional template matching may be used using the contents of the object size database. Although the data storage format used inside the template matching process is not specifically described, other than the method of storing the data as a two-dimensional image, the position of the edge of the contour portion is stored one-dimensionally inside. A method may be used.
【0042】さらに、最上段物体の候補を抽出する際
に、距離画像から得られた最上段面領域情報からそのコ
ーナー部分を利用する手法を示したが、この他にも例え
ば上記の2値の距離画像を用いて、別途用意した2値の
距離画像としてのテンプレートを使って2値のテンプレ
ートマッチングの方法によって粗く位置を検出する方法
を適用しても同様の効果を奏する。Furthermore, when extracting the candidate for the top object, the method of using the corner portion from the top surface area information obtained from the distance image has been described. Similar effects can be obtained by applying a method of coarsely detecting a position by a binary template matching method using a separately prepared template as a binary distance image using a distance image.
【0043】図2の動作フローチャートは、一例であ
り、図1に示した各手段の入出力関係が適正でさえあれ
ば別の処理流れであってもよい。例えば、距離画像生成
と濃淡原画像入力のステップはどちらが先に行なわれて
もよい。The operation flowchart of FIG. 2 is an example, and another processing flow may be used as long as the input / output relationship of each unit shown in FIG. 1 is appropriate. For example, either the step of generating the distance image or the step of inputting the original gray-scale image may be performed first.
【0044】以上は、認識すべき対象物体として多面体
即ち箱状の物体の単一品種物体を想定した説明であった
が、例えばセメント袋、米袋などのように袋状の物体で
あっても、この発明の構成を何ら変えることなく同一の
構成で画像認識を実現させることができる。次に袋状物
体の認識する場合の状況について、上記箱状物体におけ
る場合との違いを説明する。The above description has been made on the assumption that the object to be recognized is a single-type object of a polyhedron, that is, a box-shaped object. Image recognition can be realized with the same configuration without changing the configuration of the present invention. Next, the situation in the case of recognizing a bag-shaped object will be described in comparison with the case of the box-shaped object.
【0045】図2のステップST105において、2次
元基準パターン生成手段16によって2次元基準パター
ンが自動的に生成される。これは物体の位置決めを行う
ためのテンプレートマッチングにおけるテンプレート生
成に相当する。袋状物体の場合は辺縁が変形するなど箱
状物体とは異なり形状が不安定であるので、前記基準パ
ターンとしては図3のような矩形の輪郭部分を取り出し
ただけでは不十分である。この場合は物体のコーナー部
のみを輪郭で表現した部分テンプレート、あるいは物体
の辺部を表現した直線輪郭部分テンプレートを自動的に
生成する。いづれの場合も、袋状物体の寸法を格納した
物体寸法データベース15の内容を参照して生成され
る。In step ST105 of FIG. 2, a two-dimensional reference pattern is automatically generated by the two-dimensional reference pattern generation means 16. This corresponds to template generation in template matching for positioning an object. In the case of a bag-shaped object, since the shape is unstable unlike a box-shaped object such as a deformed edge, it is not sufficient to take out a rectangular outline as shown in FIG. 3 as the reference pattern. In this case, a partial template representing only the corners of the object by the contour or a straight-line contour partial template representing the sides of the object is automatically generated. In either case, the contents are generated with reference to the contents of the object size database 15 storing the size of the bag-shaped object.
【0046】ステップST106の物体候補抽出におい
ては、袋状物体の場合は上で述べたような直角に交わる
縁部などの情報を用いて候補を抽出することは困難であ
る。この場合は最上段物体領域が表現された画像を2値
画像とみなし、物体寸法データベース15に格納されて
いる袋状物体モデルに関する情報から2値の物体テンプ
レートを自動的に生成し、これらを粗く2値テンプレー
トマッチングさせることで大まかな候補抽出が可能とな
る。In the object candidate extraction in step ST106, in the case of a bag-shaped object, it is difficult to extract a candidate using information on the edges that intersect at right angles as described above. In this case, the image in which the uppermost object region is expressed is regarded as a binary image, and a binary object template is automatically generated from the information on the bag-like object model stored in the object size database 15, and these are roughly processed. By performing binary template matching, rough candidate extraction becomes possible.
【0047】ステップST107では、物体の位置が検
出されるが、ここでは前記のような物体のコーナー部
分、あるいは、直線辺縁部分の輪郭テンプレートが部分
テンプレートとして入力画像から得たエッジ画像とマッ
チングされる。物体の位置はマッチングの結果として、
複数の部分テンプレートのマッチングした位置から総合
的に判断、計算される、以上のように、袋状の物体に関
しても箱状物体に対する認識と同じ程度に動作させるこ
とができる。In step ST107, the position of the object is detected. Here, the contour template of the corner portion or the straight edge portion of the object is matched with the edge image obtained from the input image as a partial template. You. The position of the object is the result of the matching
Comprehensively determined and calculated from matching positions of a plurality of partial templates. As described above, a bag-shaped object can be operated to the same degree as recognition of a box-shaped object.
【0048】また、以上説明した実施の形態1.では、
単一の品種の物体が積まれている状況を想定したが、物
体寸法データベース16に複数の物体の寸法データを格
納しておき、複数の2次元基準パターンを自動的に生成
し、物体位置検出手段17においては前記複数の基準パ
ターンを全てマッチングさせて最も類似性の高いテンプ
レートが存在する物体であるとするような動作をさせる
ことで、異なる種類の物体が複数個積まれている状況に
対しても適確に動作させることができる。In the first embodiment described above. Then
Although it is assumed that objects of a single type are stacked, dimension data of a plurality of objects is stored in the object dimension database 16, and a plurality of two-dimensional reference patterns are automatically generated to detect an object position. In the means 17, the plurality of reference patterns are all matched, and an operation is performed such that a template having the highest similarity is present, so that a plurality of different types of objects are stacked. However, it can be operated properly.
【0049】上記構成の画像処理装置を物体移載装置に
組み込むことにより、高精度のパターン投光器、大容量
の画像メモリを必要とせず、また画像入力時間も短時間
で行える正確に動作する物体移載装置となる。By incorporating the image processing apparatus having the above-described configuration into the object transfer apparatus, it is possible to eliminate the need for a high-precision pattern projector and a large-capacity image memory, and to operate the object transfer apparatus which can be operated in a short time with a short image input time. Mounting device.
【0050】実施の形態2.実施の形態2.の構成を示
すブロック図を図4、動作の流れを示すフローチャート
を図5に示す。図6はランダムドットパターン照射の説
明図、図7はステレオ画像からブロック対応付処理の方
法を示す説明図である。この実施の形態2.は、実施の
形態1.の距離画像生成手段の部分をランダムテクスチ
ャパターン投光によりステレオ対応付して距離画像を生
成するようにしたものであり、この点が相違し、その他
の構成は実施の形態1.と同じである。Embodiment 2 Embodiment 2 FIG. FIG. 4 is a block diagram showing the configuration of FIG. 5, and FIG. 5 is a flowchart showing the operation flow. FIG. 6 is an explanatory diagram of random dot pattern irradiation, and FIG. 7 is an explanatory diagram illustrating a method of block association processing from a stereo image. Embodiment 2 Is the first embodiment. The distance image generating means is configured to generate a distance image by associating the distance image with stereo by random texture pattern projection. This point is different, and the other configurations are the same as those of the first embodiment. Is the same as
【0051】図4において、20はランダムドットパタ
ーンを投光するランダムテクスチャパターン投光手段、
21は画像入力手段であり、第一画像入力手段21aと
第二の画像入力手段21bとで構成されている。22は
ステレオ画像ブロック対応付手段である。その他の最上
段画像領域抽出手段13、最上段物体候補抽出手段1
4、濃淡原画像格納手段15、物体寸法データベース1
6、2次元基準パターン生成手段17、物体位置検出手
段18および情報統合手段19は実施の形態1.と同一
の構成である。In FIG. 4, reference numeral 20 denotes a random texture pattern projecting means for projecting a random dot pattern;
Reference numeral 21 denotes an image input unit, which includes a first image input unit 21a and a second image input unit 21b. Reference numeral 22 denotes a stereo image block associating unit. Other uppermost image area extracting means 13, uppermost object candidate extracting means 1
4. Original density image storage means 15, object size database 1
6. The two-dimensional reference pattern generating means 17, the object position detecting means 18, and the information integrating means 19 are the same as those in the first embodiment. This is the same configuration as.
【0052】以下この実施の形態2.について図5のフ
ローチャートにしたがって動作を説明する。ステップS
T201で電源がONされると、ランダムテクスチャパ
ターン投光手段20の電源が入り、認識対象物に対して
ランダムドットパターンが投影される。ランダムテクス
チャパターン投光手段は図6(a)に示すように、パタ
ーン投光器30により、認識すべき対象物に対してラン
ダムドットパターンを投光するものである。パターン投
光器は図6のように物体の上方に下向きに設置し、図6
(b)に示したようなランダムドットを認識物体に投影
する。実施の形態2.では、認識すべき対象物体は、段
ボール箱であるが、例えばセメント袋のような袋状の物
体であっても認識可能である。対象物の上面にランダム
ドットが投影され、ステップST203では、第一の画
像入力手段21aおよび第二の画像入力手段21bによ
って撮像された一対の画像のステレオ画像が入力され
る。このステレオ画像は、光軸を所定の距離はなして同
一の解像度、同一の焦点距離の二つのカメラで撮像され
る。Hereinafter, the second embodiment will be described. Will be described with reference to the flowchart of FIG. Step S
When the power is turned on in T201, the power of the random texture pattern projection unit 20 is turned on, and a random dot pattern is projected on the recognition target. As shown in FIG. 6A, the random texture pattern projecting means projects a random dot pattern on an object to be recognized by the pattern projector 30. The pattern floodlight is installed downward above the object as shown in FIG.
A random dot as shown in (b) is projected on the recognition object. Embodiment 2 FIG. In, the target object to be recognized is a cardboard box, but a bag-like object such as a cement bag can be recognized. Random dots are projected on the upper surface of the object, and in step ST203, a stereo image of a pair of images captured by the first image input unit 21a and the second image input unit 21b is input. This stereo image is captured by two cameras having the same resolution and the same focal length at a predetermined distance from the optical axis.
【0053】次にランダムドットパターンについて説明
する。図6(b)に示したランダムドットは、この実施
の形態2.では、128×128の解像度で構成され、
各画素は正方形であり、計算機によって一様乱数的に各
画素ごとに白か黒かの値が割り当てられ、白と黒の画素
数の比率はほぼ1:1となっている。パターン投光器3
0には投影パターンの焦点を調節する機構が設けられて
おり、投光器と対象物体の大まかな距離がわかっている
場合にはそのデータをもとに物体表面で合焦するように
焦点が調節される。あらかじめ全く距離がわかっていな
い場合には、事前に調整された距離において焦点が合う
ように動作する。Next, the random dot pattern will be described. The random dots shown in FIG. Is configured with a resolution of 128 × 128,
Each pixel is a square, and a computer assigns a value of white or black to each pixel in a uniform random manner, and the ratio of the number of white and black pixels is approximately 1: 1. Pattern floodlight 3
0 is provided with a mechanism for adjusting the focus of the projection pattern. When the approximate distance between the projector and the target object is known, the focus is adjusted so as to focus on the object surface based on the data. You. If no distance is known in advance, the camera operates so as to focus on the distance adjusted in advance.
【0054】ステレオ画像ペアの入力が終ると、ステッ
プST204でランダムテクスチャの投光手段20がO
FFされる。次にステップST205でステレオ画像が
ブロック対応付段22によってステレオ画像が処理され
る。図7(a)および(b)は対象物体を撮影したステ
レオ画像の一対の画像である。図7(a)を左画像、図
7(b)を右画像と呼ぶこととする。ブロックマッチン
グは右画像を図のように格子状の小ブロックに分割する
ことから行う。いま、分割されて生成された複数の小ブ
ロックのうち、注目しているブロックbRを注目ブロッ
クと呼ぶ、実際には左および右画像には上記ランダムド
ットパターンが投影されているが、図を簡略化するため
にここではパターンは描いていない。この注目ブロック
bRに対応する左画像上での位置を探索する。別途設定
した探索範囲の中でbRと同じパターンを有するパター
ンを探索する。探索の方法として累積差分絶対値最小化
による探索を採用する。これは左画像上の探索範囲の中
を注目ブロックbRを動かしながら逐次重ね合わせ、そ
の類似性がもっとも良くなる位置をもって対応点とする
ものである。この際、類似性の評価としては、累積差分
絶対値を用いる。例えば、注目ブロックをbR(i,
j)、左画像をbL(i,j)、ブロックサイズをN×
Nとすると、左画像上の位置(dx,dy)における累
積差分絶対値SSAD(dx,dy)は、(式1)で表さ
れる。この実施の形態2.ではN=16である。When the input of the stereo image pair is completed, in step ST204, the random texture
FF is performed. Next, in step ST205, the stereo image is processed by the block-corresponding stage 22. FIGS. 7A and 7B are a pair of stereo images obtained by photographing a target object. 7A is called a left image, and FIG. 7B is called a right image. Block matching is performed by dividing the right image into small blocks in a grid as shown in the figure. Now, of the plurality of small blocks generated by division, the block of interest bR is called a block of interest. Actually, the random dot pattern is projected on the left and right images. Here, the pattern is not drawn for the sake of conversion. A position on the left image corresponding to the block of interest bR is searched. A pattern having the same pattern as bR is searched for in a separately set search range. As a search method, a search based on minimizing the accumulated difference absolute value is employed. In this method, the blocks of interest bR are sequentially superimposed in the search range on the left image while being moved, and a position at which the similarity becomes the best is set as a corresponding point. At this time, the cumulative difference absolute value is used as the similarity evaluation. For example, if the block of interest is bR (i,
j), the left image is bL (i, j), and the block size is N ×
Assuming that N, the cumulative difference absolute value S SAD (dx, dy) at the position (dx, dy) on the left image is represented by (Equation 1). Embodiment 2 Then, N = 16.
【0055】[0055]
【数1】 (Equation 1)
【0056】(式1)で求めたSSADが最小になる(d
x,dy)を検出することで、注目ブロックbRに対応
する左画像上のブロックbLが見つかったことになる。
ステレオ法は、このようにして得たブロック間の位置か
ら、その差を視差とし、三角測量の原理よってカメラか
ら物体までの距離を得る方法である。以上説明した一連
のブロック対応付処理を右画像上のすべての小ブロック
に対して繰り返して行い、各ブロックごとに対応する左
画像上の位置を探索し、距離画像を生成する。S SAD obtained by (Equation 1) is minimized (d
By detecting (x, dy), the block bL on the left image corresponding to the target block bR is found.
The stereo method is a method of obtaining the distance from a camera to an object based on the principle of triangulation by using the difference between the blocks obtained in this way as parallax. The series of block association processing described above is repeatedly performed on all the small blocks on the right image, and the corresponding position on the left image is searched for each block to generate a distance image.
【0057】これ以降は実施の形態1.と同じである。
ステップST206において、最上段面領域抽出手段1
3によって距離画像から最上段物体面に相当する領域が
抽出され、続くステップST207では、第一の画像入
力手段21a、または第二の画像入力手段21bによっ
て撮像された濃淡原画像が濃淡原画像格納手段15に格
納される。この時は当然のことながらランダムドットパ
ターンは投影されていない。ステップST208では、
物体寸法データベース16に格納されている認識対象物
体の寸法データを使って、2次元基準パターン生成手段
17によって2次元基準パターンが自動的に生成され
る。Hereinafter, the first embodiment will be described. Is the same as
In step ST206, the uppermost step surface area extracting means 1
3, an area corresponding to the uppermost object plane is extracted from the distance image, and in the subsequent step ST207, the original gray-scale image captured by the first image input unit 21a or the second image input unit 21b is stored. It is stored in the means 15. At this time, of course, the random dot pattern is not projected. In step ST208,
The two-dimensional reference pattern is automatically generated by the two-dimensional reference pattern generation means 17 using the size data of the recognition target object stored in the object size database 16.
【0058】ステップST209では、上記最上段面領
域が抽出された画像は、最上段面とそれ以外の面の2つ
に分けられ、2値化され、最上段物体候補抽出手段14
によって最上段物体候補の一つが抽出される。ステップ
ST210では、抽出された一つの物体候補の位置近傍
に関し、上記2次元基準パターンと物体位置検出手段1
5に格納された濃淡原画像情報を用いて、物体位置検出
手段18によって候補物体の精密な位置が計測され検出
される。ステップ211で、決定した候補物体の2次元
位置は、情報統合手段19によって前記距離画像情報と
統合され、ステップST212で全ての物体を認識した
と判断するまで、ステップST209からST211ま
での処理が繰り返され、ステップST212の判断が全
ての物体が認識したと判断されれば、最終的に物体の3
次元情報として出力される。In step ST 209, the image from which the uppermost surface area has been extracted is divided into two, that is, the uppermost surface and the other surface, and is binarized.
With this, one of the top-level object candidates is extracted. In step ST210, the two-dimensional reference pattern and the object position detecting means 1 are used for the vicinity of the position of the extracted one object candidate.
The accurate position of the candidate object is measured and detected by the object position detecting means 18 using the gray-scale original image information stored in 5. In step 211, the determined two-dimensional position of the candidate object is integrated with the distance image information by the information integrating means 19, and the processes in steps ST209 to ST211 are repeated until it is determined in step ST212 that all objects have been recognized. If it is determined in step ST212 that all objects have been recognized, finally,
Output as dimension information.
【0059】ステップST209からST211までの
処理によってすべての物体を認識したと判断されればス
テップST213で処理を終了する。すべての物体が認
識されたかどうかの判定は、上記最上段面領域が抽出さ
れた2値化された距離画像をもとに順次物体の位置が確
定したものを消去し、なおかつ画像上に残っている最上
段面領域が存在するか否かを調べることによって行う。If it is determined that all the objects have been recognized by the processing in steps ST209 to ST211, the processing is terminated in step ST213. The determination as to whether or not all the objects have been recognized is based on the binarized distance image from which the uppermost surface area has been extracted. This is performed by checking whether or not the uppermost surface area exists.
【0060】以上説明したように、この実施の形態2.
では、認識対象物体に対してランダムドットパターンを
投光するので、例えば表面に図柄の存在しない無地の段
ボール箱であっても、その表面各位置における距離デー
タを得ることが可能であり、物体表面に宛先ラベルなど
の位置不定なテクスチャに影響されないステレオ画像を
得ることが可能である。またステレオ対応づけのための
マッチング処理も単純なブロックマッチングを適用する
ことができる。As described above, the second embodiment.
Since a random dot pattern is projected on the object to be recognized, it is possible to obtain distance data at each position on the surface of, for example, a plain cardboard box having no design on the surface. It is possible to obtain a stereo image which is not affected by an indeterminate texture such as a destination label. Also, a simple block matching can be applied to the matching process for stereo correspondence.
【0061】なお、この実施の形態2.ではカメラの解
像度として、カメラ視野に対して128×128画素の
ランダムドットパターンを投影したが、認識対象のサイ
ズによってはさらに細かいか、または粗いドットパター
ンを投影しても良く、また、ブロックマッチングのブロ
ックサイズとして16×16画素のサイズを採用した
が、8×8画素、32×32画素等でもよい。また、ブ
ロックの形状も必ずしも正方形でなくても良い。さらに
マッチング時の探索範囲は、図7では長方形に設定した
が、状況に応じてさまざまに変化させることでマッチン
グの信頼性を向上させたり処理時間を短縮することもで
きることは一般のステレオ対応と同様である。The second embodiment. In the above description, a random dot pattern of 128 × 128 pixels was projected to the camera field of view as the resolution of the camera, but a finer or coarser dot pattern may be projected depending on the size of the recognition target. The block size is 16 × 16 pixels, but may be 8 × 8 pixels, 32 × 32 pixels, or the like. Also, the shape of the block need not necessarily be square. Furthermore, the search range at the time of matching is set to a rectangle in FIG. 7, but it can be improved in various ways according to the situation to improve the reliability of the matching and to shorten the processing time. It is.
【0062】さらに、この実施の形態2.では、ランダ
ムドットパターンとして白黒の2値正方形ドットを用い
たが、例えば濃淡をつけたドットパターンや着色したパ
ターンであっても良い。また、形状についてもさまざま
な大きさのさまざまな形状のマークを組み合わせて使用
しても良く、また、パターン投光器と対象物体との幾何
学的位置関係については、物体に対して鉛直上方から真
下に向けてパターンを投影する例を示したが、斜めから
投影しても同様に距離画像が検出できる物である。Further, in the second embodiment. In the above, a black-and-white binary square dot is used as a random dot pattern. However, a dot pattern with shading or a colored pattern may be used. In addition, the shape may be used in combination with marks of various sizes and various shapes. Although the example in which the pattern is projected toward is shown, the distance image can be similarly detected even when the pattern is projected obliquely.
【0063】また、投光するパターンとしてランダムな
位置に発生させたドットパターンを使った例を示した
が、ブロック対応づけ処理において対応点を探索する場
合にほとんど水平方向の探索になることを考えると、例
えば周期のランダムな縦スリット群、あるいは幅のラン
ダムな縦スリット群をパターンとして投影しても同様の
効果を奏することはいうまでもない。Although an example using a dot pattern generated at a random position as a pattern to be projected has been described, it is considered that a search in the horizontal direction is almost performed when searching for a corresponding point in the block association processing. It goes without saying that the same effect can be obtained by projecting a vertical slit group having a random period or a vertical slit group having a random width as a pattern.
【0064】また、パターン投光器の構成方法に関して
は、特に詳しく説明しなかったが、ランダムドットの投
影位置精度は高精度が不必要であり、処理の途中で投影
パターンを変化させる必要がないことから、例えば従来
技術で示したように、液晶プロジェクタのような複雑な
投影装置は不要であり、例えば通常の家庭用のスライド
上映機のような簡単な構成の装置で十分である。このこ
とは本発明の装置構成上の利点の一つである。The method of forming the pattern projector has not been described in detail, but the projection position accuracy of random dots is not required to be high, and it is not necessary to change the projection pattern during processing. For example, as shown in the related art, a complicated projection device such as a liquid crystal projector is not required, and a device having a simple configuration such as an ordinary home slide screen is sufficient. This is one of the advantages of the device configuration of the present invention.
【0065】実施の形態2.は、既に述べたように、認
識対象物体として段ボール箱、即ち手面体状の物体を想
定して動作を説明したが、その他の形状の物体、例えば
セメント袋のような袋状の物体であっても本発明の構成
により容易に距離画像を生成することができ、前記本実
施例における認識手順により対象物の3次元的位置を計
測することができる。なお、距離画像生成より以降の処
理については前述のように前記第1の発明の実施例と同
様である。即ち2次元基準パターンとして物体のコーナ
ー部分や直線輪郭部をもち、それぞれの認識対象との位
置決め結果を統合することで最終的な物体位置検出が可
能である。このように、本発明は物体の形状が多面体の
時だけでなく、袋のような形状その他の時でも物体の3
次元情報を認識することができる。Embodiment 2 As described above, the operation has been described assuming a corrugated cardboard box as a recognition target object, that is, a hand-faced object. Also, a distance image can be easily generated by the configuration of the present invention, and the three-dimensional position of the object can be measured by the recognition procedure in the present embodiment. Note that the processing subsequent to the generation of the distance image is the same as that of the first embodiment of the present invention as described above. In other words, a final object position can be detected by having a corner portion and a linear contour portion of the object as a two-dimensional reference pattern and integrating the results of positioning with each recognition target. As described above, the present invention is applicable not only to the case where the shape of the object is a polyhedron, but also to the case where the shape of the object is
Dimension information can be recognized.
【0066】実施の形態3.実施の形態3.の構成を示
すブロック図を図8、動作の流れを示すフローチャート
を図9に示す。図10は低解像度距離画像から段差領域
部を抽出し、高解像度距離画像の段差領域部のみ高解像
度のステレオ対応付を行う状況の説明図である。図8に
おいて、13〜19は、実施の形態2.と同一機能を有
するものであり説明は省略する。31は画像入力手段2
1が低解像度で撮像したステレオ画像から低解像度の距
離画像を生成する低解像度ブロック対応付手段、32は
低解像度で段差領域を抽出する段差領域抽出手段、33
は低解像度の画像から抽出した段差領域部について高解
像度の距離画像を生成する高解像度ブロック対応付手
段、34は低解像度距離画像と、この距離画像から抽出
した段差領域部の高解像度距離画像とを合成する距離画
像合成手段である。Embodiment 3 Embodiment 3 FIG. FIG. 8 is a block diagram showing the configuration of FIG. 8, and FIG. 9 is a flowchart showing the operation flow. FIG. 10 is an explanatory diagram of a situation where a step region portion is extracted from a low-resolution distance image, and high-resolution stereo correspondence is performed only in the step region portion of the high-resolution distance image. In FIG. It has the same function as, and the description is omitted. 31 is an image input means 2
1 is a low-resolution block correspondence unit that generates a low-resolution distance image from a stereo image captured at a low resolution, 32 is a step region extracting unit that extracts a step region with a low resolution, 33
Is a high-resolution block associating means for generating a high-resolution distance image for the step region portion extracted from the low-resolution image, 34 is a low-resolution distance image, and a high-resolution distance image of the step region portion extracted from the distance image. Is a distance image synthesizing means for synthesizing.
【0067】ステップST301で電源がONされ起動
すると、ステップST302で、ランダムテクスチャパ
ターン投光手段20のランプ電源がONされ、認識対象
物に対してランダムドットパターンが投影される。ステ
ップST303では、一対のカメラで構成される画像入
力手段21により一対の画像のステレオ画像が低解像度
ブロック対応付手段31および高解像度ブロック対応付
手段32に入力される。ステレオ画像が入力が終わると
ステップST304でランダムテクスチャパターン投光
手段20はOFFする。ステップST305では第一の
画像入力手段21aまたは第二の画像入力手段21bか
ら対象物体の濃淡画像が濃淡画像格納手段に15に格納
される。In step ST301, when the power is turned on and started, in step ST302, the lamp power of the random texture pattern projection means 20 is turned on, and a random dot pattern is projected on the recognition target. In step ST303, a stereo image of a pair of images is input to the low-resolution block association unit 31 and the high-resolution block association unit 32 by the image input unit 21 including a pair of cameras. When the input of the stereo image is completed, the random texture pattern projection unit 20 is turned off in step ST304. In step ST305, the gray image of the target object is stored in the gray image storage means 15 from the first image input means 21a or the second image input means 21b.
【0068】ステップST306では、低解像度ブロッ
ク対応づけ手段31によってステレオ画像が処理され
る。図10(a)は低解像度ブロック対応付手段31に
よって得られた低解像度距離画像部分Aを摸式的に表し
た図である。画像入力手段として512×512画素の
解像度のCCDカメラを使用しているが、低解像度距離
画像としては32×32画素の距離画像を生成し、ブロ
ックマッチングの方法は実施の形態1.で示した方法と
同様の方法で行い、例えばブロックサイズを16×16
画素にすることで得られる。ステップST307では上
記低解像度距離画像をもとに、段差領域抽出手段32で
対象物の段差領域部分Bを抽出する。段差領域部分Bの
摸式図を図10(b)に示す。ステップST308で
は、高解像度ブロック対応付手段33により、上記段差
領域部分(B−Aの斜線部分)についてのみ、より高解
像度の距離画像を生成する。この場合は高解像度とは1
28×128画素である。この処理はブロックマッチン
グ処理においてブロックサイズを8×8に設定し、か
つ、ブロックを4画素づつずらしながら対応点を検出す
ることで得られ、図10(c)に段差領域部分の距離画
像Cを示す。図10(c)において、斜線部分(Bの枠
内)は低解像度距離画像から得られた物体の段差領域、
灰色の部分(Cの枠内)は、高解像度距離画像生成の結
果新たに得られた距離画像の段差領域部分に相当する部
分である。ステップST309では、距離画像合成手段
34によって上記低解像度距離画像と高解像度距離画像
を合成し、図10(d)のような128×128の解像
度の距離画像が得られる。In step ST306, the stereo image is processed by the low resolution block association means 31. FIG. 10A is a diagram schematically showing a low-resolution distance image portion A obtained by the low-resolution block association unit 31. Although a CCD camera having a resolution of 512 × 512 pixels is used as an image input means, a distance image of 32 × 32 pixels is generated as a low-resolution distance image, and a method of block matching is described in Embodiment 1. The method is performed in the same manner as the method shown in FIG.
It is obtained by making it a pixel. In step ST307, the step region extracting means 32 extracts a step region portion B of the object based on the low resolution distance image. FIG. 10B is a schematic diagram of the step region portion B. In step ST308, the high-resolution block associating unit 33 generates a higher-resolution distance image only for the step region portion (the hatched portion of B-A). In this case, high resolution is 1
It is 28 × 128 pixels. This processing is obtained by setting the block size to 8 × 8 in the block matching processing, and detecting the corresponding points while shifting the blocks by 4 pixels. FIG. Show. In FIG. 10C, a hatched portion (in a frame of B) is a step region of the object obtained from the low-resolution distance image,
The gray part (within the frame of C) is a part corresponding to the step region part of the distance image newly obtained as a result of the generation of the high-resolution distance image. In step ST309, the low-resolution distance image and the high-resolution distance image are synthesized by the distance image synthesizing unit 34, and a distance image having a resolution of 128 × 128 as shown in FIG. 10D is obtained.
【0069】ステップST310以降は、実施の形態
2.と同様に処理される。ステップ310では、最上段
面領域抽出手段13により、距離画像から最上段物体面
に相当する最上段領域が抽出され、ステップST311
では、物体寸法データベース16に格納されている認識
対象物体の寸法データを使って、2次元基準パターン生
成手段17によって2次元基準パターンが自動的に生成
される。ステップST312では、上記最上段面領域が
抽出された画像が、最上段面とそれ以外の面の2つに分
けられて2値化され、最上段物体候補抽出手段14によ
って最上段物体候補の一つが抽出される。ステップST
313では、抽出された一つの物体候補の位置近傍に関
し、上記2次元基準パターンと、上記濃淡原画像情報を
用いて、物体位置検出手段18によって候補物体の精密
な位置が計測され検出される。このようにして決定した
候補物体の2次元位置は、情報統合手段19によって上
記合成された高解像度の距離画像情報と統合され、最終
的に物体の3次元情報として出力する。ステップST3
14では、ステップST312、ST313の処理によ
って、すべての物体を認識したか、否かの判断を行いし
たと判断されればステップST315で処理を終了とな
り、認識していない物体がまだ存在すると判断されれ
ば、ステップST312、ST313に戻って物体候補
を抽出する処理を繰り返す。すべての物体が認識された
かどうかの判定は、上記最上段面領域が抽出された2値
化された距離画像をもとに順次物体の位置が確定したも
のを消去し、なおかつ画像上に残っている最上段面領域
が存在するかどうか調べることによって行う。Step ST310 and subsequent steps are the same as those in the second embodiment. Is processed in the same way as In step 310, the uppermost plane area extracting means 13 extracts the uppermost area corresponding to the uppermost object plane from the distance image, and then proceeds to step ST311.
Then, the two-dimensional reference pattern is automatically generated by the two-dimensional reference pattern generation means 17 using the size data of the recognition target object stored in the object size database 16. In step ST312, the image from which the above-mentioned uppermost surface area is extracted is divided into two, that is, the uppermost surface and the other surfaces, and is binarized. One is extracted. Step ST
In 313, the precise position of the candidate object is measured and detected by the object position detecting means 18 using the two-dimensional reference pattern and the grayscale original image information in the vicinity of the position of the extracted one object candidate. The two-dimensional position of the candidate object determined in this way is integrated with the high-resolution range image information synthesized by the information integration means 19, and finally output as three-dimensional information of the object. Step ST3
In step 14, if it is determined in the steps ST312 and ST313 that all objects have been recognized or not, it is determined in step ST315 that the process ends, and it is determined that there are still unrecognized objects. If so, the process returns to steps ST312 and ST313 and repeats the process of extracting object candidates. The determination as to whether or not all the objects have been recognized is based on the binarized distance image from which the uppermost surface area has been extracted. This is performed by checking whether or not the uppermost surface area exists.
【0070】以上のように、この実施の形態3.は、最
終的に高解像度の距離画像を得るために、予め低解像度
の距離画像を短時間で得ておき、物体の段差部分に相当
する領域に限定して高解像度のステレオ対応付処理を行
うことにして、少ない演算時間で高い解像度の距離画像
を生成することを可能としたものであり、物体候補の抽
出精度等も向上させることができる。As described above, in the third embodiment. In order to finally obtain a high-resolution range image, a low-resolution range image is obtained in a short time in advance, and high-resolution stereo correspondence processing is performed only in an area corresponding to a step portion of an object. In particular, it is possible to generate a high-resolution range image in a short calculation time, and it is also possible to improve the extraction accuracy of an object candidate and the like.
【0071】低解像度距離画像は32×32画素、高解
像度距離画像は128×128画素として使用したが、
許容される処理時間や認識したい対象物体の寸法などを
考慮して、これと異なる解像度を設定してもよく、高速
処理の低解像度距離画像生成の時間と、高解像度ステレ
オ対応付処理の組合せによるメリットは失われることは
ない。The low-resolution distance image was used as 32 × 32 pixels, and the high-resolution distance image was used as 128 × 128 pixels.
A different resolution may be set in consideration of the permissible processing time, the size of the target object to be recognized, and the like. The benefits are not lost.
【0072】また、低解像度距離画像生成時のステレオ
画像と、高解像度距離画像生成時のステレオ画像を同じ
画像として構成としたが、低解像度ステレオ画像とし
て、フル解像度(CCDカメラ解像度と同じ解像度)の
画像を1/2や1/4などに縮退させて得た縮退画像を
もとにブロックマッチングを行なってもよい。さらに、
高解像度距離画像生成時には第一および第二の画像入力
手段21のCCDカメラのレンズをズームアップさせ、
低解像度距離画像における物体の段差部分をより詳細に
撮像するようにしても良い。Further, the stereo image at the time of generating the low-resolution distance image and the stereo image at the time of generating the high-resolution distance image are configured as the same image. Block matching may be performed based on a reduced image obtained by reducing the image of or な ど. further,
When a high-resolution distance image is generated, the lenses of the CCD cameras of the first and second image input means 21 are zoomed up,
The step portion of the object in the low-resolution distance image may be captured in more detail.
【0073】さらに、対象物体に投影するランダムドッ
トパターンを一定のパターンとしたが、2種類の異なる
大きさのドットパターン投光器を用意し、低解像度距離
画像生成時には大きなドットパターン投影を行ない、高
解像度距離画像生成時にはより小さなドットパターン投
影を行うように変形して実施すれば、精度の高い距離画
像が得られる。Further, the random dot pattern projected on the target object is a fixed pattern, but two types of dot pattern projectors having different sizes are prepared, and a large dot pattern is projected when a low-resolution distance image is generated, and a high-resolution dot pattern is projected. When the distance image is generated and modified so as to project a smaller dot pattern, a more accurate distance image can be obtained.
【0074】実施の形態4.実施の形態4.の構成を示
すブロック図を図11、動作の流れを示すフローチャー
トを図12に示す。図11において、13〜21は実施
の形態2.と同一機能を有するものであり説明は省略す
る。41aは第一の画像格納手段、41bは第二の画像
格納手段、42は高速類似度計算手段、43は高信頼類
似度計算手段、44は対応ブロック信頼度判定手段、4
5は距離画像格納手段である。Embodiment 4 Embodiment 4 FIG. FIG. 11 is a block diagram showing the configuration of FIG. 11, and FIG. 12 is a flowchart showing the operation flow. In FIG. It has the same function as, and the description is omitted. 41a is a first image storage means, 41b is a second image storage means, 42 is a high-speed similarity calculation means, 43 is a high reliability similarity calculation means, 44 is a corresponding block reliability determination means,
Reference numeral 5 denotes a distance image storage unit.
【0075】ステップST401で電源がONされ装置
が起動されると、ステップST402でランダムテクス
チャパターン投光手段20の電源がONされ認識対象物
に対してランダムドットパターンが投影される。ステッ
プST403では、第一の画像入力手段21aおよび第
二の画像入力手段21bによって、対象物体のステレオ
画像が撮像され、第一の画像格納手段41aおよび第二
の画像格納手段41bにそれぞれ入力される。第一、第
二の画像入力手段21a、21bの2つのカメラは同じ
解像度のCCDが使用され、同じ焦点距離のレンズが装
着され、光軸は所定の距離に配置されている。画像入力
後に、ステップST404でランダムテクスチャ投光手
段20の電源がOFFして、物体に投影されていたラン
ダムドット模様は消失する。ステップST405では、
第一の画像入力手段41aによりランダムドットの投影
されていない画像が撮像され、濃淡原画像格納手段15
に格納される。この画像は後で物体位置検出に使用され
る。When the power is turned on and the apparatus is started in step ST401, the power of the random texture pattern projecting means 20 is turned on in step ST402, and a random dot pattern is projected on the recognition target. In step ST403, the first image input unit 21a and the second image input unit 21b capture a stereo image of the target object, and input the stereo images to the first image storage unit 41a and the second image storage unit 41b, respectively. . The two cameras of the first and second image input means 21a and 21b use CCDs of the same resolution, are equipped with lenses of the same focal length, and are arranged at a predetermined distance from the optical axis. After the image is input, the power of the random texture projecting means 20 is turned off in step ST404, and the random dot pattern projected on the object disappears. In step ST405,
An image on which random dots are not projected is picked up by the first image input means 41a, and the original dark and light image storage means 15 is taken.
Is stored in This image is used later for object position detection.
【0076】なお、第一、第二の画像入力手段21a、
21bは、ステレオ視においては通常水平線上に左右に
配置されており、第一の画像入力手段21aを右カメ
ラ、第二の画像入力手段21bを左カメラと呼ぶことに
する。また、それに伴い、第一の画像格納手段41aに
格納された画像を右画像、第二の画像格納手段41bに
格納された画像を左画像と呼ぶこととする。The first and second image input means 21a,
The first image input unit 21a is called a right camera, and the second image input unit 21b is called a left camera. Accordingly, the image stored in the first image storage unit 41a is called a right image, and the image stored in the second image storage unit 41b is called a left image.
【0077】ステップST406では、第一および第二
の画像格納手段41a、41bに格納されたステレオ画
像をもとに、高速類似度計算手段42によって高速にブ
ロックマッチングを行う。ブロックマッチングとは、ス
テレオ視覚において、対応付の単位を格子状に分割した
小領域(ブロック)とし、ブロック毎に左右の画像を対
応付するものである。ブロックマッチングについては、
実施の形態1.に記載した通りである。この際2つの画
像ブロック間の類似性の評価として、累積差分絶対値を
用いる。例えば、注目ブロックをbR(i,j)、左画
像をL(i,j)、ブロックサイズをN×Nとすると、
左画像上の位置(dx,dy)における累積差分絶対値
SSAD(dx,dy)は、(式2)で表される。In step ST406, the high-speed similarity calculating means 42 performs high-speed block matching based on the stereo images stored in the first and second image storing means 41a and 41b. The block matching is to associate the left and right images for each block in a stereo vision, in which the unit of association is a small area (block) divided into a lattice shape. For block matching,
Embodiment 1 FIG. It is as described in. At this time, the cumulative difference absolute value is used as the evaluation of the similarity between the two image blocks. For example, if the target block is bR (i, j), the left image is L (i, j), and the block size is N × N,
The cumulative difference absolute value S SAD (dx, dy) at the position (dx, dy) on the left image is represented by (Equation 2).
【0078】[0078]
【数2】 (Equation 2)
【0079】あるbRに対し、L(左)画像を探索し、
SSADが最小になる位置(dx,dy)を検出する。こ
うして注目ブロックbRに対応する左画像上のブロック
bLが検出される。対応するブロックの対が発見される
と、そのペアに対し、ステップST407で、高信頼度
類似度計算手段43により、上記(式2)により高信頼
の類似度が計算される。この時、左画像は走査されな
い。(式2)を評価して得た(dx,dy)に対し、次
の(式3)により類似度を評価する。SCORRは一般に正
規化相互相関関数と呼ばれるものである。An L (left) image is searched for a certain bR, and
The position (dx, dy) where S SAD is minimum is detected. Thus, the block bL on the left image corresponding to the block of interest bR is detected. When a pair of corresponding blocks is found, the high-reliability similarity calculating means 43 calculates the high-reliability similarity of the pair by the above (Equation 2) in step ST407. At this time, the left image is not scanned. (Dx, dy) obtained by evaluating (Expression 2) is evaluated for similarity by the following (Expression 3). S CORR is generally called a normalized cross-correlation function.
【0080】[0080]
【数3】 (Equation 3)
【0081】(式3)は、(式2)に比べより正確で信
頼性の高い類似度を計算するものである。得られた類似
度SCORRは、上記対応付結果から得られた視差、即ち距
離情報とともに距離画像格納手段45に格納される。(Equation 3) calculates a more accurate and reliable similarity than (Equation 2). The obtained similarity S CORR is stored in the distance image storage unit 45 together with the parallax obtained from the above association result, that is, the distance information.
【0082】ステップST408では、対応ブロック信
頼度判定手段44により、上記高信頼な類似度が予め設
定され計算機内部に格納されていた類似度しきい値と比
較され類似度が十分大きい場合には正しい対応付がなさ
れたと判定され、類似度がしきい値よりも小さい場合に
は誤った対応付であったと判定される。判定結果は距離
画像格納手段45に格納される。続くステップST40
9で、右画像のすべてのブロックについて高速な類似度
と高信頼の類似度を用いた対応付を行ない対応付の信頼
度を判定していない場合には、再び処理ステップST4
06より同様の処理を繰り返す。In step ST408, the corresponding block reliability determination means 44 compares the highly reliable similarity with a similarity threshold previously set and stored in the computer. It is determined that the association has been made, and if the similarity is smaller than the threshold value, it is determined that the association has been made erroneously. The determination result is stored in the distance image storage unit 45. Subsequent step ST40
In step 9, when all blocks in the right image are associated with each other using the high-speed similarity and the highly-reliable similarity, and the reliability of the association has not been determined, the processing step ST4 is performed again.
The same processing is repeated from 06.
【0083】ステップST410以降は、実施の形態
2.と同様に処理される。ステップ410では、最上段
面領域抽出手段13により、距離画像から最上段物体面
に相当する最上段領域が抽出され、ステップST411
では、物体寸法データベース16に格納されている認識
対象物体の寸法データを使って、2次元基準パターン生
成手段17によって2次元基準パターンが自動的に生成
される。ステップST412では、上記最上段面領域が
抽出された画像が、最上段面とそれ以外の面の2つに分
けられて2値化され、最上段物体候補抽出手段14によ
って最上段物体候補の一つが抽出される。ステップST
413では、抽出された一つの物体候補の位置近傍に関
し、上記2次元基準パターンと、上記濃淡原画像情報を
用いて、物体位置検出手段18によって候補物体の精密
な位置が計測され検出される。このようにして決定した
候補物体の2次元位置は、情報統合手段19によって上
記合成された高解像度の距離画像情報と統合され、最終
的に物体の3次元情報として出力する。ステップST4
14では、ステップST412、ST413の処理によ
って、すべての物体を認識したか、否かの判断を行いし
たと判断されればステップST415で処理が終了とな
り、認識していない物体がまだ存在すると判断されれ
ば、ステップST412、ST413に戻って物体候補
を抽出する処理を繰り返す。Step ST410 and thereafter are the same as those in the second embodiment. Is processed in the same way as In step 410, the uppermost plane area extracting means 13 extracts the uppermost area corresponding to the uppermost object plane from the distance image, and then proceeds to step ST411.
Then, the two-dimensional reference pattern is automatically generated by the two-dimensional reference pattern generation means 17 using the size data of the recognition target object stored in the object size database 16. In step ST 412, the image from which the uppermost surface area is extracted is divided into two, that is, the uppermost surface and the other surface, and is binarized. One is extracted. Step ST
In 413, the precise position of the candidate object is measured and detected by the object position detecting means 18 using the two-dimensional reference pattern and the grayscale original image information in the vicinity of the position of the extracted one object candidate. The two-dimensional position of the candidate object determined in this way is integrated with the high-resolution range image information synthesized by the information integration means 19, and finally output as three-dimensional information of the object. Step ST4
In step 14, if it is determined in the steps ST412 and ST413 that all objects have been recognized or not, it is determined in step ST415 that the process ends, and it is determined that there are still unrecognized objects. If so, the process returns to steps ST412 and ST413, and the process of extracting object candidates is repeated.
【0084】以上ように、この実施の形態4.では、ス
テレオ画像をブロック単位で対応付する際に、まず最初
に高速な類似度評価手段を使って画像探索を行い、求ま
った対応ブロックの対について一度だけ高信頼な類似度
を評価する手段によって対応ブロックの類似性を精密に
求めることによって、時間のかかる探索処理を高速に行
い、かつ、最終的に対応ブロックが正しいかどうかの判
定は高信頼で行うことができる。As described above, in the fourth embodiment. Then, when associating a stereo image in units of blocks, first, an image search is performed using a high-speed similarity evaluation unit, and a highly-reliable similarity is evaluated only once for the obtained corresponding block pair. By precisely calculating the similarity of the corresponding block, time-consuming search processing can be performed at high speed, and finally, whether the corresponding block is correct can be determined with high reliability.
【0085】なお、この実施の形態4.では、高速な類
似度計算式として累積差分絶対値を用い、高信頼の類似
度計算式として正規化相互相関を用いたが、例えば、高
速な類似度としてブロック間の各画素値の差の絶対値の
最大値を使用したり、高信頼類似度として、差の自乗の
総和を使用してもよい。実施の形態4.の本質は、信頼
性よりも高速性を重視した類似度計算手段と、その逆の
特性を持つ類似度計算手段との組合せによって効果を奏
するものである。Note that this Embodiment 4. In the above, the accumulated difference absolute value was used as a high-speed similarity calculation formula, and the normalized cross-correlation was used as a highly-reliable similarity calculation formula. The maximum value may be used, or the sum of the squares of the differences may be used as the highly reliable similarity. Embodiment 4 FIG. The essence is obtained by a combination of a similarity calculation means that emphasizes high speed rather than reliability and a similarity calculation means having the opposite characteristic.
【0086】また、この実施の形態4.は、高速な類似
度計算と、高信頼な類似度計算において、同じように画
像ブロックの各画素値を使用したが、高速類似度計算時
には使用する画素をブロックから間引き操作によって1
/2または1/4といったように限定して選択してもよ
く、その場合にはたとえ上記2種類の類似度計算に使用
される類似度評価式が同一のものであっても、高速類似
度計算が高速に実行されるので同様の効果を奏する。Further, in the fourth embodiment. Used the pixel values of the image blocks in the same manner in the high-speed similarity calculation and the high-reliability similarity calculation.
/ 2 or 1/4. In this case, even if the similarity evaluation formulas used in the two types of similarity calculation are the same, the high-speed similarity Since the calculation is performed at high speed, the same effect is obtained.
【0087】さらに、この実施の形態4.は、すべての
処理を計算機によって実行することを前提と、利用可能
な特別のハードウェアによってある種の類似度計算が高
速に実行せられる環境が提供された場合には、高速類似
度計算にはそのハードウェアを用いて高信頼類似度計算
時には別の高信頼性が確保される方法で類似度を計算し
ても良い。Further, in the fourth embodiment. Is based on the assumption that all processing is performed by a computer. At the time of high reliability similarity calculation using the hardware, the similarity may be calculated by another method that ensures high reliability.
【0088】実施の形態5.実施の形態5.の構成を示
すブロック図を図13、動作の流れを示すフローチャー
トを図14に示す。図13において、13〜20は実施
の形態2.と同一機能を有するものであり説明は省略す
る。51は画像入力手段であり、第一の画像入力手段5
1a、第二の画像入力手段51b、第三の画像入力手段
51cの3台備えている。52はステレオ画像ブロック
対応付手段である。Embodiment 5 Embodiment 5 FIG. FIG. 13 is a block diagram showing the configuration of FIG. 13, and FIG. 14 is a flowchart showing the operation flow. In FIG. It has the same function as, and the description is omitted. Reference numeral 51 denotes an image input unit, and the first image input unit 5
1a, second image input means 51b, and third image input means 51c. Reference numeral 52 denotes a stereo image block associating unit.
【0089】ステップST501で電源がONされ装置
が起動すると、ステップST502でランダムテクスチ
ャパターン投光手段がONされ、認識対象物に対してラ
ンダムドットパターンが投影される、ステップST50
3〜ST505では、第一の画像入力手段51a、第二
の画像入力手段51b、および第三の画像入力手段51
cによって順次3枚の画像が入力される。3つの画像入
力手段51a、51b、51cはCCDカメラであり、
これら3つのカメラは同じ解像度で、同じ焦点距離のレ
ンズが装着された光学的仕様は同じものが使用される。
カメラの配置は、それぞれのカメラの光軸が空間上の同
一平面上にあり、かつどの光軸も交わらないように平行
に配置されている。ここでは便宜上3つのカメラはそれ
ぞれ左カメラ、中央カメラ、右カメラと呼ぶことにす
る。光軸間の距離は、左カメラと中央カメラの間隔は中
央カメラと右カメラの間隔に等しく配置する。このカメ
ラ配置は、上記実施の形態2.〜4.の場合の2つのス
テレオ配置カメラの中央に3つめのカメラを配したこと
に相当する。When the power is turned on and the apparatus is started in step ST501, the random texture pattern projection means is turned on in step ST502, and a random dot pattern is projected on the recognition target.
In steps 3 to ST505, the first image input unit 51a, the second image input unit 51b, and the third image input unit 51
By c, three images are sequentially input. The three image input means 51a, 51b, 51c are CCD cameras,
The three cameras have the same resolution and the same optical specifications with lenses of the same focal length.
The cameras are arranged such that the optical axes of the cameras are on the same plane in space and are parallel so that no optical axes intersect. Here, the three cameras are referred to as a left camera, a center camera, and a right camera, respectively, for convenience. The distance between the optical axes is set such that the distance between the left camera and the center camera is equal to the distance between the center camera and the right camera. This camera arrangement is the same as in the second embodiment. ~ 4. In this case, this corresponds to the arrangement of a third camera at the center of the two stereo arrangement cameras.
【0090】画像入力が完了すると同時に、画像はそれ
ぞれ別の画像格納手段である画像格納手段に格納され、
ステップST507でランダムテクスチャパターン投光
器20のランプ電源がOFFし、物体表面のランダムド
ットパターンは消える。ステップ407では、中央の第
二の画像入力手段51bによって、対象物の濃淡画像が
撮像され、濃淡原画像格納手段15に格納される。At the same time as the image input is completed, the images are stored in image storage means, each being different image storage means.
In step ST507, the lamp power of the random texture pattern projector 20 is turned off, and the random dot pattern on the object surface disappears. In step 407, a grayscale image of the object is captured by the central second image input unit 51 b and stored in the grayscale original image storage unit 15.
【0091】ステップST508では、ステレオ画像ブ
ロック対応付手段52によってステレオ画像の対応付処
理を行う。この処理の流れについては、図15に詳細な
動作のフローチャートを示す。ステレオ対応づけ処理が
ST508−1でスタートして最初のステップST50
8−2では、第一の画像入力手段51a(左カメラ)に
よる画像と第二の画像入力手段51b(中央カメラ)に
よる画像との間で対応点の探索を行う。この処理は2つ
の画像のブロック対応付処理であり、上記実施の形態2
で示した処理と同様に行う。この実施の形態5.では、
中央カメラの撮像画像をブロック小領域に分割し、各ブ
ロックごとに左カメラ上で対応点を探索する。図16は
この2つの画像間のブロック対応付の様子を摸式的に示
したものである。図16(a)は、認識対象物体として
の段ボール箱が映っている画像を示している。梱包され
たダンボール箱の場合、表面に透明のフィルム上のもの
が貼り付けられることがしばしばある。その場合、パタ
ーン投光器20や室内の他の照明装置からの光、特に乱
反射光によって、図16(b)のように情報欠落と判定
されるブロックが発生することがある。この情報欠落部
とは、例えば中央カメラ51bではテープ部に乱反射が
起こっていないのに、左カメラ51aでは起こっている
状態があり、当該ブロックに対応する画像パターンが他
方の画像の中には発見できないという事実が発生する。
この状態における処理はステップST508−3におい
て情報欠落ブロックか否かを判定することで実行され
る。In step ST508, the stereo image block associating means 52 performs stereo image associating processing. FIG. 15 shows a detailed operation flowchart of this processing flow. Stereo associating processing starts in ST508-1 and first step ST50
In step 8-2, a corresponding point is searched for between the image input by the first image input unit 51a (left camera) and the image input by the second image input unit 51b (center camera). This process is a process of associating two images with blocks, and is performed in the second embodiment.
The processing is performed in the same manner as the processing shown in FIG. Embodiment 5 Then
The captured image of the central camera is divided into small blocks, and a corresponding point is searched for on the left camera for each block. FIG. 16 schematically shows how the two images are associated with blocks. FIG. 16A shows an image showing a cardboard box as a recognition target object. In the case of packed cardboard boxes, a transparent film is often attached to the surface. In such a case, light from the pattern projector 20 or another lighting device in the room, particularly, irregularly reflected light may cause a block to be determined as information loss as shown in FIG. 16B. The information missing portion means that, for example, diffuse reflection does not occur in the tape portion in the center camera 51b, but occurs in the left camera 51a, and an image pattern corresponding to the block is found in the other image. The fact that you can't.
The process in this state is executed by determining whether or not the block is an information missing block in step ST508-3.
【0092】ステップST508−4では、中央カメラ
が撮像した第二の画像と、右カメラか撮像した第三の画
像との間でブロック対応付が行なわれる。中央カメラに
よる画像をブロックに分割し、各ブロックごとに対応す
る点を右カメラ画像上で探索する。この時も上記の対応
点探索と同様に情報欠落ブロックが発生する。さらに、
ステップST508−5では、上記中央カメラ51bと
右側カメラ51cとの組合せで得られた情報欠落点に関
する情報が、上記の左カメラ51aと中央カメラ51b
との情報欠落データが組み合わされる。この時、左−中
央ペアにおける情報欠落ブロックの位置と、中央−右ペ
アにおける情報欠落ブロックの位置との間には何ら直接
的な関係はない。どちらのペアにおいても、中央カメラ
51bの画像を基準として、左または右カメラ画像上を
探索しているので、各ペアの情報欠落ブロック情報は、
中央カメラ画像上のブロック単位で与えられ、容易に比
較できる。In step ST508-4, block association is performed between the second image picked up by the central camera and the third image picked up by the right camera. The image obtained by the central camera is divided into blocks, and a point corresponding to each block is searched on the right camera image. At this time, an information missing block is generated as in the above-described corresponding point search. further,
In step ST508-5, information on the information missing point obtained by the combination of the center camera 51b and the right camera 51c is stored in the left camera 51a and the center camera 51b.
Information missing data is combined. At this time, there is no direct relationship between the position of the information missing block in the left-center pair and the position of the information missing block in the center-right pair. In either pair, since the search is performed on the left or right camera image with reference to the image of the central camera 51b, the information missing block information of each pair is
It is given in block units on the central camera image and can be easily compared.
【0093】いま、左−中央ペアにおいて情報が欠落し
ていると判定されたブロックが、中央−右ペアにおいて
は情報欠落でないと判定されたならば、当該ブロックは
情報欠落でないとし、その視差情報としては情報欠落で
ないペアを用いて計算される。両ペアともに情報欠落と
判定された場合には当該ブロックは情報が欠落している
と判定し、視差情報は格納しない。中央カメラの全ブロ
ックに対して同様の処理が行なわれ、ステップST50
8−6でステレオ対応づけ処理が終了する。即ち、左−
中央ペア、および中央−右ペアの両方において情報欠落
ブロックになっていない限り、視差情報、即ち距離情報
を得ることが可能である。Now, if it is determined that a block in which information is missing in the left-center pair is determined not to be missing information in the center-right pair, the block is determined not to be missing information and the parallax information is determined. Is calculated using a pair that is not missing information. If both pairs are determined to be missing information, the block is determined to be missing information and no parallax information is stored. The same processing is performed on all the blocks of the central camera, and a step ST50 is performed.
At step 8-6, the stereo association processing ends. That is, left-
As long as there is no information missing block in both the center pair and the center-right pair, it is possible to obtain disparity information, that is, distance information.
【0094】なお、ステレオ対応探索における類似点探
索において用いられる類似度計算手段としては、次の
(式7)の累積差分絶対値SSAD(dx,dy)を用い
る。As the similarity calculation means used in the similarity point search in the stereo correspondence search, the following cumulative difference absolute value S SAD (dx, dy) of (Expression 7) is used.
【0095】[0095]
【数4】 (Equation 4)
【0096】次に、図14のステップST509では、
上記ステレオブロック対応付処理において生成された距
離画像を用いて、最上段面領域抽出手段13によって物
体の最上段面の領域を抽出する。Next, in step ST509 of FIG.
Using the distance image generated in the stereo block association processing, the uppermost plane area extracting unit 13 extracts the area of the uppermost plane of the object.
【0097】ステップST510以降は、実施の形態
2.と同様に処理される。ステップST510では、物
体寸法データベース16に格納されている認識対象物体
の寸法データを使って、2次元基準パターン生成手段1
7によって2次元基準パターンが自動的に生成される。
ステップST511では、上記最上段面領域が抽出され
た画像が、最上段面とそれ以外の面の2つに分けられて
2値化され、最上段物体候補抽出手段14によって最上
段物体候補の一つが抽出される。ステップST512で
は、抽出された一つの物体候補の位置近傍に関し、上記
2次元基準パターンと、上記濃淡原画像情報を用いて、
物体位置検出手段18によって候補物体の精密な位置が
計測され検出される。このようにして決定した候補物体
の2次元位置は、情報統合手段19によって上記合成さ
れた高解像度の距離画像情報と統合され、最終的に物体
の3次元情報として出力する。ステップST513で
は、ステップST511、ST512の処理によって、
すべての物体を認識したか、否かの判断を行い、したと
判断されればステップST514で処理を終了となり、
認識していない物体がまだ存在すると判断されれば、ス
テップST511、ST512に戻って物体候補を抽出
する処理を繰り返す。[0097] Step ST510 and thereafter are the same as those in the second embodiment. Is processed in the same way as In step ST510, the two-dimensional reference pattern generation unit 1 uses the dimension data of the recognition target object stored in the object dimension database 16.
7, a two-dimensional reference pattern is automatically generated.
In step ST 511, the image from which the uppermost surface area has been extracted is divided into two, that is, the uppermost surface and the other surfaces, and is binarized. One is extracted. In step ST512, regarding the vicinity of the position of the extracted one object candidate, using the two-dimensional reference pattern and the grayscale original image information,
The precise position of the candidate object is measured and detected by the object position detecting means 18. The two-dimensional position of the candidate object determined in this way is integrated with the high-resolution range image information synthesized by the information integration means 19, and finally output as three-dimensional information of the object. In step ST513, by the processing of steps ST511 and ST512,
It is determined whether or not all the objects have been recognized. If it is determined that all the objects have been recognized, the process ends in step ST514,
If it is determined that there is still an unrecognized object, the process returns to steps ST511 and ST512 to repeat the process of extracting an object candidate.
【0098】以上説明したように、この実施の形態5.
では、画像入力手段51のカメラを3台使って2組のス
テレオ画像を生成し、一方の組のステレオ画像で生じた
情報欠落ブロックに対して、他の組のステレオ画像画像
による視差情報によって、情報を補完して、情報の欠落
が防止される。As described above, the fifth embodiment.
Then, two sets of stereo images are generated by using three cameras of the image input means 51, and information missing blocks generated in one set of stereo images are generated by disparity information based on another set of stereo image images. Complementing the information prevents loss of the information.
【0099】なお、この実施の形態5.では、3つの画
像入力手段の空間的配置として、同一平面に等間隔に平
行して存在する光軸を有するように配置したが、左ある
いは右、あるいはその両方のカメラ光軸を中央カメラ光
軸と交わるように配置したり、カメラ間隔を等間隔でな
いように配置したり、または3つの光軸が必ずしも同一
平面上にないように配置しても、同様に欠落ブロックの
補完する効果は得られる。Note that, in the fifth embodiment. In the above, three image input means are arranged so as to have optical axes parallel to each other at equal intervals on the same plane. , The camera spacing is not equal, or the three optical axes are not necessarily on the same plane, the effect of complementing the missing block can be obtained. .
【0100】なお、実施の形態5.では、高速な類似度
計算式として累積差分絶対値を用い、高信頼の類似計算
式として正規化相互相関を用いたが、例えば、高速な類
似度としてブロック間の各画素値の差の絶対値の最大値
を使用したり、高信頼類似度として、差の自乗の総和を
使用してもよい。Embodiment 5 In the above, the accumulated difference absolute value was used as a high-speed similarity calculation formula, and the normalized cross-correlation was used as a highly-reliable similarity calculation expression. Or the sum of the squares of the differences may be used as the highly reliable similarity.
【0101】実施の形態6.実施の形態6.の構成を示
すブロック図を図17、動作の流れを示すフローチャー
トを図18に示す。図17において、11〜13、15
〜17、19、21は実施の形態1.と同一機能を有す
るものであり説明は省略する。図において、64は物体
候補組合せ仮説生成手段、65は仮説妥当性検証手段、
69は物体位置検出手段である。Embodiment 6 FIG. Embodiment 6 FIG. FIG. 17 is a block diagram showing the configuration of FIG. 17, and FIG. 18 is a flowchart showing the operation flow. 17, 11 to 13, 15
17 to 19, and 21 correspond to the first embodiment. It has the same function as, and the description is omitted. In the figure, 64 is an object candidate combination hypothesis generation unit, 65 is a hypothesis validity verification unit,
69 is an object position detecting means.
【0102】ステップST601で、装置が起動される
と、画像入力手段11の2つのカメラで対象物体の画像
が距離画像生成手段12に入力され、個別に格納され
る。2つのカメラは、光軸を共有しない同一の仕様のも
のが使用される。ステップST602で、距離画像生成
手段12によって上記2枚のステレオ画像がステレオマ
ッチングされ、その視差から距離画像が生成される。In step ST601, when the apparatus is started, the images of the target object are input to the distance image generation means 12 by the two cameras of the image input means 11 and stored individually. The two cameras having the same specifications without sharing the optical axis are used. In step ST602, the two stereo images are stereo-matched by the distance image generation means 12, and a distance image is generated from the parallax.
【0103】ステップST603で、画像入力手段11
により撮像された濃淡原画像が濃淡原画像格納手段に格
納される。この実施の形態6.の認識対象とする物体の
濃淡原画像を図19(a)に示す。物体は段ボール箱等
の箱状の物体であり、それらが何段かに積載されてい
る。ステップST604で距離画像はから、最上段面領
域抽出手段13によって、最上段物体の上面部分の画像
から領域として抽出される。図19(b)は、抽出され
た最上段物体領域である。図のように、最上段以外の領
域も示されている。At step ST603, the image input means 11
Is stored in the grayscale image storage means. Sixth Embodiment FIG. 19A shows an original gray-scale image of the object to be recognized. The object is a box-like object such as a cardboard box, and they are stacked in several stages. In step ST604, the distance image is extracted as an area from the image of the upper surface of the uppermost object by the uppermost surface area extracting means 13. FIG. 19B shows the extracted uppermost object region. As shown in the figure, areas other than the top row are also shown.
【0104】ステップST605では、箱状物体の寸法
データを格納した物体寸法データベース16に格納され
たデータを用いて、2次元基準パターン生成手段17に
よって物体の2次元的な画像パターンを表現した基準パ
ターンを自動的に生成する。図19(c)にその基準パ
ターンの摸式図を示す。In step ST605, the reference pattern expressing the two-dimensional image pattern of the object by the two-dimensional reference pattern generation means 17 using the data stored in the object size database 16 storing the size data of the box-shaped object. Is automatically generated. FIG. 19C shows a schematic diagram of the reference pattern.
【0105】以下の動作の説明が、この実施の形態6.
の本質となる部分である。ステップST607におい
て、物候補組合せ仮説生成手段64によって、上記抽出
された最上段面領域と2次元基準パターンとから、物体
候補の組合せ仮説が一つ生成される。仮説とは図19
(c)に示されたようなものであり、この実施の形態
6.では、この仮説を「仮説1」と呼ぶ。仮説は図19
(b)のような最上段物体領域を画像で表現したものに
対し、認識対象物の基準パターンをパターンマッチン
グ、例えばテンプレートマッチングの技法によって処理
し、図19(b)のような最上段面領域を形成する2次
元基準パターンの組合せを類推することによって得られ
る。また、同時に、物体位置検出手段69によって図1
9(d)のように物体2次元的位置が検出される。物体
位置検出は、上記格納された濃淡原画像と上記2次元基
準パターンとの比較によって行う。2次元基準パターン
の輪郭部分の情報を用い、上記濃淡画像から検出したエ
ッジ画像との間でテンプレートマッチング行う。その
際、仮説生成の段階で物体の粗い位置は既知なので、テ
ンプレートマッチング処理におけるパターン探索領域は
上記位置近傍のみでよい。The following operation is described in the sixth embodiment.
Is the essential part of In step ST607, the object candidate combination hypothesis generating means 64 generates one combination hypothesis of the object candidate from the extracted uppermost surface area and the two-dimensional reference pattern. What is a hypothesis?
This is the same as that shown in FIG. Then, this hypothesis is called “hypothesis 1”. The hypothesis is Figure 19
19B, a reference pattern of a recognition target is processed by a pattern matching technique, for example, a template matching technique, and an uppermost surface area as shown in FIG. Is obtained by estimating the combination of the two-dimensional reference patterns forming. At the same time, the object position
As shown in FIG. 9D, the two-dimensional position of the object is detected. The object position detection is performed by comparing the stored grayscale original image with the two-dimensional reference pattern. Using the information of the contour part of the two-dimensional reference pattern, template matching is performed with the edge image detected from the grayscale image. At this time, since the coarse position of the object is known at the hypothesis generation stage, the pattern search area in the template matching process need only be near the above position.
【0106】ステップST608では、上記仮説が妥当
であるか否かが検証される。仮説妥当性検証手段65は
図19(d)のような仮説画像を生成し、物体候補1か
ら6までの6個の物体の組合せによって、図19(b)
のような最上段面領域が合理的に生成され得るかどうか
を計算する。即ち、上記6個の物体候補によって生成さ
れる仮説画像と、最上段面画像とを比較し、その差とな
る領域の面積を算出して上記面積が大きいほど誤った仮
説であると判定するように動作する。ステップST60
8ではこのようにステップST606で生成した一つの
仮説に対し、その妥当性指標を一つ与える。上記面積の
逆数が妥当性指標となる。At step ST608, it is verified whether the above hypothesis is valid. The hypothesis validity verification means 65 generates a hypothesis image as shown in FIG. 19D, and generates a hypothesis image as shown in FIG.
It is calculated whether the uppermost surface region such as can be generated reasonably. That is, the hypothesis image generated by the six object candidates is compared with the top-level surface image, and the area of the difference region is calculated. The larger the area is, the more erroneous the hypothesis is determined. Works. Step ST60
In step 8, one validity index is given to one hypothesis generated in step ST606. The reciprocal of the above area is the validity index.
【0107】ステップST609では、ステップST6
06からST608までの処理を考えられる仮説をすべ
て生成するまで繰り返し、ステップST610では、仮
説をすべて生成し、それらの中でもっとも妥当性の高い
仮説を選択する。即ち、各仮説についての前記妥当性指
標を比較し、最も高い指標を持つ仮説を選ぶ。図19
(e)(f)は、それぞれ別の仮説2および仮説3であ
る。図から明らかなように、この場合は仮説2が最も高
い妥当性指標を持つのでこれが最もよい仮説として、ス
テップST610において選択されることになる。In step ST609, step ST6
The processes from 06 to ST608 are repeated until all possible hypotheses are generated. In step ST610, all the hypotheses are generated, and the most appropriate hypothesis is selected from them. That is, the validity index for each hypothesis is compared, and the hypothesis having the highest index is selected. FIG.
(E) and (f) are different hypotheses 2 and 3, respectively. As is apparent from the figure, in this case, hypothesis 2 has the highest validity index, and this is selected as the best hypothesis in step ST610.
【0108】ステップST611では、情報統合手段1
9によって、上記の最もよい仮説に相当する2次元位置
情報と前記距離画像が統合され、ステップST612で
認識結果として装置から出力されて処理を終了する。At step ST611, the information integrating means 1
In step ST612, the two-dimensional position information corresponding to the above-mentioned best hypothesis and the distance image are integrated.
【0109】この実施の形態6.は、距離画像生成手段
として2つのカメラによるステレオ視を用いたが、3つ
以上のカメラによるステレオ視、ランダムドット等の特
徴ある投光パターンの投光を併用したステレオ視、ある
いは従来技術として説明した空間コード化法による距離
画像生成手段でもよい。この実施の形態6は、距離画像
から得た認識結果の仮説を検証して尤もらしい結果を得
ることに特徴があるので、距離画像の生成方法はどんな
ものでも良い。Embodiment 6 Used stereo vision with two cameras as the distance image generation means, but described as stereo vision with three or more cameras, stereo vision with combined projection of characteristic projection patterns such as random dots, or as a conventional technique. A distance image generating means using the space coding method described above may be used. Since the sixth embodiment is characterized in that a hypothesis of a recognition result obtained from a distance image is verified to obtain a plausible result, any method of generating a distance image may be used.
【0110】また、この実施の形態6.は、仮説の妥当
性を検証する方法として、仮説画像と実際の画像との差
をもとに妥当性指標を計算する方法を用いたが、例え
ば、上記仮説を得る際に計算されたテンプレートマッチ
ングの類似度のすべての候補物体に対する総和が大きい
ほど妥当性が高いとするような指標を用いても同様の効
果を得ることができる。Embodiment 6 of the present invention. Used a method of calculating the validity index based on the difference between the hypothesis image and the actual image as a method of verifying the validity of the hypothesis.For example, the template matching calculated when obtaining the above hypothesis was used. The same effect can be obtained by using an index such that the larger the sum of all the similarities of the similarity of the candidate objects is, the higher the validity is.
【0111】また、この実施の形態6.では物体位置の
検出方法として、基準パターンから得た物体の輪郭情報
と、濃淡原画像から生成したエッジ画像とをテンプレー
トマッチング手法により処理していたが、これを2値画
像のテンプレートマッチングなどの位置決め手法を用い
ても同様の効果を得ることができる。Embodiment 6 of the present invention. In the method of detecting the position of the object, the contour information of the object obtained from the reference pattern and the edge image generated from the original gray-scale image are processed by the template matching method. The same effect can be obtained by using the technique.
【0112】さらに、この実施の形態6.では、物体候
補の組合せ仮説の生成と検証を逐次行うような処理フロ
ーを説明したが、多数の仮説を一度に生成して格納して
おき、それらの妥当性検証を一度に行なって最も妥当性
の高いものを選択するようにしてもよい。Further, in the sixth embodiment. In the above, we explained a process flow in which the generation and verification of combination hypotheses of object candidates are performed sequentially.However, a large number of hypotheses are generated and stored at once, and their validity is verified at one time. May be selected.
【0113】さらに、実施の形態6.では、すべての仮
説を生成するように説明したが、仮説は物体候補の組合
せとして得られることから、物体の組合せ最適化問題と
して扱い、近似解を求めても同様の効果が得られる。Embodiment 6 In the above description, all the hypotheses are generated. However, since the hypotheses are obtained as a combination of object candidates, the same effect can be obtained even if the hypothesis is treated as an object combination optimization problem and an approximate solution is obtained.
【0114】実施の形態7.実施の形態7.の構成を示
すブロック図を図20、動作の流れを示すフローチャー
トを図21に示す。図20において、11〜13、15
〜19は実施の形態6.と同一機能を有するものであり
説明は省略する。71は物体配列基準データベース、7
2は物体配列判定手段、73は警告発生手段である。Embodiment 7 FIG. Embodiment 7 FIG. FIG. 20 is a block diagram showing the configuration of FIG. 20, and FIG. 21 is a flowchart showing the operation flow. 20, 11 to 13, 15
19 to 19 are the sixth embodiment. It has the same function as, and the description is omitted. 71 is an object array reference database, 7
2 is an object arrangement determining means, and 73 is a warning generating means.
【0115】この実施の形態7.は、実施の形態6.の
構成に、物体配列が誤って配列されているときに警告を
発生するように構成したものである。したがって、図2
1のフローのステップST701〜ST711は、図1
8のステップ601〜611と同じである。Embodiment 7 FIG. In the sixth embodiment. Is configured to generate a warning when the object arrangement is incorrectly arranged. Therefore, FIG.
Steps ST701 to ST711 of the flow of FIG.
8 is the same as Steps 601 to 611.
【0116】ステップST701で装置が起動される
と、画像入力手段11によって対象物体の画像が距離画
像生成手段に入力され、個別に格納される。ステップS
T702で、距離画像生成手段12によって上記2枚の
画像がステレオマッチングされ、その視差から距離画像
が生成される。この処理は、必ずしも単純なステレオマ
ッチングである必要性はなく、例えば実施の形態2.に
示したようなパターン投光器を併用したステレオ視覚で
あってもよい。When the apparatus is started in step ST701, the image of the target object is input to the distance image generating means by the image input means 11 and stored individually. Step S
At T702, the two images are stereo-matched by the distance image generation unit 12, and a distance image is generated from the parallax. This processing does not necessarily need to be simple stereo matching. The stereo vision using a pattern projector as shown in FIG.
【0117】ステップST703では、画像入力手段1
1により認識対象物の濃淡原画像が入力され、濃淡原画
像格納手段15に格納される。ステップST704で最
上段面領域抽出手13により最上段面領域が抽出され
る。ステップST705では、箱状物体の寸法データを
格納した物体寸法データベース16を用いて2次元基準
パターン生成手段17によって物体の2次元的な画像パ
ターンを表現した基準パターンを自動的に生成する。ス
テップST706では、物体候補組合せ仮説生成手段6
4によって、上記抽出された最上段面領域と基準パター
ンとから、物体候補の組合せ仮説が一つ生成される。仮
説とは実施の形態6.で説明したと同様の図19(d)
に示されたようなものである。この実施の形態7.にお
いては、仮説は図19(b)のような最上段物体領域を
画像で表現したものに対し、認識対象物の基準パターン
をパターンマッチング、例えばテンプレートマッチング
の技法によって処理し、図19(b)のような最上段面
領域を形成する2次元基準パターンの組合せを類推する
ことによって得ている。ステップST707では、物体
位置検出手段69によって図19(d)のように上記仮
説に含まれる候補物体それぞれの2次元的位置が検出さ
れる。物体位置検出は、上記格納された濃淡原画像と、
上記2次元基準パターンの輪郭部分の情報を用い、濃淡
画像から検出したエッジ画像との間でテンプレートマッ
チングによって検出される。At step ST703, the image input means 1
The gray scale original image of the recognition target is input by 1 and stored in the gray scale original image storage means 15. In step ST704, the uppermost surface area extraction unit 13 extracts the uppermost surface area. In step ST705, the two-dimensional reference pattern generation unit 17 automatically generates a reference pattern expressing a two-dimensional image pattern of the object using the object size database 16 storing the size data of the box-shaped object. In step ST706, the object candidate combination hypothesis generation unit 6
In step 4, one combination hypothesis of the object candidate is generated from the extracted uppermost surface area and the reference pattern. Embodiment 6 is a hypothesis. FIG. 19D similar to that described in FIG.
It is as shown in. Embodiment 7 In FIG. 19B, the hypothesis is obtained by processing the reference pattern of the recognition target object by a pattern matching technique, for example, a template matching technique with respect to an image in which the uppermost object area as shown in FIG. Is obtained by estimating a combination of two-dimensional reference patterns forming the uppermost surface area as described above. In step ST707, the two-dimensional position of each of the candidate objects included in the above hypothesis is detected by the object position detecting means 69 as shown in FIG. The object position detection is performed by using the stored grayscale original image,
Using the information of the contour part of the two-dimensional reference pattern, it is detected by template matching with the edge image detected from the grayscale image.
【0118】ステップST708では、上記複数の物体
候補によって生成される仮説画像と、最上段面画像とを
比較し、その差となる領域の面積を算出して大きいほど
誤った仮説である可能性が高いと判定する。ステップ7
09では、ステップST706〜708の処理を考えら
れる仮説をすべて生成するまで繰り返し、ステップ71
0では、仮説をすべて生成し、それらの中でもっとも妥
当性の高い仮説を選択する。即ち、各仮説についての前
記妥当性指標を比較し、最も高い指標を持つ仮説を選
ぶ。In step ST708, the hypothesis image generated from the plurality of object candidates is compared with the top-level image, and the area of the difference area is calculated. Judge as high. Step 7
In step 09, the processing of steps ST706 to ST708 is repeated until all possible hypotheses are generated.
At 0, all hypotheses are generated and the most relevant hypothesis is selected. That is, the validity index for each hypothesis is compared, and the hypothesis having the highest index is selected.
【0119】ステップST711では、情報統合手段1
9によって上記仮説で最もよい仮説に相当する2次元位
置情報と上記距離画像が統合される。この時点で、この
実施の形態7.における画像処理装置は物体の配列およ
び各々の物体の3次元的位置を知ったことになり装置内
部に格納される。ステップ712では、物体配列判定手
段72によって上記格納された認識結果が、予め用意さ
れた正しい配列データと比べて合致しているか否かが判
定される。正しい配列データは、物体配列基準データベ
ース71に格納された被認識物体によって決められた配
列パターンである。例えば、この実施の形態7.よる装
置が使用されるような物流工場においては、認識対象物
体としての段ボール箱はその形状や寸法によって予め正
しい「積みパターン」と呼ばれるパレット上への箱の積
み方が決められている。At step ST711, the information integrating means 1
9 integrates the two-dimensional position information corresponding to the best hypothesis and the distance image. At this point, this embodiment 7. In the image processing apparatus in the above, the arrangement of the objects and the three-dimensional position of each object are known, and are stored inside the apparatus. In step 712, the object arrangement determination means 72 determines whether the stored recognition result matches the correct arrangement data prepared in advance or not. The correct array data is an array pattern determined by the recognized object stored in the object array reference database 71. For example, in the seventh embodiment. In a logistics factory in which such a device is used, the method of stacking the boxes on a pallet called a correct “stacking pattern” is determined in advance for the shape and dimensions of the cardboard box as the object to be recognized.
【0120】上記物体配列基準データベースにはそのよ
うな基準とすべき物体の配列が記述されている。ステッ
プST712において認識した結果が基準となる積みパ
ターンと合致していない場合には、ステップST713
において、警告発生手段73によって装置使用者や上位
システムの管理者に対して警告を発生して物体が正しく
積まれていないことを知らせる。この実施の形態7.
は、ブザーによる音と、装置に接続された表示用ディス
プレイ装置への文字表示によって警告が発せらされる。
ステップST712において認識結果が正しいパターン
であると判定された場合は、情報統合手段19によって
最終的な物体認識結果が出力され、例えばロボットにデ
ータが送信されることによりロボットによる物体の把持
動作が行なわれることになる。認識動作としてはステッ
プST715で動作を終了する。The object arrangement reference database describes the arrangement of objects to be used as such references. If the result recognized in step ST712 does not match the reference stacking pattern, the process proceeds to step ST713.
In the above, a warning is generated by the warning generating means 73 to the user of the apparatus or the manager of the host system to notify that the object is not correctly loaded. Embodiment 7
, A warning is issued by the sound of a buzzer and the display of characters on a display device connected to the device.
If it is determined in step ST712 that the recognition result is a correct pattern, the final object recognition result is output by the information integration means 19, and for example, data is transmitted to the robot to perform the object gripping operation by the robot. Will be. As the recognition operation, the operation ends in step ST715.
【0121】この実施の形態7.では、このように物体
を認識するだけでなく、その配列パターンを基準データ
と比較することによって予想された配列なのかどうかを
判定し、さらに上記認識結果が基準データと異なる場合
には警告を発生する機能を有している。これにより、作
業者が自分の積み作業ミスに気づいたり輸送中の激しい
荷崩れを検知できるという利点がある。Embodiment 7 FIG. Then, in addition to recognizing the object in this way, by comparing the array pattern with the reference data, it is determined whether or not it is an expected array, and if the above recognition result is different from the reference data, a warning is generated It has the function to do. As a result, there is an advantage that the operator can notice a mistake in his / her loading operation or detect a severe collapse of the cargo during transportation.
【0122】なお、距離画像生成手段として2つのカメ
ラによるステレオ視を、仮説の妥当性検証の方法として
仮説画像と実際の画像との差をもとに検証する方法を、
そして物体位置の検出方法として物体の輪郭情報を利用
したテンプレートマッチング手法をそれぞれ利用してい
る。しかし、これら部分的な処理手段処理手段は、他の
手法により実現しても同様の効果を奏することはいうま
でもない。例えば、距離画像生成手段として、実施の形
態2.で説明したパターンを併用するステレオ視を、仮
説の妥当性検証方法として各物体を濃淡基準パターンと
比較した類似度の総和が高いほど妥当性が高いと判断さ
れるような方法を物体位置検出方法として仮説に含まれ
る各物体を予め用意した濃淡画像パターンと正規化相互
相関によるテンプレートマッチング法を、それぞれ採用
してもよい。A method of verifying stereoscopic vision by two cameras as a range image generating means and a method of verifying the validity of a hypothesis based on a difference between a hypothetical image and an actual image is described below.
As a method of detecting an object position, a template matching method using contour information of an object is used. However, it is needless to say that the same effect can be obtained even if these partial processing means are realized by another method. For example, Embodiment 2 is used as a distance image generation unit. The stereo vision using the pattern described in Section 4 is used as a method for verifying the validity of the hypothesis. Alternatively, a template matching method using a normalized cross-correlation and a grayscale image pattern prepared in advance for each object included in the hypothesis may be adopted.
【0123】また、認識結果が予め格納された物体配列
基準データベースと比較して合わないと判断した時に警
告を発生する例を説明したが、基準データとの類似度合
に応じて、警告の内容を変えて装置使用者や作業者に知
らしめるようにしてもよい。例えば、制御表示器に『自
動認識の結果判定された積み方の正しさはレベル8で
す』などと表示する。さらに認識した結果、積荷の荷崩
れ状態が非常に顕著であり、このまま作業を継続するこ
とが適当でないと判断される場合には上記警告を発する
だけでなく、上位の管理計算機にシステムの停止を要求
したり、または本装置が直接システム停止したりするよ
うにしてもよい。Also, an example has been described in which a warning is generated when it is determined that the recognition result does not match the object sequence reference database stored in advance, but the content of the warning is determined according to the degree of similarity with the reference data. Alternatively, the device user or the operator may be notified. For example, a message such as "The correctness of the stacking method determined as a result of the automatic recognition is level 8" is displayed on the control display. In addition, as a result of the recognition, the collapse state of the cargo is very remarkable, and if it is judged that it is not appropriate to continue the work as it is, not only will the above warning be issued, but also the higher-level management computer will stop the system. The request may be made, or the apparatus may be directly shut down.
【0124】さらに、警告手段としてブザーと表示器に
よる文字表示を採用したが、この他にも人間に警告を送
る手段として、合成された人間の声を発生させるなどの
方法を用いてもよい。Further, although a character display by a buzzer and a display device is employed as the warning means, a method of generating a synthesized human voice may be used as a means for sending a warning to a human.
【0125】実施の形態8.実施の形態8.の構成を示
すブロック図を図22、動作の流れを示すフローチャー
トを図23に示す。図22において、11〜15、1
7、19は実施の形態1.と同一機能を有するものであ
り説明は省略する。図において、81は物体の寸法デー
タをもとに人工2次元基準パターンを生成する人工基準
パターン生成手段、82は濃淡原画像から認識対象物体
の寸法に対応する実画像の基準パターンを抽出する実画
像基準パターン切り出し手段、83は実画像基準パター
ン格納手段、88は物体位置検出手段である。Embodiment 8 FIG. Embodiment 8 FIG. FIG. 22 is a block diagram showing the configuration of FIG. 22, and FIG. In FIG. 22, 11 to 15, 1
7 and 19 are the first embodiment. It has the same function as, and the description is omitted. In the figure, reference numeral 81 denotes an artificial reference pattern generating means for generating an artificial two-dimensional reference pattern based on the dimension data of an object, and reference numeral 82 denotes an actual reference pattern for extracting a reference pattern of a real image corresponding to the size of a recognition target object from a grayscale original image. Image reference pattern cutout means, 83 is an actual image reference pattern storage means, and 88 is an object position detection means.
【0126】ステップST801で装置が起動される
と、画像入力手段11によって認識対象物体の画像が距
離画像生成手段12に入力される。ステップST802
では、入力された画像を用いて、距離画像生成手段12
によって距離画像が生成される。距離画像生成手段とし
てはどのようなものでもよいが、この実施の形態8.で
は2つのカメラによるステレオ視覚を利用することとす
る。したがって、画像入力手段は2つのテレビカメラを
用いる。これら2つのカメラは同一の光学的仕様を持
ち、光軸を共有しないように配置される。通常は人間の
目のようにカメラ光軸がほぼ平行になるように配置す
る。ステップST803では、上記画像入力手段11の
一方のカメラを使用し、濃淡原画像を撮像して濃淡原画
像格納手段15に格納する。この原画像は、上記距離画
像生成時に撮像した濃淡画像をそのまま使用しても差し
支えない。When the apparatus is started in step ST801, the image of the object to be recognized is input to the distance image generating means 12 by the image input means 11. Step ST802
Then, using the input image, the distance image generation unit 12
Generates a distance image. Although any means may be used as the distance image generating means, the present embodiment will be described in the eighth embodiment. Then, it is assumed that stereo vision by two cameras is used. Therefore, the image input means uses two television cameras. These two cameras have the same optical specifications and are arranged so as not to share the optical axis. Normally, they are arranged such that the optical axes of the cameras are almost parallel like human eyes. In step ST803, one of the cameras of the image input unit 11 is used to capture an original gray-scale image and store it in the gray-scale original image storage unit 15. As the original image, a grayscale image captured at the time of generating the distance image may be used as it is.
【0127】ステップST804では、距離画像を用い
て最上段面領域抽出手段13により物体の最上段面領域
を抽出する。抽出した最上段物体の領域は、図3(b)
に摸式的に描かれているものと同様である。つまり、最
上段領域は「1」、それ以外の領域は「0」いうように
2値の画像として表現される。なお、この実施の形態
8.においては認識対象を段ボール箱のような箱状の物
体であるとし、地上に山積みされた同一の物体を天井に
下向きに設置された画像入力手段、即ちテレビカメラで
撮像している。ステップST805では、物体寸法デー
タベース17に予め格納されている認識対象となる箱状
の物体の寸法データをもとに、人工基準パターン生成手
段81によって人工2次元基準パターンが生成される。
これは実施の形態1.の説明における2次元基準パター
ンと同様のものであるが、この実施の形態8.では特に
これが人工的、自動的に生成されたパターンであること
を強調するためにこのように呼ぶ。この基準パターンは
図3(b)に示されているような物体の輪郭部分のみを
表現したものである。In step ST804, the uppermost surface area extracting unit 13 extracts the uppermost surface area of the object using the distance image. The region of the extracted top-level object is shown in FIG.
This is the same as the one schematically depicted in FIG. That is, the uppermost area is expressed as a binary image such as “1”, and the other areas are expressed as “0”. In addition, this Embodiment 8. In, the recognition target is a box-like object such as a cardboard box, and the same object piled up on the ground is imaged by image input means installed downward on the ceiling, that is, a television camera. In step ST805, the artificial reference pattern generation means 81 generates an artificial two-dimensional reference pattern based on the dimension data of the box-shaped object to be recognized, which is stored in the object size database 17 in advance.
This is the first embodiment. Is the same as the two-dimensional reference pattern in the description of the eighth embodiment. In particular, we will call it this way to emphasize that it is an artificial, automatically generated pattern. This reference pattern expresses only the contour portion of the object as shown in FIG.
【0128】ステップST806では、抽出された最上
段面領域を表現した2値画像から最上段物体候補抽出手
段14によって最上段に存在すると考えられる物体の候
補が一つ抽出される。ここでは、2値で表現された最上
段物体領域に対し、物体が画像上では矩形パターンに見
えることから、直角に交わる辺縁部を検出することによ
って候補を抽出する。抽出された候補の摸式図は実施の
形態1.の説明における図3(d)と同様である。ステ
ップST807において、上記物体候補が、物体位置検
出手段14によってテンプレートマッチング法を用いる
ことで位置決めされる。テンプレートとしては、上記人
工基準パターンが用いられる。また、テンプレートマッ
チングにおいて、テンプレートを探す対象となる画像と
しては、上記濃淡原画像格納手段15に格納された原画
像が物体位置検出手段88内においてエッジ検出処理さ
れた結果得られるエッジ画像が用いられる。このテンプ
レートマッチングにおいては、大まかな位置は既に上記
候補抽出の段階で検出されていることから、ここでのマ
ッチングは候補検出位置からそのごく近傍のみを探索す
るだけの処理で十分である。位置決めの様子は図3の通
りである。In step ST806, the uppermost object candidate extracting means 14 extracts one object candidate considered to exist at the uppermost stage from the binary image representing the extracted uppermost surface region. Here, since the object looks like a rectangular pattern on the image with respect to the uppermost object region expressed in binary, candidates are extracted by detecting edges that intersect at right angles. The schematic diagram of the extracted candidates is shown in the first embodiment. 3D in the description of FIG. In step ST807, the object candidate is positioned by the object position detecting means 14 by using the template matching method. The artificial reference pattern is used as a template. In the template matching, as an image to be searched for a template, an edge image obtained as a result of performing an edge detection process on the original image stored in the density original image storage unit 15 in the object position detection unit 88 is used. . In this template matching, since a rough position has already been detected at the stage of the candidate extraction, a process of searching for only a very near position from the candidate detection position is sufficient for the matching here. The positioning is as shown in FIG.
【0129】位置決め処理の結果としては、位置情報と
ともにテンプレートとの類似度が得られるが、これは予
め生成された人工基準パターンとの類似性を表現したデ
ータである。類似度が高いほど検出された物体は予め想
定した正しい箱に似ており、類似度が低い場合には位置
決めに失敗している可能性が高いといえる。そこで、ス
テップST808では、得られた類似度データを物体検
出の信頼度であると見倣し、これが予め本装置内に格納
されている信頼度しきい値より大きいか否かを判断す
る。位置決めの結果得られた物体の信頼度が、信頼度し
きい値より小さければ誤った物体が検出されたと判断
し、ステップST806から処理を繰り返し、再び別の
最上段物体候補を抽出して人工パターンを使った位置検
出を行う。得られた信頼度がしきい値より大きい場合は
次のステップST809に進むことになる。As a result of the positioning process, a similarity to the template is obtained together with the position information. This is data expressing the similarity to the artificial reference pattern generated in advance. The higher the degree of similarity, the more the detected object resembles the correct box assumed in advance. If the degree of similarity is low, it can be said that there is a high possibility that positioning has failed. Therefore, in step ST808, the obtained similarity data is regarded as the reliability of the object detection, and it is determined whether or not this data is larger than a reliability threshold value stored in the present apparatus in advance. If the reliability of the object obtained as a result of the positioning is smaller than the reliability threshold value, it is determined that an erroneous object has been detected, and the process is repeated from step ST806 to again extract another top-level object candidate and extract the artificial pattern. Perform position detection using. If the obtained reliability is larger than the threshold value, the process proceeds to the next step ST809.
【0130】ステップST809では、実画像基準パタ
ーン切り出し手段82によって、最終的に検出された物
体位置における認識対象物体の寸法に対応する実画像の
基準パターンが抽出され、実画像基準パターン格納手段
83格納される。この時、実画像とは、濃淡原画像格納
手段15に格納された濃淡原画像を意味し、切り出し位
置は上記検出された物体の位置である。また、切り出し
領域は矩形であり、その寸法は上記物体の実際の寸法デ
ータを上記距離画像から得られたカメラと物体との距離
によって画像上の寸法に変換したものである。即ち、切
り出されるのは認識したい物体1個に対応する濃淡画像
としての矩形画像領域である。In step ST809, the real image reference pattern extracting means 82 extracts the reference pattern of the real image corresponding to the size of the object to be recognized at the finally detected object position, and stores it in the real image reference pattern storage means 83. Is done. At this time, the actual image means the grayscale original image stored in the grayscale original image storage means 15, and the cutout position is the position of the detected object. The cutout area is rectangular, and the size is obtained by converting the actual size data of the object into a size on the image based on the distance between the camera and the object obtained from the distance image. That is, a rectangular image area as a grayscale image corresponding to one object to be recognized is cut out.
【0131】ステップST810では、物体位置検出手
段88によって、画像から2つめ以降の物体が検出され
る。ここでは、前記一つめの物体検出時と異なる手法が
用いられる。上記実画像基準パターン格納手段83に格
納された濃淡実画像としての物体ひとつに相当するパタ
ーンをテンプレートとし、濃淡原画像格納手段83に格
納された原画像中からテンプレートに最も似ているパタ
ーン位置を検出するというテンプレートマッチング法を
適用する。In step ST810, the object position detecting means 88 detects the second and subsequent objects from the image. Here, a method different from that used when the first object is detected is used. A pattern corresponding to one object as a gray-scale real image stored in the real image reference pattern storage unit 83 is used as a template, and a pattern position most similar to the template in the original image stored in the gray-scale original image storage unit 83 is determined. Apply the template matching method of detecting.
【0132】ステップST811においては、検出され
た物体が予め認識したいと要求された全ての物体に相当
するか否かが判定され、全ての物体が認識されたならば
情報統合手段19によって上記検出物体位置と距離画像
情報を統合して各物体の3次元位置を計算し、上位ホス
トコンピュータまたはロボット等にその結果を送信した
後、ステップST812で処理を終了する。物体の認識
が終わるまでステップST810から処理が繰り返され
る。即ち、ひとつめの物体は距離画像等を使って認識さ
れるが、2つめ以降の物体は1つ目の認識時に得た濃淡
画像としての実画像パターンをもとにテンプレートマッ
チングで検出する。In step ST811, it is determined whether or not the detected object corresponds to all the objects requested to be recognized in advance, and if all the objects have been recognized, the information integrating means 19 determines whether the detected object has been detected. The three-dimensional position of each object is calculated by integrating the position and the distance image information, and the result is transmitted to a host computer or a robot, and the process is terminated in step ST812. The process is repeated from step ST810 until object recognition is completed. That is, the first object is recognized using a distance image or the like, but the second and subsequent objects are detected by template matching based on the actual image pattern as a grayscale image obtained at the time of the first recognition.
【0133】なお、実施の形態8.では、距離画像生成
手段として一般的なステレオ視覚を採用した例で説明し
たが、実施の形態2.で説明したようなランダムドット
パターン投光を用いたステレオ視や、従来の技術で説明
した空間コード化法による距離画像生成でも同様の効果
は得られる。Embodiment 8 In the above, an example in which general stereo vision is adopted as the range image generating means has been described. Similar effects can be obtained by stereoscopic viewing using random dot pattern projection as described in, or distance image generation by the spatial coding method described in the related art.
【0134】実施の形態9.実施の形態9.の構成を示
すブロック図を図24、動作の流れを示すフローチャー
トを図25に示す。図24において、11は画像入力手
段、91は距離画像生成手段、92aは第一の距離画像
格納手段、92bは第二の距離画像格納手段、93は距
離画像比較手段、94は初期把持位置計算手段、95は
位置補正量計算手段、96は物体移動手段である。Embodiment 9 FIG. Embodiment 9 FIG. FIG. 24 is a block diagram showing the configuration of FIG. 24, and FIG. 25 is a flowchart showing the operation flow. 24, reference numeral 11 denotes an image input unit, 91 denotes a distance image generation unit, 92a denotes a first distance image storage unit, 92b denotes a second distance image storage unit, 93 denotes a distance image comparison unit, and 94 denotes an initial grip position calculation. Means, 95 is a position correction amount calculating means, and 96 is an object moving means.
【0135】物体の形状は、説明が理解され易いように
例えば段ボール箱のような多面体で、同一形状、同一寸
法のものを想定して説明する。この実施の形態9.は、
認識対象物体の形状が必ずしも多面体形状である必要は
なく対象がセメント袋等のような袋状の物体であっても
この実施の形態9.の構成を使用することができる。The shape of the object is assumed to be a polyhedron, for example, a cardboard box, having the same shape and the same size, so that the description can be easily understood. Embodiment 9 FIG. Is
The shape of the recognition target object does not necessarily have to be a polyhedron shape, and even if the target is a bag-like object such as a cement bag, etc. Can be used.
【0136】ステップST901で装置が起動される
と、画像入力手段11によって認識対象の物体の画像が
距離画像生成手段91に入力される。ステップST90
2では、入力された画像を用いて、距離画像生成手段9
1により距離画像が生成され、ステップST903にお
いて第一の距離画像が生成され、第一の距離画像格納手
段92aに格納される。距離画像の生成手段としてはど
のようなものでもよいが、例えば空間コード化法や、ス
テレオ視覚から生成する方法がある。When the apparatus is started in step ST 901, the image of the object to be recognized is input to the distance image generating means 91 by the image input means 11. Step ST90
In step 2, the distance image generating means 9 is used by using the input image.
1, a distance image is generated, and in step ST903, a first distance image is generated and stored in the first distance image storage unit 92a. Although any means may be used for generating the distance image, there are, for example, a space coding method and a method of generating the distance image from stereo vision.
【0137】距離画像について図26によって説明す
る。図26(a)には初期状態、即ちステップST90
1が実行されたときの箱状の物体が段積みされた状態
の、画像入力手段11で撮像された原画像が摸式的に表
現されている。図26(b)は第一の距離画像格納手段
92aに格納された距離画像を摸式的に表したものであ
る。距離画像は、画像入力手段のカメラから物体までの
距離を画像的に表したものであり、カメラからの距離が
近い程明るい色で表し、カメラからの距離が大きくなる
ほど暗い色調で表現している。The distance image will be described with reference to FIG. FIG. 26A shows the initial state, that is, step ST90.
The original image captured by the image input means 11 in a state where the box-shaped objects are stacked when Step 1 is executed is schematically represented. FIG. 26B schematically shows a distance image stored in the first distance image storage means 92a. The distance image is a visual representation of the distance from the camera of the image input means to the object, and is expressed in a brighter color as the distance from the camera is shorter, and is expressed in a darker color as the distance from the camera is larger. .
【0138】次のステップST904では、初期把持位
置計算手段94によって距離画像から初期把持位置が計
算される。初期把持位置とは、ロボット等の物体移動手
段96によって物体を移動するために把持する位置であ
る。初期把持位置を決定するには上記第一の距離画像を
処理し、最上段に位置する物体領域即ち図26(b)に
おいて明るい色で表示されている領域からコーナ部分を
認識しコーナ位置から一定オフセットをかけた位置を初
期把持位置とする。この場合は、物体A上に設定された
ことになる。図26(b)上で矢印の方向は把持方向、
矢印と直線の交点が把持位置を表している。ただし、こ
こで意図的に物体Aを把持すべく把持位置を決定したわ
けではなく、距離画像から単純な方法で求めた把持位置
がこの場合は物体A以外の物体上に存在したとしても、
結果として初期把持位置がどれか一つ物体上に設定され
たのであれば、積み荷の移載作業において何ら問題では
ない。In the next step ST904, the initial grip position is calculated from the distance image by the initial grip position calculating means 94. The initial gripping position is a position where the object is gripped by the object moving means 96 such as a robot in order to move the object. In order to determine the initial gripping position, the first distance image is processed, and a corner portion is recognized from the object region located at the uppermost stage, that is, the region displayed in bright colors in FIG. The position where the offset is applied is set as the initial gripping position. In this case, it is set on the object A. The direction of the arrow in FIG.
The intersection of the arrow and the straight line indicates the grip position. However, here, the gripping position is not determined intentionally to grip the object A, and even if the gripping position obtained by a simple method from the distance image exists on an object other than the object A in this case,
As a result, if any one of the initial gripping positions is set on the object, there is no problem in transferring the cargo.
【0139】ステップ905では、初期把持位置を、物
体異動手段たるロボットが把持し、画像入力手段の視野
外に物体を一時的に退避する。図26(c)は物体退避
後の様子を示している。物体の退避動作は、ロボットが
物体A上の把持位置を、吸着ハンドで吸着し、予め決め
られた退避位置までハンドを移動させることにより行
う。ただし、ここでは、ロボットは物体Aを把持したま
まハンドを静止させることで退避させている。予め決め
られた退避位置とは、ハンドがその物体を静止させてい
る位置が、上記画像入力手段11の視野の外にあると明
確に解っている位置であり、また、そのように設定され
る位置である。In step 905, the robot as the object transfer means holds the initial holding position, and the object is temporarily retracted out of the visual field of the image input means. FIG. 26C shows a state after the object is evacuated. The evacuation operation of the object is performed by the robot sucking the gripping position on the object A with the suction hand and moving the hand to a predetermined evacuation position. However, here, the robot retracts by holding the hand still while holding the object A. The predetermined evacuation position is a position where the position where the hand rests the object is clearly understood to be outside the field of view of the image input means 11, and is set as such. Position.
【0140】ステップST906では、物体退避後に再
び距離画像生成手段91によって積荷の距離画像が生成
され、ステップ907で、第二の距離画像格納手段92
bに格納する。図26(d)はこの実施の形態9.の第
二の距離画像を摸式的に表現したものである。この図で
は、最上段物体領域から、退避された物体Aに相当する
領域がかけている。In step ST906, the distance image generating means 91 generates a distance image of the cargo again after the object is evacuated, and in step 907, the second distance image storing means 92.
b. FIG. 26D shows the ninth embodiment. Is a schematic representation of the second distance image. In this figure, an area corresponding to the evacuated object A extends from the uppermost object area.
【0141】ステップST908では、距離画像比較手
段93により、第一の距離画像と第二の距離画像が比較
され、さらにその結果をもとに位置補正量計算手段95
により位置補正量を計算する。この実施の形態9.で
は、距離画像の比較として単純な差分を行う。第一の距
離画像から第二の距離画像を引くことで図26(e)が
検出される。この図は図26(c)一時退避した物体A
に相当する領域Bのみが2つの距離画像の差として残っ
たものである。ロボットによって把持され退避された物
体は一つだけであり、退避動作の前後では、距離画像に
おいて、退避された物体に相当する部分のみが差として
存在するのは当然である。距離画像の差分結果として領
域Bは物体一個に相当することがわかっているので、簡
単にその形状や重心位置を計算することができる。画像
上で明確に背景と分離された領域の重心や形状、向きを
計算する手法としては、例えば差分画像を2値化して領
域毎にラベリングを施した後各ラベル付けされた領域毎
に重心やモーメント最大方向を計算する従来からの一般
的に使用されている手法が適用できる。In step ST908, the distance image comparing means 93 compares the first distance image with the second distance image, and further based on the result, the position correction amount calculating means 95.
Is used to calculate the position correction amount. Embodiment 9 FIG. Then, a simple difference is performed as a comparison of the distance images. FIG. 26E is detected by subtracting the second distance image from the first distance image. FIG. 26 (c) shows the temporarily evacuated object A
Is the only area B corresponding to the difference between the two distance images. There is only one object that is held and evacuated by the robot, and it is natural that before and after the evacuation operation, only a portion corresponding to the evacuated object exists as a difference in the distance image. Since it is known that the region B corresponds to one object as a result of the difference between the distance images, the shape and the position of the center of gravity can be easily calculated. As a method of calculating the center of gravity, shape, and orientation of a region clearly separated from the background on the image, for example, binarizing the difference image, performing labeling for each region, and then calculating the center of gravity for each labeled region. Conventional and generally used methods for calculating the moment maximum direction can be applied.
【0142】図26(f)は、退避した物体の拡大図で
あるが、初期把持位置の他に、距離画像差分結果から得
られた新しく計算した把持位置が求まっており、上記重
心位置を新しく計算した把持位置としている。位置補正
量はこれら2つの把持位置の差として計算される。FIG. 26 (f) is an enlarged view of the retracted object. In addition to the initial gripping position, a newly calculated gripping position obtained from the distance image difference result has been obtained. It is the calculated gripping position. The position correction amount is calculated as the difference between these two gripping positions.
【0143】この時点において、ロボットはいまだ初期
把持位置を把持したままであるが、正しい把持位置すな
わち物体の重心位置との差は既に計算されている。した
がって、上記位置補正量データをロボットに送ることに
よりロボットはステップST909において、退避した
物体Aについて、ハンドが物体のどの位置を把持してい
るかを知ることになる。ゆえに、続くロボットによる移
動動作の際には、ロボットは上記補正量を考慮した移動
動作を行うことができる。これは、積荷の移動作業にお
いて、ロボットにとってはあたかも物体を最初に把持し
た時点で既に物体の重心位置即ち把持すべき位置を正確
に知っていたことに相当し、ロボットが物体の正確な把
持位置を把持して移動作業を実行することと同様の動作
を実現していたことになる。At this point, the robot still holds the initial holding position, but the difference from the correct holding position, that is, the position of the center of gravity of the object has already been calculated. Therefore, by sending the position correction amount data to the robot, in step ST909, the robot knows which position of the retracted object A the hand is holding in the object. Therefore, in the subsequent movement operation by the robot, the robot can perform the movement operation in consideration of the correction amount. This is equivalent to assuming that the robot already knew exactly the center of gravity of the object, that is, the position to be gripped when the object was gripped for the first time in the cargo transfer operation. Thus, the same operation as that of performing the moving operation while grasping is realized.
【0144】ステップST910で全ての物体を認識し
たかどうか判断し、もし認識したならステップST91
1に進んで処理を修了する。処理が未終了の場合は処理
が終了するまでステップST902から処理を繰り返
す。At step ST910, it is determined whether or not all objects have been recognized.
Go to 1 to complete the process. If the processing has not been completed, the processing is repeated from step ST902 until the processing is completed.
【0145】以上のように、この実施に形態9.は、第
一の距離画像から認識された初期把持位置を元に物体を
1個だけ画像外に退避させ、その後生成した第二の距離
画像との差となって現れる物体の形状や位置情報を元に
現在退避中の物体の正確な把持位置を計算し、ロボット
が物体を目的の位置まで移動する際に初期把持位置と正
確な把持位置との差を補正するというものである。As described above, the ninth embodiment is applied to this embodiment. Based on the initial gripping position recognized from the first distance image, retracts only one object out of the image, and then generates the shape and position information of the object that appears as a difference from the second distance image generated. The accurate grasping position of the currently retreating object is calculated based on the original, and the difference between the initial grasping position and the accurate grasping position is corrected when the robot moves the object to the target position.
【0146】また、この実施の形態9.では、初期把持
位置を求める手法として、第一の距離画像から最上段物
体領域のコーナ部をもとにコーナ点から一定のオフセッ
トをかけた位置として把持位置を決定したが、例えば距
離画像における最上段領域とそれ以外の領域を2値画像
とみなして2値テンプレートマッチング法を用いて把持
位置を決定してもよい。In the ninth embodiment. Then, as a method of obtaining the initial gripping position, the gripping position is determined as a position offset from the corner point by a certain offset based on the corner portion of the uppermost object region from the first distance image. The grip position may be determined using the binary template matching method with the upper region and other regions regarded as binary images.
【0147】なお、この実施の形態9.では、物体の一
時的退避として、ロボットハンドで初期把持位置を把持
して画像視野外にハンドで物体を把持したまま移動させ
る動作を行ったが、一旦所定の場所に物体を下ろしても
よい。下ろした後に再びハンドで物体を把持する際に初
期把持位置を把持できれば、この実施の形態9.と同様
の動作と考えることができる。In the ninth embodiment. In the above, the operation of holding the initial holding position with the robot hand and moving the object while holding the object with the hand outside the visual field was performed as the temporary evacuation of the object, but the object may be temporarily lowered to a predetermined place. If the initial gripping position can be gripped when gripping the object again with the hand after the lowering, this embodiment 9. Can be considered as the same operation as.
【0148】さらに、この実施の形態9.では退避動作
として、物体を把持したロボットハンドを所定の位置で
静止させる動作としたが、図25におけるステップST
906からST908までの処理を高速に実行すること
により、退避動作は継続的にハンドを移動する動作と兼
ねることもできる。即ち、物体の画像視野外に出し、移
動作業の目的たる移載場所近辺にロボットハンドを移動
している間に位置補正量計算を完了し、移載のためにロ
ボットが物体を所定の場所におく時点で位置補正量を加
味した動作を行っても同様の効果を有する。Further, in the ninth embodiment. In the evacuation operation, the robot hand holding the object is stopped at a predetermined position.
By executing the processing from 906 to ST908 at high speed, the retreat operation can also serve as the operation of continuously moving the hand. In other words, the robot moves out of the image field of view of the object, completes the position correction amount calculation while moving the robot hand to the vicinity of the transfer location as the target of the moving work, and the robot moves the object to a predetermined place for transfer. The same effect can be obtained even if an operation taking into account the position correction amount is performed at this time.
【0149】[0149]
【発明の効果】この発明の請求項1に係る画像処理装置
は、複数の物体の距離画像を生成する距離画像生成手段
と、距離画像から物体の最上段面領域を抽出する最上段
面領域抽出手段と、最上段面領域から物体を個々に分離
して抽出する最上段物体候補抽出手段と、認識対象物体
の寸法データをもとに物体の2次元画像上での2次元基
準パターンを生成する2次元基準パターン生成手段と、
カメラから入力された濃淡原画像を格納する濃淡原画像
格納手段と、個別に抽出された最上段物体候補について
2次元基準パターンと濃淡原画像の情報を用いて物体の
位置を検出する物体位置検出手段と、各手段で得られた
物体位置の検出結果と距離画像生成手段によって得られ
た個々の物体の距離情報とを統合する情報統合手段とを
備えたものとしたことにより、認識対象物体の画像入力
手段、距離画像生成手段が粗い精度のものですむことか
ら装置として小型、安価なものでよく、投光装置もシン
プルなものでよく、信頼性が向上する。According to the first aspect of the present invention, there is provided an image processing apparatus comprising: a distance image generating means for generating a distance image of a plurality of objects; and an uppermost surface region extraction for extracting an uppermost surface region of the object from the distance images. Means, an uppermost object candidate extracting means for individually extracting and extracting an object from the uppermost surface area, and generating a two-dimensional reference pattern on a two-dimensional image of the object based on the size data of the object to be recognized Two-dimensional reference pattern generation means;
Original gray-scale image storage means for storing the gray-scale original image input from the camera, and object position detection for detecting the position of the object using the information of the two-dimensional reference pattern and the gray-scale original image for the individually extracted top-level object candidate Means, and an information integrating means for integrating the detection result of the object position obtained by each means and the distance information of each object obtained by the distance image generating means, by Since the image input means and the distance image generating means only need to be of coarse accuracy, the apparatus may be small and inexpensive, and the light projecting apparatus may be simple, and the reliability is improved.
【0150】この発明の請求項2に係る物体移載装置
は、複数の物体の距離画像を生成する距離画像生成手段
と、距離画像から物体の最上段面領域を抽出する最上段
面領域抽出手段と、最上段面領域から物体を個々に分離
して抽出する最上段物体候補抽出手段と、認識対象物体
の寸法データをもとに物体の2次元画像上での2次元基
準パターンを生成する2次元基準パターン生成手段と、
カメラから入力された濃淡原画像を格納する濃淡原画像
格納手段と、個別に抽出された最上段物体候補について
2次元基準パターンと濃淡原画像の情報を用いて物体の
位置を検出する物体位置検出手段と、各手段で得られた
物体位置の検出結果と距離画像生成手段によって得られ
た個々の物体の距離情報とを統合する情報統合手段とを
備えた画像処理装置を物体移載装置に組み合わせたもの
であり、このようにしたことにより、物体移載装置とし
て、認識対象物体の画像入力手段、距離画像生成手段が
粗い精度のものですむことから装置として小型、安価な
ものでよく、投光装置もシンプルなものでよく、信頼性
の高い物体移載装置が得られる。The object transfer device according to a second aspect of the present invention is a distance image generating means for generating a distance image of a plurality of objects, and an uppermost surface area extracting means for extracting an uppermost surface area of the object from the distance images. And an uppermost-stage object candidate extracting means for individually separating and extracting objects from the uppermost-plane region, and generating a two-dimensional reference pattern on a two-dimensional image of the object based on the size data of the recognition target object. Dimensional reference pattern generation means;
Original gray-scale image storage means for storing the gray-scale original image input from the camera, and object position detection for detecting the position of the object using the information of the two-dimensional reference pattern and the gray-scale original image for the individually extracted top-level object candidate Combining an object processing device with an image processing apparatus comprising means and information integration means for integrating distance detection information of an individual object obtained by a distance image generation means and a detection result of an object position obtained by each means. In this way, the object transfer device needs only coarse and accurate image input means and range image generation means for the object to be recognized. The optical device may be simple, and a highly reliable object transfer device can be obtained.
【0151】この発明の請求項3に係る画像処理装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第二の画像入力手段が撮像した二つ
の画像間の対応付を行うステレオ画像ブロック対応付手
段とで構成したので、認識対象物体に対してランダムド
ットパターンが投光されるため、表面に図柄のない無地
の物体、あるいは表面に光が反射するラベルが貼ってあ
っても、表面各位値のにおける距離データを正確に得ら
れ、投光器の構成もシンプルで、小型で安価なものでよ
く信頼性が高くなる。An image processing apparatus according to a third aspect of the present invention is the image processing apparatus, wherein the distance image generating means projects a random texture pattern, the first image inputting means for inputting a stereo image, and the second image inputting means. And a stereo image block associating means for associating the two images captured by the first and second image input means, so that a random dot pattern is projected on the recognition target object. Because it is illuminated, even if it is a solid object with no pattern on the surface or a label that reflects light on the surface, distance data at each value of the surface can be accurately obtained, and the configuration of the projector is simple and compact Inexpensive ones and good reliability.
【0152】この発明の請求項4に係る物体移載装置
は、距離画像生成手段がランダムなテクスチャパターン
を投光するランダムテクスチャ投光手段と、ステレオ画
像を入力する第一の画像入力手段および第二の画像入力
手段と、第一および第二の画像入力手段が撮像した二つ
の画像間の対応付を行うステレオ画像ブロック対応付手
段で構成された画像処理装置を物体移載手段に組み合わ
せたものであり、このようにしたことにより、認識対象
物体に対してランダムドットパターンが投光されるた
め、表面に図柄のない無地の物体、あるいは表面に光が
反射するラベルが貼ってあっても、表面各位置が正確に
得られ、物体移載装置としての、物体の検出時間が短
く、物体の位置は正確に検出され、物体の移載は素早く
正確に行うことができ、投光器の構成も、小型、安価な
ものとなり、信頼性が向上する。According to a fourth aspect of the present invention, in the object transfer device, the distance image generating means projects random texture patterns, the first image inputting means for inputting a stereo image, and the second image inputting means. Combination of an object processing means with an image processing device composed of two image input means and a stereo image block associating means for associating two images captured by the first and second image input means. By doing so, since a random dot pattern is projected on the recognition target object, even if a solid object without a pattern on the surface, or even if a label reflecting light is affixed to the surface, Each position on the surface is obtained accurately, the object detection time as an object transfer device is short, the position of the object is accurately detected, the transfer of the object can be performed quickly and accurately, Configuration of the optical device is also small, it is inexpensive, the reliability is improved.
【0153】この発明の請求項5に係る画像処理装置
は、距離画像生成手段が、解像度の粗い距離画像を生成
する低解像度距離画像生成手段と、低解像度距離画像か
ら物体の段差領域部を抽出する段差領域抽出手段と、段
差領域に対して高い解像度の距離画像を生成する高解像
度距離画像生成手段と、低解像度距離画像と高解像度距
離画像の解像度の異なる2つの距離画像を合成する距離
画像合成手段とで構成されたものとしたので、少ない画
像メモリで、短い演算時間で、高解像度の距離画像が生
成され、物体候補の抽出精度も高くすることができる効
果がある。In the image processing apparatus according to a fifth aspect of the present invention, the distance image generating means extracts a stepped area portion of the object from the low resolution distance image, the low resolution distance image generating means generating a coarse distance image. Step area extracting means, high-resolution distance image generating means for generating a high-resolution distance image for the step area, and a distance image combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image Since it is configured with the synthesizing means, there is an effect that a high-resolution distance image can be generated with a small amount of image memory in a short calculation time, and the extraction accuracy of an object candidate can be increased.
【0154】この発明の請求項6に係る物体移載装置
は、距離画像生成手段が、解像度の粗い距離画像を生成
する低解像度距離画像生成手段と、低解像度距離画像か
ら物体の段差領域部を抽出する段差領域抽出手段と、段
差領域に対して高い解像度の距離画像を生成する高解像
度距離画像生成手段と、低解像度距離画像と高解像度距
離画像の解像度の異なる2つの距離画像を合成する距離
画像合成手段とで構成された画像処理装置を、物体移載
手段に組み合わせたものであり、短い演算時間で、高解
像度の距離画像が得られ、物体候補の抽出時間が短く、
抽出精度が高く、物体の位置は正確に検出され物体の移
載は素早く正確に行うことができる。According to a sixth aspect of the present invention, in the object transfer device, the distance image generating means includes a low-resolution distance image generating means for generating a coarse-resolution distance image, and a step area portion of the object from the low-resolution distance image. A stepped region extracting means for extracting, a high-resolution distance image generating means for generating a high-resolution distance image for the stepped region, and a distance for combining two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image An image processing apparatus configured with an image synthesizing unit is combined with an object transferring unit. In a short calculation time, a high-resolution range image is obtained, and an object candidate extraction time is short.
The extraction accuracy is high, the position of the object is accurately detected, and the transfer of the object can be performed quickly and accurately.
【0155】この発明の請求項7に係る画像処理装置
は、ブロック対応付手段が、左右の対応画像ブロックを
高速に探索する高速類似度計算手段と、探索結果である
ブロックの対に関して高信頼に類似度を計算する高信頼
類似度計算手段と、高信頼類似度が一定しきい値以下で
あれば対応ブロック無しと判定する対応ブロック信頼度
判定手段とで構成されたもので、距離画像を生成するよ
うにしたので、高速度で高精度の距離画像が得られ、画
像対応づけの信頼性が高くなり、装置全体の信頼性が高
くなる。According to a seventh aspect of the present invention, in the image processing apparatus, the block associating means includes a high-speed similarity calculating means for quickly searching the left and right corresponding image blocks, and a block of the search result block with high reliability. A distance image is generated by a high-reliability similarity calculation means for calculating the similarity, and a corresponding-block reliability determination means for determining that there is no corresponding block if the high-reliability similarity is equal to or less than a certain threshold value. As a result, a high-accuracy distance image is obtained at a high speed, the reliability of image association is increased, and the reliability of the entire apparatus is increased.
【0156】この発明の請求項8に係る物体移載装置
は、ブロック対応付手段が、左右の対応画像ブロックを
高速に探索する高速類似度計算手段と、探索結果である
ブロックのペアに関して高信頼に類似度を計算する高信
頼類似度計算手段と、高信頼類似度が一定しきい値以下
であれば対応ブロック無しと判定する対応ブロック信頼
度判定手段とで構成された画像処理装置を、物体移載手
段に組み合わせたものであり、高速度で高精度の距離画
像が得られるようにしたので、物体候補の抽出時間が短
く、抽出精度が高く、画像対応づけの信頼性が高くな
り、物体の位置は正確に検出され物体の移載は素早く正
確に行うことができる。According to an eighth aspect of the present invention, in the object transfer apparatus, the block associating means includes a high-speed similarity calculating means for quickly searching the left and right corresponding image blocks, and a highly reliable pair of the search result blocks. An image processing apparatus comprising: a high-reliability similarity calculating means for calculating a similarity, and a corresponding-block reliability determining means for determining that there is no corresponding block if the high-reliability similarity is equal to or less than a predetermined threshold value, Combined with the transfer means, it is possible to obtain high-accuracy distance images at high speed, so the extraction time of object candidates is short, the extraction accuracy is high, the reliability of image association is high, and Is accurately detected, and the transfer of the object can be performed quickly and accurately.
【0157】この発明の請求項9に係る画像処理装置
は、3つ以上の画像入力手段を有し、ブロック対応付手
段が、3つ以上の画像入力手段から得られるそれぞれの
画像の内2つの画像を選択した画像ペアを2種類以上選
択し、ブロック対応付を行ない、それぞれの対応付探索
結果を統合して距離画像を生成するようにしたので、ス
テレオ画像の対の欠落ブロックが生じてもステレオ画像
の組合せを換えて補完されるので情報の欠落が防止され
精度の高い距離画像が得られる効果がある。An image processing apparatus according to a ninth aspect of the present invention has three or more image input means, and the block associating means has two of the respective images obtained from the three or more image input means. Since two or more types of image pairs from which images have been selected are selected, block correspondence is performed, and a search result of each correspondence is integrated to generate a distance image. Therefore, even if a missing block of a pair of stereo images occurs. Since complementation is performed by changing the combination of stereo images, loss of information is prevented, and there is an effect that a highly accurate range image can be obtained.
【0158】この発明の請求項10に係る物体移載装置
は、3つ以上の画像入力手段を有し、ブロック対応付手
段が上記3つ以上の画像入力手段から得られるそれぞれ
の画像の内2つの画像を選択した画像ペアを2種類以上
選択し、ブロック対応付を行ない、それぞれの対応付探
索結果を統合して距離画像を生成する画像処理装置を物
体移載手段に組み合わせたものとしたので、物体の位置
が精度よく検出され、移載は正確に行うことができる。An object transfer device according to a tenth aspect of the present invention has three or more image input means, and the block associating means is two out of each of the images obtained from the three or more image input means. Since two or more types of image pairs in which one image is selected are selected, block association is performed, and an image processing apparatus that generates a distance image by integrating search results of each association is combined with the object transfer means. In addition, the position of the object is accurately detected, and the transfer can be performed accurately.
【0159】この発明の請求項11に係る画像処理装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行ない、
この認識した画像と距離画像生成手段によって得られた
個々の物体の距離情報とを統合する情報統合手段とを備
えたものとし、距離画像から抽出された最上段面領域に
対して、対象物体の配置仮説から複数の候補物体の位置
を検出するので、移載手段への情報伝達は1回でよく、
通信時間が短く、予めきめられた積載方法による場合
は、まちがって積載していることも検出でき、さらに、
最上段物体のどれから把持するかを決定することもでき
る。An image processing apparatus according to an eleventh aspect of the present invention provides a distance image generating means for generating a distance image of a plurality of loaded objects, and extracts an uppermost surface area of the uppermost object from the distance image. A top-level surface region extracting unit, a plurality of object candidate combination hypothesis generating units that enumerate and generate a plurality of combinations of object candidates from the output of the top-level surface region extracting unit, and an object size database storing size data of the recognition target object A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using the information included in the two-dimensional reference pattern and the grayscale original image; Recognize based on hypotheses,
Information integrating means for integrating the recognized image with the distance information of each object obtained by the distance image generating means, and the uppermost surface area extracted from the distance image, Since the positions of a plurality of candidate objects are detected from the arrangement hypothesis, the information need only be transmitted once to the transfer means.
If the communication time is short and the loading method is determined in advance, it is possible to detect that the loading is incorrect,
It is also possible to determine from which of the topmost objects to grasp.
【0160】この発明の請求項12に係る物体移載装置
は、積載された複数の物体の距離画像を生成する距離画
像生成手段と、距離画像から最上段に位置する物体の最
上段面領域を抽出する最上段面領域抽出手段と、最上段
面領域抽出手段の出力から物体候補の組合せを仮説とし
て複数列挙生成する物体候補組合せ仮説生成手段と、認
識対象物体の寸法データを格納する物体寸法データベー
スと、2次元基準パターンと濃淡原画像に含まれる情報
を使って上記仮説生成手段が生成した物体候補組合せ仮
説の妥当性を検証する仮説妥当性検証手段と、複数の仮
説のうち最も評価値の高い仮説をもとに認識を行ない、
この認識した画像と距離画像生成手段によって得られた
個々の物体の距離情報とを統合する情報統合手段とを備
え、個々の対象物体の三次元位置情報を出力する画像処
理装置と物体移載手段と組み合わせ、距離画像から抽出
された最上段面領域に対して、対象物体の配置仮説から
複数の候補物体の位置を検出するので、移載手段への情
報伝達は1回でよく、通信時間が短く、予めきめられた
積載方法による場合は、まちがって積載していることも
検出でき、さらに、最上段物体のどれから把持するかを
決定することもできる。According to a twelfth aspect of the present invention, there is provided an object transfer device, comprising: a distance image generating means for generating a distance image of a plurality of stacked objects; An uppermost plane area extracting means for extracting, an object candidate combination hypothesis generating means for generating a plurality of combinations of object candidates as hypotheses from the output of the uppermost plane area extracting means, and an object size database for storing dimension data of the recognition target object A hypothesis validity verification unit that verifies the validity of the object candidate combination hypothesis generated by the hypothesis generation unit using information included in the two-dimensional reference pattern and the grayscale original image; Recognize based on high hypotheses,
An image processing device for outputting three-dimensional position information of an individual target object, comprising: an information integration unit for integrating the recognized image and distance information of each object obtained by the distance image generation unit; and an object transfer unit And the position of a plurality of candidate objects is detected from the arrangement hypothesis of the target object in the uppermost surface area extracted from the distance image. In the case of a short and predetermined loading method, it is possible to detect that a wrong loading is being performed, and it is also possible to determine which one of the uppermost objects is to be gripped.
【0161】この発明の請求項13に係る画像処理装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、基準データと比較して正しい配列かどうか
を判定する物体配列判定手段と、認識した画像が基準デ
ータに整合しないときに判定の結果を作業者に警告する
警告発生手段を有するものとしたので、認識物体の積み
パターンが基準となる積みパターンになっていない場合
に装置使用者や上位システムの管理者に正しく積まれて
いないことを警告し危険な状態を回避することができ
る。An image processing apparatus according to a thirteenth aspect of the present invention provides an object array reference database for storing data serving as a reference for an object array, and a hypothesis validity for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement determining unit that compares the image recognized by the sex verification unit with the reference data to determine whether the arrangement is correct, and a warning that warns the operator of a determination result when the recognized image does not match the reference data Since the means is provided, if the stacking pattern of the recognized object is not the standard stacking pattern, a warning is issued to the user of the device or the manager of the host system to prevent the stacking from being performed correctly, thereby avoiding a dangerous state. be able to.
【0162】この発明の請求項14に係る物体移載装置
は、物体配列の基準となるデータを格納する物体配列基
準データベースと、仮説生成手段が生成した物体候補組
合せ仮説の妥当性を検証する仮説妥当性検証手段が認識
した画像と、上記基準データと比較して正しい配列かど
うかを判定する物体配列判定手段と、認識した画像が基
準データに整合しないときに判定の結果を作業者に警告
する警告発生手段を有する画像処理装置と移載手段とを
組み合わせたものとしたので、認識物体の積みパターン
が基準となる積みパターンになっていない場合に装置使
用者や上位システムの管理者に正しく積まれていないこ
とを警告し危険な状態を回避することができる。An object transfer device according to a fourteenth aspect of the present invention provides an object array reference database for storing data serving as an object array reference, and a hypothesis for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation means. An object arrangement determining unit for comparing the image recognized by the validity verification unit with the reference data to determine whether or not the arrangement is correct; and warning an operator of a determination result when the recognized image does not match the reference data. Since the image processing apparatus having the warning generating means and the transfer means are combined, if the stacking pattern of the recognition object is not the standard stacking pattern, the stacking pattern can be correctly stacked with the apparatus user or the manager of the host system. It warns that it is not rare and avoids dangerous situations.
【0163】この発明の請求項15に係る画像処理装置
は、物体配列の基準となるデータを格納する物体寸法デ
ータベースから自動的に生成される人工基準パターンを
用い、対象となる物体の位置を検出して、検出位置にお
いて前記対象物体に相当する画像領域を切り出す実画像
基準パターン切り出し手段と、切り出された実画像基準
パターンを格納する実画像基準パターン格納手段とを有
し、以降の認識動作においては前記実画像基準パターン
を利用するように動作するように構成したものであり、
画像メモリは小さな容量のものでよく、画像入力時間が
短くなり、2回目以降の物体がより早く正確に検出でき
る。An image processing apparatus according to a fifteenth aspect of the present invention detects the position of a target object by using an artificial reference pattern automatically generated from an object size database storing data serving as a reference of an object arrangement. And a real image reference pattern cutout unit that cuts out an image area corresponding to the target object at the detection position, and a real image reference pattern storage unit that stores the cut out real image reference pattern. Is configured to operate to use the actual image reference pattern,
The image memory may have a small capacity, the image input time is short, and the second and subsequent objects can be quickly and accurately detected.
【0164】この発明の請求項16に係る物体移載装置
は、物体配列の基準となるデータを格納する物体寸法デ
ータベースから自動的に生成される人工基準パターンを
用い、対象となる物体の位置を検出して、検出位置にお
いて対象物体に相当する画像領域を切り出す実画像基準
パターン切り出し手段と、切り出された実画像基準パタ
ーンを格納する実画像基準パターン格納手段とを有し、
以降の認識動作においては実画像基準パターンを利用す
るように動作するように構成した画像処理装置と移載手
段を組み合わせたものとしたので、画像入力時間が短く
物体が正確に検出刺移載することができる物体移載装置
となる。The object transfer device according to claim 16 of the present invention uses an artificial reference pattern automatically generated from an object size database storing data serving as a reference of an object arrangement, and determines the position of the target object. Detected and has a real image reference pattern cutout means for cutting out an image area corresponding to the target object at the detection position, and a real image reference pattern storage means for storing the cut out real image reference pattern,
In the subsequent recognition operation, the image processing apparatus configured to operate so as to use the real image reference pattern and the transfer means are combined, so that the image input time is short and the object is accurately detected and transferred. The object transfer device can be used.
【0165】この発明の請求項17に係る画像処理装置
は、段積みされた複数の対象物体の距離画像を生成する
距離画像生成手段と、生成された距離画像を格納する第
一の距離画像格納手段と、この第一の距離画像生成手段
に格納された距離画像の情報をもとに、物体の把時位置
を計算する初期把時位置計算手段と、一時的に物体を所
定の位置に退避させた後に、残りの積荷の距離画像を格
納する第二の距離画像格納手段と、第一の距離画像格納
手段に格納された距離画像と、第二の距離画像格納手段
に格納された距離画像とを比較する距離画像比較手段
と、この距離画像比較手段の比較結果を基に退避した物
体の把持位置を決定し、この把持位置と初期把持位置と
の差を位置補正値として検出する位置補正量検出手段と
を有するものとしたので、距離画像のみで物体の位置認
識が可能であり、濃淡やエッジ画像が使いにくい物体に
対しても適用でき処理時間も短くなる。According to a seventeenth aspect of the present invention, there is provided an image processing apparatus, comprising: a distance image generating means for generating distance images of a plurality of stacked target objects; and a first distance image storage for storing the generated distance images. Means, initial grasping position calculating means for calculating the grasping position of the object based on information of the distance image stored in the first distance image generating means, and temporarily retracting the object to a predetermined position. After that, the second distance image storage means for storing the distance image of the remaining cargo, the distance image stored in the first distance image storage means, and the distance image stored in the second distance image storage means And a position correction unit that determines a gripping position of the evacuated object based on a comparison result of the distance image comparing unit, and detects a difference between the gripping position and an initial gripping position as a position correction value. And quantity detecting means. In the distance image can only be the position recognition of the object, even shorter be applied to process time for difficult objects to use the shading or edge image.
【0166】この発明の請求項18に係る物体移載装置
は、段積みされた複数の対象物体の画像入力手段からの
距離分布を計測する距離画像生成手段と、生成された距
離画像を格納する第一の距離画像格納手段と、物体を把
持し移動する物体移動手段と、上記距離画像の情報をも
とにして物体の把時位置を計算する初期把時位置計算手
段と、物体移載手段によって物体を把持位置で把持し、
一時的に所定の位置に対比させた後に残りの積荷の距離
画像を格納する第二の距離画像格納手段と、第一の距離
画像格納手段に格納された距離画像と、第二の距離画像
格納手段に格納された距離画像を比較する距離画像比較
手段と、距離画像の比較結果を使用して退避した物体の
把持位置を決定し初期把持位置との差を位置補正値とし
て検出する位置補正量検出手段とを有する画像処理装置
と物体を把持し移載する物体移載手段とを組み合わせた
ものであり、距離画像のみで物体の位置認識ができ、濃
淡やエッジ画像が使いにくい物体に対しても正確に認識
して安全に適正位置に移載できる物体移載装置となる。An object transfer device according to claim 18 of the present invention stores a distance image generating means for measuring a distance distribution of a plurality of stacked target objects from an image input means, and stores the generated distance image. First distance image storage means, object moving means for gripping and moving an object, initial holding position calculating means for calculating the holding position of the object based on the information of the distance image, object transferring means Grips the object at the gripping position,
A second distance image storage unit for temporarily storing a distance image of the remaining cargo after being compared with a predetermined position, a distance image stored in the first distance image storage unit, and a second distance image storage A distance image comparison means for comparing the distance images stored in the means, and a position correction amount for determining a gripping position of the retracted object using the comparison result of the distance images and detecting a difference from the initial gripping position as a position correction value It is a combination of an image processing device having a detecting means and an object transferring means for gripping and transferring an object. The object transfer device can also accurately recognize the object and safely transfer it to an appropriate position.
【図1】 この発明の実施の形態1.の構成を示すブロ
ック図である。FIG. 1 shows a first embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図2】 実施の形態1.の動作の流れを示すフローチ
ャートである。FIG. 2 is a first embodiment. 5 is a flowchart showing a flow of the operation of FIG.
【図3】 実施の形態1.における各段階において生成
された画像である。FIG. 3 is a first embodiment. Is an image generated at each stage in.
【図4】 この発明の実施の形態2.の構成を示すブロ
ック図である。FIG. 4 is a second embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図5】 実施の形態2.の動作の流れを示すフローチ
ャートである。FIG. 5 shows a second embodiment. 5 is a flowchart showing a flow of the operation of FIG.
【図6】 ランダムドットパターンの照射説明図であ
る。FIG. 6 is an explanatory diagram of irradiation of a random dot pattern.
【図7】 ステレオ画像のブロックマッチングの説明図
である。FIG. 7 is an explanatory diagram of block matching of a stereo image.
【図8】 この発明の実施の形態3.の構成を示すブロ
ック図である。FIG. 8 shows a third embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図9】 実施の形態3.の動作の流れを示すフローチ
ャートである。FIG. 9 shows a third embodiment. 5 is a flowchart showing a flow of the operation of FIG.
【図10】 低解像度距離画像から段差領域部を抽出
し、高解像度距離画像の段差領域部をのみ高解像度のス
テレオ対応を行う状況の説明図である。FIG. 10 is an explanatory diagram of a situation where a step region portion is extracted from a low-resolution distance image, and high-resolution stereo correspondence is performed only in the step region portion of a high-resolution distance image.
【図11】 この発明の実施の形態4.の構成を示すブ
ロック図である。FIG. 11 shows a fourth embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図12】 実施の形態4.の動作の流れを示すフロー
チャートである。FIG. 12 shows a fourth embodiment. 5 is a flowchart showing a flow of the operation of FIG.
【図13】 この発明の実施の形態5.の構成を示すブ
ロック図である。FIG. 13 is a fifth embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図14】 実施の形態5.の動作の流れを示すフロー
チャートである。FIG. 5 is a flowchart showing a flow of the operation of FIG.
【図15】 ステレオブロック対応付動作のフローチャ
ートである。FIG. 15 is a flowchart of a stereo block association operation.
【図16】 ステレオ画像のステレオ対応付の様子を模
式的に示す図である。FIG. 16 is a diagram schematically showing how stereo images are associated with stereo.
【図17】 この発明の実施の形態6.の構成を示すブ
ロック図である。FIG. 17 is a view showing a sixth embodiment of the present invention; FIG. 3 is a block diagram showing the configuration of FIG.
【図18】 実施の形態6.の動作の流れを示すフロー
チャートである。FIG. 5 is a flowchart showing a flow of the operation of FIG.
【図19】 物体候補仮説を用いて物体候補を抽出する
動作状況の各段階をを示す図である。FIG. 19 is a diagram showing each stage of an operation state of extracting an object candidate using the object candidate hypothesis.
【図20】 この発明の実施の形態7.の構成を示すブ
ロック図である。FIG. 20 shows a seventh embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図21】 実施の形態7.の動作の流れを示すフロー
チャートである。21. Embodiment 7 FIG. 5 is a flowchart showing a flow of the operation of FIG.
【図22】 この発明の実施の形態8.の構成を示すブ
ロック図である。FIG. 22. Embodiment 8 of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図23】 実施の形態8.の動作の流れを示すフロー
チャートである。23. Embodiment 8 FIG. 5 is a flowchart showing a flow of the operation of FIG.
【図24】 この発明の実施の形態9.の構成を示すブ
ロック図である。FIG. 24 is a ninth embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of FIG.
【図25】 実施の形態9.の動作の流れを示すフロー
チャートである。25. Embodiment 9 FIG. 5 is a flowchart showing a flow of the operation of FIG.
【図26】 初期把持位置を補正する動作の各段階を示
す図である。FIG. 26 is a diagram showing each stage of an operation of correcting an initial grip position.
【図27】 従来の画像処理装置の処理手順を示す説明
図である。FIG. 27 is an explanatory diagram showing a processing procedure of a conventional image processing apparatus.
【図28】 図27に示す処理の動作のフローチャート
である。FIG. 28 is a flowchart of the operation of the process shown in FIG. 27.
【図29】 パターン光を用いた空間コード化の原理を
示す図である。FIG. 29 is a diagram illustrating the principle of spatial coding using pattern light.
【図30】 他の従来例の距離画像計測システムの説明
図である。FIG. 30 is an explanatory diagram of another conventional distance image measurement system.
【図31】 従来の別の画像処理のステレオ対応探索装
置の説明図である。FIG. 31 is an explanatory diagram of another conventional stereo correspondence search device for image processing.
【図32】 従来の別の画像処理図30のフローチャー
トである。FIG. 32 is a flowchart of another conventional image processing shown in FIG. 30;
11 画像入力手段、12 距離画像生成手段、13
最上段面領域抽出手段、14 最上段物体候補抽出手
段、15 濃淡原画像格納手段、16 物体寸法データ
ベース、17 2次元基準パターン生成手段、18 物
体位置検出手段、19 情報統合手段、20 ランダム
テクスチャパターン投光手段、21 画像入力手段、2
2 ステレオ画像ブロック対応付手段、30 パターン
投光器、31 低解像度ブロック対応付手段、32 段
差領域抽出手段、33 高解像度ブロック対応付手段、
34 距離画像合成手段、41a 第一の画像格納手
段、41b 第二の画像格納手段、42 高速類似度計
算手段、43 高信頼類似度計算手段、44 対応ブロ
ック信頼度判定手段、45 距離画像格納手段、51a
第一の画像入力手段、51b 第二の画像入力手段、
51c 第三の画像入力手段、52 ステレオ画像ブロ
ック対応付手段、64 物体候補組合せ仮説生成手段、
65 仮説妥当性検証手段、69 物体位置検出手段、
71 物体配列基準データベース、72 物体配列判定
手段、73 警告発生手段、81 人工基準パターン生
成手段、82 実画像基準パターン切り出し手段、83
実画像基準パターン格納手段、88 物体位置検出手
段、91 距離画像生成手段、92a 第一の距離画像
格納手段、92b 第二の距離画像格納手段、93 距
離画像比較手段、94 初期把持位置計算手段、95
位置補正量計算手段、96 物体移動手段。11 image input means, 12 distance image generation means, 13
Top-level surface area extraction means, 14 Top-level object candidate extraction means, 15 density original image storage means, 16 object size database, 17 two-dimensional reference pattern generation means, 18 object position detection means, 19 information integration means, 20 random texture pattern Light emitting means, 21 Image input means, 2
2 stereo image block correspondence means, 30 pattern projectors, 31 low resolution block correspondence means, 32 step area extraction means, 33 high resolution block correspondence means,
34 distance image synthesis means, 41a first image storage means, 41b second image storage means, 42 high-speed similarity calculation means, 43 high reliability similarity calculation means, 44 corresponding block reliability determination means, 45 distance image storage means , 51a
First image input means, 51b second image input means,
51c third image input means, 52 stereo image block associating means, 64 object candidate combination hypothesis generating means,
65 hypothesis validity verification means, 69 object position detection means,
71 object arrangement reference database, 72 object arrangement determination means, 73 warning generation means, 81 artificial reference pattern generation means, 82 real image reference pattern cutout means, 83
Actual image reference pattern storage means, 88 object position detection means, 91 distance image generation means, 92a first distance image storage means, 92b second distance image storage means, 93 distance image comparison means, 94 initial grip position calculation means, 95
Position correction amount calculating means, 96 Object moving means.
Claims (18)
する距離画像生成手段と、距離画像から最上段に位置す
る物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域から物体を個々に分離して抽出する最
上段物体候補抽出手段と、認識対象物体の寸法データを
格納する物体寸法データベースと、物体の寸法データを
もとに物体の2次元画像上での標準的パターン画像を生
成する2次元基準パターン生成手段と、カメラから入力
された濃淡原画像を格納する濃淡原画像格納手段と、上
記個別に抽出された最上段物体候補について、上記2次
元基準パターンと上記濃淡原画像の情報を用いて物体の
位置を検出する物体位置検出手段と、上記各手段で得ら
れた物体位置の検出結果と距離画像生成手段によって得
られた個々の物体の距離情報とを統合する情報統合手段
とを備え、個々の対象物体の三次元位置情報を出力する
画像処理装置。1. A distance image generating means for generating a distance image of a plurality of stacked objects, an uppermost surface area extracting means for extracting an uppermost surface area of an uppermost object from the distance image, An uppermost-stage object candidate extracting means for individually separating and extracting an object from the surface region, an object size database for storing size data of the recognition target object, and a two-dimensional image of the object based on the size data of the object. A two-dimensional reference pattern generating means for generating a standard pattern image, a gray-scale original image storage means for storing a gray-scale original image input from a camera, and the two-dimensional reference pattern for the individually extracted top-level object candidate And object position detecting means for detecting the position of the object using the information of the grayscale original image, and the detection result of the object position obtained by each of the above means and the individual object obtained by the distance image generating means. An image processing apparatus comprising: information integration means for integrating distance information; and outputting three-dimensional position information of each target object.
する距離画像生成手段と、距離画像から最上段に位置す
る物体の最上段面領域を抽出する最上段面領域抽出手段
と、最上段面領域から物体を個々に分離して抽出する最
上段物体候補抽出手段と、認識対象物体の寸法データを
格納する物体寸法データベースと、物体の寸法データを
もとに物体の2次元画像上での標準的パターン画像を生
成する2次元基準パターン生成手段と、カメラから入力
された濃淡原画像を格納する濃淡原画像格納手段と、上
記個別に抽出された最上段物体候補について2次元基準
パターンと濃淡原画像の情報を用いて物体の位置を検出
する物体位置検出手段と、上記物体の検出結果と距離画
像生成手段によって得られた個々の物体の距離情報とを
統合する情報統合手段とを備え、個々の対象物体の三次
元位置情報を出力する画像処理装置および物体を把持し
移載する物体移載手段とを備え、上記画像処理装置の出
力信号に基づいて物体を移載する物体移載装置。2. A distance image generating means for generating a distance image of a plurality of stacked objects, an uppermost surface area extracting means for extracting an uppermost surface area of an uppermost object from the distance image, An uppermost-stage object candidate extracting means for individually separating and extracting an object from the surface region, an object size database for storing size data of the recognition target object, and a two-dimensional image of the object based on the size data of the object. A two-dimensional reference pattern generation means for generating a standard pattern image, a gray-scale original image storage means for storing a gray-scale original image input from a camera, and a two-dimensional reference pattern and gray-scale An object position detecting means for detecting the position of the object by using information of the original image; and an information integration means for integrating the detection result of the object and the distance information of each object obtained by the distance image generating means. And an image processing apparatus for outputting three-dimensional position information of each target object, and an object transfer means for gripping and transferring the object, and transferring the object based on an output signal of the image processing apparatus. Object transfer device.
チャパターンを投光するランダムテクスチャ投光手段
と、ステレオ画像を入力する第一の画像入力手段および
第二の画像入力手段と、上記第一および第二の画像入力
手段が撮像した二つの画像間の対応付を行うステレオ画
像ブロック対応付手段とで構成されていることを特徴と
する請求項1記載の画像処理装置。3. The distance image generating unit includes: a random texture projecting unit that projects a random texture pattern; a first image input unit and a second image input unit that input a stereo image; 2. The image processing apparatus according to claim 1, further comprising stereo image block associating means for associating the two images captured by the second image input means.
チャパターンを投光するランダムテクスチャ投光手段
と、ステレオ画像を入力する第一の画像入力手段および
第二の画像入力手段と、上記第一および第二の画像入力
手段が撮像した二つの画像間の対応付を行うステレオ画
像ブロック対応付手段で構成された画像処理装置と物体
を把持し移載する物体移載手段とを備え、上記画像処理
装置の出力信号に基づいて物体を移載する請求項2記載
の物体移載装置。4. A distance image generating means, comprising: a random texture light projecting means for projecting a random texture pattern; a first image input means and a second image input means for inputting a stereo image; An image processing apparatus comprising stereo image block association means for associating the two images captured by the second image input means, and an object transfer means for gripping and transferring an object; 3. The object transfer device according to claim 2, wherein the object is transferred based on an output signal of the device.
画像を生成する低解像度距離画像生成手段と、低解像度
距離画像から物体の段差領域部を抽出する段差領域抽出
手段と、段差領域に対して高い解像度の距離画像を生成
する高解像度距離画像生成手段と、上記低解像度距離画
像と高解像度距離画像の解像度の異なる2つの距離画像
を合成する距離画像合成手段とで構成されていることを
特徴とする請求項1記載の画像処理装置。5. A distance image generating means, comprising: a low resolution distance image generating means for generating a coarse resolution distance image; a step area extracting means for extracting a step area portion of an object from the low resolution distance image; And a distance image synthesizing unit for synthesizing two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image. The image processing apparatus according to claim 1, wherein:
画像を生成する低解像度距離画像生成手段と、低解像度
距離画像から物体の段差領域部を抽出する段差領域抽出
手段と、段差領域に対して高い解像度の距離画像を生成
する高解像度距離画像生成手段と、上記低解像度距離画
像と高解像度距離画像の解像度の異なる2つの距離画像
を合成する距離画像合成手段で構成された画像処理装置
と物体を把持し移載する物体移載手段とを備え、上記画
像処理装置の出力信号に基づいて物体を移載する請求項
2記載の物体移載装置。6. A distance image generating means, comprising: a low-resolution distance image generating means for generating a coarse-resolution distance image; a step area extracting means for extracting a step area portion of an object from the low-resolution distance image; A high-resolution distance image generating means for generating a high-resolution distance image, and an image processing apparatus comprising distance image synthesizing means for synthesizing two distance images having different resolutions of the low-resolution distance image and the high-resolution distance image. 3. The object transfer device according to claim 2, further comprising an object transfer means for holding and transferring the object, and transferring the object based on an output signal of the image processing device.
ブロックを高速に探索する高速類似度計算手段と、探索
結果であるブロックのペアに関して高信頼に類似度を計
算する高信頼類似度計算手段と、上記高信頼類似度が一
定しきい値以下であれば対応ブロック無しと判定する対
応ブロック信頼度判定手段とで構成された請求項2記載
の画像処理装置。7. A high-speed similarity calculating means for quickly searching left and right corresponding image blocks, and a high-reliability similarity calculating means for calculating a similarity with respect to a pair of blocks as search results with high reliability. 3. The image processing apparatus according to claim 2, comprising: a corresponding block reliability determining unit that determines that there is no corresponding block if the high reliability similarity is equal to or smaller than a predetermined threshold.
ブロックを高速に探索する高速類似度計算手段と、探索
結果であるブロックのペアに関して高信頼に類似度を計
算する高信頼類似度計算手段と、上記高信頼類似度が一
定しきい値以下であれば対応ブロック無しと判定する対
応ブロック信頼度判定手段とで構成された画像処理装置
と物体を把持し移載する物体移載手段とを備え、上記画
像処理装置の出力信号に基づいて物体を移載する請求項
4記載の物体移載装置。8. A high-speed similarity calculating means for quickly searching for left and right corresponding image blocks, and a high-reliability similarity calculating means for calculating a similarity with respect to a pair of blocks as a search result. And an image processing apparatus configured with a corresponding block reliability determination unit that determines that there is no corresponding block if the high reliability similarity is equal to or less than a certain threshold, and an object transfer unit that holds and transfers an object. 5. The object transfer device according to claim 4, further comprising: transferring an object based on an output signal of the image processing device.
ク対応付手段が上記3つ以上の画像入力手段から得られ
るそれぞれの画像の内2つの画像を選択した画像ペアを
2種類以上選択し、ブロック対応付を行ない、それぞれ
の対応付探索結果を統合して距離画像を生成することを
特徴とする請求項1または請求項3記載の画像処理装
置。9. An image processing apparatus comprising: three or more image input means, wherein the block association means selects two or more image pairs in which two images are selected from the respective images obtained from the three or more image input means. The image processing apparatus according to claim 1, wherein block association is performed, and a distance image is generated by integrating respective association search results.
ック対応付手段が上記3つ以上の画像入力手段から得ら
れるそれぞれの画像の内2つの画像を選択した画像ペア
を2種類以上選択し、ブロック対応付を行ない、それぞ
れの対応付探索結果を統合して距離画像を生成する画像
処理装置と物体を把持し移載する物体移載手段とを備
え、上記画像処理装置の出力信号に基づいて物体を移載
する請求項2または請求項4記載の物体移載装置。10. An image processing apparatus comprising three or more image input means, wherein the block association means selects two or more image pairs in which two images are selected from the respective images obtained from the three or more image input means. An image processing apparatus that performs block association, integrates each association search result, and generates a distance image, and an object transfer unit that grips and transfers an object, and includes an output signal of the image processing apparatus. The object transfer device according to claim 2, wherein the object is transferred based on the information.
成する距離画像生成手段と、距離画像から最上段に位置
する物体の最上段面領域を抽出する最上段面領域抽出手
段と、最上段面領域抽出手段の出力から物体候補の組合
せを仮説として複数列挙生成する物体候補組合せ仮説生
成手段と、認識対象物体の寸法データを格納する物体寸
法データベースと、2次元基準パターンと濃淡原画像に
含まれる情報を使って上記仮説生成手段が生成した物体
候補組合せ仮説の妥当性を検証する仮説妥当性検証手段
と、複数の仮説のうち最も評価値の高い仮説をもとに認
識を行ない、この認識した画像と距離画像生成手段によ
って得られた個々の物体の距離情報とを統合する情報統
合手段とを備え、個々の対象物体の三次元位置情報を出
力する画像処理装置。11. A distance image generating means for generating a distance image of a plurality of loaded objects, an uppermost surface area extracting means for extracting an uppermost surface area of an uppermost object from the distance image, Object candidate combination hypothesis generation means for generating a plurality of combinations of object candidates as hypotheses from the output of the plane area extraction means, an object size database storing dimension data of the recognition target object, and included in the two-dimensional reference pattern and the grayscale original image Hypothesis validity verification means for verifying the validity of the object candidate combination hypothesis generated by the above-mentioned hypothesis generation means using the hypothesis generation means, and performing recognition based on the hypothesis having the highest evaluation value among a plurality of hypotheses. Processing apparatus for outputting three-dimensional position information of an individual target object, comprising information integrating means for integrating the obtained image and the distance information of the individual object obtained by the distance image generating means .
成する距離画像生成手段と、距離画像から最上段に位置
する物体の最上段面領域を抽出する最上段面領域抽出手
段と、最上段面領域抽出手段の出力から物体候補の組合
せを仮説として複数列挙生成する物体候補組合せ仮説生
成手段と、認識対象物体の寸法データを格納する物体寸
法データベースと、2次元基準パターンと濃淡原画像に
含まれる情報を使って上記仮説生成手段が生成した物体
候補組合せ仮説の妥当性を検証する仮説妥当性検証手段
と、複数の仮説のうち最も評価値の高い仮説をもとに認
識を行ない、この認識した画像と距離画像生成手段によ
って得られた個々の物体の距離情報とを統合する情報統
合手段を備え、個々の対象物体の三次元位置情報を出力
する画像処理装置と物体を把持し移載する移載手段を備
え、上記画像処理装置の出力信号に基づいて物体を移載
する物体移載装置。12. A distance image generating means for generating a distance image of a plurality of loaded objects, an uppermost surface area extracting means for extracting an uppermost surface area of an object located at an uppermost position from the distance image, Object candidate combination hypothesis generation means for generating a plurality of combinations of object candidates as hypotheses from the output of the plane area extraction means, an object size database storing dimension data of the recognition target object, and included in the two-dimensional reference pattern and the grayscale original image Hypothesis validity verification means for verifying the validity of the object candidate combination hypothesis generated by the above-mentioned hypothesis generation means using the hypothesis generation means, and performing recognition based on the hypothesis having the highest evaluation value among a plurality of hypotheses. An image processing device comprising information integration means for integrating the obtained image and the distance information of each object obtained by the distance image generation means, and outputting three-dimensional position information of each target object; and An object transfer device comprising a transfer means for holding and transferring an object, and transferring the object based on an output signal of the image processing device.
る物体配列基準データベースと、仮説生成手段が生成し
た物体候補組合せ仮説の妥当性を検証する仮説妥当性検
証手段が認識した画像と、上記基準データと比較して正
しい配列かどうかを判定する物体配列判定手段と、認識
した画像が基準データに整合しないときに判定の結果を
作業者に警告する警告発生手段を有することを特徴とす
る請求項11記載の画像処理装置。13. An object array reference database storing data serving as a reference of an object array, an image recognized by a hypothesis validity verification unit for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation unit, and An object arrangement judging means for judging whether or not the arrangement is correct by comparing with data, and a warning generating means for warning an operator of a result of the judgment when the recognized image does not match the reference data, wherein 12. The image processing device according to item 11.
る物体配列基準データベースと、仮説生成手段が生成し
た物体候補組合せ仮説の妥当性を検証する仮説妥当性検
証手段が認識した画像と、上記基準データと比較して正
しい配列かどうかを判定する物体配列判定手段と、認識
した画像が基準データに整合しないときに判定の結果を
作業者に警告する警告発生手段を有する画像処理装置と
物体を把持し移載する移載手段とを備え、上記画像処理
装置の出力信号に基づいて物体を移載する請求項12記
載の物体移載装置。14. An object array reference database storing data serving as a reference of the object array, an image recognized by a hypothesis validity verification unit for verifying the validity of the object candidate combination hypothesis generated by the hypothesis generation unit, and An image processing apparatus having an object arrangement determining means for comparing the data with the data to determine whether or not the arrangement is correct, and a warning generating means for warning a worker of a result of the determination when the recognized image does not match the reference data; 13. The object transfer device according to claim 12, further comprising a transfer unit that transfers the object based on an output signal of the image processing device.
成される人工基準パターンを用い、対象となる物体の位
置を検出して、検出位置において上記対象物体に相当す
る画像領域を切り出す実画像基準パターン切り出し手段
と、切り出された実画像基準パターンを格納する実画像
基準パターン格納手段とを有し、以降の認識動作におい
ては上記実画像基準パターンを利用するように動作する
ことを特徴とする請求項1記載の画像処理装置。15. An actual image reference pattern cutout that detects a position of a target object and cuts out an image region corresponding to the target object at the detected position using an artificial reference pattern automatically generated from an object size database. And means for storing a cut-out real image reference pattern, wherein the real image reference pattern is stored in a subsequent recognition operation. The image processing apparatus according to any one of the preceding claims.
成される人工基準パターンを用い、対象となる物体の位
置を検出して、検出位置において上記対象物体に相当す
る画像領域を切り出す実画像基準パターン切り出し手段
と、切り出された実画像基準パターンを格納する実画像
基準パターン格納手段とを有し、以降の認識動作におい
ては上記実画像基準パターンを利用するように動作する
画像処理装置と物体を把持し移載する移載手段とを備
え、上記画像処理装置の出力信号に基づいて物体を移載
する請求項2記載の物体移載装置。16. An actual image reference pattern cutout for detecting a position of a target object using an artificial reference pattern automatically generated from an object size database and cutting out an image area corresponding to the target object at the detected position. Means, and an image processing apparatus having real image reference pattern storage means for storing the cut-out real image reference pattern, and in the subsequent recognition operation, operating to use the real image reference pattern, and holding the object. 3. The object transfer device according to claim 2, further comprising a transfer unit that transfers the object, based on an output signal of the image processing device.
力手段からの距離分布を計測する距離画像生成手段と、
生成された距離画像を格納する第一の距離画像格納手段
と、この第一の距離画像生成手段に格納された距離画像
の情報をもとに、物体の把時位置を計算する初期把時位
置計算手段と、一時的に物体を所定の位置に退避させた
後に、残りの積荷の距離画像を格納する第二の距離画像
格納手段と、上記第一の距離画像格納手段に格納された
距離画像と、上記第二の距離画像格納手段に格納された
距離画像とを比較する距離画像比較手段と、この距離画
像比較手段の比較結果を基に上記退避した物体の把持位
置を決定し、この把持位置と上記初期把持位置との差を
位置補正値として検出する位置補正量検出手段とを有す
ることを特徴とする画像処理装置。17. A distance image generating means for measuring a distance distribution of a plurality of stacked target objects from an image input means,
First distance image storage means for storing the generated distance image, and an initial gripping position for calculating the gripping position of the object based on information of the distance image stored in the first distance image generating means Calculating means, second distance image storing means for temporarily storing the distance image of the remaining cargo after the object is temporarily evacuated to a predetermined position, and distance image stored in the first distance image storing means. And a distance image comparing means for comparing the distance image stored in the second distance image storing means with the distance image comparing means. A gripping position of the retracted object is determined based on a comparison result of the distance image comparing means. An image processing apparatus comprising: a position correction amount detection unit that detects a difference between a position and the initial grip position as a position correction value.
力手段からの距離分布を計測する距離画像生成手段と、
生成された距離画像を格納する第一の距離画像格納手段
と、物体を把持し移動する物体移動手段と、上記距離画
像の情報をもとにして物体の把時位置を計算する初期把
時位置計算手段と、上記物体移動手段によって物体を上
記把持位置で把持し、一時的に所定の位置に対比させた
後に残りの積荷の距離画像を格納する第二の距離画像格
納手段と、上記第一の距離画像格納手段に格納された距
離画像と、上記第二の距離画像格納手段に格納された距
離画像を比較する距離画像比較手段と、上記距離画像の
比較結果を使用して上記退避した物体の把持位置を決定
し上記初期把持位置との差を位置補正値として検出する
位置補正量検出手段とを有する画像処理装置および物体
の移載装置を備えた画像処理装置の出力に基づいて、物
体移載手段によって物体を移載する物体移載装置。18. A distance image generating means for measuring a distance distribution of a plurality of stacked target objects from an image input means,
First distance image storage means for storing the generated distance image, object moving means for gripping and moving the object, and initial holding position for calculating the holding position of the object based on the information of the distance image Calculating means, a second distance image storage means for holding an object at the holding position by the object moving means, temporarily storing the distance image of the remaining cargo after being compared with a predetermined position, and A distance image stored in the distance image storage means, a distance image comparison means for comparing the distance image stored in the second distance image storage means, and the retracted object using a comparison result of the distance images. Based on the output of the image processing apparatus having the position correction amount detecting means for determining the grip position of the object and detecting the difference from the initial grip position as the position correction value, and the image processing apparatus having the object transfer device. Depending on the transfer method Object transfer device for transferring an object.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8184917A JP2921496B2 (en) | 1996-07-15 | 1996-07-15 | Image processing device and object transfer device |
TW085112386A TW324781B (en) | 1996-07-15 | 1996-10-08 | Image processing apparatus and object loader |
KR1019960061142A KR100271408B1 (en) | 1996-07-15 | 1996-11-27 | An image processing apparatus and an apparatus for moving and loading an object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8184917A JP2921496B2 (en) | 1996-07-15 | 1996-07-15 | Image processing device and object transfer device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1031742A true JPH1031742A (en) | 1998-02-03 |
JP2921496B2 JP2921496B2 (en) | 1999-07-19 |
Family
ID=16161599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8184917A Expired - Fee Related JP2921496B2 (en) | 1996-07-15 | 1996-07-15 | Image processing device and object transfer device |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2921496B2 (en) |
KR (1) | KR100271408B1 (en) |
TW (1) | TW324781B (en) |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000009442A (en) * | 1998-06-22 | 2000-01-14 | Fuji Xerox Co Ltd | 3-dimensional picture photographing device |
JP2000065542A (en) * | 1998-08-18 | 2000-03-03 | Fuji Xerox Co Ltd | Three-dimensional image photographing device |
WO2000057129A1 (en) * | 1999-03-19 | 2000-09-28 | Matsushita Electric Works, Ltd. | Three-dimensional object recognition method and pin picking system using the method |
JP2000304509A (en) * | 1999-04-21 | 2000-11-02 | Matsushita Electric Works Ltd | Method and device for specifying object |
JP2001143075A (en) * | 1999-11-10 | 2001-05-25 | Yaskawa Electric Corp | Template-matching method |
JP2001147110A (en) * | 1999-11-22 | 2001-05-29 | Sony Corp | Random pattern generating device and its method, distance image generating device and its method, and program providing medium |
JP2001208522A (en) * | 2000-01-24 | 2001-08-03 | Sony Corp | Distance image generator, distance image generation method and program supply medium |
JP2001266128A (en) * | 2000-03-21 | 2001-09-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for obtaining depth information and recording medium recording depth information obtaining program |
JP2002109512A (en) * | 2000-09-28 | 2002-04-12 | Fuji Photo Film Co Ltd | Candidate shade abnormality detector, and recording medium therefor |
JP2002197443A (en) * | 2000-12-25 | 2002-07-12 | Minolta Co Ltd | Generator of three-dimensional form data |
JP2006046960A (en) * | 2004-07-30 | 2006-02-16 | Matsushita Electric Works Ltd | Image processing device |
JP2006058091A (en) * | 2004-08-18 | 2006-03-02 | Fuji Xerox Co Ltd | Three-dimensional image measuring device and method |
JP2006153771A (en) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Works Ltd | Measuring instrument |
JP2006266801A (en) * | 2005-03-23 | 2006-10-05 | Mitsui Eng & Shipbuild Co Ltd | Collision-preventing device and vehicle with it |
JP2006300929A (en) * | 2005-03-22 | 2006-11-02 | Jfe Engineering Kk | Device for recognizing three-dimensional position of object, and depalettizing system |
JP2006350465A (en) * | 2005-06-13 | 2006-12-28 | Nec Corp | Image matching device, image matching method, and program for image matching |
EP2036682A2 (en) | 2007-09-12 | 2009-03-18 | Fanuc Ltd | Robot programming device for palletizing operation by robot |
JP2009085707A (en) * | 2007-09-28 | 2009-04-23 | Fujifilm Corp | Apparatus and method for file generation, apparatus and method for file display, and program |
JP2009129058A (en) * | 2007-11-21 | 2009-06-11 | Mitsubishi Heavy Ind Ltd | Position specifying apparatus, operation instruction apparatus, and self-propelled robot |
JP2009270915A (en) * | 2008-05-07 | 2009-11-19 | Kagawa Univ | Method and device for measuring three-dimensional shape |
JP2010524279A (en) * | 2007-03-09 | 2010-07-15 | イーストマン コダック カンパニー | Distance map generation type multi-lens camera |
US7834305B2 (en) | 2004-07-30 | 2010-11-16 | Panasonic Electric Works Co., Ltd. | Image processing device |
JP2011134091A (en) * | 2009-12-24 | 2011-07-07 | Honda Motor Co Ltd | Image processing apparatus, image processing method, and image processing program |
JP2011247819A (en) * | 2010-05-28 | 2011-12-08 | Toyota Motor Corp | Work stacking state recognition device |
JP2012037391A (en) * | 2010-08-06 | 2012-02-23 | Canon Inc | Position attitude measurement device, position attitude measurement method, and program |
JP2013224895A (en) * | 2012-04-23 | 2013-10-31 | Sharp Corp | Three dimensional measuring device |
JP2014041074A (en) * | 2012-08-23 | 2014-03-06 | Ricoh Co Ltd | Image processing apparatus and inspection apparatus |
JP2016020888A (en) * | 2014-06-20 | 2016-02-04 | 株式会社リコー | Measurement system, work picking system, measurement method and program |
JP2016132521A (en) * | 2015-01-16 | 2016-07-25 | 株式会社東芝 | Cargo handling device |
WO2017065171A1 (en) * | 2015-10-14 | 2017-04-20 | 東芝ライフスタイル株式会社 | Electric vacuum cleaner |
JP2018055429A (en) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | Object recognition device and object recognition method |
JP2018156531A (en) * | 2017-03-21 | 2018-10-04 | 株式会社富士通アドバンストエンジニアリング | Object detection method, object detection program and object detector |
JP2019085271A (en) * | 2019-02-19 | 2019-06-06 | 株式会社東芝 | Cargo handling device and controlling device |
JP2019136828A (en) * | 2018-02-13 | 2019-08-22 | Kyoto Robotics株式会社 | Box-shaped object picking device and method |
JP2019158427A (en) * | 2018-03-09 | 2019-09-19 | セイコーエプソン株式会社 | Controller, robot, robot system, and method for recognizing object |
JP2019184587A (en) * | 2018-03-30 | 2019-10-24 | キヤノン株式会社 | Parallax detection device, parallax detection method, and parallax detection device control program |
JP2019193974A (en) * | 2019-06-11 | 2019-11-07 | ファナック株式会社 | Robot system and robot control method |
WO2020092452A1 (en) * | 2018-10-30 | 2020-05-07 | Mujin, Inc. | A robotic system with automated object detection mechanism and methods of operating the same |
WO2020189154A1 (en) * | 2019-03-19 | 2020-09-24 | 株式会社豊田自動織機 | Item detection device, item detection method, and industrial vehicle |
US11034025B2 (en) | 2018-10-30 | 2021-06-15 | Mujin, Inc. | Automated package registration systems, devices, and methods |
JP6945209B1 (en) * | 2021-03-05 | 2021-10-06 | 株式会社Mujin | Method and calculation system for generating a safety volume list for object detection |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4517449B2 (en) * | 2000-05-10 | 2010-08-04 | 株式会社豊田中央研究所 | Correlation calculation method for images |
JP2002120909A (en) * | 2000-10-16 | 2002-04-23 | Meidensha Corp | Inventory control system |
KR101095579B1 (en) | 2009-09-10 | 2011-12-19 | 부산대학교 산학협력단 | A method for positioning and orienting of a pallet based on monocular vision |
KR102463034B1 (en) * | 2021-03-31 | 2022-11-03 | 한국로봇융합연구원 | Apparatus and method for separating layers of cargo using RGB-D cameras |
-
1996
- 1996-07-15 JP JP8184917A patent/JP2921496B2/en not_active Expired - Fee Related
- 1996-10-08 TW TW085112386A patent/TW324781B/en not_active IP Right Cessation
- 1996-11-27 KR KR1019960061142A patent/KR100271408B1/en not_active IP Right Cessation
Cited By (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000009442A (en) * | 1998-06-22 | 2000-01-14 | Fuji Xerox Co Ltd | 3-dimensional picture photographing device |
JP2000065542A (en) * | 1998-08-18 | 2000-03-03 | Fuji Xerox Co Ltd | Three-dimensional image photographing device |
WO2000057129A1 (en) * | 1999-03-19 | 2000-09-28 | Matsushita Electric Works, Ltd. | Three-dimensional object recognition method and pin picking system using the method |
US6721444B1 (en) | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
JP2000304509A (en) * | 1999-04-21 | 2000-11-02 | Matsushita Electric Works Ltd | Method and device for specifying object |
JP2001143075A (en) * | 1999-11-10 | 2001-05-25 | Yaskawa Electric Corp | Template-matching method |
JP2001147110A (en) * | 1999-11-22 | 2001-05-29 | Sony Corp | Random pattern generating device and its method, distance image generating device and its method, and program providing medium |
JP2001208522A (en) * | 2000-01-24 | 2001-08-03 | Sony Corp | Distance image generator, distance image generation method and program supply medium |
JP2001266128A (en) * | 2000-03-21 | 2001-09-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for obtaining depth information and recording medium recording depth information obtaining program |
JP2002109512A (en) * | 2000-09-28 | 2002-04-12 | Fuji Photo Film Co Ltd | Candidate shade abnormality detector, and recording medium therefor |
JP2002197443A (en) * | 2000-12-25 | 2002-07-12 | Minolta Co Ltd | Generator of three-dimensional form data |
JP2006046960A (en) * | 2004-07-30 | 2006-02-16 | Matsushita Electric Works Ltd | Image processing device |
US7834305B2 (en) | 2004-07-30 | 2010-11-16 | Panasonic Electric Works Co., Ltd. | Image processing device |
JP2006058091A (en) * | 2004-08-18 | 2006-03-02 | Fuji Xerox Co Ltd | Three-dimensional image measuring device and method |
JP4501587B2 (en) * | 2004-08-18 | 2010-07-14 | 富士ゼロックス株式会社 | Three-dimensional image measuring apparatus and method |
JP2006153771A (en) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Works Ltd | Measuring instrument |
JP2006300929A (en) * | 2005-03-22 | 2006-11-02 | Jfe Engineering Kk | Device for recognizing three-dimensional position of object, and depalettizing system |
JP2006266801A (en) * | 2005-03-23 | 2006-10-05 | Mitsui Eng & Shipbuild Co Ltd | Collision-preventing device and vehicle with it |
JP2006350465A (en) * | 2005-06-13 | 2006-12-28 | Nec Corp | Image matching device, image matching method, and program for image matching |
JP4701848B2 (en) * | 2005-06-13 | 2011-06-15 | 日本電気株式会社 | Image matching apparatus, image matching method, and image matching program |
JP2010524279A (en) * | 2007-03-09 | 2010-07-15 | イーストマン コダック カンパニー | Distance map generation type multi-lens camera |
US8644984B2 (en) | 2007-09-12 | 2014-02-04 | Fanuc Ltd | Robot programming device for palletizing operation by robot |
EP2036682A2 (en) | 2007-09-12 | 2009-03-18 | Fanuc Ltd | Robot programming device for palletizing operation by robot |
JP2009085707A (en) * | 2007-09-28 | 2009-04-23 | Fujifilm Corp | Apparatus and method for file generation, apparatus and method for file display, and program |
JP2009129058A (en) * | 2007-11-21 | 2009-06-11 | Mitsubishi Heavy Ind Ltd | Position specifying apparatus, operation instruction apparatus, and self-propelled robot |
JP2009270915A (en) * | 2008-05-07 | 2009-11-19 | Kagawa Univ | Method and device for measuring three-dimensional shape |
JP2011134091A (en) * | 2009-12-24 | 2011-07-07 | Honda Motor Co Ltd | Image processing apparatus, image processing method, and image processing program |
JP2011247819A (en) * | 2010-05-28 | 2011-12-08 | Toyota Motor Corp | Work stacking state recognition device |
JP2012037391A (en) * | 2010-08-06 | 2012-02-23 | Canon Inc | Position attitude measurement device, position attitude measurement method, and program |
JP2013224895A (en) * | 2012-04-23 | 2013-10-31 | Sharp Corp | Three dimensional measuring device |
JP2014041074A (en) * | 2012-08-23 | 2014-03-06 | Ricoh Co Ltd | Image processing apparatus and inspection apparatus |
JP2016020888A (en) * | 2014-06-20 | 2016-02-04 | 株式会社リコー | Measurement system, work picking system, measurement method and program |
JP2016132521A (en) * | 2015-01-16 | 2016-07-25 | 株式会社東芝 | Cargo handling device |
WO2017065171A1 (en) * | 2015-10-14 | 2017-04-20 | 東芝ライフスタイル株式会社 | Electric vacuum cleaner |
JP2017074191A (en) * | 2015-10-14 | 2017-04-20 | 東芝ライフスタイル株式会社 | Vacuum cleaner |
KR20170065620A (en) * | 2015-10-14 | 2017-06-13 | 도시바 라이프스타일 가부시키가이샤 | Electrical vacuum cleaner |
CN106998983A (en) * | 2015-10-14 | 2017-08-01 | 东芝生活电器株式会社 | Electric dust collector |
CN106998983B (en) * | 2015-10-14 | 2020-06-09 | 东芝生活电器株式会社 | Electric vacuum cleaner |
US10932635B2 (en) | 2015-10-14 | 2021-03-02 | Toshiba Lifestyle Products & Services Corporation | Vacuum cleaner |
JP2018055429A (en) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | Object recognition device and object recognition method |
CN107886044A (en) * | 2016-09-29 | 2018-04-06 | 发那科株式会社 | Object detector and object identification method |
CN107886044B (en) * | 2016-09-29 | 2024-05-03 | 发那科株式会社 | Object recognition device and object recognition method |
US10482341B2 (en) | 2016-09-29 | 2019-11-19 | Fanuc Corporation | Object recognition device and object recognition method |
JP2018156531A (en) * | 2017-03-21 | 2018-10-04 | 株式会社富士通アドバンストエンジニアリング | Object detection method, object detection program and object detector |
JP2019136828A (en) * | 2018-02-13 | 2019-08-22 | Kyoto Robotics株式会社 | Box-shaped object picking device and method |
JP2019158427A (en) * | 2018-03-09 | 2019-09-19 | セイコーエプソン株式会社 | Controller, robot, robot system, and method for recognizing object |
JP2019184587A (en) * | 2018-03-30 | 2019-10-24 | キヤノン株式会社 | Parallax detection device, parallax detection method, and parallax detection device control program |
US11189033B2 (en) | 2018-10-30 | 2021-11-30 | Mujin, Inc. | Robotic system with automated package registration mechanism and auto-detection pipeline |
US11176674B2 (en) | 2018-10-30 | 2021-11-16 | Mujin, Inc. | Robotic system with automated object detection mechanism and methods of operating the same |
US12002007B2 (en) | 2018-10-30 | 2024-06-04 | Mujin, Inc. | Robotic system with automated package scan and registration mechanism and methods of operating the same |
US11961042B2 (en) | 2018-10-30 | 2024-04-16 | Mujin, Inc. | Robotic system with automated package registration mechanism and auto-detection pipeline |
JP2021503374A (en) * | 2018-10-30 | 2021-02-12 | 株式会社Mujin | Robot system equipped with automatic object detection mechanism and its operation method |
WO2020092452A1 (en) * | 2018-10-30 | 2020-05-07 | Mujin, Inc. | A robotic system with automated object detection mechanism and methods of operating the same |
US11034025B2 (en) | 2018-10-30 | 2021-06-15 | Mujin, Inc. | Automated package registration systems, devices, and methods |
US11062457B2 (en) | 2018-10-30 | 2021-07-13 | Mujin, Inc. | Robotic system with automated package registration mechanism and minimum viable region detection |
US11797926B2 (en) | 2018-10-30 | 2023-10-24 | Mujin, Inc. | Robotic system with automated object detection mechanism and methods of operating the same |
US10703584B2 (en) | 2018-10-30 | 2020-07-07 | Mujin, Inc. | Robotic system with automated package registration mechanism and methods of operating the same |
US11780101B2 (en) | 2018-10-30 | 2023-10-10 | Mujin, Inc. | Automated package registration systems, devices, and methods |
US11288810B2 (en) | 2018-10-30 | 2022-03-29 | Mujin, Inc. | Robotic system with automated package registration mechanism and methods of operating the same |
US11636605B2 (en) | 2018-10-30 | 2023-04-25 | Mujin, Inc. | Robotic system with automated package registration mechanism and minimum viable region detection |
US11501445B2 (en) | 2018-10-30 | 2022-11-15 | Mujin, Inc. | Robotic system with automated package scan and registration mechanism and methods of operating the same |
JP2019085271A (en) * | 2019-02-19 | 2019-06-06 | 株式会社東芝 | Cargo handling device and controlling device |
JPWO2020189154A1 (en) * | 2019-03-19 | 2020-09-24 | ||
WO2020189154A1 (en) * | 2019-03-19 | 2020-09-24 | 株式会社豊田自動織機 | Item detection device, item detection method, and industrial vehicle |
JP2019193974A (en) * | 2019-06-11 | 2019-11-07 | ファナック株式会社 | Robot system and robot control method |
JP2022135848A (en) * | 2021-03-05 | 2022-09-15 | 株式会社Mujin | Method and computing system for generating safety volume list for object detection |
JP6945209B1 (en) * | 2021-03-05 | 2021-10-06 | 株式会社Mujin | Method and calculation system for generating a safety volume list for object detection |
Also Published As
Publication number | Publication date |
---|---|
KR100271408B1 (en) | 2000-12-01 |
KR980010354A (en) | 1998-04-30 |
TW324781B (en) | 1998-01-11 |
JP2921496B2 (en) | 1999-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH1031742A (en) | Image processor and object transfer device | |
US10798359B2 (en) | Generating hi-res dewarped book images | |
JP5462093B2 (en) | Point cloud data processing device, point cloud data processing system, point cloud data processing method, and point cloud data processing program | |
WO2020102944A1 (en) | Point cloud processing method and device and storage medium | |
Barazzetti et al. | Orientation and 3D modelling from markerless terrestrial images: combining accuracy with automation | |
JP2835274B2 (en) | Image recognition device | |
US20020001029A1 (en) | Image processing apparatus, image processing method, and storage medium | |
Goncalves et al. | A visual front-end for simultaneous localization and mapping | |
WO2011011353A2 (en) | Stereoscopic form reader | |
JPS59182688A (en) | Stereoscopic processor | |
Steger et al. | Model-based road extraction from images | |
EP4377913A1 (en) | Training method for training a change detection system, training set generating method therefor, and change detection system | |
JP5951043B2 (en) | Image measuring device | |
EP3166076A1 (en) | Three dimensional outline information sensing system and sensing method | |
Schenk et al. | Accuracy study of airborne laser scanning data with photogrammetry | |
KR20050020350A (en) | System for detecting and recognizing a car plate area by using stereo vision and method thereof | |
Cutter et al. | Capture and dewarping of page spreads with a handheld compact 3D camera | |
KR20200005818A (en) | System and method of building load map | |
JPH05157518A (en) | Object recognizing apparatus | |
KR100276445B1 (en) | Property recognition apparatus | |
JP2002536709A (en) | Method and apparatus for calculating a similarity between a first structure and at least one preset second structure | |
JP2007040841A (en) | Three-dimensional shape measuring apparatus, and three-dimensional shape measuring method | |
JP3419968B2 (en) | Image recognition device and method | |
JPH05173644A (en) | Three-dimensional body recording device | |
Lin | Perception of three-dimensional objects from an intensity image using simple geometric models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080430 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090430 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100430 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100430 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110430 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120430 Year of fee payment: 13 |
|
LAPS | Cancellation because of no payment of annual fees |