JPH08315136A - Recognition device - Google Patents
Recognition deviceInfo
- Publication number
- JPH08315136A JPH08315136A JP12164695A JP12164695A JPH08315136A JP H08315136 A JPH08315136 A JP H08315136A JP 12164695 A JP12164695 A JP 12164695A JP 12164695 A JP12164695 A JP 12164695A JP H08315136 A JPH08315136 A JP H08315136A
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- recognition
- images
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、マニピュレータ等が、
指示された認識対象物を、カメラ等の視覚装置で取得し
た認識画像中で認識する認識装置に係り、特に、複数の
テンプレートを用いた認識対象物の認識装置に関する。BACKGROUND OF THE INVENTION The present invention relates to a manipulator, etc.
The present invention relates to a recognition device for recognizing an instructed recognition target in a recognition image acquired by a visual device such as a camera, and more particularly to a recognition device for recognizing a recognition target using a plurality of templates.
【0002】例えば、食事搬送ロボット等がテーブル上
の食事トレイをロボットマニピュレータを使って把持す
る場合、ロボットは、該トレイを認識し、トレイの位置
を計測する必要がある。このため、ロボットの視覚は、
該トレイを正確に認識することが求められる。For example, when a meal transport robot or the like holds a food tray on a table by using a robot manipulator, the robot needs to recognize the tray and measure the position of the tray. Therefore, the vision of the robot is
Accurate recognition of the tray is required.
【0003】[0003]
【従来の技術】図11は、従来の対象物の認識装置を説
明する図である。従来、ロボットが対象物を認識する場
合、対象物のモデル形状と、カメラが取らえた画像を、
所定のウィンドウを用いる等して取得した対象物の輪郭
画像(微分画像)とのマッチングを取る方法が主流であ
った。2. Description of the Related Art FIG. 11 is a diagram for explaining a conventional object recognition apparatus. Conventionally, when a robot recognizes an object, the model shape of the object and the image captured by the camera are
The mainstream method has been matching with an outline image (differential image) of an object obtained by using a predetermined window or the like.
【0004】又、図11(a),(b) に示した本願出願人が
先願している特願平06-225419 号「局所領域画像追跡装
置」等を用いて、認識対象物の特徴部分、例えば、認識
対象物が机であると、取得画像と、その四隅の特徴部分
の参照画像との相関処理を高速に行い、該認識対象物
(机) を高速に認識する方法がある。Further, the characteristics of the object to be recognized by using the Japanese Patent Application No. 06-225419 "Local Area Image Tracking Device" etc. which the applicant of the present application has shown in FIGS. 11 (a) and 11 (b). When a portion, for example, a recognition target object is a desk, the correlation processing between the acquired image and the reference images of the characteristic portions at the four corners is performed at high speed,
There is a method to recognize the (desk) at high speed.
【0005】図11 (a)は、上記特願平06-225419 号
「局所領域画像追跡装置」で開示している局所領域画像
追跡装置の構成例を示しており、撮像装置 (カメラ) 1
で撮像して得られたアナログ画像を画像入力装置 2に搭
載されているアナログ/ディジタル変換器(A/D変換
器)でディジタル画像データに変換し、図11(b) に示
した相関追跡処理装置 3内の探索画像メモリ 30 に格納
され、予め、参照画像メモリ 31 に格納されている追跡
するべき所定物体に関する固定の参照画像データと、相
関演算部 32 で相関処理が取られ、相関値を求める。FIG. 11A shows an example of the configuration of a local area image tracking device disclosed in Japanese Patent Application No. 06-225419 "Local Area Image Tracking Device".
The analog image obtained by imaging in 1. is converted into digital image data by the analog / digital converter (A / D converter) installed in the image input device 2, and the correlation tracking processing shown in FIG. 11 (b) is performed. The fixed reference image data, which is stored in the search image memory 30 in the device 3 and is stored in the reference image memory 31 in advance and is related to the predetermined object to be tracked, is subjected to the correlation processing by the correlation calculation unit 32, and the correlation value is Ask.
【0006】このとき、図11(a) に示されているよう
に、本局所領域画像追跡装置では、複数の探索画像に対
する追跡処理を、例えば、複数個の相関追跡処理装置 3
で分散して行うことで、高速な対象物に対する認識・追
跡を高速に行うようにしている。又、図11(b) に示し
た本局所領域画像追跡装置では、各相関追跡処理装置3
に、少なくとも、3個以上の探索画像データを格納する
探索画像メモリ 30 と、上記参照画像データを格納する
参照画像メモリ 31 と、該探索画像メモリ 30と参照画
像メモリ 31 から参照画像データと探索画像データを読
み出す為のアドレスを発生するアドレス発生手段と、該
参照画像データと、該探索画像データとの間の相関をと
る相関演算器 32 とを備え、参照画像データと探索画像
データとを選択的に切り換えることにより、高速に認
識、追跡を行うようにしている。At this time, as shown in FIG. 11A, in this local area image tracking device, the tracking process for a plurality of search images is performed, for example, by a plurality of correlation tracking processing devices 3.
By performing distributed processing, the recognition and tracking of a high-speed object can be performed at high speed. In the local region image tracking device shown in FIG. 11B, each correlation tracking processing device 3
A search image memory 30 for storing at least three or more search image data, a reference image memory 31 for storing the reference image data, and a reference image data and a search image from the search image memory 30 and the reference image memory 31. The reference image data and the search image data are selectively provided with address generating means for generating an address for reading out data, a correlation calculator 32 for correlating the reference image data and the search image data. By switching to, the recognition and tracking are performed at high speed.
【0007】上記相関処理以外に、レンジファイダ等を
用いて、距離画像を取得し、認識対象物の3次元形状モ
デルとのマッチングをとって、対象物の認識を行う方法
もある。In addition to the above correlation processing, there is also a method of recognizing an object by obtaining a range image using a range finder or the like and matching it with a three-dimensional shape model of the object to be recognized.
【0008】[0008]
【発明が解決しようとする課題】上記対象物のモデル形
状と輪郭画像を用いる方法や、距離画像を用いる方法で
は、対象物の認識に時間がかかり、ロボットの視点のず
れ (見え方向の変化) とか,輪郭の途切れ等によって、
誤認識する場合が多いという問題があった。In the method using the model shape of the object and the contour image or the method using the range image, it takes time to recognize the object, and the shift of the viewpoint of the robot (change in the view direction). Or, due to the interruption of the contour,
There was a problem that there were many cases of erroneous recognition.
【0009】又、図11(a),(b) に示した相関をとる方
法でも、相関処理にかかる時間は、上記特願平06-22541
9 号「局所領域画像追跡装置」で開示している局所領域
画像追跡装置を用いれば、短縮できるが、認識対象物の
置かれている環境の変化、例えば、対象物に対する投射
光の変化(即ち、見え方の変化)等に弱く、誤認識が多
いという問題があった。Further, even in the method of obtaining the correlation shown in FIGS. 11 (a) and 11 (b), the time required for the correlation processing is the above-mentioned Japanese Patent Application No. 06-22541.
Although it can be shortened by using the local area image tracking device disclosed in No. 9 “Local area image tracking device”, a change in the environment in which the recognition target object is placed, for example, a change in the projection light on the target object (that is, However, there was a problem that it was vulnerable to a lot of misrecognition.
【0010】本発明は上記従来の欠点に鑑み、環境の変
化や見え方の変化に強い、即ち、ロバストな対象物の認
識を行うことができる認識装置を提供することを目的と
するものである。In view of the above-mentioned conventional drawbacks, it is an object of the present invention to provide a recognition device which is robust against environmental changes and changes in appearance, that is, which is capable of robust object recognition. .
【0011】[0011]
【課題を解決するための手段】図1〜図10は、本発明
の一実施例を示した図である。上記の問題点は下記の如
くに構成した複数のテンプレートを用いた認識装置によ
って解決される。1 to 10 are views showing an embodiment of the present invention. The above problems can be solved by a recognition device using a plurality of templates configured as follows.
【0012】(1) 認識対象物の認識空間における複数の
異なった種類の特徴画像のそれぞれに、該認識対象物の
特徴となる部分の複数のテンプレート画像a,〜を備
えると共に、上記テンプレート画像a,〜と、上記複
数の異なった種類の取得画像との相関をとる複数の特徴
画像用局所相関演算部 40a, 〜と、上記特徴画像用局所
相関演算部 40a, 〜で適用した複数のテンプレート画像
a,〜を記憶する各特徴画像用テンプレート用メモリ
41a, 〜と、上記特徴画像用局所相関演算部 40a, 〜で
得られた相関結果である各特徴候補領域と、上記各特
徴画像用テンプレート用メモリ 41a, 〜から得られた、
上記特徴画像用局所相関演算部 40a, 〜で適用した複数
のテンプレート画像の配置関係とから、該取得画像
内の目標となる認識対象物を抽出する特徴候補領域評価
部 42 とからなり、上記特徴画像用局所相関演算部 40
a, 〜で得られた相関結果である特徴候補画像領域
と、上記適用した複数のテンプレート画像a,〜の配
置関係から、該取得画像内の目標となる認識対象物を
抽出するように構成する。{図1〜図3参照} (2) (1) 項に記載の認識装置 4であって、上記認識対象
物の認識空間における複数の異なった種類の特徴画像の
それぞれに、該認識対象物の特徴となる部分の複数のテ
ンプレート画像として、各複数の異なった画像内で、
相関をとる領域の大きさ,分解能が異なる複数のテンプ
レート画像aa,〜を備えて、上記複数の異なった種
類の特徴画像のそれぞれにおいて、上記各特徴画像局所
相関演算部 40a, 〜で、各取得画像に対して、上記複数
のテンプレート画像aa,〜を適用して、各取得画像
内で上記複数のテンプレート画像aa,〜との相関が
一致した領域が最も多く重なった領域を、認識対象の存
在する特徴候補領域とする候補領域決定部 43a, 〜を
備えるように構成する。{図4〜図6参照} (3) (2) 項に記載の認識装置であって、上記認識対象物
の認識空間における複数の異なった種類の特徴画像につ
いて、上記特徴画像用局所相関演算部 40a, 〜の結果情
報を記憶している各特徴画像用テンプレート用メモリ 4
1a, 〜から得られる各テンプレート画像aa,〜の配
置関係情報と,同じ特徴画像に対する各テンプレート画
像a,〜の大きさ,分解能の異なる複数のテンプレー
ト画像aa,〜とから、上記特徴画像用局所相関演算
部 40a, 〜で抽出した特徴候補領域をまとめて、特徴
候補領域を判定する特徴候補領域評価部 42aを備えるよ
うに構成する。{図7参照} (4) (1) 項に記載の認識装置であって、認識対象物の認
識空間における複数の異なった種類の特徴画像のそれぞ
れに、該認識対象物の特徴となる部分以外の部分のテン
プレート画像dを備え、特徴画像用局所相関演算部 4
0dで、上記認識対象物の特徴となる部分以外の部分のテ
ンプレート画像dと取得画像との相関をとり、該認識
対象以外の部分を抽出して、認識対象物を検出するため
の画像範囲を絞り込むように構成する。{図8,図9参
照} (5)(1)項,又は(2) 項,又は(3) 項,又は(4) 項に記載
の認識装置であって、取得画像に対して、正確に対象物
の認識に寄与した領域を、次の同じ対象物の認識用のテ
ンプレート画像eとするテンプレート追加・削除部 4
4 を備えるように構成する。{図10参照}(1) Each of a plurality of different types of characteristic images in the recognition object recognition space is provided with a plurality of template images a, ... , ~, And a plurality of template images applied by the plurality of feature image local correlation calculation units 40a, ~, which correlate with the plurality of different types of acquired images, and the plurality of template images applied by the feature image local correlation calculation unit 40a, ... Template memory for each characteristic image that stores a, ...
41a, ~, and the feature image local correlation calculation unit 40a, each feature candidate region is a correlation result obtained in ~, and each of the feature image template memory 41a, obtained from ~,
The feature image local correlation calculation unit 40a, comprising a feature candidate area evaluation unit 42 for extracting a target recognition target object in the acquired image from the layout relationship of the plurality of template images applied by Image local correlation calculator 40
a, it is configured to extract a target recognition target object in the acquired image from the feature candidate image area which is the correlation result and the arrangement relationship of the plurality of applied template images a ,. . {Refer to FIGS. 1 to 3} (2) The recognition device 4 according to item (1), wherein the recognition target object is provided to each of a plurality of different types of characteristic images in the recognition space of the recognition target object. As a plurality of template images of the characteristic part, in each of a plurality of different images,
Each of the plurality of different types of characteristic images is provided with each of the plurality of different types of characteristic images, each of which has a plurality of template images aa, ... The plurality of template images aa, ... Is applied to the image, and the region where the correlation with the plurality of template images aa ,. It is configured to include a candidate area determining unit 43a, which is a feature candidate area. {Refer to FIG. 4 to FIG. 6} (3) The recognition device according to the item (2), wherein the feature image local correlation calculation unit is used for a plurality of different types of feature images in the recognition space of the recognition object. 40a, template memory for each feature image that stores result information of 4
1a, ..., from the plurality of template images aa, ..., each of which has a different size and resolution of each template image a, ... The feature candidate regions extracted by the correlation calculation units 40a, ... Are combined and configured to include a feature candidate region evaluation unit 42a for determining feature candidate regions. {Refer to FIG. 7} (4) The recognition device according to item (1), wherein each of a plurality of different types of characteristic images in the recognition space of the recognition target object is different from a part that becomes a feature of the recognition target object. Is provided with the template image d of
At 0d, the template image d of the portion other than the characteristic portion of the recognition target is taken into correlation with the acquired image, the portion other than the recognition target is extracted, and the image range for detecting the recognition target is set. Configure to narrow down. {Refer to FIG. 8 and FIG. 9} (5) The recognition device according to (1), (2), (3), or (4), which is accurate for the acquired image. The template adding / deleting unit 4 sets the region contributing to the recognition of the target object as the template image e for the next recognition of the same target object 4
Configure to have 4. {Refer to Fig. 10}
【0013】[0013]
【作用】即ち、本発明の認識装置では、1つの認識対象
物に対して、濃淡画像,エッジ画像,カラー画像と言っ
た、複数の異なった種類(性質)の特徴画像を用いるこ
とで、各特徴画像の利点が活かせ、単独の特徴画像によ
る相関処理での欠点を補うことができる。That is, in the recognition apparatus of the present invention, by using a plurality of different types (characteristics) of feature images such as a grayscale image, an edge image, and a color image for one recognition target object, The advantage of the feature image can be utilized, and the disadvantage of the correlation processing by a single feature image can be compensated.
【0014】例えば、濃度テンプレート画像aによる
濃淡画像を用いた相関処理では、濃度の変化が同じで高
い相関値が得られたとしても、色の違う物を判別するこ
とができない。然し、本発明による認識装置では、カラ
ー画像を使用しても、カラーテンプレート画像cによ
り相関値を取ることができるので、正確に認識対象物を
認識することができる。{請求項1に対応} 又、同じ濃度テンプレート画像,或いは、カラーテンプ
レート画像a,cに対しても、本発明の認識装置で
は、大きさ,分解能の異なるテンプレート画像aa,
acを持つことで、取得画像中のノイズの除去や,環
境の変化や見え方の変化に強い相関処理を行うことがで
きる。{請求項2,3に対応} 又、認識対象物以外の
テンプレート画像、例えば、背景画像のテンプレート画
像dを持つことで、背景を利用した対象物の切り出
し、即ち、認識対象物以外の部分を抽出して、認識対象
物を検出する為の範囲の絞り込みができるようになる。
{請求項4に対応} 又、取得画像に対して、正確に対象物の認識に寄与した
領域を、次の同じ対象物の認識用のテンプレート画像
eとすることで、種々の環境のテンプレート画像を取得
することができ、その結果として、よりロバストな認識
装置を構築することができる。{請求項5に対応}For example, in the correlation processing using the grayscale image based on the density template image a, even if the change in density is the same and a high correlation value is obtained, it is not possible to distinguish objects having different colors. However, in the recognition apparatus according to the present invention, even if a color image is used, since the correlation value can be obtained from the color template image c, the recognition target object can be accurately recognized. {Corresponding to claim 1} In the recognition apparatus of the present invention, the same density template images or color template images a and c are different in size and resolution from each other.
By having ac, it is possible to remove noise in the acquired image and perform strong correlation processing against changes in the environment and changes in the appearance. {Corresponding to claims 2 and 3} By having a template image other than the recognition target, for example, the template image d of the background image, the target is cut out using the background, that is, the part other than the recognition target is cut out. It becomes possible to narrow down the range for extracting and detecting the recognition target object.
(Corresponding to claim 4) Also, by setting the region that contributed to the recognition of the object accurately in the acquired image as the template image e for the next recognition of the same object, the template image of various environments is obtained. Can be obtained, and as a result, a more robust recognition device can be constructed. {Corresponding to claim 5}
【0015】[0015]
【実施例】以下本発明の実施例を図面によって詳述す
る。前述の図1〜図10が、本発明の一実施例を示した
図であり、図1は、複数の異なった種類(性質)の特徴
画像に対して、認識対象物の特徴となる部分のテンプレ
ート画像a,〜を持って、取得画像との相関をとる場
合の構成例を示し、図2は、テンプレート画像a,〜
と取得画像との関係を示し、図3は、特徴候補領域評価
部の基本的な処理フローを示し、図4は、複数の異なっ
た種類(性質)の画像に対して、認識対象物の特徴とな
る部分のテンプレート画像の大きさ、分解能の異なるテ
ンプレート画像aa,ab,〜を持って、取得画像
との相関をとる場合の構成例を示し、図5は、大きさ、
分解能の異なるテンプレート画像aa,ab,〜と
取得画像との関係を示し、図6は分解能の異なるテンプ
レート画像aa,ab,〜の例を示し、図7は、図
4に示した複数の異なった種類(性質)の特徴画像に対
して、認識対象物の特徴となる部分のテンプレート画像
の大きさ、分解能の異なるテンプレート画像aa,
ab,〜を持って、取得画像との相関をとる場合の構成
例の他の例を示し、図8は、認識対象物以外のテンプレ
ート画像dを用いる場合の構成例を示し、図9は、認
識対象物以外のテンプレート画像dと相関値画像の関
係を示し、図10は、取得画像に対して、正確に対象物
の認識に寄与した領域を、次の同じ対象物の認識用のテ
ンプレート画像eとすることで、種々の環境のテンプ
レート画像を取得する場合の構成例を示している。Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 to FIG. 10 described above are diagrams showing an embodiment of the present invention, and FIG. 1 shows a part of a characteristic object of a recognition object for a plurality of different types (characteristics) of characteristic images. FIG. 2 shows a configuration example in which the template image a, ... Is held and the correlation with the acquired image is obtained.
FIG. 3 shows the basic processing flow of the feature candidate area evaluation unit, and FIG. 4 shows the features of the recognition target object for a plurality of different types (characteristics) of images. FIG. 5 shows a configuration example in which template images aa, ab, ... having different sizes and resolutions of the template image of the portion to be obtained are correlated with the acquired image.
6 shows the relationship between the template images aa, ab, ... having different resolutions and the acquired image, FIG. 6 shows an example of the template images aa, ab, ... having different resolutions, and FIG. 7 shows a plurality of different images shown in FIG. Template images aa having different sizes and resolutions of the template image of the characteristic part of the recognition target with respect to the type (property) characteristic image,
FIG. 8 shows another example of the configuration example in the case of having ab, ..., And a correlation with the acquired image, FIG. 8 shows the configuration example in the case of using the template image d other than the recognition target object, and FIG. FIG. 10 shows the relationship between the template image d other than the recognition target object and the correlation value image. FIG. 10 shows the template image for recognizing the next same target object in the region that contributed to the recognition of the target object accurately in the acquired image. By setting e, a configuration example in the case of acquiring template images of various environments is shown.
【0016】本発明においては、認識対象物の認識空間
における複数の異なった種類の特徴画像のそれぞれに、
該認識対象物の特徴となる部分の複数のテンプレート画
像a〜dを備えると共に、上記テンプレート画像
a,〜と、上記複数の異なった種類の取得画像との相関
をとる複数の特徴画像用局所相関演算部 40a, 〜と、上
記特徴画像用局所相関演算部 40a, 〜で適用した複数の
テンプレート画像a,〜を記憶する各特徴画像用テン
プレート用メモリ 41a, 〜と、上記特徴画像用局所相関
演算部 40a, 〜で得られた相関結果である各特徴候補領
域と、上記各特徴画像用テンプレート用メモリ 41a,
〜から得られた、上記特徴画像用局所相関演算部 40a,
〜で適用した複数のテンプレート画像a,〜の配置関
係とから、該取得画像内の目標となる認識対象物を抽
出する特徴候補領域評価部 42 等が、本発明を実施する
のに必要な手段である。尚、全図を通して同じ符号は同
じ対象物を示している。In the present invention, each of a plurality of different types of characteristic images in the recognition space of the recognition object is
A plurality of template images a to d of a characteristic portion of the recognition object are provided, and a plurality of local correlations for feature images for correlating the template images a, to the plurality of different types of acquired images. Each of the feature image template memories 41a, for storing the plurality of template images a, ... Applied by the operation unit 40a, ... And the feature image local correlation operation unit 40a ,. Section 40a, each feature candidate area which is the correlation result obtained in, and each of the feature image template memory 41a,
Obtained from the above-mentioned feature image local correlation calculation unit 40a,
A feature candidate area evaluation unit 42 or the like that extracts a target recognition target object in the acquired image based on the layout relationship of the plurality of template images a applied in, and the means necessary for implementing the present invention. Is. Note that the same reference numerals indicate the same object throughout the drawings.
【0017】以下、図1〜図10によって、本発明の認
識装置の構成と動作を説明する。以下の説明において
は、説明の便宜上、例えば、濃淡画像を中心にして説明
するが、本発明においては、該濃淡画像に対して行われ
る処理、つまり相関演算,多数決論理による特徴候補の
決定,各テンプレート画像a,〜の配置関係情報によ
る認識対象物の認識は、エッジ画像,カラー画像と言っ
た他の特徴画像に対しても同様に行われる。The structure and operation of the recognition apparatus of the present invention will be described below with reference to FIGS. In the following description, for convenience of description, for example, a grayscale image will be mainly described. However, in the present invention, processing performed on the grayscale image, that is, correlation calculation, determination of feature candidates by majority logic, The recognition of the recognition target object based on the layout relationship information of the template images a, ... Is similarly performed for other characteristic images such as edge images and color images.
【0018】(1) 請求項1の実施例(実施例1):先
ず、図1に、請求項1に記載の認識装置の構成例を示
す。図1において、濃淡画像用局所相関演算部 40a, カ
ラー画像用局所相関演算部 40cは、例えば、前述の本願
出願人が先願している特願平06-225419 号「局所領域画
像追跡装置」における相関追跡処理装置を用いる。濃淡
画像用テンプレート用メモリ 41a, エッジ画像用テンプ
レート用メモリ 41b, カラー画像用テンプレート用メモ
リ 41cには、カメラ 1から得られた取得画像、例えば、
濃淡画像, エッジ画像, カラー画像に対して、濃淡画像
用テンプレート画像等a,〜と、その配置情報 (実
際には、相関を取る毎に探索範囲を換える必要があり、
その探索位置 (ウィンドウ位置) が変わる)が格納され
ている。(1) Embodiment of Claim 1 (Embodiment 1): First, FIG. 1 shows a structural example of a recognition device according to claim 1. In FIG. 1, the gray-scale image local correlation calculation unit 40a and the color image local correlation calculation unit 40c are, for example, Japanese Patent Application No. 06-225419 “Local Area Image Tracking Device” previously filed by the applicant of the present application. The correlation tracking processor in. The gradation image template memory 41a, the edge image template memory 41b, and the color image template memory 41c include an acquired image obtained from the camera 1, for example,
For the grayscale image, edge image, and color image, the grayscale image template image, etc., a, and their arrangement information (in practice, it is necessary to change the search range each time a correlation is taken,
The search position (window position) changes is stored.
【0019】又、特徴候補領域評価部 42 では、上記各
濃淡画像用局所相関演算部 40a, 〜から得られた相関値
の高い領域情報と、上記濃淡画像用テンプレート用メ
モリ41a, 〜からの濃淡画像用テンプレート画像a,
〜の配置情報とから、取得画像中において認識対象物
の存する領域を評価して、正しい認識領域の位置を出力
する。In the feature candidate area evaluation unit 42, the area information having a high correlation value obtained from each of the grayscale image local correlation calculation units 40a, ... And the grayscale images from the grayscale image template memory 41a ,. Image template image a,
Based on the arrangement information of ~, the area where the recognition target object exists in the acquired image is evaluated, and the correct position of the recognition area is output.
【0020】図2は、カメラ 1からの取得画像と、本発
明による濃淡画像用テンプレート画像a,〜の例を示
している。本発明の認識装置では、図2(b) に示されて
いる、認識対象物の各特徴部分A,B,〜に対して、図
2(a1),(a2) に示したように、複数のテンプレート画像
a,〜、例えば、濃淡テンプレート画像aA,a
B,エッジテンプレート画像bA,bB,カラーテ
ンプレート画像cA,cBを、前述の各濃淡画像用
テンプレート用メモリ等 41a, 〜に格納しておく。FIG. 2 shows an example of an image obtained from the camera 1 and grayscale image template images a, ... According to the present invention. In the recognition apparatus of the present invention, as shown in FIGS. 2 (a1) and (a2), a plurality of characteristic parts A, B, ... of the recognition object shown in FIG. Template images a, ..., For example, grayscale template images aA, a
B, the edge template images bA and bB, and the color template images cA and cB are stored in the above-mentioned respective grayscale image template memories 41a ,.
【0021】そして、前述のように、各テンプレート画
像aA,aB,〜は、対象物の特徴となる部分A,
B,〜に対応して、複数持つようにし、これらの各テン
プレート画像aA,aB,〜の配置情報に基づい
て、対象物の認識を行う。図3は、図1に示した上記特
徴候補領域評価部 42 での基本的な処理フローを示して
いる。先ず、テンプレート画像番号=Aを設定し、該特
徴領域Aに対応した濃淡画像用テンプレート画像a
A,aB,エッジ画像用テンプレートbA,b
B,カラー画像用テンプレートcA、cBが、取得
画像中において、最も重なった領域を抽出する。上記の
抽出処理を、全てのテンプレート画像番号B,C,〜に
ついて行う。図2(b) 中の特徴候補領域は、上記のよう
にして抽出された領域を示している。{図3の処理ステ
ップ 100〜102 参照} 続いて、該抽出された領域の間の対応付けと、各テンプ
レート画像aA,aB,〜間の対応付けが一致して
いるか否かを検証する。図2(b) に示されているよう
に、テンプレート番号B(特徴となる部分Bに対応)に
おいて、相関値の高い特徴候補の一つが、ずれている場
合には、例えば、多数決等で、対応付けの評価を行い、
該対応付けが“NG”であると、該取得画像中には、対
象物が存在しないとし、該対応付けが“OK”である
と、該取得画像中には、対象物が存在するとする。該取
得画像中には、対象物が存在しない場合には、カメラ 1
を移動されせ、新たな取得画像を得て、同じ認識処理を
繰り返す。{図3の処理ステップ 103,104,105参照} (2) 請求項2の実施例(実施例2):図4に、請求項2
に示した認識装置の構成例を示す。図4において、濃淡
画像用局所相関演算部 40a, 〜, 濃淡画像用テンプレー
ト用メモリ 41a, 〜, 特徴候補領域評価部 42 は、図1
に説明したものと同じであるが、本実施例では、認識対
象物の各特徴部分に対して、例えば、濃淡画像用テンプ
レート画像として、図5(a) に示されている大きさ、分
解能の異なるテンプレート画像aa,ab,a
c,ad,〜を用意し、予め、濃淡画像用テンプレー
ト用メモリ 41a, 〜等に格納しておく。Then, as described above, each template image aA, aB, ...
The target object is recognized based on the arrangement information of each of the template images aA, aB, ... Corresponding to B, ... FIG. 3 shows a basic processing flow in the feature candidate area evaluation section 42 shown in FIG. First, the template image number = A is set, and the grayscale image template image a corresponding to the characteristic region A is set.
A, aB, edge image templates bA, b
B, the color image templates cA, cB extract the most overlapping region in the acquired image. The above extraction processing is performed for all template image numbers B, C ,. The feature candidate area in FIG. 2B indicates the area extracted as described above. {Refer to processing steps 100 to 102 in FIG. 3} Subsequently, it is verified whether or not the correspondence between the extracted regions and the correspondence between the template images aA, aB, ... match. As shown in FIG. 2B, in the template number B (corresponding to the characteristic portion B), when one of the feature candidates having a high correlation value is deviated, for example, by a majority vote, Evaluate the matching,
When the association is "NG", it is assumed that the target object does not exist in the acquired image, and when the association is "OK", the object exists in the acquired image. If there is no object in the acquired image, the camera 1
Is moved, a new acquired image is obtained, and the same recognition process is repeated. {Refer to the processing steps 103, 104, 105 of FIG. 3} (2) Embodiment of claim 2 (embodiment 2): FIG.
The structural example of the recognition apparatus shown in FIG. In FIG. 4, the grayscale image local correlation calculation unit 40a, ..., The grayscale image template memory 41a ,.
However, in the present embodiment, for each characteristic part of the recognition object, for example, as the grayscale image template image, the size and resolution shown in FIG. Different template images aa, ab, a
c, ad, ... Are prepared and stored in advance in the grayscale image template memory 41a ,.
【0022】そして、濃淡画像用局所相関演算部 40a,
〜等において、取得画像の探索領域と、上記濃淡画像用
テンプレート用メモリ 41a, 〜等に格納されている濃淡
用のテンプレート画像ではあるが、更に、大きさ、分解
能の異なるテンプレート画像aa,ab,ac,
ad,〜との相関をとる。Then, the local correlation calculation unit 40a for grayscale image,
, Etc., the search area of the acquired image and the grayscale template memory 41a, which are the grayscale template images stored in the, etc., but the template images aa, ab, ac,
Correlate with ad, ~.
【0023】該濃淡画像用局所相関演算部 40a, 〜等で
得られた複数個の相関値と、上記濃淡画像用テンプレ
ート用メモリ 41a, 〜格納されている、該大きさ、分解
能の異なるテンプレート画像aa,ab,ac,
ad,〜の配置情報とから、例えば、多数決論理
で、該相関処理での候補領域を決定する。A plurality of correlation values obtained by the gray image local correlation calculating section 40a, ... And the gray image template memory 41a, ... Stored template images of different sizes and resolutions. aa, ab, ac,
From the placement information of ad, ..., For example, the majority area is used to determine the candidate area in the correlation processing.
【0024】図5(a) は、上記濃淡画像用テンプレート
画像の中で、大きさ、分解能の異なるテンプレート画像
aa,ab,ac,adの例を示している。図
5(b) は、上記大きさ、分解能の異なるテンプレート画
像aa,ab,ac,adとの相関をとってマ
ッチングした領域を示した図である。FIG. 5 (a) shows an example of template images aa, ab, ac, ad having different sizes and resolutions in the grayscale image template image. FIG. 5 (b) is a diagram showing a region matched with the template images aa, ab, ac, and ad having different sizes and resolutions.
【0025】本発明の候補領域決定部 43a, 〜では、上
記マッチング領域の中で、該マッチング領域が最も重な
っている部分を、その取得画像中の候補領域とする。以
降、上記濃淡画像の他のエッジ画像, カラー画像につい
ても、同様の相関処理、特徴候補領域の決定をして、特
徴候補領域評価部 42 に送出し、図1〜図3で説明した
のと同様の評価処理を行って、該取得画像中に、対象物
が存在するか否かの評価を行う。In the candidate area determining units 43a, ... Of the present invention, among the matching areas, the portion where the matching areas are most overlapped is set as the candidate area in the acquired image. After that, for other edge images and color images of the grayscale image, similar correlation processing is performed, feature candidate areas are determined, and sent to the feature candidate area evaluation unit 42, as described with reference to FIGS. The same evaluation process is performed to evaluate whether or not the object is present in the acquired image.
【0026】図6は、例えば、濃淡画像用テンプレート
画像aa,ab中の分解能の違いの例を示したもの
である。通常の分解能では、ある領域中の画素を全て識
別でき、緻密な評価ができるように構成されているが、
1画素置きの分解能では、粗い評価ができることにな
る。このような分解能の異なるテンプレート画像a
a,abを用いることで、取得画素の環境の変化,見
え方の変化に柔軟に対応することができ、ロバストな認
識処理を行うことができるようになる。FIG. 6 shows an example of the difference in resolution between the grayscale image template images aa and ab. With normal resolution, all pixels in a certain area can be identified, and it is configured so that precise evaluation can be performed.
With the resolution of every other pixel, rough evaluation can be performed. Template images a having such different resolutions
By using a and ab, it is possible to flexibly respond to changes in the environment and appearance of the acquired pixels, and robust recognition processing can be performed.
【0027】(3) 請求項3の実施例(実施例3):図7
は、請求項3に示した認識装置の構成例を示している。
本認識装置では、濃淡画像用局所相関演算部 40a, 〜に
よって得られた全ての候補領域、即ち、濃淡, エッジ,
カラー全ての取得画像に対応した、それぞれの局所相関
演算部 40a,〜によって得られた相関値の高い特徴候補
領域を、特徴候補領域評価部 42aで評価する。 つま
り、濃淡, エッジ, カラー全ての取得画像で得られた認
識対象物の各特徴部分の各テンプレート画像領域とマッ
チした特徴領域領域から、例えば、多数決論理により
特徴候補を決定する。即ち、濃淡, エッジ, カラー全て
の取得画像で、濃淡画像用テンプレート画像aa〜
ad, 〜とマッチした領域が最も重なっている部分を特
徴候補とする。(3) Embodiment of Claim 3 (Embodiment 3): FIG.
Shows a configuration example of the recognition device shown in claim 3.
In this recognition device, all candidate regions obtained by the local correlation calculation unit 40a for grayscale image, that is, grayscale, edge,
The feature candidate region evaluation unit 42a evaluates the feature candidate regions having high correlation values obtained by the respective local correlation calculation units 40a, ... Corresponding to the acquired images of all colors. That is, a feature candidate is determined by, for example, majority voting from the feature region region that matches each template image region of each feature portion of the recognition target obtained in all the shaded, edge, and color acquired images. That is, the grayscale image template images aa to
The part where the regions matching with ad, ~ overlap is the feature candidate.
【0028】そして、該得られた特徴候補領域の、各濃
淡画像用テンプレート用メモリ 41a, エッジ画像用テン
プレート用メモリ 41b, 〜から得られた、各濃淡画像用
テンプレート画像aa〜ad, 〜等の配置情報を
用いて、認識対象物を認識する。Then, the grayscale image template images aa to ad, ..., etc. obtained from the grayscale image template memory 41a, the edge image template memory 41b, ... of the obtained feature candidate area are obtained. The recognition target is recognized using the arrangement information.
【0029】本実施例は、前述の図4で説明した実施例
と、本質的に同じであって、図4では、例えば、濃淡画
像用局所演算部 40aから得られた相関値の高い部分領域
を、濃淡画像用の候補領域決定部 43aで、例えば、多
数決論理で特徴候補領域を決定した後、特徴候補領域
評価部 42 で、該濃淡画像用テンプレート用メモリ 41a
からの該濃淡画像用テンプレート画像aa,〜ad
の配置関係情報を用いて、該認識対象物の特徴部分の
認識を行っていたが、本実施例では、上記多数決論理に
よる特徴候補領域の決定と、濃淡画像用テンプレート
画像aa,〜adの配置情報とに基づいて対象物
の認識とを、1つの特徴候補領域評価部42aで行うとこ
ろが異なるものである。This embodiment is essentially the same as the embodiment described with reference to FIG. 4, and in FIG. 4, for example, a partial region having a high correlation value obtained from the grayscale image local calculation unit 40a. In the grayscale image candidate region determination unit 43a, for example, after determining the feature candidate region by majority logic, in the feature candidate region evaluation unit 42, the grayscale image template memory 41a.
The grayscale image template images aa, ...
Although the characteristic portion of the recognition target object is recognized using the arrangement relation information, the present embodiment determines the characteristic candidate area by the majority logic and arranges the grayscale image template images aa, ... Ad. The difference is that the recognition of the object based on the information is performed by one feature candidate area evaluation unit 42a.
【0030】(4) 請求項4の実施例(実施例4):図8
は、請求項4に示した認識装置の構成例を示している。
各濃淡画像,エッジ画像,カラー画像から対象物の特徴
領域を抽出する部分は、上記実施例1〜3で説明した何
れの構成をとっても良い。(4) Embodiment of Claim 4 (Embodiment 4): FIG.
Shows a configuration example of the recognition device shown in claim 4.
The portion for extracting the characteristic region of the object from each grayscale image, edge image, and color image may have any of the configurations described in the first to third embodiments.
【0031】本実施例では、上記実施例1〜3で説明し
た何れかの構成に、背景テンプレート画像dを用意
し、局所相関演算部 40dにおいて、取得した、例えば、
カラー画像の探索領域と背景テンプレート用メモリ 41d
から得られた背景テンプレート画像dとの間で相関処
理を行い、対象物候補領域絞り込み部 43 において、相
関値の高い領域として得られた背景領域を除いて、該対
象物の候補領域とする。In the present embodiment, the background template image d is prepared in any of the configurations described in the first to third embodiments, and the background template image d is acquired by the local correlation calculation unit 40d.
Color image search area and background template memory 41d
Correlation processing is performed with the background template image d obtained from the above, and the target object candidate area narrowing unit 43 excludes the background area obtained as an area having a high correlation value to obtain the target object candidate area.
【0032】該背景テンプレート画像dは、図9(a)
に示したように、認識対象物の存在しない背景領域にお
いてテクスチャ状となる。取得画像の探索領域を操作し
て、上記背景テンプレート画像dと相関をとると、図
9(b) に示した相関の高い領域と相関の低い領域とに分
けることができる。The background template image d is shown in FIG. 9 (a).
As shown in, the texture is formed in the background area where the recognition object does not exist. By manipulating the search area of the acquired image and correlating with the background template image d, it is possible to divide into a highly correlated area and a lowly correlated area shown in FIG. 9B.
【0033】このとき、相関値の低い領域の部分に認識
対象物がある可能性が高いことになる。この結果と、認
識対象物の特徴候補領域との取得画像面内での位置関
係から、誤対応した特徴候補領域を削除し、残った特徴
候補の位置関係を用いて、該対象物を正確に認識するこ
とができる。該背景テンプレート画像dを使用して得
られた相関値画像{図9(b) 参照}内で、相関の高い部
分、即ち、背景画像中に特徴候補がある場合には、誤対
応と判断することができ、より正確の対象物の認識が可
能になる。又、背景テンプレート画像dを使用して得
られた相関画像中に対象物が存在できるだけの相関値の
低い領域がない場合には、該認識対象物が該取得画像内
に存在しないと判断することができる。At this time, there is a high possibility that the object to be recognized is present in the area where the correlation value is low. From this result and the positional relationship in the acquired image plane with the characteristic candidate area of the recognition target object, the characteristic candidate area that is erroneously associated is deleted, and the positional relationship of the remaining feature candidates is used to accurately identify the target object. Can be recognized. In the correlation value image obtained by using the background template image d (see FIG. 9B), if there is a feature candidate in the highly correlated portion, that is, in the background image, it is determined that the correspondence is incorrect. It is possible to recognize the object more accurately. In addition, if there is no region with a low correlation value that allows the target to exist in the correlation image obtained using the background template image d, it is determined that the recognition target does not exist in the acquired image. You can
【0034】(5) 請求項5の実施例(実施例5):図1
0は、請求項5に対応する構成例を示した図である。各
特徴画像、即ち、濃淡画像,エッジ画像,カラー画像か
ら対象物の特徴領域を抽出する部分は、上記実施例1〜
3のいずれの構成をとっても良い。(5) Embodiment of Claim 5 (Embodiment 5): FIG.
0 is a diagram showing a configuration example corresponding to claim 5. The portion for extracting the characteristic region of the object from each characteristic image, that is, the grayscale image, the edge image, and the color image is the same as in the first to third embodiments.
Any of the configurations of 3 may be adopted.
【0035】本実施例でのテンプレート追加,削除部 4
4 においては、取得画像において、正確に対象物の認識
に寄与した部分をテンプレート画像eとして追加し、
次の同じ認識対象物を認識するのに使用する。又、使用
したテンプレート画像a,〜が、対象物の認識に寄与
しない場合の履歴を残しておくことで、ある期間に渡っ
て、対象物の認識に寄与していないテンプレート画像
a,〜を削除する。Template addition and deletion section 4 in this embodiment
In 4, in the acquired image, a portion that contributed to the recognition of the object accurately is added as a template image e,
It is used to recognize the next same recognition target object. In addition, by leaving a history when the used template images a, ~ do not contribute to the recognition of the object, the template images a, ~ that do not contribute to the recognition of the object are deleted over a certain period. To do.
【0036】通常、最初の認識処理において、できるだ
て多くのテンプレート画像a,〜を用いて、対象物を
認識すると、以降では、上記取得画像において、正確に
対象物の認識に寄与したことで、追加されたテンプレー
ト画像eを用いて、該対象物の把持を行うことで、効
率の良い対象物の認識と、該認識した対象物に対する把
持を行うことができる認識装置を構築することができ
る。Usually, in the first recognition process, the object is recognized by using as many template images a, ... as possible, and thereafter, it is possible to accurately recognize the object in the acquired image. By grasping the target using the added template image e, it is possible to construct a recognition device capable of efficiently recognizing the target and grasping the recognized target. .
【0037】このように、本発明による認識装置は、複
数の異なった種類の特徴画像(例えば、濃淡画像,カラ
ー画像,エッジ画像等)のそれぞれに、認識対象物の特
徴となる部分のテンプレート画像a,〜を持ち、この
テンプレート画像a,〜と、取得画像(濃淡,カラ
ー,エッジ画像等)との相関をとり、この相関結果を特
徴候補領域とし、この特徴候補領域と、適用した複
数のテンプレート画像の配置関係から、該取得画像内
の目標となる認識対象物を抽出する。又、上記各画像内
(例えば、濃淡画像内)で、取得画像との相関をとるた
めに用いるテンプレートとして、大きさ,分解能が異な
る複数のテンプレート画像aa,ab,〜を用意す
る。又、上記テンプレートとして、対象物以外の部分の
テンプレート画像(背景画像)dを用いて、認識対象
以外の部分を抽出し、認識対象を検出する部分を絞り込
む。更に、取得画像において、正確に対象物の認識に寄
与した領域を、次の同じ対象物の認識用のテンプレート
画像eとするようにしたところに特徴がある。As described above, the recognition apparatus according to the present invention uses, for each of a plurality of different types of characteristic images (for example, a grayscale image, a color image, an edge image, etc.), a template image of a portion that is a characteristic of the recognition target object. a, ..., Correlation of the template images a, ... With the acquired images (shades, colors, edge images, etc.), the correlation result is used as a feature candidate area, and this feature candidate area and a plurality of applied A target recognition target object in the acquired image is extracted from the layout relationship of the template images. In addition, a plurality of template images aa, ab, ... having different sizes and resolutions are prepared as templates used for correlating with the acquired image in each of the images (for example, in the grayscale image). Further, as the template, a template image (background image) d of a part other than the target is used to extract a part other than the recognition target and narrow down a part for detecting the recognition target. Further, it is characterized in that the region of the acquired image that accurately contributes to the recognition of the target object is used as the template image e for the next recognition of the same target object.
【0038】[0038]
【発明の効果】以上、詳細に説明したように、本発明の
認識装置によれば、濃淡画像やカラー画像などの複数の
特徴画像を用い、且つ認識対象物の複数の特徴領域に対
するテンプレート画像a,〜を用意し、それらのテン
プレート画像a,〜と取得画像の探索範囲との間で相
関演算を行い、特徴候補領域を抽出し、この領域の重
なりの度合い,該テンプレート画像a,〜配置情報
から、対象物を認識することによって、環境の変化や、
ロボットの視点のずれ(即ち、見方の変化)等に強い、
所謂ロバストな対象物認識装置を構築することができる
という顕著な効果が得られる。As described above in detail, according to the recognition apparatus of the present invention, a plurality of characteristic images such as grayscale images and color images are used, and a template image a for a plurality of characteristic regions of the recognition object is used. , ~, And perform a correlation operation between the template images a, ~ and the search range of the acquired image to extract a feature candidate region, the degree of overlap of the regions, the template image a, ~ placement information. Therefore, by recognizing the object,
Strong against shifts in the robot's viewpoint (that is, changes in perspective),
The remarkable effect that a so-called robust object recognition device can be constructed is obtained.
【図1】本発明の一実施例を示した図(その1)FIG. 1 is a diagram showing an embodiment of the present invention (No. 1).
【図2】本発明の一実施例を示した図(その2)FIG. 2 is a diagram showing an embodiment of the present invention (Part 2).
【図3】本発明の一実施例を示した図(その3)FIG. 3 is a diagram showing an embodiment of the present invention (part 3).
【図4】本発明の一実施例を示した図(その4)FIG. 4 is a diagram showing an embodiment of the present invention (No. 4).
【図5】本発明の一実施例を示した図(その5)FIG. 5 is a diagram showing an embodiment of the present invention (No. 5).
【図6】本発明の一実施例を示した図(その6)FIG. 6 is a diagram showing an embodiment of the present invention (No. 6).
【図7】本発明の一実施例を示した図(その7)FIG. 7 is a diagram showing an embodiment of the present invention (No. 7).
【図8】本発明の一実施例を示した図(その8)FIG. 8 is a diagram showing an embodiment of the present invention (No. 8).
【図9】本発明の一実施例を示した図(その9)FIG. 9 is a diagram showing an embodiment of the present invention (No. 9).
【図10】本発明の一実施例を示した図(その10)FIG. 10 is a view showing an embodiment of the present invention (No. 10).
【図11】従来の対象物の認識装置を説明する図FIG. 11 is a diagram illustrating a conventional object recognition device.
1 撮像装置, カメラ 2 画像入力装
置 3 相関追跡処理装置 4 対象物認識
装置, 認識装置 40a,40b,〜 特徴画像用局所相関演算部 41a,41b,〜 特徴画像用テンプレート用メモリ 42,42a 特徴候補領域評価部 43a,43b,〜 候補領域決定部 44 対象物候補領域絞り込み部 a,b,〜 特徴画像用テンプレート画像 aa,ab,〜 大きさ,分解能の異なるテ
ンプレート画像 d 背景テンプレート画像 e 追加テイプレート画像 相関値,特徴候補領域 テンプレート画像の配置情報,配置関係1 Image capturing device, camera 2 Image input device 3 Correlation tracking processing device 4 Object recognition device, recognition device 40a, 40b, ~ feature image local correlation calculator 41a, 41b, ~ feature image template memory 42, 42a Feature candidate Area evaluation unit 43a, 43b, ~ Candidate area determination unit 44 Target object candidate area narrowing unit a, b, ~ Feature image template image aa, ab, ~ Template image with different size and resolution d Background template image e Additional template Image correlation value, feature candidate area Template image layout information, layout relationship
Claims (5)
った種類の特徴画像のそれぞれに、該認識対象物の特徴
となる部分の複数のテンプレート画像を備えると共に、 上記テンプレート画像と、上記複数の異なった種類の取
得画像との相関をとる複数の特徴画像用局所相関演算部
と、 上記特徴画像用局所相関演算部で適用した複数のテンプ
レート画像を記憶する各特徴画像用テンプレート用メモ
リと、 上記特徴画像用局所相関演算部で得られた相関結果であ
る各特徴候補画像領域と、上記各特徴画像用テンプレー
ト用メモリから得られた、上記特徴画像用局所相関演算
部で適用した複数のテンプレート画像の配置関係とか
ら、該取得画像内の目標となる認識対象物を抽出する特
徴候補領域評価部とからなり、 上記特徴画像用局所相関演算部で得られた相関結果であ
る特徴候補画像と、上記適用した複数のテンプレート画
像の配置関係から、該取得画像内の目標となる認識対象
物を抽出することを特徴とする認識装置。1. A plurality of different types of feature images in a recognition space of a recognition target object are provided with a plurality of template images of portions that are features of the recognition target object, and the template image and the plurality of template images are provided. A plurality of local correlation calculators for feature images that correlate with different types of acquired images; a template memory for each feature image that stores a plurality of template images applied by the local correlation calculator for feature images; Each feature candidate image area that is a correlation result obtained by the feature image local correlation calculation unit, and a plurality of template images obtained from the feature image template memory and applied by the feature image local correlation calculation unit And a feature candidate area evaluation unit that extracts a target recognition target object in the acquired image from the arrangement relationship of A recognition apparatus, which extracts a target recognition target object in the acquired image from the arrangement relationship between the feature candidate image obtained as the correlation result and the plurality of applied template images.
認識対象物の認識空間における複数の異なった種類の特
徴画像のそれぞれに、該認識対象物の特徴となる部分の
複数のテンプレート画像として、各複数の異なった画像
内で、相関をとる領域の大きさ,分解能が異なる複数の
テンプレート画像を備えて、 上記複数の異なった種類の特徴画像のそれぞれにおい
て、上記各特徴画像用局所相関演算部で、各取得画像に
対して、上記複数のテンプレート画像を適用して、各取
得画像内で上記複数のテンプレート画像との相関が一致
した領域が最も多く重なった領域を、認識対象の存在す
る特徴候補領域とする候補領域決定部を備えたことを特
徴とする認識装置。2. The recognition device according to claim 1, wherein a plurality of templates of a portion that is a feature of the recognition target object are provided for each of a plurality of different types of feature images in the recognition space of the recognition target object. In each of the plurality of different images, a plurality of template images having different sizes and resolutions of regions to be correlated are provided in each of the plurality of different images. In the correlation calculation unit, the plurality of template images are applied to each of the acquired images, and the region in which the regions in which the correlations with the plurality of template images match each other are most overlapped with each other is the recognition target. A recognition device, comprising: a candidate area determination unit for defining existing feature candidate areas.
認識対象物の認識空間における複数の異なった種類の特
徴画像について、上記特徴画像用局所相関演算部の結果
情報を記憶している各特徴画像用テンプレート用メモリ
から得られる各テンプレート画像の配置関係情報と,同
じ特徴画像に対する各テンプレート画像の大きさ,分解
能とから、上記特徴画像用局所相関演算部で抽出した候
補画像をまとめて、特徴候補領域を判定する特徴候補領
域評価部を備えたことを特徴とする認識装置。3. The recognition device according to claim 2, wherein result information of the feature image local correlation calculation unit is stored for a plurality of different types of feature images in the recognition space of the recognition object. The candidate images extracted by the above-described feature image local correlation calculation unit are summarized based on the arrangement relationship information of each template image obtained from the feature image template memory and the size and resolution of each template image for the same feature image. And a feature candidate area evaluation unit for determining a feature candidate area.
対象物の認識空間における複数の異なった種類の特徴画
像のそれぞれに、該認識対象物の特徴となる部分以外の
部分のテンプレート画像を備え、 上記特徴画像用局所相関演算部で、上記認識対象物の特
徴となる部分以外の部分のテンプレート画像と取得画像
との相関をとり、該認識対象以外の部分を抽出して、認
識対象物を検出するための画像範囲を絞り込むことを特
徴とする認識装置。4. The recognition apparatus according to claim 1, wherein each of a plurality of different types of characteristic images in a recognition space of a recognition target object has a template of a part other than a part that becomes a feature of the recognition target object. An image is provided, and in the feature image local correlation calculation unit, the template image of a portion other than the characteristic portion of the recognition target is correlated with the acquired image, and the portion other than the recognition target is extracted to perform recognition. A recognition device characterized by narrowing an image range for detecting an object.
の認識装置であって、取得画像に対して、正確に対象物
の認識に寄与した領域を、次の同じ対象物の認識用のテ
ンプレート画像とするテンプレート追加・削除部を備え
たことを特徴とする認識装置。5. The recognition apparatus according to claim 1, or 2, or 3, or 4, wherein a region that contributes to the recognition of an object accurately in an acquired image is defined by the following same object. A recognition device, comprising: a template addition / deletion unit that serves as a template image for recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12164695A JP3371614B2 (en) | 1995-05-19 | 1995-05-19 | Recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12164695A JP3371614B2 (en) | 1995-05-19 | 1995-05-19 | Recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08315136A true JPH08315136A (en) | 1996-11-29 |
JP3371614B2 JP3371614B2 (en) | 2003-01-27 |
Family
ID=14816412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12164695A Expired - Fee Related JP3371614B2 (en) | 1995-05-19 | 1995-05-19 | Recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3371614B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000215319A (en) * | 1999-01-22 | 2000-08-04 | Canon Inc | Method and device for extracting image, and storage medium |
US6665439B1 (en) | 1999-04-07 | 2003-12-16 | Matsushita Electric Industrial Co., Ltd. | Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image |
-
1995
- 1995-05-19 JP JP12164695A patent/JP3371614B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000215319A (en) * | 1999-01-22 | 2000-08-04 | Canon Inc | Method and device for extracting image, and storage medium |
US6665439B1 (en) | 1999-04-07 | 2003-12-16 | Matsushita Electric Industrial Co., Ltd. | Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image |
US6885771B2 (en) | 1999-04-07 | 2005-04-26 | Matsushita Electric Industrial Co. Ltd. | Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image |
Also Published As
Publication number | Publication date |
---|---|
JP3371614B2 (en) | 2003-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4047154A (en) | Operator interactive pattern processing system | |
JP6143111B2 (en) | Object identification device, object identification method, and program | |
TWI505201B (en) | Object recognition device, object recognition method and program product | |
US10679358B2 (en) | Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program | |
JPH0676062A (en) | Picture processor | |
US5521987A (en) | Image processing method and apparatus employing gray scale images having fewer bits per pixel and gray scale image restoration using small areas of an image window | |
KR101741758B1 (en) | A Real-time Face Tracking Method Robust to Occlusion Based on Improved CamShift with Depth Information | |
JP3371614B2 (en) | Recognition device | |
JPH11306348A (en) | Method and device for object detection | |
RU2672622C1 (en) | Method of recognition of graphic images of objects | |
JPS61877A (en) | Form recognizer | |
US5253303A (en) | Character recognizing method and apparatus thereof | |
JP2007140729A (en) | Method and apparatus for detecting the position and orientation of an article | |
JPH08263655A (en) | Pattern recognition method | |
JP2000036047A (en) | Picture processor | |
JPH10332333A (en) | Method for detecting angle of rotation and position of object | |
JPH07192134A (en) | Image processing method | |
JP4718527B2 (en) | Object detection apparatus, object detection method, object detection program, and recording medium recording the program | |
JPH04350776A (en) | Pattern feature extractor and pattern inspector | |
JP3388918B2 (en) | String reader | |
JP2964594B2 (en) | Mark inspection method | |
JPS595945B2 (en) | Pattern recognition method | |
JP3572203B2 (en) | Pattern identification method | |
JP3349243B2 (en) | String reader | |
JPH04112276A (en) | Binary picture contour line chain encoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021022 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081122 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081122 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091122 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111122 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111122 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131122 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |