JPH05174149A - Picture recognition device - Google Patents

Picture recognition device

Info

Publication number
JPH05174149A
JPH05174149A JP3344489A JP34448991A JPH05174149A JP H05174149 A JPH05174149 A JP H05174149A JP 3344489 A JP3344489 A JP 3344489A JP 34448991 A JP34448991 A JP 34448991A JP H05174149 A JPH05174149 A JP H05174149A
Authority
JP
Japan
Prior art keywords
image
block
representative value
size
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3344489A
Other languages
Japanese (ja)
Other versions
JP2849256B2 (en
Inventor
Makoto Kosugi
信 小杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3344489A priority Critical patent/JP2849256B2/en
Publication of JPH05174149A publication Critical patent/JPH05174149A/en
Application granted granted Critical
Publication of JP2849256B2 publication Critical patent/JP2849256B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To enable the recognition after an object picture is easily found and the position and size are obtained by making a recognition object picture and an unknown picture in a mosaic state and searching/recognizing them. CONSTITUTION:A recognition object picture input part 1 fetches an object to be a recognition object, for instance, a typical human face picture if the object is human by using a TV camera or a scanner, etc., and inputs it in a rough search part 100. The object picture to be a recognition object is made in a rough mosaic state and rough position and size are found by scanning an unknown picture by using this picture as the feature of the object picture at the time of a search. Next, the object picture to be the recognition object is made in a fine mosaic state and accurate position and size are found by scanning around the already obtained rough position by using this picture. Further, recognition object picture is made in a fine mosaic and the object picture is recognized by performing the matching of the mosaic of the area obtaining the position and size in the already obtained unknown picture and the data which the previous recognition object picture is made in a finer mosaic.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力された自然画像の
中から目的とする画像を精度よく探索し、対象を特定す
るようにした画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition apparatus for accurately searching for a target image from input natural images and specifying a target.

【0002】[0002]

【従来の技術】代表的な自然画像は濃淡あるいはカラー
画像であるが、自然画像の中から目的とする画像を検出
し認識するため、従来は、画像の形状に注目し、形状情
報を特徴として入力画像内から特徴の一致する候補を探
出・認識するものであった。しかし、自然画像の中から
正しい形状を抽出することは至難であり、従来は、対象
物体と背景の切り分けのため、背景を事前学習したりす
ること、あるいは背景は一様なものに制限すること、線
分を抽出し易くするため人工的な剛物体などに対象を制
限すること、など種々の制約条件を課していた。
2. Description of the Related Art A typical natural image is a grayscale or color image. In order to detect and recognize a target image from the natural image, conventionally, attention has been paid to the shape of the image, and the shape information is used as a feature. It was to find out and recognize candidates with matching features from the input image. However, it is very difficult to extract the correct shape from the natural image. Conventionally, in order to separate the target object and the background, it is necessary to pre-learn the background or limit the background to a uniform background. However, various restrictions have been imposed, such as limiting the target to an artificial rigid object in order to facilitate the extraction of line segments.

【0003】[0003]

【発明が解決しようとする課題】目的の画像の有無の検
知でさえこのような困難が伴っており、まして自然画像
において対象物の正確な位置や大きさをつかむことは不
可能に近かった。
Even the detection of the presence or absence of the target image is accompanied by such difficulty, and it is almost impossible to grasp the exact position and size of the object in the natural image.

【0004】即ち、任意の自然画像の中から対象物を正
確に抽出することは至難のことであり、このため、実用
上、制約が多く有用性に難があった。本発明は、上記の
さまざまな制約条件を緩和し、目的とする画像を画面内
のどこにあるか正確に求め、この結果に基づき対象を認
識できるようにすることを目的としている。
That is, it is extremely difficult to accurately extract an object from an arbitrary natural image, and therefore, there are many practical restrictions and difficulty in usefulness. An object of the present invention is to relax the above-mentioned various constraints, accurately find a target image on the screen, and recognize an object based on the result.

【0005】[0005]

【課題を解決するための手段】本発明においては、対象
の特徴を形状ではなく粗い解像度の濃淡あるいはカラー
情報を用いる。即ち、リンカーンのモザイク画像からリ
ンカーンが識別できるように、解像度を大きく落とした
画像でも、対象の特徴を表現できることを根拠としてい
る。
SUMMARY OF THE INVENTION In the present invention, the characteristics of the object are not the shape but the grayscale or color information of coarse resolution. That is, it is based on the fact that even if the image has a significantly reduced resolution so that Lincoln can be identified from the Lincoln mosaic image, the target feature can be expressed.

【0006】具体的には、認識対象となる物体画像を粗
くモザイク化し、これを探索時の対象画像の特徴として
用いて、未知画像を走査しおおよその位置と大きさとを
見つける。次に、認識対象となる物体画像を細かくモザ
イク化し、これを用いて、既に得られた大まかな位置付
近を走査し正確な位置と大きさとを見つける。さらに、
認識対象物体画像を細かくモザイク化し、すでに得られ
た未知画像中の位置と大きさとを得ている領域のモザイ
クと上記先の認識対象物体画像を細かくモザイクしたデ
ータのマッチングにより対象画像を認識する。
Specifically, the object image to be recognized is roughly mosaiced, and this is used as a feature of the target image at the time of searching to scan the unknown image to find its approximate position and size. Next, the object image to be recognized is finely mosaiced, and using this, the vicinity of the roughly obtained position is scanned to find the accurate position and size. further,
The recognition target object image is finely mosaiced, and the target image is recognized by matching the mosaic of the region in which the position and the size have already been obtained in the unknown image with the data obtained by finely mosaicing the above recognition target object image.

【0007】[0007]

【作用】このように画像を数段階でモザイク化すること
により、任意の画面中から対象を正確に探し出し、さら
に認識することが容易に可能となる。
In this way, by mosaicing the image in several stages, it is possible to easily find the object from any screen and further recognize it.

【0008】[0008]

【実施例】以下、本発明の一実施例について図面により
説明する。図1は本発明における画像認識を行う一実施
例を示す図であり、図2は図1に示す粗探索部の構成、
図3は図1に示す詳細探索部の構成、図4は図1に示す
認識部の構成を示す。また図5と図6とは一緒になって
1つの図を表しており探索対象画像あるいは未知画像を
モザイク化し、未知画像の中から目的の対象を探索・認
識する過程を説明する図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an embodiment for performing image recognition according to the present invention, and FIG. 2 is a configuration of a rough search unit shown in FIG.
FIG. 3 shows the configuration of the detail search unit shown in FIG. 1, and FIG. 4 shows the configuration of the recognition unit shown in FIG. FIG. 5 and FIG. 6 together represent one figure and are diagrams for explaining a process of mosaicing a search target image or an unknown image and searching / recognizing a target target from the unknown image.

【0009】図1において1は認識対象画像入力部であ
り、TVカメラあるいはスキャナなどを用い、認識対象
となる物体、例えば人物であれば典型的な人物の顔画像
を取り込み、粗探索部100へ、具体的には、図2の粗
探索対象画像バッファ101へ入力する。したがって、
当該バッファ101の内容は濃淡あるいはカラーで表さ
れる画素の集合である。
In FIG. 1, reference numeral 1 denotes a recognition target image input unit, which uses a TV camera, a scanner or the like to capture an object to be recognized, for example, a face image of a typical person in the case of a person, and to a rough search unit 100. Specifically, it is input to the rough search target image buffer 101 in FIG. Therefore,
The content of the buffer 101 is a set of pixels represented by shading or color.

【0010】この認識対象画像を行列F=[f]で表
し、図5、図6のように、これをWa画素×Wa画素の
サイズのブロックでM×Nに分割し、このモザイク画像
FCの各ブロックをブロック内の代表値、例えば濃淡な
らばブロック内平均値、カラーならばブロック内で最大
の頻度を有する色で表す。
This image to be recognized is represented by a matrix F = [f]. As shown in FIGS. 5 and 6, this image is divided into M × N blocks each having a size of Wa pixels × Wa pixels, and the mosaic image FC is divided into blocks. Each block is represented by a representative value in the block, for example, an average value in the block if it is a shade, and a color having the maximum frequency in the block if it is a color.

【0011】粗探索対象画像モザイク化部102は、前
記バッファ101の画像をモザイク化し、粗探索対象画
像辞書103に蓄積する。なお、必要ならば、複数の探
索対象、この例では複数の顔画像の平均値をとり、代表
的な顔のモザイクデータとするか、複数の粗探索対象画
像を用意してもよい。
The coarse search target image mosaic unit 102 mosaics the image in the buffer 101 and stores it in the coarse search target image dictionary 103. If necessary, a plurality of search targets, in this example, an average value of a plurality of face images may be taken as representative face mosaic data, or a plurality of rough search target images may be prepared.

【0012】一方、未知画像Uは図1の未知画像入力部
2を介して粗探索部100の中の、図2に示す未知画像
バッファ104に取り込まれる。そこで未知画像Uに対
して、やはり図5のように、未知画像モザイク化部10
5でWa画素×Wa画素のブロックサイズでP×Qに分
割し、ブロックごとに代表値を算出しモザイク画像UC
を得る。なお、未知画像入力部2は前記の認識対象画像
入力部1と同一でもよい。
On the other hand, the unknown image U is taken into the unknown image buffer 104 shown in FIG. 2 in the rough search unit 100 via the unknown image input unit 2 of FIG. Therefore, for the unknown image U, as shown in FIG.
In 5, a block size of Wa pixels × Wa pixels is divided into P × Q, a representative value is calculated for each block, and a mosaic image UC is calculated.
To get The unknown image input unit 2 may be the same as the recognition target image input unit 1 described above.

【0013】次に、図5のように、未知画像のモザイク
を走査して粗探索対象画像モザイクと一致する場所を探
索する。即ち、次の原理に基づく。未知画像のP×Qの
モザイクデータのうち、任意のM×Nのモザイクデータ
をUi(斜線が存在する領域で示す)としたとき、Ui
と粗探索対象モザイクデータFCとの距離Diが最小値
となるときのUiの位置を粗探索結果とする。この距離
Diとして、種々の出し方があるが代表的なものとして
ユークリッド距離がある。
Next, as shown in FIG. 5, the mosaic of the unknown image is scanned to search for a location that matches the coarse-search target image mosaic. That is, it is based on the following principle. When the arbitrary M × N mosaic data among the P × Q mosaic data of the unknown image is set to Ui (indicated by a shaded area), Ui
The position of Ui when the distance Di between the target mosaic data FC and the rough search target mosaic data FC is the minimum value is the rough search result. As the distance Di, there are various ways to output, but a typical one is the Euclidean distance.

【0014】具体的には次のとおりである。図2におい
て、106は候補選択部であり、未知画像モザイク化部
105の中からM×Nブロック分の枠に入る候補データ
Ui(i=1,2…)を選択する。一般的には、はじめ
に未知画像の左上のM×Nブロック分がU1として選択
される。このモザイクデータU1との粗探索対象画像辞
書103からの粗探索対象モザイクデータFCとが距離
算出部107に入力され、上記の距離が算出される。こ
の結果は、このときの未知画像モザイクデータUCにお
けるM×Nの位置データ、即ちU1の位置データ、なら
びにモザイクのブロックサイズWaとともに位置・サイ
ズ・距離蓄積部108に蓄えられる。
Specifically, it is as follows. In FIG. 2, reference numeral 106 denotes a candidate selection unit that selects candidate data Ui (i = 1, 2 ...) That falls within the frame of M × N blocks from the unknown image mosaic unit 105. Generally, the upper left M × N block of the unknown image is generally selected as U1. The mosaic data U1 and the rough search target mosaic data FC from the rough search target image dictionary 103 are input to the distance calculation unit 107, and the distance is calculated. The result is stored in the position / size / distance storage unit 108 together with the M × N position data in the unknown image mosaic data UC at this time, that is, the U1 position data and the mosaic block size Wa.

【0015】さらに、候補選択部106は未知画像モザ
イク化部105から次の候補U2を選択し、距離算出部
107はこの時の距離を算出して、候補U2の位置、ブ
ロックサイズとともに位置・サイズ・距離蓄積部108
に蓄える。同様に、未知画像モザイクの全領域に対して
M×Nの候補Uiが順次選択され、選択された位置、ブ
ロックサイズと算出された距離はすべて位置・サイズ・
距離蓄積部108に蓄えられる。
Further, the candidate selection unit 106 selects the next candidate U2 from the unknown image mosaic unit 105, and the distance calculation unit 107 calculates the distance at this time, and the position and block size of the candidate U2 as well as the position / size.・ Distance storage unit 108
Store in. Similarly, M × N candidate Ui are sequentially selected for all regions of the unknown image mosaic, and the selected position, block size, and calculated distance are all position / size /
It is stored in the distance storage unit 108.

【0016】ところで、以上では未知画像のモザイク化
において、探索対象画像と同じブロックサイズ、Wa画
素×Wa画素を用いた。探索対象画像と未知画像内の探
索対象画像が同じサイズであればこのままでよいが、一
般的には、未知画像内における探索対象画像のサイズも
また未知である。このため、未知画像モザイク化部10
5は、ブロックサイズの画素数を、例えば、Waの1/
5〜10/5などのWa’に変化させる。そこで、一つ
一つのブロックサイズWa’ごとに上記の手順を繰り返
して、得られた距離とそのときの位置ならびにブロック
サイズWa’を位置・サイズ・距離蓄積部108に蓄え
る。
By the way, in the above, in the mosaicing of the unknown image, the same block size as the search target image, Wa pixels × Wa pixels, is used. If the search target image and the search target image in the unknown image have the same size, this size may be left unchanged, but generally, the size of the search target image in the unknown image is also unknown. Therefore, the unknown image mosaic unit 10
5 indicates the number of pixels of the block size, for example, 1 / Wa
Change to Wa 'such as 5 to 10/5. Therefore, the above procedure is repeated for each block size Wa ′, and the obtained distance, the position at that time, and the block size Wa ′ are stored in the position / size / distance storage unit 108.

【0017】また、複数の探索対象画像を辞書においた
場合も、同様にして、一つ一つの探索対象画像ごとに上
記の手順を繰り返し、得られた距離とそのときの位置お
よびブロックサイズを位置・サイズ・距離蓄積部108
に蓄える。
Also, when a plurality of search target images are stored in the dictionary, similarly, the above procedure is repeated for each search target image, and the obtained distance and the position and block size at that time are determined.・ Size / distance storage unit 108
Store in.

【0018】こうして、全部の場合の距離が位置・サイ
ズ・距離蓄積部108に蓄えられると、最小距離検出部
109と、位置・サイズ・距離蓄積部108の中の距離
データのうち、最小値を取るものを検出する。この値は
認識対象有無判定部110に送られ、この値がある閾値
以下の時は未知画像内に対象画像があると判断し、その
位置およびブロックサイズを位置・サイズ・距離蓄積部
108から取り出して結果を粗探索結果出力部111に
出力する。粗探索結果出力部111は、ブロックサイズ
Waから未知画像内の探索対象画像の大きさを[M×W
a]×[N×Wa]より算出する。
In this way, when the distances in all cases are stored in the position / size / distance storage unit 108, the minimum value of the minimum distance detection unit 109 and the distance data in the position / size / distance storage unit 108 is calculated. Detect what you take. This value is sent to the recognition target presence / absence determination unit 110, and when this value is less than or equal to a threshold value, it is determined that the target image exists in the unknown image, and the position and block size thereof are extracted from the position / size / distance accumulation unit 108. And outputs the result to the rough search result output unit 111. The rough search result output unit 111 calculates the size of the search target image in the unknown image from the block size Wa by [M × W
It is calculated from a] × [N × Wa].

【0019】一方、最小距離値がある閾値を越えたとき
は未知画像内に対象画像が無いと判断し、「無い」こと
を粗探索結果出力部111に出力する。粗探索結果出力
部111はこれらの結果を直ちに詳細探索部200に通
知する。
On the other hand, when the minimum distance value exceeds a certain threshold value, it is determined that the target image does not exist in the unknown image, and "no" is output to the rough search result output unit 111. The coarse search result output unit 111 immediately notifies the detailed search unit 200 of these results.

【0020】こうして粗探索により、認識対象のおおよ
その位置と大きさがわかると、モザイクのブロックを小
さくして、詳細にその位置を探索する。なお、詳細探索
では粗探索に比べ対象画像の領域を一部分に絞ってもよ
いが、ここでは、同一領域を用いる場合をのべる。
In this way, when the rough position and size of the recognition target are found by the rough search, the block of the mosaic is made small and the position is searched in detail. In the detailed search, the area of the target image may be narrowed down to a part as compared with the coarse search, but here, the same area is used.

【0021】まず、予め、図6のように、認識対象をW
b画素×Wb画素(Wb<Wa)のサイズのブロックで
M’×N’に分割し、各ブロックをブロック内の代表値
で表す。
First, as shown in FIG. 6, the recognition target is set to W in advance.
A block having a size of b pixels × Wb pixels (Wb <Wa) is divided into M ′ × N ′, and each block is represented by a representative value in the block.

【0022】具体的には、詳細探索対象画像バッファ2
01は、認識対象画像入力部1から認識対象画像データ
を取り込み、これを詳細探索対象画像モザイク化部20
2に送る。詳細探索対象画像モザイク化部202は、こ
の画像をモザイク化(FD)し、詳細探索対象画像辞書
203に蓄積する。
Specifically, the detailed search target image buffer 2
Reference numeral 01 captures recognition target image data from the recognition target image input unit 1 and stores the recognition target image data in the detailed search target image mosaic unit 20.
Send to 2. The detailed search target image mosaicking unit 202 mosaics (FD) this image and stores it in the detailed search target image dictionary 203.

【0023】なお、必要ならば、複数の詳細探索対象画
像の平均値をとるか、複数の詳細探索対象画像を用意す
ればよいのは、粗探索の場合と同じである。一方、上記
の粗探索結果が粗探索結果通知部220に通知される
と、未知画像バッファ204はこれを知って、図1の未
知画像入力部2から、未知画像Uの中の認識対象画像の
該当部分を取り込む。そこで、未知画像モザイク化部2
05は、これに対して、やはり図6のように、Wb画素
×Wb画素のブロックサイズでP’×Q’に分割し、ブ
ロックごとに代表値を算出しモザイクUDを得る。
If necessary, the average value of a plurality of detailed search target images may be taken or a plurality of detailed search target images may be prepared, as in the case of the rough search. On the other hand, when the above-described rough search result is notified to the rough search result notification unit 220, the unknown image buffer 204 knows this, and the unknown image input unit 2 of FIG. Capture the relevant part. Therefore, the unknown image mosaic unit 2
On the other hand, as shown in FIG. 6, 05 is divided into P ′ × Q ′ with a block size of Wb pixels × Wb pixels, a representative value is calculated for each block, and a mosaic UD is obtained.

【0024】そこで、粗探索の場合と同様、図6のよう
に、未知画像の該当部分画像のモザイクを走査して詳細
探索対象モザイクFDと一致する場所を探索する。すな
わち、部分画像のP’×Q’のモザイクUDのうち任意
のM’×N’のモザイクをUj(斜線が存在する領域で
示す)としたとき、Ujと探索対象のモザイクFDとの
距離Djを最小となるときのUjの位置を詳細探索結果
とする。
Therefore, as in the case of the rough search, as shown in FIG. 6, the mosaic of the corresponding partial image of the unknown image is scanned to search for a location that matches the detailed search target mosaic FD. That is, when an arbitrary M ′ × N ′ mosaic of the P ′ × Q ′ mosaic UD of the partial image is Uj (indicated by a shaded area), the distance Dj between Uj and the search target mosaic FD The position of Uj when is minimized is the detailed search result.

【0025】具体的には、図3において、候補選択部2
06は、未知画像モザイク化部205の中からM’×
N’分の枠に入る候補Ujを取り出す。距離算出部20
7は、このUjと詳細探索対象画像辞書203からの詳
細探索対象モザイクFDの距離Djを算出し、このとき
のUjの位置データ、ならびにモザイクのブロックサイ
ズWbとともに位置・サイズ・距離蓄積部208に送
る。
Specifically, in FIG. 3, the candidate selection unit 2
06 represents M ′ × out of the unknown image mosaicking unit 205.
A candidate Uj that falls within the N ′ frame is taken out. Distance calculator 20
7 calculates the distance Dj of this Uj and the detailed search target mosaic FD from the detailed search target image dictionary 203, and stores the position data of Uj at this time and the block size Wb of the mosaic in the position / size / distance accumulating unit 208. send.

【0026】ここで、必要に応じ、ブロックサイズWb
を変化させ(Wb’)たり、複数の詳細探索対象画像を
用いたりすることも、粗探索の場合と同様である。こう
して、最小距離検出部209で最小値を検出すると、こ
の時のUjの位置データならびにブロックサイズWbが
詳細探索結果出力部210に送られる。詳細探索結果出
力部210はブロックサイズWbより探索対象画像の正
確な大きさ、即ち、[M’×Wb]×[N’×Wb]を
算出し、位置データとともに認識部300に送出する。
Here, if necessary, the block size Wb
Is changed (Wb ′) or a plurality of detailed search target images are used, as in the case of the rough search. Thus, when the minimum distance detection unit 209 detects the minimum value, the position data of Uj and the block size Wb at this time are sent to the detailed search result output unit 210. The detailed search result output unit 210 calculates an accurate size of the search target image from the block size Wb, that is, [M ′ × Wb] × [N ′ × Wb], and sends it to the recognition unit 300 together with the position data.

【0027】こうして詳細探索により、認識対象の正確
な位置と大きさがわかると、モザイクのブロックを小さ
くして、対象が何かを認識する。まず、予め、図6のよ
うに、認識対象をWc画素×Wc画素(Wc<Wb)の
サイズのブロックでM”×N”に分割する。このモザイ
クの各ブロックを、前記の場合と同様にブロック内の代
表値で表す。なお、認識対象の特徴が部分領域に集中し
ていれば、その部分をM”×N”に分割してもよい。す
なわち、探索の過程では対象に普遍的な特徴が必要であ
るが、認識の過程では、個々を区別する特徴が必要であ
り、より細かなモザイクや部分領域が有効となる。
In this way, when the precise position and size of the recognition target are found by the detailed search, the mosaic block is reduced to recognize what the target is. First, as shown in FIG. 6, the recognition target is divided into M ″ × N ″ in advance by a block having a size of Wc pixels × Wc pixels (Wc <Wb). Each block of this mosaic is represented by a representative value in the block as in the above case. If the features to be recognized are concentrated in the partial area, that portion may be divided into M ″ × N ″. That is, in the process of searching, objects need universal features, but in the process of recognition, features that distinguish them are required, and finer mosaics and partial regions are effective.

【0028】ここでは、この部分領域を用いる場合をの
べる。具体的には、認識対象画像バッファ301は、認
識対象画像入力部1から認識対象画像の部分領域のデー
タを取り込み、これを認識対象画像モザイク化部302
に送る。認識対象画像モザイク化部302は、この画像
をモザイク化(FDD)し、認識対象画像辞書303に
蓄積する。
Here, the case of using this partial area will be described. Specifically, the recognition target image buffer 301 takes in the data of the partial area of the recognition target image from the recognition target image input unit 1 and stores it in the recognition target image mosaicking unit 302.
Send to. The recognition target image mosaicking unit 302 mosaics (FDD) this image and stores it in the recognition target image dictionary 303.

【0029】なお、通常、多くの認識対象画像について
モザイク化し、認識対象画像辞書303に蓄積する。一
方、上記の詳細探索結果が詳細探索部200より詳細探
索結果通知部320に通知されると、未知画像バッファ
304はこれを知って、図1の未知画像入力部2から、
未知画像Uの中の認識対象画像の正確な位置と大きさの
画像を取り込む。画像切り出し・モザイク化部305
は、さらにその中の部分領域に対して、やはり図6のよ
うにWc画素×Wc画素のブロックサイズでM”×N”
に分割し、ブロックごとに代表値を算出しモザイクデー
タUDDを得る。
Note that, usually, many recognition target images are mosaiced and stored in the recognition target image dictionary 303. On the other hand, when the detailed search result is notified from the detailed search unit 200 to the detailed search result notification unit 320, the unknown image buffer 304 knows this and the unknown image input unit 2 in FIG.
An image having an accurate position and size of the recognition target image in the unknown image U is captured. Image clipping / mosaicing unit 305
Is a block size of Wc pixels × Wc pixels as shown in FIG.
And the representative value is calculated for each block to obtain mosaic data UDD.

【0030】そこで、このモザイクデータUDDと認識
対象画像モザイクデータFDDの距離を算出し、これが
或る閾値以下であれば、未知画像は認識対象画像である
と判定する。あるいは、認識対象画像が複数あれば、F
DDとの距離の最小となるものを認識対象として判定す
る。ここでは、一般的な、後者の場合を例にのべる。
Therefore, the distance between the mosaic data UDD and the recognition target image mosaic data FDD is calculated, and if this is less than a certain threshold value, it is determined that the unknown image is the recognition target image. Alternatively, if there are a plurality of recognition target images, F
The object with the smallest distance from DD is determined as the recognition target. Here, a general case of the latter case will be described as an example.

【0031】具体的には、図4において、距離算出部3
06は、画像切り出し・モザイク化部305の出力であ
る未知画像モザイクデータUDDと認識対象画像辞書3
03からの認識対象画像モザイクデータFDDの距離を
算出し、このときの距離と認識対象画像の符号を距離蓄
積部307に送る。同様に、距離算出部306は、認識
対象画像辞書303から次々と認識対象画像モザイクデ
ータを取り出しては、未知画像モザイクデータUDDと
の距離を算出し、この値と認識対象画像の符号を距離蓄
積部307に送る。
Specifically, in FIG. 4, the distance calculation unit 3
Reference numeral 06 denotes the unknown image mosaic data UDD output from the image clipping / mosaicing unit 305 and the recognition target image dictionary 3
The distance of the recognition target image mosaic data FDD from 03 is calculated, and the distance at this time and the code of the recognition target image are sent to the distance storage unit 307. Similarly, the distance calculation unit 306 sequentially extracts the recognition target image mosaic data from the recognition target image dictionary 303, calculates the distance to the unknown image mosaic data UDD, and accumulates this value and the code of the recognition target image. Send to section 307.

【0032】つぎに、最小距離検出部308は、距離蓄
積部307の中の最小値を検出すると、この時の認識対
象画像の符号を認識結果出力部309へ送出する。この
結果はさらに出力部3へ送出される。
Next, when the minimum distance detection unit 308 detects the minimum value in the distance storage unit 307, the minimum distance detection unit 308 sends the code of the recognition target image at this time to the recognition result output unit 309. The result is further sent to the output unit 3.

【0033】一方、粗探索の結果、対象画像が「無し」
の場合は、このことが出力部3に通知される。こうし
て、未知画像Uの中から、まず認識対象画像Fのおおよ
その位置がみつかり、これを手がかりに正確な位置と大
きさが見つけられ、さらに対象が特定される。
On the other hand, as a result of the rough search, the target image is "none".
In the case of, this is notified to the output unit 3. In this way, the approximate position of the recognition target image F is first found in the unknown image U, and the accurate position and size are found by using this as a clue, and the target is further specified.

【0034】[0034]

【発明の効果】本発明によれば、認識対象画像および未
知画像をモザイク化し探索・認識することによって、背
景に対する一様性など特殊な条件を与えることなく、ま
た、線分を用いた場合のノイズによるエラーを起すこと
なく、容易に対象画像を見いだしてその位置や大きさを
得た上、認識することが可能となる。とくに、形状や色
が似通った対象、例えば、人間の顔や蝶などには効果的
である。
According to the present invention, by performing mosaic search and recognition on the recognition target image and the unknown image, no special condition such as uniformity with respect to the background is given, and when line segments are used. It is possible to easily find the target image, obtain its position and size, and recognize the target image without causing an error due to noise. In particular, it is effective for objects having similar shapes and colors, such as human faces and butterflies.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の全体を説明するブロック図である。FIG. 1 is a block diagram illustrating the entire invention.

【図2】粗探索部100の内容を示す図である。2 is a diagram showing the contents of a coarse search unit 100. FIG.

【図3】詳細探索部200の内容を示す図である。FIG. 3 is a diagram showing the contents of a detail search unit 200.

【図4】認識部300の内容を示す図である。FIG. 4 is a diagram showing the contents of a recognition unit 300.

【図5】認識対象画像ならびに未知画像をモザイク化
し、未知画像の中から認識対象を段階的に探索・認識す
る過程を説明する図である。
FIG. 5 is a diagram illustrating a process in which a recognition target image and an unknown image are mosaiced, and a recognition target is searched and recognized in stages from the unknown image.

【図6】図5と一緒になって1つの図を構成し、認識対
象画像ならびに未知画像をモザイク化し、未知画像の中
から認識対象を段階的に探索・認識する過程を説明する
図である。
FIG. 6 is a diagram illustrating a process of forming a single figure together with FIG. 5, mosaicizing a recognition target image and an unknown image, and gradually searching for and recognizing the recognition target from the unknown image. ..

【符号の説明】[Explanation of symbols]

1 認識対象画像入力部 2 未知画像入力部 3 出力部 100 粗探索部 200 詳細探索部 300 認識部 1 Recognition Target Image Input Section 2 Unknown Image Input Section 3 Output Section 100 Coarse Search Section 200 Detailed Search Section 300 Recognition Section

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 予め、認識対象となる自然画像を大きな
ブロックサイズでM×Nに分割し、各ブロックの濃淡あ
るいはカラーの代表値を算出して辞書データとして記憶
する第1の手段と、 同じく、予め、当該認識対象の自然画像を小さなブロッ
クサイズでM’×N’に分割し、各ブロックの濃淡ある
いはカラーの代表値を算出して辞書データとして記憶す
る第2の手段と、 同じく、予め当該認識対象の自然画像をさらに小さなブ
ロックサイズでM”×N”に分割し、各ブロックの濃淡
あるいはカラーの代表値を算出して辞書データとして記
憶する第3の手段と、 未知の自然画像が入力として与えられたとき、入力画像
を大きなブロックサイズでP×Qに分割して各ブロック
の代表値を算出し、この中から任意のM×Nの領域を取
り出して第1の手段で得られた代表値群とのなす距離を
算出し蓄積する第4の手段と、 P×Qの全領域にわたって第4の手段を繰り返し適用
し、得られた距離の中から最小値を求め、この最小値が
予め与えられた閾値より小さいとき、入力画像中の最小
値を導いた位置に認識対象画像に相当する画像があると
判定し、一方、最小値が閾値より大きいとき、入力画像
内に認識対象画像に相当する画像が存在しないと判断す
る第5の手段と、 第5の手段で、或る位置に認識対象有りと判定されたと
き、入力画像中の該当位置の近傍のM×N領域を小さな
ブロックでP’×Q’に分割し各ブロックの代表値を算
出し、この中から任意のM’×N’の領域を取り出して
第2の手段で得られた代表値群とのなす距離を算出しこ
れを蓄積する第6の手段と、 P’×Q’の全領域にわたって第6の手段を繰り返し適
用し、得られた距離の中から最小値を求め、この時の
M’×N’画像の位置と大きさを認識対象画像の位置と
大きさとする第7の手段と、 第7の手段で得られた入力画像中の該当位置と大きさの
領域を、より小さなブロックサイズでM”×N”に分割
して各ブロックの代表値を算出し、第3の手段で得られ
た代表値群とのなす距離を算出し、これが或る閾値以下
ならば認識対象画像であると特定する第8の手段を有す
ることを特徴とする画像認識装置。
1. A first means for dividing a natural image to be recognized into M × N in advance with a large block size, calculating a representative value of the shade or color of each block, and storing the representative value as dictionary data, , A second means for previously dividing the natural image to be recognized into M ′ × N ′ with a small block size, calculating a representative value of the shade or color of each block, and storing it as dictionary data. A third means for dividing the natural image to be recognized into M ″ × N ″ with a smaller block size, calculating a representative value of the grayscale or color of each block and storing the dictionary data, and an unknown natural image When given as an input, the input image is divided into P × Q with a large block size to calculate a representative value of each block, and an arbitrary M × N area is taken out from this to obtain a first means. The fourth means for calculating and accumulating the distance formed by the representative value group obtained in step (4) and the fourth means over the entire area of P × Q are repeatedly applied to obtain the minimum value from the obtained distances. When this minimum value is smaller than the threshold value given in advance, it is determined that there is an image corresponding to the recognition target image at the position where the minimum value is derived in the input image. On the other hand, when the minimum value is larger than the threshold value, The fifth means for determining that there is no image corresponding to the recognition target image, and when the fifth means determines that the recognition target is present at a certain position, M × in the vicinity of the corresponding position in the input image The N area is divided into P ′ × Q ′ by small blocks, the representative value of each block is calculated, and an arbitrary M ′ × N ′ area is taken out from this and a representative value group obtained by the second means is obtained. A sixth means for calculating the distance formed by and accumulating it, and for the entire area of P'x The sixth means is repeatedly applied, the minimum value is obtained from the obtained distances, and the position and size of the M ′ × N ′ image at this time are set as the position and size of the recognition target image. And a region of the corresponding position and size in the input image obtained by the seventh means is divided into M ″ × N ″ with a smaller block size to calculate the representative value of each block, and the third means An image recognition apparatus comprising: an eighth means for calculating a distance formed by the representative value group obtained in step (4), and if the distance is equal to or less than a certain threshold value, the image is recognized as a recognition target image.
【請求項2】 上記第1の手段において、予め対象とな
る画像を唯一でなく、類似する複数の画像群とし、これ
らの画像ごとにM×Nに分割して各ブロックの代表値を
算出し、複数の画像間の対応するブロックごとに平均値
を算出し、これを辞書として記憶することを特徴とする
請求項1記載の画像認識装置。
2. In the first means, a target image is previously set as a plurality of similar image groups, which are not unique, and each image is divided into M × N to calculate a representative value of each block. The image recognition apparatus according to claim 1, wherein an average value is calculated for each corresponding block among a plurality of images, and the average value is stored as a dictionary.
【請求項3】 上記第2の手段において、予め対象とな
る画像を唯一でなく、類似する複数の画像群とし、これ
らの画像ごとにM’×N’に分割して各ブロックの代表
値を算出し、複数の画像間の対応するブロックごとに平
均値を算出し、これを辞書として記憶することを特徴と
する請求項1記載の画像認識装置。
3. In the second means, a target image is previously set as a plurality of not only unique but similar image groups, each image is divided into M ′ × N ′, and a representative value of each block is represented. The image recognition apparatus according to claim 1, wherein the average value is calculated for each corresponding block among a plurality of images, and the average value is stored as a dictionary.
【請求項4】 上記第3の手段において、予め対象とな
る画像を唯一でなく、複数の画像群とし、これらの画像
ごとにM”×N”に分割して各ブロックの代表値を算出
し、これを辞書として記憶することを特徴とする請求項
1記載の画像認識装置。
4. In the third means, a target image is not a unique image but a plurality of image groups, and each image is divided into M ″ × N ″ to calculate a representative value of each block. The image recognition apparatus according to claim 1, wherein the image recognition apparatus stores the dictionary as a dictionary.
【請求項5】 上記第2の手段において、予め、認識対
象画像の部分画像を小さなブロックサイズでM’×N’
に分割し、各ブロックの代表値を算出して辞書データと
して記憶し、上記第6の手段および第7の手段におい
て、上記第5の手段で得られたM×N領域の部分領域を
P’×Q’に分割し、この中のM’×N’ごとに当該辞
書データとの距離を算出することを特徴とする請求項1
記載の画像認識装置。
5. The second means, wherein a partial image of the recognition target image is M ′ × N ′ in advance with a small block size.
And the representative value of each block is calculated and stored as dictionary data. In the sixth means and the seventh means, the partial area of the M × N area obtained by the fifth means is P ′. 2. The distance to the relevant dictionary data is calculated for each of M ′ × N ′ among them divided into × Q ′.
The image recognition device described.
【請求項6】 上記第3の手段において、予め、認識対
象画像の部分画像を、より小さなブロックサイズでM”
×N”に分割し、各ブロックの代表値を算出して辞書デ
ータとして記憶し、上記第8の手段において、上記M’
×N’領域を、より小さなブロックサイズでM”×N”
に分割することを特徴とする請求項1記載の画像認識装
置。
6. The third means, wherein the partial image of the recognition target image is M ″ with a smaller block size in advance.
× N ″, and the representative value of each block is calculated and stored as dictionary data.
M × N 'area with a smaller block size
The image recognition apparatus according to claim 1, wherein the image recognition apparatus is divided into
【請求項7】 上記第4の手段において、分割に用いる
ブロックサイズを可変とすることを特徴とする請求項1
記載の画像認識装置。
7. The fourth means is characterized in that the block size used for division is variable.
The image recognition device described.
【請求項8】 上記第6の手段において、分割に用いる
ブロックサイズを可変とすることを特徴とする請求項1
記載の画像認識装置。
8. The sixth means, wherein the block size used for division is variable.
The image recognition device described.
JP3344489A 1991-12-26 1991-12-26 Image recognition device Expired - Fee Related JP2849256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3344489A JP2849256B2 (en) 1991-12-26 1991-12-26 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3344489A JP2849256B2 (en) 1991-12-26 1991-12-26 Image recognition device

Publications (2)

Publication Number Publication Date
JPH05174149A true JPH05174149A (en) 1993-07-13
JP2849256B2 JP2849256B2 (en) 1999-01-20

Family

ID=18369663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3344489A Expired - Fee Related JP2849256B2 (en) 1991-12-26 1991-12-26 Image recognition device

Country Status (1)

Country Link
JP (1) JP2849256B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302327A (en) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting image of object
JPH0883341A (en) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting object area and object recognizing device
JPH08263662A (en) * 1995-03-24 1996-10-11 Ricoh Co Ltd Method for recognizing color picture
WO1999060522A1 (en) * 1998-05-19 1999-11-25 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
JP2000082147A (en) * 1998-09-05 2000-03-21 Sharp Corp Method for detecting human face and device therefor and observer tracking display
JP2000099686A (en) * 1998-09-17 2000-04-07 Nippon Telegr & Teleph Corp <Ntt> Pattern recognition and vehicle recognition method and storage medium recording its program
JP2000215319A (en) * 1999-01-22 2000-08-04 Canon Inc Method and device for extracting image, and storage medium
JP2005157679A (en) * 2003-11-25 2005-06-16 Sony Corp Object detecting device and method and group learning device and method
US7319778B2 (en) 2002-01-15 2008-01-15 Fujifilm Corporation Image processing apparatus
WO2008047774A1 (en) * 2006-10-17 2008-04-24 Toa Corporation Moving image processing device, moving image processing method, and moving image processing program
US7466905B2 (en) 1998-05-20 2008-12-16 Sony Computer Entertainment Inc. Information processing device and method, distribution medium, and recording medium
JP2009252118A (en) * 2008-04-09 2009-10-29 Sony Corp Imaging apparatus, image processing apparatus, and image analysis method in these, and program
US8019128B2 (en) 2007-01-31 2011-09-13 Brother Kogyo Kabushiki Kaisha Face detection device
US8107725B2 (en) 2007-11-30 2012-01-31 Toyota Jidosha Kabushiki Kaisha Image processor and image processing method

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302327A (en) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting image of object
JPH0883341A (en) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting object area and object recognizing device
JPH08263662A (en) * 1995-03-24 1996-10-11 Ricoh Co Ltd Method for recognizing color picture
KR100575472B1 (en) * 1998-05-19 2006-05-03 가부시키가이샤 소니 컴퓨터 엔터테인먼트 Image processing apparatus and method
EP0999518A1 (en) * 1998-05-19 2000-05-10 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
AU751852B2 (en) * 1998-05-19 2002-08-29 Sony Interactive Entertainment Inc. Image processing apparatus and method, and providing medium
US6714660B1 (en) 1998-05-19 2004-03-30 Sony Computer Entertainment Inc. Image processing device and method, and distribution medium
US7620206B2 (en) 1998-05-19 2009-11-17 Sony Computer Entertainment Inc. Image processing device and method, and distribution medium
EP0999518A4 (en) * 1998-05-19 2005-07-27 Sony Computer Entertainment Inc Image processing apparatus and method, and providing medium
WO1999060522A1 (en) * 1998-05-19 1999-11-25 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
US7200247B2 (en) 1998-05-19 2007-04-03 Sony Computer Entertainment Inc. Image processing device and method, and distribution medium
KR100812903B1 (en) * 1998-05-19 2008-03-11 가부시키가이샤 소니 컴퓨터 엔터테인먼트 Image processing apparatus and method, and recording medium of program
US7466905B2 (en) 1998-05-20 2008-12-16 Sony Computer Entertainment Inc. Information processing device and method, distribution medium, and recording medium
JP2000082147A (en) * 1998-09-05 2000-03-21 Sharp Corp Method for detecting human face and device therefor and observer tracking display
JP2000099686A (en) * 1998-09-17 2000-04-07 Nippon Telegr & Teleph Corp <Ntt> Pattern recognition and vehicle recognition method and storage medium recording its program
JP2000215319A (en) * 1999-01-22 2000-08-04 Canon Inc Method and device for extracting image, and storage medium
US7319778B2 (en) 2002-01-15 2008-01-15 Fujifilm Corporation Image processing apparatus
JP2005157679A (en) * 2003-11-25 2005-06-16 Sony Corp Object detecting device and method and group learning device and method
JP2008102589A (en) * 2006-10-17 2008-05-01 Toa Corp Moving image processor, moving image processing method and moving image processing program
WO2008047774A1 (en) * 2006-10-17 2008-04-24 Toa Corporation Moving image processing device, moving image processing method, and moving image processing program
US8019128B2 (en) 2007-01-31 2011-09-13 Brother Kogyo Kabushiki Kaisha Face detection device
US8107725B2 (en) 2007-11-30 2012-01-31 Toyota Jidosha Kabushiki Kaisha Image processor and image processing method
JP2009252118A (en) * 2008-04-09 2009-10-29 Sony Corp Imaging apparatus, image processing apparatus, and image analysis method in these, and program
JP4535164B2 (en) * 2008-04-09 2010-09-01 ソニー株式会社 Imaging apparatus, image processing apparatus, and image analysis method and program therefor
US8243159B2 (en) 2008-04-09 2012-08-14 Sony Corporation Image capturing device, image processing device, image analysis method for the image capturing device and the image processing device, and program for facial attribute detection

Also Published As

Publication number Publication date
JP2849256B2 (en) 1999-01-20

Similar Documents

Publication Publication Date Title
JP4372051B2 (en) Hand shape recognition apparatus and method
JP3987264B2 (en) License plate reader and method
US8526742B2 (en) Image processing apparatus, method, and program that classifies data of images
JPH05174149A (en) Picture recognition device
US20150213328A1 (en) Object identification apparatus, object identification method, and program
TWI505201B (en) Object recognition device, object recognition method and program product
JP5361524B2 (en) Pattern recognition system and pattern recognition method
JPH1093817A (en) Document picture matching method, medium capable of computer reading and document picture matching device
JP2015187759A (en) Image searching device and image searching method
US20030012440A1 (en) Form recognition system, form recognition method, program and storage medium
JPH08235341A (en) Method and device for document filing
JPH05159063A (en) Image retrieving device
JPH05159064A (en) Image searching device
JP5538781B2 (en) Image search apparatus and image search method
US20020012468A1 (en) Document recognition apparatus and method
JP2002342758A (en) Visual recognition system
JP4042602B2 (en) Image processing device
JP3330348B2 (en) Video search method and apparatus, and recording medium storing video search program
JP2010102501A (en) Image processing device, image processing method, and program
JP4133246B2 (en) Image deformation information generation apparatus, image deformation information generation method, and image deformation information generation program
JP6265641B2 (en) Image processing apparatus, image processing method, and image processing program
WO2003063082A1 (en) Moving picture search apparatus
JP6780262B2 (en) Image converter, program
JP2005202938A (en) Image search apparatus and image search method
JPH0876913A (en) Image processor

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees