JPH11191109A - Device and method for retrieving object - Google Patents

Device and method for retrieving object

Info

Publication number
JPH11191109A
JPH11191109A JP9358781A JP35878197A JPH11191109A JP H11191109 A JPH11191109 A JP H11191109A JP 9358781 A JP9358781 A JP 9358781A JP 35878197 A JP35878197 A JP 35878197A JP H11191109 A JPH11191109 A JP H11191109A
Authority
JP
Japan
Prior art keywords
blocks
profile data
image
axis
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9358781A
Other languages
Japanese (ja)
Inventor
Shozo Abe
省三 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP9358781A priority Critical patent/JPH11191109A/en
Publication of JPH11191109A publication Critical patent/JPH11191109A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable the retrieval of a relevant object from a retrieval object image even when its position and size are different from a designated object. SOLUTION: A division part 108 divides a rectangular object area into n×m pieces of blocks. In the unit of (n) pieces of blocks, an extraction part 106 extracts profile data to a Y axis in the retrieval object image concerning the representative hue value of these blocks and detects a clamp area where the distribution is overlapped on the respective profile data of (n) pieces of relevant blocks. The extraction part 106 extracts profile data to an X axis concerning the representative hue value of (n) pieces of relevant blocks while defining the area on the retrieval object image in the detected clamp area as an object, and a retrieval part 109 detects a clamp area where the distribution is continuously adjacent on the respective relevant profile data. By performing this processing (m) times while switching the unit of (n) pieces of blocks, the designated object is retrieved from the retrieval object image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、主に大量の画像、
及びまたは映像の中から、目的とする画像または映像の
1コマを効率的に検索するのに好適なオブジェクト検索
装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention mainly relates to a large amount of images,
The present invention relates to an object search apparatus and method suitable for efficiently searching for one frame of a target image or video from a video.

【0002】[0002]

【従来の技術】近年、マルチメディア情報関連のコンピ
ュータシステムが個人ベースで使われるようになってき
ており、メディアとして従来からのテキストに加え、音
声、図形、カラー画像、映像などといった素材を手軽に
取り扱えるようになってきている。
2. Description of the Related Art In recent years, multimedia information-related computer systems have been used on an individual basis. In addition to conventional text, media such as voice, graphics, color images, and video can be easily used as media. It can be handled.

【0003】ここで、画像素材は、インターネットのワ
ールド・ワイド・ウェブ(WWW)上の各サイトのフリ
ーのものや、有料の画像データベース上などに多数存在
する。また、最近では映像もデジタル化され、ΜPEG
1,ΜPEG2などのデジタル・ファイルとして利用で
きるようになってきている。このデジタル化された映像
は時系列ファイルとして、その1コマ1コマ(つまりフ
レーム画像)は静止画像と同様に取り扱える。そこで、
以降の説明では煩雑さを避けるために、映像素材も画像
素材の一種として位置付け、全て画像素材と呼ぶことに
する。
[0003] Here, there are a large number of free image materials on each site on the World Wide Web (WWW) of the Internet and on a paid image database. Recently, video has also been digitized,
It can be used as digital files such as 1, @ PEG2. The digitized video can be handled as a time-series file, and each frame (that is, frame image) can be handled in the same manner as a still image. Therefore,
In the following description, in order to avoid complication, video materials are also regarded as a kind of image materials, and are all referred to as image materials.

【0004】さて、大量の画像素材(画像データ)か
ら、各個人が自身の必要とする画像、例えば各個人の好
みや感覚に合った画像を検索する作業は大変負担のかか
るものである。そこで従来は、画像検索作業を容易にす
るために、1画面上に縮小した検索対象画像を複数枚同
時表示して利用者に選択させたり、利用者が検索しよう
とする画像の特徴を表すスケッチ画像を検索条件として
利用者の操作で提示可能としたり、或いは目的とする画
像に類似した画像を検索条件として利用者の操作で1枚
提示可能とする手法が適用されていた。
[0004] Now, the task of retrieving an image required by each individual, for example, an image suitable for each individual's taste and feeling, from a large amount of image materials (image data) is extremely burdensome. Conventionally, in order to facilitate image search work, a plurality of search target images reduced on one screen are simultaneously displayed to allow a user to select, or a sketch representing a feature of an image to be searched by the user. A technique has been applied in which an image can be presented by a user operation as a search condition or an image similar to a target image can be presented by a user operation as a search condition.

【0005】[0005]

【発明が解決しようとする課題】しかしながら従来の検
索手法、例えば縮小した画像を複数枚画面上に同時に表
示してその中から利用者に選択させる、いわゆるマルチ
画像表示を用いた手法では、対象となる画像データ数が
ある程度以上になってしまうと、表示画面の枚数が増え
てしまい、途端に検索効率が落ちてしまうという不具合
がある。更に、縮小画面数が増えてくると、縮小画面を
切り替えて長時間見ながら検索しなければならないとい
う不具合もある。
However, in a conventional search method, for example, a method using so-called multi-image display, in which a plurality of reduced images are displayed on a screen at the same time and a user selects one of the reduced images is selected. If the number of pieces of image data exceeds a certain level, the number of display screens increases, and there is a problem that the search efficiency immediately drops. Furthermore, when the number of reduced screens increases, there is also a problem that the search must be performed while switching the reduced screens and watching for a long time.

【0006】次に、簡単なスケッチ画像で類似画像を提
示する手法においては、絵を描くセンスがある程度ない
と、的確な提示が難しく、そういった絵柄を描くこと
は、スケッチ画といっても手間がかかるという問題があ
る。
Next, in a method of presenting a similar image using a simple sketch image, it is difficult to accurately present the image if there is no sense of drawing, and it is troublesome to draw such a pattern even if it is a sketch image. There is such a problem.

【0007】また、目的とする画像に類似した画像を1
枚提示する手法は、画像全体の雰囲気が類似している画
像の検索、いわゆる、あいまい検索方法である。勿論、
画像内の上下左右に特徴があった場合などには、ある程
度類似した画像を検索することができる。しかしなが
ら、画像内の任意の領域に存在する検索対象物(オブジ
ェクト)に対して検索する場合には、提示した画像内の
同じ位置と領域の大きさに対する画像だけしか類似画像
として抽出しないという問題点がある。通常、検索対象
とする人物や車といったオブジェクトは画像内の位置、
大きさが自在に変化するものであるため、この問題は無
視できない。
[0007] Further, an image similar to the intended image is stored as one image.
The method of presenting sheets is a search for images in which the atmosphere of the entire image is similar, that is, a so-called fuzzy search method. Of course,
When there is a characteristic in the upper, lower, left, and right sides of the image, an image similar to some extent can be searched. However, when a search is performed for a search object (object) existing in an arbitrary area in an image, only images corresponding to the same position and area size in the presented image are extracted as similar images. There is. Usually, objects such as people and cars to be searched are located in the image,
This problem cannot be ignored because the size can be changed freely.

【0008】本発明は上記事情を考慮してなされたもの
でその目的は、大量の画像素材を取り扱うシステムにお
いて、画像内に存在するオブジェクト(検索対象物)を
指定して、当該オブジェクトが他の画像内のどこの位置
にあっても、また提示したオブジェクトの大きさに制限
されず任意の大きさの場合にも、類似したオブジェクト
が存在する画像として抽出することができるオブジェク
ト検索装置及び方法を提供することにある。
The present invention has been made in view of the above circumstances, and has as its object to specify an object (search target) existing in an image in a system for handling a large amount of image material, and to specify the object in another image. An object search apparatus and method capable of extracting a similar object at any position in an image, and any size without limitation to the size of a presented object. To provide.

【0009】[0009]

【課題を解決するための手段】本発明は、指定画像内の
指定オブジェクトを包含するオブジェクト領域を設定す
るオブジェクト領域指定手段と、設定されたオブジェク
ト領域をX軸方向またはY軸方向のうちの一方の方向に
n等分、他方の方向にm等分してn×m個のブロックに
分割するオブジェクト領域分割手段と、上記指定画像上
のn×m個の各ブロック毎に、そのブロックの代表とな
る色相値を抽出する代表色相値決定手段と、色相画像に
変換された検索対象画像から、上記各ブロックの代表色
相値に対するX軸への第1のプロフィールデータ及びY
軸への第2のプロフィールデータを抽出するプロフィー
ル抽出手段と、n個のブロックを単位に、対応する各第
1のプロフィールデータ及び各第2のプロフィールデー
タをもとに、色相の並びが当該n個のブロックの代表色
相値の並びに一致する分布を持つ領域を検出することに
より、検索対象画像から指定オブジェクトを検索するオ
ブジェクト検索手段とを備えたことを特徴とする。ここ
で、オブジェクト領域は、指定オブジェクト(指定対象
物)を包含する矩形、例えば指定オブジェクトを包含す
る最小の矩形、即ち外接矩形とするとよい。
According to the present invention, there is provided an object area designating means for setting an object area including a designated object in a designated image, and setting the set object area in one of an X-axis direction and a Y-axis direction. And an object area dividing means for dividing into n × m blocks by dividing into n equal parts in the direction of n and m in the other direction, and a representative of the blocks for each of n × m blocks on the designated image. A representative hue value determining means for extracting a hue value which becomes a first hue value, and first profile data on the X-axis corresponding to the representative hue value of each block from the search target image converted into the hue image and Y
Profile extraction means for extracting the second profile data to the axis, and the arrangement of the hues is determined based on the corresponding first profile data and each second profile data in units of n blocks. Object searching means for searching a specified object from a search target image by detecting a region having a distribution in which the representative hue values of the blocks correspond to each other. Here, the object area may be a rectangle containing the designated object (designated object), for example, a minimum rectangle containing the designated object, that is, a circumscribed rectangle.

【0010】このように、色相画像に変換された検索対
象画像から、n×m個の各ブロック毎に、そのブロック
の代表色相値に対するX軸への第1のプロフィールデー
タ及びY軸への第2のプロフィールデータを抽出し、m
組の各n個のブロックの各々の組について、その組内の
n個の各ブロックの代表色相値についての上記各第1の
プロフィールデータ及び上記各第2のプロフィールデー
タをもとに、色相の並びが当該n個のブロックの代表色
相値の並びに一致する分布を持つ領域を検出することに
より、指定オブジェクトと位置、大きさが異なる場合で
も、その指定オブジェクトと2次元的に同一の色相の組
み合わせパターン(色相パターン)の画像部分、即ち類
似オブジェクトを持つ画像を検索することが可能とな
る。
As described above, from the search target image converted into the hue image, the first profile data on the X-axis and the first profile data on the Y-axis with respect to the representative hue value of each block are obtained for each of n × m blocks. 2 to extract the profile data
For each set of each of the n blocks in the set, the hue of the hue is determined based on the first profile data and the second profile data for the representative hue values of the n blocks in the set. By detecting a region having a distribution in which the arrangement of the representative hue values of the n blocks matches the arrangement, even if the position and the size are different from the designated object, a combination of the same hue two-dimensionally with the designated object An image portion of a pattern (hue pattern), that is, an image having a similar object can be searched.

【0011】ここで、m組の各n個のブロックについ
て、色相の並びが当該n個のブロックの代表色相値の並
びに一致する分布を持つ領域、即ち指定オブジェクトと
同一の色相パターンの領域を効率的な検出するには、次
のようにすればよい。
Here, for each of the n blocks of the m sets, a region in which the arrangement of hues has a distribution in which the representative hue values of the n blocks coincide with each other, that is, a region of the same hue pattern as that of the designated object, is used as an efficient In order to perform a proper detection, the following may be performed.

【0012】まず、検索対象画像から、n×m個の各ブ
ロックの代表色相値に対するX軸またはY軸のいずれか
一方の軸へのプロフィールデータ(1次元プロフィー
ル)を抽出する。そして、各n個のブロックを単位に、
そのn個のブロックの代表色相値についての各プロフィ
ールデータ上の分布を比較して、各プロフィールデータ
間で分布(つまり塊のある領域)が重なっているという
条件に合致する領域(プロフィールデータがn個のブロ
ックの配列の方向に直交する方向の軸に対するプロフィ
ールをとったものである場合)、或いは当該n個のブロ
ックの並び順で分布が連続して隣り合うという条件に合
致する領域(プロフィールデータがn個のブロックの配
列の方向に平行な方向の軸に対するプロフィールをとっ
たものである場合)を検出するとよい。この条件に合致
する領域には、色相の並びが当該n個のブロックの代表
色相値の並びに一致する画像部分が含まれている可能性
がある。
First, profile data (one-dimensional profile) for one of the X-axis and the Y-axis for the representative hue value of each of the n × m blocks is extracted from the search target image. Then, in units of n blocks,
The distribution of the representative hue values of the n blocks on each profile data is compared, and an area (profile data of n (In the case of taking a profile with respect to an axis in a direction orthogonal to the direction of the arrangement of the blocks), or an area (profile data) that satisfies the condition that the distribution is continuously adjacent in the arrangement order of the n blocks. Is a profile of an axis in a direction parallel to the direction of the array of n blocks). An area that satisfies this condition may include an image portion where the arrangement of hues matches the representative hue values of the n blocks.

【0013】そこで、この条件に合致する領域が検出で
きた場合には、当該検出した検索対象画像内の領域を対
象として、対応するn個のブロックの代表色相値に対す
るX軸またはY軸の他方の軸、即ち先の場合とは逆の軸
へのプロフィールデータを抽出し、そのn個の各ブロッ
クの代表色相値についての各プロフィールデータ上の分
布を比較して、各プロフィールデータ間で塊領域が当該
n個のブロックの並び順で分布が連続して隣り合うとい
う条件に合致する領域(プロフィールデータがn個のブ
ロックの配列の方向に平行な方向の軸に対するプロフィ
ールをとったものである場合)、或いは各プロフィール
データ間で塊領域が重なっているという条件に合致する
領域(プロフィールデータがn個のブロックの配列の方
向に直交する方向の軸に対するプロフィールをとったも
のである場合)を検出する。この条件に合致する領域
は、色相の並びが当該n個のブロックの代表色相値の並
びに一致する画像部分となる。
Therefore, if an area that meets this condition is detected, the other of the X-axis or Y-axis with respect to the representative hue value of the corresponding n blocks is targeted for the detected area in the search target image. , Ie, the profile data on the axis opposite to the previous case is extracted, and the distribution of the representative hue values of each of the n blocks on each profile data is compared. Is a region that satisfies the condition that the distribution is continuously adjacent in the arrangement order of the n blocks (in the case where the profile data is obtained by taking a profile with respect to an axis parallel to the direction of the arrangement of the n blocks). ) Or an area that satisfies the condition that the block areas overlap between each profile data (the direction in which the profile data is orthogonal to the direction of the array of n blocks) If those taking the profile relative to the axis) is detected. An area that satisfies this condition is an image portion where the arrangement of hues matches the representative hue values of the n blocks.

【0014】したがって、上記の各プロフィールデータ
上の分布の比較を伴う領域検出を、m組の各n個のブロ
ックについて1組単位で実行することで、指定オブジェ
クトと同一の色相パターンの画像部分、即ち類似オブジ
ェクトを持つ画像を検索することが可能となる。
Therefore, by executing the above-described region detection involving comparison of distribution on each profile data for each of the n blocks of m sets, an image portion of the same hue pattern as the designated object, That is, it is possible to search for an image having a similar object.

【0015】また、上記の各プロフィールデータ上の分
布の比較を伴う領域検出を効率的に行うために、オブジ
ェクト領域をn×m個のブロックに分割した際に、当該
各ブロックにラベル付け(例えば、連続する番号付け)
を行うことで各ブロック間の相対位置関係を定義すると
共に、n×m個の各ブロックの代表色相値を抽出した際
には、上記ラベル付けした順番に対応した配列の色相値
からなる代表色相値テーブル(代表色相値組み合わせパ
ターンデータ)を作成するとよい。このようにすると、
オブジェクト検索の際、抽出したオブジェクトの大きさ
や画像上の位置に関係なく、代表色相値テーブルの示す
色相の組み合わせパターンの配列の順番に色相値が抽出
されれば、指定オブジェクトと一致したと簡単に判断で
きる。
Further, in order to efficiently perform the area detection accompanied by the comparison of the distribution on each profile data, when the object area is divided into n × m blocks, each block is labeled (for example, , Consecutive numbering)
Is performed, the relative positional relationship between the blocks is defined, and when the representative hue values of the n × m blocks are extracted, the representative hue values of the hue values in the array corresponding to the above-mentioned labeling order are used. It is preferable to create a value table (representative hue value combination pattern data). This way,
During object search, if hue values are extracted in the order of the arrangement of hue combination patterns shown in the representative hue value table, regardless of the size of the extracted objects and their positions on the image, it is easy to determine that they match the specified object. I can judge.

【0016】ところで、画像の種類、例えば監視画像等
は、アニメーション画像やグラフィック画像と異なっ
て、Y軸方向に不連続となる部分が発生する可能性があ
る。そこで、この種の画像を対象としてオブジェクト検
索を行う場合には、X軸へのプロフィールデータを先に
使用するようにするとよい。つまり、検索対象画像の種
類を表す属性情報に応じて、上記第1または第2のプロ
フィールデータのうちのいずれを先に使用するかを決定
するとよい。
By the way, the type of image, for example, a monitoring image, may be discontinuous in the Y-axis direction unlike an animation image or a graphic image. Therefore, when performing an object search for this type of image, it is preferable to use profile data for the X axis first. That is, it is preferable to determine which of the first and second profile data is used first according to the attribute information indicating the type of the search target image.

【0017】また、各ブロック毎の代表色相値を抽出す
る場合、ブロック内で面積が最大となる色相値を代表色
相値とするのがよいが、更に当該色相値に上下に一定の
幅を持たせ、その幅を持った色相値を、真の代表色相値
とするとよい。
When a representative hue value for each block is extracted, the hue value having the largest area in the block is preferably used as the representative hue value, and the hue value further has a certain width up and down. The hue value having that width may be used as a true representative hue value.

【0018】このようにすると、指定オブジェクトに類
似したオブジェクトを効率的に検索でき、上記一定幅を
増減することで、検索のレベル、つまり類似オブジェク
トとみなすレベルを任意に設定することが可能となる。
In this way, an object similar to the designated object can be efficiently searched, and the search level, that is, the level regarded as a similar object can be arbitrarily set by increasing or decreasing the fixed width. .

【0019】また、ブロック内で面積が最大となる色相
値を代表色相値として決定した際に、その面積の当該ブ
ロックに占める割合を求め、その割合が所定割合以下の
場合には、その面積が最大の色相値に連続する両端の色
相値を代表色相値に加える操作を上記所定割合を越える
まで行って上記代表色相値に幅を持たせてもよい。この
とき更に、代表色相値の両端に一定の幅を持たせてもよ
い。
Further, when the hue value having the largest area in the block is determined as the representative hue value, the ratio of the area to the block is calculated. An operation of adding the hue values at both ends continuous with the maximum hue value to the representative hue value may be performed until the ratio exceeds the above-described predetermined ratio, so that the representative hue value has a width. At this time, both ends of the representative hue value may have a certain width.

【0020】このようにすると、指定オブジェクトに類
似したオブジェクトを効率的に検索できる。また、プロ
フィールデータの分布(塊領域)の端部については、そ
の端部の画素数が予め定められた閾値以上であれば、そ
こを当該分布の境界とし、閾値に満たない場合には、閾
値以上となる位置まで当該分布の境界を移動してプロフ
ィールデータを再抽出するとよい。
In this manner, an object similar to the specified object can be efficiently searched. If the number of pixels at the end of the distribution (lump area) of the profile data is equal to or larger than a predetermined threshold, the end is set as a boundary of the distribution. The profile data may be extracted again by moving the boundary of the distribution to the position described above.

【0021】このようにすると、オブジェクト検索の精
度を高めることができる。また、プロフィールデータ上
で予め定められた幅以上の分布が間隔を保って隣接して
存在する場合に、代表色相値の幅を上下にそれぞれ一定
値だけ広げて対応するプロフィールデータを再抽出する
とよい。このようにすると、何らかの要因で不連続とな
った部分を自動補正することが可能となり、オブジェク
ト検索の精度を高めることができる。
In this way, the accuracy of the object search can be improved. Further, when distributions having a width equal to or larger than a predetermined width on the profile data are adjacent to each other with an interval therebetween, the width of the representative hue value may be increased by up and down by a certain value, and the corresponding profile data may be extracted again. . By doing so, it is possible to automatically correct a discontinuous portion due to some factor, and it is possible to improve the accuracy of object search.

【0022】[0022]

【発明の実施の形態】以下、本発明の実施の形態につき
図面を参照して説明する。図1は本発明の一実施形態に
係るオブジェクト検索装置の全体構成を示すブロック図
である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of an object search device according to one embodiment of the present invention.

【0023】同図に示すように、オブジェクト検索装置
100は、画像蓄積部101、画像提示部102、ユー
ザインタフェース部103、色相画像変換部104、オ
ブジェクト領域指定部105、プロフィール抽出部10
6、代表色相値決定部107、オブジェクト領域分割部
108、オブジェクト検索部109、及びオブジェクト
検索結果表示部110から構成される。
As shown in FIG. 1, the object search apparatus 100 includes an image storage unit 101, an image presentation unit 102, a user interface unit 103, a hue image conversion unit 104, an object area designation unit 105, and a profile extraction unit 10.
6, a representative hue value determination unit 107, an object area division unit 108, an object search unit 109, and an object search result display unit 110.

【0024】オブジェクト検索装置100内の画像蓄積
部101にはWWW、画像データベースなどから目的に
応じて取り込まれた大量の画像が蓄積(保存)される。
画像蓄積部101に蓄積されている大量の画像を対象
に、画像による検索を行う際には、ユーザインタフェー
ス部103を介してユーザから指定された、検索しよう
とする画像部分(検索対象画像部分)を含む画像を、画
像提示部102によりCRTディスプレイ、液晶ディス
プレイ等の表示装置(図示せず)に表示させる。そし
て、画像提示部102を通して表示されている画像に対
して、ユーザがマウス、或いはペンなどの入力手段(ポ
インティングデバイス)を用いた操作でユーザインタフ
ェース部103を介して位置指定することで、検索しよ
うとする検索対象画像部分(オブジェクト)のある領
域、即ちオブジェクト領域をオブジェクト領域指定部1
05にて設定する。画像提示部102に表示される画像
は、画像蓄積部101の他、外部から直接取り込むこと
ができるようになっている。このユーザ指定に応じてオ
ブジェクト領域が設定される画像をオブジェクト指定画
像と呼ぶ。
The image storage unit 101 in the object search device 100 stores (saves) a large number of images taken from WWW, an image database, or the like according to the purpose.
When searching for a large number of images stored in the image storage unit 101 using images, an image portion to be searched specified by the user via the user interface unit 103 (a search target image portion) Is displayed on a display device (not shown) such as a CRT display or a liquid crystal display by the image presentation unit 102. Then, the user specifies the position of the image displayed through the image presenting unit 102 via the user interface unit 103 by an operation using an input unit (pointing device) such as a mouse or a pen, thereby searching for the image. A region having a search target image portion (object), that is, an object region is defined as an object region designation unit 1
Set at 05. The image displayed on the image presentation unit 102 can be directly captured from outside in addition to the image storage unit 101. The image in which the object area is set according to the user's designation is called an object designation image.

【0025】オブジェクト領域指定部105にて設定さ
れたオブジェクト領域はオブジェクト領域分割部108
においてn×m個のブロック(BK)に分割される。各
ブロックには左上からラスタ方向に順番に固有のブロッ
ク識別情報、例えば番号(ブロック番号)が付けられ
る。つまり、各ブロックに対するラベル付けが行われ
て、各ブロック間の相対位置関係が定義される。ここで
は、1,2,3,…n×mのn×m個の番号が付けられ
る。ここで、番号i(i=1〜n×m)が付けられるブ
ロックをブロックBKi と呼ぶことにする。
The object area set by the object area designating section 105 is
Are divided into n × m blocks (BK). Each block is given unique block identification information, for example, a number (block number) in the raster direction in order from the upper left. In other words, each block is labeled, and the relative positional relationship between the blocks is defined. Here, n × m numbers of 1, 2, 3,... N × m are assigned. Here, the block to which the number i (i = 1 to n × m) is assigned is referred to as a block BKi.

【0026】一方、検索対象となる画像は、画像蓄積部
101から取り出される。オブジェクト領域が設定され
た画像と、検索対象となる画像は、色相画像変換部4で
画像全体が色相画像に変換される。画像蓄積部101に
は通常、RGB形式によるカラー画像が蓄積されている
が、本システムで取り扱う画像は色相画像のためであ
る。色相画像を用いることにより、画像取得条件に影響
を受けにくい安定したカラー画像処理を行うことが可能
となる。なお、オブジェクト領域が設定された画像につ
いては、当該オブジェクト領域の画像部分だけを色相画
像に変換するものであってもよい。
On the other hand, an image to be searched is retrieved from the image storage unit 101. The hue image conversion unit 4 converts the entire image of the image in which the object area is set and the image to be searched into a hue image. The image storage unit 101 normally stores a color image in the RGB format, but the image handled by the present system is a hue image. By using a hue image, it is possible to perform stable color image processing that is less affected by image acquisition conditions. Note that, for an image in which an object area is set, only an image portion of the object area may be converted to a hue image.

【0027】代表色相値決定部107では、色相画像変
換部104による画像変換後の色相画像データと、オブ
ジェクト領域分割部108により分割されたオブジェク
ト領域内の各ブロックの座標情報を使って、各ブロック
毎に代表となる色相値を決定する。この代表色相値は、
基本的には各ブロック内で最大の領域を占める色相値で
ある。代表色相値決定部107による代表色相値の決定
は、後述するX軸、Y軸へのプロフィールデータにおけ
る塊領域の範囲を抽出する処理に大きく影響する。その
ため、代表色相値の占める領域のブロック全体に占める
割合が予め定められた基準の割合(閾値)未満の場合に
は、代表色相値の両端に隣接する色相値も考慮する。
The representative hue value determination unit 107 uses the hue image data after image conversion by the hue image conversion unit 104 and the coordinate information of each block in the object area divided by the object area division unit 108 to generate each block. A representative hue value is determined every time. This representative hue value is
Basically, the hue value occupies the largest area in each block. The determination of the representative hue value by the representative hue value determination unit 107 greatly affects a process of extracting the range of the chunk region in the profile data on the X axis and the Y axis, which will be described later. Therefore, when the ratio of the area occupied by the representative hue value to the entire block is less than a predetermined reference ratio (threshold), hue values adjacent to both ends of the representative hue value are also considered.

【0028】プロフィール抽出部106は、色相画像変
換部4にる画像変換後の色相画像をもとに、特定の色相
値についてX軸へのプロフィールデータ(即ち当該色相
値を持つ各X座標毎の画素数を表すヒストグラムデー
タ)、Y軸ヘのプロフィールデータ(即ち当該色相値を
持つ各Y座標毎の画素数を表すヒストグラムデータ)を
抽出する。ここでは、オブジェクト領域分割部108に
より得られる各ブロックの座標情報と代表色相値決定部
107により得られる各ブロック毎の代表色相値を使っ
て、その代表色相値毎のX軸、Y軸ヘのプロフィールデ
ータを抽出するものである。
Based on the hue image after the image conversion by the hue image conversion unit 4, the profile extraction unit 106 provides profile data on the X axis for a specific hue value (that is, for each X coordinate having the hue value). Histogram data representing the number of pixels) and profile data for the Y axis (that is, histogram data representing the number of pixels for each Y coordinate having the hue value) are extracted. Here, using the coordinate information of each block obtained by the object area dividing unit 108 and the representative hue value of each block obtained by the representative hue value determining unit 107, the X-axis and the Y-axis of each representative hue value are This is to extract profile data.

【0029】プロフィール抽出部106は、検索対象画
像の属性によって、最初、Y軸へのプロフィールデータ
抽出を行うのか、またはΧ軸へのブロフィールデータ抽
出を行うのかを判定する。例えば、アニメーション画像
や図形データのようにはっきりした色を使っている画像
(以下、タイプaの画像と称する)の場合は最初、Y軸
へのプロフィールデータ抽出を行う。これに対し、監視
画像のようなTVカメラなどを使った遠近画像や自然カ
ラー画像(以下、タイプbの画像と称する)を扱う場合
には、当該画像の一般的特性として、2値化処理などで
上下に分離されてしまうといったことがあるため、最初
に、Χ軸へのプロフィールデータ抽出を行う。このよう
にすると、後の処理である、プロフィールデータを使っ
た塊領域の範囲を求め易いなど利点がある。Y軸へのプ
ロフィールデータ、及びX軸へのプロフィールデータ
は、それぞれn×m個作成される。このn×m個の各プ
ロフィールデータは、オブジェクト領域を分割した各ブ
ロックのブロック番号(つまり、各ブロック間の相対位
置関係)と対応している。
The profile extracting unit 106 first determines whether to extract profile data on the Y axis or profile data on the Χ axis, depending on the attribute of the image to be searched. For example, in the case of an image using a clear color such as an animation image or graphic data (hereinafter referred to as an image of type a), profile data is firstly extracted on the Y axis. On the other hand, when a perspective image using a TV camera or the like such as a monitoring image or a natural color image (hereinafter, referred to as a type b image) is handled, a general characteristic of the image is binarization processing or the like. First, profile data is extracted to the Χ axis. This has an advantage that the range of the block area using the profile data can be easily obtained in the later processing. The profile data for the Y-axis and the profile data for the X-axis are each nxm. Each of the n × m pieces of profile data corresponds to the block number of each block obtained by dividing the object area (that is, the relative positional relationship between the blocks).

【0030】オブジェクト検索部109では、プロフィ
ール抽出部106により抽出されたX軸、Y軸へのプロ
フィールデータを使って、それぞれの塊領域範囲を特定
の条件を付けることによって決定する。即ちオブジェク
ト検索部109は、各ブロック毎の代表色相値における
塊領域の範囲の候補を求め、Y軸へのn個の各プロフィ
ールデータの単位で重なっている(X軸へのn個の各プ
ロフィールデータの単位で連続した位置で隣り合ってい
る)という条件に合致した塊領域を抽出する。当該条件
に合致すれば、重なっている塊領域の範囲で示す画像上
の領域に対して、今度はX軸(Y軸)へのプロフィール
データを抽出し、更にX軸へのn個の各プロフィールデ
ータの単位で連続した位置で隣り合っている(Y軸への
n個の各プロフィールデータの単位で重なっている)と
いう条件に合致した塊領域を抽出する。上記一連の処理
をm回繰り返すことにより、設定したオブジェクト領域
と合致するか否かを判別することができる。
The object search unit 109 determines each block area range by applying specific conditions using the profile data for the X axis and the Y axis extracted by the profile extraction unit 106. That is, the object search unit 109 obtains a candidate of the range of the chunk region in the representative hue value for each block, and overlaps in units of n pieces of profile data on the Y axis (n pieces of profile data on the X axis). A chunk region that satisfies the condition of being adjacent at consecutive positions in units of data) is extracted. If the condition is met, the profile data on the X-axis (Y-axis) is extracted from the region on the image indicated by the range of the overlapped clump region, and n profile data on the X-axis are further extracted. A chunk region that meets the condition of being adjacent at consecutive positions in data units (overlapping in units of each of the n pieces of profile data on the Y axis) is extracted. By repeating the above series of processes m times, it is possible to determine whether or not it matches the set object area.

【0031】オブジェクト検索結果表示部110では、
設定したオブジェクト領域に合致した領域が検出された
画像を表示装置に表示する。オブジェクト検索装置10
0は、システム制御部200によって制御される。
In the object search result display section 110,
An image in which an area matching the set object area is detected is displayed on the display device. Object search device 10
0 is controlled by the system control unit 200.

【0032】次に、図1のオブジェクト検索装置100
におけるオブジェクト検索処理について、図2及び図3
のフローチャートを参照して説明する。今、ユーザイン
タフェース部103を通してユーザにより指定された、
例えばRGB形式のカラー画像(オブジェクト指定画
像)が、画像提示部102により表示装置に表示されて
いるものとする。
Next, the object search apparatus 100 shown in FIG.
2 and 3 show the object search process in
This will be described with reference to the flowchart of FIG. Now, specified by the user through the user interface unit 103,
For example, it is assumed that a color image (object designation image) in the RGB format is displayed on the display device by the image presentation unit 102.

【0033】このような状態でユーザは、画像提示部1
02により表示されているオブジェクト指定画像を対象
に、マウス、或いはペンなどを用いて、検索すべき画像
部分(対象物:オブジェクト)が存在する領域を位置指
定する(ステップF0)。
In this state, the user operates the image presentation unit 1
For the object designation image displayed by 02, the position of the area where the image portion to be searched (object: object) exists is designated using a mouse or a pen (step F0).

【0034】このステップF0では、指定された領域の
座標情報がオブジェクト領域指定部105により取得さ
れて、以下の処理が行われる。まず、指定された領域を
包含する、例えば最小の矩形領域、即ち指定された領域
に外接する矩形領域(の座標)がオブジェクト領域指定
部105により求められ、その矩形領域が実際に検索す
べきオブジェクト領域として設定される。
In step F0, the coordinate information of the designated area is obtained by the object area designating unit 105, and the following processing is performed. First, (for example) a minimum rectangular area including the specified area, that is, a rectangular area circumscribing the specified area is determined by the object area specifying unit 105, and the rectangular area is an object to be actually searched. Set as an area.

【0035】次に、オブジェクト領域指定部105によ
り設定された矩形のオブジェクト領域が、オブジェクト
領域分割部108にてX軸方向にn等分、Y軸方向にm
等分されて、n×m個のブロック(BK1 〜BKnm)に
分割されると共に、当該各ブロックに、そのブロックに
固有の例えば連続する番号が割り付けられる。
Next, the rectangular object area set by the object area specifying unit 105 is divided by the object area dividing unit 108 into n equal parts in the X axis direction and m parts in the Y axis direction.
It is equally divided and divided into nxm blocks (BK1 to BKnm), and each block is assigned a unique number, for example, a continuous number.

【0036】図4はオブジェクト領域を設定する操作を
説明するための図である。同図において、L1 は、画像
内に存在する人物の輪郭に沿ってペンなどで描画された
輪郭線を示す。この輪郭線L1 で示される領域がオブジ
ェクト領域として指定された場合、オブジェクト領域指
定部105は、当該輪郭線L1 を包含する最小の矩形
(輪郭線L1 で囲まれた領域に外接する矩形)を求め、
その矩形の領域を実際に検索すべきオブジェクト領域と
して設定する。
FIG. 4 is a diagram for explaining an operation for setting an object area. In the figure, L1 indicates a contour drawn with a pen or the like along the contour of a person existing in the image. When the area indicated by the outline L1 is specified as an object area, the object area specifying unit 105 obtains the smallest rectangle including the outline L1 (a rectangle circumscribing the area surrounded by the outline L1). ,
The rectangular area is set as an object area to be actually searched.

【0037】すると、オブジェクト領域指定部105か
らオブジェクト領域分割部108に制御が渡される。オ
ブジェクト領域分割部108は、オブジェクト領域指定
部105によって設定されたオブジェクト領域、即ち図
4において輪郭線L1 を包含する矩形(外接矩形)を、
n×m個のブロック、例えば3×3個(n=m=3の場
合)のブロックBKに分割し、各ブロックBKに、同図
に示すように、左上からラスタ方向に順番にBK1 ,B
K2 ,…BK9 のように、連続するブロック番号を割り
付ける。
Then, control is passed from the object area designation unit 105 to the object area division unit 108. The object area dividing unit 108 converts the object area set by the object area specifying unit 105, that is, the rectangle (circumscribed rectangle) including the contour L1 in FIG.
The block is divided into n × m blocks, for example, 3 × 3 (when n = m = 3) blocks BK, and each block BK is sequentially arranged in the raster direction from the upper left in the raster direction as shown in FIG.
Assign consecutive block numbers like K2,... BK9.

【0038】次に、オブジェクト領域分割部108から
代表色相値決定部107に制御が渡される。代表色相値
決定部107は、オブジェクト領域分割部108によっ
て分割されたn×m個のブロックの各々について、その
ブロックを代表する色相値を求め、そのブロックのブロ
ック番号の順の配列の代表色相値テーブル(代表色相値
組み合わせパターンデータ)を作成する。つまり本実施
形態では、各ブロックのデータを色相値で処理するよう
になっている。なお、各ブロックを代表とする色相値
(代表色相値)を求める際には、オブジェクト指定画像
中の少なくともオブジェクト領域の画像部分を、色相画
像変換部104にて色相画像に変換する必要がある。
Next, control is passed from the object area dividing section 108 to the representative hue value determining section 107. The representative hue value determination unit 107 obtains a hue value representing each of the n × m blocks divided by the object area dividing unit 108, and represents a representative hue value in an array in the order of the block numbers of the block. A table (representative hue value combination pattern data) is created. That is, in the present embodiment, the data of each block is processed by the hue value. When calculating a hue value (representative hue value) representative of each block, it is necessary for the hue image conversion unit 104 to convert at least the image portion of the object area in the object designation image into a hue image.

【0039】代表色相値決定部107により作成される
代表色相値テーブル(代表色相値組み合わせパターンデ
ータ)は、n=m=3の例では、J(H1 ,H2 ,…H
9 )のように表現される。ここで、Hi はブロック番号
がiのブロック(BKi )を代表する色相値である。
The representative hue value table (representative hue value combination pattern data) created by the representative hue value determination unit 107 is J (H1, H2,... H) in the case of n = m = 3.
9) is expressed as: Here, Hi is a hue value representing the block (BKi) having the block number i.

【0040】色相値Hi は、図5に示すように最上部を
基準の角度、即ち0度(RED:赤)として、時計回り
に、60度(YER:黄)、120度(GRN:緑)、
180度(CYN:シアン)、240度(BLE:
青)、300度(MAZ:マゼンタ)、360度(=0
度:RED)というように角度で示されたデータであ
る。即ち色相値Hi は角度情報で表され、取り得る値の
範囲は0度≦Hi ≦360度である。
As shown in FIG. 5, the hue value Hi is 60 degrees (YER: yellow) and 120 degrees (GRN: green) in a clockwise direction with the uppermost part being a reference angle, that is, 0 degree (RED: red). ,
180 degrees (CYN: cyan), 240 degrees (BLE: cyan)
Blue), 300 degrees (MAZ: magenta), 360 degrees (= 0)
This is data represented by an angle such as "degree: RED). That is, the hue value Hi is represented by angle information, and the range of possible values is 0 degrees ≦ Hi ≦ 360 degrees.

【0041】さて各ブロックの代表色相値には、基本的
には、ブロック内で面積が最大となる色相値を用いる。
但し、本実施形態では、代表色相値に一定の幅±αを持
たせている。即ち、面積が最大となる色相値をHmax と
すると、Hmax −α〜Hmax+αの範囲の色相値を代表
色相値とする。また、色相値Hmax の占める面積のブロ
ック全体に対する割合が、予め定められた基準の割合
(閾値)未満の場合には、当該基準の割合を越えるま
で、色相値Hmax に対してその両端側で連続する色相値
を加えようにしている。この色相値Hmax の両端側で連
続する色相値間の幅をそれぞれβとすると、代表色相値
は、Hmax −(α+β)〜Hmax +(α+β)の幅を持
つ。このように代表色相値幅を持たせることによって、
後述するX軸へのプロフィールデータ、Y軸へのプロフ
ィールデータでの塊領域を確実に抽出できるようになっ
ている。
As a representative hue value of each block, a hue value having the largest area in the block is basically used.
However, in the present embodiment, the representative hue value has a certain width ± α. That is, assuming that the hue value at which the area is maximum is Hmax, the hue value in the range of Hmax-α to Hmax + α is set as the representative hue value. If the ratio of the area occupied by the hue value Hmax to the entire block is less than a predetermined reference ratio (threshold), the hue value Hmax is continuously applied to both ends of the block until the ratio exceeds the reference ratio. Hue values to be added. Assuming that the width between the continuous hue values at both ends of the hue value Hmax is β, the representative hue value has a width from Hmax− (α + β) to Hmax + (α + β). By giving the representative hue value width in this way,
It is possible to reliably extract a lump region in profile data to be described later on the X axis and profile data on the Y axis.

【0042】以上に述べたステップF0での処理が終了
すると、検索対象となる画像を指定する画像ポインタN
が初期値1に設定される(ステップF1)。すると、次
のステップF2において、画像ポインタNの指定する画
像、即ちN番目の画像が検索対象画像として、画像蓄積
部101から色相画像変換部104に入力され、その入
力された検索対象画像全体が当該色相画像変換部104
により色相画像に変換される。
When the processing in step F0 described above is completed, the image pointer N for designating the image to be searched is
Is set to the initial value 1 (step F1). Then, in the next step F2, the image specified by the image pointer N, that is, the N-th image is input as a search target image from the image storage unit 101 to the hue image conversion unit 104, and the entire input search target image is input. The hue image conversion unit 104
Is converted into a hue image.

【0043】次のステップF3では、プロフィール抽出
部106により色相画像への変換がなされた検索対象画
像のタイプが調べられる。ここでは、検索対象画像がア
ニメーション画像、図形画像(グラフィック画像)など
の人工的な画像はタイプaと判別され、自然カラー画
像、監視用途等のカメラ画像はタイプbと判別される。
プロフィール抽出部106は、この画像タイプ(画像性
質)の判別結果に基づいて、Y軸へのプロフィールデー
タの抽出、或いはX軸へのプロフィールデータの抽出の
いずれを先に行うかを判断する。
In the next step F3, the type of the search target image converted into the hue image by the profile extraction unit 106 is checked. Here, an artificial image such as an animation image or a graphic image (graphic image) as a search target image is determined as type a, and a natural color image or a camera image for surveillance use is determined as type b.
The profile extraction unit 106 determines which of the extraction of the profile data on the Y axis and the extraction of the profile data on the X axis is performed first, based on the determination result of the image type (image property).

【0044】このように検索対象画像のタイプ(属性)
を調べる理由は、次の通りである。まず、監視画像のよ
うな遠近画像では、しきい値処理を伴う画像処理、例え
ば2値化処理を施した場合に、上下方向に不連続となっ
て途切れてしまうといった特性がある。このため、先に
Y軸へのプロフィールデータを抽出すると、プロフィー
ルデータの塊領域処理の際に悪影響を及ぼす可能性があ
る。そこで、検索対象画像のタイプを調べ、そのタイプ
に応じてY軸へのプロフィールデータの抽出、或いはX
軸へのプロフィールデータの抽出のいずれを先に行うか
を判断するようにしている。
As described above, the type (attribute) of the search target image
The reason for checking is as follows. First, in a perspective image such as a monitoring image, when image processing involving threshold processing, for example, binarization processing, is performed, there is a characteristic that the image is discontinuous in the vertical direction and is interrupted. Therefore, if the profile data for the Y axis is extracted first, there is a possibility that the profile data will be adversely affected in the process of processing the mass region of the profile data. Therefore, the type of the search target image is checked, and the profile data is extracted on the Y axis or X
It is arranged to determine which of the profile data is to be extracted to the axis first.

【0045】さて、検索対象画像がタイプaの場合に
は、プロフィール抽出部106は、検索対象画像(色相
画像)の全領域を対象に、代表色相値決定部107によ
り決定されたn×m個の各ブロック(BK1 〜BKnm)
の代表色相値について、Y軸へのプロフィールデータ
(Y1 〜Ynm)を抽出する(ステップF4)。
If the search target image is of type a, the profile extraction unit 106 targets the entire area of the search target image (hue image) to the n × m number of pixels determined by the representative hue value determination unit 107. Each block (BK1-BKnm)
The profile data (Y1 to Ynm) for the Y-axis is extracted for the representative hue value (step F4).

【0046】例えば、n=m=3の場合には、計9個の
ブロックBK1 〜BK9 の各々の代表色相値H1 〜H9
について、それぞれY軸へのプロフィールデータY1 〜
Y9が抽出される。ここで、プロフィールデータYi
は、代表色相値Hi と同じ色相値を持つ各X座標毎の画
素数を表すヒストグラムデータである。なお、代表色相
値Hi は前記したようにある幅を持つことから、プロフ
ィールデータYi は、正確には、各X座標について、そ
の幅に含まれるいずれかの色相値を持つ画素の総数を示
す。
For example, when n = m = 3, the representative hue values H1 to H9 of each of the nine blocks BK1 to BK9 are used.
For each of the profile data Y1 to Y-axis.
Y9 is extracted. Here, the profile data Yi
Is histogram data representing the number of pixels for each X coordinate having the same hue value as the representative hue value Hi. Since the representative hue value Hi has a certain width as described above, the profile data Yi accurately indicates, for each X coordinate, the total number of pixels having any hue value included in the width.

【0047】プロフィールデータY1 〜Y9 は、オブジ
ェクト検索部109において、共通のY座標の範囲を持
つ各3個のブロックBK1 〜BK3 ,BK4 〜BK6 ,
BK7 〜BK9 を単位に、つまりプロフィールデータY
1 〜Y3 ,Y4 〜Y6 ,Y7〜Y9 の各組毎に用いられ
る。そのため本実施形態では、変数iが適用され、i=
1,i=4,i=7のそれぞれについて、Yi ,Yi+1
,Yi+2 の組毎に、次のように処理される。
The profile data Y1 to Y9 are converted into three blocks BK1 to BK3, BK4 to BK6, BK4 to BK6 each having a common Y coordinate range in the object search unit 109.
BK7 to BK9, that is, profile data Y
1 to Y3, Y4 to Y6, and Y7 to Y9 are used for each set. Therefore, in the present embodiment, the variable i is applied, and i =
Yi, Yi + 1 for each of 1, 1, i = 4, i = 7
, Yi + 2 are processed as follows.

【0048】まずオブジェクト検索部109は、ブロッ
クBKi ,BKi+1 ,BKi+2 の代表色相値Hi ,Hi+
1 ,Hi+2 (iの初期値は1)についてのY軸へのプロ
フィールデータYi ,Yi+1 ,Yi+2 の中に、Y軸方向
に塊領域範囲が重なっている部分が存在するか否か、即
ちプロフィールデータYi ,Yi+1 ,Yi+2 が共通のY
座標範囲に分布(塊領域範囲)を持っているか否かをチ
ェックする(ステップF5)。
First, the object search unit 109 determines the representative hue values Hi, Hi + of the blocks BKi, BKi + 1, BKi + 2.
Whether there is a portion where the lump area ranges overlap in the Y-axis direction in the profile data Yi, Yi + 1, Yi + 2 on the Y-axis for 1, Hi + 2 (the initial value of i is 1). No, that is, the profile data Yi, Yi + 1, Yi + 2
It is checked whether or not the coordinate range has a distribution (lump region range) (step F5).

【0049】もし、プロフィールデータYi ,Yi+1 ,
Yi+2 の中に塊領域範囲が重なっている部分が存在しな
ければ、この時点で、該当する検索対象画像にはユーザ
指定のオブジェクトに一致する(類似した)オブジェク
トは存在しないものと判断し(ステップF18)、ポイ
ンタNを1だけインクリメントし(ステップF10)、
このインクリメント後のポインタNの指定する画像、即
ち次の画像について、上記ステップF2以降の処理を行
う。
If the profile data Yi, Yi + 1,
If there is no portion where the block area range overlaps in Yi + 2, it is determined at this point that there is no object (similar) to the object specified by the user in the corresponding search target image. (Step F18), the pointer N is incremented by 1 (Step F10),
For the image specified by the pointer N after the increment, that is, the next image, the processing after the step F2 is performed.

【0050】これに対して、プロフィールデータYi ,
Yi+1 ,Yi+2 の中に塊領域範囲が重なっている共通の
Y座標範囲が存在するならば、プロフィール抽出部10
6は、検索対象画像における当該Y座標範囲の(両端の
Y座標Ys とYe で示される)領域を対象に、ブロック
BKi ,BKi+1 ,BKi+2 の代表色相値Hi ,Hi+1
,Hi+2 についてのΧ軸へのプロフィールデータXi
,Xi+1 ,Xi+2 を抽出する(ステップF6)。
On the other hand, profile data Yi,
If there is a common Y coordinate range in which the block area ranges overlap in Yi + 1 and Yi + 2, the profile extraction unit 10
Reference numeral 6 denotes the representative hue values Hi and Hi + 1 of the blocks BKi, BKi + 1, and BKi + 2 in an area (indicated by Y coordinates Ys and Ye at both ends) of the Y coordinate range in the search target image.
, Hi + 2 profile data Xi to the Χ axis
, Xi + 1, Xi + 2 are extracted (step F6).

【0051】するとオブジェクト検索部109は、プロ
フィール抽出部106により抽出された、ブロックBK
i ,BKi+1 ,BKi+2 の代表色相値Hi ,Hi+1 ,H
i+2についてのX軸へのプロフィールデータXi ,Xi+1
,Xi+2 中に、X軸方向に連続して隣り合っている塊
領域範囲が存在するか否かをチェックする(ステップF
7)。
Then, the object search unit 109 extracts the block BK extracted by the profile extraction unit 106.
i, BKi + 1, BKi + 2, representative hue values Hi, Hi + 1, H
Profile data Xi, Xi + 1 on the X axis for i + 2
, Xi + 2, it is checked whether or not there is a block area range continuously adjacent in the X-axis direction (step F).
7).

【0052】もし、プロフィールデータXi ,Xi+1 ,
Xi+2 の中に塊領域範囲が連続して隣り合っている部分
が存在しなければ、この時点で、該当する検索対象画像
には指定したオブジェクトに一致するオブジェクトは存
在しないものと判断し(ステップF18)、ポインタN
を1だけインクリメントし(ステップF10)、このイ
ンクリメント後のポインタNの指定する画像、即ち次の
画像について、上記ステップF2以降の処理を行う。
If the profile data Xi, Xi + 1,
If there is no portion where the block area range is continuously adjacent in Xi + 2, it is determined at this point that no object matching the specified object exists in the corresponding search target image ( Step F18), pointer N
Is incremented by 1 (step F10), and the processing after step F2 is performed on the image specified by the pointer N after the increment, that is, the next image.

【0053】これに対して、プロフィールデータXi ,
Xi+1 ,Xi+2 の中に塊領域範囲が連続して隣り合って
いる部分が存在するならば、{(i−1)/3}+1番
目に処理したオブジェクト内の横方向の3個のブロック
BKi ,BKi+1 ,BKi+2(1回目の処理であれば、
i=1であることから、BK1 ,BK2 ,BK3 )につ
いては、指定のオブジェクトと一致していると判断し、
変数iを3インクリメントした後(ステップF8)、そ
の3インクリメント後の変数iの示す3個のブロックB
Ki ,BKi+1 ,BKi+2 (i=4の場合には、BK4
,BK5 ,BK6 )について、同じ検索対象画像を対
象として、上記ステップF5以降の処理を行う。したが
って、上記したステップF5,F7の条件に合致するな
らば、ステップF5,F6,F7の処理がi=1,i=
4,i=7の計3回行われることになる。
On the other hand, the profile data Xi,
If there is a part where the chunk region ranges are consecutively adjacent to each other in Xi + 1 and Xi + 2, three horizontal ({i-1) / 3} +1 objects in the object processed first Blocks BKi, BKi + 1, BKi + 2 (for the first processing,
Since i = 1, it is determined that BK1, BK2, BK3) matches the specified object, and
After incrementing the variable i by 3 (step F8), the three blocks B indicated by the variable i after the increment of 3
Ki, BKi + 1, BKi + 2 (if i = 4, BK4
, BK5, BK6) for the same search target image, the above-described processing after step F5 is performed. Therefore, if the conditions of steps F5 and F7 described above are met, the processing of steps F5, F6 and F7 is performed with i = 1 and i =
4, i = 7, that is, three times in total.

【0054】ステップF5,F6,F7の処理がi=
1,i=4,i=7の計3回最後まで行われた場合に
は、オブジェクト検索部109は、検索対象画像には、
ブロックBK1 〜BK3 ,BK4 〜BK6 ,BK7 〜B
K9 のいずれについても指定のオブジェクトと一致する
オブジェクトが存在するものとして、つまりオブジェク
ト領域指定部105により設定されたオブジェクト領域
に合致した領域を含むものとして、その画像をオブジェ
クト検索結果表示部110により表示装置に表示させ
る。
The processing in steps F5, F6, and F7 is i =
If the search has been performed three times, i.e., 1, i = 4, i = 7, the object search unit 109 sets the search target image to
Blocks BK1 to BK3, BK4 to BK6, BK7 to B
The image is displayed by the object search result display unit 110 assuming that an object that matches the designated object exists for any of K9, that is, as including an area that matches the object area set by the object area specifying unit 105. Display on the device.

【0055】ところで、上記のようにしてi=1,i=
4,i=7の組のそれぞれについてのプロフィールデー
タYi ,Yi+1 ,Yi+2 から検出される、塊領域範囲が
Y軸方向に重なっている各Y座標範囲は、Y軸方向に必
ずしも連続して隣り合っているとは限らない。また、i
=1,i=4,i=7の組のそれぞれについてのプロフ
ィールデータXi ,Xi+1 ,Xi+2 から検出される、塊
領域範囲がX軸方向に連続して隣り合っている各X座標
範囲は、X軸方向に必ずしも重なっているとは限らな
い。そこで、上記各Y座標範囲がY軸方向に連続して隣
り合っていることと、上記各X座標範囲がX軸方向に重
なっていることを、指定オブジェクト検索の条件に加え
るならば、各ブロックBi ,Bi+1 ,Bi+2 単位では全
て類似指定手も、その類似している領域が離散して存在
する画像が検索されるのを防ぐことができ、検索精度を
一層向上することができる。
By the way, as described above, i = 1 and i =
Each of the Y coordinate ranges where the lump area ranges overlap in the Y-axis direction, which are detected from the profile data Yi, Yi + 1, and Yi + 2 for each set of 4, 4 = 7, are not necessarily continuous in the Y-axis direction. And they are not necessarily next to each other. Also, i
= 1, i = 4, i = 7, each X coordinate, which is detected from the profile data Xi, Xi + 1, Xi + 2, and where the block area range is continuously adjacent in the X-axis direction. The ranges do not always overlap in the X-axis direction. Therefore, if the fact that the respective Y coordinate ranges are continuously adjacent in the Y-axis direction and that the respective X coordinate ranges overlap in the X-axis direction are added to the conditions for the designated object search, In the units of Bi, Bi + 1, and Bi + 2, the similar designator can also prevent an image in which the similar region is discretely present from being searched, and the search accuracy can be further improved. .

【0056】さて、上記ステップF5,F6,F7の処
理がi=1,i=4,i=7の計3回行われ、ると、ポ
インタNを1だけインクリメントし(ステップF1
0)、このインクリメント後のポインタNの値が、例え
ばユーザにより指定された画像数に達していないなら
ば、このインクリメント後のポインタNの指定する画
像、即ち次の画像について、上記ステップF2以降の処
理を行う。このステップF2以降の処理は、インクリメ
ント後のポインタNの値がユーザ指定の画像数に達する
まで繰り返し行われ、ユーザ指定の画像数に達した時点
で一連の処理は終了となる。
When the processing in steps F5, F6, and F7 is performed three times, i = 1, i = 4, and i = 7, the pointer N is incremented by 1 (step F1).
0), if the value of the pointer N after the increment does not reach, for example, the number of images specified by the user, the image specified by the pointer N after the increment, that is, the next image, Perform processing. The processing after step F2 is repeatedly performed until the value of the pointer N after the increment reaches the number of images specified by the user, and when the number of images specified by the user reaches the number, the series of processing ends.

【0057】なお、以上の説明は、検索対象画像がタイ
プaの場合について説明したが、タイプbの場合にも、
X軸へのプロフィールデータとY軸へのプロフィールデ
ータの用いられる順序が、上記したタイプaの検索対象
画像の場合と逆になるだけで、同様に行われる。ここで
は、まずブロックBKi ,BKi+1 ,BKi+2 の代表色
相値Hi ,Hi+1 ,Hi+2 についてのX軸へのプロフィ
ールデータXi ,Xi+1 ,Xi+2 が先に用いられて(ス
テップF12)、Xi ,Xi+1 ,Xi+2 の中に塊領域が
X軸方向に連続して隣り合うX座標範囲が検出される
(ステップF13)。次に、その検出した座標範囲を共
通に持つ検索対象画像内の領域を対象としてY軸へのプ
ロフィールデータYi ,Yi+1 ,Yi+2 が抽出され(ス
テップF14)、Y軸方向に重なっている塊領域が検出
される(ステップF15)。
In the above description, the case where the search target image is of type a has been described.
The same operation is performed except that the order in which the profile data on the X-axis and the profile data on the Y-axis are used is opposite to that in the case of the search target image of type a described above. Here, first, profile data Xi, Xi + 1, Xi + 2 on the X-axis for representative hue values Hi, Hi + 1, Hi + 2 of the blocks BKi, BKi + 1, BKi + 2 are used first. (Step F12), an X coordinate range in which the chunk regions are continuously adjacent in the X-axis direction is detected in Xi, Xi + 1, and Xi + 2 (Step F13). Next, profile data Yi, Yi + 1, and Yi + 2 for the Y axis are extracted for an area in the search target image that has the detected coordinate range in common (step F14), and overlap in the Y axis direction. An existing lump area is detected (step F15).

【0058】次に、以上に述べたオブジェクト検索装置
100における処理のうち、本実施形態の核になる3つ
のプロフィールデータの各ブロック毎の塊領域の抽出方
法と処理手順について、図6を参照して説明する。な
お、ここではn=m=3で、且つY軸へのプロフィール
データを先に求める場合を想定している。
Next, of the above-described processing in the object search apparatus 100, a method of extracting a block area for each block of three profile data, which is the core of the present embodiment, and a processing procedure will be described with reference to FIG. Will be explained. Here, it is assumed that n = m = 3 and profile data for the Y-axis is obtained first.

【0059】まず、ブロックBK1 〜BK9 の各々の代
表色相値H1 〜H9 についての、検索対象画像を対象と
するY軸へのプロフィールデータが、Y1 〜Y9 の9個
抽出される。そして、(Y1 ,Y2 ,Y3 )の組、(Y
4 ,Y5 ,Y6 )の組、及び(Y7 ,Y8 ,Y9 )の組
毎に、プロフィールデータYi ,Yi+1 ,Yi+2 (i=
1,i=4,i=7)の塊領域がY軸方向に重なり合っ
ている領域Ri を抽出する。
First, for the representative hue values H1 to H9 of the blocks BK1 to BK9, nine Y1 to Y9 profile data on the Y axis for the image to be searched are extracted. Then, a set of (Y1, Y2, Y3), (Y
4, Y5, Y6) and (Y7, Y8, Y9) for each set of profile data Yi, Yi + 1, Yi + 2 (i =
A region Ri where lump regions (1, i = 4, i = 7) overlap in the Y-axis direction is extracted.

【0060】図6に示すように、この例では、ブロック
BK1 ,BK2 ,BK3 の代表色相値H1 ,H2 ,H3
(それぞれRED,YER,GRNであるものとする)
に対応する(Y1 ,Y2 ,Y3 )の組のうち、Y1 が塊
領域YP1-1 ,YP1-2 を持ち、Y2 が塊領域YP2-1
,YP2-2 を持ち、Y3 が塊領域YP3-1 ,YP3−
2を持っている。ここでは、Y1 の塊領域YP1-1
と、Y2 の塊領域YP2-1 と、Y3 の塊領域YP3-1 の
Y座標範囲(Ys1−Ye1とする)が同一である。即ち、
YP1-1 、YP2-1 ,YP3-1 の塊領域がY軸方向に重
なっている。この重なっている塊領域の画像上の領域と
して、Y座標範囲がYs1−Ye1の領域R1 が抽出され
る。この領域R1 はX軸へのプロフィールデータを抽出
するための対象領域となる。
As shown in FIG. 6, in this example, the representative hue values H1, H2, H3 of the blocks BK1, BK2, BK3.
(Assumed to be RED, YER and GRN respectively)
, Y1 has lump areas YP1-1 and YP1-2, and Y2 has lump area YP2-1.
, YP2-2, and Y3 is a lump area YP3-1, YP3-
I have two. Here, the lump area YP1-1 of Y1
And the Y coordinate range (referred to as Ys1-Ye1) of the lump area YP2-1 and the lump area YP3-1 of Y3 are the same. That is,
The lump areas of YP1-1, YP2-1, and YP3-1 overlap in the Y-axis direction. A region R1 having a Y coordinate range of Ys1-Ye1 is extracted as a region on the image of the overlapping block region. This region R1 is a target region for extracting profile data on the X axis.

【0061】同様に、ブロックBK4 ,BK5 ,BK6
の代表色相値H4 ,H5 ,H6 に対応する(Y4 ,Y5
,Y6 )でも、Y軸方向にY座標範囲(Ys2−Ye2と
する)で重なっている塊領域が存在し、この重なってい
る塊領域の画像上の領域として、Y座標範囲がYs2−Y
e2の領域R2 が抽出される。また、ブロックBK7 ,B
K8 ,BK9 の代表色相値H7 ,H8 ,H9 に対応する
(Y7 ,Y8 ,Y9 )でも、Y軸方向にY座標範囲(Y
s3−Ye3とする)で重なっている塊領域が存在し、この
重なっている塊領域の画像上の領域として、Y座標範囲
がYs3−Ye3の領域R3 が抽出される。これらの領域R
2 ,R3 もX軸へのプロフィールデータを抽出するため
の対象領域となる。
Similarly, the blocks BK4, BK5, BK6
Corresponding to the representative hue values H4, H5, H6 (Y4, Y5
, Y6), there is a lump area that overlaps in the Y-axis direction in a Y-coordinate range (Ys2−Ye2), and as an area of the overlapping lump area on the image, the Y-coordinate range is Ys2-Ye.
The region R2 of e2 is extracted. Blocks BK7, B
Even for the representative hue values H7, H8, H9 of K8, BK9 (Y7, Y8, Y9), the Y coordinate range (Y
A region R3 having a Y coordinate range of Ys3-Ye3 is extracted as a region of the overlapping mass region on the image. These regions R
2, R3 are also target areas for extracting profile data on the X axis.

【0062】さて、ブロックBK1 ,BK2 ,BK3 の
各々の代表色相値H1 ,H2 ,H3についての、検索対
象画像中の領域R1 に対するΧ軸へのプロフィールデー
タ抽出結果は、X1 ,X2 ,X3 である。同様に、ブロ
ックBK4 ,BK5 ,BK6の各々の代表色相値H4 ,
H5 ,H6 についての、検索対象画像中の領域R2 に対
するΧ軸へのプロフィールデータ抽出結果は、X4 ,X
5 ,X6 であり、ブロックBK7 ,BK8 ,BK9 の代
表色相値H7 ,H8 ,H9 についての、検索対象画像中
の領域R3 に対するΧ軸へのプロフィールデータ抽出結
果は、X7 ,X8 ,X9 である。
The profile data extraction results on the Χ axis for the region R1 in the search target image for the representative hue values H1, H2, H3 of the blocks BK1, BK2, BK3 are X1, X2, X3. . Similarly, the representative hue values H4, H4, BK4, BK5,
The extraction results of the profile data on the Χ axis for the region R2 in the search target image for H5 and H6 are X4 and X
5 and X6, and the profile data extraction results on the Χ axis for the region R3 in the search target image for the representative hue values H7, H8 and H9 of the blocks BK7, BK8 and BK9 are X7, X8 and X9.

【0063】Χ軸へのプロフィールデータについては、
(X1 ,X2 ,X3 )の組、(X4,X5 ,X6 )の
組、及び(X7 ,X8 ,X9 )の組毎に、プロフィール
データXi ,Xi+1 ,Xi+2 (i=1,i=4,i=
7)の塊領域がX軸方向に連続して隣り合う範囲を抽出
する。図6の例では、X1 が持つ4つの塊領域XP1-1
〜XP1-4 のうちのXP1-1 と、X2 が持つ2つの塊領
域XP2-1 ,XP2-1 のうちのXP2-1 と、X3 が持つ
3つの塊領域XP3-1 〜XP3-3 のうちのXP3-3が該
当する。他のXP1-2 〜XP1-4 ,XP2-2 ,XP3-1
,XP3-2 の塊領域は雑音領域として除外される。
For profile data on the Χ axis,
For each set of (X1, X2, X3), (X4, X5, X6) and (X7, X8, X9), profile data Xi, Xi + 1, Xi + 2 (i = 1, i) = 4, i =
The range where the lump region of 7) is continuously adjacent in the X-axis direction is extracted. In the example of FIG. 6, four lump regions XP1-1 of X1 have
XP1-1 of XP1-4, XP2-1 of two mass regions XP2-1 and XP2-1 of X2, and of three mass regions XP3-1 to XP3-3 of X3. XP3-3. Other XP1-2 to XP1-4, XP2-2, XP3-1
, XP3-2 are excluded as noise regions.

【0064】残りの(X4 ,X5 ,X6 )の組、及び
(X7 ,X8 ,X9 )の組についても同様の処理を施す
ことによって、各ブロック毎に代表色相値の順番通りに
抽出することができれば、検索しようとするオブジェク
トを抽出したものと判断する。
By performing the same processing on the remaining (X4, X5, X6) pairs and (X7, X8, X9) pairs, the blocks can be extracted in the order of the representative hue value for each block. If possible, it is determined that the object to be searched has been extracted.

【0065】なお、上記のYi ,Yi+1 ,Yi+2 の塊領
域の重なり判定に閾値を設けるとよい。この場合、全体
に対して塊領域の重なりあっている部分の割合を求め、
その割合が閾値(基準の割合)以上であれば、重なって
いると判定する。同様に、上記のXi ,Xi+1 ,Xi+2
の塊領域が連続して隣り合っていることの判定に閾値を
設けるとよい。この場合、各Xi ,Xi+1 ,Xi+2 の隣
接する塊領域の重なり部分または隙間部分の全体に対す
る割合を求め、その割合が閾値(基準の割合)以下であ
れば、隣り合っていると判定する。
It should be noted that a threshold value may be set for judging the overlap of the lump areas of Yi, Yi + 1, and Yi + 2. In this case, the ratio of the overlapping portion of the lump area to the whole is obtained,
If the ratio is equal to or greater than a threshold (reference ratio), it is determined that they overlap. Similarly, the above Xi, Xi + 1, Xi + 2
It is preferable to provide a threshold value for judging that the chunk regions are continuously adjacent to each other. In this case, the ratio of each of the adjacent lump regions of Xi, Xi + 1, and Xi + 2 to the entire overlapping portion or gap portion is obtained, and if the ratio is equal to or less than a threshold value (reference ratio), it is determined that the adjacent regions are adjacent to each other. judge.

【0066】また、プロフィールデータについても、塊
領域の境界を明確にするために、塊領域の端部について
は、その端部での画素数が予め定められた閾値以上であ
れば、そこを塊領域の境界とし、閾値に満たない場合に
は、閾値以上となる位置まで塊領域の境界を移動する。
For the profile data, in order to clarify the boundary of the chunk region, if the number of pixels at the end of the chunk region is equal to or greater than a predetermined threshold value, the chunk region is set to the chunk. If the threshold value is less than the threshold value, the boundary of the lump area is moved to a position equal to or greater than the threshold value.

【0067】また、予め定められた幅以上の塊領域が間
隔を保って隣接して存在する場合に、代表色相値の幅を
上下にそれぞれ一定値γだけ広げて、即ち±をγだけ広
げて、プロフィールデータを抽出し直すことで、ノイズ
等の影響で領域が不連続となるのを補正することも可能
である。
When a chunk region having a width equal to or larger than a predetermined width exists adjacent to each other with a space therebetween, the width of the representative hue value is increased up and down by a fixed value γ, that is, ± is increased by γ. By re-extracting the profile data, it is possible to correct the discontinuity of the area due to the influence of noise or the like.

【0068】また、検索対象画像には、指定したオブジ
ェクトに一致するオブジェクトが存在しないものと判断
した場合に、次の画像に進む前に、当該検索対象画像を
90度単位で回転させ、最も多い場合で、90度の回転
画像、180度の回転画像、270度の回転画像を対象
に、先に説明したと同様の手順で検索処理を行うこと
で、実質的な検索対象を広げることも可能である。
If it is determined that there is no object corresponding to the specified object in the search target image, the search target image is rotated in units of 90 degrees before proceeding to the next image, and the most In this case, it is possible to broaden a substantial search target by performing a search process on a 90-degree rotated image, a 180-degree rotated image, and a 270-degree rotated image in the same procedure as described above. It is.

【0069】次に、本実施形態においては、ユーザが指
定したオブジェクト(に類似のオブジェクト)が検索対
象画像における任意の位置にあっても、先に述べたと同
じ処理手順で当該オブジェクトを検出できることについ
て、図7を参照して説明する。
Next, in this embodiment, even if an object (an object similar to) specified by the user is located at an arbitrary position in the search target image, the object can be detected by the same processing procedure as described above. This will be described with reference to FIG.

【0070】基本的抽出方法については既に述べている
ので、ここではポイントだけを述べる。まず、ユーザ指
定のオブジェクト領域は、図7中のI1 に示すようなカ
ラーパターンであるものとする。この場合、画像左下に
存在する、BΚ1 (RED),BK2 (YER),BK
3 (GRΝ),BK4 (MAZ),BK5 (BLE),
BK6 (RED),BK7 (RED),BK8 (CY
N),BK9 (BRW:ブラウン)といったオブジェク
ト領域(括弧内は代表色相値)を持つ画像を、画像蓄積
部101に蓄積されている画像群の中から検索する。
Since the basic extraction method has already been described, only the points will be described here. First, it is assumed that the user-designated object area has a color pattern as indicated by I1 in FIG. In this case, BΚ1 (RED), BK2 (YER), BK existing at the lower left of the image
3 (GRΝ), BK4 (MAZ), BK5 (BLE),
BK6 (RED), BK7 (RED), BK8 (CY
Images having object areas such as N) and BK9 (BRW: brown) (representative hue values in parentheses) are searched from the image group stored in the image storage unit 101.

【0071】今、I2 という検索対象画像を対象に、ユ
ーザ指定のオブジェクトを検索する場合を考える。画像
I2 には、画像上方に赤の領域が存在し、中央右寄りの
位置にユーザ指定のオブジェクト(に類似したオブジェ
クト)が存在する。
Now, consider a case in which a user-specified object is searched for the search target image I2. In the image I2, a red area exists above the image, and a user-specified object (an object similar to) exists at a position closer to the center right.

【0072】この例では、図1のオブジェクト検索装置
100において、ブロックBK1 〜BK9 の代表色相値
について、Y軸ヘのプロフィールデータを抽出した結果
は、図7に示すY1 〜Y9 となる。ここで、Y1 ,Y2
,Y3 の組には、塊領域がY軸方向に重なっているパ
ターンとしてYP1-2 ,YP2-1 ,YP3-1 が存在して
いることがわかる。Y1 には、YP1-2 の他にYP1-1
の塊領域があるが、当該塊領域YP1-1 と重なっている
領域は、Y2 ,Y3 のプロフィールデータ上には存在し
ていないので、塊領域YP1-1 は雑音領域として除外さ
れる。
In this example, the result of extracting the profile data on the Y axis for the representative hue values of the blocks BK1 to BK9 in the object search device 100 of FIG. 1 is Y1 to Y9 shown in FIG. Here, Y1, Y2
, Y3, it is understood that YP1-2, YP2-1, and YP3-1 exist as patterns in which the lump areas overlap in the Y-axis direction. Y1 has YP1-1 in addition to YP1-2.
However, since the region overlapping with the block region YP1-1 does not exist on the profile data of Y2 and Y3, the block region YP1-1 is excluded as a noise region.

【0073】この場合、塊領域YP1-2 ,YP2-1 ,Y
P3-1 がY軸方向に重なっている検索対象画像I2内の
領域R1 が、ブロックBK1 ,BK2 ,BK3 の代表色
相値についてのΧ軸へのプロフィールデータ抽出の対象
となり、X1 ,X2 ,X3 の各プロフィールデータが抽
出される。同様に、Y4 ,Y5 ,Y6 の組、及びY5,
Y6 ,Y7 の組にも、Y軸方向に重なっている塊領域が
存在し、そのY軸方向に重なっている検索対象画像I2
内の各領域が、一方は、ブロックBK4 ,BK5 ,BK
6 の、他方はブロックBK7 ,BK8 ,BK9 の、それ
ぞれ代表色相値についてのΧ軸へのプロフィールデータ
抽出の対象となり、X4 ,X5 ,X6 、及びX7 ,X8
,X9 の各プロフィールデータが抽出される。
In this case, the chunk areas YP1-2, YP2-1, Y
An area R1 in the search target image I2 in which P3-1 overlaps in the Y-axis direction becomes a target of profile data extraction on the Χ axis for representative hue values of the blocks BK1, BK2, and BK3, and X1, X2, and X3 Each profile data is extracted. Similarly, a set of Y4, Y5, Y6 and Y5, Y5,
The set of Y6 and Y7 also has a lump area overlapping in the Y-axis direction, and the search target image I2 overlapping in the Y-axis direction.
, One of the blocks BK4, BK5, BK
6, the other is to extract the profile data of the blocks BK7, BK8, and BK9 on the Χ axis with respect to the representative hue values, respectively. X4, X5, X6, and X7, X8
, X9 are extracted.

【0074】ここで、X1 ,X2 ,X3 の各プロフィー
ルデータを比較すると、塊領域がX軸方向に連続して隣
り合っているパターンとして、XP1-1 ,XP2-1 ,X
P3-1 が存在していることがわかる。X1 には、XP1-
1 の他にXP1-2 の塊領域があるが、当該塊領域XP1-
2 と連続して隣り合っている領域は、X2 ,X3 のプロ
フィールデータ上には存在していないので、塊領域XP
1-2 は雑音領域として除外される。
Here, comparing the profile data of X1, X2, and X3, it is found that the chunk regions are XP1-1, XP2-1, X2-1 as patterns in which the chunk regions are continuously adjacent in the X-axis direction.
It turns out that P3-1 exists. X1 has XP1-
1, there is a lump area of XP1-2, but the lump area XP1-
2 is not present on the profile data of X2 and X3, and the block area XP
1-2 are excluded as noise regions.

【0075】さて、以上の領域の判定においては、プロ
フィールデータ上のデータ量、及び塊領域の範囲幅とい
った数値的な情報では判断しないで、単に塊領域の範囲
が重なっているという条件、或いは塊領域の範囲が連続
して隣り合っているという条件でパターンを抽出してい
るため、指定オブジェクトが画像内のどこの位置にあっ
ても抽出することが可能となる。
In the above area determination, the condition that the ranges of the chunk regions are overlapped, or the condition that the ranges of the chunk regions overlap, is not determined based on numerical information such as the data amount on the profile data and the range width of the chunk region. Since the pattern is extracted under the condition that the ranges of the regions are continuously adjacent, it is possible to extract the designated object at any position in the image.

【0076】上記処理は、Y4 ,Y5 ,Y6 (X4 ,X
5 ,X6 ),及びY7 ,Y8 ,Y9(X7 ,X8 ,X9
)に対しても同様に実施することにより、最終的に、
指定したオブジェクトの色相順序に合致した画像内の任
意の位置にあるオブジェクト領域を検出することができ
る。
The above processing is performed for Y4, Y5, Y6 (X4, X
5, X6) and Y7, Y8, Y9 (X7, X8, X9
) In the same way,
It is possible to detect an object region at an arbitrary position in an image that matches the hue order of a specified object.

【0077】次に、本実施形態においては、ユーザが指
定したオブジェクト(に類似のオブジェクト)が検索対
象画像における任意の位置にあって、且つ任意の大きさ
であっても、先に述べたと同じ処理手順で当該オブジェ
クトを検出できることについて、図8を参照して説明す
る。
Next, in the present embodiment, even if the object designated by the user (an object similar to the object) is located at an arbitrary position in the search target image and has an arbitrary size, the same as described above is performed. The fact that the object can be detected in the processing procedure will be described with reference to FIG.

【0078】基本的抽出方法については既に述べている
ので、ここではポイントだけを述べる。まず、ユーザ指
定のオブジェクト領域は、図8中のI11に示すようなカ
ラーパターンであるものとする。この場合、画像左下に
存在する、BΚ1 (RED),BK2 (YER),BK
3 (GRΝ),BK4 (MAZ),BK5 (BLE),
BK6 (RED),BK7 (RED),BK8 (CY
N),BK9 (BRW)といったオブジェクト領域(括
弧内は代表色相値)を持つ画像を、画像蓄積部101に
蓄積されている画像群の中から検索する。
Since the basic extraction method has already been described, only the points will be described here. First, it is assumed that the user-specified object area has a color pattern as indicated by I11 in FIG. In this case, BΚ1 (RED), BK2 (YER), BK existing at the lower left of the image
3 (GRΝ), BK4 (MAZ), BK5 (BLE),
BK6 (RED), BK7 (RED), BK8 (CY
Images having object areas such as N) and BK9 (BRW) (representative hue values in parentheses) are searched from the image group stored in the image storage unit 101.

【0079】今、I12という検索対象画像を対象に、ユ
ーザ指定のオブジェクトを検索する場合を考える。画像
I12には、画像左下方に赤の領域が存在し、画像右上方
にユーザ指定のオブジェクト(に類似したオブジェク
ト)が存在する。
Now, consider a case where a user-specified object is searched for the search target image I12. In the image I12, a red area exists at the lower left of the image, and an object (similar to) designated by the user exists at the upper right of the image.

【0080】この例では、図1のオブジェクト検索装置
100において、ブロックBK1 〜BK9 の代表色相値
について、Y軸ヘのプロフィールデータを抽出した結果
は、図8に示すY1 〜Y9 となる。ここで、Y1 ,Y2
,Y3 の組には、塊領域がY軸方向に重なっているパ
ターンとしてYP1-1 ,YP2-1 ,YP3-1 が存在して
いることがわかる。Y1 には、YP1-1 の他にYP1-2
の塊領域があるが、当該塊領域YP1-2 と重なっている
領域は、Y2 ,Y3 のプロフィールデータ上には存在し
ていないので、塊領域YP1-2 は雑音領域として除外さ
れる。
In this example, the result of extracting the profile data on the Y axis for the representative hue values of the blocks BK1 to BK9 in the object search device 100 of FIG. 1 is Y1 to Y9 shown in FIG. Here, Y1, Y2
, Y3, it is found that YP1-1, YP2-1, and YP3-1 exist as patterns in which the chunk regions overlap in the Y-axis direction. Y1 has YP1-2 in addition to YP1-1.
However, since the region overlapping with the block region YP1-2 does not exist on the profile data of Y2 and Y3, the block region YP1-2 is excluded as a noise region.

【0081】この場合、塊領域YP1-1 ,YP2-1 ,Y
P3-1 がY軸方向に重なっている検索対象画像I12内の
領域R10が、ブロックBK1 ,BK2 ,BK3 の代表色
相値についてのΧ軸へのプロフィールデータ抽出の対象
となり、X1 ,X2 ,X3 の各プロフィールデータが抽
出される。同様に、Y4 ,Y5 ,Y6 の組、及びY5,
Y6 ,Y7 の組にも、Y軸方向に重なっている塊領域が
存在し、そのY軸方向に重なっている検索対象画像I12
内の各領域が、一方は、ブロックBK4 ,BK5 ,BK
6 の、他方はブロックBK7 ,BK8 ,BK9 の、それ
ぞれ代表色相値についてのΧ軸へのプロフィールデータ
抽出の対象となり、X4 ,X5 ,X6 、及びX7 ,X8
,X9 の各プロフィールデータが抽出される。
In this case, the chunk areas YP1-1, YP2-1, Y
An area R10 in the search target image I12 where P3-1 overlaps in the Y-axis direction becomes a target of profile data extraction on the Χ-axis for the representative hue values of the blocks BK1, BK2, and BK3, and X1, X2, and X3 Each profile data is extracted. Similarly, a set of Y4, Y5, Y6 and Y5, Y5,
The set of Y6 and Y7 also has a lump area overlapping in the Y-axis direction, and the search target image I12 overlapping in the Y-axis direction.
, One of the blocks BK4, BK5, BK
6, the other is to extract the profile data of the blocks BK7, BK8, and BK9 on the Χ axis with respect to the representative hue values, respectively. X4, X5, X6, and X7, X8
, X9 are extracted.

【0082】ここで、X1 ,X2 ,X3 の各プロフィー
ルデータを比較すると、塊領域がX軸方向に連続して隣
り合っているパターンとして、XP1-2 ,XP2-1 ,X
P3-1 が存在していることがわかる。X1 には、XP1-
2 の他にXP1-1 の塊領域があるが、当該塊領域XP1-
1 と連続して隣り合っている領域は、X2 ,X3 のプロ
フィールデータ上には存在していないので、塊領域XP
1-1 は雑音領域として除外される。
Here, when comparing the profile data of X1, X2, and X3, it is found that the block regions are expressed as patterns in which the chunk regions are continuously adjacent in the X-axis direction.
It turns out that P3-1 exists. X1 has XP1-
In addition to the block area XP1-1, there is a block area XP1-1.
Since the area continuously adjacent to 1 does not exist on the profile data of X2 and X3, the block area XP
1-1 is excluded as a noise region.

【0083】さて、以上の領域の判定においては、プロ
フィールデータ上のデータ量、及び塊領域の範囲幅とい
った数値的な情報では判断しないで、単に塊領域の範囲
が重なっているという条件、或いは塊領域の範囲が連続
して隣り合っているという条件でパターンを抽出してい
るため、指定オブジェクトが画像内のどこの位置にあっ
ても、且つオブジェクトの大きさが任意であっても抽出
することが可能となる。
In the above-described determination of the area, the condition that the ranges of the block areas overlap or the condition that the ranges of the block areas overlap each other is not determined based on the numerical information such as the data amount on the profile data and the range width of the block area. Since the pattern is extracted under the condition that the ranges of the regions are continuously adjacent, it is necessary to extract the specified object regardless of the position in the image and the size of the object is arbitrary. Becomes possible.

【0084】上記処理は、Y4 ,Y5 ,Y6 (X4 ,X
5 ,X6 ),及びY7 ,Y8 ,Y9(X7 ,X8 ,X9
)に対しても同様に実施することにより、最終的に、
指定したオブジェクトの色相順序に合致した画像内の任
意の位置にある任意の大きさのオブジェクト領域を検出
することができる。
The above processing is performed for Y4, Y5, Y6 (X4, X
5, X6) and Y7, Y8, Y9 (X7, X8, X9
) In the same way,
It is possible to detect an object area of an arbitrary size at an arbitrary position in an image that matches the hue order of a specified object.

【0085】以上は、オブジェクト領域をX軸方向にn
等分、Y軸方向にm等分してn×m個のブロックに分割
した場合について説明したが、オブジェクト領域をY軸
方向にn等分、X軸方向にm等分してn×m個のブロッ
クに分割する場合にも、同様に実施できる。但し、これ
を前記実施形態に当てはめた場合には、X軸方向の座標
範囲が共通のn個のブロック単位の処理となるため、例
えばタイプaの画像であれば、次のように処理手順とな
る。
In the above, the object area is set to n in the X-axis direction.
The case has been described in which the object area is equally divided into m blocks in the Y-axis direction and divided into n × m blocks. The same can be applied to the case of dividing into blocks. However, when this is applied to the above-described embodiment, since the coordinate range in the X-axis direction is processing in units of n blocks in common, for example, in the case of a type a image, the processing procedure is as follows. Become.

【0086】まずY軸へのプロフィールデータを抽出し
て、分布がY軸方向に連続して隣り合う塊領域の範囲を
検出する。次に、その検出範囲内の画像部分を対象とし
てX軸へのプロフィールデータを抽出して、分布がX軸
方向に重なる塊領域を検出する。この処理を、n個のブ
ロック単位を切り替えながらm回繰り返す。
First, the profile data on the Y axis is extracted, and the range of the clump area whose distribution is continuously adjacent in the Y axis direction is detected. Next, profile data on the X-axis is extracted for the image portion within the detection range, and a lump area whose distribution overlaps in the X-axis direction is detected. This process is repeated m times while switching the unit of n blocks.

【0087】同様に、タイプbの画像であれば、まずX
軸へのプロフィールデータを抽出して、分布がX軸方向
に重なる塊領域の範囲を検出する。次に、その検出範囲
内の画像部分を対象としてY軸へのプロフィールデータ
を抽出して、分布がY軸方向に連続して隣り合う塊領域
を検出する。この処理を、n個のブロック単位を切り替
えながらm回繰り返す。
Similarly, if the image is of type b, X
The profile data for the axis is extracted, and the range of the lump area whose distribution overlaps in the X-axis direction is detected. Next, profile data for the Y-axis is extracted for the image portion within the detection range, and a mass region whose distribution is continuously adjacent in the Y-axis direction is detected. This process is repeated m times while switching the unit of n blocks.

【0088】また以上の説明では、タイプaの画像は、
Y軸へのプロフィールデータの抽出から先に行うものと
しているが、タイプbの画像と同様に、X軸へのプロフ
ィールデータの抽出から先に行うようにしても構わな
い。
In the above description, the type a image is
Although the processing is performed first after the extraction of the profile data on the Y axis, the processing may be performed first on the extraction of the profile data on the X axis as in the case of the image of type b.

【0089】なお、以上に述べた実施形態で適用された
オブジェクト検索装置100は、コンピュータ、例えば
パーソナルコンピュータに、例えば図2及び図3のフロ
ーチャートに示したような処理手順を実行するためのオ
ブジェクト検索処理用のプログラムが記録されたCD−
ROM、フロッピーディスク、メモリカード等の記録媒
体を装着して、当該記録媒体に記録されているプログラ
ムをパーソナルコンピュータで読み取り実行させること
によっても実現可能である。なお、このプログラムは、
ネットワーク等の通信媒体により供給することも可能で
ある。
Note that the object search apparatus 100 applied in the above-described embodiment performs an object search for executing a processing procedure as shown in the flowcharts of FIGS. 2 and 3 on a computer, for example, a personal computer. CD-ROM with processing program recorded
The present invention can also be realized by mounting a recording medium such as a ROM, a floppy disk, or a memory card, and reading and executing a program recorded on the recording medium by a personal computer. In addition, this program
It is also possible to supply by a communication medium such as a network.

【0090】[0090]

【発明の効果】以上詳述したように本発明によれば、指
定画像内の指定オブジェクトを包含するオブジェクト領
域をn×m個のブロックに分割し、検索対象画像から、
当該n×m個の各ブロックの代表色相値に対するX軸へ
の第1のプロフィールデータ及びY軸への第2のプロフ
ィールデータを抽出し、m組の各n個のブロックについ
て、その各ブロックの代表色相値についての各第1及び
第2のプロフィールデータをもとに、色相の並びが当該
n個のブロックの代表色相値の並びに一致する分布を持
つ領域を検出するようにしたので、指定オブジェクトと
位置、大きさが異なる場合でも、その指定オブジェクト
と2次元的に同一の色相の組み合わせパターンの画像部
分を持つ画像を検索することができる。
As described above in detail, according to the present invention, an object area including a designated object in a designated image is divided into n × m blocks, and
The first profile data on the X-axis and the second profile data on the Y-axis for the representative hue value of each of the n × m blocks are extracted, and for each of the n blocks of m sets, Based on each of the first and second profile data on the representative hue values, an area having a distribution of the hue arrangement and the coincidence distribution of the representative hue values of the n blocks is detected. Even if the position and size are different, it is possible to search for an image having an image portion of the combination pattern of the same hue two-dimensionally as the designated object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るオブジェクト検索装
置の全体構成を示すブロック図。
FIG. 1 is a block diagram showing the overall configuration of an object search device according to one embodiment of the present invention.

【図2】同実施形態におけるオブジェクト検索処理の流
れを説明するためのフローチャートの一部を示す図。
FIG. 2 is an exemplary flowchart illustrating a part of a flow of an object search process according to the embodiment;

【図3】同実施形態におけるオブジェクト検索処理の流
れを説明するためのフローチャートの残りを示す図。
FIG. 3 is an exemplary remaining flowchart illustrating the flow of an object search process according to the embodiment;

【図4】画像内へのオブジェクト領域設定と、当該オブ
ジェクト領域を対象とするブロック分割と、各ブロック
へのブロック番号付けを説明するための図。
FIG. 4 is a view for explaining setting of an object area in an image, division of a block targeting the object area, and block numbering of each block.

【図5】色相画像に変換した際の各色相値の関係を示し
た図。
FIG. 5 is a diagram showing a relationship between respective hue values when converted into a hue image.

【図6】プロフィールデータの各ブロック毎の塊領域の
抽出方法を説明するための図。
FIG. 6 is a view for explaining a method of extracting a block area for each block of profile data.

【図7】ユーザ指定のオブジェクトが他の画像内の任意
の位置にあっても検出できることを説明するための図。
FIG. 7 is a view for explaining that an object specified by a user can be detected even at an arbitrary position in another image.

【図8】ユーザ指定のオブジェクトが他の画像内の任意
の位置にあって、且つ任意の大きさであっても検出でき
ることを説明するための図。
FIG. 8 is a view for explaining that an object specified by a user can be detected even at an arbitrary position in another image and at an arbitrary size.

【符号の説明】[Explanation of symbols]

100…オブジェクト検索装置 101…画像蓄積部 102…画像提示部 104…色相画像変換部 105…オブジェクト領域指定部 106…プロフィール抽出部 107…代表色相値決定部 108…オブジェクト領域分割部 109…オブジェクト検索部 110…オブジェクト検索結果表示部 REFERENCE SIGNS LIST 100 object retrieval device 101 image storage unit 102 image presentation unit 104 hue image conversion unit 105 object region designation unit 106 profile extraction unit 107 representative hue value determination unit 108 object region division unit 109 object retrieval unit 110: Object search result display section

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 指定画像内の指定オブジェクトを包含す
るオブジェクト領域を設定するオブジェクト領域指定手
段と、 前記オブジェクト領域指定手段によって設定されたオブ
ジェクト領域をX軸方向またはY軸方向のうちの一方の
方向にn等分、他方の方向にm等分してn×m個のブロ
ックに分割するオブジェクト領域分割手段と、 前記指定画像上の前記n×m個の各ブロック毎に、その
ブロックの代表となる色相値を抽出する代表色相値決定
手段と、 色相画像に変換された検索対象画像から、前記各ブロッ
クの代表色相値に対するX軸への第1のプロフィールデ
ータ及びY軸への第2のプロフィールデータを抽出する
プロフィール抽出手段と、 n個の前記ブロックを単位に、対応する前記各第1のプ
ロフィールデータ及び前記各第2のプロフィールデータ
をもとに、色相の並びが当該n個のブロックの代表色相
値の並びに一致する分布を持つ領域を検出することによ
り、前記検索対象画像から指定オブジェクトを検索する
オブジェクト検索手段とを具備することを特徴とするオ
ブジェクト検索装置。
1. An object area specifying means for setting an object area including a specified object in a specified image, and an object area set by the object area specifying means in one of an X-axis direction and a Y-axis direction. Object area dividing means for dividing into n × m blocks by equally dividing into n and m in the other direction, and for each of the n × m blocks on the designated image, a representative of the block Representative hue value determining means for extracting the following hue value: first profile data on the X axis and second profile on the Y axis for the representative hue value of each block from the search target image converted into the hue image Profile extracting means for extracting data; and a corresponding one of the first profile data and a corresponding one of the second profiles in units of n blocks. Object search means for searching for a specified object from the search target image by detecting an area having a distribution in which the arrangement of hues matches the arrangement of the representative hue values of the n blocks based on the wheel data. An object search device, comprising:
【請求項2】 指定画像内の指定オブジェクトを包含す
るオブジェクト領域を設定するオブジェクト領域指定手
段と、 前記オブジェクト領域指定手段によって設定されたオブ
ジェクト領域をX軸方向またはY軸方向のうちの一方の
方向にn等分、他方の方向にm等分してn×m個のブロ
ックに分割するオブジェクト領域分割手段と、 前記指定画像上の前記n×m個の各ブロック毎に、その
ブロックの代表となる色相値を抽出する代表色相値決定
手段と、 色相画像に変換された検索対象画像から、前記各ブロッ
クの代表色相値に対するX軸への第1のプロフィールデ
ータ及びY軸への第2のプロフィールデータを抽出する
ためのプロフィール抽出手段と、 n個の前記ブロックを単位に、前記プロフィール抽出手
段により前記検索対象画像の全領域を対象として抽出さ
れる、当該n個のブロックに対応する前記各第1のプロ
フィールデータまたは前記各第2のプロフィールデータ
のうちの一方の各プロフィールデータをもとに、色相の
並びが当該n個のブロックの代表色相値の並びに一致す
る可能性のある画像部分を含む領域の検出を行い、検出
した前記検索対象画像内の領域を対象として前記プロフ
ィール抽出手段により抽出される当該n個のブロックに
対応する前記各第1のプロフィールデータまたは前記各
第2のプロフィールデータのうちの他方の各プロフィー
ルデータをもとに、色相の並びが当該n個のブロックの
代表色相値の並びに一致する領域の検出を行うことによ
り、前記検索対象画像から指定オブジェクトを検索する
オブジェクト検索手段とを具備することを特徴とするオ
ブジェクト検索装置。
2. An object area specifying means for setting an object area including a specified object in a specified image, and an object area set by the object area specifying means in one of an X-axis direction and a Y-axis direction. Object area dividing means for dividing into n × m blocks by equally dividing into n and m in the other direction, and for each of the n × m blocks on the designated image, a representative of the block Representative hue value determining means for extracting the following hue value: first profile data on the X axis and second profile on the Y axis for the representative hue value of each block from the search target image converted into the hue image A profile extraction unit for extracting data; and a whole region of the search target image by the profile extraction unit in units of n blocks. Are extracted based on each one of the first profile data or the second profile data corresponding to the n blocks, and the arrangement of the hue is the n A region including an image part that may possibly match the representative hue value of the block of the block is detected, and the detected n regions in the search target image are subjected to the n blocks extracted by the profile extraction unit. Detection of a region where the arrangement of hues matches the representative hue values of the n blocks in accordance with each of the other one of the corresponding first profile data or the second profile data. Performing an object search by searching for the designated object from the search target image. Object retrieval apparatus.
【請求項3】 指定画像内の指定オブジェクトを包含す
るオブジェクト領域を設定するオブジェクト領域指定手
段と、 前記オブジェクト領域指定手段によって設定されたオブ
ジェクト領域をX軸方向またはY軸方向のうちの一方の
方向にn等分、他方の方向にm等分してn×m個のブロ
ックに分割すると共に、当該各ブロックにラベル付けを
行って当該各ブロック間の相対位置関係を定義するオブ
ジェクト領域分割手段と、 前記指定画像上の前記n×m個の各ブロック毎に、その
ブロックの代表となる色相値を抽出して、前記ラベル付
けした順番に対応した配列の色相値からなる代表色相値
テーブルを作成する代表色相値決定手段と、 色相画像に変換された検索対象画像から、前記代表色相
値テーブルにより示される各ブロックの代表色相値に対
するX軸への第1のプロフィールデータ及びY軸への第
2のプロフィールデータを抽出するためのプロフィール
抽出手段と、 n個の前記ブロックを単位に、前記プロフィール抽出手
段により前記検索対象画像の全領域を対象として抽出さ
れる、当該n個のブロックに対応する前記各第1のプロ
フィールデータまたは前記各第2のプロフィールデータ
のうちの一方の各プロフィールデータをもとに、色相の
並びが前記代表色相値テーブルの示す当該n個のブロッ
クの代表色相値の並びに一致する画像部分を含む可能性
のある領域の検出を行い、検出した前記検索対象画像内
の領域を対象として前記プロフィール抽出手段により抽
出される当該n個のブロックに対応する前記各第1のプ
ロフィールデータまたは前記各第2のプロフィールデー
タのうちの他方の各プロフィールデータをもとに、色相
の並びが前記代表色相値テーブルの示す当該n個のブロ
ックの代表色相値の並びに一致する領域の検出を行うこ
とにより、前記検索対象画像から指定オブジェクトを検
索するオブジェクト検索手段とを具備することを特徴と
するオブジェクト検索装置。
3. An object area specifying means for setting an object area including a specified object in a specified image, and an object area set by the object area specifying means in one of an X-axis direction and a Y-axis direction. An object area dividing unit that divides into n × m blocks by dividing into n equal parts and m equal parts in the other direction, and labeling the respective blocks to define a relative positional relationship between the respective blocks. For each of the n × m blocks on the designated image, a representative hue value of the block is extracted, and a representative hue value table including hue values in an array corresponding to the labeled order is created. A representative hue value determining unit, and a representative hue value of each block indicated by the representative hue value table from the search target image converted into the hue image. A profile extraction unit for extracting first profile data on the X axis and second profile data on the Y axis, and for each of the n blocks, the profile extraction unit extracts all of the search target images. Based on each of the first profile data or the second profile data of each of the first profile data and the second profile data corresponding to the n blocks extracted for the region, the arrangement of the hues is the representative. A region that may include an image portion that matches the arrangement of the representative hue values of the n blocks indicated in the hue value table is detected, and the detected region in the search target image is extracted by the profile extraction unit. The first profile data or the second profile data corresponding to the n blocks to be processed. Based on each of the other profile data, by detecting a region in which the arrangement of hues matches the arrangement of the representative hue values of the n blocks shown in the representative hue value table, An object search device comprising: an object search means for searching for a specified object.
【請求項4】 前記オブジェクト検索手段は、前記検索
対象画像の全領域を対象とした前記n個のブロックに対
応する前記各第1のプロフィールデータまたは前記各第
2のプロフィールデータのうちの、当該n個のブロック
の配列方向に直交する第1の方向の軸への各プロフィー
ルデータの相互間で分布が前記第1の方向に重なり合う
共通の前記第1の方向の座標範囲の検出を行い、検出し
た座標範囲の前記検索対象画像内の領域を対象とした前
記n個のブロックに対応する前記各第1のプロフィール
データまたは前記各第2のプロフィールデータのうち
の、当該n個のブロックの配列方向に平行な第2の方向
の軸への各プロフィールデータの相互間で当該n個のブ
ロックの並び順で分布が前記第2の方向に連続して隣り
合う領域の検出を行うことを特徴とする請求項2または
請求項3記載のオブジェクト検索装置。
4. The object search means of the first profile data or the second profile data corresponding to the n blocks for the entire area of the search target image. A common coordinate range in the first direction in which the distribution of profile data on the axis in the first direction orthogonal to the arrangement direction of the n blocks overlaps in the first direction is detected. Of the first profile data or the second profile data corresponding to the n blocks in the area within the search target image in the set coordinate range, in the arrangement direction of the n blocks Between the respective profile data along the axis in the second direction parallel to the distribution of the n blocks is detected in the order in which the blocks are consecutively adjacent in the second direction. 4. The object search device according to claim 2, wherein
【請求項5】 前記オブジェクト検索手段は、前記検索
対象画像の全領域を対象とした前記n個のブロックに対
応する前記各第1のプロフィールデータまたは前記各第
2のプロフィールデータのうちの、当該n個のブロック
の配列方向に平行な第1の方向の軸への各プロフィール
データの相互間で当該n個のブロックの並び順で分布が
前記第1の方向に連続して隣り合うその連続する領域の
前記第1の方向の座標範囲の検出を行い、検出した座標
範囲の前記検索対象画像内の領域を対象とした前記n個
のブロックに対応する前記各第1のプロフィールデータ
または前記各第2のプロフィールデータのうちの、当該
n個のブロックの配列方向に直交する第2の方向の軸へ
の各プロフィールデータの相互間で分布が前記第2の方
向に重なり合う共通の領域の検出を行うことを特徴とす
る請求項2または請求項3記載のオブジェクト検索装
置。
5. The object search means of the first profile data or the second profile data corresponding to the n blocks for the entire area of the search target image. Between each of the profile data on the axis in the first direction parallel to the arrangement direction of the n blocks, the distribution in the order of arrangement of the n blocks is continuous in the first direction. The coordinate range of the area in the first direction is detected, and each of the first profile data or each of the first profile data corresponding to the n blocks for the area in the search target image in the detected coordinate range is detected. Of the two profile data, the distribution of the profile data on the axis in the second direction orthogonal to the arrangement direction of the n blocks overlaps in the second direction. 4. The object search device according to claim 2, wherein the detection of the area is performed.
【請求項6】 前記オブジェクト検索手段は、前記検索
対象画像の種類を表す属性情報に応じて、前記第1また
は第2のプロフィールデータのうちのいずれを先に使用
するかを決定することを特徴とする請求項2または請求
項3記載のオブジェクト検索装置。
6. The method according to claim 1, wherein the object search unit determines which one of the first and second profile data is used first according to attribute information indicating a type of the search target image. 4. The object search device according to claim 2, wherein:
【請求項7】 前記代表色相値決定手段は、ブロック内
で面積が最大となる色相値を求め、当該色相値に上下に
一定の幅を持たせて、当該ブロックの代表色相値とする
ことを特徴とする請求項1乃至請求項3のいずれかに記
載のオブジェクト検索装置。
7. The representative hue value determining means obtains a hue value having the largest area in a block, assigns the hue value a certain width up and down, and sets the hue value as a representative hue value of the block. The object search device according to any one of claims 1 to 3, wherein:
【請求項8】 前記代表色相値決定手段は、ブロック内
で面積が最大となる色相値を代表色相値とする一方、当
該面積の前記ブロックに占める割合が所定割合以下の場
合には、当該面積が最大の色相値に連続する両端の色相
値を前記代表色相値に加える操作を前記所定割合を越え
るまで行って前記代表色相値に幅を持たせることを特徴
とする請求項1乃至請求項3のいずれかに記載のオブジ
ェクト検索装置。
8. The representative hue value determining means sets a hue value having the largest area in the block as a representative hue value, and when a ratio of the area to the block is equal to or less than a predetermined ratio, the representative hue value is determined. 4. An operation of adding the hue values at both ends which are continuous with the maximum hue value to the representative hue value until the predetermined hue value is exceeded, so that the representative hue value has a width. An object search device according to any one of the above.
【請求項9】 前記代表色相値決定手段は、前記代表色
相値の上下に更に一定の幅を持たせることを特徴とする
請求項8記載のオブジェクト検索装置。
9. The object search apparatus according to claim 8, wherein said representative hue value determination means has a further fixed width above and below said representative hue value.
【請求項10】 前記プロフィール抽出手段は、前記第
1及び第2のプロフィールデータの分布の端部について
は、その端部の画素数が予め定められた閾値以上であれ
ば、そこを当該分布の境界とし、閾値に満たない場合に
は、閾値以上となる位置まで当該分布の境界を移動し
て、前記第1及び第2のプロフィールデータを再抽出す
ることを特徴とする請求項1乃至請求項3のいずれかに
記載のオブジェクト検索装置。
10. The profile extraction means, if the number of pixels at the end of the distribution of the first and second profile data is equal to or greater than a predetermined threshold value, determines the end of the distribution. The method according to claim 1, wherein when the value is less than the threshold value, the boundary of the distribution is moved to a position equal to or greater than the threshold value, and the first and second profile data are extracted again. 3. The object search device according to any one of 3.
【請求項11】 前記プロフィール抽出手段は、前記第
1または2のプロフィールデータ上で予め定められた幅
以上の分布が間隔を保って隣接して存在する場合に、代
表色相値の幅を上下にそれぞれ一定値だけ広げて対応す
るプロフィールデータを再抽出する請求項1乃至請求項
3のいずれかに記載のオブジェクト検索装置。
11. The profile extracting means increases or decreases the width of a representative hue value when a distribution having a width equal to or more than a predetermined width exists on the first or second profile data at intervals. 4. The object search device according to claim 1, wherein the corresponding profile data is re-extracted by expanding the profile data by a predetermined value.
【請求項12】 前記オブジェクト検索手段は、前記検
索対象画像から指定オブジェクトが検索できなかった場
合、270度を上限として、当該検索対象画像を90度
単位で回転させて再度の検索を行うことを特徴とする請
求項1乃至請求項3のいずれかに記載のオブジェクト検
索装置。
12. The object search means, when a specified object cannot be searched from the search target image, performing a search again by rotating the search target image in units of 90 degrees with 270 degrees as an upper limit. The object search device according to any one of claims 1 to 3, wherein:
【請求項13】 指定画像内の指定オブジェクトを包含
するオブジェクト領域を設定する第1のステップと、 前記設定したオブジェクト領域をX軸方向またはY軸方
向のうちの一方の方向にn等分、他方の方向にm等分し
てn×m個のブロックに分割する第2のステップと、 前記指定画像上の前記n×m個の各ブロック毎に、その
ブロックの代表となる色相値を抽出する第3のステップ
と、 検索対象画像を色相画像に変換する第4のステップと、 前記色相画像に変換された検索対象画像の全領域を対象
として、前記各ブロックの代表色相値に対するX軸また
はY軸のうちの一方の軸への第1のプロフィールデータ
を抽出する第5のステップと、 n個の前記ブロックに対応する前記各第1のプロフィー
ルデータをもとに、色相の並びが当該n個のブロックの
代表色相値の並びに一致する画像部分を含む可能性のあ
る領域の検出を行う第6のステップと、 前記第6のステップでn個のブロックの代表色相値の並
びに一致する画像部分を含む可能性のある領域が検出で
きた場合に、この検出できた前記検索対象画像内の領域
を対象として、当該n個のブロックの代表色相値に対す
るX軸またはY軸のうちの他方の軸への第2のプロフィ
ールデータを抽出する第7のステップと、 前記第7のステップで抽出されたn個のブロックに対応
する前記各第2のプロフィールデータもとに、色相の並
びが当該n個のブロックの代表色相値の並びに一致する
領域の検出を行う第8のステップと、 前記n個のブロックを単位に、当該n個のブロックを切
り替えながら、前記第6乃至第8のステップをm回繰り
返させる第9のステップとを具備することを特徴とする
オブジェクト検索方法。
13. A first step of setting an object area including a specified object in a specified image, and dividing the set object area into n equal parts in one of an X-axis direction and a Y-axis direction, and the other. A second step of dividing the block into n × m blocks by dividing the block into m equal parts in the direction of, and extracting a representative hue value of each of the n × m blocks on the designated image A third step, a fourth step of converting the search target image into a hue image, and an X-axis or a Y-axis with respect to the representative hue value of each block for the entire region of the search target image converted into the hue image. A fifth step of extracting first profile data for one of the axes, and, based on each of the first profile data corresponding to the n blocks, the arrangement of the hue is n A sixth step of detecting an area that may include an image part that matches the arrangement of the representative hue values of the blocks of the blocks, and the image part that matches the arrangement of the representative hue values of the n blocks in the sixth step. When an area that may be included is detected, the detected area in the search target image is set as a target and the other of the X axis or the Y axis with respect to the representative hue value of the n blocks is moved to the other axis. A seventh step of extracting the second profile data of the above, and based on each of the second profile data corresponding to the n blocks extracted in the seventh step, the arrangement of the hue is the number of the n An eighth step of detecting a region in which the representative hue values of the blocks are aligned with each other, and performing the sixth to eighth steps by switching the n blocks in units of the n blocks. Object search method characterized by comprising a ninth step of repeating.
【請求項14】 前記n個のブロックに対応する前記各
第1のプロフィールデータが、当該n個のブロックの配
列方向に直交する第1の方向の軸へのプロフィールデー
タである場合に、 前記第6のステップでは、当該各第1のプロフィールデ
ータの相互間で分布が前記第1の方向に重なり合う共通
の前記第1の方向の座標範囲の検出を行い、 前記第7のステップでは、前記第1の方向の座標範囲の
前記検索対象画像内の領域を対象として、前記n個のブ
ロックの代表色相値に対するX軸またはY軸のうちの当
該n個のブロックの配列方向に平行な第2の方向の軸へ
の第2のプロフィールデータを抽出し、 前記第8のステップでは、前記n個のブロックの配列方
向に平行な第2の方向の軸への前記各第2のプロフィー
ルデータの相互間で当該n個のブロックの並び順で分布
が前記第2の方向に連続して隣り合う領域の検出を行う
ことを特徴とする請求項13記載のオブジェクト検索方
法。
14. When the first profile data corresponding to the n blocks is profile data on an axis in a first direction orthogonal to the arrangement direction of the n blocks, In a sixth step, a common coordinate range in the first direction in which distributions of the respective first profile data overlap each other in the first direction is detected, and in the seventh step, the first A second direction parallel to the arrangement direction of the n blocks on the X-axis or the Y-axis with respect to the representative hue value of the n blocks for an area in the search target image in the coordinate range in the direction of Extracting the second profile data on the axis of the nth block, and in the eighth step, between the respective second profile data on the axis in the second direction parallel to the arrangement direction of the n blocks. The n 14. The object search method according to claim 13, wherein an area whose distribution is continuously adjacent in the second direction in the arrangement order of the blocks is detected.
【請求項15】 前記n個のブロックに対応する前記各
第1のプロフィールデータが、当該n個のブロックの配
列方向に平行な第1の方向の軸へのプロフィールデータ
である場合に、 前記第6のステップでは、当該各第1のプロフィールデ
ータの相互間で当該n個のブロックの並び順で分布が前
記第1の方向に連続して隣り合うその連続する領域の前
記第1の方向の座標範囲の検出を行い、 前記第7のステップでは、前記第1の方向の座標範囲の
前記検索対象画像内の領域を対象として、前記n個のブ
ロックの代表色相値に対するX軸またはY軸のうちの当
該n個のブロックの配列方向に直交する第2の方向の軸
への第2のプロフィールデータを抽出し、 前記第8のステップでは、前記n個のブロックの配列方
向に直交する第2の方向の軸への前記各第2のプロフィ
ールデータの相互間で分布が前記第2の方向に重なり合
う共通の領域の検出を行うことを特徴とする請求項13
記載のオブジェクト検索方法。
15. The method according to claim 15, wherein the first profile data corresponding to the n blocks is profile data on an axis in a first direction parallel to an arrangement direction of the n blocks. In the step (6), the distribution in the first direction of the continuous area adjacent to the distribution of the n blocks in the first direction in the order of arrangement of the n blocks among the respective first profile data. In the seventh step, an area within the search target image in the coordinate range in the first direction is set as an object, and an X-axis or a Y-axis of a representative hue value of the n blocks is determined. Extracting the second profile data on the axis in the second direction orthogonal to the arrangement direction of the n blocks. In the eighth step, a second profile data orthogonal to the arrangement direction of the n blocks is extracted. To axis of direction Detecting a common area whose distribution is overlapped in the second direction among the respective second profile data.
Object search method described.
【請求項16】 指定画像内の指定オブジェクトを包含
するオブジェクト領域を設定させる第1のステップと、 前記設定したオブジェクト領域をX軸方向またはY軸方
向のうちの一方の方向にn等分、他方の方向にm等分し
てn×m個のブロックに分割させる第2のステップと、 前記指定画像上の前記n×m個の各ブロック毎に、その
ブロックの代表となる色相値を抽出させる第3のステッ
プと、 検索対象画像を色相画像に変換させる第4のステップ
と、 前記色相画像に変換された検索対象画像の全領域を対象
として、前記各ブロックの代表色相値に対するX軸また
はY軸のうちの一方の軸への第1のプロフィールデータ
を抽出させる第5のステップと、 n個の前記ブロックに対応する前記各第1のプロフィー
ルデータをもとに、色相の並びが当該n個のブロックの
代表色相値の並びに一致する画像部分を含む可能性のあ
る領域の検出を行わせる第6のステップと、 前記第6のステップでn個のブロックの代表色相値の並
びに一致する画像部分を含む可能性のある領域が検出で
きた場合に、この検出できた前記検索対象画像内の領域
を対象として、当該n個のブロックの代表色相値に対す
るX軸またはY軸のうちの他方の軸への第2のプロフィ
ールデータを抽出させる第7のステップと、 前記第7のステップで抽出されたn個のブロックに対応
する前記各第2のプロフィールデータもとに、色相の並
びが当該n個のブロックの代表色相値の並びに一致する
領域の検出を行わせる第8のステップと、 前記n個のブロックを単位に、当該n個のブロックを切
り替えながら、前記第6乃至第8のステップをm回繰り
返させる第9のステップとを、 コンピュータに実行させるプログラムを記録したコンピ
ュータ読み取り可能な記録媒体。
16. A first step of setting an object area including a specified object in a specified image, and dividing the set object area into n equal parts in one of an X-axis direction and a Y-axis direction, and the other. A second step of dividing into n × m blocks by dividing into m equal parts in the direction of, and extracting a representative hue value of each of the n × m blocks on the designated image. A third step, a fourth step of converting the search target image into a hue image, and an X-axis or a Y-axis with respect to the representative hue value of each block for the entire region of the search target image converted into the hue image. A fifth step of extracting first profile data for one of the axes, and an arrangement of hues based on each of the first profile data corresponding to n blocks. Performing a detection of a region that may include an image portion that matches the arrangement of the representative hue values of the n blocks, and the arrangement of the representative hue values of the n blocks in the sixth step. When a region that may include a matching image portion is detected, the detected region in the search target image is set as a target and the X-axis or the Y-axis with respect to the representative hue value of the n blocks is used. A seventh step of extracting second profile data to the other axis of, and a hue arrangement based on each of the second profile data corresponding to the n blocks extracted in the seventh step. An eighth step of detecting a region in which the representative hue values of the n blocks coincide with each other, and switching the n blocks in units of the n blocks while performing the switching of the n blocks. And a ninth step of repeating m times the eighth step, a computer readable recording medium recording a program to be executed by a computer.
JP9358781A 1997-12-26 1997-12-26 Device and method for retrieving object Pending JPH11191109A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9358781A JPH11191109A (en) 1997-12-26 1997-12-26 Device and method for retrieving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9358781A JPH11191109A (en) 1997-12-26 1997-12-26 Device and method for retrieving object

Publications (1)

Publication Number Publication Date
JPH11191109A true JPH11191109A (en) 1999-07-13

Family

ID=18461081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9358781A Pending JPH11191109A (en) 1997-12-26 1997-12-26 Device and method for retrieving object

Country Status (1)

Country Link
JP (1) JPH11191109A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275979A (en) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd Image retrieving program
JP2013037416A (en) * 2011-08-04 2013-02-21 Kokusai Kogyo Co Ltd Mesh data retrieval system
JP2014032656A (en) * 2012-08-03 2014-02-20 Fuji Xerox Co Ltd Method, device and program to generate content link

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275979A (en) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd Image retrieving program
JP2013037416A (en) * 2011-08-04 2013-02-21 Kokusai Kogyo Co Ltd Mesh data retrieval system
JP2014032656A (en) * 2012-08-03 2014-02-20 Fuji Xerox Co Ltd Method, device and program to generate content link

Similar Documents

Publication Publication Date Title
JP2776295B2 (en) Image index generation method and image index generation device
JPH077448B2 (en) Arc part recognition method
CN110543877A (en) Identification recognition method, training method and device of model thereof and electronic system
KR0161712B1 (en) Method and apparatus for assigning temporary and true labels to digital image
US6728407B1 (en) Method for automatically determining trackers along contour and storage medium storing program for implementing the same
JP2003141548A (en) Three-dimensional labeling device and method
JP4086956B2 (en) User-assisted identification of object boundaries in raster images
JPH11191109A (en) Device and method for retrieving object
US6430583B1 (en) Scenario editing apparatus for performing editing of multimedia using figure feature points
JP2936599B2 (en) Color image processing equipment
JPS6019826B2 (en) Image data encoding method
US20150026013A1 (en) System and methods for cognitive visual product search
JP3199009B2 (en) Image storage / management apparatus and image index generation method
JPH09134422A (en) Continuous coloring method for animation and device therefor
JPH0816931B2 (en) Contour extraction method
JPH06162180A (en) Area extraction system
JP2562498B2 (en) Coordinate detection method for specified figure
JPS6325784A (en) Computer graphics method and apparatus
JPH05257989A (en) Moving image retrieval supporting system
JP4763113B2 (en) High speed labeling method
JP3658796B2 (en) Image data compression device
JPH06243178A (en) Method and device for picture retrieval
JP2890307B2 (en) Table space separation device
JP3903540B2 (en) Image extraction method and apparatus, recording medium on which image extraction program is recorded, information input / output / selection method and apparatus, and recording medium on which information input / output / selection processing program is recorded
CN117911444A (en) Edge processing-based matting method and system