JP2000090239A - Image retrieving device - Google Patents

Image retrieving device

Info

Publication number
JP2000090239A
JP2000090239A JP10256530A JP25653098A JP2000090239A JP 2000090239 A JP2000090239 A JP 2000090239A JP 10256530 A JP10256530 A JP 10256530A JP 25653098 A JP25653098 A JP 25653098A JP 2000090239 A JP2000090239 A JP 2000090239A
Authority
JP
Japan
Prior art keywords
image
feature amount
edge
area
search target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10256530A
Other languages
Japanese (ja)
Inventor
Hiroshige Kamine
広茂 加峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10256530A priority Critical patent/JP2000090239A/en
Publication of JP2000090239A publication Critical patent/JP2000090239A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image retrieving device capable of retrieving an image while considering similarity in the composition or color tone of images. SOLUTION: This image retrieving device is composed of a central processing unit(CPU) 1, a display device 2, an input device 3 and a secondary storage device 5. Under the control of the CPU 1, an edge extracting part 10 performs edge extraction while using the hue values and luminance values of respective pixels of the image, and based on the information of edge, an area dividing part 16 performs clustering and separates the image into respective pattern areas. Further, a feature value obtained based on the hue value and luminance value is extracted for every divided pattern area, and by comparing the feature amounts of a reference image and a retrieval object image, an image similar to the reference image is retrieved out of retrieval object images.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、大量のカラー画像
に対し、類似する画像の検索を行う画像検索装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image retrieval apparatus for retrieving similar images from a large number of color images.

【0002】[0002]

【従来の技術】近年、デジタルカメラの普及やインター
ネット等でデジタルカラー画像の流通が増加しており、
その大量の画像の中から目的の画像を効率的に検索する
機能の重要性は高い。日常的に使用者が目にすることが
多いカラー自然画の中には、デジタルカメラで旅行時な
どに撮影するスナップも含まれる。デジタルカメラの高
性能化により、画像の撮影可能枚数は増え、使用者は枚
数を意識することなく撮影が可能となりつつある。その
ため、使用者は観光地等の同じ場所で複数の写真を撮影
することが多くなっている。その際に、ロケーション、
アングルは正確には異なるが、場所、背景が類似してい
る画像を検索する機能は非常に有益である。
2. Description of the Related Art In recent years, the spread of digital color images through the spread of digital cameras and the Internet has been increasing.
The function of efficiently searching for a target image from the large number of images is important. Among color natural images that are often seen by users on a daily basis, there are snaps taken with a digital camera when traveling. Due to the high performance of digital cameras, the number of images that can be shot has increased, and users are now able to shoot without being conscious of the number of images. Therefore, users often take a plurality of pictures at the same place such as a sightseeing spot. At that time, location,
Although the angles are exactly different, the ability to search for images with similar locations and backgrounds is very useful.

【0003】大量のカラー画像からある画像と類似した
画像を検索する従来の方法として、画像に使用されてい
る色の割合を特徴量として検索を行う方法がある。
As a conventional method for retrieving an image similar to a certain image from a large number of color images, there is a method of retrieving using a ratio of colors used in the image as a feature amount.

【0004】図13は従来の画像検索装置の構成を示す
ブロック図である。図13において、従来の画像検索装
置は、中央処理装置1、モニター等カラー画像を表示す
る表示装置2、キーボードやマウス等の入力装置3、処
理中のプログラムや値を一時的に記憶する主記憶装置
4、およびカラー画像データや画像管理機能のモジュー
ル等を記憶する二次記憶装置5から構成される。二次記
憶装置5には、検索対象画像6、HVC系変換部7、特
徴量テーブル19、キー画像20、検索部21、表示部
22、ヒストグラム抽出部23から構成される。
FIG. 13 is a block diagram showing a configuration of a conventional image search device. In FIG. 13, a conventional image retrieval apparatus includes a central processing unit 1, a display device 2 such as a monitor for displaying a color image, an input device 3 such as a keyboard and a mouse, and a main memory for temporarily storing a program or a value being processed. It comprises a device 4 and a secondary storage device 5 for storing color image data, modules for image management functions, and the like. The secondary storage device 5 includes a search target image 6, an HVC conversion unit 7, a feature amount table 19, a key image 20, a search unit 21, a display unit 22, and a histogram extraction unit 23.

【0005】二次記憶装置5において、検索対象画像
は、大量の画像データである。HVC系変換部7は、R
GB値の情報を持つ画像データを、人間の視覚的な認識
における色差と合致する色相(H)、輝度(V)、彩度
(C)を表す値へ変換する処理を行う。ヒストグラム抽
出部23は、画像の色相(H)が取り得る範囲をある長
さの枠で区切り、画像内のすべての画素が持つ色相値を
区切り枠でカウントし、画像で使用されている全ての画
素の色相値の割合を求める処理を行う。
[0005] In the secondary storage device 5, the search target image is a large amount of image data. The HVC conversion unit 7 calculates R
A process of converting image data having GB value information into values representing hue (H), luminance (V), and saturation (C) that match the color difference in human visual recognition is performed. The histogram extraction unit 23 divides the range of the hue (H) of the image by a frame of a certain length, counts the hue values of all the pixels in the image by the separation frame, and calculates all hue values used in the image. A process of calculating the ratio of the hue value of the pixel is performed.

【0006】特徴量テーブル19は、検索対象の全ての
画像の特徴量を抽出してテーブル化しているものであ
る。キー画像20は、使用者が検索に用いる画像であ
る。検索部21は、特徴量テーブル19を読込み、キー
画像20の特徴量を抽出して比較を行い、画像の類似度
を算出する処理を行う。表示部22は、検索部21にお
いて類似していると判断された画像を指定枚数表示する
処理を行う。
The feature amount table 19 is a table in which feature amounts of all images to be searched are extracted. The key image 20 is an image used by the user for a search. The search unit 21 reads the feature amount table 19, extracts and compares the feature amounts of the key image 20, and calculates the similarity of the images. The display unit 22 performs a process of displaying a specified number of images determined to be similar by the search unit 21.

【0007】図14は、色の割合を特徴量とした画像検
索における処理過程を示すフローチャートである。以
下、図14を参照して説明する。
FIG. 14 is a flowchart showing a processing procedure in an image search using a color ratio as a feature amount. Hereinafter, description will be made with reference to FIG.

【0008】まず、検索対象である大量の画像を一枚ず
つ読込む(ステップS39)。次に、RGB系からHV
C系への変換式を用いて、RGB系の各画素のデータを
HVC系の画素データに変換する(ステップS40)。
First, a large number of images to be searched are read one by one (step S39). Next, from RGB system to HV
The data of each pixel of the RGB system is converted into the pixel data of the HVC system using the conversion formula for the C system (step S40).

【0009】さらに、色相値のとりうる範囲を等分割
し、それぞれの区間に含まれる色相値を持つ画素をカウ
ントし、着目している画像に使用されている色の割合の
特徴量を取得する(ステップS41)。
Further, the range in which the hue value can be taken is equally divided, the pixels having the hue value included in each section are counted, and the characteristic amount of the color used in the image of interest is obtained. (Step S41).

【0010】さらに、検索対象画像の全ての特徴量を特
徴量テーブル19に書き出す(ステップS42)。
Further, all feature amounts of the search target image are written in the feature amount table 19 (step S42).

【0011】そして、使用者が検索に用いるキー画像を
指定する(ステップS43)。さらに、ステップS41
と同様に、キー画像から色の割合を示す特徴量を抽出
し、特徴量テーブル19を用いて比較を行い、特徴量が
近い画像を検索する(ステップS44)。そして、ステ
ップS44において、特徴量が近いために類似している
と判断された画像を画面に表示する(ステップS4
5)。
Then, the user specifies a key image to be used for the search (step S43). Further, step S41
Similarly to the above, a feature amount indicating a color ratio is extracted from the key image, a comparison is performed using the feature amount table 19, and an image having a similar feature amount is searched (step S44). Then, in step S44, an image determined to be similar because the feature values are close is displayed on the screen (step S4).
5).

【0012】[0012]

【発明が解決しようとする課題】色の割合を特徴量とし
た従来の画像検索装置では、画像を構成する個々の領域
という単位での特徴を抽出することが不可能である。こ
の従来の方法では、ある色が画像内で集中して存在して
いるか、または細かく点在しているかは特徴量として反
映されないため、画像の構図(領域の関係)の印象を大
きく受ける人間にとって、類似性が低いと認識する検索
結果となり得る。
In a conventional image retrieval apparatus using a color ratio as a characteristic amount, it is impossible to extract a characteristic in units of individual regions constituting an image. According to this conventional method, whether a certain color is concentrated or finely scattered in an image is not reflected as a feature amount, and therefore, for a person who has a large impression of the composition of the image (relationship between regions). , The search result may be recognized as having low similarity.

【0013】また、もう一つの問題として、視覚的には
色合いが大きく異なる印象を受ける色値であっても、色
相の範囲を分割した一つの色相値範囲に含まれると、特
徴量としては同等の扱いとなり、視覚的に色合いが異な
る画像を類似画像としてしまう問題がある。
Another problem is that even if a color value gives an impression that the hue greatly differs visually, if it is included in one hue value range obtained by dividing the hue range, the feature value is equivalent. Therefore, there is a problem that an image having a visually different hue is regarded as a similar image.

【0014】そこで、本発明は、画像の構図や色合いの
類似性を考慮した画像検索が可能な画像検索装置を提供
することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image search device capable of performing an image search in consideration of similarity in image composition and color tone.

【0015】[0015]

【課題を解決するための手段】本発明に係る画像検索装
置は、基準画像に類似する画像を検索する画像検索装置
であって、基準画像および検索対象画像の各々の絵柄領
域を分割する領域分割手段と、基準画像および検索対象
画像において分割された絵柄領域の特徴量を抽出する特
徴量抽出手段と、特徴量抽出手段により抽出された基準
画像の絵柄領域の特徴量と検索対象画像の絵柄領域の特
徴量とを比較することにより、検索対象画像が基準画像
に類似するか否かを判定する判定手段とを備えたもので
ある。
An image retrieval apparatus according to the present invention is an image retrieval apparatus for retrieving an image similar to a reference image, wherein the image division apparatus divides a picture area of each of a reference image and a retrieval target image. Means, a feature amount extracting means for extracting a feature amount of a picture region divided in the reference image and the search target image, a feature amount of the reference image pattern region extracted by the feature amount extracting means, and a picture region of the search target image And determining whether or not the search target image is similar to the reference image by comparing the characteristic amount with the reference image.

【0016】本発明に係る画像検索装置においては、領
域分割手段が基準画像および検索対象画像の各々に対し
絵柄領域を分割する。これにより、基準画像および検索
対象画像の構図が認識される。そして、特徴量抽出手段
が各絵柄領域ごとに特徴量を抽出し、抽出された基準画
像の特徴量と検索対象画像の特徴量とを比較することに
より基準画像と検索対象画像との類似性が判定される。
これにより、画像の構図を考慮して人間の視覚に対応し
た類似性判断が可能となり、同種の画像の検索精度を向
上することができる。
In the image search apparatus according to the present invention, the area dividing means divides the picture area into each of the reference image and the search target image. Thereby, the composition of the reference image and the search target image is recognized. Then, the feature amount extraction unit extracts the feature amount for each picture region, and compares the extracted feature amount of the reference image with the feature amount of the search target image, thereby determining the similarity between the reference image and the search target image. Is determined.
Accordingly, similarity determination corresponding to human vision can be performed in consideration of the composition of the image, and search accuracy of the same type of image can be improved.

【0017】[0017]

【発明の実施の形態】第1の発明に係る画像検索装置
は、基準画像に類似する画像を検索する画像検索装置で
あって、基準画像および検索対象画像の各々の絵柄領域
を分割する領域分割手段と、基準画像および検索対象画
像において分割された絵柄領域の特徴量を抽出する特徴
量抽出手段と、特徴量抽出手段により抽出された基準画
像の絵柄領域の特徴量と検索対象画像の絵柄領域の特徴
量とを比較することにより、検索対象画像が基準画像に
類似するか否かを判定する判定手段とを備えたものであ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image retrieval apparatus according to a first aspect of the present invention is an image retrieval apparatus for retrieving an image similar to a reference image. Means, a feature amount extracting means for extracting a feature amount of a picture region divided in the reference image and the search target image, a feature amount of the reference image pattern region extracted by the feature amount extracting means, and a picture region of the search target image And determining whether or not the search target image is similar to the reference image by comparing the characteristic amount with the reference image.

【0018】これにより、基準画像と検索対象画像との
間で、画像の構図および画像の特徴量を考慮した検索が
可能となり、人間の視覚特性に応じた検索精度の高い画
像検索装置を得ることができる。
This makes it possible to perform a search between the reference image and the search target image in consideration of the composition of the image and the feature amount of the image, and to obtain an image search apparatus with a high search accuracy according to human visual characteristics. Can be.

【0019】第2の発明に係る画像検索装置は、第1の
発明に係る画像検索装置の構成において、領域分割手段
が、基準画像および検索対象画像の各画素の色相値およ
び輝度値のエッジを求めるエッジ抽出部と、エッジ抽出
部により求められた色相値および輝度値のエッジの分布
領域を所定の領域に分割する第1分割部と、第1分割部
により分割されたエッジの分布領域を基準画像および検
索対象画像に反映させて基準画像および検索対象画像を
絵柄領域に分割する第2分割部とを備えたものである。
According to a second aspect of the present invention, in the configuration of the first aspect of the present invention, the area dividing means determines the edges of the hue value and the luminance value of each pixel of the reference image and the search target image. An edge extraction unit to be obtained, a first division unit that divides an edge distribution region of hue values and luminance values obtained by the edge extraction unit into predetermined regions, and a distribution region of the edge divided by the first division unit as a reference. A second dividing unit that divides the reference image and the search target image into picture regions by reflecting the images on the image and the search target image.

【0020】これにより、色相値および輝度値のエッジ
に基づいて基準画像および検索対象画像の絵柄領域を容
易に分割することができる。
Thus, it is possible to easily divide the picture area of the reference image and the search target image based on the edges of the hue value and the luminance value.

【0021】第3の発明に係る画像検索装置は、第2の
発明に係る画像検索装置の構成において、エッジ抽出部
が、基準画像および検索対象画像をそれぞれ複数の矩形
領域に分割し、各矩形領域ごとに各画素の色相値のエッ
ジおよび輝度値のエッジを抽出するものである。
According to a third aspect of the present invention, in the configuration of the second aspect of the present invention, the edge extracting unit divides each of the reference image and the search target image into a plurality of rectangular areas, The hue value edge and the luminance value edge of each pixel are extracted for each region.

【0022】これにより、自然画などに多くみられる細
かい色の散らばりを反映した絵柄領域の分割処理を行う
ことが可能となる。
As a result, it becomes possible to perform a process of dividing a picture area which reflects the scattering of fine colors often seen in natural pictures and the like.

【0023】第4の発明に係る画像検索装置は、第1の
発明に係る画像検索装置の構成におて、特徴量抽出手段
が、領域分割手段により分割された基準画像および検索
対象画像の絵柄領域に含まれる色相値のエッジの個数お
よび輝度値のエッジの個数に基づいて各絵柄領域の特徴
量を抽出するものである。
According to a fourth aspect of the present invention, in the image retrieval apparatus according to the first aspect of the present invention, the feature amount extracting means includes a reference image divided by the area dividing means and a picture of the search target image. The feature amount of each picture region is extracted based on the number of edges of hue values and the number of edges of luminance values included in the region.

【0024】これにより、基準画像および検索対象画像
がそれぞれ有する画像の特徴を絵柄領域ごとに抽出する
ことが可能となり、それによって基準画像と検索対象画
像との類似性の判定を高精度で行うことが可能となる。
This makes it possible to extract the features of the image included in the reference image and the image included in the search target image for each picture area, thereby making it possible to determine the similarity between the reference image and the search target image with high accuracy. Becomes possible.

【0025】第5の発明に係る画像検索装置は、第4の
発明に係る画像検索装置の構成において、特徴量抽出手
段が、基準画像および検索対象画像において分割された
複数の矩形領域ごとに特徴量を抽出するものである。
According to a fifth aspect of the present invention, in the image retrieval apparatus according to the fourth aspect, the characteristic amount extracting means includes a characteristic extracting unit for each of a plurality of divided rectangular areas in the reference image and the retrieval target image. This is to extract the amount.

【0026】これにより、絵柄領域に含まれる矩形領域
が有する特徴量に基づいて基準画像と検索対象画像の類
似性を高精度で判定することが可能となる。
Thus, the similarity between the reference image and the search target image can be determined with high accuracy based on the feature amount of the rectangular area included in the picture area.

【0027】第6の発明に係る画像検索装置は、第1の
発明に係る画像検索装置の構成において、抽出手段が、
基準画像および検索対象画像の各矩形領域ごとに特徴量
を比較するものである。これにより、画像の構図を考慮
した類似性判断が可能となり、類似画像の判定精度が向
上する。
[0027] According to a sixth aspect of the present invention, in the image search device according to the first aspect, the extracting means includes:
The feature amount is compared for each rectangular area of the reference image and the search target image. This makes it possible to determine the similarity in consideration of the composition of the image, and the accuracy of determining a similar image is improved.

【0028】(実施の形態)以下、本発明の実施の形態
について、図1〜図13を用いて説明する。
(Embodiment) An embodiment of the present invention will be described below with reference to FIGS.

【0029】図1において、本発明における画像検索装
置は、中央処理装置(CPU)1と、モニター等カラー
画像を表示する表示装置2と、キーボードやマウス等の
入力装置3と、処理中のプログラムや値を一時的に記憶
する主記憶装置4と、カラー画像データや画像管理のモ
ジュール等を記憶する二次記憶装置5とから構成され
る。
In FIG. 1, an image retrieval apparatus according to the present invention includes a central processing unit (CPU) 1, a display device 2 such as a monitor for displaying color images, an input device 3 such as a keyboard and a mouse, and a program being processed. And a secondary storage device 5 for storing color image data, an image management module, and the like.

【0030】二次記憶装置5は、大量の画像データから
なる検索対象画像6を保持し、RGB値からなる画像デ
ータをHVC系の画像データに変換するHVC系変換部
7、各画素の色相値を格納する色相値配列8、各画素の
輝度値を格納する輝度値配列9、マスク行列を用いて画
像のエッジを抽出するエッジ抽出部10、色相値を用い
たエッジ抽出の結果を格納する色相エッジ配列11、輝
度値を用いたエッジ抽出の結果を格納する輝度エッジ配
列12、画像を任意個の矩形領域に分割する画像矩形分
割部13、分割した矩形内に画像の領域の境界を含んで
いるか否かをチェックする領域境界チェック部14、色
相エッジ、輝度エッジの単位面積当たりの個数をベクト
ルにニューラルネット理論における自己組織化クラスタ
リングを行う自己組織化クラスタリング部15、クラス
タリング結果を元に画像を領域分割する領域分割部1
6、画像を構成する領域(以下、構成領域と称する)の
内、さらに構成領域を構成する矩形領域がある定数以上
のものを主領域として抽出する主領域抽出部17、画像
の主領域を構成する矩形領域のエッジ情報を、色相値の
エッジ個数、および輝度値のエッジ個数を座標軸とする
座標上に分布させた分布情報を格納するエッジ二次元配
列18、検索対象画像全てに対してエッジ二次元配列を
書き出した特徴量テーブル19、検索の際に用いるキー
画像20、キー画像20から特徴量を抽出し、特徴量テ
ーブル内のデータと比較を行う検索部21、類似度の高
い画像を表示する表示部22から構成される。
The secondary storage device 5 holds a search target image 6 consisting of a large amount of image data, converts an image data consisting of RGB values into HVC system image data, an HVC system converting unit 7, and a hue value of each pixel. , A hue value array 8 for storing the luminance value of each pixel, an edge extraction unit 10 for extracting an edge of an image using a mask matrix, and a hue for storing the result of edge extraction using the hue value An edge array 11, a luminance edge array 12 for storing a result of edge extraction using a luminance value, an image rectangle dividing unit 13 for dividing an image into an arbitrary number of rectangular regions, and a boundary between image regions included in the divided rectangle. Region boundary check unit 14 for checking whether or not there is a self-organizing clustering in the neural network theory using the number of hue edges and luminance edges per unit area as a vector Oka clustering unit 15, the region dividing unit 1 of the image based on the clustering result segmenting
6. A main area extracting unit 17 for extracting, as a main area, a rectangular area forming a constituent area, which has a certain constant or more, among the areas forming the image (hereinafter, referred to as a constituent area), and forming a main area of the image. The two-dimensional array 18 stores distribution information obtained by distributing the edge information of the rectangular area to be distributed on coordinates using the number of edges of the hue value and the number of edges of the luminance value as coordinate axes. A feature amount table 19 in which a dimensional array is written, a key image 20 used for search, a search unit 21 for extracting a feature amount from the key image 20 and comparing with the data in the feature amount table, and displaying an image having a high degree of similarity The display unit 22 includes a display unit 22.

【0031】図2は本発明の実施の形態における画像検
索装置の動作を示すフローチャートである。図2に示す
画像検索装置の動作は、自然画を構成領域に分割する領
域分割処理、分割された各構成領域の特徴量を抽出する
特徴量抽出処理および画像間の構成領域の共通性を調べ
る検索処理の3つに大別することができる。以下、図2
を参照して画像検索装置の動作について説明する。
FIG. 2 is a flowchart showing the operation of the image search device according to the embodiment of the present invention. The operation of the image search device shown in FIG. 2 is a region dividing process for dividing a natural image into constituent regions, a feature amount extracting process for extracting a feature amount of each of the divided constituent regions, and checking commonality of constituent regions between images. Search processing can be broadly divided into three. Hereinafter, FIG.
The operation of the image search device will be described with reference to FIG.

【0032】検索対象画像の読込み(ステップS1) まず、多量の自然画からなる検査対象画像を読込む(ス
テップS1)。
Reading of Search Target Image (Step S1) First, an inspection target image composed of a large amount of natural images is read (Step S1).

【0033】前処理(ステップS2) 次に、読込んだ検査対象画像に対して前処置を行う(ス
テップS2)。図3は検査対象画像に対する前処理のフ
ローチャートである。図3において、まず、検査対象画
像を1枚ずつ読出す(ステップS8)。
Preprocessing (Step S2) Next, preprocessing is performed on the read inspection object image (Step S2). FIG. 3 is a flowchart of the pre-processing for the inspection target image. In FIG. 3, first, the inspection target images are read out one by one (step S8).

【0034】検査対象画像の画像データはRGB値で格
納されているため、これを人間が視覚的に認識する色差
と合致するHVC系の値へ変換する。このRGB値から
HVC系の値への色変換は、色彩工学においてその変換
式が実験的に求められている。そこで、この変換式を用
いて画像データをRGB値からHVC系の値へ変換する
(ステップS9)。
Since the image data of the image to be inspected is stored in RGB values, it is converted into HVC values that match the color difference visually recognized by humans. For the color conversion from the RGB values to the values of the HVC system, the conversion formula is experimentally obtained in color engineering. Therefore, the image data is converted from the RGB values to the values of the HVC system using this conversion formula (step S9).

【0035】次に、検索対象画像を構成する各画素に対
して、色相(H)、輝度(V)をそれぞれ色相値配列8
および輝度値配列9に格納する(ステップS10)。
Next, the hue (H) and the luminance (V) are assigned to the hue value array 8 for each pixel constituting the search target image.
And stored in the brightness value array 9 (step S10).

【0036】さらに、エッジ抽出部10は色相値、輝度
値を用いて検索対象画像のエッジ抽出を行う。エッジ抽
出処理では、画像処理分野において一般的に用いられる
マスク行列を使用してエッジを抽出する(ステップS1
1)。
Further, the edge extraction unit 10 extracts an edge of the search target image using the hue value and the luminance value. In the edge extraction processing, an edge is extracted using a mask matrix generally used in the field of image processing (step S1).
1).

【0037】色相値を用いて行ったエッジ抽出の結果お
よび輝度値を用いて行ったエッジ抽出の結果を、それぞ
れ色相エッジ配列11および輝度エッジ配列12に格納
する(ステップS12)。
The result of the edge extraction performed using the hue value and the result of the edge extraction performed using the luminance value are stored in the hue edge array 11 and the luminance edge array 12, respectively (step S12).

【0038】さらに、画像矩形分割部13は検索対象画
像を矩形領域に分割する(ステップS13)。
Further, the image rectangle dividing unit 13 divides the search target image into rectangular areas (step S13).

【0039】そして、分割した矩形領域ごとに対応付け
て設定した配列に、上記のステップS12により求めた
エッジ情報を格納する(ステップS14)。これによ
り、検索対象画像に対する前処理が終了する。
Then, the edge information obtained in step S12 is stored in an array set in association with each of the divided rectangular areas (step S14). Thus, the pre-processing for the search target image ends.

【0040】特徴量抽出(ステップS3) 次に、図2のステップS3において、検索対象画像の特
徴量の抽出を行う。図4は検索対象画像における特徴量
抽出処理のフローチャートである。検索対象画像の各構
成領域の境界などでは、エッジが集中して現れる。しか
し、このエッジを示すエッジ情報は、特定の構成領域の
特徴を表現しているものではない。このため、色相値、
輝度値の個数を特徴量とする分布上では雑音となる。
Feature amount extraction (step S3) Next, in step S3 of FIG. 2, the feature amount of the search target image is extracted. FIG. 4 is a flowchart of the feature amount extraction process in the search target image. Edges appear concentrated at the boundaries between the constituent regions of the search target image. However, the edge information indicating the edge does not represent the feature of a specific constituent region. Therefore, the hue value,
On a distribution in which the number of luminance values is a feature amount, it becomes noise.

【0041】そこで、この処理工程では、まず構成領域
の境界を含む可能性が高いと判断される矩形領域を除外
する。次に、色相値のエッジ個数、輝度値のエッジ個数
を利用して領域分割を行う。以下、図4を参照して特徴
量抽出処理について説明する。
Therefore, in this processing step, first, a rectangular area determined to have a high possibility of including the boundary of the constituent area is excluded. Next, region division is performed using the number of edges of the hue value and the number of edges of the luminance value. Hereinafter, the feature amount extraction processing will be described with reference to FIG.

【0042】まず、矩形領域毎に、色相値を用いて行っ
たエッジ抽出結果のエッジ数、輝度値を用いて行ったエ
ッジ抽出結果のエッジ数のデータを取得する(ステップ
S15)。
First, for each rectangular area, data on the number of edges as a result of edge extraction performed using hue values and the number of edges as a result of edge extraction performed using luminance values are obtained (step S15).

【0043】一つの矩形領域内のエッジの集中度を調べ
るために、「1」、「0」の並びで抽出されるエッジ情
報が格納された二次元配列に対して、「1」、「0」の
集まりに異なるラベルを付加するラベリング処理を行う
(ステップS16)。
In order to check the degree of concentration of edges in one rectangular area, "1", "0" is stored in a two-dimensional array in which edge information extracted in a row of "1" and "0" is stored. Is performed (Step S16).

【0044】「1」を示したエッジの集まりの数を調べ
ることによって、その矩形領域内に構成領域の境界が含
まれているかをチェックする(ステップS17)。
By checking the number of the group of edges indicating "1", it is checked whether or not the boundary of the constituent area is included in the rectangular area (step S17).

【0045】エッジが集中して存在する矩形領域は、構
成領域の境界を含んでいると判断し、以後の処理から除
外する(ステップS18)。
It is determined that the rectangular area where the edges are concentrated includes the boundaries of the constituent areas, and is excluded from the subsequent processing (step S18).

【0046】全ての矩形領域に対して、エッジの集中度
を調べ、構成領域の境界部分を含む矩形領域以外を抽出
する(ステップS19)。
For all the rectangular areas, the degree of edge concentration is checked, and areas other than the rectangular area including the boundary between the constituent areas are extracted (step S19).

【0047】処理対象の矩形領域に対して、それぞれの
色相値を用いたエッジ個数および輝度値を用いたエッジ
個数と矩形領域の画像内の位置情報をベクトルとして、
ニューラルネット理論における自己組織化クラスタリン
グを行う(ステップS20)。
For the rectangular area to be processed, the number of edges using the respective hue values, the number of edges using the luminance value, and positional information in the image of the rectangular area are defined as vectors.
Self-organizing clustering in neural network theory is performed (step S20).

【0048】図5は、自己組織化クラスタリング処理を
示すフローチャートである。次に、図5を用いて、色相
値を用いたエッジ個数、輝度値を用いたエッジ個数、矩
形の位置をベクトルとし、クラスタリングを行う自己組
織化クラスタリングの基本的な処理過程の説明を行う。
FIG. 5 is a flowchart showing the self-organizing clustering process. Next, a basic process of self-organizing clustering in which clustering is performed using the number of edges using hue values, the number of edges using luminance values, and the positions of rectangles as vectors will be described with reference to FIG.

【0049】まず、カウンタを更新する(ステップS3
1)。さらに、ループカウンタをチェックする。そし
て、指定回数だけ処理を行い、クラスタリング処理を終
了する(ステップS32)。
First, the counter is updated (step S3).
1). Further, the loop counter is checked. Then, the process is performed a specified number of times, and the clustering process ends (step S32).

【0050】色相値を用いたエッジ抽出のある矩形領域
内のエッジ個数、輝度値を用いたエッジ抽出のある矩形
領域内のエッジ個数、着目している矩形領域の画像内の
位置情報を入力ベクトルとして入力する(ステップS3
3)。
The number of edges in a rectangular area where an edge is extracted using hue values, the number of edges in a rectangular area where an edge is extracted using a luminance value, and positional information in the image of the rectangular area of interest are input vector. (Step S3
3).

【0051】さらに、既存のクラスタとの距離を計算す
る(ステップS34)。そして、入力ベクトルと最も距
離が近いベクトルを持つクラスタの距離があるしきい値
以内であるかをチェックする(ステップS35)。
Further, the distance from the existing cluster is calculated (step S34). Then, it is checked whether or not the distance of the cluster having the vector closest to the input vector is within a certain threshold (step S35).

【0052】ステップS35において、最も近いベクト
ルとの距離がしきい値以上であった場合、新しいクラス
タを生成する(ステップS36)。最も近いベクトルと
の距離がしきい値以内であった場合、入力ベクトルが所
属するクラスタを決定する(ステップS37)。
If the distance from the closest vector is equal to or greater than the threshold value in step S35, a new cluster is generated (step S36). If the distance to the closest vector is within the threshold, the cluster to which the input vector belongs is determined (step S37).

【0053】ステップS37で決定されたクラスタ自身
が持つベクトルの値を入力ベクトルの値を反映させた上
で更新する。この更新処理において、自己組織化クラス
タリングは、更新の変量を処理回数と反比例させること
によって、処理が繰り返しにおいて微調整を行う効果を
有している(ステップS38)。
The value of the vector of the cluster itself determined in step S37 is updated after reflecting the value of the input vector. In this update process, the self-organizing clustering has the effect of making fine adjustments in the repetition of the process by making the update variable inversely proportional to the number of processes (step S38).

【0054】一連の処理を指定回数だけ繰り返し、入力
ベクトルの所属するクラスタを決定する。結果的に、エ
ッジ出現傾向が類似しており、且つ、画像内で隣接した
矩形領域が一つのクラスタに集められることになる。
A series of processing is repeated a specified number of times to determine a cluster to which the input vector belongs. As a result, rectangular areas having similar edge appearance tendencies and adjacent in the image are collected into one cluster.

【0055】自己組織化クラスタリング処理が終了する
と、図4の処理に戻り、クラスタリングされた結果を画
像に逆写像する。これにより、エッジ出現傾向の近い矩
形領域をまとめ、画像の領域分割を行う(ステップS2
1)。
When the self-organizing clustering process is completed, the process returns to the process of FIG. 4 and the clustered result is inversely mapped to an image. As a result, the rectangular areas having a similar edge appearance tendency are put together, and the area of the image is divided (step S2).
1).

【0056】画像内の小さい構成領域は以後の処理から
除外するために、クラスタリングされた結果において、
構成領域を構成する矩形領域数がある値よりも少ないも
のは、処理対象外とする(ステップS22)。
In order to exclude small constituent regions in the image from the subsequent processing, in the result of the clustering,
If the number of rectangular areas constituting the constituent area is smaller than a certain value, it is excluded from the processing target (step S22).

【0057】以上の処理で、画像の主な構成領域の特徴
量を抽出できることになる。再び図2の処理に戻り、上
記の処理により分割された構成領域に含まれる矩形領域
のエッジ個数を色相値によるエッジ個数および輝度値に
よるエッジ個数を軸とする分布座標上に投影し、その分
布を特徴量として2次元配列に格納する。すべての検査
対象画像に対してこの特徴量を示す2次元配列を生成
し、特徴量テーブルとして書き出す(ステップS4)。
With the above-described processing, it is possible to extract the feature amounts of the main constituent regions of the image. Returning to the processing of FIG. 2 again, the number of edges of the rectangular area included in the component area divided by the above processing is projected on distribution coordinates whose axes are the number of edges based on the hue value and the number of edges based on the luminance value. Is stored in a two-dimensional array as a feature amount. A two-dimensional array indicating the feature amount is generated for all the inspection target images and written out as a feature amount table (step S4).

【0058】次に、使用者が、検索に用いるキー画像を
指定する(ステップS5)。そして、キー画像に対し、
上記ステップS1〜S4の処理を行って特徴量を抽出
し、検査対象画像の特徴量テーブル内のデータと、キー
画像の特徴量のデータとを比較する。そして、両データ
の類似度に基づいてキー画像に類似する検索対象画像を
抽出する(ステップS6)。
Next, the user specifies a key image to be used for the search (step S5). And for the key image,
The processing of steps S1 to S4 is performed to extract a feature quantity, and data in the feature quantity table of the inspection target image is compared with data of the feature quantity of the key image. Then, a search target image similar to the key image is extracted based on the similarity between the two data (step S6).

【0059】そして、抽出した検査対象画像を類似の画
像として表示部22に表示する(ステップS7)。これ
により、キー画像と画像の構図や色相が類似する画像を
検索することができる。
Then, the extracted inspection target image is displayed on the display unit 22 as a similar image (step S7). As a result, it is possible to search for an image whose composition and hue are similar to the key image.

【0060】自然画においては、画素単位の色値でみた
場合、特定の1色で構成される領域がほとんどないこと
から、自然画における絵柄領域とは、「同系色で、細か
く色値が異なった画素の集まり」であるといえる。した
がって、自然画における領域分割の結果の構成領域にお
ける色値の散らばりを特徴とするために、色相値による
エッジおよび輝度値によるエッジの出現個数をクラスタ
リングし、クラスタリング結果を画像に逆写像すること
によって領域分割を行う。また、色相値によるエッジお
よび輝度値によるエッジの分布は、その画像の構成領域
ごとにクラスタを形成することになり、分布上のクラス
タの重心を特徴量とすることにより、領域の面積や配置
によらず画像の構成領域単位の特徴量を抽出することが
可能となる。また、この構成領域の特徴量を用いること
により、大量の画像の中から、同じような特徴を有する
構成領域を多く含む画像を見つけ出し、背景の類似した
画像を容易に検索するこができる。
In a natural image, when viewed in terms of color values in pixel units, there is almost no area composed of one specific color. Therefore, a picture area in a natural image is “similar colors and has slightly different color values. Pixel group ". Therefore, in order to characterize the dispersion of the color values in the constituent regions resulting from the region division in the natural image, the number of appearances of the edges by the hue values and the edges by the luminance values is clustered, and the clustering result is inversely mapped to the image. Perform region division. In addition, the distribution of the edge based on the hue value and the edge based on the luminance value forms a cluster for each of the constituent regions of the image. Regardless, it is possible to extract the feature amount of each constituent region of the image. Further, by using the feature amounts of the constituent regions, it is possible to find an image including many constituent regions having similar characteristics from a large number of images and easily search for an image having a similar background.

【0061】上記の実施の形態による画像検索装置にお
いて、エッジ抽出部10、画像矩形分割部13、自己組
織化グラサリング部15および領域分割部16が本発明
の領域分割手段に相当し、エッジ2次元配列18および
特徴量テーブル19が特徴量抽出手段に相当し、検索部
21が判定手段に相当する。
In the image retrieval apparatus according to the above-described embodiment, the edge extracting unit 10, the image rectangle dividing unit 13, the self-organizing grading unit 15 and the region dividing unit 16 correspond to the region dividing means of the present invention, The array 18 and the feature amount table 19 correspond to a feature amount extracting unit, and the search unit 21 corresponds to a determining unit.

【0062】次に、本発明の画像検索装置の処理を具体
例を用いて説明する。図6は、本発明の画像検索処理に
用いる特徴量の有効性を説明する図である。
Next, the processing of the image retrieval apparatus of the present invention will be described using a specific example. FIG. 6 is a diagram illustrating the validity of the feature amounts used in the image search processing according to the present invention.

【0063】デジタルカメラ画像において、画像を構成
する構成領域内の画素の輝度、色相は、人間が同系色と
認識できる範囲で、細かく散らばっている。よって、こ
の散らばりの特徴を抽出するためにエッジの個数を用い
る。また、色彩工学の輝度値、色相値を計算する式から
も明らかなように、画素間の値でみると同じような細か
い散らばりを持つ領域であっても、色合いによって、輝
度値や色相値の支配率が異なる。つまり、同じ輝度の変
化率をもつ領域であっても、その領域全体の色合いによ
って、人間が認識する模様の細かさが異なるということ
である。
In a digital camera image, the luminance and hue of the pixels in the constituent regions constituting the image are scattered finely within a range in which humans can recognize the similar colors. Therefore, the number of edges is used to extract the characteristics of the scattering. In addition, as is clear from the formulas for calculating the luminance value and hue value of color engineering, even in an area having similar fine dispersion in terms of the value between pixels, depending on the hue, the luminance value and the hue value are different. Domination rates are different. In other words, even in regions having the same rate of change in luminance, the fineness of the pattern recognized by humans differs depending on the color of the entire region.

【0064】以上のことから、輝度によるエッジの個
数、色相値によるエッジの個数の出現傾向を用いて、領
域全体の色合い、領域の細かさ(色の散らばり具合)の
特徴を抽出することが可能である。
From the above, it is possible to extract the characteristics of the hue of the entire area and the fineness of the area (the degree of color dispersion) by using the number of edges according to the luminance and the appearance tendency of the number of edges according to the hue value. It is.

【0065】図6には、色相値を用いたエッジの抽出後
の状態と輝度値を用いたエッジの抽出後の状態が示され
ている。図示のように、画像の構成領域毎にエッジの出
現度が異なっている。図6の場合では、この二つのエッ
ジ抽出後の状態を考慮すると4つの領域に分割可能であ
ることがわかる。画像を矩形領域で分割した時、その矩
形領域内のエッジ情報はその領域を特徴付けるものであ
る。よって、この矩形領域内の色相エッジ、輝度エッジ
の個数をその領域の特徴とすることが可能である。
FIG. 6 shows a state after extraction of edges using hue values and a state after extraction of edges using luminance values. As shown in the figure, the appearance degree of the edge differs for each of the constituent regions of the image. In the case of FIG. 6, it can be seen that division into four regions is possible in consideration of the state after the extraction of the two edges. When an image is divided into rectangular regions, the edge information within the rectangular regions characterizes the regions. Therefore, the number of hue edges and luminance edges in this rectangular area can be a feature of the area.

【0066】図7は、境界を含む矩形領域を判断する処
理の説明図である。図7(a)および(b)は、エッジ
がある散らばりをもっており、この領域が一つの矩形領
域であると判断可能な場合を示している。また、図7
(c)は、複数の構成領域間の境界を含んでおり、エッ
ジを抽出した結果、図示のようにエッジが集中する傾向
がある。
FIG. 7 is an explanatory diagram of a process for determining a rectangular area including a boundary. FIGS. 7A and 7B show a case where the edge has a scatter and the area can be determined to be one rectangular area. FIG.
(C) includes a boundary between a plurality of constituent regions, and as a result of extracting edges, edges tend to be concentrated as shown in the figure.

【0067】図8において、境界を含んでいる矩形領域
について、エッジ部分を「1」、それ以外を「0」で表
す二次元配列を考え、その配列上でラベリング処理を行
う。ラベリングは、「1」の集まりと「0」の集まりと
で異なるラベルを定義するが、ラベルの数と「1」の集
まりの構成要素数をチェックすることで、エッジの集中
度を判断することが可能である。
In FIG. 8, for a rectangular area including a boundary, a two-dimensional array in which an edge portion is represented by "1" and the other portions are represented by "0" is considered, and labeling processing is performed on the array. Labeling defines different labels for the set of "1" and the set of "0", but judges the degree of concentration of edges by checking the number of labels and the number of components in the set of "1". Is possible.

【0068】一方、境界を含まない矩形領域は、「1」
と「0」が散布しており、ラベリングを行った際、多数
のラベルが生成されると考えられる。そこで、このよう
な本手法を用いて構成領域の境界を含む矩形領域か否か
を判断することができる。この方法で境界を含む矩形領
域を除外した後のイメージを図9に示す。図9の下段の
図中、黒塗の領域が除外される矩形領域である。
On the other hand, the rectangular area not including the boundary is “1”.
And "0" are scattered, and it is considered that many labels are generated when labeling is performed. Therefore, it is possible to determine whether or not the area is a rectangular area including the boundary of the constituent area using such a method. FIG. 9 shows an image after the rectangular area including the boundary is excluded by this method. In the lower part of FIG. 9, black areas are excluded rectangular areas.

【0069】境界上の矩形領域は以後の処理から除外す
ることで、エッジ出現傾向から得られる個々の構成領域
の特徴量を正確に求めることが可能となる。
By excluding the rectangular area on the boundary from the subsequent processing, it is possible to accurately obtain the characteristic amount of each constituent area obtained from the edge appearance tendency.

【0070】さらに、図10において、画像の全ての矩
形領域の入力ベクトルを用いて自己組織化クラスタリン
グを行い、クラスタを決定する。このクラスタは、画像
内の構成領域に対応しており、画像に逆写像したイメー
ジを図10中の最下図に示す。この際、クラスタを構成
する矩形領域の個数が少ない場合、この矩形領域を以後
の処理から除外する。これは、画像を構成する主な構成
領域の特徴のみを抽出するためである。
Further, in FIG. 10, self-organizing clustering is performed using the input vectors of all the rectangular areas of the image to determine the cluster. This cluster corresponds to a constituent region in the image, and the image inversely mapped to the image is shown in the lowermost diagram in FIG. At this time, if the number of rectangular areas constituting the cluster is small, this rectangular area is excluded from the subsequent processing. This is to extract only the features of the main constituent regions forming the image.

【0071】図11はクラスタリングの結果を逆写像し
たイメージを示す説明図である。領域1から領域4に含
まれる矩形の色相エッジ個数、輝度エッジ個数の分布
を、図11の下図のように生成させる。結果的に、この
分布上の複数の集まりは画像上の一つの領域に対応した
ものとなる。
FIG. 11 is an explanatory diagram showing an image obtained by inversely mapping the result of clustering. The distribution of the number of hue edges and the number of luminance edges of a rectangle included in the regions 1 to 4 is generated as shown in the lower diagram of FIG. As a result, the plurality of groups on the distribution correspond to one region on the image.

【0072】図12において、エッジ個数の分布状態を
数値化するために、ある範囲で分割し、それぞれの枠に
含まれる矩形領域数を二次元配列に格納する。この二次
元配列内の数値は、輝度対象画像の構成領域の特徴を写
像したものであり、大量の検査対象画像間のこの二次元
配列の距離を計算することで、エッジ傾向を用いた構成
領域の特徴の比較を行うことが可能となり、これによっ
て類似する画像の検索を行うことができる。
In FIG. 12, in order to quantify the distribution state of the number of edges, it is divided into a certain range, and the number of rectangular areas included in each frame is stored in a two-dimensional array. The numerical values in this two-dimensional array map the features of the constituent regions of the luminance target image, and by calculating the distance of this two-dimensional array between a large number of inspection target images, the constituent regions using the edge tendency are calculated. Can be compared, and similar images can be searched.

【0073】このように、本発明は、領域の面積、配置
に依存しない構成画像の領域単位の特徴量を抽出するこ
とが可能であり、画像を構成する個々の領域の特徴量を
用いることで、大量の画像の中から、同じような特徴を
持つ領域を多く含んだ画像を見つけ出し、背景の類似し
た画像を検索することが可能となる。
As described above, according to the present invention, it is possible to extract the feature amount of each region of the constituent image independent of the area and the arrangement of the region, and to use the feature amount of each region constituting the image. From among a large number of images, it is possible to find an image containing many regions having similar characteristics, and to search for an image having a similar background.

【0074】[0074]

【発明の効果】以上のように本発明によれば、画像の構
図を考慮した特徴量の抽出が行われることにより、自然
画に多く見られる細かい色の散らばりを有する画像に対
しても人間の視覚特性に応じた類似性の判断を行うこと
が可能となる。
As described above, according to the present invention, by extracting a feature amount in consideration of the composition of an image, human images can be extracted even for an image having a fine color distribution often seen in a natural image. It is possible to determine the similarity according to the visual characteristics.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態による画像検索装置の構成
を示すブロック図
FIG. 1 is a block diagram showing a configuration of an image search device according to an embodiment of the present invention.

【図2】画像検索処理を示すフローチャートFIG. 2 is a flowchart showing an image search process.

【図3】特徴量抽出の前処理を示すフローチャートFIG. 3 is a flowchart showing pre-processing of feature amount extraction;

【図4】特徴量抽出処理を示すフローチャートFIG. 4 is a flowchart showing a feature amount extraction process.

【図5】自己組織化クラスタリングの処理を示すフロー
チャート
FIG. 5 is a flowchart showing processing of self-organizing clustering.

【図6】特徴量の説明図FIG. 6 is an explanatory diagram of a feature amount.

【図7】境界を含む矩形領域を判断する処理の説明図FIG. 7 is an explanatory diagram of processing for determining a rectangular area including a boundary.

【図8】境界を含む矩形領域を判断する処理の説明図FIG. 8 is an explanatory diagram of a process of determining a rectangular area including a boundary.

【図9】境界を含む矩形を判断する処理の説明図FIG. 9 is an explanatory diagram of a process of determining a rectangle including a boundary.

【図10】クラスタリング結果と画像の構成領域との関
係を示す説明図
FIG. 10 is an explanatory diagram illustrating a relationship between a clustering result and a configuration area of an image.

【図11】クラスタリング結果と画像の構成領域との関
係を示す説明図
FIG. 11 is an explanatory diagram showing a relationship between a clustering result and a configuration area of an image.

【図12】特徴量の説明図FIG. 12 is an explanatory diagram of a feature amount.

【図13】従来の画像検索構成を示すブロック図FIG. 13 is a block diagram showing a conventional image search configuration.

【図14】従来の画像検索処理を示すフローチャートFIG. 14 is a flowchart showing a conventional image search process.

【符号の説明】[Explanation of symbols]

1 中央処理装置 2 表示装置 3 入力装置 4 主記憶装置 5 二次記憶装置 6 検索対象画像 7 HVC系変換部 10 エッジ抽出部 13 画像矩形分割部 14 領域境界チェック部 15 自己組織化クラスタリング部 16 領域分割部 17 主領域抽出部 19 特徴量テーブル 20 キー画像 21 検索部 REFERENCE SIGNS LIST 1 Central processing unit 2 Display device 3 Input device 4 Main storage device 5 Secondary storage device 6 Search target image 7 HVC system conversion unit 10 Edge extraction unit 13 Image rectangle division unit 14 Area boundary check unit 15 Self-organizing clustering unit 16 Area Division unit 17 Main region extraction unit 19 Feature amount table 20 Key image 21 Search unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA09 BA15 DA04 EA06 EA07 EA08 EA09 EA18 GA08 5B057 AA20 BA02 CA01 CA12 CA16 CB01 CB12 CB16 CC01 CE18 CF04 CH07 CH08 CH11 DA08 DA20 DB02 DB06 DC04 DC05 DC14 DC16 DC19 DC25 DC36 5B075 ND08 NK10 PP02 PP03 PQ02 PQ74 PR06 QM08 QS03 5L096 AA02 BA08 BA18 DA01 EA22 EA26 FA06 FA15 FA26 FA35 FA54 FA59 GA19 GA28 GA34 GA41 GA53 HA11 JA11 LA05 MA07  ──────────────────────────────────────────────────続 き Continued on front page F term (reference) 5B050 AA09 BA15 DA04 EA06 EA07 EA08 EA09 EA18 GA08 5B057 AA20 BA02 CA01 CA12 CA16 CB01 CB12 CB16 CC01 CE18 CF04 CH07 CH08 CH11 DA08 DA20 DB02 DB06 DC04 DC05 DC14 DC16 DC19 DC25 DC36 NK10 PP02 PP03 PQ02 PQ74 PR06 QM08 QS03 5L096 AA02 BA08 BA18 DA01 EA22 EA26 FA06 FA15 FA26 FA35 FA54 FA59 GA19 GA28 GA34 GA41 GA53 HA11 JA11 LA05 MA07

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】基準画像に類似する画像を検索する画像検
索装置であって、前記基準画像および前記検索対象画像
の各々の絵柄領域を分割する領域分割手段と、前記基準
画像および前記検索対象画像において分割された前記絵
柄領域の特徴量を抽出する特徴量抽出手段と、前記特徴
量抽出手段により抽出された前記基準画像の前記絵柄領
域の特徴量と前記検索対象画像の前記絵柄領域の特徴量
とを比較することにより、前記検索対象画像が前記基準
画像に類似するか否かを判定する判定手段とを備えたこ
とを特徴とする画像検索装置。
1. An image retrieval apparatus for retrieving an image similar to a reference image, comprising: area dividing means for dividing a picture area of each of the reference image and the search target image; A feature amount extracting unit for extracting a feature amount of the picture region divided in the above, a feature amount of the picture region of the reference image extracted by the feature amount extracting unit, and a feature amount of the picture region of the search target image A determination unit that determines whether the search target image is similar to the reference image by comparing the search target image with the reference image.
【請求項2】前記領域分割手段は、前記基準画像および
前記検索対象画像の各画素の色相値および輝度値のエッ
ジを求めるエッジ抽出部と、前記エッジ抽出部により求
められた色相値および輝度値のエッジの分布領域を所定
の領域に分割する第1分割部と、前記第1分割部により
分割された前記エッジの分布領域を前記基準画像および
前記検索対象画像に反映させて前記基準画像および前記
検索対象画像を絵柄領域に分割する第2分割部とを備え
たことを特徴とする請求項1記載の画像検索装置。
2. The image processing apparatus according to claim 1, wherein the area dividing unit includes an edge extracting unit that determines an edge of a hue value and a luminance value of each pixel of the reference image and the search target image; A first dividing unit that divides the distribution area of the edge into a predetermined area, and the distribution area of the edge divided by the first division unit is reflected on the reference image and the search target image, and the reference image and the The image search device according to claim 1, further comprising a second division unit that divides the search target image into picture regions.
【請求項3】前記エッジ抽出部は、前記基準画像および
前記検索対象画像をそれぞれ複数の矩形領域に分割し、
各矩形領域ごとに各画素の色相値のエッジおよび輝度値
のエッジを抽出することを特徴とする請求項2記載の画
像検索装置。
3. The edge extraction unit divides each of the reference image and the search target image into a plurality of rectangular areas,
3. The image retrieval apparatus according to claim 2, wherein an edge of a hue value and an edge of a luminance value of each pixel are extracted for each rectangular area.
【請求項4】前記特徴量抽出手段は、前記領域分割手段
により分割された前記基準画像および前記検索対象画像
の前記絵柄領域に含まれる色相値のエッジの個数および
輝度値のエッジの個数に基づいて各絵柄領域の特徴量を
抽出することを特徴とする請求項1記載の画像検索装
置。
4. The feature amount extracting means based on the number of hue value edges and the number of luminance value edges contained in the reference image and the picture area of the search target image divided by the area dividing means. 2. The image retrieval apparatus according to claim 1, wherein a feature amount of each picture region is extracted by extracting the feature amount.
【請求項5】前記特徴量抽出手段は、前記基準画像およ
び前記検索対象画像において分割された複数の矩形領域
ごとに前記特徴量を抽出することを特徴とする請求項4
記載の画像検索装置。
5. The method according to claim 4, wherein the characteristic amount extracting unit extracts the characteristic amount for each of a plurality of rectangular areas divided in the reference image and the search target image.
The image search device according to the above.
【請求項6】前記抽出手段は、前記基準画像および前記
検索対象画像の各矩形領域ごとに特徴量を比較すること
を特徴とする請求項1記載の画像検索装置。
6. The image retrieval apparatus according to claim 1, wherein said extraction means compares a feature amount for each rectangular area of said reference image and said retrieval target image.
JP10256530A 1998-09-10 1998-09-10 Image retrieving device Pending JP2000090239A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10256530A JP2000090239A (en) 1998-09-10 1998-09-10 Image retrieving device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10256530A JP2000090239A (en) 1998-09-10 1998-09-10 Image retrieving device

Publications (1)

Publication Number Publication Date
JP2000090239A true JP2000090239A (en) 2000-03-31

Family

ID=17293912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10256530A Pending JP2000090239A (en) 1998-09-10 1998-09-10 Image retrieving device

Country Status (1)

Country Link
JP (1) JP2000090239A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508756A (en) * 2000-09-08 2004-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus for reproducing an information signal stored on a storage medium
WO2005024662A2 (en) * 2003-09-08 2005-03-17 Koninklijke Philips Electronics N.V. Method and apparatus for indexing and searching graphic elements
JP2008092471A (en) * 2006-10-04 2008-04-17 Central Res Inst Of Electric Power Ind Interactive moving image monitoring method, interactive moving image monitoring device, and interactive moving image monitoring program
JP2011048816A (en) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd Discrimination method, discrimination device and computer program
JP2011118481A (en) * 2009-11-30 2011-06-16 Fuji Xerox Co Ltd Program and apparatus for processing image
JP2011147059A (en) * 2010-01-18 2011-07-28 Canon Inc Broadcast receiver and control method thereof
WO2013005262A1 (en) * 2011-07-07 2013-01-10 パイオニア株式会社 Image extraction method, image extraction device, image extraction system, server, user terminal, communication system and program
WO2014002554A1 (en) * 2012-06-29 2014-01-03 日本電気株式会社 Image processing device, image processing method, and program
JP2014096175A (en) * 2009-06-16 2014-05-22 Alibaba Group Holding Ltd Method and system for quasi-duplicate image searching
WO2015146242A1 (en) * 2014-03-27 2015-10-01 Nkワークス株式会社 Image processing device
KR101578437B1 (en) 2014-10-07 2015-12-17 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
JP2016103235A (en) * 2014-11-28 2016-06-02 日本電信電話株式会社 Image search apparatus, image registration apparatus, image characteristic selection apparatus, method, and program
JP2019079201A (en) * 2017-10-23 2019-05-23 富士通株式会社 Image processing program, image processing system, and image processing method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508756A (en) * 2000-09-08 2004-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus for reproducing an information signal stored on a storage medium
WO2005024662A2 (en) * 2003-09-08 2005-03-17 Koninklijke Philips Electronics N.V. Method and apparatus for indexing and searching graphic elements
WO2005024662A3 (en) * 2003-09-08 2005-05-12 Koninkl Philips Electronics Nv Method and apparatus for indexing and searching graphic elements
JP2008092471A (en) * 2006-10-04 2008-04-17 Central Res Inst Of Electric Power Ind Interactive moving image monitoring method, interactive moving image monitoring device, and interactive moving image monitoring program
US9405993B2 (en) 2009-06-16 2016-08-02 Alibaba Group Holdings Limited Method and system for near-duplicate image searching
JP2014096175A (en) * 2009-06-16 2014-05-22 Alibaba Group Holding Ltd Method and system for quasi-duplicate image searching
JP2011048816A (en) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd Discrimination method, discrimination device and computer program
JP2011118481A (en) * 2009-11-30 2011-06-16 Fuji Xerox Co Ltd Program and apparatus for processing image
JP2011147059A (en) * 2010-01-18 2011-07-28 Canon Inc Broadcast receiver and control method thereof
WO2013005262A1 (en) * 2011-07-07 2013-01-10 パイオニア株式会社 Image extraction method, image extraction device, image extraction system, server, user terminal, communication system and program
CN104412301A (en) * 2012-06-29 2015-03-11 日本电气株式会社 Image processing device, image processing method, and program
US20150161468A1 (en) * 2012-06-29 2015-06-11 Nec Corporation Image processing apparatus, image processing method, and program
JPWO2014002554A1 (en) * 2012-06-29 2016-05-30 日本電気株式会社 Image processing apparatus, image processing method, and program
WO2014002554A1 (en) * 2012-06-29 2014-01-03 日本電気株式会社 Image processing device, image processing method, and program
US10540566B2 (en) 2012-06-29 2020-01-21 Nec Corporation Image processing apparatus, image processing method, and program
US10796188B2 (en) 2012-06-29 2020-10-06 Nec Corporation Image processing apparatus, image processing method, and program to identify objects using image features
WO2015146242A1 (en) * 2014-03-27 2015-10-01 Nkワークス株式会社 Image processing device
KR101578437B1 (en) 2014-10-07 2015-12-17 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
JP2016103235A (en) * 2014-11-28 2016-06-02 日本電信電話株式会社 Image search apparatus, image registration apparatus, image characteristic selection apparatus, method, and program
JP2019079201A (en) * 2017-10-23 2019-05-23 富士通株式会社 Image processing program, image processing system, and image processing method

Similar Documents

Publication Publication Date Title
US7440638B2 (en) Image retrieving system, image classifying system, image retrieving program, image classifying program, image retrieving method and image classifying method
Marciniak et al. Influence of low resolution of images on reliability of face detection and recognition
Ma et al. Contrast-based image attention analysis by using fuzzy growing
KR100355382B1 (en) Apparatus and method for generating object label images in video sequence
US6282317B1 (en) Method for automatic determination of main subjects in photographic images
CN108229674B (en) Training method and device of neural network for clustering, and clustering method and device
US6915011B2 (en) Event clustering of images using foreground/background segmentation
US6445818B1 (en) Automatically determining an optimal content image search algorithm by choosing the algorithm based on color
US7400761B2 (en) Contrast-based image attention analysis framework
JP4340367B2 (en) Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
CN110210276A (en) A kind of motion track acquisition methods and its equipment, storage medium, terminal
US8189916B2 (en) Image processing method, system, and computer readable medium
WO2001009833A2 (en) Image retrieval by generating a descriptor for each spot of an image the cells of which having visual characteristics within a selected tolerance
JP2000090239A (en) Image retrieving device
JP5180922B2 (en) Image search system and image search method
Gong Advancing content-based image retrieval by exploiting image color and region features
EP0636994B1 (en) Method of and apparatus for retrieving dynamic images and method of and apparatus for managing images
CN112489142A (en) Color identification method, device, equipment and storage medium
US6882746B1 (en) Normalized bitmap representation of visual object's shape for search/query/filtering applications
Zeeshan et al. A newly developed ground truth dataset for visual saliency in videos
GB2380888A (en) Automatic determination of regions of interest in an image
Abdallah et al. A new color image database for benchmarking of automatic face detection and human skin segmentation techniques
JPH09171552A (en) Picture recognizing device
CN114758384A (en) Face detection method, device, equipment and storage medium
CN113516609A (en) Split screen video detection method and device, computer equipment and storage medium