JPH11219365A - Image retrieving device - Google Patents
Image retrieving deviceInfo
- Publication number
- JPH11219365A JPH11219365A JP10020574A JP2057498A JPH11219365A JP H11219365 A JPH11219365 A JP H11219365A JP 10020574 A JP10020574 A JP 10020574A JP 2057498 A JP2057498 A JP 2057498A JP H11219365 A JPH11219365 A JP H11219365A
- Authority
- JP
- Japan
- Prior art keywords
- image
- clustering
- keyword
- composition information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像検索装置に関
し、特に、大量の画像データから目的の画像を自動的に
検索する技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image retrieval apparatus, and more particularly to a technique for automatically retrieving a target image from a large amount of image data.
【0002】[0002]
【従来の技術】近年、インターネット、デジカメの普及
などにより我々のデジタル画像に接する機会はますます
増えてきた。またストレージの低価格化、大容量化など
により、オフィスに限らず、個人でも大量な画像データ
の蓄積が可能な環境になってきた。2. Description of the Related Art In recent years, with the spread of the Internet, digital cameras, and the like, opportunities to come into contact with our digital images have been more and more increased. In addition, due to price reduction and large capacity storage, an environment has become available in which not only offices but also individuals can store a large amount of image data.
【0003】そこで、これらの大量の画像データに対し
て、効率的にデジタル画像を扱う環境が必要とされてお
り、ユーザの目的とする画像データを簡単に提示するこ
とのできる画像検索装置が注目されている。Therefore, an environment for efficiently handling digital images with respect to such a large amount of image data is required, and an image retrieval apparatus capable of easily presenting image data intended by a user has attracted attention. Have been.
【0004】ここで、図8は従来の画像検索装置の構成
を示す説明図である。図示するように、従来の画像検索
装置は、中央処理装置20と、モニタなどのカラー画像
を表示する表示装置21と、キーボードやマウスなどの
入力装置22と、処理中のプログラムやデータを一時的
に記憶する主記憶装置23と、プログラムやデータなど
を記憶する二次記憶装置24とから構成される。また、
二次記憶装置24は、大量の画像データを蓄積する画像
データベース(画像DB)25と、一枚の画像データを
読み込む画像読み込み部26と、画像をディスプレイに
表示させる画像表示部27と、検索の際に用いるキーワ
ードを画像に対応づけて登録するキーワード登録部28
と、画像データに対して登録されたキーワードを対応付
けて確保するキーワードテーブル29と、ユーザが指定
されたキーワードを検索するキーワードチェック部30
とからなっている。FIG. 8 is an explanatory diagram showing the configuration of a conventional image search device. As shown in the figure, a conventional image search device includes a central processing unit 20, a display device 21 such as a monitor for displaying a color image, an input device 22 such as a keyboard and a mouse, and temporarily stores a program or data being processed. , And a secondary storage device 24 for storing programs, data, and the like. Also,
The secondary storage device 24 includes an image database (image DB) 25 that stores a large amount of image data, an image reading unit 26 that reads one piece of image data, an image display unit 27 that displays an image on a display, and a search Keyword registration unit 28 for registering a keyword to be used in association with an image
And a keyword table 29 for securing the keywords registered with the image data in association with each other, and a keyword check unit 30 for searching for a keyword specified by the user
It consists of
【0005】次に、このような従来の画像検索装置にお
けるキーワードによる画像検索の処理過程を、図9およ
び図10のフローチャートを用いて説明する。Next, the process of image retrieval using a keyword in such a conventional image retrieval apparatus will be described with reference to the flowcharts of FIGS.
【0006】大量の画像に対して、キーワードによる検
索を可能とするためには、画像一枚一枚に対して、画像
から連想されるキーワードを登録する必要がある。そこ
で、画像の登録過程を図9を用いて説明する。In order to search for a large number of images by using a keyword, it is necessary to register a keyword associated with an image for each image. Therefore, the image registration process will be described with reference to FIG.
【0007】画像の登録は、先ず、大量の画像データが
蓄積されている画像DBにアクセスする(ステップS2
0)。そして、登録する画像を一枚メモリ内に取り込む
(ステップS21)。To register an image, first, an image DB storing a large amount of image data is accessed (step S2).
0). Then, one image to be registered is loaded into the memory (step S21).
【0008】次に、その画像から連想されるキーワード
を任意個登録する(ステップS22)。Next, an arbitrary number of keywords associated with the image are registered (step S22).
【0009】最後に、取り込んだ画像とその画像に登録
されたキーワードを対応付けて、テーブルに登録する
(ステップS23)。Finally, the captured image is associated with the keyword registered in the image and registered in the table (step S23).
【0010】これにより、登録が行われたキーワードテ
ーブルが存在する環境において、キーワードによる画像
検索が可能となる。Thus, in an environment in which a registered keyword table exists, an image can be searched for using a keyword.
【0011】次に、図10において、登録された画像の
検索過程を説明する。まず、ユーザは所望の画像に対し
て、連想されるキーワードを入力する(ステップS2
4)。これにより、キーワードテーブルが読み込まれる
(ステップS25)。Next, referring to FIG. 10, a process of searching for a registered image will be described. First, the user inputs a keyword associated with a desired image (step S2).
4). Thereby, the keyword table is read (step S25).
【0012】次に、登録されているキーワードテーブル
において、ステップS24でユーザが指定したキーワー
ドの有無がチェックされる(ステップS26)。Next, the presence or absence of a keyword specified by the user in step S24 is checked in the registered keyword table (step S26).
【0013】指定されたキーワードが見つかると、その
画像のインデックスを用いて画像DBにアクセスする
(ステップS27)。When the designated keyword is found, the image DB is accessed using the index of the image (step S27).
【0014】最後に、検索された画像を取り込み、これ
がディスプレイ上に表示される(ステップS28)。Finally, the retrieved image is fetched and displayed on the display (step S28).
【0015】[0015]
【発明が解決しようとする課題】このような従来の装置
では、以下のような問題がある。However, such a conventional apparatus has the following problems.
【0016】まず、画像にキーワードを入力する作業が
煩わしいという問題である。また、どの画像にどのよう
なキーワードを付与したのかを時間が経つにつれて忘れ
てしまうために、検索する際に画像に付けられたキーワ
ードをうまく指定できないという問題である。特に、他
人が付けたキーワードを連想することは非常に困難なた
めに、適切なキーワードを見つけることが困難である。First, there is a problem that a task of inputting a keyword to an image is troublesome. Another problem is that the keyword attached to an image cannot be specified well during a search because the user forgets which keyword has been assigned to which image over time. In particular, since it is very difficult to associate a keyword assigned by another person, it is difficult to find an appropriate keyword.
【0017】したがって、現在の画像検索の主流をなす
このキーワードベースの画像検索における検索精度は決
して満足のいくものではない。Therefore, the retrieval accuracy in this keyword-based image retrieval, which is the mainstream of the current image retrieval, is never satisfactory.
【0018】そこで、本発明は、大量の画像データの中
から目的の画像データを簡単に検索できる画像検索装置
を提供することを目的とする。Accordingly, an object of the present invention is to provide an image retrieval apparatus capable of easily retrieving target image data from a large amount of image data.
【0019】[0019]
【課題を解決するための手段】この課題を解決するため
に、本発明の画像検索装置は、検索対象画像が所定のキ
ーワードとして入力される入力装置と、画像データが蓄
積された画像データベースと、画像データベースの中か
ら抽出された検出対象の画像を読み込む画像読み込み部
と、画像から構図情報を抽出する構図情報抽出部と、構
図情報抽出部により抽出された画像の構図情報を元に、
ニューラルネットによりクラスタリングを行うクラスタ
リングニューラルネット部と、画像の画像特性情報を抽
出する画像特性抽出部と、クラスタリングニューラルネ
ット部および画像特性抽出部により得られたクラスタリ
ング及び画像特性から、画像が入力されたキーワードの
カテゴリに属する画像か否かを判別する判別ニューラル
ネット部と、画像がキーワードのカテゴリに属する場合
に、これを表示させる画像表示部とを有することを特徴
とする。In order to solve this problem, an image search apparatus according to the present invention comprises: an input device for inputting a search target image as a predetermined keyword; an image database in which image data is stored; An image reading unit that reads an image to be detected extracted from an image database, a composition information extraction unit that extracts composition information from an image, and a composition information of the image extracted by the composition information extraction unit.
An image was input from a clustering neural network unit that performs clustering by a neural network, an image characteristic extraction unit that extracts image characteristic information of an image, and clustering and image characteristics obtained by the clustering neural network unit and the image characteristic extraction unit. It is characterized by having a discrimination neural network unit for discriminating whether or not the image belongs to the keyword category, and an image display unit for displaying the image when it belongs to the keyword category.
【0020】これにより、画像の構図が異なる場合にお
いても、大量の画像データの中から目的の画像データを
簡単に検索することが可能になる。Thus, even when the composition of the image is different, it is possible to easily search for the target image data from a large amount of image data.
【0021】[0021]
【発明の実施の形態】本発明の請求項1に記載の発明
は、検索対象画像が所定のキーワードとして入力される
入力装置と、画像データが蓄積された画像データベース
と、画像データベースの中から抽出された検出対象の画
像を読み込む画像読み込み部と、画像から構図情報を抽
出する構図情報抽出部と、構図情報抽出部により抽出さ
れた画像の構図情報を元に、ニューラルネットによりク
ラスタリングを行うクラスタリングニューラルネット部
と、画像の画像特性情報を抽出する画像特性抽出部と、
クラスタリングニューラルネット部および画像特性抽出
部により得られたクラスタリング及び画像特性から、画
像が入力されたキーワードのカテゴリに属する画像か否
かを判別する判別ニューラルネット部と、画像がキーワ
ードのカテゴリに属する場合に、これを表示させる画像
表示部とを有する画像検索装置であり、画像の構図が異
なる場合においても、大量の画像データの中から目的の
画像データを簡単に検索することが可能になるという作
用を有する。DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention provides an input device for inputting a search target image as a predetermined keyword, an image database in which image data is stored, and extraction from the image database. An image reading unit that reads the detected image that has been detected, a composition information extraction unit that extracts composition information from the image, and a clustering neural that performs clustering by a neural network based on the composition information of the image extracted by the composition information extraction unit. A net unit, an image characteristic extracting unit for extracting image characteristic information of the image,
A clustering neural network unit and a discriminating neural network unit for judging whether or not an image belongs to the category of the input keyword from the clustering and image characteristics obtained by the image feature extracting unit, and a case where the image belongs to the keyword category In addition, the present invention provides an image search device having an image display unit for displaying the same, and even when the composition of the images is different, it is possible to easily search for the target image data from a large amount of image data. Having.
【0022】また、本発明の請求項2に記載の発明は、
請求項1記載の発明において、画像データベースが装置
内にある画像検索装置であり、画像の構図が異なる場合
においても、大量の画像データの中から目的の画像デー
タを簡単に検索することが可能になるという作用を有す
る。[0022] The invention described in claim 2 of the present invention provides:
According to the first aspect of the present invention, the image database is an image search device in the device, and even when the composition of the images is different, the target image data can be easily searched from a large amount of image data. It has the effect of becoming.
【0023】本発明の請求項3に記載の発明は、請求項
1記載の発明において、画像データベースはネットワー
ク上に点在する複数の画像である画像検索装置であり、
画像の構図が異なる場合においても、大量の画像データ
の中から目的の画像データを簡単に検索することが可能
になるという作用を有する。According to a third aspect of the present invention, in the first aspect of the present invention, the image database is an image search device which is a plurality of images scattered on a network.
Even when the composition of the images is different, there is an effect that the target image data can be easily searched from a large amount of image data.
【0024】本発明の請求項4に記載の発明は、請求項
1、2または3記載の発明において、クラスタリングニ
ューラルネット部は、ユーザにより構図パターンを学習
させてなる画像検索装置であり、ユーザそれぞれの目的
に特価した正確な画像の検索が可能になるという作用を
有する。According to a fourth aspect of the present invention, in the first, second or third aspect of the present invention, the clustering neural network unit is an image search device in which a user learns a composition pattern by a user. It is possible to search for an accurate image for the purpose of (1).
【0025】以下、本発明の実施の形態について、図1
から図7を用いて説明する。まず、本発明の実施の形態
で用いられるニューラルネット(NN)について簡単に
説明する。Hereinafter, an embodiment of the present invention will be described with reference to FIG.
This will be described with reference to FIG. First, a neural network (NN) used in the embodiment of the present invention will be briefly described.
【0026】NNは、人間の脳の神経細胞(ニューロ
ン)をモデル化したものを多数つなげてネットワークを
構成し、ニューロン間の情報の伝達によって情報系を構
築するものである。また、ある入力データに対して、教
師データを与え、バックプロパゲーション(BP法)と
よばれる学習処理を行なうことによって、NNに非線形
写像を構築することが可能である。The NN connects a large number of models of nerve cells (neurons) of the human brain to form a network, and constructs an information system by transmitting information between the neurons. Further, by applying teacher data to certain input data and performing a learning process called back propagation (BP method), it is possible to construct a nonlinear mapping in the NN.
【0027】NNの重要な機能の一つである階層型NN
のバックプロパゲーション法における学習機能を図1を
用いて説明する。One of the important functions of the NN, the hierarchical NN
The learning function in the back propagation method will be described with reference to FIG.
【0028】NNの学習はニューロン間の重みを変化さ
せることによって行われる。そこで、学習開始時点で、
それらの重みに初期値を与える(ステップS10)。The learning of the NN is performed by changing the weight between neurons. So, at the start of learning,
Initial values are given to those weights (step S10).
【0029】次に、NNに任意の次元の入力データを与
える(ステップS11)。これにより、NNを構成する
ニューロン間に情報の伝播が行われる(ステップS1
2)。Next, input data of an arbitrary dimension is given to the NN (step S11). Thereby, information is propagated between neurons constituting the NN (step S1).
2).
【0030】次に、目下の入力データに対する理想値を
教師データとして与える(ステップS13)。すると、
NNの出力データと教師データの差分を用いて、逆順に
ニューロンの情報の更新が行われる(BP法)(ステッ
プS14)。Next, an ideal value for the current input data is given as teacher data (step S13). Then
The neuron information is updated in the reverse order using the difference between the NN output data and the teacher data (BP method) (step S14).
【0031】そして、ステップS11からステップS1
4までの処理を指定回数Nだけ繰り返し(ステップS1
5)、学習回数がNを越えた時点で学習終了となる。Then, from step S11 to step S1
4 is repeated a specified number of times N (step S1).
5) When the number of times of learning exceeds N, learning ends.
【0032】次に、図2および図3を用いて、実施の形
態に用いる画像の構図情報を元にクラスタリングを行う
クラスタリングNNの学習の説明を行なう。Next, the learning of the clustering NN for performing clustering based on the composition information of the image used in the embodiment will be described with reference to FIGS.
【0033】ここで、図2は、画像の構図情報によるク
ラスタリング処理を示す説明図、図3は、クラスタリン
グNNの学習処理手順を示すフローチャートである。FIG. 2 is an explanatory diagram showing a clustering process based on image composition information, and FIG. 3 is a flowchart showing a learning process procedure of the clustering NN.
【0034】クラスタリングNNを構築するためには、
教師データをつくる必要がある。よって、画像の構図情
報を用いたクラスタリングを行い、そのグループ名もし
くは代表値をクラスタリングNNを構築する際の教師デ
ータとして用いる。そこで、図2に示すように、画像D
B中のあるキーワードに属する画像に対して、画像の構
図情報をもとにクラスタリングを行う。クラスタリング
アルゴリズムは、一般に用いられる近傍法、k平均法な
どを用いる。図2の例では、画像DB中に蓄積されてい
るあるキーワードのカテゴリに属する画像は、構図情報
を尺度として、グループA,グループB,グループC,
グループDにクラスタリングされている。よって、クラ
スタリングNNの学習の際には、ある画像の構図情報に
対して、このグループ名もしくはそのグループの代表値
が教師データとして用いられる。In order to construct a clustering NN,
It is necessary to create teacher data. Therefore, clustering using the composition information of the image is performed, and the group name or the representative value is used as teacher data when constructing the clustering NN. Therefore, as shown in FIG.
Clustering is performed on the images belonging to a certain keyword in B based on the composition information of the images. The clustering algorithm uses a generally used neighborhood method, k-means method, or the like. In the example of FIG. 2, images belonging to a certain keyword category stored in the image DB are group A, group B, group C,
Clustered into group D. Therefore, when learning the clustering NN, the group name or the representative value of the group is used as the teacher data for the composition information of a certain image.
【0035】なお、画像の構図情報としては、色相、テ
クスチャ等の変化を元に行う領域分割法において領域分
割を行い、その領域の輪郭長、曲線率、隣接領域との関
係、領域の慣性モーメント、重心モーメント等の画像の
構図が表現可能な記述を用いる。As the composition information of the image, the area is divided by an area dividing method based on changes in hue, texture, etc., and the contour length of the area, the curve ratio, the relation with the adjacent area, the moment of inertia of the area And a description that can express the composition of the image such as the moment of the center of gravity.
【0036】図3において、クラスタリングNNの学習
処理の説明を行う。クラスタリングNNの学習処理で
は、先ず、画像DBより、あるキーワードのカテゴリに
含まれる画像を読み込む(ステップS16)。Referring to FIG. 3, a description will be given of a learning process of the clustering NN. In the learning process of the clustering NN, first, an image included in a certain keyword category is read from the image DB (step S16).
【0037】次に、読み込んだ画像から、構図情報を抽
出する(ステップS17)。そして、構図情報を入力デ
ータとしてNNへ与え、クラスタリング結果のグループ
名または代表値を教師データとするNNの学習を行う
(ステップS18)。Next, composition information is extracted from the read image (step S17). Then, composition information is given to the NN as input data, and NN learning is performed using the group name or the representative value of the clustering result as the teacher data (step S18).
【0038】このようにして指定回数の学習を行うと、
クラスタリングNNが構築される(ステップS19)。When learning is performed a specified number of times in this way,
A clustering NN is constructed (step S19).
【0039】このクラスタリングNNは、ある画像が与
えられると、その構図情報をもとにクラスタリングを行
った際のグループ名または代表値を出力する機能を有す
るものである。The clustering NN has a function of, when a certain image is given, outputting a group name or a representative value when clustering is performed based on the composition information.
【0040】次に、図4を用いて、任意の画像に対して
その画像がある被写体を含んでいる画像か否かを判断す
る判別NNの構築方法を説明する。ここで、図4は、一
例として「海」というキーワードのカテゴリに属する画
像を判別する判別NNの構築手順を示す説明図である。Next, a method of constructing a discrimination NN for judging whether or not an arbitrary image is an image including a certain subject will be described with reference to FIG. Here, FIG. 4 is an explanatory diagram showing, as an example, a procedure for constructing a discrimination NN for discriminating an image belonging to the keyword category of “sea”.
【0041】判別NNの入力データは、「海」のキーワ
ードのカテゴリに属する画像のクラスタリングNNの出
力データと、色相、輝度、テクスチャ(細かい一様な模
様の分布等)等の画像特性から得られる情報の二つであ
る。そして、クラスタリングNNは、「海」というキー
ワードに属する画像の複数の構図パターンの中で、現在
入力されている画像が属する構図パターンを出力するも
のである。それらの入力データに対して、その画像が
「海」の画像であるか、また「海」というキーワードに
属さない画像なのかを教師データとして与える。この学
習を繰り返すことによって、複数の異なる構図の「海」
が写っている画像を判別することが可能となる。The input data of the discrimination NN is obtained from the output data of the clustering NN of the images belonging to the keyword category of "sea" and the image characteristics such as hue, luminance, texture (distribution of fine uniform patterns, etc.). Information. The clustering NN outputs a composition pattern to which a currently input image belongs, among a plurality of composition patterns of an image belonging to the keyword “sea”. For the input data, whether the image is an image of “sea” or an image that does not belong to the keyword of “sea” is given as teacher data. By repeating this learning, the "sea" of multiple different compositions
Can be determined.
【0042】以上のNNについての説明をもとにして、
本実施の形態について説明する。図5は本発明の一実施
の形態における画像検索装置を示すブロック図、図6は
図5の画像検索装置による画像検索手順を示すフローチ
ャート、図7は図5の画像検索装置による画像検索の具
体例を示す説明図である。Based on the above description of the NN,
This embodiment will be described. FIG. 5 is a block diagram showing an image search device according to an embodiment of the present invention, FIG. 6 is a flowchart showing an image search procedure by the image search device of FIG. 5, and FIG. It is explanatory drawing which shows an example.
【0043】図示するように、本実施の形態における画
像検索装置は、中央処理装置1と、モニタなどのカラー
画像を表示する表示装置2と、キーボードやマウスなど
の入力装置3と、処理中のプログラムやデータを一時的
に記憶する主記憶装置4と、データやプログラム等を記
憶する二次記憶装置5とから構成される。また、二次記
憶装置5は、大量の画像データを蓄積する画像DB6、
画像を読み込む画像読み込み部7、画像から構図情報を
抽出する構図情報抽出部8、画像の構図情報を元にクラ
スタリングを行うクラスタリングNN部9、画像から色
相や輝度等の画像特性情報を抽出する画像特性抽出部1
0、与えられた画像が指定されたキーワードのカテゴリ
に属する画像か否かを判別する判別NN部11、画像を
ディスプレイ上に表示させる画像表示部12からなって
いる。なお、画像DB6は、装置内部にメモリとして持
つこともできるが、インターネットなどのネットワーク
上に点在する複数の画像を当てることもできる。As shown in the figure, the image retrieval apparatus according to the present embodiment includes a central processing unit 1, a display device 2 for displaying a color image such as a monitor, an input device 3 such as a keyboard and a mouse, It comprises a main storage device 4 for temporarily storing programs and data, and a secondary storage device 5 for storing data and programs. The secondary storage device 5 includes an image DB 6 that stores a large amount of image data,
An image reading unit 7 for reading an image; a composition information extracting unit 8 for extracting composition information from the image; a clustering NN unit 9 for performing clustering based on the composition information of the image; an image for extracting image characteristic information such as hue and luminance from the image Characteristic extraction unit 1
0, a discrimination NN unit 11 for discriminating whether or not a given image belongs to a category of a designated keyword, and an image display unit 12 for displaying an image on a display. Note that the image DB 6 can be provided as a memory inside the apparatus, but it can also apply a plurality of images scattered on a network such as the Internet.
【0044】次に、図6を用いて、このような画像検索
装置による画像検索の処理手順を詳細に説明する。Next, referring to FIG. 6, the procedure of an image search by such an image search apparatus will be described in detail.
【0045】ユーザが検索する画像を「キーワード」と
して入力すると(ステップS1)、そのキーワードのカ
テゴリに属する画像を構図情報を元にクラスタリングを
行うクラスタリングNN部が読み込まれる(ステップS
2)。When a user inputs an image to be searched for as a "keyword" (step S1), a clustering NN unit for clustering images belonging to the category of the keyword based on composition information is read (step S1).
2).
【0046】次に、検索対象の画像がチェックされ(ス
テップS3)、対象画像が無ければ処理は終了する(ス
テップS3)。Next, the search target image is checked (step S3), and if there is no target image, the process ends (step S3).
【0047】画像DB6に検索対象の画像データがある
場合には、一枚の当該画像が画像読み込み部7に読み込
まれる(ステップS4)。If there is image data to be searched in the image DB 6, one image is read by the image reading section 7 (step S4).
【0048】そして、読み込まれた画像から構図情報が
抽出され(ステップS5)、抽出され構図情報がクラス
タリングNN部9へ入力される(ステップS6)。Then, composition information is extracted from the read image (step S5), and the extracted composition information is input to the clustering NN unit 9 (step S6).
【0049】また、これを併行して、読み込まれた画像
から画像特性が抽出される(ステップS7)。At the same time, image characteristics are extracted from the read image (step S7).
【0050】そして、ステップS6のクラスタリングN
N部9における出力データとステップS7で抽出された
画像特性情報から、当該画像がこのキーワードのカテゴ
リに属する画像か否かを判別する判別NN部11に入力
される(ステップS8)。Then, the clustering N in step S6
Based on the output data in the N unit 9 and the image characteristic information extracted in step S7, the image is input to the determination NN unit 11 for determining whether the image belongs to the category of the keyword (step S8).
【0051】判別NN部11によって、画像が指定キー
ワードのカテゴリに属すると判断された場合には、当該
画像がディスプレイ上に表示される(ステップS9)。When the discrimination NN unit 11 determines that the image belongs to the category of the designated keyword, the image is displayed on the display (step S9).
【0052】次に、このような画像検索の具体例を図7
を用いて説明する。ここでは、ユーザは海に着目し、キ
ーワードとして「海」を入力したものとする。Next, a specific example of such an image search is shown in FIG.
This will be described with reference to FIG. Here, it is assumed that the user pays attention to the sea and inputs "sea" as a keyword.
【0053】すると、本実施の形態の画像検索装置は、
検索対象の画像DB6に対して読み込みを行い、クラス
タリングNN部9、判別NN部11を用いて画像をチェ
ックする。その結果、読み込まれた画像が「海」のキー
ワードのカテゴリに属する画像と判断された場合には、
ディスプレイ上に表示を行う。この際に、ある一つの構
図のみではなく、構図情報を元にクラスタリングされた
構図A,構図B,構図C等の複数の構図を持つ画像が表
示される。なお、キーワードによっては一つの構図のみ
となることもあり、この場合には一つの画像が表示され
る。また、このクラスタリングNNをユーザ独自で追加
学習を行うことによって、任意個の構図パターンに対応
した検索を行うことが可能となる。Then, the image search device according to the present embodiment
The image DB 6 to be searched is read, and the images are checked using the clustering NN unit 9 and the discrimination NN unit 11. As a result, if it is determined that the loaded image belongs to the keyword category of "sea",
Display on the display. At this time, an image having not only one composition but also a plurality of compositions such as composition A, composition B, and composition C clustered based on the composition information is displayed. In addition, depending on the keyword, there may be only one composition, and in this case, one image is displayed. In addition, by performing additional learning of the clustering NN on its own, a search corresponding to an arbitrary number of composition patterns can be performed.
【0054】[0054]
【発明の効果】以上のように、本発明によれば、画像の
構図が異なる場合においても、大量の画像データの中か
ら目的の画像データを簡単に検索することが可能になる
という有効な効果が得られる。As described above, according to the present invention, even when the composition of an image is different, it is possible to easily search for a target image data from a large amount of image data. Is obtained.
【0055】また、クラスタリングニューラルネット部
をユーザにより構図パターンを学習させて構成すること
により、ユーザそれぞれの目的に特価した正確な画像の
検索が可能になるという有利な効果が得られる。Further, by constructing the clustering neural network unit by learning the composition pattern by the user, an advantageous effect that it is possible to search for an accurate image special for each user's purpose is obtained.
【図1】階層型ニューラルネットのバックプロパゲーシ
ョン法における学習機能を示す説明図FIG. 1 is an explanatory diagram showing a learning function in a back propagation method of a hierarchical neural network.
【図2】画像の構図情報によるクラスタリング処理を示
す説明図FIG. 2 is an explanatory diagram showing a clustering process based on image composition information.
【図3】クラスタリングニューラルネットの学習処理手
順を示すフローチャートFIG. 3 is a flowchart showing a learning processing procedure of the clustering neural network.
【図4】所定のキーワードのカテゴリに属する画像を判
別する判別ニューラルネットの構築手順を示す説明図FIG. 4 is an explanatory diagram showing a procedure for constructing a discrimination neural network for discriminating an image belonging to a category of a predetermined keyword;
【図5】本発明の一実施の形態における画像検索装置を
示すブロック図FIG. 5 is a block diagram showing an image search device according to an embodiment of the present invention.
【図6】図5の画像検索装置による画像検索手順を示す
フローチャートFIG. 6 is a flowchart showing an image search procedure by the image search device in FIG. 5;
【図7】図5の画像検索装置による画像検索の具体例を
示す説明図FIG. 7 is an explanatory diagram showing a specific example of an image search by the image search device in FIG. 5;
【図8】従来の画像検索装置の構成を示す説明図FIG. 8 is an explanatory diagram showing a configuration of a conventional image search device.
【図9】図8の画像検索装置における画像の登録過程を
示すフローチャートFIG. 9 is a flowchart showing an image registration process in the image search device of FIG. 8;
【図10】図8の画像検索装置における登録された画像
の検索過程を示すフローチャートFIG. 10 is a flowchart showing a search process of a registered image in the image search device of FIG. 8;
3 入力装置 6 画像データベース 7 画像読み込み部 8 構図情報抽出部 9 クラスタリングニューラルネット部 10 画像特性抽出部 11 判別ニューラルネット部 12 画像表示部 Reference Signs List 3 input device 6 image database 7 image reading unit 8 composition information extracting unit 9 clustering neural network unit 10 image characteristic extracting unit 11 discriminating neural network unit 12 image display unit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/70 330Q ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FIG06F 15/70 330Q
Claims (4)
力される入力装置と、 画像データが蓄積された画像データベースと、 前記画像データベースの中から抽出された検出対象の画
像を読み込む画像読み込み部と、 前記画像から構図情報を抽出する構図情報抽出部と、 前記構図情報抽出部により抽出された前記画像の構図情
報を元に、ニューラルネットによりクラスタリングを行
うクラスタリングニューラルネット部と、 前記画像の画像特性情報を抽出する画像特性抽出部と、 前記クラスタリングニューラルネット部および前記画像
特性抽出部により得られたクラスタリング及び画像特性
から、前記画像が入力されたキーワードのカテゴリに属
する画像か否かを判別する判別ニューラルネット部と、 前記画像がキーワードのカテゴリに属する場合に、これ
を表示させる画像表示部とを有することを特徴とする画
像検索装置。An input device for inputting a search target image as a predetermined keyword; an image database storing image data; an image reading unit for reading a detection target image extracted from the image database; A composition information extraction unit that extracts composition information from the image; a clustering neural network unit that performs clustering by a neural network based on the composition information of the image extracted by the composition information extraction unit; and image characteristic information of the image. A clustering neural network and a clustering and image characteristic obtained by the image characteristic extracting unit, and a discrimination neural that determines whether or not the image belongs to the category of the input keyword. The net part and the image belongs to the keyword category And an image display unit for displaying the image when the search is performed.
いることを特徴とする請求項1記載の画像検索装置。2. The image retrieval apparatus according to claim 1, wherein said image database is provided in said apparatus.
に点在する複数の画像であることを特徴とする請求項1
記載の画像検索装置。3. The image database according to claim 1, wherein the image database is a plurality of images scattered on a network.
The image search device according to the above.
は、ユーザにより構図パターンを学習させてなることを
特徴とする請求項1、2または3記載の画像検索装置。4. The image retrieval apparatus according to claim 1, wherein the clustering neural network is configured to allow a user to learn a composition pattern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10020574A JPH11219365A (en) | 1998-02-02 | 1998-02-02 | Image retrieving device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10020574A JPH11219365A (en) | 1998-02-02 | 1998-02-02 | Image retrieving device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11219365A true JPH11219365A (en) | 1999-08-10 |
Family
ID=12030982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10020574A Pending JPH11219365A (en) | 1998-02-02 | 1998-02-02 | Image retrieving device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11219365A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100343555B1 (en) * | 1999-11-01 | 2002-07-19 | 이윤주 | Color data system based on images and method for providing information of colors by using computer system |
JP2007193467A (en) * | 2006-01-18 | 2007-08-02 | Dainippon Printing Co Ltd | Image material search system |
JP2007200249A (en) * | 2006-01-30 | 2007-08-09 | Nippon Telegr & Teleph Corp <Ntt> | Image search method, device, program, and computer readable storage medium |
JP2007524898A (en) * | 2003-04-22 | 2007-08-30 | マイクロソフト コーポレーション | Relationship view |
US9424563B2 (en) | 2005-03-11 | 2016-08-23 | Microsoft Technology Licensing, Llc | Accessing medial context information using contextual links |
JP2018081452A (en) * | 2016-11-15 | 2018-05-24 | キヤノン株式会社 | Image processing device, and image processing method |
-
1998
- 1998-02-02 JP JP10020574A patent/JPH11219365A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100343555B1 (en) * | 1999-11-01 | 2002-07-19 | 이윤주 | Color data system based on images and method for providing information of colors by using computer system |
JP2007524898A (en) * | 2003-04-22 | 2007-08-30 | マイクロソフト コーポレーション | Relationship view |
US7689525B2 (en) | 2003-04-22 | 2010-03-30 | Microsoft Corporation | Relationship view |
US9424563B2 (en) | 2005-03-11 | 2016-08-23 | Microsoft Technology Licensing, Llc | Accessing medial context information using contextual links |
US11481086B2 (en) | 2005-03-11 | 2022-10-25 | Microsoft Technology Licensing, Llc | Accessing media context information using contextual links |
JP2007193467A (en) * | 2006-01-18 | 2007-08-02 | Dainippon Printing Co Ltd | Image material search system |
JP2007200249A (en) * | 2006-01-30 | 2007-08-09 | Nippon Telegr & Teleph Corp <Ntt> | Image search method, device, program, and computer readable storage medium |
JP2018081452A (en) * | 2016-11-15 | 2018-05-24 | キヤノン株式会社 | Image processing device, and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112667794A (en) | Intelligent question-answer matching method and system based on twin network BERT model | |
JP2001515623A (en) | Automatic text summary generation method by computer | |
CN109933660B (en) | API information search method towards natural language form based on handout and website | |
CN101305368A (en) | Semantic visual search engine | |
JP2004334594A (en) | Image searching device, image searching method, image searching program, and recording medium with the program recorded thereon | |
CN108182287A (en) | A kind of automatic question-answering method, device and server | |
CN115131698B (en) | Video attribute determining method, device, equipment and storage medium | |
US7373021B2 (en) | Image search program, information storage medium, image search apparatus and image search method | |
JP3488063B2 (en) | Information classification method, apparatus and system | |
CN113343012B (en) | News matching method, device, equipment and storage medium | |
CN117453859A (en) | Agricultural pest and disease damage image-text retrieval method, system and electronic equipment | |
JP2001142890A (en) | Method and device for retrieving image | |
JPH11219365A (en) | Image retrieving device | |
CN109471927A (en) | A kind of knowledge base and its foundation, answering method and application apparatus | |
JP2004086737A (en) | Method and device for similarity determination and program | |
JPH0944518A (en) | Method for structuring image data base, and method and device for retrieval from image data base | |
CN117009570A (en) | Image-text retrieval method and device based on position information and confidence perception | |
CN115797795A (en) | Remote sensing image question-answering type retrieval system and method based on reinforcement learning | |
JPH0934909A (en) | Information retrieval device | |
CN113704623B (en) | Data recommendation method, device, equipment and storage medium | |
JPH08287086A (en) | Method and device for emphasizing and displaying image in order of adaptability | |
JP2000048041A (en) | Data retrieval system and device to be used for the system | |
JP3155033B2 (en) | Similar scale composition processing method | |
JP2004126848A (en) | Similar case retrieval method | |
JPH03194655A (en) | Method for accumulating and retrieving similar picture |