JP4351620B2 - Image search system - Google Patents

Image search system Download PDF

Info

Publication number
JP4351620B2
JP4351620B2 JP2004344403A JP2004344403A JP4351620B2 JP 4351620 B2 JP4351620 B2 JP 4351620B2 JP 2004344403 A JP2004344403 A JP 2004344403A JP 2004344403 A JP2004344403 A JP 2004344403A JP 4351620 B2 JP4351620 B2 JP 4351620B2
Authority
JP
Japan
Prior art keywords
image
information
image data
parts
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004344403A
Other languages
Japanese (ja)
Other versions
JP2006155203A (en
Inventor
元太 帆足
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osk Co Ltd
Original Assignee
Osk Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osk Co Ltd filed Critical Osk Co Ltd
Priority to JP2004344403A priority Critical patent/JP4351620B2/en
Publication of JP2006155203A publication Critical patent/JP2006155203A/en
Application granted granted Critical
Publication of JP4351620B2 publication Critical patent/JP4351620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、コンピュータ端末に記憶した画像データを検索する画像検索システムに関する。
The present invention relates to an image search system for searching image data stored in a computer terminal.

デジタルカメラ等の撮像装置の発達に伴い、撮像した画像のデジタルデータ(以下、画像データ)をコンピュータ端末に保存し、インターネットのホームページ上に掲載したり、電子メールにより友人・知人に配信したりすることが行われている。   With the development of imaging devices such as digital cameras, digital data of captured images (hereinafter referred to as image data) is stored in computer terminals and posted on the Internet homepage or distributed to friends and acquaintances via e-mail. Things have been done.

デジタルカメラのような撮像装置は、従来のカメラと異なり、撮像した画像データの消去、保存、修正等が簡単に行える為、その撮像枚数(画像データの量)も増加しがちである。従って、撮像した画像データはコンピュータ端末に保存して管理することが一般的であるが、ユーザが必要な画像データを探すには、コンピュータ端末に保存した画像データから一枚一枚、確認しながら探す他、画像検索システムを用いることによって探すことも行われている。   Unlike conventional cameras, an imaging apparatus such as a digital camera can easily delete, store, and correct captured image data, and the number of captured images (amount of image data) tends to increase. Therefore, the captured image data is generally stored and managed in a computer terminal. However, in order to search for necessary image data, a user checks each image data stored in the computer terminal one by one. In addition to searching, searching is also performed by using an image search system.

このような画像検索システムでは、画像データに関連づけられたファイル名等のキーワードにより検索を行う方法や、下記特許文献1、特許文献2、非特許文献1に開示のように、基準となる画像データ(以下、基準画像データ)との類似度から目的の画像データ(以下、目的画像データ)を検索する方法が知られている。   In such an image search system, as a method of performing a search using a keyword such as a file name associated with image data, or as disclosed in Patent Document 1, Patent Document 2, and Non-Patent Document 1 below, reference image data There is known a method of searching for target image data (hereinafter referred to as target image data) from the similarity with (hereinafter referred to as reference image data).

特開2000−285141号公報JP 2000-285141 A 特開平7−219969号公報Japanese Patent Laid-Open No. 7-219969 リコー株式会社、”リコー技術最前線”、[online]、2002年9月26日、インターネット<URL: http://www.ricoh.co.jp/tech/23/23_02.html>Ricoh Co., Ltd., “Ricoh Technology Front Line” [online], September 26, 2002, Internet <URL: http://www.ricoh.co.jp/tech/23/23_02.html>

キーワードにより目的画像データの検索を行う方法では、対象となる画像データ毎にキーワードが設定されている必要があるが、このキーワードの設定作業は非常に煩雑である。又、キーワードの設定にはキーワード設定者の主観が入りやすく、キーワードを用いた画像検索システムでは、一定水準の検索結果が得られにくいという問題点がある。   In the method of searching for target image data by keyword, it is necessary to set a keyword for each target image data. However, this keyword setting operation is very complicated. In addition, keyword setting tends to be subject to the keyword setter's subjectivity, and image search systems using keywords are difficult to obtain a certain level of search results.

一方、基準画像データとの類似度に基づいて目的画像データを検索する方法では、キーワードを用いた検索のような問題はないが、基準画像データを予め多数用意しておかないと、ユーザの希望する目的画像データを検索することが出来ない。又、多数の基準画像データを用意出来たとしても、その基準画像データの記憶領域として膨大な記憶領域を必要とする。そして、あらゆる態様を想定した基準画像データを用意することは事実上不可能であり、特に、多数の目的画像データの中から、ごくわずかに存在する特別な目的画像データを検索する場合には、基準画像データを用意すること自体が非常に困難である。   On the other hand, in the method of searching for target image data based on the similarity to the reference image data, there is no problem like a search using a keyword. However, if a large number of reference image data is not prepared in advance, the user's request The target image data to be searched cannot be searched. Even if a large number of reference image data can be prepared, a huge storage area is required as a storage area for the reference image data. In addition, it is practically impossible to prepare reference image data that assumes every aspect, and in particular, when searching for a very small number of special target image data from a large number of target image data, It is very difficult to prepare the reference image data itself.

そこで特許文献1では、目的画像データとその一部が似ているいくつかの画像を選択し、それぞれの画像毎に似ている部分の特徴量を抽出し、これらの特徴量に重み付けを行って検索することで、目的画像データを検索する方法が開示されている。しかし、この方法を用いた場合、基準画像データが複数の画像に分かれたままであるので、ユーザが最終的な基準画像データのイメージを認識しにくいという問題点があり、精度の高い画像検索を行うことが出来ない。   Therefore, in Patent Document 1, several images that are similar in part to the target image data are selected, feature amounts of similar portions are extracted for each image, and these feature amounts are weighted. A method of searching for target image data by searching is disclosed. However, when this method is used, since the reference image data remains divided into a plurality of images, there is a problem that it is difficult for the user to recognize the final image of the reference image data, and an accurate image search is performed. I can't.

又、非特許文献1には、手書きの画像を基準画像データとして用いる方法が開示されている。しかし、手書きでの画像サンプルの入力はその個人差が大きく、同じ目的画像データを検索する為に同じ作業者が入力を行う場合であったとしても、必ずしも検索結果が一致しないことから、この場合でも精度の高い画像検索を行うことが出来ないという問題点がある。   Non-Patent Document 1 discloses a method of using a handwritten image as reference image data. However, input of handwritten image samples has a large individual difference. In this case, the search results do not always match even if the same operator inputs to search for the same target image data. However, there is a problem that high-accuracy image retrieval cannot be performed.

更に特許文献2では、自然言語で入力された文章に対して自然言語解析を行うことにより、その状況要素に対応するピクセルの集合である画像部品を取り出し、取り出した画像部品に基づいて、各画像データとの類似度を検索することにより、目的画像データを検索する方法が開示されている。この場合、特許文献1や非特許文献1の場合よりは精度の高い画像検索を行うことが可能であるが、取り出した画像部品が目的画像データに類似するものであるか否か、或いは自然言語解析を行うことから的確な画像部品を必ずしも取り出すことが出来ない問題点があり、精度も高くはない。又、この方法では、写真画像を基本とする為、コンピュータ端末に保存しておく必要のあるデータ量が多くなる。従って、この方法は保存容量に限りのあるパーソナルコンピュータ端末等には適さず、実際には実施が困難であるという問題点がある。   Further, in Patent Document 2, by performing natural language analysis on a sentence input in a natural language, an image component that is a set of pixels corresponding to the situation element is extracted, and each image is based on the extracted image component. A method of searching for target image data by searching for similarity to data is disclosed. In this case, it is possible to perform an image search with higher accuracy than in the case of Patent Document 1 or Non-Patent Document 1, but whether or not the extracted image component is similar to the target image data, or a natural language There is a problem that an accurate image component cannot always be extracted from the analysis, and the accuracy is not high. Further, since this method is based on a photographic image, the amount of data that needs to be stored in a computer terminal increases. Therefore, this method is not suitable for a personal computer terminal or the like having a limited storage capacity, and is actually difficult to implement.

そこで本発明者は上記問題点に鑑み、画像部品に基づいて基準画像データを自動的に合成して作成し、この基準画像データを検索条件として画像検索処理を実行することにより、従来よりも検索精度の高い画像検索を可能とする、画像検索システムを発明した。   Therefore, in view of the above problems, the present inventor automatically generates reference image data based on image parts, and executes an image search process using the reference image data as a search condition. Invented an image search system that enables highly accurate image search.

請求項1の発明は、複数の画像データの中から、基準画像データに基づいて目的画像データを検索する画像検索システムであって、前記画像検索システムは、前記基準画像データを構成する要素である画像部品と、前記画像部品に対する名称情報と前後関係を示す前後関係距離情報と形状情報とを含む特徴情報と、検索対象となる複数の前記画像データとを少なくとも記憶する記憶手段と、前記画像部品の名称の入力を受け付ける名称入力受付手段と、前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶手段から抽出する特徴情報抽出手段と、前記抽出した特徴情報に基づいて、前記画像部品を前記記憶手段から抽出する画像部品抽出手段と、前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成する画像合成手段と、前記作成した基準画像データの中から、一或いは二以上の前記基準画像データがユーザにより選択されたことの入力を受け付ける合成画像選択受付手段と、前記選択された基準画像データに基づいて、前記記憶手段に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する画像検索手段と、を有する画像検索システムである。
The invention of claim 1 is an image search system for searching for target image data from a plurality of image data based on reference image data, and the image search system is an element constituting the reference image data. Storage means for storing at least image components, feature information including name information for the image components, front-rear distance information indicating the front-rear relationship, and shape information; and a plurality of the image data to be searched; and the image components A name input accepting unit that accepts an input of a name, a feature information extracting unit that extracts feature information having the name information corresponding to the accepted name from the storage unit, and the image based on the extracted feature information an image component extracting means for extracting a component from the storage means, Oite the combination of image parts the extracted, extracted context distance of each image component Based on the information, the image component of the object is divided into the image component of the background, and if there is a background image component, the value of the average inclination angle of the line connecting the point sequence in the background image component is used to extract the image component. One or two or more compositions for arranging the respective image parts are determined, and when there is no background image part, the number of the image parts is used to determine one or more compositions for arranging the extracted image parts. And determining the composition, and then combining the extracted image components in accordance with the determined composition and combining them to generate the reference image data for each combination, and the created Based on the selected reference image data, composite image selection receiving means for receiving an input indicating that one or more of the reference image data is selected by the user from the reference image data. Te, perform a search of the image data stored in the storage means, an image retrieval system having the image retrieval means for extracting the target image data based on the similarity between the reference image data.

本発明のように画像部品に基づいて基準画像データを合成し、その基準画像データの中から、ユーザが最も類似すると考える基準画像データを選択し、選択した基準画像データに基づいて画像データから検索を実行することで、従来よりも精度の高い画像検索システムを実現することが出来る。尚、ここで「名称」とは、画像部品に対して関連づけられた名前であり、名詞(固有名詞等も含む)等も含む。
また、画像合成を行う前に、本発明のように構図を決定することにより、無駄な合成処理を減らすことが出来る。
As in the present invention, the reference image data is synthesized based on the image parts, the reference image data that the user thinks is most similar is selected from the reference image data, and the image data is searched based on the selected reference image data. By executing the above, it is possible to realize an image search system with higher accuracy than before. Here, the “name” is a name associated with the image part, and includes nouns (including proper nouns) and the like.
In addition, useless composition processing can be reduced by determining the composition as in the present invention before performing image composition.

請求項2の発明は、前記特徴情報は、前記画像部品の表面の色情報又はパターンの情報からなる表面情報を更に含んでおり、前記画像部品は点列情報からなる輪郭で形成されており、前記画像合成手段は、前記画像部品の輪郭を形成する点列情報の内部又は外部を前記表面情報に基づいて色又はパターンを付加し、その後、前記抽出した各画像部品を組み合わせて合成することにより、前記基準画像データを作成する、画像検索システムである。   In the invention of claim 2, the feature information further includes surface information composed of color information or pattern information on the surface of the image component, and the image component is formed with an outline composed of point sequence information, The image composition means adds a color or a pattern based on the surface information to the inside or the outside of the point sequence information forming the outline of the image component, and then combines the extracted image components in combination. An image search system for creating the reference image data.

画像部品は、点列情報から形成される輪郭からなると良い。輪郭からなる画像部品とすることによって、その画像部品のデータ量を従来よりも大幅に減らすことが出来るからである。このように画像部品のデータ量を減らせば、同一のデータ領域でも多数の画像部品を記憶でき、或いは同一の画像部品の数量でも、必要となるデータ領域を大幅に減らすことが出来る。これによって、例えば一般家庭で用いるコンピュータ端末のような、スペックが必ずしも高くないコンピュータ端末でも画像データの検索システムを実現することが出来る。   The image component is preferably composed of a contour formed from point sequence information. This is because by using an image part composed of contours, the data amount of the image part can be greatly reduced as compared with the conventional case. If the data amount of image parts is reduced in this way, a large number of image parts can be stored even in the same data area, or the required data area can be greatly reduced even with the same number of image parts. As a result, a search system for image data can be realized even with a computer terminal whose specifications are not necessarily high, such as a computer terminal used in a general household.

請求項の発明は、前記画像合成手段は、前記抽出した各画像部品に対して、合成済みでない画像部品の中から前記前後関係距離情報の数値の大きい2つの画像部品を選択し、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の外側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成し、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の内側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成し、前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成済みの画像部品とし、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成後の画像部品で更新する、処理を前記前後関係距離情報の最も小さい画像部品に全ての前記画像部品が合成するまで反復する、ことにより前記画像部品に基づく前記基準画像データの合成処理を実行する、画像検索システムである。
According to a third aspect of the present invention, the image synthesizing unit selects, for each of the extracted image components, two image components having a large numerical value of the front-rear distance information from among the image components that have not been synthesized, and the selection The outside of the point sequence information of the image component having a small front-rear distance information is set as a mask area, and the image part having the larger front-rear distance information among the selected image parts is set in the mask area. Compositing and setting the inside of the point sequence information of the image component having the smaller context distance information among the selected image parts as a mask region, and the context distance information of the selected image components in the mask region Of the selected image components, and the image component having the larger front-rear distance information among the selected image components is used as a synthesized image component. Update the image component with the smaller context distance information with the synthesized image component, and repeat the process until all the image components have been combined with the image component with the smallest context distance information. An image search system that executes a composition process of the reference image data based thereon.

画像部品の合成は本発明のように、前後関係距離情報の大きい画像部品同士(遠くにある画像部品同士)から順番に行うと良い。   As in the present invention, the image components may be synthesized in order from image components having large front-rear distance information (image components located far away).

請求項の発明は、前記記憶手段は、前記画像合成手段で合成して作成した基準画像データの合成履歴を更に記憶し、前記画像検索システムは、前記記憶手段に記憶する合成履歴を抽出する合成履歴管理手段を更に有しており、前記画像合成手段は、過去に前記抽出した画像部品を用いた合成履歴があるか否かを前記合成履歴管理手段に問い合わせ、合成履歴がある場合にはその合成履歴に基づいて前記基準画像データを合成して作成し、合成履歴がない場合には前記前記前後関係距離情報に基づく合成処理を実行する、画像検索システムである。
According to a fourth aspect of the present invention, the storage unit further stores a combination history of reference image data created by combining with the image combining unit, and the image search system extracts a combination history stored in the storage unit. And further comprising a composition history management means, wherein the image composition means inquires of the composition history management means whether there is a composition history using the extracted image parts in the past. In the image search system, the reference image data is synthesized based on the synthesis history, and when there is no synthesis history, a synthesis process is executed based on the front-rear distance information.

本発明のように合成履歴を用いることで、画像部品に基づく基準画像データをより高速に作成することが出来る。これによって全体の処理速度の向上を図ることが出来る。   By using the synthesis history as in the present invention, reference image data based on image parts can be created at higher speed. As a result, the overall processing speed can be improved.

請求項の発明は、基準画像データを構成する要素である画像部品と、前記画像部品に対する名称情報と前後関係を示す前後関係距離情報と形状情報とを含む特徴情報と、検索対象となる複数の画像データとを少なくとも記憶する記憶装置と、プログラムの処理演算を実行する演算処理装置とを有するコンピュータ端末で実行する画像検索プログラムであって、前記画像検索プログラムは、前記演算処理装置に読み込まれる名称入力受付機能と特徴情報抽出機能と画像部品抽出機能と画像合成機能と合成画像選択受付機能と画像検索機能とを有しており、前記名称入力受付機能は、前記コンピュータ端末の入力装置から入力された、前記画像部品の名称の入力を受け付け、前記特徴情報抽出機能は、前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶装置から抽出し、前記画像部品抽出機能は、前記抽出した特徴情報に基づいて、前記画像部品を前記記憶装置から抽出し、前記画像合成機能は、前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成し、前記合成画像選択受付機能は、前記作成した基準画像データの中から、一或いは二以上の基準画像データが、ユーザにより前記入力装置で選択されたことの入力を受け付け、前記画像検索機能は、前記選択された基準画像データに基づいて、前記記憶装置に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する、画像検索プログラムである。 According to a fifth aspect of the present invention, there is provided an image component that is an element constituting reference image data, feature information including name information for the image component, contextual distance information indicating the context, and shape information, and a plurality of search targets. An image search program that is executed by a computer terminal having a storage device that stores at least the image data and an arithmetic processing device that executes the processing operation of the program. The image search program is read into the arithmetic processing device. It has a name input reception function, a feature information extraction function, an image component extraction function, an image composition function, a composite image selection reception function, and an image search function. The name input reception function is input from an input device of the computer terminal. The input of the name of the image component is received, and the feature information extraction function is configured to receive the name information corresponding to the received name. The image component extraction function extracts the image component from the storage device based on the extracted feature information, and the image composition function extracts the image component extracted from the storage device. Oite the combination, based on the extracted context distance information of each image part, divided into an image part of the image part and the background object, points in the image part of the background when there is an image part of the background column Using the value of the average inclination angle of the line connecting the two, determine one or more compositions to arrange the extracted image parts, if there is no background image parts, using the number of image parts, the extracts each image component obtained by determining one or more of the composition to be placed, after determining the composition, each image component obtained by said extraction by synthesizing a combination according to the composition described above decision, for each combination The reference image data is generated by combining the reference image data, and the composite image selection receiving function is configured so that one or more reference image data is selected by the user using the input device from the generated reference image data. Receiving the input, the image search function executes a search of the image data stored in the storage device based on the selected reference image data, and the target image based on a similarity to the reference image data An image search program for extracting data.

上述の画像検索システムは、本発明のように構成することでプログラムとしても同様の効果を得ることが出来る。   The above-described image search system can obtain the same effect as a program when configured as in the present invention.

請求項の発明は、請求項に記載の画像検索プログラムを記録する、画像検索プログラムを記録した記録媒体である。
The invention of claim 6 records an image retrieval program according to claim 5, which is a recording medium recording the image search program.

画像検索プログラムは、CDやDVD等の記録媒体に記録しても良い。   The image search program may be recorded on a recording medium such as a CD or a DVD.

本発明の画像検索システムを用いることにより、ユーザが目的画像データの特徴であると認識した画像部品の名称の入力を行うことで、その名称に対応付けられた画像部品に基づき基準画像データを合成して作成し、その中からユーザが目的画像データに最も類似していると考える基準画像データを選択し、それに基づいて目的画像データの画像検索処理を実行することにより、従来よりも検索精度を高めて目的画像データを検索することが出来る。
By using the image retrieval system of the present invention, the user inputs the name of the image component recognized as a feature of the target image data, and synthesizes the reference image data based on the image component associated with the name. By selecting the reference image data that the user thinks is most similar to the target image data, and executing the image search process of the target image data based on the selected reference image data, the search accuracy can be improved as compared with the prior art. The target image data can be searched for higher.

本発明の画像検索システム1のシステム構成の一例を図1のシステム構成図を用いて説明する。画像検索システム1は、名称入力受付手段2と特徴情報抽出手段3と画像部品抽出手段4と画像合成手段5と合成画像選択受付手段6と画像検索手段7と表示手段8と記憶手段9とからなる。   An example of the system configuration of the image search system 1 of the present invention will be described with reference to the system configuration diagram of FIG. The image search system 1 includes a name input reception unit 2, a feature information extraction unit 3, an image component extraction unit 4, an image composition unit 5, a composite image selection reception unit 6, an image search unit 7, a display unit 8, and a storage unit 9. Become.

画像検索システム1はコンピュータ端末30上で実行される。図16に一般的なコンピュータ端末30のハードウェア構成の一例を示す。コンピュータ端末30は、CPUやレジスタ等の演算処理を実行する演算処理装置31、キーボードやマウス等のコンピュータ端末30への入力装置32、ディスプレイである表示装置33、メモリやキャッシュ、ハードディスクその他の各種の記録媒体でデータを記憶する記憶装置34、他のコンピュータ端末30とネットワークを介してデータの送受信を行う通信装置35とを有している。尚、ここで示したコンピュータ端末30のハードウェア構成は一例であり、他のハードウェア構成とすることも出来る。   The image search system 1 is executed on the computer terminal 30. FIG. 16 shows an example of a hardware configuration of a general computer terminal 30. The computer terminal 30 includes an arithmetic processing unit 31 that executes arithmetic processing such as a CPU and a register, an input device 32 to the computer terminal 30 such as a keyboard and a mouse, a display device 33 that is a display, a memory, a cache, a hard disk, and other various types. It has a storage device 34 that stores data in a recording medium, and a communication device 35 that transmits / receives data to / from another computer terminal 30 via a network. Note that the hardware configuration of the computer terminal 30 shown here is merely an example, and other hardware configurations may be used.

画像検索システム1に於ける名称入力受付手段2、特徴情報抽出手段3、画像部品抽出手段4、画像合成手段5、合成画像選択受付手段6、画像検索手段7、表示手段8は、演算処理装置31に於いてその機能を実現するプログラム(モジュール等も含む)により実行され、記憶手段9は記憶装置34でそのデータを記憶している。   In the image search system 1, the name input accepting means 2, the feature information extracting means 3, the image component extracting means 4, the image synthesizing means 5, the composite image selection accepting means 6, the image search means 7, and the display means 8 are an arithmetic processing unit. The storage means 9 stores the data in the storage device 34.

記憶手段9は、画像部品の特徴情報を記憶する特徴情報記憶手段10と、画像部品を記憶する画像部品記憶手段11と、画像部品の表面の情報(色情報やパターン情報)を記憶する表面情報記憶手段12と、画像部品を合成して作成した基準画像データを記憶する合成画像記憶手段13と、デジタルカメラ等の撮像装置で撮像した画像データやダウンロード等して保存した画像データ、その他の検索対象となる画像データを記憶する画像データ記憶手段14とからなる。   The storage unit 9 includes a feature information storage unit 10 that stores image component feature information, an image component storage unit 11 that stores image components, and surface information that stores surface information (color information and pattern information) of the image components. Storage means 12, composite image storage means 13 for storing reference image data created by combining image components, image data captured by an imaging device such as a digital camera, image data saved by downloading, and other searches The image data storage unit 14 stores target image data.

ここで特徴情報とは、画像部品の形状や配置等を指定する情報であり、例えば画像部品の種別を表す名称情報、画像部品の点列情報又はその情報を格納するアドレスである形状情報、画像部品の表面の質感情報(色情報やパターン情報)である表面情報、画像部品間の前後関係や距離を数値化した前後関係距離情報、画像部品の輪郭のぼかし度合いを示す輪郭強度情報、画像部品間の配置規則を示す配置情報、画像部品の色相の修正を行う色相補正情報などがある。特徴情報のデータ構造の一例を図3に示す。   Here, the feature information is information for designating the shape and arrangement of the image component. For example, name information indicating the type of the image component, point sequence information of the image component, or shape information that is an address for storing the information, an image Surface information, which is texture information (color information and pattern information) on the surface of the part, front-rear distance information obtained by quantifying the front-rear relation and distance between image parts, contour strength information indicating the degree of blurring of the contour of the image part, image part Arrangement information indicating an arrangement rule between them, hue correction information for correcting the hue of an image component, and the like. An example of the data structure of the feature information is shown in FIG.

名称とは、目的画像データに含まれるイメージに関する情報であり、例えば、「海」、「山」、「空」等の風景や背景に用いられる名称、「人」、「動物」、「車」等の物体を示す名称がある。この名称は、図4(a)及び図4(b)に示すように、各々階層構造を有していると良い。   The name is information related to the image included in the target image data. For example, names used for landscapes and backgrounds such as “sea”, “mountain”, “sky”, “people”, “animals”, “cars”. There are names indicating objects such as. As shown in FIGS. 4A and 4B, the names preferably have a hierarchical structure.

図4(a)では、最上位の名称として「風景」、その下位の名称として「山」、「海」等、「山」の下位の名称として「富士山」、「岩山」、「雪山」等、「富士山」の下位の名称として「正面」、「上面」、「岩山」の下位の名称として「急な山」、「緩やかな山」、「雪山」の下位の名称として「急な山」、「緩やかな山」という名称がある。   In FIG. 4A, “Scenery” as the highest name, “Mountain”, “Sea”, etc. as lower names, “Fuji”, “Iwayama”, “Snowy Mountain”, etc. as lower names of “Mountain”. , “Front”, “Top”, “Steep Mountain”, “Sloppy Mountain”, “Sudden Mountain” as the subordinate name of “Snow Mountain”. , There is a name of "gentle mountain".

図4(b)では、最上位の名称として「人物」、その下位の名称として「男」、「女」、「男」の下位の名称として「顔」、「上半身」、「全身」、「顔」の下位の名称として「正面」、「側面」、「上半身」の下位の名称として「正面」、「側面」、「正面」の下位の名称として「黒い服」、「白い服」、「全身」の下位の名称として「立ち止まり」、「歩き」、「歩き」の下位の名称として「黒い服」、「白い服」、「青い服」という名称がある。   In FIG. 4B, “person” is the highest name, “male” and “woman” are the lower names, and “face”, “upper body”, “whole body”, “women” are the lower names of “male”. The lower names of “face” are “front”, “side”, “lower” of “upper body”, “front”, “side”, “black”, “white”, “ Subordinate names of “whole body” are “stop”, “walking”, and subordinate names of “walking” are “black clothes”, “white clothes”, and “blue clothes”.

画像部品とは、基準画像データを合成する為に予め画像部品記憶手段11に記憶している、基準画像データを構成する要素(オブジェクト)からなる画像である。例えば画像部品の一例としては、「山」、「空」、「川」、「海」、「木」、「人物」、「動物」などがある。この画像部品は、特徴情報に於ける名称情報に関連づけられており、名称情報に対応する画像部品のデータが各々設けられている。例えば図4(a)の例では、「正面からの富士山」、「上面からの富士山」、「急な岩山」、「緩やかな岩山」、「急な雪山」、「緩やかな雪山」等の画像部品が画像部品記憶手段11に記憶されており、図4(b)の例では、「男の顔の正面」、「男の顔の側面」、「男の上半身の正面で黒い服を着ている」、「男の上半身の正面で白い服を着ている」、「男の上半身の側面」、「男の全身の立ち止まり」、「男の全身の黒い服で歩いている」、「男の全身の白い服で歩いている」、「男の全身の青い服で歩いている」等の画像部品が画像部品記憶手段11に記憶されている。   An image component is an image made up of elements (objects) constituting reference image data, which are stored in advance in the image component storage means 11 in order to synthesize reference image data. For example, examples of image parts include “mountain”, “sky”, “river”, “sea”, “tree”, “person”, “animal”, and the like. This image part is associated with name information in the feature information, and data of the image part corresponding to the name information is provided. For example, in the example of FIG. 4A, images of “Mount Fuji from the front”, “Mount Fuji from the top”, “Steep rocky mountain”, “Slow rocky mountain”, “Steep snowy mountain”, “Slow snowy mountain”, etc. The parts are stored in the image parts storage means 11, and in the example of FIG. 4 (b), “the front of the man's face”, “the side of the man's face”, “the front of the upper body of the man wearing black clothes "While wearing white clothes in front of the upper body of the man", "Side of the upper body of the man", "Stopping the whole body of the man", "Walking in black clothes of the whole body of the man", " Image parts such as “Walking in white clothes of the whole body” and “Walking in blue clothes of the whole body of the man” are stored in the image parts storage means 11.

画像部品の一例を図5に示す。図5(a)は「空」の画像部品の一例であり、図5(b)は「山」の画像部品の一例であり、図5(c)は「木」の画像部品の一例である。   An example of the image component is shown in FIG. FIG. 5A is an example of an “empty” image part, FIG. 5B is an example of an “mountain” image part, and FIG. 5C is an example of an “tree” image part. .

画像部品は、そのデータ量を小さくする為に、点列情報(画像部品の輪郭のみのデータ)であると良いが、これに限定するものではない。例えば1つの画像部品の画像サイズが幅640ピクセル、高さ480ピクセルの場合、特許文献1に開示されている発明を用いた場合では、そのデータ量は640×480×3=921,600バイトのデータ量を必要とする。これに対し、本発明で好ましく利用する点列情報の一例を挙げると、データの構造体に7項目×4=28バイト、点列情報が平均500点として(画像部品の輪郭を平均500点で示せたとするならば)、500×2×4=4,000バイトのデータ量で済む(1点の座標を示す為にx軸とy軸の情報が必要であり、各軸に対して4バイト単位で情報が表現される為)。   The image component may be point sequence information (data of only the contour of the image component) in order to reduce the data amount, but is not limited thereto. For example, when the image size of one image component is 640 pixels wide and 480 pixels high, when using the invention disclosed in Patent Document 1, the amount of data is 640 × 480 × 3 = 921,600 bytes. Requires a large amount of data. In contrast, an example of the point sequence information preferably used in the present invention is 7 items × 4 = 28 bytes in the data structure, the point sequence information is an average of 500 points (the contour of the image component is an average of 500 points). If necessary, 500 × 2 × 4 = 4,000 bytes of data is sufficient (x-axis and y-axis information is required to indicate one point of coordinates, and 4 bytes for each axis. Because information is expressed in units).

図6に画像部品記憶手段11の概念図を示す。図6では、画像部品の名称情報に、各形状情報が対応付けられており、その場合の点列の情報が更に対応付けられている。従って、図6の場合、名称「夕焼け空」に対応する形状情報としてsora01、sora02、sora03の3種類があり、各々形状情報に於ける点列情報が記憶されている。   FIG. 6 shows a conceptual diagram of the image component storage means 11. In FIG. 6, each piece of shape information is associated with the name information of the image component, and the information of the point sequence in this case is further associated. Accordingly, in the case of FIG. 6, there are three types of shape information corresponding to the name “sunset sky”, sora01, sora02, and sora03, and point sequence information in the shape information is stored.

特徴情報に於ける前後関係距離情報とは、画像部品間の重ね合わせの順序関係を示す情報である。重ね合わせの順序は、形状の小さいものほど前側に配置することが好ましい。例えば「鳥」の画像部品と「空」の画像部品とがあった場合、「鳥」の画像部品の前後関係距離情報は、「空」の画像部品の前後関係距離情報よりも小さい値で設定されている。又、「空」のように遠景であるほど、前後関係距離情報は大きい値となり、「木」や「人」のような物体は近景であることから、前後関係距離情報は小さい値となる。   The front-rear distance information in the feature information is information indicating the order relationship of the overlapping between image parts. The order of superposition is preferably arranged on the front side as the shape becomes smaller. For example, if there are “bird” image parts and “sky” image parts, the distance information of the “bird” image parts is set to a smaller value than the distance information of the “sky” image parts. Has been. Further, the farther the background is like “sky”, the larger the front-rear distance information becomes, and the objects such as “trees” and “people” are closer, so the front-rear distance information becomes smaller.

名称入力受付手段2は、基準画像データを作成する為の、当該基準画像データを構成する画像部品の名称の入力を、キーボードやマウス等の入力装置32から受け付ける手段である。この名称は複数入力が可能であると良い。尚、通信装置35により、インターネット等のネットワークを介して入力を受け付けても良い。   The name input accepting unit 2 is a unit that accepts input of names of image components constituting the reference image data from the input device 32 such as a keyboard and a mouse for creating the reference image data. It is preferable that a plurality of names can be input. The communication device 35 may accept input via a network such as the Internet.

特徴情報抽出手段3は、名称入力受付手段2で入力を受け付けた名称に基づいて、その名称に対応する特徴情報を、特徴情報記憶手段10から抽出する手段である。   The feature information extraction unit 3 is a unit that extracts feature information corresponding to the name from the feature information storage unit 10 based on the name received by the name input reception unit 2.

画像部品抽出手段4は、特徴情報抽出手段3で抽出した特徴情報に基づいて、その対応する画像部品を、画像部品記憶手段11から抽出する手段である。   The image component extraction unit 4 is a unit that extracts the corresponding image component from the image component storage unit 11 based on the feature information extracted by the feature information extraction unit 3.

画像合成手段5は、画像部品抽出手段4で選択した画像部品を合成して基準画像データを作成する手段である。作成した基準画像データは、合成画像記憶手段13に記憶する。基準画像データを合成して作成する際に、画像部品の点列情報からなる輪郭の内部あるいは外部に着色やパターンを付与しても良い。   The image synthesizing means 5 is means for synthesizing the image parts selected by the image parts extracting means 4 to create reference image data. The created reference image data is stored in the composite image storage unit 13. When the reference image data is synthesized and created, coloring or a pattern may be given inside or outside the contour formed by the point sequence information of the image parts.

表示手段8は、画像合成手段5で合成して作成した基準画像データを、コンピュータ端末30のディスプレイである表示装置33に表示する手段である。画像合成手段5で作成した基準画像データが複数ある場合には、一覧表示や順次表示でその全てを表示できるようにしても良いし、予め定められた基準に基づいて順位付けをした後に、その順位が高いものから順次表示する等、各種の表示形態を取ることが出来る。又、本発明に於いては、表示された基準画像データをユーザが修正できるようにしても良い。尚、同一のコンピュータ端末30の表示装置33で表示する他、通信装置35により、インターネット等のネットワークを介して、他のコンピュータ端末30の表示装置33で表示をしても良い。   The display unit 8 is a unit that displays the reference image data generated by combining by the image combining unit 5 on the display device 33 that is a display of the computer terminal 30. When there are a plurality of reference image data created by the image synthesizing means 5, all of them may be displayed in a list display or a sequential display, or after ranking based on a predetermined reference, Various display forms can be taken, such as displaying sequentially from the highest ranking. In the present invention, the displayed reference image data may be corrected by the user. In addition to displaying on the display device 33 of the same computer terminal 30, the communication device 35 may display on the display device 33 of another computer terminal 30 via a network such as the Internet.

合成画像選択受付手段6は、画像合成手段5が作成して、表示手段8が表示装置33に表示した基準画像データの中から、ユーザが目的画像に最も類似すると考える基準画像データを、キーボードやマウス等の入力装置32により選択したことの情報を受信し、その情報に基づき、ユーザが選択した基準画像データを画像検索手段7に送信する手段である。   The composite image selection accepting unit 6 generates reference image data that the user thinks is most similar to the target image from among the reference image data created by the image composition unit 5 and displayed on the display device 33 by the display unit 8. It is means for receiving information of selection by the input device 32 such as a mouse and transmitting the reference image data selected by the user to the image search means 7 based on the information.

画像検索手段7は、合成画像選択受付手段6から受信した基準画像データに基づいて、画像データ記憶手段14に記憶した検索対象となる画像データとの間で類似検索を実行し、目的画像データを検索して抽出する手段である。ここで抽出した目的画像データは、表示手段8に送信し、表示手段8が表示装置33を介して表示する。画像検索手段7は、目的画像データを抽出する際に、最も類似度の高い一つの画像データを目的画像データとして抽出しても良いし、類似度の高い順に複数の画像データを目的画像データとして抽出しても良い。又、基準画像データに基づく目的画像データの検索は、従来のような様々な方法をとることが出来、上述の特許文献1、特許文献2、非特許文献1を用いることも出来る。更に本発明に於いては、従来の類似画像検索のいずれの手法に於いても有効に応用することが出来る。   Based on the reference image data received from the composite image selection accepting unit 6, the image search unit 7 executes a similarity search with the image data to be searched stored in the image data storage unit 14 and obtains target image data. It is a means for searching and extracting. The target image data extracted here is transmitted to the display unit 8, and the display unit 8 displays it via the display device 33. When extracting the target image data, the image search means 7 may extract one image data having the highest similarity as the target image data, or a plurality of image data as the target image data in descending order of similarity. It may be extracted. In addition, the retrieval of the target image data based on the reference image data can take various conventional methods, and the above-mentioned Patent Document 1, Patent Document 2, and Non-Patent Document 1 can also be used. Furthermore, the present invention can be effectively applied to any conventional technique for retrieving similar images.

次に、本発明の画像検索システム1の処理プロセスの一例を図2のフローチャート、図1のシステム構成図を用いて説明する。   Next, an example of the processing process of the image search system 1 of the present invention will be described with reference to the flowchart of FIG. 2 and the system configuration diagram of FIG.

画像検索システム1は、ユーザが検索対象として想定する目的画像データの検索を行う為に、その検索画面を表示手段8が表示装置33を介して表示する。検索画面の一例を図7に示す。この検索画面から、ユーザが目的画像データの特徴であると認識する画像部品の名称の入力を行うことで、その名称に対応付けられた画像部品に基づいて画像検索システム1が基準画像データを合成して作成し、その中からユーザが目的画像データに最も類似していると考える基準画像データを選択し、それに基づいて目的画像データの画像検索処理を実行する。   In the image search system 1, the search unit 8 displays the search screen via the display device 33 in order to search for target image data assumed as a search target by the user. An example of the search screen is shown in FIG. By inputting the name of the image component that the user recognizes as a feature of the target image data from the search screen, the image search system 1 combines the reference image data based on the image component associated with the name. The reference image data that the user considers to be most similar to the target image data is selected from the generated image data, and the image search process of the target image data is executed based on the reference image data.

本実施例に於いては、ユーザは「夕焼け空に富士山と木がある画像」を目的画像データとして検索したい場合を説明する。このような場合、目的画像データとして、「夕焼け空」、「富士山」、「木」が特徴であると考えられるので、これらを名称として検索画面の名称入力欄20に、キーボードやマウス等の入力装置32から行う(S100)。この入力は、名称入力受付手段2で受け付ける。   In this embodiment, a case where the user wants to search for “image with Mount Fuji and trees in the sunset sky” as target image data will be described. In such a case, it is considered that “sunset sky”, “Mt. Fuji”, and “tree” are characteristic as the target image data, and these are used as names to input in the name input field 20 of the search screen, such as a keyboard or a mouse. This is performed from the device 32 (S100). This input is received by the name input receiving means 2.

尚、この名称入力は、名称入力欄20からプルダウンメニュー等によって選択される形式で入力されると、入力された名称とその特徴情報との対応付けが必ず行えるので、プルダウンメニュー等の選択形式による入力が好適である。しかしこの場合、予めこれらの対応付けが行われている必要があるので、それ以外の方式、例えばテキスト入力を用いても良い。   It should be noted that this name input can be made by associating the input name with its feature information if it is input from the name input field 20 using a pull-down menu or the like. Input is preferred. However, in this case, since it is necessary to associate these in advance, other methods such as text input may be used.

ユーザが検索画面の名称入力欄20に名称として、「夕焼け空」、「富士山」、「木」を入力した場合を図8に示す。   FIG. 8 shows a case where the user inputs “sunset sky”, “Mt. Fuji”, and “Thu” as names in the name input field 20 on the search screen.

名称入力受付手段2で入力を受け付けた名称に基づいて、特徴情報抽出手段3が、当該名称に対応する特徴情報を特徴情報記憶手段10から抽出する(S110)。ここでは名称が「夕焼け空」、「富士山」、「木」であるので、それら名称に対応する特徴情報を特徴情報記憶手段10から抽出することとなる。   Based on the name received by the name input accepting means 2, the feature information extracting means 3 extracts feature information corresponding to the name from the feature information storage means 10 (S110). Here, since the names are “sunset sky”, “Mt. Fuji”, and “tree”, the feature information corresponding to these names is extracted from the feature information storage means 10.

特徴情報記憶手段10が図3に示す特徴情報を記憶している場合、名称「夕焼け空」に対応する特徴情報のうち、形状情報を画像部品記憶手段11(図6)の当該名称「夕焼け空」に対応する形状情報(ファイル名としてsora01、sora02、sora03)の所在地(アドレスやファイル名等)、表面情報として「夕焼け空」の質感情報、前後関係距離情報として「10000」、輪郭強度情報として「16」、配置情報として「指定なし」(即ち、画像の枠内に全て配置)、色相補正情報として「RED+10」(RGB値のうち、赤色を10加算する)を抽出する。尚、ここで色相補正情報として「RED+10」としているのは、「夕焼け空」の状況では全体として赤みがかることが多いことから、RGB値のうち、赤色に10を加算することで、赤みのある画像部品としている。   When the feature information storage unit 10 stores the feature information shown in FIG. 3, among the feature information corresponding to the name “sunset sky”, the shape information is stored in the image component storage unit 11 (FIG. 6) with the name “sunset sky”. ”Shape information (file names sora01, sora02, sora03), surface information“ sunset sky ”texture information, front-rear distance information“ 10000 ”, contour strength information “16”, “not specified” as the arrangement information (that is, all arrangement within the frame of the image), and “RED + 10” (adding 10 of red among the RGB values) are extracted as the hue correction information. Note that “RED + 10” is used as the hue correction information here, because in the situation of “sunset sky”, the overall color is often reddish. Therefore, by adding 10 to red among the RGB values, redness is obtained. It has an image part.

名称「富士山」に対応する特徴情報のうち、形状情報を画像部品記憶手段11(図6)の当該名称「富士山」に対応する形状情報(ファイル名としてyama01、yama02、yama03)の所在地(アドレスやファイル名等)、表面情報として「森」の質感情報、前後関係距離情報として「5000」、輪郭強度情報として「22」、配置情報として「下面接続」(即ち、富士山は、画像の下辺に接している)、色相補正情報として「RED+10」を抽出する。同様に、名称「木」に対応する特徴情報のうち、形状情報を画像部品記憶手段11(図6)の当該名称「木」に対応する形状情報(ファイル名としてki01、ki02)の所在地(アドレスやファイル名等)、表面情報として「葉」の質感情報、前後関係距離情報として「10」、輪郭強度情報として「500」、配置情報として「自由配置」(即ち、画像内に自由に配置することが出来る)、色相補正情報として「RED+10」を抽出する。尚、「富士山」、「木」の色相補正情報として「RED+10」となっているのは、「夕焼け空」に色相補正情報が「RED+10」として指定されている為、それがこれらにも反映されているからである。従って、通常は色相補正情報がなく、選択された画像部品のうち、いずれかに色相補正情報が指定されている場合に、その色相補正情報をこれらの画像部品にも反映させることで、例えば「夕焼け空」のように全体として赤みがかった画像部品とすることが出来る。   Of the feature information corresponding to the name “Mt. Fuji”, the shape information is stored in the location (address or address) of the shape information (file names yama01, yama02, yama03) corresponding to the name “Mt. Fuji” in the image component storage means 11 (FIG. 6). File name, etc.), the texture information of “forest” as the surface information, “5000” as the front-rear distance information, “22” as the contour strength information, “bottom connection” as the arrangement information (that is, Mt. Fuji touches the lower side of the image) "RED + 10" is extracted as the hue correction information. Similarly, of the feature information corresponding to the name “tree”, the shape information is the location (address) of the shape information (file names ki01, ki02) corresponding to the name “tree” in the image component storage unit 11 (FIG. 6). And file name, etc.), “leaf” texture information as surface information, “10” as front-rear distance information, “500” as contour strength information, and “free placement” as placement information (that is, freely placed in the image) "RED + 10" is extracted as the hue correction information. Note that the hue correction information for “Mount Fuji” and “Thu” is “RED + 10” because the hue correction information for “Sunset Sky” is specified as “RED + 10”. It is because it is reflected in. Accordingly, when there is usually no hue correction information and hue correction information is specified for any of the selected image parts, the hue correction information is also reflected in these image parts. It can be a reddish image part as a whole, such as “Sunset sky”.

このようにして特徴情報を抽出後、特徴情報に於ける形状情報の所在地に基づいて画像部品抽出手段4が、画像部品記憶手段11から画像部品を抽出する(S120)。上述の場合、名称「夕焼け空」に対応する形状情報の所在地がファイル名としてsora01、sora02、sora03であるので各ファイルとその点列情報を画像部品記憶手段11から抽出する。同様に、名称「富士山」に対応する形状情報の所在地がファイル名としてyama01、yama02、yama03であるので各ファイルとその点列情報を画像部品記憶手段11から抽出し、名称「木」に対応する形状情報の所在地がファイル名としてki01、ki02であるので各ファイルとその点列情報を画像部品記憶手段11から抽出する。   After extracting the feature information in this way, the image component extraction unit 4 extracts the image component from the image component storage unit 11 based on the location of the shape information in the feature information (S120). In the above case, since the location of the shape information corresponding to the name “sunset sky” is sora01, sora02, and sora03 as file names, each file and its point sequence information are extracted from the image component storage means 11. Similarly, since the location of the shape information corresponding to the name “Mt. Fuji” is yama01, yama02, and yama03 as file names, each file and its point sequence information are extracted from the image component storage means 11 and correspond to the name “tree”. Since the location of the shape information is ki01, ki02 as file names, each file and its point sequence information are extracted from the image component storage means 11.

このようにして画像部品を抽出後、これらに基づいて基準画像データを作成する為の画像合成処理を画像合成手段5が行う(S130)。この際に点列情報からなる画像部品に着色を施す為に、特徴情報に於ける表面情報を参照することにより、各画像部品に対して着色処理を施しても良い。例えば、名称「夕焼け空」の画像部品の特徴情報に於ける表面情報は「夕焼け空」であるので、それに対応する色で着色し、名称「富士山」の画像部品の特徴情報に於ける表面情報は「森」であるので、それに対応する色で着色し、名称「木」の画像部品の特徴情報に於ける表面情報は「葉」であるので、それに対応する色で着色する。表面情報は、画像部品の色の情報であるので、それに対応する色のコード(例えばRGB値で指定される色のコード)を直接指定しても良いし、本実施例のように「夕焼け空」、「森」、「葉」などのようにその概念を指定しておいても良い。この場合、「夕焼け空」、「森」、「葉」などのような概念では具体的な色を指定していないので、表面情報記憶手段12を参照することで、「夕焼け空」、「森」、「葉」に対応する色のコードを抽出して、当該色で着色を施す。図10に表面情報記憶手段12の概念図を示す。このように特徴情報に於ける表面情報として「夕焼け空」とあるので、それに対応する色のコード(RGB値)を表面情報記憶手段12から抽出し、それで着色をする。   After extracting the image parts in this way, the image composition means 5 performs an image composition process for creating reference image data based on the extracted image parts (S130). At this time, in order to color the image component composed of the point sequence information, each image component may be colored by referring to the surface information in the feature information. For example, since the surface information in the feature information of the image component with the name “Sunset Sky” is “Sunset Sky”, it is colored with the corresponding color, and the surface information in the feature information of the image component with the name “Mt. Fuji” Since it is “forest”, it is colored with a color corresponding to it, and since the surface information in the feature information of the image component with the name “tree” is “leaf”, it is colored with a color corresponding to it. Since the surface information is information on the color of the image component, a corresponding color code (for example, a color code specified by an RGB value) may be directly specified, or “sunset sky” as in this embodiment. ”,“ Forest ”,“ leaves ”, etc., may be designated. In this case, since a specific color is not specified in concepts such as “sunset sky”, “forest”, “leaf”, etc., by referring to the surface information storage means 12, “sunset sky”, “forest” The code of the color corresponding to “leaf” is extracted and colored with the color. FIG. 10 shows a conceptual diagram of the surface information storage means 12. Since the surface information in the feature information is “sunset sky” as described above, the corresponding color code (RGB value) is extracted from the surface information storage means 12 and colored.

尚、表面情報記憶手段12には、色のコードの他、着色パターン(網目など)を併せて記憶しておいても良い。この場合には、当該色コードに対応する色が、その着色パターンにより、画像部品に着色される。   The surface information storage unit 12 may store a color pattern (such as a mesh) in addition to the color code. In this case, the color corresponding to the color code is colored on the image component by the coloring pattern.

更に、特徴情報に於ける色相補正情報に基づいて、着色した画像部品について、更にその色を補正処理しても良い。図3の場合では、「夕焼け空」、「富士山」、「木」のいずれも色相補正情報として「RED+10」であるので、画像部品に着色した色から更に、RGB値でRed(赤色)の値に10加算した色で着色を施すことも出来る。このように色相補正をすることによって、夕焼け空の状態の画像部品として演出することが出来る。   Further, the color of the colored image component may be further corrected based on the hue correction information in the feature information. In the case of FIG. 3, since “Sunset Sky”, “Mt. Fuji”, and “Thu” are all “RED + 10” as the hue correction information, the RGB color value of the image component is further changed to Red (red). Coloring can also be performed by adding 10 to the value of. By correcting the hue in this way, it can be produced as an image component in the sunset sky state.

又、特徴情報に於ける輪郭強度情報に基づいて、画像部品の輪郭の明瞭さ(輪郭強度)を修正する修正処理を行っても良い。図3の場合、「夕焼け空」の輪郭強度が16、「富士山」の輪郭強度が22、「木」の輪郭強度が500であるので、各々その輪郭強度で画像部品の輪郭に明瞭さを施す。輪郭強度の数値が大きいほど、その輪郭は明瞭であるので、上述の場合では「木」の輪郭が最も明瞭となり、次に「富士山」、最後に「夕焼け空」の順番で明瞭な輪郭となる。   Further, based on the contour strength information in the feature information, a correction process for correcting the clarity (contour strength) of the contour of the image component may be performed. In the case of FIG. 3, the contour intensity of “sunset sky” is 16, the contour intensity of “Mt. Fuji” is 22, and the contour intensity of “tree” is 500. . The larger the contour strength value, the clearer the contour. In the above case, the “tree” contour is the clearest, followed by “Mt. Fuji” and finally “sunset sky”. .

以上のように選択された(場合によっては着色・パターンが付与された)画像部品に対して、画像合成手段5が画像合成処理を行う。画像合成処理は、S120で抽出した画像合成部品同士、全ての組合せの合成処理を実行するが、本実施例では、名称「夕焼け空」、名称「富士山」、名称「木」の一つの組合せの合成処理を説明する。同様に他の組合せでも合成処理が実現できるからである。本実施例で説明する画像部品の一つの組合せが図11であるとする。図11(a)は名称「夕焼け空」の画像部品の一つであり、図11(b)は名称「富士山」の画像部品の一つであり、図11(c)は名称「木」の画像部品の一つである。   The image synthesizing unit 5 performs an image synthesizing process on the image component selected as described above (colored / patterned in some cases). In the image composition processing, the composition processing of all combinations of the image composition parts extracted in S120 is executed. In this embodiment, one combination of the name “sunset sky”, the name “Mt. Fuji”, and the name “tree” is used. The synthesis process will be described. This is because the combination processing can be realized with other combinations as well. Assume that one combination of image components described in this embodiment is shown in FIG. FIG. 11A shows one of the image parts with the name “Sunset Sky”, FIG. 11B shows one of the image parts with the name “Mt. Fuji”, and FIG. 11C shows the name “Thu”. One of the image parts.

画像合成処理の処理プロセスを図9のフローチャートを用いて説明する。まず、各画像部品を合成する際には、特徴情報の前後関係距離情報に基づいて、遠くの画像部品(前後関係距離情報の数値の大きな画像部品)から合成を行う。その為、前後関係距離情報に基づいて並べ替えを行う(S200)。そうすると、ここでは「夕焼け空」の前後関係距離情報が「10000」、「富士山」の前後関係距離情報が「5000」、「木」の前後関係距離情報が「10」なので、「夕焼け空」、「富士山」、「木」の順番に遠景から並べられ、順序づけられる。   A processing process of the image composition processing will be described with reference to a flowchart of FIG. First, when composing each image component, composition is performed from a distant image component (an image component having a large numerical value of the front-rear distance information) based on the front-rear distance information of the feature information. Therefore, rearrangement is performed based on the front-rear distance information (S200). Then, since the distance information about the “sunset sky” is “10000”, the distance information about “Mt. Fuji” is “5000”, and the distance information about the “tree” is “10”, the “sunset sky” They are arranged from the distant view in the order of “Mt. Fuji” and “Thu”.

最初は全部の画像部品が未処理なので(S210)、最初に「夕焼け空」(画像部品1)と「富士山」(画像部品2)とを合成する処理を行う為に、「夕焼け空」と「富士山」の画像部品を選択する(S220)。   Since all image parts are unprocessed at first (S210), in order to perform a process of combining “sunset sky” (image part 1) and “Mt. Fuji” (image part 2), “sunset sky” and “ The image component “Mt. Fuji” is selected (S220).

そして、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))の輪郭情報の外側をマスク領域として設定する(S230)。この状態の画像部品「富士山」を図12(a)に示す。   Then, the outside of the contour information of the selected image component having the smaller front-rear distance information (here, “Mt. Fuji” (image component 2)) is set as a mask region (S230). The image component “Mt. Fuji” in this state is shown in FIG.

そして、当該マスク領域に、選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「夕焼け空」(画像部品1))を合成する(S240)。従って、マスク領域として設定された「富士山」に「夕焼け空」が合成される。この状態を図12(b)に示す。   Then, an image component (here, “sunset sky” (image component 1)) having large front-rear distance information among the selected image components is synthesized in the mask area (S240). Therefore, “sunset sky” is combined with “Mt. Fuji” set as the mask area. This state is shown in FIG.

S240の合成後の画像部品に対して、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))の輪郭情報の内側をマスク領域として設定する(S250)。この状態を図12(c)に示す。   For the image component after combining in S240, the inside of the contour information of the image component (here, “Mt. Fuji” (image component 2)) having a small front-rear distance information among the selected image components is set as a mask region ( S250). This state is shown in FIG.

当該マスク領域に、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))を合成する(S260)。従って、マスク領域として設定された「富士山」に「富士山」を合成する。この状態を図12(d)に示す。   Among the selected image components, an image component having a small front-rear distance information (here “Mt. Fuji” (image component 2)) is synthesized in the mask area (S260). Therefore, “Mt. Fuji” is combined with “Mt. Fuji” set as the mask area. This state is shown in FIG.

選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「夕焼け空」(画像部品1))を、合成済みに設定する(S270)。そして選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))を合成後の画像で更新する(S280)。このような処理をすることによって、画像部品「富士山」に画像部品「夕焼け空」が合成されることとなる。   Among the selected image components, an image component having a large contextual distance information (here, “sunset sky” (image component 1)) is set as synthesized (S270). Then, among the selected image components, an image component having a small front-rear distance information (here, “Mt. Fuji” (image component 2)) is updated with the synthesized image (S280). By performing such processing, the image component “sunset sky” is combined with the image component “Mt. Fuji”.

次に、未処理の画像部品として「富士山」と「木」の2つが残っているので、再度S220以降を反復する。   Next, since “Mt. Fuji” and “Thu” remain as unprocessed image parts, S220 and subsequent steps are repeated.

そうすると、ここでは未処理の画像部品(「富士山」と「木」)のうち前後関係距離情報の大きい2つの画像部品(2つしかないので「富士山」と「木」)を選択する(S220)。   Then, here, two unprocessed image parts ("Mt. Fuji" and "Thu") are selected as two image parts with large distance information ("Mt. Fuji" and "Thu") because there are only two (S220). .

そして選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))の輪郭情報の外側をマスク領域として設定する(S230)。この状態の画像部品「木」を図12(e)に示す。   Of the selected image components, the outside of the contour information of the image component (here “tree” (image component 3)) having a small context distance information is set as a mask region (S230). The image component “tree” in this state is shown in FIG.

そして、当該マスク領域に、選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「富士山」(画像部品2))を合成する(S240)。従って、マスク領域として設定された「木」に「富士山」が合成される。この状態を図12(f)に示す。   Then, an image component (here, “Mt. Fuji” (image component 2)) having a large front-rear distance information among the selected image components is synthesized in the mask area (S240). Therefore, “Mt. Fuji” is combined with “tree” set as the mask area. This state is shown in FIG.

S240の合成後の画像部品に対して、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))の輪郭情報の内側をマスク領域として設定する(S250)。この状態を図12(g)に示す。   Among the selected image components, the inside of the contour information of the image component having a small front-rear distance information (here, “tree” (image component 3)) is set as a mask area for the image component after the synthesis in S240 ( S250). This state is shown in FIG.

当該マスク領域に、選択した画像部品のうち、前後関係距離情報の小さな画像部品(ここでは「木」(画像部品3))を合成する(S260)。従って、マスク領域として設定された「木」に「木」を合成する。この状態を図12(h)に示す。   Of the selected image components, an image component having a small front-rear distance information (here, “tree” (image component 3)) is synthesized in the mask area (S260). Therefore, “tree” is combined with “tree” set as the mask area. This state is shown in FIG.

選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「富士山」(画像部品2))を、合成済みに設定する(S270)。そして、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))を合成後の画像で更新する(S280)。このような処理をすることによって、画像部品「木」に画像部品「富士山」が合成されることとなる。   Among the selected image components, an image component having a large front-rear distance information (here, “Mt. Fuji” (image component 2)) is set as synthesized (S270). Then, among the selected image components, an image component having a small contextual distance information (here “tree” (image component 3)) is updated with the synthesized image (S280). By performing such processing, the image component “Mt. Fuji” is combined with the image component “tree”.

このようにS220からS280の処理プロセスを反復した後、最も前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))に、他の画像部品(ここでは「夕焼け空」(画像部品1)と「富士山」(画像部品2))を合成したこととなる。そこで、合成後の画像部品(画像部品「木」)を、基準画像データとして合成画像記憶手段13に記憶する(S290)。記憶する基準画像データを図12(i)に示す。
After repeating the processing process from S220 to S280 in this way, the image component having the smallest contextual distance information (here “tree” (image component 3)) is replaced with another image component (here “sunset sky” (image The component 1) and “Mt. Fuji” (image component 2)) are synthesized. Therefore, the combined image component (image component “tree”) is stored in the combined image storage unit 13 as reference image data (S290). The reference image data to be stored is shown in FIG.

このような画像部品による基準画像データの合成処理を、各画像部品の組合せ毎に行う。又、同一の画像部品の組合せであっても、その特徴情報に於ける配置情報に基づく配置位置、各画像部品の構図に従って、複数通りの配置をすることが出来る。例えば、上述の例では、「木」を中央に配置しているが、「木」の配置情報は「自由配置」であるので、当該画像内に自由に配置できる。そこで、「木」を右方、或いは左方に配置した別の基準画像データを作成することも出来る。このように画像部品の配置は、S220からS280の処理プロセスに於いて、その配置情報を含めて複数通り、作成すると良い。このようにして作成された基準画像データの他の一例を図15に示す。
Reference image data combining processing using such image parts is performed for each combination of image parts. Further, even in the case of a combination of the same image parts, a plurality of arrangements can be made according to the arrangement position based on the arrangement information in the feature information and the composition of each image part. For example, in the above-described example, “tree” is arranged in the center. However, since the arrangement information of “tree” is “free arrangement”, it can be arranged freely in the image. Therefore, it is possible to create another reference image data in which “tree” is arranged on the right side or the left side. As described above, the arrangement of the image parts may be created in a plurality of ways including the arrangement information in the processing process from S220 to S280. Another example of the reference image data created in this way is shown in FIG.

又、画像合成手段5は、画像部品の合成を行う際に、画像部品を配置する構図を選択した後に、その構図に従って画像部品を合成しても良い。このような構図として図13に示すような5つの構図がある。図13(a)は画像を縦及び横で3分割し、その各位置に物体(前景)(物体か背景かは、前後関係距離情報に基づき所定値以上を背景、所定値以下を物体とすることして判定できる)となる画像部品(上述の例では画像部品「木」)を配置する三分割構図、図13(b)は物体の画像部品を斜線に沿って配置する斜線構図、図13(c)は物体の画像部品をS字上に配置するS字構図、図13(d)は画像の中心に物体の画像部品を配置する日の丸構図、図13(e)は物体の画像部品を三角形の頂点上に配置する三角構図などがある。   Further, when the image composition unit 5 performs composition of the image parts, after selecting the composition for arranging the image parts, the image composition may be composed according to the composition. As such a composition, there are five compositions as shown in FIG. In FIG. 13A, the image is divided into three parts vertically and horizontally, and each position has an object (foreground) (whether the object or the background is a background having a predetermined value or more based on the distance information, and an object having a predetermined value or less is the object The image component (image component “tree” in the above example) is arranged in a three-part composition. FIG. 13B is an oblique composition in which the image component of the object is arranged along the oblique line. c) is an S-shaped composition in which an image component of an object is arranged on an S-shape, FIG. 13D is a circle composition in which the image component of the object is arranged at the center of the image, and FIG. There is a triangular composition to be placed on the vertex.

構図を選択する処理プロセスの一例を図14のフローチャートに示す。まず、画像部品の特徴情報に於ける前後関係距離情報に基づき、各画像部品を物体(前景)と背景(遠景)に分け、その数量を確認する(S300)。物体と背景の判定は、上述のように、所定値以上の前後関係距離情報を有する画像部品を背景(遠景)とし、所定値以下の前後関係距離情報を有する画像部品を物体(前景)とする。例えば所定値が500の場合、本実施例では、「夕焼け空」と「富士山」が背景(遠景)となり、「木」が物体(前景)となる。そして画像部品の数量は3である。   An example of a processing process for selecting a composition is shown in the flowchart of FIG. First, based on the front-rear distance information in the feature information of the image parts, each image part is divided into an object (foreground) and a background (distant view), and the quantity is confirmed (S300). As described above, the object and the background are determined by using an image part having front-to-back distance information of a predetermined value or more as a background (distant view) and an image part having front-to-back distance information of a predetermined value or less as an object (foreground). . For example, when the predetermined value is 500, in this embodiment, “sunset sky” and “Mt. Fuji” are the background (distant view), and “tree” is the object (foreground). The number of image parts is 3.

次に、背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)を結ぶ線の平均傾斜角が40度以下の場合には(S310)、採用する構図として3分割構図であることを決定し、物体(前景)の画像部品(ここでは「木」)は3分割構図の水平線の上段から下段への順番で配置することを決定する(S320)。   Next, when the average inclination angle of the line connecting the point sequence (outline) is 40 degrees or less with respect to the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”) (S310), It is determined that the composition to be adopted is a three-part composition, and it is decided that the image parts (here “tree”) of the object (foreground) are arranged in the order from the top to the bottom of the horizontal line of the three-part composition (S320). ).

又、背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)を結ぶ線の平均傾斜角が60度以上の場合には(S330)、採用する構図として3分割構図であることを決定し、物体(前景)の画像部品(ここでは「木」)は3分割構図の垂直線の左、右、中央の順番で配置することを決定する(S340)。   Also, when the average inclination angle of the line connecting the point sequence (outline) is 60 degrees or more with respect to the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”), it is adopted (S330). It is determined that the composition to be divided is a three-part composition, and the image component (here “tree”) of the object (foreground) is arranged in the order of the left, right, and center of the vertical line of the three-part composition ( S340).

更に、背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)を結ぶ線の平均傾斜角が40度以上60度以下である場合には(S350)、採用する構図として斜線構図であることを決定し、物体(前景)の画像部品(ここでは「木」)は斜線の右上から左下方向(或いは左上から右下方向)に配置することを決定する(S360)。   Furthermore, when the average inclination angle of the line connecting the point sequence (contour) is 40 degrees or more and 60 degrees or less with respect to the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”) ( S350), it is determined that the composition to be adopted is a diagonal composition, and the image component (here “tree”) of the object (foreground) is arranged from the upper right to the lower left (or from the upper left to the lower right) of the diagonal. Determine (S360).

上述の平均傾斜角は、特に制限することなく、様々な手法を用いて算出することが可能である。例えば最小2乗法により平均直線を算出してその直線の角度を求めることにより平均傾斜角を算出する方法が挙げられる。他の方法としては、点列がn点ある場合、1つ目の点(1点目)を基準として、1点目−2点目の線の角度、1点目−3点目の線の角度、・・・、1点目−n点目の線の角度等の、各点を結ぶ線の角度の平均をとることにより平均傾斜角を算出する方法を用いることも出来る。   The average inclination angle described above can be calculated using various methods without any particular limitation. For example, there is a method of calculating an average inclination angle by calculating an average straight line by a least square method and obtaining an angle of the straight line. As another method, when there are n points in the point sequence, the angle of the first point-2 point line with respect to the first point (first point), and the first point-3 point line It is also possible to use a method of calculating the average inclination angle by taking the average of the angles of the lines connecting the points, such as the angles,.

背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)の作る面の幅が上端で画面幅の1/5以下であり、且つ点列(輪郭)の平均傾斜角が左右に30度以内で変化する場合には(S370)、採用する構図としてS字構図であることを決定し、物体(前景)の画像部品(ここでは「木」)はS字に沿って配置することを決定する(S380)。   For the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”), the width of the surface created by the dot sequence (outline) is 1/5 or less of the screen width at the top, and the dot sequence ( When the average inclination angle of the (contour) changes within 30 degrees to the left and right (S370), it is determined that the composition to be adopted is an S-shaped composition, and the image component of the object (foreground) (here "tree") Decides to arrange along the S-shape (S380).

更に、物体(前景)の画像部品の数量が1で、背景(遠景)の画像部品の構図が決定していない場合には(S390)、採用する構図として日の丸構図であることを決定し、物体(前景)の画像部品(ここでは「木」)を中心に配置することを決定する(S400)。   Furthermore, when the quantity of the image part of the object (foreground) is 1 and the composition of the image part of the background (distant view) has not been determined (S390), it is determined that the composition to be adopted is the Hinomaru composition, It is determined that the image component (here “tree”) in the (foreground) is arranged at the center (S400).

物体(前景)の画像部品の数量が3で、背景(遠景)の画像部品の構図が決定していない場合には(S410)、採用する構図として三角構図であることを決定し、物体(前景)の画像部品(ここでは「木」)を三角形上に配置することを決定する(S420)。   When the number of image parts of the object (foreground) is 3 and the composition of the image parts of the background (distant view) has not been determined (S410), it is determined that the composition to be adopted is a triangular composition, and the object (foreground) ) Is determined to be arranged on a triangle (S420).

又、物体(前景)の画像部品の数量が2以下で、背景(遠景)の画像部品の構図が決定している場合には(S430)、採用する構図として3分割構図も加え、物体(前景)の画像部品(ここでは「木」)を3分割構図の水平線及び垂直線の交点のうち、右下、左下の順番で配置することを決定する(S440)。   When the number of image parts of the object (foreground) is 2 or less and the composition of the image parts of the background (distant view) is determined (S430), a three-division composition is added as the composition to be adopted, and the object (foreground) is added. ) Image parts (here “tree”) are determined to be arranged in the order of the lower right and the lower left of the intersections of the horizontal and vertical lines of the three-part composition (S440).

以上のような処理プロセスを、画像合成手段5が画像合成処理の前に実行することで、画像部品を合成して基準画像データを作成する際の構図を決定し、その構図の配置に基づいて画像部品を合成することを決定することが出来る。このように事前に構図を決定する処理プロセスを設けることで、無秩序に合成するのではなく一定の秩序性を有した上での合成を行うことが出来、合成処理に要する時間を減らすことが可能となる。
The image synthesizing unit 5 executes the processing process as described above before the image synthesizing process, thereby determining the composition for synthesizing the image parts and creating the reference image data, and based on the arrangement of the composition. It is possible to decide to combine the image parts. By providing a processing process that determines the composition in advance in this way, it is possible to perform synthesis with a certain degree of order rather than disorderly synthesis, and it is possible to reduce the time required for synthesis processing It becomes.

尚、上述のような構図を決定する処理プロセスに於いては、採用する構図として一つに決定する必要はなく、複数の構図を採用することが出来る。更に、図14に示した構図の選択処理の処理プロセスは一例であり、これに限定されるものではなく、他の処理プロセスを用いることも出来る。   In the processing process for determining the composition as described above, it is not necessary to determine one composition to be adopted, and a plurality of compositions can be adopted. Furthermore, the processing process of the composition selection process shown in FIG. 14 is an example, and the present invention is not limited to this, and other processing processes can be used.

このような画像部品による基準画像データの合成処理を、特徴情報や各構図毎に行い(好適には複数回行い)、それらを基準画像データとする。そして、画像合成手段5は、合成画像記憶手段13に記憶した基準画像データを抽出し、表示手段8が表示装置33を介して、検索画面の基準画像データ表示欄21に表示する。図7及び図8に示す検索画面では、基準画像データ表示欄21は、7画像を表示できるようになっているが、それ以上或いはそれ以下であっても良い。又、基準画像データを表示する際には、一覧表示であっても良いし、所定の順位付けを行うことによってその順位の高いものから順次表示するようにしても良い。
Reference image data combining processing using such image parts is performed for each feature information and each composition (preferably a plurality of times), and these are used as reference image data. Then, the image synthesizing unit 5 extracts the reference image data stored in the synthesized image storage unit 13, and the display unit 8 displays the reference image data in the reference image data display column 21 of the search screen via the display device 33. In the search screens shown in FIGS. 7 and 8, the reference image data display column 21 can display seven images, but it may be more or less. Further, when displaying the reference image data, it may be a list display, or may be sequentially displayed from a higher priority by giving a predetermined ranking.

このようにして表示装置33に表示された基準画像データの中から、ユーザは、自らが検索対象とする目的画像データに最も類似すると考える基準画像データを、マウスやキーボード等の入力装置32により選択する(S140)。ここで入力装置32により選択された情報は、合成画像選択受付手段6で受信し、その情報に基づき、ユーザが選択した基準画像データを画像検索手段7に送信する。   From the reference image data displayed on the display device 33 in this way, the user selects, using the input device 32 such as a mouse or a keyboard, the reference image data considered to be most similar to the target image data to be searched for. (S140). Here, the information selected by the input device 32 is received by the composite image selection receiving means 6, and based on the information, the reference image data selected by the user is transmitted to the image search means 7.

画像検索手段7は、合成画像選択受付手段6から受信した、ユーザにより選択された基準画像データに基づいて、画像データ記憶手段14に記憶した検索対象となる画像データとの間で類似検索を実行し、目的画像データを検索して抽出する(S150)。選択された基準画像データと画像データ記憶手段14に記憶している画像データとの間の類似検索は、様々な従来の方法を用いることが出来る。ここで抽出した目的画像データは、表示手段8に送信し、表示手段8が表示装置33を介して表示する。この表示の際に、最も類似度の高い一つの画像データを目的画像データとして抽出しても良いし、類似度の高い順に複数の画像データを目的画像データとして抽出しても良い。   The image search means 7 executes a similarity search with the image data to be searched stored in the image data storage means 14 based on the reference image data selected by the user received from the composite image selection accepting means 6. Then, the target image data is searched and extracted (S150). The similarity search between the selected reference image data and the image data stored in the image data storage unit 14 can use various conventional methods. The target image data extracted here is transmitted to the display unit 8, and the display unit 8 displays it via the display device 33. At the time of this display, one image data with the highest similarity may be extracted as the target image data, or a plurality of image data may be extracted as the target image data in descending order of similarity.

以上のような処理プロセスを経ることによって、画像検索の目的となる目的画像データを検索することが出来る。又、従来とは異なり、画像部品に基づいて基準画像データを合成した際に、ユーザが目的画像データに最も類似する基準画像データを選択し、それに基づき目的画像データの検索を実行するので、精度が高い画像検索を行うことが出来る。更に、基準画像データを合成して作成する際の画像部品に点列情報を用い、基準画像データを合成する段階で特徴情報の質感情報(色情報やパターンの情報)に基づいて着色を施すことで、一つあたりの画像部品のデータ量を大幅に削減することが出来る。これによって、従来と同じ記憶容量しかない場合であっても、従来よりも多数の画像部品を画像部品記憶手段11に記憶することが出来、基準画像データを合成する際の組合せを飛躍的に増加させることが出来る。それによって、様々な基準画像データをユーザに提供できるので、特殊な目的画像データであったとしてもその基準画像データが作成される可能性が従来よりも高まる。   Through the processing process as described above, it is possible to search for target image data that is an object of image search. Unlike the conventional case, when the reference image data is synthesized based on the image parts, the user selects the reference image data that is most similar to the target image data, and the target image data is searched based on the selected reference image data. Can perform high image search. Further, point sequence information is used for image parts when combining and creating reference image data, and coloring is performed based on texture information (color information and pattern information) of feature information at the stage of combining reference image data. As a result, the data amount of each image component can be greatly reduced. As a result, even when the storage capacity is the same as the conventional one, a larger number of image parts can be stored in the image part storage means 11 than before, and the number of combinations when combining the reference image data is dramatically increased. It can be made. Thereby, since various reference image data can be provided to the user, the possibility that the reference image data is created even if it is special target image data is higher than before.

実施例1の画像検索システム1に於いて、基準画像データの合成処理を実行する際に、過去の合成履歴の情報に基づいて合成処理を実行しても良い。この場合の画像検索システム1のシステム構成の一例を図17に示す。
In the image search system 1 according to the first embodiment, when the reference image data combining process is executed, the combining process may be executed based on past combining history information. An example of the system configuration of the image search system 1 in this case is shown in FIG.

画像検索システム1は、実施例1のシステム構成に加え、更に合成履歴管理手段15と合成履歴記憶手段16とを有している。   In addition to the system configuration of the first embodiment, the image search system 1 further includes a synthesis history management unit 15 and a synthesis history storage unit 16.

合成履歴管理手段15は、画像合成手段5で合成して新たに作成した基準画像データの合成履歴を合成履歴記憶手段16に記憶し、又、画像合成手段5が新たに基準画像データの合成処理を実行する場合に、合成履歴記憶手段16に記憶する過去の合成履歴を抽出し、合成履歴管理手段15に送信する手段である。ここで合成履歴として記憶する情報は、どの画像部品を用いたか、採用した構図、画像部品の配置位置、着色、輪郭強度等の情報を合成履歴として記憶すると良い。
The composition history management means 15 stores the composition history of the reference image data newly synthesized by the image composition means 5 in the composition history storage means 16, and the image composition means 5 newly composes the reference image data. Is executed, the past synthesis history stored in the synthesis history storage unit 16 is extracted and transmitted to the synthesis history management unit 15. Here, as information to be stored as the composition history, information such as which image component is used, the adopted composition, the arrangement position of the image component, coloring, contour strength, and the like may be stored as the composition history.

合成履歴記憶手段16は、画像合成手段5で合成して作成した基準画像データの履歴を記憶する手段である。   The synthesis history storage unit 16 is a unit that stores the history of the reference image data created by the image synthesis unit 5.

本実施例に於ける画像合成手段5は、画像部品から基準画像データの合成処理を実行する前に、合成履歴管理手段15に過去に当該画像部品を用いた合成履歴があるか否かを問い合わせる。問い合わせを受けた合成履歴管理手段15は、合成履歴記憶手段16に当該画像部品による合成履歴があるか否かを照合し、ある場合にはその合成履歴を画像合成手段5に送信する。存在しない場合には、合成履歴がないことを画像合成手段5に送信する。この合成履歴を送信する場合には、どのような組合せ、構図等で合成処理を行ったか、各画像部品の位置関係、着色等を送信すると良い。   The image composition means 5 in this embodiment inquires of the composition history management means 15 whether or not there is a composition history using the image parts in the past before executing the composition processing of the reference image data from the image parts. . The composition history management means 15 that has received the inquiry collates whether or not the composition history storage means 16 has a composition history for the image component, and if so, transmits the composition history to the image composition means 5. If it does not exist, the fact that there is no composition history is transmitted to the image composition means 5. When transmitting this combination history, it is preferable to transmit what kind of combination, composition, etc. the combination processing has been performed, the positional relationship of each image component, coloring, and the like.

画像合成手段5は、合成履歴管理手段15から、過去に当該部品を用いた合成履歴があるか否かの問い合わせ結果を受信し、ある場合にはその合成履歴で基準画像データを合成処理する。そして実施例1のように新たな合成処理を行わないこととしても良い。一方、問い合わせ結果で、過去に合成履歴が存在しない場合には実施例1のように画像合成処理を実行する。即ちS130に於ける画像合成処理を実行することとなる。   The image composition means 5 receives from the composition history management means 15 an inquiry result as to whether or not there is a composition history using the component in the past, and if there is, composes the reference image data with the composition history. And it is good also as not performing a new synthetic | combination process like Example 1. FIG. On the other hand, if there is no composition history in the past as a result of the inquiry, image composition processing is executed as in the first embodiment. That is, the image composition process in S130 is executed.

このように合成履歴管理手段15及び合成履歴記憶手段16を、画像検索システム1に更に設けることによって、同様の目的画像データの検索を行う場合に、画像部品による基準画像データの合成処理の時間を少なくすることが出来、すぐに基準画像データを検索画面に表示手段8が表示装置33を介して表示することが出来る。   Thus, by providing the composition history management means 15 and the composition history storage means 16 in the image retrieval system 1, when searching for the same target image data, the time for the composition processing of the reference image data by the image parts is reduced. The display means 8 can immediately display the reference image data on the search screen via the display device 33.

実施例1及び実施例2に於いて、名称による検索情報の入力に加え、色彩による入力情報の修正を行うようにすることも出来る。即ち、画像部品毎に、或いは合成した基準画像データに対して、色彩の補正をするようにしても良い。この場合、例えば「RED+10」のように、画像に対して赤を濃いめに、のような色彩に関する情報の入力欄を検索画面に設け、その入力をできるようにする。このようにすることで、ユーザの意図や感覚をより適切に表現した基準画像データを作成することが出来る。このような構成とした場合、特徴情報に色相補正情報の欄を設けなくても良い。   In the first and second embodiments, in addition to the input of search information by name, the input information by color can be corrected. That is, color correction may be performed for each image component or for the synthesized reference image data. In this case, for example, “RED + 10” is provided on the search screen with an input field for information on colors such as darker red than the image so that the input can be performed. In this way, it is possible to create reference image data that more appropriately represents the user's intention and feeling. In such a configuration, the hue correction information column need not be provided in the feature information.

更に、名称による検索情報の入力に加え、任意の画像データ又は当該画像データから抜き出した画像データを新たな画像部品として用いることも出来る。即ち、コンピュータ端末30に備えられた記憶装置34や入力装置32、或いは通信装置35を介してネットワークからコンピュータ端末30に入力した画像データを、又は画像データから抜き出した画像データを選択し、画像部品として画像部品記憶手段11に記憶するようにしても良い。   Furthermore, in addition to inputting search information by name, arbitrary image data or image data extracted from the image data can be used as a new image component. That is, image data input to the computer terminal 30 from the network via the storage device 34, the input device 32, or the communication device 35 provided in the computer terminal 30 or image data extracted from the image data is selected, and an image component is selected. May be stored in the image component storage means 11.

更に、上述の画像データから画像データを抜き出す際には、画像データの中に存在している物体の形状の認識と選択を行う形状選択手段(図示せず)を別途設けることによって、例えば画像データ中に飛行機や自動車等の所望の物体が存在している場合、それらを指定することによって、形状選択手段(図示せず)が、自動的に当該画像データから当該物体を抜き出し、抜き出した物体の画像データを新たな画像部品として画像部品記憶手段11に記憶するように構成しても良い。   Further, when extracting the image data from the above-described image data, a shape selection means (not shown) for recognizing and selecting the shape of the object existing in the image data is provided separately, for example, the image data When there are desired objects such as airplanes and automobiles, the shape selection means (not shown) automatically extracts the object from the image data by specifying them, and the extracted object The image data may be stored in the image component storage unit 11 as a new image component.

本発明の画像検索システム1をコンピュータ端末30に於いて実現する画像検索プログラムも同様に実現できる。このような画像検索プログラムは、名称入力受付手段2を実現する機能(モジュールやプログラム。以下同様)、特徴情報抽出手段3を実現する機能、画像部品抽出手段4を実現する機能、画像合成手段5を実現する機能、合成画像選択受付手段6を実現する機能、画像検索手段7を実現する機能を少なくとも有しており、場合によっては記憶手段9に記憶する情報を有していても良い。この画像検索プログラムのうち、各機能がコンピュータ端末30の演算処理装置31に読み込まれることによって、各手段をコンピュータ端末30上で実現する。又、各記憶手段9は、その情報が記憶装置34に記憶される。   An image search program for realizing the image search system 1 of the present invention in the computer terminal 30 can be realized in the same manner. Such an image search program includes a function (module or program; the same applies hereinafter) for realizing the name input receiving means 2, a function for realizing the feature information extracting means 3, a function for realizing the image component extracting means 4, and an image synthesizing means 5. At least a function for realizing the composite image selection receiving means 6 and a function for realizing the image search means 7, and in some cases, it may have information stored in the storage means 9. In the image search program, each function is read by the arithmetic processing unit 31 of the computer terminal 30, thereby realizing each unit on the computer terminal 30. Further, each storage means 9 stores the information in the storage device 34.

画像検索プログラムは、CDやDVD等の記録媒体に記録され、それがコンピュータ端末30に読み込まれることによって、画像検索システム1を実現しても良いし、所定のサーバからネットワークを介して通信装置35からコンピュータ端末30にダウンロードされ、それがコンピュータ端末30に読み込まれることによって、画像検索システム1を実現しても良い。   The image search program is recorded on a recording medium such as a CD or a DVD, and is read into the computer terminal 30 to realize the image search system 1 or from a predetermined server via the network to the communication device 35. The image search system 1 may be realized by being downloaded to the computer terminal 30 and being read into the computer terminal 30.

本発明に於ける各手段は、その機能が論理的に区別されているのみであって、物理上あるいは事実上は同一の領域を為していても良い。   Each means in the present invention is only logically distinguished in function, and may be physically or practically the same area.

尚、本発明を実施するにあたり本実施態様の機能を実現するソフトウェアのプログラムを記録した記憶媒体をシステムに供給し、そのシステムのコンピュータが記憶媒体に格納されたプログラムを読み出し実行することによって実現されることは当然である。   In implementing the present invention, a storage medium storing a software program for realizing the functions of this embodiment is supplied to the system, and the computer of the system reads and executes the program stored in the storage medium. Of course.

この場合、記憶媒体から読み出されたプログラム自体が前記した実施態様の機能を実現することとなり、そのプログラムを記憶した記憶媒体は本発明を当然のことながら構成することになる。   In this case, the program itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program naturally constitutes the present invention.

プログラムを供給する為の記憶媒体としては、例えば磁気ディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード等を使用することができる。   As a storage medium for supplying the program, for example, a magnetic disk, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a nonvolatile memory card, or the like can be used.

又、コンピュータが読み出したプログラムを実行することにより、上述した実施態様の機能が実現されるだけではなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステムなどが実際の処理の一部又は全部を行い、その処理によって前記した実施態様の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system running on the computer is one of the actual processes based on the instructions of the program. It goes without saying that the case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing thereof is also included.

更に、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる不揮発性あるいは揮発性の記憶手段9に書き込まれた後、そのプログラムの指示に基づき、機能拡張ボードあるいは機能拡張ユニットに備わる演算処理装置31などが実際の処理の一部あるいは全部を行い、その処理により前記した実施態様の機能が実現される場合も含まれることは当然である。
Further, after the program read from the storage medium is written into the nonvolatile or volatile storage means 9 provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the program instructions Therefore, it is natural that the arithmetic processing device 31 provided in the function expansion board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing. is there.

本発明の画像検索システムを用いることにより、ユーザが目的画像データの特徴であると認識した画像部品の名称の入力を行うことで、その名称に対応付けられた画像部品に基づき基準画像データを合成して作成し、その中からユーザが目的画像データに最も類似していると考える基準画像データを選択し、それに基づいて目的画像データの画像検索処理を実行することにより、従来よりも検索精度を高めて目的画像データを検索することが出来る。
By using the image retrieval system of the present invention, the user inputs the name of the image component recognized as a feature of the target image data, and synthesizes the reference image data based on the image component associated with the name. By selecting the reference image data that the user thinks is most similar to the target image data, and executing the image search process of the target image data based on the selected reference image data, the search accuracy can be improved as compared with the prior art. The target image data can be searched for higher.

本発明のシステム構成の一例を示すシステム構成図である。It is a system configuration figure showing an example of the system configuration of the present invention. 本発明の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of this invention. 特徴情報記憶手段に記憶する特徴情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the feature information memorize | stored in a feature information storage means. 名称の階層構造の一例を示す図である。It is a figure which shows an example of the hierarchical structure of a name. 画像部品の一例を示す図である。It is a figure which shows an example of an image component. 画像部品記憶手段に記憶するデータ構造の一例を示す図である。It is a figure which shows an example of the data structure memorize | stored in an image components memory | storage means. 検索画面の一例を示す図である。It is a figure which shows an example of a search screen. 検索画面に名称を入力した場合の検索画面の一例を示す図である。It is a figure which shows an example of the search screen at the time of inputting a name into a search screen. 画像合成処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the process of an image composition process. 表面情報記憶手段に記憶するデータ構造の一例を示す図である。It is a figure which shows an example of the data structure memorize | stored in a surface information storage means. 画像部品の一例を示す図である。It is a figure which shows an example of an image component. 画像部品の合成処理を行う場合の画像部品の変遷を示す図である。It is a figure which shows the transition of an image component in the case of performing the synthesis process of an image component. 構図の一例である。It is an example of composition. 構図の選択処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the process of a composition selection process. 画像部品を合成して作成した基準画像データの一例を示す図である。It is a figure which shows an example of the reference | standard image data produced by synthesize | combining an image component. コンピュータ端末のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a computer terminal. 本発明のシステム構成の他の一例を示すシステム構成図である。It is a system block diagram which shows another example of the system configuration | structure of this invention.

符号の説明Explanation of symbols

1:画像検索システム
2:名称入力受付手段
3:特徴情報抽出手段
4:画像部品抽出手段
5:画像合成手段
6:合成画像選択受付手段
7:画像検索手段
8:表示手段
9:記憶手段
10:特徴情報記憶手段
11:画像部品記憶手段
12:表面情報記憶手段
13:合成画像記憶手段
14:画像データ記憶手段
15:合成履歴管理手段
16:合成履歴記憶手段
20:名称入力欄
21:基準画像データ表示欄
30:コンピュータ端末
31:演算処理装置
32:入力装置
33:表示装置
34:記憶装置
35:通信装置
1: Image search system 2: Name input accepting means 3: Feature information extracting means 4: Image parts extracting means 5: Image composition means 6: Composite image selection accepting means 7: Image search means 8: Display means 9: Storage means 10: Feature information storage means 11: Image component storage means 12: Surface information storage means 13: Composite image storage means 14: Image data storage means 15: Composite history management means 16: Composite history storage means 20: Name input field 21: Reference image data Display field 30: Computer terminal 31: Arithmetic processing device 32: Input device 33: Display device 34: Storage device 35: Communication device

Claims (6)

複数の画像データの中から、基準画像データに基づいて目的画像データを検索する画像検索システムであって、
前記画像検索システムは、
前記基準画像データを構成する要素である画像部品と、前記画像部品に対する名称情報と前後関係を示す前後関係距離情報と形状情報とを含む特徴情報と、検索対象となる複数の前記画像データとを少なくとも記憶する記憶手段と、
前記画像部品の名称の入力を受け付ける名称入力受付手段と、
前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶手段から抽出する特徴情報抽出手段と、
前記抽出した特徴情報に基づいて、前記画像部品を前記記憶手段から抽出する画像部品抽出手段と、
前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成する画像合成手段と、
前記作成した基準画像データの中から、一或いは二以上の前記基準画像データがユーザにより選択されたことの入力を受け付ける合成画像選択受付手段と、
前記選択された基準画像データに基づいて、前記記憶手段に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する画像検索手段と、
を有することを特徴とする画像検索システム。
An image search system for searching for target image data based on reference image data from a plurality of image data,
The image search system includes:
Image information that is an element constituting the reference image data, feature information including name information for the image component, front-rear distance information indicating the front-rear relationship, and shape information, and a plurality of the image data to be searched Storage means for storing at least;
Name input accepting means for accepting input of the name of the image component;
Feature information extracting means for extracting feature information having the name information corresponding to the accepted name from the storage means;
Based on the extracted feature information, an image component extraction unit that extracts the image component from the storage unit;
Oite the combination of image parts the extracted based on the extracted context distance information of each image part, divided into an image component of the object image parts and background, if there is an image part of the background of the background Using the value of the average inclination angle of the line connecting the point sequences in the image part, one or more compositions for arranging the extracted image parts are determined, and if there is no background image part, the quantity of the image parts Is used to determine one or more compositions in which the extracted image parts are to be arranged , and after determining the composition, the extracted image parts are combined and combined according to the determined composition. Image synthesis means for synthesizing and creating the reference image data every time;
Composite image selection receiving means for receiving an input indicating that one or more of the reference image data is selected by the user from the created reference image data;
Based on the selected reference image data, search for the image data stored in the storage means, and image search means for extracting the target image data based on the similarity with the reference image data;
An image search system comprising:
前記特徴情報は、前記画像部品の表面の色情報又はパターンの情報からなる表面情報を更に含んでおり、
前記画像部品は点列情報からなる輪郭で形成されており、
前記画像合成手段は、
前記画像部品の輪郭を形成する点列情報の内部又は外部を前記表面情報に基づいて色又はパターンを付加し、その後、前記抽出した各画像部品を組み合わせて合成することにより、前記基準画像データを作成する、
ことを特徴とする請求項1に記載の画像検索システム。
The feature information further includes surface information composed of color information or pattern information on the surface of the image component,
The image component is formed with an outline composed of point sequence information,
The image composition means includes
By adding a color or pattern to the inside or outside of the point sequence information forming the outline of the image part based on the surface information, and then combining the extracted image parts, the reference image data is synthesized. create,
The image search system according to claim 1.
前記画像合成手段は、
前記抽出した各画像部品に対して、合成済みでない画像部品の中から前記前後関係距離情報の数値の大きい2つの画像部品を選択し、
前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の外側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成し、
前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の内側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成し、
前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成済みの画像部品とし、
前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成後の画像部品で更新する、
処理を前記前後関係距離情報の最も小さい画像部品に全ての前記画像部品が合成するまで反復する、
ことにより前記画像部品に基づく前記基準画像データの合成処理を実行する、
ことを特徴とする請求項1または請求項2に記載の画像検索システム。
The image composition means includes
For each of the extracted image parts, select two image parts having a large numerical value of the front-rear distance information from among the image parts that have not been combined,
The outside of the point sequence information of the image component having the small front-rear distance information among the selected image parts is set as a mask area, and the image having the larger front-rear distance information among the selected image parts is set in the mask area. Synthesize the parts,
The inside of the point sequence information of the image component having the small front-rear distance information among the selected image components is set as a mask area, and the image having the small front-rear distance information among the selected image parts is set in the mask area. Synthesize the parts,
Among the selected image parts, an image part having a large front-rear distance information is used as a synthesized image part,
Update the image component having a small front-rear distance information among the selected image components with the synthesized image component.
The process is repeated until all the image components are combined with the image component having the smallest contextual distance information.
The reference image data combining process based on the image parts is thereby performed.
The image search system according to claim 1, wherein the image search system is an image search system.
前記記憶手段は、前記画像合成手段で合成して作成した基準画像データの合成履歴を更に記憶し、
前記画像検索システムは、
前記記憶手段に記憶する合成履歴を抽出する合成履歴管理手段を更に有しており、
前記画像合成手段は、
過去に前記抽出した画像部品を用いた合成履歴があるか否かを前記合成履歴管理手段に問い合わせ、合成履歴がある場合にはその合成履歴に基づいて前記基準画像データを合成して作成し、合成履歴がない場合には前記前記前後関係距離情報に基づく合成処理を実行する、
ことを特徴とする請求項1から請求項3のいずれかに記載の画像検索システム。
The storage means further stores a synthesis history of the reference image data created by the image synthesis means,
The image search system includes:
Further comprising synthesis history management means for extracting a synthesis history stored in the storage means;
The image composition means includes
Inquires the composition history management means whether or not there is a composition history using the extracted image parts in the past, and if there is a composition history, creates the reference image data based on the composition history, When there is no composition history, a composition process based on the context distance information is performed.
The image search system according to claim 1, wherein the image search system is an image search system.
基準画像データを構成する要素である画像部品と、前記画像部品に対する名称情報と前後関係を示す前後関係距離情報と形状情報とを含む特徴情報と、検索対象となる複数の画像データとを少なくとも記憶する記憶装置と、プログラムの処理演算を実行する演算処理装置とを有するコンピュータ端末で実行する画像検索プログラムであって、
前記画像検索プログラムは、
前記演算処理装置に読み込まれる名称入力受付機能と特徴情報抽出機能と画像部品抽出機能と画像合成機能と合成画像選択受付機能と画像検索機能とを有しており、
前記名称入力受付機能は、
前記コンピュータ端末の入力装置から入力された、前記画像部品の名称の入力を受け付け、
前記特徴情報抽出機能は、
前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶装置から抽出し、
前記画像部品抽出機能は、
前記抽出した特徴情報に基づいて、前記画像部品を前記記憶装置から抽出し、
前記画像合成機能は、
前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成し、
前記合成画像選択受付機能は、
前記作成した基準画像データの中から、一或いは二以上の基準画像データが、ユーザにより前記入力装置で選択されたことの入力を受け付け、
前記画像検索機能は、
前記選択された基準画像データに基づいて、前記記憶装置に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する、
ことを特徴とする画像検索プログラム。
Stores at least a plurality of pieces of image data to be searched, image information that is an element constituting reference image data, feature information including name information for the image parts, front-rear distance information indicating the front-rear relationship, and shape information An image search program to be executed by a computer terminal having a storage device and an arithmetic processing device that executes a processing operation of the program,
The image search program includes:
A name input reception function, a feature information extraction function, an image component extraction function, an image composition function, a composite image selection reception function, and an image search function, which are read into the arithmetic processing unit;
The name input reception function is:
Receiving an input of the name of the image component input from the input device of the computer terminal;
The feature information extraction function is:
Extracting feature information having the name information corresponding to the accepted name from the storage device;
The image component extraction function is:
Based on the extracted feature information, the image component is extracted from the storage device,
The image composition function is
Oite the combination of image parts the extracted based on the extracted context distance information of each image part, divided into an image component of the object image parts and background, if there is an image part of the background of the background Using the value of the average inclination angle of the line connecting the point sequences in the image part, one or more compositions for arranging the extracted image parts are determined, and if there is no background image part, the quantity of the image parts Determining one or two or more compositions in which the extracted image parts are arranged, determining the composition, and then combining the extracted image parts in accordance with the determined composition and combining them. Created by combining the reference image data every time,
The composite image selection receiving function is
From the created reference image data, one or two or more reference image data is accepted by the input device selected by the input device,
The image search function
Searching the image data stored in the storage device based on the selected reference image data, and extracting the target image data based on the similarity with the reference image data.
An image search program characterized by that.
請求項5に記載の画像検索プログラムを記録する、ことを特徴とする画像検索プログラムを記録した記録媒体。   6. A recording medium on which the image search program according to claim 5 is recorded.
JP2004344403A 2004-11-29 2004-11-29 Image search system Active JP4351620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004344403A JP4351620B2 (en) 2004-11-29 2004-11-29 Image search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004344403A JP4351620B2 (en) 2004-11-29 2004-11-29 Image search system

Publications (2)

Publication Number Publication Date
JP2006155203A JP2006155203A (en) 2006-06-15
JP4351620B2 true JP4351620B2 (en) 2009-10-28

Family

ID=36633431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004344403A Active JP4351620B2 (en) 2004-11-29 2004-11-29 Image search system

Country Status (1)

Country Link
JP (1) JP4351620B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5359424B2 (en) * 2009-03-18 2013-12-04 富士ゼロックス株式会社 Document processing system, search device, and program

Also Published As

Publication number Publication date
JP2006155203A (en) 2006-06-15

Similar Documents

Publication Publication Date Title
US10810454B2 (en) Apparatus, method and program for image search
CN109685121B (en) Training method of image retrieval model, image retrieval method and computer equipment
US20150277686A1 (en) Systems and Methods for the Real-Time Modification of Videos and Images Within a Social Network Format
US20090161963A1 (en) Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
CN109345637B (en) Interaction method and device based on augmented reality
CN109741425B (en) Banner picture generation method and device, storage medium and computer equipment
US20030193582A1 (en) Method for storing an image, method and system for retrieving a registered image and method for performing image processing on a registered image
JP2022159514A (en) Image processing apparatus, image processing method, image processing program and recording medium storing program thereof
JP2006303707A (en) Image processing apparatus and image processing method
JP2011039944A (en) Image processor, image processing method, and image processing program
JPH11312248A (en) Image retrieval device and its method
JP4916950B2 (en) Moving image comparison apparatus, moving image comparison method, and moving image comparison program
JP2007199749A (en) Image retrieval method and image retrieval device
JP4351620B2 (en) Image search system
JP2010049300A (en) Image retrieval system, image retrieval method, and program for image retrieval
JP2004192555A (en) Information management method, device and program
JP2004192121A (en) Image retrieval device, image classification method, image retrieval method, and program
JP6276375B2 (en) Image search device, image display device, image search method, and image display method
JP2006172090A (en) Representative image selecting device and method and program
JP2010176235A (en) Image interface and image search program
JP2010257423A (en) Method, program and image evaluating apparatus for extraction of area of interest
WO2024062912A1 (en) Display control device, method for operating display control device, and program for operating display control device
JP5807090B2 (en) Image search method, image search system, image search device, and program
JP2006004157A (en) Image retrieval program, image retrieval method, image retrieval device, and storage medium
JP2006313497A (en) Apparatus and method for retrieving image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090724

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4351620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160731

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250