JP4351620B2 - Image search system - Google Patents
Image search system Download PDFInfo
- Publication number
- JP4351620B2 JP4351620B2 JP2004344403A JP2004344403A JP4351620B2 JP 4351620 B2 JP4351620 B2 JP 4351620B2 JP 2004344403 A JP2004344403 A JP 2004344403A JP 2004344403 A JP2004344403 A JP 2004344403A JP 4351620 B2 JP4351620 B2 JP 4351620B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- image data
- parts
- composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、コンピュータ端末に記憶した画像データを検索する画像検索システムに関する。
The present invention relates to an image search system for searching image data stored in a computer terminal.
デジタルカメラ等の撮像装置の発達に伴い、撮像した画像のデジタルデータ(以下、画像データ)をコンピュータ端末に保存し、インターネットのホームページ上に掲載したり、電子メールにより友人・知人に配信したりすることが行われている。 With the development of imaging devices such as digital cameras, digital data of captured images (hereinafter referred to as image data) is stored in computer terminals and posted on the Internet homepage or distributed to friends and acquaintances via e-mail. Things have been done.
デジタルカメラのような撮像装置は、従来のカメラと異なり、撮像した画像データの消去、保存、修正等が簡単に行える為、その撮像枚数(画像データの量)も増加しがちである。従って、撮像した画像データはコンピュータ端末に保存して管理することが一般的であるが、ユーザが必要な画像データを探すには、コンピュータ端末に保存した画像データから一枚一枚、確認しながら探す他、画像検索システムを用いることによって探すことも行われている。 Unlike conventional cameras, an imaging apparatus such as a digital camera can easily delete, store, and correct captured image data, and the number of captured images (amount of image data) tends to increase. Therefore, the captured image data is generally stored and managed in a computer terminal. However, in order to search for necessary image data, a user checks each image data stored in the computer terminal one by one. In addition to searching, searching is also performed by using an image search system.
このような画像検索システムでは、画像データに関連づけられたファイル名等のキーワードにより検索を行う方法や、下記特許文献1、特許文献2、非特許文献1に開示のように、基準となる画像データ(以下、基準画像データ)との類似度から目的の画像データ(以下、目的画像データ)を検索する方法が知られている。
In such an image search system, as a method of performing a search using a keyword such as a file name associated with image data, or as disclosed in
キーワードにより目的画像データの検索を行う方法では、対象となる画像データ毎にキーワードが設定されている必要があるが、このキーワードの設定作業は非常に煩雑である。又、キーワードの設定にはキーワード設定者の主観が入りやすく、キーワードを用いた画像検索システムでは、一定水準の検索結果が得られにくいという問題点がある。 In the method of searching for target image data by keyword, it is necessary to set a keyword for each target image data. However, this keyword setting operation is very complicated. In addition, keyword setting tends to be subject to the keyword setter's subjectivity, and image search systems using keywords are difficult to obtain a certain level of search results.
一方、基準画像データとの類似度に基づいて目的画像データを検索する方法では、キーワードを用いた検索のような問題はないが、基準画像データを予め多数用意しておかないと、ユーザの希望する目的画像データを検索することが出来ない。又、多数の基準画像データを用意出来たとしても、その基準画像データの記憶領域として膨大な記憶領域を必要とする。そして、あらゆる態様を想定した基準画像データを用意することは事実上不可能であり、特に、多数の目的画像データの中から、ごくわずかに存在する特別な目的画像データを検索する場合には、基準画像データを用意すること自体が非常に困難である。 On the other hand, in the method of searching for target image data based on the similarity to the reference image data, there is no problem like a search using a keyword. However, if a large number of reference image data is not prepared in advance, the user's request The target image data to be searched cannot be searched. Even if a large number of reference image data can be prepared, a huge storage area is required as a storage area for the reference image data. In addition, it is practically impossible to prepare reference image data that assumes every aspect, and in particular, when searching for a very small number of special target image data from a large number of target image data, It is very difficult to prepare the reference image data itself.
そこで特許文献1では、目的画像データとその一部が似ているいくつかの画像を選択し、それぞれの画像毎に似ている部分の特徴量を抽出し、これらの特徴量に重み付けを行って検索することで、目的画像データを検索する方法が開示されている。しかし、この方法を用いた場合、基準画像データが複数の画像に分かれたままであるので、ユーザが最終的な基準画像データのイメージを認識しにくいという問題点があり、精度の高い画像検索を行うことが出来ない。
Therefore, in
又、非特許文献1には、手書きの画像を基準画像データとして用いる方法が開示されている。しかし、手書きでの画像サンプルの入力はその個人差が大きく、同じ目的画像データを検索する為に同じ作業者が入力を行う場合であったとしても、必ずしも検索結果が一致しないことから、この場合でも精度の高い画像検索を行うことが出来ないという問題点がある。
Non-Patent
更に特許文献2では、自然言語で入力された文章に対して自然言語解析を行うことにより、その状況要素に対応するピクセルの集合である画像部品を取り出し、取り出した画像部品に基づいて、各画像データとの類似度を検索することにより、目的画像データを検索する方法が開示されている。この場合、特許文献1や非特許文献1の場合よりは精度の高い画像検索を行うことが可能であるが、取り出した画像部品が目的画像データに類似するものであるか否か、或いは自然言語解析を行うことから的確な画像部品を必ずしも取り出すことが出来ない問題点があり、精度も高くはない。又、この方法では、写真画像を基本とする為、コンピュータ端末に保存しておく必要のあるデータ量が多くなる。従って、この方法は保存容量に限りのあるパーソナルコンピュータ端末等には適さず、実際には実施が困難であるという問題点がある。
Further, in
そこで本発明者は上記問題点に鑑み、画像部品に基づいて基準画像データを自動的に合成して作成し、この基準画像データを検索条件として画像検索処理を実行することにより、従来よりも検索精度の高い画像検索を可能とする、画像検索システムを発明した。 Therefore, in view of the above problems, the present inventor automatically generates reference image data based on image parts, and executes an image search process using the reference image data as a search condition. Invented an image search system that enables highly accurate image search.
請求項1の発明は、複数の画像データの中から、基準画像データに基づいて目的画像データを検索する画像検索システムであって、前記画像検索システムは、前記基準画像データを構成する要素である画像部品と、前記画像部品に対する名称情報と前後関係を示す前後関係距離情報と形状情報とを含む特徴情報と、検索対象となる複数の前記画像データとを少なくとも記憶する記憶手段と、前記画像部品の名称の入力を受け付ける名称入力受付手段と、前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶手段から抽出する特徴情報抽出手段と、前記抽出した特徴情報に基づいて、前記画像部品を前記記憶手段から抽出する画像部品抽出手段と、前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成する画像合成手段と、前記作成した基準画像データの中から、一或いは二以上の前記基準画像データがユーザにより選択されたことの入力を受け付ける合成画像選択受付手段と、前記選択された基準画像データに基づいて、前記記憶手段に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する画像検索手段と、を有する画像検索システムである。
The invention of
本発明のように画像部品に基づいて基準画像データを合成し、その基準画像データの中から、ユーザが最も類似すると考える基準画像データを選択し、選択した基準画像データに基づいて画像データから検索を実行することで、従来よりも精度の高い画像検索システムを実現することが出来る。尚、ここで「名称」とは、画像部品に対して関連づけられた名前であり、名詞(固有名詞等も含む)等も含む。
また、画像合成を行う前に、本発明のように構図を決定することにより、無駄な合成処理を減らすことが出来る。
As in the present invention, the reference image data is synthesized based on the image parts, the reference image data that the user thinks is most similar is selected from the reference image data, and the image data is searched based on the selected reference image data. By executing the above, it is possible to realize an image search system with higher accuracy than before. Here, the “name” is a name associated with the image part, and includes nouns (including proper nouns) and the like.
In addition, useless composition processing can be reduced by determining the composition as in the present invention before performing image composition.
請求項2の発明は、前記特徴情報は、前記画像部品の表面の色情報又はパターンの情報からなる表面情報を更に含んでおり、前記画像部品は点列情報からなる輪郭で形成されており、前記画像合成手段は、前記画像部品の輪郭を形成する点列情報の内部又は外部を前記表面情報に基づいて色又はパターンを付加し、その後、前記抽出した各画像部品を組み合わせて合成することにより、前記基準画像データを作成する、画像検索システムである。
In the invention of
画像部品は、点列情報から形成される輪郭からなると良い。輪郭からなる画像部品とすることによって、その画像部品のデータ量を従来よりも大幅に減らすことが出来るからである。このように画像部品のデータ量を減らせば、同一のデータ領域でも多数の画像部品を記憶でき、或いは同一の画像部品の数量でも、必要となるデータ領域を大幅に減らすことが出来る。これによって、例えば一般家庭で用いるコンピュータ端末のような、スペックが必ずしも高くないコンピュータ端末でも画像データの検索システムを実現することが出来る。 The image component is preferably composed of a contour formed from point sequence information. This is because by using an image part composed of contours, the data amount of the image part can be greatly reduced as compared with the conventional case. If the data amount of image parts is reduced in this way, a large number of image parts can be stored even in the same data area, or the required data area can be greatly reduced even with the same number of image parts. As a result, a search system for image data can be realized even with a computer terminal whose specifications are not necessarily high, such as a computer terminal used in a general household.
請求項3の発明は、前記画像合成手段は、前記抽出した各画像部品に対して、合成済みでない画像部品の中から前記前後関係距離情報の数値の大きい2つの画像部品を選択し、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の外側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成し、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の内側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成し、前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成済みの画像部品とし、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成後の画像部品で更新する、処理を前記前後関係距離情報の最も小さい画像部品に全ての前記画像部品が合成するまで反復する、ことにより前記画像部品に基づく前記基準画像データの合成処理を実行する、画像検索システムである。
According to a third aspect of the present invention, the image synthesizing unit selects, for each of the extracted image components, two image components having a large numerical value of the front-rear distance information from among the image components that have not been synthesized, and the selection The outside of the point sequence information of the image component having a small front-rear distance information is set as a mask area, and the image part having the larger front-rear distance information among the selected image parts is set in the mask area. Compositing and setting the inside of the point sequence information of the image component having the smaller context distance information among the selected image parts as a mask region, and the context distance information of the selected image components in the mask region Of the selected image components, and the image component having the larger front-rear distance information among the selected image components is used as a synthesized image component. Update the image component with the smaller context distance information with the synthesized image component, and repeat the process until all the image components have been combined with the image component with the smallest context distance information. An image search system that executes a composition process of the reference image data based thereon.
画像部品の合成は本発明のように、前後関係距離情報の大きい画像部品同士(遠くにある画像部品同士)から順番に行うと良い。 As in the present invention, the image components may be synthesized in order from image components having large front-rear distance information (image components located far away).
請求項4の発明は、前記記憶手段は、前記画像合成手段で合成して作成した基準画像データの合成履歴を更に記憶し、前記画像検索システムは、前記記憶手段に記憶する合成履歴を抽出する合成履歴管理手段を更に有しており、前記画像合成手段は、過去に前記抽出した画像部品を用いた合成履歴があるか否かを前記合成履歴管理手段に問い合わせ、合成履歴がある場合にはその合成履歴に基づいて前記基準画像データを合成して作成し、合成履歴がない場合には前記前記前後関係距離情報に基づく合成処理を実行する、画像検索システムである。
According to a fourth aspect of the present invention, the storage unit further stores a combination history of reference image data created by combining with the image combining unit, and the image search system extracts a combination history stored in the storage unit. And further comprising a composition history management means, wherein the image composition means inquires of the composition history management means whether there is a composition history using the extracted image parts in the past. In the image search system, the reference image data is synthesized based on the synthesis history, and when there is no synthesis history, a synthesis process is executed based on the front-rear distance information.
本発明のように合成履歴を用いることで、画像部品に基づく基準画像データをより高速に作成することが出来る。これによって全体の処理速度の向上を図ることが出来る。 By using the synthesis history as in the present invention, reference image data based on image parts can be created at higher speed. As a result, the overall processing speed can be improved.
請求項5の発明は、基準画像データを構成する要素である画像部品と、前記画像部品に対する名称情報と前後関係を示す前後関係距離情報と形状情報とを含む特徴情報と、検索対象となる複数の画像データとを少なくとも記憶する記憶装置と、プログラムの処理演算を実行する演算処理装置とを有するコンピュータ端末で実行する画像検索プログラムであって、前記画像検索プログラムは、前記演算処理装置に読み込まれる名称入力受付機能と特徴情報抽出機能と画像部品抽出機能と画像合成機能と合成画像選択受付機能と画像検索機能とを有しており、前記名称入力受付機能は、前記コンピュータ端末の入力装置から入力された、前記画像部品の名称の入力を受け付け、前記特徴情報抽出機能は、前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶装置から抽出し、前記画像部品抽出機能は、前記抽出した特徴情報に基づいて、前記画像部品を前記記憶装置から抽出し、前記画像合成機能は、前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成し、前記合成画像選択受付機能は、前記作成した基準画像データの中から、一或いは二以上の基準画像データが、ユーザにより前記入力装置で選択されたことの入力を受け付け、前記画像検索機能は、前記選択された基準画像データに基づいて、前記記憶装置に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する、画像検索プログラムである。 According to a fifth aspect of the present invention, there is provided an image component that is an element constituting reference image data, feature information including name information for the image component, contextual distance information indicating the context, and shape information, and a plurality of search targets. An image search program that is executed by a computer terminal having a storage device that stores at least the image data and an arithmetic processing device that executes the processing operation of the program. The image search program is read into the arithmetic processing device. It has a name input reception function, a feature information extraction function, an image component extraction function, an image composition function, a composite image selection reception function, and an image search function. The name input reception function is input from an input device of the computer terminal. The input of the name of the image component is received, and the feature information extraction function is configured to receive the name information corresponding to the received name. The image component extraction function extracts the image component from the storage device based on the extracted feature information, and the image composition function extracts the image component extracted from the storage device. Oite the combination, based on the extracted context distance information of each image part, divided into an image part of the image part and the background object, points in the image part of the background when there is an image part of the background column Using the value of the average inclination angle of the line connecting the two, determine one or more compositions to arrange the extracted image parts, if there is no background image parts, using the number of image parts, the extracts each image component obtained by determining one or more of the composition to be placed, after determining the composition, each image component obtained by said extraction by synthesizing a combination according to the composition described above decision, for each combination The reference image data is generated by combining the reference image data, and the composite image selection receiving function is configured so that one or more reference image data is selected by the user using the input device from the generated reference image data. Receiving the input, the image search function executes a search of the image data stored in the storage device based on the selected reference image data, and the target image based on a similarity to the reference image data An image search program for extracting data.
上述の画像検索システムは、本発明のように構成することでプログラムとしても同様の効果を得ることが出来る。 The above-described image search system can obtain the same effect as a program when configured as in the present invention.
請求項6の発明は、請求項5に記載の画像検索プログラムを記録する、画像検索プログラムを記録した記録媒体である。
The invention of
画像検索プログラムは、CDやDVD等の記録媒体に記録しても良い。 The image search program may be recorded on a recording medium such as a CD or a DVD.
本発明の画像検索システムを用いることにより、ユーザが目的画像データの特徴であると認識した画像部品の名称の入力を行うことで、その名称に対応付けられた画像部品に基づき基準画像データを合成して作成し、その中からユーザが目的画像データに最も類似していると考える基準画像データを選択し、それに基づいて目的画像データの画像検索処理を実行することにより、従来よりも検索精度を高めて目的画像データを検索することが出来る。
By using the image retrieval system of the present invention, the user inputs the name of the image component recognized as a feature of the target image data, and synthesizes the reference image data based on the image component associated with the name. By selecting the reference image data that the user thinks is most similar to the target image data, and executing the image search process of the target image data based on the selected reference image data, the search accuracy can be improved as compared with the prior art. The target image data can be searched for higher.
本発明の画像検索システム1のシステム構成の一例を図1のシステム構成図を用いて説明する。画像検索システム1は、名称入力受付手段2と特徴情報抽出手段3と画像部品抽出手段4と画像合成手段5と合成画像選択受付手段6と画像検索手段7と表示手段8と記憶手段9とからなる。
An example of the system configuration of the
画像検索システム1はコンピュータ端末30上で実行される。図16に一般的なコンピュータ端末30のハードウェア構成の一例を示す。コンピュータ端末30は、CPUやレジスタ等の演算処理を実行する演算処理装置31、キーボードやマウス等のコンピュータ端末30への入力装置32、ディスプレイである表示装置33、メモリやキャッシュ、ハードディスクその他の各種の記録媒体でデータを記憶する記憶装置34、他のコンピュータ端末30とネットワークを介してデータの送受信を行う通信装置35とを有している。尚、ここで示したコンピュータ端末30のハードウェア構成は一例であり、他のハードウェア構成とすることも出来る。
The
画像検索システム1に於ける名称入力受付手段2、特徴情報抽出手段3、画像部品抽出手段4、画像合成手段5、合成画像選択受付手段6、画像検索手段7、表示手段8は、演算処理装置31に於いてその機能を実現するプログラム(モジュール等も含む)により実行され、記憶手段9は記憶装置34でそのデータを記憶している。
In the
記憶手段9は、画像部品の特徴情報を記憶する特徴情報記憶手段10と、画像部品を記憶する画像部品記憶手段11と、画像部品の表面の情報(色情報やパターン情報)を記憶する表面情報記憶手段12と、画像部品を合成して作成した基準画像データを記憶する合成画像記憶手段13と、デジタルカメラ等の撮像装置で撮像した画像データやダウンロード等して保存した画像データ、その他の検索対象となる画像データを記憶する画像データ記憶手段14とからなる。
The storage unit 9 includes a feature
ここで特徴情報とは、画像部品の形状や配置等を指定する情報であり、例えば画像部品の種別を表す名称情報、画像部品の点列情報又はその情報を格納するアドレスである形状情報、画像部品の表面の質感情報(色情報やパターン情報)である表面情報、画像部品間の前後関係や距離を数値化した前後関係距離情報、画像部品の輪郭のぼかし度合いを示す輪郭強度情報、画像部品間の配置規則を示す配置情報、画像部品の色相の修正を行う色相補正情報などがある。特徴情報のデータ構造の一例を図3に示す。 Here, the feature information is information for designating the shape and arrangement of the image component. For example, name information indicating the type of the image component, point sequence information of the image component, or shape information that is an address for storing the information, an image Surface information, which is texture information (color information and pattern information) on the surface of the part, front-rear distance information obtained by quantifying the front-rear relation and distance between image parts, contour strength information indicating the degree of blurring of the contour of the image part, image part Arrangement information indicating an arrangement rule between them, hue correction information for correcting the hue of an image component, and the like. An example of the data structure of the feature information is shown in FIG.
名称とは、目的画像データに含まれるイメージに関する情報であり、例えば、「海」、「山」、「空」等の風景や背景に用いられる名称、「人」、「動物」、「車」等の物体を示す名称がある。この名称は、図4(a)及び図4(b)に示すように、各々階層構造を有していると良い。 The name is information related to the image included in the target image data. For example, names used for landscapes and backgrounds such as “sea”, “mountain”, “sky”, “people”, “animals”, “cars”. There are names indicating objects such as. As shown in FIGS. 4A and 4B, the names preferably have a hierarchical structure.
図4(a)では、最上位の名称として「風景」、その下位の名称として「山」、「海」等、「山」の下位の名称として「富士山」、「岩山」、「雪山」等、「富士山」の下位の名称として「正面」、「上面」、「岩山」の下位の名称として「急な山」、「緩やかな山」、「雪山」の下位の名称として「急な山」、「緩やかな山」という名称がある。 In FIG. 4A, “Scenery” as the highest name, “Mountain”, “Sea”, etc. as lower names, “Fuji”, “Iwayama”, “Snowy Mountain”, etc. as lower names of “Mountain”. , “Front”, “Top”, “Steep Mountain”, “Sloppy Mountain”, “Sudden Mountain” as the subordinate name of “Snow Mountain”. , There is a name of "gentle mountain".
図4(b)では、最上位の名称として「人物」、その下位の名称として「男」、「女」、「男」の下位の名称として「顔」、「上半身」、「全身」、「顔」の下位の名称として「正面」、「側面」、「上半身」の下位の名称として「正面」、「側面」、「正面」の下位の名称として「黒い服」、「白い服」、「全身」の下位の名称として「立ち止まり」、「歩き」、「歩き」の下位の名称として「黒い服」、「白い服」、「青い服」という名称がある。 In FIG. 4B, “person” is the highest name, “male” and “woman” are the lower names, and “face”, “upper body”, “whole body”, “women” are the lower names of “male”. The lower names of “face” are “front”, “side”, “lower” of “upper body”, “front”, “side”, “black”, “white”, “ Subordinate names of “whole body” are “stop”, “walking”, and subordinate names of “walking” are “black clothes”, “white clothes”, and “blue clothes”.
画像部品とは、基準画像データを合成する為に予め画像部品記憶手段11に記憶している、基準画像データを構成する要素(オブジェクト)からなる画像である。例えば画像部品の一例としては、「山」、「空」、「川」、「海」、「木」、「人物」、「動物」などがある。この画像部品は、特徴情報に於ける名称情報に関連づけられており、名称情報に対応する画像部品のデータが各々設けられている。例えば図4(a)の例では、「正面からの富士山」、「上面からの富士山」、「急な岩山」、「緩やかな岩山」、「急な雪山」、「緩やかな雪山」等の画像部品が画像部品記憶手段11に記憶されており、図4(b)の例では、「男の顔の正面」、「男の顔の側面」、「男の上半身の正面で黒い服を着ている」、「男の上半身の正面で白い服を着ている」、「男の上半身の側面」、「男の全身の立ち止まり」、「男の全身の黒い服で歩いている」、「男の全身の白い服で歩いている」、「男の全身の青い服で歩いている」等の画像部品が画像部品記憶手段11に記憶されている。 An image component is an image made up of elements (objects) constituting reference image data, which are stored in advance in the image component storage means 11 in order to synthesize reference image data. For example, examples of image parts include “mountain”, “sky”, “river”, “sea”, “tree”, “person”, “animal”, and the like. This image part is associated with name information in the feature information, and data of the image part corresponding to the name information is provided. For example, in the example of FIG. 4A, images of “Mount Fuji from the front”, “Mount Fuji from the top”, “Steep rocky mountain”, “Slow rocky mountain”, “Steep snowy mountain”, “Slow snowy mountain”, etc. The parts are stored in the image parts storage means 11, and in the example of FIG. 4 (b), “the front of the man's face”, “the side of the man's face”, “the front of the upper body of the man wearing black clothes "While wearing white clothes in front of the upper body of the man", "Side of the upper body of the man", "Stopping the whole body of the man", "Walking in black clothes of the whole body of the man", " Image parts such as “Walking in white clothes of the whole body” and “Walking in blue clothes of the whole body of the man” are stored in the image parts storage means 11.
画像部品の一例を図5に示す。図5(a)は「空」の画像部品の一例であり、図5(b)は「山」の画像部品の一例であり、図5(c)は「木」の画像部品の一例である。 An example of the image component is shown in FIG. FIG. 5A is an example of an “empty” image part, FIG. 5B is an example of an “mountain” image part, and FIG. 5C is an example of an “tree” image part. .
画像部品は、そのデータ量を小さくする為に、点列情報(画像部品の輪郭のみのデータ)であると良いが、これに限定するものではない。例えば1つの画像部品の画像サイズが幅640ピクセル、高さ480ピクセルの場合、特許文献1に開示されている発明を用いた場合では、そのデータ量は640×480×3=921,600バイトのデータ量を必要とする。これに対し、本発明で好ましく利用する点列情報の一例を挙げると、データの構造体に7項目×4=28バイト、点列情報が平均500点として(画像部品の輪郭を平均500点で示せたとするならば)、500×2×4=4,000バイトのデータ量で済む(1点の座標を示す為にx軸とy軸の情報が必要であり、各軸に対して4バイト単位で情報が表現される為)。
The image component may be point sequence information (data of only the contour of the image component) in order to reduce the data amount, but is not limited thereto. For example, when the image size of one image component is 640 pixels wide and 480 pixels high, when using the invention disclosed in
図6に画像部品記憶手段11の概念図を示す。図6では、画像部品の名称情報に、各形状情報が対応付けられており、その場合の点列の情報が更に対応付けられている。従って、図6の場合、名称「夕焼け空」に対応する形状情報としてsora01、sora02、sora03の3種類があり、各々形状情報に於ける点列情報が記憶されている。 FIG. 6 shows a conceptual diagram of the image component storage means 11. In FIG. 6, each piece of shape information is associated with the name information of the image component, and the information of the point sequence in this case is further associated. Accordingly, in the case of FIG. 6, there are three types of shape information corresponding to the name “sunset sky”, sora01, sora02, and sora03, and point sequence information in the shape information is stored.
特徴情報に於ける前後関係距離情報とは、画像部品間の重ね合わせの順序関係を示す情報である。重ね合わせの順序は、形状の小さいものほど前側に配置することが好ましい。例えば「鳥」の画像部品と「空」の画像部品とがあった場合、「鳥」の画像部品の前後関係距離情報は、「空」の画像部品の前後関係距離情報よりも小さい値で設定されている。又、「空」のように遠景であるほど、前後関係距離情報は大きい値となり、「木」や「人」のような物体は近景であることから、前後関係距離情報は小さい値となる。 The front-rear distance information in the feature information is information indicating the order relationship of the overlapping between image parts. The order of superposition is preferably arranged on the front side as the shape becomes smaller. For example, if there are “bird” image parts and “sky” image parts, the distance information of the “bird” image parts is set to a smaller value than the distance information of the “sky” image parts. Has been. Further, the farther the background is like “sky”, the larger the front-rear distance information becomes, and the objects such as “trees” and “people” are closer, so the front-rear distance information becomes smaller.
名称入力受付手段2は、基準画像データを作成する為の、当該基準画像データを構成する画像部品の名称の入力を、キーボードやマウス等の入力装置32から受け付ける手段である。この名称は複数入力が可能であると良い。尚、通信装置35により、インターネット等のネットワークを介して入力を受け付けても良い。
The name
特徴情報抽出手段3は、名称入力受付手段2で入力を受け付けた名称に基づいて、その名称に対応する特徴情報を、特徴情報記憶手段10から抽出する手段である。
The feature
画像部品抽出手段4は、特徴情報抽出手段3で抽出した特徴情報に基づいて、その対応する画像部品を、画像部品記憶手段11から抽出する手段である。
The image
画像合成手段5は、画像部品抽出手段4で選択した画像部品を合成して基準画像データを作成する手段である。作成した基準画像データは、合成画像記憶手段13に記憶する。基準画像データを合成して作成する際に、画像部品の点列情報からなる輪郭の内部あるいは外部に着色やパターンを付与しても良い。
The image synthesizing means 5 is means for synthesizing the image parts selected by the image
表示手段8は、画像合成手段5で合成して作成した基準画像データを、コンピュータ端末30のディスプレイである表示装置33に表示する手段である。画像合成手段5で作成した基準画像データが複数ある場合には、一覧表示や順次表示でその全てを表示できるようにしても良いし、予め定められた基準に基づいて順位付けをした後に、その順位が高いものから順次表示する等、各種の表示形態を取ることが出来る。又、本発明に於いては、表示された基準画像データをユーザが修正できるようにしても良い。尚、同一のコンピュータ端末30の表示装置33で表示する他、通信装置35により、インターネット等のネットワークを介して、他のコンピュータ端末30の表示装置33で表示をしても良い。
The
合成画像選択受付手段6は、画像合成手段5が作成して、表示手段8が表示装置33に表示した基準画像データの中から、ユーザが目的画像に最も類似すると考える基準画像データを、キーボードやマウス等の入力装置32により選択したことの情報を受信し、その情報に基づき、ユーザが選択した基準画像データを画像検索手段7に送信する手段である。
The composite image
画像検索手段7は、合成画像選択受付手段6から受信した基準画像データに基づいて、画像データ記憶手段14に記憶した検索対象となる画像データとの間で類似検索を実行し、目的画像データを検索して抽出する手段である。ここで抽出した目的画像データは、表示手段8に送信し、表示手段8が表示装置33を介して表示する。画像検索手段7は、目的画像データを抽出する際に、最も類似度の高い一つの画像データを目的画像データとして抽出しても良いし、類似度の高い順に複数の画像データを目的画像データとして抽出しても良い。又、基準画像データに基づく目的画像データの検索は、従来のような様々な方法をとることが出来、上述の特許文献1、特許文献2、非特許文献1を用いることも出来る。更に本発明に於いては、従来の類似画像検索のいずれの手法に於いても有効に応用することが出来る。
Based on the reference image data received from the composite image
次に、本発明の画像検索システム1の処理プロセスの一例を図2のフローチャート、図1のシステム構成図を用いて説明する。
Next, an example of the processing process of the
画像検索システム1は、ユーザが検索対象として想定する目的画像データの検索を行う為に、その検索画面を表示手段8が表示装置33を介して表示する。検索画面の一例を図7に示す。この検索画面から、ユーザが目的画像データの特徴であると認識する画像部品の名称の入力を行うことで、その名称に対応付けられた画像部品に基づいて画像検索システム1が基準画像データを合成して作成し、その中からユーザが目的画像データに最も類似していると考える基準画像データを選択し、それに基づいて目的画像データの画像検索処理を実行する。
In the
本実施例に於いては、ユーザは「夕焼け空に富士山と木がある画像」を目的画像データとして検索したい場合を説明する。このような場合、目的画像データとして、「夕焼け空」、「富士山」、「木」が特徴であると考えられるので、これらを名称として検索画面の名称入力欄20に、キーボードやマウス等の入力装置32から行う(S100)。この入力は、名称入力受付手段2で受け付ける。 In this embodiment, a case where the user wants to search for “image with Mount Fuji and trees in the sunset sky” as target image data will be described. In such a case, it is considered that “sunset sky”, “Mt. Fuji”, and “tree” are characteristic as the target image data, and these are used as names to input in the name input field 20 of the search screen, such as a keyboard or a mouse. This is performed from the device 32 (S100). This input is received by the name input receiving means 2.
尚、この名称入力は、名称入力欄20からプルダウンメニュー等によって選択される形式で入力されると、入力された名称とその特徴情報との対応付けが必ず行えるので、プルダウンメニュー等の選択形式による入力が好適である。しかしこの場合、予めこれらの対応付けが行われている必要があるので、それ以外の方式、例えばテキスト入力を用いても良い。 It should be noted that this name input can be made by associating the input name with its feature information if it is input from the name input field 20 using a pull-down menu or the like. Input is preferred. However, in this case, since it is necessary to associate these in advance, other methods such as text input may be used.
ユーザが検索画面の名称入力欄20に名称として、「夕焼け空」、「富士山」、「木」を入力した場合を図8に示す。 FIG. 8 shows a case where the user inputs “sunset sky”, “Mt. Fuji”, and “Thu” as names in the name input field 20 on the search screen.
名称入力受付手段2で入力を受け付けた名称に基づいて、特徴情報抽出手段3が、当該名称に対応する特徴情報を特徴情報記憶手段10から抽出する(S110)。ここでは名称が「夕焼け空」、「富士山」、「木」であるので、それら名称に対応する特徴情報を特徴情報記憶手段10から抽出することとなる。
Based on the name received by the name
特徴情報記憶手段10が図3に示す特徴情報を記憶している場合、名称「夕焼け空」に対応する特徴情報のうち、形状情報を画像部品記憶手段11(図6)の当該名称「夕焼け空」に対応する形状情報(ファイル名としてsora01、sora02、sora03)の所在地(アドレスやファイル名等)、表面情報として「夕焼け空」の質感情報、前後関係距離情報として「10000」、輪郭強度情報として「16」、配置情報として「指定なし」(即ち、画像の枠内に全て配置)、色相補正情報として「RED+10」(RGB値のうち、赤色を10加算する)を抽出する。尚、ここで色相補正情報として「RED+10」としているのは、「夕焼け空」の状況では全体として赤みがかることが多いことから、RGB値のうち、赤色に10を加算することで、赤みのある画像部品としている。
When the feature
名称「富士山」に対応する特徴情報のうち、形状情報を画像部品記憶手段11(図6)の当該名称「富士山」に対応する形状情報(ファイル名としてyama01、yama02、yama03)の所在地(アドレスやファイル名等)、表面情報として「森」の質感情報、前後関係距離情報として「5000」、輪郭強度情報として「22」、配置情報として「下面接続」(即ち、富士山は、画像の下辺に接している)、色相補正情報として「RED+10」を抽出する。同様に、名称「木」に対応する特徴情報のうち、形状情報を画像部品記憶手段11(図6)の当該名称「木」に対応する形状情報(ファイル名としてki01、ki02)の所在地(アドレスやファイル名等)、表面情報として「葉」の質感情報、前後関係距離情報として「10」、輪郭強度情報として「500」、配置情報として「自由配置」(即ち、画像内に自由に配置することが出来る)、色相補正情報として「RED+10」を抽出する。尚、「富士山」、「木」の色相補正情報として「RED+10」となっているのは、「夕焼け空」に色相補正情報が「RED+10」として指定されている為、それがこれらにも反映されているからである。従って、通常は色相補正情報がなく、選択された画像部品のうち、いずれかに色相補正情報が指定されている場合に、その色相補正情報をこれらの画像部品にも反映させることで、例えば「夕焼け空」のように全体として赤みがかった画像部品とすることが出来る。 Of the feature information corresponding to the name “Mt. Fuji”, the shape information is stored in the location (address or address) of the shape information (file names yama01, yama02, yama03) corresponding to the name “Mt. Fuji” in the image component storage means 11 (FIG. 6). File name, etc.), the texture information of “forest” as the surface information, “5000” as the front-rear distance information, “22” as the contour strength information, “bottom connection” as the arrangement information (that is, Mt. Fuji touches the lower side of the image) "RED + 10" is extracted as the hue correction information. Similarly, of the feature information corresponding to the name “tree”, the shape information is the location (address) of the shape information (file names ki01, ki02) corresponding to the name “tree” in the image component storage unit 11 (FIG. 6). And file name, etc.), “leaf” texture information as surface information, “10” as front-rear distance information, “500” as contour strength information, and “free placement” as placement information (that is, freely placed in the image) "RED + 10" is extracted as the hue correction information. Note that the hue correction information for “Mount Fuji” and “Thu” is “RED + 10” because the hue correction information for “Sunset Sky” is specified as “RED + 10”. It is because it is reflected in. Accordingly, when there is usually no hue correction information and hue correction information is specified for any of the selected image parts, the hue correction information is also reflected in these image parts. It can be a reddish image part as a whole, such as “Sunset sky”.
このようにして特徴情報を抽出後、特徴情報に於ける形状情報の所在地に基づいて画像部品抽出手段4が、画像部品記憶手段11から画像部品を抽出する(S120)。上述の場合、名称「夕焼け空」に対応する形状情報の所在地がファイル名としてsora01、sora02、sora03であるので各ファイルとその点列情報を画像部品記憶手段11から抽出する。同様に、名称「富士山」に対応する形状情報の所在地がファイル名としてyama01、yama02、yama03であるので各ファイルとその点列情報を画像部品記憶手段11から抽出し、名称「木」に対応する形状情報の所在地がファイル名としてki01、ki02であるので各ファイルとその点列情報を画像部品記憶手段11から抽出する。
After extracting the feature information in this way, the image
このようにして画像部品を抽出後、これらに基づいて基準画像データを作成する為の画像合成処理を画像合成手段5が行う(S130)。この際に点列情報からなる画像部品に着色を施す為に、特徴情報に於ける表面情報を参照することにより、各画像部品に対して着色処理を施しても良い。例えば、名称「夕焼け空」の画像部品の特徴情報に於ける表面情報は「夕焼け空」であるので、それに対応する色で着色し、名称「富士山」の画像部品の特徴情報に於ける表面情報は「森」であるので、それに対応する色で着色し、名称「木」の画像部品の特徴情報に於ける表面情報は「葉」であるので、それに対応する色で着色する。表面情報は、画像部品の色の情報であるので、それに対応する色のコード(例えばRGB値で指定される色のコード)を直接指定しても良いし、本実施例のように「夕焼け空」、「森」、「葉」などのようにその概念を指定しておいても良い。この場合、「夕焼け空」、「森」、「葉」などのような概念では具体的な色を指定していないので、表面情報記憶手段12を参照することで、「夕焼け空」、「森」、「葉」に対応する色のコードを抽出して、当該色で着色を施す。図10に表面情報記憶手段12の概念図を示す。このように特徴情報に於ける表面情報として「夕焼け空」とあるので、それに対応する色のコード(RGB値)を表面情報記憶手段12から抽出し、それで着色をする。 After extracting the image parts in this way, the image composition means 5 performs an image composition process for creating reference image data based on the extracted image parts (S130). At this time, in order to color the image component composed of the point sequence information, each image component may be colored by referring to the surface information in the feature information. For example, since the surface information in the feature information of the image component with the name “Sunset Sky” is “Sunset Sky”, it is colored with the corresponding color, and the surface information in the feature information of the image component with the name “Mt. Fuji” Since it is “forest”, it is colored with a color corresponding to it, and since the surface information in the feature information of the image component with the name “tree” is “leaf”, it is colored with a color corresponding to it. Since the surface information is information on the color of the image component, a corresponding color code (for example, a color code specified by an RGB value) may be directly specified, or “sunset sky” as in this embodiment. ”,“ Forest ”,“ leaves ”, etc., may be designated. In this case, since a specific color is not specified in concepts such as “sunset sky”, “forest”, “leaf”, etc., by referring to the surface information storage means 12, “sunset sky”, “forest” The code of the color corresponding to “leaf” is extracted and colored with the color. FIG. 10 shows a conceptual diagram of the surface information storage means 12. Since the surface information in the feature information is “sunset sky” as described above, the corresponding color code (RGB value) is extracted from the surface information storage means 12 and colored.
尚、表面情報記憶手段12には、色のコードの他、着色パターン(網目など)を併せて記憶しておいても良い。この場合には、当該色コードに対応する色が、その着色パターンにより、画像部品に着色される。
The surface
更に、特徴情報に於ける色相補正情報に基づいて、着色した画像部品について、更にその色を補正処理しても良い。図3の場合では、「夕焼け空」、「富士山」、「木」のいずれも色相補正情報として「RED+10」であるので、画像部品に着色した色から更に、RGB値でRed(赤色)の値に10加算した色で着色を施すことも出来る。このように色相補正をすることによって、夕焼け空の状態の画像部品として演出することが出来る。 Further, the color of the colored image component may be further corrected based on the hue correction information in the feature information. In the case of FIG. 3, since “Sunset Sky”, “Mt. Fuji”, and “Thu” are all “RED + 10” as the hue correction information, the RGB color value of the image component is further changed to Red (red). Coloring can also be performed by adding 10 to the value of. By correcting the hue in this way, it can be produced as an image component in the sunset sky state.
又、特徴情報に於ける輪郭強度情報に基づいて、画像部品の輪郭の明瞭さ(輪郭強度)を修正する修正処理を行っても良い。図3の場合、「夕焼け空」の輪郭強度が16、「富士山」の輪郭強度が22、「木」の輪郭強度が500であるので、各々その輪郭強度で画像部品の輪郭に明瞭さを施す。輪郭強度の数値が大きいほど、その輪郭は明瞭であるので、上述の場合では「木」の輪郭が最も明瞭となり、次に「富士山」、最後に「夕焼け空」の順番で明瞭な輪郭となる。 Further, based on the contour strength information in the feature information, a correction process for correcting the clarity (contour strength) of the contour of the image component may be performed. In the case of FIG. 3, the contour intensity of “sunset sky” is 16, the contour intensity of “Mt. Fuji” is 22, and the contour intensity of “tree” is 500. . The larger the contour strength value, the clearer the contour. In the above case, the “tree” contour is the clearest, followed by “Mt. Fuji” and finally “sunset sky”. .
以上のように選択された(場合によっては着色・パターンが付与された)画像部品に対して、画像合成手段5が画像合成処理を行う。画像合成処理は、S120で抽出した画像合成部品同士、全ての組合せの合成処理を実行するが、本実施例では、名称「夕焼け空」、名称「富士山」、名称「木」の一つの組合せの合成処理を説明する。同様に他の組合せでも合成処理が実現できるからである。本実施例で説明する画像部品の一つの組合せが図11であるとする。図11(a)は名称「夕焼け空」の画像部品の一つであり、図11(b)は名称「富士山」の画像部品の一つであり、図11(c)は名称「木」の画像部品の一つである。
The
画像合成処理の処理プロセスを図9のフローチャートを用いて説明する。まず、各画像部品を合成する際には、特徴情報の前後関係距離情報に基づいて、遠くの画像部品(前後関係距離情報の数値の大きな画像部品)から合成を行う。その為、前後関係距離情報に基づいて並べ替えを行う(S200)。そうすると、ここでは「夕焼け空」の前後関係距離情報が「10000」、「富士山」の前後関係距離情報が「5000」、「木」の前後関係距離情報が「10」なので、「夕焼け空」、「富士山」、「木」の順番に遠景から並べられ、順序づけられる。 A processing process of the image composition processing will be described with reference to a flowchart of FIG. First, when composing each image component, composition is performed from a distant image component (an image component having a large numerical value of the front-rear distance information) based on the front-rear distance information of the feature information. Therefore, rearrangement is performed based on the front-rear distance information (S200). Then, since the distance information about the “sunset sky” is “10000”, the distance information about “Mt. Fuji” is “5000”, and the distance information about the “tree” is “10”, the “sunset sky” They are arranged from the distant view in the order of “Mt. Fuji” and “Thu”.
最初は全部の画像部品が未処理なので(S210)、最初に「夕焼け空」(画像部品1)と「富士山」(画像部品2)とを合成する処理を行う為に、「夕焼け空」と「富士山」の画像部品を選択する(S220)。 Since all image parts are unprocessed at first (S210), in order to perform a process of combining “sunset sky” (image part 1) and “Mt. Fuji” (image part 2), “sunset sky” and “ The image component “Mt. Fuji” is selected (S220).
そして、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))の輪郭情報の外側をマスク領域として設定する(S230)。この状態の画像部品「富士山」を図12(a)に示す。 Then, the outside of the contour information of the selected image component having the smaller front-rear distance information (here, “Mt. Fuji” (image component 2)) is set as a mask region (S230). The image component “Mt. Fuji” in this state is shown in FIG.
そして、当該マスク領域に、選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「夕焼け空」(画像部品1))を合成する(S240)。従って、マスク領域として設定された「富士山」に「夕焼け空」が合成される。この状態を図12(b)に示す。 Then, an image component (here, “sunset sky” (image component 1)) having large front-rear distance information among the selected image components is synthesized in the mask area (S240). Therefore, “sunset sky” is combined with “Mt. Fuji” set as the mask area. This state is shown in FIG.
S240の合成後の画像部品に対して、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))の輪郭情報の内側をマスク領域として設定する(S250)。この状態を図12(c)に示す。 For the image component after combining in S240, the inside of the contour information of the image component (here, “Mt. Fuji” (image component 2)) having a small front-rear distance information among the selected image components is set as a mask region ( S250). This state is shown in FIG.
当該マスク領域に、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))を合成する(S260)。従って、マスク領域として設定された「富士山」に「富士山」を合成する。この状態を図12(d)に示す。 Among the selected image components, an image component having a small front-rear distance information (here “Mt. Fuji” (image component 2)) is synthesized in the mask area (S260). Therefore, “Mt. Fuji” is combined with “Mt. Fuji” set as the mask area. This state is shown in FIG.
選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「夕焼け空」(画像部品1))を、合成済みに設定する(S270)。そして選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「富士山」(画像部品2))を合成後の画像で更新する(S280)。このような処理をすることによって、画像部品「富士山」に画像部品「夕焼け空」が合成されることとなる。 Among the selected image components, an image component having a large contextual distance information (here, “sunset sky” (image component 1)) is set as synthesized (S270). Then, among the selected image components, an image component having a small front-rear distance information (here, “Mt. Fuji” (image component 2)) is updated with the synthesized image (S280). By performing such processing, the image component “sunset sky” is combined with the image component “Mt. Fuji”.
次に、未処理の画像部品として「富士山」と「木」の2つが残っているので、再度S220以降を反復する。 Next, since “Mt. Fuji” and “Thu” remain as unprocessed image parts, S220 and subsequent steps are repeated.
そうすると、ここでは未処理の画像部品(「富士山」と「木」)のうち前後関係距離情報の大きい2つの画像部品(2つしかないので「富士山」と「木」)を選択する(S220)。 Then, here, two unprocessed image parts ("Mt. Fuji" and "Thu") are selected as two image parts with large distance information ("Mt. Fuji" and "Thu") because there are only two (S220). .
そして選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))の輪郭情報の外側をマスク領域として設定する(S230)。この状態の画像部品「木」を図12(e)に示す。 Of the selected image components, the outside of the contour information of the image component (here “tree” (image component 3)) having a small context distance information is set as a mask region (S230). The image component “tree” in this state is shown in FIG.
そして、当該マスク領域に、選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「富士山」(画像部品2))を合成する(S240)。従って、マスク領域として設定された「木」に「富士山」が合成される。この状態を図12(f)に示す。 Then, an image component (here, “Mt. Fuji” (image component 2)) having a large front-rear distance information among the selected image components is synthesized in the mask area (S240). Therefore, “Mt. Fuji” is combined with “tree” set as the mask area. This state is shown in FIG.
S240の合成後の画像部品に対して、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))の輪郭情報の内側をマスク領域として設定する(S250)。この状態を図12(g)に示す。 Among the selected image components, the inside of the contour information of the image component having a small front-rear distance information (here, “tree” (image component 3)) is set as a mask area for the image component after the synthesis in S240 ( S250). This state is shown in FIG.
当該マスク領域に、選択した画像部品のうち、前後関係距離情報の小さな画像部品(ここでは「木」(画像部品3))を合成する(S260)。従って、マスク領域として設定された「木」に「木」を合成する。この状態を図12(h)に示す。 Of the selected image components, an image component having a small front-rear distance information (here, “tree” (image component 3)) is synthesized in the mask area (S260). Therefore, “tree” is combined with “tree” set as the mask area. This state is shown in FIG.
選択した画像部品のうち、前後関係距離情報の大きい画像部品(ここでは「富士山」(画像部品2))を、合成済みに設定する(S270)。そして、選択した画像部品のうち、前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))を合成後の画像で更新する(S280)。このような処理をすることによって、画像部品「木」に画像部品「富士山」が合成されることとなる。 Among the selected image components, an image component having a large front-rear distance information (here, “Mt. Fuji” (image component 2)) is set as synthesized (S270). Then, among the selected image components, an image component having a small contextual distance information (here “tree” (image component 3)) is updated with the synthesized image (S280). By performing such processing, the image component “Mt. Fuji” is combined with the image component “tree”.
このようにS220からS280の処理プロセスを反復した後、最も前後関係距離情報の小さい画像部品(ここでは「木」(画像部品3))に、他の画像部品(ここでは「夕焼け空」(画像部品1)と「富士山」(画像部品2))を合成したこととなる。そこで、合成後の画像部品(画像部品「木」)を、基準画像データとして合成画像記憶手段13に記憶する(S290)。記憶する基準画像データを図12(i)に示す。
After repeating the processing process from S220 to S280 in this way, the image component having the smallest contextual distance information (here “tree” (image component 3)) is replaced with another image component (here “sunset sky” (image The component 1) and “Mt. Fuji” (image component 2)) are synthesized. Therefore, the combined image component (image component “tree”) is stored in the combined
このような画像部品による基準画像データの合成処理を、各画像部品の組合せ毎に行う。又、同一の画像部品の組合せであっても、その特徴情報に於ける配置情報に基づく配置位置、各画像部品の構図に従って、複数通りの配置をすることが出来る。例えば、上述の例では、「木」を中央に配置しているが、「木」の配置情報は「自由配置」であるので、当該画像内に自由に配置できる。そこで、「木」を右方、或いは左方に配置した別の基準画像データを作成することも出来る。このように画像部品の配置は、S220からS280の処理プロセスに於いて、その配置情報を含めて複数通り、作成すると良い。このようにして作成された基準画像データの他の一例を図15に示す。
Reference image data combining processing using such image parts is performed for each combination of image parts. Further, even in the case of a combination of the same image parts, a plurality of arrangements can be made according to the arrangement position based on the arrangement information in the feature information and the composition of each image part. For example, in the above-described example, “tree” is arranged in the center. However, since the arrangement information of “tree” is “free arrangement”, it can be arranged freely in the image. Therefore, it is possible to create another reference image data in which “tree” is arranged on the right side or the left side. As described above, the arrangement of the image parts may be created in a plurality of ways including the arrangement information in the processing process from S220 to S280. Another example of the reference image data created in this way is shown in FIG.
又、画像合成手段5は、画像部品の合成を行う際に、画像部品を配置する構図を選択した後に、その構図に従って画像部品を合成しても良い。このような構図として図13に示すような5つの構図がある。図13(a)は画像を縦及び横で3分割し、その各位置に物体(前景)(物体か背景かは、前後関係距離情報に基づき所定値以上を背景、所定値以下を物体とすることして判定できる)となる画像部品(上述の例では画像部品「木」)を配置する三分割構図、図13(b)は物体の画像部品を斜線に沿って配置する斜線構図、図13(c)は物体の画像部品をS字上に配置するS字構図、図13(d)は画像の中心に物体の画像部品を配置する日の丸構図、図13(e)は物体の画像部品を三角形の頂点上に配置する三角構図などがある。
Further, when the
構図を選択する処理プロセスの一例を図14のフローチャートに示す。まず、画像部品の特徴情報に於ける前後関係距離情報に基づき、各画像部品を物体(前景)と背景(遠景)に分け、その数量を確認する(S300)。物体と背景の判定は、上述のように、所定値以上の前後関係距離情報を有する画像部品を背景(遠景)とし、所定値以下の前後関係距離情報を有する画像部品を物体(前景)とする。例えば所定値が500の場合、本実施例では、「夕焼け空」と「富士山」が背景(遠景)となり、「木」が物体(前景)となる。そして画像部品の数量は3である。 An example of a processing process for selecting a composition is shown in the flowchart of FIG. First, based on the front-rear distance information in the feature information of the image parts, each image part is divided into an object (foreground) and a background (distant view), and the quantity is confirmed (S300). As described above, the object and the background are determined by using an image part having front-to-back distance information of a predetermined value or more as a background (distant view) and an image part having front-to-back distance information of a predetermined value or less as an object (foreground). . For example, when the predetermined value is 500, in this embodiment, “sunset sky” and “Mt. Fuji” are the background (distant view), and “tree” is the object (foreground). The number of image parts is 3.
次に、背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)を結ぶ線の平均傾斜角が40度以下の場合には(S310)、採用する構図として3分割構図であることを決定し、物体(前景)の画像部品(ここでは「木」)は3分割構図の水平線の上段から下段への順番で配置することを決定する(S320)。 Next, when the average inclination angle of the line connecting the point sequence (outline) is 40 degrees or less with respect to the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”) (S310), It is determined that the composition to be adopted is a three-part composition, and it is decided that the image parts (here “tree”) of the object (foreground) are arranged in the order from the top to the bottom of the horizontal line of the three-part composition (S320). ).
又、背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)を結ぶ線の平均傾斜角が60度以上の場合には(S330)、採用する構図として3分割構図であることを決定し、物体(前景)の画像部品(ここでは「木」)は3分割構図の垂直線の左、右、中央の順番で配置することを決定する(S340)。 Also, when the average inclination angle of the line connecting the point sequence (outline) is 60 degrees or more with respect to the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”), it is adopted (S330). It is determined that the composition to be divided is a three-part composition, and the image component (here “tree”) of the object (foreground) is arranged in the order of the left, right, and center of the vertical line of the three-part composition ( S340).
更に、背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)を結ぶ線の平均傾斜角が40度以上60度以下である場合には(S350)、採用する構図として斜線構図であることを決定し、物体(前景)の画像部品(ここでは「木」)は斜線の右上から左下方向(或いは左上から右下方向)に配置することを決定する(S360)。 Furthermore, when the average inclination angle of the line connecting the point sequence (contour) is 40 degrees or more and 60 degrees or less with respect to the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”) ( S350), it is determined that the composition to be adopted is a diagonal composition, and the image component (here “tree”) of the object (foreground) is arranged from the upper right to the lower left (or from the upper left to the lower right) of the diagonal. Determine (S360).
上述の平均傾斜角は、特に制限することなく、様々な手法を用いて算出することが可能である。例えば最小2乗法により平均直線を算出してその直線の角度を求めることにより平均傾斜角を算出する方法が挙げられる。他の方法としては、点列がn点ある場合、1つ目の点(1点目)を基準として、1点目−2点目の線の角度、1点目−3点目の線の角度、・・・、1点目−n点目の線の角度等の、各点を結ぶ線の角度の平均をとることにより平均傾斜角を算出する方法を用いることも出来る。 The average inclination angle described above can be calculated using various methods without any particular limitation. For example, there is a method of calculating an average inclination angle by calculating an average straight line by a least square method and obtaining an angle of the straight line. As another method, when there are n points in the point sequence, the angle of the first point-2 point line with respect to the first point (first point), and the first point-3 point line It is also possible to use a method of calculating the average inclination angle by taking the average of the angles of the lines connecting the points, such as the angles,.
背景(遠景)の画像部品(ここでは「夕焼け空」と「富士山」)に対して、点列(輪郭)の作る面の幅が上端で画面幅の1/5以下であり、且つ点列(輪郭)の平均傾斜角が左右に30度以内で変化する場合には(S370)、採用する構図としてS字構図であることを決定し、物体(前景)の画像部品(ここでは「木」)はS字に沿って配置することを決定する(S380)。 For the background (distant view) image parts (here “sunset sky” and “Mt. Fuji”), the width of the surface created by the dot sequence (outline) is 1/5 or less of the screen width at the top, and the dot sequence ( When the average inclination angle of the (contour) changes within 30 degrees to the left and right (S370), it is determined that the composition to be adopted is an S-shaped composition, and the image component of the object (foreground) (here "tree") Decides to arrange along the S-shape (S380).
更に、物体(前景)の画像部品の数量が1で、背景(遠景)の画像部品の構図が決定していない場合には(S390)、採用する構図として日の丸構図であることを決定し、物体(前景)の画像部品(ここでは「木」)を中心に配置することを決定する(S400)。 Furthermore, when the quantity of the image part of the object (foreground) is 1 and the composition of the image part of the background (distant view) has not been determined (S390), it is determined that the composition to be adopted is the Hinomaru composition, It is determined that the image component (here “tree”) in the (foreground) is arranged at the center (S400).
物体(前景)の画像部品の数量が3で、背景(遠景)の画像部品の構図が決定していない場合には(S410)、採用する構図として三角構図であることを決定し、物体(前景)の画像部品(ここでは「木」)を三角形上に配置することを決定する(S420)。 When the number of image parts of the object (foreground) is 3 and the composition of the image parts of the background (distant view) has not been determined (S410), it is determined that the composition to be adopted is a triangular composition, and the object (foreground) ) Is determined to be arranged on a triangle (S420).
又、物体(前景)の画像部品の数量が2以下で、背景(遠景)の画像部品の構図が決定している場合には(S430)、採用する構図として3分割構図も加え、物体(前景)の画像部品(ここでは「木」)を3分割構図の水平線及び垂直線の交点のうち、右下、左下の順番で配置することを決定する(S440)。 When the number of image parts of the object (foreground) is 2 or less and the composition of the image parts of the background (distant view) is determined (S430), a three-division composition is added as the composition to be adopted, and the object (foreground) is added. ) Image parts (here “tree”) are determined to be arranged in the order of the lower right and the lower left of the intersections of the horizontal and vertical lines of the three-part composition (S440).
以上のような処理プロセスを、画像合成手段5が画像合成処理の前に実行することで、画像部品を合成して基準画像データを作成する際の構図を決定し、その構図の配置に基づいて画像部品を合成することを決定することが出来る。このように事前に構図を決定する処理プロセスを設けることで、無秩序に合成するのではなく一定の秩序性を有した上での合成を行うことが出来、合成処理に要する時間を減らすことが可能となる。
The
尚、上述のような構図を決定する処理プロセスに於いては、採用する構図として一つに決定する必要はなく、複数の構図を採用することが出来る。更に、図14に示した構図の選択処理の処理プロセスは一例であり、これに限定されるものではなく、他の処理プロセスを用いることも出来る。 In the processing process for determining the composition as described above, it is not necessary to determine one composition to be adopted, and a plurality of compositions can be adopted. Furthermore, the processing process of the composition selection process shown in FIG. 14 is an example, and the present invention is not limited to this, and other processing processes can be used.
このような画像部品による基準画像データの合成処理を、特徴情報や各構図毎に行い(好適には複数回行い)、それらを基準画像データとする。そして、画像合成手段5は、合成画像記憶手段13に記憶した基準画像データを抽出し、表示手段8が表示装置33を介して、検索画面の基準画像データ表示欄21に表示する。図7及び図8に示す検索画面では、基準画像データ表示欄21は、7画像を表示できるようになっているが、それ以上或いはそれ以下であっても良い。又、基準画像データを表示する際には、一覧表示であっても良いし、所定の順位付けを行うことによってその順位の高いものから順次表示するようにしても良い。
Reference image data combining processing using such image parts is performed for each feature information and each composition (preferably a plurality of times), and these are used as reference image data. Then, the
このようにして表示装置33に表示された基準画像データの中から、ユーザは、自らが検索対象とする目的画像データに最も類似すると考える基準画像データを、マウスやキーボード等の入力装置32により選択する(S140)。ここで入力装置32により選択された情報は、合成画像選択受付手段6で受信し、その情報に基づき、ユーザが選択した基準画像データを画像検索手段7に送信する。
From the reference image data displayed on the
画像検索手段7は、合成画像選択受付手段6から受信した、ユーザにより選択された基準画像データに基づいて、画像データ記憶手段14に記憶した検索対象となる画像データとの間で類似検索を実行し、目的画像データを検索して抽出する(S150)。選択された基準画像データと画像データ記憶手段14に記憶している画像データとの間の類似検索は、様々な従来の方法を用いることが出来る。ここで抽出した目的画像データは、表示手段8に送信し、表示手段8が表示装置33を介して表示する。この表示の際に、最も類似度の高い一つの画像データを目的画像データとして抽出しても良いし、類似度の高い順に複数の画像データを目的画像データとして抽出しても良い。
The image search means 7 executes a similarity search with the image data to be searched stored in the image data storage means 14 based on the reference image data selected by the user received from the composite image
以上のような処理プロセスを経ることによって、画像検索の目的となる目的画像データを検索することが出来る。又、従来とは異なり、画像部品に基づいて基準画像データを合成した際に、ユーザが目的画像データに最も類似する基準画像データを選択し、それに基づき目的画像データの検索を実行するので、精度が高い画像検索を行うことが出来る。更に、基準画像データを合成して作成する際の画像部品に点列情報を用い、基準画像データを合成する段階で特徴情報の質感情報(色情報やパターンの情報)に基づいて着色を施すことで、一つあたりの画像部品のデータ量を大幅に削減することが出来る。これによって、従来と同じ記憶容量しかない場合であっても、従来よりも多数の画像部品を画像部品記憶手段11に記憶することが出来、基準画像データを合成する際の組合せを飛躍的に増加させることが出来る。それによって、様々な基準画像データをユーザに提供できるので、特殊な目的画像データであったとしてもその基準画像データが作成される可能性が従来よりも高まる。 Through the processing process as described above, it is possible to search for target image data that is an object of image search. Unlike the conventional case, when the reference image data is synthesized based on the image parts, the user selects the reference image data that is most similar to the target image data, and the target image data is searched based on the selected reference image data. Can perform high image search. Further, point sequence information is used for image parts when combining and creating reference image data, and coloring is performed based on texture information (color information and pattern information) of feature information at the stage of combining reference image data. As a result, the data amount of each image component can be greatly reduced. As a result, even when the storage capacity is the same as the conventional one, a larger number of image parts can be stored in the image part storage means 11 than before, and the number of combinations when combining the reference image data is dramatically increased. It can be made. Thereby, since various reference image data can be provided to the user, the possibility that the reference image data is created even if it is special target image data is higher than before.
実施例1の画像検索システム1に於いて、基準画像データの合成処理を実行する際に、過去の合成履歴の情報に基づいて合成処理を実行しても良い。この場合の画像検索システム1のシステム構成の一例を図17に示す。
In the
画像検索システム1は、実施例1のシステム構成に加え、更に合成履歴管理手段15と合成履歴記憶手段16とを有している。
In addition to the system configuration of the first embodiment, the
合成履歴管理手段15は、画像合成手段5で合成して新たに作成した基準画像データの合成履歴を合成履歴記憶手段16に記憶し、又、画像合成手段5が新たに基準画像データの合成処理を実行する場合に、合成履歴記憶手段16に記憶する過去の合成履歴を抽出し、合成履歴管理手段15に送信する手段である。ここで合成履歴として記憶する情報は、どの画像部品を用いたか、採用した構図、画像部品の配置位置、着色、輪郭強度等の情報を合成履歴として記憶すると良い。
The composition history management means 15 stores the composition history of the reference image data newly synthesized by the image composition means 5 in the composition history storage means 16, and the image composition means 5 newly composes the reference image data. Is executed, the past synthesis history stored in the synthesis
合成履歴記憶手段16は、画像合成手段5で合成して作成した基準画像データの履歴を記憶する手段である。
The synthesis
本実施例に於ける画像合成手段5は、画像部品から基準画像データの合成処理を実行する前に、合成履歴管理手段15に過去に当該画像部品を用いた合成履歴があるか否かを問い合わせる。問い合わせを受けた合成履歴管理手段15は、合成履歴記憶手段16に当該画像部品による合成履歴があるか否かを照合し、ある場合にはその合成履歴を画像合成手段5に送信する。存在しない場合には、合成履歴がないことを画像合成手段5に送信する。この合成履歴を送信する場合には、どのような組合せ、構図等で合成処理を行ったか、各画像部品の位置関係、着色等を送信すると良い。 The image composition means 5 in this embodiment inquires of the composition history management means 15 whether or not there is a composition history using the image parts in the past before executing the composition processing of the reference image data from the image parts. . The composition history management means 15 that has received the inquiry collates whether or not the composition history storage means 16 has a composition history for the image component, and if so, transmits the composition history to the image composition means 5. If it does not exist, the fact that there is no composition history is transmitted to the image composition means 5. When transmitting this combination history, it is preferable to transmit what kind of combination, composition, etc. the combination processing has been performed, the positional relationship of each image component, coloring, and the like.
画像合成手段5は、合成履歴管理手段15から、過去に当該部品を用いた合成履歴があるか否かの問い合わせ結果を受信し、ある場合にはその合成履歴で基準画像データを合成処理する。そして実施例1のように新たな合成処理を行わないこととしても良い。一方、問い合わせ結果で、過去に合成履歴が存在しない場合には実施例1のように画像合成処理を実行する。即ちS130に於ける画像合成処理を実行することとなる。 The image composition means 5 receives from the composition history management means 15 an inquiry result as to whether or not there is a composition history using the component in the past, and if there is, composes the reference image data with the composition history. And it is good also as not performing a new synthetic | combination process like Example 1. FIG. On the other hand, if there is no composition history in the past as a result of the inquiry, image composition processing is executed as in the first embodiment. That is, the image composition process in S130 is executed.
このように合成履歴管理手段15及び合成履歴記憶手段16を、画像検索システム1に更に設けることによって、同様の目的画像データの検索を行う場合に、画像部品による基準画像データの合成処理の時間を少なくすることが出来、すぐに基準画像データを検索画面に表示手段8が表示装置33を介して表示することが出来る。
Thus, by providing the composition history management means 15 and the composition history storage means 16 in the
実施例1及び実施例2に於いて、名称による検索情報の入力に加え、色彩による入力情報の修正を行うようにすることも出来る。即ち、画像部品毎に、或いは合成した基準画像データに対して、色彩の補正をするようにしても良い。この場合、例えば「RED+10」のように、画像に対して赤を濃いめに、のような色彩に関する情報の入力欄を検索画面に設け、その入力をできるようにする。このようにすることで、ユーザの意図や感覚をより適切に表現した基準画像データを作成することが出来る。このような構成とした場合、特徴情報に色相補正情報の欄を設けなくても良い。 In the first and second embodiments, in addition to the input of search information by name, the input information by color can be corrected. That is, color correction may be performed for each image component or for the synthesized reference image data. In this case, for example, “RED + 10” is provided on the search screen with an input field for information on colors such as darker red than the image so that the input can be performed. In this way, it is possible to create reference image data that more appropriately represents the user's intention and feeling. In such a configuration, the hue correction information column need not be provided in the feature information.
更に、名称による検索情報の入力に加え、任意の画像データ又は当該画像データから抜き出した画像データを新たな画像部品として用いることも出来る。即ち、コンピュータ端末30に備えられた記憶装置34や入力装置32、或いは通信装置35を介してネットワークからコンピュータ端末30に入力した画像データを、又は画像データから抜き出した画像データを選択し、画像部品として画像部品記憶手段11に記憶するようにしても良い。
Furthermore, in addition to inputting search information by name, arbitrary image data or image data extracted from the image data can be used as a new image component. That is, image data input to the computer terminal 30 from the network via the
更に、上述の画像データから画像データを抜き出す際には、画像データの中に存在している物体の形状の認識と選択を行う形状選択手段(図示せず)を別途設けることによって、例えば画像データ中に飛行機や自動車等の所望の物体が存在している場合、それらを指定することによって、形状選択手段(図示せず)が、自動的に当該画像データから当該物体を抜き出し、抜き出した物体の画像データを新たな画像部品として画像部品記憶手段11に記憶するように構成しても良い。
Further, when extracting the image data from the above-described image data, a shape selection means (not shown) for recognizing and selecting the shape of the object existing in the image data is provided separately, for example, the image data When there are desired objects such as airplanes and automobiles, the shape selection means (not shown) automatically extracts the object from the image data by specifying them, and the extracted object The image data may be stored in the image
本発明の画像検索システム1をコンピュータ端末30に於いて実現する画像検索プログラムも同様に実現できる。このような画像検索プログラムは、名称入力受付手段2を実現する機能(モジュールやプログラム。以下同様)、特徴情報抽出手段3を実現する機能、画像部品抽出手段4を実現する機能、画像合成手段5を実現する機能、合成画像選択受付手段6を実現する機能、画像検索手段7を実現する機能を少なくとも有しており、場合によっては記憶手段9に記憶する情報を有していても良い。この画像検索プログラムのうち、各機能がコンピュータ端末30の演算処理装置31に読み込まれることによって、各手段をコンピュータ端末30上で実現する。又、各記憶手段9は、その情報が記憶装置34に記憶される。
An image search program for realizing the
画像検索プログラムは、CDやDVD等の記録媒体に記録され、それがコンピュータ端末30に読み込まれることによって、画像検索システム1を実現しても良いし、所定のサーバからネットワークを介して通信装置35からコンピュータ端末30にダウンロードされ、それがコンピュータ端末30に読み込まれることによって、画像検索システム1を実現しても良い。
The image search program is recorded on a recording medium such as a CD or a DVD, and is read into the computer terminal 30 to realize the
本発明に於ける各手段は、その機能が論理的に区別されているのみであって、物理上あるいは事実上は同一の領域を為していても良い。 Each means in the present invention is only logically distinguished in function, and may be physically or practically the same area.
尚、本発明を実施するにあたり本実施態様の機能を実現するソフトウェアのプログラムを記録した記憶媒体をシステムに供給し、そのシステムのコンピュータが記憶媒体に格納されたプログラムを読み出し実行することによって実現されることは当然である。 In implementing the present invention, a storage medium storing a software program for realizing the functions of this embodiment is supplied to the system, and the computer of the system reads and executes the program stored in the storage medium. Of course.
この場合、記憶媒体から読み出されたプログラム自体が前記した実施態様の機能を実現することとなり、そのプログラムを記憶した記憶媒体は本発明を当然のことながら構成することになる。 In this case, the program itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program naturally constitutes the present invention.
プログラムを供給する為の記憶媒体としては、例えば磁気ディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード等を使用することができる。 As a storage medium for supplying the program, for example, a magnetic disk, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a nonvolatile memory card, or the like can be used.
又、コンピュータが読み出したプログラムを実行することにより、上述した実施態様の機能が実現されるだけではなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステムなどが実際の処理の一部又は全部を行い、その処理によって前記した実施態様の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system running on the computer is one of the actual processes based on the instructions of the program. It goes without saying that the case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing thereof is also included.
更に、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる不揮発性あるいは揮発性の記憶手段9に書き込まれた後、そのプログラムの指示に基づき、機能拡張ボードあるいは機能拡張ユニットに備わる演算処理装置31などが実際の処理の一部あるいは全部を行い、その処理により前記した実施態様の機能が実現される場合も含まれることは当然である。
Further, after the program read from the storage medium is written into the nonvolatile or volatile storage means 9 provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the program instructions Therefore, it is natural that the
本発明の画像検索システムを用いることにより、ユーザが目的画像データの特徴であると認識した画像部品の名称の入力を行うことで、その名称に対応付けられた画像部品に基づき基準画像データを合成して作成し、その中からユーザが目的画像データに最も類似していると考える基準画像データを選択し、それに基づいて目的画像データの画像検索処理を実行することにより、従来よりも検索精度を高めて目的画像データを検索することが出来る。
By using the image retrieval system of the present invention, the user inputs the name of the image component recognized as a feature of the target image data, and synthesizes the reference image data based on the image component associated with the name. By selecting the reference image data that the user thinks is most similar to the target image data, and executing the image search process of the target image data based on the selected reference image data, the search accuracy can be improved as compared with the prior art. The target image data can be searched for higher.
1:画像検索システム
2:名称入力受付手段
3:特徴情報抽出手段
4:画像部品抽出手段
5:画像合成手段
6:合成画像選択受付手段
7:画像検索手段
8:表示手段
9:記憶手段
10:特徴情報記憶手段
11:画像部品記憶手段
12:表面情報記憶手段
13:合成画像記憶手段
14:画像データ記憶手段
15:合成履歴管理手段
16:合成履歴記憶手段
20:名称入力欄
21:基準画像データ表示欄
30:コンピュータ端末
31:演算処理装置
32:入力装置
33:表示装置
34:記憶装置
35:通信装置
1: Image search system 2: Name input accepting means 3: Feature information extracting means 4: Image parts extracting means 5: Image composition means 6: Composite image selection accepting means 7: Image search means 8: Display means 9: Storage means 10: Feature information storage means 11: Image component storage means 12: Surface information storage means 13: Composite image storage means 14: Image data storage means 15: Composite history management means 16: Composite history storage means 20: Name input field 21: Reference image data Display field 30: Computer terminal 31: Arithmetic processing device 32: Input device 33: Display device 34: Storage device 35: Communication device
Claims (6)
前記画像検索システムは、
前記基準画像データを構成する要素である画像部品と、前記画像部品に対する名称情報と前後関係を示す前後関係距離情報と形状情報とを含む特徴情報と、検索対象となる複数の前記画像データとを少なくとも記憶する記憶手段と、
前記画像部品の名称の入力を受け付ける名称入力受付手段と、
前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶手段から抽出する特徴情報抽出手段と、
前記抽出した特徴情報に基づいて、前記画像部品を前記記憶手段から抽出する画像部品抽出手段と、
前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成する画像合成手段と、
前記作成した基準画像データの中から、一或いは二以上の前記基準画像データがユーザにより選択されたことの入力を受け付ける合成画像選択受付手段と、
前記選択された基準画像データに基づいて、前記記憶手段に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する画像検索手段と、
を有することを特徴とする画像検索システム。 An image search system for searching for target image data based on reference image data from a plurality of image data,
The image search system includes:
Image information that is an element constituting the reference image data, feature information including name information for the image component, front-rear distance information indicating the front-rear relationship, and shape information, and a plurality of the image data to be searched Storage means for storing at least;
Name input accepting means for accepting input of the name of the image component;
Feature information extracting means for extracting feature information having the name information corresponding to the accepted name from the storage means;
Based on the extracted feature information, an image component extraction unit that extracts the image component from the storage unit;
Oite the combination of image parts the extracted based on the extracted context distance information of each image part, divided into an image component of the object image parts and background, if there is an image part of the background of the background Using the value of the average inclination angle of the line connecting the point sequences in the image part, one or more compositions for arranging the extracted image parts are determined, and if there is no background image part, the quantity of the image parts Is used to determine one or more compositions in which the extracted image parts are to be arranged , and after determining the composition, the extracted image parts are combined and combined according to the determined composition. Image synthesis means for synthesizing and creating the reference image data every time;
Composite image selection receiving means for receiving an input indicating that one or more of the reference image data is selected by the user from the created reference image data;
Based on the selected reference image data, search for the image data stored in the storage means, and image search means for extracting the target image data based on the similarity with the reference image data;
An image search system comprising:
前記画像部品は点列情報からなる輪郭で形成されており、
前記画像合成手段は、
前記画像部品の輪郭を形成する点列情報の内部又は外部を前記表面情報に基づいて色又はパターンを付加し、その後、前記抽出した各画像部品を組み合わせて合成することにより、前記基準画像データを作成する、
ことを特徴とする請求項1に記載の画像検索システム。 The feature information further includes surface information composed of color information or pattern information on the surface of the image component,
The image component is formed with an outline composed of point sequence information,
The image composition means includes
By adding a color or pattern to the inside or outside of the point sequence information forming the outline of the image part based on the surface information, and then combining the extracted image parts, the reference image data is synthesized. create,
The image search system according to claim 1.
前記抽出した各画像部品に対して、合成済みでない画像部品の中から前記前後関係距離情報の数値の大きい2つの画像部品を選択し、
前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の外側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成し、
前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品の前記点列情報の内側をマスク領域として設定し、そのマスク領域に、前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成し、
前記選択した画像部品のうち前記前後関係距離情報の大きい画像部品を合成済みの画像部品とし、
前記選択した画像部品のうち前記前後関係距離情報の小さい画像部品を合成後の画像部品で更新する、
処理を前記前後関係距離情報の最も小さい画像部品に全ての前記画像部品が合成するまで反復する、
ことにより前記画像部品に基づく前記基準画像データの合成処理を実行する、
ことを特徴とする請求項1または請求項2に記載の画像検索システム。 The image composition means includes
For each of the extracted image parts, select two image parts having a large numerical value of the front-rear distance information from among the image parts that have not been combined,
The outside of the point sequence information of the image component having the small front-rear distance information among the selected image parts is set as a mask area, and the image having the larger front-rear distance information among the selected image parts is set in the mask area. Synthesize the parts,
The inside of the point sequence information of the image component having the small front-rear distance information among the selected image components is set as a mask area, and the image having the small front-rear distance information among the selected image parts is set in the mask area. Synthesize the parts,
Among the selected image parts, an image part having a large front-rear distance information is used as a synthesized image part,
Update the image component having a small front-rear distance information among the selected image components with the synthesized image component.
The process is repeated until all the image components are combined with the image component having the smallest contextual distance information.
The reference image data combining process based on the image parts is thereby performed.
The image search system according to claim 1, wherein the image search system is an image search system.
前記画像検索システムは、
前記記憶手段に記憶する合成履歴を抽出する合成履歴管理手段を更に有しており、
前記画像合成手段は、
過去に前記抽出した画像部品を用いた合成履歴があるか否かを前記合成履歴管理手段に問い合わせ、合成履歴がある場合にはその合成履歴に基づいて前記基準画像データを合成して作成し、合成履歴がない場合には前記前記前後関係距離情報に基づく合成処理を実行する、
ことを特徴とする請求項1から請求項3のいずれかに記載の画像検索システム。 The storage means further stores a synthesis history of the reference image data created by the image synthesis means,
The image search system includes:
Further comprising synthesis history management means for extracting a synthesis history stored in the storage means;
The image composition means includes
Inquires the composition history management means whether or not there is a composition history using the extracted image parts in the past, and if there is a composition history, creates the reference image data based on the composition history, When there is no composition history, a composition process based on the context distance information is performed.
The image search system according to claim 1, wherein the image search system is an image search system.
前記画像検索プログラムは、
前記演算処理装置に読み込まれる名称入力受付機能と特徴情報抽出機能と画像部品抽出機能と画像合成機能と合成画像選択受付機能と画像検索機能とを有しており、
前記名称入力受付機能は、
前記コンピュータ端末の入力装置から入力された、前記画像部品の名称の入力を受け付け、
前記特徴情報抽出機能は、
前記受け付けた名称に対応する前記名称情報を有する特徴情報を前記記憶装置から抽出し、
前記画像部品抽出機能は、
前記抽出した特徴情報に基づいて、前記画像部品を前記記憶装置から抽出し、
前記画像合成機能は、
前記抽出した画像部品の組合せにおいて、抽出した各画像部品の前後関係距離情報に基づいて、物体の画像部品と背景の画像部品とに分け、背景の画像部品がある場合にはその背景の画像部品における点列を結ぶ線の平均傾斜角の値を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、背景の画像部品がない場合には画像部品の数量を用いて、前記抽出した各画像部品を配置する一または二以上の構図を決定し、前記構図を決定した後に、前記抽出した各画像部品を前記決定した構図に従って組み合わせて合成することにより、組合せ毎に前記基準画像データを合成して作成し、
前記合成画像選択受付機能は、
前記作成した基準画像データの中から、一或いは二以上の基準画像データが、ユーザにより前記入力装置で選択されたことの入力を受け付け、
前記画像検索機能は、
前記選択された基準画像データに基づいて、前記記憶装置に記憶する前記画像データの検索を実行し、前記基準画像データとの類似度に基づいて前記目的画像データを抽出する、
ことを特徴とする画像検索プログラム。 Stores at least a plurality of pieces of image data to be searched, image information that is an element constituting reference image data, feature information including name information for the image parts, front-rear distance information indicating the front-rear relationship, and shape information An image search program to be executed by a computer terminal having a storage device and an arithmetic processing device that executes a processing operation of the program,
The image search program includes:
A name input reception function, a feature information extraction function, an image component extraction function, an image composition function, a composite image selection reception function, and an image search function, which are read into the arithmetic processing unit;
The name input reception function is:
Receiving an input of the name of the image component input from the input device of the computer terminal;
The feature information extraction function is:
Extracting feature information having the name information corresponding to the accepted name from the storage device;
The image component extraction function is:
Based on the extracted feature information, the image component is extracted from the storage device,
The image composition function is
Oite the combination of image parts the extracted based on the extracted context distance information of each image part, divided into an image component of the object image parts and background, if there is an image part of the background of the background Using the value of the average inclination angle of the line connecting the point sequences in the image part, one or more compositions for arranging the extracted image parts are determined, and if there is no background image part, the quantity of the image parts Determining one or two or more compositions in which the extracted image parts are arranged, determining the composition, and then combining the extracted image parts in accordance with the determined composition and combining them. Created by combining the reference image data every time,
The composite image selection receiving function is
From the created reference image data, one or two or more reference image data is accepted by the input device selected by the input device,
The image search function
Searching the image data stored in the storage device based on the selected reference image data, and extracting the target image data based on the similarity with the reference image data.
An image search program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004344403A JP4351620B2 (en) | 2004-11-29 | 2004-11-29 | Image search system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004344403A JP4351620B2 (en) | 2004-11-29 | 2004-11-29 | Image search system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006155203A JP2006155203A (en) | 2006-06-15 |
JP4351620B2 true JP4351620B2 (en) | 2009-10-28 |
Family
ID=36633431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004344403A Active JP4351620B2 (en) | 2004-11-29 | 2004-11-29 | Image search system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4351620B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5359424B2 (en) * | 2009-03-18 | 2013-12-04 | 富士ゼロックス株式会社 | Document processing system, search device, and program |
-
2004
- 2004-11-29 JP JP2004344403A patent/JP4351620B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2006155203A (en) | 2006-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810454B2 (en) | Apparatus, method and program for image search | |
CN109685121B (en) | Training method of image retrieval model, image retrieval method and computer equipment | |
US20150277686A1 (en) | Systems and Methods for the Real-Time Modification of Videos and Images Within a Social Network Format | |
US20090161963A1 (en) | Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects | |
CN109345637B (en) | Interaction method and device based on augmented reality | |
CN109741425B (en) | Banner picture generation method and device, storage medium and computer equipment | |
US20030193582A1 (en) | Method for storing an image, method and system for retrieving a registered image and method for performing image processing on a registered image | |
JP2022159514A (en) | Image processing apparatus, image processing method, image processing program and recording medium storing program thereof | |
JP2006303707A (en) | Image processing apparatus and image processing method | |
JP2011039944A (en) | Image processor, image processing method, and image processing program | |
JPH11312248A (en) | Image retrieval device and its method | |
JP4916950B2 (en) | Moving image comparison apparatus, moving image comparison method, and moving image comparison program | |
JP2007199749A (en) | Image retrieval method and image retrieval device | |
JP4351620B2 (en) | Image search system | |
JP2010049300A (en) | Image retrieval system, image retrieval method, and program for image retrieval | |
JP2004192555A (en) | Information management method, device and program | |
JP2004192121A (en) | Image retrieval device, image classification method, image retrieval method, and program | |
JP6276375B2 (en) | Image search device, image display device, image search method, and image display method | |
JP2006172090A (en) | Representative image selecting device and method and program | |
JP2010176235A (en) | Image interface and image search program | |
JP2010257423A (en) | Method, program and image evaluating apparatus for extraction of area of interest | |
WO2024062912A1 (en) | Display control device, method for operating display control device, and program for operating display control device | |
JP5807090B2 (en) | Image search method, image search system, image search device, and program | |
JP2006004157A (en) | Image retrieval program, image retrieval method, image retrieval device, and storage medium | |
JP2006313497A (en) | Apparatus and method for retrieving image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090714 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090724 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4351620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130731 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160731 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |