JP5018147B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP5018147B2
JP5018147B2 JP2007060430A JP2007060430A JP5018147B2 JP 5018147 B2 JP5018147 B2 JP 5018147B2 JP 2007060430 A JP2007060430 A JP 2007060430A JP 2007060430 A JP2007060430 A JP 2007060430A JP 5018147 B2 JP5018147 B2 JP 5018147B2
Authority
JP
Japan
Prior art keywords
item
image
similarity
registered
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007060430A
Other languages
Japanese (ja)
Other versions
JP2008225658A (en
Inventor
宏幸 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007060430A priority Critical patent/JP5018147B2/en
Publication of JP2008225658A publication Critical patent/JP2008225658A/en
Application granted granted Critical
Publication of JP5018147B2 publication Critical patent/JP5018147B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、所望の情報を言語化することが難しい場合であっても、所望の情報を容易に検索することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program, and in particular, information processing that makes it possible to easily search for desired information even when it is difficult to verbalize the desired information. The present invention relates to an apparatus, an information processing method, and a program.

近年、テレビジョン放送番組(以下、単に番組と称する)などを記録および再生する記録再生装置において、番組を視聴するユーザの嗜好に基づいて、自動的に番組を記録するものがある。このような記録再生装置では、例えば、コンテントベーストフィルタリングと称される手法(以下、CBF手法と称する)を用いて、記録する番組が検索される(例えば、特許文献1参照)。   2. Description of the Related Art In recent years, there is a recording / reproducing apparatus that records and reproduces a television broadcast program (hereinafter simply referred to as a program) and automatically records the program based on the preference of a user who views the program. In such a recording / reproducing apparatus, for example, a program to be recorded is searched using a technique called content-based filtering (hereinafter referred to as CBF technique) (see, for example, Patent Document 1).

CBF手法とは、番組に対して配信側や販売側によって予め付与されている番組の特徴ベクトルと、ユーザの嗜好情報を示す特徴ベクトルとの類似度をコサイン距離などによって算出し、類似度の高い番組を、ユーザの嗜好に合致した番組として検索し記録する、といった手法である。ユーザの嗜好情報を示す特徴ベクトルは、例えば、ユーザの好みの番組の内容を表す単語を、ユーザに入力してもらうことによって生成される。   The CBF method calculates the similarity between the feature vector of a program that is pre-assigned to the program by the distribution side or the sales side and the feature vector indicating the user's preference information based on the cosine distance, etc. This is a technique of searching and recording a program as a program that matches the user's preference. The feature vector indicating the user preference information is generated, for example, by having the user input a word representing the content of the user's favorite program.

入力された単語を基に所定の情報を検索することは、様々な場面で行われている。例えば、インターネットなどから、ユーザが所望の情報を検索しようとする場合にも、所望の情報と関連性の強い単語を複数入力し、その入力された単語を基に検索することが一般的に行われている。従って、このような情報の検索においては、所望の情報を導き出すために、所望の情報を単語レベルに言語化することが必要である。   Searching for predetermined information based on an input word is performed in various situations. For example, when a user tries to search for desired information from the Internet or the like, it is generally performed to input a plurality of words that are strongly related to the desired information and to search based on the input words. It has been broken. Therefore, in searching for such information, it is necessary to verbalize the desired information to the word level in order to derive the desired information.

特開2004−194107号公報JP 2004-194107 A

しかしながら、所望の情報を単語レベルに言語化することが難しい場合があり、この場合、所望の情報を検索することができない、または、検索するまでに時間がかかるということがあった。   However, there are cases where it is difficult to verbalize desired information to the word level. In this case, the desired information cannot be searched or it may take a long time to search.

本発明は、このような状況に鑑みてなされたものであり、所望の情報を検索するときに、所望の情報を言語化することが難しい場合であっても、容易に検索することができるようにするものである。   The present invention has been made in view of such a situation, and when searching for desired information, even if it is difficult to verbalize the desired information, it can be easily searched. It is to make.

本発明の第1の側面の情報処理装置は、画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段と、前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段と、所望のアイテムを検索するためにユーザによって指定された画像であるクエリ画像を取得する取得手段と、前記クエリ画像の特徴量を抽出する特徴量抽出手段と、抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との第1の類似度を計算する類似度計算手段と、前記第1の類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、ユーザに提示する前記アイテムである提示アイテムとして決定する提示アイテム決定手段とを備える。 The information processing apparatus according to the first aspect of the present invention is the same as the image feature amount storage means for storing feature amounts representing image features for a plurality of registered images registered in advance, and the registered image and the predetermined item. As the information mapped on the space, an item correspondence storage means for storing the correspondence between the registered image and a predetermined item, and obtaining a query image that is an image designated by the user to search for a desired item Means, feature amount extraction means for extracting the feature amount of the query image, and similarity calculation means for calculating a first similarity between the query image and the registered image using the extracted feature amount. , item a short distance on the said first high similarity the registration image space, from the item correspondence storage unit, a presentation item is the item to be presented to the user And a presentation item determination means for determining Te.

前記類似度計算手段には、前記登録画像と前記アイテムとの特徴量の類似度である第2の類似度も計算させ、前記提示アイテム決定手段には、前記第1の類似度と前記第2の類似度の積を加算した値に基づいて、前記提示アイテムを決定させることができる。   The similarity calculation means also calculates a second similarity that is a similarity between the registered image and the item, and the presentation item determination means causes the first similarity and the second similarity to be calculated. The present item can be determined based on the value obtained by adding the products of the similarities.

前記提示アイテム決定手段には、前記第1の類似度の高い複数の前記登録画像と前記空間上の距離が近いアイテムの頻度を計算させ、頻度の高いアイテムを、前記提示アイテムとして決定させることができる。 The presenting item determining means may calculate the frequency of an item whose distance in the space is close to the plurality of registered images having a high first similarity, and determine an item with a high frequency as the presenting item. it can.

本発明の第1の側面の情報処理方法は、画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段と、前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段とを備え、ユーザに提示する前記アイテムである提示アイテムを決定する情報処理装置の情報処理方法において、所望のアイテムを検索するために前記ユーザによって指定された画像であるクエリ画像を取得し、前記クエリ画像の特徴量を抽出し、抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との類似度を計算し、前記類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、前記提示アイテムとして決定するステップを含む。 The information processing method according to the first aspect of the present invention is the same as the image feature amount storage means for storing the feature amount representing the feature of the image for a plurality of registered images registered in advance, and the registered image and the predetermined item. An information processing method for an information processing apparatus comprising: item correspondence storage means for storing correspondence between the registered image and a predetermined item as information mapped on the space of the information processing apparatus, and determining a presentation item that is the item to be presented to the user A query image, which is an image designated by the user to search for a desired item, extracts a feature amount of the query image, and uses the extracted feature amount to extract the query image and the query image the similarity between the registered image is calculated and the high degree of similarity the registration image item distance is short on the space, from the item correspondence storage means, said Hisage And determining as an item.

本発明の第1の側面のプログラムは、画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段と、前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段とを用いて、ユーザに提示する前記アイテムである提示アイテムを決定する処理を、コンピュータに実行させるプログラムにおいて、所望のアイテムを検索するために前記ユーザによって指定された画像であるクエリ画像を取得し、前記クエリ画像の特徴量を抽出し、抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との類似度を計算し、前記類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、前記提示アイテムとして決定するステップを含む。 The program according to the first aspect of the present invention includes an image feature amount storage unit that stores feature amounts representing image features for a plurality of registered images registered in advance, and the registered image and a predetermined item in the same space. A program for causing a computer to execute a process of determining a presentation item, which is the item to be presented to a user, using item correspondence storage means for storing correspondence between the registered image and a predetermined item as information mapped above A query image, which is an image designated by the user for searching for a desired item, extracts a feature amount of the query image, and uses the extracted feature amount to extract the query image and the query image the similarity between the registered image is calculated and the high degree of similarity the registration image item distance is short on the space, the item corresponding memory From stage, comprising determining as the presentation item.

本発明の第1の側面においては、所望のアイテムを検索するためにユーザによって指定された画像であるクエリ画像が取得され、その特徴量が抽出される。さらに、抽出された特徴量を用いて、クエリ画像と登録画像との類似度が計算され、類似度の高い登録画像と空間上の距離が近いアイテムが、アイテム対応記憶手段から、提示アイテムとして決定される。 In the first aspect of the present invention, a query image, which is an image designated by a user for searching for a desired item, is acquired, and its feature value is extracted. Further, using the extracted feature amount, the similarity between the query image and the registered image is calculated, and an item having a spatial distance close to the registered image having a high similarity is determined as the presentation item from the item correspondence storage unit. Is done.

本発明の第1の側面によれば、ユーザは所望の情報を検索することができる。   According to the first aspect of the present invention, the user can search for desired information.

また、本発明の第1の側面によれば、所望の情報を言語化することが難しい場合であっても、ユーザは所望の情報を容易に検索することができる。   Further, according to the first aspect of the present invention, even when it is difficult to verbalize desired information, the user can easily search for desired information.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の第1の側面の情報処理装置(例えば、図3のサーバ3)は、画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段(例えば、図3の特徴量DB11)と、前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段(例えば、図3の画像アイテム対応DB12)と、所望のアイテムを検索するためにユーザによって指定された画像であるクエリ画像を取得する取得手段(例えば、図3の通信部31)と、前記クエリ画像の特徴量を抽出する特徴量抽出手段(例えば、図3の特徴量抽出部32)と、抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との第1の類似度を計算する類似度計算手段(例えば、図3の類似度計算部33)と、前記第1の類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、ユーザに提示する前記アイテムである提示アイテムとして決定する提示アイテム決定手段(例えば、図3の提示アイテム決定部34)とを備える。 The information processing apparatus (for example, the server 3 in FIG. 3) according to the first aspect of the present invention stores image feature amount storage means (for example, a plurality of pre-registered registered images). The item correspondence storage unit (for example, FIG. 3) stores the correspondence between the registered image and the predetermined item as information obtained by mapping the feature amount DB 11 in FIG. 3 and the registered image and the predetermined item on the same space . Image item correspondence DB 12), an acquisition unit (for example, the communication unit 31 in FIG. 3) that acquires a query image that is an image designated by the user in order to search for a desired item, and a feature amount of the query image Similarity calculation for calculating a first similarity between the query image and the registered image, using feature amount extraction means (for example, the feature amount extraction unit 32 in FIG. 3) to be extracted and the extracted feature amount. The item (for example, the similarity calculation unit 33 in FIG. 3) and the item that presents to the user an item whose distance in the space is close to the registered image having the first similarity from the item correspondence storage unit It comprises presenting items determining means for determining as the presentation item is (e.g., presentation item determining unit 34 of FIG. 3) and a.

本発明の第1の側面の情報処理方法は、画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段(例えば、図3の特徴量DB11)と、前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段(例えば、図3の画像アイテム対応DB12)とを備え、ユーザに提示する前記アイテムである提示アイテムを決定する情報処理装置(例えば、図3のサーバ3)の情報処理方法において、所望のアイテムを検索するために前記ユーザによって指定された画像であるクエリ画像を取得し(例えば、図6のステップS13)、前記クエリ画像の特徴量を抽出し(例えば、図6のステップS14)、抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との類似度を計算し(例えば、図6のステップS15)、前記類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、前記提示アイテムとして決定する(例えば、図6のステップS18)ステップを含む。 An information processing method according to the first aspect of the present invention includes an image feature amount storage unit (for example, a feature amount DB 11 in FIG. 3) that stores feature amounts representing image features for a plurality of registered images registered in advance. As information obtained by mapping the registered image and the predetermined item on the same space, an item correspondence storage unit (for example, the image item correspondence DB 12 in FIG. 3) that stores the correspondence between the registered image and the predetermined item is provided. In the information processing method of the information processing apparatus (for example, the server 3 in FIG. 3) that determines the presented item that is the item presented to the user, a query that is an image designated by the user to search for a desired item An image is acquired (for example, step S13 in FIG. 6), a feature amount of the query image is extracted (for example, step S14 in FIG. 6), and the extracted feature amount Is used to calculate the similarity between the query image and the registered image (for example, step S15 in FIG. 6), and the registered image having a high similarity is close to the item in the space. It includes a step of determining as the presentation item from the storage means (for example, step S18 in FIG. 6).

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した検索システムの一実施の形態の構成例を示している。   FIG. 1 shows a configuration example of an embodiment of a search system to which the present invention is applied.

図1の検索システムは、ユーザの所望するアイテムを容易に検索することができるシステムであり、ユーザが所有し、所定の情報を入力する携帯電話機1、所定の情報を伝送するインターネットまたはLAN(Local Area Network)などからなるネットワーク2、および、携帯電話機1から送信された情報に基づいて、ユーザが所望するアイテムを検索し、その検索結果としてのアイテムを識別する情報、例えば、そのアイテムの名前、または、そのアイテムをユーザが手に入れられる場所(アイテムの格納場所)などを、携帯電話機1に返信するサーバ(情報処理装置)3により構成される。なお、以下では、アイテムを識別する情報を送信することを、単にアイテムを送信するという。   The search system of FIG. 1 is a system that can easily search for an item desired by the user. The mobile phone 1 that the user owns and inputs predetermined information, the Internet or LAN (Local Area network) and the information transmitted from the mobile phone 1 to search for an item desired by the user and information for identifying the item as the search result, for example, the name of the item, Alternatively, the server (information processing device) 3 that returns a place (item storage place) where the user can obtain the item to the mobile phone 1 is configured. In the following, transmitting information for identifying an item is simply referred to as transmitting an item.

ここで、アイテムとは、ユーザが利用するソフトウエアまたはハードウエア(物品)をいう。例えば、テレビジョン放送番組、文章、映画、写真、楽曲等(動画像、静止画像、若しくは音声、または、それらの組合せ等)といったソフトウエア(データ)、服、靴、食物等の物品(ハードウエア)が、本明細書でいうアイテムである。   Here, the item refers to software or hardware (article) used by the user. For example, software (data) such as television broadcast programs, sentences, movies, photographs, music, etc. (moving images, still images, audio, or combinations thereof), articles such as clothes, shoes, food (hardware) ) Is an item in this specification.

従来の検索システムでは、ユーザが所定のアイテムを検索する場合には、その所望のアイテムと関連性の強い情報を単語として複数入力し、入力された複数の単語のいずれにも関連するアイテムを検索して提示するような処理が行われていた。   In a conventional search system, when a user searches for a predetermined item, a plurality of pieces of information that are strongly related to the desired item are input as words, and items related to any of the plurality of input words are searched. The process of presenting was performed.

従って、所望のアイテムと関連性の強い情報を単語として表すことが難しい場合、換言すれば、所望のアイテムを言い表すのに的確な単語がないときには、所望のアイテムをうまく検索できないことがあった。   Accordingly, when it is difficult to express information strongly related to a desired item as a word, in other words, when there is no accurate word to express the desired item, the desired item may not be searched well.

例えば、ユーザがある場所で目にした風景にあうような服(アイテム)を検索しようとしたとき、その目にした風景を数語で表すのは難しく、所望のアイテムを検索することが困難であった。   For example, when trying to search for clothes (items) that match the scenery that the user sees at a certain place, it is difficult to express the scenery that the user sees in several words, and it is difficult to search for a desired item. there were.

図1の検索システムは、そのような場面においても、所望のアイテムを検索することができるようにしたシステムである。   The search system of FIG. 1 is a system that enables a desired item to be searched even in such a scene.

携帯電話機1は、通常の通話機能の他に、画像を撮影(撮像)する撮影機能、および文字データや画像データを送受信する通信機能を少なくとも有している。携帯電話機1は、ユーザの操作に基づいて、所望のアイテムを検索させるためにサーバ3に提供する画像であって、所望のアイテムに関連する画像(以下、クエリ画像と称する)を、ネットワーク2を介して、サーバ3に送信する。なお、携帯電話機1からは、クエリ画像とともに、クエリ画像を用いて検索処理を実行させることを表す検索コマンドも同時に送信されるものとする。   The mobile phone 1 has at least a photographing function for photographing (capturing) an image and a communication function for transmitting and receiving character data and image data in addition to a normal call function. The mobile phone 1 is an image provided to the server 3 to search for a desired item based on a user's operation, and an image related to the desired item (hereinafter referred to as a query image) is displayed on the network 2. To the server 3. It is assumed that a search command indicating that a search process is executed using the query image is transmitted from the mobile phone 1 together with the query image.

サーバ3は、携帯電話機1からネットワーク2を介して送信されてきたクエリ画像を、検索コマンドとともに受信する。そして、サーバ3は、そのクエリ画像に基づいて所定のアイテムを検索し、検索されたアイテムを、ネットワーク2を介して携帯電話機1に送信(返信)する。   The server 3 receives the query image transmitted from the mobile phone 1 via the network 2 together with the search command. Then, the server 3 searches for a predetermined item based on the query image, and transmits (replies) the searched item to the mobile phone 1 via the network 2.

従って、図1の検索システムでは、単語を入力することなく、所望のアイテムを検索することができる。   Therefore, in the search system of FIG. 1, it is possible to search for a desired item without inputting a word.

図2を参照して、図1の検索システムによる第1のアイテム検索処理の概要を説明する。   With reference to FIG. 2, an outline of the first item search process by the search system of FIG. 1 will be described.

携帯電話機1は、ユーザによって指定されたクエリ画像をサーバ3に送信する。クエリ画像は、例えば、携帯電話機1で撮影された画像、または、携帯電話機1が電子メールで受信した画像などとすることができる。   The mobile phone 1 transmits a query image designated by the user to the server 3. The query image can be, for example, an image taken by the mobile phone 1 or an image received by the mobile phone 1 by e-mail.

サーバ3の特徴量DB(Database)11には、様々な画像について、その画像の特徴を表す特徴量が記憶されている。サーバ3は、携帯電話機1から送信されてきたクエリ画像を受信し、その受信したクエリ画像の特徴量を抽出する。そして、サーバ3は、クエリ画像と画像の特徴量が類似するN枚(N≧1)の画像(画像群)を、特徴量DB11に記憶されている多数の画像のなかから検出する。特徴量DB11から検出された、クエリ画像と画像の特徴量が類似する画像を、類似画像と称する。   A feature amount DB (Database) 11 of the server 3 stores feature amounts representing features of various images. The server 3 receives the query image transmitted from the mobile phone 1 and extracts the feature amount of the received query image. Then, the server 3 detects N (N ≧ 1) images (image groups) whose image feature amounts are similar to those of the query image from among a large number of images stored in the feature amount DB 11. An image detected from the feature amount DB 11 and having a similar feature amount to the query image is referred to as a similar image.

サーバ3の画像アイテム対応DB12には、特徴量の類似性を基に、特徴量DB11に記憶されている画像それぞれについて、1以上のアイテムが対応付けられている。特徴量の類似した画像どうしには、同じアイテムが対応付けられていることもある。   In the image item correspondence DB 12 of the server 3, one or more items are associated with each image stored in the feature amount DB 11 based on the similarity of the feature amounts. The same item may be associated with images having similar feature amounts.

サーバ3は、検出されたN枚の類似画像それぞれと対応付けられているアイテムを、画像アイテム対応DB12から取得する。そして、サーバ3は、N枚の類似画像と対応付けられているアイテムのそれぞれについて、アイテムの頻度を計算する。ここで、アイテムの頻度とは、所定のアイテムが、画像アイテム対応DB12において対応付けられている類似画像の数を表し、例えば、アイテムfが、類似画像A、類似画像B、および類似画像Dに対して対応付けられている場合には、アイテムfの頻度は3と計算される。   The server 3 acquires an item associated with each of the detected N similar images from the image item correspondence DB 12. Then, the server 3 calculates the item frequency for each of the items associated with the N similar images. Here, the item frequency represents the number of similar images associated with a predetermined item in the image item correspondence DB 12. For example, the item f is a similar image A, a similar image B, and a similar image D. If they are associated with each other, the frequency of the item f is calculated as 3.

サーバ3は、計算されたアイテムの頻度をスコアとし、スコアの高いアイテムを、検索処理の結果としてユーザに提示する提示アイテムとして決定し、携帯電話機1に送信する。なお、提示アイテムは1つとは限らず、スコアの高い上位いくつかのアイテムを提示アイテムと決定することができる。   The server 3 uses the calculated item frequency as a score, determines an item with a high score as a presentation item to be presented to the user as a result of the search process, and transmits it to the mobile phone 1. Note that the number of items to be presented is not limited to one, and some items with higher scores can be determined as the items to be presented.

図3は、図2を参照して説明した第1のアイテム検索処理を実行する図1の検索システムの機能的構成例を示すブロック図である。なお、図3においては、ネットワーク2の図示が省略されている。   3 is a block diagram illustrating a functional configuration example of the search system of FIG. 1 that executes the first item search process described with reference to FIG. In addition, illustration of the network 2 is abbreviate | omitted in FIG.

携帯電話機1は、撮像部21、操作入力部22、表示部23、通信部24、および制御部25により構成される。一方、サーバ3は、特徴量DB11、画像アイテム対応DB12、通信部31、特徴量抽出部32、類似度計算部33、および提示アイテム決定部34により構成される。   The cellular phone 1 includes an imaging unit 21, an operation input unit 22, a display unit 23, a communication unit 24, and a control unit 25. On the other hand, the server 3 includes a feature amount DB 11, an image item correspondence DB 12, a communication unit 31, a feature amount extraction unit 32, a similarity calculation unit 33, and a presentation item determination unit 34.

撮像部21は、操作入力部22におけるユーザの操作に基づいて、所定の被写体を撮影する。撮影された画像は、図示せぬメモリに記憶される。   The imaging unit 21 captures a predetermined subject based on a user operation on the operation input unit 22. The captured image is stored in a memory (not shown).

操作入力部22は、通話を開始または終了するボタン、文字または数字などを入力するボタンなどにより構成され、ユーザの操作を受け付け、操作されたボタンに対応する操作情報を制御部25に供給する。   The operation input unit 22 includes a button for starting or ending a call, a button for inputting characters or numbers, and the like. The operation input unit 22 receives a user operation and supplies operation information corresponding to the operated button to the control unit 25.

表示部23は、LCD(Liquid Crystal Display)などのディスプレイにより構成され、所定の文字および画像を表示する。通信部24は、所定の情報を、サーバ3の通信部31との間で送受信する。例えば、通信部24は、撮像部21で撮影され、図示せぬメモリに一時的に記憶されている画像をクエリ画像としてサーバ3に送信し、クエリ画像から検索されたアイテムを受信する。制御部25は、携帯電話機1の各部を制御する。   The display unit 23 is configured by a display such as an LCD (Liquid Crystal Display), and displays predetermined characters and images. The communication unit 24 transmits / receives predetermined information to / from the communication unit 31 of the server 3. For example, the communication unit 24 transmits an image captured by the imaging unit 21 and temporarily stored in a memory (not shown) to the server 3 as a query image, and receives an item retrieved from the query image. The control unit 25 controls each unit of the mobile phone 1.

サーバ3の特徴量DB11は、画像の特徴を表す特徴量を、予め登録された複数の登録画像それぞれについて記憶する。また、特徴量DB11は、検索対象の多数のアイテムについても、そのアイテムの特徴を表す特徴量を記憶する。   The feature amount DB 11 of the server 3 stores feature amounts representing image features for each of a plurality of registered images registered in advance. The feature amount DB 11 also stores feature amounts representing the features of the items for many items to be searched.

画像アイテム対応DB12は、特徴量の類似性を基に、登録画像と検索対象のアイテムとを対応付けて記憶する。   The image item correspondence DB 12 stores the registered image and the search target item in association with each other based on the similarity of the feature amount.

図4は、特徴量DB11の例を、図5は、画像アイテム対応DB12の例を示している。但し、図4および図5に示すデータは、特徴量DB11および画像アイテム対応DB12に記憶されているものの一部である。   FIG. 4 shows an example of the feature amount DB 11, and FIG. 5 shows an example of the image item correspondence DB 12. However, the data shown in FIGS. 4 and 5 is a part of the data stored in the feature amount DB 11 and the image item correspondence DB 12.

例えば、特徴量DB11には、図4に示されるように、登録画像としての画像Aおよび画像Bと、検索対象のアイテムとしてのアイテムaおよびアイテムbについての特徴量が記憶されている。   For example, as shown in FIG. 4, the feature amount DB 11 stores feature amounts for images A and B as registered images and items a and b as items to be searched.

より具体的には、「涼しげ」、「のどか」、「素朴」、および「暖かい」の4種類のムードに対する割合が、特徴量として画像またはアイテムに設定され、特徴量DB11に記憶されている。ここで、ムードとは、感性(感情)を表す概念または語である。また、割合は、画像またはアイテムが所定のムードを有するか否かを「0」または「1.0」で表している。   More specifically, the ratios of the four types of moods of “cool”, “throat”, “simple”, and “warm” are set in the image or item as feature amounts and stored in the feature amount DB 11. Here, the mood is a concept or word representing sensitivity (emotion). In addition, the ratio indicates whether the image or item has a predetermined mood by “0” or “1.0”.

画像Aは、「涼しげ」というムードに対しては「1.0」の割合を、「のどか」というムードに対しては「1.0」の割合を、「素朴」というムードに対しては「0」の割合を、「暖かい」というムードに対しては「0」の割合を有している。同様に、画像Bは、「涼しげ」、「のどか」、「素朴」、および「暖かい」のムードに対して、それぞれ、「0」、「1.0」、「0」、および「1.0」の割合を有している。   Image A has a ratio of “1.0” for the mood of “cool”, a ratio of “1.0” for the mood of “throat”, and “ The ratio of “0” is set to “0” for the mood of “warm”. Similarly, image B has “0”, “1.0”, “0”, and “1.0” for the “cool”, “throat”, “rustic”, and “warm” moods, respectively. ”.

また、アイテムaは、「涼しげ」、「のどか」、「素朴」、および「暖かい」のムードに対して、それぞれ、「0」、「1.0」、「1.0」、および「0」の割合を有し、アイテムbは、「涼しげ」、「のどか」、「素朴」、および「暖かい」のムードに対して、それぞれ、「1.0」、「1.0」、「0」、および「0」の割合を有している。   Item a is “0”, “1.0”, “1.0”, and “0” for the “cool”, “throat”, “rustic”, and “warm” moods, respectively. The item b has a ratio of “1.0”, “1.0”, “0” for “cool”, “throat”, “rustic”, and “warm” moods, respectively. And a ratio of “0”.

各登録画像またはアイテムの全体としての特徴量は、各ムードを成分とするベクトルとして表すことができ、このベクトルをムードベクトルと称する。   The total feature amount of each registered image or item can be expressed as a vector having each mood as a component, and this vector is referred to as a mood vector.

一方、画像アイテム対応DB12には、図5に示されるように、画像A乃至Dそれぞれに対して、特徴量(ムードベクトル)が類似するアイテムが対応付けられて記憶されている。   On the other hand, in the image item correspondence DB 12, as shown in FIG. 5, items having similar feature quantities (mood vectors) are stored in association with the images A to D, respectively.

具体的には、画像Aは、アイテムb、アイテムf、およびアイテムhと特徴量が類似していることが記憶されており、画像Bは、アイテムeおよびアイテムfと特徴量が類似していることが記憶されている。また、画像Cは、アイテムcおよびアイテムxと特徴量が類似し、画像Dは、アイテムf、アイテムh、アイテムy、およびアイテムzと特徴量が類似していることが記憶されている。   Specifically, it is stored that the feature amount of the image A is similar to the item b, the item f, and the item h, and the feature amount of the image B is similar to the item e and the item f. Is remembered. Further, it is stored that the feature amount of the image C is similar to the item c and the item x, and the feature amount of the image D is similar to the item f, the item h, the item y, and the item z.

図3に戻り、サーバ3の通信部31は、携帯電話機1の通信部24との間で、所定の情報を送受信する。例えば、通信部31は、携帯電話機1から送信されてきたクエリ画像を受信する。受信することにより取得されたクエリ画像は、特徴量抽出部32に供給される。また、通信部31は、提示アイテム決定部34から供給される、検索結果としての提示アイテムを、携帯電話機1の通信部24に送信する。   Returning to FIG. 3, the communication unit 31 of the server 3 transmits and receives predetermined information to and from the communication unit 24 of the mobile phone 1. For example, the communication unit 31 receives a query image transmitted from the mobile phone 1. The query image acquired by receiving is supplied to the feature amount extraction unit 32. In addition, the communication unit 31 transmits the presentation item as a search result supplied from the presentation item determination unit 34 to the communication unit 24 of the mobile phone 1.

特徴量抽出部32は、通信部31から供給されたクエリ画像の特徴量を抽出し、その結果得られるムードベクトルを類似度計算部33に供給する。   The feature amount extraction unit 32 extracts the feature amount of the query image supplied from the communication unit 31 and supplies the mood vector obtained as a result to the similarity calculation unit 33.

ここで、画像の特徴量としては、例えば、画像のRGBやCIELABによる色の情報、形状情報、周波数成分などを表すベクトルやヒストグラムを採用することができ、画像の特徴量をどのように有している場合が、図4に示した「涼しげ」、「のどか」、「素朴」、および「暖かい」等のムードに対応するかが予め学習されているので、特徴量抽出部32は、抽出された画像の特徴量に基づいてムードベクトルを生成することができる。   Here, as the feature amount of the image, for example, a vector or histogram representing color information, shape information, frequency component, etc. by RGB or CIELAB of the image can be adopted. 4 is learned in advance as to whether it corresponds to the mood such as “cool”, “throat”, “simple”, and “warm” shown in FIG. A mood vector can be generated based on the feature amount of the image.

画像の特徴量とムードとの対応の学習は、例えば、アンケートなどによって多数のユーザに、所定の画像を見たときにどのような感情(ムード)を抱くかのアンケートをとると同時に、その画像の特徴量を抽出し、どのような画像の特徴量のときに、ユーザがどのような感情を持つか、即ち、その画像にどのようなムードを付与すればよいかを、対応分析や主成分分析などの多変量解析により決定するものである。これにより、学習をさせていない未知の画像に対しても、画像の特徴量が分かればムードを付与することができるようになる。   The learning of correspondence between the feature quantity of the image and the mood, for example, by taking a questionnaire on what emotion (mood) the user feels when viewing a predetermined image to a large number of users through a questionnaire, etc. The feature amount is extracted, and what kind of emotion the user has when the feature amount of the image, that is, what kind of mood should be given to the image, correspondence analysis and principal component It is determined by multivariate analysis such as analysis. As a result, it is possible to add a mood to an unknown image that has not been learned if the feature amount of the image is known.

また、特徴量抽出部32は、特徴量DB11へのデータ格納時において、通信部31から供給される登録画像の特徴量を抽出し、その結果得られるムードベクトルを特徴量DB11に記憶させるとともに、通信部31から供給されるアイテムのムードベクトルも特徴量DB11に記憶させる。このアイテムのムードベクトルは、例えば、人手によって付与されたものである。   Further, the feature quantity extraction unit 32 extracts the feature quantity of the registered image supplied from the communication unit 31 when storing data in the feature quantity DB 11, and stores the mood vector obtained as a result in the feature quantity DB 11, The mood vector of the item supplied from the communication unit 31 is also stored in the feature amount DB 11. The mood vector of this item is given by hand, for example.

類似度計算部33は、特徴量抽出部32から供給されるクエリ画像と、特徴量DB11に記憶されている登録画像それぞれとの類似度を計算し、類似度が高いN枚の登録画像を表す情報を提示アイテム決定部34に供給する。類似度の計算は、例えば、クエリ画像のムードベクトルと、登録画像のムードベクトルのコサイン距離または内積を採用することができる。   The similarity calculation unit 33 calculates the similarity between the query image supplied from the feature amount extraction unit 32 and each registered image stored in the feature amount DB 11, and represents N registered images with high similarity. Information is supplied to the presentation item determination unit 34. For the calculation of the similarity, for example, the cosine distance or inner product of the mood vector of the query image and the mood vector of the registered image can be adopted.

また、類似度計算部33は、特徴量DB11に記憶されている登録画像およびアイテムそれぞれのムードベクトルに基づいて、画像アイテム対応DB12の、登録画像とアイテムとの対応付けも行う。より具体的には、類似度計算部33は、特徴量DB11に記憶されている登録画像と、特徴量DB11に記憶されている各アイテムとの類似度を計算し、所定の値以上の類似度となるアイテムを、その登録画像に対応するアイテムとして、画像アイテム対応DB12に記憶することを、特徴量DB11に記憶されている登録画像すべてについて行う。   The similarity calculation unit 33 also associates the registered image with the item in the image item correspondence DB 12 based on the registered image and the mood vector of each item stored in the feature amount DB 11. More specifically, the similarity calculation unit 33 calculates the similarity between the registered image stored in the feature amount DB 11 and each item stored in the feature amount DB 11, and the similarity is equal to or greater than a predetermined value. Is stored in the image item correspondence DB 12 as an item corresponding to the registered image for all the registered images stored in the feature amount DB 11.

提示アイテム決定部34は、類似度計算部33から供給される、N枚の登録画像それぞれについて、画像アイテム対応DB12を参照して、登録画像に対応するアイテムが何であるかを検索する。そして、提示アイテム決定部34は、検索されたアイテムそれぞれについて、アイテムの頻度をスコアとして計算する。さらに、提示アイテム決定部34は、スコアの高いアイテムを、ユーザに提示する提示アイテムとして決定し、通信部31に供給する。   The presented item determination unit 34 refers to the image item correspondence DB 12 for each of the N registered images supplied from the similarity calculation unit 33 and searches for the item corresponding to the registered image. And the presentation item determination part 34 calculates the frequency of an item as a score about each searched item. Furthermore, the presentation item determination unit 34 determines an item with a high score as a presentation item to be presented to the user, and supplies it to the communication unit 31.

次に、図6のフローチャートを参照して、第1のアイテム検索処理について説明する。   Next, the first item search process will be described with reference to the flowchart of FIG.

いまユーザが、自分が目にしている風景に合うアイテムを検索しようとした場合、初めに、ステップS11において、携帯電話機1の撮像部21は、操作入力部22におけるユーザの操作に基づいて、所定の被写体(風景)を撮影する。このステップS11で撮影された画像がクエリ画像であるとする。   If the user now tries to search for an item that matches the scenery he / she sees, first, in step S <b> 11, the imaging unit 21 of the mobile phone 1 performs a predetermined operation based on the user's operation on the operation input unit 22. Shoot the subject (landscape). It is assumed that the image captured in step S11 is a query image.

ステップS12において、通信部24は、制御部25の制御にしたがい、撮像部21で撮影されたクエリ画像をサーバ3に送信する。   In step S <b> 12, the communication unit 24 transmits the query image captured by the imaging unit 21 to the server 3 under the control of the control unit 25.

ステップS13において、サーバ3の通信部31は、ネットワーク2を介して携帯電話機1の通信部24から送信されてきたクエリ画像を受信する。受信された画像は、特徴量抽出部32に供給される。   In step S <b> 13, the communication unit 31 of the server 3 receives the query image transmitted from the communication unit 24 of the mobile phone 1 via the network 2. The received image is supplied to the feature amount extraction unit 32.

ステップS14において、特徴量抽出部32は、通信部31から供給されたクエリ画像のムードベクトルを生成し、類似度計算部33に供給する。   In step S <b> 14, the feature amount extraction unit 32 generates a mood vector of the query image supplied from the communication unit 31 and supplies the mood vector to the similarity calculation unit 33.

ステップS15において、類似度計算部33は、特徴量抽出部32から供給されるクエリ画像のムードベクトルと、特徴量DB11に記憶されている登録画像それぞれのムードベクトルとの類似度を計算する。そして、類似度計算部33は、類似度が高いN枚の登録画像を表す情報を提示アイテム決定部34に供給する。   In step S <b> 15, the similarity calculation unit 33 calculates the similarity between the mood vector of the query image supplied from the feature amount extraction unit 32 and the mood vector of each registered image stored in the feature amount DB 11. Then, the similarity calculation unit 33 supplies information representing N registered images with high similarity to the presentation item determination unit 34.

ステップS16において、提示アイテム決定部34は、類似度計算部33から供給された情報が表すN枚の登録画像(類似度の高い登録画像)と紐付けられているアイテムを、画像アイテム対応DB12から取得する。   In step S <b> 16, the presentation item determination unit 34 extracts items associated with N registered images (registered images with high similarity) represented by the information supplied from the similarity calculation unit 33 from the image item correspondence DB 12. get.

そして、ステップS17において、提示アイテム決定部34は、アイテムの頻度をスコアとして計算し、ステップS18において、スコアの高いアイテムを、提示アイテムとして決定する。決定された提示アイテムは、提示アイテム決定部34から通信部31に供給される。   In step S17, the presentation item determination unit 34 calculates the item frequency as a score, and in step S18, determines an item with a high score as a presentation item. The determined presentation item is supplied from the presentation item determination unit 34 to the communication unit 31.

ステップS19において、通信部31は、提示アイテムを、ネットワーク2を介して、携帯電話機1に送信する。   In step S <b> 19, the communication unit 31 transmits the presentation item to the mobile phone 1 via the network 2.

ステップS20において、携帯電話機1は、送信されてきた提示アイテムを受信し、表示部23に表示する。即ち、通信部24は、サーバ3から送信されてきた提示アイテムを受信し、制御部25に供給する。制御部25は、表示部23を制御して、そのアイテムを表示部23に表示させて、処理を終了する。   In step S <b> 20, the mobile phone 1 receives the transmitted presentation item and displays it on the display unit 23. That is, the communication unit 24 receives the presentation item transmitted from the server 3 and supplies it to the control unit 25. The control part 25 controls the display part 23, displays the item on the display part 23, and complete | finishes a process.

以上のように、第1のアイテム検索処理によれば、クエリ画像を用いてユーザの所望のアイテムを検索するので、ユーザは所定の文字(単語)を入力することなく、所望のアイテムをユーザに提示することができる。従って、所望の情報を言語化することが難しい場合であっても、ユーザは容易に検索することができる。   As described above, according to the first item search process, the user's desired item is searched using the query image. Therefore, the user can input the desired item to the user without inputting a predetermined character (word). Can be presented. Therefore, even if it is difficult to verbalize desired information, the user can easily search.

なお、上述した例では、アイテムの頻度を、そのままスコアとして用いたが、その他の計算によってアイテムのスコアを求めることも可能である。例えば、類似度の順位が1位の登録画像に紐付けられているアイテムには10点、類似度の順位が2位の登録画像に紐付けられているアイテムには6点、類似度の順位が3位の登録画像に紐付けられているアイテムには4点など、類似度の順位に応じてアイテムのスコアに重みを持たせる、順位重み付きスコアで提示アイテムを決定してもよい。また、類似度の値そのものを重みとしたアイテムの重み付きスコアを計算することにより、提示アイテムを決定してもよい。   In the above-described example, the item frequency is used as a score as it is, but it is also possible to obtain the item score by other calculations. For example, 10 items are assigned to an item linked to a registered image with the first rank of similarity, and 6 points are assigned to an item linked to a registered image with the second rank of similarity. The item associated with the registered image of the third place may be determined by a rank-weighted score such that the item score is given a weight according to the similarity rank, such as 4 points. Further, the presentation item may be determined by calculating a weighted score of the item with the similarity value itself as a weight.

次に、図7を参照して、図1の検索システムによる第2のアイテム検索処理の概要を説明する。   Next, an outline of the second item search process by the search system of FIG. 1 will be described with reference to FIG.

携帯電話機1は、クエリ画像をサーバ3に送信する。サーバ3は、携帯電話機1から送信されてきたクエリ画像を受信し、その受信したクエリ画像の特徴量を抽出する。さらに、サーバ3は、クエリ画像と画像の特徴量が類似するN枚の類似画像(画像群)を、特徴量DB11に記憶されている多数の登録画像のなかから検出する。ここまでの処理は、上述した第1のアイテム検索処理と同様である。   The mobile phone 1 transmits the query image to the server 3. The server 3 receives the query image transmitted from the mobile phone 1 and extracts the feature amount of the received query image. Further, the server 3 detects N similar images (image groups) whose image feature amounts are similar to those of the query image from among a large number of registered images stored in the feature amount DB 11. The process so far is the same as the first item search process described above.

サーバ3のマッピング情報DB51には、図7に示すように、特徴量DB11に記憶されている登録画像とアイテムを、同一空間Rの空間上にマッピングしたマッピング情報が記憶されている。   As shown in FIG. 7, the mapping information DB 51 of the server 3 stores mapping information in which registered images and items stored in the feature amount DB 11 are mapped on the same space R.

サーバ3は、検出されたN枚の類似画像それぞれの空間R上の距離が近いアイテムから提示アイテムを決定する。より具体的には、サーバ3は、検出されたN枚の類似画像それぞれについて、空間上の距離が近い(類似画像と空間上の距離が所定の範囲以内の)複数のアイテムを検出する。そして、サーバ3は、検出されたすべてのアイテムについて、アイテムの頻度をスコアとして計算し、スコアの高いアイテムを提示アイテムと決定し、携帯電話機1に送信する。   The server 3 determines a presentation item from items whose distances in the space R of the detected N similar images are close. More specifically, the server 3 detects, for each of the detected N similar images, a plurality of items that are close in space (the similar image and the distance in space are within a predetermined range). Then, the server 3 calculates the item frequency for all detected items as a score, determines an item with a high score as a presentation item, and transmits the item to the mobile phone 1.

図8は、図7を参照して説明した第2のアイテム検索処理を実行する図1の検索システムの機能的構成例を示すブロック図である。なお、図8において、図3と対応する部分については同一の符号を付してあり、重複する説明は適宜省略する。また、ネットワーク2の図示は図3と同様に省略されている。   FIG. 8 is a block diagram illustrating a functional configuration example of the search system in FIG. 1 that executes the second item search process described with reference to FIG. 7. In FIG. 8, parts corresponding to those in FIG. 3 are denoted by the same reference numerals, and redundant description is omitted as appropriate. Further, the illustration of the network 2 is omitted as in FIG.

図8では、画像アイテム対応DB12に代えてマッピング情報DB51が設けられている点と、提示アイテム決定部34に代えて提示アイテム決定部52が設けられている点が、図3と相違する。   8 is different from FIG. 3 in that a mapping information DB 51 is provided instead of the image item correspondence DB 12 and a presentation item determination unit 52 is provided instead of the presentation item determination unit 34.

マッピング情報DB51には、上述したように、特徴量DB11に記憶されている登録画像とアイテムを、同一の空間R上にマッピングしたマッピング情報が記憶されている。このマッピング情報は、人手によって作成することも可能であるし、対応分析などを利用し、類似度計算部33が作成することも可能である。   As described above, the mapping information DB 51 stores mapping information in which registered images and items stored in the feature amount DB 11 are mapped on the same space R. This mapping information can be created manually, or can be created by the similarity calculation unit 33 using correspondence analysis or the like.

人手によってマッピング情報を作成する場合には、予め空間および次元を定義し、その空間上に、人手により決定された、特徴量DB71の登録画像およびアイテムの位置(座標)が、マッピング情報として記憶される。   When creating mapping information manually, a space and a dimension are defined in advance, and the registered image of the feature amount DB 71 and the position (coordinates) of the item determined by hand are stored as mapping information in the space. The

一方、対応分析を利用する場合には、予め登録画像と類似したアイテムのセット(複数のアイテム)を人手により作成し、類似度計算部33が、そのクロス集計結果を用いて対応分析を行うことで、登録画像とアイテムを同一多次元空間上に写像することができる。   On the other hand, when using correspondence analysis, a set of items (a plurality of items) similar to a registered image is manually created in advance, and the similarity calculation unit 33 performs correspondence analysis using the cross tabulation result. Thus, the registered image and the item can be mapped on the same multidimensional space.

類似度計算部33は、特徴量抽出部32から供給されるクエリ画像と、特徴量DB11に記憶されている登録画像それぞれとの類似度を計算し、類似度が高いN枚の登録画像を表す情報を提示アイテム決定部52に供給する。   The similarity calculation unit 33 calculates the similarity between the query image supplied from the feature amount extraction unit 32 and each registered image stored in the feature amount DB 11, and represents N registered images with high similarity. Information is supplied to the presentation item determination unit 52.

提示アイテム決定部52は、類似度計算部33から供給される情報が表す、N枚の登録画像それぞれについて、マッピング情報DB51を参照して、登録画像と空間R上の距離が近い複数のアイテムを検出する。そして、提示アイテム決定部52は、検出されたすべてのアイテムについて、第1のアイテム検索処理と同様のアイテムの頻度をスコアとして計算し、スコアの高いアイテムを提示アイテムと決定し、通信部31に供給する。   The presentation item determination unit 52 refers to the mapping information DB 51 for each of the N registered images represented by the information supplied from the similarity calculation unit 33, and selects a plurality of items whose distances in the space R are close to the registered image. To detect. And the presentation item determination part 52 calculates the frequency of the item similar to a 1st item search process as a score about all the detected items, determines an item with a high score as a presentation item, The communication part 31 Supply.

なお、本実施の形態では、複数枚の類似画像についての情報が類似度計算部33から提示アイテム決定部52に供給されるものとするが、類似度計算部33から供給される類似画像の枚数が1枚である場合には、その1枚の類似画像に空間上の距離が最も近いアイテムを提示アイテムとすればよい。   In the present embodiment, information about a plurality of similar images is supplied from the similarity calculation unit 33 to the presentation item determination unit 52. However, the number of similar images supplied from the similarity calculation unit 33 If the number is one, the item that is closest in space to the one similar image may be the presentation item.

図9のフローチャートを参照して、第2のアイテム検索処理について説明する。   The second item search process will be described with reference to the flowchart of FIG.

図9のステップS31乃至S35の処理は、図6のステップS11乃至S15の処理と同様であるので、その説明は省略する。   The processing in steps S31 to S35 in FIG. 9 is the same as the processing in steps S11 to S15 in FIG.

ステップS36において、提示アイテム決定部52は、マッピング情報DB51を参照して、類似度計算部33から供給された情報が表すN枚の登録画像(類似度の高い登録画像)と空間上の距離が近い複数のアイテムを検出する。   In step S36, the presentation item determination unit 52 refers to the mapping information DB 51, and the N registration images (registered images with high similarity) represented by the information supplied from the similarity calculation unit 33 and the spatial distance are determined. Detect multiple items near you.

ステップS37において、提示アイテム決定部52は、検出されたすべてのアイテムについて、アイテムの頻度をスコアとして計算し、ステップS38において、スコアの高いアイテムを提示アイテムと決定する。   In step S <b> 37, the presented item determination unit 52 calculates the item frequency as a score for all detected items, and in step S <b> 38, determines an item with a high score as a presented item.

そして、ステップS39およびS40では、上述したステップS19およびS20と同様に、通信部31によって提示アイテムが携帯電話機1に送信され、提示アイテムを受信した携帯電話機1では、表示部23に提示アイテムが表示されて、処理が終了する。   In steps S39 and S40, as in steps S19 and S20 described above, the presentation item is transmitted to the mobile phone 1 by the communication unit 31, and the presentation item is displayed on the display unit 23 in the mobile phone 1 that has received the presentation item. Then, the process ends.

以上のように、第2のアイテム検索処理においても、ユーザは所定の文字(単語)を入力することなく、所望のアイテムをユーザに提示することができる。従って、所望の情報を言語化することが難しい場合であっても、ユーザは容易に検索することができる。   As described above, also in the second item search process, the user can present a desired item to the user without inputting a predetermined character (word). Therefore, even if it is difficult to verbalize desired information, the user can easily search.

なお、第2のアイテム検索処理においても、各アイテムのスコアを、上述したアイテムの頻度以外の値で求めることが可能である。   In the second item search process, the score of each item can be obtained by a value other than the item frequency described above.

例えば、空間R上の各アイテムが決定されるまでには、クエリ画像と類似画像との類似度(類似度Iと称する)、および、空間R上の距離で表される類似画像とアイテムとの類似度(類似度IIと称する)の2つの類似度が計算されていることになるが、各アイテムのスコアを、類似度Iと類似度IIの積の和(アイテムについての和)として計算することもできる。   For example, until each item on the space R is determined, the similarity between the query image and the similar image (referred to as similarity I), and the similar image and the item represented by the distance on the space R Two similarities of similarity (referred to as similarity II) are calculated, and the score of each item is calculated as the sum of the products of similarity I and similarity II (sum of items) You can also.

次に、図10を参照して、図1の検索システムによる第3のアイテム検索処理の概要を説明する。   Next, with reference to FIG. 10, an outline of the third item search process by the search system of FIG. 1 will be described.

第3のアイテム検索処理は、画像に加えて、文字(単語)も補助的に入力する場合の検索処理である。   The third item search process is a search process in the case where characters (words) are additionally input in addition to images.

即ち、いまユーザは、携帯電話機1において、クエリ画像とともに、所望のアイテムに関連する単語(以下、クエリ語と称する)として「洋服」を指定(入力)したものとする。携帯電話機1は、指定されたクエリ画像とクエリ語「洋服」を、ネットワーク2を介して、サーバ3に送信する。   That is, it is assumed that the user specifies (inputs) “clothes” as a word related to a desired item (hereinafter referred to as a query word) together with the query image in the mobile phone 1. The mobile phone 1 transmits the designated query image and the query word “clothes” to the server 3 via the network 2.

サーバ3の特徴量DB71には、図10に示されるように、所定のアイテムに対して、ムードベクトルと、アイテムを説明するキーワードが予め記憶されている。   As shown in FIG. 10, the feature vector DB 71 of the server 3 stores a mood vector and a keyword describing the item in advance for a predetermined item.

サーバ3は、最初に、上述した2つの実施の形態と同様に、携帯電話機1から送信されてきたクエリ画像を受信し、その受信したクエリ画像の特徴量を抽出する。また、サーバ3は、携帯電話機1から送信されてきたクエリ語に基づいて、特徴量DB71に記憶されているアイテムを検索する。これにより、クエリ語と同一のキーワードを有する複数のアイテム(アイテム群)が特徴量DB71から検出される。   First, similarly to the two embodiments described above, the server 3 receives the query image transmitted from the mobile phone 1 and extracts the feature amount of the received query image. Further, the server 3 searches for an item stored in the feature amount DB 71 based on the query word transmitted from the mobile phone 1. Thereby, a plurality of items (item group) having the same keyword as the query word are detected from the feature amount DB 71.

次に、サーバ3は、クエリ語をキーワードとして有するアイテムそれぞれについて、クエリ画像との類似度を計算する。より具体的には、アイテムに対して設定されているムードベクトルと、クエリ画像から抽出された特徴量から生成されるムードベクトルとの類似度が計算される。その結果、類似度の高いアイテムが提示アイテムとして決定され、携帯電話機1に送信される。   Next, the server 3 calculates the similarity with the query image for each item having the query word as a keyword. More specifically, the similarity between the mood vector set for the item and the mood vector generated from the feature amount extracted from the query image is calculated. As a result, an item with a high degree of similarity is determined as a presentation item and transmitted to the mobile phone 1.

図11は、図10を参照して説明した第3のアイテム検索処理を実行する図1の検索システムの機能的構成例を示すブロック図である。なお、図11において、図3と対応する部分については同一の符号を付してあり、重複する説明は適宜省略する。また、ネットワーク2の図示は図3と同様に省略されている。   FIG. 11 is a block diagram illustrating a functional configuration example of the search system of FIG. 1 that executes the third item search process described with reference to FIG. In FIG. 11, parts corresponding to those in FIG. 3 are denoted by the same reference numerals, and redundant description will be omitted as appropriate. Further, the illustration of the network 2 is omitted as in FIG.

図11では、特徴量DB71、検索部72、および提示アイテム決定部73が、特徴量DB11および提示アイテム決定部34に代えて設けられている点と、画像アイテム対応DB12が省略されている点が、図3と相違する。   In FIG. 11, the feature amount DB 71, the search unit 72, and the presentation item determination unit 73 are provided in place of the feature amount DB 11 and the presentation item determination unit 34, and the point that the image item correspondence DB 12 is omitted. 3 is different from FIG.

通信部31は、携帯電話機1の通信部24から送信されてきたクエリ画像とクエリ語を受信し、クエリ画像を特徴量抽出部32に、クエリ語を検索部72に供給する。   The communication unit 31 receives the query image and the query word transmitted from the communication unit 24 of the mobile phone 1, and supplies the query image to the feature amount extraction unit 32 and the query word to the search unit 72.

特徴量抽出部32は、上述したように、クエリ画像の特徴量を抽出し、その結果得られるムードベクトルを類似度計算部33に供給する。   As described above, the feature amount extraction unit 32 extracts the feature amount of the query image, and supplies the mood vector obtained as a result to the similarity calculation unit 33.

特徴量DB71は、各種の登録画像およびアイテムについてのムードベクトルを記憶する。なお、特徴量DB71は、図12に示されるように、各アイテムについては、ムードベクトルだけでなく、キーワードも対応付けて記憶されている点が、図3の特徴量DB11と異なる。   The feature DB 71 stores mood vectors for various registered images and items. As shown in FIG. 12, the feature amount DB 71 is different from the feature amount DB 11 of FIG. 3 in that not only the mood vector but also the keyword is stored in association with each item.

図12の例では、アイテムaには、「涼しげ」、「のどか」、「素朴」、および「暖かい」のムードベクトル(「0」、「1.0」、「1.0」、および「0」)とともに、キーワード「洋服」および「女性用」が記憶されている。また、アイテムbには、「涼しげ」、「のどか」、「素朴」、および「暖かい」のムードベクトル(「1.0」、「1.0」、「0」、および「0」)とともに、キーワード「洋服」および「男性用」が記憶されている。   In the example of FIG. 12, the item a includes mood vectors of “cool”, “throat”, “rustic”, and “warm” (“0”, “1.0”, “1.0”, and “0”). )) And keywords “clothes” and “for women” are stored. Item b includes “cool”, “throat”, “rustic”, and “warm” mood vectors (“1.0”, “1.0”, “0”, and “0”), The keywords “clothes” and “for men” are stored.

図11の検索部72は、特徴量DB71(図12)の各アイテムについてキーワードをチェックし、通信部31から供給されたクエリ語をキーワードとして有するアイテムをすべて検出し、検出されたアイテムのムードベクトルを類似度計算部33に供給する。   The search unit 72 in FIG. 11 checks the keyword for each item in the feature amount DB 71 (FIG. 12), detects all items having the query word supplied from the communication unit 31 as a keyword, and the mood vector of the detected item Is supplied to the similarity calculator 33.

類似度計算部33は、検索部72から供給されるアイテムのムードベクトルと、特徴量抽出部32から供給されるクエリ画像のムードベクトルとの類似度を計算し、その計算結果を提示アイテム決定部73に供給する。   The similarity calculation unit 33 calculates the similarity between the mood vector of the item supplied from the search unit 72 and the mood vector of the query image supplied from the feature amount extraction unit 32, and presents the calculation result as a presentation item determination unit. 73.

提示アイテム決定部73は、類似度計算部33から供給される各アイテム(クエリ語を有するアイテム)の、クエリ画像との類似度に基づいて、提示アイテムを決定し、通信部31に供給する。即ち、類似度の高い所定個数のアイテムが、提示アイテムとして通信部31に供給される。   The presentation item determination unit 73 determines a presentation item based on the similarity between each item (item having a query word) supplied from the similarity calculation unit 33 and the query image, and supplies the determined presentation item to the communication unit 31. That is, a predetermined number of items having a high degree of similarity are supplied to the communication unit 31 as presentation items.

図13は、第3のアイテム検索処理を説明するフローチャートである。   FIG. 13 is a flowchart for explaining the third item search process.

初めに、ステップS51において、携帯電話機1の操作入力部22は、ユーザの操作に基づいて、クエリ語の入力を受け付け、ステップS52において、撮像部21は、所定の被写体を撮影する。   First, in step S51, the operation input unit 22 of the mobile phone 1 accepts an input of a query word based on a user operation. In step S52, the imaging unit 21 captures a predetermined subject.

ステップS53において、通信部24は、制御部25の制御にしたがい、クエリ語とクエリ画像をサーバ3に送信する。   In step S <b> 53, the communication unit 24 transmits the query word and the query image to the server 3 under the control of the control unit 25.

ステップS54において、サーバ3の通信部31は、ネットワーク2を介して携帯電話機1の通信部24から送信されてきたクエリ語とクエリ画像を受信し、クエリ画像を特徴量抽出部32に、クエリ語を検索部72にそれぞれ供給する。   In step S <b> 54, the communication unit 31 of the server 3 receives the query word and the query image transmitted from the communication unit 24 of the mobile phone 1 via the network 2, and sends the query image to the feature amount extraction unit 32. Are respectively supplied to the search unit 72.

ステップS55において、特徴量抽出部32は、通信部31から供給されたクエリ画像のムードベクトルを生成し、類似度計算部33に供給する。   In step S <b> 55, the feature amount extraction unit 32 generates a mood vector of the query image supplied from the communication unit 31 and supplies the mood vector to the similarity calculation unit 33.

ステップS56において、検索部72は、通信部31から供給されたクエリ語を有するアイテムを特徴量DB71から検索する。検索部72は、検索の結果得られたアイテムのムードベクトルを類似度計算部33に供給する。   In step S <b> 56, the search unit 72 searches the feature amount DB 71 for items having the query word supplied from the communication unit 31. The search unit 72 supplies the mood vector of the item obtained as a result of the search to the similarity calculation unit 33.

ステップS57において、類似度計算部33は、検索部72から供給されたアイテムのムードベクトルと、特徴量抽出部32から供給されたクエリ画像のムードベクトルとの類似度を計算する。   In step S <b> 57, the similarity calculation unit 33 calculates the similarity between the mood vector of the item supplied from the search unit 72 and the mood vector of the query image supplied from the feature amount extraction unit 32.

ステップS58において、提示アイテム決定部73は、類似度計算部33から供給される各アイテムの、クエリ画像との類似度に基づいて、提示アイテムを決定する。即ち、提示アイテム決定部73は、類似度の高い所定個数のアイテムを、提示アイテムとして通信部31に供給する。   In step S <b> 58, the presentation item determination unit 73 determines a presentation item based on the similarity between each item supplied from the similarity calculation unit 33 and the query image. That is, the presentation item determination unit 73 supplies a predetermined number of items with high similarity to the communication unit 31 as presentation items.

ステップS59において、通信部31は、提示アイテムを、ネットワーク2を介して、携帯電話機1に送信する。   In step S <b> 59, the communication unit 31 transmits the presentation item to the mobile phone 1 via the network 2.

ステップS60において、携帯電話機1は、送信されてきた提示アイテムを受信し、表示部23に表示する。即ち、通信部24は、サーバ3から送信されてきた提示アイテムを受信し、制御部25に供給する。制御部25は、表示部23を制御して、そのアイテムを表示部23に表示させて、処理を終了する。   In step S <b> 60, the mobile phone 1 receives the transmitted presentation item and displays it on the display unit 23. That is, the communication unit 24 receives the presentation item transmitted from the server 3 and supplies it to the control unit 25. The control part 25 controls the display part 23, displays the item on the display part 23, and complete | finishes a process.

以上のように、第3のアイテム検索処理によれば、クエリ語を使用して検索対象のアイテムを絞り、クエリ画像に対応する所望のアイテムをユーザに提示することができる。従って、所望の情報を言語化することが難しい場合であっても、ユーザは容易に検索することができる。   As described above, according to the third item search process, the search target items can be narrowed down using the query word, and a desired item corresponding to the query image can be presented to the user. Therefore, even if it is difficult to verbalize desired information, the user can easily search.

次に、図14のフローチャートを参照して、その他の第3のアイテム検索処理について説明する。上述した例では、クエリ画像全体から得られる特徴量(ムードベクトル)を、特徴量DB71に記憶されているアイテムの特徴量(ムードベクトル)と比較したが、この処理では、ユーザがクエリ画像のなかで特に着目する着目点(着目領域)を指定し、その着目点の特徴量に基づいたアイテムの検索ができるようにするものである。   Next, another third item search process will be described with reference to the flowchart of FIG. In the above-mentioned example, the feature amount (mood vector) obtained from the entire query image is compared with the feature amount (mood vector) of the item stored in the feature amount DB 71. Is used to designate a point of interest (region of interest) of particular interest, and to search for items based on the feature amount of the point of interest.

初めに、ステップS71において、携帯電話機1の操作入力部22は、ユーザの操作に基づいて、クエリ語の入力を受け付け、ステップS72において、撮像部21は、所定の被写体を撮影する。   First, in step S71, the operation input unit 22 of the mobile phone 1 receives an input of a query word based on a user operation, and in step S72, the imaging unit 21 captures a predetermined subject.

ステップS73において、表示部23は、制御部25の制御の下、撮影されたクエリ画像を表示する。そして、操作入力部22は、ユーザの操作に基づいて、表示されたクエリ画像に対する着目点の入力を受け付ける。操作入力部22で受け付けられた着目点についての情報(以下、着目点情報と称する)は、制御部25に供給される。   In step S <b> 73, the display unit 23 displays the captured query image under the control of the control unit 25. And the operation input part 22 receives the input of the attention point with respect to the displayed query image based on a user's operation. Information about the point of interest received by the operation input unit 22 (hereinafter referred to as point-of-interest information) is supplied to the control unit 25.

ステップS74において、通信部24は、制御部25の制御にしたがい、クエリ語、クエリ画像、および着目点情報をサーバ3に送信する。   In step S <b> 74, the communication unit 24 transmits the query word, the query image, and the point of interest information to the server 3 under the control of the control unit 25.

ステップS75において、サーバ3の通信部31は、ネットワーク2を介して携帯電話機1の通信部24から送信されてきたクエリ語、クエリ画像、および着目点情報を受信し、クエリ画像と着目点情報を特徴量抽出部32に、クエリ語を検索部72にそれぞれ供給する。   In step S75, the communication unit 31 of the server 3 receives the query word, the query image, and the point of interest information transmitted from the communication unit 24 of the mobile phone 1 via the network 2, and obtains the query image and the point of interest information. The query terms are supplied to the feature amount extraction unit 32 and the search unit 72, respectively.

ステップS76において、特徴量抽出部32は、通信部31から供給されたクエリ画像の、着目点情報によって特定される所定の領域(以下、適宜、クエリ部分画像と称する)のムードベクトルを生成し、類似度計算部33に供給する。着目点情報によって特定される所定の領域は、例えば、ユーザによって指定された着目点を中心とする所定の正方領域などとすることができる。   In step S76, the feature amount extraction unit 32 generates a mood vector of a predetermined region (hereinafter, appropriately referred to as a query partial image) specified by the point-of-interest information of the query image supplied from the communication unit 31, It supplies to the similarity calculation part 33. The predetermined area specified by the point-of-interest information can be, for example, a predetermined square area centered on the point of interest specified by the user.

ステップS77において、検索部72は、通信部31から供給されたクエリ語を有するアイテムを特徴量DB71から検索する。検索部72は、検索の結果得られたアイテムのムードベクトルを類似度計算部33に供給する。   In step S <b> 77, the search unit 72 searches the feature amount DB 71 for an item having the query word supplied from the communication unit 31. The search unit 72 supplies the mood vector of the item obtained as a result of the search to the similarity calculation unit 33.

ステップS78において、類似度計算部33は、検索部72から供給されたアイテムのムードベクトルと、特徴量抽出部32から供給されたクエリ部分画像のムードベクトルとの類似度を計算する。   In step S78, the similarity calculation unit 33 calculates the similarity between the mood vector of the item supplied from the search unit 72 and the mood vector of the query partial image supplied from the feature amount extraction unit 32.

ステップS79乃至S81の処理は、図13のステップS58乃至S60の処理と同様であるので、その説明は省略する。   The processing in steps S79 to S81 is the same as the processing in steps S58 to S60 in FIG.

この第3のアイテム検索処理によれば、例えば、図10に示したクエリ画像において写されている「畑」や「川」のうち、「畑」の領域が「のどか」のムードを代表し、「川」の領域が「涼しげ」のムードを代表しているとすると、ユーザが「川」の部分に着目点を設定した場合、「涼しげ」のムードのみが、特徴量抽出部32により抽出される。従って、クエリ画像のなかでも所定の領域のムードを強調したムードベクトルを生成することができる。これにより、ユーザがアイテム検索に言語でうまく言い表せない部分を、より忠実に指定することが可能である。   According to the third item search process, for example, among the “field” and “river” captured in the query image shown in FIG. 10, the “field” region represents the mood of “Nodoka”, Assuming that the “river” region represents the “cool” mood, when the user sets a point of interest in the “river” portion, only the “cool” mood is extracted by the feature amount extraction unit 32. The Therefore, it is possible to generate a mood vector that emphasizes the mood of a predetermined region in the query image. As a result, it is possible to more faithfully specify the part that the user cannot express well in the language for item search.

上述した例では、クエリ画像は、ユーザがその場で撮影した風景の画像の例で説明したが、インターネットなどから取得した画像などであってもよい。   In the example described above, the query image is described as an example of a landscape image taken by the user on the spot, but may be an image acquired from the Internet or the like.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 15 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processing by a program.

コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。   In a computer, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected to each other via a bus 104.

バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア121を駆動するドライブ110が接続されている。   An input / output interface 105 is further connected to the bus 104. The input / output interface 105 includes an input unit 106 including a keyboard, a mouse, and a microphone, an output unit 107 including a display and a speaker, a storage unit 108 including a hard disk and nonvolatile memory, and a communication unit 109 including a network interface. A drive 110 for driving a removable medium 121 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.

以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 101 loads, for example, the program stored in the storage unit 108 to the RAM 103 via the input / output interface 105 and the bus 104 and executes the program. Is performed.

コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア121に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The program executed by the computer (CPU 101) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a removable medium 121 that is a package medium including a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア121をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。   The program can be installed in the storage unit 108 via the input / output interface 105 by attaching the removable medium 121 to the drive 110. Further, the program can be received by the communication unit 109 via a wired or wireless transmission medium and installed in the storage unit 108. In addition, the program can be installed in the ROM 102 or the storage unit 108 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

上述した実施の形態では、クエリ画像を指定する処理と、クエリ画像に基づいてユーザの所望の情報を検索する処理とが別々の装置、すなわち、携帯電話機1とサーバ3で行われていたが、この2つの処理は、携帯電話機1またはサーバ3のどちらかの装置(機器)だけで行うようにすることも可能である。例えば、携帯電話機1において、指定されたクエリ画像に基づいてユーザの所望する情報を検索する第1乃至第3のアイテム検索処理も行うようにすることができる。この場合、特徴量DB11および画像アイテム対応DB12等は、例えば、携帯電話機1に内蔵された、または、図示せぬドライブに装着され着脱可能な、半導体メモリなどの記録媒体に対応する。   In the above-described embodiment, the process of specifying the query image and the process of searching for the user's desired information based on the query image are performed by different devices, that is, the mobile phone 1 and the server 3. These two processes may be performed only by either the mobile phone 1 or the server 3 (device). For example, the mobile phone 1 can also perform first to third item search processing for searching for information desired by the user based on a designated query image. In this case, the feature amount DB 11 and the image item correspondence DB 12 correspond to, for example, a recording medium such as a semiconductor memory that is built in the mobile phone 1 or that can be attached to and detached from a drive (not shown).

本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In this specification, the steps described in the flowcharts include processes that are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes that are executed in time series in the described order. Is also included.

なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   In the present specification, the term “system” represents the entire apparatus constituted by a plurality of apparatuses.

本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

本発明を適用した検索システムの一実施の形態の構成例を示す図である。It is a figure which shows the structural example of one Embodiment of the search system to which this invention is applied. 第1のアイテム検索処理の概要を説明する図である。It is a figure explaining the outline | summary of a 1st item search process. 図1の検索システムの第1の実施の形態の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of 1st Embodiment of the search system of FIG. 第1の実施の形態の特徴量DBの例を示す図である。It is a figure which shows the example of feature-value DB of 1st Embodiment. 第1の実施の形態の画像アイテム対応DBの例を示す図である。It is a figure which shows the example of image item corresponding | compatible DB of 1st Embodiment. 第1のアイテム検索処理について説明するフローチャートである。It is a flowchart explaining a 1st item search process. 第2のアイテム検索処理の概要を説明する図である。It is a figure explaining the outline | summary of a 2nd item search process. 図1の検索システムの第2の実施の形態の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of 2nd Embodiment of the search system of FIG. 第2のアイテム検索処理について説明するフローチャートである。It is a flowchart explaining a 2nd item search process. 第3のアイテム検索処理の概要を説明する図である。It is a figure explaining the outline | summary of a 3rd item search process. 図1の検索システムの第3の実施の形態の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of 3rd Embodiment of the search system of FIG. 第3の実施の形態の特徴量DBの例を示す図である。It is a figure which shows the example of feature-value DB of 3rd Embodiment. 第3のアイテム検索処理について説明するフローチャートである。It is a flowchart explaining a 3rd item search process. その他の第3のアイテム検索処理について説明するフローチャートである。It is a flowchart explaining the other 3rd item search process. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

1 携帯電話機, 3 サーバ, 11 特徴量DB, 12 画像アイテム対応DB, 31 通信部, 32 特徴量抽出部, 33 類似度計算部, 34 提示アイテム決定部, 51 マッピング情報DB, 52 提示アイテム決定部, 71 特徴量DB, 72 検索部, 73 提示アイテム決定部   DESCRIPTION OF SYMBOLS 1 Mobile phone, 3 Server, 11 Feature-value DB, 12 Image item corresponding | compatible DB, 31 Communication part, 32 Feature-value extraction part, 33 Similarity degree calculation part, 34 Presentation item determination part, 51 Mapping information DB, 52 Presentation item determination part , 71 feature DB, 72 search unit, 73 presentation item determination unit

Claims (5)

画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段と、
前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段と、
所望のアイテムを検索するためにユーザによって指定された画像であるクエリ画像を取得する取得手段と、
前記クエリ画像の特徴量を抽出する特徴量抽出手段と、
抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との第1の類似度を計算する類似度計算手段と、
前記第1の類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、ユーザに提示する前記アイテムである提示アイテムとして決定する提示アイテム決定手段と
を備える情報処理装置。
Image feature amount storage means for storing feature amounts representing image features for a plurality of registered images registered in advance;
Item correspondence storage means for storing correspondence between the registered image and the predetermined item as information obtained by mapping the registered image and the predetermined item on the same space;
Obtaining means for obtaining a query image, which is an image designated by a user in order to search for a desired item;
Feature quantity extraction means for extracting the feature quantity of the query image;
Similarity calculation means for calculating a first similarity between the query image and the registered image using the extracted feature quantity;
Information comprising: a presentation item determining unit that determines, from the item correspondence storage unit, an item that is close to the first registered image with the first similarity as the presentation item that is the item to be presented to the user. Processing equipment.
前記類似度計算手段は、前記登録画像と前記アイテムとの特徴量の類似度である第2の類似度も計算し、
前記提示アイテム決定手段は、前記第1の類似度と前記第2の類似度の積を加算した値に基づいて、前記提示アイテムを決定する
請求項に記載の情報処理装置。
The similarity calculation means also calculates a second similarity that is a similarity of the feature quantity between the registered image and the item,
The presentation item determination means, wherein the first degree of similarity based on the second value obtained by adding the product of similarity, the information processing apparatus according to claim 1 for determining the presentation item.
前記提示アイテム決定手段は、前記第1の類似度の高い複数の前記登録画像と前記空間上の距離が近いアイテムの頻度を計算し、頻度の高いアイテムを、前記提示アイテムとして決定する
請求項に記載の情報処理装置。
The presentation item determination means according to claim 1, the distance on the said first similarity highly plurality of the registration image space calculates the frequency of the near item, the frequent items is determined as the presentation item The information processing apparatus described in 1.
画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段と、前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段とを備え、ユーザに提示する前記アイテムである提示アイテムを決定する情報処理装置の情報処理方法において、
所望のアイテムを検索するために前記ユーザによって指定された画像であるクエリ画像を取得し、
前記クエリ画像の特徴量を抽出し、
抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との類似度を計算し、
前記類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、前記提示アイテムとして決定する
ステップを含む情報処理方法。
Image feature amount storage means for storing feature amounts representing image features for a plurality of registered images registered in advance, and information obtained by mapping the registered image and a predetermined item on the same space , In an information processing method of an information processing apparatus that includes an item correspondence storage unit that stores correspondence with a predetermined item, and determines a presentation item that is the item presented to a user
Obtaining a query image which is an image specified by the user to search for a desired item;
Extracting feature quantities of the query image;
Using the extracted feature amount, the similarity between the query image and the registered image is calculated,
An information processing method including a step of determining, as the presentation item, an item whose distance in the space is close to the registered image having a high similarity from the item correspondence storage unit.
画像の特徴を表す特徴量を、予め登録された複数の登録画像について記憶する画像特徴量記憶手段と、前記登録画像と所定のアイテムとを同一の空間上にマッピングした情報として、前記登録画像と所定のアイテムとの対応を記憶するアイテム対応記憶手段とを用いて、ユーザに提示する前記アイテムである提示アイテムを決定する処理を、コンピュータに実行させるプログラムにおいて、
所望のアイテムを検索するために前記ユーザによって指定された画像であるクエリ画像を取得し、
前記クエリ画像の特徴量を抽出し、
抽出された前記特徴量を用いて、前記クエリ画像と前記登録画像との類似度を計算し、
前記類似度の高い前記登録画像と前記空間上の距離が近いアイテムを、前記アイテム対応記憶手段から、前記提示アイテムとして決定する
ステップを含む処理をコンピュータに実行させるプログラム。
Image feature amount storage means for storing feature amounts representing image features for a plurality of registered images registered in advance, and information obtained by mapping the registered image and a predetermined item on the same space , In a program for causing a computer to execute a process of determining a presentation item that is the item to be presented to a user using an item correspondence storage unit that stores a correspondence with a predetermined item.
Obtaining a query image which is an image specified by the user to search for a desired item;
Extracting feature quantities of the query image;
Using the extracted feature amount, the similarity between the query image and the registered image is calculated,
The program which makes a computer perform the process including the step which determines the item with the near distance in the said registration image with the said high similarity as the said presentation item from the said item corresponding | compatible storage means.
JP2007060430A 2007-03-09 2007-03-09 Information processing apparatus, information processing method, and program Expired - Fee Related JP5018147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007060430A JP5018147B2 (en) 2007-03-09 2007-03-09 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007060430A JP5018147B2 (en) 2007-03-09 2007-03-09 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2008225658A JP2008225658A (en) 2008-09-25
JP5018147B2 true JP5018147B2 (en) 2012-09-05

Family

ID=39844235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007060430A Expired - Fee Related JP5018147B2 (en) 2007-03-09 2007-03-09 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5018147B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3903565B2 (en) * 1998-01-26 2007-04-11 コニカミノルタビジネステクノロジーズ株式会社 Object-key association degree assigning method and object-key association degree automatic assignment apparatus
JP2002092019A (en) * 2000-09-18 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> Multi-media contents management and coordinate supporting method and its device and recording medium with program for executing its method recorded thereon
JP4090926B2 (en) * 2002-03-29 2008-05-28 富士フイルム株式会社 Image storage method, registered image retrieval method and system, registered image processing method, and program for executing these methods
JP2004240750A (en) * 2003-02-06 2004-08-26 Canon Inc Picture retrieval device
JP4770263B2 (en) * 2005-05-13 2011-09-14 大日本印刷株式会社 Product information providing apparatus, product information providing method, and product information providing processing program

Also Published As

Publication number Publication date
JP2008225658A (en) 2008-09-25

Similar Documents

Publication Publication Date Title
KR101535579B1 (en) Augmented reality interaction implementation method and system
US9076069B2 (en) Registering metadata apparatus
JP5371083B2 (en) Face identification feature value registration apparatus, face identification feature value registration method, face identification feature value registration program, and recording medium
KR102206184B1 (en) Method for searching information of object in video and video playback apparatus thereof
US20110029510A1 (en) Method and apparatus for searching a plurality of stored digital images
JP2008217428A (en) Image-retrieving program, method, and device
US20090066838A1 (en) Representative image or representative image group display system, representative image or representative image group display method, and program therefor
JP2002288219A (en) Information search system and method
CN106686460B (en) Video program recommendation method and video program recommendation device
JP5169403B2 (en) Image signal generation apparatus, image signal generation method, program, and storage medium
US8209348B2 (en) Information processing apparatus, information processing method, and information processing program
JP6090053B2 (en) Information processing apparatus, information processing method, and program
CN105868238A (en) Information processing method and device
US8812463B2 (en) Apparatus and method for presenting contents in relation to a search axis
JP2007166113A (en) Content guide system, content guide method, content guide support server, content guide support method, program, and information storage medium
CN102231149A (en) Method for searching visual information of mobile phone based on local characteristics
CN112020709A (en) Visual menu
JP4337892B2 (en) Information processing apparatus, information processing method, and program
WO2020255307A1 (en) Information processing device, information processing method, and recording medium
US20210225408A1 (en) Content Pushing Method for Display Device, Pushing Device and Display Device
JP4995770B2 (en) Image dictionary generation device, image dictionary generation method, and image dictionary generation program
JP5018147B2 (en) Information processing apparatus, information processing method, and program
JP7138264B1 (en) Information processing device, information processing method, information processing system, and program
US20160162752A1 (en) Retrieval apparatus, retrieval method, and computer program product
US20120143857A1 (en) Method, system and controller for searching a database

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

R151 Written notification of patent or utility model registration

Ref document number: 5018147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees