JP4544098B2 - Content search device - Google Patents

Content search device Download PDF

Info

Publication number
JP4544098B2
JP4544098B2 JP2005246530A JP2005246530A JP4544098B2 JP 4544098 B2 JP4544098 B2 JP 4544098B2 JP 2005246530 A JP2005246530 A JP 2005246530A JP 2005246530 A JP2005246530 A JP 2005246530A JP 4544098 B2 JP4544098 B2 JP 4544098B2
Authority
JP
Japan
Prior art keywords
impression
content
image
template
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005246530A
Other languages
Japanese (ja)
Other versions
JP2007058799A (en
Inventor
正明 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2005246530A priority Critical patent/JP4544098B2/en
Publication of JP2007058799A publication Critical patent/JP2007058799A/en
Application granted granted Critical
Publication of JP4544098B2 publication Critical patent/JP4544098B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、コンテンツが記録された記録メディアからユーザの所望のコンテンツを検索するコンテンツ検索装置に関する。   The present invention relates to a content search apparatus that searches a user's desired content from a recording medium on which the content is recorded.

近年、光ディスク、ハードディスク、または半導体メモリなどの大容量記録メディアが多く利用されている。大容量記録メディアが利用された装置の一例であるポータブル音楽再生装置には、1台で1万曲以上もの音楽データを記憶することが可能なものがある。   In recent years, many large-capacity recording media such as optical disks, hard disks, and semiconductor memories have been used. Some portable music playback apparatuses, which are examples of apparatuses using large-capacity recording media, can store music data of 10,000 songs or more in one apparatus.

このように大量のコンテンツの中からユーザが所望のコンテンツを効率良く探し出すため、コンテンツに対する印象を数値化した印象値を利用して検索する方法が特許文献1に提案されている。   In order to efficiently search for a desired content from a large amount of content in this way, a method of searching using an impression value obtained by quantifying an impression on the content is proposed in Patent Document 1.

特許文献1の検索方法は、まず、被検索対象となる記録媒体中のコンテンツ(特許文献1中では楽曲)の信号からその信号の物理的特徴を表す特徴量を抽出し、その特徴量をコンテンツの印象として数値化した印象値に変換する。この印象値を2次元平面(特許文献1中では「印象空間」)上にマッピングすることにより、印象値の類似性を模式的に示している。   In the search method of Patent Document 1, first, a feature value representing a physical feature of a signal is extracted from a content signal (a music piece in Patent Document 1) in a recording medium to be searched, and the feature value is extracted from the content. The impression value is converted into a numerical impression value. By mapping the impression value on a two-dimensional plane (“Impression space” in Patent Document 1), the similarity of the impression value is schematically shown.

次に、ユーザは検索要件として、検索対象となるコンテンツのアーティスト名などの文字列、「激しさ」などの印象の度合いを表す数値、及び、「陽気に踊りたい」など予め定めた条件の有無、および検索方法などを入力する。   Next, as a search requirement, the user has a character string such as the artist name of the content to be searched, a numerical value indicating the degree of impression such as “strength”, and the presence or absence of a predetermined condition such as “I want to dance cheerfully” Enter the search method.

そして、入力された検索対象のコンテンツの予測印象値と、印象空間上にマッピングされた被検索対象のコンテンツの印象値とのユークリッド距離を算出し、このユークリッド距離が小さいコンテンツから順にユーザにフィードバックすることにより検索結果を提示している。   Then, the Euclidean distance between the input predicted impression value of the content to be searched and the impression value of the content to be searched mapped in the impression space is calculated, and the content is fed back to the user in order from the content having the smallest Euclidean distance. The search results are presented.

また、特許文献2の技術では、コンテンツの印象に対するパラメータから算出される因子位置を3次元の座標空間にマッピングすることにより、この座標空間上で検索を行う方法が記載されている。   In the technique of Patent Document 2, a method is described in which a factor position calculated from a parameter for content impression is mapped to a three-dimensional coordinate space to perform a search on the coordinate space.

さらに、特許文献3の技術では、記録媒体中に記憶されたビデオデータに対するユーザの評価を数値で表した評価値を含む感性データを装置内に記憶しておくことにより、この感性データを利用して検索を行う方法が記載されている。この評価値の入力方法には、「感動する」「元気がでる」といった感性をあらわす単語に対する度合いを0〜1の数値を指定して行う方法や、特許文献1のように2次元空間上にマッピングする方法などがある。   Furthermore, in the technique of Patent Document 3, the sensitivity data including the evaluation value representing the user's evaluation for the video data stored in the recording medium as a numerical value is stored in the apparatus. And how to search. This evaluation value input method includes a method in which a degree for a word representing sensitivity, such as “I am impressed” or “I am energetic”, is designated by a numerical value of 0 to 1 or in a two-dimensional space as in Patent Document 1. There are mapping methods.

これらの技術においては、空間上にマッピングされたコンテンツをユーザが選択するときは、マウスなどのポインティングデバイスが利用されていた。   In these techniques, when a user selects content mapped in space, a pointing device such as a mouse is used.

また、印象を表す印象語をクエリとして検索するときは、ユーザがキーワードとなる印象語をテキスト入力および変換する直接入力方式や、チェックボックスやプルダウンメニューなどでキーワードとなる印象語を選択する方式がとられていた。   In addition, when searching for impression words representing impressions as a query, there are a direct input method in which the user inputs and converts impression words as keywords, and a method for selecting impression words as keywords using check boxes and pull-down menus. It was taken.

これら特許文献1、2および3の検索方法により、ユーザがコンテンツのタイトルなどを知らなくても、所望のコンテンツを記録メディアの中から探し出すことができる。
特開2002−278547号公報 特開平9−34909号公報 特開平9−6802号公報
According to the search methods of Patent Documents 1, 2, and 3, a desired content can be searched from a recording medium without the user knowing the title of the content.
JP 2002-278547 A Japanese Patent Laid-Open No. 9-34909 Japanese Patent Laid-Open No. 9-6802

しかし、マウスなどのポインティングデバイスを利用する方法は、携帯端末などでは使用することができず、使用環境が限定されるという問題があった。   However, the method using a pointing device such as a mouse cannot be used with a portable terminal or the like, and there is a problem that the use environment is limited.

また、直接入力方式による検索方法も、入力デバイスにより使い勝手が大きく左右され、キーボードを利用できない環境では利用しにくいという問題があった。   In addition, the search method based on the direct input method has a problem that it is difficult to use in an environment where the keyboard cannot be used because it greatly depends on the input device.

また、チェックボックスやプルダウンメニューなどを利用する検索方法は、一般的に項目数が非常に多くなるためユーザに混乱を招き、所望のコンテンツのイメージが曖昧になってしまうという問題があった。さらには、携帯端末などの画面表示部分が小さい機器でチェック項目が全て入りきらなくなったりするという問題があった。   In addition, a search method using a check box, a pull-down menu, or the like generally has a problem that the number of items is very large, which causes confusion for the user and an image of desired content becomes ambiguous. Furthermore, there is a problem that all check items cannot be entered in a device with a small screen display portion such as a portable terminal.

本発明は上記事情に鑑みてなされたものであり、画面表示部が小さく、マウスやキーボードなどの入力デバイスが接続されていない携帯端末などの機器においても利用可能であり、且つ利用方法が簡便なコンテンツ検索装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and can be used in a device such as a portable terminal to which a screen display unit is small, an input device such as a mouse or a keyboard is not connected, and the usage method is simple. An object is to provide a content search device.

上記目的を達成するための本発明の請求項1に記載のコンテンツ検索装置(1)は、複数のコンテンツが記録された記録媒体から所望のコンテンツを検索するためのものであり、各コンテンツの印象を人の顔を構成する各パーツにそれぞれ対応づけたときに、各パーツの形状をそれぞれ数値で表したパーツ値を格納するパーツ値格納手段(31)と、パーツごとにパーツ値の範囲が予め設定された各パーツから構成される代表的な複数の表情のテンプレートを格納するテンプレート格納手段(32)と、テンプレートごとに予め設定される顔の表情を表す各印象語の持つ印象度合いを数値化した印象値をテンプレート印象ベクトルとして格納するテンプレート印象ベクトル格納手段(33)と、記録媒体に記録されている複数のコンテンツ毎の印象値である記録コンテンツ印象ベクトルをメタデータとして格納するメタデータ格納手段(34)と、パーツ値格納手段(31)に格納されたパーツ値の中から、選択されたパーツ値に該当する各パーツの形状を組み合わせることによりユーザの所望のコンテンツの印象を表すイメージ画像を生成するイメージ画像生成手段(21)と、
テンプレート格納手段(32)に格納されているテンプレートの中からイメージ画像生成手段(21)で生成されたイメージ画像のパーツ値の組み合わせに適合するテンプレートを選択するテンプレート選択手段(22)と、テンプレート選択手段(22)で選択されたテンプレートのテンプレート印象ベクトルをテンプレート印象ベクトル格納手段(33)から取得し、取得したテンプレート印象ベクトルを基に生成されたイメージ画像の印象値であるイメージ画像印象ベクトルを算出するイメージ画像印象ベクトル算出手段(23)と、
算出されたイメージ画像印象ベクトルと各記録コンテンツ印象ベクトルとの距離をそれぞれ算出し、この距離が小さい順に記録コンテンツ印象ベクトルに対応するコンテンツから所望のコンテンツの候補を出力するコンテンツ検索手段(24)とを備えることを特徴とする。
In order to achieve the above object, a content search device (1) according to claim 1 of the present invention is for searching for a desired content from a recording medium on which a plurality of contents are recorded. Part value storage means (31) for storing the part value that represents the shape of each part as a numerical value, and the range of the part value for each part in advance. Template storage means (32) for storing templates of representative facial expressions composed of each set part, and the impression level of each impression word representing facial expression preset for each template is digitized Template impression vector storage means (33) for storing the impression value as a template impression vector, and impression values for each of a plurality of contents recorded on the recording medium. The metadata storage means (34) for storing a certain recorded content impression vector as metadata and the shape of each part corresponding to the selected part value from the part values stored in the part value storage means (31) Image image generation means (21) for generating an image that represents the impression of the user's desired content by combining the image,
Template selection means (22) for selecting a template that matches the combination of part values of the image image generated by the image image generation means (21) from the templates stored in the template storage means (32), and template selection The template impression vector of the template selected by the means (22) is acquired from the template impression vector storage means (33), and an image image impression vector which is an impression value of the image image generated based on the acquired template impression vector is calculated. Image image impression vector calculating means (23) to perform,
Content search means (24) for calculating the distance between the calculated image image impression vector and each recorded content impression vector, and outputting desired content candidates from the content corresponding to the recorded content impression vector in ascending order of the distance. It is characterized by providing.

また、請求項2は請求項1に記載のコンテンツ検索装置(2)であり、記録媒体中から代表として選択されたコンテンツの記録コンテンツ印象ベクトルから各パーツのパーツ値を算出するパーツ値算出手段(25)を備え、イメージ画像生成手段(21)は、パーツ値算出手段(25)で算出されたパーツ値に該当する各パーツの形状を組み合わせることにより、所望のコンテンツの印象を表すイメージ画像を生成することを特徴とする。   Further, claim 2 is the content search device (2) according to claim 1, wherein the part value calculation means (2) calculates the part value of each part from the recorded content impression vector of the content selected as a representative from the recording medium. 25), and the image image generation means (21) generates an image image representing the impression of the desired content by combining the shape of each part corresponding to the part value calculated by the part value calculation means (25) It is characterized by doing.

本発明のコンテンツ検索装置によれば、画面表示部が小さく、マウスやキーボードなどの入力デバイスが接続されていない携帯端末などの機器においても利用可能であり、且つ簡便な方法でコンテンツの検索を行うことができる。   According to the content search apparatus of the present invention, the screen display unit is small and can be used in devices such as a portable terminal to which an input device such as a mouse or a keyboard is not connected. be able to.

〈第1実施形態〉
本発明の第1実施形態によるコンテンツ検索装置1の構成を、図1を参照して説明する。本実施形態によるコンテンツ検索装置1は、記録メディアに格納されたコンテンツ(以下、「記録コンテンツ」と称する)の中からユーザの所望のコンテンツを検索する。本実施形態によるコンテンツ検索装置1の構成は、入力手段10と、制御手段20と、記憶手段30と、表示手段40とからなる。本実施形態において、印象を表す「明るさ」「力強さ」「優しさ」などの語句である印象語に対する印象度合いを数値化したものを印象ベクトルと称するものとする。
<First Embodiment>
The configuration of the content search apparatus 1 according to the first embodiment of the present invention will be described with reference to FIG. The content search device 1 according to the present embodiment searches for content desired by a user from content stored in a recording medium (hereinafter referred to as “recorded content”). The configuration of the content search apparatus 1 according to the present embodiment includes an input unit 10, a control unit 20, a storage unit 30, and a display unit 40. In the present embodiment, a value obtained by quantifying an impression degree with respect to an impression word that is a phrase such as “brightness”, “power”, and “kindness” representing an impression is referred to as an impression vector.

入力手段10は、ユーザが表示手段40を利用して入力を行うデバイスであり、携帯端末で利用可能な十字カーソルやクリックホイールなどである。   The input means 10 is a device for a user to input using the display means 40, and is a cross cursor or a click wheel that can be used on a portable terminal.

制御手段20は、イメージ画像生成手段21と、テンプレート選択手段22と、イメージ画像印象ベクトル算出手段23と、コンテンツ検索手段24とを有する。   The control unit 20 includes an image image generation unit 21, a template selection unit 22, an image image impression vector calculation unit 23, and a content search unit 24.

イメージ画像生成手段21は、顔の画像を構成するパーツの形状からユーザの指示で選択したパーツの形状で、ユーザの所望のコンテンツの印象を表すイメージ画像を生成する。パーツの例としては、「瞳」、「眉毛」、「鼻」、「髪」、「口」、「輪郭」、「耳」、「髭」、「肌の色」などがあるが、本実施形態においてイメージ画像に用いるパーツは、「瞳」、「眉毛」、「口」の3つとする。各パーツには、形状を識別するためのパーツ値が与えられている。   The image image generation means 21 generates an image image representing the impression of the desired content of the user with the shape of the part selected by the user's instruction from the shape of the parts constituting the face image. Examples of parts include “Eye”, “Brow”, “Nose”, “Hair”, “Mouth”, “Outline”, “Ear”, “Wrinkle”, “Skin color”, etc. In the form, there are three parts to be used for an image image: “pupil”, “eyebrows”, and “mouth”. Each part is given a part value for identifying the shape.

テンプレート選択手段22は、パーツごとにパーツ値の範囲が予め設定された複数の表情のテンプレートから、イメージ画像生成手段21で生成されたイメージ画像の各パーツ値の組み合わせが適合するテンプレートを選択する。   The template selection means 22 selects a template that matches a combination of each part value of the image image generated by the image image generation means 21 from a plurality of facial expression templates whose part value ranges are preset for each part.

イメージ画像印象ベクトル算出手段23は、選択されたテンプレートの印象ベクトルであるテンプレート印象ベクトルを取得し、このテンプレート印象ベクトルからイメージ画像の印象ベクトルであるイメージ画像印象ベクトルを算出する。   The image image impression vector calculation means 23 acquires a template impression vector which is an impression vector of the selected template, and calculates an image image impression vector which is an impression vector of the image image from this template impression vector.

コンテンツ検索手段24は、記録コンテンツの印象ベクトルである記録コンテンツ印象ベクトルと、イメージ画像印象ベクトルとの距離を算出する。算出の結果、イメージ画像印象ベクトルとの距離が所定以下の記録コンテンツ印象ベクトルを抽出し、抽出された記録コンテンツ印象ベクトルに対応する記録メディア中のコンテンツの書誌情報を検索結果として表示手段40に出力する。   The content search means 24 calculates the distance between the recorded content impression vector, which is the impression vector of the recorded content, and the image image impression vector. As a result of the calculation, a recorded content impression vector whose distance from the image image impression vector is equal to or less than a predetermined value is extracted, and bibliographic information of the content in the recording medium corresponding to the extracted recorded content impression vector is output to the display means 40 as a search result. To do.

記憶手段30は、メモリやHDDなどであり、パーツ値格納手段31と、テンプレート格納手段32と、テンプレート印象ベクトル格納手段33と、メタデータ格納手段34と、書誌情報格納手段35とを有する。   The storage unit 30 is a memory, HDD, or the like, and includes a part value storage unit 31, a template storage unit 32, a template impression vector storage unit 33, a metadata storage unit 34, and a bibliographic information storage unit 35.

パーツ値格納手段31は、各コンテンツの印象を人の顔を構成する各パーツにそれぞれ対応づけたときに、各パーツの形状をそれぞれ数値で表したパーツ値を格納する。   The part value storage means 31 stores a part value in which the shape of each part is represented by a numerical value when the impression of each content is associated with each part constituting the human face.

テンプレート格納手段32は、前記イメージ画像をこのイメージ画像から得られる表情により「勇ましい」や「楽しい」など予め設定された典型的なイメージに分類するための、前記パーツごとに前記パーツ値の範囲が予め設定された各パーツから構成される代表的な複数の表情のテンプレートを格納する。   The template storage means 32 classifies the image image into a typical image set in advance such as “brave” or “fun” according to the facial expression obtained from the image image. A template of a plurality of representative expressions composed of preset parts is stored.

テンプレート印象ベクトル格納手段33は、表情のテンプレートごとに予め設定される顔の表情を表す各印象語の持つ印象度合いを数値化した印象値をテンプレート印象ベクトルとして格納する。   The template impression vector storage means 33 stores an impression value obtained by quantifying the impression level of each impression word representing a facial expression preset for each facial expression template as a template impression vector.

メタデータ格納手段34は、それぞれの記録コンテンツの印象ベクトルである記録コンテンツ印象ベクトルを格納する。   The metadata storage means 34 stores recorded content impression vectors that are impression vectors of the respective recorded contents.

書誌情報格納手段35は、記録コンテンツのタイトルやアーティスト名などの書誌情報、および各コンテンツを識別するコンテンツID1〜コンテンツIDjを格納する。 The bibliographic information storage means 35 stores bibliographic information such as the title and artist name of recorded content, and content ID 1 to content ID j for identifying each content.

表示手段40は、コンテンツ検索手段24の検索結果として出力された記録コンテンツの書誌情報を表示する。   The display unit 40 displays the bibliographic information of the recorded content output as the search result of the content search unit 24.

次に、本実施形態におけるコンテンツ検索装置1の動作について、図2のフローチャートを参照して説明する。   Next, the operation of the content search apparatus 1 in the present embodiment will be described with reference to the flowchart of FIG.

まず、コンテンツ検索装置1が起動されると、予め設定された各パーツのデフォルトのパーツ値から、デフォルトのイメージ画像がイメージ画像生成手段21で生成される(S1)。   First, when the content search apparatus 1 is activated, a default image is generated by the image generation means 21 from preset default part values of each part (S1).

各パーツ値に対応するパーツの形状の例を図3に示す。本実施形態では、「瞳」の形状のバリエーションはパーツ値0〜+10の範囲で設定され、「眉毛」および「口」の形状のバリエーションはパーツ値−10〜+10の範囲で設定されている。   An example of the shape of the part corresponding to each part value is shown in FIG. In this embodiment, the variation of the shape of the “pupil” is set in the range of the part values 0 to +10, and the variation of the shape of the “eyebrows” and the “mouth” is set in the range of the part values −10 to +10.

本実施形態における各パーツのデフォルトのパーツ値は、「瞳」、「眉毛」、「口」ともに6とする。生成されたデフォルトのイメージ画像は、図4のように表示手段40に表示される(S2)。   The default part value of each part in the present embodiment is 6 for “pupil”, “eyebrows”, and “mouth”. The generated default image is displayed on the display means 40 as shown in FIG. 4 (S2).

次に、表示されたデフォルトのイメージ画像を検索対象であるユーザ所望のコンテンツ(以下、「検索対象コンテンツ」と称する)に対するイメージに合わせるため、ユーザにより各パーツ値が変更される(S3)。   Next, each part value is changed by the user in order to match the displayed default image with an image for a user-desired content to be searched (hereinafter referred to as “search target content”) (S3).

デフォルトのイメージ画像のパーツ値変更処理について説明する。図4の表示手段40に表示されたデフォルトのイメージ画像において、瞳、眉毛、口の各パーツ値はユーザの操作により変更が可能である。   The part value changing process of the default image will be described. In the default image displayed on the display means 40 of FIG. 4, the values of the parts of the pupil, the eyebrows, and the mouth can be changed by a user operation.

まず、ユーザにより変更処理対象のパーツがパーツ指定カーソル44で指定される。図4においては、パーツ指定カーソル44で示されている「眉毛」が変更処理対象のパーツであることを示している。   First, the part to be changed is designated by the part designation cursor 44 by the user. In FIG. 4, “eyebrows” indicated by the part designation cursor 44 indicates that the part is a change processing target.

変更処理対象の「眉毛」にパーツ指定カーソル44で指定されている状態で、入力手段10である図5のような十字カーソル50、または、図6のようなクリックホイール60などのパーツ値増減ボタン51または61がユーザに操作されることにより、「眉毛」のパーツ値が増減される。十字カーソル50はボタンの押下により操作され、クリックホイール60は指をスライドさせることにより操作される。   The part value increase / decrease button such as the cross cursor 50 as shown in FIG. 5 as the input means 10 or the click wheel 60 as shown in FIG. When the user operates 51 or 61, the part value of “eyebrows” is increased or decreased. The cross cursor 50 is operated by pressing a button, and the click wheel 60 is operated by sliding a finger.

この操作によるパーツ値の増減に伴い、表示手段40上の「眉毛」の形状が図3に示すパーツ値ごとの形状に従って変化して表示される。   As the part value is increased or decreased by this operation, the shape of the “eyebrow” on the display means 40 is changed and displayed according to the shape for each part value shown in FIG.

次に、表示手段40上に表示された「眉毛」の形状のバリエーションの中から、ユーザにより検索対象コンテンツのイメージを表す形状が選択され、パーツ指定ボタン52または62が押下される。   Next, the shape representing the image of the search target content is selected by the user from the variations of the shape of the “eyebrows” displayed on the display unit 40, and the part designation button 52 or 62 is pressed.

パーツ指定ボタン52または62が押下されると、パーツ指定カーソル44が「瞳」に移動する。   When the part designation button 52 or 62 is pressed, the part designation cursor 44 moves to “pupil”.

「瞳」、「口」についても「眉毛」と同じ処理でパーツ値の変更が行われる。全てのパーツの変更処理が終了したときは、ユーザにより決定ボタン53または63が押下され、検索対象コンテンツのイメージを表すイメージ画像が生成される(S4の「Yes」)。変更されたパーツがさらに更新されるときには、決定ボタン53または63が押下されずにステップS2に戻り変更処理が続けられる(S4の「No」)。   Parts values are changed for “pupil” and “mouth” in the same process as “eyebrows”. When all the parts have been changed, the user presses the enter button 53 or 63 to generate an image representing an image of the search target content (“Yes” in S4). When the changed part is further updated, the determination button 53 or 63 is not pressed and the process returns to step S2 to continue the change process (“No” in S4).

イメージ画像生成手段21で生成されたイメージ画像が、表示手段40に表示された例を図7に示す。本実施形態においては、「眉毛」のパーツ値が−3、「瞳」のパーツ値が5、「口」のパーツ値が8の形状に変更されたものとする。以上によりデフォルトのイメージ画像の変更処理を終了する。   An example in which the image image generated by the image image generating means 21 is displayed on the display means 40 is shown in FIG. In this embodiment, it is assumed that the part value of “eyebrows” is changed to -3, the part value of “pupil” is 5, and the part value of “mouth” is changed to 8. Thus, the default image changing process is completed.

次に、テンプレート選択手段22において、予めテンプレート格納手段32に格納されているテンプレートから、パーツ値の組み合わせで表される表情を基に、生成されたイメージ画像に適合するテンプレートが選択される(S5)。ここでテンプレートとしてパーツ値の「組み合わせで表される表情」を用いるのは、人間の表情は各パーツひとつひとつのみでは意味を成さず、複数のパーツから得られるイメージに意味があるためである。   Next, in the template selection unit 22, a template that matches the generated image image is selected from templates stored in advance in the template storage unit 32 based on the facial expression represented by the combination of part values (S5). ). The reason why the “expression expressed by a combination” of the part values is used as a template is that a human facial expression does not make sense only by each part, and an image obtained from a plurality of parts is meaningful.

テンプレート格納手段32に格納されているテンプレートと、それぞれのテンプレートに適合するための、各パーツのパーツ値の範囲の例を図8に示す。本実施形態においては、「怒り」のイメージを表すテンプレートA、「楽しい」イメージを表すテンプレートB、「勇ましい」イメージを表すテンプレートC、「ゆったり」のイメージを表すテンプレートD、「別れ」のイメージを表すテンプレートE、の5つのテンプレートについての「眉毛」、「瞳」、「口」のパーツ値の範囲がそれぞれ予め設定されている。   FIG. 8 shows an example of a template stored in the template storage means 32 and a part value range of each part for matching with each template. In the present embodiment, a template A representing an “anger” image, a template B representing a “fun” image, a template C representing a “courageous” image, a template D representing a “relaxed” image, and a “parting” image. The range of part values of “eyebrows”, “pupil”, and “mouth” for each of the five templates E to be represented is preset.

本実施形態における処理対象のコンテンツの各パーツの値は、「眉毛」が−3、「瞳」が5、「口」が8であるため、テンプレートDの「眉毛」−1以下、「瞳」2〜5、「口」1以上の条件に適合し、「ゆったり」のイメージを表すテンプレートDが選択される。   The value of each part of the content to be processed in the present embodiment is “-3” for “eyebrows”, “5” for “pupil”, and “8” for “mouth”. 2 to 5, “Mouth” A template D that matches one or more conditions and represents a “loose” image is selected.

次に、選択されたテンプレートDに関するテンプレート印象ベクトルが、テンプレート印象ベクトル格納手段33から取得される(S6)。   Next, a template impression vector related to the selected template D is acquired from the template impression vector storage means 33 (S6).

テンプレート印象ベクトル格納手段33に格納されている、テンプレート印象ベクトルの一例を図9に示す。本実施形態においてテンプレート印象ベクトルは、テンプレートA〜Eごとに、「明るさ」「力強さ」「優しさ」などの印象を表す印象語である成分1〜成分Nに対する印象度合いが数値で表わされている。本実施形態においては、テンプレートDの成分1=0.30、成分2=0.00、・・・成分N=0.00が取得される。   An example of the template impression vector stored in the template impression vector storage means 33 is shown in FIG. In this embodiment, the template impression vector is a numerical value representing the degree of impression with respect to the components 1 to N, which are impression words representing impressions such as “brightness”, “strength”, and “kindness” for each of the templates A to E. It has been. In the present embodiment, component 1 = 0.30, component 2 = 0.00,... Component N = 0.00 of template D are acquired.

ここで、イメージ画像の各パーツ値と、図8で選択されたテンプレートのパーツ値の境界値とに差があるときは、その差分から図9で取得されたテンプレート印象ベクトル値が修正され、イメージ画像印象ベクトルが算出される(S7)。   Here, when there is a difference between each part value of the image image and the boundary value of the part value of the template selected in FIG. 8, the template impression vector value acquired in FIG. An image impression vector is calculated (S7).

本実施形態においては、イメージ画像の「眉毛」のパーツ値は−3であり、テンプレートDの「眉毛」のパーツ値の境界値の−1とは2の差がある。また、イメージ画像の「口」のパーツ値は8であり、テンプレートDの「口」のパーツ値の境界値の1とは7の差がある。   In the present embodiment, the part value of “eyebrows” in the image image is −3, and there is a difference of 2 from the boundary value “−1” of the part value of “eyebrows” in the template D. Further, the part value of the “mouth” of the image image is 8, and there is a difference of 7 from the boundary value 1 of the part value of the “mouth” of the template D.

これらの差分から、下記の式(1)を用いてイメージ画像印象ベクトルが算出される。

Figure 0004544098
From these differences, an image image impression vector is calculated using the following equation (1).
Figure 0004544098

式(1)において、tは求められるイメージ画像印象ベクトルであり、Zはテンプレート印象ベクトルの各成分であり、αiは修正係数であり、Δpiは作成したイメージ画像のパーツiのパーツ値とテンプレートのパーツiのパーツ値の境界値との差分であり、Kは総パーツ数であり、Nは印象ベクトル成分数である。 In Expression (1), t is an image image impression vector to be obtained, Z is each component of the template impression vector, α i is a correction coefficient, Δp i is a part value of part i of the created image image, and It is the difference from the boundary value of the part value of part i of the template, K is the total number of parts, and N is the number of impression vector components.

ここで、求める印象ベクトル成分をn(1≦n≦N)、パーツをk(1≦k≦K)とすると、Znはテンプレートのn番目の印象ベクトル成分を表し、αnkはn番目のベクトル成分のパーツk用の修正係数を表し、Δpkはイメージ画像のパーツkのパーツ値とテンプレートのパーツkのパーツ値の境界値との差分を表す。修正係数であるαnkは、予め設定されている。 Here, if the desired impression vector component is n (1 ≦ n ≦ N) and the part is k (1 ≦ k ≦ K), Z n represents the nth impression vector component of the template, and α nk is the nth The correction coefficient for the vector component part k is represented, and Δp k represents the difference between the part value of the part k of the image image and the boundary value of the part value of the part k of the template. The correction coefficient α nk is set in advance.

算出されたイメージ画像印象ベクトルの例を、図10に示す。本実施形態においては、「眉毛」、「口」の差分から、図9におけるテンプレートDの成分1の印象ベクトル0.30が0.2213に修正されることによりイメージ画像印象ベクトルが算出されている。   An example of the calculated image impression vector is shown in FIG. In the present embodiment, the image image impression vector is calculated from the difference between “eyebrows” and “mouth” by correcting the impression vector 0.30 of the component 1 of the template D in FIG. 9 to 0.2213. .

次に、コンテンツ検索手段24において、記録メディアに記録されている各記録コンテンツの記録コンテンツ印象ベクトルと、イメージ画像印象ベクトル算出手段23から取得されたイメージ画像印象ベクトルとの距離が算出される(S8)。   Next, the content search unit 24 calculates the distance between the recorded content impression vector of each recording content recorded on the recording medium and the image image impression vector acquired from the image image impression vector calculation unit 23 (S8). ).

各記録コンテンツ印象ベクトルは、ジャンル、アーティストの性別、または歌詞などの書誌情報から印象ベクトルに変換するデータ変換テーブルを用いる方法や、特開平6−290574号に記載されているコンテンツの信号から算出された特徴量を用いる方法などにより算出され、予め記憶手段30のメタデータ格納手段34に格納されている。   Each recorded content impression vector is calculated from a method using a data conversion table for converting bibliographic information such as genre, artist gender, or lyrics into an impression vector, or a content signal described in JP-A-6-290574. The feature amount is calculated by a method using the feature amount and stored in the metadata storage unit 34 of the storage unit 30 in advance.

図11に、記録コンテンツ印象ベクトルの一例を示す。本実施形態においては、コンテンツID1〜コンテンツIDj毎に算出された印象ベクトルの成分1〜成分Nが、記録コンテンツ印象ベクトルとして格納されている。 FIG. 11 shows an example of the recorded content impression vector. In the present embodiment, components 1 to N of impression vectors calculated for each of content ID 1 to content ID j are stored as recorded content impression vectors.

記録コンテンツ印象ベクトルとイメージ画像印象ベクトルとの距離は、下記式(2)を用いて算出される。

Figure 0004544098
The distance between the recorded content impression vector and the image image impression vector is calculated using the following equation (2).
Figure 0004544098

式(2)において、d(j)(1≦j≦S、Sはコンテンツ総数を示す)は算出される記録コンテンツ印象ベクトルとイメージ画像印象ベクトルとの距離であり、xiはイメージ画像印象ベクトルのi番目の印象ベクトル成分であり、yijはコンテンツIDjの記録コンテンツ印象ベクトルのi番目の印象ベクトル成分であり、iは印象ベクトル成分であり、jはコンテンツを識別する番号であり、Nは印象ベクトルの次元である。 In Expression (2), d (j) (1 ≦ j ≦ S, S represents the total number of contents) is the distance between the calculated recorded content impression vector and the image image impression vector, and x i is the image image impression vector. I ij is the i-th impression vector component of the recorded content impression vector of content ID j , i is the impression vector component, j is a number for identifying the content, N Is the dimension of the impression vector.

算出の結果、コンテンツ検索手段24において、イメージ画像印象ベクトルとの距離が近いものから順に所定数の記録コンテンツ印象ベクトルが抽出され、この記録コンテンツ印象ベクトルに該当するコンテンツIDが取得される。   As a result of the calculation, the content search unit 24 extracts a predetermined number of recorded content impression vectors in order from the one closest to the image image impression vector, and acquires a content ID corresponding to the recorded content impression vector.

これらの取得されたコンテンツIDに該当する記録メディア中の記録コンテンツが、ユーザの所望のコンテンツの候補となる。これらのコンテンツの候補をユーザに提示するため、取得されたコンテンツIDを基に書誌情報格納手段35からコンテンツの書誌情報が取得され、表示手段40に出力される(S9)。   The recorded content in the recording medium corresponding to these acquired content IDs is a candidate for the content desired by the user. In order to present these content candidates to the user, the bibliographic information of the content is acquired from the bibliographic information storage unit 35 based on the acquired content ID and output to the display unit 40 (S9).

図12に、各記録コンテンツの書誌情報の例を示す。本実施形態においては、コンテンツID1〜コンテンツIDjのタイトル、著者・アーティスト名、およびジャンルが書誌情報として格納されている。 FIG. 12 shows an example of bibliographic information of each recorded content. In the present embodiment, the title, author / artist name, and genre of content ID 1 to content ID j are stored as bibliographic information.

メタデータ格納手段34のデータと書誌情報格納手段35のデータとはコンテンツIDにより対応付けられており、コンテンツ検索手段24においてメタデータ格納手段34から抽出された記録コンテンツのコンテンツIDを基に書誌情報格納手段35から書誌情報が取得され、表示手段40に出力され表示される。   The data in the metadata storage unit 34 and the data in the bibliographic information storage unit 35 are associated with each other by the content ID, and the bibliographic information is based on the content ID of the recorded content extracted from the metadata storage unit 34 by the content search unit 24. Bibliographic information is acquired from the storage means 35 and output to the display means 40 for display.

上記の処理により、図6のイメージ画像が適合するテンプレートDを基に「ゆったり」のイメージを持つコンテンツが検索された場合、例えば楽曲ならばテンポのゆっくりした曲、映像ならばカメラワークの激しくないコンテンツが抽出され表示される。   By the above processing, when a content having a “relaxed” image is searched based on the template D to which the image image of FIG. 6 matches, for example, a song has a slow tempo, and a video has no intense camera work. Content is extracted and displayed.

さらに、表示された書誌情報が該当するコンテンツのコンテンツデータを、ユーザの指示により記録メディア内から取得し表示手段40に再生させることができる。   Furthermore, the content data of the content corresponding to the displayed bibliographic information can be acquired from the recording medium according to a user instruction and can be reproduced by the display means 40.

以上の第1実施形態によれば、顔の表情を持つイメージ画像を基に検索を行うため、ユーザはイメージが湧きやすく、直感で検索を行うことができる。   According to the first embodiment described above, since the search is performed based on the image image having facial expressions, the user can easily generate an image and can perform the search intuitively.

また、入力が簡便であるため、入力デバイスが制限される小型の携帯端末機器や、CD、MD、またはDVDプレーヤなどにおいても適用することができる。   Further, since the input is simple, the present invention can be applied to a small portable terminal device in which an input device is limited, a CD, MD, or DVD player.

さらに、言葉がわからなくても利用できるため、他国語に翻訳する必要がなく、子供でも容易に利用することが可能である。   Furthermore, since it can be used without understanding the language, it is not necessary to translate it into other languages, and it can be easily used by children.

本実施形態において、パーツ値変更処理は十字カーソルまたはクリックホイールを用いて操作されているが、これには限定されず、一般的に使用されているマウスなどでも操作可能である。   In the present embodiment, the part value changing process is operated using a cross cursor or a click wheel. However, the present invention is not limited to this, and can be operated using a commonly used mouse.

また、本実施形態において、記録コンテンツ印象ベクトルの算出は、書誌情報から印象ベクトルに変換するデータ変換テーブルを用いる方法や、特開平6−290574号に記載されているコンテンツの信号から算出された特徴量を用いる方法などが用いられているが、これには限定されず、ユーザや設計者がベクトル成分を直接入力する方法でもよい。   In the present embodiment, the recorded content impression vector is calculated by a method using a data conversion table for converting bibliographic information into an impression vector, or a feature calculated from a content signal described in Japanese Patent Laid-Open No. 6-290574. Although a method using quantity is used, the method is not limited to this, and a method in which a user or a designer directly inputs a vector component may be used.

〈第2実施形態〉
本発明の第2実施形態によるコンテンツ検索装置2について説明する。第1実施形態のコンテンツ検索装置1ではデフォルトのイメージ画像を基にイメージ画像を生成したが、本実施形態のコンテンツ検索装置2ではユーザにより所望のコンテンツに近いと判断され選択された記録コンテンツの記録コンテンツ印象ベクトルを基にイメージ画像を生成する。
Second Embodiment
A content search apparatus 2 according to a second embodiment of the present invention will be described. In the content search device 1 of the first embodiment, an image is generated based on the default image image. However, in the content search device 2 of the present embodiment, recording of the recorded content that is determined to be close to the desired content by the user is selected. An image is generated based on the content impression vector.

本発明の第2実施形態によるコンテンツ検索装置2の構成を、図13を参照して説明する。   The configuration of the content search device 2 according to the second embodiment of the present invention will be described with reference to FIG.

本実施形態によるコンテンツ検索装置2の構成は、制御手段20がパーツ値算出手段25を有する他は第1実施形態と同様であるため詳細な説明を省略する。   The configuration of the content search apparatus 2 according to the present embodiment is the same as that of the first embodiment except that the control unit 20 includes the part value calculation unit 25, and thus detailed description thereof is omitted.

パーツ値算出手段25は、記録コンテンツの書誌情報からコンテンツ印象ベクトルを取得し、さらにコンテンツ印象ベクトルからパーツ値を算出する。   The part value calculation means 25 acquires a content impression vector from the bibliographic information of the recorded content, and further calculates a part value from the content impression vector.

本実施形態におけるコンテンツ検索装置2の動作について、図14のフローチャートを参照して説明する。   The operation of the content search device 2 in this embodiment will be described with reference to the flowchart of FIG.

まず、書誌情報格納手段35に格納されている記録メディア内のコンテンツの書誌情報を基に、ユーザにより代表コンテンツが選択される(S11)。このとき、ユーザは所望のコンテンツにイメージの近いものを代表コンテンツとして選択する。   First, the representative content is selected by the user based on the bibliographic information of the content in the recording medium stored in the bibliographic information storage unit 35 (S11). At this time, the user selects a content close to the desired content as the representative content.

次に、パーツ値算出手段25において、選択された代表コンテンツのコンテンツIDを基に、メタデータ格納手段34から代表コンテンツの印象ベクトルである代表コンテンツ印象ベクトルが取得される(S12)。   Next, in the part value calculation unit 25, based on the content ID of the selected representative content, a representative content impression vector that is an impression vector of the representative content is acquired from the metadata storage unit 34 (S12).

さらに、パーツ値算出手段25において、取得された代表コンテンツ印象ベクトルと、図9に示されるテンプレートA〜Eのそれぞれのテンプレート印象ベクトルとの距離が算出され、最も距離が短いテンプレートが選択される(S13)。   Further, the part value calculation means 25 calculates the distance between the acquired representative content impression vector and the template impression vectors of the templates A to E shown in FIG. 9, and the template with the shortest distance is selected ( S13).

代表コンテンツ印象ベクトルとテンプレートA〜Eのそれぞれのテンプレート印象ベクトルとの距離は、下記の式(3)を用いて算出される。

Figure 0004544098
The distance between the representative content impression vector and each of the template impression vectors of the templates A to E is calculated using the following equation (3).
Figure 0004544098

式(3)において、d(j)は算出される代表コンテンツ印象ベクトルとテンプレート印象ベクトルとの距離であり、xijはテンプレートjのテンプレート印象ベクトルのi番目の印象ベクトル成分であり、yiは代表コンテンツ印象ベクトルのi番目の印象ベクトル成分であり、iは何番目の印象ベクトル成分であるかを示し、j(1≦j≦R、Rはテンプレートの総数)はテンプレートを識別する番号であり、Nは印象ベクトルの次元である。 In Expression (3), d (j) is the calculated distance between the representative content impression vector and the template impression vector, x ij is the i-th impression vector component of the template impression vector of template j, and y i is This is the i-th impression vector component of the representative content impression vector, i indicates the number of the impression vector component, and j (1 ≦ j ≦ R, R is the total number of templates) is a number for identifying the template , N is the dimension of the impression vector.

式(3)で求められる距離d(j)は、テンプレートjのテンプレート印象ベクトルのi番目の印象ベクトル成分xijと代表コンテンツ印象ベクトルのi番目の印象ベクトル成分yiと2乗誤差の和により算出される。 The distance d (j) obtained by Expression (3) is obtained by adding the i-th impression vector component x ij of the template impression vector of the template j, the i-th impression vector component y i of the representative content impression vector, and the square error. Calculated.

さらに、最も印象ベクトルの距離が短いテンプレートが選択されると、図8に示されるテンプレート格納手段32に格納されているテンプレートの適合条件により、該当するテンプレートのパーツ値がパーツ値算出手段25で取得される(S14)。   Further, when the template with the shortest impression vector distance is selected, the part value calculation means 25 obtains the part value of the corresponding template according to the template matching condition stored in the template storage means 32 shown in FIG. (S14).

そして、選択されたテンプレートの印象ベクトル成分と代表コンテンツの印象ベクトル成分との差分が算出され、この差分を用いて下記の式(4)によりテンプレートのパーツ値が微調整されて代表コンテンツ印象ベクトルのパーツ値が求められる。

Figure 0004544098
Then, the difference between the impression vector component of the selected template and the impression vector component of the representative content is calculated, and using this difference, the part value of the template is finely adjusted according to the following equation (4), and the representative content impression vector A part value is obtained.
Figure 0004544098

式(4)において、pは求める代表コンテンツ印象ベクトルのパーツ値を成分としたベクトルであり、Mはパーツの総数であり、Nは印象ベクトルの成分数であり、パーツがm(1≦m≦M)番目で印象ベクトル成分がn(1≦n≦N)番目のとき、pmはテンプレートのm番目のパーツの値を示し、βmnは予め設定された修正係数であり、Δtnはテンプレートのベクトル成分nと代表コンテンツ印象ベクトルのベクトル成分nとの差分を示す。   In Expression (4), p is a vector whose component is the part value of the representative content impression vector to be obtained, M is the total number of parts, N is the number of components of the impression vector, and the part is m (1 ≦ m ≦ M) When the impression vector component is n (1 ≦ n ≦ N) th, pm indicates the value of the mth part of the template, βmn is a preset correction coefficient, and Δtn is the vector component of the template The difference between n and the vector component n of the representative content impression vector is shown.

式(4)によって、求められたパーツ値の例を図15に示す。そして、このパーツ値を基に、イメージ画像生成手段21でイメージ画像が生成される(S15)。さらに、図2のステップS2の処理と同様にパーツ値の変更処理が行われる(S16)。   FIG. 15 shows an example of the part value obtained by Expression (4). And based on this part value, an image image is produced | generated by the image image production | generation means 21 (S15). Furthermore, a part value changing process is performed in the same manner as the process of step S2 of FIG. 2 (S16).

ここで、ユーザにより代表コンテンツの再選択が指示されたときは、所定のボタン(図示せず)がユーザに押下されることによりステップS12に戻って代表コンテンツの再選択が行われる(S17の「Yes」)。   Here, when reselection of the representative content is instructed by the user, when a predetermined button (not shown) is pressed by the user, the process returns to step S12 to reselect the representative content ("S17" Yes ").

代表コンテンツの再選択が行われなかったとき(S17の「No」)は、以降のステップS18〜ステップS23の処理は図2のステップS4〜ステップS9の処理と同様であるため、詳細な説明は省略する。   When the representative content is not reselected (“No” in S17), the subsequent processing in steps S18 to S23 is the same as the processing in steps S4 to S9 in FIG. Omitted.

以上の第2実施形態によれば、所望のコンテンツとイメージの類似した代表となるコンテンツのイメージ画像から所望のコンテンツのイメージ画像を生成して検索を行うため、イメージ画像を生成する手間が軽減される。   According to the second embodiment described above, since the search is performed by generating the image of the desired content from the image of the representative content similar to the desired content, the effort for generating the image is reduced. The

本発明の第1実施形態におけるコンテンツ検索装置を示すブロック図である。It is a block diagram which shows the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the content search apparatus in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置に設定されているパーツ値に対応する各パーツの形状を示す表である。It is a table | surface which shows the shape of each part corresponding to the part value set to the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置で生成されたデフォルトのイメージ画像を示す表示図である。It is a display figure which shows the default image produced | generated with the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置で用いられる十字カーソルを示す正面図である。It is a front view which shows the cross cursor used with the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置で用いられるクリックホイールを示す正面図である。It is a front view which shows the click wheel used with the content search apparatus in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置で生成されたイメージ画像を示す表示図である。It is a display figure which shows the image image produced | generated with the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置に設定されているテンプレート適合条件を示す表である。It is a table | surface which shows the template adaptation conditions set to the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置に設定されているテンプレート印象ベクトルを示す表である。It is a table | surface which shows the template impression vector set to the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置で算出されたイメージ画像印象ベクトルを示す表である。It is a table | surface which shows the image image impression vector calculated with the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置に設定されている記録コンテンツ印象ベクトルを示す表である。It is a table | surface which shows the recorded content impression vector set to the content search device in 1st Embodiment of this invention. 本発明の第1実施形態におけるコンテンツ検索装置に設定されている記録コンテンツの書誌情報を示す表である。It is a table | surface which shows the bibliographic information of the recording content set to the content search device in 1st Embodiment of this invention. 本発明の第2実施形態におけるコンテンツ検索装置を示すブロック図である。It is a block diagram which shows the content search device in 2nd Embodiment of this invention. 本発明の第2実施形態におけるコンテンツ検索装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the content search device in 2nd Embodiment of this invention. 本発明の第2実施形態におけるコンテンツ検索装置で算出された代表コンテンツのパーツ値を示す表である。It is a table | surface which shows the part value of the representative content calculated with the content search apparatus in 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1…コンテンツ検索装置
2…コンテンツ検索装置
10…入力手段
20…制御手段
21…イメージ画像生成手段
22…テンプレート選択手段
23…イメージ画像印象ベクトル算出手段
24…コンテンツ検索手段
25…パーツ値算出手段
30…記憶手段
31…パーツ値格納手段
32…テンプレート格納手段
33…テンプレート印象ベクトル格納手段
33…印象ベクトル格納手段
34…メタデータ格納手段
35…書誌情報格納手段
40…表示手段
44…パーツ指定カーソル
50…十字カーソル
51,61…パーツ値増減ボタン
52,62…パーツ指定ボタン
53,63…決定ボタン
60…クリックホイール

DESCRIPTION OF SYMBOLS 1 ... Content search device 2 ... Content search device 10 ... Input means 20 ... Control means 21 ... Image image generation means 22 ... Template selection means 23 ... Image image impression vector calculation means 24 ... Content search means 25 ... Parts value calculation means 30 ... Storage means 31 ... Parts value storage means 32 ... Template storage means 33 ... Template impression vector storage means 33 ... Impression vector storage means 34 ... Metadata storage means 35 ... Bibliographic information storage means 40 ... Display means 44 ... Parts designation cursor 50 ... Cross Cursor 51, 61 ... Parts value increase / decrease button 52, 62 ... Parts designation button 53, 63 ... Enter button 60 ... Click wheel

Claims (2)

複数のコンテンツが記録された記録媒体から所望のコンテンツを検索するためのコンテンツ検索装置において、
各コンテンツの印象を人の顔を構成する各パーツにそれぞれ対応づけたときに、前記各パーツの形状をそれぞれ数値で表したパーツ値を格納するパーツ値格納手段と、
前記パーツごとに前記パーツ値の範囲が予め設定された各パーツから構成される代表的な複数の表情のテンプレートを格納するテンプレート格納手段と、
前記テンプレートごとに予め設定される顔の表情を表す各印象語の持つ印象度合いを数値化した印象値をテンプレート印象ベクトルとして格納するテンプレート印象ベクトル格納手段と、
前記記録媒体に記録されている複数のコンテンツ毎の印象値である記録コンテンツ印象ベクトルをメタデータとして格納するメタデータ格納手段と、
前記パーツ値格納手段に格納されたパーツ値の中から、選択されたパーツ値に該当する前記各パーツの形状を組み合わせることにより前記ユーザの所望のコンテンツの印象を表すイメージ画像を生成するイメージ画像生成手段と、
前記テンプレート格納手段に格納されている前記テンプレートの中から前記イメージ画像生成手段で生成されたイメージ画像のパーツ値の組み合わせに適合するテンプレートを選択するテンプレート選択手段と、
前記テンプレート選択手段で選択されたテンプレートのテンプレート印象ベクトルを前記テンプレート印象ベクトル格納手段から取得し、取得したテンプレート印象ベクトルを基に前記生成されたイメージ画像の印象値であるイメージ画像印象ベクトルを算出するイメージ画像印象ベクトル算出手段と、
算出された前記イメージ画像印象ベクトルと前記各記録コンテンツ印象ベクトルとの距離をそれぞれ算出し、この距離が小さい順に前記記録コンテンツ印象ベクトルに対応するコンテンツから所望のコンテンツの候補を出力するコンテンツ検索手段と、
を備えることを特徴とするコンテンツ検索装置。
In a content search apparatus for searching for desired content from a recording medium on which a plurality of contents are recorded,
A part value storage means for storing a part value representing the shape of each part as a numerical value when the impression of each content is associated with each part constituting a human face;
A template storage means for storing a plurality of representative facial expression templates each of which has a preset part value range for each part;
Template impression vector storage means for storing an impression value obtained by quantifying the impression degree of each impression word representing a facial expression preset for each template as a template impression vector;
Metadata storage means for storing a recorded content impression vector, which is an impression value for each of a plurality of contents recorded in the recording medium, as metadata;
Image image generation for generating an image representing an impression of the desired content of the user by combining the shapes of the parts corresponding to the selected part value from the part values stored in the part value storage unit Means,
A template selection unit that selects a template that matches a combination of part values of the image image generated by the image image generation unit from the templates stored in the template storage unit;
A template impression vector of the template selected by the template selection unit is acquired from the template impression vector storage unit, and an image image impression vector that is an impression value of the generated image image is calculated based on the acquired template impression vector. Image image impression vector calculation means,
Content search means for calculating a distance between the calculated image image impression vector and each recorded content impression vector, and outputting a candidate for a desired content from content corresponding to the recorded content impression vector in ascending order of the distance; ,
A content search apparatus comprising:
前記記録媒体中から代表として選択されたコンテンツの前記記録コンテンツ印象ベクトルから前記各パーツのパーツ値を算出するパーツ値算出手段を備え、
前記イメージ画像生成手段は、前記パーツ値算出手段で算出されたパーツ値に該当する前記各パーツの形状を組み合わせることにより、所望のコンテンツの印象を表すイメージ画像を生成する
ことを特徴とする請求項1に記載のコンテンツ検索装置。

A part value calculating means for calculating a part value of each part from the recorded content impression vector of the content selected as a representative from the recording medium;
The image image generating means generates an image image representing an impression of desired content by combining the shapes of the parts corresponding to the part values calculated by the part value calculating means. The content search device according to 1.

JP2005246530A 2005-08-26 2005-08-26 Content search device Expired - Fee Related JP4544098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246530A JP4544098B2 (en) 2005-08-26 2005-08-26 Content search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005246530A JP4544098B2 (en) 2005-08-26 2005-08-26 Content search device

Publications (2)

Publication Number Publication Date
JP2007058799A JP2007058799A (en) 2007-03-08
JP4544098B2 true JP4544098B2 (en) 2010-09-15

Family

ID=37922197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246530A Expired - Fee Related JP4544098B2 (en) 2005-08-26 2005-08-26 Content search device

Country Status (1)

Country Link
JP (1) JP4544098B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03139768A (en) * 1989-10-26 1991-06-13 Nec Corp Image retrieval system
JP2003150528A (en) * 2001-11-12 2003-05-23 Victor Co Of Japan Ltd Message exchange system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03139768A (en) * 1989-10-26 1991-06-13 Nec Corp Image retrieval system
JP2003150528A (en) * 2001-11-12 2003-05-23 Victor Co Of Japan Ltd Message exchange system

Also Published As

Publication number Publication date
JP2007058799A (en) 2007-03-08

Similar Documents

Publication Publication Date Title
JP4622808B2 (en) Music classification device, music classification method, music classification program
JP5344715B2 (en) Content search apparatus and content search program
JP5464412B2 (en) Information processing apparatus, information processing method, and program
US11275723B2 (en) Reducing processing for comparing large metadata sets
TWI396105B (en) Digital data processing method for personalized information retrieval and computer readable storage medium and information retrieval system thereof
US20140325408A1 (en) Apparatus and method for providing musical content based on graphical user inputs
US20070055493A1 (en) String matching method and system and computer-readable recording medium storing the string matching method
JP6415929B2 (en) Speech synthesis apparatus, speech synthesis method and program
JP5359534B2 (en) Information processing apparatus and method, and program
CN109920409B (en) Sound retrieval method, device, system and storage medium
JP5477635B2 (en) Information processing apparatus and method, and program
CN101116073A (en) Information processing apparatus, method and program
US10650814B2 (en) Interactive question-answering apparatus and method thereof
US11928418B2 (en) Text style and emphasis suggestions
Jeong et al. Träumerai: Dreaming music with stylegan
JP2009535671A (en) System and method for associating category label of one user with category label defined by other user
JP2012194691A (en) Re-learning method and program of discriminator, image recognition device
KR101804679B1 (en) Apparatus and method of developing multimedia contents based on story
JP4305836B2 (en) Content search display device and content search display method
JP2007279978A (en) Document retrieval device and document retrieval method
JP4544098B2 (en) Content search device
JP4513098B2 (en) Reputation information acquisition device, reputation information acquisition method, program, and storage medium
JP7427510B2 (en) Information processing device, information processing method and program
WO2018173335A1 (en) Speaker search device, speaker search method, and speaker search program
Kato et al. More-natural mimetic words generation for fine-grained gait description

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees