JP2004199437A - Retrieval device - Google Patents

Retrieval device Download PDF

Info

Publication number
JP2004199437A
JP2004199437A JP2002367634A JP2002367634A JP2004199437A JP 2004199437 A JP2004199437 A JP 2004199437A JP 2002367634 A JP2002367634 A JP 2002367634A JP 2002367634 A JP2002367634 A JP 2002367634A JP 2004199437 A JP2004199437 A JP 2004199437A
Authority
JP
Japan
Prior art keywords
search
content
word
information
search word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002367634A
Other languages
Japanese (ja)
Inventor
Masako Iwamoto
昌子 岩本
Yozo Miyadera
庸造 宮寺
Sho Tanabe
祥 田辺
Norifumi Sunaoka
憲史 砂岡
Setsuo Yokoyama
節雄 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LINK CUBE KK
Original Assignee
LINK CUBE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LINK CUBE KK filed Critical LINK CUBE KK
Priority to JP2002367634A priority Critical patent/JP2004199437A/en
Publication of JP2004199437A publication Critical patent/JP2004199437A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve problems that a retrieved result related to a sensitive word is merely outputted in the conventional device for performing retrieval by using sensitive expression words, retrieved results which are not matched with user's sensitivity are increased in accordance with the increase of a scale of a retrieved target, and it is difficult to obtain a retrieved result suited to a user because there are individual variations in sensitivity. <P>SOLUTION: A system for improving the accuracy of retrieval by feeding back a retrieved result by a user is presented. After viewing, the user answers differences from contents expected by the user and the answer is analyzed. In this case, a database matched with user classes, trends, and a time flow can be constructed on the basis of tastes of many users. User's sensitivity inclination is learned from the retrieving history, attribute information, and fed-back information of an individual user and retrieval matched with individual user's sensitivity can be performed. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は検索装置に関するものである。
【0002】
【従来の技術】
従来、音楽データベースから楽曲名や、アーティスト名等に代えて、感性表現語を用いて検索する検索装置はある(特許文献1、2参照。)。
【0003】
【特許文献1】
特開2001−306580号公報
【0004】
【特許文献2】
特開2001−357066号公報
【0005】
【発明が解決しようとする課題】
しかし、従来の検索装置では、感性語と関連付けられた検索結果を単に出力するにすぎず、検索対象の規模が大きくなるほどユーザの感性に合致しない選曲となる場合も多い。また、感性には個人差があるため、ユーザに適応した検索結果を得ることは困難を伴うという課題がある。
【0006】
【課題を解決するための手段】
本発明では、この課題を解決するために、ユーザが期待しているコンテンツから得られる感情と、検索結果に基づいて視聴したコンテンツから得られる感情との差異をフィードバックすることで、検索精度を高めるシステムを提案する。視聴した結果、検索に用いた感性語がコンテンツの印象に当てはまると感じたかどうかをユーザが回答することで、検索の精度が高まる。また、個々のユーザの検索履歴や、フィードバックした情報からユーザの感性の傾向を学習し、個々のユーザの感性に見合った検索を行うことができる。
【0007】
【発明の実施の形態】
以下に、本発明の実施の形態を説明する。なお、本発明はこれら実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。
【0008】
実施形態1は、主に請求項1、5などについて説明する。
【0009】
実施形態2は、主に請求項2、6などについて説明する。
【0010】
実施形態3は、主に請求項3、7などについて説明する。
【0011】
実施形態4は、主に請求項4などについて説明する。
<<実施形態1>>
【0012】
<実施形態1:概要>
【0013】
実施形態1について説明する。本実施形態は、感性語を用いてコンテンツの検索を行い、その検索結果に基づいて視聴したコンテンツから得られる感情と、ユーザが期待しているコンテンツから得られる感情との差異を入力者の属性情報としてフィードバックする検索装置である。
【0014】
図1は、本実施形態の概念の一例を示すものである。本発明の検索装置の利用者Aは、視聴するコンテンツを検索するために、検索ワードを入力する。検索装置は、検索ワードを解釈してコンテンツの検索を行う。
【0015】
ここでは一例として、利用者Aが「明るい」という語を入力した場面を示した。検索装置には、明暗の段階ごとに感性語とコンテンツの識別情報とが関連付けられて、保持されている。今、明暗の「明」側から5段階が検索ワード「明るい」に合致すると解釈し、感性語「明るい」を用いて、検索結果としてコンテンツXの識別情報を出力する。この検索結果に基づいて、コンテンツXの視聴を行った利用者Aは、期待していたコンテンツとの差異を検索装置にフィードバックする。例えば、利用者Aは、「検索結果に基づいて視聴したコンテンツは、暗い印象を受けた。もっと明るいコンテンツを希望する。」等の情報をフィードバックする。それを受けて、検索装置は、利用者Aの属性情報に対して「明暗の段階のうち「明」側から3段階以内が検索ワード「明るい」に合致」との変更を加え、以降の検索処理がより適切になされるようにする。
【0016】
次の機会で、利用者Aが再度「明るい」という語を入力した場合には、変更が加えられた利用者Aの属性情報により、検索を行う。この改善された属性情報により、確度の高い検索が可能となることが期待される。さらに、検索の結果得られたコンテンツと、期待していたコンテンツとの差異も同様に検索装置にフィードバックする。フィードバックの処理を繰り返すことにより、検索の精度が自動的に上がり、利用者Aの嗜好に近似する検索結果が得られるようになる。
【0017】
<実施形態1:構成>
【0018】
本実施形態での機能ブロックの一例を図2に示した。
【0019】
図2に示す本実施形態の「検索装置」(0200)は、「コンテンツ識別情報保持部」(0201)と、「検索ワード取得部」(0202)と、「検索ワード解釈部」(0203)と、「検索結果出力部」(0204)と、「フィードバック情報取得部」(0205)と、「入力者属性変更部」(0206)とからなる。
【0020】
本件発明の構成要素である各部は、ハードウエア、ソフトウエア、ハードウエアとソフトウエアの両者、のいずれかによって構成される。たとえば、これらを実現する一例として、コンピュータを利用する場合には、CPU、メモリ、バス、インターフェイス、周辺装置などから構成されるハードウエアと、これらのハードウエア上にて実行可能なソフトウエアを挙げることができる。
【0021】
具体的には、メモリ上に展開されたプログラムを順次実行することで、メモリ上のデータや、インターフェイスを介して入力されるデータの加工、蓄積、出力などにより各部の機能が実現される。(本明細書の全体を通じて同様である。)
【0022】
「コンテンツ識別情報保持部」(0201)は、コンテンツ識別情報を、感性語と関連付けて保持する。「コンテンツ」は、画像(動画・静止画)、音声、テキストなどによって構成されている情報であり、「コンテンツ識別情報」は、そのコンテンツを識別する情報である。「感性語」は、そのコンテンツ識別情報で識別されるコンテンツの視聴により生じる可能性のある感情を表す言葉を含む語である。具体的には、「楽しい」、「遅い」、「優しい」などが該当する。また、感性語は言葉に限定されるものではなく、数値データであってもよい。一の感性語に複数のコンテンツ識別情報が関連付けて保持される。一方、コンテンツを視聴することにより生じる可能性のある感情は一意的に定まるものではないので、一のコンテンツに複数の感性語が関連付けられる場合もある。
【0023】
「検索ワード取得部」(0202)は、検索ワードを取得するための処理を行う。「検索ワード」は、コンテンツを検索するために用いられる語であり、感性語と同じである場合もあるし、異なる場合もある。取得は、検索装置の利用者によって入力される場合や、後述するコンテンツ出力装置から出力される場合などが想定される。
【0024】
「検索ワード解釈部」(0203)は、前記検索ワード取得部(0202)に取得された検索ワードをその検索ワードの入力者の属性情報に応じて感性語に解釈する。「入力者の属性情報」は、入力者の感性の傾向を示す情報である。例えば、Aさんは明るいコンテンツの感じ方が弱く、暗いコンテンツの感じ方が強い等の判断により得られる情報が該当する。また、属性情報には、入力者の年齢、性別、住所等といった入力者の個人情報も含まれる場合がある。属性情報は、予め利用者等が入力しておくとしてもよい。また、属性情報は検索装置に保持されており、利用者が検索を行う際に、利用者各人の属性情報が自動的に用いられて、感性語への解釈が行われる場合が想定される。
【0025】
「解釈」は、取得した検索ワードを、属性情報に応じて最も近似する感性語を検出する。検索ワードが例えば、「陽気」である場合、先の例の属性情報に照らして、最も近似する感性語への解釈を行うことが必要となる。検索ワード「陽気」は、明暗の判断基準の中間地点よりも「やや明」よりに位置する「楽しい」を感性語として解釈する。ここでは、検索ワードと感性語とが異なるものと解釈されたが、同一のものであってもよい。
【0026】
「検索結果出力部」(0204)は、前記検索ワード解釈部(0203)で得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための処理を行う。「出力するための処理」には、検索結果を後述するコンテンツ出力装置に出力する場合の他、コンテンツ識別情報が列挙されて表示画面、プリントアウト等により出力される場合や、コンテンツが視聴可能に再生される場合も含まれるとしてもよい。また、出力される検索結果は、一の結果である場合に限られず、複数のコンテンツ識別情報が出力されるとしてもよい。そのとき、利用者の期待するコンテンツに近似する度合いでもって、順位付けをし、ランキング形式にて出力するとしてもよい。
【0027】
「フィードバック情報取得部」(0205)は、フィードバック情報を取得するための処理を行う。「フィードバック情報」は、前記検索結果出力部(0204)で得られた検索結果に基いて視聴したコンテンツから得られる感情と、前記検索ワード取得部(0202)が取得した検索ワードに基いて期待されるコンテンツから得られる感情と、の差異を表す情報である差異情報を含む情報である。
【0028】
例えば、具体的には、Aさんが「陽気」について期待していたコンテンツのイメージに対して、感性語「楽しい」で検索して得られたコンテンツのイメージとの差異がある場合を想定する。検索して得られたコンテンツの方が、「暗いイメージで、さらにその段階としては2段階の差がある」等の情報が差異情報であり、さらに、「希望するコンテンツは軽いイメージのコンテンツ」の所感等により、フィードバック情報が構成される場合もある。またその他としては、各コンテンツを視聴した感想等を、回帰分析などを用いて数値化し、その差分を差異情報とする場合などもある。
【0029】
「取得」は、主に利用者の入力等によって行われる。検索装置のモニタにフィードバック情報を入力するための画面が表示され、画面の表示に応じて利用者が入力できるとすれば便利である。例えば、スクロールバーが用意されていれば、先の例での明暗の段階の調節も容易に行うことができる。
【0030】
「入力者属性変更部」(0206)は、前記フィードバック情報取得部(0205)で取得したフィードバック情報に基づいて前記入力者の属性情報を変更する。具体的には、先のフィードバック情報に基づいて、Aさんの属性情報を、「明暗の段階のうち「明」側から3段階以内が検索ワード「明るい」に合致」との変更を加え、以降の検索処理がより適切になされるようにする。
【0031】
上記フィードバックの処理を繰り返すことにより、検索の精度が自動的に上がり、利用者Aの嗜好に近似する検索結果が得られるようになる。
【0032】
<実施形態1:処理の流れ>
【0033】
図3は、実施形態1での処理の流れの一例を示したものである。本実施形態における検索方法は、以下に示すステップよりなる。
【0034】
まず、コンテンツを検索するための検索ワードを取得するための処理を行う(検索ワード取得ステップ S0301)。
【0035】
次に、前記検索ワード取得ステップ(S0301)にて取得された検索ワードをその検索ワードの入力者の属性情報に応じて感性語に解釈する(検索ワード解釈ステップ S0302)。
【0036】
前記検索ワード解釈ステップ(S0302)で得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための処理を行う(検索結果出力ステップ S0303)。
【0037】
前記検索結果出力ステップ(S0303)にて得られた検索結果に基いて視聴したコンテンツから得られる感情と、前記検索ワード取得ステップにて取得した検索ワードに基いて期待されるコンテンツから得られる感情と、の差異を表す情報である差異情報を含むフィードバック情報を取得するための処理を行う(フィードバック情報取得ステップ S0304)。
【0038】
前記フィードバック情報取得ステップ(S0304)で取得したフィードバック情報に基づいて前記入力者の属性情報を変更する(入力者属性変更ステップ S0305)。
【0039】
以上の処理は、計算機に実行させるためのプログラムで実行することができ、また、このプログラムを計算機によって読み取り可能な記録媒体に記録することができる。(本明細書の全体を通して同様である。)
【0040】
<実施形態1:効果>
【0041】
本発明における検索装置は、感性語を用いてコンテンツの検索を行うことを可能にし、また、フィードバックの機能により、その検索精度を向上させるという効果を有する。また、フィードバックを繰り返すことにより、つまり、本検索装置を利用すればするほど、その検索精度は向上するため、検索装置の利用度が高まることが期待される。
【0042】
さらに、感性には個人差があるが、本件の検索装置においては、各人の感性の傾向に適応した検索ができる。これにより、利用者は自己のイメージで検索するだけで、自分の感性や嗜好に合致する検索結果が得られるため、便利である。
<<実施形態2>>
【0043】
<実施形態2:概要>
【0044】
実施形態2について説明する。本実施形態は、感性語を用いてコンテンツの検索を行い、その検索結果に基づいて視聴したコンテンツから得られる感情と、ユーザが期待しているコンテンツから得られる感情との差異をコンテンツ識別情報と感性語との関連付けを変更するためにフィードバックする検索装置である。
【0045】
<実施形態2:構成>
【0046】
本実施形態での機能ブロックの一例を図4に示した。
【0047】
図4に示す本実施形態の「検索装置」(0400)は、「コンテンツ識別情報保持部」(0401)と、「検索ワード取得部」(0402)と、「検索ワード解釈部」(0403)と、「検索結果出力部」(0404)と、「フィードバック情報取得部」(0405)と、さらに、「関連付変更部」(0406)とからなる。
【0048】
「関連付変更部」(0406)は、フィードバック情報取得部(0405)で取得したフィードバック情報に基づいて前記コンテンツ識別情報保持部(0401)でのコンテンツ識別情報と感性語との関連付けを変更するための処理を行う。例えば、フィードバック情報が「検索して得られたコンテンツは、(期待していたものより)暗い」である場合には、そのコンテンツと関連付けられた感性語を現在の感性語よりも暗いイメージを与える語に変更する。多くの利用者が利用することにより、コンテンツ識別情報と、感性語の関連付けが多数派の嗜好に合致し、より一般化することが想定される。
【0049】
また、利用者の属性情報に含まれる年齢や、性別、職業等の情報についてのカテゴリー別にフィードバック情報で関連付けの変更処理ができるとすると、それぞれのカテゴリー内の検索結果によれば、個人の感性の差を縮めることが期待できる。つまり、検索ワード「元気な」で得られるコンテンツが、若い年齢層にとっては心地よく感じられても、年配者にとってはうるさく感じられる場合がある。このとき、利用者の属性情報(自身に適切な年齢のカテゴリーなど)に基づいて、自身の感性に合致するコンテンツが得られる可能性が高くなるので、利用者にとっては便利である。
【0050】
その他の各部の処理は、実施形態1と同様である。
【0051】
<実施形態2:処理の流れ>
【0052】
図5は、実施形態2での処理の流れの一例を示したものである。本実施形態における検索方法は、以下に示すステップよりなる。
【0053】
まず、コンテンツを検索するための検索ワードを取得するための処理を行う(検索ワード取得ステップ S0501)。
【0054】
次に、前記検索ワード取得ステップ(S0501)にて取得された検索ワードをその検索ワードの入力者の属性情報に応じて感性語に解釈する(検索ワード解釈ステップ S0502)。
【0055】
前記検索ワード解釈ステップ(S0502)で得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための処理を行う(検索結果出力ステップ S0503)。
【0056】
前記検索結果出力ステップ(S0503)にて得られた検索結果に基いて視聴したコンテンツから得られる感情と、前記検索ワード取得ステップにて取得した検索ワードに基いて期待されるコンテンツから得られる感情と、の差異を表す情報である差異情報を含むフィードバック情報を取得するための処理を行う(フィードバック情報取得ステップ S0504)。
【0057】
前記フィードバック情報取得ステップ(S0504)で取得したフィードバック情報に基づいて、コンテンツ識別情報と感性語との関連付けを変更するための処理を行う(関連付変更ステップ S0505)。
【0058】
<実施形態2:効果>
【0059】
本発明における検索装置は、フィードバックの機能により、コンテンツ識別情報と感性語との関連付けを変更する。ここでは、個人に特化せず、万人に対して検索処理機能向上が図られる。多くの利用者に利用され、フィードバックを繰り返すほど、検索精度を向上させることができる。また、多数の利用者の嗜好に基づくために、利用者層、流行、時代の流れに沿ったデータベースが構築される。
【0060】
また、利用者の属性情報に含まれる年齢や、性別等の情報についてのカテゴリー別にフィードバック情報で関連付けの変更処理ができるとすると、それぞれのカテゴリー内の検索結果によることで、自身の感性に合致するコンテンツが得られる可能性が高くなるので、利用者にとっては便利である。
<<実施形態3>>
【0061】
<実施形態3:概要>
【0062】
実施形態3について説明する。本実施形態は、感性語を用いてコンテンツの検索を行い、その結果を解釈情報としてフィードバックする検索装置である。
【0063】
<実施形態3:構成>
【0064】
本実施形態での機能ブロックの一例を図6に示した。
【0065】
図6に示す本実施形態の「検索装置」(0600)は、「コンテンツ識別情報保持部」(0601)と、「検索ワード取得部」(0602)と、「検索ワード解釈部」(0603)と、「検索結果出力部」(0604)と、「フィードバック情報取得部」(0605)と、「解釈情報変更部」(0606)とからなる。
【0066】
「検索ワード解釈部」(0603)は、検索ワード取得部(0602)が取得した検索ワードをその検索ワードの入力者の属性情報と、解釈情報と、に応じて感性語に解釈する。「解釈情報」は、検索ワードを検索のために用いられる感性語として解釈するための情報である。解釈情報は、例えば、検索ワードとは系統を異にする感性に関する情報等の場合がある。具体的には、検索ワード「暗い」に対して、解釈情報として「騒がしい/静かの度合い、軽い/重いの度合い」等が該当する。多方面からの情報により、検索の精度を上げることを可能とする。
解釈情報には、視聴したコンテンツ自体を感性語として解釈するための情報も含まれる場合がある。例えば、視聴したコンテンツに関連付けられた感性語を用いて、検索ワードを新たな感性語として解釈することなどが該当する。これによれば、コンテンツに類似するコンテンツをも検索することが可能となる。
【0067】
「解釈情報変更部」(0606)は、フィードバック情報取得部(0605)で取得したフィードバック情報に基づいて前記解釈情報を変更する。フィードバック情報に基づいて、例えば先の例では、解釈情報の軽重の度合いを変更する場合などが該当する。また、すでに視聴したコンテンツを検索ワードの解釈に用いて再検索を行うことができるとしてもよい。その場合には、差分の検索を繰り返すことにより、検索機能の向上が図られる。
【0068】
<実施形態3:処理の流れ>
【0069】
図7は、実施形態3での処理の流れの一例を示したものである。本実施形態における検索方法は、以下に示すステップよりなる。
【0070】
まず、コンテンツを検索するための検索ワードを取得するための処理を行う(検索ワード取得ステップ S0701)。
【0071】
次に、前記検索ワード取得ステップ(S0701)にて取得した検索ワードをその検索ワードの入力者の属性情報と、検索ワードを検索のために解釈するための情報である解釈情報と、に応じて感性語に解釈する(検索ワード解釈ステップ
S0702)。
【0072】
前記検索ワード解釈ステップ(S0702)で得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための処理を行う(検索結果出力ステップ S0703)。
【0073】
前記検索結果出力ステップ(S0703)にて得られた検索結果に基いて視聴したコンテンツから得られる感情と、前記検索ワード取得ステップ(S0701)にて取得した検索ワードに基いて期待されるコンテンツから得られる感情と、の差異を表す情報である差異情報を含むフィードバック情報を取得するための処理を行う(フィードバック情報取得ステップ S0704)。
【0074】
前記フィードバック情報取得ステップ(S0704)にて取得したフィードバック情報に基づいて前記解釈情報を変更する(解釈情報変更ステップ S0705)。
【0075】
<実施形態3:効果>
【0076】
本発明における検索装置は、検索ワードをその入力者の属性情報と、解釈情報とに応じて感性語に解釈し、検索精度を向上させるという効果を有する。解釈情報により、多方面からの情報を用いることでき、細やかな検索が実行できる。
<<実施形態4>>
【0077】
<実施形態4:概要>
【0078】
実施形態4について説明する。本実施形態は、検索結果に基づいて感性語を用いてコンテンツの検索を行い、その結果を解釈情報としてフィードバックする検索装置である。
【0079】
<実施形態4:構成>
【0080】
本実施形態での機能ブロックの一例を図8に示した。
【0081】
図8に示す本実施形態の「コンテンツ出力装置」(0800)は、「コンテンツ蓄積部」(0801)と、「検索ワード入力部」(0802)と、「検索ワード出力部」(0803)と、「検索結果取得部」(0804)と、「コンテンツ取得部」(0805)とからなる。
【0082】
「コンテンツ蓄積部」(0801)は、コンテンツ識別情報と、コンテンツとを関連付けて蓄積する。
【0083】
「検索ワード入力部」(0802)は、前記コンテンツ蓄積部(0801)に蓄積されたコンテンツを検索するための検索ワードを入力するための処理を行う。
【0084】
「検索ワード出力部」(0803)は、前記検索ワード入力部(0802)に入力された検索ワードを検索装置に対して出力する。
【0085】
「検索結果取得部」(0804)は、前記検索ワード出力部(0803)で出力された検索ワードに対して前記検索装置から取得する検索結果を取得する。検索結果として、検索装置からはコンテンツ識別情報が出力される。
【0086】
「コンテンツ取得部」(0805)は、前記検索結果取得部(0804)で取得した検索結果に基いて前記コンテンツ蓄積部(0801)からコンテンツを取得する。取得したコンテンツは、コンテンツ出力装置で再生等行う場合もある。
【0087】
コンテンツ出力装置は、実施形態1、2、3で示した検索装置に付随して利用されるものである。また、コンテンツ出力装置として別個に存在せず、検索装置に内在して機能する場合もある。
【0088】
<実施形態4:効果>
【0089】
本発明におけるコンテンツ出力装置は、検索装置の検索結果に基づいて、コンテンツの取得を行う。コンテンツを蓄積する場合、相当の容量が必要となるため、装置の負荷が過大になる。しかし、本実施形態におけるコンテンツ出力装置を設置し、コンテンツの蓄積と検索機能とを別個にすることで、装置の負荷を減らし、検索装置では検索機能の向上が図られる。
【発明の効果】
本発明における検索装置は、感性語を用いてコンテンツの検索を行うことを可能にし、また、フィードバックの機能により、その検索精度を向上させるという効果を有する。また、フィードバックを繰り返すことにより、つまり、本検索装置を利用すればするほど、その検索精度は向上するため、検索装置の利用度が高まることが期待される。
【0090】
さらに、感性には個人差があるが、本件の検索装置においては、各人の感性の傾向に適応した検索ができる。これにより、利用者は自己のイメージで検索するだけで、自分の感性や嗜好に合致する検索結果が得られるため、便利である。
【図面の簡単な説明】
【図1】実施形態1を説明するための概念図
【図2】実施形態1を説明するための機能ブロック図
【図3】実施形態1の処理の流れを説明する図
【図4】実施形態2を説明するための機能ブロック図
【図5】実施形態2の処理の流れを説明する図
【図6】実施形態3を説明するための機能ブロック図
【図7】実施形態3の処理の流れを説明する図
【図8】実施形態4を説明するための機能ブロック図
【符号の説明】
0200 検索装置
0201 コンテンツ識別情報保持部
0202 検索ワード取得部
0203 検索ワード解釈部
0204 検索結果出力部
0205 フィードバック情報取得部
0206 入力者属性変更部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a search device.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is a search device that searches a music database using a sentiment expression word instead of a song name, an artist name, or the like (see Patent Documents 1 and 2).
[0003]
[Patent Document 1]
JP 2001-306580 A
[Patent Document 2]
JP 2001-357066 A
[Problems to be solved by the invention]
However, the conventional search device merely outputs the search result associated with the sensibility word, and in many cases, the larger the size of the search target, the more the music selection does not match the sensibility of the user. In addition, since there is an individual difference in sensitivity, there is a problem that it is difficult to obtain a search result adapted to a user.
[0006]
[Means for Solving the Problems]
In the present invention, in order to solve this problem, the search accuracy is improved by feeding back the difference between the emotion obtained from the content expected by the user and the emotion obtained from the content viewed based on the search result. Suggest system. As a result of viewing, the user answers whether or not the sentiment word used for the search is applicable to the impression of the content, thereby improving the accuracy of the search. In addition, it is possible to learn the tendency of the user's sensibility from the search history of each user and the information fed back, and perform a search that matches the sensibility of each user.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described. The present invention is not limited to these embodiments at all, and can be implemented in various modes without departing from the gist thereof.
[0008]
In the first embodiment, claims 1 and 5 will be mainly described.
[0009]
In the second embodiment, claims 2 and 6 will be mainly described.
[0010]
In the third embodiment, claims 3 and 7 will be mainly described.
[0011]
The fourth embodiment will mainly describe claim 4 and the like.
<< First Embodiment >>
[0012]
<Embodiment 1: Overview>
[0013]
Embodiment 1 will be described. In the present embodiment, a content is searched for using a kansei word, and the difference between the emotion obtained from the content viewed based on the search result and the emotion obtained from the content expected by the user is determined by the attribute of the input person. This is a search device that feeds back information.
[0014]
FIG. 1 shows an example of the concept of the present embodiment. A user A of the search device of the present invention inputs a search word in order to search for content to be viewed. The search device interprets the search word and searches for the content.
[0015]
Here, as an example, a scene in which the user A inputs the word “bright” is shown. In the search device, the sensibility word and the identification information of the content are stored in association with each other at each light and dark stage. Now, it is interpreted that the five steps from the “bright” side of the light and dark match the search word “bright”, and the identification information of the content X is output as a search result using the sensitivity word “bright”. Based on the search result, the user A who has viewed the content X feeds back a difference from the expected content to the search device. For example, the user A feeds back information such as “The content viewed based on the search result has a dark impression. I want a brighter content.” In response to this, the search device changes the attribute information of the user A to “the search word“ bright ”matches the search word within 3 stages from the“ bright ”side of the light and dark stages,” Ensure that processing is done more appropriately.
[0016]
At the next opportunity, when the user A inputs the word “bright” again, a search is performed based on the attribute information of the changed user A. It is expected that a search with high accuracy can be performed by the improved attribute information. Further, the difference between the content obtained as a result of the search and the expected content is also fed back to the search device. By repeating the feedback process, the accuracy of the search is automatically increased, and a search result similar to the preference of the user A can be obtained.
[0017]
<Embodiment 1: Configuration>
[0018]
FIG. 2 shows an example of a functional block according to the present embodiment.
[0019]
The “search device” (0200) of the present embodiment illustrated in FIG. 2 includes a “content identification information holding unit” (0201), a “search word acquisition unit” (0202), and a “search word interpretation unit” (0203). , A “search result output unit” (0204), a “feedback information acquisition unit” (0205), and an “inputter attribute change unit” (0206).
[0020]
Each unit which is a component of the present invention is constituted by any of hardware, software, and both hardware and software. For example, when a computer is used as an example of realizing these, hardware including a CPU, a memory, a bus, an interface, peripheral devices, and the like, and software executable on these hardware are given. be able to.
[0021]
Specifically, by sequentially executing the programs developed on the memory, the functions of the respective units are realized by processing, storing, outputting, and the like of the data on the memory and the data input via the interface. (Similar throughout this specification.)
[0022]
The “content identification information holding unit” (0201) holds the content identification information in association with the kansei word. “Content” is information composed of an image (moving image / still image), sound, text, and the like, and “content identification information” is information for identifying the content. The “sensibility word” is a word including a word expressing an emotion that may be generated by viewing the content identified by the content identification information. Specifically, “fun”, “slow”, “gentle”, etc. correspond. The kansei words are not limited to words, but may be numerical data. A plurality of pieces of content identification information are held in association with one sentiment word. On the other hand, since emotions that may be caused by viewing content are not uniquely determined, a plurality of kansei words may be associated with one content.
[0023]
The “search word obtaining unit” (0202) performs a process for obtaining a search word. The “search word” is a word used for searching for content, and may be the same as or different from the affective word. It is assumed that the acquisition is performed by a user of the search device or by a content output device described later.
[0024]
The “search word interpreting unit” (0203) interprets the search word acquired by the search word acquiring unit (0202) into a sensitivity word according to the attribute information of the input person of the search word. “Input person attribute information” is information indicating the tendency of the input person's sensitivity. For example, Mr. A corresponds to information obtained by a determination that a bright content has a weak feeling and a dark content has a strong feeling. The attribute information may also include personal information of the input person, such as the age, sex, address, etc. of the input person. The attribute information may be input by a user or the like in advance. In addition, attribute information is held in the search device, and when a user performs a search, it is assumed that attribute information of each user is automatically used and interpretation into a feeling word is performed. .
[0025]
The "interpretation" detects a feeling word that most closely approximates the obtained search word according to the attribute information. If the search word is “cheerful”, for example, it is necessary to interpret the sentence word to the closest similarity in light of the attribute information in the previous example. The search word “cheerful” interprets “fun” located “slightly brighter” than the middle point of the light / dark criterion as a sensitivity word. Here, the search word and the sentiment word are interpreted as being different, but may be the same.
[0026]
The “search result output unit” (0204) performs a process for outputting a search result that is content identification information corresponding to the content searched using the sensibility words obtained by the search word interpretation unit (0203). Do. The “output processing” includes, in addition to the case of outputting the search result to a content output device described later, the case where the content identification information is enumerated and output on a display screen, a printout, or the like, and the content can be viewed. It may be included that it is reproduced. Further, the search result to be output is not limited to one result, and a plurality of pieces of content identification information may be output. At that time, the content may be ranked according to the degree of approximation of the content expected by the user, and output in a ranking format.
[0027]
The “feedback information acquisition unit” (0205) performs a process for acquiring feedback information. “Feedback information” is expected based on the emotion obtained from the content viewed based on the search result obtained by the search result output unit (0204) and the search word obtained by the search word obtaining unit (0202). This is information including difference information, which is information indicating a difference between the emotion obtained from the content.
[0028]
For example, specifically, it is assumed that there is a difference between the image of the content that Mr. A expected about “cheerful” and the image of the content obtained by searching for the sensibility word “fun”. In the content obtained by the search, information such as “a dark image and a further difference of two stages” is the difference information. Further, “the desired content is a light image content” Feedback information may be configured depending on the impressions and the like. As another example, there is a case where impressions or the like of viewing each content are quantified using a regression analysis or the like, and the difference is used as difference information.
[0029]
The “acquisition” is mainly performed by a user input or the like. It is convenient if a screen for inputting feedback information is displayed on the monitor of the search device and the user can input the information in accordance with the display of the screen. For example, if a scroll bar is prepared, the adjustment of the light / dark stage in the above example can be easily performed.
[0030]
The “input user attribute change unit” (0206) changes the attribute information of the input user based on the feedback information acquired by the feedback information acquisition unit (0205). Specifically, based on the previous feedback information, the attribute information of Mr. A is changed such that “within three stages from the“ light ”side of the light and dark stages match the search word“ bright ””, and thereafter, Search processing is performed more appropriately.
[0031]
By repeating the above feedback processing, the accuracy of the search is automatically increased, and a search result similar to the preference of the user A can be obtained.
[0032]
<Embodiment 1: Process flow>
[0033]
FIG. 3 illustrates an example of a processing flow in the first embodiment. The search method according to the present embodiment includes the following steps.
[0034]
First, processing for obtaining a search word for searching for a content is performed (search word obtaining step S0301).
[0035]
Next, the search word acquired in the search word acquisition step (S0301) is interpreted as a sensitivity word according to the attribute information of the input person of the search word (search word interpretation step S0302).
[0036]
A process for outputting a search result, which is content identification information corresponding to the content searched using the emotion words obtained in the search word interpretation step (S0302), is performed (search result output step S0303).
[0037]
The emotion obtained from the content viewed based on the search result obtained in the search result output step (S0303) and the emotion obtained from the content expected based on the search word obtained in the search word obtaining step Then, a process for acquiring feedback information including difference information that is information representing a difference between is performed (feedback information acquisition step S0304).
[0038]
The attribute information of the input user is changed based on the feedback information obtained in the feedback information obtaining step (S0304) (input user attribute changing step S0305).
[0039]
The above processing can be executed by a program to be executed by a computer, and this program can be recorded on a recording medium readable by the computer. (Similar throughout this specification.)
[0040]
<Embodiment 1: Effect>
[0041]
ADVANTAGE OF THE INVENTION The search apparatus in this invention makes it possible to search for a content using a kansei word, and has the effect of improving the search accuracy by the feedback function. Also, by repeating feedback, that is, the more the present search device is used, the higher the search accuracy, the higher the use of the search device is expected.
[0042]
Furthermore, although there is an individual difference in sensibility, the search device of the present case can perform a search adapted to the tendency of each person's sensibility. This is convenient because the user can obtain a search result that matches his / her sensibility and taste only by searching with his / her own image.
<< Embodiment 2 >>
[0043]
<Embodiment 2: Overview>
[0044]
Embodiment 2 will be described. In the present embodiment, a content search is performed using a kansei word, and the difference between the emotion obtained from the content viewed based on the search result and the emotion obtained from the content expected by the user is defined as content identification information. This is a search device that provides feedback to change the association with a kansei word.
[0045]
<Embodiment 2: Configuration>
[0046]
FIG. 4 shows an example of a functional block according to the present embodiment.
[0047]
The “search device” (0400) of the present embodiment illustrated in FIG. 4 includes a “content identification information holding unit” (0401), a “search word acquisition unit” (0402), and a “search word interpretation unit” (0403). , A “search result output unit” (0404), a “feedback information acquisition unit” (0405), and a “association change unit” (0406).
[0048]
The “association change unit” (0406) is for changing the association between the content identification information and the sensibility word in the content identification information holding unit (0401) based on the feedback information acquired by the feedback information acquisition unit (0405). Is performed. For example, if the feedback information is “content obtained by searching is darker than expected”, an image of a sentiment associated with the content is given a darker image than the current sentiment. Change to word. It is assumed that the association between the content identification information and the sensibility word matches the preference of the majority and becomes more generalized by the use of many users.
[0049]
Also, if it is possible to change the association by feedback information for each category of information such as age, gender, occupation, etc. included in user attribute information, according to the search results in each category, We can expect to close the gap. In other words, the content obtained by the search word “energetic” may feel comfortable for the young age group, but may be noisy for the elderly. At this time, it is more convenient for the user because it is more likely that a content that matches his or her sensibility is obtained based on the user's attribute information (such as an appropriate age category).
[0050]
The processing of the other units is the same as in the first embodiment.
[0051]
<Embodiment 2: Process flow>
[0052]
FIG. 5 illustrates an example of a processing flow in the second embodiment. The search method according to the present embodiment includes the following steps.
[0053]
First, processing for obtaining a search word for searching for content is performed (search word obtaining step S0501).
[0054]
Next, the search word acquired in the search word acquisition step (S0501) is interpreted as a sensitivity word according to the attribute information of the input person of the search word (search word interpretation step S0502).
[0055]
A process for outputting a search result, which is content identification information corresponding to the content searched using the emotion words obtained in the search word interpretation step (S0502) (search result output step S0503).
[0056]
The emotion obtained from the content viewed based on the search result obtained in the search result output step (S0503) and the emotion obtained from the content expected based on the search word obtained in the search word obtaining step Then, a process for acquiring feedback information including difference information, which is information representing the difference between, is performed (feedback information acquisition step S0504).
[0057]
Based on the feedback information acquired in the feedback information acquisition step (S0504), a process for changing the association between the content identification information and the kansei word is performed (association change step S0505).
[0058]
<Embodiment 2: Effect>
[0059]
The search device according to the present invention changes the association between the content identification information and the kansei word using the feedback function. Here, the search processing function is improved for all persons without specializing in individuals. It is used by many users, and the more the feedback is repeated, the more the search accuracy can be improved. Further, in order to be based on the tastes of a large number of users, a database is constructed in accordance with the user demographics, trends and times.
[0060]
In addition, if it is possible to change the association by feedback information for each category of information such as age and gender included in the user's attribute information, it is possible to match the user's own sensitivity due to search results in each category This is convenient for the user because the possibility of obtaining the content increases.
<< Embodiment 3 >>
[0061]
<Embodiment 3: Overview>
[0062]
Embodiment 3 will be described. The present embodiment is a search device that searches for a content using a kansei word and feeds back the result as interpretation information.
[0063]
<Embodiment 3: Configuration>
[0064]
FIG. 6 shows an example of a functional block according to the present embodiment.
[0065]
The “search device” (0600) of the present embodiment shown in FIG. 6 includes a “content identification information holding unit” (0601), a “search word acquisition unit” (0602), and a “search word interpretation unit” (0603). , A “search result output unit” (0604), a “feedback information acquisition unit” (0605), and an “interpretation information change unit” (0606).
[0066]
The “search word interpreting unit” (0603) interprets the search word acquired by the search word acquiring unit (0602) into a sensibility word according to the attribute information of the input person of the search word and the interpretation information. “Interpretation information” is information for interpreting a search word as a sensitivity word used for a search. Interpretation information may be, for example, information related to a sensitivity different from the search word. Specifically, for the search word “dark”, the interpretation information includes “noisy / quiet degree, light / heavy degree” and the like. It is possible to improve the accuracy of search by using information from various fields.
The interpretation information may also include information for interpreting the viewed content itself as a sensibility word. For example, interpreting a search word as a new sentiment word using a sentiment word associated with the viewed content is applicable. According to this, it is possible to search for a content similar to the content.
[0067]
The “interpretation information change unit” (0606) changes the interpretation information based on the feedback information acquired by the feedback information acquisition unit (0605). For example, in the above example, the degree of lightness of the interpretation information is changed based on the feedback information. Further, it may be possible to perform a re-search by using the already viewed content for the interpretation of the search word. In that case, the search function is improved by repeating the search for the difference.
[0068]
<Embodiment 3: Process flow>
[0069]
FIG. 7 illustrates an example of a processing flow according to the third embodiment. The search method according to the present embodiment includes the following steps.
[0070]
First, a process for acquiring a search word for searching for content is performed (search word acquisition step S0701).
[0071]
Next, the search word acquired in the search word acquisition step (S0701) is determined according to the attribute information of the input person of the search word and the interpretation information that is information for interpreting the search word for the search. It is interpreted as a sensitivity word (search word interpretation step S0702).
[0072]
A process for outputting a search result, which is content identification information corresponding to the content searched using the emotion words obtained in the search word interpretation step (S0702), is performed (search result output step S0703).
[0073]
The emotion obtained from the content viewed on the basis of the search result obtained in the search result output step (S0703) and the expected content based on the search word obtained in the search word obtaining step (S0701) are obtained. A process is performed to obtain feedback information including difference information that is information indicating a difference between the received emotion and feedback (feedback information obtaining step S0704).
[0074]
The interpretation information is changed based on the feedback information acquired in the feedback information acquisition step (S0704) (interpretation information change step S0705).
[0075]
<Embodiment 3: Effect>
[0076]
The search device according to the present invention has an effect of interpreting a search word into a kansei word according to the attribute information of the input person and the interpretation information, thereby improving search accuracy. With the interpreted information, information from various fields can be used, and a detailed search can be executed.
<< Embodiment 4 >>
[0077]
<Embodiment 4: Overview>
[0078]
Embodiment 4 will be described. The present embodiment is a search device that performs a content search using sensibility words based on a search result, and feeds back the result as interpretation information.
[0079]
<Embodiment 4: Configuration>
[0080]
FIG. 8 shows an example of a functional block according to the present embodiment.
[0081]
The “content output device” (0800) of the present embodiment illustrated in FIG. 8 includes a “content storage unit” (0801), a “search word input unit” (0802), a “search word output unit” (0803), It consists of a “search result acquisition unit” (0804) and a “content acquisition unit” (0805).
[0082]
The “content storage unit” (0801) stores the content identification information in association with the content.
[0083]
The “search word input unit” (0802) performs a process for inputting a search word for searching for the content stored in the content storage unit (0801).
[0084]
The “search word output unit” (0803) outputs the search word input to the search word input unit (0802) to the search device.
[0085]
The “search result obtaining unit” (0804) obtains a search result obtained from the search device for the search word output by the search word output unit (0803). As a search result, content identification information is output from the search device.
[0086]
The “content acquisition unit” (0805) acquires content from the content storage unit (0801) based on the search result acquired by the search result acquisition unit (0804). The acquired content may be played back by a content output device in some cases.
[0087]
The content output device is used in association with the search device described in the first, second, and third embodiments. Further, there is a case where the content output device does not exist separately but functions inherently in the search device.
[0088]
<Embodiment 4: Effect>
[0089]
A content output device according to the present invention acquires content based on a search result of a search device. When storing content, a considerable capacity is required, so that the load on the device becomes excessive. However, by installing the content output device in the present embodiment and separating the content storage and search functions from each other, the load on the device is reduced, and the search function is improved in the search device.
【The invention's effect】
ADVANTAGE OF THE INVENTION The search device in this invention has the effect that it is possible to search for contents using sensibility words and that the search function is improved by the feedback function. Also, by repeating feedback, that is, the more the present search device is used, the higher the search accuracy, the higher the use of the search device is expected.
[0090]
Furthermore, although there are individual differences in sensibility, the search device of the present case can perform a search adapted to the tendency of each person's sensibility. This is convenient because the user can obtain a search result that matches his or her sensibilities and preferences only by searching with his or her own image.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram for explaining Embodiment 1; FIG. 2 is a functional block diagram for explaining Embodiment 1; FIG. 3 is a diagram for explaining a processing flow of Embodiment 1; FIG. FIG. 5 is a functional block diagram for explaining a second embodiment. FIG. 6 is a functional block diagram for explaining a third embodiment. FIG. 6 is a functional block diagram for explaining a third embodiment. FIG. 8 is a functional block diagram for explaining a fourth embodiment.
0200 search device 0201 content identification information holding unit 0202 search word acquisition unit 0203 search word interpretation unit 0204 search result output unit 0205 feedback information acquisition unit 0206 input user attribute change unit

Claims (7)

コンテンツを識別する情報であるコンテンツ識別情報を、そのコンテンツ識別情報で識別されるコンテンツの視聴により生じる可能性のある感情を表す言葉を含む感性語と関連付けて保持するコンテンツ識別情報保持部と、
コンテンツを検索するための検索ワードを取得するための検索ワード取得部と、
前記検索ワード取得部に取得された検索ワードをその検索ワードの入力者の属性情報に応じて感性語に解釈する検索ワード解釈部と、
前記検索ワード解釈部で得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための検索結果出力部と、前記検索結果出力部で得られた検索結果に基いて視聴したコンテンツと、前記検索ワード取得部が取得した検索ワードに基いて期待されるコンテンツと、の差異を表す情報である差異情報を含むフィードバック情報を取得するためのフィードバック情報取得部と、
前記フィードバック情報取得部で取得したフィードバック情報に基づいて前記入力者の属性情報を変更する入力者属性変更部と、
を有する検索装置。
A content identification information holding unit that holds content identification information, which is information for identifying the content, in association with a feeling word including a word representing an emotion that may be generated by viewing the content identified by the content identification information;
A search word obtaining unit for obtaining a search word for searching for content,
A search word interpretation unit that interprets the search word acquired by the search word acquisition unit into a sensitivity word according to the attribute information of the input person of the search word,
A search result output unit for outputting a search result that is content identification information corresponding to the content searched for using the sentiment word obtained by the search word interpretation unit, and a search obtained by the search result output unit A feedback information acquisition unit for acquiring feedback information including difference information that is information indicating a difference between the content viewed based on the result and the content expected based on the search word acquired by the search word acquisition unit. When,
An inputter attribute change unit that changes the attribute information of the inputter based on the feedback information acquired by the feedback information acquisition unit,
A search device having:
コンテンツを識別する情報であるコンテンツ識別情報を、そのコンテンツ識別情報で識別されるコンテンツの視聴により生じる可能性のある感情を表す言葉を含む感性語と関連付けて保持するコンテンツ識別情報保持部と、
コンテンツを検索するための検索ワードを取得するための検索ワード取得部と、
前記検索ワード取得部に取得された検索ワードをその検索ワードの入力者の属性情報に応じて感性語に解釈する検索ワード解釈部と、
前記検索ワード解釈部で得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための検索結果出力部と、前記検索結果出力部で得られた検索結果に基いて視聴したコンテンツと、前記検索ワード取得部が取得した検索ワードに基いて期待されるコンテンツと、の差異を表す情報である差異情報を含むフィードバック情報を取得するためのフィードバック情報取得部と、
前記フィードバック情報取得部で取得したフィードバック情報に基づいて前記コンテンツ識別情報保持部でのコンテンツ識別情報と感性語との関連付けを変更するための関連付変更部と、
を有する検索装置。
A content identification information holding unit that holds content identification information, which is information for identifying the content, in association with a feeling word including a word representing an emotion that may be generated by viewing the content identified by the content identification information;
A search word obtaining unit for obtaining a search word for searching for content,
A search word interpretation unit that interprets the search word acquired by the search word acquisition unit into a sensitivity word according to the attribute information of the input person of the search word,
A search result output unit for outputting a search result that is content identification information corresponding to the content searched for using the sentiment word obtained by the search word interpretation unit, and a search obtained by the search result output unit A feedback information acquisition unit for acquiring feedback information including difference information that is information indicating a difference between the content viewed based on the result and the content expected based on the search word acquired by the search word acquisition unit. When,
An association changing unit for changing the association between the content identification information and the kansei word in the content identification information holding unit based on the feedback information acquired by the feedback information acquisition unit,
A search device having:
コンテンツを識別する情報であるコンテンツ識別情報を、そのコンテンツ識別情報で識別されるコンテンツ視聴により生じる可能性のある感情を表す言葉を含む感性語と関連付けて保持するコンテンツ識別情報保持部と、
コンテンツを検索するための検索ワードを取得するための検索ワード取得部と、
前記検索ワード取得部が取得した検索ワードをその検索ワードの入力者の属性情報と、検索ワードを検索のために解釈するための情報である解釈情報と、に応じて感性語に解釈する検索ワード解釈部と、
前記検索ワード解釈部で得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための検索結果出力部と、前記検索結果出力部で得られた検索結果に基いて視聴したコンテンツと、前記検索ワード取得部が取得した検索ワードに基いて期待されるコンテンツと、の差異を表す情報である差異情報を含むフィードバック情報を取得するためのフィードバック情報取得部と、
前記フィードバック情報取得部で取得したフィードバック情報に基づいて前記解釈情報を変更する解釈情報変更部と、
を有する検索装置。
A content identification information holding unit that holds content identification information, which is information for identifying content, in association with a kansei word including a word representing an emotion that may be caused by viewing the content identified by the content identification information;
A search word obtaining unit for obtaining a search word for searching for content,
A search word that interprets the search word acquired by the search word acquisition unit into a sensibility word according to attribute information of the input person of the search word and interpretation information that is information for interpreting the search word for the search. Interpreter,
A search result output unit for outputting a search result that is content identification information corresponding to the content searched for using the sentiment word obtained by the search word interpretation unit, and a search obtained by the search result output unit A feedback information acquisition unit for acquiring feedback information including difference information that is information indicating a difference between the content viewed based on the result and the content expected based on the search word acquired by the search word acquisition unit. When,
Interpretation information change unit that changes the interpretation information based on the feedback information acquired by the feedback information acquisition unit,
A search device having:
コンテンツ識別情報と、コンテンツとを関連付けて蓄積するコンテンツ蓄積部と、
前記コンテンツ蓄積部に蓄積されたコンテンツを検索するための検索ワードを入力するための検索ワード入力部と、
前記検索ワード入力部に入力された検索ワードを請求項1から3いずれか一に記載の検索装置に対して出力する検索ワード出力部と、
前記検索ワード出力部で出力された検索ワードに対して前記検索装置から取得する検索結果を取得する検索結果取得部と、
前記検索結果取得部で取得した検索結果に基いて前記コンテンツ蓄積部からコンテンツを取得するコンテンツ取得部と、
を有するコンテンツ出力装置。
A content storage unit that stores the content identification information and the content in association with each other;
A search word input unit for inputting a search word for searching for content stored in the content storage unit,
A search word output unit that outputs a search word input to the search word input unit to the search device according to any one of claims 1 to 3,
A search result obtaining unit that obtains a search result obtained from the search device for the search word output by the search word output unit;
A content acquisition unit that acquires content from the content storage unit based on the search result acquired by the search result acquisition unit;
Content output device having:
コンテンツを検索するための検索ワードを取得するための検索ワード取得ステップと、
前記検索ワード取得ステップにて取得された検索ワードをその検索ワードの入力者の属性情報に応じて感性語に解釈する検索ワード解釈ステップと、
前記検索ワード解釈ステップで得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための検索結果出力ステップと、
前記検索結果出力ステップにて得られた検索結果に基いて視聴したコンテンツと、前記検索ワード取得ステップにて取得した検索ワードに基いて期待されるコンテンツと、の差異を表す情報である差異情報を含むフィードバック情報を取得するためのフィードバック情報取得ステップと、
前記フィードバック情報取得ステップで取得したフィードバック情報に基づいて前記入力者の属性情報を変更する入力者属性変更ステップと、
からなる検索方法。
A search word obtaining step for obtaining a search word for searching for content;
A search word interpretation step of interpreting the search word acquired in the search word acquisition step into a sensitivity word according to the attribute information of the input person of the search word,
A search result output step for outputting a search result that is content identification information corresponding to the content searched for using the sentiment word obtained in the search word interpretation step,
Difference information, which is information indicating a difference between content viewed based on the search result obtained in the search result output step and expected content based on the search word obtained in the search word obtaining step, A feedback information obtaining step for obtaining feedback information including:
An input person attribute changing step of changing the attribute information of the input person based on the feedback information obtained in the feedback information obtaining step,
Search method consisting of.
コンテンツを検索するための検索ワードを取得するための検索ワード取得ステップと、
前記検索ワード取得ステップにて取得された検索ワードをその検索ワードの入力者の属性情報に応じて感性語に解釈する検索ワード解釈ステップと、
前記検索ワード解釈ステップで得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための検索結果出力ステップと、
前記検索結果出力ステップにて得られた検索結果に基いて視聴したコンテンツと、前記検索ワード取得ステップにて取得した検索ワードに基いて期待されるコンテンツと、の差異を表す情報である差異情報を含むフィードバック情報を取得するためのフィードバック情報取得ステップと、
前記フィードバック情報取得ステップで取得したフィードバック情報に基づいて、コンテンツ識別情報と感性語との関連付けを変更するための関連付変更ステップと、
からなる検索方法。
A search word obtaining step for obtaining a search word for searching for content;
A search word interpretation step of interpreting the search word acquired in the search word acquisition step into a sensitivity word according to the attribute information of the input person of the search word,
A search result output step for outputting a search result that is content identification information corresponding to the content searched for using the sentiment word obtained in the search word interpretation step,
Difference information, which is information indicating a difference between content viewed based on the search result obtained in the search result output step and expected content based on the search word obtained in the search word obtaining step, A feedback information obtaining step for obtaining feedback information including:
Based on the feedback information obtained in the feedback information obtaining step, an association changing step for changing the association between the content identification information and the kansei word,
Search method consisting of.
コンテンツを検索するための検索ワードを取得するための検索ワード取得ステップと、
前記検索ワード取得ステップが取得した検索ワードをその検索ワードの入力者の属性情報と、検索ワードを検索のために解釈するための情報である解釈情報と、に応じて感性語に解釈する検索ワード解釈ステップと、
前記検索ワード解釈ステップで得られた感性語を利用して検索されたコンテンツに対応するコンテンツ識別情報である検索結果を出力するための検索結果出力ステップと、
前記検索結果出力ステップにて得られた検索結果に基いて視聴したコンテンツと、前記検索ワード取得ステップにて取得した検索ワードに基いて期待されるコンテンツと、の差異を表す情報である差異情報を含むフィードバック情報を取得するためのフィードバック情報取得ステップと、
前記フィードバック情報取得ステップで取得したフィードバック情報に基づいて前記解釈情報を変更する解釈情報変更ステップと、
からなる検索方法。
A search word obtaining step for obtaining a search word for searching for content;
A search word that interprets the search word acquired by the search word acquisition step into a sensibility word according to attribute information of the input person of the search word and interpretation information that is information for interpreting the search word for the search. Interpretation steps;
A search result output step for outputting a search result that is content identification information corresponding to the content searched for using the sentiment word obtained in the search word interpretation step,
Difference information, which is information indicating a difference between content viewed based on the search result obtained in the search result output step and expected content based on the search word obtained in the search word obtaining step, A feedback information obtaining step for obtaining feedback information including:
Interpretation information change step of changing the interpretation information based on the feedback information acquired in the feedback information acquisition step,
Search method consisting of.
JP2002367634A 2002-12-19 2002-12-19 Retrieval device Pending JP2004199437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002367634A JP2004199437A (en) 2002-12-19 2002-12-19 Retrieval device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002367634A JP2004199437A (en) 2002-12-19 2002-12-19 Retrieval device

Publications (1)

Publication Number Publication Date
JP2004199437A true JP2004199437A (en) 2004-07-15

Family

ID=32764463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002367634A Pending JP2004199437A (en) 2002-12-19 2002-12-19 Retrieval device

Country Status (1)

Country Link
JP (1) JP2004199437A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030712A1 (en) * 2004-09-17 2006-03-23 Pioneer Corporation Musical composition recommendation device and method
WO2006077769A1 (en) * 2005-01-21 2006-07-27 Pioneer Corporation Presented data selecting device, presented data selecting method, and so forth
WO2006120929A1 (en) * 2005-05-06 2006-11-16 Pioneer Corporation Music selection device and music selection method
WO2020196446A1 (en) * 2019-03-27 2020-10-01 日本たばこ産業株式会社 Information processing device, program, and information provision system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030712A1 (en) * 2004-09-17 2006-03-23 Pioneer Corporation Musical composition recommendation device and method
JPWO2006030712A1 (en) * 2004-09-17 2008-07-31 パイオニア株式会社 Music recommendation apparatus and method
WO2006077769A1 (en) * 2005-01-21 2006-07-27 Pioneer Corporation Presented data selecting device, presented data selecting method, and so forth
JPWO2006077769A1 (en) * 2005-01-21 2008-06-19 パイオニア株式会社 Presentation data selection device, presentation data selection method, etc.
WO2006120929A1 (en) * 2005-05-06 2006-11-16 Pioneer Corporation Music selection device and music selection method
WO2020196446A1 (en) * 2019-03-27 2020-10-01 日本たばこ産業株式会社 Information processing device, program, and information provision system
JP7489375B2 (en) 2019-03-27 2024-05-23 日本たばこ産業株式会社 Information processing device, program, and information providing system

Similar Documents

Publication Publication Date Title
JP5671557B2 (en) System including client computing device, method of tagging media objects, and method of searching a digital database including audio tagged media objects
US10747798B2 (en) Control method, processing apparatus, and recording medium
US8332208B2 (en) Information processing apparatus, information processing method, and program
US9973815B2 (en) Apparatus, method, and program for processing information
JP2006251866A (en) Information processor and information processing method, program, and recording medium
KR101571240B1 (en) Video Creating Apparatus and Method based on Text
CN110362744B (en) Reading recommendation method and system, terminal equipment, computer equipment and medium
JP2011060182A (en) Content selection system
CN108388570A (en) The method, apparatus of classification and matching is carried out to video and selects engine
JP2019028793A (en) Information processing apparatus, method and program
US20090150341A1 (en) Generation of alternative phrasings for short descriptions
CN106951433B (en) Retrieval method and device
JP7049010B1 (en) Presentation evaluation system
Qu et al. A novel approach based on multi-view content analysis and semi-supervised enrichment for movie recommendation
WO2019088084A1 (en) Cause-effect sentence analysis device, cause-effect sentence analysis system, program, and cause-effect sentence analysis method
EP3901875A1 (en) Topic modelling of short medical inquiries
JP3373086B2 (en) Information retrieval device
JP2004199437A (en) Retrieval device
JP6794740B2 (en) Presentation material generation device, presentation material generation system, computer program and presentation material generation method
JP2010277462A (en) Action recommendation device, method and program
JP2008171336A (en) Document cluster processing apparatus, document cluster processing method, and program
JP2009064213A (en) Object-oriented system for book recommendation
US20210357792A1 (en) Workshop assistance system and workshop assistance method
JP2004110435A (en) Profile generating device and information providing device
KR102301765B1 (en) A method of providing cognitive function training service using an application installed on smart device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060216