JP4451037B2 - Information search system and information search method - Google Patents

Information search system and information search method Download PDF

Info

Publication number
JP4451037B2
JP4451037B2 JP2001372912A JP2001372912A JP4451037B2 JP 4451037 B2 JP4451037 B2 JP 4451037B2 JP 2001372912 A JP2001372912 A JP 2001372912A JP 2001372912 A JP2001372912 A JP 2001372912A JP 4451037 B2 JP4451037 B2 JP 4451037B2
Authority
JP
Japan
Prior art keywords
emotion
information
user
keyword
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001372912A
Other languages
Japanese (ja)
Other versions
JP2003173349A (en
Inventor
和生 岡田
淳 富士本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Universal Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal Entertainment Corp filed Critical Universal Entertainment Corp
Priority to JP2001372912A priority Critical patent/JP4451037B2/en
Publication of JP2003173349A publication Critical patent/JP2003173349A/en
Application granted granted Critical
Publication of JP4451037B2 publication Critical patent/JP4451037B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、利用者が発話した音声情報から利用者の感情を推論し、推論した利用者の感情に基づいて所定の情報を検索する情報検索システム及び情報検索方法に関する。
【0002】
【従来の技術】
近年では、通信ネットワークの発達により、通信ネットワークの利用者は、例えばインターネットを通じて、利用者が知りたい情報を簡単に取得することができる。特に、最近では、一般家庭においても、ADSL(Asymmetric Digital Subscriber Line)などを利用して、通信ネットワークに常時接続ができるという環境が普及しつつあるので、利用者は何時でも簡単に情報を取得することができる。
【0003】
これにより、利用者は、パーソナルコンピュータに内蔵してある検索エンジンを用いることで、インターネットを通じて自己の要求に合致した情報を容易に取得することができるという利点を有する。
【0004】
【発明が解決しようとする課題】
しかしながら、インターネットの発達に伴って、インターネットで検索することができる情報量が増加したため、利用者は、上記従来からの検索エンジンを用いていたのでは、欲しい情報を簡単に得ることができない状況になっている。
【0005】
例えば、利用者が本に関係する情報を検索したい場合は、利用者は従来からの検索エンジンを用いて「面白い」「本」というキーワードを入力して検索を行うことができるが、ある検索エンジンでは、「面白い」「本」に関係する検索結果を約10万件という膨大な内容を検索してしまい、その検索した内容の中には、利用者が要求する本の情報とは全く関係のない「日”本”の”面白い”スポット」というゴミ情報も含まれる場合があった。
【0006】
また、利用者は、キーワードの数を増やしてから検索することよって、上記ゴミ情報を排除することができるが、キーワードの数を多く考えなければならず、また、それらのキーワードを入力しなければならないという不便が生じていた。
【0007】
そこで、本発明は以上の点に鑑みてなされたものであり、利用者が入力した文字列に基づいて、利用者が抱く感情を把握し、その把握した感情を表現する特定のキーワードを抽出して、その抽出したキーワードに基づいて検索を行うことで、より利用者の要求に合致した情報を検索することのできる情報検索システム及び情報検索方法を提供することを課題とする。
【0008】
【課題を解決するための手段】
本願に係る発明は、上記課題を解決すべくなされたものであり、キーワードに対応する情報を蓄積してある情報管理センターと、この情報管理センターと通信ネットワークを介して接続された端末とを備え、端末が利用者の要求する所定の情報を情報管理センターから検索する情報検索システムであって、端末は、利用者から入力された文字列を認識する文字認識手段と、文字認識手段で認識された文字列に含まれる感情に関するフレーズから感情の度合いを示す感情度を判定し、感情の対象となっているキーワードを抽出し、感情度及びキーワードに基づいて利用者が抱く感情に関係する感情情報を推論し、推論した該感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索する推論検索手段と、キーワードに基づいて利用者への質問文を作成し、出力する質問文作成手段とを備えていることを特徴とする。
【0009】
このような本願に係る発明によれば、端末の文字認識手段が、利用者から入力された文字列を認識し、端末の推論検索手段が、認識した前記文字列に基づいて前記利用者が抱く感情に関係する感情情報を推論して利用者への質問文を作成し、利用者から入力され前記質問文に対して回答した文字列に基づいて利用者が抱く感情情報を推論し、推論した該感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索するので、端末は、利用者が抱いている感情に特徴付けられたキーワードを取得することができ、この取得したキーワードを用いることで利用者の要求に合致した情報を検索することができる。また、回答文作成手段はキーワードに基づいて利用者への質問文を作成し、出力する。
【0010】
また、利用者は、端末の文字認識手段に対して、特定の文字列を入力、例えば、自己が発話することにより特定の文字列を入力、又は、利用者が操作部を通じて特定の文字列を入力することで、端末が利用者の感情を把握し、その把握した感情に特徴付けられたキーワードを自動的に検索してくれるので、所定の情報を検索するためのキーワードを逐一考える必要がなく、更に複数のキーワードを入力する手間を省くことができる。
【0011】
尚、端末は、前記文字列、該文字列に含まれる前記利用者の感情の度合いを示す感情度又は該感情度が発生した時期に基づいて前記感情情報を推論するものであってもよい。これにより、端末は、前記文字列、該文字列に含まれる前記利用者の感情の度合いを示す感情度又は該感情度が発生した時期に基づいて前記感情情報を推論することができるので、利用者の感情をより的確に把握することができる。
【0012】
尚、前記感情度は、文字列に含まれる強調語に基づいて定めるものであってもよい。これにより、端末は、文字列に含まれる強調語に基づいて感情度を定めることができるので、例えば強調語である副詞又は感嘆詞などにより、利用者の感情の程度を把握することができる。
【0013】
本願に係る発明は、前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索することを特徴とするものでもある。このような本願に係る発明によれば、端末は、感情情報に関連付けられたキーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索するので、利用者は、端末を通じて、逐次所定のキーワードに対応する検索結果を取得することができる。
【0014】
尚、端末は、前記感情度の高い前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索するものであってもよい。これにより、端末が、感情度の高い感情情報(例えば、〜に非常に興味があるなど)に関連付けられたキーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索するので、利用者は、端末を通じて、例えば自己にとって興味のある検索結果のみを取得することができる。
【0015】
尚、端末は、前記感情度が発生した時期と、前記感情度とを含む前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索するものであってもよい。これにより、端末が、感情度が発生した時期と、感情度とを含む前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索するので、利用者は、端末を通じて、例えば過去において興味があった情報の検索結果のみを取得することができる。
また、端末は、利用者が発話した文字列に含まれる「感情の度合い」、「キーワード」だけでなく、時制解釈部によって「判断された時制」をも含めて利用車の感情を判断するので、例えば利用者が過去においてはどのような感情を抱いていたのかを判断することができ、更に、過去から現在に至るまでの感情の変化をも把握することができる。
また、端末のAI推論部は、文脈辞書、類字関係辞書、文節解析に関する辞書、形態素解析に関わる辞書を基に、利用者が発話した日本語の意味内容を解読し、解読した内容から利用者が抱く感情を推論し、利用者に質問するのに適した文を作成する。即ち、日本語の意味内容を解読したAI推論部は、解読した意味内容に基づいて、解読された意味の結束性、話題の変化、利用者の感情を形成する言語、今までの会話の統計などにより、利用者が抱く感情を推論し、利用者に質問するのに適した文を作成する。
さらに、端末のAI推論部は、解読した日本語の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いて、曖昧な表現に対応した質問内容をも作成する。
【0016】
【発明の実施の形態】
[情報検索システムの基本構成]
本発明に係る情報検索システムについて図面を参照しながら説明する。図1は、本実施形態に係る情報検索システムの概略構成図である。
【0017】
同図に示すように、情報検索システムは、利用者の音声情報を取得する入力部101(取得手段)と、入力部101で取得した音声情報に基づいて、前記音声情報に対応する文字列を特定する音声認識部102(音声認識手段)と、音声認識部102で特定した文字列に基づいて利用者が抱く感情情報を推論し、推論した該感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索する推論エンジン104(推論検索手段)と、キーワードに対応する情報を蓄積してある情報管理センター200とを備えている。そして、入力部101、音声認識部102、推論エンジン104を備えた複数の端末100a〜100eがそれぞれ通信ネットワーク300を介して情報管理センター200と接続されている。
【0018】
端末100a〜100eは、利用者が発話した内容から利用者の感情情報を推論し、推論した利用者の感情情報に基づいて、利用者が要求する所定の情報を検索するものである。尚、この端末100a〜100eは、例えば、パーソナルコンピュータ、携帯電話機などが挙げられる。
【0019】
端末100a〜100eは、本実施形態では、入力部101と、音声認識部102と、音声認識辞書記憶部103と、推論エンジン104と、通信部105と、感情情報データベース106と、出力部107とを有している。
【0020】
入力部101は、利用者の音声情報を取得する取得手段である。具体的に入力部101は、利用者の音声情報を取得し、取得した音声情報を音声信号として音声認識部102に出力する。音声認識部102は、入力部101で取得した音声情報に基づいて、その音声信号に対応する文字列を特定する音声認識手段である。
【0021】
具体的には、音声信号が入力された音声認識部102は、入力された音声信号を解析し、解析した音声信号に対応する文字列を、音声認識辞書記憶部103に格納されている辞書を用いて特定し、特定した文字列を文字列信号として推論エンジン104に出力する。
【0022】
音声認識辞書記憶部103は、標準的な音声信号に対応する辞書を格納しているものである。通信部105は、情報管理センター200との間でデータを送受信するものである。出力部107は、推論エンジン104からの指示に対応する命令を出力するものであり、例えば、ディスプレイ、スピーカ等が挙げられる。具体的には、推論エンジン104から音声命令信号が入力された出力部107は、入力された音声命令信号に対応する音声を出力する。
【0023】
尚、音声認識部102は、利用者が操作部(例えば、キーボード)を通じて入力した文字列を特定する文字認識手段でもある。更に、音声認識辞書記憶部103は、利用者が操作部を通じて入力した文字列に対応する辞書を格納するものでもある。これにより、利用者は、端末100に対して発話するだけでなく、操作部から文字を入力することによっても、端末100から所定の検索内容を取得することができる。
【0024】
感情情報データベース106は、利用者が抱く感情に関係する情報を感情情報として蓄積しているものであり、例えば、ハードディスク、CD−ROMなどが挙げられる。
【0025】
ここで、感情情報データベース106には、図7に示すように、利用者の「感情の度合い」(感情度)の履歴を示す「感情履歴テーブル」と、利用者の「感情の度合い」に時制に関する情報を付加した履歴を示す「時制履歴テーブル」とを有している。感情情報には、同図に示すように、例えば、「感情の度合い」「キーワード」「文字列の時制」などが含まれる。これらの内容についての詳述は後述する。
【0026】
前記推論エンジン104は、音声認識部102で特定した文字列に基づいて利用者が抱く感情情報を推論し、推論した感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索する推論検索手段である。
【0027】
ここで、推論エンジン104は、文字列、該文字列に含まれる利用者の感情の度合いを示す感情度又は該感情度が発生した時期(時制)に基づいて感情情報を推論する。この推論についての詳述は後述する。
【0028】
この推論エンジン104は、本実施形態では、文脈を解読するための文脈辞書、言語の類似関係を調べるための類似関係辞書、日本語文節解析に関する辞書、日本語の形態素解析(各品詞、活用形、分類、連接)に関わる辞書を有しており、これらの辞書を基に、利用者が発話した日本語の意味内容を解読し、解読した意味内容から利用者が抱く感情を推論し、利用者に質問するのに適した文を作成するものである。
【0029】
即ち、日本語の意味内容を解読した推論エンジン104は、解読した意味内容に基づいて、解読された意味の結束性、話題の変化、利用者の感情を形成する言語、今までの会話の統計などにより、利用者が抱く感情を推論し、利用者に質問するのに適した文を作成する。
【0030】
また、推論エンジン104は、人工知能、ニューラルネットワークによって構成されているものでもあり、利用者との間で交わされた言語(単語、文など)をニューラルネットに学習させ、その学習された言語に基づいて、利用者に質問をする内容を作成することができる。
【0031】
更に、推論エンジン104は、解読した日本語の意味内容が曖昧な表現であると判断した場合は、ファジー機能を用いて、曖昧な表現に対応した質問内容をも作成することもできる。尚、推論エンジン104に有する上記機能の実行は、後述するAI推論部104が主に担っている。
【0032】
具体的には、音声認識部102から文字列信号が入力された推論エンジン104は、入力された文字列信号に対応する文字列を構成する要素に基づいて、利用者の感情、利用者がその感情を抱いた時期、推論エンジン104が利用者の感情を推論した結果として文字列に含まれるキーワードを分別する。これらの”利用者の感情”、”利用者がその感情を抱いた時期(時制)”
、”文字列に含まれるキーワード”は、本実施形態では、感情情報を意味するものとする。
【0033】
ここで、「利用者の感情」(感情の度合い)には、例えば、関心/無関心、喜ぶ/つまらない等が挙げられる。また、「利用者の感情」には、利用者が抱く感情の程度も含まれているものであり、例えば、すごく関心がある/関心がある/関心がない/全く関心がない等が含まれている。
【0034】
この「感情の程度」は、本実施形態では、利用者がプラス的な感情を強く持っている場合をP1(P;Positive)〔例えば、とても関心がある〕、利用者がプラス的な感情を単に持っている場合をP2〔例えば、関心がある〕、利用者がマイナス的な感情を単に持っている場合をN1(N;Negative)〔例えば、関心がない〕、利用者がマイナス的な感情を強く持っている場合をN2と表現することにする。
【0035】
また、「利用者がその感情を抱いた時期(時制)」には、例えば、現在・過去・未来が挙げられる。更に、文字列に含まれるキーワードは、例えば、春、夏、秋、冬、読書、スポーツなどが挙げられる。
【0036】
文字列を構成する要素から、利用者の感情に関する情報を分別した推論エンジン104は、利用者の感情に関する情報に基づいて、利用者が抱いている感情を推論する。
【0037】
例えば、推論エンジン104が出力部107を通じて利用者に対し、”何か興味ある本は?”と質問した場合に、利用者が”何かあるかな?”と返事をした場合は、推論エンジン104は、利用者は何に興味があるのか悩んでいるな、と判断し、更に質問内容を深めていくため次の質問をする。
【0038】
推論エンジン104は、出力部107を通じて利用者に対し、”スポーツは何をやっていたの?”と次に質問した場合に、利用者が”昔は楽しくサッカーをやっていたよ”と返事をした場合は、推論エンジン104は、利用者はサッカー関係に興味があるな、と推論し次々と質問(会話)をしていく。
【0039】
利用者に対して様々な質問をした推論エンジン104は、利用者からの返事の内容に基づいて、その返事毎に「利用者の感情」「感情の度合い」「利用者がその感情を抱いた時期」に分別し、分別した感情情報を感情情報データベース106に蓄積する。
【0040】
その後、推論エンジン104は、感情情報に関連付けられたキーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索する。また、推論エンジン104は、感情度の高い感情情報に関連付けられたキーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索することもできる。
【0041】
具体的には、推論エンジン104は、例えば感情情報データベース106に蓄積されている感情情報の中から、「感情の程度」が高いキーワード(P1、P2)を取得し、取得したキーワードが所定の数以上になった場合は、複数のキーワードに対応する情報を情報管理センター200の中から検索すること行う。この検索は、一般的な検索エンジンを用いることにより行うことができる。
【0042】
また、推論エンジン104は、高い感情度と、その高い感情度が発生した時期とを含む感情情報に関連付けられたキーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索することもできる。
【0043】
具体的には、推論エンジン104は、例えば感情情報データベース106に蓄積されている「利用者がその感情を抱いた時期」「感情の程度」の中から、「感情の程度」が高い(P1、P2)キーワードであり、その感情を抱いた時期が”現在”のもののみを取得し、取得したキーワードが所定の数以上になった場合は、そのキーワードに対応する情報を情報管理センター200の中から検索する。
【0044】
尚、推論エンジン104は、感情情報データベース106に蓄積されている感情情報が、ある時制(例えば、過去)の情報に偏っている場合は、違う時制(例えば、現在)における感情を利用者から聞き出し、その聞き出した感情を構成するキーワードに基づいて検索をすることもできる。
【0045】
複数のキーワードに対応する情報を検索した推論エンジン104は、検索した情報を出力部107に出力し、推論エンジン104から検索された情報が入力された出力部107は、検索された情報を出力する。
【0046】
これにより、推論エンジン104は、出力部107を通じて、利用者が抱いている感情を推論し、その推論した感情から導かれたキーワードを用いて所定の情報を検索することで、利用者の感情にマッチした情報を的確に検索することができる。また、利用者は、推論エンジン104を通じて、会話を通じて所定の情報を検索することができるので、楽しく所定の情報を検索することができる。
【0047】
上記推論エンジン104は、本実施形態では、図2に示すように、文節認識部104aと、時制解釈部104bと、類別部104cと、強調語検出部104dと、感情判定部104eと、AI推論部104fと、検索実行部104gと、キーワード検出部104hとを有している。
【0048】
文節認識部104aは、文を解析し、解析した文に基づいて、文から把握される言葉の意味空間を認識するものである。ここで、文の解析とは、文の形態要素、例えば品詞、活用形、分類、連接関係を解析することを意味する。言葉の意味空間は、文脈、文の類似関係、文の学習パターンから把握するものである。
【0049】
更に、文節認識部104aは、上記認識により、文と文との間を認識するものである。具体的には、文から把握される言葉の意味空間を認識した音声認識部102から文字列信号が入力された文節認識部104aは、入力された文字列信号に基づいて、文字列信号に対応する文と文との間を認識する。
【0050】
この認識は、本実施形態では、文と文との間にはある程度の時間間隔があるので、その時間間隔に基づいて文と文との間を区別するものである。例えば、文字信号に対応する文が、”今日は暑いな・・・アイスを食べよう”というものである場合は、文節認識部104aは、上記文の中で時間間隔がある部分”・・・”を文の区切りと認識し、”今日は暑いな”と”アイスを食べよう”との文に分けることを行う。
【0051】
文と文との間を認識した文節認識部104aは、文を1文毎に区分けして、1文毎に区分けした文を文体信号として時制解釈部104b、類別部104c、強調語検出部104d、感情判定部104eに出力する。
【0052】
類別部104cは、文字列から利用者の感情の種類を判別するものである。具体的には、文節認識部104aから文体信号が入力された類別部104cは、入力された文体信号に対応する文に基づいて、文に含まれる要素から感情に関係するフレーズを抜き出し、この抜き出したフレーズがどのような感情の類別に属するものであるかを特定する。
【0053】
この感情の類別は、本実施形態では、例えば図3に示す「感情類別テーブル」に従って類別する。感情類別テーブルは、例えば、利用者がプラス的な感情要素を意味していることを示す「プラス要素P(P;Positive)」、利用者がマイナス的な感情要素を意味していることを示す「マイナス要素N(N;Negative)」を有している。
【0054】
このプラス要素Pには、例えば、いいね、良い、ほっとする、最高、喜ぶ、気になる等が含まれる。また、マイナス要素Nには、例えば、だめ、悪い、まいる、最低、つまらない、気にならない(無関心)等が含まれる。類別部104cは、上記の「感情類別テーブル」に基づいて、1文の中からどのような感情が含まれているのかを類別し、この類別した結果を類別信号として感情判定部104eに出力する。
【0055】
強調語検出部104dは、文字列から感情の強弱を特徴付ける要素を抽出するものである。具体的には、文節認識部104aから文体信号が入力された強調語検出部104dは、入力された文体信号に対応する文に基づいて、その文を構成する要素の中に、強調語があるか否かを検出する。
【0056】
この強調語の検出は、本実施形態では、例えば図4に示す「強調語テーブル」に従って行うことができる。この「強調語テーブル」には、同図に示すように、例えば、すげー、ちょー、うひょー、わおー、ひえー、めっちゃ、すごく、とても、かなり等の副詞、感嘆詞が含まれる。強調語検出部104dは、上記の「強調語テーブル」に基づいて、1文の中にある強調語を検出し、検出した強調語を強調語検出信号として感情判定部104eに出力する。
【0057】
感情判定部104eは、利用者が抱く感情の程度を判定するものである。具体的には、類別部104c、強調語検出部104d、文節認識部104aから類別信号、強調語検出信号、文体信号が入力された感情判定部104eは、入力された類別信号、強調語検出信号、文体信号に基づいて、利用者の感情の程度を判定する。
【0058】
この感情の程度の判定は、本実施形態では、例えば図5に示す「感情度テーブル」に従って行うことができる。この「感情度テーブル」には、例えば、同図に示すように、判定要素(利用者の感情)と、「感情の程度」とを有している。
【0059】
判定要素は、利用者の感情を左右するフレーズを意味するものであり、例えば、同図に示すように、関心/無関心、喜ぶ/つまらない、最高/最低、ほっとする/まいる等が挙げられる。この判定要素は、上述した「利用者の感情」と同義の意味である。
【0060】
例えば、「感情の程度」は、上述の如く、同図に示すように、判定要素が「関心/無関心」である場合は、感情の程度は、すごく関心がある(P1)、関心がある(P2)、関心がない(N1)、全く関心がない(N2)と類別することができる。
【0061】
感情判定部104eは、類別信号に対応する「感情の類別」、強調語検出信号に対応する強調語に基づいて、上記「感情度テーブル」を参照し、1文から把握される利用者の感情がどの程度なのかを判定し、判定した結果(P1、P2、N1、N2)を感情判定信号としてAI推論部104fに出力する。
【0062】
例えば、文体信号に対応する文字列が”昔はサッカーを楽しくやっていたよ”である場合は、類別部104cは、”やっていた”という文字列を検出し、強調語検出部104dは、”楽しく”という文字列を検出する。感情判定部104eは、類別部104cで検出された”やっていた”と、強調語検出部104dで検出した”楽しく”とに基づいて、図5のテーブルを参照し、利用者の感情の度合いをP1であると判断する。
【0063】
また、感情判定部104eは、文字列を構成する重要な要素である”サッカー”というキーワードを検出し、その検出結果と「感情の程度」とを含む感情情報を感情情報信号としてAI推論部104gに出力する。
【0064】
AI推論部104gは、感情判定部104eで判定された利用者の「感情の度合い」、文字列のキーワードから、利用者が抱く感情を推論する。具体的には、感情判定部104eから感情情報信号が入力されたAI推論部104gは、入力された感情情報信号に対応する感情情報に基づいて、例えば上記結果より「感情の度合い」がP1(楽しくやっていた)、キーワードが”サッカー”である場合は、利用者はサッカーについて興味があるな、と推論する。
【0065】
尚、AI推論部104gは、例えば、文字列のキーワードに基づいて、前記キーワードと最も関係するフレーズ(推論の内容を示す予め定められた内容)を感情情報データベース106から抽出して、その抽出したフレーズを推論の内容とすることができる。
【0066】
AI推論部104gは、上記推論により、興味がある分野について更に質問内容を深めていき、利用者が抱いている感情に対応するキーワードを聞き出し、聞き出した感情に対応するキーワードを感情情報データベース106に蓄積する。
【0067】
時制解釈部は、利用者の抱く感情度が発生した時期(時制)を解釈するものである。具体的には、文節認識部104aから文体信号が入力された時制解釈部104bは、入力された文体信号に対応する文字列に基づいて、その文字列に対応する事象がどの時制(時点)に該当するのかを解釈する。この解釈は、本実施形態では、図6に示す「時制テーブル」に従って行うものとする。
【0068】
この「時制テーブル」は、同図に示すように、アスペクト、テンス、ムードから構成されるものであり、文字列に対応する時制は、これらの構成要素に基づいて特定することができる。
【0069】
ここで、アスペクトAとは、既にある事象が完了していることを示す完成相(A1)と、利用者の発話時においてもある事象が継続していることを示す継続相(A2)とから構成されるものである。また、テンスTとは、非過去時制(T1)と、過去時制(T2)とから構成されるものである。更に、ムードMとは、叙述法M1(断定法(M2)、推量法(M3))と、実行法M6(意志・勧誘(M4)、命令(M4))とから構成されるものである。
【0070】
例えば、時制解釈部104bは、”昔はサッカーを楽しくしていたよ”という文字列を解釈する場合は、図6を参照し、”〜いた”の文字から断定M2−過去T2(判断▲1▼)であると判断し、”〜していた”の文字から完成相A2(判断▲2▼;過去における継続性)に該当すると判断する。そして、これらの判断を行った時制解釈部104bは、判断した時制(判断▲1▼、判断▲2▼)を時制信号としてAI推論部104fに出力する。
【0071】
時制解釈部104bと感情判定部104eとからそれぞれ時制信号と感情情報信号とが入力されたAI推論部104fは、入力された時制信号に対応する「判断された時制」と、入力された感情情報信号に対応する「感情の度合い」「キーワード」とに基づいて、利用者が抱いている感情を推論する。
【0072】
例えば、AI推論部104fは、”昔はサッカーを楽しくやっていたよ”の文字列から利用者の感情を推論する場合は、時制解釈部104b、類別部104c及び強調語検出部104dで文字列の要素が解釈された結果、「判断された時制」が上記判断[1](断定M2−過去T2;過去に何かを行っていたこと)、判断[2](完成相A2;何かを継続して行っていたこと)、「感情の度合い」がP1(〜を楽しくやっていた)、更に、「キーワード」がサッカーであるという結果が導かれるので、「利用者は過去(判断[1])においてサッカー(キーワード)を継続(判断[2])してやっていた時期があるな、利用者はサッカーに興味があるのでは」、と推論する。
【0073】
この推論をしたAI推論部104fは、利用者が過去においてサッカーに興味がある、と推論したので、サッカーに関係する質問を導きだし、導いた質問を次々に行い質問の内容を深めていく。例えば、サッカーに関係する質問としては、好きなサッカーチーム、好きな選手などが挙げられる。
【0074】
利用者に対して様々な質問を行ったAI推論部104fは、利用者から回答のあった回答内容を、「判断された時制」「感情の度合い」「キーワード」毎に感情情報データベース106に蓄積する(図7参照)。
【0075】
これにより、AI推論部104fは、利用者が発話した文字列に含まれる「感情の度合い」「キーワード」だけではなく、「判断された時制」をも含めて利用者の感情を判断するので、例えば利用者が過去においてはどのような感情を抱いていたのかを把握することができ、更に、過去から現在に至るまでの感情の変化をも把握することができる。
【0076】
即ち、AI推論部104fは、利用者が過去における事柄において「感情の度合い」が高かった場合には、例えば、「現在においての感情は変わっていないか」と推論し、現在における利用者の感情を判断付ける質問を行い、現在における利用者がどのような感情を抱いているのかを把握することができる。
【0077】
更に、上記よりAI推論部104fは、利用者からの回答に含まれるキーワード、特に利用者の感情に関係するキーワードを多く収集することができ、後述する検索実行部104gは、AI推論部104fで推論された利用者の感情に関係するキーワードを用いて、所定の情報を検索することで、利用者が要求する情報をより的確に検索することができる。
【0078】
加えて、利用者は、入力部101を通じて、AI推論部104fに文字情報を入力(例えば、音声入力、操作部からの入力)すれば、AI推論部104fが利用者の感情を推論し、その推論に応じて異なった質問をするので、あたかも人間と会話しているような雰囲気を味わうことができ、ある情報についての情報をより楽しく検索することができる。
【0079】
キーワード検出部104hは、感情情報に関連付けられたキーワードが所定の数以上になった場合に、前記キーワードを検出するための検索命令信号を検索実行部104gに出力するものである。また、キーワード検出部104hは、感情度の高い感情情報に関連付けられたキーワードが所定の数以上になった場合に、検索命令信号を検索実行部104gに出力することもできる。
【0080】
具体的には、キーワード検出部104hは、感情情報データベース106に蓄積されている「感情履歴テーブル」(図7参照)の中から、「感情の度合い」を示す値(P1、P2、N1、N2)と、その値に関連付けられたキーワードとを取得する。
【0081】
「感情の度合い」が高い値と、その値に関連付けられたキーワードとを取得したキーワード検出部104hは、取得した「感情の度合い」に対応するキーワードが所定の個数以上になった場合に、それらのキーワードに関係する情報(例えば、本)を検索させるための検索命令信号を検索実行部104gに出力する。
【0082】
例えば、キーワード検出部104hは、取得した「感情の度合い」のうち、感情の度合いが高いP1又はP2に対応するキーワードが10個以上になった場合に、それらのキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力する。
【0083】
更に、キーワード検出部104hは、高い感情度が発生した時期と、高い感情度とを含む感情情報に関連付けられたキーワードが所定の数以上になった場合に、検索命令信号を検索実行部104gに出力することもできる。
【0084】
具体的には、キーワード検出部104hは、感情情報データベース106に蓄積されている「時制履歴テーブル」の中から、時制毎に「感情の度合い」を示す値と、その値に関連付けられたキーワードとを取得する。
【0085】
時制毎に「感情の度合い」を示す値と、その値に関連付けられたキーワードとを取得したキーワード検出部104hは、時制毎に取得した「感情の度合い」のうち、ある時制に対応するキーワードが所定の数値以上になった場合に、それらのキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力する。
【0086】
例えば、キーワード検出部104hは、取得した「感情の度合い」のうち、過去におけるP1又はP2に対応するキーワードが5個以上になった場合に、それらのキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力する。
【0087】
尚、キーワード検出部104hは、情報管理センター200にある感情情報データベース202に蓄積されている各端末100a〜100eの感情情報に基づいて、各端末100a〜100eを利用している利用者の感情に関係するキーワードを検出して、その検出したキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力することもできる。
【0088】
この各端末100a〜100eを利用している利用者の感情に関係するキーワードには、例えば、年齢層において話題になっているキーワード(20代であれば”ワールドカップ”、50代であれば”リストラ”など)が挙げられる。
【0089】
キーワード検出部104hから検索命令信号が入力された検索実行部104gは、入力された検索命令信号に対応するキーワードに基づいて、そのキーワードに関係する情報を、通信部105、通信部201、情報管理部202を通じて、情報データベース204の中から検索し、その検索した結果を出力部に出力する。
【0090】
情報管理センター200は、利用者の感情情報を管理するものであり、本実施形態では、通信部201と、情報管理部202と、感情情報データベース203と、情報データベース204とを有している。
【0091】
感情情報データベース203は、各端末100a〜100eを利用した各利用者の感情情報を蓄積するものである。この感情情報データベース203は、図7に示す内容と同様の感情情報を蓄積しているものである。尚、この感情情報データベース203は、各端末100a〜100eを利用した各利用者の年齢層、キーワードの多い順序毎に感情情報を蓄積するものであってもよい。
【0092】
情報データベース204は、検索対象についての情報が蓄積されているものである。この情報としては、例えば、本、旅行、趣味などが挙げられる。通信部201は、端末100a〜100eとの間でデータを送受信するものである。情報管理部202は、情報管理センター204の全体を制御するものである。
【0093】
[情報検索システムを用いた情報検索方法]
上記構成を有する情報検索システムによる情報検索方法は、以下の手順により実施することができる。図8は、本実施形態に係る情報検索方法の手順を示すフロー図である。先ず、入力部101が利用者の音声情報を取得するステップを行う(S101)。具体的に入力部101は、利用者の音声情報を取得し、取得した音声情報を音声信号として音声認識部102に出力する。
【0094】
次いで、音声認識部102が入力部101で取得した音声情報に基づいて、その音声情報に対応する文字列を特定するステップを行う(S102)。具体的には、音声信号が入力された音声認識部102は、入力された音声信号を解析し、解析した音声信号に対応する文字列を、音声認識辞書記憶部103に格納されている辞書を用いて特定し、特定した文字列を文字列信号として推論エンジン104に出力する。
【0095】
次いで、推論エンジン104が、音声認識部102で特定した文字列に基づいて利用者が抱く感情情報を推論し、推論した該感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索するステップを行う(S103)。ここで行う処理は、図9に基づいて説明する。
【0096】
推論エンジン104では、先ず、図9に示すように、文節認識部104aが、文を解析し、解析した文に基づいて、文から把握される言葉の意味空間を認識するステップを行う(S200)。次いで、文節認識部104aが上記認識により文と文との間を認識するステップを行う(S201)。具体的には、文から把握される言葉の意味空間を把握した文節認識部104aは、入力された文字信号に基づいて、文字信号に対応する文と文との間を認識する。
【0097】
この認識は、本実施形態では、文と文との間にはある程度の時間間隔があるので、その時間間隔に基づいて文と文との間を区別するものである。例えば、文字信号に対応する文が、”今日は暑いな・・・アイスを食べよう”というものである場合は、文節認識部104aは、上記文の中で時間間隔がある部分”・・・”を文の区切りと認識し、”今日は暑いな”と”アイスを食べよう”との文に分けることを行う。
【0098】
文と文との間を認識した文節認識部104aは、文を1文毎に区分けして、1文毎に区分けした文を文体信号として時制解釈部104b、類別部104c、強調語検出部104d、感情判定部104eに出力する。
【0099】
次いで、類別部104cが、文字列から利用者の感情の種類を判別するステップを行う(S202)。具体的には、文節認識部104aから文体信号が入力された類別部104cは、入力された文体信号に対応する文に基づいて、文に含まれる要素から感情に関係するフレーズを抜き出し、この抜き出したフレーズがどのような感情の類別に属するものであるかを特定する。
【0100】
この感情の類別は、本実施形態では、例えば図3に示す「感情類別テーブル」に従って類別する。感情類別テーブルは、例えば、利用者がプラス的な感情要素を意味していることを示す「プラス要素P(P;Positive)」、利用者がマイナス的な感情要素を意味していることを示す「マイナス要素N(N;Negative)」を有している。
【0101】
類別部104cは、上記の「感情類別テーブル」に基づいて、1文の中からどのような感情が含まれているのかを類別し、この類別した結果を類別信号として感情判定部104eに出力する。
【0102】
次いで、強調語検出部104dが、文字列から感情の強弱を特徴付ける要素を抽出するステップを行う(S203)。具体的には、文節認識部104aから文体信号が入力された強調語検出部104dは、入力された文体信号に対応する文に基づいて、その文を構成する要素の中に、強調語があるか否かを検出する。
【0103】
この強調語の検出は、本実施形態では、例えば図4に示す「強調語テーブル」に従って行うことができる。この「強調語テーブル」には、同図に示すように、例えば、すげー、ちょー、うひょー、わおー、ひえー、めっちゃ、すごく、とても、かなり等の副詞、感嘆詞が含まれる。
【0104】
強調語検出部104dは、上記の「強調語テーブル」に基づいて、1文の中にある強調語を検出し、検出した強調語を強調語検出信号として感情判定部104eに出力する。
【0105】
次いで、感情判定部104eが、利用者が抱く感情の程度を判定するステップを行う(S204)。具体的には、類別部104c、強調語検出部104d、文節認識部104aから類別信号、強調語検出信号、又は文体信号が入力された感情判定部104eは、入力された類別信号、強調語検出信号、又は文体信号に基づいて、利用者の感情の程度を判定する。
【0106】
この感情の程度の判定は、本実施形態では、例えば図5に示す「感情度テーブル」に従って行うことができる。この「感情判定テーブル」には、例えば、同図に示すように、判定要素(利用者の感情)と、「感情の程度」とを有している。
【0107】
例えば、「感情の程度」は、上述の如く、同図に示すように、判定要素が「関心/無関心」である場合は、感情の程度は、すごく関心がある(P1)、関心がある(P2)、関心がない(N1)、全く関心がない(N2)と類別することができる。
【0108】
次いで、感情判定部104eが、類別信号に対応する「感情の類別」、強調語検出信号に対応する強調語に基づいて、上記「感情度テーブル」を参照し、1文から把握される利用者の感情がどの程度なのかを判定し、判定した結果(P1、P2、N1、N2)を感情判定信号としてAI推論部104fに出力する。
【0109】
具体的には、文字列信号に対応する文字列が”昔はサッカーを楽しくやっていたよ”である場合は、類別部104cは、”やっていた”という文字列を検出し、強調語検出部104dは、”楽しく”という文字列を検出する。感情判定部104eは、類別部104cで検出された”やっていた”と、強調語検出部104dで検出した”楽しく”とに基づいて、図5のテーブルを参照し、利用者の感情の度合いをP1であると判断する。
【0110】
また、感情判定部104eは、文字列を構成する重要な要素である”サッカー”というキーワードを検出し、その検出結果と「感情の程度」とを含む感情情報を感情情報信号としてAI推論部104gに出力する。
【0111】
次いで、AI推論部104gが、感情判定部104eで判定された利用者の「感情の度合い」、文字列のキーワードから、利用者が抱く感情を推論するステップを行う(S205)。
【0112】
具体的には、感情判定部104eから感情情報信号が入力されたAI推論部104gは、入力された感情情報信号に対応する感情情報に基づいて、例えば上記結果より「感情の度合い」がP1(楽しくやっていた)、キーワードが”サッカー”である場合は、利用者はサッカーについて興味があるな、と推論する。
【0113】
そして、AI推論部104gは、上記推論により、興味がある分野について更に質問内容を深めていき、利用者が抱いている感情に対応するキーワードを聞き出し、聞き出した感情に対応するキーワードを感情情報データベース106に蓄積していく。
【0114】
尚、AI推論部104fは、利用者の抱く感情度が発生した時期(時制)を含めて、利用者が抱く感情を推論してもよい。具体的には、文節認識部104aから文体信号が入力された時制解釈部104bは、入力された文体信号に対応する文字列に基づいて、その文字列に対応する事象がどの時制(時点)に該当するのかを解釈する。この解釈は、本実施形態では、図6に示す「時制テーブル」に従って行うものとする。
【0115】
この「時制テーブル」は、同図に示すように、アスペクト、テンス、ムードから構成されるものであり、文字列に対応する時制は、これらの構成要素に基づいて特定することができる。
【0116】
例えば、時制解釈部104bは、”昔はサッカーを楽しくしていたよ”という文字列を解釈する場合は、図6を参照し、”〜いた”の文字から断定M2−過去T2(判断▲1▼)であると判断し、”〜していた”の文字から完成相A2(判断▲2▼;過去における継続性)に該当すると判断する。そして、これらの判断を行った時制解釈部104bは、判断した時制(判断▲1▼、判断▲2▼)を時制信号としてAI推論部104fに出力する。
【0117】
そして、時制解釈部104bと感情判定部104eとからそれぞれ時制信号と感情情報信号とが入力されたAI推論部104fは、入力された時制信号に対応する「判断された時制」と、入力された感情情報信号に対応する「感情の度合い」「キーワード」とに基づいて、利用者が抱いている感情を推論する。
【0118】
例えば、AI推論部104fは、”昔はサッカーを楽しくやっていたよ”の文字列から利用者の感情を推論する場合は、時制解釈部104b、類別部104c及び強調語検出部104dで文字列の要素が解釈された結果、「判断された時制」が上記判断[1](断定M2−過去T2;過去に何かを行っていたこと)、判断[2](完成相A2;何かを継続して行っていたこと)、「感情の度合い」がP1(〜を楽しくやっていた)、更に、「キーワード」がサッカーであるという結果が導かれるので、「利用者は過去(判断[1])においてサッカー(キーワード)を継続(判断[2])してやっていた時期があるな、利用者はサッカーに興味があるのでは」、と推論する。
【0119】
この推論をしたAI推論部104fは、利用者が過去においてサッカーに興味がある、と推論したので、サッカーに関係する質問を導きだし、導いた質問を次々に行い質問の内容を深めていく。例えば、サッカーに関係する質問としては、好きなサッカーチーム、好きな選手などが挙げられる。
【0120】
利用者に対して様々な質問を行ったAI推論部104fは、利用者から回答のあった回答内容を、「判断された時制」「感情の度合い」「キーワード」毎に感情情報データベース106に蓄積する。
【0121】
次いで、キーワード検出部104hが、感情情報に関連付けられたキーワードが所定の数以上になった場合に、前記キーワードに対応する情報を検索させるための検索命令信号を検索実行部104gに出力するステップを行う(S206)。尚、キーワード検出部104hは、感情度の高い感情情報に関連付けられたキーワードが所定の数以上になった場合に、検索命令信号を検索実行部104gに出力してもよい。
【0122】
具体的には、キーワード検出部104hは、感情情報データベース106に蓄積されている「感情履歴テーブル」(図7参照)の中から、「感情の度合い」を示す値(P1、P2、N1、N2)と、その値に関連付けられたキーワードとを取得する。
【0123】
「感情の度合い」が高い値と、その値に関連付けられたキーワードとを取得したキーワード検出部104hは、取得した「感情の度合い」に対応するキーワードが所定の個数以上になった場合に、それらのキーワードに関係する情報(例えば、本)を検索させるための検索命令信号を検索実行部104gに出力する。
【0124】
例えば、キーワード検出部104hは、取得した「感情の度合い」のうち、P1又はP2に対応するキーワードが10個以上になった場合に、それらのキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力する。
【0125】
更に、キーワード検出部104hは、高い感情度が発生した時期と、高い感情度とを含む感情情報に関連付けられたキーワードが所定の数以上になった場合に、検索命令信号を検索実行部104gに出力することもできる。
【0126】
具体的には、キーワード検出部104hは、感情情報データベース106に蓄積されている「時制履歴テーブル」の中から、時制毎に「感情の度合い」を示す値と、その値に関連付けられたキーワードとを取得する。
【0127】
即ち、時制毎に「感情の度合い」を示す値と、その値に関連付けられたキーワードとを取得したキーワード検出部104hは、時制毎に記憶している「感情の度合い」のうち、ある時制に対応するキーワードが所定の数値以上になった場合に、それらのキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力する。
【0128】
例えば、キーワード検出部104hは、記憶している「感情の度合い」のうち、過去におけるP1又はP2に対応するキーワードが5個以上になった場合に、それらのキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力する。
【0129】
尚、キーワード検出部104hは、情報管理センター200にある感情情報データベース20に蓄積されている各端末100a〜100eの感情情報に基づいて、各端末100a〜100eを利用している利用者の感情に関係するキーワードを検出し、その検出したキーワードに関係する情報を検索させるための検索命令信号を検索実行部104gに出力することもできる。
【0130】
この各端末100a〜100eを利用している利用者の感情に関係するキーワードには、例えば、年齢層において話題になっているキーワード(20代であれば”ワールドカップ”、50代であれば”リストラ”など)が挙げられる。
【0131】
次いで、検索実行部104gが所定の情報を検索するステップを行う(S207)。具体的には、キーワード検出部104hから検索命令信号が入力された検索実行部104gは、入力された検索命令信号に対応するキーワードに基づいて、そのキーワードに関係する情報を、通信部105、通信部201、情報管理部202を通じて、情報データベース204の中から検索し、その検索した結果を出力部に出力する。
【0132】
[情報検索システム及び情報検索方法による作用及び効果]
このような本実施形態に係る発明によれば、推論エンジン104が、利用者から入力された文字列を認識し、認識した文字列に基づいて利用者が抱く感情情報を推論し、推論した該感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索するので、推論エンジン104は、利用者が抱いている感情に特徴付けられたキーワードを取得し、この取得したキーワードを用いることで利用者の要求に合致した情報を検索することができる。
【0133】
また、利用者は、入力部101を通じて、推論エンジン104に対して特定の文字列を入力(例えば、音声入力、操作手段からの入力)することで、推論エンジン104が利用者の感情を把握し、その把握した感情に特徴付けられたキーワードを自動的に検索してくれるので、所定の情報を検索するためのキーワードを逐一考える必要がなく、更に複数のキーワードを入力する手間を省くことができる。
【0134】
また、推論エンジン104は、文字列、該文字列に含まれる利用者の感情の度合いを示す感情度又は該感情度が発生した時期に基づいて感情情報を推論することができるので、利用者の感情をより的確に把握することができる。
【0135】
また、推論エンジン104は、文字列に含まれる強調語に基づいて感情度を定めることができるので、例えば強調語である副詞又は感嘆詞などにより、利用者の感情の程度を的確に把握することができる。
【0136】
また、キーワード検出部104hは、感情情報に関連付けられたキーワードが所定の数以上になった場合に、検索実行部104gを通じてキーワードに関係する情報を検索するので、利用者は、キーワード検出部104hを通じて、逐次所定のキーワードに対応する検索結果を自動的に取得することができる。
【0137】
更に、キーワード検出部104hが、感情度の高い感情情報(例えば、〜に非常に興味があるなど)に関連付けられたキーワードが所定の数以上になった場合に、検索実行部104gを通じてキーワードに関係する情報を検索するので、利用者は、キーワード検出部104hを通じて、例えば自己にとって興味のある検索結果のみを取得することができる。
【0138】
加えて、キーワード検出部104hが、高い感情度が発生した時期と、高い感情度とを含む感情情報に関連付けられたキーワードが所定の数以上になった場合に、検索実行部104gを通じてキーワードに関係する情報を検索するので、利用者は、キーワード検出部104hを通じて、例えば過去において興味があった情報の検索結果のみを取得することができる。
【0139】
最後に、利用者は、入力部101を通じて、AI推論部104fに文字情報を入力(例えば、音声入力、操作手段からの入力)すれば、AI推論部104fが利用者の感情を推論し、その推論に応じて異なった質問をするので、あたかも人間と会話しているような雰囲気を味わうことができ、ある情報をより楽しく検索することができる。
【0140】
【発明の効果】
以上説明したように、本発明によれば、利用者が入力した文字列に基づいて、利用者が抱く感情を把握し、その把握した感情を表現する特定のキーワードを抽出して、その抽出したキーワードに基づいて検索を行うことで、より利用者の要求に合致した情報を検索することができる。
【図面の簡単な説明】
【図1】本実施形態に係る情報検索システムの概略構成を示すブロック図である。
【図2】本実施形態における推論エンジンの内部構造を示すブロック図である。
【図3】本実施形態における類別部で格納している感情類別テーブルの内容を示した図である。
【図4】本実施形態における強調語検出部で格納している強調語テーブルの内容を示した図である。
【図5】本実施形態における感情判定部で格納している感情度テーブルの内容を示した図である。
【図6】本実施形態における時制解釈部で格納している時制テーブルの内容を示した図である。
【図7】本実施形態における感情情報データベースに蓄積されている時制履歴テーブルの内容を示した図である。
【図8】本実施形態に係る情報検索方法の手順を示したフロー図である。
【図9】本実施形態における推論エンジンの内部で処理されている手順を示したフロー図である。
【符号の説明】
100a〜100e…端末、101…入力部、102…音声認識部、103…音声認識辞書記憶部、104…推論エンジン、104a…文節認識部、104b…時制解釈部、104c…類別部、104d…強調語検出部、104e…感情判定部、104f…AI推論部、104g…検索実行部、104h…キーワード検出部、105…通信部、106…感情情報データベース、107…出力部、200…情報管理センター、201…通信部、202…情報管理部、203…感情情報データベース、204…情報データベース、300…通信ネットワーク
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information retrieval system and an information retrieval method for inferring a user's emotion from voice information spoken by the user and retrieving predetermined information based on the inferred user's emotion.
[0002]
[Prior art]
In recent years, with the development of communication networks, users of communication networks can easily acquire information that the users want to know, for example, via the Internet. In particular, an environment in which a user can always connect to a communication network by using ADSL (Asymmetric Digital Subscriber Line) or the like has recently become widespread even in ordinary households, so that users can easily obtain information at any time. be able to.
[0003]
Thereby, the user has an advantage that information matching his / her request can be easily obtained through the Internet by using a search engine built in the personal computer.
[0004]
[Problems to be solved by the invention]
However, as the amount of information that can be searched on the Internet has increased with the development of the Internet, users cannot easily obtain the information they want using the conventional search engine. It has become.
[0005]
For example, if a user wants to search for information related to a book, the user can enter a keyword of “interesting” or “book” using a conventional search engine, but a search engine Then, the search results related to “interesting” and “books” are searched for a huge amount of about 100,000 items, and the searched contents are completely related to the book information requested by the user. There was also the case that there was no garbage information called “Funny” spot of “Japan” book.
[0006]
In addition, the user can eliminate the garbage information by searching after increasing the number of keywords. However, the user must consider a large number of keywords and must input these keywords. There was an inconvenience of not being able to
[0007]
  Therefore, the present invention has been made in view of the above points, and based on the character string input by the user, the user's emotion is grasped and the senseAffectionTo provide an information retrieval system and an information retrieval method capable of retrieving information that matches a user's request by extracting a specific keyword to be expressed and performing a search based on the extracted keyword. Let it be an issue.
[0008]
[Means for Solving the Problems]
  The invention according to the present application has been made to solve the above-described problem, and includes an information management center in which information corresponding to a keyword is stored, and a terminal connected to the information management center via a communication network. An information retrieval system in which a terminal retrieves predetermined information requested by a user from an information management center, wherein the terminal is recognized by a character recognition unit that recognizes a character string input by the user and a character recognition unit. StringThe emotion level indicating the degree of emotion is determined from the phrases related to the emotion, the keyword that is the target of the emotion is extracted, the emotion level and the keywordBased on the userRelated to emotionInference search means for inferring emotion information, extracting a keyword associated with the inferred emotion information, and searching for information related to the extracted keyword;Create a question sentence to the user based on the keyword and output itIt is characterized by having.
[0009]
  According to the invention according to the present application, the character recognition unit of the terminal recognizes the character string input from the user, and the inference search unit of the terminal holds the user based on the recognized character string. EmotionRelated toInferring emotion information, creating a question sentence to the user, inferring emotion information held by the user based on a character string input from the user and responding to the question sentence, and to the inferred emotion information Since the associated keyword is extracted and information related to the extracted keyword is searched, the terminal can acquire the keyword characterized by the emotion held by the user. By using it, information that matches the user's request can be searched.The answer sentence creating means creates and outputs a question sentence to the user based on the keyword.
[0010]
  In addition, the userCharacter recognition meansOn the other hand, when a specific character string is input, for example, the user inputs a specific character string by speaking, or the user inputs a specific character string through the operation unit, so that the terminal can express the user's feelings. Because it automatically searches for keywords that are characterized and characterized by the emotions that you grasp, you do not have to think about keywords to search for specific information one by one, and you can save time and effort to enter multiple keywords Can do.
[0011]
The terminal may infer the emotion information based on the character string, an emotion level indicating the degree of emotion of the user included in the character string, or a time when the emotion level occurs. Thereby, the terminal can infer the emotion information based on the character string, the emotion level indicating the degree of emotion of the user included in the character string, or the time when the emotion level occurs. Person's feelings can be grasped more accurately.
[0012]
The emotion level may be determined based on an emphasized word included in the character string. Thereby, since the terminal can determine the emotion level based on the emphasized word included in the character string, for example, the degree of the user's emotion can be grasped by the adverb or exclamation that is the emphasized word.
[0013]
The invention according to the present application is characterized in that, when the number of keywords associated with the emotion information exceeds a predetermined number, information related to the keywords is searched. According to the invention according to the present application, since the terminal searches for information related to the keyword when the number of keywords associated with the emotion information exceeds a predetermined number, the user can search through the terminal, A search result corresponding to a predetermined keyword can be acquired sequentially.
[0014]
The terminal may search for information related to the keyword when the number of keywords associated with the emotion information having a high emotion level becomes equal to or greater than a predetermined number. As a result, the terminal searches for information related to the keyword when the number of keywords associated with emotion information with a high emotion level (for example, very interested in, etc.) becomes a predetermined number or more. The user can obtain only search results that are of interest to the user, for example, through the terminal.
[0015]
  The terminal searches for information related to the keyword when the keyword associated with the emotion information including the time when the emotion level occurs and the emotion level exceeds a predetermined number. It may be. Thereby, since the terminal searches for information related to the keyword when the keyword associated with the emotion information including the time when the emotion level occurs and the emotion level is equal to or more than a predetermined number, For example, the user can acquire only the search result of information that the user has been interested in in the past through the terminal.
  In addition, the terminal determines the emotion of the vehicle used, including not only the “degree of emotion” and “keyword” included in the character string spoken by the user, but also the “temporal system determined” by the tense interpreter. For example, it is possible to determine what kind of emotion the user has in the past, and it is also possible to grasp a change in emotion from the past to the present.
   Also, the AI inference part of the terminal decodes the meaning content of the Japanese spoken by the user based on the context dictionary, the lexicon relation dictionary, the phrase analysis dictionary, and the morphological analysis dictionary, and uses it from the decoded contents Inferring emotions that people have and creating sentences suitable for asking questions. In other words, the AI reasoning unit that deciphers the semantic content of Japanese, based on the deciphered semantic content, cohesiveness of the deciphered meaning, change of topic, language that forms the user's emotion, statistics of the conversation so far Inferring the emotions of the user and creating a sentence suitable for asking questions to the user.
Further, when the AI inference unit of the terminal determines that the meaning content of the decoded Japanese is an ambiguous expression, it also creates a question content corresponding to the ambiguous expression using the fuzzy function.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
[Basic configuration of information retrieval system]
An information search system according to the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of an information search system according to the present embodiment.
[0017]
  As shown in the figure, the information search system includes an input unit 101 (acquisition means) that acquires user's voice information, and a character string corresponding to the voice information based on the voice information acquired by the input unit 101. Inferring emotion information held by the user based on the character recognition unit 102 (speech recognition unit) to be identified and the character string identified by the speech recognition unit 102, and extracting a keyword associated with the inferred emotion information, An inference engine 104 (inference search means) that searches for information related to the extracted keyword and an information management center 200 that stores information corresponding to the keyword are provided.A plurality of terminals 100 a to 100 e each including an input unit 101, a voice recognition unit 102, and an inference engine 104 are connected to the information management center 200 via the communication network 300.
[0018]
The terminals 100a to 100e infer user emotion information from contents uttered by the user, and search for predetermined information requested by the user based on the inferred user emotion information. Examples of the terminals 100a to 100e include personal computers and mobile phones.
[0019]
In this embodiment, the terminals 100a to 100e include an input unit 101, a speech recognition unit 102, a speech recognition dictionary storage unit 103, an inference engine 104, a communication unit 105, an emotion information database 106, and an output unit 107. have.
[0020]
The input unit 101 is an acquisition unit that acquires user's voice information. Specifically, the input unit 101 acquires the user's voice information and outputs the acquired voice information to the voice recognition unit 102 as a voice signal. The voice recognition unit 102 is a voice recognition unit that identifies a character string corresponding to the voice signal based on the voice information acquired by the input unit 101.
[0021]
Specifically, the speech recognition unit 102 to which the speech signal is input analyzes the input speech signal, and a character string corresponding to the analyzed speech signal is stored in a dictionary stored in the speech recognition dictionary storage unit 103. The specified character string is output to the inference engine 104 as a character string signal.
[0022]
The voice recognition dictionary storage unit 103 stores a dictionary corresponding to standard voice signals. The communication unit 105 transmits and receives data to and from the information management center 200. The output unit 107 outputs a command corresponding to an instruction from the inference engine 104, and examples thereof include a display and a speaker. Specifically, the output unit 107 to which the voice command signal is input from the inference engine 104 outputs a voice corresponding to the input voice command signal.
[0023]
  The voice recognition unit 102 is also a character recognition unit that specifies a character string input by a user through an operation unit (for example, a keyboard). In addition, voicerecognitionThe dictionary storage unit 103 also stores a dictionary corresponding to the character string input by the user through the operation unit. Thereby, the user can acquire predetermined search contents from the terminal 100 not only by speaking to the terminal 100 but also by inputting characters from the operation unit.
[0024]
The emotion information database 106 stores information related to emotions held by the user as emotion information, and examples thereof include a hard disk and a CD-ROM.
[0025]
Here, in the emotion information database 106, as shown in FIG. 7, the “emotion history table” indicating the history of the “degree of emotion” (emotion level) of the user and the “degree of emotion” of the user are tense. And a “temporal history table” indicating a history to which information on the information is added. As shown in the figure, the emotion information includes, for example, “degree of emotion”, “keyword”, “text tense”, and the like. Details of these contents will be described later.
[0026]
The inference engine 104 infers emotion information held by the user based on the character string specified by the speech recognition unit 102, extracts a keyword associated with the inferred emotion information, and information related to the extracted keyword This is an inference search means for searching.
[0027]
Here, the inference engine 104 infers emotion information based on a character string, an emotion level indicating the degree of emotion of a user included in the character string, or a time (temporal system) when the emotion level occurs. Details of this inference will be described later.
[0028]
In this embodiment, the inference engine 104 is a context dictionary for deciphering a context, a similarity dictionary for examining language similarity, a dictionary related to Japanese phrase analysis, Japanese morphological analysis (each part-of-speech, utilization form) , Classification, concatenation), based on these dictionaries, deciphering the meaning of Japanese spoken by the user, inferring the user's feelings from the interpreted meaning and using To create a sentence suitable for asking questions.
[0029]
In other words, the inference engine 104 that deciphers the meaning content of the Japanese language, based on the deciphered meaning content, the coherence of the deciphered meaning, the change of the topic, the language that forms the user's emotion, the statistics of the conversation so far Inferring the emotions of the user and creating a sentence suitable for asking questions to the user.
[0030]
The inference engine 104 is also composed of artificial intelligence and a neural network. The inference engine 104 learns a language (word, sentence, etc.) exchanged with a user from a neural network, and converts the learned language into the learned language. Based on this, it is possible to create a content for asking a question to the user.
[0031]
  Furthermore, when the reasoning engine 104 determines that the interpreted meaning of the Japanese language is an ambiguous expression, it can also create a question content corresponding to the ambiguous expression using the fuzzy function. Note that the execution of the above-described functions of the inference engine 104 is performed by an AI inference unit 104 described later.fIs mainly responsible.
[0032]
  Specifically, the inference engine 104 to which the character string signal is input from the speech recognition unit 102 determines whether the user's emotion and user are based on the elements constituting the character string corresponding to the input character string signal. The time of feelings,As a result of inference engine 104 inferring user's emotionsSort keywords contained in character strings. These “user's feelings”, “time when the user had that feeling (temporal)”
In this embodiment, “keyword included in the character string” means emotion information.
[0033]
Here, “user's emotion” (degree of emotion) includes, for example, interest / indifference, rejoicing / bottom. The “user's emotion” includes the degree of emotion that the user has, for example, very interested / interested / not interested / not interested at all. ing.
[0034]
In this embodiment, this “degree of emotion” is P1 (P; Positive) (for example, very interested) when the user has a strong positive emotion, and the user has a positive emotion. If it is simply P2 (for example, interested), if the user simply has a negative emotion N1 (N; Negative) (for example, not interested), the user has a negative emotion N2 is expressed as a case where N is strongly held.
[0035]
The “time when the user has the feeling (temporal system)” includes, for example, present, past, and future. Furthermore, examples of keywords included in the character string include spring, summer, autumn, winter, reading, and sports.
[0036]
The inference engine 104, which classifies information related to the user's emotion from the elements constituting the character string, infers the emotion held by the user based on the information related to the user's emotion.
[0037]
For example, when the inference engine 104 asks the user via the output unit 107 “What are you interested in?” And the user answers “Is there something?”, The inference engine 104 Determines that the user is not worried about what he is interested in, and asks the following questions to further deepen the question.
[0038]
The inference engine 104 responded to the user through the output unit 107 when the user asked “What was the sport doing?” And the user answered “I used to play soccer happily in the past”. In this case, the inference engine 104 infers that the user is interested in soccer relations and asks questions (conversations) one after another.
[0039]
The inference engine 104 that asks various questions to the user, based on the contents of the reply from the user, for each reply, the “user's emotion”, “degree of emotion”, “user has that emotion” The emotion information is classified into “time”, and the classified emotion information is accumulated in the emotion information database 106.
[0040]
Thereafter, the inference engine 104 searches for information related to the keyword when the number of keywords associated with the emotion information exceeds a predetermined number. The inference engine 104 can also search for information related to the keyword when the number of keywords associated with emotion information having a high emotion level exceeds a predetermined number.
[0041]
Specifically, for example, the inference engine 104 acquires keywords (P1, P2) having a high “degree of emotion” from emotion information stored in the emotion information database 106, and the acquired keywords are a predetermined number. In such a case, information corresponding to a plurality of keywords is searched from the information management center 200. This search can be performed by using a general search engine.
[0042]
In addition, the inference engine 104 searches for information related to the keyword when the number of keywords associated with emotion information including a high emotion level and a time when the high emotion level has occurred exceeds a predetermined number. You can also
[0043]
Specifically, the inference engine 104 has a higher “degree of emotion” from “the time when the user has the emotion” and “the degree of emotion” stored in the emotion information database 106 (P1, P2) If only keywords that have a feeling of “current” are acquired and the number of acquired keywords exceeds a predetermined number, information corresponding to the keyword is stored in the information management center 200. Search from.
[0044]
In addition, when the emotion information stored in the emotion information database 106 is biased to information in a certain tense (for example, the past), the inference engine 104 detects the emotion in a different tense (for example, the present) from the user. It is also possible to perform a search based on keywords that constitute the emotions that are heard.
[0045]
The inference engine 104 that has searched for information corresponding to a plurality of keywords outputs the searched information to the output unit 107, and the output unit 107 to which the information searched from the inference engine 104 is input outputs the searched information. .
[0046]
As a result, the inference engine 104 infers emotions held by the user through the output unit 107, and searches for predetermined information using the keywords derived from the inferred emotions. The matched information can be searched accurately. In addition, since the user can search for predetermined information through conversation through the inference engine 104, the user can search for predetermined information happily.
[0047]
In the present embodiment, the inference engine 104 includes a phrase recognition unit 104a, a tense interpretation unit 104b, a classification unit 104c, an emphasized word detection unit 104d, an emotion determination unit 104e, and an AI inference, as shown in FIG. Unit 104f, search execution unit 104g, and keyword detection unit 104h.
[0048]
The phrase recognition unit 104a analyzes the sentence and recognizes the meaning space of the words grasped from the sentence based on the analyzed sentence. Here, sentence analysis means analyzing sentence form elements such as parts of speech, inflection forms, classifications, and connection relations. The meaning space of words is grasped from context, sentence similarity, and sentence learning patterns.
[0049]
Furthermore, the phrase recognizing unit 104a recognizes between sentences by the above recognition. Specifically, the phrase recognizing unit 104a to which the character string signal is input from the speech recognition unit 102 that has recognized the semantic space of the word grasped from the sentence corresponds to the character string signal based on the input character string signal. Recognize between sentences.
[0050]
In this embodiment, since there is a certain time interval between sentences in this embodiment, the sentence is distinguished between sentences based on the time interval. For example, when the sentence corresponding to the character signal is “It is hot today ... Let's eat ice cream”, the phrase recognition unit 104a has a time interval in the sentence. Recognize that “is a sentence break,” and divide it into the sentence “It ’s hot today” and “Let's eat ice cream”.
[0051]
The phrase recognition unit 104a, which recognizes between sentences, divides the sentence into sentences, and uses the sentence divided into sentences as a sentence style signal 104b, a classification unit 104c, and an emphasized word detection unit 104d. And output to the emotion determination unit 104e.
[0052]
The classification unit 104c determines the type of user's emotion from the character string. Specifically, the classification unit 104c to which the style signal is input from the phrase recognition unit 104a extracts a phrase related to emotion from the elements included in the sentence based on the sentence corresponding to the input style signal, and extracts this phrase. Identify what kind of emotion the phrase belongs to.
[0053]
In this embodiment, this emotion classification is classified according to an “emotion classification table” shown in FIG. 3, for example. The emotion classification table, for example, “plus element P (P; Positive)” indicating that the user means a positive emotion element, and indicates that the user means a negative emotion element. It has a “minus element N (N; Negative)”.
[0054]
This plus element P includes, for example, “Like”, “Good”, “Relieved”, “Best”, “Rejoice”, “Worried”, etc. Further, the negative element N includes, for example, useless, bad, waiting, lowest, boring, not interested (indifference), and the like. The classification unit 104c classifies what emotions are included in one sentence based on the above “emotion classification table”, and outputs the classified result to the emotion determination unit 104e as a classification signal. .
[0055]
The emphasized word detection unit 104d extracts an element characterizing emotion strength from a character string. Specifically, the emphasized word detection unit 104d, to which the style signal is input from the phrase recognition unit 104a, has an emphasized word among the elements constituting the sentence based on the sentence corresponding to the input style signal. Whether or not is detected.
[0056]
  In this embodiment, this emphasis word can be detected according to, for example, an “emphasis word table” shown in FIG. In this "emphasis word table", as shown in the figure, for example, there are adverb and exclamation of suge, choo, uhyo, wow, hie, super, very, quite etc. included. The emphasized word detection unit 104d detects an emphasized word in one sentence based on the “emphasized word table” described above, and uses the detected emphasized word as an emphasized word detection signal as an emotion determination unit.104eOutput to.
[0057]
The emotion determination unit 104e determines the degree of emotion held by the user. Specifically, the emotion determination unit 104e, to which the classification signal, the emphasized word detection signal, and the style signal are input from the classification unit 104c, the emphasized word detection unit 104d, and the phrase recognition unit 104a, the input classification signal and the emphasized word detection signal. The degree of the user's emotion is determined based on the style signal.
[0058]
In this embodiment, the determination of the degree of emotion can be performed according to an “emotion level table” shown in FIG. 5, for example. This “emotion level table” includes, for example, a determination element (user's emotion) and “emotion level” as shown in FIG.
[0059]
The determination element means a phrase that influences the emotion of the user, and includes, for example, interest / indifference, rejoicing / bottomful, highest / lowest, relieved / covered, as shown in FIG. This determination element has the same meaning as “user's emotion” described above.
[0060]
For example, as described above, the “degree of emotion” is very interested (P1) and interested when the determination element is “interested / not interested” as shown in FIG. P2), no interest (N1), no interest (N2).
[0061]
The emotion determination unit 104e refers to the “emotion level table” based on the “emotion category” corresponding to the category signal and the emphasized word corresponding to the emphasized word detection signal, and the user's emotion grasped from one sentence Is determined, and the determined results (P1, P2, N1, N2) are output as emotion determination signals to the AI inference unit 104f.
[0062]
  For example, when the character string corresponding to the style signal is “I used to play soccer happily in the past,” the classification unit 104c detects the character string “I did it,” and the emphasized word detection unit 104d The character string “fun” is detected. EmotionJudgmentThe unit 104e refers to the table of FIG. 5 based on “having done” detected by the classification unit 104c and “fun” detected by the emphasized word detecting unit 104d, and determines the degree of emotion of the user as P1 It is judged that.
[0063]
The emotion determination unit 104e detects the keyword “soccer”, which is an important element constituting the character string, and uses the emotion information including the detection result and “degree of emotion” as an emotion information signal to the AI inference unit 104g. Output to.
[0064]
The AI inference unit 104g infers the emotion that the user has from the “emotion level” of the user determined by the emotion determination unit 104e and the keyword of the character string. Specifically, the AI inference unit 104g, to which the emotion information signal is input from the emotion determination unit 104e, is based on the emotion information corresponding to the input emotion information signal. If the keyword is “soccer”, it is inferred that the user is interested in soccer.
[0065]
For example, the AI inference unit 104g extracts a phrase (predetermined content indicating the content of inference) most relevant to the keyword from the emotion information database 106 based on a character string keyword, and extracts the extracted phrase. Phrases can be the reasoning content.
[0066]
Based on the above inference, the AI inference unit 104g further deepens the contents of the question about the field of interest, searches for keywords corresponding to the emotions the user has, and stores the keywords corresponding to the emotions in the emotion information database 106. accumulate.
[0067]
The tense interpreter interprets the time (tense) when the feeling of emotion held by the user occurs. Specifically, the tense interpreter 104b to which the style signal is input from the phrase recognition unit 104a, based on the character string corresponding to the input style signal, at which time (time) the event corresponding to the character string is generated. Interpret if it is true. In this embodiment, this interpretation is performed according to the “temporal table” shown in FIG.
[0068]
As shown in the figure, this “tense table” is composed of aspect, tense, and mood, and the tense corresponding to the character string can be specified based on these components.
[0069]
Here, the aspect A is based on a completion phase (A1) indicating that a certain event has already been completed and a continuation phase (A2) indicating that a certain event continues even when the user utters. It is composed. The tense T includes a non-past tense (T1) and a past tense (T2). Furthermore, the mood M is composed of a description method M1 (an assertion method (M2), an estimation method (M3)) and an execution method M6 (will and solicitation (M4), an instruction (M4)).
[0070]
For example, if the tense interpreter 104b interprets a character string “I used to have fun playing soccer”, refer to FIG. ), And it is determined from the characters “has been” that it corresponds to the completed phase A2 (determination (2); continuity in the past). The tense interpreter 104b that has made these determinations outputs the determined tense (determination (1), determination (2)) to the AI inference unit 104f as a tense signal.
[0071]
  The tense interpreter 104b and emotionsJudgmentThe AI inference unit 104f, to which the tense signal and the emotion information signal are input from the unit 104e, respectively, “determined tense” corresponding to the input tense signal and “emotion emotion” corresponding to the input emotion information signal. Based on the “degree” and “keyword”, the user's feelings are inferred.
[0072]
  For example, when the AI inference unit 104f infers the user's emotion from the character string “I used to play soccer happily in the past,” the tense interpreter 104b, the classification unit 104c, and the emphasis worddetectionAs a result of interpreting the element of the character string in the section 104d, the “determined tense” is the above-mentioned determination [1] (conclusive M2-past T2; something has been done in the past), determination [2] (complete phase A2; something was continued), “Emotional degree” was P1 (has been doing happily), and “Keyword” was soccer. It is inferred that there is a time when soccer (keyword) has been continued (determination [2]) in the past (determination [1]), and the user is interested in soccer.
[0073]
The AI reasoning unit 104f that made this inference infers that the user is interested in soccer in the past, and therefore, questions related to soccer are derived and the contents of the questions are deepened by successively asking the derived questions. For example, questions related to soccer include favorite soccer teams, favorite players, and the like.
[0074]
The AI inference unit 104f, which has made various questions to the user, accumulates the content of the response received from the user in the emotion information database 106 for each of “determined tense”, “degree of emotion”, and “keyword”. (See FIG. 7).
[0075]
As a result, the AI inference unit 104f determines the user's emotion including not only the “degree of emotion” and “keyword” included in the character string spoken by the user but also the “determined tense”. For example, it is possible to grasp what kind of emotion the user has in the past, and it is also possible to grasp a change in emotion from the past to the present.
[0076]
That is, the AI inference unit 104f, for example, infers that “the current emotion has not changed” when the “degree of emotion” is high in the past, and the user's current emotion Can be used to determine what emotions the current user has.
[0077]
  Furthermore, from the above, the AI reasoning unit 104f can collect many keywords included in the responses from the users, particularly keywords related to the user's emotions.CordThe row unit 104g can retrieve information requested by the user more accurately by retrieving predetermined information using a keyword related to the emotion of the user inferred by the AI inference unit 104f.
[0078]
In addition, if the user inputs character information to the AI inference unit 104f through the input unit 101 (for example, voice input, input from the operation unit), the AI inference unit 104f infers the user's emotion, Since different questions are asked according to the reasoning, it is possible to enjoy the atmosphere as if talking to a human being, and to search information about certain information more happily.
[0079]
The keyword detection unit 104h outputs a search command signal for detecting the keyword to the search execution unit 104g when the number of keywords associated with emotion information exceeds a predetermined number. The keyword detection unit 104h can also output a search command signal to the search execution unit 104g when the number of keywords associated with emotion information having a high emotion level becomes equal to or greater than a predetermined number.
[0080]
Specifically, the keyword detection unit 104h selects values (P1, P2, N1, N2) indicating “degree of emotion” from the “emotion history table” (see FIG. 7) accumulated in the emotion information database 106. ) And the keyword associated with the value.
[0081]
The keyword detection unit 104h that has acquired a value with a high “degree of emotion” and a keyword associated with the value, when the number of keywords corresponding to the acquired “degree of emotion” exceeds a predetermined number, A search command signal for searching for information (for example, a book) related to the keyword is output to the search execution unit 104g.
[0082]
For example, when there are 10 or more keywords corresponding to P1 or P2 having a high degree of emotion among the acquired “degree of emotion”, the keyword detection unit 104h searches for information related to those keywords. The search command signal is output to the search execution unit 104g.
[0083]
Further, the keyword detection unit 104h sends a search command signal to the search execution unit 104g when the number of keywords associated with emotion information including the time when the high emotion level occurs and the high emotion level exceeds a predetermined number. It can also be output.
[0084]
Specifically, the keyword detection unit 104h selects, from the “temporal history table” stored in the emotion information database 106, a value indicating “degree of emotion” for each tense, and a keyword associated with the value. To get.
[0085]
The keyword detection unit 104h that has acquired the value indicating the “degree of emotion” for each tense and the keyword associated with the value, the keyword corresponding to a certain tense among the “degree of emotion” acquired for each tense. When the value becomes a predetermined numerical value or more, a search command signal for searching for information related to those keywords is output to the search execution unit 104g.
[0086]
For example, the keyword detection unit 104h searches for information related to the keyword when the number of keywords corresponding to P1 or P2 in the past becomes five or more in the acquired “degree of emotion”. The command signal is output to the search execution unit 104g.
[0087]
Note that the keyword detection unit 104h uses the emotion information of each terminal 100a to 100e stored in the emotion information database 202 in the information management center 200 to detect the emotion of the user who uses each terminal 100a to 100e. It is also possible to detect a related keyword and output a search command signal for searching for information related to the detected keyword to the search execution unit 104g.
[0088]
Examples of keywords related to the emotions of the users who use the terminals 100a to 100e include keywords that are talked about in the age group ("World Cup" in the 20s, "If in the 50s"). Restructuring ”).
[0089]
The search execution unit 104g to which the search command signal is input from the keyword detection unit 104h, based on the keyword corresponding to the input search command signal, displays information related to the keyword in the communication unit 105, the communication unit 201, and the information management. The information is searched from the information database 204 through the unit 202, and the search result is output to the output unit.
[0090]
The information management center 200 manages user emotion information. In the present embodiment, the information management center 200 includes a communication unit 201, an information management unit 202, an emotion information database 203, and an information database 204.
[0091]
The emotion information database 203 accumulates emotion information of each user using each of the terminals 100a to 100e. This emotion information database 203 stores emotion information similar to the content shown in FIG. In addition, this emotion information database 203 may accumulate | store emotion information for every user's age group using each terminal 100a-100e and order with many keywords.
[0092]
The information database 204 stores information about search targets. Examples of this information include books, travel, and hobbies. The communication unit 201 transmits and receives data to and from the terminals 100a to 100e. The information management unit 202 controls the entire information management center 204.
[0093]
[Information retrieval method using information retrieval system]
The information search method by the information search system having the above configuration can be implemented by the following procedure. FIG. 8 is a flowchart showing the procedure of the information search method according to this embodiment. First, the input unit 101 performs a step of acquiring user's voice information (S101). Specifically, the input unit 101 acquires the user's voice information and outputs the acquired voice information to the voice recognition unit 102 as a voice signal.
[0094]
Next, the voice recognition unit 102 performs a step of specifying a character string corresponding to the voice information based on the voice information acquired by the input unit 101 (S102). Specifically, the speech recognition unit 102 to which the speech signal is input analyzes the input speech signal, and a character string corresponding to the analyzed speech signal is stored in a dictionary stored in the speech recognition dictionary storage unit 103. The specified character string is output to the inference engine 104 as a character string signal.
[0095]
Next, the inference engine 104 infers emotion information held by the user based on the character string specified by the speech recognition unit 102, extracts a keyword associated with the inferred emotion information, and relates to the extracted keyword. A step of searching for information to be performed is performed (S103). The process performed here is demonstrated based on FIG.
[0096]
In the inference engine 104, first, as shown in FIG. 9, the phrase recognition unit 104a analyzes the sentence and performs a step of recognizing the meaning space of the word grasped from the sentence based on the analyzed sentence (S200). . Next, the phrase recognition unit 104a performs a step of recognizing between sentences by the above recognition (S201). Specifically, the phrase recognizing unit 104a that has grasped the semantic space of the word grasped from the sentence recognizes between the sentence corresponding to the character signal based on the inputted character signal.
[0097]
In this embodiment, since there is a certain time interval between sentences in this embodiment, the sentence is distinguished between sentences based on the time interval. For example, when the sentence corresponding to the character signal is “It is hot today ... Let's eat ice cream”, the phrase recognition unit 104a has a time interval in the sentence. Recognize that “is a sentence break,” and divide it into the sentence “It ’s hot today” and “Let's eat ice cream”.
[0098]
The phrase recognition unit 104a, which recognizes between sentences, divides the sentence into sentences, and uses the sentence divided into sentences as a sentence style signal 104b, a classification unit 104c, and an emphasized word detection unit 104d. And output to the emotion determination unit 104e.
[0099]
Next, the classification unit 104c performs a step of determining the type of user's emotion from the character string (S202). Specifically, the classification unit 104c to which the style signal is input from the phrase recognition unit 104a extracts a phrase related to emotion from the elements included in the sentence based on the sentence corresponding to the input style signal, and extracts this phrase. Identify what kind of emotion the phrase belongs to.
[0100]
In this embodiment, this emotion classification is classified according to an “emotion classification table” shown in FIG. 3, for example. The emotion classification table, for example, “plus element P (P; Positive)” indicating that the user means a positive emotion element, and indicates that the user means a negative emotion element. It has a “minus element N (N; Negative)”.
[0101]
The classification unit 104c classifies what emotions are included in one sentence based on the above “emotion classification table”, and outputs the classified result to the emotion determination unit 104e as a classification signal. .
[0102]
Next, the emphasized word detection unit 104d performs a step of extracting an element characterizing the strength of emotion from the character string (S203). Specifically, the emphasized word detection unit 104d, to which the style signal is input from the phrase recognition unit 104a, has an emphasized word among the elements constituting the sentence based on the sentence corresponding to the input style signal. Whether or not is detected.
[0103]
In this embodiment, this emphasis word can be detected according to, for example, an “emphasis word table” shown in FIG. In this "emphasis word table", as shown in the figure, for example, there are adverb and exclamation of suge, choo, uhyo, wow, hie, super, very, quite etc. included.
[0104]
  The emphasized word detection unit 104d detects an emphasized word in one sentence based on the “emphasized word table” described above, and uses the detected emphasized word as an emphasized word detection signal as an emotion determination unit.104eOutput to.
[0105]
  Next, the emotion determination unit 104e performs a step of determining the degree of emotion held by the user (S204). Specifically, the classification unit 104c, the emphasized word detection unit 104d, the phraserecognitionThe emotion determination unit 104e to which the category signal, the emphasized word detection signal, or the style signal is input from the unit 104a determines the level of the user's emotion based on the input category signal, the emphasized word detection signal, or the style signal. To do.
[0106]
In this embodiment, the determination of the degree of emotion can be performed according to, for example, an “emotion level table” shown in FIG. This “emotion determination table” has, for example, determination elements (user emotions) and “emotion level” as shown in FIG.
[0107]
For example, as described above, the “degree of emotion” is very interested (P1) and interested when the determination element is “interested / not interested” as shown in FIG. P2), no interest (N1), no interest (N2).
[0108]
Next, the emotion determination unit 104e refers to the “emotion level table” based on the “emotion category” corresponding to the category signal and the emphasized word corresponding to the emphasized word detection signal, and the user can be grasped from one sentence The degree of the emotion is determined, and the determined results (P1, P2, N1, N2) are output to the AI inference unit 104f as emotion determination signals.
[0109]
  Specifically, when the character string corresponding to the character string signal is “I used to play soccer happily in the past”, the classification unit 104c detects the character string “I did it” and the emphasized word detection unit 104d detects the character string “fun”. EmotionJudgmentThe unit 104e refers to the table of FIG. 5 based on “having done” detected by the classification unit 104c and “fun” detected by the emphasized word detecting unit 104d, and determines the degree of emotion of the user as P1 It is judged that.
[0110]
The emotion determination unit 104e detects the keyword “soccer”, which is an important element constituting the character string, and uses the emotion information including the detection result and “degree of emotion” as an emotion information signal to the AI inference unit 104g. Output to.
[0111]
Next, the AI inference unit 104g performs a step of inferring the emotion held by the user from the “degree of emotion” of the user determined by the emotion determination unit 104e and the keyword of the character string (S205).
[0112]
Specifically, the AI inference unit 104g, to which the emotion information signal is input from the emotion determination unit 104e, is based on the emotion information corresponding to the input emotion information signal. If the keyword is “soccer”, it is inferred that the user is interested in soccer.
[0113]
Then, the AI inference unit 104g further deepens the contents of the question about the field of interest based on the above inference, searches for a keyword corresponding to the emotion that the user has, and searches the keyword corresponding to the detected emotion to the emotion information database. It accumulates in 106.
[0114]
Note that the AI inference unit 104f may infer emotions held by the user, including the time when the emotion level held by the user occurs (temporal system). Specifically, the tense interpreter 104b to which the style signal is input from the phrase recognition unit 104a, based on the character string corresponding to the input style signal, at which time (time) the event corresponding to the character string is generated. Interpret if it is true. In this embodiment, this interpretation is performed according to the “temporal table” shown in FIG.
[0115]
As shown in the figure, this “tense table” is composed of aspect, tense, and mood, and the tense corresponding to the character string can be specified based on these components.
[0116]
For example, if the tense interpreter 104b interprets a character string “I used to have fun playing soccer”, refer to FIG. ), And it is determined from the characters “has been” that it corresponds to the completed phase A2 (determination (2); continuity in the past). The tense interpreter 104b that has made these determinations outputs the determined tense (determination (1), determination (2)) to the AI inference unit 104f as a tense signal.
[0117]
  And the tense interpreter 104b and emotionJudgmentThe AI inference unit 104f, to which the tense signal and the emotion information signal are input from the unit 104e, respectively, “determined tense” corresponding to the input tense signal and “emotion emotion” corresponding to the input emotion information signal. Based on the “degree” and “keyword”, the user's feelings are inferred.
[0118]
  For example, when the AI inference unit 104f infers the user's emotion from the character string “I used to play soccer happily in the past,” the tense interpreter 104b, the classification unit 104c, and the emphasis worddetectionAs a result of interpreting the element of the character string in the section 104d, the “determined tense” is the above-mentioned determination [1] (conclusive M2-past T2; something has been done in the past), determination [2] (complete phase A2; something was continued), “Emotional degree” was P1 (has been doing happily), and “Keyword” was soccer. It is inferred that there is a time when soccer (keyword) has been continued (determination [2]) in the past (determination [1]), and the user is interested in soccer.
[0119]
The AI reasoning unit 104f that made this inference infers that the user is interested in soccer in the past, and therefore, questions related to soccer are derived and the contents of the questions are deepened by successively asking the derived questions. For example, questions related to soccer include favorite soccer teams, favorite players, and the like.
[0120]
The AI inference unit 104f, which has made various questions to the user, accumulates the content of the response received from the user in the emotion information database 106 for each of “determined tense”, “degree of emotion”, and “keyword”. To do.
[0121]
Next, when the keyword detection unit 104h has a predetermined number or more of keywords associated with emotion information, the keyword detection unit 104h outputs a search command signal for searching for information corresponding to the keyword to the search execution unit 104g. This is performed (S206). The keyword detection unit 104h may output a search command signal to the search execution unit 104g when the number of keywords associated with emotion information having a high emotion level becomes equal to or greater than a predetermined number.
[0122]
Specifically, the keyword detection unit 104h selects values (P1, P2, N1, N2) indicating “degree of emotion” from the “emotion history table” (see FIG. 7) accumulated in the emotion information database 106. ) And the keyword associated with the value.
[0123]
The keyword detection unit 104h that has acquired a value with a high “degree of emotion” and a keyword associated with the value, when the number of keywords corresponding to the acquired “degree of emotion” exceeds a predetermined number, A search command signal for searching for information (for example, a book) related to the keyword is output to the search execution unit 104g.
[0124]
For example, when the keyword detection unit 104h has 10 or more keywords corresponding to P1 or P2 in the acquired “degree of emotion”, the keyword detection unit 104h searches for information related to the keywords. Is output to the search execution unit 104g.
[0125]
Further, the keyword detection unit 104h sends a search command signal to the search execution unit 104g when the number of keywords associated with emotion information including the time when the high emotion level occurs and the high emotion level exceeds a predetermined number. It can also be output.
[0126]
Specifically, the keyword detection unit 104h selects, from the “temporal history table” stored in the emotion information database 106, a value indicating “degree of emotion” for each tense, and a keyword associated with the value. To get.
[0127]
That is, the keyword detection unit 104h that has acquired the value indicating the “degree of emotion” for each tense and the keyword associated with the value, determines the certain tense among the “degrees of emotion” stored for each tense. When the corresponding keyword becomes a predetermined numerical value or more, a search command signal for searching for information related to the keyword is output to the search execution unit 104g.
[0128]
For example, when the keyword detection unit 104h stores five or more keywords corresponding to P1 or P2 in the past in the stored “degree of emotion”, the keyword detection unit 104h searches for information related to those keywords. The search command signal is output to the search execution unit 104g.
[0129]
  The keyword detection unit 104h is provided in the emotion information database 20 in the information management center 200.3Based on the emotion information of the terminals 100a to 100e stored in the terminal, the keyword related to the emotion of the user who uses the terminals 100a to 100e is detected, and the information related to the detected keyword is searched. The search command signal can be output to the search execution unit 104g.
[0130]
Examples of keywords related to the emotions of the users who use the terminals 100a to 100e include keywords that are talked about in the age group ("World Cup" in the 20s, "If in the 50s"). Restructuring ”).
[0131]
Next, the search execution unit 104g searches for predetermined information (S207). Specifically, the search execution unit 104g to which the search command signal is input from the keyword detection unit 104h, based on the keyword corresponding to the input search command signal, transmits information related to the keyword to the communication unit 105 and the communication. The information database 204 is searched through the unit 201 and the information management unit 202, and the search result is output to the output unit.
[0132]
[Operation and Effect of Information Retrieval System and Information Retrieval Method]
According to the invention according to this embodiment, the inference engine 104 recognizes a character string input from the user, infers emotion information held by the user based on the recognized character string, and infers the inference Since the keyword associated with the emotion information is extracted and the information related to the extracted keyword is searched, the inference engine 104 acquires the keyword characterized by the emotion held by the user, and acquires the acquired keyword. By using keywords, it is possible to search for information that matches the user's request.
[0133]
In addition, the user inputs a specific character string to the inference engine 104 through the input unit 101 (for example, voice input, input from an operation unit), so that the inference engine 104 grasps the user's emotion. Because it automatically searches for keywords that are characterized by the emotions you grasp, you don't have to think about keywords to search for specific information one by one, and you can save time and effort to enter multiple keywords. .
[0134]
Further, since the inference engine 104 can infer emotion information based on a character string, an emotion level indicating the degree of emotion of the user included in the character string, or a time when the emotion level has occurred, Emotion can be grasped more accurately.
[0135]
Further, since the inference engine 104 can determine the emotion level based on the emphasized word included in the character string, the user can accurately grasp the degree of the user's emotion using, for example, the adverb or exclamation word that is the emphasized word. Can do.
[0136]
Further, since the keyword detection unit 104h searches for information related to the keyword through the search execution unit 104g when the number of keywords associated with the emotion information exceeds a predetermined number, the user can search through the keyword detection unit 104h. The search result corresponding to the predetermined keyword can be automatically acquired sequentially.
[0137]
Furthermore, when the keyword detection unit 104h has more than a predetermined number of keywords associated with emotion information with a high emotion level (for example, very interested in, etc.), the keyword detection unit 104h relates to the keyword through the search execution unit 104g. Since the information to be searched is searched, the user can acquire only search results that are of interest to the user, for example, through the keyword detection unit 104h.
[0138]
In addition, the keyword detection unit 104h is related to the keyword through the search execution unit 104g when the number of keywords associated with emotion information including the time when the high emotion level occurs and the high emotion level exceeds a predetermined number. Since the information to be searched is searched, the user can obtain only the search result of the information that has been interested in the past, for example, through the keyword detection unit 104h.
[0139]
Finally, if the user inputs character information to the AI inference unit 104f through the input unit 101 (for example, voice input, input from the operation means), the AI inference unit 104f infers the user's emotion, Since different questions are asked according to the reasoning, it is possible to feel like having a conversation with a human and to search for certain information more happily.
[0140]
【The invention's effect】
  As described above, according to the present invention, based on the character string input by the user, the user's emotion is grasped and the senseAffectionBy extracting a specific keyword to be expressed and performing a search based on the extracted keyword, it is possible to search for information that more matches the user's request.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an information search system according to an embodiment.
FIG. 2 is a block diagram showing an internal structure of the inference engine in the present embodiment.
FIG. 3 is a diagram showing the contents of an emotion classification table stored in a classification section in the present embodiment.
FIG. 4 is a diagram showing the contents of an emphasized word table stored in an emphasized word detection unit in the present embodiment.
FIG. 5 is a diagram showing the contents of an emotion level table stored in an emotion determination unit in the present embodiment.
FIG. 6 is a diagram showing the contents of a tense table stored in a tense interpreter in the present embodiment.
FIG. 7 is a diagram showing the contents of a tense history table accumulated in an emotion information database in the present embodiment.
FIG. 8 is a flowchart showing a procedure of an information search method according to the present embodiment.
FIG. 9 is a flowchart showing a procedure processed in the inference engine in the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100a-100e ... Terminal, 101 ... Input part, 102 ... Speech recognition part, 103 ... Speech recognition dictionary memory | storage part, 104 ... Inference engine, 104a ... Phrase recognition part, 104b ... Temporal interpretation part, 104c ... Classification part, 104d ... Emphasis Word detection unit, 104e ... emotion determination unit, 104f ... AI inference unit, 104g ... search execution unit, 104h ... keyword detection unit, 105 ... communication unit, 106 ... emotion information database, 107 ... output unit, 200 ... information management center, 201 ... Communication unit 202 ... Information management unit 203 ... Emotion information database 204 ... Information database 300 ... Communication network

Claims (11)

キーワードに対応する情報を蓄積してある情報管理センターと、この情報管理センターと通信ネットワークを介して接続された端末とを備え、前記端末が利用者の要求する所定の情報を情報管理センターから検索する情報検索システムであって、
前記端末は、
利用者から入力された文字列を認識する文字認識手段と、
前記文字認識手段で認識された文字列に含まれる感情に関するフレーズから感情の度合いを示す感情度を判定し、前記感情の対象となっているキーワードを抽出し、前記感情度及び前記キーワードに基づいて利用者が抱く感情に関係する感情情報を推論し、推論した該感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索する推論検索手段と、
前記キーワードに基づいて利用者への質問文を作成し、出力する質問文作成手段とを備えていることを特徴とする情報検索システム。
An information management center storing information corresponding to the keyword and a terminal connected to the information management center via a communication network, and the terminal searches the information management center for predetermined information requested by the user. An information retrieval system that performs
The terminal
A character recognition means for recognizing a character string input by a user;
The emotion level indicating the level of emotion is determined from the phrase related to the emotion included in the character string recognized by the character recognition means, the keyword that is the target of the emotion is extracted, and based on the emotion level and the keyword Inference search means for inferring emotion information related to an emotion held by a user, extracting a keyword associated with the inferred emotion information, and searching for information related to the extracted keyword;
An information retrieval system comprising: a question sentence creating means for creating and outputting a question sentence to a user based on the keyword .
請求項1に記載の情報検索システムであって
、前記推論検索手段は、前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索することを特徴とする情報検索システム。
The information search system according to claim 1,
The inference search means searches for information related to the keyword when the number of keywords associated with the emotion information exceeds a predetermined number .
請求項1に記載の情報検索システムであって、
前記推論検索手段は、前記感情度の高い前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索することを特徴とする情報検索システム。
The information search system according to claim 1,
The inference search means searches for information related to the keyword when the number of keywords associated with the emotion information having a high emotion level exceeds a predetermined number .
請求項1乃至請求項3のいずれかに記載の情報検索システムであって、
前記感情度は、文字列に含まれる強調語に基づいて定めることを特徴とする情報検索システム。
An information search system according to any one of claims 1 to 3,
The information retrieval system , wherein the emotion level is determined based on an emphasized word included in a character string .
請求項1乃至請求項4のいずれか一項に記載の情報検索システムであって、
前記推論検索手段は、入力された文体信号に対応する文字列に基づいて、その文字列に対応する事象がどの時制に該当するかを解釈する時制解釈部を備えることを特徴とする情報検索システム。
An information search system according to any one of claims 1 to 4,
The inference search means includes a tense interpreter for interpreting which tense the event corresponding to the character string corresponds to based on the character string corresponding to the input style signal . .
請求項5記載の情報検索システムであって、
前記時制解釈部は、既にある事象が完了していることを示す完成相と、利用者の発話時においてもある事象が継続していることを示す継続相とから構成されるアスペクトと、非過去時制、過去時制とから構成されるテンスと、叙述法と、実行法とから構成される時制テーブルを用いて、文字列に対応する時制を解釈することを特徴とする情報検索システム。
The information search system according to claim 5,
The tense interpreter includes an aspect composed of a completion phase indicating that an event has already been completed, and an continuation phase indicating that an event continues even when the user utters, and a non-past An information retrieval system that interprets a tense corresponding to a character string by using a tense table composed of tense composed of tense and past tense, a description method, and an execution method .
請求項1に記載の情報検索システムであって、
前記推論検索手段は、文脈を解読するための文脈辞書と、言語の類似関係を調べるための類似関係辞書と、日本語文節解析に関する辞書と、日本語の形態素解析に関わる辞書とを有し、これらの辞書を基に利用者が発話した日本語の意味内容を解読し、解読した意味内容から利用者が抱く感情を推論し、前記質問文作成手段が利用者に質問するのに適した文を作成することを特徴とする情報検索システム。
The information search system according to claim 1,
The inference search means includes a context dictionary for deciphering a context, a similarity dictionary for examining language similarity, a dictionary for Japanese phrase analysis, and a dictionary for Japanese morphological analysis, Sentences that are appropriate for the user to decipher the meaning of the Japanese spoken based on these dictionaries, infer the user's feelings from the decoded meanings, and for the question sentence creation means to ask the user questions An information retrieval system characterized by creating .
請求項7に記載の情報検索システムであって、
前記推論検索手段は、解読した日本語の意味内容が曖昧な表現であると判断した場合、AI推論部がファジー機能を用いて、判断された時制、感情の度合い、キーワードを含めて利用者の感情を判断することを特徴とする情報検索システム。
The information search system according to claim 7,
When the inference search means determines that the interpreted meaning of the Japanese is an ambiguous expression, the AI inference unit uses the fuzzy function to determine the user's An information retrieval system characterized by judging emotions .
キーワードに対応する情報を蓄積してある情報管理センターと、この情報管理センターと通信ネットワークを介して接続された端末とを備え、前記端末が利用者の要求する所定の情報を情報管理センターから検索する情報検索方法であって、
前記端末の文字認識手段が利用者から入力された文字列を認識するステップと、前記端末の推論検索手段が、前記文字認識手段で認識された文字列に含まれる感情に関するフレーズから感情の度合いを示す感情度を判定し、前記感情の対象となっているキーワードを抽出し、前記感情度及び前記キーワードに基づいて利用者が抱く感情に関係する感情情報を推論し、推論した該感情情報に関連付けられたキーワードを抽出して、抽出した該キーワードに関係する情報を検索するステップと、を有することを特徴とする情報検索方法。
An information management center storing information corresponding to the keyword and a terminal connected to the information management center via a communication network, and the terminal searches the information management center for predetermined information requested by the user. An information retrieval method for
A step of recognizing a character string input from a user by the character recognition means of the terminal, and an inference search means of the terminal calculates a degree of emotion from a phrase related to emotion included in the character string recognized by the character recognition means. The emotion level to be shown is determined, the keyword that is the target of the emotion is extracted, the emotion information related to the emotion that the user has based on the emotion level and the keyword is inferred, and the inferred emotion information is associated with the inferred emotion information Extracting the extracted keyword and searching for information related to the extracted keyword .
請求項9に記載の情報検索方法であって、
前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索するステップを有することを特徴とする情報検索方法。
The information search method according to claim 9,
An information search method comprising a step of searching for information related to the keyword when the number of keywords associated with the emotion information exceeds a predetermined number .
請求項10に記載の情報検索方法であって、
前記推論検索手段は、前記感情度の高い前記感情情報に関連付けられた前記キーワードが所定の数以上になった場合に、前記キーワードに関係する情報を検索するステップを有することを特徴とする情報検索方法。
The information search method according to claim 10,
The inference search means includes a step of searching for information related to the keyword when the number of keywords associated with the emotion information having a high emotion level exceeds a predetermined number . Method.
JP2001372912A 2001-12-06 2001-12-06 Information search system and information search method Expired - Lifetime JP4451037B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001372912A JP4451037B2 (en) 2001-12-06 2001-12-06 Information search system and information search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001372912A JP4451037B2 (en) 2001-12-06 2001-12-06 Information search system and information search method

Publications (2)

Publication Number Publication Date
JP2003173349A JP2003173349A (en) 2003-06-20
JP4451037B2 true JP4451037B2 (en) 2010-04-14

Family

ID=19181719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001372912A Expired - Lifetime JP4451037B2 (en) 2001-12-06 2001-12-06 Information search system and information search method

Country Status (1)

Country Link
JP (1) JP4451037B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5475231B2 (en) * 2004-07-26 2014-04-16 コーニンクレッカ フィリップス エヌ ヴェ System and method for exchanging patient data with a decision support system for feasible guidelines
US8577685B2 (en) * 2008-10-24 2013-11-05 At&T Intellectual Property I, L.P. System and method for targeted advertising
JP5610197B2 (en) * 2010-05-25 2014-10-22 ソニー株式会社 SEARCH DEVICE, SEARCH METHOD, AND PROGRAM
US11595331B2 (en) 2016-01-28 2023-02-28 Sony Group Corporation Communication system and communication control method
WO2017130497A1 (en) 2016-01-28 2017-08-03 ソニー株式会社 Communication system and communication control method
JP6781961B2 (en) * 2016-09-29 2020-11-11 株式会社村田製作所 Transmission device, transmission method and transmission program
JP6443817B1 (en) * 2017-07-31 2018-12-26 和宏 増田 Information processing apparatus, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109765A (en) * 1999-10-08 2001-04-20 Mega Chips Corp System for supplying optimum contents
JP2001249945A (en) * 2000-03-07 2001-09-14 Nec Corp Feeling generation method and feeling generator

Also Published As

Publication number Publication date
JP2003173349A (en) 2003-06-20

Similar Documents

Publication Publication Date Title
CN107832286A (en) Intelligent interactive method, equipment and storage medium
CN107818781A (en) Intelligent interactive method, equipment and storage medium
CN107609101A (en) Intelligent interactive method, equipment and storage medium
CN107797984A (en) Intelligent interactive method, equipment and storage medium
CN108538294B (en) Voice interaction method and device
WO2003085550A1 (en) Conversation control system and conversation control method
JP4451037B2 (en) Information search system and information search method
JP4451038B2 (en) Advice system and advice method
JP3997105B2 (en) Conversation control system, conversation control device
JP3857923B2 (en) CHARACTER SELECTION SYSTEM, CHARACTER SELECTION DEVICE, CHARACTER SELECTION METHOD, PROGRAM, AND RECORDING MEDIUM
JP4279883B2 (en) Conversation control system, conversation control method, program, and recording medium recording program
CN110858234A (en) Method and device for pushing information according to human emotion
JP2003186897A (en) Information access system and information access method
JP3848154B2 (en) Compatibility diagnosis system and compatibility diagnosis method
JP2004258902A (en) Conversation controller, and conversation control method
JP4129356B2 (en) Broadcast information providing system, broadcast information providing method, broadcast information providing apparatus, and broadcast information providing program
JP4110012B2 (en) Conversation control device and conversation control method
JP4110011B2 (en) Conversation control device and conversation control method
JP4913850B2 (en) Information processing system and information processing method
JP4205370B2 (en) Conversation control system, conversation control method and program
JP4038399B2 (en) Face image display device, face image display method and program
JP4434553B2 (en) Information processing system, information processing apparatus, information processing method, program, and recording medium recording the program
JP3927067B2 (en) Conversation control system, conversation control device, conversation control method, program, and recording medium recording program
JP3947421B2 (en) Conversation control system, conversation control method, program, and recording medium recording program
CN114329043A (en) Audio essence fragment determination method, electronic equipment and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060807

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060830

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20061006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100127

R150 Certificate of patent or registration of utility model

Ref document number: 4451037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term