JP5446540B2 - 情報検索装置、制御方法及びプログラム - Google Patents

情報検索装置、制御方法及びプログラム Download PDF

Info

Publication number
JP5446540B2
JP5446540B2 JP2009172636A JP2009172636A JP5446540B2 JP 5446540 B2 JP5446540 B2 JP 5446540B2 JP 2009172636 A JP2009172636 A JP 2009172636A JP 2009172636 A JP2009172636 A JP 2009172636A JP 5446540 B2 JP5446540 B2 JP 5446540B2
Authority
JP
Japan
Prior art keywords
information
user
recognized
facility
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009172636A
Other languages
English (en)
Other versions
JP2011028460A (ja
Inventor
真巳 中村
博之 三春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2009172636A priority Critical patent/JP5446540B2/ja
Publication of JP2011028460A publication Critical patent/JP2011028460A/ja
Application granted granted Critical
Publication of JP5446540B2 publication Critical patent/JP5446540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報検索装置、制御方法及びプログラムに関する。
現在、快適なドライブを楽しむ装置として、車載用のナビゲーション装置が普及している。ナビゲーション装置には、ユーザが所望する目的地を検索する機能が搭載されている。
ここで、図8を参照して、従来のナビゲーション装置においてユーザが所望する目的地を検索する技術について説明する。図8は、従来のナビゲーション装置100の機能を示した図である。
ユーザインターフェース101は、ユーザとのインターフェース機能(情報を入力するための操作部、情報を表示するための表示部)を有する。検索エンジン102は、ユーザインターフェース101により入力された目的地を検索するためのソフトウエアである。施設データベース103は、施設情報(施設名称、施設の所在位置情報等)を格納するデータベースである。
例えば、ユーザインターフェース101を介してユーザにより目的地として施設名称が入力され、入力された施設名称の検索の実行指示が行なわれたとする(以下、施設名称を入力し、検索の実行指示を行うことを「検索をかける作業」と記す)。そうすると、検索エンジン102により、入力された施設名称に一致する施設情報が施設データベース103から検索される。そして、検索エンジン102により検索された施設情報がユーザインターフェース101に表示される。これにより、ユーザは、施設情報を得る(参照する)ことができる。
また、ユーザの表情を検知する技術として、表情特定が可能な正面画像が得られるように撮影角度に関する注意事項を表示した上で座席に着席したユーザを撮影する技術も知られている(例えば、特許文献1、2参照)。また、ユーザの発話した音声を認識し、ユーザから所定の発話がなされたことが認識された場合に、特定された施設に関する情報(施設情報)を検索する技術も知られている(例えば、特許文献3参照)。
特開2008−17227号公報 特開2007−269268号公報 特開2006−145330号公報
しかしながら、上述の図9で説明した技術では、ユーザの所望する情報(施設情報)の検索を迅速に行うことができなかった。
例えば、ユーザにより、ユーザインターフェース101を介して施設名称「トイレ」で検索をかける作業が行われたとする。このとき、「トイレ」の文字が単体で施設データベース103に登録されていない場合も考えられる。この場合、「トイレ」の施設情報(最寄の「トイレ」の所在位置情報等)が表示部に表示されるまでに時間を要する時がある。そうすると、ユーザは施設情報を得るために、「トイレ」とは別の条件で検索をかける作業を行う必要があった。例えば、施設情報が得られない場合、ユーザは自分で想像できる「トイレ」のある施設(例えば、「デパート」「道の駅」「コンビニ」等)を1つずつ選択入力し、検索の実行指示を再度行う必要があった。すなわち、施設情報が得られない場合、ユーザは、検索をかける作業を複数回行う必要があり、手間を要していた。
このため、ユーザの手間を要することなく、ユーザの所望する情報の検索を迅速に行うことのできる技術を実現する要請があった。
本発明の課題は、ユーザの手間を要することなく、ユーザの所望する情報の検索を迅速に行うことである。
請求項1に記載の発明の情報検索装置は、
コンテンツ情報及び関連語を記憶する記憶部と、
ユーザからの入力音声に基づいて音声情報を認識すると共に、ユーザの表情を認識し、認識された音声情報に含まれる検索対象用語との関連が推定されると共に、当該認識された表情と対応する前記検索対象用語に基づいて、前記関連語を前記記憶部から読み出し、当該読み出された前記関連語に基づいて、前記関連語のカテゴリーと一致するコンテンツ情報を前記記憶部から検索する制御部と、
を備える。
請求項2に記載の発明は、請求項1に記載の情報検索装置において、
表示部を備え、
前記制御部は、
前記検索されたコンテンツ情報を前記表示部に表示する。
請求項3に記載の発明の制御方法は、
ユーザからの入力音声に基づいて音声情報を認識すると共に、ユーザの表情を認識し、認識された音声情報に含まれる検索対象用語との関連が推定されると共に、当該認識された表情と対応する前記検索対象用語に基づく関連語に基づいて、当該関連語のカテゴリーと一致するコンテンツ情報を記憶部から検索する制御工程を含む。
請求項4に記載の発明のプログラムは、
コンピュータを、
コンテンツ情報及び関連語を記憶する記憶部、
ユーザからの入力音声に基づいて音声情報を認識すると共に、ユーザの表情を認識し、認識された音声情報に含まれる検索対象用語との関連が推定されると共に、当該認識された表情と対応する前記検索対象用語に基づいて、前記関連語を前記記憶部から読み出し、当該読み出された前記関連語に基づいて、前記関連語のカテゴリーと一致するコンテンツ情報を前記記憶部から検索する制御部、
として機能させる。
本発明によれば、ユーザの手間を要することなく、ユーザの所望する情報の検索を迅速に行うことができる。
第1の実施の形態に係るナビゲーション装置の機能を示す図である。 第1の実施の形態に係るナビゲーション装置のハードウエア構成を示す図である。 第1の実施の形態に係る曖昧用語データベースを示す図である。 第1の検索処理の流れを示すフローチャートである。 第2の実施の形態に係るナビゲーション装置の機能を示す図である。 第2の実施の形態に係るナビゲーション装置のハードウエア構成を示す図である。 第2の検索処理の流れを示すフローチャートである。 従来のナビゲーション装置の機能を示す図である。
以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。
(第1の実施の形態)
図1〜図4を参照して本発明に係る第1の実施の形態を説明する。先ず、図1を参照して、情報検索装置としての車載用のナビゲーション装置1の機能について説明する。
図1に示すナビゲーション装置1は、ハードウエアとソフトウエアとを機能的に示した図である。図1に示すナビゲーション装置1は、ユーザインターフェース2と、マイク3と、音声認識エンジン4と、検索エンジン5と、曖昧用語データベース6と、施設データベース7と、を備えて構成される。図1において、ハードウエアは、ユーザインターフェース2、マイク3、曖昧用語データベース6及び施設データベース7に該当し、ソフトウエアは、音声認識エンジン4及び検索エンジン5に該当する。
ユーザインターフェース2は、ユーザとのインターフェース機能を有する。具体的には、ユーザインターフェース2は、ユーザからの操作入力を受け付けるための操作部、ユーザに情報を表示するための表示部としての機能を有する。
マイク3は、ユーザが発話した音声(ユーザからの入力音声)を集音する。音声認識エンジン4は、マイク3により集音された入力音声に基づいて、音声情報の認識処理を実行する。具体的には、音声認識エンジン4は、入力音声に含まれている単語と、入力音声の音声レベルとの認識処理を実行する。なお、音声認識エンジン4において実行される単語と音声レベルとの認識処理の技術については公知技術が適用される。
検索エンジン5は、音声認識エンジン4により音声認識された単語に基づいて、当該単語のカテゴリーと一致するカテゴリー情報を有する施設情報を施設データベース7から検索する。例えば、「トイレ」という単語が音声認識された場合、検索エンジン5は、「トイレ」のカテゴリー情報を有する施設情報を施設データベース7から検索する。
また、検索エンジン5は、ユーザにより入力された音声レベルが閾値以上である場合に、音声認識された単語に関連すると推定される関連語を曖昧用語データベース6から読み出す。そして、検索エンジン5は、読み出された関連語のカテゴリーと一致するカテゴリー情報を有する施設情報を施設データベース7から検索する。例えば、単語「トイレ」と関連語「コンビニ」とが関連付けられて曖昧用語データベース6に記憶されていたとする。この場合、検索エンジン5は、関連語「コンビニ」を曖昧用語データベース6から読み出し、関連語「コンビニ」のカテゴリーと一致するカテゴリー情報を有する施設情報を施設データベース7から検索する。
曖昧用語データベース6は、単語と、当該単語と関連する関連語とを格納するデータベースである。曖昧用語データベース6の詳細については後述する。
施設データベース7は、施設情報を格納するデータベースである。施設情報は、各種施設の種別情報(カテゴリー情報)、施設名称、所在位置情報、施設アイコン情報(施設の地図上の座標情報、アイコン画像情報を含む)からなる。例えば、施設データベース7は、施設情報として、カテゴリー情報「コンビニ」、施設名称「○○コンビニエンスストア」、所在位置情報「○○コンビニエンスストアの所在位置情報」、施設アイコン情報(「○○コンビニエンスストアの地図上の座標情報」、「○○コンビニエンスストアのアイコン画像情報」)等を格納する。
次に、図2を参照して、ナビゲーション装置1のハードウエア構成について説明する。図2に示すように、ナビゲーション装置1は、制御部11と、ユーザインターフェース2と、マイク3と、ROM(Read Only Memory)12と、記憶部13と、を備えて構成される。なお、図1と同様な部分には同一の符号を付し、その詳細な説明を援用し、異なる部分について以下説明する。
制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成され、ナビゲーション装置1の各部を中央制御する。制御部11は、ROM12に記憶されている制御プログラムの中から指定されたプログラムをRAMに展開し、RAMに展開されたプログラムとの協働で、各種処理を実行する。
また、制御部11は、後述する第1の検索プログラムとの協働により、ユーザからの入力音声に基づいて音声情報(音声レベル、単語を含む情報)を認識する。そして、制御部11は、音声レベルが予め定められた閾値以上である場合に、認識された検索対称用語(単語)との関連が推定される関連語を記憶部13に記憶されている曖昧用語データベース6から読み出す。そして、制御部11は、読み出された関連語のカテゴリーと一致するコンテンツ情報(施設情報)を記憶部13に記憶された施設データベース7から検索し、当該検索された施設情報を表示部2Bに表示する。
ユーザインターフェース2は、操作部2Aと、表示部2Bとを備える。操作部2Aは、方向を指示するための矢印キー、この矢印キーの中央部に配置されたセットキー、数字キー、その他ナビゲーション利用等の各種機能に対応付けられた各種キーを備え、操作されたキーに対する操作信号を制御部11に出力する。また、操作部2Aは、表示部2Bの画面を覆うように設けられたタッチパネルを備え、電磁誘導式、磁気歪式、感圧式等の座標読み取り原理でタッチ指示された座標を検出し、検出した座標を位置信号として制御部11に出力する。
表示部2Bは、カラー液晶ディスプレイ等により構成され、制御部11からの指示に従って表示画面上に地図画面やアイコン、案内図等のナビゲーション用の表示情報を表示する。
ROM12は、制御部11により実行される制御プログラム(ソフトウエア)、当該制御プログラムの実行に必要なパラメータやデータ等を記憶する。具体的には、ROM12は、音声認識エンジン4及び検索エンジン5の各ソフトウエアを記憶する。また、ROM22は、後述する第1の検索プログラム(図示省略)を記憶する。
なお、本実施の形態では、ROM12に音声認識エンジン4及び検索エンジン5が記憶されることとして説明するが、記憶部13に音声認識エンジン4及び検索エンジン5が記憶されることとしてもよい。
記憶部13は、HDD(Hard Disk Drive)等により構成され、各種データを記憶する。具体的には、記憶部13は、曖昧用語データベース6、施設データベース7を記憶する。
次に、図3を参照して、曖昧用語データベース6について説明する。図3に示すように、曖昧用語データベース6は、単語と、関連語とが関連付けられて記憶されたデータベースである。単語は、ユーザからの入力音声に含まれる単語を示す。関連語は、単語との関連が推定される施設の名称を示す。例えば、単語「トイレ」の関連語として、「トイレ」との関連が推定される(「トイレ」の施設を有すると推定される)「コンビニ」「ファミレス」「道の駅」「デパート」「ガソリンスタンド」等が記憶される。また、単語「休憩」の関連語として、「休憩」との関連が推定される(「休憩」をするための施設を有すると推定される)「駐車場のある公園」「サービスエリア」「道の駅」「コインパーキング」が記憶される。また、単語「お土産」の関連語として、(「お土産」を提供するための施設を有すると推定される)「駅ロータリー」「道の駅」「サービスエリア」「市場」が記憶される。また、単語「食事」と関連する関連語として、「食事」との関連が推定される(「食事」をするための施設を有すると推定される)「定食屋」「ファーストフード」「ファミレス」「デパート」「コンビニ」が記憶される。
次に、図4を参照して、ナビゲーション装置1で実行される第1の検索処理について説明する。第1の検索処理は、ユーザにより入力された音声レベルが閾値以上である場合、音声認識された単語と関連する関連語を曖昧用語データベース6から読み出し、当該読み出された関連語のカテゴリーと一致する施設情報を施設データベース7から検索する処理である。
例えば、ナビゲーション装置1において、操作部2Aを介して第1の検索処理の実行指示が入力されたことをトリガとして、ROM12から読み出されて適宜RAMに展開された第1の検索プログラムと、CPUとの協働により第1の検索処理が実行される。
予め、音声レベルの閾値が設定されており、設定された閾値が記憶部13に記憶されているものとする。
先ず、マイク3を介して集音された音声の音声認識が実行される(ステップS11)。例えば、ユーザにより「トイレ」と発話された場合、マイク3により「トイレ」が集音される。そして、集音された「トイレ」の単語認識と音声レベルの認識とが実行される。
ステップS11の実行後、音声認識された単語のカテゴリーと一致する施設情報の検索が実行される(ステップS12)。例えば、「トイレ」が認識された場合、「トイレ」と一致するカテゴリー情報を有する施設情報(例えば、「トイレ」のカテゴリー情報を有し、施設名称が「○○トイレ」等である施設情報)が施設データベース7から検索される。また、このとき、車両の現在位置から所定距離範囲内に存在する施設情報の検索が実行される。所定距離は、ユーザにより設定される値であってもよいし、予め定められたデフォルト値であってもよい。
ステップS12の実行後、集音された音声の音声レベルが閾値以上であるか否かが判別される(ステップS13)。具体的には、記憶部13に記憶されている音声レベルの閾値が読み出され、当該読み出された閾値と、認識された音声レベルとが比較され、本ステップの判別が実行される。
ステップS13において、音声レベルが閾値以上でないと判別された場合(ステップS13;NO)、後述するステップS15に移行される。ステップS13において、音声レベルが閾値以上であると判別された場合(ステップS13;YES)、関連語のカテゴリーと一致する施設情報の検索が実行される(ステップS14)。例えば、「トイレ」と認識された場合、「トイレ」の関連語である「コンビニ」「ファミレス」「道の駅」「デパート」「ガソリンスタンド」が曖昧用語データベース6から読み出される。そして、読み出された関連語とカテゴリーが一致するカテゴリー情報を有する施設情報(例えば、「コンビニ」のカテゴリー情報を有し、施設名称が「○○コンビニエンスストア」等である施設情報)が施設データベース7から検索される。また、このとき、ステップS12と同様に、車両の現在位置から所定距離範囲内に存在する施設情報の検索が実行される。
ステップS14の実行後、検索された施設情報が表示部2Bに表示される(ステップS15)。例えば、ステップS13;NOを経由して本ステップに至った場合は、ステップS12で検索された施設情報が表示される。この場合において、例えば、施設データベース7に「トイレ」の単語が登録されておらず、ステップS12における施設情報の検索が失敗に終わった場合は、検索に失敗した旨が表示される。
また、ステップS13;YESを経由して本ステップに至った場合は、ステップS12で検索された施設情報とともに、ステップS14で検索された施設情報が表示される。この場合において、例えば、施設データベース7に「トイレ」の単語が登録されておらず、ステップS12における施設情報の検索が失敗に終わった場合は、ステップS14で検索された施設情報が表示される。この場合、例えば、「○○コンビニエンスストア」の地図上の座標情報、アイコン画像情報等が表示部2Bの表示画面上の地図画面に表示される。ステップS15の実行後、第1の検索処理は終了される。
なお、上記実施の形態では、一例として「トイレ」が音声認識された場合について説明したが、「トイレ」以外の単語(「休憩」、「お土産」、「食事」)が音声認識された場合は、それぞれの単語の関連語に基づいて施設情報の検索が実行される。
以上、本実施の形態によれば、例えば、ユーザが「トイレ」を施設データベース7から検索したいときに、施設データベース7に「トイレ」が登録されていない場合であっても、ユーザが大きい声で「トイレ」と発話すれば、「トイレ」に関連する関連語(例えば、「コンビニ」等)が曖昧用語データベース6から読み出され、当該読み出された関連語のカテゴリーと一致する施設情報の検索が自動的に行われる。このため、トイレ施設を有するコンビニの施設情報(例えば、施設名称が「○○コンビニエンスストア」の施設情報等)の検索が自動的に行われるので、ユーザは、検索をかける作業を複数回行う必要がなくなる。したがって、ユーザの手間を要することなく、ユーザの所望する情報の検索を迅速に行うことができる。
また、例えば、ユーザが所望の情報として「トイレ」の検索を行う場合、トイレに行きたいが行けないといった我慢を強いられる必要がない。
また、ユーザが運転中に検索をかける作業を複数回行う必要がなくなるので、検索をかける作業に気を取られて事故を起こしてしまうことを防ぐことができ、安全性を確保することができる。
また、施設情報として、例えば「○○コンビニエンスストア」の地図上の座標情報、アイコン画像情報等が表示部2Bに表示されるので、ユーザは、検索された施設情報を参照することができる。
(第2の実施の形態)
図5〜図8を参照して本発明に係る第2の実施の形態を説明する。なお、第1の実施の形態と同様な部分には同一の符号を付し、その詳細な説明を援用し、異なる部分について以下説明する。
図5に示すナビゲーション装置1Aは、ハードウエアとソフトウエアとを機能的に示した図である。図5に示すナビゲーション装置1Aは、ユーザインターフェース2と、マイク3と、音声認識エンジン4と、検索エンジン5と、曖昧用語データベース6と、施設データベース7と、カメラ8と、画像認識エンジン9と、を備えて構成される。図5において、ハードウエアは、ユーザインターフェース2、マイク3、曖昧用語データベース6、施設データベース7及びカメラ8に該当し、ソフトウエアは、音声認識エンジン4、検索エンジン5及び画像認識エンジン9に該当する。
カメラ8は、CCD(撮像素子)及びA/D変換部等を備えて構成され、CCDにより光電変換した電気信号をA/D変換することで撮影画像を生成する。
画像認識エンジン9は、カメラ8により生成された撮像画像の中から人(ユーザ)の表情を認識する処理を行う。画像認識エンジン9においてユーザの表情を認識する技術については、公知の技術が適用される。
次に、図6を参照して、ナビゲーション装置1Aのハードウエア構成について説明する。図6に示すように、ナビゲーション装置1Aは、制御部21と、ユーザインターフェース2と、カメラ8と、ROM22と、記憶部23と、を備えて構成される。なお、図5と同様な部分には同一の符号を付し、その詳細な説明を援用し、異なる部分について以下説明する。
制御部21は、後述する第2の検索プログラムとの協働により、ユーザからの入力音声に基づいて単語を認識する。また、制御部21は、カメラ8により撮影されたユーザの表情を認識する。そして、制御部21は、認識された表情と対応する単語に基づいて、関連語を記憶部23に記憶された曖昧用語データベース6から読み出す。そして、制御部21は、読み出された関連語のカテゴリーと一致する施設情報を記憶部23に記憶された施設データベース7から検索し、当該検索された施設情報を表示部2Bに表示する。
ROM22は、音声認識エンジン4、検索エンジン5及び画像認識エンジン9の各ソフトウエアを記憶する。また、ROM22は、後述する第2の検索プログラム(図示省略)を記憶する。
次に、図7を参照して、ナビゲーション装置1Aで実行される第2の検索処理について説明する。第2の検索処理は、ユーザからの入力音声に基づいて単語を認識した後、ユーザの表情を認識し、認識された表情と対応する単語に基づいて、関連語を曖昧用語データベース6から読み出し、当該読み出された関連語とカテゴリーが一致する施設情報を施設データベース7から検索する処理である。
例えば、ナビゲーション装置1Aにおいて、操作部2Aを介して第2の検索処理の実行指示が入力されたことをトリガとして、ROM12から読み出されて適宜RAMに展開された第2の検索プログラムと、CPUとの協働により第2の検索処理が実行される。
先ず、マイク3を介して集音された音声の音声認識が実行される(ステップS21)。そして、音声認識された単語のカテゴリーと一致する施設情報の検索が実行される(ステップS22)。
ステップS22の実行後、カメラ8によりユーザの表情が撮影され、撮影された表情の画像認識が実行される(ステップS23)。例えば、眉間にしわを寄せた表情や眉毛が片方だけ上がるといった表情が撮像されると、撮像された画像(表情)は「怒った表情」として認識される。なお、本実施の形態では、「怒った表情」の判別に基づいて処理が実行されるものとして説明するが、例えば、「困った表情」の判別に基づいて処理が実行されることとしてもよい。
ステップS23の実行後、画像認識された表情に基づいて、表情は怒った表情であるか否かが判別される(ステップS24)。ステップS24において、怒った表情でないと判別された場合(ステップS24;NO)、ステップS26に移行される。ステップS24において、怒った表情であると判別された場合(ステップS24;YES)、関連語のカテゴリーと一致する施設情報の検索が実行される(ステップS25)。例えば、「トイレ」と「怒った表情」とは対応付けられていることを示す情報が予め記憶部23に記憶されているとする。この場合、ステップS21において「トイレ」が音声認識され、ステップS24において「怒った表情」が画像認識されると、「トイレ」と「怒った表情」とは対応付けられていることが記憶部23を参照することにより確認される。そして、当該確認後に、音声認識された「トイレ」の関連語である「コンビニ」「ファミレス」「道の駅」「デパート」「ガソリンスタンド」が曖昧用語データベース6から読み出される。そして、読み出された関連語とカテゴリーが一致するカテゴリー情報を有する施設情報が施設データベース7から検索される。
ステップS25の実行後、検索された施設情報が表示部2Bに表示される(ステップS26)。ステップS26の実行後、第2の検索処理は終了される。
以上、本実施の形態によれば、例えば、ユーザが「トイレ」を施設データベース7から検索したいときに、施設データベース7に「トイレ」が登録されていない場合であっても、認識された表情(例えば、「怒った表情」)と単語(例えば、「トイレ」)とが対応付けられていれば、単語「トイレ」に基づいて、「トイレ」の関連語(例えば、「コンビニ」等)が曖昧用語データベース6から読み出され、当該読み出された関連語のカテゴリーと一致する施設情報の検索が自動的に行われる。このため、トイレ施設を有するコンビニの施設情報(例えば、施設名称が「○○コンビニエンスストア」の施設情報等)の検索が自動的に行われるので、ユーザは、検索をかける作業を複数回行う必要がなくなる。したがって、ユーザの手間を要することなく、ユーザの所望する情報の検索を迅速に行うことができる。
なお、上記実施の形態における記述は、本発明に係る情報検索装置、制御方法及びプログラムの一例であり、これに限定されるものではない。
例えば、上記実施の形態では、図3に示す関連語を曖昧用語データベース6に記憶し、施設情報を施設データベース7に記憶する構成としたがこれに限定されるものではない。例えば、検索対象用語を所定のアーティスト名称とし、当該所定のアーティスト名称との関連が推定される用語(所定のアーティスト名称と一文字違い、母音違い又は子音違いのアーティスト名称)を関連語として曖昧用語データベース6に記憶し、コンテンツ情報(楽曲情報)を楽曲データベース(図示省略)に記憶する構成としてもよい。この構成の場合において、例えば、ユーザにより閾値を超える大きな声で所定のアーティスト名称が発話されると、当該アーティスト名称と一文字違い、母音違い又は子音違いの関連語が曖昧用語データベース6から読み出される。そして、読み出された関連語のカテゴリーと一致する楽曲情報が楽曲データベースから検索される。これにより、ユーザは所望する楽曲情報の検索を迅速に行うことができる
また、上述の第1の検索処理、第2の検索処理の代わりに以下の処理を実行することとしてもよい。例えば、音声認識が実行された後、音声レベルが閾値以上であるかを確認し、音声レベルが閾値以上である場合に、ユーザがマイク3にしゃべった内容(音声認識された内容)に基づいて施設情報の検索を行うこととしてもよい。
また、画像認識が実行された後、ユーザインターフェース2を介して情報の入力の受け付けを行い、当該受け付けられた情報に基づいて施設情報の検索を行うこととしてもよい。
また、音声認識を実行した後に画像認識を実行し、画像認識後、音声認識された内容に基づいて施設情報の検索を行うこととしてよい。
その他、本実施の形態における、ナビゲーション装置1の細部構造及び詳細動作に関しても、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
1 ナビゲーション装置
2 ユーザインターフェース
2A 操作部
2B 表示部
3 マイク
4 音声認識エンジン
5 検索エンジン
6 曖昧用語データベース
7 施設データベース
8 カメラ
9 画像認識エンジン
11,21 制御部
12,22 ROM
13,23 記憶部

Claims (4)

  1. コンテンツ情報及び関連語を記憶する記憶部と、
    ユーザからの入力音声に基づいて音声情報を認識すると共に、ユーザの表情を認識し、認識された音声情報に含まれる検索対象用語との関連が推定されると共に、当該認識された表情と対応する前記検索対象用語に基づいて、前記関連語を前記記憶部から読み出し、当該読み出された前記関連語に基づいて、前記関連語のカテゴリーと一致するコンテンツ情報を前記記憶部から検索する制御部と、
    を備える情報検索装置。
  2. 表示部を備え、
    前記制御部は、
    前記検索されたコンテンツ情報を前記表示部に表示する請求項1に記載の情報検索装置。
  3. ユーザからの入力音声に基づいて音声情報を認識すると共に、ユーザの表情を認識し、認識された音声情報に含まれる検索対象用語との関連が推定されると共に、当該認識された表情と対応する前記検索対象用語に基づく関連語に基づいて、当該関連語のカテゴリーと一致するコンテンツ情報を記憶部から検索する制御工程を含む制御方法。
  4. コンピュータを、
    コンテンツ情報及び関連語を記憶する記憶部、
    ユーザからの入力音声に基づいて音声情報を認識すると共に、ユーザの表情を認識し、認識された音声情報に含まれる検索対象用語との関連が推定されると共に、当該認識された表情と対応する前記検索対象用語に基づいて、前記関連語を前記記憶部から読み出し、当該読み出された前記関連語に基づいて、前記関連語のカテゴリーと一致するコンテンツ情報を前記記憶部から検索する制御部、
    として機能させるプログラム。
JP2009172636A 2009-07-24 2009-07-24 情報検索装置、制御方法及びプログラム Active JP5446540B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009172636A JP5446540B2 (ja) 2009-07-24 2009-07-24 情報検索装置、制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009172636A JP5446540B2 (ja) 2009-07-24 2009-07-24 情報検索装置、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011028460A JP2011028460A (ja) 2011-02-10
JP5446540B2 true JP5446540B2 (ja) 2014-03-19

Family

ID=43637150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009172636A Active JP5446540B2 (ja) 2009-07-24 2009-07-24 情報検索装置、制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5446540B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6781961B2 (ja) * 2016-09-29 2020-11-11 株式会社村田製作所 送信装置、送信方法及び送信プログラム
KR101949497B1 (ko) 2017-05-02 2019-02-18 네이버 주식회사 사용자 발화의 표현법을 파악하여 기기의 동작이나 컨텐츠 제공 범위를 조정하여 제공하는 사용자 명령 처리 방법 및 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263457A (ja) * 2002-03-08 2003-09-19 Fujitsu Ltd 願望又は状況表現に基づく施設情報検索装置
JP3822534B2 (ja) * 2002-07-03 2006-09-20 日本電信電話株式会社 応答制御装置、方法及び応答制御プログラム、記録媒体
JP2005275601A (ja) * 2004-03-23 2005-10-06 Fujitsu Ltd 音声による情報検索システム

Also Published As

Publication number Publication date
JP2011028460A (ja) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5158174B2 (ja) 音声認識装置
JP4715805B2 (ja) 車載情報検索装置
JP5821639B2 (ja) 音声認識装置
JP5968578B2 (ja) ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム
JP6400109B2 (ja) 音声認識システム
JP4292646B2 (ja) ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
JP4131978B2 (ja) 音声認識機器制御装置
WO2017090115A1 (ja) 音声対話装置および音声対話方法
US20140267035A1 (en) Multimodal User Interface Design
US20120035924A1 (en) Disambiguating input based on context
JP4736982B2 (ja) 作動制御装置、プログラム
JP5637131B2 (ja) 音声認識装置
JP5925401B2 (ja) 音声認識装置、システムおよび方法
JP4466379B2 (ja) 車載音声認識装置
JP3842497B2 (ja) 音声処理装置
JP2009230068A (ja) 音声認識装置及びナビゲーションシステム
JP5446540B2 (ja) 情報検索装置、制御方法及びプログラム
JP6522009B2 (ja) 音声認識システム
JP2018028733A (ja) 入力装置、入力装置の制御方法、表示装置および入力プログラム
JP2007314014A (ja) 車載装置、プログラム、及び車載装置における使用データ決定方法
JP3296783B2 (ja) 車載用ナビゲーション装置および音声認識方法
JP2011180416A (ja) 音声合成装置、音声合成方法およびカーナビゲーションシステム
JP2005031260A (ja) 情報処理方法及び装置
JP2005309185A (ja) 音声入力装置、および音声入力方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Ref document number: 5446540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150