JP6022138B2 - 情報提供システム - Google Patents

情報提供システム Download PDF

Info

Publication number
JP6022138B2
JP6022138B2 JP2016548463A JP2016548463A JP6022138B2 JP 6022138 B2 JP6022138 B2 JP 6022138B2 JP 2016548463 A JP2016548463 A JP 2016548463A JP 2016548463 A JP2016548463 A JP 2016548463A JP 6022138 B2 JP6022138 B2 JP 6022138B2
Authority
JP
Japan
Prior art keywords
target word
recognition target
recognition
heading
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016548463A
Other languages
English (en)
Other versions
JPWO2016042600A1 (ja
Inventor
政信 大沢
政信 大沢
匠 武井
匠 武井
友紀 古本
友紀 古本
知宏 成田
知宏 成田
辰彦 斉藤
辰彦 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6022138B2 publication Critical patent/JP6022138B2/ja
Publication of JPWO2016042600A1 publication Critical patent/JPWO2016042600A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明は、ユーザに対して音声や画面表示で情報を提示する情報提供システムに関するものである。
従来より、ニュース等の見出しをディスプレイに表示したり、スピーカから音声出力したりして、ユーザが当該見出しに含まれるキーワードを発話することにより、そのキーワードを含む見出しに対するニュースの本文(コンテンツ)を読み上げたり表示したりする情報提供装置が知られている。
例えば、特許文献1には、HTML等で記述されたテキストを読み上げるものであって、リンク先の情報の内容を表すリンク文字列に含まれるキーワードを音声認識対象とし、当該キーワードが発話されると、対応するリンク先の情報(コンテンツ)を取得して読み上げる音声認識/合成装置が記載されている。
特開2003−99089号公報
しかしながら、例えば特許文献1のような従来の技術では、複数のリンク文字列から抽出したキーワードが重複する場合、ユーザが重複するキーワードを発話すると、選択肢が複数ある旨を通知するだけであり、音声操作によって1つのリンク先の情報を容易に選択する方法は開示されておらず、ユーザが容易に所望のリンク先の情報(コンテンツ)を取得することができない、という課題があった。
この発明は、上記のような課題を解決するためになされたものであり、ユーザの音声操作によって、複数の見出しから容易に所望の見出しを選択でき、当該選択した見出しに対応する情報(コンテンツ)を提示することができる情報提供システムを提供することを目的とする。
上記目的を達成するため、この発明は、複数の見出しを提示して、当該複数の見出しの中の1つを選択し、選択された見出しに対応するコンテンツを提示する情報提供システムにおいて、前記複数の見出しを取得し、当該取得した各見出しから認識対象語候補を抽出する抽出部と、前記抽出部から、前記各見出しの認識対象語候補を取得し、当該取得した各見出しの認識対象語候補に基づいて前記各見出しの認識対象語を生成する対象語決定部と、音声による音声認識結果が前記対象語決定部により生成された認識対象語と一致した場合に、当該一致した音声認識結果を認識対象語とする見出しに対応するコンテンツを提示するよう指示を行う制御部とを備え、前記対象語決定部は、前記取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在する場合、前記各見出しの認識対象語が互いに異なるように前記各見出しの認識対象語を動的に生成することを特徴とする。
この発明の情報提供システムによれば、複数の見出しの中から1つの見出しを選択するための認識対象語が重複しないようにしたので、ユーザの発話により、一意に見出しを選択し、選択した見出しに対応する情報(コンテンツ)を提示することができるようになり、ユーザにとっての利便性が向上する。
実施の形態1による情報提供システムの動作の概略を説明するための説明図である。 実施の形態1における情報提供システムにより、ニュースの見出しがディスプレイに表示されている表示画面の一例を示す図である。 実施の形態1における情報提供システムの主なハードウェア構成を示す概略構成図である。 実施の形態1による情報提供システムの一例を示すブロック図である。 解析部が取得した各見出しと、当該見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。 実施の形態1における抽出部が、図5に示す各見出しから認識対象語候補を抽出し、当該認識対象語候補を各見出しに対応付けた結果を示す表である。 実施の形態1において、記憶部に格納された各見出しの認識対象語、各見出し、各見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。 実施の形態1の情報提供システムにおける音声認識辞書生成までの動作を示すフローチャートである。 実施の形態1の情報提供システムにおける見出しの出力と記憶部へのコンテンツ等の格納の動作を示すフローチャートである。 実施の形態1の情報提供システムにおけるコンテンツを提示する動作を示すフローチャートである。 取得部が、ネットワークを介して取得したコンテンツ情報を示す図である。 実施の形態2における情報提供システムにより、ニュースの見出しが絞り込まれた状態でディスプレイに表示されている表示画面の一例を示す図である。 実施の形態2による情報提供システムの一例を示すブロック図である。 実施の形態2における抽出部が、図5に示す各見出しから複数の認識対象語候補を抽出し、当該認識対象語候補を各見出しに対応付けた結果を示す表である。 実施の形態2において、記憶部に格納された各見出しの認識対象語、各見出し、各見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。 実施の形態2において、認識対象語が再決定されて、記憶部に格納された各見出しの認識対象語、各見出し、各見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。 実施の形態2の情報提供システムにおける音声認識辞書生成までの動作を示すフローチャートである。 実施の形態2の情報提供システムにおける記憶部へのコンテンツ等の格納・更新、および、コンテンツを提示する動作を示すフローチャートである。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
この発明の情報提供システムは、複数の見出しを提示して、当該複数の見出しの中から1つの見出しを選択し、選択された見出しに対応する情報(コンテンツ)を提示するものである。
実施の形態1.
図1は、この発明の実施の形態1による情報提供システムの動作の概略を説明するための説明図である。情報提供システム1は、ネットワーク2を介して情報(コンテンツ情報)を取得し、取得したコンテンツ情報に含まれるコンテンツの見出しを表示または音声出力により提示するよう、ディスプレイ3またはスピーカ4(以下、「ディスプレイ等」と記載する。)に対して指示出力する。
そして、情報提供システム1は、見出しに含まれる認識対象語がユーザにより発話されると、当該見出しを選択し、その選択された見出しに対応するコンテンツを提示(表示または音声出力)するよう、ディスプレイ等に対して指示出力する。
この実施の形態1では、具体例として、情報提供システム1が、ネットワーク2を介してコンテンツ情報としてニュース情報を取得し、そのニュース情報(コンテンツ情報)に含まれるニュースの本文(コンテンツ)の見出しを提示するよう、ディスプレイ等に対して指示出力する場合を例に説明する。なお、ここでの見出しは、ニュースの内容を要約した要約文であるが、コンテンツの内容を表すものであれば、見出しはどのようなものであってもよい。
図2は、この実施の形態1における情報提供システムにより、ニュースの見出しがディスプレイ3に表示されている表示画面の一例を示す図である。
そして、情報提供システム1は、見出しに含まれる認識対象語がユーザにより発話されると、当該認識対象語を含む見出しを選択し、その選択した見出しに対応するニュース本文を提示するよう、ディスプレイ等に対して指示出力する。
例えば、図2のようにニュースの見出しとして、「楽大日本シリーズ初進出」「ダルビがノーヒットノーラン逃す」「楽大の中田が大リーグへ移籍を希望」という3つの見出しがディスプレイ3に表示されている状況で、ユーザにより「だるび」と発話されると、見出し「ダルビがノーヒットノーラン逃す」に対応するニュース本文が、スピーカ4から音声出力されたり、ディスプレイ3に表示されたりする。
なお、この実施の形態1では、コンテンツ情報に含まれる「コンテンツ」は、テキスト情報であるニュース本文であるものとして説明するが、これに限られるものではない。また、「コンテンツ」はテキスト情報に限らず、画像(静止画、動画、音声を含む動画など)であってもよく、最終的にユーザに提示する方法として、例えば、動画に含まれる音声のみを出力するものであってもよい。以下の実施の形態においても、同様である。
また、この実施の形態1では、コンテンツの「見出し」は、テキスト情報であるニュース本文(コンテンツ)に対応する見出しであるものとして説明するが、これに限られるものではない。ただし、見出しについては、ユーザが発話する認識対象語を含むテキスト情報である。以下の実施の形態に置いても同様である。
図3は、この実施の形態1における情報提供システム1の主なハードウェア構成を示す概略構成図である。バス100には、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Randam Access Memory)103、入力装置104、通信装置105、HDD(Hard Disk Drive)106、出力装置107が接続されている。
CPU101は、ROM102やHDD106に記憶された各種プログラムを読み出して実行することにより、各ハードウェアと協働し、各種機能を実現する。
RAM103は、プログラム実行時に使用するメモリである。
入力装置104は、ユーザ入力を受け付けるものであり、マイク、リモコン、タッチセンサ等である。
HDD106は、外部記憶装置の一例であり、外部記憶装置としては、HDDの他に、CD、DVD、USBメモリやSDカード等のフラッシュメモリを採用したストレージ等が含まれる。
出力装置107は、スピーカ、液晶ディスプレイ、有機EL等を含む。
図4は、この発明の実施の形態1による情報提供システム1の一例を示すブロック図である。この情報提供システム1は、取得部10、解析部11、抽出部12、対象語決定部13、辞書生成部14、音声認識辞書15、制御部16、記憶部17、音声認識部18、音声合成部19を備えている。なお、これらの構成要素は、ネットワーク上のサーバ、スマートフォン等の携帯端末、車載機器等に分散されていてもよい。
取得部10は、ネットワーク2を介してHTML(HyperText Markup Language)やXML(eXtensible Markup Language)形式で記述されたコンテンツ情報を取得する。ネットワーク2としては、例えば、インターネットや携帯電話等の公衆回線を使用することができる。
解析部11は、取得部10により取得されたコンテンツ情報を解析し、コンテンツと当該コンテンツの見出しを取得する。複数のコンテンツが含まれている場合は、すべてのコンテンツと、それに対応する見出しとを取得する。
例えば、コンテンツ情報として、テキストがHTML形式で記述されている場合、解析部11は、「<A HREF=”news1.html”>楽大日本シリーズ初進出</A>」のように、<A>タグのhref属性で指定されているファイルを、取得部10を介して取得し、当該取得したファイルに記載されている内容を、コンテンツとして取得する。
また、</A>タグで指定されたアンカーテキストを、コンテンツの見出し(以下、「見出し」と記載する。)として取得する。</A>タグで指定された箇所が複数ある場合は、解析部11は、すべてについて同様の処理を行う。
図5は、解析部11が取得した複数の見出しと、当該各見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。
図5に示すように、ここでは解析部11が、取得部10から取得したコンテンツ情報を解析し、見出し「楽大日本シリーズ初進出」とそれに対応するコンテンツ(ニュース本文)「楽大が今日の東部戦に1対0で勝利したため、初の日本シリーズ進出が決定しました。」、見出し「ダルビがノーヒットノーラン逃す」とそれに対応するコンテンツ(ニュース本文)「ダルビは9回ツーアウトの状況で4番マークにヒットを打たれノーヒットノーランを逃しました。」、見出し「楽大の中田が大リーグへ移籍を希望」とそれに対応するコンテンツ(ニュース本文)「楽大の中田が今日の午後、記者会見で大リーグへの移籍を希望していると発表しました。」を取得したものとする。
抽出部12は、解析部11から、複数の見出しと、当該各見出しに対応するコンテンツとを取得する。そして、取得した各見出しから、音声認識対象語候補となる単語等の読み(以下、「認識対象語候補」と記載する。)を抽出する。
そして、抽出した認識対象語候補を、抽出元の見出しと対応付ける。この際、抽出方法としてはどのような方法を用いてもよいが、例えば、見出しを形態素解析により単語に分割し、最も先頭にある単語または先頭から複数の単語を連結した単語列(以下、「単語等」と記載する。)の読みを、認識対象語候補として抽出すればよい。
この実施の形態1では、このように見出しの最も先頭にある単語等を認識対象語候補として抽出するものとして説明するが、これは、一般的に人は、最初の単語(文字)を発話することが多いからである。
なお、例えば、ユーザの発話履歴を用いて発話頻度が高い単語等の読みを抽出する等、他の抽出方法を用いてもよい。以下の実施の形態においても、同様である。
図6は、抽出部12が、図5に示す各見出しから認識対象語候補を抽出し、当該認識対象語候補を各見出しに対応付けた結果を示す表である。
この図6に示すように、ここでは、見出し「楽大日本シリーズ初進出」の認識対象語候補は「らくだい」、見出し「ダルビがノーヒットノーラン逃す」の認識対象語候補は「だるび」、見出し「楽大の中田が大リーグへ移籍を希望」の認識対象語候補は「らくだい」というように、認識対象語候補が抽出されている。
対象語決定部13は、抽出部12から、複数の見出しと、当該各見出しに対応するコンテンツと、当該各見出しの認識対象語候補とを取得する。そして、取得した各見出しの認識対象語候補の中に、重複する認識対象語候補が存在するか否かを判定するとともに、認識対象語候補に基づいて各見出しの認識対象語を動的に生成する。
この実施の形態1では、取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在する場合、各見出しの認識対象語が互いに異なるように各見出しの認識対象語を動的に生成する。具体的には、重複する認識対象語候補のうち少なくとも1つの認識対象語候補を加工または置換することにより、お互いが異なる認識対象語候補となるようにする。
図6に示す例では、一番目の見出しである「楽大日本シリーズ初進出」の認識対象語候補「らくだい」と、三番目の見出しである「楽大の中田が大リーグへ移籍を希望」の認識対象語候補「らくだい」が重複しているため、例えば、一番目の見出しの認識対象語候補を「いちばんめのらくだい」に加工し、三番目の見出しの認識対象語候補を「さんばんめのらくだい」に加工する。
そして、対象語決定部13は、加工後または置換後の認識対象語候補を、見出しに対応する音声認識対象語(以下、「認識対象語」と記載する。)に決定する。
一方、重複する認識対象語候補が存在しない場合、対象語決定部13は、抽出部12から取得した認識対象語候補をそのまま、見出しに対応する認識対象語に決定する。
なお、対象語決定部13は、見出しの選択以外の操作に関する認識語彙のリスト(例えば、ナビゲーション装置や他の車載機器等を操作するための操作コマンド等のリスト)を有しており、当該リストに含まれる単語等と認識対象語が一致または類似しないように、認識対象語候補を加工等するとしてもよい。すなわち、対象語決定部13は、機器の操作コマンドとは異なるものになるように、認識対象語を動的に生成するとしてもよい。
具体的には、例えば、図5に示す見出しに加えて「楽大のエアコンの売れ行き好調」という見出しがあった場合、抽出部12により「らくだい」が認識対象語候補として抽出されたとすると、他の認識対象語候補と重複するために、「エアコン」を認識対象語候補としてしまうと、車載機器であるエアコン装置に対する「エアコン」という操作コマンドと一致してしまうため、このような加工等は行わないようにする。
辞書生成部14は、対象語決定部13により決定された認識対象語を認識語彙とする音声認識辞書15を生成する。
音声認識部18は、マイク5により集音された音声を、音声認識辞書15を参照して認識し、認識結果文字列を出力する。なお、音声認識部18による音声認識の方法については、公知の技術を用いればよいため、説明を省略する。
制御部16は、対象語決定部13から、見出しと、当該見出しに対応する認識対象語と、同じくその見出しに対応するコンテンツとを取得し、記憶部17に格納する。
図7は、実施の形態1において、記憶部17に格納された各見出しの認識対象語、各見出し、各見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。
この図7は、前述のとおり、対象語決定部13により一番目の見出しの認識対象語候補「らくだい」が「いちばんめのらくだい」に、三番目の見出しの認識対象語候補「らくだい」が「さんばんめのらくだい」に加工されて、認識対象語として決定されたものが、記憶部17に記憶された状態を示している。
また、制御部16は、対象語決定部13から取得した複数の見出しを提示するよう、ディスプレイ等に対して指示出力する。具体的には、対象語決定部13から取得した見出しを表示するよう、ディスプレイ3へ指示出力する。または、当該見出しに対応する合成音声を生成するよう音声合成部19に指示出力した後、音声合成部19により生成された合成音声を出力するよう、スピーカ4へ指示出力する。
なお、制御部16から見出しを提示するよう指示出力する方法としては、表示出力、または、音声出力の少なくとも一方により行うとしてもよいし、表示と音声の両方により出力を行うようにしてもよい。
また、音声合成部19による音声合成の方法については、公知の技術を用いればよいため、説明を省略する。
さらに、制御部16は、音声認識部18により出力された認識結果文字列を検索キーとして、記憶部17を検索する。そして、検索キーと一致する認識対象語に対応する見出しを選択し、その見出しに対応するコンテンツを取得する。すなわち、制御部16は、音声による音声認識結果が対象語決定部13により生成された認識対象語と一致した場合に、当該一致した音声認識結果を認識対象語とする見出しを選択し、その選択された見出しに対応するコンテンツを取得する。
そしてその後、取得したコンテンツを提示するよう、ディスプレイ等に対して指示を行う。この場合にも、具体的には、取得したコンテンツを表示するよう、ディスプレイ3へ指示出力する。または、取得したコンテンツを用いて合成音声を生成するよう音声合成部19に指示出力し、音声合成部19により生成された合成音声を出力するよう、スピーカ4へ指示出力する。
なお、この場合にも、制御部16からコンテンツを提示するよう指示出力する方法としては、表示出力、または、音声出力の少なくとも一方により行うとしてもよいし、表示と音声の両方により出力を行うようにしてもよい。
ここで、対象語決定部13による認識対象語候補の加工方法と置換方法について、詳細に説明する。
まず、対象語決定部13による認識対象語候補の加工方法について説明する。
対象語決定部13は、抽出部12から取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在する場合、当該重複する認識対象語候補の少なくとも1つを加工して、加工後の認識対象語候補をその見出しに対応する認識対象語として決定することにより、各見出しの認識対象語が互いに異なるものになるように、認識対象語を動的に生成する。
例えば、対象語決定部13は、重複する認識対象語候補を含む見出しの提示位置または提示順序を特定し、当該特定した提示位置または提示順序に基づいて、認識対象語候補を加工する。すなわち、重複する認識対象語候補が抽出された各見出しが、ディスプレイ3に表示またはスピーカ4から音声出力された位置や順番を表す単語等を、各重複する認識対象語候補の前方に追加するような加工を行う。
具体的には、例えば、解析部11により取得された見出しが、「楽大日本シリーズ進出」「ダルビがノーヒットノーラン逃す」「楽大の中田が大リーグへの移籍を希望」であり、抽出部12により抽出された各見出しに対応する認識対象語候補が「らくだい」「だるび」「らくだい」であるとする。そして、各見出しが、図2に示すようにディスプレイ3に表示されるものとする。
この場合、対象語決定部13は、一番目の見出しと三番目の見出しの認識対象語候補がいずれも「らくだい」で重複しているので、一番目の見出しである「楽大日本シリーズ進出」に対応する認識対象語候補「らくだい」を「いちばんめのらくだい」に加工し、三番目の見出しである「楽大の中田が大リーグへ移籍を希望」の認識対象語候補「らくだい」を「さんばんめのらくだい」に加工する。
また、他の加工方法として、対象語決定部13は、重複する認識対象語候補が抽出された見出し同士の相対的な提示位置や提示順序(相対的な表示位置または音声出力順)を表す単語等を、各重複する認識対象語候補の前方に追加するという加工を行うようにしてもよい。
具体的には、上述の例の場合には、最初(一番目)の見出しである「楽大日本シリーズ進出」に対応する認識対象語候補「らくだい」を「いちばんめのらくだい」または「うえのらくだい」に加工し、最後(三番目、相対的には二番目)の見出しである「楽大の中田が大リーグへ移籍を希望」の認識対象語候補「らくだい」を「にばんめのらくだい」または「したのらくだい」に加工する。
さらに、他の加工方法として、対象語決定部13は、重複する認識対象語候補に他の単語等(単語または単語列)を追加することにより、認識対象語候補を加工する、としてもよい。例えば、重複する認識対象語候補に対して、見出し中において認識対象語候補と隣接する単語等を追加する、という加工を行うようにしてもよい。なお、隣接する単語等は、抽出部12により解析された結果を用いればよい。
具体的には、上述の例の場合には、一番目の見出しである「楽大日本シリーズ進出」に対応する認識対象語候補「らくだい」に、例えば、隣接する単語列「にほんしりーず」を追加して、「らくだいにほんしりーず」に加工し、三番目の見出しである「楽大の中田が大リーグへ移籍を希望」の認識対象語候補「らくだい」に、例えば、隣接単語列「のなかた」を追加して、「らくだいのなかた」に加工する。
なお、ここでは、重複する認識対象語候補をいずれも加工するものとして説明したが、どちらか一方のみ加工してもよい。すなわち、重複する認識対象語候補をすべて加工する必要はなく、他の認識対象語候補との重複を解消できるのであれば、少なくとも1つの認識対象語候補を加工するとしてもよい。
次に、対象語決定部13による認識対象語候補の置換方法について説明する。
対象語決定部13は、抽出部12から取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在する場合、当該重複する認識対象語候補のうち少なくとも1つを他の言い換え語(他の認識対象語候補)に置換して、置換後の認識対象語候補をその見出しに対応する認識対象語として決定することにより、各見出しの認識対象語が互いに異なるものになるように、認識対象語を動的に生成する。
例えば、対象語決定部13は、重複する認識対象語候補のうち少なくとも1つの認識対象語候補について、抽出部12から、他の見出しに対応する認識対象語候補と重複しない他の認識対象語候補を取得し、当該取得した認識対象語候補に置換する。すなわち、対象語決定部13は、重複する認識対象語候補を含む見出しに含まれる他の認識対象語候補に、認識対象語候補を置換する。
具体的には、上述した例の場合には、一番目の見出しと三番目の見出しの認識対象語候補がいずれも「らくだい」で重複しているので、一番目の見出しである「楽大日本シリーズ進出」に対応する認識対象語候補として、抽出部12から他の認識対象語候補であって他の見出しに対応する認識対象語候補と重複しない「にほんしりーず」を取得し、置換する。すなわち、認識対象語候補「らくだい」に換えて、「にほんしりーず」を認識対象語候補とし、これを認識対象語として決定する。
なお、このようにいずれか一方のみの認識対象語候補を置換すれば、重複する認識対象語候補が存在しなくなるので問題ないが、例えば、三番目の見出しである「楽大の中田が大リーグへ移籍を希望」に対応する認識対象語候補として、抽出部12から他の認識対象語候補であって他の見出しに対応する認識対象語候補と重複しない「なかた」を取得し、こちらも置換するようにしてもよい。
また、他の置換方法として、公知の意図理解技術を用いて、重複する認識対象語候補が抽出された見出しを解析して、当該見出しが属するカテゴリを特定し、当該カテゴリを表す新たな単語等を生成するようにしてもよい。そして、重複する認識対象語候補を、当該生成した単語等に置換したものを、認識対象語として決定する。すなわち、対象語決定部13は、重複する認識対象語候補を含む見出しの意味を解析し、当該意味に相当する用語を他の認識対象語候補として、重複する認識対象語候補の少なくとも1つを置換する。
具体的には、上述した例とは異なる例で、例えば、解析部11により取得された見出しが、「楽大から行楽シーズン到来のお知らせ」「ダルビがノーヒットノーラン逃す」「楽大の中田が大リーグへ移籍を希望」の3つであるとする。
この場合、一番目の見出しと三番目の見出しの認識対象語候補がいずれも「らくだい」で重複しているが、公知の意図理解技術により、一番目の見出しである「楽大から行楽シーズン到来のお知らせ」が属するカテゴリは「旅行」と特定され、三番目の見出しである「楽大の中田が大リーグへ移籍を希望」が属するカテゴリは「野球」と特定される。
そして、例えば、カテゴリ「旅行」に相当する「りょこうのほう」という単語列と、カテゴリ「野球」に相当する「やきゅうのほう」という単語列を生成する。そして、一番目の見出し「楽大から行楽シーズン到来のお知らせ」に対応する認識対象語候補「らくだい」を「りょこうのほう」という認識対象語候補に置換する。
この場合にも、いずれか一方のみの認識対象語候補を置換すれば、重複する認識対象語候補が存在しなくなるので問題ないが、例えば、三番目の見出しである「楽大の中田が大リーグへ移籍を希望」に対応する認識対象語候補「らくだい」も「やきゅうのほう」という認識対象語候補に置換するようにしてもよい。
なお、見出しが属するカテゴリに限らず、見出しの意図を表す単語等であれば、どのようなものであってもよい。
次に、この実施の形態1における情報提供システム1の動作について、図8〜図10に示すフローチャートを参照しながら具体的に説明する。図8は、実施の形態1の情報提供システム1における音声認識辞書生成までの動作を示すフローチャートである。また、図9は、実施の形態1の情報提供システム1における見出しの出力と記憶部17へのコンテンツ等の格納の動作を示すフローチャートである。また、図10は、実施の形態1の情報提供システム1におけるコンテンツを提示する動作を示すフローチャートである。
さらに、図11は、取得部10が、ネットワーク2を介して取得したコンテンツ情報を示す図である。ここでは、図11に示すようなHTML形式で記述されたテキストが、情報提供システム1の処理対象であるものとして説明する。
また、コンテンツであるニュース本文は、「news1.html」「news2.html」「news3.html」に記述されており、その内容は、図5に示すように「楽大が今日の東部戦に1対0で勝利したため、初の日本シリーズ進出が決定しました。」「ダルビは9回ツーアウトの状況で4番マークにヒットを打たれノーヒットノーランを逃しました。」「楽大の中田が今日の午後、記者会見で大リーグへの移籍を希望していると発表しました。」であるとする。
さらに、この実施の形態1における情報提供システム1は、見出しをディスプレイに表示し、ユーザ発話により選択された見出しに対応するコンテンツを音声出力するものとして説明する。これは、例えば車両の運転中など、詳細なニュース本文をディスプレイに表示させても、ユーザが内容を読むことができない場合などを考慮したものである。
なお、ディスプレイがかなり大画面である場合や、車両の運転など、ユーザが他に集中しなければならない状況にない場合には、ユーザ発話により選択された見出しに対応するコンテンツをディスプレイに表示するようにしてもよい。また、表示と音声出力の両方を行うものであってもよい。
初めに、図8に示すフローチャートを用いて、音声認識辞書生成の動作について説明する。
まず、取得部10が、ネットワーク2を介してコンテンツ情報を取得する(ステップST01)。ここでは、図11に示すようなコンテンツ情報(テキスト情報からなるニュース情報)を取得するものとする。
次に、解析部11は、取得部10により取得されたコンテンツ情報の内容を解析し、コンテンツと、当該コンテンツの見出しを取得する(ステップST02)。
具体的には、解析部11は、取得部10により取得されたコンテンツ情報(テキスト情報からなるニュース情報)の構造を解析し、</A>タグで指定された「<A HREF=”news1.html”>楽大日本シリーズ初進出</A>」から、このニュース(コンテンツ)の見出しとして「楽大日本シリーズ初進出」を取得する。
また、「HREF」属性で指定されたHTMLファイルを、取得部10を介して取得し、当該ファイルに記述されているニュース本文(コンテンツ)を取得する。見出しとニュース本文(コンテンツ)の処理をすべての<A>タグで指定された内容に対して行う。
解析部11により取得された、各見出しとコンテンツ(ニュース本文)の例は、図5に示すとおりである。
続いて、抽出部12は、解析部11により取得されたすべての見出しから、認識対象語候補を抽出する(ステップST03)。抽出方法については、前述の抽出部12についての説明の際に説明したとおり、どのような方法を用いてもよいが、ここでは、例えば、各見出しを形態素解析により単語に分割し、最も先頭にある単語の読みを、その見出しに対する認識対象語候補として抽出するものとして説明する。
その結果、見出し「楽大日本シリーズ初進出」からは「らくだい」、見出し「ダルビがノーヒットノーラン逃す」からは「だるび」、見出し「楽大の中田が大リーグへ移籍を希望」からは「らくだい」が、それぞれ認識対象語候補として抽出される。
このようにして、各見出しから認識対象語候補を抽出した結果は、図6に示すとおりである。
そして、対象語決定部13は、抽出部12により抽出された認識対象語候補に、重複する認識対象語候補があるか否かを判定する(ステップST04)。
重複する認識対象語候補がある場合(ステップST04の「YES」の場合)、重複する認識対象語候補のうち少なくとも1つの認識対象語候補を、前述した加工方法または置換方法により加工または置換し(ステップST05)、加工後または置換後の認識対象語候補を音声認識対象語として決定する(ステップST06)。
一方、重複する認識対象語候補がない場合(ステップST04の「NO」の場合)、抽出部12により抽出された認識対象語候補をそのまま、音声認識対象語として決定する(ステップST06)。
ここでは、認識対象語候補「らくだい」が重複しているので、例えば、前述した加工方法のうち、各重複する認識対象語候補が抽出された見出し同士の相対的な表示位置または音声出力順を表す単語等を、各認識対象語候補の前方に追加するという方法を用いて、見出し「楽大日本シリーズ初進出」の認識対象語候補を「いちばんめのらくだい」、見出し「楽大の中田が大リーグへ移籍を希望」の認識対象語候補を「にばんめのらくだい」に加工し、それぞれを認識対象語として決定する。
その後、辞書生成部14は、対象語決定部13により決定された認識対象語を認識語彙とする音声認識辞書15を生成する(ステップST07)。
この場合には、「いちばんめのらくだい」「だるび」「にばんめのらくだい」を認識語彙とする音声認識辞書15が生成される。
なお、認識対象語候補が重複する場合の加工方法については、相対的な表示位置または音声出力順を表す単語を最初に追加する、というようなルールをあらかじめ決めておくようにすればよい。また、例えば、相対的な表示位置または音声出力順を表す単語を最初に追加するというルールにした場合には、音声により、例えば「いちばんめのらくだいですか。にばんめのらくだいですか。」と、案内してあげるようにしてもよい。これにより、ユーザにも「いちばんめのらくだい」「にばんめのらくだい」が認識対象語候補であるということを知らせることができる。
また、このように、認識対象語候補が重複する場合に他の言い換え語等に置換する場合に、ユーザにどの単語が認識対象語候補であるかを提示するために、例えばその言い換え語である認識対象語候補を色替え表示したり強調表示するようにしてもよい。具体的には、見出し「楽大日本シリーズ初進出」の認識対象語候補を「にほんしりーず」、見出し「楽大の中田が大リーグへ移籍を希望」の認識対象語候補を「なかた」に置換した場合には、例えば図2に示すようにディスプレイ3に表示されている見出しの中の「日本シリーズ」という単語と「中田」という単語を色替え表示したり強調表示したりすればよい。
次に、図9に示すフローチャートを用いて、見出しの出力と記憶部17へのコンテンツ等の格納の動作について説明する。
まず、制御部16は、対象語決定部13から、認識対象語と見出しとコンテンツを取得し(ステップST11)、記憶部17に格納する(ステップST12)。
このようにして記憶部17に格納された、各見出しに対応する認識対象語と、各見出しと、各見出しに対応するコンテンツ(ニュース本文)は、図7に示すとおりである。
次に、制御部16は、対象語決定部13から取得した見出しを表示(提示)するよう、ディスプレイ3に対して指示出力する(ステップST13)。
この結果、図2に示すように、ディスプレイ3に見出しが表示される。
なお、ここでは、見出しを提示する際に表示により提示されるものとして説明するが、見出しが音声出力により提示されるものであってもよいし、表示と音声出力の両方により提示されるものであってもよい。
最後に、図10に示すフローチャートを用いて、コンテンツの出力の動作について説明する。
まず、音声認識部18は、マイク5により取得された音声を認識し、認識結果文字列を制御部16に出力する(ステップST21)。
例えば、ユーザにより「いちばんめのらくだい」が発話されると、音声認識部18は音声認識辞書15を参照して認識処理を行い、認識結果として文字列「いちばんめのらくだい」を出力する。
次に、制御部16は、音声認識部18により出力された認識結果文字列を取得し、当該取得した認識結果文字列に対応するコンテンツ情報を取得する(ステップST22)。すなわち、取得した認識結果文字列を検索キーとして記憶部17を検索する。そして、検索キーと一致する認識対象語に対応する見出しを選択し、当該見出しに対応するコンテンツを取得する。
具体的には、制御部16は、音声認識部18により出力された「いちばんめのらくだい」という認識結果文字列に対応するコンテンツ(ニュース本文)の文字列「楽大が今日の東部戦に1対0で勝利したため、初の日本シリーズ進出が決定しました。」を記憶部17から取得する。
その後、制御部16は、当該取得したコンテンツ(ニュース本文)の文字列を用いて合成音声を生成するよう、音声合成部19に指示出力し(ステップST23)、音声合成部19により生成された合成音声を取得し、その合成音声によりコンテンツ(ニュース本文)を出力(提示)するよう、スピーカ4に対して指示出力する(ステップST24)。
その結果、「楽大が今日の東部戦に1対0で勝利したため、初の日本シリーズ進出が決定しました。」という合成音声が、スピーカ4から出力される。
なお、前述のとおり、ここでは、ユーザが選択した見出しに対応するコンテンツ(ニュース本文)の文字列を音声出力するものとして説明したが、制御部16がステップST22において取得したコンテンツ情報に基づいて、当該取得したコンテンツ(ニュース本文)の文字列をディスプレイ3に表示させるようにしてもよい。また、表示と音声出力の両方を行うものであってもよい。
このように、複数の見出しを提示して、当該複数の見出しの中から1つの見出しを選択し、選択された見出しに対応する情報(コンテンツ)を提示する情報提供システム1が、その見出しを選択するための認識対象語が重複しないように加工等を行って認識対象語を決定するようにしたので、ユーザは、発話により一意に見出しを選択し、選択した見出しに対応する情報(コンテンツ)を取得することができる。
なお、この実施の形態1では、各見出しの最も先頭にある単語の読みを、その見出しに対する認識対象語候補として抽出するものとし、重複するものがあった場合に重複しないように加工等を行うものとして説明したが、これは、一般的に人は、最初の単語(文字)を発話することが多いからである。そして、最初の単語(文字)が同じだと認識対象語候補が重複してしまうことになるため、文字の追加、連結、言い換え、置き換えなどにより、重複しないように認識対象語を決定するようにしたものである。
以上のように、この実施の形態1によれば、複数の見出しの中から1つの見出しを選択するための認識対象語が重複しないようにしたので、ユーザの発話により、一意に見出しを選択し、選択した見出しに対応する情報(コンテンツ)を提示することができるようになり、ユーザにとっての利便性が向上する。
実施の形態2.
実施の形態1においては、見出しを選択するための認識対象語候補が重複する場合、あらかじめ各認識対象語候補が異なるように加工等したものを、見出しを選択するための新たな認識対象語とし、重複する認識対象語候補は、認識対象語ではないものとして扱われる。そのため、ユーザが当該重複する認識対象語候補を発話した場合、誤認識となってしまう。
具体的には、実施の形態1において、「らくだい」という認識対象語候補が重複していたために、例えば図7に示すように、一番目の見出しの認識対象語を「いちばんめのらくだい」に加工し、三番目の見出しの認識対象語を「さんばんめのらくだい」とした場合に、ユーザが「らくだい」と発話しても、それは音声認識辞書15には含まれていない文字列になるため、認識できずに終わってしまう。
そこで、この発明の実施の形態2による情報提供システム20は、まず初めに、複数の見出しに存在する認識対象語がユーザにより発話された場合、当該認識対象語を含む見出しと他の見出しとの表示態様が異なるように表示し、ユーザに対して、当該認識対象語を含む見出しに絞り込んだことを明示する。これにより、その認識対象語が重複しているということをユーザに知らせることができる。
そして、情報提供システム20は、絞り込まれた見出しに含まれる認識対象語であって、かつ、各見出し間で重複しない認識対象語がユーザにより発話されると、発話された認識対象語を含む見出しを選択する。その後、当該選択した見出しに対応するコンテンツを表示または音声出力により提示するよう、ディスプレイ等に対して指示出力する。
例えば、図2のようにニュースの見出しとして、「楽大日本シリーズ初進出」「ダルビがノーヒットノーラン逃す」「楽大の中田が大リーグへ移籍を希望」という3つの見出しがディスプレイ3に表示されている状況で、ユーザにより「らくだい」と発話されると、「らくだい」を含まない見出し「ダルビがノーヒットノーラン逃す」をグレーアウトするよう、ディスプレイ3に対して指示出力する。
その結果、図12に示すように、二番目の見出し「ダルビがノーヒットノーラン逃す」がグレーアウトされて見にくくなり、一番目の見出し「楽大日本シリーズ初進出」と三番目の見出し「楽大の中田が大リーグへ移籍を希望」の2つはそのまま明るく見やすい状態で表示され、この2つの見出しに絞り込まれたことが明示される。
図12は、この実施の形態2における情報提供システムにより、ニュースの見出しが絞り込まれた状態でディスプレイに表示されている表示画面の一例を示す図である。
この状態において、続いてユーザにより「なかた」と発話されると、見出し「楽大の中田が大リーグへ移籍を希望」に対応するニュース本文が、スピーカ4から音声出力されたり、ディスプレイ3に表示されたりする。
図13は、この発明の実施の形態2による情報提供システムの一例を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
この実施の形態2では、抽出部22が、解析部11から取得した各見出しについて、複数の認識対象語候補を抽出する。
図14は、抽出部22が、図5に示す各見出しから複数の認識対象語候補を抽出し、当該認識対象語候補を各見出しに対応付けた結果を示す表である。
ここでは、見出し「楽大日本シリーズ初進出」については、認識対象語第一候補として「らくだい」、認識対象語第二候補として「にほんしりーず」が対応付けられている。また、見出し「ダルビがノーヒットノーラン逃す」については、認識対象語第一候補として「だるび」、認識対象語第二候補として「のーひっと」が対応付けられている。また、見出し「楽大の中田が大リーグへ移籍を希望」については、認識対象語第一候補として「らくだい」、認識対象語第二候補として「なかた」が対応付けられている。
なお、ここでは、見出しに含まれる単語等を認識対象語第二候補にすることとして説明したが、この他に、各見出しの位置や順番を表す単語等を認識対象語候補として、例えば、一番目の見出し「楽大日本シリーズ初進出」の認識対象語第二候補を「いちばんめ」「ひとつめ」「うえのほう」などとし、三番目の見出し「楽大の中田が大リーグへ移籍を希望」の認識対象語第二候補を「さんばんめ」「ふたつめ」「したのほう」などとしてもよい。
また、実施の形態1においても説明したように、上述した例とは異なる例で、例えば、解析部11により取得された見出しが、「楽大から行楽シーズン到来のお知らせ」「ダルビがノーヒットノーラン逃す」「楽大の中田が大リーグへ移籍を希望」の3つである場合には、一番目の見出しである「楽大から行楽シーズン到来のお知らせ」が属するカテゴリ「旅行」に相当する「りょこうのほう」をこれに対応する認識対象語第二候補とし、三番目の見出しである「楽大の中田が大リーグへ移籍を希望」が属するカテゴリ「野球」に相当する「やきゅうのほう」をこれに対応する認識対象語第二候補にしてもよい。
なお、見出しが属するカテゴリに限らず、見出しの意図を表す単語等であれば、どのようなものであってもよい。
さらに、第三候補、第四候補、・・・というように、候補となりそうな認識対象語をすべて認識対象語候補として抽出してもよい。
なお、説明を簡単にするために、以降の説明においては、抽出部22が抽出する認識対象語候補は2つとして説明するが、これに限られるものではない。
対象語決定部23は、抽出部22から、複数の見出しと、当該各見出しに対応するコンテンツと、当該各見出しの認識対象語候補とを取得する。そして、取得した各見出しの認識対象語候補に基づいて各見出しの認識対象語を動的に生成する。
この実施の形態2では、対象語決定部23は、各見出しの認識対象語が異なるように各見出しの認識対象語を動的に生成する前において、抽出部22から取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在するか否かにかかわらず、まず最初は、取得した認識対象語候補の第一候補を認識対象語として決定する。
また、対象語決定部23は、制御部26から、制御部26が指定した見出し(選択した見出し)に対応する認識対象語を再決定(再生成)する旨の指示を受けると、少なくとも1つの見出しについて、当該見出しに対応付けられている認識対象語第二候補を新たな認識対象語に決定する。すなわち、各見出しの認識対象語が互いに異なるように各見出しの認識対象語を動的に再生成する。
なお、対象語決定部23は、見出しの選択以外の操作に関する認識語彙のリスト(例えば、ナビゲーション装置や他の車載機器等を操作するための操作コマンド等のリスト)を有しており、当該リストに含まれる単語等と認識対象語が一致または類似しないように、新たな認識対象語を決定するとしてもよい。
具体的には、例えば、図5に示す見出しに加えて「楽大のエアコンの売れ行き好調」という見出しがあった場合、抽出部22により「らくだい」が認識対象語第一候補、「えあこん」が認識対象語第二候補として抽出されたとすると、対象語決定部23が「えあこん」をこの見出しの認識対象語として決定すると、車載機器であるエアコン装置に対する「エアコン」という操作コマンドと一致してしまうため、このようなものは新たな認識対象語に決定しないようにする。
辞書生成部14は、対象語決定部23により決定された認識対象語を認識語彙とする音声認識辞書15を生成する。
制御部26は、対象語決定部23から、見出しと、当該見出しに対応する認識対象語と、同じくその見出しに対応するコンテンツとを取得し、記憶部17に格納する。
図15は、実施の形態2において、記憶部17に格納された各見出しの認識対象語、各見出し、各見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。
この図15は、前述のとおり、対象語決定部23により、まずは各見出しの認識対象語第一候補が認識対象語として決定されて、制御部26に出力され、記憶部17に記憶された状態を示している。すなわち、見出し「楽大日本シリーズ初進出」の認識対象語は「らくだい」、見出し「ダルビがノーヒットノーラン逃す」の認識対象語は「だるび」、見出し「楽大の中田が大リーグへ移籍を希望」の認識対象語は「らくだい」となっている。
また、制御部26は、対象語決定部23から取得した見出しを提示するよう、ディスプレイ等に対して指示出力する。具体的には、対象語決定部23から取得した見出しを表示するよう、ディスプレイ3へ指示出力する。または、当該見出しに対応する合成音声を生成するよう音声合成部19に指示出力した後、音声合成部19により生成された合成音声を出力するよう、スピーカ4へ指示出力する。
なお、制御部26から見出しを提示するよう指示出力する方法としては、表示出力、または、音声出力の少なくとも一方により行うとしてもよいし、表示と音声の両方により出力を行うようにしてもよい。
また、音声合成部19による音声合成の方法については、公知の技術を用いればよいため、説明を省略する。
さらに、制御部26は、音声認識部18により出力された認識結果文字列を検索キーとして、記憶部17を検索する。そして、複数の認識対象語が検索キーと一致する場合、対象語決定部23に対して、検索キーと一致する各認識対象語に対応する見出しについて、認識対象語を再決定するよう指示出力する。すなわち、制御部26は、音声による音声認識結果が対象語決定部23により生成された複数の認識対象語と一致した場合に、当該認識対象語が同一である2以上の見出しに絞り込み、当該絞り込んだ見出しについて、重複する認識対象語候補(認識対象語第一候補)とは異なる他の認識対象語候補(認識対象語第二候補)を認識対象語として再生成するよう、対象語決定部23に対して指示を行う。
具体的には、ユーザにより「らくだい」と発話された場合、音声認識部18により「らくだい」が認識結果文字列として出力され、この「らくだい」を検索キーとして記憶部17を検索、すなわち、図15に示す表を検索すると、一番目の見出しの認識対象語と三番目の見出しの認識対象語が一致するため、制御部26は、対象語決定部23に対して、認識対象語を再決定するよう指示出力する。
この結果、対象語決定部23により認識対象語が再決定され、例えば、見出し「楽大日本シリーズ初進出」の認識対象語は第二候補であった「にほんしりーず」に、見出し「ダルビがノーヒットノーラン逃す」の認識対象語は「だるび」のまま、見出し「楽大の中田が大リーグへ移籍を希望」の認識対象語は第二候補であった「なかた」に再決定され、制御部26および辞書生成部14に出力される。
そして、辞書生成部14は再び、対象語決定部23により決定された認識対象語を認識語彙とする音声認識辞書15を生成する。
また、制御部26は、対象語決定部23により再決定された認識対象語を取得し、記憶部17に格納されている各見出しに対する認識対象語を、再決定された認識対象語に更新する。
図16は、実施の形態2において、認識対象語が再決定されて、記憶部17に格納された各見出しの認識対象語、各見出し、各見出しに対応するコンテンツ(ニュース本文)の一例を示す表である。
さらに、制御部26は、検索キーと一致した認識対象語に対応する見出しと他の見出しとを異なる表示態様で表示するよう、ディスプレイ3に対して指示出力する。
これにより、図12に示すような、ニュースの見出しが絞り込まれた表示画面がディスプレイ3に表示される。
また、制御部26は、音声認識部18により出力された認識結果文字列を検索キーとして記憶部17を検索した結果、検索キーと一致する認識対象語が1つであった場合(複数存在しなかった場合)には、その検索キーと一致する認識対象語に対応する見出しを選択し、その見出しに対応するコンテンツを取得する。すなわち、制御部26は、音声による音声認識結果が対象語決定部23により生成された認識対象語と一致した場合に、当該一致した音声認識結果を認識対象語とする見出しを選択し、その選択された見出しに対応するコンテンツを取得する。
そしてその後、取得したコンテンツを提示するよう、ディスプレイ等に対して指示出力する。具体的には、取得したコンテンツを表示するよう、ディスプレイ3へ指示出力する。または、取得したコンテンツを用いて合成音声を生成するよう音声合成部19に指示出力し、音声合成部19により生成された合成音声を出力するよう、スピーカ4へ指示出力する。
なお、この場合にも、制御部26からコンテンツを提示するよう指示出力する方法としては、表示出力、または、音声出力の少なくとも一方により行うとしてもよいし、表示と音声の両方により出力を行うようにしてもよい。
次に、この実施の形態2における情報提供システム20の動作について、図17および図18を参照しながら具体的に説明する。図17は、実施の形態2の情報提供システム20における音声認識辞書生成までの動作を示すフローチャートである。また、図18は、実施の形態2の情報提供システム20における記憶部17へのコンテンツ等の格納・更新、および、コンテンツを提示する動作を示すフローチャートである。
なお、この実施の形態2においても、図11に示すようなHTML形式で記述されたテキストが、情報提供システム20の処理対象であるものとして説明する。
また、コンテンツであるニュース本文は、「news1.html」「news2.html」「news3.html」に記述されており、その内容は、図5に示すように「楽大が今日の東部戦に1対0で勝利したため、初の日本シリーズ進出が決定しました。」「ダルビは9回ツーアウトの状況で4番マークにヒットを打たれノーヒットノーランを逃しました。」「楽大の中田が今日の午後、記者会見で大リーグへの移籍を希望していると発表しました。」であるとする。
さらに、この実施の形態2における情報提供システム20は、見出しをディスプレイに表示し、ユーザ発話により選択された見出しに対応するコンテンツを音声出力するものとして説明する。これは、例えば車両の運転中など、詳細なニュース本文をディスプレイに表示させても、ユーザが内容を読むことができない場合などを考慮したものである。
なお、ディスプレイがかなり大画面である場合や、車両の運転など、ユーザが他に集中しなければならない状況にない場合には、ユーザ発話により選択された見出しに対応するコンテンツをディスプレイに表示するようにしてもよい。また、表示と音声出力の両方を行うものであってもよい。
初めに、図17に示すフローチャートを用いて、音声認識辞書生成の動作について説明する。
まず、取得部10が、ネットワーク2を介してコンテンツ情報を取得する(ステップST31)。ここでは、図11に示すようなコンテンツ情報(テキスト情報からなるニュース情報)を取得するものとする。
次に、解析部11は、取得部10により取得されたコンテンツ情報の内容を解析し、コンテンツと、当該コンテンツの見出しを取得する(ステップST32)。
具体的には、解析部11は、取得部10により取得されたコンテンツ情報(テキスト情報からなるニュース情報)の構造を解析し、</A>タグで指定された「<A HREF=”news1.html”>楽大日本シリーズ初進出</A>」から、このニュース(コンテンツ)の見出しとして「楽大日本シリーズ初進出」を取得する。
また、「HREF」属性で指定されたHTMLファイルを、取得部10を介して取得し、当該ファイルに記述されているニュース本文(コンテンツ)を取得する。見出しとニュース本文(コンテンツ)の処理をすべての<A>タグで指定された内容に対して行う。
解析部11により取得された、各見出しとコンテンツ(ニュース本文)の例は、図5に示すとおりである。
続いて、抽出部22は、解析部11により取得されたすべての見出しから、複数の認識対象語候補を抽出する(ステップST33)。
その結果、図14に示すように、見出し「楽大日本シリーズ初進出」からは「らくだい」と「にほんしりーず」、見出し「ダルビがノーヒットノーラン逃す」からは「だるび」と「のーひっと」、見出し「楽大の中田が大リーグへ移籍を希望」からは「らくだい」と「なかた」が、それぞれ認識対象語候補として抽出される。
次に、対象語決定部23は、抽出部22により抽出された複数の認識対象語候補と見出しとコンテンツを取得し、重複する認識対象語候補があるか否かにかかわらず、抽出部22から取得した認識対象語候補のうち第一候補を音声認識対象語に決定する(ステップST34)。
その結果、図15に示すように、見出し「楽大日本シリーズ初進出」に対しては「らくだい」、見出し「ダルビがノーヒットノーラン逃す」に対しては「だるび」、見出し「楽大の中田が大リーグへ移籍を希望」に対しては「らくだい」が、各見出しに対応する認識対象語として決定される。
その後、辞書生成部14は、対象語決定部23により決定された認識対象語を認識語彙とする音声認識辞書15を生成する(ステップST35)。
この場合には、「らくだい」と「だるび」を認識語彙とする音声認識辞書15が生成される。
見出しの出力と記憶部17へのコンテンツ等の格納の動作については、実施の形態1における図9に示すフローチャートと同一であるため、説明を省略する。
図9に示すフローチャートにしたがって処理が行われた結果、図15に示すように、各見出しに対応する認識対象語と、各見出しと、各見出しに対応するコンテンツ(ニュース本文)が記憶部17に格納される。
最後に、図18に示すフローチャートを用いて、記憶部17へのコンテンツ等の格納・更新、および、コンテンツの出力の動作について説明する。
まず、音声認識部18は、マイク5により取得された音声を認識し、認識結果文字列を制御部26に出力する(ステップST41)。
例えば、ユーザにより「らくだい」が発話されると、音声認識部18は音声認識辞書15を参照して認識処理を行い、認識結果として文字列「らくだい」を出力する。
次に、制御部26は、音声認識部18により出力された認識結果文字列を取得し、当該取得した認識結果文字列と一致する認識対象語が記憶部17に複数存在するか否かを判定する(ステップST42)。すなわち、取得した認識結果文字列を検索キーとして記憶部17を検索する。
そして、検索キーと一致する認識対象語が複数存在する場合(ステップST42の「YES」の場合)、各認識対象語に対応する見出しと他の見出しとの表示態様が異なるものとなるよう、ディスプレイ3に対して指示出力する(ステップST43)。
その結果、図12に示すように、各見出しがディスプレイ3に表示される。
続いて、制御部26は、対象語決定部23に対して、検索キーと一致する各認識対象語に対応する見出しについて、認識対象語を再決定するよう指示出力する。そして、対象語決定部23は、制御部26からの当該指示を受けて、各見出しに対応付けられている複数の認識対象語候補のうち第二候補を新たに認識対象語に決定する(ステップST44)。
その結果、図16に示すように、見出し「楽大日本シリーズ初進出」に対しては「にほんしりーず」、見出し「楽大の中田が大リーグへ移籍を希望」に対しては「なかた」が、各見出しに対応する認識対象語として再決定される。
そして、制御部26は、対象語決定部23により再決定された認識対象語を取得し、記憶部17に格納されている各見出しに対する認識対象語を、再決定された認識対象語に更新する(ステップST45)。
その結果、記憶部17に格納されていた情報は、図15に示す内容から、図16に示す内容へと、記憶部17の内容が更新される。
その後、辞書生成部14は、対象語決定部23により決定された認識対象語を認識語彙とする音声認識辞書15を生成し(ステップST46)、処理を終了する。
その結果、「にほんしりーず」「だるび」「なかた」を認識語彙とする音声認識辞書15が生成される。
なお、この場合にも、例えば図12に示すようにディスプレイ3に表示されている見出しの中の「日本シリーズ」という単語と「中田」という単語を色替え表示したり強調表示したりすることにより、一番目の見出しの認識対象語が「にほんしりーず」、三番目の見出しの認識対象語が「なかた」であることを、ユーザに知らせることができるようにしてもよい。
一方、制御部26は、検索キーと一致する認識対象語が複数存在しない場合(ステップST42の「NO」の場合)、検索キーと一致する認識対象語に対応する見出しを選択し、当該見出しに対応するコンテンツを取得する。すなわち、音声認識部18により出力された認識結果文字列に対応するコンテンツ情報を取得する(ステップST47)。
具体的には、例えば、ステップST46の処理の後、ユーザにより「なかた」が発話されたとする。その場合、音声認識部18は、音声認識辞書15を参照して認識処理を行い、認識結果文字列「なかた」を出力する。そして、記憶部17には、「なかた」と一致する認識対象語が複数存在しないので、制御部26は、音声認識部18により出力された「なかた」という認識結果文字列に対応するコンテンツ(ニュース本文)の文字列「楽大の中田が今日の午後、記者会見で大リーグへの移籍を希望していると発表しました。」を記憶部17から取得する。
その後、制御部26は、当該取得したコンテンツ(ニュース本文)の文字列を用いて合成音声を生成するよう、音声合成部19に指示出力し(ステップST48)、音声合成部19により生成された合成音声を取得し、その合成音声によりコンテンツ(ニュース本文)を出力(提示)するよう、スピーカ4に対して指示出力する(ステップST49)。
その結果、「楽大の中田が今日の午後、記者会見で大リーグへの移籍を希望していると発表しました。」という合成音声が、スピーカ4から出力される。
なお、前述のとおり、ここでは、ユーザが選択した見出しに対応するコンテンツ(ニュース本文)の文字列を音声出力するものとして説明したが、制御部26がステップST47において取得したコンテンツ情報に基づいて、当該取得したコンテンツ(ニュース本文)の文字列をディスプレイ3に表示させるようにしてもよい。また、表示と音声出力の両方を行うものであってもよい。
このように、複数の見出しを提示して、当該複数の見出しの中から1つの見出しを選択し、選択された見出しに対応する情報(コンテンツ)を提示する情報提供システム20が、その見出しを選択するための認識対象語が重複する場合、ユーザによる当該認識対象語の発話を認識した後に、各見出し間で重複しない新たな認識対象語を決定するようにしたので、ユーザの誤認識を防止し、ユーザが選択した見出しに対応する情報(コンテンツ)を取得することができる。
なお、この実施の形態2では、最初に複数の認識対象語候補をすべて抽出するものとして説明したが、最初は認識対象語の第一候補だけを抽出して認識対象語を決定し、制御部26から再決定の指示があった場合に、次の候補(第二候補)を認識対象語として決定する、というようにしてもよい。
また、この実施の形態2では、見出しの絞り込みが1回である場合を例に説明したが、これに限定されるものではなく、複数回の見出しの絞り込みを行った後において、各見出しに対する認識対象語が重複する場合に、各見出しの認識対象語が互いに異なるように各見出しの認識対象語を動的に生成することを含むとしてもよい。
例えば、見出しが10個あり、その中の5個の見出しに対応する認識対象語(ここでは「A」とする。)が同一であるとする。そして、「A」が発話された結果、当該「A」を含む5個の見出しに絞り込まれ、対象語決定部23に対して認識対象語を再生成するよう指示が行われたものとする。
ここで、対象語決定部23は、絞り込まれた5個の見出しに対応付けられている第二候補の認識対象語候補が重複しているか否かにかかわらず、各見出しの認識対象語第二候補を各見出しに対する認識対象語に決定する。その結果、さらに2個の見出しに対する認識対象語「B」が重複しているものとする。
そして、「B」が発話されると、制御部26は、認識対象語「B」を含む2個の見出しに絞り込み、対象語決定部23に対して認識対象語を再生成するよう指示を行う。
その後、当該指示を受けた対象語決定部23は、絞り込まれた見出しに対応付けられている第二候補の認識対象語候補が重複しているもののみになったので、各見出しの認識対象語が互いに異なるように各見出しの認識対象語を動的に生成する。
なお、対象語決定部23は、認識対象語候補が重複している場合、かつ、重複しているもののみになった場合に、各見出しの認識対象語が互いに異なるように各見出しの認識対象語を動的に生成するとしたが、絞り込みがあらかじめ定められた回数以上行われた場合(制御部26からの認識対象語再生成の指示があらかじめ定められた回数以上となった場合)において、認識対象語候補が重複する場合に、各見出しの認識対象語が互いに異なるように各見出しの認識対象語を動的に生成するとしてもよい。
以上のように、この実施の形態2によれば、複数の見出しの中から1つの見出しを選択するための認識対象語が重複する場合、ユーザによる当該認識対象語の発話を認識した後に、各見出し間で重複しない新たな認識対象語を決定するようにしたので、ユーザの誤認識を防止し、ユーザにとっての利便性が向上する。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明の情報提供システムは、複数の見出しを提示して、当該複数の見出しの中から1つの見出しを選択し、選択された見出しに対応する情報(コンテンツ)を提示するものであれば、どのような装置や機器に適用してもよい。また、この情報提供システムの構成要素は、ネットワーク上のサーバ、スマートフォン等の携帯端末、車載機器等に分散されていてもよい。
1,20 情報提供システム、2 ネットワーク、3 ディスプレイ、4 スピーカ、5 マイク、10 取得部、11 解析部、12,22 抽出部、13,23 対象語決定部、14 辞書生成部、15 音声認識辞書、16,26 制御部、17 記憶部、18 音声認識部、19 音声合成部、100 バス、101 CPU、102 ROM、103 RAM、104 入力装置、105 通信装置、106 HDD、107 出力装置。

Claims (9)

  1. 複数の見出しを提示して、当該複数の見出しの中の1つを選択し、選択された見出しに対応するコンテンツを提示する情報提供システムにおいて、
    前記複数の見出しを取得し、当該取得した各見出しから認識対象語候補を抽出する抽出部と、
    前記抽出部から、前記各見出しの認識対象語候補を取得し、当該取得した各見出しの認識対象語候補に基づいて前記各見出しの認識対象語を生成する対象語決定部と、
    音声による音声認識結果が前記対象語決定部により生成された認識対象語と一致した場合に、当該一致した音声認識結果を認識対象語とする見出しに対応するコンテンツを提示するよう指示を行う制御部とを備え、
    前記対象語決定部は、前記取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在する場合、前記各見出しの認識対象語が互いに異なるように前記各見出しの認識対象語を動的に生成する
    ことを特徴とする情報提供システム。
  2. 前記対象語決定部は、前記取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在する場合、当該重複する認識対象語候補の少なくとも1つを加工して、前記各見出しの認識対象語が互いに異なるものになるように認識対象語を動的に生成する
    ことを特徴とする請求項1記載の情報提供システム。
  3. 前記対象語決定部は、前記重複する認識対象語候補を含む見出しの提示位置または提示順序を特定し、当該特定した提示位置または提示順序に基づいて前記認識対象語候補を加工する
    ことを特徴とする請求項2記載の情報提供システム。
  4. 前記対象語決定部は、前記重複する認識対象語候補に他の単語または単語列を追加することにより、前記認識対象語候補を加工する
    ことを特徴とする請求項2記載の情報提供システム。
  5. 前記対象語決定部は、前記取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在する場合、当該重複する認識対象語候補の少なくとも1つを他の認識対象語候補に置換する
    ことを特徴とする請求項1記載の情報提供システム。
  6. 前記対象語決定部は、前記重複する認識対象語候補を含む見出しの意味を解析し、当該意味に相当する用語を他の認識対象語候補として、前記重複する認識対象語候補の少なくとも1つを置換する
    ことを特徴とする請求項5記載の情報提供システム。
  7. 前記対象語決定部は、前記重複する認識対象語候補を含む見出しに含まれる他の認識対象語候補に、前記認識対象語候補を置換する
    ことを特徴とする請求項5記載の情報提供システム。
  8. 前記対象語決定部は、前記各見出しの認識対象語が互いに異なるように前記各見出しの認識対象語を動的に生成する前において、前記取得した各見出しの認識対象語候補の中に重複する認識対象語候補が存在するか否かにかかわらず、当該認識対象語候補を前記各見出しの認識対象語として決定するとともに、
    前記制御部は、音声による音声認識結果が前記対象語決定部により決定された複数の認識対象語と一致した場合に、当該認識対象語が同一である2以上の見出しに絞り込み、当該絞り込んだ各見出しについて、前記重複する認識対象語候補とは異なる認識対象語候補を認識対象語として再生成するよう前記対象語決定部に対して指示を行う
    ことを特徴とする請求項1記載の情報提供システム。
  9. 前記対象語決定部は、機器の操作コマンドとは異なるものになるように、前記認識対象語を動的に生成する
    ことを特徴とする請求項1記載の情報提供システム。
JP2016548463A 2014-09-16 2014-09-16 情報提供システム Expired - Fee Related JP6022138B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/074412 WO2016042600A1 (ja) 2014-09-16 2014-09-16 情報提供システム

Publications (2)

Publication Number Publication Date
JP6022138B2 true JP6022138B2 (ja) 2016-11-09
JPWO2016042600A1 JPWO2016042600A1 (ja) 2017-04-27

Family

ID=55532671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016548463A Expired - Fee Related JP6022138B2 (ja) 2014-09-16 2014-09-16 情報提供システム

Country Status (5)

Country Link
US (1) US9978368B2 (ja)
JP (1) JP6022138B2 (ja)
CN (1) CN106688036B (ja)
DE (1) DE112014006957B4 (ja)
WO (1) WO2016042600A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6786005B1 (ja) * 2020-04-09 2020-11-18 日鉄エンジニアリング株式会社 情報出力装置、情報出力システム、情報出力方法、プログラム、サーバ装置及びデータ出力方法
JP6786001B1 (ja) * 2020-04-09 2020-11-18 日鉄エンジニアリング株式会社 情報出力装置、情報出力システム、情報出力方法、プログラム、サーバ装置及びデータ出力方法
CN113626715A (zh) * 2021-08-26 2021-11-09 北京字跳网络技术有限公司 查询结果显示方法、装置、介质和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137883A (ja) * 1994-11-08 1996-05-31 Oki Electric Ind Co Ltd 辞書装置
JP2003099089A (ja) * 2001-09-20 2003-04-04 Sharp Corp 音声認識・合成装置および方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680511A (en) * 1995-06-07 1997-10-21 Dragon Systems, Inc. Systems and methods for word recognition
US5924068A (en) * 1997-02-04 1999-07-13 Matsushita Electric Industrial Co. Ltd. Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion
US6470307B1 (en) * 1997-06-23 2002-10-22 National Research Council Of Canada Method and apparatus for automatically identifying keywords within a document
EP1083545A3 (en) * 1999-09-09 2001-09-26 Xanavi Informatics Corporation Voice recognition of proper names in a navigation apparatus
US6937986B2 (en) * 2000-12-28 2005-08-30 Comverse, Inc. Automatic dynamic speech recognition vocabulary based on external sources of information
JP2003141117A (ja) * 2001-11-05 2003-05-16 Casio Comput Co Ltd 対話装置、及びプログラム、情報提供装置、及びプログラム
SE0202058D0 (sv) 2002-07-02 2002-07-02 Ericsson Telefon Ab L M Voice browsing architecture based on adaptive keyword spotting
JP2004070876A (ja) * 2002-08-09 2004-03-04 Casio Comput Co Ltd 会話システム及び会話処理プログラム
JP4149824B2 (ja) * 2003-01-30 2008-09-17 株式会社リコー 識別情報表示制御装置、プレゼンテーションデータ作成装置、プログラムおよび記録媒体
GB2407657B (en) * 2003-10-30 2006-08-23 Vox Generation Ltd Automated grammar generator (AGG)
US7624019B2 (en) * 2005-10-17 2009-11-24 Microsoft Corporation Raising the visibility of a voice-activated user interface
US8612230B2 (en) * 2007-01-03 2013-12-17 Nuance Communications, Inc. Automatic speech recognition with a selection list
US7729899B2 (en) * 2007-02-06 2010-06-01 Basis Technology Corporation Data cleansing system and method
US8538757B2 (en) * 2007-05-17 2013-09-17 Redstart Systems, Inc. System and method of a list commands utility for a speech recognition command system
US8494944B2 (en) * 2007-06-06 2013-07-23 O2 Media, LLC System, report, and method for generating natural language news-based stories
JP2010154397A (ja) * 2008-12-26 2010-07-08 Sony Corp データ処理装置、データ処理方法、及び、プログラム
WO2011013177A1 (ja) * 2009-07-31 2011-02-03 三菱電機株式会社 施設検索装置
DE112010005425T5 (de) * 2010-03-30 2013-01-10 Mitsubishi Electric Corporation Spracherkennungsvorrichtung
JP2012043046A (ja) * 2010-08-16 2012-03-01 Konica Minolta Business Technologies Inc 議事録作成システムおよびプログラム
US9691381B2 (en) * 2012-02-21 2017-06-27 Mediatek Inc. Voice command recognition method and related electronic device and computer-readable medium
US9858038B2 (en) * 2013-02-01 2018-01-02 Nuance Communications, Inc. Correction menu enrichment with alternate choices and generation of choice lists in multi-pass recognition systems
KR102247533B1 (ko) * 2014-07-30 2021-05-03 삼성전자주식회사 음성 인식 장치 및 그 제어 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137883A (ja) * 1994-11-08 1996-05-31 Oki Electric Ind Co Ltd 辞書装置
JP2003099089A (ja) * 2001-09-20 2003-04-04 Sharp Corp 音声認識・合成装置および方法

Also Published As

Publication number Publication date
US20170200448A1 (en) 2017-07-13
WO2016042600A1 (ja) 2016-03-24
US9978368B2 (en) 2018-05-22
JPWO2016042600A1 (ja) 2017-04-27
DE112014006957B4 (de) 2018-06-28
DE112014006957T5 (de) 2017-06-01
CN106688036A (zh) 2017-05-17
CN106688036B (zh) 2017-12-22

Similar Documents

Publication Publication Date Title
US9236045B2 (en) Methods and apparatus for proofing of a text input
KR102191425B1 (ko) 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법
JP2013068952A (ja) 音声認識結果の統合
US7742924B2 (en) System and method for updating information for various dialog modalities in a dialog scenario according to a semantic context
US9489944B2 (en) Information processing device, method and computer program product for processing voice recognition data
JP6535998B2 (ja) 音声学習装置および制御プログラム
JPWO2007097390A1 (ja) 音声認識システム、音声認識結果出力方法、及び音声認識結果出力プログラム
CN102640107A (zh) 信息处理装置
JP6064629B2 (ja) 音声入出力データベース検索方法、プログラム、及び装置
JP6022138B2 (ja) 情報提供システム
JP5396530B2 (ja) 音声認識装置および音声認識方法
JP5119671B2 (ja) 音声出力装置及び音声出力プログラム
JP5160594B2 (ja) 音声認識装置および音声認識方法
JP6676093B2 (ja) 異言語間コミュニケーション支援装置及びシステム
JP4675691B2 (ja) コンテンツ情報提供装置
KR101250897B1 (ko) 전자사전에서 음성인식을 이용한 단어 탐색 장치 및 그 방법
JP6161298B2 (ja) 音声検索表示装置
JP7297266B2 (ja) 検索支援サーバ、検索支援方法及びコンピュータプログラム
JP4305515B2 (ja) 音声出力装置及び音声出力プログラム
JP2010002830A (ja) 音声認識装置
JP6451153B2 (ja) 情報表示制御装置およびプログラム
JP6900723B2 (ja) 音声データ検索装置、音声データ検索方法及び音声データ検索プログラム
JP2008083410A (ja) 音声認識装置及びその方法
JP2008058678A (ja) 音声出力装置及び音声出力プログラム
JP6417754B2 (ja) 組合せ単語登録装置およびプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R150 Certificate of patent or registration of utility model

Ref document number: 6022138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees