JP2020012954A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2020012954A
JP2020012954A JP2018134664A JP2018134664A JP2020012954A JP 2020012954 A JP2020012954 A JP 2020012954A JP 2018134664 A JP2018134664 A JP 2018134664A JP 2018134664 A JP2018134664 A JP 2018134664A JP 2020012954 A JP2020012954 A JP 2020012954A
Authority
JP
Japan
Prior art keywords
trigger
section
unit
voice recognition
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018134664A
Other languages
English (en)
Other versions
JP7000268B2 (ja
Inventor
奈夕子 渡辺
Nayuko Watanabe
奈夕子 渡辺
籠嶋 岳彦
Takehiko Kagoshima
岳彦 籠嶋
浩司 藤村
Koji Fujimura
浩司 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018134664A priority Critical patent/JP7000268B2/ja
Priority to US16/287,845 priority patent/US11062705B2/en
Priority to CN201910149009.1A priority patent/CN110808039B/zh
Publication of JP2020012954A publication Critical patent/JP2020012954A/ja
Application granted granted Critical
Publication of JP7000268B2 publication Critical patent/JP7000268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】音声認識向上を図る。【解決手段】情報処理装置10は、検出部12Bと、音声認識部12Cと、を備える。検出部12Bは、音声信号40から音声認識開始を示すトリガを検出する。音声認識部12Cは、検出された前記トリガに対応するトリガ付音声認識辞書26Bを用いて、トリガを含むトリガ音区間に後続する認識音区間を音声認識する。【選択図】図1

Description

本発明の実施形態は、情報処理装置、情報処理方法、およびプログラムに関する。
ユーザが発話したコマンドを認識し機器の操作を行う音声認識装置が実用化されている。このような装置では、特定のキーワードの発声などによる音声認識開始を示すトリガを検出したときに、その後に発話された音声認識を行うことが行われている。
しかしながら、従来では、連続発話がなされた場合、トリガの検出およびトリガの後に発話された音声の音声認識を行うことが出来ない場合があった。
特開2015−194766号公報
本発明が解決しようとする課題は、音声認識向上を図ることができる、情報処理装置、情報処理方法、および情報処理プログラムに関する。
実施形態の情報処理装置は、検出部と、音声認識部と、を備える。検出部は、音声信号から音声認識開始を示すトリガを検出する。音声認識部は、検出された前記トリガに対応するトリガ付音声認識辞書を用いて、前記トリガを含むトリガ音区間に後続する認識音区間を音声認識する。
情報処理装置の機能ブロック図。 トリガ辞書のデータ構成の一例を示す模式図。 複数のトリガ辞書のデータ構成の一例を示す模式図。 トリガ検出と音声認識処理の一例の説明図。 単位区間の一例の説明図。 単位区間の一例の説明図。 単位区間の一例の説明図。 音声認識処理の一例の説明図。 音声認識処理の手順の一例を示すフローチャート。 従来技術の音声認識の説明図。 従来技術の音声認識の説明図。 音声認識の説明図。 音声認識の説明図。 ハードウェア構成例を示すブロック図。
以下に添付図面を参照して、情報処理装置、情報処理方法、およびプログラムを詳細に説明する。
図1は、本実施形態の情報処理装置10の機能ブロック図の一例である。情報処理装置10は、音声信号を音声認識する。
情報処理装置10は、制御部12と、受信部15と、出力部17と、入力部22と、音声記憶部24と、記憶部26と、を備える。制御部12と、受信部15、出力部17、入力部22、音声記憶部24、および記憶部26とは、データや信号を授受可能に接続されている。
受信部15は、音声信号を受付ける。音声信号は、音声を示す信号である。音声信号は、音信号の時系列集合によって表される。音信号は、あるタイミングに集音された音を示す信号である。すなわち、音声信号は、各タイミングに集音された音信号の時系列集合によって表される。
本実施形態では、音声信号は、ユーザの発話した音声を示す信号である場合を一例として説明する。なお、音声信号は、機械などの物から発生した音声を含んでいてもよい。また、音声信号は、ユーザの発話した音声および物から発生した音声の双方を含んでいてもよい。
受信部15は、マイク14および通信部16の少なくとも一方を含む。マイク14は、音声を集音して電気信号に変換し、音声信号として制御部12へ出力する。通信部16は、ネットワーク等を介して有線または無線により外部装置と通信する。通信部16が受信部15として機能する場合、通信部16は、外部装置に記憶または外部装置で集音した音声の音声信号を、該外部装置から受信する。
出力部17は、各種情報を出力する。本実施形態では、出力部17は、制御部12による音声認識結果を出力する(詳細後述)。
出力部17は、通信部16、ディスプレイ18、およびスピーカ20の少なくとも1つを含む。通信部16が出力部17として機能する場合、通信部16は、音声認識結果を、ネットワーク等を介して外部装置へ送信する。ディスプレイ18は、音声認識結果を示す情報を表示する。ディスプレイ18は、公知の液晶表示装置や、有機EL(エレクトロルミネッセンス)ディスプレイなどである。なお、ディスプレイ18は、入力機能と表示機能を一体に備えたタッチパネルであってもよい。
入力部22は、ユーザによる操作入力を受付ける。入力部22は、キーボード、マウス、ポインティングデバイスなどである。
なお、マイク14、ディスプレイ18、スピーカ20、および入力部22の少なくとも一つは、情報処理装置10とは別体として構成してもよい。例えば、マイク14、ディスプレイ18、スピーカ20、および入力部22の少なくとも1つを、ネットワークなどを介して有線または無線により情報処理装置10と通信可能に接続してもよい。また、マイク14やディスプレイ18を、ネットワークを介して情報処理装置10に接続された端末装置などに搭載してもよい。
音声記憶部24は、各種データを記憶する。音声記憶部24は、公知の記憶媒体である。本実施形態では、音声記憶部24は、受信部15で受信した音声信号を記憶するバッファとして機能する。なお、音声記憶部24は、音声信号に含まれるトリガのトリガ音区間を超える長さの音声信号を記憶可能な容量であればよい。ここで、トリガとは何らかの動作を開始するためのきっかけとなる命令や信号のことをさすが、トリガおよびトリガ音区間の詳細は後述する。
記憶部26は、各種データを記憶する。記憶部26は、公知の記憶媒体である。本実施形態では、記憶部26は、トリガ辞書26Aと、トリガ付音声認識辞書26Bと、音声認識辞書26Cと、を予め記憶する。
図2Aは、トリガ辞書26Aのデータ構成の一例を示す模式図である。トリガ辞書26Aは、1または複数のトリガを予め登録した辞書である。トリガとは、音声認識開始を示すキーワードとなる音声である。トリガは、トリガを示すワード(トリガワード)であってもよいし、トリガを示す音量変化のパターンであってもよい。本実施形態では、トリガは、トリガワードである場合を一例として説明する。なお、トリガは、音声認識開始を示す共に、電子機器に対する指示コマンドを示すものであってもよい。
記憶部26は、予め定めた複数のトリガをトリガ辞書26Aに登録する。なお、トリガ辞書26Aに登録されたトリガは、ユーザによる入力部22の操作指示などによって適宜変更可能としてもよい。
図2Aには、“型番”、“お願い”をトリガの一例として示した。なお、トリガは、これらに限定されない。
なお、トリガは、段階的に発話される場合がある。例えば、ユーザは、概要の指示を示すトリガワードを発話した後に、より詳細な指示に向かって段階的にトリガワードを発話する場合がある。このため、記憶部26は、トリガの発話順に沿って、複数のトリガ辞書26Aを階層的に記憶してもよい。
図2Bは、複数のトリガ辞書26Aのデータ構成の一例を示す模式図である。例えば、記憶部26は、電子機器への概要の指示を示すトリガをトリガ辞書26A1に登録する。そして、記憶部26は、該トリガ辞書26A1に登録された複数のトリガの各々に対応付けて、次に発話される1段階詳細な指示を示すトリガを登録したトリガ辞書26A2(トリガ辞書26A2a、トリガ辞書26A2b)を記憶する。さらに、記憶部26は、トリガ辞書26A2に登録された複数のトリガの各々に対応付けて、次に発話される更に1段階詳細な指示を示すトリガを登録したトリガ辞書26A3を記憶する。
このように、記憶部26は、複数のトリガ辞書26Aを階層的に記憶してもよい。
図1に戻り説明を続ける。次に、トリガ付音声認識辞書26Bおよび音声認識辞書26Cについて説明する。
記憶部26は、トリガごとに、トリガに対応するトリガ付音声認識辞書26Bおよび音声認識辞書26Cを予め記憶する。本実施形態では、記憶部26は、トリガ辞書26Aに登録されているトリガごとに、トリガに対応するトリガ付音声認識辞書26Bおよび音声認識辞書26Cを予め記憶する。
例えば、記憶部26は、トリガ辞書26Aに登録されているトリガを識別するトリガIDに対応付けて、トリガ付音声認識辞書26Bおよび音声認識辞書26Cを予め記憶する。
トリガ付音声認識辞書26Bは、トリガ音区間および認識音区間から、認識音区間の音声認識結果を導出するための辞書である。
トリガ音区間とは、音声信号における、トリガを示す音声の区間を示す。区間とは、時間的な長さ(期間)を示す。すなわち、トリガ音区間は、トリガを示す音信号の時系列集合によって表される。認識音区間とは、音声信号における、トリガのトリガ音区間の後に連続する区間である。
トリガ付音声認識辞書26Bは、具体的には、音声認識を行うために使用する文法を定義したグラマデータである。トリガ付音声認識辞書26Bは、トリガ音区間および認識音区間を入力データとして用いる辞書である。すなわち、トリガ付音声認識辞書26Bは、トリガ音区間および認識音区間を入力データとして該トリガ付音声認識辞書26Bに入力することで、該入力データに含まれるトリガ音区間および認識音区間を音声認識し、認識音区間の音声認識結果を得るための辞書である。
音声認識辞書26Cは、有音区間から、該有音区間の音声認識結果を導出するための辞書である。有音区間とは、音声信号における、音声の含まれる区間である。音声が含まれるとは、予め定めた閾値以上の音量の音を含むことを意味する。該閾値は、無音と有音とを区別するための音量を示す値であればよく、予め定めればよい。すなわち、有音区間は、有音を示す何等かの音信号の時系列集合によって表される。
音声認識辞書26Cは、音声認識を行うために使用する文法を定義したグラマデータである。音声認識辞書26Cは、有音区間を入力データとして用いる辞書である。すなわち、音声認識辞書26Cは、有音区間を入力データとして入力することで、該有音区間を該音声認識辞書26Cに従い音声認識し、該有音区間の音声認識結果を得るための辞書である。
本実施形態では、トリガ付音声認識辞書26Bおよび音声認識辞書26Cは、トリガ辞書26Aに登録されているトリガごとに予め作成され、トリガのトリガIDに対応付けて記憶部26に予め記憶されている。すなわち、記憶部26には、トリガ辞書26Aに登録されているトリガごとに、トリガ付音声認識辞書26Bおよび音声認識辞書26Cが予め登録されている。
なお、音声記憶部24および記憶部26を、1つの記憶部として構成してもよい。また、記憶部26に記憶されているデータの少なくとも一部を、外部サーバなどの外部装置に記憶してもよい。
次に、制御部12について説明する。制御部12は、情報処理装置10を制御する。制御部12は、音声取得部12Aと、検出部12Bと、音声認識部12Cと、出力制御部12Dと、受付部12Eと、を有する。
音声取得部12A、検出部12B、音声認識部12C、出力制御部12D、および受付部12Eは、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
音声取得部12Aは、音声信号を取得する。本実施形態では、音声取得部12Aは、マイク14または通信部16から音声信号を取得する。音声取得部12Aは、取得した音声信号を、音声記憶部24へ記憶する。
上述したように、音声記憶部24は、トリガ音区間を超える長さの音声信号を記憶可能な容量である。また、音声信号は、音信号の時系列集合である。このため、音声記憶部24の容量が一杯の場合、音声取得部12Aは、音声記憶部24に記憶されている音声信号を構成する音信号を古い音信号から順に削除して、新しい音信号を上書きして記憶する。このため、音声記憶部24には、最新の音声信号が記憶される。
検出部12Bは、音声信号から音声認識開始を示すトリガを検出する。検出部12Bは、音声記憶部24に記憶されている音声信号を時系列に沿って読取り、トリガ辞書26Aに登録されている何れかのトリガと一致する音信号の時系列集合を特定することで、トリガを検出する。なお、検出部12Bは、公知の方法でトリガを検出すればよい。例えば、検出部12Bは、音声信号を先頭から時系列に順次読取り、トリガ辞書26Aに記憶されているトリガの各々を音信号の時系列集合に変換した変換信号と比較し、該変換信号と一致する区間の有無を判別することで、トリガを検出すればよい。
なお、上述したように、音声記憶部24は、複数のトリガ辞書26Aを階層的に記憶してもよい。この場合、検出部12Bは、音声信号を時系列に沿って読取り、トリガを検出するごとに、検出したトリガに対応する一段階下の階層のトリガ辞書26A(例えば、トリガ辞書26A2)を、次のトリガの検出に用いることが好ましい。このように、検出部12Bが、階層的に記憶された複数のトリガ辞書26Aの上位階層から下位階層に向かって順にトリガ辞書26Aを読取り、次のトリガの検出に用いることで、検出するべきトリガの候補が少なるため、トリガ検出精度の向上を図ることができる。
検出部12Bは、トリガを検出すると、検出したトリガのトリガIDと、該トリガのトリガ音区間の始端を示す始端情報と、を検出部12Bへ通知する。トリガ音区間の始端は、トリガ音区間における、時系列の最上流側端部を示す。トリガ音区間の始端情報は、トリガ音区間の始端を示す情報であればよい。始端情報は、例えば、トリガ音区間の始端を示す始端時刻で表される。以下、始端および始端情報を、始端時刻と称して説明する場合がある。
音声認識部12Cは、検出部12Bで検出されたトリガに対応するトリガ付音声認識辞書26Bを用いて、音声信号における、検出されたトリガのトリガ音区間に後続する認識音区間を音声認識する。言い換えると、音声認識部12Cは、検出されたトリガのトリガ音区間および該トリガ音区間に後続する認識音区間を、該トリガ音区間のトリガに対応するトリガ付音声認識辞書26Bに従って音声認識することで、該認識音区間の音声認識結果を得る。本実施形態では、検出部12Bおよび音声認識部12Cは、検出処理と音声認識処理を並列で実行する。
詳細には、音声認識部12Cは、検出部12Bによる音声信号の読取および検出処理と並列して、音声記憶部24から音声信号を時系列順に読取る。音声認識部12Cは、検出部12BからトリガIDおよびトリガ音区間の始端情報を受付けたときに、トリガが検出されたと判断する。そして、音声認識部12Cは、検出部12Bから受付けたトリガIDに対応するトリガ付音声認識辞書26Bを、記憶部26から読取る。
そして、音声認識部12Cは、読取った該トリガ付音声認識辞書26Bと、音声信号における、検出されたトリガのトリガ音区間の始端から該トリガ音区間より後の予め定めた終端までの単位区間と、を用いて、該単位区間における該トリガ音区間に後続する区間である認識音区間を音声認識する。
単位区間は、音声認識部12Cがトリガ付音声認識辞書26Bを用いた音声認識処理を行うときの、音声認識の単位となる区間である。言い換えると、単位区間は、音声認識部12Cがトリガ付音声認識辞書26Bを用いて音声認識処理を行うときに、音声認識辞書26Cへ入力する、音声信号40の区間の単位である。単位区間の終端は、検出されたトリガのトリガ音区間より後であればよい。
図3は、トリガ検出と音声認識処理の一例の説明図である。例えば、ユーザUの発話により、音声取得部12Aが、「型番AA電圧20V」という音声信号40を取得したと想定する。また、この音声信号40おける「型番」および「電圧」が、トリガを示すトリガワードであると想定する。また、これらのトリガは、トリガ辞書26Aに予め登録されていると想定する。
検出部12Bが音声信号40を先頭から時系列順に読取り、トリガの検出処理を実行する(矢印A1参照)。検出部12Bは、音声信号40におけるトリガ「型番」のトリガ音区間T1を読取った時に、トリガ「型番」を検出する。トリガ音区間T1はトリガ音区間Tの一例である。そして、検出部12Bは、検出したトリガ「型番」のトリガIDと、トリガ音区間T1の始端時刻t1と、を音声認識部12Cへ通知する。
音声認識部12Cは、検出されたトリガ「型番」のトリガIDとトリガ音区間T1の始端時刻t1を検出部12Bから受付けると、音声信号40における、トリガ音区間T1の始端時刻t1から、該トリガ音区間T1より後の終端までの単位区間B1を読取る。単位区間B1は、単位区間Bの一例である。そして、音声認識部12Cは、該トリガ「型番」のトリガIDに対応するトリガ付音声認識辞書26Bと、該トリガ音区間T1を含む単位区間B1と、を用いて、単位区間B1の音声認識を行い、単位区間B1内の認識音区間S1の音声認識結果を出力する。認識音区間S1は、認識音区間Sの一例であり、単位区間B1における、トリガ音区間T1に後続する区間である。
一方、検出部12Bは音声信号40の読取と検出処理を並列して実行し(矢印A2参照)、トリガ「電圧」のトリガ音区間T2を読取った時に、トリガ「電圧」を検出する。そして、検出部12Bは、検出したトリガ「電圧」のトリガIDとトリガ音区間T2の始端時刻t3を音声認識部12Cへ通知する。トリガ音区間T2はトリガ音区間Tの一例である。そして、更に、検出部12Bは、音声信号40の読取と検出処理を継続する(矢印A3参照)。
音声認識部12Cは、検出されたトリガ「電圧」のトリガIDとトリガ音区間T2の始端時刻t3を検出部12Bから受付けると、音声信号40における、トリガ音区間T2の始端時刻t3から、該トリガ音区間T2より後の終端までの単位区間B2を読取る。単位区間B2は、単位区間Bの一例である。そして、音声認識部12Cは、該トリガ「電圧」のトリガIDに対応するトリガ付音声認識辞書26Bと、単位区間B2と、を用いて、単位区間B2の音声認識を行い、単位区間B2内の認識音区間S2の音声認識結果を出力する。認識音区間S2は、認識音区間Sの一例であり、単位区間B2における、トリガ音区間T2に後続する区間である。
このように、音声認識部12Cは、認識対象の認識音区間Sのみではなく、トリガ音区間Tおよび認識音区間Sの双方を含む単位区間Bを、トリガに対応するトリガ付音声認識辞書26Bに入力する入力データとして用いることで、該トリガ付音声認識辞書26Bに従って認識音区間Sの音声認識結果を出力する。
なお、上述したように、単位区間Bは、音声信号40における、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tより後の予め定めた終端までの区間であればよい。
例えば、単位区間Bは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tを超える予め定めた長さの区間である。また、例えば、単位区間Bは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する他のトリガ音区間Tの始端までの区間である。また、例えば、単位区間Bは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する無音区間までの区間である。
図4A、図4B、および図4Cは、単位区間Bの一例の説明図である。
図4Aに示すように、例えば、単位区間Bは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tを超える予め定めた長さLの区間である。この場合、単位区間B1は、トリガ「型番」のトリガ音区間T1の始端時刻t1から長さLの区間である。単位区間B2は、トリガ音区間T2の始端時刻t2から長さLの区間である。なお、この長さLは、トリガ辞書26Aに登録されているトリガのトリガ音区間の内、最も長いトリガ音区間の長さを超える長さを、予め定めればよい。
ここで、単位区間Bが、検出されたトリガのトリガ音区間Tの始端から予め定めた長さLの区間である場合、単位区間Bに含まれる認識音区間S(例えば、認識音区間S1)に、次に検出されるトリガのトリガ音区間T(例えば、トリガ音区間T2)が含まれる場合がある。本実施形態では、単位区間Bは、時系列の先頭をトリガ音区間Tとする区間であればよく、該トリガ音区間Tに後続する認識音区間S内に他のトリガ音区間Tが含まれていてもよい。
この場合、音声認識部12Cは、検出部12Bによってトリガが検出される毎に、互いに同じ長さLの単位区間Bを用いて、音声認識処理を行うことができる。
図4Bに示すように、単位区間Bは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する他のトリガ音区間Tの始端までの区間であってもよい。この場合、単位区間B1は、トリガ音区間T1の始端時刻t1から次のトリガ音区間T2の始端時刻t3までの区間である。また、単位区間B2は、トリガ音区間T2の始端時刻t3から次のトリガ音区間T3の始端時刻t4までの区間である。
単位区間Bが、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する他のトリガ音区間Tの始端までの区間である場合、単位区間Bに含まれる認識音区間S(認識音区間S1、認識音区間S2)には、他のトリガ音区間Tが含まれない形態となる。
この場合、音声認識部12Cは、トリガごとに、トリガの後に連続し且つ他のトリガを含まない認識音区間Sについて、音声認識処理を行うことができる。すなわち、音声認識部12Cは、トリガ単位で、該トリガの後に連続する認識音区間Sを音声認識することができる。
なお、単位区間Bは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接するほかのトリガ音区間Tの終端までの区間であってもよい。この場合、単位区間Bに含まれる認識音区間Sには、他のトリガ音区間Tが含まれる形態となる。
図4Cに示すように、単位区間Bは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する無音区間Nまでの区間であってもよい。この場合、図4Cに示すように、単位区間B1は、トリガ音区間T1の始端時刻t1から、該トリガ音区間T1の後に隣接する無音区間N1までの区間である。無音区間N1は、無音区間Nの一例である。なお、単位区間B1の終端は、該無音区間N1の始端時刻t2から終端時刻t3までの何れの時刻であってもよい。また、単位区間B2は、トリガ音区間T2の始端時刻t3から該トリガ音区間T2の後に隣接する無音区間N2までの区間であればよい。無音区間N2は、無音区間Nの一例である。単位区間B2の終端は、単位区間B1の終端と同様に、該無音区間N2の始端時刻から終端時刻までの何れの時刻であってもよい。
この場合、音声認識部12Cは、音声信号40を、無音区間Nごとに区切って音声認識処理することができる。
なお、音声認識部12Cは、公知の方法を用いて、音声信号40における無音区間Nを判断すればよい。なお、検出部12Bで音声信号40における無音区間Nを更に検出してもよい。この場合、音声認識部12Cは、検出部12Bから無音区間Nを示す情報を受付けることで、無音区間Nを判断すればよい。また、情報処理装置10に、音声信号40における無音区間Nを特定する公知の検出器を搭載してもよい。この場合、音声認識部12Cは、該検出器から無音区間Nの特定結果を取得することで、無音区間Nを判断すればよい。
図1に戻り説明を続ける。このように、本実施形態では、音声認識部12Cは、音声信号40における検出されたトリガのトリガ音区間Tと該トリガ音区間Tに後続する認識音区間Sを、検出されたトリガに対応するトリガ付音声認識辞書26Bに従って音声認識することで、該認識音区間Sの音声認識結果を得る。
このため、本実施形態の情報処理装置10は、音声信号40に含まれるトリガの全てについて、トリガのトリガ音区間Tに後続する認識音区間Sの音声認識を欠落することなく実行することができる。すなわち、複数のトリガを含む複数の単語が連続して発話された場合であっても、本実施形態の情報処理装置10は、該発話の音声信号40に含まれる全てのトリガの各々の後に連続する認識音区間Sについて、音声認識を実行することができる。
なお、上述したように、音声認識部12Cがトリガ付音声認識辞書26Bを用いて音声認識を行う単位である単位区間Bを、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する無音区間Nまでの区間としたと想定する。そして、音声信号40が、単位区間Bの後に、始端にトリガ音区間Tを含まない有音区間を含むと想定する。この場合、該有音区間は、トリガ付音声認識辞書26Bによって音声認識処理されない。
そこで、この場合、音声認識部12Cは、トリガ付音声認識辞書26Bと音声認識辞書26Cを繰り替えて、音声認識処理を実行する。
詳細には、音声認識部12Cは、検出されたトリガに対応するトリガ付音声認識辞書26Bと、音声信号40における、検出された該トリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する無音区間Nまでの単位区間Bと、を用いて該単位区間Bにおける認識音区間Sを音声認識する。そして、音声認識部12Cは、音声信号40における、該無音区間Nに後続する有音区間を、検出された該トリガに対応する音声認識辞書26Cを用いて音声認識する。
図5は、トリガ付音声認識辞書26Bと音声認識辞書26Cを切替えて音声認識処理する場合の一例の説明図である。図5に示すように、検出部12Bが音声信号40を先頭から時系列順に読取り、トリガの検出処理を実行する(矢印A1参照)。そして、検出部12Bは、音声信号40におけるトリガ「型番」のトリガ音区間T1を読取った時に、トリガ「型番」を検出する。そして、検出部12Bは、検出したトリガ「型番」のトリガIDとトリガ音区間T1の始端時刻t1を、音声認識部12Cへ通知する。
音声認識部12Cは、トリガ「型番」のトリガIDとトリガ音区間T1の始端時刻t1を検出部12Bから受付けると、音声信号40における、トリガ音区間T1の始端時刻t1から、該トリガ音区間T1の後に隣接する無音区間N1までの単位区間B1を読取る。そして、音声認識部12Cは、該トリガIDに対応するトリガ付音声認識辞書26Bと、単位区間B1と、を用いて、単位区間B1内の認識音区間S1の音声認識を行う。
そして、音声認識部12Cは、該単位区間B1の終端の無音区間N1の後に連続する有音区間V1を、直前に検出されたトリガ「型番」に対応する音声認識辞書26Cを用いて音声認識する。有音区間V1は、有音区間Vの一例であり、無音区間N1と無音区間N2との間に存在する有音区間Vである。
そして、音声認識部12Cは、検出部12Bが次のトリガ(図5の例の場合、トリガ「電圧」)を検出するまで、単位区間B1に後続する有音区間V(有音区間V1、有音区間V2)の各々について、直前に検出されたトリガ「型番」に対応する音声認識辞書26Cを用いて、音声認識を実行する。
なお、音声認識部12Cは、新たなトリガIDおよび該トリガIDによって識別されるトリガのトリガ音区間Tの始端時刻を、検出部12Bから受付けたときに、検出部12Bが次のトリガを検出したと判断すればよい。
すなわち、検出部12Bは、音声信号40の読取と検出処理を並列して実行し(矢印A2参照)、次のトリガ「電圧」のトリガ音区間T2を読取った時に、トリガ「電圧」を検出する。そして、検出したトリガ「電圧」のトリガIDとトリガ音区間T2の始端時刻t3を音声認識部12Cへ通知する。そして、更に、検出部12Bは、音声信号40の読取と検出処理を継続する(矢印A3参照)。
新たなトリガ「電圧」のトリガIDおよびトリガ音区間T2の始端時刻t3を受付けると、音声認識部12Cは、トリガ「型番」に対応する音声認識辞書26Cを用いた有音区間Vの音声認識処理を終了する。そして、音声認識部12Cは、音声信号40におけるトリガ音区間T2の始端時刻t3から、該トリガ音区間T2の後に隣接する無音区間Nまでの単位区間B2を読取る。そして、音声認識部12Cは、上記と同様にして、該トリガ「電圧」のトリガIDに対応するトリガ付音声認識辞書26Bと、単位区間B2と、を用いて、単位区間B2内の認識音区間S2の音声認識を行えばよい。
このように、単位区間Bを、トリガ音区間Tの始端から該トリガ音区間Tの後に隣接する無音区間Nまでの区間とする場合、音声認識部12Cは、トリガ付音声認識辞書26Bと音声認識辞書26Cとを切替えて音声認識処理することによって、音声信号40に含まれる全てのトリガの各々の後に連続する認識音区間S、およびトリガの後に非連続の有音区間Vについて、取りこぼすことなく音声認識を実行することができる。
図1に戻り説明を続ける。出力制御部12Dは、音声認識部12Cの音声認識結果を出力部17へ出力する。例えば、出力制御部12Dは、音声認識結果を、通信部16を介して外部装置へ送信する。また、例えば、出力制御部12Dは、音声認識結果をディスプレイ18へ表示する。また、例えば、出力制御部12Dは、音声認識結果を示す音をスピーカ20から出力する。
なお、上述したように、音声認識部12Cは、音声信号40に含まれるトリガごとに、トリガのトリガ音区間Tに連続する認識音区間Sの音声認識結果を導出する。このため、音声認識部12Cは、複数の音声認識結果を導出することとなる。
ここで、図4Aを用いて説明したように、音声認識部12Cは、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tを超える予め定めた長さLの区間を、単位区間Bとして用いる場合がある。この場合、1つの単位区間Bに含まれる認識音区間Sに、次に検出されるトリガ音区間Tや該トリガ音区間Tの後に連続する認識音区間Sが含まれる場合がある。すなわち、この場合、トリガごとに導出された音声認識結果には、音声信号40における、重複する区間の音声認識結果が含まれる場合がある。
そこで、出力制御部12Dは、複数の音声認識結果の各々について、音声認識結果から、音声信号40における該音声認識結果に対応する区間の後の区間の他の音声認識結果を除去した結果を出力してもよい。
具体的には、図4Aに示すように、出力制御部12Dは、認識音区間S1の音声認識結果から、次のトリガ音区間T2および認識音区間S2の音声認識結果を除去した結果を、トリガ「型番」の後に連続する認識音区間S1の音声認識結果として用いてもよい。
図1に戻り説明を続ける。また、出力制御部12Dは、複数の音声認識結果の内、出力対象の音声認識結果を選択し、選択した音声認識結果を出力部17へ出力してもよい。
この場合、受付部12Eは、出力対象の音声認識結果の選択入力を、入力部22から受付ける。例えば、出力制御部12Dは、音声認識部12Cによる複数の音声認識結果の一覧を、ディスプレイ18へ表示する。ユーザは、入力部22を操作することで、ディスプレイ18に表示された複数の音声認識結果から、出力対象の音声認識結果を選択する。なお、出力対象の音声認識結果を選択するユーザは、音声信号40の発話者とは異なるユーザであることが好ましい。具体的には、出力対象の音声認識結果を選択するユーザは、情報処理装置10の管理者であることが好ましい。
そして、受付部12Eが、入力部22から出力対象の音声認識結果の選択入力を受付けると、出力制御部12Dは、音声認識部12Cで音声認識された複数の音声認識結果の内、受付部12Eで受付けた出力対象の音声認識結果を出力部17へ出力すればよい。
例えば、音声を発話するユーザが、誤ったトリガワードを発話した後に、正しいトリガワードを発話する場合がある。このような場合、管理者による入力部22の操作指示によって、出力対象の音声認識結果が選択されることで、出力制御部12Dは、適切な音声認識結果を選択的に出力することができる。
次に、本実施形態の情報処理装置10が実行する音声認識処理の手順の一例を説明する。
図6は、情報処理装置10が実行する音声認識処理の手順の一例を示す、フローチャートである。なお、図6には、音声取得部12Aが、検出されたトリガのトリガ音区間Tの始端から該トリガ音区間Tの後に隣接する無音区間Nまでの区間を、単位区間Bとして用いる場合を一例として示した。
音声取得部12Aは、受信部15から音声信号40を取得すると(ステップS100)、音声記憶部24へ記憶する(ステップS102)。音声取得部12Aは、受信部15が音声信号40を受信するごとに、音声記憶部24への音声信号40の記憶(上書き)を継続して実行する。
次に、検出部12Bが、音声記憶部24に記憶されている音声信号40の時系列に沿った読取りを開始する(ステップS104)。そして、検出部12Bは、トリガ辞書26Aに登録されている何れかのトリガを検出するまで否定判断を繰返す(ステップS106:No)。検出部12Bは、トリガを検出すると(ステップS106:Yes)、検出したトリガのトリガIDおよびトリガ音区間Tの始端時刻を、音声認識部12Cへ通知する。
出力制御部12Dは、ステップS106または後述するステップS116で検出されたトリガを出力部17へ出力する(ステップS108)。
音声認識部12Cは、検出部12Bで新たなトリガが検出される毎に、ステップS110〜ステップS112の処理を実行する。
詳細には、音声認識部12Cは、検出されたトリガに対応するトリガ付音声認識辞書26Bを、記憶部26から取得する(ステップS110)。音声認識部12Cは、検出部12Bから直前に受付けたトリガIDに対応するトリガ付音声認識辞書26Bを記憶部26から読取ることで、トリガ付音声認識辞書26Bを取得する。
次に、音声認識部12Cは、音声信号40における、検出部12Bから直前に受付けたトリガ音区間Tの始端時刻から、該トリガ音区間Tの後に隣接する無音区間Nまでの単位区間Bと、ステップS110で取得したトリガ付音声認識辞書26Bと、を用いて該単位区間Bに含まれる認識音区間Sを音声認識する(ステップS112)。
次に、出力制御部12Dは、ステップS112または後述するステップS122の音声認識結果を出力部17へ出力する(ステップS114)。
次に、音声認識部12Cは、新たなトリガが検出されたか否かを判断する(ステップS116)。音声認識部12Cは、検出部12Bから新たなトリガIDおよびトリガ音区間Tの始端時刻を受付けたか否かを判別することで、ステップS116の判断を行う。
新たなトリガが検出されない場合(ステップS116:No)、ステップS118へ進む。ステップS118では、音声認識部12Cは、音声信号40における、直前に音声認識した単位区間Bまたは直前に音声認識した有音区間Vの次に、有音区間Vが有るか否かを判断する(ステップS118)。
ステップS118で否定判断すると(ステップS118:No)、上記ステップS116へ戻る。ステップS118で肯定判断すると(ステップS118:Yes)、ステップS120へ進む。
ステップS120では、音声認識部12Cは、直前に検出されたトリガに対応する音声認識辞書26C記憶部26から取得する(ステップS120)。
そして、音声認識部12Cは、ステップS120で取得した音声認識辞書26Cを用いて、ステップS118で特定した有音区間Vの音声認識処理を行う(ステップS122)。そして、上記ステップS114へ戻る。
一方、ステップS116で肯定判断すると(ステップS116:Yes)、検出部12Bは、ステップS116で検出したトリガが、音声認識処理の終了を示す終了トリガであるか否かを判断する(ステップS124)。ステップS124で否定判断すると(ステップS124:No)、上記ステップS108へ戻る。一方、ステップS124で肯定判断すると(ステップS124:Yes)、ステップS126へ進む。
ステップS126では、出力制御部12Dが、上記音声認識処理による音声認識結果を、出力部17へ出力する(ステップS126)。そして、本ルーチンを終了する。
以上説明したように、本実施形態の情報処理装置10は、検出部12Bと、音声認識部12Cと、を備える。検出部12Bは、音声信号40から音声認識開始を示すトリガを検出する。音声認識部12Cは、検出されたトリガに対応するトリガ付音声認識辞書26Bを用いて、トリガを含むトリガ音区間Tに後続する認識音区間Sを音声認識する。
このように、本実施形態の情報処理装置10では、音声認識部12Cは、音声信号40における検出されたトリガのトリガ音区間Tと該トリガ音区間Tに後続する認識音区間Sを、検出されたトリガに対応するトリガ付音声認識辞書26Bに従って音声認識することで、該認識音区間Sの音声認識結果を得る。また、トリガ付音声認識辞書26Bは、トリガ音区間Tのみではなく、トリガ音区間Tおよび認識音区間Sから、認識音区間Sの音声認識結果を導出するための辞書である。
このため、本実施形態の情報処理装置10は、音声信号40に含まれるトリガの全てについて、トリガのトリガ音区間Tに後続する認識音区間Sの音声認識を欠落することなく実行することができる。すなわち、複数のトリガを含む複数の単語が連続して発話された場合であっても、本実施形態の情報処理装置10は、該発話の音声信号40に含まれる全てのトリガの各々の後に連続する認識音区間Sについて、音声認識を実行することができる。
ここで、従来技術では、複数のトリガを含む複数の単語が連続して発話された音声信号40について、音声認識を行うことは困難であった。
図7Aおよび図7Bは、従来技術による音声認識の説明図である。例えば、ユーザUの発話により、「お願いエアコンつけてお願い温度28度」という音声信号400を音声認識する場合を想定する。また、この音声信号400における「お願い」が、トリガであると想定する。
例えば、図7Aに示すように、トリガとトリガ以外の単語の各々が間をあけて発話されたと想定する。この場合、従来技術では、音声信号400を先頭から時系列順に読取り、音声信号400におけるトリガ「お願い」を検出した後に(矢印A10参照)、該トリガの後ろに連続する単語「エアコンつけて」を認識する(矢印S10参照)。そして、更に、トリガ「お願い」を更に検出した後に(矢印A11参照)、該トリガの後ろに連続する単語「温度28度」を認識する(矢印S11参照)。このように、トリガとトリガ以外の単語の各々が間をあけて発話される場合、従来技術であっても、各々のトリガの後に発話された単語を音声認識していた。
しかし、図7Bに示すように、複数のトリガを含む複数の単語が連続して発話された場合、従来技術では、音声信号400の音声認識を行うことが困難であった。詳細には、従来技術では音声信号400に含まれる1番目のトリガ「お願い」を検出すると、その後の音声信号に含まれる「エアコンつけてお願い温度28度」を音声認識していた。このため、1番目の「お願い」が検出された際には画面上に「お願い」が検出された旨を表示できるが、2番目の「お願い」が検出された旨は表示できない。また、図3のように1番目のトリガが「型番」で2番目のトリガが「電圧」であり、「型番」が英字、「電圧」が数字+単位であることがわかっている場合、型番にあたる部分「AAB」は英字のみ認識する音声認識辞書、電圧にあたる部分「20V」は数字+単位のみ認識する音声認識辞書を用いて音声認識することで音声認識精度を上げることができる。しかし従来技術では型番にあたる部分と電圧にあたる部分で1つの音声認識辞書を用いて音声認識するため、音声認識精度を上げることができなかった。
また別の従来技術では、音声信号400に含まれるトリガ「お願い」を検出すると(矢印A10参照)、該トリガ「お願い」に後続する区間S10’の音声認識を開始する。そして、この区間S10’の音声認識中に、次のトリガ「お願い」が検出されると(矢印A11参照)、該区間S10’の音声認識を無効にし、2番目に検出されたトリガ「お願い」に後続する区間S11’は音声認識されなかった。
また、従来技術では、トリガとトリガ後の発話との間や、発話と次のトリガとの間に、ポーズを入れずに連続した発話がなされた場合、トリガの検出およびトリガ後の発話の音声認識を行うことが出来ない場合があった。
このため、従来技術では、複数のトリガを含む複数の単語が連続して発話された場合、音声信号400に含まれる複数のトリガの各々の後に連続する単語の内の少なくとも一部が、音声認識されない場合、トリガに続く発話の音声認識精度が下がる場合があった。
また、従来技術では、音声信号400の音声認識に、トリガ音区間を含まない辞書(すなわち、本実施形態の音声認識辞書26Cに相当)のみを用いていた。このため、従来技術では、トリガの後に隣接する単語の始端の欠けやノイズの混入などによる、トリガの終端や該単語の始端の特定不良などにより、該単語の音声認識がなされない場合があった。
一方、本実施形態の情報処理装置10では、音声認識部12Cが、音声信号40における検出されたトリガのトリガ音区間Tと該トリガ音区間Tに後続する認識音区間Sを、検出されたトリガに対応するトリガ付音声認識辞書26Bに従って音声認識することで、該認識音区間Sの音声認識結果を得る。また、トリガ付音声認識辞書26Bは、トリガ音区間Tのみではなく、トリガ音区間Tおよび認識音区間Sから、認識音区間Sの音声認識結果を導出するための辞書である。
このため、本実施形態の情報処理装置10は、音声信号40に含まれるトリガの全てについて、トリガのトリガ音区間Tに後続する認識音区間Sの音声認識を欠落することなく実行することができる。すなわち、複数のトリガを含む複数の単語が連続して発話された場合であっても、本実施形態の情報処理装置10は、該発話の音声信号40に含まれる全てのトリガの各々の後に連続する認識音区間Sについて、検出されたトリガに対応した辞書を用いた、音声認識を実行することができる。
従って、本実施形態の情報処理装置10は、音声認識向上を図ることができる。
(変形例1)
なお、上記実施形態では、トリガとして「お願い」という言葉を設定する例を示した。しかし、情報処理装置10は、トリガとして、別のトリガ(トリガワード)を複数用意してもよい。
図8Aおよび図8Bは、本変形例の音声認識の説明図である。例えば、ユーザUの発話により、「お願いエアコンつけて設定28℃」という音声信号41を音声認識する場合を想定する。また、この音声信号41における「お願い」および「設定」が、トリガであると想定する。
この場合、検出部12Bが音声信号41を先頭から時系列順に読取り、トリガの検出処理を実行する(矢印A20参照)。検出部12Bは、音声信号41におけるトリガ「お願い」のトリガ音区間を読取った時に、トリガ「お願い」を検出する。音声認識部12Cは、検出されたトリガ「お願い」のトリガIDに対応するトリガ付音声認識辞書26Bと、該トリガ音区間を含む単位区間B10と、を用いて、該単位区間B10を上記実施例と同様にして音声認識する。
そして、更に、検出部12Bは、トリガの検出処理を継続し(矢印A21参照)、トリガ「設定」を読取ったときに、トリガ「設定」を検出する。そして、音声認識部12Cは、検出されたトリガ「設定」のトリガIDに対応するトリガ付音声認識辞書26Bと、該トリガ音区間を含む単位区間と、を用いて、該単位区間を上記実施例と同様にして音声認識する。
このため、本変形例では、情報処理装置10は、トリガ「お願い」の後では“エアコン”などの機器の用語に対してより精度のよいトリガ付音声認識辞書26Bを用いて音声認識を行い、トリガ「設定」の後では“28”という数字に対してより精度のよい認識をするように、トリガ付音声認識辞書26Bを切替えることができる。
なお、複数のトリガ(トリガワード)はあらかじめ設定されたものであってもよいし、ユーザが追加して用いてもよい。例えば、出力制御部12Dは、利用されることはあるが、利用頻度の低い音声や単語の一覧を、ディスプレイ18等に表示する。この表示により、出力制御部12Dは、これらの音声や単語の一覧を、ユーザに提示する。そして、制御部12は、ユーザの入力部22などの操作などによって選択された音声や単語を、トリガとして設定すればよい。
(変形例2)
なお、音声を発話した話者推定が可能である場合、情報処理装置10は、トリガと話者との組合せを予め用意してもよい。話者推定とは、音声取得部12Aで取得した音声信号から、該音声信号の音声を発話した個人を識別することを指す。制御部12が、トリガと話者との組合せを予め用意することで、同じトリガワードが発せられた場合であっても、異なる話者の場合には、音声認識に用いる辞書(トリガ付音声認識辞書26B、音声認識辞書26C)を変更することが可能となる。
また、情報処理装置10は、トリガと話者との組み合わせを別に有することで、話者の情報に応じて音声認識結果を有効にしたり無効にしたりしてもよい。例えば、制御部12は、機器の制御において管理者に相当する話者の認識結果は制御信号としてそのまま出力するが、一般的な利用者に相当する話者の発したトリガを検出した場合には音声認識を所定時間取りやめてもよい。
(ハードウェア構成)
次に、上記実施形態の情報処理装置10の、ハードウェア構成について説明する。図9は、上記実施形態の情報処理装置10のハードウェア構成例を示すブロック図である。
上記実施形態の情報処理装置10は、CPU80、ROM(Read Only Memory)82、RAM(Random Access Memory)84、HDD86、およびI/F部88等が、バス90により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
CPU80は、上記実施形態の情報処理装置10で実行する情報処理を制御する演算装置である。RAM84は、CPU80による各種処理に必要なデータを記憶する。ROM82は、CPU80による各種処理を実現するプログラム等を記憶する。HDD86は、上述した音声記憶部24や記憶部26に格納されるデータを記憶する。I/F部88は、他の装置との間でデータを送受信するためのインターフェースである。
上記実施形態の情報処理装置10で実行される上記各種処理を実行するためのプログラムは、ROM82等に予め組み込んで提供される。
なお、上記実施形態の情報処理装置10で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。
また、上記実施形態の情報処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施形態の情報処理装置10における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。
上記実施形態の情報処理装置10で実行される上記各種処理を実行するためのプログラムは、上述した各部が主記憶装置上に生成されるようになっている。
なお、上記HDD86に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置とCPU80と、を、ネットワーク等を介して接続した構成とすればよい。
なお、上記には、本開示の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 情報処理装置
12B 検出部
12C 音声認識部
12D 出力制御部
12E 受付部
26B トリガ付音声認識辞書
26C 音声認識辞書

Claims (9)

  1. 音声信号から音声認識開始を示すトリガを検出する検出部と、
    検出された前記トリガに対応するトリガ付音声認識辞書を用いて、前記トリガを含むトリガ音区間に後続する認識音区間を音声認識する音声認識部と、
    を備える情報処理装置。
  2. 前記音声認識部は、
    検出された前記トリガに対応する前記トリガ付音声認識辞書と、前記トリガ音区間の始端から該トリガ音区間より後の予め定めた終端までの単位区間と、を用いて、該単位区間における前記認識音区間を音声認識する、
    請求項1に記載の情報処理装置。
  3. 前記単位区間は、
    検出された前記トリガの前記トリガ音区間の始端から該トリガ音区間を超える予め定めた長さの区間、検出された前記トリガの前記トリガ音区間の始端から該トリガ音区間の後に隣接する他の前記トリガ音区間の始端までの区間、または、検出された前記トリガの前記トリガ音区間の始端から該トリガ音区間の後に隣接する無音区間までの区間である、
    請求項2に記載の情報処理装置。
  4. 前記音声認識部は、
    検出された前記トリガに対応する前記トリガ付音声認識辞書と、前記音声信号における、検出された該トリガの前記トリガ音区間の始端から該トリガ音区間の後に隣接する無音区間までの前記単位区間と、を用いて該単位区間における前記認識音区間を音声認識し、
    前記音声信号における、該無音区間に後続する有音区間を、検出された該トリガに対応する、有音区間から該有音区間の音声認識結果を導出するための音声認識辞書を用いて音声認識する、
    請求項2または請求項3に記載の情報処理装置。
  5. 前記音声認識部の音声認識結果を出力する出力制御部、
    を備える、請求項1〜請求項4の何れか1項に記載の情報処理装置。
  6. 前記出力制御部は、
    複数の前記音声認識結果の各々について、
    前記音声認識結果から、前記音声信号における該音声認識結果に対応する区間の後の区間に対応する他の前記音声認識結果を除去した結果を出力する、
    請求項5に記載の情報処理装置。
  7. 出力対象の前記音声認識結果の選択入力を受付ける受付部を備え、
    前記出力制御部は、
    複数の前記音声認識結果の内、受付けた出力対象の前記音声認識結果を出力する、
    請求項5または請求項6に記載の情報処理装置。
  8. 音声信号から音声認識開始を示すトリガを検出するステップと、
    検出された前記トリガに対応するトリガ付音声認識辞書を用いて、前記トリガを含むトリガ音区間に後続する認識音区間を音声認識するステップと、
    を含む情報処理方法。
  9. 音声信号から音声認識開始を示すトリガを検出するステップと、
    検出された前記トリガに対応するトリガ付音声認識辞書を用いて、前記トリガを含むトリガ音区間に後続する認識音区間を音声認識するステップと、
    をコンピュータに実行させるためのプログラム。
JP2018134664A 2018-07-18 2018-07-18 情報処理装置、情報処理方法、およびプログラム Active JP7000268B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018134664A JP7000268B2 (ja) 2018-07-18 2018-07-18 情報処理装置、情報処理方法、およびプログラム
US16/287,845 US11062705B2 (en) 2018-07-18 2019-02-27 Information processing apparatus, information processing method, and computer program product
CN201910149009.1A CN110808039B (zh) 2018-07-18 2019-02-28 信息处理装置、信息处理方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134664A JP7000268B2 (ja) 2018-07-18 2018-07-18 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020012954A true JP2020012954A (ja) 2020-01-23
JP7000268B2 JP7000268B2 (ja) 2022-01-19

Family

ID=69162491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134664A Active JP7000268B2 (ja) 2018-07-18 2018-07-18 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11062705B2 (ja)
JP (1) JP7000268B2 (ja)
CN (1) CN110808039B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US9826306B2 (en) 2016-02-22 2017-11-21 Sonos, Inc. Default playback device designation
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) * 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
JP2021140097A (ja) * 2020-03-09 2021-09-16 東芝テック株式会社 情報処理端末
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
CN111833870A (zh) * 2020-07-01 2020-10-27 中国第一汽车股份有限公司 车载语音系统的唤醒方法、装置、车辆和介质
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005492A (ja) * 1999-06-21 2001-01-12 Matsushita Electric Ind Co Ltd 音声認識方法および音声認識装置
JP2007025036A (ja) * 2005-07-13 2007-02-01 Fujitsu Ltd 音声対話処理方法及びシステム並びにそのためのプログラム
JP2014016402A (ja) * 2012-07-06 2014-01-30 Alpine Electronics Inc 音声入力装置
JP2015194766A (ja) * 2015-06-29 2015-11-05 株式会社東芝 音声認識装置および音声認識方法
WO2017090115A1 (ja) * 2015-11-25 2017-06-01 三菱電機株式会社 音声対話装置および音声対話方法
US20180040324A1 (en) * 2016-08-05 2018-02-08 Sonos, Inc. Multiple Voice Services

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214878A (ja) * 1999-01-22 2000-08-04 Sharp Corp 音声情報処理装置
JP2002358095A (ja) * 2001-03-30 2002-12-13 Sony Corp 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
US8000972B2 (en) * 2007-10-26 2011-08-16 Sony Corporation Remote controller with speech recognition
WO2015041892A1 (en) 2013-09-20 2015-03-26 Rawles Llc Local and remote speech processing
JP6497372B2 (ja) * 2016-09-29 2019-04-10 トヨタ自動車株式会社 音声対話装置および音声対話方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005492A (ja) * 1999-06-21 2001-01-12 Matsushita Electric Ind Co Ltd 音声認識方法および音声認識装置
JP2007025036A (ja) * 2005-07-13 2007-02-01 Fujitsu Ltd 音声対話処理方法及びシステム並びにそのためのプログラム
JP2014016402A (ja) * 2012-07-06 2014-01-30 Alpine Electronics Inc 音声入力装置
JP2015194766A (ja) * 2015-06-29 2015-11-05 株式会社東芝 音声認識装置および音声認識方法
WO2017090115A1 (ja) * 2015-11-25 2017-06-01 三菱電機株式会社 音声対話装置および音声対話方法
US20180040324A1 (en) * 2016-08-05 2018-02-08 Sonos, Inc. Multiple Voice Services

Also Published As

Publication number Publication date
CN110808039A (zh) 2020-02-18
JP7000268B2 (ja) 2022-01-19
US20200027453A1 (en) 2020-01-23
US11062705B2 (en) 2021-07-13
CN110808039B (zh) 2023-12-01

Similar Documents

Publication Publication Date Title
JP7000268B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US9966077B2 (en) Speech recognition device and method
US11669300B1 (en) Wake word detection configuration
US8606581B1 (en) Multi-pass speech recognition
JP6812843B2 (ja) 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法
US20160118039A1 (en) Sound sample verification for generating sound detection model
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
JPWO2015098109A1 (ja) 音声認識処理装置、音声認識処理方法、および表示装置
JP2007256482A (ja) 音声認識装置、音声認識方法、及びコンピュータプログラム
US10685664B1 (en) Analyzing noise levels to determine usability of microphones
KR20180127065A (ko) 키워드 오인식을 방지하는 음성 제어 장치 및 이의 동작 방법
JP2023081946A (ja) 学習装置、自動採譜装置、学習方法、自動採譜方法及びプログラム
JP2001092496A (ja) 連続音声認識装置および記録媒体
EP3503091A1 (en) Dialogue control device and method
WO2015171154A1 (en) Methods and apparatus for speech recognition using a garbage model
JP2018185561A (ja) 対話支援システム、対話支援方法、及び対話支援プログラム
US20200311354A1 (en) Speech translation device, speech translation method, and recording medium
JP2018045127A (ja) 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法
JP2020013034A (ja) 音声認識装置及び音声認識方法
JP2015087544A (ja) 音声認識装置及び音声認識プログラム
US10629197B2 (en) Voice processing system and voice processing method for predicting and executing an ask-again request corresponding to a received request
KR20190062369A (ko) 키워드 오인식을 방지하는 음성 제어 장치 및 이의 동작 방법
US20230117535A1 (en) Method and system for device feature analysis to improve user experience
JP5196114B2 (ja) 音声認識装置およびプログラム
CN112823047A (zh) 用于控制网络应用程序的系统和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211223

R151 Written notification of patent or utility model registration

Ref document number: 7000268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151