JP6827536B2 - 音声認識装置および音声認識方法 - Google Patents
音声認識装置および音声認識方法 Download PDFInfo
- Publication number
- JP6827536B2 JP6827536B2 JP2019519913A JP2019519913A JP6827536B2 JP 6827536 B2 JP6827536 B2 JP 6827536B2 JP 2019519913 A JP2019519913 A JP 2019519913A JP 2019519913 A JP2019519913 A JP 2019519913A JP 6827536 B2 JP6827536 B2 JP 6827536B2
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- voice
- unit
- voice recognition
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Description
例えば、特許文献1には、過去の一定時間内に複数話者の話者音声を検出した場合に、会話を構成する話者音声であると判断し、予め決められたキーワードの検出処理を行わないこととする音声認識装置が開示されている。
実施の形態1.
図1は、実施の形態1に係る音声認識装置100の構成を示すブロック図である。
音声認識装置100は、音声認識部101、音声認識辞書格納部102、キーワード抽出部103、キーワード格納部104、会話判定部105、操作コマンド抽出部106および操作コマンド格納部107を備える。
図1に示すように、音声認識装置100は、例えばマイク200およびナビゲーション装置300に接続される。なお、音声認識装置100に接続される制御機器は、ナビゲーション装置300に限定されるものではない。
詳細には、音声認識部101は、話者音声を、例えばPCM(Pulse Code Modulation)によりA/D(Analog/Digital)変換し、デジタル化された音声信号から、ユーザが発話した内容に該当する音声区間を検出する。音声認識部101は、検出した音声区間の音声データ、または音声データの特徴量を抽出する。なお、音声認識装置100の使用環境に応じて、音声データから特徴量を抽出する前段で、信号処理等によるスペクトル・サブトラクション法等の雑音除去処理またはエコー除去処理を実行してもよい。
音声認識辞書は、音声認識部101が話者音声の音声認識処理を行う際に参照する辞書であり、音声認識の対象となる語が定義されている。音声認識辞書への語の定義は、BNF(Backus-Naur Form)記法を用いて列挙したもの、ネットワーク文法により単語列をネットワーク状に記述したもの、または統計的言語モデルにより単語連鎖等を確率的にモデル化したもの等、一般的な方法を適用することができる。
また、音声認識辞書には、予め用意されている辞書と、接続されたナビゲーション装置300において動作中に必要に応じて動的に生成された辞書とがある。
なお、人名に関しては、話者間の会話に出現すると想定される全ての人名をキーワードとしてキーワード格納部104に格納した場合、話者間の会話でない音声についても会話であると誤検出する可能性が高くなる。当該誤検出を回避する目的で、音声認識装置100は、カメラの撮像画像、または生体認証装置の認証結果等から、予め推定された話者の人名をキーワードとして、キーワード格納部104に格納させる処理を行ってもよい。また、音声認識装置100は、話者が保有する携帯端末、またはクラウドサービス等に接続して得られた、アドレス帳等の登録情報に基づいて、話者を推定し、推定した話者の人名をキーワードとしてキーワード格納部104に格納させる処理を行ってもよい。
また、会話判定部105は、会話であると判定した後、当該判定に用いた認識結果の音声区間を示す情報と、音声認識部101から取得した新たな認識結果の音声区間を示す情報とを比較し、会話が継続しているか、または会話が終了したかを推定する。会話判定部105は、会話が終了したと推定した場合、当該会話の終了を操作コマンド抽出部106に出力する。
具体的には、操作コマンド抽出部106には、予め認識スコアの閾値が設定されているものとし、認識スコアが当該閾値以上である場合には操作コマンドをナビゲーション装置300に出力し、当該閾値未満である場合には操作コマンドをナビゲーション装置300に出力しない構成する。操作コマンド抽出部106は、会話判定部105から話者間の会話であるとの判定結果が入力されると、例えば認識結果の認識スコアを予め設定された閾値未満の値に設定する。
図2Aおよび図2Bは、音声認識装置100のハードウェア構成例を示す図である。
音声認識装置100における音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106の各機能は、処理回路により実現される。即ち、音声認識装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100aであってもよいし、図2Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
音声認識装置100の動作は、音声認識処理と、会話判定処理とに分けて説明する。
まず、図3のフローチャートを参照しながら、音声認識処理について説明する。
図3は、実施の形態1に係る音声認識装置100の音声認識処理の動作を示すフローチャートである。
マイク200が集音した話者音声が入力されると(ステップST1)、音声認識部101は、音声認識辞書格納部102に格納された音声認識辞書を参照し、入力された話者音声の音声認識を行い、認識結果を取得する(ステップST2)。音声認識部101は、取得した認識結果をキーワード抽出部103、会話判定部105および操作コマンド抽出部106に出力する。
図4は、実施の形態1に係る音声認識装置100の会話判定処理の動作を示すフローチャートである。
会話判定部105は、図3のフローチャートで示したステップST5の処理により入力されたキーワードの抽出結果を参照し、話者音声が会話であるか否か判定を行う(ステップST11)。会話でないと判定した場合(ステップST11;NO)、会話判定部105は、判定結果を操作コマンド抽出部106に出力する。操作コマンド抽出部106は、操作コマンド格納部107を参照し、音声認識部101の認識結果から操作コマンドを抽出し、ナビゲーション装置300に出力する(ステップST12)。その後、フローチャートは、ステップST11の処理に戻る。
さらに、操作コマンド抽出部106は、話者音声が会話であるか否かの判定結果に応じて、スコアの補正を行う。当該スコアの補正により、話者音声が会話であると判定された場合に、操作コマンドの抽出が抑制される。操作コマンド抽出部106は、会話であると判定された場合(ステップST11;YES)に、スコアの値(例えば、「600」)から所定の値(例えば、「300」)を減算し、減算後のスコアの値(例えば、「300」)と閾値(例えば、「500」)との比較を行う。この例の場合、操作コマンド抽出部106は、話者音声から操作コマンドを抽出しない。このように、操作コマンド抽出部106は、会話であると判定されている場合には、明らかにコマンドを発話しているとの高い信頼度を示す話者音声のみから操作コマンドを抽出する。なお、操作コマンド抽出部106は、会話でないと判定された場合(ステップST11;NO)、スコアの値(例えば、「600」)から所定の値を減算する処理を行わず、閾値(例えば、「500」)との比較を行う。この例の場合、操作コマンド抽出部106は、話者音声から操作コマンドを抽出する。
図3のフローチャートのステップST1において、集音された「Aさん、コンビニ寄る?」という話者音声が入力される。ステップST2において、音声認識部101は音声区間を検出し、[Aさん、コンビニ寄る]という認識結果の文字列を取得する。ステップST3において、キーワード抽出部103は、認識結果の文字列に対して、キーワードの探索を行う。ステップST4において、キーワード抽出部103は、キーワード格納部104を参照して探索を行い、「Aさん」というキーワードを抽出する。ステップST5において、キーワード抽出部103は、抽出したキーワード「Aさん」を会話判定部105に出力する。
図3のフローチャートのステップST1において、集音された「コンビニ寄る」という話者音声が入力される。ステップST2において、音声認識部101は音声区間を検出し、[コンビニ寄る]という認識結果の文字列を取得する。ステップST3において、キーワード抽出部103は、認識結果の文字列に対してキーワードの探索を行う。ステップST4において、キーワード抽出部103は、「A君/Aさん/A」、および「B君/Bさん/B」のキーワードが存在しないことから、キーワードの抽出を行わない。ステップST5において、キーワード抽出部103は、キーワードが抽出されなかったことを会話判定部105に出力する。
図5は、実施の形態1に係る音声認識装置100のその他の構成を示す図である。
図5では、音声認識装置100に、報知装置である表示装置400、音声出力装置500が接続された場合を示している。
表示装置400は、例えばディスプレイまたはLEDランプ等で構成される。音声出力装置500は、例えばスピーカで構成される。
会話判定部105は、会話であると判定した場合、および会話が継続している間、表示装置400または音声出力装置500に対して、報知情報の出力を指示する。
図6は、実施の形態1に係る音声認識装置100に接続された表示装置400の表示画面の表示例を示す図である。
音声認識装置100が会話中と推定している場合、表示装置400の表示画面には、例えば「会話と判定中」および「操作コマンド受け付けられません」のメッセージ401が表示される。
音声認識装置100が報知の出力を制御することにより、ユーザは操作コマンドの入力が受け付け可能な状態であるか、受付不可能な状態であるか容易に認識することができる。
上述した会話判定部105が判定結果を外部の報知装置に出力する構成は、後述する実施の形態2および実施の形態3にも適用可能である。
会話判定部105は、新たに入力された認識結果に、会話の終了を示す言葉が含まれていた場合には、音声区間の間隔に基づくことなく、会話が終了したと推定してもよい。
即ち、会話判定部105は、話者音声が会話であると判定している間に、認識結果に会話の終了を示す言葉が含まれているか否か判定を行い、会話の終了を示す言葉が含まれている場合に、会話が終了したと推定するように構成したので、音声区間の検出の誤りによって音声区間の間隔が実際の間隔よりも短く検出され、誤って会話が継続していると推定されるのを抑制することができる。
この実施の形態2では、ユーザの顔向きも考慮して会話であるか否かの判定を行う構成を示す。
図7は、実施の形態2に係る音声認識装置100Aの構成を示すブロック図である。
実施の形態2に係る音声認識装置100Aは、図1に示した実施の形態1の音声認識装置100に、顔向き情報取得部108および顔向き判定部109を追加して構成している。また、音声認識装置100Aは、図1に示した実施の形態1の音声認識装置100の会話判定部105に替えて、会話判定部105aを設けて構成している。
以下では、実施の形態1に係る音声認識装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
一方、操作コマンド抽出部106は、会話が行われているとの判定結果であった場合、音声認識部101から入力された認識結果から操作コマンドを抽出しない、または認識結果に記載された認識スコアを補正して操作コマンドを抽出しない設定とする。
音声認識装置100Aにおける会話判定部105a、顔向き情報取得部108および顔向き判定部109は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
図8は、実施の形態2に係る音声認識装置100Aの会話判定処理の動作を示すフローチャートである。なお、以下では、実施の形態1に係る音声認識装置100と同一のステップには図4で使用した符号と同一の符号を付し、説明を省略または簡略化する。
また、顔向き情報取得部108は、カメラ600から入力される撮像画像に対して常時顔向き情報を取得する処理を行っているものとする。
ステップST11の判定処理において、会話判定部105aが会話でないと判定した場合(ステップST11;NO)、会話判定部105aは、顔向き判定部109に対して顔向き情報の取得を指示する(ステップST21)
この実施の形態3では、話者間の会話に出現し得る新たなキーワード取得し、キーワード格納部104に登録する構成を示す。
図9は、実施の形態3に係る音声認識装置100Bの構成を示すブロック図である。
実施の形態3に係る音声認識装置100Bは、図1に示した実施の形態1の音声認識装置100に、顔向き情報取得部108aおよび反応検知部110を追加して構成している。
以下では、実施の形態1に係る音声認識装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
反応検知部110は、発話者の発話を検出した後、音声認識部101から入力される認識結果を参照して、発話に対する音声応答が入力されたか、または顔向き情報取得部108aから入力される顔向き情報を参照して、発話に対する顔向きの変化が入力されたかの少なくともいずれか一方を検出した場合に、他者の反応を検出したと判定する。反応検知部110は、他者の反応を検出した場合、発話者の発話の認識結果、または認識結果の一部を、話者間の会話に出現し得るキーワードとして抽出し、キーワード格納部104に登録する。
音声認識装置100Bにおける顔向き情報取得部108aおよび反応検知部110は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
図10は、実施の形態3に係る音声認識装置100Bのキーワード登録処理の動作を示すフローチャートである。
なお、音声認識部101は、マイク200から入力される話者音声に対して常時認識処理を行っているものとする。同様に、顔向き情報取得部108aは、カメラ600から入力される撮像画像に対して常時顔向き情報を取得する処理を行っているものとする。
反応検知部110は、音声認識部101から入力される認識結果から発話者の発話を検知すると(ステップST31)、当該発話に続いて音声認識部101から入力される認識結果、および顔向き情報取得部108aから入力される顔向き情報を参照する(ステップST32)。
ステップST31において、反応検知部110は音声認識部101から入力された認識結果「Aさん」から、発話者の発話を検知する。ステップST32において、反応検知部110は、認識結果「Aさん」という発話に続いて、音声認識部101から入力された認識結果および顔向き情報取得部108aから入力された顔向き情報を参照する。ステップST33において、反応検知部110は、「なに?」等の返事を示す他者の音声応答が入力された、および他者が顔を発話者に向ける顔向き変化を検知したと判定する(ステップST33;YES)。ステップST34において、反応検知部110は認識結果「Aさん」から「A」というキーワードを抽出する。ステップST35において、反応検知部110は「A」というキーワードをキーワード格納部104に登録する。
図11は、実施の形態1で示した各構成の機能を、音声認識装置およびサーバ装置が連携して実行する場合の構成例を示したブロック図である。
Claims (7)
- 話者音声の音声認識を行う音声認識部と、
前記音声認識部の認識結果から、予め設定された話者間の会話に出現し得るキーワードを抽出するキーワード抽出部と、
前記キーワード抽出部の抽出結果を参照し、抽出されたキーワードが入力された場合に前記話者音声が会話であると判定し、キーワードの入力がなされなかった場合に前記話者音声が会話ではないと判定する会話判定部と、
前記会話判定部が会話でないと判定した場合に、前記音声認識部の認識結果から機器を操作するためのコマンドを抽出し、前記会話判定部が会話であると判定した場合に、前記認識結果から前記コマンドを抽出しない操作コマンド抽出部とを備え、
前記予め設定されたキーワードは、人名または呼びかけを示す言葉であることを特徴とする音声認識装置。 - 発話者および前記発話者以外の他者の少なくともいずれか一方の顔向き情報を取得する顔向き情報取得部と、
前記会話判定部が会話でないと判定した場合に、さらに前記顔向き情報取得部が取得した前記顔向き情報が予め設定された条件を満たすか否かに基づいて、前記話者音声が会話であるか否か判定を行う顔向き判定部とを備え、
前記操作コマンド抽出部は、前記顔向き判定部が会話でないと判定した場合に、前記認識結果から前記コマンドを抽出し、前記顔向き判定部が会話であると判定した場合に、前記認識結果から前記コマンドを抽出しないことを特徴とする請求項1記載の音声認識装置。 - 発話者以外の他者の顔向き情報を取得する顔向き情報取得部と、
前記顔向き情報取得部が取得した前記発話者の話者音声に対する前記他者の顔向き情報、または前記音声認識部が認識した前記発話者の発話音声に対する前記他者の音声応答のうちの少なくともいずれか一方に基づいて、前記他者の反応の有無を検出し、前記他者の反応を検出した場合に、前記話者音声または前記話者音声の一部を前記キーワードとして設定する反応検知部とを備えたことを特徴とする請求項1記載の音声認識装置。 - 前記会話判定部は、前記話者音声が会話であると判定している間に、前記音声認識部の認識結果の音声区間の間隔が予め設定された閾値以上であるか否か判定を行い、前記音声区間の間隔が予め設定された閾値以上であった場合に、前記会話が終了したと推定することを特徴とする請求項1記載の音声認識装置。
- 前記会話判定部は、前記話者音声が会話であると判定している間に、前記音声認識部の認識結果に会話の終了を示す言葉が含まれているか否か判定を行い、前記会話の終了を示す言葉が含まれている場合に、前記会話が終了したと推定することを特徴とする請求項1記載の音声認識装置。
- 前記会話判定部は、前記話者音声が会話であると判定している場合、当該判定結果を報
知する制御を行うことを特徴とする請求項1記載の音声認識装置。 - 音声認識部が、話者音声の音声認識を行うステップと、
キーワード抽出部が、前記音声認識の認識結果から、予め設定された話者間の会話に出現し得るキーワードを抽出するステップと、
会話判定部が、前記キーワード抽出部の抽出結果を参照し、抽出されたキーワードが入力された場合に前記話者音声が会話であると判定し、キーワードの入力がなされなかった場合に前記話者音声が会話ではないと判定するステップと、
操作コマンド抽出部が、会話でないと判定された場合に、前記認識結果から機器を操作するためのコマンドを抽出し、会話であると判定された場合に、前記認識結果から前記コマンドを抽出しないステップとを備え、
前記予め設定されたキーワードは、人名または呼びかけを示す言葉であることを特徴とする音声認識方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/019606 WO2018216180A1 (ja) | 2017-05-25 | 2017-05-25 | 音声認識装置および音声認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018216180A1 JPWO2018216180A1 (ja) | 2019-11-07 |
JP6827536B2 true JP6827536B2 (ja) | 2021-02-10 |
Family
ID=64395394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019519913A Active JP6827536B2 (ja) | 2017-05-25 | 2017-05-25 | 音声認識装置および音声認識方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200111493A1 (ja) |
JP (1) | JP6827536B2 (ja) |
CN (1) | CN110663078A (ja) |
DE (1) | DE112017007587T5 (ja) |
WO (1) | WO2018216180A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11100930B1 (en) * | 2018-10-05 | 2021-08-24 | Facebook, Inc. | Avoiding false trigger of wake word from remote device during call |
WO2022137534A1 (ja) * | 2020-12-25 | 2022-06-30 | 三菱電機株式会社 | 車載用音声認識装置及び車載用音声認識方法 |
WO2022176038A1 (ja) * | 2021-02-17 | 2022-08-25 | 三菱電機株式会社 | 音声認識装置および音声認識方法 |
WO2022239142A1 (ja) * | 2021-05-12 | 2022-11-17 | 三菱電機株式会社 | 音声認識装置及び音声認識方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003526120A (ja) * | 2000-03-09 | 2003-09-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 民生電子機器システムとの対話処理方法 |
JP2004245938A (ja) * | 2003-02-12 | 2004-09-02 | Fujitsu Ten Ltd | 音声認識装置及びプログラム |
JP2007121576A (ja) * | 2005-10-26 | 2007-05-17 | Matsushita Electric Works Ltd | 音声操作装置 |
US9865255B2 (en) * | 2013-08-29 | 2018-01-09 | Panasonic Intellectual Property Corporation Of America | Speech recognition method and speech recognition apparatus |
US9715875B2 (en) * | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
CN106570443A (zh) * | 2015-10-09 | 2017-04-19 | 芋头科技(杭州)有限公司 | 一种快速识别方法及家庭智能机器人 |
-
2017
- 2017-05-25 DE DE112017007587.4T patent/DE112017007587T5/de not_active Withdrawn
- 2017-05-25 CN CN201780091034.8A patent/CN110663078A/zh not_active Withdrawn
- 2017-05-25 WO PCT/JP2017/019606 patent/WO2018216180A1/ja active Application Filing
- 2017-05-25 JP JP2019519913A patent/JP6827536B2/ja active Active
- 2017-05-25 US US16/495,640 patent/US20200111493A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20200111493A1 (en) | 2020-04-09 |
DE112017007587T5 (de) | 2020-03-12 |
WO2018216180A1 (ja) | 2018-11-29 |
JPWO2018216180A1 (ja) | 2019-11-07 |
CN110663078A (zh) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4557919B2 (ja) | 音声処理装置、音声処理方法および音声処理プログラム | |
JP6827536B2 (ja) | 音声認識装置および音声認識方法 | |
US10885909B2 (en) | Determining a type of speech recognition processing according to a request from a user | |
US20190180758A1 (en) | Voice processing apparatus, voice processing method, and non-transitory computer-readable storage medium for storing program | |
JP2004101901A (ja) | 音声対話装置及び音声対話プログラム | |
US20150269930A1 (en) | Spoken word generation method and system for speech recognition and computer readable medium thereof | |
JP6459330B2 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
KR20130134620A (ko) | 디코딩 정보를 이용한 끝점 검출 장치 및 그 방법 | |
JP2012242609A (ja) | 音声認識装置、ロボット、及び音声認識方法 | |
JP2002202797A (ja) | 音声認識方法 | |
JP5375423B2 (ja) | 音声認識システム、音声認識方法および音声認識プログラム | |
JPWO2020079733A1 (ja) | 音声認識装置、音声認識システム、及び音声認識方法 | |
JP2004341033A (ja) | 音声媒介起動装置およびその方法 | |
US11507759B2 (en) | Speech translation device, speech translation method, and recording medium | |
JP2008052178A (ja) | 音声認識装置と音声認識方法 | |
JP5342629B2 (ja) | 男女声識別方法、男女声識別装置及びプログラム | |
KR100622019B1 (ko) | 음성 인터페이스 시스템 및 방법 | |
JP2006039382A (ja) | 音声認識装置 | |
US20210398521A1 (en) | Method and device for providing voice recognition service | |
JP4391031B2 (ja) | 音声認識装置 | |
WO2023047893A1 (ja) | 認証装置および認証方法 | |
JP7449070B2 (ja) | 音声入力装置、音声入力方法及びそのプログラム | |
US20230282217A1 (en) | Voice registration device, control method, program, and storage medium | |
JP7242873B2 (ja) | 音声認識補助装置および音声認識補助方法 | |
JP7429107B2 (ja) | 音声翻訳装置、音声翻訳方法及びそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200722 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6827536 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |