JP6827536B2 - 音声認識装置および音声認識方法 - Google Patents

音声認識装置および音声認識方法 Download PDF

Info

Publication number
JP6827536B2
JP6827536B2 JP2019519913A JP2019519913A JP6827536B2 JP 6827536 B2 JP6827536 B2 JP 6827536B2 JP 2019519913 A JP2019519913 A JP 2019519913A JP 2019519913 A JP2019519913 A JP 2019519913A JP 6827536 B2 JP6827536 B2 JP 6827536B2
Authority
JP
Japan
Prior art keywords
conversation
voice
unit
voice recognition
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019519913A
Other languages
English (en)
Other versions
JPWO2018216180A1 (ja
Inventor
匠 武井
匠 武井
尚嘉 竹裏
尚嘉 竹裏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018216180A1 publication Critical patent/JPWO2018216180A1/ja
Application granted granted Critical
Publication of JP6827536B2 publication Critical patent/JP6827536B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Description

この発明は、話者の音声を音声認識し、機器を制御するための情報を抽出する技術に関するものである。
従来、複数の話者の音声が存在する場合であっても、当該話者の音声が機器の制御を指示するための音声であるのか、または話者間の会話の音声であるのかを判断する際の誤認識の発生を低減するための技術が用いられている。
例えば、特許文献1には、過去の一定時間内に複数話者の話者音声を検出した場合に、会話を構成する話者音声であると判断し、予め決められたキーワードの検出処理を行わないこととする音声認識装置が開示されている。
特開2005−157086号公報
上記特許文献1に記載された音声認識装置によれば、複数の集音手段を用いてある話者の話者音声の検出を行い、話者音声が検出された後、一定時間内に他の話者の発話音声が集音されたかを検出することにより、話者間の会話を検出している。そのため、集音手段が複数必要となるという課題があった。また、話者間の会話を検出するためには一定時間待機する必要があり、予め決められたキーワードの検出処理にも遅延が生じ、操作性が低下するという課題があった。
この発明は、上記のような課題を解決するためになされたもので、複数の集音手段を必要とすることなく、話者音声の誤認識を抑制し、且つ遅延時間を設けることなく、機器を操作するための操作コマンドの抽出を行うことを目的とする。
この発明に係る音声認識装置は、話者音声の音声認識を行う音声認識部と、音声認識部の認識結果から、予め設定された話者間の会話に出現し得るキーワードを抽出するキーワード抽出部と、キーワード抽出部の抽出結果を参照し、抽出されたキーワードが入力された場合に話者音声が会話であると判定し、キーワードの入力がなされなかった場合に前記話者音声が会話ではないと判定する会話判定部と、会話判定部が会話でないと判定した場合に、音声認識部の認識結果から機器を操作するためのコマンドを抽出し、会話判定部が会話であると判定した場合に、認識結果からコマンドを抽出しない操作コマンド抽出部とを備えるものである。予め設定されたキーワードは、人名または呼びかけを示す言葉である。
この発明によれば、単一の集音手段で集音された話者音声に基づいて、話者音声の誤認識を抑制することができる。また、遅延時間を設けることなく、機器を操作するための操作コマンドの抽出を行うことができる。
実施の形態1に係る音声認識装置の構成を示すブロック図である。 図2Aおよび図2Bは、音声認識装置のハードウェア構成例を示す図である。 実施の形態1に係る音声認識装置の音声認識処理の動作を示すフローチャートである。 実施の形態1に係る音声認識装置の会話判定処理の動作を示すフローチャートである。 実施の形態1に係る音声認識装置のその他の構成を示す図である。 実施の形態1に係る音声認識装置に接続された表示装置の表示画面の表示例を示す図である。 実施の形態2に係る音声認識装置の構成を示すブロック図である。 実施の形態2に係る音声認識装置の会話判定処理の動作を示すフローチャートである。 実施の形態3に係る音声認識装置の構成を示すブロック図である。 実施の形態3に係る音声認識装置のキーワード登録処理の動作を示すフローチャートである。 実施の形態1に係る構成を音声認識装置およびサーバ装置が連携して担う場合の例を示したブロック図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る音声認識装置100の構成を示すブロック図である。
音声認識装置100は、音声認識部101、音声認識辞書格納部102、キーワード抽出部103、キーワード格納部104、会話判定部105、操作コマンド抽出部106および操作コマンド格納部107を備える。
図1に示すように、音声認識装置100は、例えばマイク200およびナビゲーション装置300に接続される。なお、音声認識装置100に接続される制御機器は、ナビゲーション装置300に限定されるものではない。
音声認識部101は、単一のマイク200が集音した話者音声の入力を受け付ける。音声認識部101は、入力された話者音声の音声認識を行い、得られた認識結果をキーワード抽出部103、会話判定部105および操作コマンド抽出部106に出力する。
詳細には、音声認識部101は、話者音声を、例えばPCM(Pulse Code Modulation)によりA/D(Analog/Digital)変換し、デジタル化された音声信号から、ユーザが発話した内容に該当する音声区間を検出する。音声認識部101は、検出した音声区間の音声データ、または音声データの特徴量を抽出する。なお、音声認識装置100の使用環境に応じて、音声データから特徴量を抽出する前段で、信号処理等によるスペクトル・サブトラクション法等の雑音除去処理またはエコー除去処理を実行してもよい。
音声認識部101は、音声認識辞書格納部102に格納された音声認識辞書を参照し、抽出した音声データまたは音声データの特徴量の認識処理を行い、認識結果を取得する。音声認識部101が取得する認識結果は、音声区間情報、認識結果文字列、当該認識結果文字列に対応付けられたID等の識別情報、または尤度を示す認識スコアのうちの少なくともいずれか1つを含むものである。ここで、認識結果文字列とは、音節列、単語および単語列である。音声認識部101の認識処理は、例えばHMM(Hidden Markov Model)法のような一般的な方法を適用して行われる。
音声認識部101が音声認識処理を開始するタイミングは適宜設定可能である。例えば、音声認識の開始を指示するボタン(図示しない)をユーザが押下すると、当該押下を検出した信号が音声認識部101に入力され、音声認識部101が音声認識を開始するように構成することが可能である。
音声認識辞書格納部102は、音声認識辞書を格納する。
音声認識辞書は、音声認識部101が話者音声の音声認識処理を行う際に参照する辞書であり、音声認識の対象となる語が定義されている。音声認識辞書への語の定義は、BNF(Backus-Naur Form)記法を用いて列挙したもの、ネットワーク文法により単語列をネットワーク状に記述したもの、または統計的言語モデルにより単語連鎖等を確率的にモデル化したもの等、一般的な方法を適用することができる。
また、音声認識辞書には、予め用意されている辞書と、接続されたナビゲーション装置300において動作中に必要に応じて動的に生成された辞書とがある。
キーワード抽出部103は、音声認識部101から入力された認識結果に記載された認識結果文字列内に、キーワード格納部104に登録されたキーワードが存在するか探索する。キーワード抽出部103は、認識結果文字列内に登録されたキーワードが存在する場合には、当該キーワードを抽出する。キーワード抽出部103は、認識結果文字列からキーワードを抽出した場合には、抽出したキーワードを会話判定部105に出力する。
キーワード格納部104は、話者間の会話に出現し得るキーワードを格納している。ここで、話者間の会話とは、例えば音声認識装置100が車両に搭載されている場合に、当該車両内にいる人同士の会話、および車両内にいる一方の人から車両内にいる他方の人に向けて行われた発話等である。また、話者間の会話に出現し得るキーワードとは、例えば人名(姓、名、フルネームおよび愛称等)または呼びかけを示す言葉(ねえ、おい、なあ等)等である。
なお、人名に関しては、話者間の会話に出現すると想定される全ての人名をキーワードとしてキーワード格納部104に格納した場合、話者間の会話でない音声についても会話であると誤検出する可能性が高くなる。当該誤検出を回避する目的で、音声認識装置100は、カメラの撮像画像、または生体認証装置の認証結果等から、予め推定された話者の人名をキーワードとして、キーワード格納部104に格納させる処理を行ってもよい。また、音声認識装置100は、話者が保有する携帯端末、またはクラウドサービス等に接続して得られた、アドレス帳等の登録情報に基づいて、話者を推定し、推定した話者の人名をキーワードとしてキーワード格納部104に格納させる処理を行ってもよい。
会話判定部105は、キーワード抽出部103から抽出されたキーワードが入力されると、音声認識部101から入力される認識結果を参照し、入力されたキーワードおよび当該キーワードから後に続く音声を話者間の会話であると判定する。会話判定部105は、話者間の会話であるとの判定結果を操作コマンド抽出部106に出力する。
また、会話判定部105は、会話であると判定した後、当該判定に用いた認識結果の音声区間を示す情報と、音声認識部101から取得した新たな認識結果の音声区間を示す情報とを比較し、会話が継続しているか、または会話が終了したかを推定する。会話判定部105は、会話が終了したと推定した場合、当該会話の終了を操作コマンド抽出部106に出力する。
会話判定部105は、キーワード抽出部103からキーワードの入力がなされなかった場合、話者間の会話ではないと判定する。会話判定部105は、話者間の会話でないとの判定結果を操作コマンド抽出部106に出力する。
操作コマンド抽出部106は、会話判定部105から入力された判定結果を参照し、話者間の会話でないとの判定結果であった場合、音声認識部101から入力された認識結果からナビゲーション装置300を操作するためのコマンド(以下、操作コマンドと記載する)を抽出する。操作コマンド抽出部106は、操作コマンド格納部107に格納された操作コマンドと一致するまたは類似する文言が、認識結果に含まれていた場合に、対応する操作コマンドとして抽出する。
操作コマンドは、例えば「ルート変更」、「レストラン検索」または「認識処理開始」等であり、当該操作コマンドと一致するまたは類似する文言とは、例えば「ルート変更」「近くのレストラン」または「音声認識開始」等である。操作コマンド抽出部106は、操作コマンド格納部107に予め格納された操作コマンドの文言そのものに一致または類似する文言から操作コマンドを抽出してもよいし、操作コマンドまたは操作コマンドの一部をキーワードとして抽出し、抽出したキーワードまたは抽出したキーワードの組み合わせに対応した操作コマンドを抽出してもよい。操作コマンド抽出部106は、抽出した操作コマンドが示す操作内容を、ナビゲーション装置300に出力する。
一方、操作コマンド抽出部106は、会話判定部105から話者間の会話であるとの判定結果が入力された場合、音声認識部101から入力された認識結果から操作コマンドを抽出しない、または認識結果に記載された認識スコアを補正して操作コマンドを抽出しにくく設定する。
具体的には、操作コマンド抽出部106には、予め認識スコアの閾値が設定されているものとし、認識スコアが当該閾値以上である場合には操作コマンドをナビゲーション装置300に出力し、当該閾値未満である場合には操作コマンドをナビゲーション装置300に出力しない構成する。操作コマンド抽出部106は、会話判定部105から話者間の会話であるとの判定結果が入力されると、例えば認識結果の認識スコアを予め設定された閾値未満の値に設定する。
操作コマンド格納部107は、操作コマンドを格納する領域である。操作コマンド格納部107は、上述した「ルート変更」等の機器を操作するための文言を格納している。また、操作コマンド格納部107は、操作コマンドの文言に対応付けて、ナビゲーション装置300が解釈可能な形式に変換した情報を格納していてもよい。その場合、操作コマンド抽出部106は、操作コマンド格納部107から、ナビゲーション装置300が解釈可能な形式に変換した情報を取得する。
次に、音声認識装置100のハードウェア構成例を説明する。
図2Aおよび図2Bは、音声認識装置100のハードウェア構成例を示す図である。
音声認識装置100における音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106の各機能は、処理回路により実現される。即ち、音声認識装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100aであってもよいし、図2Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図2Aに示すように、音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図2Bに示すように、音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106の各機能を実現する。即ち、音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106は、プロセッサ100bにより実行されるときに、後述する図3および図4に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、音声認識部101、キーワード抽出部103、会話判定部105および操作コマンド抽出部106の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、音声認識装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、音声認識装置100の動作について説明する。
音声認識装置100の動作は、音声認識処理と、会話判定処理とに分けて説明する。
まず、図3のフローチャートを参照しながら、音声認識処理について説明する。
図3は、実施の形態1に係る音声認識装置100の音声認識処理の動作を示すフローチャートである。
マイク200が集音した話者音声が入力されると(ステップST1)、音声認識部101は、音声認識辞書格納部102に格納された音声認識辞書を参照し、入力された話者音声の音声認識を行い、認識結果を取得する(ステップST2)。音声認識部101は、取得した認識結果をキーワード抽出部103、会話判定部105および操作コマンド抽出部106に出力する。
キーワード抽出部103は、ステップST2で取得された認識結果に記載された認識結果文字列から、キーワード格納部104に登録されたキーワードを探索する(ステップST3)。キーワード抽出部103は、ステップST3においてキーワードが探索された場合、探索されたキーワードを抽出する(ステップST4)。キーワード抽出部103は、ステップST4の抽出結果を会話判定部105に出力する(ステップST5)。その後、ステップST1の処理に戻り、上述した処理を繰り返す。なお、ステップST3において、キーワード抽出部103がキーワードを抽出しなかった場合には、キーワードが抽出されなかったことを会話判定部105に出力する。
次に、音声認識装置100の会話判定処理について説明する。
図4は、実施の形態1に係る音声認識装置100の会話判定処理の動作を示すフローチャートである。
会話判定部105は、図3のフローチャートで示したステップST5の処理により入力されたキーワードの抽出結果を参照し、話者音声が会話であるか否か判定を行う(ステップST11)。会話でないと判定した場合(ステップST11;NO)、会話判定部105は、判定結果を操作コマンド抽出部106に出力する。操作コマンド抽出部106は、操作コマンド格納部107を参照し、音声認識部101の認識結果から操作コマンドを抽出し、ナビゲーション装置300に出力する(ステップST12)。その後、フローチャートは、ステップST11の処理に戻る。
一方、会話であると判定した場合(ステップST11;YES)、会話判定部105は、判定結果を操作コマンド抽出部106に出力する。操作コマンド抽出部106は、操作コマンドの抽出を停止する(ステップST13)。操作コマンド抽出部106は、操作コマンドの抽出を停止したことを会話判定部105に通知する。会話判定部105は、操作コマンドの抽出が停止されたことが通知されると、音声認識部101から新たな認識結果の音声区間を示す情報を取得する(ステップST14)。会話判定部105は、ステップST14で取得した音声区間と、当該音声区間の一つ前の認識結果の音声区間との間隔を測定する(ステップST15)。
会話判定部105は、ステップST15で測定した間隔が予め設定した閾値(例えば、10秒)以下であるか否か判定を行う(ステップST16)。測定した間隔が閾値以下であった場合(ステップST16;YES)、会話判定部105は会話が継続していると推定し(ステップST17)、ステップST14の処理に戻る。一方、測定した間隔が閾値より大きかった場合(ステップST16;NO)、会話判定部105は会話が終了したと推定し(ステップST18)、当該会話の終了を操作コマンド抽出部106に通知する(ステップST19)。操作コマンド抽出部106は、操作コマンドの抽出停止を解除し(ステップST20)、ステップST11の処理に戻る。
なお、上述した図4のフローチャートのステップST13の処理において、操作コマンドの抽出を停止する処理を示したが、操作コマンド抽出部106が音声認識部101から取得した認識結果の認識スコアを補正して操作コマンドが抽出されない設定とする処理を行ってもよい。その場合、ステップST20の処理において、操作コマンド抽出部106は、認識スコアの補正を解除する。
また、上述した図4のフローチャートのステップST12またはステップST13の処理において、操作コマンド抽出部106が、発話者の音声と操作コマンドとの一致度等に基づいて算出される信頼度を示すスコアを、予め設定された閾値と比較し、スコアが閾値以下である場合には、操作コマンドを抽出しない構成としてもよい。ここで、予め設定された閾値とは、例えば、スコアの最大値「1000」である場合に、「500」と設定される値である。
さらに、操作コマンド抽出部106は、話者音声が会話であるか否かの判定結果に応じて、スコアの補正を行う。当該スコアの補正により、話者音声が会話であると判定された場合に、操作コマンドの抽出が抑制される。操作コマンド抽出部106は、会話であると判定された場合(ステップST11;YES)に、スコアの値(例えば、「600」)から所定の値(例えば、「300」)を減算し、減算後のスコアの値(例えば、「300」)と閾値(例えば、「500」)との比較を行う。この例の場合、操作コマンド抽出部106は、話者音声から操作コマンドを抽出しない。このように、操作コマンド抽出部106は、会話であると判定されている場合には、明らかにコマンドを発話しているとの高い信頼度を示す話者音声のみから操作コマンドを抽出する。なお、操作コマンド抽出部106は、会話でないと判定された場合(ステップST11;NO)、スコアの値(例えば、「600」)から所定の値を減算する処理を行わず、閾値(例えば、「500」)との比較を行う。この例の場合、操作コマンド抽出部106は、話者音声から操作コマンドを抽出する。
また、ステップST14からステップST16において、会話判定部105は、2つの音声区間の間隔に基づいて会話が終了したか否か推定する処理を示した。当該処理に加えて、会話判定部105は、最後に音声区間が取得されてから予め設定した時間(例えば、10秒等)以上経過した場合にも、会話が終了したと推定してもよい。
次に、図3および図4で示したフローチャートについて、具体例を挙げながら説明をする。まず、キーワード格納部104は、例えば「A君/Aさん/A」、および「B君/Bさん/B」等の情報が登録されているものとする。また、話者音声として「Aさん、コンビニ寄る?」との会話が入力された場合を例に説明する。
図3のフローチャートのステップST1において、集音された「Aさん、コンビニ寄る?」という話者音声が入力される。ステップST2において、音声認識部101は音声区間を検出し、[Aさん、コンビニ寄る]という認識結果の文字列を取得する。ステップST3において、キーワード抽出部103は、認識結果の文字列に対して、キーワードの探索を行う。ステップST4において、キーワード抽出部103は、キーワード格納部104を参照して探索を行い、「Aさん」というキーワードを抽出する。ステップST5において、キーワード抽出部103は、抽出したキーワード「Aさん」を会話判定部105に出力する。
次に、図4のフローチャートのステップST11において、会話判定部105は、キーワードが入力されたことから、話者音声は会話であると判定する(ステップST11;YES)。ステップST13において、操作コマンド抽出部106は、[Aさん、コンビニ寄る]という認識結果の文字列から、操作コマンドを抽出するのを停止する。
その後、音声認識装置100に、「そうだね」という話者音声が入力されたものとする。ステップST14において、会話判定部105は、音声認識部101から新たな認識結果「そうだね」の音声区間の情報を取得する。ステップST15において、会話判定部105は、認識結果「そうだね」の音声区間と、認識結果[Aさん、コンビニ寄る]の音声区間との間隔を「3秒」と測定する。ステップST16において、会話判定部105は、間隔が10秒以下であると判定し(ステップST16;YES)、ステップST17において会話が継続していると推定する。その後、フローチャートはステップST14の処理に戻る。
一方、ステップST15において、会話判定部105が上述した2つの音声区間の間隔を「12秒」と測定した場合には、間隔が10秒より大きいと判定し(ステップST16;NO)、ステップST18において会話が終了したと推定する。ステップST19において、会話判定部105は会話の終了を操作コマンド抽出部106に通知する。ステップST20において、操作コマンド抽出部106は、操作コマンドの抽出停止を解除する。その後、フローチャートはステップST14の処理に戻る。
次に、話者音声として「コンビニ寄る」との操作指示が入力された場合を例に説明する。
図3のフローチャートのステップST1において、集音された「コンビニ寄る」という話者音声が入力される。ステップST2において、音声認識部101は音声区間を検出し、[コンビニ寄る]という認識結果の文字列を取得する。ステップST3において、キーワード抽出部103は、認識結果の文字列に対してキーワードの探索を行う。ステップST4において、キーワード抽出部103は、「A君/Aさん/A」、および「B君/Bさん/B」のキーワードが存在しないことから、キーワードの抽出を行わない。ステップST5において、キーワード抽出部103は、キーワードが抽出されなかったことを会話判定部105に出力する。
次に、図4のフローチャートのステップST11において、会話判定部105は、キーワードが抽出されなかったことから会話でないと判定する(ステップST11;NO)。ステップST12において、操作コマンド抽出部106は、操作コマンド格納部107を参照し、[コンビニ寄る]という認識結果の文字列から、「コンビニ」という操作コマンドを抽出し、ナビゲーション装置300に出力する。
このように、話者音声として「Aさん、コンビニ寄る?」との会話が入力された場合には操作コマンドの抽出を停止するが、「コンビニ寄る」との操作指示が入力された場合には、確実に操作コマンドの抽出を実行する。
以上のように、実施の形態1によれば、話者音声の音声認識を行う音声認識部101と、音声認識の認識結果から、予め設定されたキーワードを抽出するキーワード抽出部103と、キーワード抽出の抽出結果を参照し、話者音声が会話であるか否か判定を行う会話判定部105と、会話でないと判定された場合に、認識結果から機器を操作するためのコマンドを抽出し、会話であると判定した場合に、認識結果からコマンドを抽出しない操作コマンド抽出部106とを備えるように構成したので、単一の集音手段で集音された話者音声に基づいて、話者音声の誤認識を抑制することができる。また、遅延時間を設けることなく、機器を操作するためのコマンドの抽出を行うことができる。また、発話者が意図していない音声操作によって機器が制御されるのを抑制することができ、利便性が向上する。
また、この実施の形態1によれば、会話判定部105は、話者音声が会話であると判定している間に、認識結果の音声区間の間隔が予め設定された閾値以上であるか否か判定を行い、音声区間の間隔が予め設定された閾値以上であった場合に、会話が終了したと推定するように構成したので、会話の終了が推定された場合には、適切に操作コマンドの抽出を再開することができる。
なお、音声認識装置100の会話判定部105が判定結果を外部の報知装置に出力する構成としてもよい。
図5は、実施の形態1に係る音声認識装置100のその他の構成を示す図である。
図5では、音声認識装置100に、報知装置である表示装置400、音声出力装置500が接続された場合を示している。
表示装置400は、例えばディスプレイまたはLEDランプ等で構成される。音声出力装置500は、例えばスピーカで構成される。
会話判定部105は、会話であると判定した場合、および会話が継続している間、表示装置400または音声出力装置500に対して、報知情報の出力を指示する。
表示装置400は、ディスプレイに、音声認識装置100が会話中と推定していること、または操作コマンドを受け付けていないことを表示する。また、表示装置400は、音声認識装置100が会話中と推定していることを、LEDランプの点灯によって報知する。
図6は、実施の形態1に係る音声認識装置100に接続された表示装置400の表示画面の表示例を示す図である。
音声認識装置100が会話中と推定している場合、表示装置400の表示画面には、例えば「会話と判定中」および「操作コマンド受け付けられません」のメッセージ401が表示される。
音声出力装置500は、音声認識装置100が会話中と推定しており、操作コマンドを受け付けていないことを示す音声ガイダンスまたは効果音を出力する。
音声認識装置100が報知の出力を制御することにより、ユーザは操作コマンドの入力が受け付け可能な状態であるか、受付不可能な状態であるか容易に認識することができる。
上述した会話判定部105が判定結果を外部の報知装置に出力する構成は、後述する実施の形態2および実施の形態3にも適用可能である。
また、会話判定部105は、格納領域(図示しない)に、会話の終了を示す言葉、例えば同意表現が含まれる「そうしよう」、「わかった」および「オッケー」等の言葉を格納しておいてもよい。
会話判定部105は、新たに入力された認識結果に、会話の終了を示す言葉が含まれていた場合には、音声区間の間隔に基づくことなく、会話が終了したと推定してもよい。
即ち、会話判定部105は、話者音声が会話であると判定している間に、認識結果に会話の終了を示す言葉が含まれているか否か判定を行い、会話の終了を示す言葉が含まれている場合に、会話が終了したと推定するように構成したので、音声区間の検出の誤りによって音声区間の間隔が実際の間隔よりも短く検出され、誤って会話が継続していると推定されるのを抑制することができる。
実施の形態2.
この実施の形態2では、ユーザの顔向きも考慮して会話であるか否かの判定を行う構成を示す。
図7は、実施の形態2に係る音声認識装置100Aの構成を示すブロック図である。
実施の形態2に係る音声認識装置100Aは、図1に示した実施の形態1の音声認識装置100に、顔向き情報取得部108および顔向き判定部109を追加して構成している。また、音声認識装置100Aは、図1に示した実施の形態1の音声認識装置100の会話判定部105に替えて、会話判定部105aを設けて構成している。
以下では、実施の形態1に係る音声認識装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
顔向き情報取得部108は、外部のカメラ600から入力された撮像画像を解析し、撮像画像に存在するユーザの顔向き情報を算出する。顔向き情報取得部108は、算出したユーザの顔向き情報をバッファ等の一時格納領域(図示しない)に格納する。ここで、ユーザは、カメラ600によって撮像された撮像対象者であり、発話者または発話者以外の他者の少なくともいずれか一方であればよい。
会話判定部105aは、顔向き判定部109を備える。会話判定部105aは、話者間の会話でないと判定すると、顔向き判定部109に対して顔向き情報の取得を指示する。顔向き判定部109は、顔向き情報取得部108から顔向き情報を取得する。顔向き判定部109は、顔向き情報として、会話判定部105aの会話判定に用いられた話者音声の前後一定区間の顔向き情報を取得する。顔向き判定部109は、取得した顔向き情報から会話が行われているか否か判定を行う。顔向き判定部109は、取得した顔向き情報が、例えば「発話者の顔向きが他のユーザの方を向いている」または「あるユーザの顔向きが発話者の方を向いている」等の条件を示している場合に、会話が行われていると判定する。なお、顔向き情報がどのような条件を満たすときに会話が行われていると推定するかは、適宜設定可能である。
会話判定部105aは、会話が行われていると判定した結果、または顔向き判定部109において会話が行われていると判定された結果、または顔向き判定部109において会話が行われていないと判定された結果のいずれかを、操作コマンド抽出部106に出力する。
操作コマンド抽出部106は、会話判定部105aから入力された判定結果を参照し、会話が行われていないとの判定結果であった場合、音声認識部101から入力された認識結果から操作コマンドを抽出する。
一方、操作コマンド抽出部106は、会話が行われているとの判定結果であった場合、音声認識部101から入力された認識結果から操作コマンドを抽出しない、または認識結果に記載された認識スコアを補正して操作コマンドを抽出しない設定とする。
会話判定部105aは、会話が行われていると判定した場合、および顔向き判定部109において会話が行われていると判定された場合に、実施の形態1と同様に会話が継続しているか、または会話が終了したか推定を行う。
次に、音声認識装置100Aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
音声認識装置100Aにおける会話判定部105a、顔向き情報取得部108および顔向き判定部109は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、音声認識装置100Aの会話判定処理について説明する。なお、音声認識装置100Aの音声認識処理は、実施の形態1の音声認識装置100と同一であるため、説明を省略する。
図8は、実施の形態2に係る音声認識装置100Aの会話判定処理の動作を示すフローチャートである。なお、以下では、実施の形態1に係る音声認識装置100と同一のステップには図4で使用した符号と同一の符号を付し、説明を省略または簡略化する。
また、顔向き情報取得部108は、カメラ600から入力される撮像画像に対して常時顔向き情報を取得する処理を行っているものとする。
ステップST11の判定処理において、会話判定部105aが会話でないと判定した場合(ステップST11;NO)、会話判定部105aは、顔向き判定部109に対して顔向き情報の取得を指示する(ステップST21)
顔向き判定部109は、ステップST21で入力された指示に基づいて、認識結果の音声区間の前後一定期間の顔向き情報を、顔向き情報取得部108から取得する(ステップST22)。顔向き判定部109は、ステップST22で取得した顔向き情報を参照し、会話が行われているか否か判定を行う(ステップST23)。会話が行われていないと判定した場合(ステップST23;NO)、会話判定部105aは、判定結果を操作コマンド抽出部106に出力し、ステップST12の処理に進む。一方、会話が行われていると判定した場合(ステップST23;YES)、会話判定部105aは、判定結果を操作コマンド抽出部106に出力し、ステップST13の処理に進む。
以上のように、この実施の形態2によれば、発話者および発話者以外の他者の少なくともいずれか一方の顔向き情報を取得する顔向き情報取得部108と、会話判定部105aが会話でないと判定した場合に、さらに顔向き情報が予め設定された条件を満たすか否かに基づいて、話者音声が会話であるか否か判定を行う顔向き判定部109とを備え、操作コマンド抽出部106は、顔向き判定部109が会話でないと判定した場合に、認識結果からコマンドを抽出し、顔向き判定部109が会話であると判定した場合に、認識結果からコマンドを抽出しないように構成したので、会話が行われているか否かの判定精度を向上させることができる。これにより、音声認識装置の利便性を向上させることができる。
実施の形態3.
この実施の形態3では、話者間の会話に出現し得る新たなキーワード取得し、キーワード格納部104に登録する構成を示す。
図9は、実施の形態3に係る音声認識装置100Bの構成を示すブロック図である。
実施の形態3に係る音声認識装置100Bは、図1に示した実施の形態1の音声認識装置100に、顔向き情報取得部108aおよび反応検知部110を追加して構成している。
以下では、実施の形態1に係る音声認識装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
顔向き情報取得部108aは、外部のカメラ600から入力された撮像画像を解析し、撮像画像に存在するユーザの顔向き情報を算出する。顔向き情報取得部108aは、算出したユーザの顔向き情報を反応検知部110に出力する。
反応検知部110は、音声認識部101から入力される認識結果を参照し、発話者の発話を検出する。反応検知部110は、発話者の発話を検出してから、所定時間以内に、他者の反応を検出したか否か判定を行う。ここで、他者の反応とは、他者の発話、または他者の顔向きの変化の少なくとも一方である。
反応検知部110は、発話者の発話を検出した後、音声認識部101から入力される認識結果を参照して、発話に対する音声応答が入力されたか、または顔向き情報取得部108aから入力される顔向き情報を参照して、発話に対する顔向きの変化が入力されたかの少なくともいずれか一方を検出した場合に、他者の反応を検出したと判定する。反応検知部110は、他者の反応を検出した場合、発話者の発話の認識結果、または認識結果の一部を、話者間の会話に出現し得るキーワードとして抽出し、キーワード格納部104に登録する。
次に、音声認識装置100Bのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
音声認識装置100Bにおける顔向き情報取得部108aおよび反応検知部110は、図2Aで示した処理回路100a、または図2Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、音声認識装置100Bのキーワード登録処理について説明する。なお、音声認識装置100Bの音声認識処理および会話判定処理は、実施の形態1と同一であるため、説明を省略する。
図10は、実施の形態3に係る音声認識装置100Bのキーワード登録処理の動作を示すフローチャートである。
なお、音声認識部101は、マイク200から入力される話者音声に対して常時認識処理を行っているものとする。同様に、顔向き情報取得部108aは、カメラ600から入力される撮像画像に対して常時顔向き情報を取得する処理を行っているものとする。
反応検知部110は、音声認識部101から入力される認識結果から発話者の発話を検知すると(ステップST31)、当該発話に続いて音声認識部101から入力される認識結果、および顔向き情報取得部108aから入力される顔向き情報を参照する(ステップST32)。
反応検知部110は、ステップST31で検出した発話に対する他者の音声応答が入力されたか、または検出した発話に対して他者の顔向きが変化したか否か判定を行う(ステップST33)。反応検知部110は、発話に対する他者の音声応答が入力された、または当該発話に対して他者の顔向きが変化した、の少なくともいずれか一方を検知した場合(ステップST33;YES)、ステップST31で検知した発話の認識結果から、キーワードを抽出する(ステップST34)。反応検知部110は、ステップST34で抽出したキーワードをキーワード格納部104に登録する(ステップST35)。その後、フローチャートはステップST31の処理に戻る。
一方、反応検知部110は、検出した発話に対する他者の音声応答が入力されない、および検出した発話に対して他者の顔向きが変化しない場合(ステップST33;NO)、予め設定した時間経過したか否か判定を行う(ステップST36)。予め設定した時間経過していない場合(ステップST36;NO)、ステップST33の処理に戻る。一方、予め設定した時間経過した場合(ステップST36;YES)、ステップST31の処理に戻る。
次に、図10で示したフローチャートについて、具体例を挙げながら説明をする。話者音声として「Aさん」との会話が入力された場合を例に説明する。
ステップST31において、反応検知部110は音声認識部101から入力された認識結果「Aさん」から、発話者の発話を検知する。ステップST32において、反応検知部110は、認識結果「Aさん」という発話に続いて、音声認識部101から入力された認識結果および顔向き情報取得部108aから入力された顔向き情報を参照する。ステップST33において、反応検知部110は、「なに?」等の返事を示す他者の音声応答が入力された、および他者が顔を発話者に向ける顔向き変化を検知したと判定する(ステップST33;YES)。ステップST34において、反応検知部110は認識結果「Aさん」から「A」というキーワードを抽出する。ステップST35において、反応検知部110は「A」というキーワードをキーワード格納部104に登録する。
このように、反応検知部110が、発話者が「Aさん」と発話した後に、他者の音声応答が入力されたか、または他者が発話者の方に顔を向けたか否かを判定することにより、話者間の会話が行われているか否かを推定することができる。これにより、反応検知部110は、事前に定義していない話者間の会話についても、会話に出現し得るキーワードを抽出してキーワード格納部104に登録する。
以上のように、この実施の形態3によれば、発話者以外の他者の顔向き情報を取得する顔向き情報取得部108aと、発話者の話者音声に対する他者の顔向き情報、または発話者の発話音声に対する他者の音声応答のうちの少なくともいずれか一方に基づいて、他者の反応の有無を検出し、他者の反応を検出した場合に、話者音声または話者音声の一部をキーワードとして設定する反応検知部110とを備えするように構成したので、音声認識装置に事前に登録または定義されていないユーザの会話から、会話に出現し得るキーワードを抽出して登録することができる。これにより、登録または定義されていないユーザが当該音声認識装置を利用した場合に、会話判定が行われないという不具合を解消することができる。あらゆるユーザに対して、意図していない音声操作によって機器が制御されるのを抑制することができ、当該ユーザの利便性を向上させることができる。
なお、上記では、実施の形態1で示した音声認識装置100に顔向き情報取得部108aおよび反応検知部110を適用する構成する場合を例に示したが、実施の形態2に示した音声認識装置100Aに適用してもよい。
上述した実施の形態1から実施の形態3において示した各構成の機能の一部を、音声認識装置100,100A,100Bと接続されたサーバ装置が行うように構成してもよい。さらに、実施の形態1から実施の形態3において示した各構成の機能の全てをサーバ装置が行うように構成してもよい。
図11は、実施の形態1で示した各構成の機能を、音声認識装置およびサーバ装置が連携して実行する場合の構成例を示したブロック図である。
音声認識装置100Cは、音声認識部101、音声認識辞書格納部102および通信部111を備える。サーバ装置700は、キーワード抽出部103、キーワード格納部104、会話判定部105、操作コマンド抽出部106、操作コマンド格納部107および通信部701を備える。音声認識装置100Cの通信部111は、サーバ装置700との無線通信を確立し、音声認識結果をサーバ装置700側に送信する。サーバ装置700の通信部701は、音声認識装置100Cおよびナビゲーション装置300との無線通信を確立し、音声認識装置100から音声認識結果を取得し、音声認識結果から抽出した操作コマンドをナビゲーション装置300に送信する。なお、サーバ装置700と無線通信接続を行う制御機器は、ナビゲーション装置300に限定されるものではない。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る音声認識装置は、音声操作を受け付ける車載機器等に適用し、ユーザによる音声入力を正確に判定して操作コマンドを抽出するのに適している。
100,100A,100B,100C 音声認識装置、101 音声認識部、102 音声認識辞書格納部、103 キーワード抽出部、104 キーワード格納部、105,105a 会話判定部、106 操作コマンド抽出部、107 操作コマンド格納部、108,108a 顔向き情報取得部、109 顔向き判定部、110 反応検知部、111,701 通信部、700 サーバ装置。

Claims (7)

  1. 話者音声の音声認識を行う音声認識部と、
    前記音声認識部の認識結果から、予め設定された話者間の会話に出現し得るキーワードを抽出するキーワード抽出部と、
    前記キーワード抽出部の抽出結果を参照し、抽出されたキーワードが入力された場合に前記話者音声が会話であると判定し、キーワードの入力がなされなかった場合に前記話者音声が会話ではないと判定する会話判定部と、
    前記会話判定部が会話でないと判定した場合に、前記音声認識部の認識結果から機器を操作するためのコマンドを抽出し、前記会話判定部が会話であると判定した場合に、前記認識結果から前記コマンドを抽出しない操作コマンド抽出部とを備え、
    前記予め設定されたキーワードは、人名または呼びかけを示す言葉であることを特徴とする音声認識装置。
  2. 発話者および前記発話者以外の他者の少なくともいずれか一方の顔向き情報を取得する顔向き情報取得部と、
    前記会話判定部が会話でないと判定した場合に、さらに前記顔向き情報取得部が取得した前記顔向き情報が予め設定された条件を満たすか否かに基づいて、前記話者音声が会話であるか否か判定を行う顔向き判定部とを備え、
    前記操作コマンド抽出部は、前記顔向き判定部が会話でないと判定した場合に、前記認識結果から前記コマンドを抽出し、前記顔向き判定部が会話であると判定した場合に、前記認識結果から前記コマンドを抽出しないことを特徴とする請求項1記載の音声認識装置。
  3. 発話者以外の他者の顔向き情報を取得する顔向き情報取得部と、
    前記顔向き情報取得部が取得した前記発話者の話者音声に対する前記他者の顔向き情報、または前記音声認識部が認識した前記発話者の発話音声に対する前記他者の音声応答のうちの少なくともいずれか一方に基づいて、前記他者の反応の有無を検出し、前記他者の反応を検出した場合に、前記話者音声または前記話者音声の一部を前記キーワードとして設定する反応検知部とを備えたことを特徴とする請求項1記載の音声認識装置。
  4. 前記会話判定部は、前記話者音声が会話であると判定している間に、前記音声認識部の認識結果の音声区間の間隔が予め設定された閾値以上であるか否か判定を行い、前記音声区間の間隔が予め設定された閾値以上であった場合に、前記会話が終了したと推定することを特徴とする請求項1記載の音声認識装置。
  5. 前記会話判定部は、前記話者音声が会話であると判定している間に、前記音声認識部の認識結果に会話の終了を示す言葉が含まれているか否か判定を行い、前記会話の終了を示す言葉が含まれている場合に、前記会話が終了したと推定することを特徴とする請求項1記載の音声認識装置。
  6. 前記会話判定部は、前記話者音声が会話であると判定している場合、当該判定結果を報
    知する制御を行うことを特徴とする請求項1記載の音声認識装置。
  7. 音声認識部が、話者音声の音声認識を行うステップと、
    キーワード抽出部が、前記音声認識の認識結果から、予め設定された話者間の会話に出現し得るキーワードを抽出するステップと、
    会話判定部が、前記キーワード抽出部の抽出結果を参照し、抽出されたキーワードが入力された場合に前記話者音声が会話であると判定し、キーワードの入力がなされなかった場合に前記話者音声が会話ではないと判定するステップと、
    操作コマンド抽出部が、会話でないと判定された場合に、前記認識結果から機器を操作するためのコマンドを抽出し、会話であると判定された場合に、前記認識結果から前記コマンドを抽出しないステップとを備え、
    前記予め設定されたキーワードは、人名または呼びかけを示す言葉であることを特徴とする音声認識方法。
JP2019519913A 2017-05-25 2017-05-25 音声認識装置および音声認識方法 Active JP6827536B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/019606 WO2018216180A1 (ja) 2017-05-25 2017-05-25 音声認識装置および音声認識方法

Publications (2)

Publication Number Publication Date
JPWO2018216180A1 JPWO2018216180A1 (ja) 2019-11-07
JP6827536B2 true JP6827536B2 (ja) 2021-02-10

Family

ID=64395394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019519913A Active JP6827536B2 (ja) 2017-05-25 2017-05-25 音声認識装置および音声認識方法

Country Status (5)

Country Link
US (1) US20200111493A1 (ja)
JP (1) JP6827536B2 (ja)
CN (1) CN110663078A (ja)
DE (1) DE112017007587T5 (ja)
WO (1) WO2018216180A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100930B1 (en) * 2018-10-05 2021-08-24 Facebook, Inc. Avoiding false trigger of wake word from remote device during call
WO2022137534A1 (ja) * 2020-12-25 2022-06-30 三菱電機株式会社 車載用音声認識装置及び車載用音声認識方法
WO2022176038A1 (ja) * 2021-02-17 2022-08-25 三菱電機株式会社 音声認識装置および音声認識方法
WO2022239142A1 (ja) * 2021-05-12 2022-11-17 三菱電機株式会社 音声認識装置及び音声認識方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003526120A (ja) * 2000-03-09 2003-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 民生電子機器システムとの対話処理方法
JP2004245938A (ja) * 2003-02-12 2004-09-02 Fujitsu Ten Ltd 音声認識装置及びプログラム
JP2007121576A (ja) * 2005-10-26 2007-05-17 Matsushita Electric Works Ltd 音声操作装置
US9865255B2 (en) * 2013-08-29 2018-01-09 Panasonic Intellectual Property Corporation Of America Speech recognition method and speech recognition apparatus
US9715875B2 (en) * 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人

Also Published As

Publication number Publication date
US20200111493A1 (en) 2020-04-09
DE112017007587T5 (de) 2020-03-12
WO2018216180A1 (ja) 2018-11-29
JPWO2018216180A1 (ja) 2019-11-07
CN110663078A (zh) 2020-01-07

Similar Documents

Publication Publication Date Title
JP4557919B2 (ja) 音声処理装置、音声処理方法および音声処理プログラム
JP6827536B2 (ja) 音声認識装置および音声認識方法
US10885909B2 (en) Determining a type of speech recognition processing according to a request from a user
US20190180758A1 (en) Voice processing apparatus, voice processing method, and non-transitory computer-readable storage medium for storing program
JP2004101901A (ja) 音声対話装置及び音声対話プログラム
US20150269930A1 (en) Spoken word generation method and system for speech recognition and computer readable medium thereof
JP6459330B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
KR20130134620A (ko) 디코딩 정보를 이용한 끝점 검출 장치 및 그 방법
JP2012242609A (ja) 音声認識装置、ロボット、及び音声認識方法
JP2002202797A (ja) 音声認識方法
JP5375423B2 (ja) 音声認識システム、音声認識方法および音声認識プログラム
JPWO2020079733A1 (ja) 音声認識装置、音声認識システム、及び音声認識方法
JP2004341033A (ja) 音声媒介起動装置およびその方法
US11507759B2 (en) Speech translation device, speech translation method, and recording medium
JP2008052178A (ja) 音声認識装置と音声認識方法
JP5342629B2 (ja) 男女声識別方法、男女声識別装置及びプログラム
KR100622019B1 (ko) 음성 인터페이스 시스템 및 방법
JP2006039382A (ja) 音声認識装置
US20210398521A1 (en) Method and device for providing voice recognition service
JP4391031B2 (ja) 音声認識装置
WO2023047893A1 (ja) 認証装置および認証方法
JP7449070B2 (ja) 音声入力装置、音声入力方法及びそのプログラム
US20230282217A1 (en) Voice registration device, control method, program, and storage medium
JP7242873B2 (ja) 音声認識補助装置および音声認識補助方法
JP7429107B2 (ja) 音声翻訳装置、音声翻訳方法及びそのプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210119

R150 Certificate of patent or registration of utility model

Ref document number: 6827536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150