JP6708035B2 - 発話内容認識装置 - Google Patents

発話内容認識装置 Download PDF

Info

Publication number
JP6708035B2
JP6708035B2 JP2016141645A JP2016141645A JP6708035B2 JP 6708035 B2 JP6708035 B2 JP 6708035B2 JP 2016141645 A JP2016141645 A JP 2016141645A JP 2016141645 A JP2016141645 A JP 2016141645A JP 6708035 B2 JP6708035 B2 JP 6708035B2
Authority
JP
Japan
Prior art keywords
unit
user
voice
tone
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016141645A
Other languages
English (en)
Other versions
JP2018013549A (ja
Inventor
俊兵 花田
俊兵 花田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016141645A priority Critical patent/JP6708035B2/ja
Publication of JP2018013549A publication Critical patent/JP2018013549A/ja
Application granted granted Critical
Publication of JP6708035B2 publication Critical patent/JP6708035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、カメラが撮像したユーザの唇の動きパターンからユーザが発話している内容を認識する技術に関する。
特許文献1に開示されているように従来、発話者の顔画像に対して画像認識処理を施すことによって、発話者の発話内容を特定し、発話内容に応じたテキストデータや音声データを生成する技術(いわゆる読唇技術)がある。このような読唇技術は、文字入力等の種々のアプリケーションに利用される。
特開2015−220684号公報
ところで、ユーザの発話音声には、何を話しているかといったテキスト情報だけでなく、どのような調子で話しているかといった声調情報も含まれている。しかしながら、従来の読唇技術では、ユーザの発話音声に含まれる声調情報を含むテキストデータ(以降、中間言語データ)を生成する方法については検討されていない。なお、ここでの声調情報とは、抑揚(いわゆるイントネーション)や、ユーザの声の高さ、話す速度、音量などといった種々のパラメータを示す情報である。
本発明は、この事情に基づいて成されたものであり、その目的とするところは、カメラの撮像画像に基づいて中間言語データを生成する発話内容認識装置を提供することにある。
その目的を達成するための本発明は、所定のユーザ操作をトリガとしてユーザの発話内容を特定する処理を実行する発話内容認識装置であって、ユーザ操作を受け付ける操作受付部(F2)と、マイクを介してユーザの発話音声を発話音声データとして取得する音声取得部(F3)と、ユーザの顔部を撮影するように配置されたカメラが撮影した画像であるユーザ画像を逐次取得する画像取得部(F6)と、画像取得部が取得したユーザ画像からユーザの口唇形状の変化パターンである唇動パターンを検出し、さらに、その検出した唇動パターンに基づいてユーザの発話内容に対応する文字列である発話文字列を生成する読唇処理部(F7)と、音声取得部が取得した発話音声データに基づいて、2つの音節を連続して発声する際の声調パターンを特定する声調パターン特定部(F81)と、画像取得部が取得したユーザ画像から、ユーザが2つの音節を連続して発声する際の唇の変化パターンである連結唇動パターンを特定する連結唇動パターン特定部(F82)と、ユーザが続けて発声した2音節に対して、連結唇動パターン特定部が特定した連結唇動パターンと、声調パターン特定部が特定した声調パターンを対応付けて声調データベースに保存する処理であるパターン学習処理を実行する学習処理部(F8)と、声調データベースに保存されているデータと、発話文字列の生成に用いられたユーザ画像とを用いて、発話文字列を構成する各音節文字に対して声調情報を付加した中間言語データを生成する中間言語データ生成部(F9)と、を備え、学習処理部は、操作受付部がユーザ操作を受け付けていない場合に、声調パターン特定部及び連結唇動パターン特定部と協働して学習処理を逐次実行し、中間言語データ生成部は、操作受付部がユーザ操作を受け付けたことに基づいて読唇処理部が発話文字列を生成した場合に、中間言語データを生成するものであって、中間言語データ生成部は、発話文字列を構成する或る音節文字である対象文字についての声調を決定する場合には、声調データベースに格納されている複数の連結唇動パターンの中から、対象文字の1つ前に位置する音節文字と対象文字とを発声した時のユーザの口唇形状の変化パターンと類似度が高い連結唇動パターンを特定し、その特定された連結唇動パターンに対応付けられている声調パターンを用いて対象文字についての声調を決定することを特徴とする。
以上の構成では、操作受付部が、発話内容を特定する処理の実行命令に相当するユーザ操作を受け付けていない場合には(換言すれば入力待機状態となっている場合には)、学習処理部が、声調パターン特定部及び連結唇動パターン特定部と協働してパターン学習処理を逐次実行する。つまり、ユーザの日常会話を元に、2音節毎のユーザの発話時の声調パターンと、連結唇動パターンと学習していく。したがって、声調データベースに蓄積されるデータは、ユーザの実際の発話を元にしたデータである。
そして、操作受付部が上述のユーザ操作を受け付けたことに基づいて読唇処理部がユーザの口唇の動きに応じた文字列(つまり発話文字列)を生成した場合には、中間言語データ生成部が、声調データベースに保存されているデータと、発話文字列の生成に用いたユーザ画像とから、発話文字列に声調情報を付加した中間言語データを生成する。
このような態様によれば、カメラの撮像画像に基づいて中間言語データを生成することができる。また、上述した態様によって生成される中間言語データが備える声調情報は、実際のユーザの発話履歴に基づいて生成される。したがって、ユーザの発声時の癖等が再現された声調情報となることが期待される。
なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
音声入力システム100の概略的な構成を示すブロック図である。 学習処理部F8が備える機能を概念的に表したブロック図である。 スタンバイモード処理について説明するためのフローチャートである。 パターン学習処理について説明するためのフローチャートである。 パターン学習処理について説明するための図である。 音節セットデータについて概念的に表した図である。 発話内容認識処理について説明するためのフローチャートである。 中間言語データ生成処理について説明するためのフローチャートである。
以下、本発明が適用された音声入力システム100について図を用いて説明する。音声入力システム100は、車両に搭載されてあって、図1に示すように、音声認識装置1、シートセンサ2、トークスイッチ(以降、トークSW)3、マイク4、及びカメラ5を備えている。シートセンサ2、トークSW3、マイク4、及びカメラ5のそれぞれは、車両内に構築されたローカルネットワーク(以降、LAN:Local Area Network)を介して、音声認識装置1と通信可能に構成されている。
音声認識装置1は、CPU、RAM、ROM、I/O、及びこれらの構成を接続するバスラインなどを備えた、通常のコンピュータとして構成されている。ROMには、通常のコンピュータを音声認識装置1として機能させるためのプログラム(以降、発話内容特定プログラム)等が格納されている。
なお、上述の発話内容特定プログラムは、ROMに限らず、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。CPUが発話内容特定プログラムを実行することは、発話内容特定プログラムに対応する方法が実行されることに相当する。
この音声認識装置1は、概略的には、マイク4やカメラ5から入力されるデータに基づいて、ユーザが発話している内容を認識し、その認識した結果を所定のアプリケーションソフトウェア(以降、アプリ)に提供する装置である。この音声認識装置1の詳細については別途後述する。なお、ここでのユーザとは、音声入力システム100が搭載された車両を利用する人物であって、特に、運転席に着座している人物を指すものとする。音声認識装置1が請求項に記載の発話内容認識装置に相当する。
シートセンサ2は、運転席に乗員(つまりユーザ)が着座しているか否かを示す信号を出力するセンサである。シートセンサ2は例えば圧力センサを用いて実現することができる。すなわち、シートセンサ2は、運転席の着座部に設けられた圧力センサであって、当該着座部に作用する圧力を示す信号を音声認識装置1に出力する。
トークSW3は、ユーザが音声入力を開始する旨を指示するためのスイッチである。トークSW3はここでは一例として、いわゆるクリック方式のスイッチとし、トークSW3は、ユーザの操作によってオンに設定されると(すなわち、クリックされると)、オン信号を音声認識装置1に出力する。トークSW3は、例えばステアリングコラムカバーの側面部やシフトレバーの近傍などユーザが操作しやすい位置に設けられている。
なお、トークSW3は、ディスプレイに表示されたボタン画像であってもよい。その場合、音声認識装置1は、タッチパネルや周知のポインティングデバイスを介して、当該ボタン画像がユーザによって選択されたことを検出すればよい。
マイク4は、例えば無指向性の小型マイクであり、ユーザが発話した音声や雑音などの周囲の音を集音し、電気的な音声信号に変換して、音声認識装置1に出力する。マイク4は、例えばステアリングコラムカバーの上面部や運転席側のサンバイザー等のユーザの音声を拾いやすい位置に設けられる。
カメラ5は、光学式のカメラであって、例えばCMOSカメラやCCDカメラ等を用いることができる。カメラ5は、運転席に着座している乗員の顔部を撮影するように、例えばステアリングコラムカバーや、インストゥルメントパネルの運転席に対向する部分等、適宜設計される位置に配置されている。なお、また、他の態様としてカメラ5は、赤外線カメラや近赤外線カメラなどであってもよい。カメラ5は所定のフレームレート(例えば30fps)で撮影した画像データを音声認識装置1へ逐次出力する。なお、カメラ5は、撮影画像を映像信号として出力するものであってもよい。カメラ5が撮影した画像が請求項に記載のユーザ画像に相当する。
<音声認識装置1について>
音声認識装置1は、CPUが上述の発話内容特定プログラムを実行することによって、図1に示す種々の機能ブロックに対応する機能を提供する。具体的には、音声認識装置1は、機能ブロックとして、着座判定部F1、操作受付部F2、音声取得部F3、音声認識部F4、ノイズレベル判定部F5、画像取得部F6、読唇処理部F7、学習処理部F8、中間言語化部F9、及び認識媒体設定部F10を備える。
なお、音声認識装置1が備える機能ブロックの一部又は全部は、一つあるいは複数のIC等を用いてハードウェアとして実現されていてもよい。また、CPUによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。
また、音声認識装置1は、不揮発性の記憶媒体を用いて実現されるデータベース(以降、DB)として、音声認識用DB1a、読唇用DB1b、及び声調DB1cを備える。これらのDBは、例えばハードディスクやフラッシュメモリ等といった、不揮発性であって書き換え可能な記憶媒体を用いて実現されればよい。
音声認識用DB1aは、音声認識処理に必要なデータが格納されているDBである。音声認識処理に必要なデータとは、例えば、人間の発声の小さな単位(いわゆる音素)の音響特徴が記述されている音響モデルや、音素の音響特徴と単語とを対応付ける認識辞書、単語間の連接関係を表現する言語モデルなどである。
読唇用DB1bは、後述する読唇処理に必要なデータが格納されているDBである。読唇処理に必要なデータとは、例えば、音節文字毎の口唇形状の変化パターン(以降、唇動パターン)を示す唇動モデルや、ユーザが使用したことがある単語を音節文字で記述した単語辞書などである。単語辞書においては、単語ごとの使用頻度や、その単語の前後で用いられた他の単語についての情報が関連付けられていることが好ましい。なお、音節文字とは、平仮名や片仮名といった仮名を指す。
唇動モデルには、少なくとも、日本語の母音である「あ」、「い」、「う」、「え」、「お」の5つの音声文字に、撥音としての音節文字「ん」を加えた、6つの音声文字に対応する唇動パターンを示す画像データが登録されている。もちろん、唇動モデルには、母音と子音とが組み合わさってなる音節についての唇動パターンを示す画像データも含まれている。なお、母音と子音とが組み合わさってなる音節とは、「か」「き」「く」「け」「こ」などの直音や、「きゃ」「きゅ」「きょ」などの拗音、「しぇ」「ちぇ」などの外来音、濁音などである。モーラの概念を導入して促音や長音を1つの音節として取り扱うか否かは適宜設計されれば良い。これらの音節文字毎の唇動パターンを示すデータは、後述するパターン学習処理の過程において生成されれば良い。
声調DB1cは、後述する声調パターンデータを含む音節セットデータを記憶するDBである。声調パターンデータや音節セットデータについては別途後述する。
着座判定部F1は、シートセンサ2から入力される信号に基づいて、ユーザが運転席に着座しているか否かを判定する。具体的には、シートセンサ2が所定の閾値(以降、着座判定閾値)以上の圧力を検出した場合に、ユーザが運転席に着座していると判定する。また、シートセンサ2が検出している圧力が着座判定閾値未満となっている場合には、運転席にユーザは着座していないと判定する。
なお、本実施形態では一例として、シートセンサ2を用いてユーザが運転席に着座しているか否かを判定する態様を採用するが、これに限らない。他の態様として、カメラ5の撮影画像に基づいてユーザが運転席に着座しているか否かを判定してもよい。その場合には撮影画像中にユーザの顔を検出できた場合に、運転席にユーザが着座していると判定すればよい。
操作受付部F2は、ユーザがトークSW3を押下した操作を検出する。つまり、操作受付部F2は、ユーザが音声入力を開始するためのユーザ操作(以降、音声入力操作)を受け付ける。
ところで、音声認識装置1は動作モードとして、スリープモードと、スタンバイモードと、認識実行モードとの3つの動作モードを備える。動作モードの切り替えは図示しないオペレーティングシステム(以降、OS)によって実施される。
スリープモードは、音声認識装置1が起動してあって、かつ、運転席に乗員が着座していない場合の動作モードである。スリープモードとなっている場合、音声認識装置1は、マイク4やカメラ5の電源をオフにする。
スリープモード時においてユーザの運転席への着座を検出すると、マイク4やカメラ5の電源をオンにしてスタンバイモードへと移行する。なお、音声認識装置1は車両の走行用電源(例えばイグニッション電源)がオンとなった場合や、車両のドアが開かれた場合に、起動するように構成されているものとする。
スタンバイモードは、ユーザが運転席に着座している状態において、ユーザによる音声入力操作が実行されていない場合(換言すれば入力待機状態となっている場合)の動作モードである。音声認識装置1がスタンバイモードで動作している状態において操作受付部F2が音声入力操作を受け付けた場合、音声認識装置1はスタンバイモードから認識実行モードへと移行して、ユーザの発話内容を認識する処理(以降、発話内容認識処理)を実行する。そして、当該処理が完了するとスタンバイモードへと戻る。換言すれば、発話内容認識処理を実行している状態が認識実行モードに相当する。なお、スタンバイモードにおいてユーザの運転席からの離席を検出した場合にはスリープモードへと移行する。発話内容認識処理については別途後述する。
音声取得部F3は、マイク4から出力される音声信号を取得する。また、音声取得部F3は、マイク4からの入力信号に基づいて、ユーザが発話しているか否かを判定する。発話しているか否かは、例えば、音声信号の零交差数に基づいて判断することができる。すなわち、一定のレベルを越える信号が入力されており、かつ、所定の単位時間当りの零交差数が一定数を越えた時を発話が開始された時点(以降、発話開始点)として採用する。また、当該条件が充足されなくなった時点を発話が終了した時点(以降、発話終了点)として採用する。以降では発話開始点から発話終了点までを発話区間と称するとともに、発話区間以外の期間を非発話区間と称する。
さらに、音声取得部F3は、発話区間であると判定されている期間に入力された音声信号に対してA/D変換を施すことで、ユーザが発話した音声に対応するデジタルデータ(以降、発話音声データ)を生成する。発話音声データは、その発声開始時刻を含む時間情報と対応付けられて図示しないメモリに保存される。
なお、発話区間、非発話区間の識別は、その他の周知の方法によって実施されても良い。例えば、ガウス混合分布モデル (Gaussian Mixture Model:GMM)に基づいて発話区間の開始及び終了を検出する方法を採用してもよい。これは音声と非音声のそれぞれのGMMを定義し、入力短時間フレームごとに特徴量抽出から各GMMの尤度計算を行い、音声GMMと非音声GMMの尤度比から,発話区間の開始・終了を判別する方法である。
音声認識部F4は、音声取得部F3が生成した発話音声データに対して、音声認識用DB1aに格納されている種々のデータを用いて、音声認識処理を実施する。音声認識処理は、公知の技術を用いればよいため、ここでの説明は省略する。
ノイズレベル判定部F5は、音声取得部F3によって非発話区間であると判定されている時にマイク4から入力される音声信号の振幅に基づいて、騒音の大きさ(つまりノイズレベル)を判定する。例えば、非発話区間に入力されている音声信号の振幅が予め定められた所定の閾値を超えている場合にはノイズレベルは高レベルであると判定し、閾値未満となっている場合にはノイズレベルは低レベルであると判定する。
画像取得部F6は、カメラ5が撮像した画像データを逐次取得する。画像取得部F6は、取得した画像データに、その取得時刻を示すタイムスタンプを付与して、図示しないメモリに保存する。メモリに保存されている画像データの容量が所定の上限に達した場合には、取得時刻が古いデータから順次削除されていけばよい。
読唇処理部F7は、画像取得部F6から取得する画像データからユーザの口唇部の動きを検出する。そして、読唇処理部F7は、ユーザの口唇の動きの有無から、ユーザが発話を開始した時点(つまり発話開始点)、及び、発話を終了した時点(つまり発話終了点)を特定する。つまり、発話区間を特定する。
また、発話区間に撮像された一連の画像データ(以降、発話画像データ)におけるユーザの口唇形状の変化パターン(つまり唇動パターン)から、ユーザが発声した音声をテキスト化する。つまり、読唇処理部F7は読唇処理を実行する。なお、ここでのテキスト化とは、ユーザの発話音声に対応する音節文字の列(以降、発話文字列)を生成することである。
発話文字列の生成は、画像データから特定した唇動パターンと、読唇用DB1bにおいて唇動モデルとして保存されている音節文字毎の唇動パターンとを比較することで実現されればよい。比較方法としては、動的計画法などの周知の方法を援用することができる。1文字分の唇動パターンに対して複数の音節文字が候補として抽出された場合には、その前後に発声された音節文字を用いてユーザが発声した単語の候補を抽出し、単語辞書を参照して尤度が高い単語を形成する文字を採用すればよい。その他、画像データから発話文字列を生成するためのアルゴリズムとしては周知の方法を援用することができる。
学習処理部F8は、後述するパターン学習処理を実行する機能ブロックである。学習処理部F8は、パターン学習処理を実施するためのより細かい機能(つまりサブ機能)として、図2に示すように、声調パターン特定部F81、連結唇動パターン特定部F82、及び保存処理部F83を備える。これらのサブ機能およびパターン学習処理の詳細については別途後述する。
中間言語化部F9は、後述する中間言語データ生成処理を実施する。中間言語化部F9が請求項に記載の中間言語データ生成部に掃討する。認識媒体設定部F10は、ノイズレベル判定部F5の判定結果に基づき、音声認識部F4と読唇処理部F7のどちらを用いてユーザの発話内容を特定するのかを切り替える。具体的には、ノイズレベルが低レベルに判定されている場合には、音声認識部F4をユーザの発話内容を特定するための手段(以降、認識媒体)に設定する一方、ノイズレベルが高レベルに判定されている場合には読唇処理部F7を認識媒体に設定する。
<スタンバイモード処理>
次に、図3に示すフローチャートを用いて、音声認識装置1がスタンバイモードで動作している場合に実行する処理(以降、スタンバイモード処理)について説明する。図3に示すフローチャートは、運転席へのユーザが着座したことを検出した場合に開始される。また、後述する発話内容認識処理が完了した場合にも開始される。つまり、スリープモードや認識実行モードから、スタンバイモードへと移行した場合に開始されれば良い。
なお、スリープモードからスタンバイモードに移行する際には、カメラ5やマイク4の電源がオンされるものとする。また、このスタンバイモードとは独立して、ノイズレベル判定部F5は、マイク4から入力される音声信号に基づいて、ノイズレベルの判定を逐次実行しているものとする。
まずステップS101では音声取得部F3が、マイク4から入力されている音声信号に基づいて、ユーザが発話しているか否かを判定する。ユーザが発話していると判定した場合にはステップS101が肯定判定されてステップS102に移る。一方、ユーザが発話していないと判定した場合にはステップS101が否定判定されてステップS104に移る。
ステップS102では音声取得部F3が発話音声データを取得するとともに、読唇処理部F7がメモリの保存された画像データから、発話画像データを抽出してステップS103に移る。ステップS103では学習処理部F8が、パターン学習処理を実行してステップS104に移る。このステップS103で実施されるパターン学習処理については別途後述する。
ステップS104では着座判定部F1が、シートセンサ2から入力される信号に基づいて、ユーザが運転席に着座しているか否かを判定する。シートセンサ2からユーザが運転席に着座していることを示す信号が入力されている場合には、ステップS104は肯定判定されてステップS105に移る。一方、シートセンサ2からユーザが運転席に着座していないことを示す信号が入力されている場合には、ステップS104は否定判定されてステップS107に移る。
ステップS105では操作受付部F2が、トークSW3が押下されたか否かを判定する。トークSW3が押下されている場合にはステップS105が肯定判定されてステップS106に移る。一方、トークSW3が押下されていない場合にはステップS105が否定判定されてステップS101に戻る。
ステップS106では、動作モードを認識実行モードに設定して本フローを終了する。ステップS107では、動作モードをスリープモードに設定して本フローを終了する。
<パターン学習処理>
次に、図4に示すフローチャートを用いて、学習処理部F8が実施するパターン学習処理について述べる。このフローチャートは、図3に示すスタンバイモード処理のステップS103に移った時に開始されれば良い。
まず、ステップS201では音声認識部F4が、音声取得部F3から提供される発話音声データを用いて音声認識処理を実施する。このステップS201を実行することによって、ユーザの発話音声に応じた文字列(つまり発話文字列)が生成されるとともに、各音節文字を発声しているタイミングが特定される。また、以降での処理の準備として、ユーザが発話した音節文字に対して、発話された順番に番号(以降、発声番号)を付与する。このステップS201が完了するとステップS202に移る。
ステップS202では、読唇処理部F7が発話画像データからユーザの口唇部の動きを検出し、一連の発話画像データにおいて、ユーザが各音節文字を発声しているフレーム部分を順次特定する。そして、各音節文字を発声する際の唇動パターンを特定する。ステップS202の処理が完了するとステップS203に移る。ステップS203では学習処理部F8が、各音節文字を発声している時の唇動パターンを読唇用DB1bに保存する。
このようなステップS201〜S203を実施することで、音声認識装置1は、音節文字毎のユーザの唇動パターンを学習していく。図5は、ステップS201〜S203までの処理の流れを概念的に表したものである。
音声認識部F4は、図5の(A)に示す発話音声データに対して音声認識処理を実施することで、図5の(B)に示すようにユーザが発話した音節文字を順次特定していく。つまり、発話文字列を生成する。また、各音節文字に対して発声された順番に発声番号を付与する。そして、学習処理部F8は、各状態に対応する画像データを、その時に発声されている音節文字の唇動パターンとして読唇用DB1bに登録していく。なお、図5の(C)は、各音節文字に割り当てられた発声番号を表し、(D)は各音節文字に対応する唇動パターンを表している。
以降では、一連の発話文字列において先頭からj番目(jは整数)の音節文字を発声している状態のことをj番目の状態とも記載する。また、第1声の直前の状態(つまり、無発声の状態)については、0番目の状態として取り扱う。また、発話終了直後の無発声状態に対しても1つの発声番号を付与して取り扱う。図5では発話終了直後の無発声状態を8番目の状態に設定している。
再び図4に戻り、パターン学習処理の説明を続ける。ステップS204では、以降での処理に用いる変数jを1に設定してステップS205に移る。ステップS205では、発話文字列を構成する音節文字の数nを取得してステップS206に移る。nは自然数である。なお、図5に示す例ではn=7である。
ステップS206ではjがn+1未満であるか否かを判定する。jがn+1未満である場合にはステップS206が肯定されてステップS207に移る。一方、jがn+1以上である場合には、ステップS206が否定判定されて本フローを終了する。なお、本フローが終了した場合には、本フローの呼び出し元であるスタンバイモード処理にリターンし、ステップS104に移る。
ステップS207では声調パターン特定部F81が、j−1番目からj番目までの状態に対応する音声データに基づいて、j−1番目の音節とj番目の音節とを続けて発声する際の声調パターンを示すデータ(以降、声調パターンデータ)を生成する。つまり、声調パターンデータは、1音節目の声調と2音節目の声調の、2つの音節に対する声調を示すデータである。
ここでの声調には、抑揚(いわゆるイントネーション)や、ユーザの声の高さ、話す速度、音量などといった種々のパラメータが含まれる。図6の(A)及び(B)は、「きょ」と「う」を続けて発声する際の声調データを概念的に表している。具体的には、(A)は音調の変化を表しており、(B)は音量の変化を表している。話す速度については図示を省略しているが、話す速度についても周知の方法で数値化されれば良い。なお、声調データを構成する項目の種類は適宜設計されればよい。イントネーションと声の高さは、音調を示すデータによって表現されているものとする。
声調データの表現形式は、周知の種々の形式を採用することができる。ここでは一例として、電子情報技術産業協会規格においてITS車載器用音声合成記号(JEITA TT-6004)として規定されている形式で表現することとする。
なお、j=1である場合、つまりj−1番の状態が無発声状態である場合には、ステップS207は無発声の状態から1番目の音節文字を発声する際の声調パターンデータを生成する処理に相当する。ステップS207での処理が完了するとステップS208に移る。
ステップS208では連結唇動パターン特定部F82が、j−1番目からj番目までの状態に対応する発話画像データに基づいて、j−1番目の音節とj番目の音節とを続けて発声する際の唇動パターン(以降、連結唇動パターン)を特定する。そして、その連結唇動パターンを示す連結唇動データを生成する。図6の(C)は、「きょ」と「う」を続けて発声する際の連結唇動パターンを概念的に表している。ステップS208での処理が完了するとステップS209に移る。
ステップS209では保存処理部F83が、ステップS207で生成した声調データと、ステップS208で生成した連結唇動データと、それらが示す2つの音節文字と、を対応づけて声調DB1cに保存する。便宜上、ステップS207で生成した声調データと、ステップS208で生成した連結唇動データとを対応づけたデータを音節セットデータと称する。ステップS209での処理が完了するとステップS210に移る。
ステップS210では変数jの値を1つ増やして(つまりインクリメントして)、ステップS206に戻る。したがって、ステップS206からステップS210を繰り返すことで、2つの連続する音節毎の音節セットデータが生成される。例えば図5に示す例の場合には、7つの音節セットデータが生成される。
声調DB1cにおいて、種々の音節セットデータは、例えば、その音節セットデータが示す2つの音節文字をラベルとしてグループ化して保存されている。「きょう」という発声に対する音節セットデータが複数存在している場合には、それらを「きょう」という2音節に対応するデータとしてグループ化して保存する。なお、「きょう」という発声に対する音節セットデータが複数存在する場合とは、過去にユーザが種々の声調パターン又は連結唇動パターンで「きょう」と発声したことがある場合に相当する。
<発話内容認識処理>
次に、図7に示すフローチャートを用いて、学習処理部F8が実施する発話内容認識処理について述べる。発話内容認識処理は、マイク4が集音した音声又はカメラ5の撮像画像に基づいて(換言すれば音声認識と読唇処理の何れか一方を用いて)、ユーザが発話した内容を特定する処理である。発話内容認識処理は、トークSW3が押下された場合に開始されれば良い。つまり、動作モードが認識実行モードへと移行した時に開始される。
まずステップS301では認識媒体設定部F10が、ノイズレベル判定部F5の判定結果に基づき、音声認識部F4と読唇処理部F7のどちらを用いてユーザの発話内容を特定するのかを判定する。ノイズレベルが低レベルと判定されている場合には、音声認識部F4を用いてユーザの発話内容を特定することを決定してステップS310に移る。一方、ノイズレベルが高レベルと判定されている場合には、読唇処理部F7を用いてユーザの発話内容を特定することを決定してステップS320に移る。
ステップS310では音声認識部F4が、音声取得部F3が生成した発話音声データを取得して、ステップS311に移る。ステップS311では音声認識部F4が、取得した発話音声データに基づいて音声認識処理を実施してステップS330に移る。
ステップS320では発話画像データを取得してステップS321に移る。ステップS321では読唇処理部F7がステップS321で取得した発話画像データを用いて読唇処理を実施することで発話文字列を生成して、ステップS322に移る。
ステップS322では中間言語化部F9が、ステップS321で生成された発話文字列を用いた中間言語データ生成処理を実施してステップS323に移る。この中間言語データ生成処理については別途後述する。なお、この中間言語データ生成処理の成果物として、発話文字列に、各音節文字をユーザが発声した際の声調を示す声調情報を付加したデータ(以降、中間言語データ)が生成される。
ステップS323では音声認識部F4が、ステップS323で生成された中間言語データを用いた音声認識処理を実行することでユーザの発話内容を特定する。ここでの発話内容との特定とは、例えば、発話文字列をイントネーションに基づいて単語レベルに分割し、さらに単語間の連接関係に基づいて、意味の通じる1文に変換することである。ステップS323での処理が完了するとステップS330に移る。
ステップS330では以上の処理で特定したユーザの発話内容を示すデータを、所定のアプリに提供してステップS331に移る。ステップS331では動作モードをスタンバイモードへと移行して本フローを終了する。なお、本フローが終了した場合、図3に示すスタンバイモード処理が開始される。
<中間言語データ生成処理>
次に、図8に示すフローチャートを用いて、中間言語化部F9が実施する中間言語データ生成処理について述べる。このフローチャートは、図8に示す発話内容認識処理のステップS322に移った時に開始されれば良い。
まず、ステップS401では、読唇処理部F7によって生成された発話文字列が備える音節文字の数nを取得してステップS402に移る。ステップS402では、以降の処理に用いる変数kを1に設定してステップS403に移る。なお、kは、自然数が設定される変数である。
ステップS403では、kがn+1未満であるか否かを判定する。kがn+1未満である場合にはステップS403が肯定されてステップS404に移る。一方、kがn+1以上である場合には、ステップS403が否定判定されて本フローを終了する。なお、本フローが終了した場合には、本フローの呼び出し元である発話内容認識処理にリターンし、ステップS323に移る。
ステップS404では、k−1番目からk番目までの状態に対応する発話画像データに基づいて、k−1番目の音節とk番目の音節とを続けて発声する際の唇動パターン(以降、観測唇動パターン)を特定する。ステップS404での処理が完了すると、ステップS405に移る。k番目の音節文字が請求項に記載の対象文字に相当し、k−1番目の音節文字が請求項に記載の、対象文字の1つ前に位置する音節文字に相当する。
なお、観測唇動パターンは、中間言語化部F9が特定してもよいし、連結唇動パターン特定部F82が特定してもよい。また、発話文字列の生成時に読唇処理部F7が特定した唇動パターンを用いて中間言語化部F9が特定してもよい。何れにしても観測唇動パターンは、発話文字列の生成に用いられた画像データに基づいて特定される。
ステップS405では、声調DB1cに保存されている種々の連結唇動データの中から、ステップS404で特定した観測唇動パターンとの類似度合いが最も高い連結唇動パターンを示す連結唇動データを特定する。ここでは一例として、k−1番目の音節とk番目の音節文字をラベルとして付与されている連結唇動データを抽出し、その中で観測唇動パターンとの類似度合いが最も高い連結唇動パターンを示す連結唇動データを選択するものとする。
類似度合いの算出は、パターンマッチング等の周知の手法を用いて実施されれば良い。なお、声調DB1cに、k−1番目の音節とk番目の音節文字をラベルとして割り当てられている連結唇動データが1つしか登録されていない場合には、その連結唇動データを選択すればよい。ステップS405での処理が完了するとステップS406に移る。
ステップS406では、ステップS405で選択された連結唇動データと対応付けられている声調データを読みだしてステップS407に移る。ステップS407では、読み出した声調データと、そのk−1番目の音節文字に対して割り当てた声調とから、k番目の音節文字に対する声調を決定する。例えばk=1の時は、読み出した声調データに示される2音節目の声調をそのまま採用する。
また、k≧2の時は、読み出した声調データに示される1音節目の声調が、発話文字列におけるk−1番目の音節文字に対して設定した声調と一致するように、読み出した声調データに示される2つの音節に対する声調を等しく補正する。例えば、読み出した声調データに示される1音節目の声調が、発話文字列におけるk−1番目の音節文字に設定した声調に対して0.5オクターブ低い場合には、声調データに示される2つの音節に対する声調を両方とも0.5オクターブずつ上げる。そして、そのような補正を施した声調データの2音節目の声調を、k番目の音節文字に対する声調として採用する。
ステップS407での処理が完了するとステップS408に移る。ステップS408では、変数kの値を1つ増やして(つまりインクリメントして)、ステップS403に戻る。したがって、ステップS403からステップS408を繰り返すことで発話文字列を構成する全ての音節文字に対する声調が決定される。つまり、発話文字列に声調情報が付加された中間言語データが生成される。中間言語データの表現形式は、上述の通りJEITA TT-6004などの任意の形式を採用することができる。
<実施形態のまとめ>
以上の構成では、スタンバイモードで動作している間にユーザの発話を検出した場合には、そのユーザが発話した音声データ及びその際の画像データを元に、連結唇動データと声調パターンデータとを生成し、声調DB1cに保存する(ステップS103)。
そして、ユーザのトークSW3の押下をトリガとして読唇処理を実施した場合には、ユーザの発話時の画像データから連結唇動パターンを特定して、その特定した連結唇動パターンと声調DB1cに保存されているデータとから、音節毎の声調を決定する。
つまり、以上の構成によれば、カメラ5が撮像した画像データから、中間言語データを生成することができる。また、音節毎に割り当てられる声調は、実際にユーザが発話した時の唇動パターンと声調パターンとに基づいて決定されるため、実際のユーザの声調と近い声調であることが期待される。したがって、上述した方法によって生成される中間言語データは、ユーザの声調を相対的に精度良く再現した中間言語データとなることが期待できる。
なお、一般的に、単なる音節文字の羅列(つまり発話文字列)よりも、それらが発話された際の声調情報が付加された中間言語データのほうが情報量は大きい。そのため、発話内容を解析する上では、発話文字列よりも中間言語データを用いたほうが、単語の切れ目や疑問文であるか否かなどの特定精度が向上し、より適切な認識結果が得られるようになる。すなわち、以上の構成によれば、読唇処理の結果に基づいて、発話内容をより精度よく認識できるようになる。
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、以降で述べる種々の変形例も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。
なお、前述の実施形態で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。また、構成の一部のみに言及している場合、他の部分については先に説明した実施形態の構成を適用することができる。
[変形例1]
以上では、生成した中間言語データを、発話内容の特定(換言すれば認識)に利用する態様を開示したが、これに限らない。中間言語データは、音声合成処理に利用されても良い。その場合、音声認識装置1は、中間言語化部F9が生成した中間言語データを、音声合成処理を実行するアプリケーションソフトウェアに提供する。
[変形例2]
上述した実施形態では、ユーザの離席時にマイク4をオフする態様を開示したが、これに限らない。マイク4は走行用電源がオンとなっている間は常にオン状態が維持されても良い。
[変形例3]
車両を利用する人物(つまりユーザ)が複数存在する場合には、上述した種々の処理は、ユーザを識別して実施することが好ましい。つまり、顔画像や声紋、指紋等によってユーザを識別し、ユーザ毎に音節文字毎の唇動パターンや、連結唇動データ、声調データを生成することが好ましい。
[変形例4]
以上では、ユーザの発話音声を音節の概念で区切って処理を実施する態様を開示したが、これに限らない。ユーザの発話音声をモーラの概念で区切って処理してもよい。
100 音声入力システム、1 音声認識装置、2 シートセンサ、3 トークスイッチ、4 マイク、5 カメラ、F1 着座判定部、F2 操作受付部、F3 音声取得部、F4 音声認識部、F5 ノイズレベル判定部、F6 画像取得部、F7 読唇処理部、F8 学習処理部、F9 中間言語化部(中間言語データ生成部)、F10 認識媒体設定部、F81 声調パターン特定部、F82 連結唇動パターン特定部、F83 保存処理部、1a 音声認識用データベース、1b 読唇用データベース、1c 声調データベース

Claims (4)

  1. 所定のユーザ操作をトリガとしてユーザの発話内容を特定する処理を実行する発話内容認識装置であって、
    前記ユーザ操作を受け付ける操作受付部(F2)と、
    マイクを介して前記ユーザの発話音声を発話音声データとして取得する音声取得部(F3)と、
    前記ユーザの顔部を撮影するように配置されたカメラが撮影した画像であるユーザ画像を逐次取得する画像取得部(F6)と、
    前記画像取得部が取得した前記ユーザ画像から前記ユーザの口唇形状の変化パターンである唇動パターンを検出し、さらに、その検出した唇動パターンに基づいて前記ユーザの発話音声に対応する文字列である発話文字列を生成する読唇処理部(F7)と、
    前記音声取得部が取得した前記発話音声データに基づいて、2つの音節を連続して発声する際の声調パターンを特定する声調パターン特定部(F81)と、
    前記画像取得部が取得した前記ユーザ画像から、前記ユーザが2つの音節を連続して発声する際の口唇形状の変化パターンである連結唇動パターンを特定する連結唇動パターン特定部(F82)と、
    前記ユーザが続けて発声した2音節に対して、前記連結唇動パターン特定部が特定した前記連結唇動パターンと、前記声調パターン特定部が特定した前記声調パターンを対応付けて声調データベースに保存する処理であるパターン学習処理を実行する学習処理部(F8)と、
    前記声調データベースに保存されているデータと、前記発話文字列の生成に用いられた前記ユーザ画像とを用いて、前記発話文字列を構成する各音節文字に対して声調情報を付加した中間言語データを生成する中間言語データ生成部(F9)と、を備え、
    前記学習処理部は、前記操作受付部が前記ユーザ操作を受け付けていない場合に、前記声調パターン特定部及び前記連結唇動パターン特定部と協働して前記パターン学習処理を逐次実行し、
    前記中間言語データ生成部は、前記操作受付部が前記ユーザ操作を受け付けたことに基づいて前記読唇処理部が前記発話文字列を生成した場合に、前記中間言語データを生成するものであって、
    前記中間言語データ生成部は、
    前記発話文字列を構成する或る1つの音節文字である対象文字についての声調を決定する場合には、前記声調データベースに格納されている複数の前記連結唇動パターンの中から、前記対象文字の1つ前に位置する音節文字と前記対象文字とを連続して発声した時の前記ユーザの口唇形状の変化パターンと類似度が高い前記連結唇動パターンを特定し、
    その特定された前記連結唇動パターンに対応付けられている前記声調パターンを用いて前記対象文字についての声調を決定することを特徴とする発話内容認識装置。
  2. 請求項1において、
    前記音声取得部が取得した前記発話音声データに基づいて音声認識処理を実行する音声認識部(F4)と、
    前記マイクから出力される音声信号の振幅に基づいて、騒音のレベルであるノイズレベルを判定するノイズレベル判定部(F5)と、を備え、
    前記操作受付部が前記ユーザ操作を受け付けた時点において前記ノイズレベル判定部によって前記ノイズレベルは高レベルである判定されている場合に、前記読唇処理部が前記ユーザ画像に基づいて前記発話文字列を生成する一方、
    前記操作受付部が前記ユーザ操作を受け付けた時点において前記ノイズレベル判定部によって前記ノイズレベルは低レベルである判定されている場合には前記音声認識部が前記音声認識処理を実行することで前記ユーザの発話内容を特定することを特徴とする発話内容認識装置。
  3. 請求項2において、
    前記操作受付部が前記ユーザ操作を受け付けた時点において前記ノイズレベル判定部によって前記ノイズレベルは高レベルであると判定されている場合に、
    前記読唇処理部が前記発話文字列を生成した後に、前記音声認識部は、前記中間言語データ生成部が生成した前記中間言語データを用いて音声認識処理を実施することで、前記ユーザの発話内容を特定することを特徴とする発話内容認識装置。
  4. 請求項1から3の何れか1項において、
    前記中間言語データ生成部が生成した前記中間言語データは、音声合成処理を実行するアプリケーションソフトウェアに提供されることを特徴とする発話内容認識装置。
JP2016141645A 2016-07-19 2016-07-19 発話内容認識装置 Active JP6708035B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016141645A JP6708035B2 (ja) 2016-07-19 2016-07-19 発話内容認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016141645A JP6708035B2 (ja) 2016-07-19 2016-07-19 発話内容認識装置

Publications (2)

Publication Number Publication Date
JP2018013549A JP2018013549A (ja) 2018-01-25
JP6708035B2 true JP6708035B2 (ja) 2020-06-10

Family

ID=61020671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016141645A Active JP6708035B2 (ja) 2016-07-19 2016-07-19 発話内容認識装置

Country Status (1)

Country Link
JP (1) JP6708035B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6964044B2 (ja) * 2018-05-21 2021-11-10 株式会社デンソーアイティーラボラトリ 学習装置、学習方法、プログラム、学習済みモデルおよびリップリーディング装置
JP2019208138A (ja) * 2018-05-29 2019-12-05 住友電気工業株式会社 発話認識装置、及びコンピュータプログラム
CN109087651B (zh) * 2018-09-05 2021-01-19 广州势必可赢网络科技有限公司 一种基于视频与语谱图的声纹鉴定方法、系统及设备
CN111462760B (zh) * 2019-01-21 2023-09-26 阿里巴巴集团控股有限公司 声纹识别系统、方法、装置及电子设备
JP7400364B2 (ja) * 2019-11-08 2023-12-19 株式会社リコー 音声認識システム及び情報処理方法
CN112767923B (zh) * 2021-01-05 2022-12-23 上海微盟企业发展有限公司 一种语音识别方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195883A (ja) * 2001-12-26 2003-07-09 Toshiba Corp 雑音除去装置およびその装置を備えた通信端末
JP4775961B2 (ja) * 2006-12-08 2011-09-21 公立大学法人大阪府立大学 映像を用いた発音の推定方法
JP5040778B2 (ja) * 2008-04-04 2012-10-03 沖電気工業株式会社 音声合成装置、方法及びプログラム
JP5609431B2 (ja) * 2010-08-25 2014-10-22 富士通株式会社 音量制御装置、音量制御方法およびプログラム

Also Published As

Publication number Publication date
JP2018013549A (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
JP6708035B2 (ja) 発話内容認識装置
US6553342B1 (en) Tone based speech recognition
JP3762327B2 (ja) 音声認識方法および音声認識装置および音声認識プログラム
KR100815115B1 (ko) 타 언어권 화자 음성에 대한 음성 인식시스템의 성능향상을 위한 발음 특성에 기반한 음향모델 변환 방법 및이를 이용한 장치
EP2048655B1 (en) Context sensitive multi-stage speech recognition
EP1701338B1 (en) Speech recognition method
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
JP2007500367A (ja) 音声認識方法およびコミュニケーション機器
JPWO2007046267A1 (ja) 音声判別システム、音声判別方法及び音声判別用プログラム
JP5040778B2 (ja) 音声合成装置、方法及びプログラム
JP2005266349A (ja) 声質変換装置および声質変換方法ならびに声質変換プログラム
JP2003114696A (ja) 音声認識装置、プログラム及びナビゲーションシステム
CN113488022B (zh) 一种语音合成方法和装置
Grewal et al. Isolated word recognition system for English language
JP5201053B2 (ja) 合成音声判別装置、方法及びプログラム
US20230148275A1 (en) Speech synthesis device and speech synthesis method
JP4230142B2 (ja) 悪環境下でのキーパッド/音声を用いたハイブリッドな東洋文字認識技術
JP5300000B2 (ja) 調音特徴抽出装置、調音特徴抽出方法、及び調音特徴抽出プログラム
JPH07230294A (ja) 言語識別装置
KR20100111544A (ko) 음성인식을 이용한 발음 교정 시스템 및 그 방법
JP5315976B2 (ja) 音声認識装置、音声認識方法、および、プログラム
JP4449380B2 (ja) 話者正規化方法及びそれを用いた音声認識装置
JP2007248529A (ja) 音声認識装置、音声認識プログラム、及び音声動作可能な装置
JP2705061B2 (ja) 音声認識方法
JP3808732B2 (ja) 音声認識方法及びそのシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R151 Written notification of patent or utility model registration

Ref document number: 6708035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250