JP2020003783A - 音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット - Google Patents

音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット Download PDF

Info

Publication number
JP2020003783A
JP2020003783A JP2019105860A JP2019105860A JP2020003783A JP 2020003783 A JP2020003783 A JP 2020003783A JP 2019105860 A JP2019105860 A JP 2019105860A JP 2019105860 A JP2019105860 A JP 2019105860A JP 2020003783 A JP2020003783 A JP 2020003783A
Authority
JP
Japan
Prior art keywords
period
voice
subject
opening
closing operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019105860A
Other languages
English (en)
Other versions
JP7351105B2 (ja
Inventor
浩一 中込
Koichi Nakagome
浩一 中込
敬輔 島田
Keisuke Shimada
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US16/441,348 priority Critical patent/US10997979B2/en
Priority to CN201910539973.5A priority patent/CN110634505B/zh
Publication of JP2020003783A publication Critical patent/JP2020003783A/ja
Application granted granted Critical
Publication of JP7351105B2 publication Critical patent/JP7351105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】対象者の音声期間を適切に検出することを可能とする。【解決手段】音声期間検出部301は、撮像手段で撮像された対象者の口唇の撮像画像に基づいて、対象者が発声している期間である音声期間を検出する。呼吸期間判定部304は、対象者の口唇の撮像画像に基づいて、対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する。音声期間検出部301は、呼吸期間判定部304により判定された発声直前呼吸期間を対象者の音声期間に含めずに、対象者の音声期間を検出する。【選択図】図3

Description

本発明は、音声期間検出装置、音声期間検出方法、プログラム、音声認識装置及びロボットに関する。
従来、雑音による影響を抑制しながら発話する対象者(以下「対象者」)の音声を認識するために、対象者の口唇の動き情報に基づいて対象者が発声している期間である音声期間(音声区間)を検出する技術が知られている(例えば特許文献1に記載の技術)。この従来の音声期間検出装置では、口唇の動き情報がウェーブレット変換され、それにより得られたウェーブレット変換情報から音声期間が検出される。あるいは、口唇の動き情報からニューラルネットを用いて音声期間が検出される。
特開平6−301393号公報
一方、対象者の口唇の開閉動作(口唇を開いたり閉じたりする動作)のタイミングと対象者の発声のタイミングは、必ずしも一致しているとは限らない。上記の従来の音声認識装置は、この点を何ら考慮していないため、対象者が発声していない期間が、検出された音声期間に含まれてしまい、音声期間の検出を適切に行うことができなくなってしまうおそれがある。
本発明は、以上のような課題を解決するためのものであり、対象者の音声期間を適切に検出することを目的とする。
前記目的を達成するため、本発明に係る音声認識装置の一様態は、撮像手段で撮像された対象者の口唇の撮像画像に基づいて、対象者が発声している期間である音声期間を検出する音声期間検出手段と、対象者の口唇の撮像画像に基づいて、対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、音声期間検出手段は、呼吸期間判定手段により検出された発声直前呼吸期間を対象者の音声期間に含めずに、対象者の音声期間を検出する。
本発明によれば、対象者の音声期間を適切に検出することが可能となる。
本発明の実施の形態にかかるロボットの外観図である。 ロボットの構成を示すブロック図である。 ロボットの対話機能の構成を示すブロック図である。 ロボットの対話機能における音声期間検出処理と音声認識処理を実行するための処理の一例を示すフローチャートである。 口開閉判定処理の一例を示すフローチャートである。 ラベル付けされた顔パーツ検出結果のフォーマット例を示す図である。 頭部の回転の自由度を模式的に表した図である。 第1所定時間の設定処理の例を示すフローチャートである。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、実施の形態に係る音声期間検出装置及び音声認識装置を備えたロボット100を正面から見た場合の外観を模式的に示した図である。ロボット100は、頭部101と胴体102とを備えた人型のコミュニケーションロボットである。ロボット100は、例えば住宅内に設置され、所定の対象である住人等(以下「対象者」と記載)に呼びかけられると、呼びかけた対象者と会話する。
図1に示すように、ロボット100の頭部101には、カメラ104と、音声取得手段として機能するマイクアレイ103と、スピーカ105と、センサ群106と、首関節駆動部107と、足回り駆動部108と、が設けられている。
カメラ104は、頭部101の前面の下側、人の顔でいうところの鼻の位置に設けられている。カメラ104は、後述する制御部201の制御の下、所定のフレームレート(例えば30fps(フレーム/秒))で連続的に撮像を行う。なお、このフレームレートは、後述する口開閉判定部308による口唇の開閉判定(図5のステップS504)を適切に実行できるような値に、実験などにより予め設定されている。
マイクアレイ103は、例えば13個のマイクからなる。13個のマイクのうちの8個のマイクが、人の顔でいうところの額の高さの位置であって、頭部101の周回りに等間隔で配置されている。これら8個のマイクよりも上側に、4個のマイクが頭部101の周回りに等間隔で配置されている。更に、1個のマイクが頭部101の頭頂部に配置されている。マイクアレイ103はロボット100の周囲で発生した音を検出する。
スピーカ105は、カメラ104より下側、人の顔でいうところの口の位置に設けられている。スピーカ105は、制御部201の制御の下、制御部201からの制御信号を音声に変換し、各種の音声を出力する。
センサ群106は、人の顔でいうところの目の位置と耳の位置とに設けられている。センサ群106は、加速度センサ、障害物検知センサ等を含み、ロボット100の姿勢制御や、安全性の確保のために使用される。
首関節駆動部107は、頭部101と胴体102とを連結する部材である。頭部101は、破線で示される首関節駆動部107によって、胴体102に連結されている。首関節駆動部107は、複数のモータを含む。制御部201がこれら複数のモータを駆動すると、ロボット100の頭部101が回転する。首関節駆動部107は、ロボット100の頭部101を回転させると共にその回転量を取得する役割を有する。
足回り駆動部108は、ロボット100を移動させる役割を有する。特には図示しないが、足回り駆動部108は、胴体102の下側に設けられた4つの車輪(ホイール)を含む。4つの車輪のうち、2つが胴体102の前側に、残り2つが後ろ側に配置されている。車輪として、例えば、オムニホイール、メカナムホイールが使用される。制御部201は、足回り駆動部108の車輪を回転させることにより、ロボット100を移動させる。
図2は、図1の外観を有するロボット100の制御系であるロボット制御システム200を示すブロック図である。図2において、図1と同じ参照番号を付した部分は図1と同じものである。図2において、胴体102内に設置される制御部201は、CPU(Central Processing Unit:中央演算処理装置)、RAM(Random Access Memory:ランダムアクセスメモリ)等を含む。制御部201は、頭部101内のマイクアレイ103、カメラ104、スピーカ105、センサ群106、胴体102内の首関節駆動部107及び足回り駆動部108と、それぞれ電気的に接続され、RAMを作業領域として、後述する記憶部202に記憶されている制御プログラム205を読み出して実行することにより、前記各部を制御する。
記憶部202は、ソリッドステートディスクドライブ、ハードディスクドライブ、フラッシュメモリ等を含み、胴体102の内部に設けられている。記憶部202は、制御部201によって実行される制御プログラム205、マイクアレイ103が集音した音声データ、カメラ104が撮像した画像データ等を含む各種データを記憶する。記憶部202が記憶する制御プログラム205には、後述する音源分離情報検出プログラム、移動プログラム、及び対話プログラム等が含まれる。
操作ボタン203は、胴体102の背中に設けられている(図1において不図示)。操作ボタン203は、ロボット100を操作するための各種のボタンであり、電源ボタン、スピーカ105の音量調節ボタン等を含む。
電源部204は、胴体102に内蔵された充電池であり、ロボット制御システム200の各部に電力を供給する。
図3は、図2の制御部201が記憶部202内の制御プログラム205を実行する機能の一部として実現される対話機能の構成を示すブロック図である。この対話機能の構成として、音声期間検出部301、音声入力部302、音声認識部303、呼吸期間判定部304、画像入力部305、顔検出部306、口パーツ検出部307、口開閉判定部308、及び発声部309を備えている。なお、図3に示される各機能部は、制御部201内のFPGA(Field Programmable Array)等のハードウェアによって実現されてもよい。
図3において、音声取得手段として機能する音声入力部302は、図1のマイクアレイ103を構成する各マイクから、音声を入力し、音声認識部303による後述する音声認識のために、入力した音声を適宜、前記RAMに記憶する。
上記の画像入力部305、顔検出部306、及び口パーツ検出部307は、音声入力部302が音声を取得するタイミングで、対象者の口唇画像を取得する。具体的には、画像入力部305が、図1のカメラ104から、前記所定のフレームレートで連続的に撮像された画像を入力する。次に、顔検出部306が、入力された画像から顔領域を検出する顔検出処理を実行する。そして、口パーツ検出部307が、検出された顔領域から口パーツを検出する口パーツ検出処理を実行し、口唇の撮像画像(以下「口唇画像」と呼ぶ)とする。
口開閉判定部308は、口パーツ検出部307が出力する対象者の口唇画像に基づいて、対象者の口唇の開閉動作(口唇を開いたり閉じたりする動作)が行われている状態と、口唇の開閉動作が行われていない状態とを判定する口開閉判定処理を実行する。
呼吸期間判定手段として機能する呼吸期間判定部304は、口パーツ検出部307が出力する対象者の口唇画像に基づく口開閉判定部308の判定結果に基づいて、対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定処理を実行する。
音声期間検出手段として機能する音声期間検出部301は、口パーツ検出部307が出力する対象者の口唇画像に基づく口開閉判定部308の判定結果に基づいて、対象者が発声している期間である対象者の音声期間を検出する音声期間検出処理を実行する。このとき、音声期間検出部301は、呼吸期間判定部304により判定された発声直前呼吸期間を対象者の音声期間に含めずに、対象者の音声期間を検出する。これは次の理由による。すなわち、対象者によっては、発声する直前に呼吸するために口唇を動かす場合があり、また、この発声直前の呼吸に伴う発声直前呼吸期間では、対象者が呼吸しているだけで実際には発声していない(対象者の音声が発生していない)ため、そのような発声直前呼吸期間を音声期間に含めると、発声直前呼吸期間中に発生した雑音が、音声認識部303により認識される音声に含まれる可能性があるためである。
また、音声期間検出部301は、口開閉判定部308の判定結果に基づき、口唇の開閉動作が終了したタイミングから所定時間(これを「ERT」とおく)前のタイミングを音声期間の終了タイミングとして検出する。これは次の理由による。すなわち、発声が実際に終了するタイミングは、口唇の開閉動作が終了するタイミングよりも若干早いタイミングになる傾向にあるため、口唇の開閉動作が終了するタイミングを音声期間の終了タイミングとして検出すると、発声が実際に終了してから口唇の開閉動作が終了するまでの期間に発生した雑音が、音声認識部303により認識される音声に含まれる可能性があるためである。
音声認識手段として機能する音声認識部303は、音声期間検出部301により検出された音声期間内に音声入力部302により取得され、記憶された対象者の音声に基づいて、既知の音声認識技術を使って、対象者の音声を認識する音声認識処理を実行する。
発声部309は、音声認識部303での音声認識結果に応じて、対話アルゴリズムに従って、既知の音声合成技術を使って音声合成による発声処理を実行する。発声処理により合成された音声は、図1及び図2のスピーカ105を介して、対象者に対して発声され、対象者と図1のロボット100との対話が行われる。
音声認識部303は例えば、音源到来方向推定処理、音源分離処理、音量算出処理、S/N比算出処理などを実行してよい。
音声認識部303は、音源到来方向推定処理において、音声期間検出部301が音声期間を検出しているときに、音声入力部302が入力する音声を信号音声として、口パーツ検出部307が出力する口唇画像及びその信号音声の信号音声パワーに基づいて、信号音声の到来方向を推定してよい。
一方、音声認識部303は、音源到来方向推定処理において、音声期間検出部301が音声期間を検出していないときに、音声入力部302が入力する音を雑音として、その雑音の雑音パワーに基づいて、雑音の到来方向を推定してよい。このとき、音源到来方向推定処理において、音源定位手法の一手法であるMUSIC(MUltiple SIgnal Classification)法に基づく処理を実行することにより、対象者以外の音源からの雑音の音源定位(雑音源の位置)を推定してよい。
音声認識部303は、音源分離処理において、例えば下記文献1で示されているビームフォーミング技術に基づく演算処理を実行することにより、音源到来方向推定処理により現在得られている信号音声の到来方向又は雑音の到来方向を入力として、対象者が発声する信号音声を強調し又は信号音声以外の雑音を抑圧する音源分離の処理を実行してよい。
<文献1>
浅野 太、“音源分離”、[online]、2011年11月受領、電子情報通信学会『知識の森』、[2017年6月15日検索]、インターネット
<URL:http://www.ieice-hbkb.org/files/02/02gun_06hen_02.pdf>
具体的には、音声認識部303は、音源分離処理において、口開閉判定部308が口唇の開閉動作が行われている状態を判定しているときには、上記ビームフォーミングの演算処理により、信号音声を音源到来方向推定処理により現在得られている信号音声の到来方向にビームステアリング(強調)するビームステアリング演算処理を実行することにより、強調された信号音声を得てよい。
一方、音声認識部303は、音源分離処理において、口開閉判定部308が口唇の開閉動作が行われていない状態を判定しているときには、上記ビームフォーミングの演算処理により、雑音を音源到来方向推定処理により現在得られている雑音の到来方向にヌルステアリング(抑圧)するヌルステアリング演算処理を実行することにより、抑圧された雑音を得てよい。
音声認識部303は、音量算出処理において、音源分離処理で得られるビームステアリング(強調)された信号音声又はヌルステアリング(抑圧)された雑音のそれぞれの音量を算出する。
音声認識部303は、S/N比算出処理において、音量算出処理で算出した信号音声の音量と雑音の音量とに基づいて、信号対雑音比(以下「S/N比」と記載)を算出し、そのS/N比が閾値よりも大きいか否かを判定する。
S/N比算出処理での判定の結果、S/N比が閾値以下である場合には、音声認識部303は、音声認識のための十分なS/N比が得られていないと判定する。この場合、図2の制御部201は例えば、図1又は図2の足回り駆動部108を制御することにより、例えば対象者に対して一定の関係(例えば一定の距離又は一定の角度等)を維持しながら、ロボット100を移動させる。
ロボット100の移動の後、音声認識部303は再び、上述と同様のS/N比の判定動作を実行する。この結果、S/N比が閾値よりも大きくなると、音声認識部303は、音声認識のための十分なS/N比が得られ、対象者に対するロボット100の位置関係が、信号音声を雑音から最も良く分離できる最適化された位置である音源分離位置になったと判定する(又は、対象者に対するロボット100の方向関係が、信号音声を雑音から最も良く分離できる最適化された方向である音源分離方向になったと判定する)。この場合、音声認識部303は、音源分離処理で得たビームステアリング(強調)された信号音声に対する音声認識処理を実行させることにより、対象者の発声内容を理解する。
図4は、図3のブロック図で示される対話機能における音声期間検出処理と音声認識処理を実行するための処理の一例を示すフローチャートである。このフローチャートの処理例は、図3のブロック図の構成を実現する制御部201のハードウェアが実行する処理として、又は図2の制御部201が実行する制御プログラム205の処理として実現される。
まず、制御部201が、特には図示しない内部のRAMに変数として持つ「開フラグ」の値を0に初期化する(ステップS401)。なお、図4において、開フラグの値が0であることを「開=0」と表記する。
次に、図3の顔検出部306が、顔検出処理を実行する(ステップS402)。この顔検出処理では、カメラ104から画像入力部305を介して入力された画像から、顔領域を検出する。顔検出処理としては、既知の顔検出技術を使用することができる。例えば、下記文献2に記載されている何れかの顔検出技術が適用されてよい。
<文献2>
堀田 一弘、“小特集 顔認識技術 1.顔認識の研究動向” 、[online]、2012年3月28日公開、映像情報メディア学会誌、Vol.64,No.4(2010),p.459-462、[2017年6月15日検索]、インターネット
<URL: https://www.jstage.jst.go.jp/article/itej/64/4/64_4_455/_pdf>
次に、図3の口パーツ検出部307が、顔検出処理で検出された顔領域の画像を用いて、口パーツ検出処理を実行する(ステップS403)。口パーツ検出処理としては、既知の顔パーツ検出技術を使用することができる。例えば、下記文献3に記載されている何れかの顔パーツ検出技術が採用されてよい。
<文献3>
littlewing、“WEBカメラで利用できる顔認識技術まとめ-その2”、[online]、2015年4月7日公開、[2017年6月15日検索]、インターネット
<URL: http://littlewing.hatenablog.com/entry/2015/04/07/221856>
ステップS403の口パーツ検出処理により、まず例えばラベル付けされた座標値である顔パーツ検出結果が得られる。ラベル付けされた顔パーツ検出結果のフォーマット例としては、例えば図6の601として示されるように、下記文献4のFigure2として記載されている例を採用することができる。
<文献4>
C.sagonas,”Facial point annotations”、[online]、[2017年6月15日検索]、インターネット
<URL: https://ibug.doc.ic.ac.uk/resources/facial-point-annotations/>
ステップS403の口パーツ検出処理では、図6の601として例示される顔パーツ検出結果のうちの例えば、ラベル49から68が口パーツとして検出され、またラベル28から36が鼻パーツとして検出される。
次に、制御部201は、特には図示しないタイマを参照することにより、現在時刻tを取得する(ステップS404)。
その後、図3の口開閉判定部308は、ステップS403で算出された口パーツと鼻パーツのラベル付けされた座標値(例えば図6の601のラベル49〜68、ラベル28〜36)を用いて、対象者の口唇の開閉動作が行われている状態と、口唇の開閉動作が行われていない状態とを判定する口開閉判定処理を実行する(ステップS405)。
図5は、図4のステップS405の口開閉判定処理の詳細例を示すフローチャートである。
まず、図3の口開閉判定部308は、口唇の縦座標(顔の上下方向)における口唇の上唇と下唇との相対的な移動の変化量(以下「上下唇縦移動変化量」という)Δyを算出する(図5のステップS501)。今、ある時刻のフレームF(t)にて、下記(1)式の演算により、y座標量差分総計y(t)が算出される。
y(t)=yy1+yy2 ・・・(1)
(1)式において、yy1は、上唇の下側ラインと下唇の上側ラインのy座標量差分総計であり、図6の601における関係より、下記(2)式から(7)式の累算演算により算出される。これらの式において、演算子「+=」は、左辺の値に右辺の値を累算する演算を示す。また、関数「fabs()」は、括弧内の数値に対する絶対値を浮動小数で算出する関数である。また例えば、「data.y[61](t)」は、時刻tのフレーム画像F(t)内における図6のラベル61番のy座標データ値を示す。他も同様である。
yy1+=fabs(data.y[61](t)
−data.y[67](t))・・・(2)
yy1+=fabs(data.y[61](t)
−data.y[58](t))・・・(3)
yy1+=fabs(data.y[62](t)
−data.y[66](t))・・・(4)
yy1+=fabs(data.y[62](t)
−data.y[57](t))・・・(5)
yy1+=fabs(data.y[63](t)
−data.y[65](t))・・・(6)
yy1+=fabs(data.y[63](t)
−data.y[56](t))・・・(7)
(1)式において、yy2は、鼻下部と下口唇(上側)のy座標量差分総計であり、図6の601の関係より、下記(8)式から(12)式の演算により算出される。
yy2+=fabs(data.y[31](t)
−data.y[60](t))・・・(8)
yy2+=fabs(data.y[32](t)
−data.y[61](t))・・・(9)
yy2+=fabs(data.y[33](t)
−data.y[62](t))・・・(10)
yy2+=fabs(data.y[34](t)
−data.y[63](t))・・・(11)
yy2+=fabs(data.y[34](t)
−data.y[64](t))・・・(12)
口開閉判定部308は次に、下記(13)式により、時刻tのフレーム画像F(t)に対して(1)式の演算で算出したy座標量差分総計y(t)と、時刻tより1フレーム前の時刻(t−1)のフレーム画像F(t−1)に対して(1)式と同様の演算で算出したy座標量差分総計y(t−1)との差分絶対値を、前記上下唇縦移動変化量Δyとして求める。ここで、関数「abs()」は、括弧内の数値に対する絶対値を整数で算出する関数である。
Δy=abs(y(t)−y(t−1))・・・(13)
(13)式で算出されるΔyは、顔の上下方向における上唇と下唇との相対的な移動の変化量を示しており、上唇と下唇が離れる方向もしくは近づく方向に移動している時に大きくなる。
次に、口開閉判定部308は、口唇の横座標(顔の左右方向)における移動の変化量(以下「口唇横移動変化量」という)Δxについても、前記上下唇縦移動変化量Δyの場合と同様の演算で算出する(図5のステップS502)。
即ち今、ある時刻のフレームF(t)にて、下記(14)式の演算によって、x座標量差分総計x(t)が算出される。(14)式で例えば、「data.x[61](t)」は、時刻tのフレーム画像F(t)内における図6のラベル61番のx座標データ値を示す。他も同様である。
x(t)=data.x[61](t)+data.x[62](t)
+data.x[63](t)+data.x[67](t)
+data.x[66](t)+data.x[65](t)
・・・(14)
次に、下記(15)式により、時刻tのフレーム画像F(t)に対して(14)式の演算で算出したx座標量差分総計x(t)と、1フレーム前の時刻(t−1)のフレーム画像F(t−1)に対し(14)式と同様の演算で算出したx座標量差分総計x(t−1)との差分絶対値が、前記口唇横移動変化量Δxとして算出される。
Δx=abs(x(t)−x(t−1))・・・(15)
(15)式で算出される口唇横移動変化量Δxは、顔の左右方向における口唇(上唇及び下唇の全体)の移動の変化量を示しており、口唇が左右どちらかに移動している時に大きくなる。
続いて、口開閉判定部308は、図1の頭部101の回転判定を行う(図5のステップS503)。口開閉判定部308は、図1又は図2の首関節駆動部107から口開閉判定部308に入力する信号に基づいて、フレーム時刻tのフレーム画像F(t)と、フレーム時刻tのフレームより1フレーム前のフレーム時刻(t−1)のフレーム画像F(t−1)における、頭部101の姿勢の変化量をそれぞれ表すロール角度差分値Δroll、ヨー角度差分値Δyaw及びピッチ角度差分値Δpitchを、下記(16)式、(17)式及び(18)式によりそれぞれ算出する。
Δroll=abs(F(t)roll−F(t−1)roll)
・・・(16)
Δyaw=abs(F(t)yaw−F(t−1)yaw)
・・・(17)
Δpitch=abs(F(t)pitch−F(t−1)pitch)
・・・(18)
ここで例えば、F(t)rollは、時刻tのフレーム画像F(t)に対応して首関節駆動部107から口開閉判定部308に入力するロール角度値、F(t−1)rollは、時刻(t−1)のフレーム画像F(t−1)に対応して首関節駆動部107から口開閉判定部308に入力するロール角度値である。ヨー角度値F(t)yaw及びF(t−1)yaw、ピッチ角度値F(t)pitch及びF(t−1)pitchについても、それぞれ同様である。図7は、図1のロボット100の頭部101の回転の自由度を模式的に表した図である。図1又は図2の首関節駆動部107により、ロボット100の頭部101は、胴体102に対して、ピッチ軸Xmの軸回り、ロール軸Zmの軸回り、ヨー軸Ymの軸回りにそれぞれ回転可能である。首関節駆動部107は、ピッチ軸Xmの軸回りのピッチ角度値、ロール軸Zmの軸回りのロール角度値及びヨー軸Ymの軸回りのヨー角度値をそれぞれ、上記のようにして制御部201に出力する。
口開閉判定部308は、上記(16)式、(17)式及び(18)式の演算の結果、ロール角度差分値Δroll、ヨー角度差分値Δyaw及びピッチ角度差分値Δpitchをそれぞれ、ロール軸Zm、ヨー軸Ym及びピッチ軸Xmにおける頭部101の回転角度の変化量として算出する。
なお、頭部101の回転角度の推定方式としては様々な手法が知られており、上記以外の技術が採用されてもよい。
そして、口開閉判定部308は、ステップS501で算出した上下唇縦移動変化量Δyと、ステップS502で算出した口唇横移動変化量Δxと、ステップS503で算出したロボット100の頭部101の回転角度の変化量としてロール角度差分値Δroll、ヨー角度差分値Δyaw及びピッチ角度差分値Δpitchに基づいて、以下のルールにより口唇の開閉判定を行う(図5のステップS504)。即ち、制御部201は、下記(19)式の論理式で示される条件が満たされたときに、口唇の開閉動作が行われている状態を判定し、その条件が満たされないときに、口唇の開閉動作が行われていない状態(停止している状態)を判定する。なお、(19)式において、第1の閾値であるy_th、第2の閾値であるx_th、並びに、第3の閾値群であるroll_th、yaw_th及びpitch_thはそれぞれ、Δy、Δx、Δroll、Δyaw及びΔpitchの判定閾値である。
Δy>y_th &&
Δx<x_th &&
Δroll<roll_th &&
Δyaw<yaw_th &&
Δpitch<pitch_th
・・・(19)
即ち、口開閉判定部308は、上口唇と下口唇が離れる方向もしくは近づく方向に移動しており、顔の横方向における口唇の移動の変化量は少なく、かつロボット100の頭部101があまり回転していない場合に、口唇の開閉動作が行われている状態を判定する。Δyだけでなく、Δx、Δroll、Δyaw、及びΔpitchも口唇の開閉判定に用いることにより、イヤイヤ(左右に首を振る)、考えるために首を傾げるといった動作でも、誤判定を起こりにくくすることができる。
図4の説明に戻り、制御部201は、ステップS405での口開閉判定処理により、口唇の開閉動作が行われている状態を判定すると、以下のステップS406からステップS408までの一連の処理を実行する。
まず、制御部201は、前述した「開フラグ」の値が0、すなわち、いままで口唇の開閉動作が行われていなかったか否かを判定する(ステップS406)。
制御部201は、ステップS406の判定がYESならば、特には図示しないRAMに変数として記憶される開始時刻TSに、ステップS404で取得した現在時刻tをセットする。また、制御部201は、「開フラグ」の値を1にセットする。なお、図4において、開フラグの値が1であることを「開=1」と表記する(以上、ステップS407)。
その後、制御部201は、次の撮像フレームの処理に移り(ステップS408)、ステップS402の処理から繰り返す。
一方、制御部201は、ステップS406の判定がNOならば、そのまま次の撮像フレームの処理に移り(ステップS408)、ステップS402の処理から繰り返す。
一方、制御部201の口開閉判定部308は、ステップS405での口開閉判定処理により、口唇の開閉動作が行われていない状態を判定すると、以下のステップS409からステップS412までの一連の処理を実行する。
まず、制御部201は、「開フラグ」の値が1、すなわち、いままで口唇の開閉動作が行われていたか否かを判定する(ステップS409)。
制御部201は、ステップS409の判定がNOならば、口唇の開閉動作が以前から行われていなかったので、何もせずにそのまま次の撮像フレームの処理に移り(ステップS408)、ステップS402の処理から繰り返す。
制御部201の呼吸期間判定部304は、ステップS409の判定がYES、すなわち、いままで口唇の開閉動作が行われていた状態から行われていない状態に変化したと判定したときには、呼吸期間判定処理を実行する(ステップS410)。すなわち、制御部201は、ステップS407で更新した開始時刻TSからの、ステップS404で取得した現在時刻tまでの経過時間が所定時間ERT以上であるか否か、つまり「(t−TS)≧ERT」であるか否かを判別する。ここで、所定時間ERTは、例えば500ミリ秒に予め設定されており、記憶部202に記憶されている。
このステップS410における呼吸期間判定処理では、対象者の口唇の開閉動作が開始されてから所定時間ERTが経過するまで、対象者の口唇動作が繰り返して実行されていないときに、対象者の口唇の開閉動作が開始されてからこの対象者の口唇の開閉動作が行われなくなったとき(対象者の口唇の開閉動作が終了したとき)までの期間を、前記発声直前呼吸期間として判定する。
呼吸期間判定部304は、ステップS410の判定がNO、すなわち、対象者の口唇の開閉動作が開始されてから、対象者の口唇の開閉動作が行われなくなったときまでの経過時間(t−TS)が所定時間ERTよりも短く、対象者の口唇の開閉動作が開始されてから所定時間ERTが経過するまで、対象者の口唇動作が繰り返して実行されていないときには、対象者が発声直前の一呼吸を行ったとみなし、対象者の口唇の開閉動作が開始されてからこの対象者の口唇の開閉動作が行われなくなったときまでの期間を、発声直前呼吸期間として判定する。そして、音声期間検出部301により検出される対象者の音声期間に、発声直前呼吸期間を含めないようにするために、ステップS401の処理に戻って、「開フラグ」の値を0に初期化する。
一方、呼吸期間判定部304は、ステップS410の判定がYES、すなわち、対象者の口唇の開閉動作が開始されてから、この対象者の口唇の開閉動作が行われなくなったとき(終了したとき)までの経過時間(t−TS)が所定時間ERT以上で、対象者の口唇の開閉動作が開始されてから所定時間ERTが経過するまで、対象者の口唇の開閉動作が繰り返して実行されていたときには、対象者は発声のための口唇の開閉動作を行ったと判定する。なお、対象者が発声のための口唇の開閉動作を行った場合には、この口唇の開閉動作が繰り返し行われる音声期間は、発声直前呼吸期間(所定時間ERTよりも短い時間)よりも長くなる。
次いで、制御部201の音声期間検出部301は、上記ステップS410の判定結果を受けて、前記ステップS407で更新した開始時刻TS(口唇の開閉動作が開始された時刻)を、音声期間の開始タイミングSTとして設定する(ステップS411)。
以上のように、本実施形態では、対象者が一瞬だけ(所定時間ERTよりも短い時間だけ)口唇を開閉動作した場合(ステップS410:NO)には、対象者が発声直前の呼吸を行ったとみなし、「開フラグ」の値を0に初期化する(ステップS401)ことによって、その後のステップS405〜S407の実行により開始時刻TSを更新し、この呼吸した期間である発声直前呼吸期間を音声期間に含めないようにすることで、音声期間を適切に検出することが可能となる。
上記のステップS411に続くステップS412では、次に、音声期間検出部301は、対象者の音声期間の終了タイミングETを、現在時刻tから所定時間ERTを減算することによって計算する「ET=t−ERT」。
このように、音声期間検出部301は、口唇の開閉動作が行われなくなったタイミングから所定時間ERT前(例えば−500ミリ秒)のタイミングを音声期間の終了タイミングETとすることで、実際の発声終了タイミングに対する口唇の開閉動作が行われなくなったタイミングのずれを補正し、音声期間の終了タイミングETの精度を向上させることが可能となる。なお、所定時間ERTは、上述したようにして算出された終了タイミングETが対象者の音声期間の実際の終了タイミングとなるように、実験などにより予め設定されている。ちなみに、所定時間ERTの設定によっては、発声の終端が多少切れてしまうことも考えられるが、語尾はかならず母音で終わるため、発声の終端が多少切れてしまったとしても、正しく音声認識されるので問題ない。
上記ステップS412に続くステップS413では、制御部201の音声認識部303は、前記ステップ411及び412でそれぞれ設定された音声期間の開始タイミングST及び終了タイミングETで規定される音声期間内に音声入力部302により取得され、記憶された対象者の音声に基づいて、対象者の音声を認識する音声認識処理を実行する。その後、制御部201は、図4のフローチャートで示される音声期間検出処理を終了する。以上のように、本処理では、音声期間の検出が、その開始タイミングST及び終了タイミングETを検出することによって行われる。
なお、図4のフローチャートでは、発声期間の終了が確定してから音声認識処理が行われているが、口唇の開閉動作が行われている状態にある場合(ステップS405)において、開始時刻TSから所定時間ERTが経過した時点で、音声認識処理が開始されてもよい。その場合は、音声期間の終了タイミングETが確定した時点で音声認識を終了すれば、音声認識の終了タイミングは、口唇の開閉動作が行われなくなったタイミングの所定時間ERT前のタイミングとなるので、音声期間は図4のフローチャートの場合と同一の期間になる。
以上のように、本実施形態によれば、音声期間を適切に検出することが可能となる。
具体的には、本実施形態では、発声直前呼吸期間を対象者の音声期間に含めずに対象者の音声期間を適切に検出することできる。これにより、対象者によって発声する直前に呼吸するために口唇を動かす場合等において、発声直前呼吸期間中に発生した雑音を音声認識の対象から除去することが可能となる。
また、本実施形態では、対象者の口唇の開閉動作が開始されてから所定時間ERT(特許請求の範囲に記載の第1所定時間)が経過するまで、対象者の口唇の開閉動作が繰り返して実行されていないときに、対象者の口唇の開閉動作が開始されてからこの対象者の口唇の開閉動作が行われなくなったときまでの期間を発声直前呼吸期間として判定することにより、発声する直前に呼吸するために口唇を動かす期間を確実に検出することが可能となる。
一方、本実施形態では、対象者の口唇の開閉動作が終了したタイミングから所定時間ERT(特許請求の範囲に記載の第2所定時間)前のタイミングを音声期間の終了タイミングとして音声期間を検出することにより、発声が実際に終了するタイミングが口唇の開閉動作が終了するタイミングよりも若干早いタイミングとなるような場合に、それに応じて音声期間を適切に検出することができる。これにより、発声が実際に終了してから口唇の開閉動作が終了するまでの期間に発生した雑音を音声認識の対象から除去することが可能となる。この場合に、上記期間の設定によっては発声の終端が多少切れてしまうことも考えられるが、語尾はかならず母音で終わるため、発声の終端が多少切れてしまったとしても、正しく音声認識されるので問題ない。
本実施形態では、上記のような音声認識システムがロボットに組み込まれることにより、高度な対話機能を備えたロボットを実現することが可能となる。
また、上記実施形態では、本発明における第1及び第2所定時間を、互いに同じ所定時間ERTに設定しているが、互いに異なる所定時間に設定してもよい。あるいは、呼吸期間判定部304が例えば図4のステップS410で判定する発声直前呼吸期間は、個人差により異なる場合があるので、その発声直前呼吸期間を判定するための本発明の第1所定時間としての所定時間ERTを、第2所定時間とは別個に、対象者ごとに求めた値に設定してもよい。
図8は、上述の第1所定時間としての所定時間ERTの設定処理の例を示すフローチャートである。このフローチャートの処理例は、図4の場合と同様に、図2の制御部201のハードウェアが実行する処理として、又は図2の制御部201が実行する制御プログラム205の処理として実現される。
まず、制御部201は、顔IDの決定処理を実行する(ステップS801)。制御部201は、顔検出部306において検出された顔画像に対して個人識別の処理を実行し、未登録の顔であれば新たなID(識別子)を割り振り、その顔を新規登録する。顔画像からの個人識別には様々な方法がありどの手法を用いても構わないが、例えば下記文献5に記載されている技術が適用されてよい。
<文献5>
“顔認識ソフトウェアFaceU”、[online]、PUX株式会社ホームページ [2018年6月12日検索]、インターネット
<URL:https://www.pux.co.jp/%E8%A3%BD%E5%93%81%E6%83%85%E5%A0%B1/%E7%94%BB%E5%83%8F%E8%AA%8D%E8%AD%98/%E9%A1%94%E8%AA%8D%E8%AD%98/>
次に、制御部201は、環境ノイズの測定処理を実行する(ステップS802)。制御部201は、図3の口開閉判定部308による口唇の開閉動作が行われていない状態を判定し、その間の音量を図1又は図2のマイクアレイ103により測定し、その測定結果を環境のノイズ音量とする。音量測定はマイクアレイ103のすべてでもマイクアレイ103のうちの一つのマイクでもどちらでも良い。
次に、制御部201は、環境のノイズ音量が所定の閾値(TH)よりも小さいか否か、例えば30dB(デシベル)程度といった十分静かな環境か否かを確認する(ステップS803)。この処理は、後述する音声による音声区間検出例の正しさを担保するものである。制御部201は、このステップS803の判定がNOならば、何もせずにステップS801に戻って処理を繰り返す。
一方、制御部201は、ステップS803の判定がYESで、環境のノイズ音量が所定の閾値よりも小さいと判定したときには、制御部201の口開閉判定部308(図3)が、図4のステップS405の場合と同様の、口開閉判定処理を実行する(ステップS804)。この動作は、口開閉があったと判定されるまで繰り返し実行される(ステップS804の判定が「開閉動作なし」の繰返し)。なお、ステップS804において、口開閉判定処理ではなく、後述の音声区間検出処理が実行されてもよい。
次に、制御部201は、ID別統計処理を実行する(ステップS805)。このID別統計処理では、まず、制御部201は、ID別に、例えば下記文献6に記載の音声区間検出技術例に従い、音声入力部302に入力された音声に基づいて、対象者の発声が開始されたタイミングである発声開始タイミングを検出する。このとき制御部201は、発声開始タイミング検出手段として動作する。次に、制御部201は、ID別に、制御部201の口開閉判定部308による口唇の開閉動作の判定結果に基づいて、対象者の口唇の開閉動作が開始されたタイミングである口唇の開閉動作開始タイミングを検出する。このとき制御部201は、開閉動作開始タイミング検出手段として動作する。次いで、制御部201は、検出した発声開始タイミングと口唇の開閉動作開始タイミングとの差分値(発声開始タイミングの時刻−口唇の開閉動作開始タイミングの時刻。以下「開始タイミング差分値」という)を算出し、ID別に、この開始タイミング差分値の頻度値を算出する。
<文献6>
LEE Akinobu“第5章 音声区間検出・入力棄却”、[online]、The Julius book [2018年6月12日検索]、インターネット
<URL: https://julius.osdn.jp/juliusbook/ja/desc_vad.html>
更に、制御部201は、統計量判定処理を実行する(ステップS806)。この処理において、制御部201は、ステップS805で算出した開始タイミング差分値の頻度値の母数が十分に(所定値と比較して)大きいか否かを判定する。
制御部201は、開始タイミング差分値の頻度値の母数が十分に大きくはないと判定した場合(ステップS806の判定がNOの場合)には、ステップS801に戻って処理を繰り返す。
制御部201は、頻度の母数が十分に大きくなったと判定した場合(ステップS806の判定がYESの場合)には、時間設定処理を実行し、例えば開始タイミング差分値の頻度値の平均や、メディアン、Nパーセンタイル(Nは任意)等の値を、前述した第1所定時間としての所定時間ERTとして、図3の呼吸期間判定部304に設定する(ステップS807)。なお、ステップS806において、母数に代えて、開始タイミング差分値の頻度値のサンプル数を用い、このサンプル数が所定数よりも大きいことを条件として判別してもよい。以上のステップS805、S806,及びS807を実行する制御部201は、第1所定時間設定手段として動作する。
上述のように発声直前呼吸期間を判定するための所定時間ERT(第1所定時間)を、発声開始タイミング及び口唇の開閉動作開始タイミングに応じて設定することにより、対象者の個人差により異なる発声直前呼吸期間による影響を適切に補償しながら、音声期間を適切に検出することが可能となる。この場合、開始タイミング差分値をそのまま用いるのではなく、開始タイミング差分値の頻度値の平均や、メディアン、Nパーセンタイル(Nは任意)等の値を所定時間ERTとして設定するので、この設定を統計的に適切に行うことができる。
なお、発声直前呼吸期間は、対象者の癖によるものであるので、頻繁に変化するようなものではない。このため、図8に示す処理は、所定時間ERTの設定が一旦行われた後には、比較的長い時間、例えば、所定時間ERTの設定が行われてから対象者の発声回数が比較的大きい所定の回数にならない限り、再度実行されず、所定時間ERTの更新が行われることはない。その他、頻度を一定期間毎にグラフに記録し、その頻度グラフの形状変化(統計量や包絡等)を判断して所定時間ERTが変更されるようにしてもよい。
また、図8に示す処理では、発声開始タイミングと口唇の開閉動作開始タイミングとの差分値に基づいて、所定時間ERTを設定しているが、発声開始タイミングと口唇の開閉動作開始タイミングの関係を表す他の適当なパラメータ(例えば比)に応じて設定してもよく、あるいは、発声開始タイミング及び口唇の開閉動作開始タイミングに応じ、所定のマップ(図示せず)を検索することによって設定したり、適当な所定の算出式を用いて設定したりしてもよい。
さらに、実施形態では、図4のステップS410の判定がNOのときに、対象者が発声直前の一呼吸を行ったとみなし、対象者の口唇の開閉動作が開始されてからこの対象者の口唇の開閉動作が行われなくなったときまでの期間を、発声直前呼吸期間として判定している。これに代えて、ステップS410の判定がNOのときに、ステップS409の判定がYESになるまで行われていた対象者の口唇の開閉動作が対象者の発声直前の呼吸に伴う開閉動作であると判定し、ステップS410の判定がYESのときに、この対象者の口唇の開閉動作が対象者の発声直前の呼吸に伴う開閉動作でないと判定してもよい。この場合、このステップS410において、呼吸期間判定部304が、特許請求の範囲に記載の判定手段として機能する。また、この場合、対象者の口唇の開閉動作が対象者の発声直前の呼吸に伴う開閉動作であると判定された場合(S410:NO)には、開始時刻TS(すなわち対象者の口唇の開閉動作が開始されたタイミング)が音声期間の開始タイミングSTとして設定されず(S401〜S409)、対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合(S410:YES)には、開始時刻TSが音声期間の開始タイミングSTとして設定される(S411)。開始タイミングSTを用いた音声期間の検出手法は、前述したとおりである。
さらに、実施形態では、音声期間の開始タイミングSTを、発声直前呼吸期間を音声期間に含めないように設定しているが、対象者の口唇の開閉動作が開始されたタイミングを常に、音声期間の開始タイミングSTとして設定してもよい。また、実施形態では、音声期間の終了タイミングETを、対象者の口唇の開閉動作が行われなくなったタイミングから所定時間ERT前のタイミングに設定しているが、対象者の口唇の開閉動作が行われなくなったタイミングに設定してもよい。
以上説明した実施形態において、図2の制御部201が記憶部202に記憶され図4や図5、又は図8のフローチャートの処理例で示される制御プログラム205を実行することにより図3で示される機能を実現する場合、制御プログラム205は、例えば外部記憶装置や可搬記録媒体に記録して配布してもよく、あるいは特には図示しない無線や有線の通信インタフェースを介してネットワークから取得できるようにしてもよい。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出装置。
(付記2)
前記呼吸期間判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が開始されてから前記対象者の口唇の前記開閉動作が行われなくなったときまでの期間を、前記発声直前呼吸期間として判定することを特徴とする、付記1に記載の音声期間検出装置。
(付記3)
前記対象者から入力された音声に基づいて前記対象者の発声が開始されたタイミングである発声開始タイミングを検出する発声開始タイミング検出手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されたタイミングである口唇の開閉動作開始タイミングを検出する開閉動作開始タイミング検出手段と、
前記検出された発声開始タイミング及び口唇の開閉動作開始タイミングに応じて、前記第1所定時間を設定する第1所定時間設定手段と、
をさらに備えることを特徴とする、付記2に記載の音声期間検出装置。
(付記4)
前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから第2所定時間前のタイミングを前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする、付記1から3のいずれか1項に記載の音声期間検出装置。
(付記5)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記音声期間の終了タイミングとすることを特徴とする音声期間検出装置。
(付記6)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
を備えることを特徴とする音声期間検出装置。
(付記7)
前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、付記6に記載の音声期間検出装置。
(付記8)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記撮像された前記対象者が発声している期間である音声期間を検出する音声期間検出ステップと、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定ステップと、を含み、
前記音声期間検出ステップでは、前記呼吸期間判定ステップにより検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出方法。
(付記9)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとする音声期間検出ステップを含むことを特徴とする音声期間検出方法。
(付記10)
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定ステップと、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出ステップと、
を含むことを特徴とする音声期間検出方法。
(付記11)
前記判定ステップでは、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、付記10に記載の音声期間検出方法。
(付記12)
コンピュータに、付記8から11のいずれか1項に記載の音声期間検出方法を実行させるためのプログラム。
(付記13)
対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声認識装置。
(付記14)
対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、を備え、
前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする音声認識装置。
(付記15)
対象者の音声を取得する音声取得手段と、
撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
を備えることを特徴とする音声認識装置。
(付記16)
前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、付記15に記載の音声認識装置。
(付記17)
付記13から16のいずれか1項に記載の音声認識装置を備えるロボット。
100 ロボット
101 頭部
102 胴体
103 マイクアレイ
104 カメラ
105 スピーカ
106 センサ群
107 首関節駆動部
108 足回り駆動部
200 ロボット制御システム
201 制御部
202 記憶部
203 操作ボタン
204 電源部
205 制御プログラム
301 音声期間検出部
302 音声入力部
303 音声認識部
304 呼吸期間判定部
305 画像入力部
306 顔検出部
307 口パーツ検出部307
308 口開閉判定部
309 発声部

Claims (17)

  1. 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
    前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
    前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出装置。
  2. 前記呼吸期間判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が開始されてから前記対象者の口唇の前記開閉動作が行われなくなったときまでの期間を、前記発声直前呼吸期間として判定することを特徴とする、請求項1に記載の音声期間検出装置。
  3. 前記対象者から入力された音声に基づいて前記対象者の発声が開始されたタイミングである発声開始タイミングを検出する発声開始タイミング検出手段と、
    前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されたタイミングである口唇の開閉動作開始タイミングを検出する開閉動作開始タイミング検出手段と、
    前記検出された発声開始タイミング及び口唇の開閉動作開始タイミングに応じて、前記第1所定時間を設定する第1所定時間設定手段と、
    をさらに備えることを特徴とする、請求項2に記載の音声期間検出装置。
  4. 前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから第2所定時間前のタイミングを前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする、請求項1から3のいずれか1項に記載の音声期間検出装置。
  5. 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記音声期間の終了タイミングとすることを特徴とする音声期間検出装置。
  6. 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
    前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
    を備えることを特徴とする音声期間検出装置。
  7. 前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、請求項6に記載の音声期間検出装置。
  8. 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記撮像された前記対象者が発声している期間である音声期間を検出する音声期間検出ステップと、
    前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定ステップと、を含み、
    前記音声期間検出ステップでは、前記呼吸期間判定ステップにより検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声期間検出方法。
  9. 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、当該音声期間の検出において、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとする音声期間検出ステップを含むことを特徴とする音声期間検出方法。
  10. 撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定ステップと、
    前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定ステップにより前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出ステップと、
    を含むことを特徴とする音声期間検出方法。
  11. 前記判定ステップでは、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、請求項10に記載の音声期間検出方法。
  12. コンピュータに、請求項8から11のいずれか1項に記載の音声期間検出方法を実行させるためのプログラム。
  13. 対象者の音声を取得する音声取得手段と、
    撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
    前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
    前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇が発声直前の呼吸に伴って動いた期間である発声直前呼吸期間を判定する呼吸期間判定手段と、を備え、
    前記音声期間検出手段は、前記呼吸期間判定手段により検出された前記発声直前呼吸期間を前記対象者の音声期間に含めずに、前記対象者の音声期間を検出することを特徴とする音声認識装置。
  14. 対象者の音声を取得する音声取得手段と、
    撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出する音声期間検出手段と、
    前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、を備え、
    前記音声期間検出手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が終了したタイミングから所定時間前のタイミングを前記対象者の前記音声期間の終了タイミングとして前記音声期間を検出することを特徴とする音声認識装置。
  15. 対象者の音声を取得する音声取得手段と、
    撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であるか否かを判定する判定手段と、
    前記撮像手段で撮像された対象者の口唇の撮像画像に基づいて、前記対象者が発声している期間である音声期間を検出し、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作であると判定された場合には、前記対象者の口唇の開閉動作が開始されたタイミングである開閉動作開始タイミングを、前記音声期間の開始タイミングとして設定せず、前記判定手段により前記対象者の口唇の開閉動作が発声直前の呼吸に伴う開閉動作でないと判定された場合には、前記開閉動作開始タイミングを前記音声期間の開始タイミングとして設定する音声期間検出手段と、
    前記音声期間検出手段により検出された前記対象者の音声期間内に前記音声取得手段により取得された前記対象者の音声に基づいて、前記対象者の音声を認識する音声認識手段と、
    を備えることを特徴とする音声認識装置。
  16. 前記判定手段は、前記対象者の口唇の撮像画像に基づいて、前記対象者の口唇の開閉動作が開始されてから第1所定時間が経過するまで、前記対象者の口唇の開閉動作が繰り返して実行されていないときに、前記対象者の口唇の開閉動作が前記対象者の発声直前の呼吸に伴う開閉動作であると判定することを特徴とする、請求項15に記載の音声認識装置。
  17. 請求項13から16のいずれか1項に記載の音声認識装置を備えるロボット。

JP2019105860A 2018-06-21 2019-06-06 音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット Active JP7351105B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/441,348 US10997979B2 (en) 2018-06-21 2019-06-14 Voice recognition device and voice recognition method
CN201910539973.5A CN110634505B (zh) 2018-06-21 2019-06-20 声音期间检测装置、声音期间检测方法、存储介质、声音认识装置以及机器人

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018118159 2018-06-21
JP2018118159 2018-06-21

Publications (2)

Publication Number Publication Date
JP2020003783A true JP2020003783A (ja) 2020-01-09
JP7351105B2 JP7351105B2 (ja) 2023-09-27

Family

ID=69099773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019105860A Active JP7351105B2 (ja) 2018-06-21 2019-06-06 音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット

Country Status (1)

Country Link
JP (1) JP7351105B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63127296A (ja) * 1986-11-18 1988-05-31 株式会社リコー 音声区間検出方式
JPH11288293A (ja) * 1998-03-31 1999-10-19 Brother Ind Ltd 音声認識装置および記憶媒体
JP2008152125A (ja) * 2006-12-19 2008-07-03 Toyota Central R&D Labs Inc 発話検出装置及び発話検出方法
WO2016098228A1 (ja) * 2014-12-18 2016-06-23 三菱電機株式会社 音声認識装置および音声認識方法
JP2017211596A (ja) * 2016-05-27 2017-11-30 トヨタ自動車株式会社 音声対話システムおよび発話タイミング決定方法
JP2018077791A (ja) * 2016-11-11 2018-05-17 日本電信電話株式会社 推定方法及び推定システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63127296A (ja) * 1986-11-18 1988-05-31 株式会社リコー 音声区間検出方式
JPH11288293A (ja) * 1998-03-31 1999-10-19 Brother Ind Ltd 音声認識装置および記憶媒体
JP2008152125A (ja) * 2006-12-19 2008-07-03 Toyota Central R&D Labs Inc 発話検出装置及び発話検出方法
WO2016098228A1 (ja) * 2014-12-18 2016-06-23 三菱電機株式会社 音声認識装置および音声認識方法
JP2017211596A (ja) * 2016-05-27 2017-11-30 トヨタ自動車株式会社 音声対話システムおよび発話タイミング決定方法
JP2018077791A (ja) * 2016-11-11 2018-05-17 日本電信電話株式会社 推定方法及び推定システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
古河 靖之: ""バイモーダル発話区間検知技術の研究開発"", OMRON TECHNICS 第42巻 第2号, JPN6023006294, 20 June 2002 (2002-06-20), pages 105 - 109, ISSN: 0004994948 *

Also Published As

Publication number Publication date
JP7351105B2 (ja) 2023-09-27

Similar Documents

Publication Publication Date Title
JP6686977B2 (ja) 音源分離情報検出装置、ロボット、音源分離情報検出方法及びプログラム
US10997979B2 (en) Voice recognition device and voice recognition method
JP4986433B2 (ja) 物体を認識および追跡する装置及び方法
US7340100B2 (en) Posture recognition apparatus and autonomous robot
CN112088315A (zh) 多模式语音定位
JP5323770B2 (ja) ユーザ指示取得装置、ユーザ指示取得プログラムおよびテレビ受像機
JP2011186351A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2011191423A (ja) 発話認識装置、発話認識方法
WO2002099545A1 (en) Man-machine interface unit control method, robot apparatus, and its action control method
JP7476941B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP2006181651A (ja) 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
KR102290186B1 (ko) 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
CN108665907B (zh) 声音识别装置、声音识别方法、记录介质以及机器人
JP4730812B2 (ja) 個人認証装置、個人認証処理方法、そのためのプログラム及び記録媒体
Saffari et al. Ava (a social robot): Design and performance of a robotic hearing apparatus
JP2020057300A (ja) 識別装置、ロボット、識別方法及びプログラム
US20140222425A1 (en) Speech recognition learning method using 3d geometric information and speech recognition method using 3d geometric information
CN111326152A (zh) 语音控制方法及装置
JP2019003536A (ja) 表情判定装置、表情判定方法及びプログラム
JP2010197998A (ja) 音声信号処理システムおよび該システムを備えた自律ロボット
US20150039314A1 (en) Speech recognition method and apparatus based on sound mapping
JP7351105B2 (ja) 音声期間検出装置、音声期間検出方法、プログラム、音声認識装置、及びロボット
JP4650888B2 (ja) 発話検出装置、方法及びプログラム
JP7511374B2 (ja) 発話区間検知装置、音声認識装置、発話区間検知システム、発話区間検知方法及び発話区間検知プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R150 Certificate of patent or registration of utility model

Ref document number: 7351105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150