JP2019125241A - 状態検出装置、状態検出方法、および状態検出プログラム - Google Patents

状態検出装置、状態検出方法、および状態検出プログラム Download PDF

Info

Publication number
JP2019125241A
JP2019125241A JP2018006382A JP2018006382A JP2019125241A JP 2019125241 A JP2019125241 A JP 2019125241A JP 2018006382 A JP2018006382 A JP 2018006382A JP 2018006382 A JP2018006382 A JP 2018006382A JP 2019125241 A JP2019125241 A JP 2019125241A
Authority
JP
Japan
Prior art keywords
lip
unit
movement
subject
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018006382A
Other languages
English (en)
Inventor
拓之 照内
Hiroyuki Teruuchi
拓之 照内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2018006382A priority Critical patent/JP2019125241A/ja
Publication of JP2019125241A publication Critical patent/JP2019125241A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】対象者の眠気や疲労を適切に検出すること。【解決手段】状態検出装置100は、対象者に対し所定のタイミングで同一内容の発話を要求する発話要求部157と、発話要求部157による要求に応じて音声を発した対象者の映像を撮影する撮像部120と、撮像部120が撮影した映像に基づいて、対象者の口唇を検出するとともに、口唇の動作を検出する口唇動作検出部152と、口唇動作検出部152によって検出された口唇の動作と、口唇動作検出部152によって先に検出された口唇の動作とを比較し、口唇の動作が小さくなっている場合、対象者に疲労または眠気があると判断する判断部156と、を備える。【選択図】図1

Description

本発明は、状態検出装置、状態検出方法、および状態検出プログラムに関する。
対象者の顔の変化を観察することで、疲労や眠気を検出する技術が知られている。
特許文献1には、口唇動作の弛緩状態を判定し、運転者の眠気の強さを導出することが開示されている。特許文献2には、唇を含む顔の変化の特徴量の変化に基づいて、ユーザの眠気を検出することが開示されている。
特開2010−122897号公報 特開2007−264785号公報
特許文献1および2に記載されている技術は、眠気を判定するために、対象者ごとに覚醒状態における顔の映像が必要であることに加えて、会話時などのような、常時、表情や唇が動いている時に眠気を判定する可能性がある。このような場合、対象者に眠気が発生していたとしても、眠気の特徴が表情に現れず、適切に眠気を検出できないおそれがある。
本発明は、上記に鑑みてなされたものであり、対象者の疲労または眠気を適切に検出することのできる状態検出装置、状態検出方法、および状態検出プログラムを提供することを目的とする。
本発明の第一の態様の状態検出装置は、対象者に対し所定のタイミングで所定の発話を要求する発話要求部と、前記発話要求部による要求に応じて音声を発した前記対象者の映像を撮影する撮像部と、前記撮像部が撮影した映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する口唇動作検出部と、前記口唇動作検出部によって検出された前記口唇の動作と、前記口唇動作検出部によって先に検出された前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断する判断部と、を備える。
本発明の第二の態様の状態検出装置は、対象者に対し所定のタイミングで所定の内容の発話を要求する発話要求部と、前記発話要求部による要求に応じて音声を発した前記対象者の映像を撮影する撮像部と、前記撮像部が撮影した映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する口唇動作検出部と、前記口唇動作検出部が検出した口唇の動きに基づいて発話内容を認識する口唇動作認識部と、前記発話要求部が要求した発話と前記口唇動作認識部が認識した発話とが同一であると推定され、前記口唇動作認識部による認識率が低い場合に、疲労または眠気があると判断する判断部と、を備える。
本発明の第三の態様の状態検出方法は、対象者に対し所定のタイミングで所定の内容の発話を要求するステップと、発話の要求に応じて音声を発した前記対象者の映像を撮影するステップと、撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出するステップと、検出された前記口唇の動作と、先に検出された前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断するステップと、を含む。
本発明の第四の態様の状態検出方法は、対象者に対し所定のタイミングで所定の内容の発話を要求するステップと、発話の要求に応じて音声を発した前記対象者の映像を撮影するステップと、撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出するステップと、検出された前記口唇の動きに基づいて発話内容を認識するステップと、要求した発話と、認識した発話とが同一であると推定され、認識率が低い場合に、前記対象者に疲労または眠気があると判断するステップと、を含む。
本発明の第五の態様の状態検出プログラムは、コンピュータに、対象者に対し所定のタイミングで所定の内容の発話を要求する処理と、発話の要求に応じて音声を発した前記対象者の映像を撮影する処理と、撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する処理と、検出された前記口唇の動作と、先に検出された前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断する処理と、を実行させる。
本発明の第六の態様の状態検出プログラムは、コンピュータに、対象者に対し所定のタイミングで所定の内容の発話を要求する処理と、発話の要求に応じて音声を発した前記対象者の映像を撮影する処理と、撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する処理と、検出された前記口唇の動きに基づいて発話内容を認識する処理と、要求した発話と、認識した発話とが同一であると推定され、認識率が低い場合に、前記対象者に疲労または眠気があると判断する処理と、を実行させる。
本発明によれば、対象者の疲労または眠気を適切に検出することができる。
図1は、本発明の各実施形態に係る状態検出装置の構成を示すブロック図である。 図2は、口唇動作を説明するための図である。 図3は、検出された口唇動作を説明するための図である。 図4は、口唇動作から眠気を判定する方法を説明するためのグラフである。 図5は、口唇動作と、眠気の度合いとを関連付けた表である。 図6は、本発明の各実施形態に係る状態検出装置の適用例を示す図である。 図7は、本発明の各実施形態に係る状態検出装置の動作の流れの一例を示すフローチャートである。 図8は、本発明の第一実施形態に係る状態検出装置が口唇動作を検出する動作の流れの一例を示すフローチャートである。 図9は、本発明の第一実施形態に係る状態検出装置が眠気を判定する動作の流れの一例を示すフローチャートである。 図10は、本発明の第二実施形態に係る状態検出装置が口唇動作を検出する動作の流れの一例を示すフローチャートである。 図11は、本発明の第三実施形態に係る状態検出装置が口唇動作を検出する動作の流れの一例を示すフローチャートである。 図12は、本発明の第四実施形態に係る状態検出装置が口唇動作を検出する動作の流れの一例を示すフローチャートである。 図13は、本発明の第四実施形態に係る状態検出装置が眠気を判定する動作の流れの一例を示すフローチャートである。
以下、図面を参照しながら、本発明の実施形態について詳細に説明する。なお、各図において同一または相当する部分には同一の符号を付して適宜説明は省略する。
図1を用いて、本発明の各実施形態に係る状態検出装置の構成について説明する。図1は、状態検出装置の構成を示すブロック図である。
図1に示すように、状態検出装置100は、音声出力部110と、撮像部120と、音声検出部130と、記憶部140と、制御部150とを備える。状態検出装置100は、例えば、車両に搭載され、運転者(対象者)の疲労や眠気を検出するのに適した装置である。
音声出力部110は、制御部150からの指示に従って、対象者に対して特定の発話を要求する音声を出力する。音声出力部110は、対象者に対して、例えば、「おはようと言ってください」といった発話を要求する音声を出力する。
撮像部120は、発話の要求に応じて音声を発した対象者の口唇の動作を含む顔の映像を撮影する。撮像部120は、対象者の口唇の動作のみ撮影するようにしてもよい。撮像部120は、例えば、カメラで実現することができる。
音声検出部130は、発話の要求に応じて対象者が発した音声を検出する。音声検出部130は、例えば、マイクロフォンで実現することができる。
記憶部140は、例えば、眠気を判定するために使用される口唇の基準動作を記憶している。記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置である。また、記憶部140は、図示しない通信装置を介して無線または有線で接続される外部記憶装置などであってもよい。
ここで、図2を用いて、記憶部140が記憶する口唇動作の一例について説明する。図2は、記憶部140が記憶している口唇動作の一例を説明するための図である。
図2には、口唇Mの上唇Uと、下唇Lとが示されている。口唇Mは、例えば、「は」の発音時の形をしているものとする。この場合、記憶部140は、「は」の発音時における、上唇Uに含まれるポイントP1と、ポイントP2と、ポイントP3との位置情報を記憶している。記憶部140は、「は」の発音時における、下唇Lに含まれるポイントP4と、ポイントP5と、ポイントP6との位置情報を記憶している。記憶部140は、口唇Mの右端REと、左端LEとの位置情報については動きが少ないので、発せられる音に応じて、動きの大きい音の場合のみを記憶してもよい。記憶部140は、上唇Uにおいて3つのポイントと、下唇Lにおいて3つのポイントの位置情報を記憶しているが、これは例示であり、本発明を限定するものではない。記憶部140が記憶する位置情報のポイントには制限はなく、上唇Uと、下唇Lとで異なる数のポイントの位置情報を記憶していてもよい。
再び図1を参照する。制御部150は、状態検出装置100を構成する各部を制御する。具体的には、制御部150は、記憶部140に記憶されているプログラムを展開して実行することによって、状態検出装置100を構成する各部を制御する。制御部150は、例えば、CPU(Central Processing Unit)を含む、電子的な回路などで実現することができる。制御部150は、映像取得部151と、口唇動作検出部152と、音声取得部153と、音声認識部154と、口唇動作認識部155と、判断部156と、発話要求部157と、音声出力処理部158とを備える。
映像取得部151は、撮像部120から対象者の口唇を含む映像を取得する。映像取得部151は、取得した映像を口唇動作検出部152に出力する。
口唇動作検出部152は、映像取得部151から受け付けた映像に基づいて、対象者の口唇を検出するとともに、口唇の動作を検出する。口唇動作検出部152は、例えば、口唇の動きに基づいて、任意のポイントの動きベクトルを検出する。この場合、例えば対象者の発話が「おはよう」であった場合、口唇動作検出部152は、「お」の発音時の口唇の移動、「お」から「は」の発音時の口唇の移動、「は」から「よ」の発音時の口唇の移動、及び「よ」から「う」の発音時の口唇の移動の際の動きベクトルを検出する。口唇動作検出部152は、例えば、口唇の動作として口唇の開き度合を検出してもよい。口唇動作検出部152は、検出した動作を口唇動作認識部155や、判断部156に出力する。
図3を用いて、口唇動作検出部152が対象者の口唇の動作を検出する処理について説明する。図3は、対象者の口唇の動作を示す図である。
図3には、対象者の口唇Mの上唇Uと、下唇Lとが示されている。ここでは、口唇動作検出部152が、例えば、「お」から「は」の発音時の口唇の移動を検出したものとして説明する。この場合、口唇動作検出部152は、「は」の発音時における、上唇Uに含まれるポイントP1の動きベクトルv1と、ポイントP2の動きベクトルv2と、ポイントP3の動きベクトルv3を検出する。口唇動作検出部152は、「は」の発音時における、下唇Lに含まれるポイントP4の動きベクトルv4と、ポイントP5の動きベクトルv5と、ポイントP6の動きベクトルv6とを検出する。これにより、口唇動作検出部152は、「お」から「は」の発音時における、x軸およびy軸に対する口唇の移動距離を算出することができる。口唇動作検出部152は、上唇Uにおいて3つのポイントと、下唇Lにおいて3つのポイントの動きベクトルを検出しているが、これは例示であり、本発明を限定するものではない。口唇動作検出部152は、記憶部140が記憶している口唇Mにおけるポイントの動きベクトルを検出すればよい。
再び図1を参照する。音声取得部153は、音声検出部130から対象者が発した音声を取得する。音声取得部153は、取得した音声を音声認識部154に出力する。
音声認識部154は、音声取得部153から受け付けた音声が、発話要求に対応した音声であるか否かを判定する。具体的には、音声認識部154は、発話要求が「おはよう」であった場合、音声取得部153から受け付けた音声が「おはよう」であるか否かを判定する。音声認識部154は、音声取得部153から受け付けた音声が、発話要求に対応した音声であった場合、判定結果を判断部156に出力する。
口唇動作認識部155は、口唇動作検出部152が検出した口唇の動作に基づいて、対象者が発した音声の内容が、発話の要求に対応しているか否かを判定する。例えば、要求された発話が「おはよう」であり、認識結果が「おはよう」である場合、口唇動作認識部155は、対象者が発した音声と、発話の要求とは同一であると判定する。また、例えば、要求された発話が「おはよう」であり、認識結果が「おあおう」である場合、音素数が同一であり、かつ母音および母音成分が同一であるため、口唇動作認識部155は、対象者が発した音声と、発話の要求とは同一であると推定する。口唇動作認識部155は、例えば、閾値をあらかじめ定め、認識結果が閾値以上であるか否かによって、対象者が発した音声の内容が、発話の要求に対応しているか否かを判定する。例えば、口唇動作認識部155は、対象者が発した音声が、発話の要求に対応している場合、判定結果を判断部156に出力する。
判断部156は、例えば、口唇動作検出部152によって検出された口唇の動作と、口唇動作検出部152によって先に検出された同一内容の口唇の動作とを比較する。この場合、判断部156は、口唇の動作が小さくなっている場合、対象者に疲労または眠気(以下、眠気と称する)があると判断する。判断部156は、対象者に眠気があると判断した場合には、対応部160を制御し、眠気対応処理を実行させる。
図4を用いて、判断部156が対象者の眠気を判断する動作の一例を説明する。図4は、縦軸が対象者の口唇動作を示し、横軸が時間変化を示すグラフである。
図4には、図3に図示したポイントP1、ポイントP2、及びポイントP3の動きの変化が示されている。図4では、眠気のない時刻t0の時の各ポイントの動きを100としている。この場合、判断部156は、各ポイントの動きが、あらかじめ定められた閾値を下回った場合に、対象者に眠気があると判断する。この場合、判断部156は、時刻t1と、時刻t2では、各ポイントの動きが低下しているが、対象者には疲労や眠気がないと判断する。判断部156は、時刻t3では、ポイントP1と、ポイントP3とが閾値を下回っているので、対象者には疲労や眠気があると判断する。ここで、判断部156は、各ポイントのうち、1つでも閾値を下回ったら対象者には眠気があると判断してもよいし、閾値を下回るポイントの数の方が多くなった場合に対象には眠気があると判断してもよい。また、判断部156は、各ポイントの動作の平均が閾値を下回った場合に、対象者には眠気があると判断してもよい。
また、判断部156は、例えば、口唇動作検出部152によって検出された口唇の開き度合が小さくなっている場合、対象者に眠気があると判断する。この場合、判断部156は、例えば、口唇の開きの度合いがあらかじめ定めた大きさを下回った場合に対象者には眠気があると判断する。また、判断部156は、口唇の開きの度合いによって、対象者の眠気の度合いを判定してもよい。
図5を用いて、口唇の開きの度合いと、眠気の度合いとの関係について説明する。図5は、口唇の開きの度合いと、眠気の度合いとを関連付けた表である。
図5に示すように、判断部156は、例えば、対象者に眠気がない場合の口唇の開きの度合いを100として、口唇動作検出部152によって検出された口唇の開き度合の割合に基づいて、眠気の度合いを判断する。この場合、判断部156は、例えば、口唇の開きの度合いが70から100%の場合、対象者の眠気の度合いは「1」であると判断する。また、判断部156は、例えば、口唇の開きの度合いが40から70%の場合、対象者の眠気の度合いは「2」であると判断する。図5に示す例では、眠気の度合いの数字が大きいほど、対象者の眠気が強いことを意味している。判断部156は、眠気の度合いを判断した場合には、その眠気の度合いを対応部160に出力してもよい。
判断部156は、例えば、要求した発話と、対象者が発した発話とが同一であると音声認識部154が認識した場合、口唇動作検出部152によって検出された口唇の動作と、所定期間前に口唇動作検出部152によって検出された同一内容の発話における口唇の動作とを比較してもよい。判断部156は、例えば、要求した発話と、対象者が発した発話とが同一であると口唇動作認識部155が推定した場合に、口唇動作検出部152によって検出された口唇の動作と、所定期間前に口唇動作検出部152によって検出された同一内容の発話における口唇の動作とを比較してもよい。
発話要求部157は、対象者に発話させるための音声を選択する。発話要求部157は、対象者に発話させるための音声を、あらかじめ記憶している。発話要求部157は、選択した音声を対象者への要求として、音声出力処理部158に出力する。発話要求部157が発話を要求するタイミングに制限はないが、ランダムであることが好ましい。発話要求部157が要求する発話は、口唇動作検出部152が口唇の動作を検出し易くしたり、口唇動作認識部155が口唇の動作を認識し易くしたりするために、口唇を比較的大きく動かす必要のある発話であることが好ましい。また、発話要求部157は、運転している時間帯、運転者の性別・年齢に応じて、発話させる音声を選択してもよい。
音声出力処理部158は、発話要求部157からの要求された音声を出力するように音声出力部110を制御する。これにより、音声出力部110から発話要求部157が要求した音声が出力される。
対応部160は、判断部156から対象者に眠気があるとの結果を受け付けた場合、対象者に対して眠気対応処理を実行する。眠気対応処理は、例えば、音声で休憩を促す、警告音を発する、空調を換気モードに切り替える、窓を開けるなどである。対応部160は、判断部156から対象者の眠気の度合いを受け付けた場合には、眠気の度合いに応じて異なる眠気対応処理を実行してもよい。なお、状態検出装置100は、対応部160を備えていなくてもよい。
ここで、図6を用いて、本実施形態の状態検出装置100が用いられる車内の一例について説明する。図6は、状態検出装置100が用いられる車内の一例を示す模式図である。
図6には、ウィンドシールド210と、リヤビューミラー220と、ダッシュボード230と、クラスターパネル240と、ステアリングホイール250と、表示部270を有するセンターコンソール260とが示されている。
図6に示す例では、ステアリングホイール250の正面に位置するダッシュボード230上のクラスターパネル240内にカメラ280や、マイクロフォン290が設けられている。そして、センターコンソール260に本実施形態の状態検出装置100が適用される。これにより、本実施形態は、運転中の対象者の口唇の動作を撮影したり、対象者の音声を取得したりすることによって、運転中の対象者の眠気を検出することができる。なお、図6は例示であり、本発明を限定するものではない。本実施形態の状態検出装置100は、車両以外に適用してもよい。
図7を用いて、状態検出装置100全体の動作の流れについて説明する。図7は、制御部150の動作の流れを示すフローチャートである。
制御部150は、撮像部120が撮影した映像に基づいて、発話の要求にしたがって対象者の口唇の基準動作を検出する(ステップS11)。ここで、基準動作とは、対象者に眠気がない状態の口唇の動作である。ステップS11では、例えば、自動車が動作していない期間が所定時間(例えば、数時間)以上あった場合に検出する処理である。具体的には、制御部150は、例えば、エンジンの始動、運転席への着座、運転席シートベルトの着用などを検出し、ステップS11の処理を実行する。そして、制御部150は、ステップS12に進む。
制御部150は、ステップS11の後、所定時間(例えば、60分)経過した場合(ステップS12の「Yes」)、ステップS13に進む。一方、制御部150は、所定時間経過してない場合(ステップS12の「No」)、ステップS17に進む。
制御部150は、対象者に対して発話を要求し、口唇の比較動作を検出する(ステップS13)。そして、制御部150は、ステップS14に進む。
制御部150は、基準動作と、比較動作とを比較して対象に眠気があるか否かを判定する(ステップS14)。そして、制御部150は、ステップS15に進む。
制御部150は、対象者に眠気があると判断した場合(ステップS15の「Yes」)、ステップS16に進む。一方、制御部150は、対象者に眠気がないと判断した場合(ステップS15の「No」)、ステップS17に進む。
制御部150は、対象者に対して眠気対応処理を実行する(ステップS16)。そして、制御部150は、ステップS17に進む。
次に、制御部150は、対象者の運転が終わったか否かを判定する。制御部150は、対象者の運転が終わったと判定した場合(ステップS17の「Yes」)、動作を終了する。一方、制御部150は、運転が終わっていないと判定した場合(ステップS17の「No」)、ステップS12に戻る。
[第一実施形態]
図8を用いて、本発明の第一実施形態に係る制御部が口唇の動作を検出する処理について具体的に説明する。図8は、対象者の口唇の動作を検出する処理の流れを示すフローチャートである。
まず、制御部150は、対象者の口唇を検出するために、発話要求部157によって対象者に発話を要求する(ステップS101)。そして、制御部150は、ステップS102に進む。
制御部150は、所定時間(例えば、60秒)内に発話があった場合(ステップS102の「Yes」)、ステップS103に進む。一方、制御部150は、所定時間内に発話がなかった場合(ステップS102の「No」)、ステップS101に戻る。なお、制御部150は、所定時間内に発話がなかった場合、動作を終了してもよい。
制御部150は、口唇動作検出部152によって、映像取得部151が取得した映像に基づいて、比較口唇動作を検出する(ステップS103)。そして、制御部150は、口唇の動作を検出する動作を終了する。
図9を用いて、本発明の第一実施形態に係る制御部が対象者の眠気を判断する処理について具体的に説明する。図9は、眠気を判断する処理の流れを示すフローチャートである。
制御部150は、判断部156によって、基準口唇動作と、比較口唇動作とを比較する(ステップS111)。そして、制御部150は、ステップS112に進む。
制御部150は、基準口唇動作が比較口唇動作よりも大きかった場合(ステップS112の「Yes」)、ステップS113に進む。一方、基準口唇動作が比較口唇動作よりも大きくない場合(ステップS112の「No」)、ステップS114に進む。
制御部150は、基準口唇動作が比較口唇動作よりも大きかった場合には、判断部156によって、対象者には眠気があると判断する(ステップS113)。一方、基準口唇動作が比較口唇動作よりも大きくない場合には、判断部156によって、対象者には眠気がないと判断する(ステップS114)。そして、制御部150は、眠気を判断する動作を終了する。
上述のとおり、本実施形態では、眠気がない状態の口唇の動作と、眠気がある状態の口唇の動作とに基づいて、対象者の眠気の有無を判定することができる。
[第二実施形態]
次に、図10を用いて、本発明の第二実施形態に係る制御部が口唇の動作を検出する処理について具体的に説明する。図10は、対象者の口唇の動作を検出する処理の流れを示すフローチャートである。
ステップS101は第一実施形態と同様なので説明は省略する。次に、制御部150は、所定時間内に発話があった場合(ステップS102の「Yes」)、ステップS201に進む。一方、制御部150は、所定時間内に発話がなかった場合(ステップS102の「No」)、ステップS101に戻る。なお、制御部150は、所定時間内に発話がなかった場合、動作を終了してもよい。
制御部150は、音声取得部153から受け付けた音声が、発話要求に対応した音声であるか否かを音声認識部154によって判定する(ステップS201)。そして、制御部150は、ステップS202に進む。
制御部150は、対象者が発した音声が要求した発話であった場合(ステップS202の「Yes」)、ステップS103に進む。一方、制御部150は、対象者が発した音声が要求した発話でなかった場合(ステップS202の「No」)、ステップS101に戻る。
制御部150は、口唇動作検出部152によって、映像取得部151が取得した映像に基づいて口唇の動作を検出する(ステップS103)。そして、制御部150は、口唇の動作を検出する動作を終了する。
上述のとおり、本実施形態では、対象者が発した音声が要求した発話であった場合にのみ、眠気がない状態の口唇の動作と、眠気がある状態の口唇の動作とに基づいて、対象者の眠気を判定することができる。これにより、対象者の眠気をより正確に判定することができる。
[第三実施形態]
次に、図11を用いて、本発明の第三実施形態に係る制御部が口唇の動作を認識する処理について具体的に説明する。図11は、対象者の口唇の動作を認識する処理の流れを示すフローチャートである。
ステップS101と、ステップS102とは、第一実施形態と同様なので説明は省略する。制御部150は、口唇動作検出部152によって、映像取得部151が取得した映像に基づいて口唇の動作を検出する(ステップS103)。そして、制御部150は、ステップS301に進む。
制御部150は、口唇動作認識部155によって、口唇動作検出部152が検出した口唇の動作に基づいて、対象者が発した音声が、発話の要求に対応しているか否かを判定する(ステップS301)。そして、制御部150は、ステップS302に進む。
制御部150は、対象者が発した音声が発話の要求に対応している場合(ステップS302の「Yes」)、対象者の口唇の動作を認識する処理を終了する。一方、制御部150は、対象者が発した音声が発話の要求に対応していない場合(ステップS302の「No」)、ステップS101に戻る。
上述のとおり、本実施形態では、対象者の口唇の動作が要求された発話に対応している場合にのみ、眠気がない状態の口唇の動作と、眠気がある状態の口唇の動作とに基づいて、対象者の眠気を判定することができる。これにより、対象者の眠気をより正確に判定することができる。
[第四実施形態]
次に、図12を用いて、本発明の第四実施形態に係る制御部が口唇の動作を推定する処理について具体的に説明する。図12は、対象者の口唇の動作を認識する処理の流れを示すフローチャートである。
ステップS101と、ステップS102とは、第一実施形態と同様なので説明は省略する。制御部150は、口唇動作検出部152によって、映像取得部151が取得した映像に基づいて口唇の動作を検出する(ステップS103)。そして、制御部150は、ステップS401に進む。
制御部150は、口唇動作認識部155によって、口唇動作検出部152が取得した口唇の動作に基づいて、対象者が発した音声を推定する(ステップS401)。そして、制御部150は、対象者が発した音声を推定する処理を終了する。
図13を用いて、本発明の第四実施形態に係る制御部が対象者の眠気を判断する処理について具体的に説明する。図13は、眠気を判断する処理の流れを示すフローチャートである。
制御部150は、判断部156によって、口唇動作認識部155が推定した音声の認識率を算出する(ステップS411)。具体的には、判断部156は、要求された発話が「おはよう」であり、推定結果が「おあおう」である場合、4つの音素のうち、2つの音素が一致しているので、認識率は50%と認識する。そして、制御部150は、ステップS412に進む。
制御部150は、判断部156によって、算出された認識率と、あらかじめ定められている閾値とを比較する(ステップS412)。そして、制御部150は、ステップS413に進む。
制御部150は、認識率が閾値未満である場合(ステップS413の「Yes」)、ステップS414に進む。制御部150は、認識率が閾値未満でない場合(ステップS413の「No」)、ステップS415に進む。
制御部150は、認識率が閾値未満である場合には、判断部156によって、対象者には眠気があると判断する(ステップS414)。制御部150は、認識率が閾値未満でない場合には、対象者には眠気がないと判断する(ステップS415)。そして、制御部150は、眠気を判定する処理を終了する。
上述のとおり、本実施形態では、要求された発話と、認識された口唇の動作の認識率に基づいて、対象者の眠気を判定することができる。
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。また、上記に記載した構成は適宜組み合わせが可能である。さらに、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
100 状態検出装置
110 音声出力部
120 撮像部
130 音声検出部
140 記憶部
150 制御部
151 映像取得部
152 口唇動作検出部
153 音声取得部
154 音声認識部
155 口唇動作認識部
156 判断部
157 発話要求部
158 音声出力処理部
160 対応部
210 ウィンドシールド
220 リヤビューミラー
230 ダッシュボード
240 クラスターパネル
250 ステアリングホイール
260 センターコンソール
270 表示部
280 カメラ
290 マイクロフォン

Claims (9)

  1. 対象者に対し所定のタイミングで所定の発話を要求する発話要求部と、
    前記発話要求部による要求に応じて音声を発した前記対象者の映像を撮影する撮像部と、
    前記撮像部が撮影した映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する口唇動作検出部と、
    前記口唇動作検出部によって検出された前記口唇の動作と、前記口唇動作検出部によって先に検出された前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断する判断部と、
    を備える、状態検出装置。
  2. 前記口唇動作検出部は、前記口唇の動作として口唇の開き度合を検出し、
    前記判断部は、前記口唇の動作として前記口唇の開き度合が小さくなっている結果である場合、前記対象者に疲労または眠気があると判断する、
    請求項1に記載の状態検出装置。
  3. 前記発話要求部による要求に対応した発話時の発話音声を認識する音声認識部をさらに備え、
    前記判断部は、前記発話要求部が要求した発話と、前記対象者が発した発話とが同一であると前記音声認識部が認識した場合、前記口唇動作検出部によって検出された前記口唇の動作と、前記口唇動作検出部によって先に検出された同一内容の発話における前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断する、
    請求項1または2に記載の状態検出装置。
  4. 前記口唇動作検出部が検出した口唇の動作に基づいて発話内容を認識する口唇動作認識部をさらに備え、
    前記判断部は、前記発話要求部が要求した発話と、前記対象者が発した発話とが同一であると前記口唇動作認識部が認識した場合に、前記口唇動作検出部によって検出された前記口唇の動作と、前記口唇動作検出部によって先に検出された同一内容の発話における前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断する、
    請求項1から3のいずれか1項に記載の状態検出装置。
  5. 対象者に対し所定のタイミングで所定の内容の発話を要求する発話要求部と、
    前記発話要求部による要求に応じて音声を発した前記対象者の映像を撮影する撮像部と、
    前記撮像部が撮影した映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する口唇動作検出部と、
    前記口唇動作検出部が検出した口唇の動きに基づいて発話内容を認識する口唇動作認識部と、
    前記発話要求部が要求した発話と前記口唇動作認識部が認識した発話とが同一であると推定され、前記口唇動作認識部による認識率が低い場合に、疲労または眠気があると判断する判断部と、
    を備える、状態検出装置。
  6. 対象者に対し所定のタイミングで所定の内容の発話を要求するステップと、
    発話の要求に応じて音声を発した前記対象者の映像を撮影するステップと、
    撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出するステップと、
    検出された前記口唇の動作と、先に検出された前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断するステップと、
    を含む、状態検出方法。
  7. 対象者に対し所定のタイミングで所定の内容の発話を要求するステップと、
    発話の要求に応じて音声を発した前記対象者の映像を撮影するステップと、
    撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出するステップと、
    検出された前記口唇の動きに基づいて発話内容を認識するステップと、
    要求した発話と、認識した発話とが同一であると推定され、認識率が低い場合に、前記対象者に疲労または眠気があると判断するステップと、
    を含む、状態検出方法。
  8. コンピュータに、
    対象者に対し所定のタイミングで所定の内容の発話を要求する処理と、
    発話の要求に応じて音声を発した前記対象者の映像を撮影する処理と、
    撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する処理と、
    検出された前記口唇の動作と、先に検出された前記口唇の動作とを比較し、前記口唇の動作が小さくなっている場合、前記対象者に疲労または眠気があると判断する処理と、
    を実行させる、状態検出プログラム。
  9. コンピュータに、
    対象者に対し所定のタイミングで所定の内容の発話を要求する処理と、
    発話の要求に応じて音声を発した前記対象者の映像を撮影する処理と、
    撮影された映像に基づいて、前記対象者の口唇を検出するとともに、前記口唇の動作を検出する処理と、
    検出された前記口唇の動きに基づいて発話内容を認識する処理と、
    要求した発話と、認識した発話とが同一であると推定され、認識率が低い場合に、前記対象者に疲労または眠気があると判断する処理と、
    を実行させる、状態検出プログラム。
JP2018006382A 2018-01-18 2018-01-18 状態検出装置、状態検出方法、および状態検出プログラム Pending JP2019125241A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018006382A JP2019125241A (ja) 2018-01-18 2018-01-18 状態検出装置、状態検出方法、および状態検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018006382A JP2019125241A (ja) 2018-01-18 2018-01-18 状態検出装置、状態検出方法、および状態検出プログラム

Publications (1)

Publication Number Publication Date
JP2019125241A true JP2019125241A (ja) 2019-07-25

Family

ID=67398950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018006382A Pending JP2019125241A (ja) 2018-01-18 2018-01-18 状態検出装置、状態検出方法、および状態検出プログラム

Country Status (1)

Country Link
JP (1) JP2019125241A (ja)

Similar Documents

Publication Publication Date Title
US10923124B2 (en) Method and apparatus for using image data to aid voice recognition
CN110047487B (zh) 车载语音设备的唤醒方法、装置、车辆以及机器可读介质
US9704484B2 (en) Speech recognition method and speech recognition device
US7853051B2 (en) Recognizing apparatus and method, recording media, and program
JP6515764B2 (ja) 対話装置及び対話方法
US20220083765A1 (en) Vehicle device setting method
JP6466385B2 (ja) サービス提供装置、サービス提供方法およびサービス提供プログラム
JP2014153663A (ja) 音声認識装置、および音声認識方法、並びにプログラム
US11176948B2 (en) Agent device, agent presentation method, and storage medium
JP7222938B2 (ja) インタラクション装置、インタラクション方法、およびプログラム
JP7192222B2 (ja) 発話システム
JP2004259255A (ja) 認証装置
WO2023273064A1 (zh) 对象说话检测方法及装置、电子设备和存储介质
KR20190106921A (ko) 커뮤니케이션 로봇 및 그의 구동 방법
CN111176434A (zh) 视线检测装置、计算机可读存储介质以及视线检测方法
US20230274740A1 (en) Arbitrating between multiple potentially-responsive electronic devices
JP2015219440A (ja) 操作補助装置および操作補助方法
JP2020060696A (ja) コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム
JP2017090614A (ja) 音声認識制御システム
JP2014240856A (ja) 音声入力システム及びコンピュータプログラム
WO2021085242A1 (ja) 情報処理装置、及びコマンド処理方法
JP6785889B2 (ja) サービス提供装置
JP2019125241A (ja) 状態検出装置、状態検出方法、および状態検出プログラム
KR20200041642A (ko) 차량용 음성인식 시스템 및 그 제어 방법
CN111210814B (zh) 控制装置、智能体装置以及计算机可读存储介质