JP7504326B2 - 乗員状態推定装置及び乗員状態推定方法 - Google Patents

乗員状態推定装置及び乗員状態推定方法 Download PDF

Info

Publication number
JP7504326B2
JP7504326B2 JP2024519511A JP2024519511A JP7504326B2 JP 7504326 B2 JP7504326 B2 JP 7504326B2 JP 2024519511 A JP2024519511 A JP 2024519511A JP 2024519511 A JP2024519511 A JP 2024519511A JP 7504326 B2 JP7504326 B2 JP 7504326B2
Authority
JP
Japan
Prior art keywords
feature amount
vehicle
calculation unit
occupant
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024519511A
Other languages
English (en)
Other versions
JPWO2023223443A1 (ja
Inventor
和樹 國廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023223443A1 publication Critical patent/JPWO2023223443A1/ja
Application granted granted Critical
Publication of JP7504326B2 publication Critical patent/JP7504326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Description

本開示は、乗員状態推定装置及び乗員状態推定方法に関するものである。
撮影画像に映っている人物の顔を検出し、顔の表情を判定する表情判定装置がある(例えば、特許文献1を参照)。
当該表情判定装置は、抽出手段及び表情判定手段を備えている。当該抽出手段は、撮影画像に映っている人物の顔を検出し、顔の特徴量を抽出する。当該表情判定手段は、抽出手段により抽出された特徴量と予め記憶された基準特徴量との差分に基づいて、顔の表情が所定の表情であるか否かを判定する。所定の表情としては、例えば、笑顔の表情、又は、怒り顔の表情がある。
当該表情判定装置では、基準特徴量が、顔の表情が無表情である人物の顔の特徴量であることを前提としている。当該表情判定装置では、人物の顔の表情が無表情であるときの画像の撮影を可能にするために、制御回路が、無表情の顔を撮影する旨を示すガイダンスを表示部に表示させることで、表情判定対象の人物に対して、顔の表情が無表情になるように促している。
特開2010-117948号公報
特許文献1に開示されている表情判定装置では、制御回路が、無表情の顔を撮影する旨を示すガイダンスを表示部に表示させているものの、当該ガイダンスが表示されるだけでは、無表情の顔が撮影されるとは限らない。基準特徴量が、顔の表情が無表情ではない人物の顔の特徴量に基づいて算出された場合には、基準特徴量を用いた乗員の状態推定結果に誤りが生じ、乗員の状態推定の精度が低下することがあるという課題があった。
本開示は、上記のような課題を解決するためになされたもので、乗員の状態推定精度の低下を防ぐことが可能な基準特徴量を算出することができる乗員状態推定装置及び乗員状態推定方法を得ることを目的とする。
本開示に係る乗員状態推定装置は、車両の内部の映像である車内映像を取得する車内映像取得部と、基準特徴量として、車内映像取得部により取得された車内映像に映っている、車両に乗車している乗員の顔の特徴量を算出する第1の特徴量算出部と、第1の特徴量算出部により基準特徴量が算出された後に、車内映像取得部により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている乗員の顔の特徴量を算出する第2の特徴量算出部とを備えている。また、乗員状態推定装置は、第1の特徴量算出部により算出された基準特徴量と第2の特徴量算出部により算出されたそれぞれの特徴量との差分を算出する差分算出部と、差分算出部により算出された複数の差分のうち、第1の特徴量算出部により基準特徴量が算出された後の一定期間内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、基準特徴量の再算出を第1の特徴量算出部に指示する再算出指示部とを備えている。
本開示によれば、乗員の状態推定精度の低下を防ぐことが可能な基準特徴量を算出することができる。
実施の形態1に係る乗員状態推定装置2を示す構成図である。 実施の形態1に係る乗員状態推定装置2のハードウェアを示すハードウェア構成図である。 乗員状態推定装置2が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。 実施の形態1に係る乗員状態推定装置2の第1の特徴量算出部12を示す構成図である。 実施の形態1に係る乗員状態推定装置2の第2の特徴量算出部13を示す構成図である。 乗員状態推定装置2の処理手順である乗員状態推定方法を示すフローチャートである。 顔の基準点Cからパーツ構成点Kn,mまでの直線距離Ln,mを示す説明図である。 カスタマイズ後の3次元モデルMDcusの一例を示す説明図である。 実施の形態2に係る乗員状態推定装置2を示す構成図である。 実施の形態2に係る乗員状態推定装置2のハードウェアを示すハードウェア構成図である。
以下、本開示をより詳細に説明するために、本開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る乗員状態推定装置2を示す構成図である。
図2は、実施の形態1に係る乗員状態推定装置2のハードウェアを示すハードウェア構成図である。
図1において、カメラ1は、車両の内部を繰り返し撮影し、車両の内部の映像である車内映像を示す映像データを乗員状態推定装置2に繰り返し出力する。なお、車内映像は、静止画であってもよいし、動画であってもよい。
乗員状態推定装置2は、車内映像取得部11、第1の特徴量算出部12、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16を備えている。
図1に示す乗員状態推定装置2は、車両に乗車している乗員の顔の表情の変化を検出する。車両に乗車している乗員は、車両の運転者であってもよいし、助手席に座っている乗員であってもよいし、後部座席に座っている乗員であってもよい。
車内映像取得部11は、例えば、図2に示す車内映像取得回路21によって実現される。
車内映像取得部11は、カメラ1から、車内映像を示す映像データを取得する。
車内映像取得部11は、車内映像を示す映像データを第1の特徴量算出部12に出力する。
また、車内映像取得部11は、第1の特徴量算出部12により基準特徴量が算出された後に、カメラ1により撮影された車内映像を示す映像データを取得し、映像データを第2の特徴量算出部13に出力する。
第1の特徴量算出部12は、例えば、図2に示す第1の特徴量算出回路22によって実現される。
第1の特徴量算出部12は、車内映像取得部11から、車内映像を示す映像データを取得する。
第1の特徴量算出部12は、基準特徴量として、映像データが示す車内映像に映っている、車両に乗車している乗員の顔の特徴量を算出する。
第1の特徴量算出部12は、基準特徴量を差分算出部14に出力する。
第2の特徴量算出部13は、例えば、図2に示す第2の特徴量算出回路23によって実現される。
第2の特徴量算出部13は、第1の特徴量算出部12により基準特徴量が算出された後に、車内映像取得部11により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている乗員の顔の特徴量を算出する。
第2の特徴量算出部13は、特徴量を差分算出部14に出力する。
差分算出部14は、例えば、図2に示す差分算出回路24によって実現される。
差分算出部14は、第1の特徴量算出部12により算出された基準特徴量と第2の特徴量算出部13により算出されたそれぞれの特徴量との差分を算出する。
差分算出部14は、それぞれの差分を再算出指示部15及び乗員状態検出部16のそれぞれに出力する。
再算出指示部15は、例えば、図2に示す再算出指示回路25によって実現される。
再算出指示部15は、差分算出部14により算出された複数の差分のうち、第1の特徴量算出部12により基準特徴量が算出された後の一定期間FCP内に算出された複数の差分を取得する。
図1に示す乗員状態推定装置2では、一定期間FCPは、第1の特徴量算出部12により基準特徴量が算出されてから、一定の時間が経過した後の固定期間である。例えば、基準特徴量が算出された時刻がTであり、一定の時間がtconであれば、一定期間FCPの開始時刻は、T+tconである。また、一定期間FCPの時間長がtFCであれば、一定期間FCPの終了時刻は、T+tcon+tFCである。しかしながら、一定期間FCPは、固定の期間であるものに限るものではなく、一定期間FCPの時間帯が変化するものであってもよい。一定期間FCPの時間帯が変化する場合、一定期間FCPの開始時刻は、T+tcon+Δtであり、一定期間FCPの終了時刻は、T+tcon+tFC+Δtである。tFC+Δtは、一定期間FCPの時間長であり、Δtは、一定期間FCPの変化時間である。
再算出指示部15は、一定期間FCP内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、基準特徴量の再算出を第1の特徴量算出部12に指示する。第1の閾値及び第2の閾値のそれぞれは、再算出指示部15の内部メモリに格納されていてもよいし、乗員状態推定装置の外部から与えられるものであってもよい。
乗員状態検出部16は、例えば、図2に示す乗員状態検出回路26によって実現される。
乗員状態検出部16は、再算出指示部15から第1の特徴量算出部12への再算出の指示がなければ、差分算出部14により算出されたそれぞれの差分に基づいて、乗員の状態を検出する。
図1では、乗員状態推定装置2の構成要素である車内映像取得部11、第1の特徴量算出部12、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16のそれぞれが、図2に示すような専用のハードウェアによって実現されるものを想定している。即ち、乗員状態推定装置2が、車内映像取得回路21、第1の特徴量算出回路22、第2の特徴量算出回路23、差分算出回路24、再算出指示回路25及び乗員状態検出回路26によって実現されるものを想定している。
車内映像取得回路21、第1の特徴量算出回路22、第2の特徴量算出回路23、差分算出回路24、再算出指示回路25及び乗員状態検出回路26のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
乗員状態推定装置2の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、乗員状態推定装置2が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
図3は、乗員状態推定装置2が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。
乗員状態推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、車内映像取得部11、第1の特徴量算出部12、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムがメモリ31に格納される。そして、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行する。
また、図2では、乗員状態推定装置2の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図3では、乗員状態推定装置2がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、乗員状態推定装置2における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
図4は、実施の形態1に係る乗員状態推定装置2の第1の特徴量算出部12を示す構成図である。
図4に示す第1の特徴量算出部12は、直線距離算出部41、モデル調整部42及び特徴量算出処理部43を備えている。
直線距離算出部41は、車内映像取得部11から、映像データを取得する。
直線距離算出部41は、映像データが示す車内映像に映っている乗員の顔の基準点から、乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する。
モデル調整部42は、一般的な顔の3次元モデルMDを備えている。
モデル調整部42は、直線距離算出部41により算出されたそれぞれの直線距離を3次元モデルMDにフィッティングすることで、3次元モデルMDを乗員の顔を示す3次元モデルにカスタマイズする。
特徴量算出処理部43は、モデル調整部42によるカスタマイズ後の3次元モデルに基づいて、基準特徴量として、乗員の顔の特徴量を算出する。
図5は、実施の形態1に係る乗員状態推定装置2の第2の特徴量算出部13を示す構成図である。
図5に示す第2の特徴量算出部13は、直線距離算出部51、モデル調整部52及び特徴量算出処理部53を備えている。
直線距離算出部51は、第1の特徴量算出部12により基準特徴量が算出された後に、車内映像取得部11により映像データが取得される毎に、当該映像データを取得する。
直線距離算出部51は、映像データが示す車内映像に映っている乗員の顔の基準点から、乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する。
モデル調整部52は、一般的な顔の3次元モデルMDを備えている。
モデル調整部52は、直線距離算出部51により算出されたそれぞれの直線距離を3次元モデルMDにフィッティングすることで、3次元モデルMDを乗員の顔を示す3次元モデルにカスタマイズする。
特徴量算出処理部53は、モデル調整部52によるカスタマイズ後の3次元モデルに基づいて、乗員の顔の特徴量を算出する。
乗員の状態を示すものとして、例えば、顔の表情がある。顔の表情としては、例えば、真顔の表情、笑顔の表情、泣顔の表情、又は、怒り顔の表情がある。真顔の表情は、無表情であるときの表情である。
一般的に、真顔の表情が現れる時間は、笑顔の表情、泣顔の表情、又は、怒り顔の表情が現れる時間よりも長いことが知られている。したがって、例えば、数分単位の一定期間では、真顔の表情が現れる割合は、笑顔の表情、泣顔の表情、又は、怒り顔の表情が現れる割合よりも大きくなることが想定される。乗員が、一定期間において、笑う機会が多い場合、真顔の表情が現れる割合が減少する。しかし、その場合でも、真顔の表情が現れる割合は、笑顔の表情が現れる割合よりも大きくなることが想定される。
次に、図1に示す乗員状態推定装置2の動作について説明する。
図6は、乗員状態推定装置2の処理手順である乗員状態推定方法を示すフローチャートである。
図1に示す乗員状態推定装置2では、乗員状態検出部16が、車両に乗車している乗員のうち、運転者の状態を検出するものとする。しかし、これは一例に過ぎず、車両に乗車している乗員のうち、助手席に座っている乗員、又は、後部座席に座っている乗員の状態を検出するものであってもよい。
運転者は、車両に乗車して、車両の運転を開始する際に、イグニッションスイッチをオンにする。イグニッションスイッチがオンになることで、カメラ1及び乗員状態推定装置2のそれぞれが起動する。
カメラ1は、起動後に、車両の内部の撮影を繰り返し行う。
カメラ1は、車両の内部の映像である車内映像を示す映像データを乗員状態推定装置2に繰り返し出力する。
イグニッションスイッチがオンになった当初の期間中は、一般的に、運転者の顔の表情が、真顔の表情である確率が高い。ただし、当初の期間中の顔の表情は、真顔の表情であるとは限らず、笑顔の表情、泣顔の表情、又は、怒り顔の表情等であることもある。当初の期間は、例えば、イグニッションスイッチがオンになってから、車両の走行が開始されるまでの期間、あるいは、イグニッションスイッチがオンになってから、数秒の期間である。当初の期間は、例えば、一定期間FCPよりも短い期間である。
図1に示す乗員状態推定装置2では、イグニッションスイッチがオンになった当初の期間中、カメラ1が車両の内部をN回撮影し、N個の車内映像を示す映像データP~Pのそれぞれを乗員状態推定装置2に出力するものとする。Nは、1以上の整数である。
車内映像取得部11は、カメラ1から、N個の車内映像を示す映像データP~Pを取得する(図6のステップST1)。
車内映像取得部11は、N個の映像データP~Pを第1の特徴量算出部12に出力する。
第1の特徴量算出部12は、車内映像取得部11から、N個の映像データP~Pを取得する。
第1の特徴量算出部12は、基準特徴量Vとして、映像データP(n=1,・・・,N)が示す車内映像に映っている運転者の顔の特徴量を算出する(図6のステップST2)。j=1,・・・,Jであり、Jは、1以上の整数である。
第1の特徴量算出部12は、基準特徴量Vを差分算出部14に出力する。
以下、第1の特徴量算出部12による基準特徴量Vの算出処理を具体的に説明する。
直線距離算出部41は、映像データP(n=1,・・・,N)が示す車内映像に映っている運転者の顔を検出する。運転者の顔を検出する処理自体は、公知の技術であるため詳細な説明を省略する。
直線距離算出部41は、図7に示すように、映像データPが示す車内映像に映っている運転者の顔の基準点Cから、運転者の顔パーツに含まれているM個のパーツ構成点Kn,mまでの直線距離Ln,mをそれぞれ算出する。Mは、2以上の整数である。直線距離Ln,mは、例えば、ユークリッド距離である。直線距離を算出する処理自体は、公知の技術であるため詳細な説明を省略する。
図7は、顔の基準点Cからパーツ構成点Kn,mまでの直線距離Ln,mを示す説明図である。
図7の例では、顔の基準点Cは、左目の目頭と右目の目頭との中間点である。また、図7の例では、顔パーツのパーツ構成点Kn,mの数は、32点である。ただし、パーツ構成点Kn,mの数は、32点に限るものではない。顔パーツは、例えば、目、眉毛、鼻、口、又は、顎である。
モデル調整部42は、直線距離算出部41から、N×M個の直線距離Ln,m(n=1,・・・,N:m=1,2,・・・,32)を取得する。
モデル調整部42は、一般的な顔の3次元モデルMDに対して、N×M個の直線距離Ln,m(n=1,・・・,N:m=1,2,・・・,32)をフィッティングすることで、図8に示すように、3次元モデルMDを運転者の顔を示す3次元モデルMDcusにカスタマイズする。3次元モデルMDに対して直線距離Ln,mをフィッティングすることで、3次元モデルMDを3次元モデルMDcusにカスタマイズする処理自体は、公知の技術であるため詳細な説明を省略する。
図8は、カスタマイズ後の3次元モデルMDcusの一例を示す説明図である。
図8において、左上の顔に描かれている黒○及び右下の顔に描かれている○のそれぞれは、パーツ構成点を示している。
左上の顔は、3次元モデルMDが示している一般的な顔であり、右下の顔は、カスタマイズ後の3次元モデルMDcusが示している運転者の顔である。
特徴量算出処理部43は、モデル調整部42から、カスタマイズ後の3次元モデルMDcusを取得する。
特徴量算出処理部43は、カスタマイズ後の3次元モデルMDcusに基づいて、基準特徴量V(j=1,・・・,J)として、運転者の顔の特徴量を算出する。
基準特徴量Vとしては、例えば、目の扁平率、又は、口角の角度がある。目の扁平率は、目頭と目尻との間の距離に対する、上瞼と下瞼との間の最大距離の比である。目頭と目尻との間の距離は、3次元モデルMDcusにおける目頭と目尻との間の距離である。上瞼と下瞼との間の最大距離は、3次元モデルMDcusにおける上瞼と下瞼との間の最大距離である。
基準特徴量Vが、例えば、目の扁平率と口角の角度との2つであれば、J=2である。また、基準特徴量Vが、例えば、目の扁平率の1つであれば、J=1である。
図1に示す乗員状態推定装置2では、基準特徴量Vの算出精度を高めるために、第1の特徴量算出部12が、撮影時刻が互いに異なるN個の車内映像に基づいて、基準特徴量Vを算出している。しかし、これは一例に過ぎず、第1の特徴量算出部12が、1つの車内映像に基づいて、基準特徴量Vを算出するものであってもよい。
カメラ1は、第1の特徴量算出部12により基準特徴量Vが算出された後、車両の内部の撮影を繰り返し行う。
カメラ1は、車内映像を示す映像データを乗員状態推定装置2に繰り返し出力する。
図1に示す乗員状態推定装置2では、第1の特徴量算出部12により基準特徴量Vが算出された後の一定期間FCP中に、カメラ1が車両の内部をG回撮影し、G個の車内映像を示す映像データP~Pのそれぞれを乗員状態推定装置2に出力するものとする。Gは、2以上の整数である。
車内映像取得部11は、第1の特徴量算出部12により基準特徴量Vが算出された後、カメラ1が車内映像を撮影する毎に、カメラ1から、当該車内映像を示す映像データP(g=1,・・・,G)を取得する(図6のステップST3)。
車内映像取得部11は、映像データPを第2の特徴量算出部13に出力する。
第2の特徴量算出部13は、車内映像取得部11から、映像データP(g=1,・・・,G)を取得する。
第2の特徴量算出部13は、映像データP(g=1,・・・,G)が示す車内映像に映っている運転者の顔の特徴量Vg,j(g=1,・・・,G:j=1,・・・,J)を算出する(図6のステップST4)。
第2の特徴量算出部13は、顔の特徴量Vg,jを差分算出部14に出力する。
以下、第2の特徴量算出部13による特徴量Vg,jの算出処理を具体的に説明する。
直線距離算出部51は、映像データP(g=1,・・・,G)が示す車内映像に映っている運転者の顔を検出する。
直線距離算出部51は、映像データPが示す車内映像に映っている運転者の顔の基準点Cから、運転者の顔パーツに含まれているM個のパーツ構成点Kg,mまでの直線距離Lg,mをそれぞれ算出する。顔の基準点Cは、図7に示す基準点Cに相当し、パーツ構成点Kg,mは、図7に示すパーツ構成点Kn,mに相当する。また、直線距離Lg,mは、図7に示す直線距離Ln,mに相当する。
モデル調整部52は、直線距離算出部51から、G×M個の直線距離Lg,m(g=1,・・・,G:m=1,2,・・・,32)を取得する。
モデル調整部52は、G×M個の直線距離Lg,m(g=1,・・・,G:m=1,2,・・・,32)の中から、いずれか1つの映像データPに係るM個の直線距離Lg,m(m=1,2,・・・,32)を選択する。いずれか1つの映像データPは、G個の映像データP~Pの中の1つの映像データである。
モデル調整部52は、いずれか1つの映像データP(g=1,・・・,G)に係るM個の直線距離Lg,mを3次元モデルMDにフィッティングすることで、3次元モデルMDを運転者の顔を示す3次元モデルMDcus,gにカスタマイズする。
モデル調整部52は、M個の直線距離Lg,mの選択と3次元モデルMDに対する直線距離Lg,mのフィッティングとをG回繰り返すことで、3次元モデルMDから、G個の3次元モデルMDcus,1~MDcus,Gを生成する。
特徴量算出処理部53は、モデル調整部52から、カスタマイズ後のG個の3次元モデルMDcus,1~MDcus,Gを取得する。
特徴量算出処理部43は、それぞれの3次元モデルMDcus,g(g=1,・・・,G)に基づいて、運転者の顔の特徴量Vg,j(g=1,・・・,G:j=1,・・・,J)を算出する。
運転者の顔の特徴量Vg,jとしては、例えば、目の扁平率、又は、口角の角度がある。
差分算出部14は、第1の特徴量算出部12から、J個の基準特徴量V(j=1,・・・,J)を取得し、第2の特徴量算出部13から、G×J個の特徴量Vg,j(g=1,・・・,G:j=1,・・・,J)を取得する。
差分算出部14は、以下の式(1)に示すように、基準特徴量Vと特徴量Vg,jとの差分ΔVg,jを算出する(図6のステップST5)。
ΔV1,j=|V-V1,j
ΔV2,j=|V-V2,j
: (1)
ΔVG,j=|V-VG,j
差分算出部14は、G×J個の差分ΔV1,1・・・ΔV1,J、ΔV2,1・・・ΔV2,J、ΔVG,1・・・ΔVG,Jを再算出指示部15及び乗員状態検出部16のそれぞれに出力する。
再算出指示部15は、差分算出部14から、差分ΔVg,j(g=1,・・・,G:j=1,・・・,J)を取得する。
再算出指示部15は、G×J個の差分ΔV1,1・・・ΔV1,J、ΔV2,1・・・ΔV2,J、ΔVG,1・・・ΔVG,Jのうち、或るjについてのG個の差分ΔV1,j~ΔVG,jに着目する。
再算出指示部15は、G個の差分ΔV1,j~ΔVG,jのそれぞれと第1の閾値Vth1とを比較し、G個の差分ΔV1,j~ΔVG,jの中で、第1の閾値Vth1以上である差分の個数Cを計数する。
再算出指示部15は、以下の式(2)に示すように、G個の差分ΔV1,j~ΔVG,jの中で、第1の閾値Vth1以上である差分の割合Rを算出する。
=(C/G)×100(2)
再算出指示部15は、それぞれのjについての割合R(j=1,・・・,J)を算出する。
イグニッションスイッチがオンになった当初の期間中は、一般的に、運転者の顔の表情が、真顔の表情である確率が高い。したがって、第1の特徴量算出部12により算出された基準特徴量Vは、顔の表情が無表情であるときの運転者の顔の特徴量である可能性が高い。ただし、第1の特徴量算出部12により算出された基準特徴量Vは、顔の表情が無表情ではないときの運転者の顔の特徴量である可能性はある。
一方、第1の特徴量算出部12により基準特徴量Vが算出された後の一定期間FCPが、例えば、数分単位の一定期間であれば、一定期間FCPにおいて、真顔の表情が現れる割合Rは、笑顔の表情、泣顔の表情、又は、怒り顔の表情が現れる割合よりも大きくなることが想定される。運転者が、一定期間FCPにおいて、笑う機会が多い場合、真顔の表情が現れる割合Rが減少する。しかし、その場合でも、真顔の表情が現れる割合Rは、笑顔の表情が現れる割合よりも大きくなることが想定される。
したがって、例えば、第2の閾値Vth2が割合Rよりも大きな値である場合、第1の特徴量算出部12により算出された基準特徴量Vが、顔の表情が無表情であるときの運転者の顔の特徴量であれば、再算出指示部15により算出される割合R(j=1,・・・,J)は、第2の閾値Vth2未満になる。
一方、第1の特徴量算出部12により算出された基準特徴量Vが、顔の表情が無表情ではないときの運転者の顔の特徴量であれば、再算出指示部15により算出される割合R(j=1,・・・,J)は、第2の閾値以上になる。
再算出指示部15は、J個の割合R~Rのうち、いずれかの割合Rが第2の閾値Vth2以上であれば(図6のステップST6:YESの場合)、基準特徴量Vが、顔の表情が無表情ではないときの運転者の顔の特徴量である可能性が高いと判断する。このため、再算出指示部15は、基準特徴量V(j=1,・・・,J)の再算出を第1の特徴量算出部12に指示する(図6のステップST7)。
第1の特徴量算出部12は、再算出指示部15から、基準特徴量Vの再算出の指示を受けると、車内映像取得部11から、N個の映像データP~Pを新たに取得し、新たに取得した映像データP(n=1,・・・,N)が示す車内映像に基づいて、基準特徴量Vを再算出する(図6のステップST1,ST2)。第1の特徴量算出部12は、基準特徴量Vを差分算出部14に出力する。
再算出指示部15は、いずれの割合Rも第2の閾値Vth2未満であれば(図6のステップST6:NOの場合)、基準特徴量Vが、顔の表情が無表情であるときの運転者の顔の特徴量である可能性が高いと判断する。このため、再算出指示部15は、基準特徴量Vの再算出を第1の特徴量算出部12に指示しない。以降、ステップST3~ST5の処理と同様の処理が繰り返される。
乗員状態検出部16は、差分算出部14から、差分ΔVg,j(g=1,・・・,G:j=1,・・・,J)を取得する。
乗員状態検出部16は、再算出指示部15から第1の特徴量算出部12への再算出の指示がなく、基準特徴量Vが既に正しい値に設定されていれば、差分ΔVg,jに基づいて、乗員の状態を検出する。
即ち、乗員状態検出部16は、差分ΔVg,jと状態検出用閾値とを比較する。状態検出用閾値は、乗員状態検出部16の内部メモリに格納されていてもよいし、乗員状態推定装置2の外部から与えられるものであってもよい。
乗員状態検出部16は、差分ΔVg,jが状態検出用閾値以上であれば、乗員の状態が変化しているものと判断する。
乗員状態検出部16は、差分ΔVg,jが状態検出用閾値未満であれば、乗員の状態が変化していないものと判断する。
図1に示す乗員状態推定装置2では、差分ΔVg,jが状態検出用閾値以上であれば、乗員状態検出部16が、乗員の状態が変化しているものと判断している。しかし、これは一例に過ぎず、或るjについての差分ΔVg,jが状態検出用閾値以上である期間が所定時間以上であるとき、乗員状態検出部16が、乗員の状態が変化しているものと判断するようにしてもよい。
第1の特徴量算出部12により算出される基準特徴量V及び第2の特徴量算出部13により算出される特徴量Vg,jのそれぞれが、例えば、目の扁平率である場合を想定する。基準特徴量Vは、再算出指示部15によって、いずれの割合Rも第2の閾値Vth2未満であると判断されることで確定した正しい基準特徴量である。
このような場合、乗員状態検出部16は、乗員の状態として、運転者が眠気を生じているときの表情を検出することが可能である。即ち、運転者が眠気を生じていない状況では、通常、運転者は、目を大きく開いているので、基準特徴量Vである目の扁平率は大きい。一方、運転者が眠気を生じている状況では、運転者は、目を閉じている、あるいは、目を細めているので、特徴量Vg,jである目の扁平率は小さい。したがって、基準特徴量V及び特徴量Vg,jのそれぞれが、目の扁平率であれば、乗員の状態として、運転者が眠気を生じているときの表情を検出することが可能である。
また、基準特徴量Vが、運転者が車両の前方を向いているときに撮影された車内映像に基づいて算出されたものであれば、乗員状態検出部16は、乗員の状態として、運転者のわき見をしている状態、車両の環境が変化している状態、又は、運転者の体調が急変している状態等を検出することが可能である。
また、基準特徴量Vが、運転者の姿勢が崩れていないときに撮影された車内映像に基づいて算出されたものであれば、乗員状態検出部16は、乗員の状態として、運転者の姿勢が崩れている状態、車両の環境が変化している状態、又は、運転者の体調が急変している状態等を検出することが可能である。
また、乗員状態検出部16は、乗員の状態として、乗員の表情の変化を検出することができるので、乗員の感情を推定することが可能である。
乗員状態検出部16が、乗員の状態の検出結果を、例えば、車両制御装置に出力することで、居眠り運転の警告を提示するだけでなく、車両の緊急退避処理を実行させることができる。
以上の実施の形態1では、車両の内部の映像である車内映像を取得する車内映像取得部11と、基準特徴量として、車内映像取得部11により取得された車内映像に映っている、車両に乗車している運転者の顔の特徴量を算出する第1の特徴量算出部12と、第1の特徴量算出部12により基準特徴量が算出された後に、車内映像取得部11により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている乗員の顔の特徴量を算出する第2の特徴量算出部13とを備えるように、乗員状態推定装置2を構成した。また、乗員状態推定装置2は、第1の特徴量算出部12により算出された基準特徴量と第2の特徴量算出部13により算出されたそれぞれの特徴量との差分を算出する差分算出部14と、差分算出部14により算出された複数の差分のうち、第1の特徴量算出部12により基準特徴量が算出された後の一定期間内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、基準特徴量の再算出を第1の特徴量算出部12に指示する再算出指示部15とを備えている。したがって、乗員状態推定装置2は、乗員の状態推定精度の低下を防ぐことが可能な基準特徴量を算出することができる。
図1に示す乗員状態推定装置2は、イグニッションスイッチがオンになることで起動し、図6に示す処理手順が実行されている。しかし、これは一例に過ぎず、イグニッションスイッチがオンのままでも、例えば、車両のドアがオープンされたことが検出、又は、運転者が交代されたことが検出されたときに、図6に示す処理手順が実行されるものであってもよい。
図1に示す乗員状態推定装置2では、第1の特徴量算出部12が、運転者の顔の基準点Cから、運転者の顔パーツに含まれているM個のパーツ構成点Kn,mまでの直線距離Ln,mをそれぞれ算出し、それぞれの直線距離Ln,mを用いて、基準特徴量Vを算出している。しかし、これは一例に過ぎず、例えば、第1の特徴量算出部12が、基準特徴量として、それぞれの直線距離Ln,mを算出するようにしてもよい。
また、図1に示す乗員状態推定装置2では、第2の特徴量算出部13が、運転者の顔の基準点Cから、運転者の顔パーツに含まれているM個のパーツ構成点Kg,mまでの直線距離Lg,mをそれぞれ算出し、それぞれの直線距離Lg,mを用いて、特徴量Vg,jを算出している。しかし、これは一例に過ぎず、例えば、第2の特徴量算出部13が、特徴量として、それぞれの直線距離Lg,mを算出するようにしてもよい。
図1に示す乗員状態推定装置2では、第1の特徴量算出部12が、再算出指示部15から、基準特徴量Vの再算出の指示を受けると、車内映像取得部11から、N個の映像データP~Pを新たに取得している。そして、第1の特徴量算出部12が、新たに取得した映像データP(n=1,・・・,N)が示す車内映像に基づいて、基準特徴量Vを再算出している。しかし、これは一例に過ぎず、第1の特徴量算出部12は、再算出指示部15から、基準特徴量Vの再算出の指示を受けると、一定期間FCP内に算出された複数の差分ΔVg,jのうち、第1の閾値Vth1以上である差分に係る車内映像に基づいて、基準特徴量Vを再算出するようにしてもよい。第1の閾値Vth1以上である差分に係る車内映像は、車内映像取得部11によって、一定期間FCP内に取得された車内映像である。
第1の特徴量算出部12によって、先に算出された基準特徴量Vが、顔の表情が無表情でないときに撮影された車内映像に基づいて算出されたものである場合、第1の閾値Vth1以上である差分に係る車内映像は、顔の表情が無表情であるときに撮影された車内映像である可能性が高い。
実施の形態2.
実施の形態2では、車両の状態を示す車両情報を取得する車両情報取得部17を備えている乗員状態推定装置2について説明する。
図9は、実施の形態2に係る乗員状態推定装置2を示す構成図である。図9において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
図10は、実施の形態2に係る乗員状態推定装置2のハードウェアを示すハードウェア構成図である。図10において、図2と同一符号は同一又は相当部分を示すので説明を省略する。
乗員状態推定装置2は、車両情報取得部17、車内映像取得部11、第1の特徴量算出部18、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16を備えている。
実施の形態2では、乗員状態推定装置2は、車両に乗車している乗員のうち、運転者の表情の変化を検出する。しかし、これは一例に過ぎず、乗員状態推定装置2が、車両に乗車している乗員のうち、助手席に座っている乗員、又は、後部座席に座っている乗員の表情の変化を検出するものであってもよい。
車両情報取得部17は、例えば、図10に示す車両情報取得回路27によって実現される。
車両情報取得部17は、例えば、車両の制御回路から、車両の状態を示す車両情報を取得する。
車両情報取得部17は、車両情報を第1の特徴量算出部18に出力する。
第1の特徴量算出部18は、例えば、図10に示す第1の特徴量算出回路28によって実現される。
第1の特徴量算出部18は、車両情報取得部17から、車両情報を取得する。
第1の特徴量算出部18は、車両情報取得部17により取得された車両情報が示す車両の状態が或る状態であるときに、車内映像取得部11により取得された映像データを取得する。
第1の特徴量算出部18は、基準特徴量として、取得した映像データが示す車内映像に映っている運転者の顔の特徴量を算出する。
第1の特徴量算出部18は、基準特徴量を差分算出部14に出力する。
図9では、乗員状態推定装置2の構成要素である車両情報取得部17、車内映像取得部11、第1の特徴量算出部18、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16のそれぞれが、図10に示すような専用のハードウェアによって実現されるものを想定している。即ち、乗員状態推定装置2が、車両情報取得回路27、車内映像取得回路21、第1の特徴量算出回路28、第2の特徴量算出回路23、差分算出回路24、再算出指示回路25及び乗員状態検出回路26によって実現されるものを想定している。
車両情報取得回路27、車内映像取得回路21、第1の特徴量算出回路28、第2の特徴量算出回路23、差分算出回路24、再算出指示回路25及び乗員状態検出回路26のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
乗員状態推定装置2の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、乗員状態推定装置2が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
乗員状態推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、車両情報取得部17、車内映像取得部11、第1の特徴量算出部18、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図3に示すメモリ31に格納される。そして、図3に示すプロセッサ32がメモリ31に格納されているプログラムを実行する。
また、図10では、乗員状態推定装置2の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図3では、乗員状態推定装置2がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、乗員状態推定装置2における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
次に、図9に示す乗員状態推定装置2の動作について説明する。車両情報取得部17及び第1の特徴量算出部18以外は、図1に示す乗員状態推定装置2と同様である。このため、ここでは、車両情報取得部17及び第1の特徴量算出部18の動作のみを説明する。
車両情報取得部17は、例えば、車両の制御回路から、車両の状態を示す車両情報を取得する。車両情報としては、例えば、車両のシフトを示す情報、車両の速度を示す情報、又は、車両の舵角を示す情報がある。
車両情報取得部17は、車両情報を第1の特徴量算出部18に出力する。
第1の特徴量算出部18は、車両情報取得部17から、車両情報を取得する。
第1の特徴量算出部18は、例えば、車両情報が示す車両の状態が、或る状態であるときに、カメラ1により撮影された車内映像を示すN個の映像データP~Pを車内映像取得部11から取得する。
即ち、第1の特徴量算出部18は、例えば、車両情報が示す車両の状態が、車両のシフトがドライブシフトである状態、車両の速度が第3の閾値以上である状態、あるいは、車両の舵角が第4の閾値以内である状態であるときに、カメラ1により撮影された車内映像を示すN個の映像データP~Pを車内映像取得部11から取得する。
第3の閾値及び第4の閾値のそれぞれは、第1の特徴量算出部18の内部メモリに格納されていてもよいし、乗員状態推定装置2の外部から与えられるものであってもよい。
以降、第1の特徴量算出部18は、図1に示す第1の特徴量算出部12と同様に、映像データP(n=1,・・・,N)が示す車内映像に基づいて、基準特徴量Vを算出する。
車両情報が示す車両の状態が、車両のシフトがドライブシフトである状態、車両の速度が第3の閾値以上である状態、あるいは、車両の舵角が第4の閾値以内である状態のときは、通常、車両の運転に対する注意が必要な時間帯である。
したがって、車両情報が示す車両の状態が、車両のシフトがドライブシフトである状態、車両の速度が第3の閾値以上である状態、あるいは、車両の舵角が第4の閾値以内である状態のときは、運転者の顔の表情が真顔の表情である可能性が高い。
以上の実施の形態2では、車両の状態を示す車両情報を取得する車両情報取得部17を備えるように、図9に示す乗員状態推定装置2を構成した。また、図9に示す乗員状態推定装置2の第1の特徴量算出部18は、車両情報取得部17により取得された車両情報が示す車両の状態が或る状態であるときに、車内映像取得部11により取得された車内映像を取得し、基準特徴量として、当該車内映像に映っている乗員の顔の特徴量を算出するように構成した。したがって、図9に示す乗員状態推定装置2は、図1に示す乗員状態推定装置2よりも、運転者の顔の表情が真顔の表情であるときに撮影された車内映像に基づいて、基準特徴量を算出できる可能性を高めることができる。
なお、本開示は、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本開示は、乗員状態推定装置及び乗員状態推定方法に適している。
1 カメラ、2 乗員状態推定装置、11 車内映像取得部、12 第1の特徴量算出部、13 第2の特徴量算出部、14 差分算出部、15 再算出指示部、16 乗員状態検出部、17 車両情報取得部、18 第1の特徴量算出部、21 車内映像取得回路、22 第1の特徴量算出回路、23 第2の特徴量算出回路、24 差分算出回路、25 再算出指示回路、26 乗員状態検出回路、27 車両情報取得回路、28 第1の特徴量算出回路、31 メモリ、32 プロセッサ、41 直線距離算出部、42 モデル調整部、43 特徴量算出処理部、51 直線距離算出部、52 モデル調整部、53 特徴量算出処理部。

Claims (8)

  1. 車両の内部の映像である車内映像を取得する車内映像取得部と、
    基準特徴量として、前記車内映像取得部により取得された車内映像に映っている、前記車両に乗車している乗員の顔の特徴量を算出する第1の特徴量算出部と、
    前記第1の特徴量算出部により基準特徴量が算出された後に、前記車内映像取得部により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている前記乗員の顔の特徴量を算出する第2の特徴量算出部と、
    前記第1の特徴量算出部により算出された基準特徴量と前記第2の特徴量算出部により算出されたそれぞれの特徴量との差分を算出する差分算出部と、
    前記差分算出部により算出された複数の差分のうち、前記第1の特徴量算出部により基準特徴量が算出された後の一定期間内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、前記基準特徴量の再算出を前記第1の特徴量算出部に指示する再算出指示部と
    を備えた乗員状態推定装置。
  2. 前記再算出指示部から前記第1の特徴量算出部への再算出の指示がなければ、前記差分算出部により算出されたそれぞれの差分に基づいて、前記乗員の状態を検出する乗員状態検出部を備えたことを特徴とする請求項1記載の乗員状態推定装置。
  3. 前記車内映像取得部は、撮影時刻が互いに異なる複数の車内映像を取得し、
    前記第1の特徴量算出部は、
    前記車内映像取得部により取得されたそれぞれの車内映像に映っている前記乗員の顔の特徴量を算出し、算出した複数の特徴量から、前記基準特徴量を算出することを特徴とする請求項1記載の乗員状態推定装置。
  4. 前記第1の特徴量算出部は、
    前記車内映像取得部により取得された車内映像に映っている乗員の顔の基準点から、前記乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する直線距離算出部と、
    前記直線距離算出部により算出されたそれぞれの直線距離を顔の3次元モデルにフィッティングすることで、当該3次元モデルを前記乗員の顔を示す3次元モデルにカスタマイズするモデル調整部と、
    前記モデル調整部によるカスタマイズ後の3次元モデルに基づいて、前記基準特徴量として、前記乗員の顔の特徴量を算出する特徴量算出処理部とを備えていることを特徴とする請求項1記載の乗員状態推定装置。
  5. 前記第2の特徴量算出部は、
    前記第1の特徴量算出部により基準特徴量が算出された後に、前記車内映像取得部により取得されたそれぞれの車内映像に映っている乗員の顔の基準点から、前記乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する直線距離算出部と、
    前記直線距離算出部により算出されたそれぞれの直線距離を顔の3次元モデルにフィッティングすることで、当該3次元モデルを前記乗員の顔を示す3次元モデルにカスタマイズするモデル調整部と、
    前記モデル調整部によるカスタマイズ後の3次元モデルに基づいて、前記乗員の顔の特徴量を算出する特徴量算出処理部とを備えていることを特徴とする請求項1記載の乗員状態推定装置。
  6. 前記車両の状態を示す車両情報を取得する車両情報取得部を備え、
    前記第1の特徴量算出部は、
    前記車両情報取得部により取得された車両情報が示す車両の状態が或る状態であるときに前記車内映像取得部により取得された車内映像を取得し、前記基準特徴量として、当該車内映像に映っている前記乗員の顔の特徴量を算出することを特徴とする請求項1記載の乗員状態推定装置。
  7. 前記或る状態は、
    前記車両のシフトがドライブシフトである状態、前記車両の速度が第3の閾値以上である状態、あるいは、前記車両の舵角が第4の閾値以内である状態であり、
    前記第1の特徴量算出部は、
    前記車両情報取得部により取得された車両情報が示す車両の状態が前記或る状態であるときに前記車内映像取得部により取得された車内映像を取得し、前記基準特徴量として、当該車内映像に映っている前記乗員の顔の特徴量を算出することを特徴とする請求項6記載の乗員状態推定装置。
  8. 車内映像取得部が、車両の内部の映像である車内映像を取得し、
    第1の特徴量算出部が、基準特徴量として、前記車内映像取得部により取得された車内映像に映っている、前記車両に乗車している乗員の顔の特徴量を算出し、
    第2の特徴量算出部が、前記第1の特徴量算出部により基準特徴量が算出された後に、前記車内映像取得部により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている前記乗員の顔の特徴量を算出し、
    差分算出部が、前記第1の特徴量算出部により算出された基準特徴量と前記第2の特徴量算出部により算出されたそれぞれの特徴量との差分を算出し、
    再算出指示部が、前記差分算出部により算出された複数の差分のうち、前記第1の特徴量算出部により基準特徴量が算出された後の一定期間内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、前記基準特徴量の再算出を前記第1の特徴量算出部に指示する
    乗員状態推定方法。
JP2024519511A 2022-05-18 2022-05-18 乗員状態推定装置及び乗員状態推定方法 Active JP7504326B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/020600 WO2023223443A1 (ja) 2022-05-18 2022-05-18 乗員状態推定装置及び乗員状態推定方法

Publications (2)

Publication Number Publication Date
JPWO2023223443A1 JPWO2023223443A1 (ja) 2023-11-23
JP7504326B2 true JP7504326B2 (ja) 2024-06-21

Family

ID=88834871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024519511A Active JP7504326B2 (ja) 2022-05-18 2022-05-18 乗員状態推定装置及び乗員状態推定方法

Country Status (2)

Country Link
JP (1) JP7504326B2 (ja)
WO (1) WO2023223443A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146137A (ja) 2006-12-06 2008-06-26 Seiko Epson Corp 画像認識装置、電子機器、画像認識方法、制御プログラム及び記録媒体
WO2018150485A1 (ja) 2017-02-15 2018-08-23 三菱電機株式会社 運転状態判定装置および運転状態判定方法
JP2020163660A (ja) 2019-03-29 2020-10-08 コニカミノルタ株式会社 画像形成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146137A (ja) 2006-12-06 2008-06-26 Seiko Epson Corp 画像認識装置、電子機器、画像認識方法、制御プログラム及び記録媒体
WO2018150485A1 (ja) 2017-02-15 2018-08-23 三菱電機株式会社 運転状態判定装置および運転状態判定方法
JP2020163660A (ja) 2019-03-29 2020-10-08 コニカミノルタ株式会社 画像形成装置

Also Published As

Publication number Publication date
JPWO2023223443A1 (ja) 2023-11-23
WO2023223443A1 (ja) 2023-11-23

Similar Documents

Publication Publication Date Title
EP3033999B1 (en) Apparatus and method for determining the state of a driver
US11084424B2 (en) Video image output apparatus, video image output method, and medium
WO2017208529A1 (ja) 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体
JP7118136B2 (ja) 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法
US11453401B2 (en) Closed eye determination device
US10664712B2 (en) Eyelid opening/closing determination apparatus and drowsiness detection apparatus
US20190382026A1 (en) Drowsiness prevention device, drowsiness prevention method, and recording medium
US20220284718A1 (en) Driving analysis device and driving analysis method
JP7240910B2 (ja) 乗員観察装置
CN113365556B (zh) 情绪推定装置及情绪推定方法
CN115439832A (zh) 监测车辆乘员的方法和系统
JP7504326B2 (ja) 乗員状態推定装置及び乗員状態推定方法
JP2016115120A (ja) 開閉眼判定装置および開閉眼判定方法
JP6982767B2 (ja) 検知装置、学習装置、検知方法、学習方法、およびプログラム
JP7267467B2 (ja) 注意方向判定装置および注意方向判定方法
JP6572841B2 (ja) 情報処理装置及びプログラム
JP2022038225A (ja) 顔情報取得装置および顔情報取得方法
JP3812355B2 (ja) 運転注意力検出装置および居眠り運転検出装置
WO2022144948A1 (ja) 覚醒度推論装置、覚醒度推論方法、覚醒度学習装置、及び覚醒度学習方法
JP7374373B2 (ja) 体格判定装置および体格判定方法
JP7359084B2 (ja) 感情推定装置、感情推定方法及びプログラム
US20230102610A1 (en) Image extraction device, vehicle, image extraction system, image extraction method, and storage medium storing image extraction program
WO2024071298A1 (ja) 運転支援装置
JP7348005B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP7286022B2 (ja) 乗員状態検出装置および乗員状態検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240329

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240611

R150 Certificate of patent or registration of utility model

Ref document number: 7504326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150