JP7504326B2 - 乗員状態推定装置及び乗員状態推定方法 - Google Patents
乗員状態推定装置及び乗員状態推定方法 Download PDFInfo
- Publication number
- JP7504326B2 JP7504326B2 JP2024519511A JP2024519511A JP7504326B2 JP 7504326 B2 JP7504326 B2 JP 7504326B2 JP 2024519511 A JP2024519511 A JP 2024519511A JP 2024519511 A JP2024519511 A JP 2024519511A JP 7504326 B2 JP7504326 B2 JP 7504326B2
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- vehicle
- calculation unit
- occupant
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 22
- 238000001514 detection method Methods 0.000 claims description 39
- 230000001815 facial effect Effects 0.000 claims description 29
- 230000008921 facial expression Effects 0.000 description 55
- 238000010586 diagram Methods 0.000 description 18
- 230000007935 neutral effect Effects 0.000 description 9
- 210000000744 eyelid Anatomy 0.000 description 6
- 206010011469 Crying Diseases 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Description
当該表情判定装置は、抽出手段及び表情判定手段を備えている。当該抽出手段は、撮影画像に映っている人物の顔を検出し、顔の特徴量を抽出する。当該表情判定手段は、抽出手段により抽出された特徴量と予め記憶された基準特徴量との差分に基づいて、顔の表情が所定の表情であるか否かを判定する。所定の表情としては、例えば、笑顔の表情、又は、怒り顔の表情がある。
当該表情判定装置では、基準特徴量が、顔の表情が無表情である人物の顔の特徴量であることを前提としている。当該表情判定装置では、人物の顔の表情が無表情であるときの画像の撮影を可能にするために、制御回路が、無表情の顔を撮影する旨を示すガイダンスを表示部に表示させることで、表情判定対象の人物に対して、顔の表情が無表情になるように促している。
図1は、実施の形態1に係る乗員状態推定装置2を示す構成図である。
図2は、実施の形態1に係る乗員状態推定装置2のハードウェアを示すハードウェア構成図である。
図1において、カメラ1は、車両の内部を繰り返し撮影し、車両の内部の映像である車内映像を示す映像データを乗員状態推定装置2に繰り返し出力する。なお、車内映像は、静止画であってもよいし、動画であってもよい。
乗員状態推定装置2は、車内映像取得部11、第1の特徴量算出部12、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16を備えている。
図1に示す乗員状態推定装置2は、車両に乗車している乗員の顔の表情の変化を検出する。車両に乗車している乗員は、車両の運転者であってもよいし、助手席に座っている乗員であってもよいし、後部座席に座っている乗員であってもよい。
車内映像取得部11は、カメラ1から、車内映像を示す映像データを取得する。
車内映像取得部11は、車内映像を示す映像データを第1の特徴量算出部12に出力する。
また、車内映像取得部11は、第1の特徴量算出部12により基準特徴量が算出された後に、カメラ1により撮影された車内映像を示す映像データを取得し、映像データを第2の特徴量算出部13に出力する。
第1の特徴量算出部12は、車内映像取得部11から、車内映像を示す映像データを取得する。
第1の特徴量算出部12は、基準特徴量として、映像データが示す車内映像に映っている、車両に乗車している乗員の顔の特徴量を算出する。
第1の特徴量算出部12は、基準特徴量を差分算出部14に出力する。
第2の特徴量算出部13は、第1の特徴量算出部12により基準特徴量が算出された後に、車内映像取得部11により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている乗員の顔の特徴量を算出する。
第2の特徴量算出部13は、特徴量を差分算出部14に出力する。
差分算出部14は、第1の特徴量算出部12により算出された基準特徴量と第2の特徴量算出部13により算出されたそれぞれの特徴量との差分を算出する。
差分算出部14は、それぞれの差分を再算出指示部15及び乗員状態検出部16のそれぞれに出力する。
再算出指示部15は、差分算出部14により算出された複数の差分のうち、第1の特徴量算出部12により基準特徴量が算出された後の一定期間FCP内に算出された複数の差分を取得する。
図1に示す乗員状態推定装置2では、一定期間FCPは、第1の特徴量算出部12により基準特徴量が算出されてから、一定の時間が経過した後の固定期間である。例えば、基準特徴量が算出された時刻がT0であり、一定の時間がtconであれば、一定期間FCPの開始時刻は、T0+tconである。また、一定期間FCPの時間長がtFCであれば、一定期間FCPの終了時刻は、T0+tcon+tFCである。しかしながら、一定期間FCPは、固定の期間であるものに限るものではなく、一定期間FCPの時間帯が変化するものであってもよい。一定期間FCPの時間帯が変化する場合、一定期間FCPの開始時刻は、T0+tcon+Δtであり、一定期間FCPの終了時刻は、T0+tcon+tFC+Δtである。tFC+Δtは、一定期間FCPの時間長であり、Δtは、一定期間FCPの変化時間である。
再算出指示部15は、一定期間FCP内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、基準特徴量の再算出を第1の特徴量算出部12に指示する。第1の閾値及び第2の閾値のそれぞれは、再算出指示部15の内部メモリに格納されていてもよいし、乗員状態推定装置の外部から与えられるものであってもよい。
乗員状態検出部16は、再算出指示部15から第1の特徴量算出部12への再算出の指示がなければ、差分算出部14により算出されたそれぞれの差分に基づいて、乗員の状態を検出する。
車内映像取得回路21、第1の特徴量算出回路22、第2の特徴量算出回路23、差分算出回路24、再算出指示回路25及び乗員状態検出回路26のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
乗員状態推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、車内映像取得部11、第1の特徴量算出部12、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムがメモリ31に格納される。そして、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行する。
図4に示す第1の特徴量算出部12は、直線距離算出部41、モデル調整部42及び特徴量算出処理部43を備えている。
直線距離算出部41は、車内映像取得部11から、映像データを取得する。
直線距離算出部41は、映像データが示す車内映像に映っている乗員の顔の基準点から、乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する。
モデル調整部42は、一般的な顔の3次元モデルMDを備えている。
モデル調整部42は、直線距離算出部41により算出されたそれぞれの直線距離を3次元モデルMDにフィッティングすることで、3次元モデルMDを乗員の顔を示す3次元モデルにカスタマイズする。
特徴量算出処理部43は、モデル調整部42によるカスタマイズ後の3次元モデルに基づいて、基準特徴量として、乗員の顔の特徴量を算出する。
図5に示す第2の特徴量算出部13は、直線距離算出部51、モデル調整部52及び特徴量算出処理部53を備えている。
直線距離算出部51は、第1の特徴量算出部12により基準特徴量が算出された後に、車内映像取得部11により映像データが取得される毎に、当該映像データを取得する。
直線距離算出部51は、映像データが示す車内映像に映っている乗員の顔の基準点から、乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する。
モデル調整部52は、一般的な顔の3次元モデルMDを備えている。
モデル調整部52は、直線距離算出部51により算出されたそれぞれの直線距離を3次元モデルMDにフィッティングすることで、3次元モデルMDを乗員の顔を示す3次元モデルにカスタマイズする。
特徴量算出処理部53は、モデル調整部52によるカスタマイズ後の3次元モデルに基づいて、乗員の顔の特徴量を算出する。
一般的に、真顔の表情が現れる時間は、笑顔の表情、泣顔の表情、又は、怒り顔の表情が現れる時間よりも長いことが知られている。したがって、例えば、数分単位の一定期間では、真顔の表情が現れる割合は、笑顔の表情、泣顔の表情、又は、怒り顔の表情が現れる割合よりも大きくなることが想定される。乗員が、一定期間において、笑う機会が多い場合、真顔の表情が現れる割合が減少する。しかし、その場合でも、真顔の表情が現れる割合は、笑顔の表情が現れる割合よりも大きくなることが想定される。
図6は、乗員状態推定装置2の処理手順である乗員状態推定方法を示すフローチャートである。
図1に示す乗員状態推定装置2では、乗員状態検出部16が、車両に乗車している乗員のうち、運転者の状態を検出するものとする。しかし、これは一例に過ぎず、車両に乗車している乗員のうち、助手席に座っている乗員、又は、後部座席に座っている乗員の状態を検出するものであってもよい。
カメラ1は、起動後に、車両の内部の撮影を繰り返し行う。
カメラ1は、車両の内部の映像である車内映像を示す映像データを乗員状態推定装置2に繰り返し出力する。
イグニッションスイッチがオンになった当初の期間中は、一般的に、運転者の顔の表情が、真顔の表情である確率が高い。ただし、当初の期間中の顔の表情は、真顔の表情であるとは限らず、笑顔の表情、泣顔の表情、又は、怒り顔の表情等であることもある。当初の期間は、例えば、イグニッションスイッチがオンになってから、車両の走行が開始されるまでの期間、あるいは、イグニッションスイッチがオンになってから、数秒の期間である。当初の期間は、例えば、一定期間FCPよりも短い期間である。
図1に示す乗員状態推定装置2では、イグニッションスイッチがオンになった当初の期間中、カメラ1が車両の内部をN回撮影し、N個の車内映像を示す映像データP1~PNのそれぞれを乗員状態推定装置2に出力するものとする。Nは、1以上の整数である。
車内映像取得部11は、N個の映像データP1~PNを第1の特徴量算出部12に出力する。
第1の特徴量算出部12は、基準特徴量Vjとして、映像データPn(n=1,・・・,N)が示す車内映像に映っている運転者の顔の特徴量を算出する(図6のステップST2)。j=1,・・・,Jであり、Jは、1以上の整数である。
第1の特徴量算出部12は、基準特徴量Vjを差分算出部14に出力する。
以下、第1の特徴量算出部12による基準特徴量Vjの算出処理を具体的に説明する。
直線距離算出部41は、図7に示すように、映像データPnが示す車内映像に映っている運転者の顔の基準点Cnから、運転者の顔パーツに含まれているM個のパーツ構成点Kn,mまでの直線距離Ln,mをそれぞれ算出する。Mは、2以上の整数である。直線距離Ln,mは、例えば、ユークリッド距離である。直線距離を算出する処理自体は、公知の技術であるため詳細な説明を省略する。
図7は、顔の基準点Cnからパーツ構成点Kn,mまでの直線距離Ln,mを示す説明図である。
図7の例では、顔の基準点Cnは、左目の目頭と右目の目頭との中間点である。また、図7の例では、顔パーツのパーツ構成点Kn,mの数は、32点である。ただし、パーツ構成点Kn,mの数は、32点に限るものではない。顔パーツは、例えば、目、眉毛、鼻、口、又は、顎である。
モデル調整部42は、一般的な顔の3次元モデルMDに対して、N×M個の直線距離Ln,m(n=1,・・・,N:m=1,2,・・・,32)をフィッティングすることで、図8に示すように、3次元モデルMDを運転者の顔を示す3次元モデルMDcusにカスタマイズする。3次元モデルMDに対して直線距離Ln,mをフィッティングすることで、3次元モデルMDを3次元モデルMDcusにカスタマイズする処理自体は、公知の技術であるため詳細な説明を省略する。
図8は、カスタマイズ後の3次元モデルMDcusの一例を示す説明図である。
図8において、左上の顔に描かれている黒○及び右下の顔に描かれている○のそれぞれは、パーツ構成点を示している。
左上の顔は、3次元モデルMDが示している一般的な顔であり、右下の顔は、カスタマイズ後の3次元モデルMDcusが示している運転者の顔である。
特徴量算出処理部43は、カスタマイズ後の3次元モデルMDcusに基づいて、基準特徴量Vj(j=1,・・・,J)として、運転者の顔の特徴量を算出する。
基準特徴量Vjとしては、例えば、目の扁平率、又は、口角の角度がある。目の扁平率は、目頭と目尻との間の距離に対する、上瞼と下瞼との間の最大距離の比である。目頭と目尻との間の距離は、3次元モデルMDcusにおける目頭と目尻との間の距離である。上瞼と下瞼との間の最大距離は、3次元モデルMDcusにおける上瞼と下瞼との間の最大距離である。
基準特徴量Vjが、例えば、目の扁平率と口角の角度との2つであれば、J=2である。また、基準特徴量Vjが、例えば、目の扁平率の1つであれば、J=1である。
カメラ1は、車内映像を示す映像データを乗員状態推定装置2に繰り返し出力する。
図1に示す乗員状態推定装置2では、第1の特徴量算出部12により基準特徴量Vjが算出された後の一定期間FCP中に、カメラ1が車両の内部をG回撮影し、G個の車内映像を示す映像データP1~PGのそれぞれを乗員状態推定装置2に出力するものとする。Gは、2以上の整数である。
車内映像取得部11は、映像データPgを第2の特徴量算出部13に出力する。
第2の特徴量算出部13は、映像データPg(g=1,・・・,G)が示す車内映像に映っている運転者の顔の特徴量Vg,j(g=1,・・・,G:j=1,・・・,J)を算出する(図6のステップST4)。
第2の特徴量算出部13は、顔の特徴量Vg,jを差分算出部14に出力する。
以下、第2の特徴量算出部13による特徴量Vg,jの算出処理を具体的に説明する。
直線距離算出部51は、映像データPgが示す車内映像に映っている運転者の顔の基準点Cgから、運転者の顔パーツに含まれているM個のパーツ構成点Kg,mまでの直線距離Lg,mをそれぞれ算出する。顔の基準点Cgは、図7に示す基準点Cnに相当し、パーツ構成点Kg,mは、図7に示すパーツ構成点Kn,mに相当する。また、直線距離Lg,mは、図7に示す直線距離Ln,mに相当する。
モデル調整部52は、G×M個の直線距離Lg,m(g=1,・・・,G:m=1,2,・・・,32)の中から、いずれか1つの映像データPgに係るM個の直線距離Lg,m(m=1,2,・・・,32)を選択する。いずれか1つの映像データPgは、G個の映像データP1~PGの中の1つの映像データである。
モデル調整部52は、いずれか1つの映像データPg(g=1,・・・,G)に係るM個の直線距離Lg,mを3次元モデルMDにフィッティングすることで、3次元モデルMDを運転者の顔を示す3次元モデルMDcus,gにカスタマイズする。
モデル調整部52は、M個の直線距離Lg,mの選択と3次元モデルMDに対する直線距離Lg,mのフィッティングとをG回繰り返すことで、3次元モデルMDから、G個の3次元モデルMDcus,1~MDcus,Gを生成する。
特徴量算出処理部43は、それぞれの3次元モデルMDcus,g(g=1,・・・,G)に基づいて、運転者の顔の特徴量Vg,j(g=1,・・・,G:j=1,・・・,J)を算出する。
運転者の顔の特徴量Vg,jとしては、例えば、目の扁平率、又は、口角の角度がある。
差分算出部14は、以下の式(1)に示すように、基準特徴量Vjと特徴量Vg,jとの差分ΔVg,jを算出する(図6のステップST5)。
ΔV1,j=|Vj-V1,j|
ΔV2,j=|Vj-V2,j|
: (1)
ΔVG,j=|Vj-VG,j|
差分算出部14は、G×J個の差分ΔV1,1・・・ΔV1,J、ΔV2,1・・・ΔV2,J、ΔVG,1・・・ΔVG,Jを再算出指示部15及び乗員状態検出部16のそれぞれに出力する。
再算出指示部15は、G×J個の差分ΔV1,1・・・ΔV1,J、ΔV2,1・・・ΔV2,J、ΔVG,1・・・ΔVG,Jのうち、或るjについてのG個の差分ΔV1,j~ΔVG,jに着目する。
再算出指示部15は、G個の差分ΔV1,j~ΔVG,jのそれぞれと第1の閾値Vth1とを比較し、G個の差分ΔV1,j~ΔVG,jの中で、第1の閾値Vth1以上である差分の個数Cjを計数する。
再算出指示部15は、以下の式(2)に示すように、G個の差分ΔV1,j~ΔVG,jの中で、第1の閾値Vth1以上である差分の割合Rjを算出する。
Rj=(Cj/G)×100(2)
再算出指示部15は、それぞれのjについての割合Rj(j=1,・・・,J)を算出する。
一方、第1の特徴量算出部12により基準特徴量Vjが算出された後の一定期間FCPが、例えば、数分単位の一定期間であれば、一定期間FCPにおいて、真顔の表情が現れる割合R0は、笑顔の表情、泣顔の表情、又は、怒り顔の表情が現れる割合よりも大きくなることが想定される。運転者が、一定期間FCPにおいて、笑う機会が多い場合、真顔の表情が現れる割合R0が減少する。しかし、その場合でも、真顔の表情が現れる割合R0は、笑顔の表情が現れる割合よりも大きくなることが想定される。
したがって、例えば、第2の閾値Vth2が割合R0よりも大きな値である場合、第1の特徴量算出部12により算出された基準特徴量Vjが、顔の表情が無表情であるときの運転者の顔の特徴量であれば、再算出指示部15により算出される割合Rj(j=1,・・・,J)は、第2の閾値Vth2未満になる。
一方、第1の特徴量算出部12により算出された基準特徴量Vjが、顔の表情が無表情ではないときの運転者の顔の特徴量であれば、再算出指示部15により算出される割合Rj(j=1,・・・,J)は、第2の閾値以上になる。
第1の特徴量算出部12は、再算出指示部15から、基準特徴量Vjの再算出の指示を受けると、車内映像取得部11から、N個の映像データP1~PNを新たに取得し、新たに取得した映像データPn(n=1,・・・,N)が示す車内映像に基づいて、基準特徴量Vjを再算出する(図6のステップST1,ST2)。第1の特徴量算出部12は、基準特徴量Vjを差分算出部14に出力する。
乗員状態検出部16は、再算出指示部15から第1の特徴量算出部12への再算出の指示がなく、基準特徴量Vjが既に正しい値に設定されていれば、差分ΔVg,jに基づいて、乗員の状態を検出する。
即ち、乗員状態検出部16は、差分ΔVg,jと状態検出用閾値とを比較する。状態検出用閾値は、乗員状態検出部16の内部メモリに格納されていてもよいし、乗員状態推定装置2の外部から与えられるものであってもよい。
乗員状態検出部16は、差分ΔVg,jが状態検出用閾値以上であれば、乗員の状態が変化しているものと判断する。
乗員状態検出部16は、差分ΔVg,jが状態検出用閾値未満であれば、乗員の状態が変化していないものと判断する。
図1に示す乗員状態推定装置2では、差分ΔVg,jが状態検出用閾値以上であれば、乗員状態検出部16が、乗員の状態が変化しているものと判断している。しかし、これは一例に過ぎず、或るjについての差分ΔVg,jが状態検出用閾値以上である期間が所定時間以上であるとき、乗員状態検出部16が、乗員の状態が変化しているものと判断するようにしてもよい。
このような場合、乗員状態検出部16は、乗員の状態として、運転者が眠気を生じているときの表情を検出することが可能である。即ち、運転者が眠気を生じていない状況では、通常、運転者は、目を大きく開いているので、基準特徴量Vjである目の扁平率は大きい。一方、運転者が眠気を生じている状況では、運転者は、目を閉じている、あるいは、目を細めているので、特徴量Vg,jである目の扁平率は小さい。したがって、基準特徴量Vj及び特徴量Vg,jのそれぞれが、目の扁平率であれば、乗員の状態として、運転者が眠気を生じているときの表情を検出することが可能である。
また、基準特徴量Vjが、運転者の姿勢が崩れていないときに撮影された車内映像に基づいて算出されたものであれば、乗員状態検出部16は、乗員の状態として、運転者の姿勢が崩れている状態、車両の環境が変化している状態、又は、運転者の体調が急変している状態等を検出することが可能である。
また、乗員状態検出部16は、乗員の状態として、乗員の表情の変化を検出することができるので、乗員の感情を推定することが可能である。
乗員状態検出部16が、乗員の状態の検出結果を、例えば、車両制御装置に出力することで、居眠り運転の警告を提示するだけでなく、車両の緊急退避処理を実行させることができる。
また、図1に示す乗員状態推定装置2では、第2の特徴量算出部13が、運転者の顔の基準点Cgから、運転者の顔パーツに含まれているM個のパーツ構成点Kg,mまでの直線距離Lg,mをそれぞれ算出し、それぞれの直線距離Lg,mを用いて、特徴量Vg,jを算出している。しかし、これは一例に過ぎず、例えば、第2の特徴量算出部13が、特徴量として、それぞれの直線距離Lg,mを算出するようにしてもよい。
第1の特徴量算出部12によって、先に算出された基準特徴量Vjが、顔の表情が無表情でないときに撮影された車内映像に基づいて算出されたものである場合、第1の閾値Vth1以上である差分に係る車内映像は、顔の表情が無表情であるときに撮影された車内映像である可能性が高い。
実施の形態2では、車両の状態を示す車両情報を取得する車両情報取得部17を備えている乗員状態推定装置2について説明する。
図10は、実施の形態2に係る乗員状態推定装置2のハードウェアを示すハードウェア構成図である。図10において、図2と同一符号は同一又は相当部分を示すので説明を省略する。
乗員状態推定装置2は、車両情報取得部17、車内映像取得部11、第1の特徴量算出部18、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16を備えている。
実施の形態2では、乗員状態推定装置2は、車両に乗車している乗員のうち、運転者の表情の変化を検出する。しかし、これは一例に過ぎず、乗員状態推定装置2が、車両に乗車している乗員のうち、助手席に座っている乗員、又は、後部座席に座っている乗員の表情の変化を検出するものであってもよい。
車両情報取得部17は、例えば、車両の制御回路から、車両の状態を示す車両情報を取得する。
車両情報取得部17は、車両情報を第1の特徴量算出部18に出力する。
第1の特徴量算出部18は、車両情報取得部17から、車両情報を取得する。
第1の特徴量算出部18は、車両情報取得部17により取得された車両情報が示す車両の状態が或る状態であるときに、車内映像取得部11により取得された映像データを取得する。
第1の特徴量算出部18は、基準特徴量として、取得した映像データが示す車内映像に映っている運転者の顔の特徴量を算出する。
第1の特徴量算出部18は、基準特徴量を差分算出部14に出力する。
車両情報取得回路27、車内映像取得回路21、第1の特徴量算出回路28、第2の特徴量算出回路23、差分算出回路24、再算出指示回路25及び乗員状態検出回路26のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
乗員状態推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、車両情報取得部17、車内映像取得部11、第1の特徴量算出部18、第2の特徴量算出部13、差分算出部14、再算出指示部15及び乗員状態検出部16におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図3に示すメモリ31に格納される。そして、図3に示すプロセッサ32がメモリ31に格納されているプログラムを実行する。
車両情報取得部17は、例えば、車両の制御回路から、車両の状態を示す車両情報を取得する。車両情報としては、例えば、車両のシフトを示す情報、車両の速度を示す情報、又は、車両の舵角を示す情報がある。
車両情報取得部17は、車両情報を第1の特徴量算出部18に出力する。
第1の特徴量算出部18は、例えば、車両情報が示す車両の状態が、或る状態であるときに、カメラ1により撮影された車内映像を示すN個の映像データP1~PNを車内映像取得部11から取得する。
即ち、第1の特徴量算出部18は、例えば、車両情報が示す車両の状態が、車両のシフトがドライブシフトである状態、車両の速度が第3の閾値以上である状態、あるいは、車両の舵角が第4の閾値以内である状態であるときに、カメラ1により撮影された車内映像を示すN個の映像データP1~PNを車内映像取得部11から取得する。
第3の閾値及び第4の閾値のそれぞれは、第1の特徴量算出部18の内部メモリに格納されていてもよいし、乗員状態推定装置2の外部から与えられるものであってもよい。
以降、第1の特徴量算出部18は、図1に示す第1の特徴量算出部12と同様に、映像データPn(n=1,・・・,N)が示す車内映像に基づいて、基準特徴量Vjを算出する。
したがって、車両情報が示す車両の状態が、車両のシフトがドライブシフトである状態、車両の速度が第3の閾値以上である状態、あるいは、車両の舵角が第4の閾値以内である状態のときは、運転者の顔の表情が真顔の表情である可能性が高い。
Claims (8)
- 車両の内部の映像である車内映像を取得する車内映像取得部と、
基準特徴量として、前記車内映像取得部により取得された車内映像に映っている、前記車両に乗車している乗員の顔の特徴量を算出する第1の特徴量算出部と、
前記第1の特徴量算出部により基準特徴量が算出された後に、前記車内映像取得部により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている前記乗員の顔の特徴量を算出する第2の特徴量算出部と、
前記第1の特徴量算出部により算出された基準特徴量と前記第2の特徴量算出部により算出されたそれぞれの特徴量との差分を算出する差分算出部と、
前記差分算出部により算出された複数の差分のうち、前記第1の特徴量算出部により基準特徴量が算出された後の一定期間内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、前記基準特徴量の再算出を前記第1の特徴量算出部に指示する再算出指示部と
を備えた乗員状態推定装置。 - 前記再算出指示部から前記第1の特徴量算出部への再算出の指示がなければ、前記差分算出部により算出されたそれぞれの差分に基づいて、前記乗員の状態を検出する乗員状態検出部を備えたことを特徴とする請求項1記載の乗員状態推定装置。
- 前記車内映像取得部は、撮影時刻が互いに異なる複数の車内映像を取得し、
前記第1の特徴量算出部は、
前記車内映像取得部により取得されたそれぞれの車内映像に映っている前記乗員の顔の特徴量を算出し、算出した複数の特徴量から、前記基準特徴量を算出することを特徴とする請求項1記載の乗員状態推定装置。 - 前記第1の特徴量算出部は、
前記車内映像取得部により取得された車内映像に映っている乗員の顔の基準点から、前記乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する直線距離算出部と、
前記直線距離算出部により算出されたそれぞれの直線距離を顔の3次元モデルにフィッティングすることで、当該3次元モデルを前記乗員の顔を示す3次元モデルにカスタマイズするモデル調整部と、
前記モデル調整部によるカスタマイズ後の3次元モデルに基づいて、前記基準特徴量として、前記乗員の顔の特徴量を算出する特徴量算出処理部とを備えていることを特徴とする請求項1記載の乗員状態推定装置。 - 前記第2の特徴量算出部は、
前記第1の特徴量算出部により基準特徴量が算出された後に、前記車内映像取得部により取得されたそれぞれの車内映像に映っている乗員の顔の基準点から、前記乗員の顔パーツに含まれている複数のパーツ構成点までの直線距離をそれぞれ算出する直線距離算出部と、
前記直線距離算出部により算出されたそれぞれの直線距離を顔の3次元モデルにフィッティングすることで、当該3次元モデルを前記乗員の顔を示す3次元モデルにカスタマイズするモデル調整部と、
前記モデル調整部によるカスタマイズ後の3次元モデルに基づいて、前記乗員の顔の特徴量を算出する特徴量算出処理部とを備えていることを特徴とする請求項1記載の乗員状態推定装置。 - 前記車両の状態を示す車両情報を取得する車両情報取得部を備え、
前記第1の特徴量算出部は、
前記車両情報取得部により取得された車両情報が示す車両の状態が或る状態であるときに前記車内映像取得部により取得された車内映像を取得し、前記基準特徴量として、当該車内映像に映っている前記乗員の顔の特徴量を算出することを特徴とする請求項1記載の乗員状態推定装置。 - 前記或る状態は、
前記車両のシフトがドライブシフトである状態、前記車両の速度が第3の閾値以上である状態、あるいは、前記車両の舵角が第4の閾値以内である状態であり、
前記第1の特徴量算出部は、
前記車両情報取得部により取得された車両情報が示す車両の状態が前記或る状態であるときに前記車内映像取得部により取得された車内映像を取得し、前記基準特徴量として、当該車内映像に映っている前記乗員の顔の特徴量を算出することを特徴とする請求項6記載の乗員状態推定装置。 - 車内映像取得部が、車両の内部の映像である車内映像を取得し、
第1の特徴量算出部が、基準特徴量として、前記車内映像取得部により取得された車内映像に映っている、前記車両に乗車している乗員の顔の特徴量を算出し、
第2の特徴量算出部が、前記第1の特徴量算出部により基準特徴量が算出された後に、前記車内映像取得部により取得された、撮影時刻が互いに異なる複数の車内映像のそれぞれに映っている前記乗員の顔の特徴量を算出し、
差分算出部が、前記第1の特徴量算出部により算出された基準特徴量と前記第2の特徴量算出部により算出されたそれぞれの特徴量との差分を算出し、
再算出指示部が、前記差分算出部により算出された複数の差分のうち、前記第1の特徴量算出部により基準特徴量が算出された後の一定期間内に算出された複数の差分の中で、第1の閾値以上である差分の割合が第2の閾値以上であれば、前記基準特徴量の再算出を前記第1の特徴量算出部に指示する
乗員状態推定方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/020600 WO2023223443A1 (ja) | 2022-05-18 | 2022-05-18 | 乗員状態推定装置及び乗員状態推定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023223443A1 JPWO2023223443A1 (ja) | 2023-11-23 |
JP7504326B2 true JP7504326B2 (ja) | 2024-06-21 |
Family
ID=88834871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024519511A Active JP7504326B2 (ja) | 2022-05-18 | 2022-05-18 | 乗員状態推定装置及び乗員状態推定方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7504326B2 (ja) |
WO (1) | WO2023223443A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146137A (ja) | 2006-12-06 | 2008-06-26 | Seiko Epson Corp | 画像認識装置、電子機器、画像認識方法、制御プログラム及び記録媒体 |
WO2018150485A1 (ja) | 2017-02-15 | 2018-08-23 | 三菱電機株式会社 | 運転状態判定装置および運転状態判定方法 |
JP2020163660A (ja) | 2019-03-29 | 2020-10-08 | コニカミノルタ株式会社 | 画像形成装置 |
-
2022
- 2022-05-18 JP JP2024519511A patent/JP7504326B2/ja active Active
- 2022-05-18 WO PCT/JP2022/020600 patent/WO2023223443A1/ja unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146137A (ja) | 2006-12-06 | 2008-06-26 | Seiko Epson Corp | 画像認識装置、電子機器、画像認識方法、制御プログラム及び記録媒体 |
WO2018150485A1 (ja) | 2017-02-15 | 2018-08-23 | 三菱電機株式会社 | 運転状態判定装置および運転状態判定方法 |
JP2020163660A (ja) | 2019-03-29 | 2020-10-08 | コニカミノルタ株式会社 | 画像形成装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023223443A1 (ja) | 2023-11-23 |
WO2023223443A1 (ja) | 2023-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3033999B1 (en) | Apparatus and method for determining the state of a driver | |
US11084424B2 (en) | Video image output apparatus, video image output method, and medium | |
WO2017208529A1 (ja) | 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体 | |
JP7118136B2 (ja) | 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法 | |
US11453401B2 (en) | Closed eye determination device | |
US10664712B2 (en) | Eyelid opening/closing determination apparatus and drowsiness detection apparatus | |
US20190382026A1 (en) | Drowsiness prevention device, drowsiness prevention method, and recording medium | |
US20220284718A1 (en) | Driving analysis device and driving analysis method | |
JP7240910B2 (ja) | 乗員観察装置 | |
CN113365556B (zh) | 情绪推定装置及情绪推定方法 | |
CN115439832A (zh) | 监测车辆乘员的方法和系统 | |
JP7504326B2 (ja) | 乗員状態推定装置及び乗員状態推定方法 | |
JP2016115120A (ja) | 開閉眼判定装置および開閉眼判定方法 | |
JP6982767B2 (ja) | 検知装置、学習装置、検知方法、学習方法、およびプログラム | |
JP7267467B2 (ja) | 注意方向判定装置および注意方向判定方法 | |
JP6572841B2 (ja) | 情報処理装置及びプログラム | |
JP2022038225A (ja) | 顔情報取得装置および顔情報取得方法 | |
JP3812355B2 (ja) | 運転注意力検出装置および居眠り運転検出装置 | |
WO2022144948A1 (ja) | 覚醒度推論装置、覚醒度推論方法、覚醒度学習装置、及び覚醒度学習方法 | |
JP7374373B2 (ja) | 体格判定装置および体格判定方法 | |
JP7359084B2 (ja) | 感情推定装置、感情推定方法及びプログラム | |
US20230102610A1 (en) | Image extraction device, vehicle, image extraction system, image extraction method, and storage medium storing image extraction program | |
WO2024071298A1 (ja) | 運転支援装置 | |
JP7348005B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP7286022B2 (ja) | 乗員状態検出装置および乗員状態検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240329 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7504326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |