WO2023242886A1 - 顔向き推定装置、脇見判断システム、及び顔向き推定方法 - Google Patents
顔向き推定装置、脇見判断システム、及び顔向き推定方法 Download PDFInfo
- Publication number
- WO2023242886A1 WO2023242886A1 PCT/JP2022/023559 JP2022023559W WO2023242886A1 WO 2023242886 A1 WO2023242886 A1 WO 2023242886A1 JP 2022023559 W JP2022023559 W JP 2022023559W WO 2023242886 A1 WO2023242886 A1 WO 2023242886A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- occupant
- unit
- nose
- calculation unit
- calculates
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- NOQGZXFMHARMLW-UHFFFAOYSA-N Daminozide Chemical compound CN(C)NC(=O)CCC(O)=O NOQGZXFMHARMLW-UHFFFAOYSA-N 0.000 description 1
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 1
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Abstract
顔向き推定装置(KS)は、車両内の乗員(JI)の画像(GZ)を撮影する撮影部(SE)と、前記乗員(JI)の画像(GZ)に基づき、前記乗員(JI)の両眼間の第1の距離(KR1)を算出する第1の算出部(SS1)と、前記乗員(JI)の画像(GZ)に基づき、鼻(HN)の位置を視認することが困難である人が撮影された複数の画像(GZ)と前記人の鼻(HN)の位置との関係が学習された学習済みモデル(GM)を参照することにより、前記乗員(JI)の鼻(HN)の位置を推論する推論部(SR)と、前記推論された乗員(JI)の鼻(HN)の位置と前記乗員(JI)の両眼間の中点との間の第2の距離(KR2)を算出する第2の算出部(SS2)と、前記第1の算出部(SS1)により算出された第1の距離(KR1)と前記第2の算出部(SS2)により算出された第2の距離(KR2)との比(HI)を算出する第3の算出部(SS3)と、前記第3の算出部(SS3)により算出された比(HI)を予め定められた基準値(KJ)と比較する比較部(HK)と、前記比較部(HK)による比較の結果に基づき、前記推論部(SR)により推論された前記乗員(JI)の鼻(HN)の位置の当否を推定する推定部(ST)と、を含む。
Description
本開示は、顔向き推定装置、脇見判断システム、及び顔向き推定方法に関する。
本開示に係る顔向き推定装置と車両のドライバの顔の向きを検出する点で共通する特許文献1に記載のドライバモニタ装置は、前記ドライバの顔の向きを、例えば、前記ドライバの左右の目尻を結ぶ線の距離と、前記ドライバの鼻尖点から前記線へ下した垂線との交点と前記鼻尖点とを結ぶ線の距離との比を用いて検出する。
しかしながら、上記した顔向き推定装置は、例えば、前記ドライバがマスクを装着しているとき、前記マスクにより覆われている前記鼻尖点の位置を検出することができないとの課題があった。
本開示の目的は、車両内の乗員の、視認することが困難である鼻の推論された位置が妥当であるか否かを推定する顔向き推定装置、脇見判断システム、及び顔向き推定方法を提供することにある。
上記した課題を解決すべく、本開示に係る顔向き推定装置は、車両内の乗員の画像を撮影する撮影部と、乗員の画像に基づき、乗員の両眼間の第1の距離を算出する第1の算出部と、乗員の画像に基づき、鼻の位置を視認することが困難である人が撮影された複数の画像と人の鼻の位置との関係が学習された学習済みモデルを参照することにより、乗員の鼻の位置を推論する推論部と、推論された乗員の鼻の位置と乗員の両眼間の中点との間の第2の距離を算出する第2の算出部と、第1の算出部により算出された第1の距離と第2の算出部により算出された第2の距離との比を算出する第3の算出部と、第3の算出部により算出された比を予め定められた基準値と比較する比較部と、比較部による比較の結果に基づき、推論部により推論された乗員の鼻の位置の当否を推定する推定部と、を含む。
本開示に係る顔向き推定装置によれば、車両内の乗員の、視認することが困難である鼻の推論された位置が妥当であるか否かを推定することができる。
本開示に係る顔向き推定装置の実施形態について説明する。
実施形態1.
〈実施形態1〉
実施形態1の顔向き推定装置KSについて説明する。
〈実施形態1〉
実施形態1の顔向き推定装置KSについて説明する。
〈実施形態1の機能〉
図1は、実施形態1の顔向き推定装置KSの機能ブロック図である。
図1は、実施形態1の顔向き推定装置KSの機能ブロック図である。
図2は、実施形態1の乗員JIの第1の距離KR1、第2の距離KR2、及び比HIを示す。
図3は、実施形態1の乗員JIの黒立体マスクMAを示す。
実施形態1の顔向き推定装置KSの機能について、図1~図3を参照して説明する。
実施形態1の顔向き推定装置KSは、図1に示されるように、撮影部SEと、第1の算出部SS1と、推論部SRと、第2の算出部SS2と、第3の算出部SS3と、比較部HKと、推定部STと、を含む。顔向き推定装置KSは、また、図1に示されるように、学習済みモデルGMと、基準値KJと、を含む。
撮影部SEは、「撮影部」に対応し、第1の算出部SS1は、「第1の算出部」に対応し、推論部SRは、「推論部」に対応し、第2の算出部SS2は、「第2の算出部」に対応し、第3の算出部SS3は、「第3の算出部」に対応し、比較部HKは、「比較部」に対応し、推定部STは、「推定部」に対応する。
撮影部SEは、自動車等の車両SY(図示せず。)に搭乗する乗員JI(例えば、図1に図示。)の画像GZ(図1に図示。)を撮影する。撮影部SEは、より詳しくは、例えば、黒立体マスクMA(図3A、図3Bに図示。)を装着しており、鼻HN(図2に図示。)の位置を視認することが困難である乗員JIの画像GZを撮影する。撮影部SEは、例えば、黒立体マスクMAが本来の位置(図3Aに図示。)である乗員JIの画像GZ、及び、黒立体マスクMAが下方にずれた位置(図3Bに図示。)である乗員JIの画像GZを撮影する。ここで、「鼻HNの位置を視認することが困難である」とは、上述した、鼻HNが黒立体マスクMAにより覆われていることに加えて、例えば、鼻HNが白立体マスクにより覆われていること、車両SYの室内が暗いこと、即ち照度、輝度等が低いために鼻HNの周辺が暗いことに起因して、例えば、画像認識、画像分析等の手法によっては、鼻HNの位置を特定することが困難であることをいう。
ここで、鼻HNの位置とは、例えば、鼻HNの全体的な位置、及び鼻HNの部分的な位置(例えば、鼻HNの鼻尖の位置、鼻HNの鼻梁の位置、鼻HNの鼻根の位置、鼻HNの鼻翼の位置)をいう。
第1の算出部SS1は、乗員JIの画像GZに基づき、乗員JIの両眼間の距離である第1の距離KR1(図1、図2に図示。)を算出する。
推論部SRは、学習済みモデルGMを参照することにより、撮影された画像GZ中の乗員JIの鼻HNの位置を推論する。学習済みモデルGMには、乗員JIを含むか否かに拘わらず、鼻の位置を視認することが困難である人が撮影された複数の画像と前記の人の鼻の位置との関係が予め学習されている。
第2の算出部SS2は、推論部SRにより推論された乗員JIの鼻HNの位置と、乗員JIの両眼の中点との間の距離である第2の距離KR2(図1、図2に図示。)を算出する。
第3の算出部SS3は、第1の算出部SS1により算出された第1の距離KR1と、第2の算出部SS2により算出された第2の距離KR2との比HI(図1、図2に図示。)を算出する。
比較部HKは、第3の算出部SS3により算出された比HIを基準値KJと比較する。基準値KJは、例えば、上記した複数の人についての複数の比HIを分析することにより得られた、予め定められた値である。
推定部STは、比較部HKによる上記した比較の結果に基づき、推論部SRにより推論された乗員JIの鼻HNの位置の当否、即ち、推論された鼻HNの位置が妥当であるか否かを推定する。
〈実施形態1のハードウェア構成〉
図4は、実施形態1の顔向き推定装置KSのハードウェア構成を示す。
図4は、実施形態1の顔向き推定装置KSのハードウェア構成を示す。
実施形態1の顔向き推定装置KSは、上述した機能を果たすべく、図4に示されるように、プロセッサPと、メモリMと、記憶媒体Kと、を含み、必要に応じて、入力部Nと、出力部Sと、更に含む。
プロセッサPは、ソフトウェアに従ってハードウェアを動作させる、よく知られたコンピュータの中核である。メモリMは、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)から構成される。記憶媒体Kは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、ROM(Read Only Memory)から構成される。記憶媒体Kは、プログラムPRを記憶する。プログラムPRは、プロセッサPが実行すべき処理の内容を規定する命令群である。
入力部N及び出力部Sは、例えば、顔向き推定装置KSの外部との間でプロセッサPの動作に関連する入力信号NS及び出力信号SSをやりとりするための入力用インターフェイス及び出力用インターフェイスから構成される。
顔向き推定装置KSにおける機能とハードウェア構成との関係については、ハードウェア上で、プロセッサPが、記憶媒体Kに記憶されたプログラムPRを、メモリMを用いて実行すると共に、必要に応じて、入力部N及び出力部Sの動作を制御することにより、撮影部SE~推定部STの各部の機能を実現する。
〈実施形態1の動作〉
図5は、実施形態1の顔向き推定装置KSの動作を示すフローチャートである。実施形態1の顔向き推定装置KSの動作について、図5のフローチャートを参照して説明する。
図5は、実施形態1の顔向き推定装置KSの動作を示すフローチャートである。実施形態1の顔向き推定装置KSの動作について、図5のフローチャートを参照して説明する。
以下では、説明及び理解を容易にすべく、車両SYの乗員JIが、黒立体マスクMA(図3A、図3Bに図示。)を装着しており、鼻HN(図2に図示。)の位置を視認することが困難であることを想定する。
ステップST11:撮影部SE(図1に図示。)は、車両SYの乗員JIの画像GZを撮影する。
ステップST12:第1の算出部SS1(図1に図示。)は、撮影部SEにより撮影された画像GZに基づき、乗員JIの両眼の間の距離である第1の距離KR1(図1、図2に図示。)を算出する。
ステップST13:推論部SR(図1に図示。)は、乗員JIの画像GZに基づき、学習済みモデルGM(図1に図示。)を参照することにより、乗員JIの鼻HNの位置を推論する。
ステップST14:第2の算出部SS2(図1に図示。)は、推論部SRにより推論された鼻HNの位置と乗員JIの両眼間の中点との間の距離である第2の距離KR2(図1、図2に図示。)を算出する。
ステップST15:第2の算出部SS2(図1に図示。)は、第1の算出部SS1により算出された第1の距離KR1(図1、図2に図示。)と第2の算出部SS2により算出された第2の距離KR2(図1、図2に図示。)との比HI(図1、図2に図示。)を算出する。
ステップST16:比較部HK(図1に図示。)は、第3の算出部SS3により算出された比HIと、基準値KJ(図1に図示。)とを比較する。
ステップST17:推定部ST(図1に図示。)は、比較部HKによる前記比較の結果に基づき、推論部SRにより推論された乗員JIの鼻HNの位置が妥当であるか否かを推定する。
〈実施形態1の効果〉
上述したように、実施形態1の顔向き推定装置KSでは、乗員JIの両眼間の第1の距離KR1と、乗員JIの画像GZに基づき推論された乗員JIの鼻HNの位置及び乗員JIの両眼間の中点間の第2の距離KR2との比HIを基準値KJと比較することにより、推論された鼻HNの位置が妥当であるか否かを推定する。これにより、乗員JIの視認することが困難である鼻HNの位置であって推論された鼻HNの位置が妥当であるか否かを推定することができる。
上述したように、実施形態1の顔向き推定装置KSでは、乗員JIの両眼間の第1の距離KR1と、乗員JIの画像GZに基づき推論された乗員JIの鼻HNの位置及び乗員JIの両眼間の中点間の第2の距離KR2との比HIを基準値KJと比較することにより、推論された鼻HNの位置が妥当であるか否かを推定する。これにより、乗員JIの視認することが困難である鼻HNの位置であって推論された鼻HNの位置が妥当であるか否かを推定することができる。
〈変形例〉
図6は、実施形態1の変形例の画像GZを示す。
図6は、実施形態1の変形例の画像GZを示す。
変形例の顔向き推定装置KSでは、第3の算出部SS3が、撮影部SEにより撮影された、車両SYの乗員JIについての複数枚の画像GZ、例えば、予め定められたn(nは、2以上の整数)枚の画像GZ(1)、GZ(2)、GZ(3)、、、、GZ(n)の各画像GZ毎に、比HI(図1、図2に図示。)を算出してもよく、特に、第3の算出部SS3が、n枚の各画像GZの比HI、即ち、n個の比HIを平均することによりn個の比HIの平均値を算出してもよい。推定部STが、n個の比HIの平均値を用いることにより、例えば、乗員JIが一時的に脇見をし、又は一時的に俯くときに生じ得る、推論部SRにより推論される乗員JIの鼻HNの位置が大きく変動することに起因する、推定部STによる推定への悪影響を低減することが可能となる。
実施形態2.
〈実施形態2〉
実施形態2の顔向き推定装置KSについて説明する。
〈実施形態2〉
実施形態2の顔向き推定装置KSについて説明する。
〈実施形態2の機能〉
図7は、実施形態2の顔向き推定装置KSの機能ブロック図である。
図7は、実施形態2の顔向き推定装置KSの機能ブロック図である。
図8は、実施形態2の乗員JIの顔向きKM及び顔向き角度KKを示す。
実施形態2の顔向き推定装置KSの機能について、図7及び図8を参照して説明する。
実施形態2の顔向き推定装置KSは、例えば、黒立体マスクMAがずれた位置(図3Bに図示。)にあることに起因して、乗員JIの顔向きがあたかも下方に俯いているかのようであり(図8Bに図示。)、その結果、乗員JIの鼻HNが本来の位置に比して下方の位置にあると誤判断することを抑制することを目的とする。
実施形態2の顔向き推定装置KSは、図7に示されるように、実施形態1の顔向き推定装置KS(図1に図示。)と同様に、撮影部SEと、第1の算出部SS1と、第2の算出部SS2と、第3の算出部SS3と、比較部HKと、推定部STと、を含む。実施形態2の顔向き推定装置KSは、また、図7に示されるように、実施形態1の顔向き推定装置KSと同様に、学習済みモデルGMと、基準値KJと、を含む。
実施形態2の顔向き推定装置KSは、図7に示されるように、他方で、実施形態1の顔向き推定装置KSと相違し、第4の算出部SS4と、補正部HSと、を更に含む。
第4の算出部SS4は、「第4の算出部」に対応し、「補正部HS」は、「補正部」に対応する。
第4の算出部SS4は、比HI(図2、図7に図示。)及び基準値KJ(図7に図示。)に基づき、乗員JIの顔向きの角度KK(以下、「顔向き角度KK」という。)、例えば、水平方向SUを基準とする、黒立体マスクMAがずれた位置(図3Bに図示。)にあることに起因して乗員JIの顔が下方に傾いているかのようである(図8Bに図示。)角度、いわゆるピッチ角度を算出する。
第4の算出部SS4は、比HIが基準値KJに比してやや小さいとき、換言すれば、第2の距離KR2がやや小さいかのように撮影されているとき、例えば、乗員JIの顔がやや下方を向いているかのような角度がα(図示せず。)であると算出する。
他方で、第4の算出部SS4は、比HIが基準値KJに比して極めて小さいとき、換言すれば、第2の距離KR2が極めて小さいかのように撮影されているとき、例えば、乗員JIの顔が極めて下方を向いているかのような角度がβ(図示せず。βの絶対値>αの絶対値)であると算出する。
角度βの絶対値>角度αの絶対値であるとき、前者の角度βにおける、推論された鼻HNの位置が妥当でない程度は、後者の角度αにおける、推論された鼻HNの位置が妥当でない程度より、大きい。
補正部HSは、推定部STにより、推論部SRにより推論された乗員JIの鼻HNの位置が妥当でないと推定されたとき、乗員JIの鼻HNの位置が妥当でない程度に応じて、第4の算出部SS4により算出された乗員JIの顔向き角度KKを補正する。補正部HSは、より詳しくは、黒立体マスクMAがずれた位置にあることに起因する乗員JIの顔向きKM(図8Bに図示。)が本来の乗員JIの顔向きKM(図8Aに図示。)に近付くように、上記した乗員JIの鼻HNの位置が妥当でない程度がより大きいほど、乗員JIの顔向き角度KKをより大きく補正する。
〈実施形態2のハードウェア構成〉
実施形態2の顔向き推定装置KSのハードウェア構成は、実施形態1の顔向き推定装置KSのハードウェア構成(図4に図示。)と同様であえる。
実施形態2の顔向き推定装置KSのハードウェア構成は、実施形態1の顔向き推定装置KSのハードウェア構成(図4に図示。)と同様であえる。
〈実施形態2の動作〉
図9は、実施形態2の顔向き推定装置KSの動作を示すフローチャートである。実施形態2の顔向き推定装置KSの動作について、図9のフローチャートを参照して説明する。
図9は、実施形態2の顔向き推定装置KSの動作を示すフローチャートである。実施形態2の顔向き推定装置KSの動作について、図9のフローチャートを参照して説明する。
ステップST21~ステップST25:実施形態1のステップST11~ST15(図5に図示。)と同様に、撮影部SEが乗員JIの画像を撮影し、第1の算出部SS1が第1の距離KR1を算出し、推論部SRが乗員JIの鼻HNの位置を推論し、第2の算出部SS2が第2の距離KR2を算出し、第3の算出部SS3が比HIを算出する。
ステップST26:比較部HKは(図7に図示。)、比HIと基準値KJとを比較する。図9に示されるように、比HIが基準値KJより小さくないとき、即ち、推論部SRにより推論された乗員JIの鼻HNの位置が妥当であるとき(「NO」のとき)、処理は、ステップST27へ進む。他方で、比HIが基準値KJより小さいとき、即ち、推論部SRにより推論された乗員JIの鼻HNの位置が妥当でないとき(「YES」のとき)、処理は、ステップST28へ進む。
ステップST27:例えば、推定部ST(図1に図示。)は、推論部SRにより推論された乗員JIの鼻HNの位置をそのまま出力する。
ステップST28:第4の算出部SS4(図7に図示。)は、比HI(図2に図示。)及び基準値KJに基づき、乗員JIの顔向き角度KKを算出する。
ステップST29:補正部HS(図7に図示。)は、推論部SRにより推論された乗員JIの鼻HNの位置が妥当でない程度がより大きいほど、第4の算出部SS4により算出された乗員JIの顔向き角度KKを、黒立体マスクMAがずれた位置であることに起因する乗員JIの顔向きKM(図8Bに図示。)が乗員JIの本来の顔向きKM(図8Aに図示。)へ近付くように、より大きく補正する。
ステップST30:補正部HSは、補正された乗員JIの顔向き角度KK、即ち、補正された乗員JIの鼻HNの位置を出力する。
〈実施形態の効果〉
上述したように、実施形態2の顔向き推定装置KSでは、推論部SRにより推論された乗員JIの鼻HNの位置が妥当でない程度がより大きいほど、第4の算出部SS4により算出された乗員JIの顔向き角度KK(図8Bに図示。)を、黒立体マスクMAがずれた位置であることに起因する乗員JIの顔向きKM(図8Bに図示。)が乗員JIの本来の顔向きKM(図8Aに図示。)に近付くように、大きく補正する。これにより、例えば、乗員JIが装着する黒立体マスクMAが下方にずれていることに起因して、乗員JIの鼻HNの位置が本来の位置(図8Aに示唆。)よりも下方の位置(図8に示唆。)にあるとの誤認を抑制することができる。
上述したように、実施形態2の顔向き推定装置KSでは、推論部SRにより推論された乗員JIの鼻HNの位置が妥当でない程度がより大きいほど、第4の算出部SS4により算出された乗員JIの顔向き角度KK(図8Bに図示。)を、黒立体マスクMAがずれた位置であることに起因する乗員JIの顔向きKM(図8Bに図示。)が乗員JIの本来の顔向きKM(図8Aに図示。)に近付くように、大きく補正する。これにより、例えば、乗員JIが装着する黒立体マスクMAが下方にずれていることに起因して、乗員JIの鼻HNの位置が本来の位置(図8Aに示唆。)よりも下方の位置(図8に示唆。)にあるとの誤認を抑制することができる。
実施形態3.
〈実施形態3〉
実施形態3の脇見判断システムについて説明する。
〈実施形態3〉
実施形態3の脇見判断システムについて説明する。
図10は、実施形態3の脇見判断システムWHの構成を示す。
実施形態3の脇見判断システムWHは、図10に示されるように、実施形態1又は実施形態2の顔向き推定装置KSと、脇見検出装置WKSと、脇見警報装置WKHと、を含む。
実施形態3の脇見判断システムWHでは、顔向き推定装置KSが、乗員JIの鼻HNの位置を推論し、また、必要に応じて補正し、脇見検出装置WKSが、乗員JIの鼻HNの位置に基づき、乗員JIが脇見をしているか否かを検出し、脇見警報装置WKHが、脇見検出装置WKSによる検出の結果に基づき、乗員JIが脇見をしている事実を、警報(例えば、表示及び警音)により、例えば、乗員JI本人に通知する。これにより、乗員JIが、乗員JIが搭乗する車両SYの運転に集中すべきことを促すことができる。
〈変形例〉
車両SYの運転者のみを撮像する撮影部SEを有する顔向き推定装置KSの場合、前記運転者の鼻HNの位置を視認することが困難であるとき、前記運転者が撮影された複数の画像GZが、実施形態で対象となる画像である。
車両SYの運転者のみを撮像する撮影部SEを有する顔向き推定装置KSの場合、前記運転者の鼻HNの位置を視認することが困難であるとき、前記運転者が撮影された複数の画像GZが、実施形態で対象となる画像である。
車両SY内全体等の、撮像範囲に運転者及び同乗者を含めて撮像する撮影部SEを有する顔向き推定装置KSの場合、車両SY内に鼻HNの位置を視認することが困難である人物が1名(例えば乗員A)のみ存在するときは、乗員Aが撮影された複数の画像が実施形態の対象となる画像である。
車両SY内全体等の、撮像範囲に運転者及び同乗者を含めて撮像する撮影部SEを有する顔向き推定装置KSの場合、車両SY内に鼻HNの位置を視認することが困難である人物が2名(例えば乗員A及び乗員B)存在するとき、乗員Aが撮影された複数の画像、及び乗員Bが撮影された複数の画像のそれぞれが、実施形態の対象となる画像である。車両SY内に鼻HNの位置を視認することが困難である人物が3名以上存在する場合も同様である。
本開示の要旨を逸脱しない範囲で、上述した実施形態同士を組み合わせてもよく、また、各実施形態中の構成要素を適宜、削除し、変更し、または、他の構成要素を追加してもよい。
本開示に係る顔向き推定装置は、車両内の乗員の、視認することが困難である鼻の推論された位置が妥当であるか否かを推定することに利用可能である。
GM 学習済みモデル、GZ 画像、HI 比、HK 比較部、HN 鼻、JI 乗員、KJ 基準値、KK 顔向き角度、KM 顔向き、KR1 第1の距離、KR2 第2の距離、KS 顔向き推定装置、MA 黒立体マスク、SE 撮影部、SR 推論部、SS1 第1の算出部、SS2 第2の算出部、SS3 第3の算出部、SS4 第4の算出部、ST 推定部。
Claims (6)
- 車両内の乗員の画像を撮影する撮影部と、
前記乗員の画像に基づき、前記乗員の両眼間の第1の距離を算出する第1の算出部と、
前記乗員の画像に基づき、鼻の位置を視認することが困難である人が撮影された複数の画像と前記人の鼻の位置との関係が学習された学習済みモデルを参照することにより、前記乗員の鼻の位置を推論する推論部と、
前記推論された乗員の鼻の位置と前記乗員の両眼間の中点との間の第2の距離を算出する第2の算出部と、
前記第1の算出部により算出された第1の距離と前記第2の算出部により算出された第2の距離との比を算出する第3の算出部と、
前記第3の算出部により算出された比を予め定められた基準値と比較する比較部と、
前記比較部による比較の結果に基づき、前記推論部により推論された前記乗員の鼻の位置の当否を推定する推定部と、
を含む顔向き推定装置。 - 前記第3の算出部は、前記撮影部により撮影された予め定められた数の複数の画像について前記比を計算する、
請求項1に記載の顔向き推定装置。 - 前記第3の算出部は、前記撮影部により撮影された予め定められた数の複数の画像について計算された前記比の平均値を算出する、
請求項2に記載の顔向き推定装置。 - 前記比及び前記基準値に基づき、前記乗員の顔向きの角度を算出する第4の算出部と、
前記推定部により、前記推論部により推論された前記乗員の鼻の位置が妥当でないと推定されたとき、前記妥当でない程度がより大きいほど、前記第4の算出部により算出された前記乗員の顔向きの角度を、前記乗員の顔向きが前記乗員の本来の顔向きに近付くように、大きく補正する補正部と、を更に含む、
請求項1に記載の顔向き推定装置。 - 請求項1に記載の顔向き推定装置と、
前記乗員の鼻の位置に基づき、前記乗員が脇見をしているか否かを検出する脇見検出装置と、
前記検出の結果に基づき、前記乗員が脇見をしている事実を警報により通知する脇見警報装置と、
を含む脇見判断システム。 - 撮影部が、車両内の乗員の画像を撮影し、
第1の算出部が、前記乗員の画像に基づき、前記乗員の両眼間の第1の距離を算出し、
推論部が、前記乗員の画像に基づき、鼻の位置を視認することが困難である人が撮影された複数の画像と前記人の鼻の位置との関係が学習された学習済みモデルを参照することにより、前記乗員の鼻の位置を推論し、
第2の算出部が、前記推論された乗員の鼻の位置と前記乗員の両眼間の中点との間の第2の距離を算出し、
第3の算出部が、前記第1の算出部により算出された第1の距離と前記第2の算出部により算出された第2の距離との比を算出し、
比較部が、前記第3の算出部により算出された比を予め定められた基準値と比較し、
推定部が、前記比較部による比較の結果に基づき、前記推論部により推論された前記乗員の鼻の位置の当否を推定する、
顔向き推定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/023559 WO2023242886A1 (ja) | 2022-06-13 | 2022-06-13 | 顔向き推定装置、脇見判断システム、及び顔向き推定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/023559 WO2023242886A1 (ja) | 2022-06-13 | 2022-06-13 | 顔向き推定装置、脇見判断システム、及び顔向き推定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023242886A1 true WO2023242886A1 (ja) | 2023-12-21 |
Family
ID=89192475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/023559 WO2023242886A1 (ja) | 2022-06-13 | 2022-06-13 | 顔向き推定装置、脇見判断システム、及び顔向き推定方法 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2023242886A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010157073A (ja) * | 2008-12-26 | 2010-07-15 | Fujitsu Ltd | 顔認識装置、顔認識方法及び顔認識プログラム |
WO2021156914A1 (ja) * | 2020-02-03 | 2021-08-12 | 三菱電機株式会社 | 注意方向判定装置および注意方向判定方法 |
JP2021193624A (ja) * | 2019-11-22 | 2021-12-23 | パイオニア株式会社 | 認識装置、認識方法及び認識プログラム |
-
2022
- 2022-06-13 WO PCT/JP2022/023559 patent/WO2023242886A1/ja unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010157073A (ja) * | 2008-12-26 | 2010-07-15 | Fujitsu Ltd | 顔認識装置、顔認識方法及び顔認識プログラム |
JP2021193624A (ja) * | 2019-11-22 | 2021-12-23 | パイオニア株式会社 | 認識装置、認識方法及び認識プログラム |
WO2021156914A1 (ja) * | 2020-02-03 | 2021-08-12 | 三菱電機株式会社 | 注意方向判定装置および注意方向判定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4728432B2 (ja) | 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム | |
US8760515B2 (en) | Image display apparatus with mapping based on passenger detection | |
CN104573623B (zh) | 人脸检测装置、方法 | |
JP4830650B2 (ja) | 追跡装置 | |
JP6573193B2 (ja) | 判定装置、判定方法、および判定プログラム | |
JP2010003117A (ja) | 対象物判定装置及びプログラム | |
CN109584300A (zh) | 一种确定车头朝向角度的方法及装置 | |
JP2011259152A (ja) | 運転支援装置 | |
US11061471B2 (en) | Screen estimation | |
JP2009265722A (ja) | 顔向き検知装置 | |
WO2023242886A1 (ja) | 顔向き推定装置、脇見判断システム、及び顔向き推定方法 | |
WO2018167995A1 (ja) | 運転者状態推定装置、及び運転者状態推定方法 | |
JP2010003116A (ja) | 対象物判定装置及びプログラム | |
JP5004923B2 (ja) | 車両の運転支援装置 | |
JP2006253787A (ja) | 画像入力装置及びこの装置を備えた車両の乗員監視装置 | |
US11919522B2 (en) | Apparatus and method for determining state | |
JP2020194227A (ja) | 顔遮蔽判定装置、顔遮蔽判定方法、顔遮蔽判定プログラム及び乗員監視システム | |
JP2001043377A (ja) | フェールセーフ機能を有する車外監視装置 | |
US20220383512A1 (en) | Tracking method for image generation, a computer program product and a computer system | |
JP2005081101A (ja) | 視線方向検出装置及び視線方向検出方法 | |
WO2024023868A1 (ja) | 体調異常検出装置及び体調異常検出方法 | |
JP2022006260A (ja) | 煽り運転検知プログラム、煽り運転検知装置、煽り運転検知システム | |
WO2021262166A1 (en) | Operator evaluation and vehicle control based on eyewear data | |
JP2021028803A (ja) | 基準位置決定装置 | |
JP2021105958A (ja) | ドライバ状態推定装置およびドライバ状態推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22946706 Country of ref document: EP Kind code of ref document: A1 |