JP7505660B2 - 乗員監視装置、乗員監視方法、及び乗員監視プログラム - Google Patents
乗員監視装置、乗員監視方法、及び乗員監視プログラム Download PDFInfo
- Publication number
- JP7505660B2 JP7505660B2 JP2024505692A JP2024505692A JP7505660B2 JP 7505660 B2 JP7505660 B2 JP 7505660B2 JP 2024505692 A JP2024505692 A JP 2024505692A JP 2024505692 A JP2024505692 A JP 2024505692A JP 7505660 B2 JP7505660 B2 JP 7505660B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- sensing
- occupant
- calibration
- imaging unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 93
- 238000000034 method Methods 0.000 title claims description 23
- 238000012544 monitoring process Methods 0.000 title claims description 9
- 238000003384 imaging method Methods 0.000 claims description 181
- 238000001514 detection method Methods 0.000 description 15
- 230000005477 standard model Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000006866 deterioration Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Description
本開示は、乗員監視装置、乗員監視方法、及び乗員監視プログラムに関する。
乗員監視装置は、車両内の乗員が撮像された撮像画像を取得し、取得した撮像画像を画像処理することにより、乗員に対する種々のセンシングを実施する。例えば特許文献1では、撮像画像を用いて運転者の視線方向を検出し、脇見運転の有無を判断することが記載されている。そして、特許文献1では、運転者の個体差に起因した視線方向の検出誤差を補正するためにキャリブレーションを実施することが記載されている。また、特許文献2には、撮像部の位置及び方向を計測し、計測した撮像部の位置及び方向に従いキャリブレーションを実施することが記載されている。
ここで、撮像部は一般的にステアリングコラム又はセンターコンソールに配置されている。しかしながら、ステアリングコラム及びセンターコンソールは撮像部以外にも多くの機器が配置されるため、撮像部のレイアウトに制限がある。そこで、ステアリングコラム及びセンターコンソールよりもレイアウトに余裕がある例えばルームミラー等の可動部に撮像部を配置することが考えられる。この場合、特許文献1又は特許文献2に記載の方法でキャリブレーションを実施しても、乗員がルームミラーの角度を修正した際に撮像部と乗員の位置関係が変化するため、センシング性能が低下するという課題が生じる。
本開示は、上述した課題を解決するためになされたものであり、撮像部が車両内の可動部に設けられた乗員監視装置において、撮像部の位置が変化したことに起因するセンシング性能の低下を抑制することを目的とするものである。
本開示に係る乗員監視装置は、車両内の可動部に設けられた撮像部により車両内が撮像された撮像画像を取得する画像取得部と、撮像画像の画像処理により、乗員の状態判定及び乗員の個人認証の少なくともいずれか一方であるセンシングを実施するセンシング部と、撮像部の位置に変化があるか否かを推定する位置推定部と、センシング部における画像処理に対するキャリブレーションを実施するキャリブレーション部と、位置推定部において撮像部の位置に変化があると推定された場合に、センシング部によるセンシングを実施させず、キャリブレーション部によるキャリブレーションを実施させる判断部とを備えたものである。
本開示に係る乗員監視方法は、車両内の可動部に設けられた撮像部により車両内が撮像された撮像画像を取得するステップと、撮像画像の画像処理により、乗員の状態判定及び乗員の個人認証の少なくともいずれか一方であるセンシングを実施するステップと、撮像部の位置に変化があるか否かを推定するステップと、画像処理に対するキャリブレーションを実施するステップと、撮像部の位置に変化があると推定された場合に、センシングを実施させず、キャリブレーションを実施させるステップとを備えたものである。
本開示に係る乗員監視プログラムは、車両内の可動部に設けられた撮像部により車両内が撮像された撮像画像を取得する手順と、撮像画像の画像処理により、乗員の状態判定及び乗員の個人認証の少なくともいずれか一方であるセンシングを実施する手順と、撮像部の位置に変化があるか否かを推定する手順と、画像処理に対するキャリブレーションを実施する手順と、撮像部の位置に変化があると推定された場合に、センシングを実施させず、キャリブレーションを実施させる手順とをコンピュータに実行させるものである。
本開示によれば、撮像部が車両内の可動部に設けられた乗員監視装置において、撮像部の位置に変化があると推定された場合に、センシングを実施させず、キャリブレーションを実施させることにより、撮像部の位置が変化したことに起因するセンシング性能の低下を抑制することができる。
実施の形態1.
実施の形態1における乗員監視装置2について図1を用いて説明する。図1は実施の形態1の乗員監視装置2を備えた車両1の一部を示すブロック図である。乗員監視装置2はドライバモニタリングシステム(DMS:Driver Monitoring System)であり、車両1内の乗員に対する画像処理により、乗員を対象とした種々のセンシングを行う。図1に示す車両1は、乗員監視装置2、撮像部8、及び通知部9を備える。乗員監視装置2は、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7を備える。ここで、乗員は車両1の運転者及び同乗者のいずれか一方である。
実施の形態1における乗員監視装置2について図1を用いて説明する。図1は実施の形態1の乗員監視装置2を備えた車両1の一部を示すブロック図である。乗員監視装置2はドライバモニタリングシステム(DMS:Driver Monitoring System)であり、車両1内の乗員に対する画像処理により、乗員を対象とした種々のセンシングを行う。図1に示す車両1は、乗員監視装置2、撮像部8、及び通知部9を備える。乗員監視装置2は、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7を備える。ここで、乗員は車両1の運転者及び同乗者のいずれか一方である。
撮像部8は車両1内の可動部に設けられたカメラであり、車両1内を撮像する。車両1内の可動部とは、乗員の操作又は車両1からの指示により位置又は角度が変更可能に構成されたものであり、例えばルームミラー及びハンドルテレスコである。ルームミラーは、車両1内前方部の天井に垂設され、運転者が車両1の後方を確認するためにルームミラーの角度を変更可能に構成される。ハンドルテレスコはステアリングホイールの位置を変更可能に構成されたものであり、運転者はハンドルテレスコを調整することにより、運転姿勢を最適化することができる。
撮像部8は、設置位置から予め設定されたカメラの画角で広がる撮像領域を撮像する。撮像部8は、撮像領域に撮像対象である車両1内の乗員の顔が含まれるように設置される。撮像部8は例えば30~60fps(frames per second)の間隔で車両1内の乗員を撮像し、撮像画像を画像取得部3に出力する。
画像取得部3は撮像部8から撮像画像を取得する。そして、画像取得部3は位置推定部5、センシング部4、及びキャリブレーション部6に取得した撮像画像を出力する。
センシング部4は、撮像画像の画像処理により、居眠り運転及び脇見運転等の乗員の状態判定、又は乗員の個人認証の少なくともいずれか一方であるセンシングを実施する。センシング部4における撮像画像の画像処理は、例えば顔向き、開眼度、及び視線方向の検出等である。
位置推定部5は、撮像部8の位置に変化があるか否かを推定する。上述のとおり、撮像部8は車両1内のルームミラー及びハンドルテレスコ等の可動部に設けられる。そのため、ルームミラー又はハンドルテレスコの角度調整によって、撮像部8の位置が変化する可能性がある。撮像部8の位置が変化するとは、前回のキャリブレーション実施時と比較して、撮像部8の回転方向及び並進方向の少なくとも一方の位置が変化することである。また、位置推定部5は、撮像部8の回転量が予め設定された回転量の第一の閾値以上である場合、及び、撮像部8の並進量が予め設定された並進量の第一の閾値以上である場合の少なくとも一方の場合に、撮像部8の位置に変化があると推定してもよい。回転量の第一の閾値及び並進量の第一の閾値は、例えば車両1が走行することにより発生する車両1の振動に起因した撮像部8の位置の変化よりもそれぞれ大きく設定される。
ここで、撮像部8の回転量とは撮像部8の回転方向の変化量であり、撮像部8の並進量とは撮像部8の並進方向の変化量であり、撮像部8の位置の変化量とは、撮像部8の移動量及び回転量である。また、撮像部8の回転量が予め設定された回転量の第一の閾値以上である場合、及び、撮像部8の並進量が予め設定された並進量の第一の閾値以上である場合の少なくとも一方の場合を、撮像部8の位置の変化量が第一の閾値以上である場合と表現する。そして、撮像部8の回転量が予め設定された回転量の第一の閾値未満である場合、かつ、撮像部8の並進量が予め設定された並進量の第一の閾値未満である場合を、撮像部8の位置の変化量が第一の閾値未満である場合と表現する。
位置推定部5による撮像部8の位置に変化があるか否かを推定する方法の一例を説明する。位置推定部5は撮像画像における予め設定された対象物の座標位置を算出する。予め設定された対象物は、撮像部8の撮像範囲に存在する車両1内の設置物であり、例えば車両シート、ヘッドレスト、又は窓枠である。予め設定された対象物は、例えば運転者によりルームミラー又はハンドルテレスコの角度が調整され撮像部8の位置が変化した場合でも、撮像部8の撮像範囲に含まれると想定される位置に存在する設置物であり、撮像部8の設置場所に応じて適宜設定される。位置推定部5は撮像画像における対象物の座標位置を算出し、算出した座標位置を予め設定された時間記憶する。そして、位置推定部5は現在の撮像画像における対象物の座標位置と過去の撮像画像における対象物の座標位置とを比較し、撮像部8の回転量及び並進量を算出する。次に、位置推定部5は、算出した撮像部8の回転量及び並進量と、回転量の第一の閾値及び並進量の第一の閾値とをそれぞれ比較する。そして、位置推定部5は、撮像部8の位置の変化量が第一の閾値以上である場合に、撮像部8の位置に変化があると推定する。また、例えば特許文献2に記載の方法により、位置推定部5は撮像画像を用いて撮像部8の変化量を推定することも可能である。
また、位置推定部5による撮像部8の位置に変化があるか否かを推定する方法は上述の方法に限られない。例えば、位置推定部5は撮像部8が設けられた車両1内の可動部の位置が変化した場合に、車両1内の可動部の位置が変化したことを示す情報を車両1から取得することにより、撮像部8が移動したか否かを推定してもよい。また、位置推定部5は車両1内の可動部の変化量を示す情報を車両1から取得し、取得した情報に基づき撮像部8の変化量を推定してもよい。
キャリブレーション部6は、センシング部4の画像処理に対するキャリブレーションを実施する。キャリブレーションとは、画像処理においてセンシング対象である乗員の個体差を補正するための処理である。一般的に、センシング部4によるセンシング結果は乗員の個体差に起因した検出誤差を伴う。そこで、キャリブレーション部6はキャリブレーションを実施することにより、センシング部4におけるセンシング精度を確保する。以下に、キャリブレーションの具体例を説明するが、これに限らずその他の公知の手段を用いてもよい。
まず、キャリブレーション部6は視線方向検出に用いる標準モデルを補正する例を説明する。この場合、センシング部4は乗員の顔が撮像された撮像画像と乗員の視線方向とを対応づけた視線方向検出用の標準モデルを保持する。そして、センシング部4は標準モデルを用いて撮像画像から乗員の視線方向を検出し、例えば脇見運転の有無を判断する。ここで、センシング部4に保持された標準モデルは、乗員の個体差に対応して補正する必要がある。
そこで、キャリブレーション部6は、実際の乗員の視線方向及びその状態での撮像画像に基づき標準モデルを補正する。例えば、キャリブレーション部6は乗員の視線方向を検出し、その結果を用いて乗員が注視している車両装備品を推定する。そして、キャリブレーション部6は乗員から見た当該車両装備品の方向を視線方向の基準として定め、この基準となる視線方向と検出した視線方向との誤差に基づいて、標準モデルを補正する。また、キャリブレーション部6は乗員が車両1内の各機器の操作を行っているときの視線とこの操作が行われている機器の位置を対応させることで標準モデルを補正してもよい。これにより、センシング部4は乗員の個体差に関係なく視線方向を精度よく検出することができる。
また、キャリブレーション部6は顔向き検出に用いる標準モデルを補正してもよい。この場合、センシング部4は標準モデルである3Dモデルを保持し、3Dモデルを用いて撮像画像から乗員の顔方向を検出し、例えば脇見運転の有無を判断する。3Dモデルは、例えば標準的な成人の顔のサイズ、及び顔のパーツの特徴点を反映した3Dのモデルである。すなわち、3Dモデルは乗員の顔のサイズ、及び顔のパーツの特徴点を反映したものではない。
そこで、キャリブレーション部6は、3Dモデルの特徴点に対応する特徴点を撮像画像中の乗員から抽出する。撮像画像から乗員の特徴点を抽出する方法は特に限定されず、例えば機械学習による特徴点抽出技術、エッジ抽出等の画像認識技術、又はテンプレートマッチングによって特徴点を抽出する。そして、キャリブレーション部6は、3Dモデルの特徴点の位置と撮像画像から抽出した乗員の特徴点の位置とを撮像画像上で比較する。次に、キャリブレーション部6は、3Dモデルの特徴点の位置と撮像画像から抽出した乗員の特徴点の位置との誤差が予め設定された閾値以内となるように、3Dモデルの特徴点の位置を撮像画像から抽出した乗員の特徴点の位置にあわせて校正する。これにより、センシング部4は乗員の個体差に関係なく顔方向を精度よく検出することができる。
また、キャリブレーション部6は開眼度検出に用いる標準モデルを補正してもよい。この場合、センシング部4は乗員の開眼度検出用の標準モデルを保持する。そして、センシング部4は撮像画像から乗員の目を検出し、標準モデルを用いて乗員の目の開き具合である開眼度を検出する。開眼度検出用の標準モデルは、例えば開眼時における目の幅を目の高さで除した値である基準扁平率の情報を含むが、基準扁平率は乗員の個体差により異なる。
そこで、キャリブレーション部6は、撮像画像から乗員の目の幅及び目の高さを算出し乗員の基準扁平率を算出する。そして、キャリブレーション部6は、標準モデルの基準扁平率と算出した乗員の基準扁平率との誤差に基づいて、標準モデルを補正する。これにより、センシング部4は乗員の個体差に関係なく開眼度を精度よく検出することができる。
判断部7は、位置推定部5の推定結果に応じて、センシング部4におけるセンシング及びキャリブレーション部6によるキャリブレーションをそれぞれ実施させるか否かを判断する。より具体的には、判断部7は、位置推定部5の推定結果を用いて撮像部8の位置が変化したと判断した場合に、キャリブレーション部6によりキャリブレーションを実施させる。そして、判断部7は、キャリブレーション実施中はセンシング部4におけるセンシングを実施させず、キャリブレーション終了後にセンシング部4におけるセンシングを再開させる。或いは、判断部7は、キャリブレーション実施中はセンシング部4におけるセンシング結果を出力させず、キャリブレーション終了後にセンシング部4におけるセンシング結果を出力させてもよい。以下では、センシング部4におけるセンシングを実施しないとは、センシングを実施しないこと及びセンシングを実施するがセンシング結果を出力しないことの両方を含むこととする。判断部7の詳細な処理動作は、後述の乗員監視方法において説明する。
通知部9は乗員に情報を通知する、例えば車両1に設けられたスピーカ又はディスプレイである。通知部9は、センシング部4からセンシング結果を示す情報を取得した場合に、乗員にセンシング結果を通知する。また、通知部9は、判断部7からセンシングが実施されないことを示す信号を取得した場合に、乗員にセンシングが実施されないことを通知する。さらに、通知部9は、センシング部4又は判断部7からセンシング結果が出力されないことを示す情報を取得した場合に、乗員にセンシングが実施されないことを通知する。
次に、乗員監視装置2のハードウェア構成例を説明する。図2は実施の形態1の乗員監視装置2のハードウェア構成例を示すブロック図である。乗員監視装置2の、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7は、図2Aに示すように専用のハードウェアである処理回路12であってもよいし、図2Bに示すようにメモリ14に格納されているプログラムを実行するプロセッサ13であってもよい。
図2Aに示すように、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7が専用のハードウェアである場合、処理回路12は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、又はこれらを組み合わせたものが該当する。画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図2Bに示すように、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7がプロセッサ13である場合、各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ14に格納される。プロセッサ13は、メモリ14に記憶されたプログラムを読み出して実行することにより、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7の各機能を実現する。すなわち、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7は、プロセッサ13により実行されるときに、後述する図3、図5、図6又は図8に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ14を備える。また、これらのプログラムは、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7の手順又は方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ13とは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)等のことである。メモリ14は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、画像取得部3、センシング部4、位置推定部5、キャリブレーション部6、及び判断部7の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、乗員監視装置2における処理回路12は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。
次に、乗員監視装置2による乗員監視方法について説明する。図3は実施の形態1の乗員監視装置2の処理動作を示すフローチャートである。乗員監視装置2は、例えば撮像部8が起動を開始したタイミングで動作を開始し、車両1が走行中は動作を繰り返す。以下では、図3のSTARTにおいて、センシング部4はセンシングを実施しているものとして説明する。
ステップS1では、画像取得部3は撮像部8から撮像画像を取得する。そして、画像取得部3は位置推定部5、センシング部4、及びキャリブレーション部6に取得した撮像画像を出力する。
ステップS2では、位置推定部5は撮像部8の位置の変化量が第一の閾値以上であるか否かを判断する。そして、位置推定部5は撮像部8の位置の変化量が第一の閾値以上である場合(ステップS2のYES)、撮像部8の位置に変化があると推定する(ステップS3)。位置推定部5は撮像部8の位置の変化量が第一の閾値未満である場合(ステップS2のNO)、撮像部8の位置に変化がないと推定する(ステップS4)。
位置推定部5において撮像部8の位置に変化がないと推定された場合(ステップS4)に、判断部7はセンシング部4によるセンシングを実施させると判断する(ステップS5)。すなわち、判断部7はセンシング部4によるセンシングを継続させる。
位置推定部5において撮像部8の位置に変化があると推定された場合(ステップS3)、判断部7はセンシング部4によるセンシングを実施させないと判断する(ステップS6)。すなわち、判断部7はセンシング部4によるセンシングを中断させる。
ステップS7では、判断部7はセンシングが実施されないことを示す信号を通知部9に出力する。これにより、通知部9は乗員にセンシングが実施されないことを通知させる。ステップS7はステップS6と同時に実施してもよい。また、通知部9は後述するステップS10の処理動作まで、継続して乗員にセンシングが実施されないことを通知してもよい。
ステップS8では、判断部7は位置推定部5において撮像部8の位置が予め設定された時間変化がないと推定されたか否かを判断する。位置推定部5において撮像部8の位置が予め設定された時間変化がないと推定されない場合(ステップS8のNO)は、判断部7は位置推定部5において撮像部8の位置が予め設定された時間変化がないと推定されるまで、ステップS8を繰り返す。予め設定された時間は、例えば、乗員の操作又は車両1の指示により車両1内の可動部の位置又は角度が変更されるために要する時間に設定される。予め設定された時間は例えば30秒である。
位置推定部5において撮像部8の位置が予め設定された時間変化がないと推定された場合(ステップS8のYES)、判断部7はキャリブレーション部6によるキャリブレーションを実施させる(ステップS9)。
キャリブレーション部6によるキャリブレーションが終了後に、ステップS10では判断部7はセンシング部4によるセンシングを実施させる。
ステップS11では、センシング部4はセンシング結果を通知部9に出力する。これにより、通知部9はセンシング結果を乗員に通知する。
以上により、乗員監視装置2の処理動作を終了する。
以上により、乗員監視装置2の処理動作を終了する。
次に、本実施の形態1の乗員監視装置2の効果を従来の乗員監視装置と比較して説明する。従来の乗員監視装置は、例えばステアリングコラム又はセンターコンソール等の車両1内の固定部に設置された撮像部8により撮像された撮像画像を画像処理し、乗員に対するセンシングを実施する。そして、従来の乗員監視装置は、例えば予め設定された時間が経過した場合にキャリブレーションを実施する。従来の乗員監視装置では、撮像部8は車両1内の固定部に設置されているため、撮像部8の位置は容易には変化しないため、予め設定された時間が経過した場合にキャリブレーションを実施することにより、センシング性能を維持することができる。しかしながら、ステアリングコラム及びセンターコンソール等の車両1内の固定部は撮像部8以外にも多くの機器が配置されるため、撮像部8のレイアウトに制限がある。
一般的に、車両1内の可動部は固定部と比較してレイアウトに余裕がある。そこで、本実施の形態の乗員監視装置2は、例えばルームミラー及びハンドルテレスコ等の車両1内の可動部に設けられた撮像部8により撮像された撮像画像を画像処理し、乗員に対するセンシングを実施する。ここで、本実施の形態の乗員監視装置2において、従来の乗員監視装置と同様に予め設定された時間が経過した場合にキャリブレーションを実施する場合を考える。この場合、例えば撮像部8が設けられた可動部の角度が変更され、撮像部8と乗員の位置関係が変化しても、乗員監視装置2は予め設定された時間が経過するまでキャリブレーションを実施せずセンシングを継続する。そのため、センシング性能が低下した状態が継続されるという課題がある。
そこで、本実施の形態の乗員監視装置2は、車両1内の可動部に設けられた撮像部8により車両1内が撮像された撮像画像を取得する画像取得部3と、撮像画像の画像処理により、乗員の状態判定及び乗員の個人認証の少なくともいずれか一方であるセンシングを実施するセンシング部4と、撮像部8の位置に変化があるか否かを推定する位置推定部5と、センシング部4における画像処理に対するキャリブレーションを実施するキャリブレーション部6と、位置推定部5において撮像部8の位置に変化があると推定された場合に、センシング部4によるセンシングを実施させず、キャリブレーション部6によるキャリブレーションを実施させる判断部7を備える。これにより、本実施の形態の乗員監視装置2は、撮像部8の位置に変化があると推定された場合にキャリブレーションを実施するため、撮像部8の位置が変化したことに起因するセンシング性能の低下を抑制することができる。
また、判断部7は、位置推定部5において撮像部8の位置が予め設定された時間継続して変化しないと推定された場合に、キャリブレーション部6によるキャリブレーションを実施させる。予め設定された時間は、例えば乗員の操作又は車両1の指示により車両1内の可動部の位置又は角度が変更されるために要する時間である。これにより、判断部7は、撮像部8の位置が変化している間はキャリブレーションを実施させないので、処理負荷を軽減することができる。なお、図3に示すステップS8の処理動作は実施しなくてもよい。すなわち、位置推定部5において撮像部8の位置に変化があると推定された場合、判断部7はキャリブレーション部6によるキャリブレーションを実施させてもよい。
また、判断部7は、位置推定部5において撮像部8の位置に変化があると推定された場合に、キャリブレーション部6によるキャリブレーションが終了後にセンシング部4によるセンシングを実施させる。これにより、キャリブレーション終了後に、センシングを迅速に再開させることができる。
また、判断部7は、センシング部4によるセンシングを実施させない場合に、センシングが実施されないことを示す信号を、乗員に情報を通知する通知部9に出力する。これにより、乗員監視装置2においてセンシングが実施されていないことを乗員に通知することができる。
また、車両1は走行することにより車両1全体に振動が発生するため、車両1が走行中、撮像部8の位置は厳密には変化している。そのため、位置推定部5の精度が車両1振動に起因した撮像部8の位置の変化を検出可能な程度に高い場合は、乗員監視装置2は図3のステップS8が繰り返し実施する。或いは、乗員監視装置2は図3のステップS8を実施しない場合、ステップS9を繰り返し実施する。そのため、センシング部4によるセンシングが実施されない期間が長くなる。
そこで、位置推定部5は、撮像部8の回転量が予め設定された回転量の第一の閾値以上である場合、及び、撮像部8の並進量が予め設定された並進量の第一の閾値以上である場合の少なくとも一方の場合に、撮像部8の位置に変化があると推定する。回転量の第一の閾値及び並進量の第一の閾値は、例えば車両1が走行することにより発生する車両1の振動に起因した撮像部8の位置の変化よりもそれぞれ大きい。これにより、乗員監視装置2は車両1内の可動部の位置が変更されたことに起因するセンシング性能の低下を抑制することができる。なお、車両1が走行することにより発生する車両1の振動に起因した撮像部8の位置の変化は、車両1内の可動部の位置が変更されたことに起因した撮像部8の位置の変化と比較して小さい。そのため、車両1内の可動部の位置が変更されたことに起因したセンシング性能の低下よりも、車両1が走行することにより発生する車両1の振動に起因したセンシング性能の低下の方が小さい。
実施の形態2.
実施の形態2の乗員監視装置2について図4を用いて説明する。図4は実施の形態2の乗員監視装置2を備えた車両1の一部を示すブロック図である。実施の形態2の乗員監視装置2はセンシング部4が記憶部10を有することを特徴とする。その他の乗員監視装置2の構成は実施の形態1と同様である。実施の形態1と同様の構成については、同一符号が付されている。
実施の形態2の乗員監視装置2について図4を用いて説明する。図4は実施の形態2の乗員監視装置2を備えた車両1の一部を示すブロック図である。実施の形態2の乗員監視装置2はセンシング部4が記憶部10を有することを特徴とする。その他の乗員監視装置2の構成は実施の形態1と同様である。実施の形態1と同様の構成については、同一符号が付されている。
実施の形態1と同様に、センシング部4は、撮像画像の画像処理により、居眠り運転及び脇見運転等の乗員の状態判定、又は乗員の個人認証の少なくともいずれか一方であるセンシングを実施する。そして、センシング部4は記憶部10を有する。
記憶部10は少なくとも前回のセンシングの結果を記憶する。そして、判断部7からの信号に従い、通知部9に前回のセンシングの結果を出力する。なお、記憶部10はセンシング部4とは別に乗員監視装置2に備えられてもよい。
次に、乗員監視装置2による乗員監視方法について説明する。図5は実施の形態2の乗員監視装置2の処理動作を示すフローチャートである。乗員監視装置2は、例えば撮像部8が起動を開始したタイミングで動作を開始し、車両1が走行中は動作を繰り返す。以下では、図5のSTARTにおいて、センシング部4はセンシングを実施しているものとして説明する。
ステップS1~ステップS6、及びステップS8~ステップS10は図3に示す実施の形態1の乗員監視装置2の処理動作と同様である。位置推定部5において撮像部8の位置に変化があると推定された場合(ステップS3)、判断部7はセンシング部4によるセンシングを実施させないと判断(ステップS6)し、ステップS20に進む。また、ステップS6において、センシング部4はセンシングを実施するがセンシングの結果を出力しない場合は、センシング部4は記憶部10にセンシングの結果を有効なデータとして記憶しない。
ステップS20では、判断部7はセンシング部4に前回のセンシングの結果を通知部9に出力させる。これにより、通知部9は、撮像部8の位置が変化したと推定される前のセンシング部4におけるセンシングの結果を乗員に通知する。ステップS20はステップS6と同時に実施してもよい。また、通知部9は後述するステップS21の処理動作まで、継続して撮像部8の位置が変化したと推定される前のセンシング部4におけるセンシングの結果を乗員に通知してもよい。次に、乗員監視装置2はステップS8~ステップS10の処理動作を実施する。
ステップS21では、判断部7はセンシング部4に最新のセンシングの結果を通知部9に出力させる。
以上により、乗員監視装置2の処理動作を終了する。
以上により、乗員監視装置2の処理動作を終了する。
実施の形態1と同様に、本実施の形態の乗員監視装置2は、車両1内の可動部に設けられた撮像部8により撮像された撮像画像を取得する画像取得部3と、撮像画像の画像処理により、乗員の状態判定及び乗員の個人認証の少なくともいずれか一方であるセンシングを実施するセンシング部4と、撮像部8の位置に変化があるか否かを推定する位置推定部5と、センシング部4における画像処理に対するキャリブレーションを実施するキャリブレーション部6と、位置推定部5において撮像部8の位置に変化があると推定された場合に、センシング部4によるセンシングを実施させず、キャリブレーション部6によるキャリブレーションを実施させる判断部7を備える。これにより、撮像部8の位置が変化したことに起因するセンシング性能の低下を抑制することができる。
また、撮像部8の位置が変化している間、及びキャリブレーション実施中は、センシング部4はセンシング精度を担保できず誤検出する可能性が高い。そこで、センシング部4は少なくとも前回のセンシングの結果を記憶し、判断部7はセンシング部4によるセンシングを実施させない場合に、センシング部4に前回のセンシングの結果を通知部9に出力させる。これにより、乗員監視装置2は、撮像部8の位置が変化している間、及びキャリブレーション実施中は、撮像部8の位置が変化する前におけるセンシング部4のセンシングの結果を出力するので、センシング部4による誤検出を抑制することができる。
実施の形態3.
実施の形態3の乗員監視装置2について図6を用いて説明する。図6は実施の形態3の乗員監視装置2の処理動作を示すフローチャートである。実施の形態3の乗員監視装置2は、判断部7の処理動作が実施の形態1及び実施の形態2の乗員監視装置2と異なる。その他の乗員監視装置2の構成は実施の形態1又は実施の形態2と同様である。実施の形態1と同様の構成については、同一符号が付されている。
実施の形態3の乗員監視装置2について図6を用いて説明する。図6は実施の形態3の乗員監視装置2の処理動作を示すフローチャートである。実施の形態3の乗員監視装置2は、判断部7の処理動作が実施の形態1及び実施の形態2の乗員監視装置2と異なる。その他の乗員監視装置2の構成は実施の形態1又は実施の形態2と同様である。実施の形態1と同様の構成については、同一符号が付されている。
ステップS1~ステップS8は図3に示す実施の形態1の乗員監視装置2の処理動作と同様である。実施の形態1の乗員監視装置2は、位置推定部5において撮像部8の位置が予め設定された時間変化がないと推定された場合(ステップS8のYES)、判断部7はキャリブレーション部6によるキャリブレーションを実施させる(ステップS9)。
これに対し、本実施の形態の乗員監視装置2は、位置推定部5において撮像部8の位置が予め設定された時間変化がないと推定された場合(ステップS8のYES)、判断部7は撮像画像にセンシング部4によるセンシング対象である乗員は撮像されているか否かを判断する(ステップS30)。判断部7は撮像画像にセンシング部4によるセンシング対象である乗員は撮像されているか否かを、例えばセンシング部4又はキャリブレーション部6により判断させてもよい。
判断部7において撮像画像に乗員が撮像されていると判断された場合(ステップS30のYES)、ステップS9に進む。ステップS9~ステップS11は図3に示す実施の形態1の乗員監視装置2の処理動作と同様である。
判断部7において撮像画像に乗員が撮像されていないと判断された場合(ステップS30のNO)、判断部7は撮像画像に乗員が撮像されていないと判断するまでステップS30を繰り返す。すなわち、判断部7は、撮像画像に乗員が撮像されていない場合に、キャリブレーション(ステップS9)及びセンシング(ステップS10)を実施させない。
以上により、乗員監視装置2の処理動作を終了する。
以上により、乗員監視装置2の処理動作を終了する。
実施の形態1と同様に、本実施の形態の乗員監視装置2は、車両1内の可動部に設けられた撮像部8により車両1内が撮像された撮像画像を取得する画像取得部3と、撮像画像の画像処理により、乗員の状態判定及び乗員の個人認証の少なくともいずれか一方であるセンシングを実施するセンシング部4と、撮像部8の位置に変化があるか否かを推定する位置推定部5と、センシング部4における画像処理に対するキャリブレーションを実施するキャリブレーション部6と、位置推定部5において撮像部8の位置に変化があると推定された場合に、センシング部4によるセンシングを実施させず、キャリブレーション部6によるキャリブレーションを実施させる判断部7を備える。これにより、撮像部8の位置が変化したことに起因するセンシング性能の低下を抑制することができる。
また、撮像部8に乗員が撮像されていない場合、キャリブレーション部6及びセンシング部4は、それぞれキャリブレーション及びセンシングを実施することができない。そこで、判断部7は、撮像画像に乗員が撮像されていない場合に、キャリブレーション及びセンシングを実施させないことにより、無駄な処理を抑制することができる。
実施の形態4.
実施の形態4の乗員監視装置2について説明する。図7は実施の形態4の乗員監視装置2を備えた車両1の一部を示すブロック図である。実施の形態4の車両1は、車両1の速度を検出する車速センサ11を備える。
実施の形態4の乗員監視装置2について説明する。図7は実施の形態4の乗員監視装置2を備えた車両1の一部を示すブロック図である。実施の形態4の車両1は、車両1の速度を検出する車速センサ11を備える。
上述のとおり乗員監視装置2は、センシング部4により居眠り運転及び脇見運転等の乗員の状態判定、又は乗員の個人認証の少なくともいずれか一方であるセンシングを実施する。これにより、乗員監視装置2は乗員の安全性及び快適性を向上することができる。
一方で、撮像部8が設けられた可動部の位置が変更されると、撮像部8と乗員の位置関係が変化するためセンシング部4は誤検出をする可能性が高まり、乗員の安全性及び快適性が低下する。そこで、実施の形態1から3の乗員監視装置2は、撮像部8の位置に変化があると推定された場合に、センシング部4によるセンシングを実施させず、キャリブレーション部6によるキャリブレーションを実施させることにより、センシング精度の低下を抑制することができる。
ところで、撮像部8の位置の変化量によってセンシング部4が誤検出をする可能性は異なる。すなわち、撮像部8の位置の変化量が大きいほど、センシング精度は低下する。実施の形態4の乗員監視装置2は、位置推定部5は撮像部8の位置の変化量を推定し、判断部7は撮像部8の位置の変化量に応じた判断を実施する点において実施の形態1から3の乗員監視装置2と異なる。その他の乗員監視装置2の構成は実施の形態1から3のいずれかと同様である。実施の形態1と同様の構成については、同一符号が付されている。
実施の形態1と同様に、位置推定部5は撮像部8の位置の変化量が第一の閾値以上である場合に、撮像部8の位置に変化があると推定する。
判断部7は、撮像部8の回転量が予め設定された回転量の第二の閾値以上であるか否か、及び、撮像部8の並進量が予め設定された並進量の第二の閾値以上であるか否かを判断する。回転量の第二の閾値及び並進量の第二の閾値は回転量の第一の閾値及び並進量の第一の閾値よりもそれぞれ大きい値に設定される。回転量の第二の閾値及び並進量の第二の閾値は、センシング部4によるセンシング精度をどの程度担保したいかによって適宜設定される。例えば回転量の第二の閾値及び並進量の第二の閾値は、撮像部8の位置の変化量とセンシング部4が誤検出する確率を実験的に算出し、センシング部4によるセンシングの誤検出の可能性が80%である撮像部8の位置の変化量にそれぞれ設定される。
以下では、撮像部8の回転量が予め設定された回転量の第二の閾値以上である場合、及び、撮像部8の並進量が予め設定された並進量の第二の閾値以上である場合の少なくとも一方の場合を、撮像部8の位置の変化量が第二の閾値以上である場合と表現する。また、撮像部8の回転量が予め設定された回転量の第二の閾値未満である場合、かつ、撮像部8の並進量が予め設定された並進量の第二の閾値未満である場合を、撮像部8の位置の変化量が第二の閾値未満である場合と表現する。
そして、位置推定部5は撮像部8の位置の変化量が第一の閾値以上であり、撮像部8の位置に変化があると推定した場合に、判断部7は次の判断を実施する。判断部7は、撮像部8の位置の変化量が第二の閾値未満であると判断した場合に、例えば車両1が停止するまで、センシング部4によるセンシングを実施させ、キャリブレーション部6によるキャリブレーションを実施させない。また、判断部7は撮像部8の位置の変化量が第二の閾値以上であると判断した場合に、判断部7は車両1の走行状態に関わらず、センシング部4によるセンシングを実施させず、キャリブレーションを実施させる。
次に、乗員監視装置2による乗員監視方法について説明する。図8は実施の形態4の乗員監視装置2の処理動作を示すフローチャートである。乗員監視装置2は、例えば撮像部8が起動を開始したタイミングで動作を開始し、車両1が走行中は動作を繰り返す。以下では、図8のSTARTにおいて、センシング部4はセンシングを実施しているものとして説明する。
ステップS1~ステップS4は図3に示す実施の形態1の乗員監視装置2の処理動作と同様である。位置推定部5において撮像部8の位置に変化があると推定された場合(ステップS3)、判断部7は撮像部8の位置の変化量は第二の閾値以上であるか否かを判断する(ステップS40)。
撮像部8の位置の変化量が第二の閾値以上である場合(ステップS40のYES)、ステップS6に進む。撮像部8の位置の変化量が第二の閾値未満である場合(ステップS40のYES)、判断部7はセンシング部4によるセンシングを継続させる(ステップS41)。そして、判断部7は車速センサ11から車両1の速度を示す情報を取得し、車両1が停止しているか否かを判断する(ステップS42)。車両1が停止している場合(ステップS42のYES)はステップS5に進む。車両1が停止していない場合(ステップS42のNO)は、ステップS42を繰り返す。すなわち、車両1が停止していない場合(ステップS42のNO)は、車両1が停止するまでセンシングが継続される。ステップS6~ステップS101図3に示す実施の形態1の乗員監視装置2の処理動作と同様である。
以上により、乗員監視装置2の処理動作を終了する。
以上により、乗員監視装置2の処理動作を終了する。
実施の形態1と同様に、本実施の形態の乗員監視装置2は、車両1内の可動部に設けられた撮像部8により車両1内が撮像された撮像画像を取得する画像取得部3と、撮像画像の画像処理により、乗員の状態判定及び乗員の個人認証の少なくともいずれか一方であるセンシングを実施するセンシング部4と、撮像部8の位置に変化があるか否かを推定する位置推定部5と、センシング部4における画像処理に対するキャリブレーションを実施するキャリブレーション部6と、位置推定部5において撮像部8の位置に変化があると推定された場合に、センシング部4によるセンシングを実施させず、キャリブレーション部6によるキャリブレーションを実施させる判断部7を備える。これにより、撮像部8の位置が変化したことに起因するセンシング性能の低下を抑制することができる。
また、本実施の形態の乗員監視装置2は、判断部7は、撮像部8の回転量が予め設定された回転量の第二の閾値未満である場合、かつ、撮像部8の並進量が予め設定された並進量の第二の閾値未満である場合、すなわち撮像部8の位置の変化量が第一の閾値以上かつ第二の閾値未満である場合は、車両1が停止するまでセンシング部4によるセンシングを実施させ、キャリブレーション部6によるキャリブレーションを実施させない。そして、判断部7は車両1が停止後に、センシング部4によるセンシングを実施させず、キャリブレーション部6によるキャリブレーションを実施させる。第二の閾値は、センシング部4によるセンシング精度をどの程度担保したいかによって適宜設定するとよい。例えば、第二の閾値は、撮像部8の位置の変化量とセンシング部4が誤検出する確率を実験的に算出し、センシング部4によるセンシングの誤検出の可能性が80%である撮像部8の位置の変化量に設定された場合を考える。
この場合、センシングの誤検出の可能性が80%未満である場合はセンシング精度を担保できているとして、判断部7は車両1が停止するまでセンシングを継続させる。これにより、乗員監視装置2は車両1が走行中はセンシングを実施することにより、乗員の安全性及び快適性を向上させることができる。
また、センシングの誤検出の可能性が80%以上である場合はセンシング精度を担保できないとして、判断部7は車両1の走行状態に関わらずキャリブレーションを実施させる。このように、センシング精度を担保できていない場合はセンシング精度を向上させることを優先させることができる。
なお、本実施の形態では判断部7は車速センサ11から車両1の速度を示す情報を取得し、車両1が停止しているか否かを判断する例を示したがこれに限られない。判断部7は例えば車両1からドアの開閉状態、イグニッションスイッチのオンオフを示す情報を取得し、車両1が停止しているか否かを判断してもよい。
また、本明細書中に開示する各実施の形態は、その範囲内において、各実施の形態を自由に組み合わせることが可能であり、各実施の形態を適宜、変形、省略することが可能である。
1 車両、2 乗員監視装置、3 画像取得部、4 センシング部、5 位置推定部、6 キャリブレーション部、7 判断部、8 撮像部、9 通知部、10 記憶部、11 車速センサ、12 処理回路、13 プロセッサ、14 メモリ
Claims (11)
- 車両内の可動部に設けられた撮像部により前記車両内が撮像された撮像画像を取得する画像取得部と、
前記撮像画像の画像処理により、乗員の状態判定及び前記乗員の個人認証の少なくともいずれか一方であるセンシングを実施するセンシング部と、
前記撮像部の位置に変化があるか否かを推定する位置推定部と、
前記センシング部における前記画像処理に対するキャリブレーションを実施するキャリブレーション部と、
前記位置推定部において前記撮像部の位置に変化があると推定された場合に、前記センシング部による前記センシングを実施させず、前記キャリブレーション部による前記キャリブレーションを実施させる判断部と、
を備える乗員監視装置。 - 前記判断部は、前記位置推定部において前記撮像部の位置が予め設定された時間継続して変化しないと推定された場合に、前記キャリブレーション部による前記キャリブレーションを実施させることを特徴とする請求項1に記載の乗員監視装置。
- 前記判断部は、前記位置推定部において前記撮像部の位置に変化があると推定された場合に、前記キャリブレーション部による前記キャリブレーションが終了後に前記センシング部による前記センシングを実施させることを特徴とする請求項1又は請求項2に記載の乗員監視装置。
- 前記判断部は、前記センシング部による前記センシングを実施させない場合に、前記センシングが実施されないことを示す信号を、前記乗員に情報を通知する通知部に出力することを特徴とする請求項1から請求項3のいずれか一項に記載の乗員監視装置。
- 前記センシング部は、少なくとも前回の前記センシングの結果を記憶し、
前記判断部は、前記センシング部による前記センシングを実施させない場合に、前記センシング部に前回の前記センシングの前記結果を、前記乗員に情報を通知する通知部に出力させることを特徴とする請求項1から請求項3のいずれか一項に記載の乗員監視装置。 - 前記判断部は、前記撮像画像に前記乗員が撮像されていない場合に、前記キャリブレーション及び前記センシングを実施させないことを特徴とする請求項1から請求項5のいずれか一項に記載の乗員監視装置。
- 前記位置推定部は前記撮像部の回転量が予め設定された回転量の第一の閾値以上である場合、及び、前記撮像部の並進量が予め設定された並進量の第一の閾値以上である場合の少なくとも一方の場合に、前記撮像部の位置に変化があると推定することを特徴とする請求項1から請求項6のいずれか一項に記載の乗員監視装置。
- 前記回転量の第一の閾値及び前記並進量の第一の閾値は、前記車両が走行することにより発生する前記車両の振動に起因した前記撮像部の位置の変化よりもそれぞれ大きいことを特徴とする請求項7に記載の乗員監視装置。
- 前記判断部は、前記撮像部の前記回転量が予め設定された回転量の第二の閾値未満である場合、かつ、前記撮像部の前記並進量が予め設定された並進量の第二の閾値未満である場合は、前記車両が停止するまで前記センシング部による前記センシングを実施させ、前記キャリブレーション部による前記キャリブレーションを実施させず、前記車両が停止後に、前記センシング部による前記センシングを実施させず、前記キャリブレーション部による前記キャリブレーションを実施させ、前記撮像部の前記回転量が前記回転量の第二の閾値以上である場合、及び、前記撮像部の並進量が前記並進量の第二の閾値以上である場合の少なくとも一方の場合には、前記センシング部による前記センシングを実施させず、前記キャリブレーション部による前記キャリブレーションを実施させる特徴とする請求項7又は請求項8に記載の乗員監視装置。
- 車両内の可動部に設けられた撮像部により前記車両内が撮像された撮像画像を取得するステップと、
前記撮像画像の画像処理により、乗員の状態判定及び前記乗員の個人認証の少なくともいずれか一方であるセンシングを実施するステップと、
前記撮像部の位置に変化があるか否かを推定するステップと、
前記画像処理に対するキャリブレーションを実施するステップと、
前記撮像部の位置に変化があると推定された場合に、前記センシングを実施させず、前記キャリブレーションを実施させるステップと、
を備える乗員監視方法。 - 車両内の可動部に設けられた撮像部により前記車両内が撮像された撮像画像を取得する手順と、
前記撮像画像の画像処理により、乗員の状態判定及び前記乗員の個人認証の少なくともいずれか一方であるセンシングを実施する手順と、
前記撮像部の位置に変化があるか否かを推定する手順と、
前記画像処理に対するキャリブレーションを実施する手順と、
前記撮像部の位置に変化があると推定された場合に、前記センシングを実施させず、前記キャリブレーションを実施させる手順と、
をコンピュータに実行させる乗員監視プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/009954 WO2023170777A1 (ja) | 2022-03-08 | 2022-03-08 | 乗員監視装置、乗員監視方法、及び乗員監視プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023170777A1 JPWO2023170777A1 (ja) | 2023-09-14 |
JP7505660B2 true JP7505660B2 (ja) | 2024-06-25 |
Family
ID=
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013166414A (ja) | 2012-02-14 | 2013-08-29 | Clarion Co Ltd | 車両後席用表示装置および車両用表示装置 |
JP2015186026A (ja) | 2014-03-24 | 2015-10-22 | クラリオン株式会社 | カメラキャリブレーション装置 |
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013166414A (ja) | 2012-02-14 | 2013-08-29 | Clarion Co Ltd | 車両後席用表示装置および車両用表示装置 |
JP2015186026A (ja) | 2014-03-24 | 2015-10-22 | クラリオン株式会社 | カメラキャリブレーション装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6811834B2 (ja) | 運転状態判定装置および運転状態判定方法 | |
US8264531B2 (en) | Driver's state monitoring system using a camera mounted on steering wheel | |
JP6960995B2 (ja) | 状態判定装置および状態判定方法 | |
US10664712B2 (en) | Eyelid opening/closing determination apparatus and drowsiness detection apparatus | |
US10423846B2 (en) | Method for identifying a driver change in a motor vehicle | |
US10861191B2 (en) | Apparatus and method for calibrating driver monitoring camera | |
US11915495B2 (en) | Information processing apparatus, and recording medium | |
JP7505660B2 (ja) | 乗員監視装置、乗員監視方法、及び乗員監視プログラム | |
JP7267467B2 (ja) | 注意方向判定装置および注意方向判定方法 | |
WO2023170777A1 (ja) | 乗員監視装置、乗員監視方法、及び乗員監視プログラム | |
JP7109649B2 (ja) | 覚醒度推定装置、自動運転支援装置および覚醒度推定方法 | |
JP6594595B2 (ja) | 運転不能状態判定装置および運転不能状態判定方法 | |
WO2022113275A1 (ja) | 睡眠検出装置及び睡眠検出システム | |
KR20210011556A (ko) | 차량 영상 제어 장치, 그를 포함한 시스템 및 그 방법 | |
JP7175381B2 (ja) | 覚醒度推定装置、自動運転支援装置および覚醒度推定方法 | |
US11983896B2 (en) | Line-of-sight detection apparatus and line-of-sight detection method | |
US20240135729A1 (en) | Occupant detection device, occupant detection system, and occupant detection method | |
JP2022143854A (ja) | 乗員状態判定装置および乗員状態判定方法 | |
US20230060049A1 (en) | Face detection device | |
JP7003332B2 (ja) | 運転者監視装置及び運転者監視方法 | |
JP2017061216A (ja) | 車載撮像システム、車両および撮像方法 | |
WO2023017595A1 (ja) | 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム | |
WO2024075205A1 (ja) | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム | |
WO2022172400A1 (ja) | 車両監視装置及び車両監視システム | |
WO2024079779A1 (ja) | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム |