JP6873351B2 - 露光制御装置および露光制御方法 - Google Patents

露光制御装置および露光制御方法 Download PDF

Info

Publication number
JP6873351B2
JP6873351B2 JP2021507101A JP2021507101A JP6873351B2 JP 6873351 B2 JP6873351 B2 JP 6873351B2 JP 2021507101 A JP2021507101 A JP 2021507101A JP 2021507101 A JP2021507101 A JP 2021507101A JP 6873351 B2 JP6873351 B2 JP 6873351B2
Authority
JP
Japan
Prior art keywords
detection
exposure control
edge
eye
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021507101A
Other languages
English (en)
Other versions
JPWO2020194489A1 (ja
Inventor
吉本 忠文
忠文 吉本
昇吾 米山
昇吾 米山
篤 松本
篤 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6873351B2 publication Critical patent/JP6873351B2/ja
Publication of JPWO2020194489A1 publication Critical patent/JPWO2020194489A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、車両の乗員の目を撮像する際の露光制御に関する。
乗員の目の位置または瞼の開度から脇見状態または居眠り状態を検知し、乗員に警告等を行う乗員監視システムがある。こうした乗員監視システムは、車両に搭載したカメラにより乗員の目を撮影し、当該撮影画像を用いて乗員の状態を検知している。しかし、乗員が眼鏡を着用していると、眼鏡のレンズに外光が反射してしまい、目の画像を適切に撮影することが出来ないという問題があった。
こうした問題に対して、特許文献1では、外光反射を検出した場合に露光調整を行う技術が提案されている。
特開2013−175914号公報
しかし、特許文献1の技術では、外光反射の有無を、撮影画像から目が検出できるか否かによって判断している。そのため、外光反射によって目が一部隠れてしまっていても、大まかに目が検出できる場合には、露光制御が行われず、目の検出精度が改善されないという問題があった。
本発明は、上記の問題点を解決するためになされたものであり、外光反射により目の一部が撮影できない場合に適切な露光制御を行うことを目的とする。
本発明の露光制御装置は、カメラによる車両の乗員の目の撮影画像から、目の目尻と目頭を検出する目検出部と、撮影画像から目尻と目頭の間の瞼のエッジを検出エッジとして検出するエッジ検出部と、検出エッジと、リファレンスエッジとの差異を検出する差異検出部と、検出エッジとリファレンスエッジとの差異が小さくなるように露光制御を行う露光制御部と、を備える。
本発明の露光制御装置は、検出エッジとリファレンスエッジとの差異が小さくなるように露光制御を行うため、外光反射により目の一部が撮影できない場合に適切な露光制御を行うことができる。本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1の露光制御装置の構成を示すブロック図である。 実施の形態1の露光制御装置の動作を示すフローチャートである。 カメラの撮影範囲を示す図である。 外光反射がない状態での検出エッジを示す図である。 外光反射がある状態でのカメラの撮影画像を示す図である。 図5の撮影画像からエッジ検出部が検出した検出エッジを示す図である。 露光制御の方法を示す図である。 露光制御後のカメラの撮影画像を示す図である。 図2のステップS104における実施の形態2の差異検出部の動作を示すフローチャートである。 図2のステップS105における実施の形態2の露光制御部の動作を示すフローチャートである。 実施の形態3の露光制御装置の構成を示すブロック図である。 実施の形態3の露光制御装置による露光制御前の撮影画像を示す図である。 露光制御後の撮影画像を示す図である。 実施の形態4の露光制御装置の構成を示すブロック図である。 露光制御装置のハードウェア構成を示す図である。 露光制御装置のハードウェア構成を示す図である。 車両とサーバによる露光制御装置の構成例を示す図である。
<A.実施の形態1>
<A−1.構成>
図1は、実施の形態1の露光制御装置101の構成を示すブロック図である。露光制御装置101は、カメラ21が車両の乗員の目を適切に撮影することが出来るように、カメラ21の露光制御を行う装置である。以下、本明細書では露光制御装置が露光制御を行う対象のカメラ21が搭載された車両を、単に「車両」と称する。
カメラ21は車両に搭載され、乗員の顔画像を撮影する。図2に示すように、カメラ21の撮影範囲31は乗員32の顔を含む範囲である。ここで、カメラ21が撮影する乗員は、典型的には運転者であるが、運転者以外の乗員であっても良い。
画像取得部11はカメラ21の撮影画像を取得し、目検出部12に出力する。
目検出部12は、画像取得部11から撮影画像を取得し、撮影画像から乗員の目尻と目頭を検出する。
エッジ検出部13は、目検出部12から撮影画像、ならびに目尻および目頭の検出情報を取得し、これらの情報から、目尻と目頭の間の瞼のエッジ形状を検出エッジとして検出する。
差異検出部14は、エッジ検出部13から検出エッジを取得し、検出エッジをリファレンスエッジと比較して両者の差異を検出する。リファレンスエッジとは、一般的な瞼のエッジ形状として予め用意されたエッジである。目の形状、例えば目の細さや大きさには個人差があるため、通常、リファレンスエッジは複数のパターンが用意されており、差異検出部14は検出エッジに最も近いリファレンスエッジを抽出して両者を比較する。検出エッジがリファレンスエッジに近いほど、カメラ21は正しく乗員の目を撮影できており、露光が適切であるといえる。乗員が眼鏡を着用しており、眼鏡のレンズに外光反射が発生している場合には、外光反射が発生している領域で瞼のエッジを正確に検出することが困難であるため、検出エッジはリファレンスエッジからずれてしまう。
露光制御部15は、差異検出部14から検出エッジとリファレンスエッジの差異を取得し、差異が小さくなる方向にカメラ21の露光制御を行う。
<A−2.動作>
図2は、露光制御装置101の動作を示すフローチャートである。図2のフローは、例えば車両のアクセサリ電源がオンになり、カメラ21が撮影を開始したタイミングで開始し、車両の走行中は繰り返し行われる。
まず、画像取得部11はカメラ21の撮影画像を取得する(ステップS101)。図3は、カメラ21の撮影範囲31を示している。図3に示すように、撮影範囲31は乗員32の顔を含む範囲である。次に、目検出部12は、撮影画像から目尻と目頭を検出する(ステップS102)。そして、エッジ検出部13は、撮影画像から目尻と目頭の間の瞼のエッジを検出する(ステップS103)。ここで検出されたエッジを検出エッジと称する。次に、差異検出部14は、検出エッジとリファレンスエッジとを比較して両者の差異を検出する(ステップS104)。最後に、露光制御部15は、検出エッジとリファレンスエッジの差異が小さくなるように、言い換えれば検出エッジがリファレンスエッジに近づくように、カメラ21の露光制御を行う(ステップS105)。
<A−3.効果>
以上に説明したように、実施の形態1の露光制御装置101は、カメラ21による車両の乗員の目の撮影画像から、目の目尻と目頭を検出する目検出部12と、撮影画像から目尻と目頭の間の瞼のエッジを検出エッジとして検出するエッジ検出部13と、検出エッジと、リファレンスエッジとの差異を検出する差異検出部14と、検出エッジとリファレンスエッジとの差異が小さくなるように露光制御を行う露光制御部15と、を備える。従って、露光制御装置101によれば、乗員が着用する眼鏡のレンズに外光反射が生じて、目の一部が撮影できない場合でも、適切な露光制御を行うことにより目の全体を撮影することができる。
<B.実施の形態2>
<B−1.構成>
実施の形態2の露光制御装置102の構成は、図1に示した実施の形態1の露光制御装置101の構成と同様である。
<B−2.動作>
図4は、外光反射がない状態での検出エッジ42を示している。眼鏡のレンズ41に外光反射がなければ、撮影画像には目の全体が明瞭に写るため、エッジ検出部13は瞼のエッジを正確に検出することができる。エッジ検出部13は、5つの検出点421−425で瞼のエッジを検出しており、検出点421−425を繋いだ実線が検出エッジ42である。図4には、検出点421−425に対応するリファレンス点431−435と、リファレンス点431−435をつないだリファレンスエッジ43が点線で示されている。リファレンスエッジ43のうち検出点421−425に対応する点がリファレンス点431−435である。検出点421−425に対応するとは、例えば、横方向の位置が検出点421−425と等しいという意味である。図4において、検出点421−425は高精度に検出され、リファレンス点431−435に一致している。この場合、露光制御部15は現状の露光制御を変更しない。
図5は、外光反射がある状態でのカメラ21の撮影画像を示している。図5において、眼鏡のレンズ41のうち、外光反射が生じている領域を領域44、生じていない領域を領域45とする。領域44に重なる顔の部分は撮影画像に表れないため、エッジ検出部13は瞼のエッジを正確に検出することができない。
図6は、図5の撮影画像からエッジ検出部13が検出した検出エッジ42を示している。領域45における検出点421,422,425は、対応するリファレンス点431,432,435と一致するが、領域44における検出点423,424は、対応するリファレンス点433,434と一致しない。このことから、露光制御部15は、検出点423,424において外光反射が生じており、検出点421,422,425において外光反射が生じていないと判断する。なお、外光反射が生じている領域の検出点423,424を第1検出点と称し、外光反射が生じていない領域の検出点421,422,425を第2検出点と称する。
露光制御部15は、第1検出点の輝度と第2検出点の輝度に基づき、カメラ21の露光制御を行う。各検出点の輝度は撮影画像から測定することが可能である。最も単純な方法としては、第1検出点と第2検出点から検出点をそれぞれ1つ選択し、選択した検出点の平均輝度を基準とする。図7の例では、第1検出点として検出点423が選択され、第2検出点として検出点421が選択される。
あるいは、露光制御部15は、第1検出点である検出点423,424の平均輝度LA1と、第2検出点である検出点421,422,425の平均輝度LA2を算出する。そして、平均輝度LA1と平均輝度LA2の平均値を基準として、カメラ21の露光制御を行う。露光制御部15は、カメラ21の露光時間または絞り値を調整すること、もしくは投光器22の光量を調整することにより行われる。上記に挙げた複数の調整方法が組み合わされても良い。投光器22は、車両に搭載され、乗員に光を照射する。
図8は、露光制御後のカメラ21の撮影画像を示している。露光制御により撮影領域全体の輝度は低下するが、外光反射が生じていた領域44でも目を検出することが可能となる。
露光制御装置102の全体的な動作のフローは、図2に示した通りである。図9は、図2のステップS104における露光制御装置102の差異検出部14の動作を示すフローチャートである。以下、図9に沿って差異検出部14の動作を説明する。エッジ検出部13は、目頭と目尻の間の瞼のエッジを、複数の検出点で検出する(図2のステップS103)。その後、差異検出部14は検出点を1つ選択し(ステップS1401)、選択した検出点について以下の処理を行う。すなわち、差異検出部14は、検出点とリファレンス点の距離が予め定められた閾値以上であるか否かを判断する(ステップS1402)。検出点とリファレンス点の距離が閾値以上である場合、差異検出部14は検出点を第1検出点に設定する(ステップS1403)。一方、検出点とリファレンス点の距離が閾値未満である場合、差異検出部14は検出点を第2検出点に設定する(ステップS1404)。
次に、差異検出部14は全ての検出点について処理を完了したか否かを判断する(ステップS1405)。未処理の検出点があれば、差異検出部14はステップS1401に戻り、全ての検出点について処理を完了すれば、差異検出部14はステップS105に進む。
図10は、図2のステップS105における露光制御装置102の露光制御部15の動作を示すフローチャートである。以下、図10に沿って露光制御部15の動作を説明する。露光制御部15は、第1検出点の平均輝度LA1を算出する(ステップS1501)。図7の例で、第1検出点は検出点423,424である。次に、露光制御部15は、第2検出点の平均輝度LA2を算出する(ステップS1502)。図7の例で、第2検出点は検出点421,422,425である。
次に、露光制御部15は、基準輝度LS=(LA1+LA2)/2を算出する(ステップS1503)。このように、露光制御部15は、第1検出点の平均輝度LA1と第2検出点の平均輝度LA2の平均値を基準輝度LSとする。そして、露光制御部15は、基準輝度LSに基づきカメラ21の露光制御を行う(ステップS1504)。
<B−3.変形例>
上記では、エッジ検出部13が複数の検出点で瞼のエッジを検出することについて説明した。図4等では5つの検出点を示しているが、検出点の数は5つに限らない。また、エッジ検出部13は上瞼に限らず下瞼のエッジを検出しても良いし、上瞼と下瞼のエッジを両方検出しても良い。
また、上記では、露光制御部15は、第1検出点の平均輝度LA1と第2検出点の平均輝度LA2の平均値を基準輝度LSとしたが、他の方法で基準輝度LSを設定しても良い。例えば、露光制御部15は、第1検出点と第2検出点の輝度の中央値を基準輝度LSとしても良いし、第1検出点の輝度の中央値と第2検出点の輝度の中央値との平均値を基準輝度LSとしても良い。
<B−4.効果>
実施の形態2の露光制御装置102において、エッジ検出部13は、検出エッジを複数の検出点で検出する。そして、露光制御部15は、リファレンスエッジの対応点との距離が閾値以上の検出点である第1検出点の輝度と、リファレンスエッジの対応点との距離が閾値未満の検出点である第2検出点の輝度に基づき、カメラ21の露光制御を行う。この露光制御により、第1検出点と第2検出点の両方で目を撮影することが可能となる。従って、外光反射がある場合でも、適切に目の情報を検出することが可能となる。
また、露光制御部15は、第1検出点の平均輝度と第2検出点の平均輝度との平均値に基づき、カメラ21の露光制御を行う。この露光制御により、第1検出点と第2検出点の両方で目を撮影することが可能となる。
あるいは、露光制御部15は、第1検出点の輝度の中央値と第2検出点の輝度の中央値との平均値に基づき、カメラ21の露光制御を行う。この露光制御により、第1検出点と第2検出点の両方で目を撮影することが可能となる。
あるいは、露光制御部15は、第1検出点の輝度と第2検出点の輝度の中央値に基づき、カメラ21の露光制御を行う。この露光制御により、第1検出点と第2検出点の両方で目を撮影することが可能となる。
<C.実施の形態3>
<C−1.構成>
図11は、実施の形態3の露光制御装置103の構成を示すブロック図である。露光制御装置103は、実施の形態1および実施の形態2の露光制御装置101,102の構成に加えて、目情報検出部16を備えている。目情報検出部16以外の露光制御装置103の構成は露光制御装置101,102と同様であるため、その説明は省略する。
目情報検出部16は、画像取得部11からカメラ21の撮影画像を取得し、撮影画像から目情報を検出する。目情報とは、例えば視線方向または瞼の開度などであり、運転者の状態を把握するために用いられる。運転者の状態とは、例えば脇見運転または居眠り運転である。
露光制御装置103によれば、乗員が着用する眼鏡のレンズに外光反射が生じても、露光制御部15により適切な露光制御が行われるため、露光制御後の撮影画像から目情報を正確に検出することができる。
<C−2.動作>
目情報検出部16は、露光制御後の撮影画像のみから目情報を検出しても良いし、露光制御前の撮影画像から検出した目情報のうち、外光反射が生じた部分を、露光制御後の撮影画像から検出した目情報で補完しても良い。以下、目情報の補完について説明する。
図12は、露光制御装置103による露光制御前の撮影画像を示している。領域44に外光反射が生じているため、目情報検出部16は、領域45に重なる目の部分の情報を検出できるが、領域44に重なる目の部分の情報は高精度に検出できない。図13は、露光制御後の撮影画像を示している。図13の撮影画像では、領域44と領域45の両方に目が映っており、目情報検出部16は、領域45における目の部分の情報を高精度に検出可能である。
目情報検出部16は、露光制御前の撮影画像から検出できなかった目情報を、露光制御後の撮影画像から補完する。例えば、目情報が瞼のエッジである場合には、図13に示す第2検出点である検出点4231,4241を、図12に示す検出点423,424と置き換えることによって、目情報の補完を行う。
目情報が瞳孔の情報など、瞼のエッジ以外の情報を含む場合には、目情報検出部16は、第2検出点である検出点4231,4241から外光反射が生じた領域44を推定する。例えば、目情報検出部16は、検出点4231,4241を含む一定の領域、具体的にはレンズ41の上下方向に沿った領域を外光反射が生じた領域44として推定しても良い。あるいは、エッジ検出部13が上瞼と下瞼の両方のエッジを検出している場合には、目情報検出部16は、両方のエッジから抽出した第2検出点を結ぶ領域を、外光反射が生じた領域44として推定しても良い。これにより、外光反射が生じた領域44を正確に推定することができる。
そして、目情報検出部16は、撮影画像の、外光反射が生じたと推定した領域から検出した目情報を、露光制御前の撮影画像から検出した目情報に補完する。これにより、目情報検出部16は正確な目情報を得ることができる。
<C−3.効果>
露光制御装置103は、撮影画像から瞼の形状の情報を含む目情報を検出する目情報検出部16を備える。従って、露光制御装置103によれば、外光反射がある場合でも目情報を高精度に検出することができる。
また、目情報検出部16は、露光制御装置103による露光制御前の撮影画像から検出した目情報を、露光制御後の撮影画像から検出した目情報により補完する。これにより、外光反射がある場合でも目情報を高精度に検出することができる。
<D.実施の形態4>
<D−1.構成>
図14は、実施の形態4の露光制御装置104の構成を示すブロック図である。露光制御装置104は、実施の形態3の露光制御装置103に加えて、状態検出部17を備えている。状態検出部17以外の露光制御装置104の構成は露光制御装置103と同様であるため、その説明は省略する。
状態検出部17は、目情報検出部16により検出された目情報に基づき、運転者の状態を検出する。例えば、状態検出部17は、目情報として検出された運転者の視線方向に基づき、運転者が脇見運転をしているか否かを検出する。あるいは、状態検出部17は、目情報として検出された運転者の瞼のエッジに基づき、運転者が居眠りをしているか否かを検出する。これにより、例えば運転者が運転に適していない状態にある場合には、車両に搭載された表示装置または音声出力装置を通して警告を行うことができる。
<D−2.効果>
露光制御装置104は、目情報に基づき乗員の状態を検出する状態検出部を備える。従って、乗員が眼鏡を着用していても、乗員の状態を正確に検出することができる。
<E.ハードウェア構成>
上述した露光制御装置101−104における、画像取得部11、目検出部12、エッジ検出部13、差異検出部14、露光制御部15、目情報検出部16、および状態検出部17は、図15に示す処理回路51により実現される。すなわち、処理回路51は、画像取得部11、目検出部12、エッジ検出部13、差異検出部14、露光制御部15、目情報検出部16、および状態検出部17(以下、「画像取得部11等」と称する)を備える。処理回路51には、専用のハードウェアが適用されても良いし、メモリに格納されるプログラムを実行するプロセッサが適用されても良い。プロセッサは、例えば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。
処理回路51が専用のハードウェアである場合、処理回路51は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。〜部等の各部の機能それぞれは、複数の処理回路51で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
処理回路51がプロセッサである場合、画像取得部11等の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図16に示すように、処理回路51に適用されるプロセッサ52は、メモリ53に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、露光制御装置101−104は、処理回路51により実行されるときに、カメラ21による車両の乗員の目の撮影画像から目の目尻と目頭を検出するステップと、撮影画像から目尻と目頭の間の瞼を検出エッジとして検出するステップと、検出エッジとリファレンスエッジとの差異を検出するステップと、検出エッジとリファレンスエッジとの差異が小さくなるように、カメラの露光制御を行うステップと、が結果的に実行されることになるプログラムを格納するためのメモリ53を備える。換言すれば、このプログラムは、画像取得部11等の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリ53には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)及びそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、画像取得部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、画像取得部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば画像取得部11については専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ52としての処理回路51がメモリ53に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、処理回路は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
また、上記では露光制御装置101−104を車載装置として説明したが、車載装置、PND(Portable Navigation Device)、通信端末(例えば携帯電話、スマートフォン、およびタブレットなどの携帯端末)、およびこれらにインストールされるアプリケーションの機能、並びにサーバなどを適宜に組み合わせてシステムとして構築されるシステムにも適用することができる。この場合、以上で説明した露光制御装置101−104の各機能または各構成要素は、システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。図17は、車両71とサーバ72による露光制御装置103の構成例を示している。この構成例では、画像取得部11、露光制御部15および目情報検出部16が車両71に配置され、目検出部12、エッジ検出部13および差異検出部14がサーバ72に配置されている。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。この発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
11 画像取得部、12 目検出部、13 エッジ検出部、14 差異検出部、15 露光制御部、16 目情報検出部、17 状態検出部、21 カメラ、22 投光器、101−104 露光制御装置。

Claims (9)

  1. カメラによる車両の乗員の目の撮影画像から、前記目の目尻と目頭を検出する目検出部と、
    前記撮影画像から前記目尻と前記目頭の間の瞼のエッジを検出エッジとして検出するエッジ検出部と、
    前記検出エッジと、リファレンスエッジとの差異を検出する差異検出部と、
    前記検出エッジと前記リファレンスエッジとの差異が小さくなるように露光制御を行う露光制御部と、を備える、
    露光制御装置。
  2. 前記エッジ検出部は、前記検出エッジを複数の検出点で検出し、
    前記露光制御部は、前記リファレンスエッジの対応点との距離が閾値以上の前記検出点である第1検出点の輝度と、前記リファレンスエッジの対応点との距離が前記閾値未満の前記検出点である第2検出点の輝度に基づき、前記カメラの露光制御を行う、
    請求項1に記載の露光制御装置。
  3. 前記露光制御部は、前記第1検出点の平均輝度と前記第2検出点の平均輝度との平均値に基づき、前記カメラの露光制御を行う、
    請求項2に記載の露光制御装置。
  4. 前記露光制御部は、前記第1検出点の輝度の中央値と前記第2検出点の輝度の中央値との平均値に基づき、前記カメラの露光制御を行う、
    請求項2に記載の露光制御装置。
  5. 前記露光制御部は、前記第1検出点の輝度と前記第2検出点の輝度の中央値に基づき、前記カメラの露光制御を行う、
    請求項2に記載の露光制御装置。
  6. 前記撮影画像から前記目の情報である目情報を検出する目情報検出部をさらに備える、
    請求項1に記載の露光制御装置。
  7. 前記目情報検出部は、前記露光制御装置による露光制御前の前記撮影画像から検出した前記目情報を、露光制御後の前記撮影画像から検出した前記目情報により補完する、
    請求項6に記載の露光制御装置。
  8. 前記目情報に基づき前記乗員の状態を検出する状態検出部をさらに備える、
    請求項6に記載の露光制御装置。
  9. カメラによる車両の乗員の目の撮影画像から前記目の目尻と目頭を検出し、
    前記撮影画像から前記目尻と前記目頭の間の瞼を検出エッジとして検出し、
    前記検出エッジとリファレンスエッジとの差異を検出し、
    前記検出エッジと前記リファレンスエッジとの差異が小さくなるように、前記カメラの露光制御を行う、
    露光制御方法。
JP2021507101A 2019-03-26 2019-03-26 露光制御装置および露光制御方法 Active JP6873351B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/012738 WO2020194489A1 (ja) 2019-03-26 2019-03-26 露光制御装置および露光制御方法

Publications (2)

Publication Number Publication Date
JP6873351B2 true JP6873351B2 (ja) 2021-05-19
JPWO2020194489A1 JPWO2020194489A1 (ja) 2021-09-13

Family

ID=72609344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021507101A Active JP6873351B2 (ja) 2019-03-26 2019-03-26 露光制御装置および露光制御方法

Country Status (2)

Country Link
JP (1) JP6873351B2 (ja)
WO (1) WO2020194489A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3465566B2 (ja) * 1997-12-25 2003-11-10 日産自動車株式会社 眼位置検出装置
JP2000310510A (ja) * 1999-04-28 2000-11-07 Niles Parts Co Ltd 眼位置検出装置
JP2002352229A (ja) * 2001-05-30 2002-12-06 Mitsubishi Electric Corp 顔部位検出装置
JP4895874B2 (ja) * 2007-03-15 2012-03-14 アイシン精機株式会社 目状態判別装置、目状態判別方法及び目状態判別プログラム
JP4780088B2 (ja) * 2007-11-09 2011-09-28 アイシン精機株式会社 顔画像撮像装置、顔画像撮像方法、及びそのプログラム
JP5366028B2 (ja) * 2011-08-25 2013-12-11 株式会社デンソー 顔画像撮像装置
JP5761074B2 (ja) * 2012-02-24 2015-08-12 株式会社デンソー 撮像制御装置及びプログラム

Also Published As

Publication number Publication date
WO2020194489A1 (ja) 2020-10-01
JPWO2020194489A1 (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
US9876950B2 (en) Image capturing apparatus, control method thereof, and storage medium
CN108932698B (zh) 图像畸变的校正方法、装置、电子设备和存储介质
EP3318054A1 (en) Systems and methods for autofocus trigger
JP2013160919A (ja) 画像信号処理装置及び画像信号処理方法
US9699369B2 (en) Focus detection apparatus and control method for the same
US9781330B2 (en) Focus detection apparatus and control method for focus detection apparatus
US11210773B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP4721434B2 (ja) 撮像装置及びその制御方法
US20180241946A1 (en) Image processing apparatus, imaging apparatus, and method for controlling image processing apparatus
JP2015061120A5 (ja)
US11750922B2 (en) Camera switchover control techniques for multiple-camera systems
US9781331B2 (en) Imaging apparatus, and control method thereof
US9609202B2 (en) Image pickup apparatus and control method with focus adjusting modes
JP6873351B2 (ja) 露光制御装置および露光制御方法
JP6381206B2 (ja) 画像処理装置、その制御方法およびプログラム
US9854150B2 (en) Auto-focus control in a camera to prevent oscillation
JP6429724B2 (ja) 撮像装置およびその制御方法
US10638042B2 (en) Electronic device, control device for controlling electronic device, control program, and control method
JP6492557B2 (ja) 焦点調節装置およびカメラ
US20230077645A1 (en) Interchangeable lens and image pickup apparatus
JP2005134617A (ja) 焦点検出装置
US20240177463A1 (en) Image processing apparatus, control apparatus, image processing method, and storage medium
JP5362981B2 (ja) 撮像装置
JP2008122981A (ja) カメラの焦点検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210209

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210420

R150 Certificate of patent or registration of utility model

Ref document number: 6873351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250