JP2022549694A - 画像センサーと対象領域との間の距離決定 - Google Patents

画像センサーと対象領域との間の距離決定 Download PDF

Info

Publication number
JP2022549694A
JP2022549694A JP2022519232A JP2022519232A JP2022549694A JP 2022549694 A JP2022549694 A JP 2022549694A JP 2022519232 A JP2022519232 A JP 2022519232A JP 2022519232 A JP2022519232 A JP 2022519232A JP 2022549694 A JP2022549694 A JP 2022549694A
Authority
JP
Japan
Prior art keywords
light source
distance
steering wheel
image sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022519232A
Other languages
English (en)
Inventor
アンデシュ、エリアソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Eye AB
Original Assignee
Smart Eye AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Eye AB filed Critical Smart Eye AB
Publication of JP2022549694A publication Critical patent/JP2022549694A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022549694000001
画像センサーと車両の運転者の対象領域との間の距離Dsensorを決定する方法であって、当該方法は、車両内の構造が少なくとも時折、対象領域中に影を投じるように、点光源を画像センサーに対して既知の幾何学的関係になるように配置することと、画像センサーによって取得される影を含む対象領域の画像、および、点光源とステアリングホイールとの間の幾何学的関係(例えば、距離)に基づいて、点光源と構造との間の距離Dlight sourceを決定することと、距離Dlight source、および、点光源と画像センサーとの間の既知の幾何学的関係に基づいて、距離Dsensorを決定することを含む。このアプローチによって、単一の画像センサーを用いる、対象領域までの信頼できる距離の決定を提供することができる。

Description

本発明は、特に視線追跡システムにおいて、単一の画像センサーと対象領域との間の距離を決定することに関する。
伝統的に、車両の乗員識別装置のような車両の監視システム、あるいは視線追跡システムにおいて、センサーデバイスと車両の乗員との間の距離を決定する技術は、例えば運転者の頭部または顔のような、車両の乗員の体の部位の位置を識別することに注力してきた。
大部分の頭部または目の追跡システムでは、ユーザーの顔は中心波長が可視スペクトル外の光源によって照らされ、1つまたは複数の画像センサーによって顔の画像が取得される。2つの画像センサー(「ステレオイメージング」)の場合、顔までの距離は三角測量によって決定することができる。しかしながら、単一のカメラのシステムでは、顔までの距離を決定することは困難になり得る。
1つのアプローチは、(画像中の)瞳孔間距離または他の類似のパラメータを測定し、パラメータの期待値に基づいて距離を推定することである。この距離決定アプローチにおける1つの主要な問題は、測定されたパラメータの天性の分布に起因する推定の不確かさであり、これは約10%の距離推定誤差をもたらす。虹彩のサイズまたは角膜の曲率のようなパラメータの別の選択は、測定の不確かさを最小限にし得るが、例えば眼鏡をかけることによって運転者の目が覆われるとすぐに、これらの特徴量の測定は光の反射の影響を受け、信頼できないものとなる。
したがって、運転者の顔と単一の画像センサーとの間の改善された距離決定が必要である。
本発明の目的は、上記の問題を克服し、車両内における単一の画像センサーと対象領域との間の距離を満足のいくように決定する実現可能な方法を提供することである。
本発明の第1の態様によれば、この目的および他の目的は、画像センサーと車両の運転者の対象領域との間の距離Dsensorを決定する方法によって達成される。当該方法は、車両のステアリングホイールが少なくとも時折、対象領域中に影を投じるように、点光源を画像センサーに対して既知の幾何学的関係になるように配置することと、画像センサーによって取得される影を含む対象領域の画像、および、点光源とステアリングホイールとの間の幾何学的関係(例えば、距離)に基づいて、点光源と対象領域との間の距離Dlight sourceを決定することと、距離Dlight source、および、点光源と画像センサーとの間の既知の幾何学的関係に基づいて、距離Dsensorを決定することとを含む。
本発明の第2の態様によれば、この目的および他の目的は、画像センサーと車両の運転者の対象領域との間の距離Dsensorを決定する装置によって達成される。当該装置は、車両のステアリングホイールが少なくとも時折、対象領域中に影を投じるように、画像センサーに対して既知の幾何学的関係になるように配置される点光源と、処理回路であって、画像センサーによって取得される影を含む対象領域の画像、および、光源とステアリングホイールとの間の幾何学的関係に基づいて、光源と対象領域との間の距離Dlight sourceを決定し、距離Dlight source、および、光源と画像センサーとの間の既知の幾何学的関係に基づいて、距離Dsensorを決定するように構成される処理回路とを備える。
本発明は、光源(複数可)と対象領域との間に配置されるステアリングホイールが影を投じるという認識に基づいており、1)光源(複数可)とステアリングホイールとの間、および2)光源(複数可)と画像センサーとの間における幾何学的関係が既知である場合には、上記の認識を光源と対象領域との間の距離を決定するのに用いることができる。
このアプローチにより、単一の画像センサーを用いて、対象領域までの距離の信頼できる決定が提供され得る。
原理的には、光源とステアリングホイールとの間の既知の幾何学的関係(例えば、距離)は、影の位置および/またはサイズに基づいて、光源(複数可)と対象領域との間の第1の距離を決定することを可能にする。一方、光源と画像センサーとの間の幾何学的関係は、この第1の距離を必要な距離Dsensorに変換することを可能にする。(もちろん、第1の距離の明示的な計算は必要でない場合もある。)
説明のための以下の記載においては、光源とステアリングホイールとの間の「既知の幾何学的関係」は、「距離」とも呼ばれることに注意されたい。多くの場合、これは正確な記載でもある。しかしながら、いくつかの場合には、ステアリングホイールが対象領域(例えば、顔)とは同一平面にない場合もあり、単一の「距離」が存在しないため、これは単純化である。そのような場合には、幾何学的な関係は、スカラー距離よりも複雑になり得る。
いくつかの態様では、距離Dsensorは、画像中からステアリングホイールの特定の部分の影の幅を検出し、距離Dlight sourceをd×R/rとして計算することができる。ここで、dは光源とステアリングホイールとの間の距離、rは上記の部分の既知の幅、Rは検出された幅である。
他の態様では、距離Dlight sourceは、画像中からステアリングホイールの特定の輪郭の影の位置Pを検出し、距離Dlight sourceをd×P/pとして計算することができる。ここで、dは光源とステアリングホイールとの間の距離、pは光源の光軸に関して決定される輪郭の位置、Pは検出された位置であり、位置pおよび検出された位置Pはともに、光源の光軸に関して決定される。
リムおよびスポークを有する典型的なステアリングホイールのデザイン、および運転中におけるその回転運動は、本発明の目的に非常に適している。
部分または輪郭は、ステアリングホイールのスポークの部分であってもよい。スポークを用いることの有利な点は、ステアリングホイールは、通常は横方向に調整できないことである。したがって、放射状に延びるスポークの水平成分は、ステアリングホイールの上/下の調整による影響を受けない。
スポークと画像センサーとの間の距離は、事前に知られていてもよいし、あるいは適切な較正手続きの間に決定されてもよい。例えば、ステアリングホイールには、既知の間隔を有する反射マーカーを設けることができ、これは、画像センサーによって取得される画像から、画像センサーとステアリングホイールとの間の距離の検出を可能にする。代替的には、画像センサーとステアリングホイールとの間の距離は、画像センサーによって取得される画像中で識別される幾何学的パラメータの値、および、既知の距離における同じ幾何学的パラメータの事前に識別された値に基づいて、決定することができる。
幾つかの態様では、ステアリングホイールの形状(例えば、スポークの幅)は、距離の決定を容易にするために望ましい。そのような形状は、例えば、車両のステアリングホイールに関するCAD情報から知ることができる。代替的に、そのような情報を利用できない状況では、ステアリングホイールの形状は、画像センサーによって取得される画像から、画像センサーとステアリングホイールとの間の既知の距離に基づいて、決定することができる。
幾つかの態様では、距離の決定を容易にするために、ステアリングホイールの角度位置が検出される。ステアリングホイールの形状とその角度位置が既知である場合には、スポークの側辺の角度が既知であり、これはスポークの影の識別を容易にする。また、スポークの位置は既知であり、そのため、ステアリングホイールの画像を取得できることは重要ではない。これは画像センサーがステアリングホイールを「見る」ことができない実装を許容する。
代替的に、いくつかの態様では、影のパターン、ステアリングホイールの形状、ステアリングホイールと画像センサーとの間の距離、またはステアリングホイールの角度位置は、時間の関数としての測定値(例えば、取得された画像中で識別される幾何学的パラメータ)の適切な出力を、ステアリングホイールの様々な幾何学的寸法および位置について訓練された人工ニューラルネットワークに提供することにより、決定することができる。
本発明は、発明の好ましい実施形態を示す添付の図面を参照して、より詳細に説明される。
本発明の実施形態に係る視線追跡システムの説明図である。 図1の視線追跡システムの側面図である。 図2aの幾何学的関係の説明図である。 図1の視線追跡システムの別の説明図である。 図3aの幾何学的関係の説明図である。 本発明の実施形態に係る方法のフローチャートである。
以降の詳細な説明では、本発明のいくつかの実施形態が説明される。しかしながら、特に明記されない限り、種々の実施形態の特徴は、実施形態の間で交換可能であり、また種々の方法で組み合わせることができることを理解されたい。以降の説明では、本発明のより完全な理解を提供するために、多数の具体的な詳細が示されるが、これらの具体的な詳細がなくても本発明を実施できることは、当業者にとっては明らかである。
エレクトロニクス、センサーシステム、画像解析、信号処理、データ通信システム、画像取得システム、および本発明を実施するためのその他の構成要素の基礎および従来技術は、当業者にとっては容易に理解可能であると考えられる。したがって、簡潔にするために、さらなる説明および詳細は、この説明では省略される。
他の例では、本発明を曖昧にしないように、周知の構成または機能は、詳細には説明されない。
図1、2a、3aは、ユーザーの目を検出する視線追跡システム1を示している。システムは、光源2と、画像センサー3と、処理回路4とを備えている。画像センサー3は、対象領域、ここではユーザー6の顔5の画像を取得するように構成されている。処理回路は、ユーザー6の目7を識別して検出するように構成されている。
図1、2a、3aでは、単一の光源が描かれているが、1つよりも多くの光源を設けることも可能である。代替的には、例えば、反射を低減/除去する目的で、対象領域を少なくとも2つの光源で照らすことが有利となり得る。光源2は、種々の波長領域で動作し、好ましくは光スペクトルの赤外(IR)または近赤外に中心波長を有する発光ダイオード(LED)、発散レンズを有するアイセーフレーザー、またはそれに類する、しかしこれらに限定されない、任意の適切な種類の光源であってよい。この好ましい実施形態では、光源2はIR LEDである。周囲光からの干渉を除去または最小化するために、光源は、パスバンドの中心がIR波長の中心付近であるバンドパスフィルターと組み合わせて用いられる。中心波長は、近IR領域、例えば840nmまたは940nmにあってもよい。フィルターは、光源から放出される大部分の光を捉えることができると同時に、大部分の周囲光をブロックする、パスバンドを有する。
画像センサー3は、カメラ、または、半導体イメージセンサー、光検出器、熱検出器、PINダイオード、またはアバランチェダイオードのような、光検出器であってもよい。カメラ3はさらに、電荷結合デバイス(CCD)センサーアレイ、または相補型金属酸化膜半導体(CMOS)センサーアレイ、またはそれに類するものであってもよい。上述したIR LEDのような狭帯域の光源の場合には、画像センサー3は、光源2のスペクトルに対応するパスバンドを有するバンドパスフィルター(図示せず)と共に設けられてもよい。
さらに、光源2および画像センサー3は、送信された信号が同期的に復調されて、周囲のIRノイズが除去されるように構成されてもよく、これにより、低強度のIR LEDであっても、キャプチャされた画像の質が向上する。LEDから送信されるIR光は、所定の期間にわたる連続波であってもよく、所定の周波数のパルス光であってもよい。記録された画像が、画像処理のような更なるデータ処理、またはマシンビジョンアルゴリズムへの入力として用いられるのに適するように、画像センサー3の感度および解像度を選択することができる。
光源2および画像センサー3は、時間同期するように構成されてもよい。処理回路4は、画像センサー3から取得された画像を処理および解析するコンピュータビジョンシステムおよび画像処理アルゴリズムを動作させるように構成されてもよい。
さらに、処理回路4は、例えば、運転者が彼または彼女の頭部を動かした時に、ユーザーの頭部の位置を決定する等の他の機能を実行するように構成されてもよい。処理回路4は、位置情報を用いて、頭部の動く方向を検出し、対象領域5と画像センサー3との間の距離の変化を計算するように構成されてもよい。処理回路4はまた、車両の異なる構成要素あるいは遠隔のデータセンターとの間で、データを送信、および/または受信するように構成されてもよい。さらに、処理回路4は、この場合には、IR画像センサー3および他の構成要素に有線接続される。しかしながら、遠隔の構成要素にアクセスするのに、有線接続に代えて無線接続を用いることは、容易に想到することができる。
ステアリングホイール8は、光源と顔5との間に配置され、これにより、ステアリングホイールが顔5の上に影9を投じる。
処理回路はまた、処理を容易にするために、様々なセンサー入力を受信するように構成されうる。例えば、現在のステアリングホイールの角度についての情報が処理回路に提供されてもよい。
この例では、光源2、画像センサー3、および処理回路4は、別個の構成要素として描かれているが、別の例では、そうである場合もあるし、そうでない場合もあることを認識されたい。光源2または処理回路4を画像センサー3と統合するように、あるいは画像センサー3からデータを無線で受信するように構成される等の他の組み合わせは、当業者にとって容易に想到することができる。したがって、これらの構成要素のいくつか、またはすべては、別の例では、単一のユニットの一部として形成することもできる。
図2を参照すると、特定の部分、ここではステアリングホイール8のリム21が、距離Dlight sourceを決定するために用いられる。この例では、特定の部分21は、既知の幅「r」を有しており、LED2とステアリングホイール8との間の距離は「d」である。光源2によって照らされると、リム21は、対象領域7上に幅「R」の対応する影部分22を生成する。
この実施形態では、処理回路4は、取得された画像中から、投じられた影部分22のサイズを検出して識別するように構成されている。LED2からリム21に投じられる入射光と、対応する影22とは、図2bに示されるような2つの相似の三角形△abc~△adeを作り出す。三角形の比例の定理(Triangle Proportionality Theorem)を用いることにより、2つの相似の三角形の対応する高さおよび辺は互いに比例していると判定され、この例では、処理回路4は、距離Dlight sourceを、距離Dlight source=d×R/rとして決定する。
図3aの例では、特定の輪郭の位置p、ここではステアリングホイール8のスポーク32のエッジ31が、LED2の光軸Aに関して決定される。位置pに対応する影9の部分34の位置「P」が、取得された画像中から処理回路4によって検出される。図2aと同様に、LED2とステアリングホイール8との間の距離は、dとラベル付けられている。
再び図3bを参照して、2つの相似の三角形△apc~△aPeが形成され、ここで、cおよびeは光軸A上に位置している。位置pおよびPが光軸Aまでの垂直の距離として表されている場合には、距離Dlight sourceは、距離Dlight source=d×P/pとして決定することができる。距離Dlight sourceの決定は、他の相似の三角形を選ぶことによっても、容易に考えられることを認識されたい。
以降では、図4のフローチャートを参照して、図1、2a、3aのシステム1の動作が説明される。
ステップS1において、ステアリングホイール8の影がユーザー6の顔5に投じられるように、光源2が配置される。いくつかの構成では、ステアリングホイール8の部分は常に、光源2と顔5との間に配置される。他の構成では、ステアリングホイールのいくつかの位置においてのみ、影を見ることができる。
ステップS2において、画像センサー3は、顔5と共にステアリングホイール8の影9を含む、1つまたは複数の画像を取得する。取得された画像(複数可)は、適切な画像処理のために、処理回路4に提供される。
ステップS3-S5において、処理回路4は、上述した関係に基づいて、画像センサー3と顔5との間の距離を決定する。はじめに、ステップS3において、処理回路4は、影9の幅d、および/または位置pを取り出す。例えば、キャプチャされたステアリングホイールの影を画像処理アルゴリズムに入力として提供することにより、キャプチャされた画像から対応する画素情報を取り出すことができる。取り出された画素情報は、画素の輝度または色、画素の解像度、または対象領域上の画素の位置を含むことができ、次にこれらを用いて、影のサイズまたは位置を計算することができる。現在のステアリングホイールの角度についての情報は、影の輪郭、例えばスポークのエッジの識別を容易にすることができ、これはステアリングホイールの角度に相関性のある傾きを有することになる。
次にステップS4において、S3からの情報が用いられて、光源2と対象領域7との間の距離Dlight sourceが決定される。最後に、光源2と画像センサー3との間の既知の幾何学的関係を用いて、画像センサー3と対象領域7との間の距離Dsensorが、ステップS5において計算される。
図4の処理は通常、各運転セッションについて、1回だけ実行される必要があることに注意されたい。最初の距離Dsensorの決定の後では、何らかの不変のパラメータ(例えば、虹彩のサイズ)を用いて、連続的な距離の測定を行うことができる。最初に決定された距離でこのパラメータを測定することにより、このパラメータを監視して距離の任意の変化を検出することができる。
当業者は、本発明が上述した好ましい実施形態に決して限定されるものではないことを理解する。それどころか、多数の変形およびバリエーションが添付のクレームの範囲内で可能である。例えば、ここで開示された視線検出システムの詳細は、本発明の動作にとって重要ではない。

Claims (9)

  1. 画像センサーと車両の運転者の対象領域との間の距離Dsensorを決定する方法であって、
    前記車両のステアリングホイールが少なくとも時折、前記対象領域中に影を投じるように、点光源を前記画像センサーに対して既知の幾何学的関係になるように配置することと、
    前記画像センサーによって取得される前記影を含む前記対象領域の画像、および、前記点光源と前記ステアリングホイールとの間の幾何学的関係に基づいて、前記点光源と前記対象領域との間の距離Dlight sourceを決定することと、
    前記距離Dlight source、および、前記点光源と前記画像センサーとの間の前記既知の幾何学的関係に基づいて、前記距離Dsensorを決定することと
    を含み、
    前記距離Dlight sourceは、
    -前記画像中から前記ステアリングホイールの特定の部分の影の幅(R)を検出することと、
    -前記距離Dlight sourceを、該距離Dlight source=d×R/rとして計算することであって、dは前記点光源と前記ステアリングホイールとの間の既知の距離、rは前記部分の既知の幅、Rは検出された前記幅である、
    によって決定されるか、あるいは、
    -前記画像中から前記ステアリングホイールの部分の特定の輪郭の影の位置Pを検出することと、
    - 前記距離Dlight sourceを、該距離Dlight source=d×P/pとして計算することであって、dは前記点光源と前記ステアリングホイールとの間の既知の距離、pは前記輪郭の既知の位置、Pは検出された前記位置であり、
    前記位置pおよび検出された前記位置Pはともに、前記点光源の光軸に関して決定される、
    によって決定されるかのいずれかである、方法。
  2. 前記部分は、前記ステアリングホイールのリムまたはスポークである、請求項1に記載の方法。
  3. 前記画像センサーと前記ステアリングホイールとの間の距離を決定することと、
    前記画像センサーと前記ステアリングホイールとの間の前記距離、および、前記点光源と前記画像センサーとの間の前記既知の幾何学的関係に基づいて、前記点光源と前記ステアリングホイールとの間の距離dを決定することと
    をさらに含む、請求項1または2に記載の方法。
  4. 前記画像センサーと前記ステアリングホイールとの間の前記距離は、前記画像センサーによって取得される画像中で識別される幾何学的パラメータの値、および、既知の距離における前記幾何学的パラメータの事前に識別された値に基づいて、決定される、請求項3に記載の方法。
  5. 前記画像センサーと前記ステアリングホイールとの間の前記距離は、前記画像センサーによって取得される画像中におけるマーカーのセットの位置に基づいて決定され、前記マーカーは、前記構造の所定の位置に配置される、請求項3に記載の方法。
  6. 前記画像センサーによって取得される画像から、前記画像センサーと前記構造との間の前記距離に基づいて、前記ステアリングホイールの形状を決定することをさらに含む、請求項1~5のいずれか一項に記載の方法。
  7. 前記ステアリングホイールの角度位置を検出することをさらに含む、請求項1~6のいずれか一項に記載の方法。
  8. 画像センサーと車両の運転者の対象領域との間の距離Dsensorを決定する装置であって、
    前記車両のステアリングホイールが少なくとも時折、前記対象領域中に影を投じるように、前記画像センサーに対して既知の幾何学的関係になるように配置される点光源と、
    処理回路であって、
    前記画像センサーによって取得される前記影を含む前記対象領域の画像、および、前記点光源と前記ステアリングホイールとの間の幾何学的関係に基づいて、前記光源と前記対象領域との間の距離Dlight sourceを決定し、
    前記距離Dlight source、および、前記点光源と前記画像センサーとの間の前記既知の幾何学的関係に基づいて、前記距離Dsensorを決定する
    ように構成される処理回路と
    を備え、
    前記距離Dlight sourceは、
    -前記画像中から前記ステアリングホイールの特定の部分の影の幅(R)を検出することと、
    -前記距離Dlight sourceを、該距離Dlight source =d×R/rとして計算することであって、dは前記点光源と前記ステアリングホイールとの間の既知の距離、rは前記部分の既知の幅、Rは検出された前記幅である、
    によって決定されるか、あるいは、
    -前記画像中から前記ステアリングホイールの部分の特定の輪郭の影の位置Pを検出することと、
    - 前記距離Dlight sourceを、該距離Dlight source=d×P/pとして計算することであって、dは前記点光源と前記ステアリングホイールとの間の既知の距離、pは前記輪郭の既知の位置、Pは検出された前記位置であり、
    前記位置pおよび検出された前記位置Pはともに、前記点光源の光軸に関して決定される、
    によって決定されるかのいずれかである、装置。
  9. 前記ステアリングホイールの角度位置を検出するための角度センサーをさらに備える、請求項8に記載の装置。
JP2022519232A 2019-09-26 2020-09-22 画像センサーと対象領域との間の距離決定 Pending JP2022549694A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19199873.1 2019-09-26
EP19199873 2019-09-26
PCT/EP2020/076370 WO2021058455A1 (en) 2019-09-26 2020-09-22 Distance determination between an image sensor and a target area

Publications (1)

Publication Number Publication Date
JP2022549694A true JP2022549694A (ja) 2022-11-28

Family

ID=68072145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022519232A Pending JP2022549694A (ja) 2019-09-26 2020-09-22 画像センサーと対象領域との間の距離決定

Country Status (6)

Country Link
US (1) US20220366585A1 (ja)
EP (1) EP4035060B1 (ja)
JP (1) JP2022549694A (ja)
KR (1) KR20220063267A (ja)
CN (1) CN114467126A (ja)
WO (1) WO2021058455A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007050834A (ja) * 2005-08-19 2007-03-01 Denso Corp 車両用遮光装置
US20200210733A1 (en) * 2017-08-22 2020-07-02 Seeing Machines Limited Enhanced video-based driver monitoring using phase detect sensors

Also Published As

Publication number Publication date
CN114467126A (zh) 2022-05-10
KR20220063267A (ko) 2022-05-17
US20220366585A1 (en) 2022-11-17
EP4035060B1 (en) 2024-05-22
EP4035060A1 (en) 2022-08-03
WO2021058455A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
US11706377B2 (en) Visual, depth and micro-vibration data extraction using a unified imaging device
CN107025635B (zh) 基于景深的图像饱和度的处理方法、处理装置和电子装置
US20130089240A1 (en) Handheld iris imager
US10969862B2 (en) Eyewear-mountable eye tracking device
US20200210733A1 (en) Enhanced video-based driver monitoring using phase detect sensors
US7430365B2 (en) Safe eye detection
KR101829850B1 (ko) 공간적으로 제어된 장면 조명을 위한 시스템 및 방법
JP6346525B2 (ja) 視線検出装置
JP5694161B2 (ja) 瞳孔検出装置及び瞳孔検出方法
US7810926B2 (en) Lateral gaze angle estimation using relative eye separation
US20080252850A1 (en) Device and Method for the Contactless Determination of the Direction of Viewing
CN107960989B (zh) 脉搏波计测装置以及脉搏波计测方法
US20180110423A1 (en) Optical laser speckle sensor for measuring a blood perfusion parameter
US20190204914A1 (en) Line of sight measurement device
US20190104980A1 (en) Non-contact apparatus and method for capturing skin surface image data
KR20190071310A (ko) 레이더 측정 거리를 이용한 열영상 체온 보정 시스템 및 방법
FR2985070A1 (fr) Procede et systeme de detection de chutes de personnes
US20200370884A1 (en) Surface characteristic inspection apparatus and surface characteristic inspection program
JP2016051317A (ja) 視線検出装置
JP2022549694A (ja) 画像センサーと対象領域との間の距離決定
US20220335648A1 (en) Determination of Gaze Direction
WO2021236976A1 (en) Prismatic triangulating corneal topography system and methods of use
JP4260715B2 (ja) 視線測定方法および視線測定装置
JP2020129187A (ja) 外形認識装置、外形認識システム及び外形認識方法
KR20190107738A (ko) 이미지 처리 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507