JP7112945B2 - 反射を検出する装置及び方法 - Google Patents

反射を検出する装置及び方法 Download PDF

Info

Publication number
JP7112945B2
JP7112945B2 JP2018219280A JP2018219280A JP7112945B2 JP 7112945 B2 JP7112945 B2 JP 7112945B2 JP 2018219280 A JP2018219280 A JP 2018219280A JP 2018219280 A JP2018219280 A JP 2018219280A JP 7112945 B2 JP7112945 B2 JP 7112945B2
Authority
JP
Japan
Prior art keywords
infrared light
light source
input image
reflection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018219280A
Other languages
English (en)
Other versions
JP2019115037A (ja
Inventor
東佑 姜
東▲ぎょん▼ 南
珍九 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019115037A publication Critical patent/JP2019115037A/ja
Application granted granted Critical
Publication of JP7112945B2 publication Critical patent/JP7112945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Description

開示される実施形態は、反射を検出する装置及び方法等に関連する。
カメラ基盤の目追跡技術は、例えば、視点追跡基盤の無メガネ3D超多視点ディスプレイなど、多くの分野で活用されている。カメラ基盤の目追跡装置は、明るい高照度の環境(例えば、400Lux)では適切に動作するものの、低照度の環境ではカメラ映像の低品質化によって適切には動作しなくなってしまうことが懸念される。一方、TV視聴やモバイル機器は、明るい場所だけではなく暗い場所でも頻繁に使用され、次世代車両用3Dヘッドアップディスプレイ(HUD:Head-up display)の技術においても夜の運転が考慮されなければならない。
夜間又は暗い場所のような低照度の環境でカラーカメラを用いてユーザの目を追跡する場合、映像品質が劣化して目追跡の正確度及び成功率が低下するため、赤外線カメラを使用することが考えられるかもしれない。しかしながら、赤外線カメラの場合、メガネ着用者の目追跡に関する正確度及び成功率は、レンズの反射等によって低下してしまうことが懸念される。
一実施形態に係る反射を検出する装置は、赤外線光源の活性化及び不活性化を繰り返すことで、イメージから反射領域を取得することにある。
一実施形態に係る反射を検出する装置によって実行される、反射を検出する方法は、赤外線光源の活性化に基づいて、オブジェクトの入力イメージを取得するステップと、前記赤外線光源の不活性化に基づいて、前記オブジェクトの基準イメージを取得するステップと、前記入力イメージ及び前記基準イメージに基づいて、前記入力イメージから反射領域を抽出するステップとを含む。
前記入力イメージを取得するステップは、オン区間の間に前記赤外線光源を活性化するステップを含み、前記基準イメージを取得するステップは、オフ区間の間に前記赤外線光源を不活性化するステップを含み得る。
前記入力イメージを取得するステップは、前記オン区間の間に、前記オブジェクトから受信された第1の複数の光線に基づいて前記入力イメージを生成するステップをさらに含み、前記基準イメージを取得するステップは、前記オフ区間の間に、前記オブジェクトから受信された第2の複数の光線に基づいて前記基準イメージを生成するステップをさらに含み得る。
前記入力イメージを生成するステップは、前記オン区間の第1フレームの第1部分の間に、前記オブジェクトから受信された前記第1の複数の光線の第1強度を収集するステップと、前記入力イメージを生成するために前記第1強度を前記入力イメージの第1ピクセルの第1ピクセル値に決定するステップとを含み、前記基準イメージを生成するステップは、前記オフ区間の第2フレームの第2部分の間に、前記オブジェクトから受信された前記第2の複数の光線の第2強度を収集するステップと、前記基準イメージを生成するために前記第2強度を前記基準イメージの第2ピクセルの第2ピクセル値に決定するステップとを含み得る。
前記反射領域を抽出するステップは、前記基準イメージの第1ピクセル値を前記第1ピクセル値にそれぞれ対応する前記入力イメージの第2ピクセル値から差し引くことで、前記入力イメージと前記基準イメージとの間の差を指示する差異マップを生成するステップと、前記差異マップに基づいて前記入力イメージから前記反射領域を抽出するステップとを含み得る。
前記反射領域を抽出するステップは、前記入力イメージと前記基準イメージとの間の差異マップのうち閾値を超過する差値を有するエレメントを決定するステップと、前記入力イメージで前記エレメントに対応するピクセルを前記反射領域として決定するステップとをさらに含み得る。
一実施形態に係る反射を検出する方法は、前記オブジェクトの位置を追跡するステップと、赤外線アレイに含まれた複数の赤外線光源から、前記追跡された位置に対応する少なくとも1つの赤外線光源を指定するステップとをさらに含み、前記入力イメージを取得するステップは、オン区間の間指定された、前記複数の赤外線光源のうち前記少なくとも1つの赤外線光源を活性化するステップを含み、前記基準イメージを取得するステップは、オフ区間の間指定された、前記複数の赤外線光源のうち前記少なくとも1つの赤外線光源を不活性化するステップを含み得る。
前記入力イメージを取得するステップは、前記赤外線光源が活性化してオン区間の間に前記オブジェクトから受信された第1光線の赤外線領域に基づいて前記入力イメージを取得するステップを含み、前記基準イメージを取得するステップは、前記赤外線光源が不活性化されるオフ区間の間に前記オブジェクトから受信された第2光線の可視光線領域に基づいて前記基準イメージを取得するステップを含み得る。
一実施形態に係る反射を検出する方法は、前記赤外線光源が活性化してオン区間の第1時間の長さ、及び前記赤外線光源が不活性化されるオフ区間の第2時間の長さを動的に調整するステップをさらに含み得る。
一実施形態に係る反射を検出する方法は、前記入力イメージから前記反射領域を除去するステップと、前記反射領域が除去された入力イメージに基づいてユーザの視線を追跡するステップとをさらに含み得る。
前記赤外線光源が前記オブジェクトで第1光線を放出する第1方向、及び前記オブジェクトからイメージ取得部が第2光線を受信する第2方向が予め決定された角度をなすよう、前記赤外線光源及び前記イメージ取得部が配置され得る。
一実施形態に係る反射を検出する方法は、前記赤外線光源が活性化してオン区間の開始タイミングから第1中間タイミングまで前記赤外線光源の光線強度を次第に増加させるステップと、前記オン区間の前記第1中間タイミングから第1終了タイミングまで前記赤外線光源の光線強度を次第に減少させるステップと、前記赤外線光源が不活性化されるオフ区間の第2開始タイミングから第2中間タイミングまで前記赤外線光源の光線強度を次第に減少させるステップと、前記オフ区間の前記第2中間タイミングから第2終了タイミングまで前記赤外線光源の光線強度を次第に増加させるステップとをさらに含み得る。
一実施形態に係る反射を検出する方法は、反射検出装置及びユーザの間に光反射を誘発し得る透明な物体が検出される間に、前記赤外線光源を周期的に不活性化するステップをさらに含み得る。
前記入力イメージを取得するステップは、オン区間の間に前記赤外線光源の光源強度をオフレベルからオンレベルに増加させるステップを含み、前記基準イメージを取得するステップは、オフ区間の間に、前記赤外線光源の光源強度を前記オンレベルから前記オフレベルに減少させるステップを含み得る。
一実施形態に係る反射を検出する装置は、赤外線光源の活性化に基づいてオブジェクトの入力イメージを取得し、前記赤外線光源の不活性化に基づいて前記オブジェクトの基準イメージを取得するイメージ取得部と、前記入力イメージ及び前記基準イメージに基づいて、前記入力イメージから反射領域を抽出するプロセッサとを含む。
反射を検出する装置は、前記イメージ取得部と離隔して配置された、複数の赤外線光源を含む赤外線アレイをさらに含み、前記プロセッサは、オン区間の間に前記複数の赤外線光源のうち少なくとも1つを活性化し、オフ区間の間に前記複数の赤外線光源のうち少なくとも1つを不活性化し得る。
前記プロセッサは、前記基準イメージの第1ピクセル値を前記第1ピクセル値にそれぞれ対応する前記入力イメージの第2ピクセル値から差し引くことで、前記入力イメージと前記基準イメージとの間の差を指示する差異マップを生成し、前記差異マップに基づいて前記入力イメージから前記反射領域を抽出し得る。
前記イメージ取得部は、前記赤外線光源が活性化してオン区間の間第1光線及び前記赤外線光源が不活性化されるオフ区間の間第2光線を前記オブジェクトから受信し、前記プロセッサは、前記第1光線の赤外線領域に基づいて前記入力イメージを取得し、前記第2光線の可視光線領域に基づいて前記基準イメージを取得し得る。
反射を検出する装置は、前記赤外線アレイが第1光線を前記オブジェクトに放出する第1方向、及び前記イメージ取得部が前記オブジェクトから第2光線を受信する第2方向が予め決定された角度をなすよう、前記イメージ取得部と離隔して配置される赤外線アレイをさらに含み、前記プロセッサは、オブジェクトの位置で赤外線の方向及び前記イメージ取得部の方向が前記予め決定された角度を保持するよう、前記オブジェクトの移動が検出された場合に応答して、前記赤外線アレイに含まれた複数の赤外線光源のうち少なくとも1つを活性化し得る。
更なる一実施形態に係る反射を検出する装置によって実行される反射を検出する方法は、赤外線光源の活性化に基づいてオブジェクトの入力イメージを取得するステップと、前記赤外線光源の不活性化に基づいて前記オブジェクトの基準イメージを取得するステップと、前記基準イメージの第1ピクセル値を前記第1ピクセル値にそれぞれ対応する前記入力イメージの第2ピクセル値から差し引くことで差異マップを生成するステップと、前記差異マップで閾値を超過する差値を有するエレメントを決定するステップと、前記エレメントに対応する反射領域を前記入力イメージから除去するステップとを含む。
反射を検出する方法は、前記赤外線光源が不活性化されるオフインターバルの第2時間の長さよりも短く、前記赤外線光源が活性化してオン区間の第1時間の長さを調整するステップをさらに含み得る。
一実施形態に係る反射を検出する装置によると、赤外線光源の活性化を介して入力イメージ及び不活性化を介して基準イメージを取得し、入力イメージと基準イメージとの間の差に基づいて入力イメージから反射領域を正確に検出することができる。
一実施形態に係る視線追跡機器がユーザの視線を追跡する形状を説明する図である。 視線追跡機器によって撮影された、反射領域が除去される前のイメージを示す。 一実施形態に係る反射を検出する方法を説明するフローチャートである。 一実施形態に係る反射を検出する方法を説明するフローチャートである。 一実施形態に係る反射を検出する装置のイメージ取得部及び赤外線光源が離隔した構造を説明する図である。 一実施形態に係るイメージ取得部及び赤外線光源が離隔する程度に応じるイメージを示す図である。 一実施形態に係るイメージ取得部及び赤外線光源が離隔する程度に応じるイメージを示す図である。 一実施形態に係るイメージ取得部及び赤外線光源が離隔する程度に応じるイメージを示す図である。 一実施形態に係るイメージ取得部及び赤外線光源が離隔する程度に応じるイメージを示す図である。 一実施形態に係るイメージ取得部及び赤外線光源が離隔する程度に応じるイメージを示す図である。 一実施形態に係るイメージ取得部及び赤外線光源が離隔する程度に応じるイメージを示す図である。 一実施形態に係る反射を検出する装置が視線追跡機器によって実現された例示を説明する図である。 一実施形態に係るオブジェクトの移動に基づいた赤外線光源の空間的な調整を説明する図である。 一実施形態に係る赤外線光源の時間的な調整を説明する図である。 一実施形態に係る赤外線光源の時間的な調整を説明する図である。 一実施形態に係る赤外線光源の時間的な調整を説明する図である。 一実施形態に係る反射領域が除去されたイメージを説明する図である。 一実施形態に係る反射を検出する装置の構成を説明するブロック図である。 一実施形態に係る反射を検出する装置の構成を説明するブロック図である。
以下、添付する図面を参照しながら実施形態を詳細に説明する。しかし、特許出願の範囲がこのような実施形態によって制限も限定もされることはない。各図面に提示された同一の参照符号は同一の部材を示す。
本明細書で開示されている特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示されたものであり、実施形態は様々な異なる形態で実施され、本明細書に説明された実施形態に限定されることはない。
本明細書で用いた用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同一の構成要素は同一の参照符号を付与し、これに対する重複する説明は省略する。実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
図1は、一実施形態に係る視線追跡機器がユーザの視線を追跡する形状を説明する図である。
視線追跡機器100はユーザ190の視線を追跡する。一実施形態によれば、視線追跡機器100は、ユーザ190の瞳孔191の位置を検出し、瞳孔191の移動を追跡する。例えば、視線追跡機器100は、ユーザ190の顔を含む顔領域を抽出し、顔領域から目領域を抽出する。視線追跡機器100は、目領域内から瞳孔191を検出する。ただし、これに限定されることはない。
視線追跡機器100は、赤外線を用いてユーザ190の視線を追跡する。赤外線によって、視線追跡機器100は、周辺照度が低い環境でもユーザ190の視線を正確に追跡することができる。ただし、視線追跡機器100とユーザ190との間に光反射を誘発し得る透明な物体180が存在する場合、視線追跡機器100により撮影されたイメージに反射現象170が示される。例えば、ユーザ190が光反射を誘発し得る透明な物体180を着用し、透明な物体180による反射現象が視線検出を妨害する恐れがある。透明な物体180は、例えば、メガネ又はサングラスなどを含む。
本明細書において、反射は、光源から放出された光線が、任意の物体(例えば、メガネのような透明な物体)により反射され、検出可能な最大強度に近接する強度又は最大強度以上の強度でイメージ取得部(例えば、カメラ)に入射される現象を示す。イメージ取得部は、反射が生じた反射領域に対応するピクセルの値を「飽和された値」として決定する。「飽和された値」は、イメージ取得部によって検出される最大強度に対応する値であり得る。
図2は、視線追跡機器によって撮影された、反射領域が除去される前のイメージを示す。
図2に示されたオブジェクトイメージ200は、視線追跡機器によって撮影されたイメージを示す。オブジェクトイメージ200はオブジェクトを含むイメージとして、オブジェクトは、例えば、人体の少なくとも一部であり得る。図2において、オブジェクトイメージ200は人の顔が撮影されたイメージを示している。
図2に示すように、光反射を誘発し得る透明な物体(例えば、メガネ)により、反射領域210が形成される。反射領域210は周辺よりも高い強度値を有し、例えば、センサによって検出される最大強度値を有する。ユーザの顔で瞳孔は、周辺の光彩に比べて明るく検出されるため、反射領域210が目に近く示されるほど瞳孔検出の正確度が減少する。
図3及び図4は、一実施形態に係る反射を検出する方法を説明するフローチャートである。
まず、ステップS310において、反射を検出する装置は、赤外線光源の活性化に基づいて入力イメージを取得する。赤外線光源は、赤外線を放出する光源として、例えば、赤外線発光ダイオードであり得る。赤外線光源は、一群の赤外線(a bunch of infrared rays)を放出してもよい。反射を検出する装置は、複数の赤外線光源を含んでいる赤外線アレイを含んでもよい。入力イメージは、オブジェクトを撮影して取得されたイメージであって、オブジェクトがユーザである場合、ユーザの視線を追跡するために使用される。入力イメージは、例えば、赤外線領域及び可視光線領域に基づいて生成される。
赤外線光線の活性化は、赤外線光源から放出される光線強度をオンレベル(on level)に調整する動作を示す。オンレベルに対応する強度は、設計に応じて変更されてもよい。例えば、反射を検出する装置は、赤外線光源が閾値強度以上に光線を放出するよう制御することで、赤外線光源を活性化し得る。
一実施形態によれば、オンレベルに対応する光線強度は、プロセッサが入力イメージからオブジェクトの特徴点を抽出するために十分な程度の強度に設計される。例えば、オンレベルに対応する強度に放出された赤外線は、オブジェクトに投射される。イメージ取得部は、オブジェクトに投射された後該当のオブジェクトから反射した赤外線を受信する。イメージ取得部は、受信された赤外線に基づいて入力イメージを生成し、プロセッサは、入力イメージからオブジェクトの特徴点を抽出する。オンレベルに対応する光線強度が大きいほど、イメージ取得部は鮮明な入力イメージを取得でき、プロセッサはより正確にオブジェクトの特徴点を抽出することができる。
オブジェクトの特徴点は、イメージでオブジェクトの特徴を示す地点を示す。例えば、オブジェクトが人の顔である場合、顔の特徴点は目に対応する地点、鼻に対応する地点、口に対応する地点、及び耳に対応する地点であり得る。ただし、オブジェクトの特徴点をこれに限定することはない。
そして、ステップS320において、反射を検出する装置は、赤外線光源の不活性化に基づいて基準イメージを取得する。基準イメージは、オブジェクトを撮影して取得されたイメージとして、反射を検出するために使用される。基準イメージは、例えば、主に可視光線領域に基づいて生成される。
赤外線光源の不活性化は、赤外線光源から放出される光線強度をオフ(off level)に調整する動作を示す。オフレベルに対応する強度は設計に応じて変更される。例えば、反射を検出する装置は、赤外線光源が閾値強度未満に光線を放出するよう制御することで、赤外線光源を不活性化する。また、反射を検出する装置は、赤外線光源への電力供給を遮断することで、赤外線光源を不活性化してもよい。電力供給が遮断された場合、赤外線光源の光線強度は存在しない、或いは0に収斂する。
一実施形態によれば、オフレベルに対応する光線強度は、プロセッサが入力イメージから反射領域を抽出するために十分な程度の強度に設計される。例えば、不活性化された赤外線光源は、赤外線放出を中断する。また、オフレベルに対応する強度に放出された赤外線はオブジェクトに投射された後、オブジェクトにほとんど吸収されたり減衰されたりする。オフレベルに対応する光線強度が小さいほど、イメージ取得部は、反射領域がないか少ない基準イメージを取得し得る。
次に、ステップS330において、反射を検出する装置は、入力イメージ及び基準イメージに基づいて入力イメージから反射領域を抽出する。一実施形態によれば、反射を検出する装置は、入力イメージと基準イメージとの間の差を算出することで差異マップを生成する。入力イメージと基準イメージとの間の差が大きい部分は、オンレベルに対応する強度の赤外線から誘発された反射領域を示す。入力イメージは主に赤外線領域に基づいて生成され、基準イメージは主に可視光線領域に基づいて生成されるためである。
差異マップは、入力イメージと基準イメージとの間の差を示す。例えば、差異マップは複数のエレメントを含む。複数のエレメントのそれぞれは、該当エレメントに対応する入力イメージのピクセルと基準イメージのピクセルとの間の差に対応する値を有する。複数のエレメントの個数は、例えば、入力イメージ及び基準イメージのピクセルの個数と同一であり得る。
一実施形態によれば、反射を検出する装置は、装置及びユーザ間に光反射を誘発し得る透明な物体が検出される間に、赤外線光源を周期的に不活性化する。例えば、反射を検出する装置は、ユーザがメガネを着用している間にのみ赤外線光源の活性化及び不活性化を繰り返すことで、瞳孔検出の正確度を改善することができる。
図4は、反射を検出する方法を具体的に説明するフローチャートである。
まず、ステップS411において、反射を検出する装置は、オン区間の間に赤外線光源を活性化する。本明細書においてオン区間は、予め決定された周期のうち赤外線光源が活性化するよう指定された区間を示す。オン区間は、下記の図9~図11を参照して説明する。
そして、ステップS412において、反射を検出する装置は、オン区間の間にオブジェクトから受信された光線に基づいて入力イメージを生成する。一実施形態によれば、反射を検出する装置は、オン区間の少なくとも一部フレームの間、オブジェクトから複数の光線の強度を収集する。例えば、反射を検出する装置は、オン区間が複数のフレームを含んでいる場合、オン区間の最後のフレームの間に複数の光線の強度を収集する。反射を検出する装置は、複数の光線のそれぞれに対応する強度を入力イメージを構成している各ピクセルのピクセル値として決定することで入力イメージを生成し得る。また、反射を検出する装置は、オン区間の一部フレームの間に収集された強度を累積して入力イメージを生成してもよい。
一実施形態によれば、反射を検出する装置は、オン区間の間にオブジェクトから受信された光線の赤外線領域に基づいて入力イメージを取得し得る。例えば、オン区間の間に受信される光線は、赤外線領域及び可視光線領域を含む。したがって、入力イメージの各ピクセルは、赤外線領域の強度及び可視光線領域の強度が合算された値を有する。
本明細書で赤外線領域は、電磁波の周波数のうち赤外線に分類される周波数帯域を示す。可視光線領域は、電磁波のうち人の目に見える周波数帯域を示す。
次に、ステップS421において、反射を検出する装置は、オフ区間の間に赤外線光源を不活性化する。本明細書において、オフ区間は、予め決定された周期のうち赤外線光源が不活性化されるよう指定された区間を示す。例えば、オフ区間は、予め決定された周期からオン区間を除いた残りの区間である。オフ区間は下記の図9~図11を参照して説明する。
そして、ステップS422において、反射を検出する装置は、オフ区間の間にオブジェクトから受信された光線に基づいて基準イメージを生成する。一実施形態によれば、反射を検出する装置は、オフ区間の少なくとも一部フレームの間にオブジェクトから複数の光線の強度を収集する。例えば、反射を検出する装置は、オフ区間が複数のフレームを含んでいる場合、オフ区間の最後のフレームの間に複数の光線の強度を収集する。反射を検出する装置は、複数の光線のそれぞれに対応する強度を基準イメージを構成している各ピクセルのピクセル値として決定することで基準イメージを生成する。また、反射を検出する装置は、オフ区間の一部フレームの間に収集された強度を累積して基準イメージを生成してもよい。
一実施形態によれば、反射を検出する装置は、オフ区間の間オブジェクトから受信された光線の可視光線領域に基づいて基準イメージを取得し得る。例えば、オフ区間の間に受信される光線は、主に可視光線領域を含んでいる。したがって、基準イメージの各ピクセルは、可視光線領域の強度に対応する値を有し得る。
次に、ステップS431において、反射を検出する装置は、入力イメージの各ピクセル値から基準イメージの該当ピクセル値を差し引くことで、入力イメージと基準イメージとの間の差を指示する差異マップを生成する。差異マップは、入力イメージのピクセル及び基準イメージのピクセルと同じ個数のエレメントを含み得る。差異マップのエレメントは、入力イメージのピクセル値と基準イメージで該当ピクセル値との間の差に対応する値を有する。
そして、ステップS432において、反射を検出する装置は、差異マップに基づいて反射領域を抽出する。一実施形態によれば、反射を検出する装置は、入力イメージと基準イメージとの間の差異マップのうち閾値を超過するエレメントを決定し得る。反射を検出する装置は、入力イメージでエレメントに対応するピクセルを反射領域として決定する。
ただし、これに限定されることなく、反射を検出する装置は、差異マップのうち周辺エレメントより高い値を有するエレメントを選択する。反射を検出する装置は、選択されたエレメントに対応する入力イメージのピクセルを反射領域として決定する。
一実施形態に係る反射を検出する装置は、入力イメージから抽出された反射領域を除去する。反射を検出する装置は、反射領域が除去された入力イメージに基づいてユーザの視線を追跡する。したがって、反射を検出する装置は、反射が除去された入力イメージを用いて、より正確にユーザの瞳孔位置を決定することができる。
図5は、一実施形態に係る反射を検出する装置のイメージ取得部及び赤外線光源が離隔した構造を説明する図である。
反射を検出する装置500は、イメージ取得部510及び赤外線光源520を含む。イメージ取得部510及び赤外線光源520は離隔して配置される。一実施形態によれば、赤外線光源520の方向及びイメージ取得部510の方向が予め決定された角度550を形成するよう、赤外線光源520及びイメージ取得部510が配置される。
赤外線光源520の方向は、赤外線光源520から放出される赤外線501の進行方向を示す。例えば、赤外線光源520によって一群の赤外線が放出される場合、一群の赤外線の中心に対応する赤外線501の進行方向を赤外線光源520の方向と示す。イメージ取得部510の方向は、イメージ取得部510によって受信される光線のうち中心に対応する方向を示す。イメージ取得部510によって受信される光線は、イメージ取得部510の視野又は視界(FOV:field of view)内に含まれる光線であり得る。
イメージ取得部510は、オブジェクト590から赤外線領域及び可視光線領域に対応する光線502を受信する。例えば、オブジェクト590は、赤外線光源520から投射された赤外線を反射させる、或いは外部から投射された可視光線を反射させることができる。
図6は、一実施形態に係るイメージ取得部及び赤外線光源が離隔する程度に応じるイメージを示す図である。
図6A~図6Fは、イメージ取得部及び赤外線光源の配置に応じて、イメージ取得部により取得される入力イメージを示す。
図6Aは、イメージ取得部及び赤外線光源間の方向の差が0である場合を示す。例えば、イメージ取得部の方向及び赤外線光源の方向が同一の場合、図6Aに示すように反射領域611が示される。例えば、図6Aにおいて、反射領域611は目の周辺に示される。
また、図6Bは、イメージ取得部の方向及び赤外線光源の方向が水平に10度をなすよう配置された構造で取得された入力イメージを示す。図6Bに示す入力イメージで反射領域612は目を隠すよう示される。
図6Cは、イメージ取得部の方向及び赤外線光源の方向が水平に45度をなすよう配置された構造で取得された入力イメージを示す。図6Cに示す入力イメージで反射領域613は、図6A及び図6Bに比べて狭く示される。
図6Dは、イメージ取得部の方向及び赤外線光源の方向が垂直に45度をなすよう配置された構造で取得された入力イメージを示す。図6Dに示す入力イメージには反射領域が示されない。
図6Eは、イメージ取得部の方向及び赤外線光源の方向が垂直に60度をなすよう配置された構造で取得された入力イメージを示す。図6Eに示す入力イメージは反射領域を含まないが、目及び頬などに影領域を含んでいる。影領域は周辺よりも暗いピクセル値を有する。
図6Fは、イメージ取得部の方向及び赤外線光源の方向が垂直に90度をなすよう配置された構造で取得された入力イメージを示す。図6Fに示す入力イメージは反射領域を含まないが、図6Eに比べて広い影領域を含む。
したがって、イメージ取得部の方向及び赤外線光源の方向が最適な角度をなすよう、イメージ取得部及び赤外線光源が配置される。方向の差が最適化されるように配置されたイメージ取得部及び赤外線光源を含んでいる反射を検出する装置は、反射領域及び影領域が最小化された入力イメージを取得し得る。例えば、赤外線光源の方向及びイメージ取得部の方向が形成している予め決定された角度は56度であり得る。
図7は、一実施形態に係る反射を検出する装置が視線追跡機器によって実現された例示を説明する図である。
例えば、反射を検出する装置は、車両700に装着される。反射を検出する装置は、イメージ取得部710及び赤外線光源720を含む。イメージ取得部710は、運転者の正面である計器盤に配置される。赤外線光源720は、車両700のバックミラーに配置される。
車両700が走行する間に、反射を検出する装置は赤外線光源720の活性化及び不活性化に基づいて反射が除去された入力イメージを取得する。照度の低い環境(例えば、夜間)でも、反射を検出する装置は、赤外線による反射が除去された入力イメージに基づいてユーザの視線を正確に検出できる。
ただし、イメージ取得部710及び赤外線光源720の配置を上述した内容に限定することはない。イメージ取得部710の方向及び赤外線光源720の方向が予め決定された角度をなすように、イメージ取得部710及び赤外線光源720が配置され得る。
図8は、一実施形態に係るオブジェクトの移動に基づいた赤外線光源の空間的な調整を説明する図である。
反射を検出する装置は、イメージ取得部810及び赤外線アレイ820を含む。赤外線アレイ820は複数の赤外線光源を含む。複数の赤外線光源は、横方向に羅列されている。ただし、これに限定されることなく、複数の赤外線光源は、縦方向に羅列されたり、n個の行(row)及びm個の列(column)の2次元の平面構造で配列されてもよい。ここで、n及びmは1以上の整数であり得る。ただし、赤外線アレイの構造がこれに限定されることなく、複数の赤外線光源は多様に配置されてもよい。
まず、赤外線アレイ820のうち少なくとも一部の赤外線光源は、赤外線を放出する。図8では、説明の便宜のために複数の赤外線光源のうちの1つの第1赤外線光源821が赤外線を放出するものとして示されているが、これに限定されることなく、2以上の赤外線光源が赤外線を放出してもよい。イメージ取得部810は、第1赤外線光源821から放出された後オブジェクト890から反射した赤外線を受信する。イメージ取得部810は、可視光線と共に受信された赤外線に基づいて、オブジェクト890が示されるオブジェクト領域891を含む入力イメージ811を生成する。ここで、第1赤外線光源821の方向及びイメージ取得部810の方向は予め決定された角度を形成する。
そして、反射を検出する装置は、オブジェクト890の位置を追跡する。反射を検出する装置は、イメージ取得部810を基準にしてオブジェクト890の位置変更を検出する。例えば、イメージ取得部810を用いて撮影される入力イメージ811でオブジェクト890が示されるオブジェクト領域892の移動を検出し得る。
一実施形態によれば、反射を検出する装置は、複数の赤外線光源を含む赤外線アレイ820から、追跡された位置に対応する赤外線光源を指定する。例えば、反射を検出する装置は、赤外線アレイ820から、入力イメージ811の変更されたオブジェクト領域892にマッピングされた第2赤外線光源822を指定する。ここで、第2赤外線光源822の方向及びイメージ取得部810の方向は、上述した予め決定された角度を形成している。
例えば、反射を検出する装置は、入力イメージ811の領域ごとに赤外線アレイ820を構成する赤外線光源を割り当てることができる。図8において、赤外線光源は横方向に羅列されているため、反射を検出する装置は横軸に沿って分割された領域ごとに各赤外線光源を割り当てる。オブジェクト890が横方向に沿って右側に移動したため、反射を検出する装置は、第1赤外線光源821よりも左側に配置された第2赤外線光源822を指定する。反射を検出する装置は、オブジェクト890の位置で赤外線の方向及びイメージ取得部810の方向が予め決定された角度を保持するよう、オブジェクト890の移動が検出された場合に応答して赤外線アレイ820のうちオン区間で活性化する赤外線光源を選択し得る。
その後、反射を検出する装置は、オン区間の間指定された赤外線光源を活性化し、オフ区間の間指定された赤外線光源を不活性化する。反射を検出する装置は、オブジェクト890の位置が再び変更されるまで、指定された第2赤外線光源822の活性化及び不活性化を周期的に繰り返す。
一実施形態に係る反射を検出する装置は、オブジェクト890の移動が検出されれば、迅速にオブジェクト890の位置に対応する赤外線光源を指定し得る。したがって、反射を検出する装置は、赤外線アレイ820の赤外線光源をいちいちターンオンしたりターンオフしたりする必要がなく、適切な赤外線光源を選択できる。したがって、反射を検出する装置が車両に装着された場合、反射を検出する装置は、走行中にユーザの姿勢変更による顔位置変更に応答して適切な赤外線光源を選択することで迅速に反射を除去することができる。
図9~図11は、一実施形態に係る赤外線光源の時間的な調整を説明する図である。
図9は、赤外線光源の周期的な活性化及び不活性化を説明する。
反射を検出する装置は、赤外線光源の活性化及び不活性化を周期的に繰り返すことで、入力イメージ910及び基準イメージ920を取得する。例えば、反射を検出する装置は、オン区間991の間に赤外線光源を活性化し、オフ区間992の間に赤外線光源を不活性化する。
例えば、反射を検出する装置は、オン区間991の間に赤外線光源の光源強度990をオフレベルからオンレベルに増加させ得る。そして、反射を検出する装置は、オフ区間992の間に赤外線光源の光源強度990をオンレベルからオフレベルに減少させ得る。
反射を検出する装置は、オン区間991の間に受信された赤外線及び可視光線に基づいて入力イメージ910を生成する。また、反射を検出する装置は、オフ区間992の間に受信された可視光線に基づいて基準イメージ920を生成する。そして、反射を検出する装置は、入力イメージ910から基準イメージ920を差し引くことで差異マップ930を算出する。反射を検出する装置は、差異マップ930で閾値を超過するエレメントを反射領域931として決定する。
図10は、赤外線光源の活性化及び不活性化の他の例示を示す。
一実施形態によれば、オン区間1010の時間の長さよりもオフ区間1020の時間の長さがより大きい。例えば、イメージ取得部のフレームの速度(frame rate)が30fps(frame persecond)である場合、予め決定された周期1030は10フレームである。オフ区間1020は9フレームであり、オン区間1010は1フレームである。反射を検出する装置は、オン区間1010の時間の長さを減少させることで、赤外線の光源強度1090の累積量を減少させ得る。反射を検出する装置は、オン区間1010の調整により、赤外線が人体に及ぼす影響を最小化できる。
また、反射を検出する装置は、赤外線光源が活性化してオン区間1010の時間の長さ及び赤外線光源が不活性化されるオフ区間1020の時間の長さを動的に調整し得る。例えば、視線検出の正確度が低下する環境(例えば、暗い環境)で反射を検出する装置は、オン区間1010の時間の長さを増加させる。異なる例として、視線検出の正確度の高い環境(例えば、明るい環境)で反射を検出する装置は、オン区間1010の時間の長さを減少させ得る。したがって、反射を検出する装置は、赤外線が人体に及ぼす影響を最小化しながら、瞳孔検出の正確度を改善することができる。
図11は、赤外線光源の漸進的な活性化及び不活性化を説明する図である。
反射を検出する装置は、オン区間1110の開始タイミング1183から中間タイミング1184まで赤外線光源の光線強度1190を次第に増加させ得る。反射を検出する装置は、オン区間1110の中間タイミング1184から終了タイミング1185まで赤外線光源の光線強度1190を次第に減少させ得る。反射を検出する装置は、オフ区間1120の開始タイミング1181から中間タイミング1182まで赤外線光源の光線強度1190を次第に減少させ得る。反射を検出する装置は、オフ区間1120の中間タイミング1182から終了タイミング1183まで赤外線光源の光線強度1190を次第に増加させ得る。ここで、オフ区間1120の終了タイミング1183は、オン区間1110の開始タイミング1183と同一であってもよい。例えば、反射を検出する装置は、光線強度1190をサイン波形又はコサイン波形のような正弦波形に調整する。ただし、これに限定されることなく、反射を検出する装置は、赤外線光源の光線強度1190を連続的に変化させることができる。
一実施形態によれば、反射を検出する装置は、オン区間1110の間にオブジェクトから反射して受信された光線強度を累積して入力イメージを生成する。また、反射を検出する装置は、オフ区間1120の間にオブジェクトから反射して受信された光線強度を累積して基準イメージを生成してもよい。
図12は、一実施形態に係る反射領域が除去されたイメージを説明する図である。
一実施形態に係る反射を検出する装置は、図1~図11による方法によって取得された反射領域を入力イメージ1200から除去する。例えば、反射を検出する装置は、ホールフィリング(hole-filling)アルゴリズム(例えば、インペインティング(inpaintng))を入力イメージ1200の反射領域に対して行う。反射を検出する装置は、入力イメージ1200から反射領域を除去し、除去された領域を周辺領域と同様に詰め込んでもよい。例えば、反射を検出する装置は、ホールフィリングアルゴリズムにより除去された領域に隣接する周辺領域のピクセルの値を利用して、除去された領域内のピクセルの値を満たし得る。異なる例として、反射を検出する装置は、ホールフィリングアルゴリズムにより周辺領域のピクセルの値と類似の値を利用して、除去された領域内のピクセルの値を満たしてもよい。したがって、反射を検出する装置は、除去領域及び除去領域の周辺領域が不鮮明化(blur)されるように、入力イメージ1200を処理できる。反射を検出する装置は、取得された反射領域に属するピクセルの値を、強い強度値から、それより弱い別の強度値へ変更するように、反射領域を加工することが可能である。
反射を検出する装置は、反射領域が除去された入力イメージ1200から特徴点を抽出し、特徴点に基づいて顔上部領域1210を決定し得る。反射を検出する装置は、顔上部領域1210から目領域を決定してユーザの瞳孔1211を追跡し得る。
図13及び図14は一実施形態に係る反射を検出する装置の構成を説明するブロック図である。
反射を検出する装置は図13に示すようにイメージ取得部1310及びプロセッサ1320を含む。
イメージ取得部1310は、赤外線光源の活性化に基づいて入力イメージを取得し、赤外線光源の不活性化に基づいて基準イメージを取得する。イメージ取得部1310は、可視光線領域及び赤外線領域に対応する光線を受信する。イメージ取得部1310は、可視光線領域及び赤外線領域を撮影できるカメラを含む。例えば、イメージ取得部1310は、120fps以上のフレームの速度を有する高速カメラを含む。主に赤外線領域に基づいた入力イメージ及び主に可視光線領域に基づいた基準イメージは、互いに類似のオブジェクト形態を示す。入力イメージと基準イメージとの間のピクセル値差が大きい領域が反射領域である。
プロセッサ1320は、入力イメージ及び基準イメージに基づいて入力イメージから反射領域を抽出する。オン区間の間にオブジェクトから受信された光線の赤外線領域に基づいて入力イメージを取得し、オフ区間の間にオブジェクトから受信された光線の可視光線領域に基づいて基準イメージを取得し得る。
一実施形態によれば、プロセッサ1320は、オン区間の間に赤外線アレイ1430のうち少なくとも一部の赤外線光源を活性化し、オフ区間の間に赤外線アレイ1430のうち少なくとも一部の赤外線光源を不活性化する。また、プロセッサ1320は、入力イメージの各ピクセルから基準イメージの該当ピクセルを差し引くことで、入力イメージと基準イメージとの間の差を指示する差異マップを生成し、差異マップに基づいて反射領域を抽出する。
また、反射を検出する装置は、図14に示すように赤外線アレイ1430及びメモリ1440をさらに含む。
赤外線アレイ1430は、イメージ取得部1310と離隔して配置された複数の赤外線光源を含む。例えば、赤外線アレイ1430は、赤外線アレイ1430から放出される赤外線の方向及びイメージ取得部1310の方向が予め決定された角度をなすように、イメージ取得部1310と離隔して配置される。
メモリ1440は、反射を検出する方法を行うために要求される情報を格納する。例えば、メモリ1440は、入力イメージ、基準イメージ、及び差異マップを臨時的又は永久的に格納できる。
一実施形態に係る反射を検出する装置1400は、低照度の環境(例えば、10Lux以下の環境)で瞳孔が検出される入力イメージを生成する。反射を検出する装置1400は、例えば、視線を追跡して無メガネ3D映像を提供するヘッドアップディスプレイ機器に適用され得る。また、反射を検出する装置1400は、モニターと接続されたパソコンにも適用され得る。さらに、反射を検出する装置1400は、無メガネの立体映像を提供するタブレット機器及びスマートフォン機器にも適用され得る。
一実施形態に係る反射を検出する装置1400は、低照度の環境(例えば、夜間運転など)で赤外線撮影時、眼鏡レンズに対する赤外線反射を検出して除去し得る。したがって、反射を検出する装置1400は、暗い環境(例えば、10lux以下の環境)で視線追跡の正確度を改善することができる。
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこののうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されてもよいし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
1300:反射を検出する装置
1310:イメージ取得部
1320:プロセッサ

Claims (22)

  1. 反射を検出する装置によって実行される、反射を検出する方法において、
    赤外線光源の活性化に基づいて、オブジェクトの入力イメージをイメージ取得部により取得するステップと、
    前記赤外線光源の不活性化に基づいて、前記オブジェクトの基準イメージを取得するステップと、
    前記入力イメージ及び前記基準イメージに基づいて、前記入力イメージから反射領域を抽出するステップと、
    を含み、前記方法は、
    前記オブジェクトの位置を追跡するステップと、
    赤外線アレイに含まれた複数の赤外線光源の中から、前記追跡された位置に対応する少なくとも1つの赤外線光源を指定するステップであって、前記オブジェクトの移動が検出された場合に、前記オブジェクトの位置に向かう赤外線の方向と前記オブジェクトから前記イメージ取得部に向かう方向が予め決定された角度を保持するように、前記複数の赤外線光源のうち少なくとも1つの赤外線光源が活性化される、ステップと、
    をさらに含む、反射を検出する方法。
  2. 前記入力イメージを取得するステップは、オン区間の間に前記赤外線光源を活性化するステップを含み、
    前記基準イメージを取得するステップは、オフ区間の間に前記赤外線光源を不活性化するステップを含む、請求項1に記載の反射を検出する方法。
  3. 前記入力イメージを取得するステップは、
    前記オン区間の間に、前記オブジェクトから受信された第1の複数の光線に基づいて前記入力イメージを生成するステップをさらに含み、
    前記基準イメージを取得するステップは、前記オフ区間の間に、前記オブジェクトから受信された第2の複数の光線に基づいて前記基準イメージを生成するステップをさらに含む、請求項2に記載の反射を検出する方法。
  4. 前記入力イメージを生成するステップは、
    前記オン区間の第1フレームの第1部分の間に、前記オブジェクトから受信された前記第1の複数の光線の第1強度を収集するステップと、
    前記入力イメージを生成するために前記第1強度を前記入力イメージの第1ピクセルの第1ピクセル値に決定するステップと、
    を含み、
    前記基準イメージを生成するステップは、
    前記オフ区間の第2フレームの第2部分の間に、前記オブジェクトから受信された前記第2の複数の光線の第2強度を収集するステップと、
    前記基準イメージを生成するために前記第2強度を前記基準イメージの第2ピクセルの第2ピクセル値に決定するステップと、
    を含む、請求項3に記載の反射を検出する方法。
  5. 前記反射領域を抽出するステップは、
    前記基準イメージの第1ピクセル値を前記第1ピクセル値にそれぞれ対応する前記入力イメージの第2ピクセル値から差し引くことで、前記入力イメージと前記基準イメージとの間の差を指示する差異マップを生成するステップと、
    前記差異マップに基づいて前記入力イメージから前記反射領域を抽出するステップと、
    を含む、請求項1ないし4のうち何れか一項に記載の反射を検出する方法。
  6. 前記反射領域を抽出するステップは、
    前記入力イメージと前記基準イメージとの間の差異マップのうち閾値を超過する差値を有するエレメントを決定するステップと、
    前記入力イメージで前記エレメントに対応するピクセルを前記反射領域として決定するステップと、
    をさらに含む、請求項5に記載の反射を検出する方法。
  7. 記入力イメージを取得するステップは、オン区間の間指定された、前記複数の赤外線光源のうち前記少なくとも1つの赤外線光源を活性化するステップを含み、
    前記基準イメージを取得するステップは、オフ区間の間指定された、前記複数の赤外線光源のうち前記少なくとも1つの赤外線光源を不活性化するステップを含む、請求項1ないし6のうち何れか一項に記載の反射を検出する方法。
  8. 前記入力イメージを取得するステップは、前記赤外線光源が活性化してオン区間の間に前記オブジェクトから受信された第1光線の赤外線領域に基づいて前記入力イメージを取得するステップを含み、
    前記基準イメージを取得するステップは、前記赤外線光源が不活性化されるオフ区間の間に前記オブジェクトから受信された第2光線の可視光線領域に基づいて前記基準イメージを取得するステップを含む、請求項1ないし7のうち何れか一項に記載の反射を検出する方法。
  9. 前記赤外線光源が活性化してオン区間の第1時間の長さ、及び前記赤外線光源が不活性化されるオフ区間の第2時間の長さを動的に調整するステップをさらに含む、請求項1ないし8のうち何れか一項に記載の反射を検出する方法。
  10. 前記入力イメージから前記反射領域を除去するステップと、
    前記反射領域が除去された入力イメージに基づいてユーザの視線を追跡するステップと、
    をさらに含む、請求項1ないし9のうち何れか一項に記載の反射を検出する方法。
  11. 少なくとも1つの赤外線光源を指定する前記ステップにおいて、前記反射領域が最小化されるように、前記複数の赤外線光源のうち少なくとも1つの赤外線光源が活性化される、請求項1ないし10のうち何れか一項に記載の反射を検出する方法。
  12. 前記赤外線光源が活性化してオン区間の開始タイミングから第1中間タイミングまで前記赤外線光源の光線強度を次第に増加させるステップと、
    前記オン区間の前記第1中間タイミングから第1終了タイミングまで前記赤外線光源の光線強度を次第に減少させるステップと、
    前記赤外線光源が不活性化されるオフ区間の第2開始タイミングから第2中間タイミングまで前記赤外線光源の光線強度を次第に減少させるステップと、
    前記オフ区間の前記第2中間タイミングから第2終了タイミングまで前記赤外線光源の光線強度を次第に増加させるステップと、
    をさらに含む、請求項1ないし11のうち何れか一項に記載の反射を検出する方法。
  13. 反射検出装置及びユーザの間に光反射を誘発し得る透明な物体が検出される間に、前記赤外線光源を周期的に不活性化するステップをさらに含む、請求項1ないし12のうち何れか一項に記載の反射を検出する方法。
  14. 前記入力イメージを取得するステップは、オン区間の間に前記赤外線光源の光源強度をオフレベルからオンレベルに増加させるステップを含み、
    前記基準イメージを取得するステップは、オフ区間の間に、前記赤外線光源の光源強度を前記オンレベルから前記オフレベルに減少させるステップを含む、請求項2に記載の反射を検出する方法。
  15. 請求項1~14のいずれか一項に記載の方法を反射検出装置のコンピュータに実行させるコンピュータプログラム。
  16. 反射を検出する装置において、
    赤外線光源の活性化に基づいてオブジェクトの入力イメージを取得し、前記赤外線光源の不活性化に基づいて前記オブジェクトの基準イメージを取得するイメージ取得部と、
    前記入力イメージ及び前記基準イメージに基づいて、前記入力イメージから反射領域を抽出するプロセッサと、
    前記イメージ取得部と離隔して配置される赤外線アレイと、
    を含み、前記プロセッサは、前記オブジェクトの位置を追跡し、前記赤外線アレイに含まれた複数の赤外線光源の中から、前記追跡された位置に対応する少なくとも1つの赤外線光源を指定し、
    前記オブジェクトの移動が検出された場合に、前記オブジェクトの位置に向かう赤外線の方向と前記オブジェクトから前記イメージ取得部に向かう方向が予め決定された角度を保持するように、前記複数の赤外線光源のうち少なくとも1つの赤外線光源が活性化される、反射を検出する装置。
  17. 前記イメージ取得部と離隔して配置された、複数の赤外線光源を含む赤外線アレイをさらに含み、
    前記プロセッサは、オン区間の間に前記複数の赤外線光源のうち少なくとも1つを活性化し、オフ区間の間に前記複数の赤外線光源のうち少なくとも1つを不活性化する、請求項16に記載の反射を検出する装置。
  18. 前記プロセッサは、前記基準イメージの第1ピクセル値を前記第1ピクセル値にそれぞれ対応する前記入力イメージの第2ピクセル値から差し引くことで、前記入力イメージと前記基準イメージとの間の差を指示する差異マップを生成し、前記差異マップに基づいて前記入力イメージから前記反射領域を抽出する、請求項16又は17に記載の反射を検出する装置。
  19. 前記イメージ取得部は、前記赤外線光源が活性化してオン区間の間第1光線及び前記赤外線光源が不活性化されるオフ区間の間第2光線を前記オブジェクトから受信し、
    前記プロセッサは、前記第1光線の赤外線領域に基づいて前記入力イメージを取得し、前記第2光線の可視光線領域に基づいて前記基準イメージを取得する、請求項16ないし18のうち何れか一項に記載の反射を検出する装置。
  20. 前記反射領域が最小化されるように、前記複数の赤外線光源のうち少なくとも1つの赤外線光源が活性化される、請求項17ないし19のうち何れか一項に記載の反射を検出する装置。
  21. 反射を検出する装置によって実行される反射を検出する方法において、
    赤外線光源の活性化に基づいてオブジェクトの入力イメージをイメージ取得部により取得するステップと、
    前記赤外線光源の不活性化に基づいて前記オブジェクトの基準イメージを取得するステップと、
    前記基準イメージの第1ピクセル値を前記第1ピクセル値にそれぞれ対応する前記入力イメージの第2ピクセル値から差し引くことで差異マップを生成するステップと、
    前記差異マップで閾値を超過する差値を有するエレメントを決定するステップと、
    前記エレメントに対応する反射領域を前記入力イメージから除去するステップと、
    を含み、前記方法は、
    前記オブジェクトの位置を追跡するステップと、
    赤外線アレイに含まれた複数の赤外線光源の中から、前記追跡された位置に対応する少なくとも1つの赤外線光源を指定するステップであって、前記オブジェクトの移動が検出された場合に、前記オブジェクトの位置に向かう赤外線の方向と前記オブジェクトから前記イメージ取得部に向かう方向が予め決定された角度を保持するように、前記複数の赤外線光源のうち少なくとも1つの赤外線光源が活性化される、ステップと、
    をさらに含む、反射を検出する方法。
  22. 前記赤外線光源が不活性化されるオフインターバルの第2時間の長さよりも短、前記赤外線光源が活性化されるオン区間の第1時間の長さを調整するステップをさらに含む、請求項21に記載の反射を検出する方法。
JP2018219280A 2017-12-21 2018-11-22 反射を検出する装置及び方法 Active JP7112945B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0177131 2017-12-21
KR1020170177131A KR102476757B1 (ko) 2017-12-21 2017-12-21 반사를 검출하는 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2019115037A JP2019115037A (ja) 2019-07-11
JP7112945B2 true JP7112945B2 (ja) 2022-08-04

Family

ID=64082880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219280A Active JP7112945B2 (ja) 2017-12-21 2018-11-22 反射を検出する装置及び方法

Country Status (5)

Country Link
US (2) US10789714B2 (ja)
EP (1) EP3502959A1 (ja)
JP (1) JP7112945B2 (ja)
KR (1) KR102476757B1 (ja)
CN (1) CN109951698B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410834B1 (ko) * 2017-10-27 2022-06-20 삼성전자주식회사 반사 영역을 제거하는 방법, 사용자의 눈을 추적하는 방법 및 그 장치
CN110596889A (zh) * 2018-06-13 2019-12-20 托比股份公司 眼睛跟踪装置和制造眼睛跟踪装置的方法
JP7142851B2 (ja) * 2019-02-27 2022-09-28 オリンパス株式会社 情報処理装置、移動体及び学習装置
CN112307839A (zh) * 2019-07-31 2021-02-02 深圳熙卓科技有限公司 一种异常人员检测的方法及终端设备
CN113132608B (zh) * 2019-12-30 2023-05-12 深圳云天励飞技术有限公司 图像处理方法及相关装置
US11967138B2 (en) * 2021-03-03 2024-04-23 Nec Corporation Processing apparatus, information processing method and recording medium
KR20240027708A (ko) * 2021-06-30 2024-03-04 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037766A (ja) 2001-07-24 2003-02-07 Matsushita Electric Ind Co Ltd 虹彩撮像装置
US20060228003A1 (en) 2005-04-06 2006-10-12 Silverstein D A Method and apparatus for detection of optical elements
JP2007093306A (ja) 2005-09-27 2007-04-12 Matsushita Electric Works Ltd 空間情報の検出装置
JP2007235416A (ja) 2006-02-28 2007-09-13 Sony Corp 監視カメラ
JP2010244156A (ja) 2009-04-02 2010-10-28 Toyota Motor Corp 画像特徴量検出装置及びこれを用いた視線方向検出装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6091899A (en) * 1988-09-16 2000-07-18 Canon Kabushiki Kaisha Apparatus for detecting the direction of visual axis and information selecting apparatus utilizing the same
US7076088B2 (en) * 1999-09-03 2006-07-11 Honeywell International Inc. Near-infrared disguise detection
DE19953835C1 (de) * 1999-10-30 2001-05-23 Hertz Inst Heinrich Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
JP2002101322A (ja) * 2000-07-10 2002-04-05 Matsushita Electric Ind Co Ltd 虹彩カメラモジュール
US7289736B1 (en) * 2003-01-13 2007-10-30 Aoptix Technologies Adaptive optics imaging system with object acquisition capability
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US7573439B2 (en) * 2004-11-24 2009-08-11 General Electric Company System and method for significant image selection using visual tracking
US7501995B2 (en) * 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
CN101124610A (zh) * 2005-02-18 2008-02-13 富士通株式会社 图像处理方法、图像处理系统、图像处理装置及计算机程序
US7438414B2 (en) * 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
US8022989B2 (en) * 2005-08-17 2011-09-20 Palo Alto Research Center Incorporated Method and apparatus for controlling data delivery with user-maintained modes
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US8352901B2 (en) * 2007-12-06 2013-01-08 Wipro Limited Technique for generation of load-slew indices for circuit characterization
JP2010093472A (ja) * 2008-10-07 2010-04-22 Panasonic Corp 撮像装置および撮像装置用信号処理回路
JP5460691B2 (ja) * 2009-06-08 2014-04-02 パナソニック株式会社 注視対象判定装置及び注視対象判定方法
KR101064971B1 (ko) 2009-09-28 2011-09-15 주식회사 레드코어 편광필터를 이용한 얼굴인식 장치
US20110170060A1 (en) 2010-01-08 2011-07-14 Gordon Gary B Gaze Tracking Using Polarized Light
US8482859B2 (en) * 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US8477425B2 (en) * 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
WO2012107892A2 (en) 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
JP6144682B2 (ja) * 2012-08-08 2017-06-07 株式会社小糸製作所 車両用灯具
US9468373B2 (en) 2013-09-24 2016-10-18 Sony Interactive Entertainment Inc. Gaze tracking variations using dynamic lighting position
KR101847756B1 (ko) 2013-11-09 2018-04-10 선전 구딕스 테크놀로지 컴퍼니, 리미티드 광학 눈 추적
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
US9330302B2 (en) 2014-02-26 2016-05-03 Microsoft Technology Licensing, Llc Polarized gaze tracking
US9454699B2 (en) 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking
US9329684B2 (en) 2014-06-02 2016-05-03 Intel Corporation Eye tracking with detection of adequacy of lighting
KR101616194B1 (ko) 2014-09-03 2016-04-27 연세대학교 산학협력단 적외선 조명을 이용한 객체 추출 방법 및 그 장치
US9936195B2 (en) 2014-11-06 2018-04-03 Intel Corporation Calibration for eye tracking systems
US20160212317A1 (en) * 2015-01-15 2016-07-21 Motorola Mobility Llc 3d ir illumination for iris authentication
US10521683B2 (en) * 2015-02-20 2019-12-31 Seeing Machines Limited Glare reduction
CN105118407B (zh) * 2015-09-08 2018-11-30 深圳创维-Rgb电子有限公司 一种电子产品及其logo显示方法、系统
CN106998422A (zh) * 2016-01-26 2017-08-01 陈征 一种自动识别偷拍镜头的装置和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037766A (ja) 2001-07-24 2003-02-07 Matsushita Electric Ind Co Ltd 虹彩撮像装置
US20060228003A1 (en) 2005-04-06 2006-10-12 Silverstein D A Method and apparatus for detection of optical elements
JP2007093306A (ja) 2005-09-27 2007-04-12 Matsushita Electric Works Ltd 空間情報の検出装置
JP2007235416A (ja) 2006-02-28 2007-09-13 Sony Corp 監視カメラ
JP2010244156A (ja) 2009-04-02 2010-10-28 Toyota Motor Corp 画像特徴量検出装置及びこれを用いた視線方向検出装置

Also Published As

Publication number Publication date
CN109951698A (zh) 2019-06-28
EP3502959A1 (en) 2019-06-26
US20190197690A1 (en) 2019-06-27
CN109951698B (zh) 2022-11-08
KR102476757B1 (ko) 2022-12-09
US10789714B2 (en) 2020-09-29
JP2019115037A (ja) 2019-07-11
US11631180B2 (en) 2023-04-18
KR20190075501A (ko) 2019-07-01
US20200380691A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP7112945B2 (ja) 反射を検出する装置及び方法
JP6983258B2 (ja) アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ
US10878236B2 (en) Eye tracking using time multiplexing
US11762462B2 (en) Eye-tracking using images having different exposure times
US11675432B2 (en) Systems and techniques for estimating eye pose
CN110583016B (zh) 非平面计算显示
WO2017079172A1 (en) Eye tracking using structured light
CN110658914B (zh) 边界区域的闪烁追踪
US10520742B1 (en) Beamsplitter assembly for eye tracking in head-mounted displays
US10902623B1 (en) Three-dimensional imaging with spatial and temporal coding for depth camera assembly
US20210382316A1 (en) Gaze tracking apparatus and systems
US20220035449A1 (en) Gaze tracking system and method
US20180235465A1 (en) Eye gaze tracking
US20220068014A1 (en) Image rendering system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7112945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150