JP2019514302A - 運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法 - Google Patents

運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法 Download PDF

Info

Publication number
JP2019514302A
JP2019514302A JP2018554476A JP2018554476A JP2019514302A JP 2019514302 A JP2019514302 A JP 2019514302A JP 2018554476 A JP2018554476 A JP 2018554476A JP 2018554476 A JP2018554476 A JP 2018554476A JP 2019514302 A JP2019514302 A JP 2019514302A
Authority
JP
Japan
Prior art keywords
unit
light
interest
illumination
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018554476A
Other languages
English (en)
Inventor
カン,セ−ジン
カン,ド−ヨン
ユン,ハン−ノ
Original Assignee
エムテクビジョン カンパニー リミテッド
エムテクビジョン カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160070843A external-priority patent/KR101810956B1/ko
Application filed by エムテクビジョン カンパニー リミテッド, エムテクビジョン カンパニー リミテッド filed Critical エムテクビジョン カンパニー リミテッド
Publication of JP2019514302A publication Critical patent/JP2019514302A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Blocking Light For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)
  • Exposure Control For Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

運転者の目位置の検出装置及び方法が提供される。目位置の検出装置は、外部に予め指定された波長の光を照射する光照射部と;外部の映像を撮影して、映像情報を生成するカメラ部と;上記映像情報から顔領域、目領域及び瞳孔の中心位置についての結果情報を生成する映像解釈部と、を含む。

Description

本発明は、運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法に関する。
車運行による交通事故死者数をできるだけ減らすために様々な技術が開発されており、一例として、運転者の顔映像を撮影して、居眠り運転をしているか否かを判別し、居眠り運転であると検知された場合、音響を出力するか、又は振動を発生させ、運転者に対して注意を喚起する発明も開発されている。
特に、韓国公開特許第10−2007−0031558号公報において、運転者の前方に取り付けられたカメラを用いて運転者の顔の部分を撮影し、撮影された画像から顔と目の位置を検出し、居眠り運転をしているか否かを判断する技術的思想が開示されている。
しかしながら、このような従来技術は、運転者が眼鏡をかけている場合、眼鏡の反射光が、実際に監視したい対象の信号と混ぜて、目や瞳孔の位置及び状態を検知し難いという問題があった。
特に、図1の(a)に示されているように、眼鏡ガラス面で鏡面反射(specular reflection)が起こる場合には、鏡面反射してカメラに流入された光が検知対象による信号よりもむしろ大きな値を有するという問題もあった。この場合、眼鏡ガラスの表面から鏡面反射する光の大きさとガラスの内部から乱反射する信号の大きさとの差によって眼鏡の内部が見えたり(図1の(b)を参照)、見えなくなったりするミラー効果(図1の(c)を参照)が発生する。
しかしながら、運転者が着用した眼鏡により運転者の目の位置及び状態が判断できない場合は、眠気状態の運転者に対しアラームを行えなくなり、車両の運行事故を防ぐことができないという問題があった。
また、韓国公開特許第10-2015−0136746号公報に開示されているように、撮像装置は、意図的に光を照射して被写体に対する撮影を行うときに、周辺の雑光に比べて相対的に強い光をセンサーの露光時間の全範囲にかけて被写体に照射する。しかしながら、周辺の雑光に比べて強い光を所定の時間の間照明として照射する際に大量の電力が消費される。
従来のグローバルシャッター(global shutter)方式のイメージセンサーが使用される場合は、全体の映像の画素が同じ露光タイミングを持っているので、照明をセンサーの露光時間の間点灯して、照明による電力消費量を減らすことが難しくなかった。
しかしながら、ローリングシャッター方式のイメージセンサーは、画像の各ラインごとに順次的な露光タイミングを持っているので、グローバルシャッターと同じ方式では照明による電力消費量を減らすことができないという制限があった。
つまり、図8に示されているように、VGAセンサーの場合、480ラインの露光タイミングが全フレーム周期にわたって存在しているので、イメージセンサーの露光時間の間照明が点灯している状態を保持する必要があり、連続した映像撮影の場合であれば、照明が常時点灯している状態を保持する必要があるという問題があった。
韓国公開特許第10−2007−0031558号公報 韓国公開特許第10−2015−0136746号公報
本発明の目的は、眼鏡着用者の場合にも運転者の目及び瞳孔の位置を正確に検出することができ、これにより居眠り運転をしているか否かを正確に判断できるようにする、運転者の目位置の検出装置と方法を提供することにある。
本発明の他の目的は、連続した各フレームで関心領域を追跡し、検出して、照明点灯区間を調節することにより、照明による電力消費量を減らすことのできるローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法を提供することにある。
本発明の以外の目的は、以下の説明に基づいて容易に理解できるはずである。
本発明の一側面によると、太陽光によって眼鏡ガラスの表面から鏡面反射した映像による影響を低減する目位置の検出装置において、外部に予め指定された波長の光を照射する光照射部と;外部の映像を撮影し、映像情報を生成するカメラ部と;上記映像情報から顔領域、目領域及び瞳孔の中心位置についての結果情報を生成する映像解析部と、を含み、上記予め指定された波長の光は、910nmから990nmの波長帯域の光を含み、上記カメラ部は、上記照射された光の910nmから990nmの波長帯域のうち予め指定された波長帯域のみを選択的に通過させる帯域通過フィルターを備え、上記照射された光に対応する上記映像情報を生成することを特徴とする、目位置の検出装置が提供される。
上記予め指定された波長の光は、ピーク波長が950nmであり、セントロイド(centroid)波長は、940nmの光であることもある。
上記カメラ部は、光が流入されるレンズと;上記レンズの後段に位置した上記帯域通過フィルターを通過した光を受光して、対応する映像信号を出力するイメージセンサーと;上記映像信号に対応する映像情報を生成する信号処理部と、を含むことができる。
上記カメラ部は、被写体に該当するユーザーが着用した眼鏡により上記光照射部が照射した光が鏡面反射して流入される位置以外の位置に設置位置が指定されることができる。
本発明の他の側面によると、撮像装置において、被写体に光を照射する照明部と;ローリングシャッター(rolling shutter)駆動方式のイメージセンサーを有し、動画モードで被写体を撮影して生成した映像情報をリアルタイムに出力するカメラ部と;上記カメラ部から提供された映像情報で構成した映像フレームから予め指定された関心物体を検出し、予め指定された方式により検出された関心物体を中心とする関心領域を設定して、これに対応する関心領域情報を生成する分析部と;カメラ制御値を設定して、上記カメラ部の動作を制御し、上記カメラ部が後続の映像フレームに対応する撮影時に、上記関心領域情報に対応する時間範囲のみで照明が点灯するように上記照明部の動作を制御する制御部と、を含むローリングシャッター駆動方式のイメージセンサーを備えた撮像装置が提供される。
上記制御部は、上記カメラ部からフレーム同期化(Vsync)信号及びライン同期化(Hsync)信号を入力され、入力されるライン同期化信号をカウントして、上記関心領域情報を満足する開始時点で上記照明部が光を点灯するように制御し、上記関心領域情報を満足する終了時点で上記照明部が照明を消灯するように制御することができる。
上記カメラ制御値は、上記映像フレームが予め指定された平均の明るさを持つように設定された上記イメージセンサーの露光値及びゲイン値であることもある。
上記照明部が予め指定された波長の赤外光を照射する場合、上記カメラ部は、上記予め指定された波長の赤外光のみを選択的に通過させる帯域通過フィルターを備え、上記帯域通過フィルターを通過した赤外光による映像情報を生成することができる。
本発明の更に他の側面によると、ローリングシャッター駆動方式のイメージセンサーが備えられた撮像装置の照明制御方法において、(a)制御部がカメラ制御値を提供して、ローリングシャッター駆動方式に被写体に対する動画撮影を実施するカメラ部の動作を制御する段階と;(b)上記制御部が上記カメラ部からフレーム同期化信号及びライン同期化信号を入力され、入力されるライン同期化信号をカウントして、予め設定された照明制御値に符合するライン同期化信号が入力される間のみ照明部が点灯するように制御する段階と;(c)分析部が、上記カメラ部から提供された映像情報によって生成された現在のフレームから予め指定された関心物体を検出し、上記関心物体を中心とする関心領域を設定して、これに対応する関心領域情報を生成する段階と;(d)上記段階(c)で生成された関心領域情報が、先行のフレームに対する関心領域情報と異なる場合、上記制御部は、後続のフレームに対する撮影時に適用される上記カメラ制御値及び上記照明制御値のいずれか一つ以上を変更する段階と、を含む、照明制御方法が提供される。
上記段階(a)から上記段階(d)は、上記カメラ部による撮影動作が続く間繰り返されることができる。
上記照明部は、予め指定された波長の赤外光を被写体に向けて照射し、上記映像情報は、上記カメラ部に備えられた上記予め指定された波長の赤外光のみを選択的に通過させる帯域通過フィルターを通過した赤外光によって生成されることができる。
前述以外の他の側面、特徴、利点は、以下の図面、特許請求の範囲及び発明の詳細な説明から明らかになるだろう。
本発明の実施例によると、眼鏡着用者の場合にも運転者の目及び瞳孔の位置を正確に検出することができ、これにより居眠り運転をしているか否かを正確に判断できるようにする効果がある。
また、連続した各フレームで関心領域(例えば、運転者の眠気検知のための目領域など)を追跡し、検出して、照明点灯区間を調節することにより、照明による電力消費量を減らすことができるという効果がある。
眼鏡による鏡面反射を説明するための図。 本発明の一実施例による目位置の検出装置のブロック構成図。 本発明の一実施例によるカメラ部のブロック構成図。 本発明の一実施例による映像解析部のブロック構成図。 太陽光のスペクトルを示す図。 本発明の一実施例による光照射部の照射光の帯域幅(bandwidth)と帯域通過フィルターの半値幅との関係を説明するための図。 本発明の一実施例による目位置の検出方法を示すフローチャート。 従来技術によるローリングシャッター駆動方式のイメージセンサーを備えた撮像装置の照明点灯区間を説明するための図。 本発明の一実施例によるローリングシャッター駆動方式のイメージセンサーを備えた撮像装置の構成の概略を示すブロック図。 本発明の一実施例による撮像装置の関心領域の指定過程を説明するための図。 本発明の一実施例による撮像装置の照明点灯区間による撮影映像を示す図。 本発明の一実施例による撮像装置の照明制御方法を示すフローチャート。 本発明の一実施例による関心領域の変動に伴う照明点灯区間の変動方法を説明するための図。
本発明は、様々な変換を加えることができ、複数の実施例を有することができるので、特定の実施例を図面に例示し、詳細な説明において詳細に説明しようとする。しかしながら、これは、本発明を特定の実施例について限定しようとするものではなく、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物ないし代替物を含むものと理解されるべきである。
ある構成要素が他の構成要素に“連結されて”いるとか、“接続されて”いると言及されている場合は、その他の構成要素に直接的に連結されているか、又は、接続されていることも出来るが、中間に他の構成要素が存在することもできると理解されるべきである。一方、ある構成要素が他の構成要素に“直接連結されて”いるとか、“直接接続されて”いると言及されている場合は、中間に他の構成要素が存在していないと理解されるべきである。
本明細書で使用した用語は、単に特定の実施例を説明するために使用されたものであり、本発明を限定しようとする意図ではない。単数の表現は、文脈上明白に異なる意味でない限り、複数の表現を含む。本明細書において、“含む”又は“持つ”などの用語は、明細書上に記載されている特徴、数字、段階、動作、構成要素、部品又はこれらを組み合わせたものが存在していることを指定しようとするだけであり、一つ又はその以上の他の特徴や数字、段階、動作、構成要素、部品又はこれらを組み合わせたものなどの存在又は付加可能性を予め排除するわけではないと理解されるべきである。
第1、第2などの用語は、多様な構成要素を説明するのに使用され得るが、当該構成要素は、当該用語により限定されるべきではない。当該用語は、一つの構成要素を他の構成要素から区別する目的のみに使用される。
また、明細書に記載された“…部”、“…ユニット”、“…モジュール”などの用語は、少なくとも一つの機能や動作を処理する単位を意味し、これは、ハードウェアやソフトウェア、あるいは、ハードウェアとソフトウェアとの組み合わせで具現することができる。
また、各図面を参照して説明する実施例の構成要素は、当該実施例のみに限定的に適用されるものではなく、本発明の技術的思想が維持される範囲内で他の実施例に含まれるように具現することができ、また、別の説明が省略されても、複数の実施例が纏められた一つの実施例で再具現できることも当然なことである。
また、添付の図面を参照して説明するに際して、図面符号に関係なく、同じ構成要素は、同じか関連する参照符号を付し、これに関する重複する説明は、省略することにする。本発明を説明するに際して、関連する公知技術に関する具体的な説明が、本発明の要旨を不要に曖昧にすると判断される場合、その詳細な説明を省略する。
図2は、本発明の一実施例による目位置の検出装置のブロック構成図であり、図3は、本発明の一実施例によるカメラ部のブロック構成図である。図4は、本発明の一実施例による映像解析部のブロック構成図であり、図5は、太陽光のスペクトルを示す図である。
図2を参照すると、目位置の検出装置200は、光照射部210と、カメラ部220と、映像解析部230と、制御部240と、を含むことができる。目位置の検出装置200は、運転者の顔映像を効果的に確保できるように車の内部の適切な位置(例えば、ルームミラー周りの位置、ダッシュボードの一方など)に装着されることがある。
光照射部210は、予め指定された波長帯域の光を外部に照射する。光照射部210が照射する予め指定された波長帯域の光は、図6の(a)に示されているように、波長の範囲が910nmから990nm以内の波長帯域の光が含まれることがあり、ピーク波長は、950nmであり、セントロイド波長(即ち、グラフの幅を半分に分ける重心に該当する波長)は、940nmと指定されている光であってもよい。
但し、本実施例では、便宜上、光照射部210から照射される光を940nm光と呼び、後述する帯域通過フィルター224(図3を参照)が選択的に通過させる特定の波長帯域を940nm帯域と呼ぶことにする。
図5に示されているように、太陽光スペクトルのうち940nm帯域の光スペクトルは、大気中のHOによって多くの吸収が行われ、太陽光による940nm帯域の光信号の大きさが相対的に少ないことが分かる。
従って、本実施例による目位置の検出装置200は、940nm光を照射する光照射部210を備えることにより、太陽光及び太陽光(周辺光など)によって生成された被写体のイメージが眼鏡ガラスの表面から鏡面反射してカメラ部220に入力されても、カメラ部220に備えられた帯域通過フィルター224によって940nm帯域の光以外の光が除去されることにより、反射光の信号による影響が最小化するという特徴がある。
カメラ部220は、ユーザーの顔を含む領域の映像情報を生成する。カメラ部220の設置位置は、照射部210から照射された光が眼鏡などによって鏡面反射する反射角の位置以外の位置に指定することができる。
図3を参照すると、カメラ部220は、レンズ222と、帯域通過フィルター224と、イメージセンサー226と、信号処理部228と、を含むことができる。
つまり、カメラ部220は、レンズ222から流入される光が帯域通過フィルター224を通した後、イメージセンサー226の各画素に電荷量として蓄積され、イメージセンサー226から出力される映像信号は、信号処理部228によって映像情報として処理され、信号処理部228によって処理された映像情報は、映像解析部230に提供される。信号処理部228は、例えば、イメージシグナルプロセッサ(ISP、Image signal Processor)であってもよい。
図6の(a)には、本実施例による光照射部210の照射光の波長(λ)による相対的な光の強さ(Irel)に関するグラフが示されている。本実施例において、940nm光と呼ばれる光照射部210の照射光は、波長範囲が910nmから990nm以内の波長帯域の光を含み、ピーク波長は、950nmであり、セントロイド波長は、940nmの光であってもよい。
これは、太陽光による940nm帯域の光信号の大きさが相対的に小さいので、該当帯域の光を照射する光照射部210を活用することで、太陽光によって眼鏡ガラスの表面から鏡面反射した映像による影響を十分に低減できるためである。
このために、ピーク波長である950nmの光の強さの50%に該当する帯域幅をAと定義すると、図6の(b)に示されているように、帯域通過フィルター224の半値幅(FWHM、Full Width Half Maximum)Bは、Aと実質的に同じ大きさを持つように設定することができる。
もし、BがAに比べて大きすぎると、940nm帯域以外の光もイメージセンサー226に流入されるので、太陽光量が最も少ない940nm帯域を選択した意味がなくなる。また、BがAに比べて小さすぎると、適切な波長帯域の光が流入されることはできるが、流入される光の量が小さすぎて、イメージセンサー226が好適に動作しなくなる。従って、AとBは、実質的に同じ大きさ、即ち、同じ大きさであるか、予め指定された誤差範囲内の違いを持つ大きさに各々指定される必要がある。
また、図3を参照すると、カメラ部220は、流入される光をフィルタリングするために帯域通過フィルター224が備えられているとの相違点の他には、既存のレンズ、イメージセンサー及び信号処理部を備えるカメラ部の構成と同じなので、これについての具体的な説明は省略する。
図4を参照すると、映像解析部230は、顔検出部232と、目領域検出部234と、瞳孔検出部236と、を含むことができる。
顔検出部232は、カメラ部220から入力される映像情報から顔領域を検出する。顔領域を検出するために、例えば、複数のHarr分類器を組み合わせて使用するエイダブースト(Adaboost)アルゴリズムが使用されてもよい。他の例として、肌の色に予め指定された色の範囲の領域を顔領域として検出することもできる。もちろん、この以外にも映像情報から顔領域を検出するための様々な検出技法が更に利用できることは当然なことである。
目領域検出部234は、顔検出部232から検出された顔領域内で目領域を検出する。顔検出部232から検出された顔領域で目が位置する目領域の範囲は、例えば、車の内部において着席している運転者の顔位置とカメラ部220の設置角度とを考慮して、例えば、検出された顔領域の上部30%領域などと予め指定することもできる。また、目領域検出部234は、既存の処理時に、瞳孔検出部236により瞳孔が存在している領域と主に認識される領域についての学習結果に基づいて目領域を指定することもできる。
瞳孔検出部236は、検出された目領域で瞳孔の中心を検出する。瞳孔の中心は、例えば、瞳孔領域の灰色レベルが周囲の領域よりも低いという特徴を利用する適応的閾値の推定方法を用いて、目領域内で瞳孔の中心を検出することができる。他の例として、階層的KLT特徴追跡アルゴリズムを用いて、動きベクトルを検索し、検索された動きベクトルを用いて、瞳孔の正確な中心座標を抽出する方法なども用いることができる。
前述の過程を通じて、カメラ部220によって撮影された運転者の顔の様子が正面であるか、又は、正面以外の状況であっても、顔領域、目領域及び瞳孔の存在と位置を正確に検出することができる。
映像解析部230は、顔領域情報、目領域情報、及び瞳孔の中心位置情報のうち1つ以上を検出結果として制御部240に提供する。
制御部240は、瞳孔の中心位置情報が予め指定された時間(例えば、0.5秒)以上継続的に映像解析部230から入力されない場合(例えば、目を閉じて、瞳孔が検出されない状態が続く場合)は、運転者が居眠り状態であると認識することができる。運転者が居眠り状態であると認識されると、制御部240は、スピーカー(図示せず)を通じて音響を出力するように制御したり、運転者が持っているハンドルに振動を発生させるように制御するなどの方法で運転者の注意を喚起することができる。
また、制御部240は、光照射部210、カメラ部220及び映像解析部230の動作を制御することができる。
前述のように、本実施例による目位置の検出装置200は、乱反射する検知対象の表面の信号が外部から入射され、ガラス面で鏡面反射する光の大きさよりも大きく具現することができ、眼鏡などのガラス媒質によって鏡面反射して入射される光に関わらず、検知対象の位置及び状態を効果的に確認できるようにするという特徴がある。
図7は、本発明の一実施例による目位置の検出方法を示すフローチャートである。
図7を参照すると、段階510において、光照射部210は、運転者に向かって940nm光を照射する。光照射部210が予め指定された光の照射周期によりオン/オフするように制御部240によって制御することができる。
段階520において、帯域通過フィルター224を備えたカメラ部220は、レンズ222から流入される光信号のうち帯域通過フィルター224によってフィルタリングされた光信号による映像情報を生成する。
また、映像解析部230は、カメラ部220によって生成された映像情報から顔領域、目領域及び瞳孔を検出し、顔領域情報、目領域情報及瞳孔の中心位置情報を各々生成する。
段階530において、制御部240は、段階520で生成された瞳孔の中心位置情報が、例えば、予め指定された時間(例えば、0.5秒)以上継続的に映像解析部230から入力されていないかどうかなどによって、運転者が居眠り状態であるか否かを判断する。
もし、運転者が居眠り状態であると判断されると、制御部240は、段階540において運転者の注意を換気するために予め指定されたアラーム処理を行う。アラーム処理は、例えば、スピーカー(図示せず)を通じて音響を出力するか、運転者が持っているハンドルに振動を発生させるなどの処置であってもよい。
今まで車に搭乗した運転者を対象として運転者の目領域及び瞳孔を検出して眠気運転防止を行う実施例を中心として説明したが、本発明による目位置の検出装置及び方法は、虹彩認識などのように瞳孔の位置を検出する必要のある様々な分野に制限なく適用できることは当然なことである。
図9は、本発明の一実施例によるローリングシャッター駆動方式のイメージセンサーを備えた撮像装置の構成の概略を示すブロック図であり、図10は、本発明の一実施例による撮像装置の関心領域の指定過程を説明するための図であり、図11は、本発明の一実施例による撮像装置の照明点灯区間による撮影映像を示した図である。
図9を参照すると、撮像装置900は、カメラ部910と、分析部920と、制御部930と、照明部940と、を含む。分析部920が制御部930の一構成として含まれることもあるが、便宜上、本実施例では、独立した構成として説明する。ここで、分析部920、照明部940、カメラ部910及び制御部930の各々は、前述の映像解析部230、光照射部210、カメラ部220及び制御部240の各々と同じ構成要素であるか、又は、追加に備えられる構成要素であってもよい。
撮像装置900がカメラ部910によって撮像された映像を処理してディスプレイ装置(図示せず)を通じて出力したり、映像を解釈して、予め指定された目的に応じた判断(例えば、運転者の顔の部分を撮影し、目領域を検出して、居眠り運転をしているか否かを判断など)を行う場合は、図示のように、映像処理部950などが更に含まれることもある。
カメラ部910は、ローリングシャッター駆動方式のイメージセンサーとイメージシグナルプロセッサ(Image Signal Processor)とを含む。カメラ部910は、制御部930から提供されるカメラ制御値(即ち、イメージセンサーの露光値及び/又はゲイン値)に対応するように被写体を撮影し、撮影された映像に対応するフレーム同期化信号(Vsync signal)及びライン同期化信号(Hsync signal)を制御部930に提供する。また、カメラ部910は、カメラ制御値に応じて撮影した映像に対応する映像情報を関心領域の決定のために分析部920に提供する。
分析部920は、カメラ部910から提供された映像情報、即ち、特定のフレームに該当する映像情報を用いて関心領域情報(例えば、1つのフレーム内で指定した座標区間情報など)を生成し、生成した関心領域情報を制御部930に提供する。
図10に示されているように、関心領域1030を規定するための関心領域情報は、例えば、予め指定された関心物体1020の形態、大きさ及び位置のうち1つ以上に対応するように生成することができる。関心物体1020の形態、大きさ及び位置のうち1つ以上についての情報は、格納部(図示せず)に予め格納することができる。
例えば、n番目のフレームで適用される関心領域情報は、格納部(図示せず)に予め格納されている関心物体1020の形態、大きさ及び位置のうち1つ以上に基づき、n−2番目のフレームの関心物体1020の位置に基づいて、n−1番目のフレームに対し、カルマンフィルター、パーティクルフィルターなどのトラッキング(tracking)アルゴリズムを適用したり、関心物体1020の検出のためのエッジ検出(edge detection)を実施するなどの方法で、n−1番目のフレームで検出した関心物体1020の位置を基に設定することができる(図10の(a)及び(c)を参照)。また、例えば、関心物体1020の検出のために、ブースティング(boosting)、SVM、人工神経ネットワークなどの機械学習アルゴリズムを用いることができ、本実施例による撮像装置900が、居眠り運転を判断するために運転者の瞳孔を確認する目的で使用される場合、エイダブーストアルゴリズムなどを更に用いることができる。
関心領域1030は、図10の(b)に示されているように、関心物体1020を基準として、例えば、所定の長さの垂直ライン(図10の(b1)を参照)により指定されるか、関心物体1020の中心点を基準にした所定の半径の円の領域(図10の(b2)を参照)などにより指定することができる。このように、後続のフレームで適用される関心領域情報は、先行及び/又は現在のフレームに対する関心物体1020の検出処理を行う分析部920によって継続的に更新することができる。
もちろん、関心物体1020の位置分析及び関心領域1030の設定のために所定の時間がかかる場合は、技術的又は製品的限界から、n−3番目のフレームの分析によって設定された関心領域情報が、n番目のフレームに対して適用されるなど、時間的遅れが存在することもある。しかし、このような技術的制限が、連続するフレームにおいて、先行のフレームの分析を通じて指定された関心領域情報が、後続のフレームの撮影時に照明の制御のための情報として用いられる本発明の技術的思想を制限したり、阻害しないことは当然のことである。
前述のように、更新された関心領域情報は、照明区間限定による電力消費量の節減及び映像処理速度の向上に寄与することができる。
つまり、後述する映像処理部950が、予め指定された判断を行うに際して、関心領域情報により指定された関心領域以外の領域に対しては、別の映像処理や判断が行われないので、フレームごとに映像処理速度が向上できるという利点がある。例えば、本実施例による撮像装置900が、居眠り運転をしているか否かを判断するために運転者の顔映像を撮影すると、運転者の目領域や瞳孔の関心物体1020を中心に関心領域1030が指定されることにより、映像処理部950による映像処理の負荷が最小化し、従って、映像処理の速度及び居眠り運転をしているか否かの判断に要する時間を最小化することができる。
また、新たに生成された関心領域情報は、制御部930に提供され、後続のフレームの撮影のための照明部940の照明区間の制御のための基礎情報として活用することができ、このことから、照明による電力消費量を減らすことができる。これは、関心領域1030以外の領域の撮影時には照明が照射される必要がないので、照明が点灯する区間を最小化できるためである。
ここで、もし、必要な映像のフレームレートよりも相対的に高速のフレームレートで出力が可能なカメラ部910が使用される場合には、入力された映像フレームの一部はスキップするように照明を点灯することにより、より大幅な電力削減効果を得ることもできる。
制御部930は、分析部920から提供された関心領域情報を参照して、カメラ部910に対するカメラ制御値(即ち、平均の明るさを有する映像を取得するために設定されるイメージセンサーの露光値、ゲイン値)を維持又は変更し、関心領域1030に対応する照明点灯区間に対応する照明制御値(即ち、Hsyncのカウント値)を設定する。
つまり、制御部930は、カメラ制御値に対応して撮影された現在のフレームの映像情報を基に分析部920が分析した関心領域情報に基づいて、後続のフレームに対する照明制御値を設定する。以来、カメラ部910から入力されるフレーム同期化信号によって後続のフレームの始まりを認知し、カメラ部910から入力されるライン同期化信号をカウントして、照明制御値に対応する、即ち、関心領域に該当するラインの露光タイミングと判断されると、照明部940に照明点灯トリガー信号を入力し、関心領域に該当するラインの露光タイミングが終了したと判断されると、照明部940に照明消灯トリガー信号を入力する。
また、制御部930は、連続する映像フレームでの関心物体1020の位置変動に対応するように更新された関心領域情報に応じて露光時間を調整したり、照明点灯を調整するなど、駆動設定値(即ち、カメラ制御値、照明制御値)を更新して設定することができる。
照明部940は、被写体に光を照射し、制御部930の照明点灯/消灯トリガー信号に対応して照明を点灯又は消灯する。
照明部940は、例えば、予め指定された波長帯域を含む赤外光を被写体に照射するように構成することができる。この場合、カメラ部910には、予め指定された波長の赤外光だけを選択的に通す帯域通過フィルタが備えられるようにすることで、例えば、撮影映像に対する関心物体検出、運転者が居眠り状態であるかの判断などによって太陽光による影響を最小化することができる。
図11には、制御部930の制御により、照明部940が照明の点灯及び消灯を施し、このような状況で、カメラ部910が撮影した映像が例示されている。図示のように、(1)区間に比べて(2)区間が相対的に明るく処理されるように、1つのフレームで各区間(例えば、ライン)の露光時間の間流入された光の量に応じて映像の鮮明度が異なるので、制御部930は、関心領域1030として指定された区間に対しては、露光時間全体にかけて光の露光が行われるように照明部940の動作を制御することができる。参考までに、同じ照明制御値が適用される場合、イメージセンサーの露光時間が長くなると、(1)の区間が減少し、(2)の区間が増加するはずである。また、同じカメラ制御値が適用される場合は、点灯区間が長くなると、(3)の区間が増加し、(1)及び(2)の区間が減少するはずである。
このように、カメラ部910にローリングシャッター駆動方式のイメージセンサーが備えられており、一つのフレームの関心領域1030に対してのみ制限的に照明の点灯処理がなされるようにすることで、一つのフレーム全体に対して照明の点灯処理が要求された従来の構造に比べて、相対的に電力消費量が減るという利点がある。
また、例えば、撮像装置900が車の内部に設置され、居眠り運転をしているか否かを判断するために運転者の顔映像を撮影するなどの目的で活用される場合、運転者の目領域又は瞳孔以外の領域は処理や判断が不要な領域なので、関心領域1030に集中して照明制御及び映像処理を行うことができ、最小限の電力消費のみで高速の映像処理及び判断をすることができるようになる。
図12は、本発明の一実施例による撮像装置の照明制御方法を示すフローチャートであり、図13は、本発明の一実施例による関心領域の変動に伴う照明点灯区間の変動方法を説明するための図である。
図12を参照すると、段階1210において、制御部930は、現在設定されている関心領域情報に対応する駆動設定値を指定する。駆動設定値は、例えば、イメージセンサーの露光値及びゲイン値のいずれか一つ以上としてカメラ部910に提供されるカメラ制御値及び照明点灯/消灯区間を指定するために照明部940の動作を制御する照明制御値であることができる。
段階1220において、制御部930は、新規映像フレームデータの入力が開始しているかどうかを判断する。制御部930は、例えば、カメラ部910から入力されるフレーム同期化信号によって新規映像フレームデータの開始を認めることができる。
新規映像フレームデータの入力が開始していないと、段階1220で待機する。しかし、新規映像フレームデータが入力されると、段階1230において、制御部930は、指定された照明制御値を参照し、カメラ部910から入力されるライン同期化信号をカウントして、関心領域1030に該当するラインの露光タイミングと判断されると、照明部940が照明を点灯するように制御し、関心領域1030に該当するラインの露光タイミングが終了していると判断されると、照明部940が照明を消灯するように制御する。
段階1240において、分析部920は、カメラ部910から一つのフレームに該当する映像情報の全てが提供されているか判断する。もし、一つのフレームに該当する映像情報の全てが提供されていない状態であれば、一つのフレームに該当する映像情報の全てが入力されるまで待機する。
しかし、もし一つのフレームに該当する映像情報が入力されていると、段階1250において、分析部920は、入力された一つのフレームから関心物体1020を検出し、検出された関心物体1020の位置を基に、予め指定された方式により関心領域1030を設定し、設定した関心領域情報(例えば、座標情報)を制御部930に入力する。もし、関心領域情報が以前と同じ状態に維持される場合は、制御部930への関心領域情報の入力は省略することができる。
図10を参照して、既述のように、現在のフレームでの関心領域は、格納部(図示せず)に予め格納されている関心物体1020の形態、大きさ及び位置のうち一つ以上に基づいて、先行(即ち、直前又はそれ以前)のフレームでの関心物体1020の位置トラッキング技法及び撮影された物体に対するエッジ検出などのいずれか一つ以上の方法によって検出された関心物体1020の位置を基に、予め指定された大きさ及び形状に設定することができる。
そして、前述のように、先行のフレームと現在のフレームで撮影された関心物体1020の位置及び/又は大きさの変更に伴って、関心領域1030は継続的に更新することができる。
例えば、図13の(a)に示しているように、分析部920が、関心物体1020が上方又は下方に移動したと分析した場合、分析部920は、関心領域1030が上方又は下方に移動した旨の関心領域情報を生成して制御部930に提供することができる。これに対応するように、制御部930は、照明部940の点灯区間の制御のための照明制御値を調節して点灯区間を繰り上げたり、繰り下げるなどの方式により調整することができる。
その他に、関心物体1020の大きさが小さくなり、関心領域が相対的に狭くなった場合、図11の(2)の区間で例示されているように、制御部930は、イメージセンサーの露光値を増やし(即ち、露光時間を増やし)、ゲインを減らすようにカメラ制御値を更新するか、点灯区間が短くなるように照明制御値を更新することができる。この場合、ゲイン値が減少すると、画質が改善され得るという利点がある。
また、関心物体1020の大きさが大きくなり、関心領域が相対的に広くなる場合、短い点灯区間でも鮮明な画質を得ることができるようにするために、露光時間を減少するようにカメラ制御値を更新するか、点灯区間が長くなるように照明制御値を更新することもできる。
また、図12を参照すると、段階1260において、制御部930は、関心領域情報が変更されているかどうかを判断する。もし、関心領域情報が変更されていないと、段階1220に進み、制御部930は、既に適用されている駆動設定値を用いて前述の処理が進むようにする。
しかし、もし関心領域情報が変更されていると、制御部930は、段階1270で変更されている関心領域情報に対応するように駆動設定値を更新し、段階1220に進み、更新された駆動設定値に応じて前述の処理が進行されるようにする。
前述の目位置の検出方法及び/又は照明制御方法は、デジタル処理装置に組み込まれているソフトウェアプログラム等によって、時系列的な順序による自動化されたプロセスで行えることは当然なことである。上記プログラムを構成するコード及びコードセグメントは、当該分野のコンピュータ・プログラマーによって容易に推論することができる。また、上記プログラムは、コンピューターが読み取り可能なデータ格納媒体(computer readable media)に格納され、コンピューターによって読み取られ、実行されることにより、上記方法を具現することができる。上記情報格納媒体は、磁気記録媒体、光記録媒体及びキャリアウェーブ媒体などを含むことができる。
上記では、本発明の実施例を参照して述べたが、当該技術分野において通常の知識を有する者であれば、下記の特許請求の範囲に記載された本発明の思想及び領域から逸脱しない範囲内で、本発明を多様に修正及び変更できることが理解できるだろう。
200…目位置の検出装置
210…光照射部門
220、910…カメラ部
222…レンズ
224…帯域通過フィルター
226…イメージセンサー
228…信号処理部
230…映像解析部
232…顔検出部
234…目領域検出部
236…瞳孔検出部
240、930…制御部
900…撮像装置
920…分析部
940…照明部
950…映像処理部
1020…関心物体
1030…関心領域

Claims (12)

  1. 太陽光によって眼鏡ガラスの表面から鏡面反射した映像による影響を低減する目位置の検出装置において、
    外部に予め指定された波長の光を照射する光照射部と;
    外部の映像を撮影し、映像情報を生成するカメラ部と;
    上記映像情報から顔領域、目領域及び瞳孔の中心位置についての結果情報を生成する映像解析部と、を含み、
    上記予め指定された波長の光は、910nmから990nmの波長帯域の光を含み、
    上記カメラ部は、上記照射された光の910nmから990nmの波長帯域のうち予め指定された波長帯域のみを選択的に通過させる帯域通過フィルターを備え、上記照射された光に対応する上記映像情報を生成することを特徴とする、目位置の検出装置。
  2. 上記予め指定された波長の光は、950nmのセントロイド波長を有することを特徴とする、請求項1に記載の目位置の検出装置。
  3. 上記カメラ部は、
    光が流入されるレンズと;
    上記レンズの後段に位置した上記帯域通過フィルターを通過した光を受光して、対応する映像信号を出力するイメージセンサーと;
    上記映像信号に対応する映像情報を生成する信号処理部と、を含むことを特徴とする、請求項1に記載の目位置の検出装置。
  4. 上記カメラ部は、被写体に該当するユーザーが着用した眼鏡により上記光照射部が照射した光が鏡面反射して流入される位置以外の位置に設置位置が指定されることを特徴とする、請求項1に記載の目位置の検出装置。
  5. 撮像装置において、
    被写体に光を照射する照明部と;
    ローリングシャッター駆動方式のイメージセンサーを有し、動画モードで被写体を撮影して生成した映像情報をリアルタイムに出力するカメラ部と;
    上記カメラ部から提供された映像情報で構成した映像フレームから予め指定された関心物体を検出し、予め指定された方式により検出された関心物体を中心とする関心領域を設定して、これに対応する関心領域情報を生成する分析部と;
    カメラ制御値を設定して、上記カメラ部の動作を制御し、上記カメラ部が後続の映像フレームに対応する撮影時に、上記関心領域情報に対応する時間範囲のみで照明が点灯するように上記照明部の動作を制御する制御部と、を含むローリングシャッター駆動方式のイメージセンサーを備えた撮像装置。
  6. 上記制御部は、上記カメラ部からフレーム同期化信号及びライン同期化信号を入力され、入力されるライン同期化信号をカウントして、上記関心領域情報を満足する開始時点で上記照明部が光を点灯するように制御し、上記関心領域情報を満足する終了時点で上記照明部が照明を消灯するように制御することを特徴とする、請求項5に記載のローリングシャッター駆動方式のイメージセンサーを備えた撮像装置。
  7. 上記カメラ制御値は、上記映像フレームが予め指定された平均の明るさを持つように設定された上記イメージセンサーの露光値及びゲイン値であることを特徴とする、請求項5に記載のローリングシャッター駆動方式のイメージセンサーを備えた撮像装置。
  8. 上記照明部が予め指定された波長の赤外光を照射する場合、
    上記カメラ部は、上記予め指定された波長の赤外光のみを選択的に通過させる帯域通過フィルターを備え、上記帯域通過フィルターを通過した赤外光による映像情報を生成することを特徴とする、請求項5に記載のローリングシャッター駆動方式のイメージセンサーを備えた撮像装置。
  9. ローリングシャッター駆動方式のイメージセンサーが備えられた撮像装置の照明制御方法において、
    (a)制御部がカメラ制御値を提供して、ローリングシャッター駆動方式に被写体に対する動画撮影を実施するカメラ部の動作を制御する段階と;
    (b)上記制御部が上記カメラ部からフレーム同期化信号及びライン同期化信号を入力され、入力されるライン同期化信号をカウントして、予め設定された照明制御値に符合するライン同期化信号が入力される間のみ照明部が点灯するように制御する段階と;
    (c)分析部が、上記カメラ部から提供された映像情報によって生成された現在のフレームから予め指定された関心物体を検出し、上記関心物体を中心とする関心領域を設定して、これに対応する関心領域情報を生成する段階と;
    (d)上記段階(c)で生成された関心領域情報が、先行のフレームに対する関心領域情報と異なる場合、上記制御部は、後続のフレームに対する撮影時に適用される上記カメラ制御値及び上記照明制御値のいずれか一つ以上を変更する段階と、を含む照明制御方法。
  10. 上記の段階(a)から上記段階(d)は、上記カメラ部による撮影動作が続く間繰り返されることを特徴とする、請求項9に記載の照明制御方法。
  11. 上記照明部は、予め指定された波長の赤外光を被写体に向けて照射し、
    上記映像情報は、上記カメラ部に備えられた上記予め指定された波長の赤外光のみを選択的に通過させる帯域通過フィルターを通過した赤外光によって生成されることを特徴とする、請求項9に記載の照明制御方法。
  12. 請求項9又は請求項10に記載の照明制御方法を行う記録媒体に格納されているコンピュータプログラム。
JP2018554476A 2016-05-25 2016-07-14 運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法 Pending JP2019514302A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2016-0064189 2016-05-25
KR1020160064189 2016-05-25
KR10-2016-0070843 2016-06-08
KR1020160070843A KR101810956B1 (ko) 2016-06-08 2016-06-08 롤링 셔터 구동 방식의 이미지 센서를 구비한 촬상 장치 및 그 조명 제어 방법
PCT/KR2016/007695 WO2017204406A1 (ko) 2016-05-25 2016-07-14 운전자의 눈 위치 검출 장치와 방법, 및 롤링 셔터 구동 방식의 이미지 센서를 구비한 촬상 장치와 그 조명 제어 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020088067A Division JP2020145724A (ja) 2016-05-25 2020-05-20 運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法

Publications (1)

Publication Number Publication Date
JP2019514302A true JP2019514302A (ja) 2019-05-30

Family

ID=60412422

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018554476A Pending JP2019514302A (ja) 2016-05-25 2016-07-14 運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法
JP2020088067A Pending JP2020145724A (ja) 2016-05-25 2020-05-20 運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020088067A Pending JP2020145724A (ja) 2016-05-25 2020-05-20 運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法

Country Status (4)

Country Link
US (2) US20190141264A1 (ja)
JP (2) JP2019514302A (ja)
CN (1) CN109076176A (ja)
WO (1) WO2017204406A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10775605B2 (en) * 2016-06-16 2020-09-15 Intel Corporation Combined biometrics capture system with ambient free IR
JP7078386B2 (ja) * 2017-12-07 2022-05-31 矢崎総業株式会社 画像処理装置
CN108388781B (zh) * 2018-01-31 2021-01-12 Oppo广东移动通信有限公司 移动终端、图像数据获取方法及相关产品
JP7275124B2 (ja) * 2018-06-05 2023-05-17 ソニーセミコンダクタソリューションズ株式会社 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法
US11570370B2 (en) * 2019-09-30 2023-01-31 Tobii Ab Method and system for controlling an eye tracking system
KR20210059060A (ko) * 2019-11-13 2021-05-25 삼성디스플레이 주식회사 검출 장치
KR102460660B1 (ko) * 2020-08-24 2022-10-31 현대모비스 주식회사 카메라 내장 헤드램프의 램프 제어기 연동 시스템 및 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921611A (ja) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp 顔画像撮像装置
JP2000028315A (ja) * 1998-07-13 2000-01-28 Honda Motor Co Ltd 対象物検出装置
US20060087582A1 (en) * 2004-10-27 2006-04-27 Scharenbroch Gregory K Illumination and imaging system and method
JP2007004448A (ja) * 2005-06-23 2007-01-11 Honda Motor Co Ltd 視線検出装置
JP2008123137A (ja) * 2006-11-09 2008-05-29 Aisin Seiki Co Ltd 車載用画像処理装置とその制御方法
JP2010219826A (ja) * 2009-03-16 2010-09-30 Fuji Xerox Co Ltd 撮像装置、位置計測システムおよびプログラム
JP2013097223A (ja) * 2011-11-02 2013-05-20 Ricoh Co Ltd 撮像方法及び撮像ユニット
WO2015031942A1 (en) * 2013-09-03 2015-03-12 Seeing Machines Limited Low power eye tracking system and method
JP2016049260A (ja) * 2014-08-29 2016-04-11 アルプス電気株式会社 車載用撮像装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055322A (en) * 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
KR100716370B1 (ko) * 2005-09-15 2007-05-11 현대자동차주식회사 운전자의 눈 위치 검출 방법
JP4265600B2 (ja) * 2005-12-26 2009-05-20 船井電機株式会社 複眼撮像装置
US8803978B2 (en) * 2006-05-23 2014-08-12 Microsoft Corporation Computer vision-based object tracking system
JP2010527457A (ja) * 2007-04-18 2010-08-12 株式会社オプトエレクトロニクス 移動物体を撮像するための撮像方法及び撮像装置
JP4915314B2 (ja) * 2007-08-23 2012-04-11 オムロン株式会社 撮像装置および撮像制御方法
US20090097704A1 (en) * 2007-10-10 2009-04-16 Micron Technology, Inc. On-chip camera system for multiple object tracking and identification
US8570176B2 (en) * 2008-05-28 2013-10-29 7352867 Canada Inc. Method and device for the detection of microsleep events
US8115855B2 (en) * 2009-03-19 2012-02-14 Nokia Corporation Method, an apparatus and a computer readable storage medium for controlling an assist light during image capturing process
US20130089240A1 (en) * 2011-10-07 2013-04-11 Aoptix Technologies, Inc. Handheld iris imager
JP5800288B2 (ja) * 2012-10-30 2015-10-28 株式会社デンソー 車両用画像処理装置
US20140375785A1 (en) * 2013-06-19 2014-12-25 Raytheon Company Imaging-based monitoring of stress and fatigue
KR20150016723A (ko) * 2013-08-05 2015-02-13 (주)유아이투 스마트기기의 조도센서를 이용하는 정보분석시스템 및 이에 의한 정보분석방법
US9294687B2 (en) * 2013-12-06 2016-03-22 Intel Corporation Robust automatic exposure control using embedded data
KR20150075906A (ko) * 2013-12-26 2015-07-06 삼성전기주식회사 시선 추적 장치 및 방법
EP3092601A4 (en) * 2014-01-06 2017-11-29 Eyelock Llc Methods and apparatus for repetitive iris recognition
GB2523356A (en) * 2014-02-21 2015-08-26 Tobii Technology Ab Apparatus and method for robust eye/gaze tracking
KR102237479B1 (ko) * 2014-06-03 2021-04-07 (주)아이리스아이디 홍채 인식 단말기 및 방법
US10255498B2 (en) * 2014-07-09 2019-04-09 Samsung Electronics Co., Ltd. Method and device for recognizing biometric information
US10262203B2 (en) * 2014-09-02 2019-04-16 Samsung Electronics Co., Ltd. Method for recognizing iris and electronic device therefor
KR101619651B1 (ko) * 2014-11-26 2016-05-10 현대자동차주식회사 운전자 감시장치 및 그의 조명제어방법
WO2016131075A1 (en) * 2015-02-20 2016-08-25 Seeing Machines Limited Glare reduction
US9961258B2 (en) * 2015-02-23 2018-05-01 Facebook, Inc. Illumination system synchronized with image sensor
US9864119B2 (en) * 2015-09-09 2018-01-09 Microsoft Technology Licensing, Llc Infrared filter with screened ink and an optically clear medium
US10594974B2 (en) * 2016-04-07 2020-03-17 Tobii Ab Image sensor for vision based on human computer interaction
JP2017204685A (ja) * 2016-05-10 2017-11-16 ソニー株式会社 情報処理装置、情報処理方法
KR20180133076A (ko) * 2017-06-05 2018-12-13 삼성전자주식회사 이미지 센서 및 이를 구비하는 전자 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921611A (ja) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp 顔画像撮像装置
JP2000028315A (ja) * 1998-07-13 2000-01-28 Honda Motor Co Ltd 対象物検出装置
US20060087582A1 (en) * 2004-10-27 2006-04-27 Scharenbroch Gregory K Illumination and imaging system and method
JP2007004448A (ja) * 2005-06-23 2007-01-11 Honda Motor Co Ltd 視線検出装置
JP2008123137A (ja) * 2006-11-09 2008-05-29 Aisin Seiki Co Ltd 車載用画像処理装置とその制御方法
JP2010219826A (ja) * 2009-03-16 2010-09-30 Fuji Xerox Co Ltd 撮像装置、位置計測システムおよびプログラム
JP2013097223A (ja) * 2011-11-02 2013-05-20 Ricoh Co Ltd 撮像方法及び撮像ユニット
WO2015031942A1 (en) * 2013-09-03 2015-03-12 Seeing Machines Limited Low power eye tracking system and method
JP2016049260A (ja) * 2014-08-29 2016-04-11 アルプス電気株式会社 車載用撮像装置

Also Published As

Publication number Publication date
WO2017204406A1 (ko) 2017-11-30
US20190141264A1 (en) 2019-05-09
JP2020145724A (ja) 2020-09-10
US20200169678A1 (en) 2020-05-28
CN109076176A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
JP2019514302A (ja) 運転者の目位置の検出装置と方法、及びローリングシャッター駆動方式のイメージセンサーを備えた撮像装置とその照明制御方法
KR101810956B1 (ko) 롤링 셔터 구동 방식의 이미지 센서를 구비한 촬상 장치 및 그 조명 제어 방법
JP5366028B2 (ja) 顔画像撮像装置
EP2543187B1 (en) Systems and methods for spatially controlled scene illumination
JP7138168B2 (ja) 低照明光条件下での物体追跡における信号対雑音比を向上させるためのシステム及び方法
JP5109922B2 (ja) ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP4899059B2 (ja) 眠気検知装置
JP5761074B2 (ja) 撮像制御装置及びプログラム
JP5177011B2 (ja) 開眼度特定装置
JP2021002869A5 (ja)
JP2007276766A (ja) 監視装置および方法、記録媒体、並びに、プログラム
JP2009201756A (ja) 情報処理装置および方法、並びに、プログラム
JP2007025758A (ja) 人の顔画像抽出方法及び同装置
JP2016093253A (ja) 瞳孔検出用光源装置の制御方法
JP2015173327A (ja) 撮像装置、投光装置、およびビームライト制御方法、並びにプログラム
CN111132599B (zh) 具有减少的反射的图像获取
JP6935815B2 (ja) 照明撮像装置
JP2009125518A (ja) ドライバの瞬き検知方法及びドライバの覚醒度判断方法並びに装置
JP2023164485A (ja) 映像処理装置、映像処理方法および映像処理プログラム
JP5206190B2 (ja) ドライバー監視装置
WO2021010201A1 (ja) 車載カメラ用照明システム
US20210118108A1 (en) High frame rate image pre-processing system and method
KR102038371B1 (ko) 운전자의 눈 위치 검출 장치 및 방법
JP7149749B2 (ja) 運転支援装置、及び運転支援方法
Horak et al. Human eyes localization for driver inattention monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200929