JP7163129B2 - オブジェクトトラッキング方法及び装置 - Google Patents

オブジェクトトラッキング方法及び装置 Download PDF

Info

Publication number
JP7163129B2
JP7163129B2 JP2018193230A JP2018193230A JP7163129B2 JP 7163129 B2 JP7163129 B2 JP 7163129B2 JP 2018193230 A JP2018193230 A JP 2018193230A JP 2018193230 A JP2018193230 A JP 2018193230A JP 7163129 B2 JP7163129 B2 JP 7163129B2
Authority
JP
Japan
Prior art keywords
type
input image
target object
reliability
wavelength band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018193230A
Other languages
English (en)
Other versions
JP2019083004A (ja
Inventor
珍九 許
東▲ぎょん▼ 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019083004A publication Critical patent/JP2019083004A/ja
Application granted granted Critical
Publication of JP7163129B2 publication Critical patent/JP7163129B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態はオブジェクトトラッキング方法及び装置に関する。
オブジェクトのトラッキングは、一般に、カメラで取得した映像からオブジェクトを検出し、オブジェクトに関する代表的な特徴点を抽出し、特徴点を用いてフレームごとにオブジェクトの座標を抽出する。一方、円滑な3D視聴のためには両眼の3次元座標が必要である。両眼の3次元座標を取得するために、両眼の2次元情報、顔の回転情報、及び両眼の間の距離等が用いられる。両眼の3次元座標をフレームごとに抽出することで両眼の位置をトラッキングし、両眼の位置に合わせて3D映像を生成することができる。
実施形態の目的は、マルチモダリティを用いて様々な環境でオブジェクトをトラッキングすることにある。
一実施形態によれば、オブジェクトトラッキング方法は、第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトを検出するステップと、前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定するステップと、前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングするステップとを含む。
前記第1波長帯域は可視線帯域を含み、前記第2波長帯域は赤外線帯域を含み得る。前記第1タイプの入力映像及び前記第2タイプの入力映像は、赤外線遮断フィルタが除去されたカメラを用いて取得され、前記第1タイプの入力映像の信頼度が前記第1閾値よりも低い場合、赤外線帯域の光を提供する赤外線光源を制御するステップをさらに含み得る。前記第1波長帯域が可視線領域を含む場合、前記赤外線光源を制御するステップは、前記赤外線光源を活性化させるステップを含み得る。前記第1データベースに格納された少なくとも1つの映像は、予め決定した基準よりも高い信頼度を有し、前記第1波長帯域の光に基づいて取得された少なくとも1つの第1参照映像を含み得る。
前記オブジェクトトラッキング方法は、記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定するステップと、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記第1タイプの入力映像又は第2タイプの入力映像から前記対象オブジェクトを検出するステップとをさらに含み得る。前記第2データベースに格納された少なくとも1つの映像は、予め決定した閾値よりも高い信頼度を有し、前記第2波長帯域の光に基づいて取得された少なくとも1つの第2参照映像を含み得る。
前記オブジェクトトラッキング方法は、前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記第2タイプの入力映像から前記対象オブジェクトをトラッキングするステップをさらに含み得る。前記オブジェクトトラッキング方法は、前記第2タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第2タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定するステップと、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記検出情報を用いて第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップとをさらに含み得る。
前記第1タイプの入力映像から対象オブジェクトを検出するステップは、エラーデータに基づいて予め学習された第1検出器を用いて実行され、前記エラーデータは、トレーニングデータのうち前記対象オブジェクトの検出が完了されていないデータ、及び前記トレーニングデータのうち他のオブジェクトが前記対象オブジェクトに間違って検出されたデータのうち少なくとも1つを含み得る。
前記検出情報は、前記第1タイプの入力映像の第1フレームで前記対象オブジェクトに対応する検出領域を含み、前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップは、前記検出領域を用いて前記第1タイプの入力映像の第2フレームから前記対象オブジェクトをトラッキングするステップを含み得る。
一実施形態によれば、オブジェクトトラッキング装置は、プロセッサと、前記プロセッサで読み出し可能な命令語を含むメモリとを含み、前記命令語が前記プロセッサで実行されると、前記プロセッサは、第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトを検出し、前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定し、前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングする。
本発明によれば、マルチモダリティを用いて様々な環境でオブジェクトをトラッキングすることができる。
一実施形態に係るオブジェクトトラッキング装置を示すブロック図である。 一実施形態に係るオブジェクトトラッキング方法を示す動作フローチャートである。 一実施形態に係る信頼度測定器の動作を示す図である。 一実施形態に係る入力映像の信頼度を測定する過程を示す図である。 一実施形態に係るトラッキング領域を用いてオブジェクトをトラッキングする過程を示す図である。 一実施形態に係る品質測定に基づくトラッカーを示すブロック図である。 一実施形態に係るトレーニング装置を示すブロック図である。 一実施形態に係る検出器の学習過程を示すブロック図である。 一実施形態に係る第1波長帯域の光に基づいた入力映像から対象オブジェクトをトラッキングするトラッカーをトレーニングする過程を示す図である。 一実施形態に係る第2波長帯域の光に基づいた入力映像から対象オブジェクトをトラッキングするトラッカーをトレーニングする過程を示す図である。 一実施形態に係るステレオカメラを用いたオブジェクトトラッキング方法を示す動作フローチャートである。 一実施形態に係る映像処理装置を示すブロック図である。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものとして、様々な形態に変更されてもよい。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係るオブジェクトトラッキング装置を示すブロック図である。図1を参照すれば、オブジェクトトラッキング装置100は、映像処理装置110、カメラ120、及び赤外線光源130を含む。オブジェクトトラッキング装置100は、カメラ120によって取得した入力映像から対象オブジェクト150を検出し、検出された対象オブジェクト150をトラッキングする。一実施形態によれば、対象オブジェクト150はユーザの目であってもよく、オブジェクトトラッキング装置100は、入力映像からユーザの目を対象オブジェクト150として高い精度でトラッキングできる。対象オブジェクト150は、ユーザの目の他に、顔、手のような身体部位、及び車両、自転車のような物体を含み得る。以下では、対象オブジェクト150がユーザの目である場合について説明するが、以下の説明は対象オブジェクト150がユーザの目以外のものであっても適用され得る。
裸眼式3Dを提供するためにユーザの目の位置が求められる。裸眼式3D装置は、カメラを用いてユーザの目をトラッキングし、目の位置に対応する3D映像を出力する。3Dヘッドアップディスプレイ(Head Up Display:HUD)は、ナビゲーション情報、悪天候等における運転補助のための情報、及び危険状況や危険対象等をウィンドシールド(windshield)に表示する。3D HUDにおいては、3D情報が道路上で正確に表現されることが重要であるため、目の位置が持続的に精密に検出されなければならない。例えば、照度の低い環境やメガネのような障害物が存在する環境であっても、目の位置が持続的に精密に検出されなければならない。クロストークによりユーザに誤った3D情報が提供される場合、交通事故のような生命に危険な状況が発生する虞があるためである。オブジェクトトラッキング装置100は、照度の低い環境やメガネのような障害物が存在する環境などの様々な環境で撮影された入力映像から、このような対象オブジェクト150をトラッキングし得る。
カメラ120は、対象オブジェクト150を撮影して映像処理装置110に入力映像を提供する。映像処理装置110は、入力映像から対象オブジェクト150をトラッキングして対象オブジェクト150の座標を決定する。カメラ120は、シングルカメラ又はステレオカメラであってもよい。カメラ120がシングルカメラである場合、映像処理装置110は、入力映像から対象オブジェクト150の2D座標を抽出し、これをユーザの瞳孔間距離(Inter Pupil Distance:IPD)と組み合わせて対象オブジェクト150の3D座標を決定する。カメラ120がステレオカメラである場合、映像処理装置110は、少なくとも2つの位置で撮影された入力映像から対象オブジェクト150の2D座標を抽出し、三角測量方式によって対象オブジェクト150の3D座標を決定する。
カメラ120は、第1波長帯域の光に基づいて第1タイプの入力映像を生成し、第2波長帯域の光に基づいて第2タイプの入力映像を生成する。カメラ120は、可視線を用いるビジュアルカメラ及び赤外線を用いるIRカメラ(Infrared camera)の役割を果たす。言い換えれば、カメラ120は、可視線及び赤外線の全てを利用できるハイブリッドカメラであり得る。例えば、カメラ120から赤外線遮断フィルタ(IR cut filter)が除去され、カメラ120は、可視線が提供される環境では可視線を用いて対象オブジェクト150を撮影し、或いはカメラ120は赤外線が提供される環境では赤外線を用いて対象オブジェクト150を撮影する。一例として、カメラ120は、ハイブリッド方式のステレオカメラであり得る。
ビジュアルカメラの場合、低照度で対象オブジェクト150をトラッキングするには限界がある。低照度の環境でビジュアルカメラを用いて対象オブジェクト150をトラッキングしようとすると、ビジュアルカメラのフレームレートを低下させたり絞りを開放したりしなければならない。この場合、低いフレームレートによってカメラ遅延や映像ぼけが発生する虞がある。低照度の環境ではIRカメラを使用することが考えられるかもしれないが、IRカメラを使用する場合、持続的なIRの使用に起因して安全性の問題が発生し、メガネによって目の周辺にホワイトスポット又は白点(white spot)が生じたり、強い外光が存在する環境で対象オブジェクト150の検出精度が減少したりしてしまうことが懸念される。
カメラ120は、状況に応じて適切にビジュアルカメラとして動作したり、IRカメラとして動作する。例えば、映像処理装置110が可視線に基づいた入力映像から対象オブジェクト150の検出に失敗した場合、カメラ120は、赤外線に基づいて対象オブジェクト150を撮影してもよい。このようにカメラ120がIRカメラとして動作する場合、赤外線撮影のために赤外線光源130が活性化し、赤外線光源130は、活性化状態で赤外線帯域の光を提供し得る。カメラ120から赤外線遮断フィルタが除去されている場合、カメラ120は赤外線に基づいて対象オブジェクト150を撮影することが可能である。また、映像処理装置110が、可視線に基づいた入力映像の信頼度は低下したと判断した場合、カメラ120は、赤外線に基づいて対象オブジェクト150を撮影する。
照度が高い場合に可視線映像を用いることが必ずしもトラッキングに有利ではなく、照度が低い場合に赤外線映像を用いることが必ずしもトラッキングに有利であるとは限らない。例えば、照度が低い場合であっても可視線映像を用いることがトラッキングに有利な状況が存在する。言い換えれば、照度値に応じてカメラ120が用いる波長帯域を決定することは、トラッキングの精度を保障できるとは限らない。
実施形態によれば、入力映像の信頼度を出力するようトレーニングされた信頼度測定器を用いて入力映像の信頼度を測定し、入力映像の信頼度に応じてモダリティ(modality)をスイッチングする。ここで、モダリティは、特定の波長帯域に関する装置又は動作を示す。入力映像の信頼度が高いことは、入力映像を用いたトラッキング過程の信頼度が高いことを含む。信頼度測定器を用いて信頼度が低く測定される場合、モダリティをスイッチングしてトラッキング過程の信頼度を向上させる。信頼度測定器を用いる場合、単に照度に依存するよりも、トラッキングの精度が向上され得る。
オブジェクトトラッキング装置100は、車両の3D HUDデバイスのために運転者の目の位置をトラッキングしたり、TVやモバイルデバイスのようなディスプレイデバイスの3Dディスプレイから視聴者の目の位置をトラッキングしたりするために用いられる。また、オブジェクトトラッキング装置100は、運転者の視点、運転者の視線追跡状態をモニタリングするために用いられる。
オブジェクトトラッキング装置100は、検出モードから対象オブジェクト150を検出し、検出された対象オブジェクト150の領域情報を用いてトラッキングモードから対象オブジェクト150をトラッキングする。例えば、第1フレームからオブジェクトが検出された場合、オブジェクトトラッキング装置100は検出情報を生成し、検出情報を用いて第2フレームから対象オブジェクト150をトラッキングする。ここで、第2フレームは、第1フレームの次のフレームであってもよく、検出情報は、検出された対象オブジェクト150に対応する検出領域を含む。オブジェクトトラッキング装置100がトラッキングモードに入る場合、入力映像の全体領域ではない一部領域で対象オブジェクト150を検出することから、対象オブジェクト150を検出するためのリソースが節約される。
一実施形態によれば、オブジェクトトラッキング装置100は、検出モードでエラーデータベースにトレーニングされた検出器を用いる。エラーデータは、オブジェクト検出の難易度の高いトレーニングデータを意味し、エラーデータを用いて検出器をトレーニングすることで検出器の検出性能を向上させ得る。例えば、エラーデータは、トレーニングデータのうち対象オブジェクト150の検出が完了されていないデータ、及びトレーニングデータのうち他のオブジェクトが対象オブジェクト150に間違って検出されたデータのうち少なくとも1つを含む。対象オブジェクト150の検出が完了できないことは、対象オブジェクト150の検出に失敗したことを意味する。
一実施形態によれば、オブジェクトトラッキング装置100は、トラッキングモードで品質に基づいてトレーニングされたトラッカーを用いることができる。品質測定器は、入力映像の品質に応じて入力映像を分類する。例えば、品質測定器により、入力映像は、高い品質、中間品質、及び低い品質のいずれか1つに分類される。入力映像の品質は、トラッキング難易度を含む。トラッカーは、高い品質の入力映像から対象オブジェクト150をトラッキングするようトレーニングされた第1トラッカー、中間品質の入力映像から対象オブジェクト150をトラッキングするようトレーニングされた第2トラッカー、及び低い品質の入力映像から対象オブジェクト150をトラッキングするようトレーニングされた第3トラッカーを含む。品質測定器が入力映像の品質を測定すれば、測定された品質に対応するトラッカーが対象オブジェクト150をトラッキングする。品質に基づいてトレーニングされたトラッカーを用いる場合、トラッキングの精度が向上される。
図2は、一実施形態に係るオブジェクトトラッキング方法を示す動作フローチャートである。下記で可視線カメラにより使用される波長帯域、言い換えれば、可視線帯域を含む帯域を第1波長帯域と称し、IRカメラにより使用される波長帯域、言い換えれば、赤外線帯域を含む帯域を第2波長帯域と称する。また、第1波長帯域に関する装置又は動作は第1モダリティと称し、第2波長帯域に関する装置又は動作は第2モダリティと称する。
以下の説明は、入力映像を提供するカメラがシングルカメラである場合、及びステレオカメラである場合等の全てに適用され得る。例えば、シングルカメラが用いられる場合の下記の説明は、シングルカメラに関してそのまま適用され、ステレオカメラが用いられる場合の下記の説明は、ステレオカメラを構成する各カメラに関して適用される。
図2を参照すれば、ステップS210において、オブジェクトトラッキング装置は、現在のモダリティに基づいて入力映像から対象オブジェクトを検出する。現在のモダリティは、第1モダリティ又は第2モダリティである。例えば、現在のモダリティが第1モダリティである場合、オブジェクトトラッキング装置は、第1波長帯域の光に基づいた第1タイプの入力映像を取得し、第1タイプの入力映像から対象オブジェクトを検出する。現在のモダリティは、予め決定した条件に応じてステップS240又はステップS290でスイッチングされる。以下では、現在のモダリティが第1モダリティから開始することを仮定して説明するが、下記の説明は、現在のモダリティが第2モダリティから開始する場合にも同様に適用され得る。
ステップS220において、オブジェクトトラッキング装置は、第1タイプの入力映像から対象オブジェクトが検出されたか否かを判断する。第1タイプの入力映像から対象オブジェクトが検出された場合、オブジェクトトラッキング装置の動作モードが検出モードからトラッキングモードに切り替えられ、ステップS250が実行される。第1タイプの入力映像から対象オブジェクトが検出されない場合、ステップS230及びステップS240が実行される。以下ではステップS210において、第1タイプの入力映像から対象オブジェクトが検出された場合、及び第1タイプの入力映像から対象オブジェクトが検出されない場合について説明する。
<第1タイプの入力映像から対象オブジェクトが検出されない場合>
第1タイプの入力映像から対象オブジェクトが検出されない場合、オブジェクトトラッキング装置は、ステップS230において、光源及びカメラのうち少なくとも1つを制御し、ステップS240において、モダリティをスイッチングする。例えば、第1タイプの入力映像から対象オブジェクトが検出されない場合、オブジェクトトラッキング装置は、赤外線光源を活性化させて現在のモダリティを第1モダリティから第2モダリティにスイッチングする。その他に、ステップS230で、カメラのISO、シャッター速度、絞り(aperture)などが調整され得る。
第1モダリティでは、第1波長帯域の光に基づいた第1タイプの入力映像に基づいた動作が実行され、第2モダリティでは、第2波長帯域の光に基づいた第2タイプの入力映像に基づいた動作が実行される。例えば、ステップS240で現在のモダリティが第1モダリティから第2モダリティにスイッチングされた場合、オブジェクトトラッキング装置は、ステップS210で第2タイプの入力映像を取得し、第2タイプの入力映像から対象オブジェクトを検出する。その後、オブジェクトトラッキング装置は、ステップS220で第2タイプの入力映像から対象オブジェクトが検出されたか否かを判断し、第2タイプの入力映像から対象オブジェクトが検出された場合、動作モードを検出モードからトラッキングモードに切り替え、ステップS250を行う。一方、第2タイプの入力映像から対象オブジェクトが検出されない場合、オブジェクトトラッキング装置は、ステップS230及びステップS240を行う。
第2タイプの入力映像から対象オブジェクトが検出された場合、オブジェクトトラッキング装置は、ステップS250において、対象オブジェクトの検出情報を用いて第2タイプの入力映像から対象オブジェクトをトラッキングする。ここで、検出情報は、前述したステップS210で第2タイプの入力映像から対象オブジェクトが検出されることにより生成されたものである。オブジェクトトラッキング装置は、ステップS260において、第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像とを比較して第2タイプの入力映像の信頼度を測定し、第2タイプの入力映像の信頼度が第2閾値よりも低い場合、ステップS270、ステップS280及びステップS290を行う。第1タイプの入力映像の信頼度と比較される閾値は第1閾値と称し、第2タイプの入力映像の信頼度と比較される閾値は第2閾値と称する。
第2タイプの入力映像の信頼度が第2閾値よりも低い結果、ステップS290で現在のモダリティが第2モダリティから第1モダリティに切り替えられた場合、ステップS250でオブジェクトトラッキング装置は、第1タイプの入力映像から対象オブジェクトをトラッキングする。第2データベースに格納された少なくとも1つの映像は、予め決定した閾値よりも高い信頼度を有し、第2波長帯域の光に基づいて取得された少なくとも1つの第2参照映像を含む。したがって、第2タイプの入力映像は、第2データベースに格納された少なくとも1つの映像に類似するほど信頼度が高く測定され得る。
オブジェクトトラッキング装置は、検出情報を用いて対象オブジェクトをトラッキングする。ここで、検出情報は、前述したステップS210で第2タイプの入力映像から対象オブジェクトが検出されることにより生成されたものである。一実施形態によれば、検出情報は検出情報が生成されたモダリティに関係がなく用いてもよい。例えば、第2モダリティで検出情報が生成された場合、生成された検出情報は第1モダリティでも用いてもよい。検出情報の検出領域は一定の領域を示すため、入力映像のサイズが同一であれば、現在のモダリティに関係がなく用いることができる。
<第1タイプの入力映像から対象オブジェクトが検出された場合>
第1タイプの入力映像から対象オブジェクトが検出された場合、オブジェクトトラッキング装置は、検出領域を含む検出情報を生成する。ステップS250でオブジェクトトラッキング装置は、第1タイプの入力映像の次のフレームを取得し、取得されたフレームから対象オブジェクトをトラッキングする。オブジェクトトラッキング装置は、検出情報を用いて対象オブジェクトをトラッキングする。
ステップS260において、オブジェクトトラッキング装置は、第1タイプの入力映像と第1データベースに格納された映像とを比較して第1タイプの入力映像の信頼度を測定し、第1タイプの入力映像の信頼度及び第1閾値を比較する。第1データベースに格納された少なくとも1つの映像を予め決定した基準よりも高い信頼度を有し、第1波長帯域の光に基づいて取得された少なくとも1つの第1参照映像を含む。したがって、第1タイプの入力映像は、第1データベースに格納された少なくとも1つの映像に類似するほど信頼度が高く測定される。
第1タイプの入力映像の信頼度が第1閾値よりも高い場合、ステップS250が実行される。言い換えれば、第1タイプの入力映像の信頼度が第1閾値よりも高い場合、第1モダリティを通したトラッキングモードが持続される。オブジェクトトラッキング装置は、第1タイプの入力映像の次のフレームを取得し、取得されたフレームから対象オブジェクトをトラッキングする。第1タイプの入力映像の信頼度が持続的に高く測定される場合、オブジェクトトラッキング装置は、第1タイプの入力映像の連続的なフレームを続けて取得し、第1タイプの入力映像から対象オブジェクトをトラッキングする。
第1タイプの入力映像の信頼度が第1閾値よりも低い場合、ステップS270において、全てのモダリティがチェックされたことを確認した後、ステップS280及びステップS290が実行される。ここで、全てのモダリティは、第1モダリティ及び第2モダリティを含む。例えば、第1モダリティによる信頼度が低い場合であっても、トラッキングモードから直ちに離脱することなく、第2モダリティでトラッキングモードを向上させ得る。第1モダリティ及び第2モダリティの全てから信頼度が低く測定される場合、トラッキングモードから離脱して検出モードが実行され得る。したがって、ステップS270において、全てのモダリティがチェックされたことが確認される場合、ステップS210により検出モードが実行され、一部のモダリティのみがチェックされたことが確認される場合、ステップS280及びステップS290が実行される。
オブジェクトトラッキング装置は、ステップS280において光源及びカメラのうち少なくとも1つを制御し、ステップS290においてモダリティをスイッチングする。例えば、第1タイプの入力映像から対象オブジェクトが検出されない場合、オブジェクトトラッキング装置は、赤外線光源を活性化させて現在のモダリティを第1モダリティから第2モダリティにスイッチングする。その他に、ステップS280及びステップS290には、前述したステップS230及びステップS240に関する説明が適用され得る。
ステップS290において、現在のモダリティが第1モダリティから第2モダリティにスイッチングされた場合、オブジェクトトラッキング装置は、ステップS250で第2タイプの入力映像から次のフレームを取得し、取得されたフレームから対象オブジェクトをトラッキングする。オブジェクトトラッキング装置は、検出情報を用いて対象オブジェクトをトラッキングする。ここで、検出情報は、前述したステップS210で、1タイプの入力映像から対象オブジェクトが検出されることにより生成されたものであり得る。
ステップS260で、オブジェクトトラッキング装置は、第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像とを比較して第2タイプの入力映像の信頼度を測定し、第2タイプの入力映像の信頼度と第2閾値とを比較する。第2タイプの入力映像の信頼度が第2閾値よりも低い場合、ステップS270が実行される。第1モダリティ及び第2モダリティが全てチェックされた場合、トラッキングモードから離脱し、ステップS210で検出モードが開始できる。検出モードが新しく開始される場合、現在のモダリティが維持又はスイッチングされる。前述した例示において、オブジェクトトラッキング装置は、引き続き第2モダリティとして動作し、或いは現在のモダリティを第2モダリティから第1モダリティに切り替えて第1モダリティとして動作する。したがって、ステップS210でオブジェクトトラッキング装置は、現在のモダリティに応じて第1タイプの入力映像又は第2タイプの入力映像から対象オブジェクトを検出し得る。
図3は、一実施形態に係る信頼度測定器の動作を示す図である。図3を参照すれば、信頼度測定器310は、入力映像及びデータベース320に格納された少なくとも1つの映像を比較して入力映像の信頼度を出力する。オブジェクトトラッキング装置は、信頼度測定器310を用いて入力映像の信頼度を測定し、或いは以下で説明される信頼度測定器310の動作を直接的に行う。
データベース320は、第1データベース321及び第2データベース323を含む。入力映像が第1モダリティに対応する場合、信頼度測定器310は、入力映像と第1データベース321に格納された少なくとも1つの映像とを比較し、入力映像が第2モダリティに対応する場合、信頼度測定器310は、入力映像と及び第2データベース323に格納された少なくとも1つの映像とを比較する。第1データベース321に格納された少なくとも1つの映像は、予め決定した基準よりも高い信頼度を有し、第1波長帯域の光に基づいて取得された少なくとも1つの第1参照映像を含む。第2データベース323に格納された少なくとも1つの映像は、予め決定した基準よりも高い信頼度を有し、第2波長帯域の光に基づいて取得された少なくとも1つの第2参照映像を含む。一実施形態によれば、品質に基づいて学習されたトラッカーによって高い信頼度を有するものとして分類された参照映像からデータベース320が構成され得る。
図4は、一実施形態に係る入力映像の信頼度を測定する過程を示す図である。参照映像410は、入力映像420のモダリティに応じて第1データベース又は第2データベースに取得される。例えば、入力映像420が第2タイプである場合、参照映像410は第2データベースから取得される。参照映像410の数は、オブジェクトトラッキング装置の性能や求められるトラッキングの精度などによって決定され得る。
オブジェクトトラッキング装置は、参照映像410から広域特徴(又はグローバル特徴)411及び地域特徴(又はローカル特徴)413を抽出し、入力映像420から広域特徴421及び地域特徴423を抽出する。広域特徴411、421の数は1(エル)であり、地域特徴413、423の数はmであり、1(エルl)+m=nであると仮定する。nは、参照映像410から抽出された特徴の数、及び入力映像420から抽出された特徴の数を示す。1(エル)、m、nは全て自然数である。
オブジェクトトラッキング装置は、広域特徴411、421及び地域特徴413、423のそれぞれに関して平均値(mean)及び標準値(std)を算出する。例えば、オブジェクトトラッキング装置は、広域特徴411に関して平均値G_gf1_meanないしG_gfl(エル)_mean、及び標準値G_gf1_stdないしG_gfl(エル)_stdを算出し、広域特徴421に関して平均値I_gf1_meanないしI_gfl(エル)_mean、及び標準値I_gf1_stdないしI_gfl(エル)_stdを算出する。また、オブジェクトトラッキング装置は、地域特徴413に関して平均値G_lf1_meanないしG_lfm_mean、及び標準値G_lf1_stdないしG_lfm_stdを算出し、地域特徴423に関して平均値I_lf1_meanないしI_lfm_mean及び標準値I_lf1_stdないしI_lfm_stdを算出する。
オブジェクトトラッキング装置は、算出された平均値及び標準値に基づいて特徴の間の距離を算出する。例えば、特徴の間の距離は、下記の数式(1)によって算出される。
Figure 0007163129000001
数式(1)において、d_iは、参照映像のi番目の特徴と入力映像のi番目の特徴との間の距離を示し、I_gfi_meanは入力映像のi番目の広域特徴の平均値を示し、I_gfi_stdは入力映像のi番目の広域特徴の標準値を示し、G_gfi_meanは参照映像のi番目の広域特徴の平均値を示し、G_gfi_stdは参照映像のi番目の広域特徴の標準値を示す。I_lfi_meanは入力映像のi番目の地域特徴の平均値を示し、I_lfi_stdは入力映像のi番目の地域特徴の標準値を示し、G_lfi_meanは参照映像のi番目の地域特徴の平均値を示し、G_lfi_stdは参照映像のi番目の地域特徴の標準値を示す。
オブジェクトトラッキング装置は、特徴の間の距離に基づいて特徴のスコアを算出する。例えば、複数の特徴のスコアは下記の数式(2)によって算出される。
Figure 0007163129000002
数式(2)において、F_score_iはi番目の特徴のスコアを示し、d_iは参照映像のi番目の特徴と入力映像のi番目の特徴との間の距離を示し、d_i_maxはd_iの最大値を示し、d_i_minはd_iの最小値を示す。
オブジェクトトラッキング装置は、複数の特徴のスコアを加重平均して入力映像の信頼度を算出する。例えば、入力映像の信頼度は、下記の数式(3)によって算出される。
Figure 0007163129000003
数式(3)において、Sは入力映像の信頼度を示し、F_score_kはk番目の特徴スコアを示し、w_kはk番目の加重値を示し、nは抽出された特徴の数を示し、kは演算インデックスを示す。オブジェクトトラッキング装置は、図4を参照して説明された方法に基づいて入力映像の信頼度を測定し得る。
図5は、一実施形態に係るトラッキング領域を用いてオブジェクトをトラッキングする過程を示す図である。対象オブジェクトをトラッキングするために、オブジェクトトラッキング装置は、第1フレームF1で対象オブジェクトに対応するものと推定される検出領域を決定する。検出領域は、位置及びサイズに特定され得る。実施形態によって、検出領域のサイズは予め決定されてもよく、検出領域の位置がオブジェクトトラッキング装置によって決定されてもよい。
オブジェクトトラッキング装置は、第1フレームF1で検出領域から対象オブジェクトに関する特徴点を抽出することで対象オブジェクトを整列する。例えば、オブジェクトトラッキング装置は、第1フレームF1で検出領域に該当する部分の映像から対象オブジェクトの形状を示す特徴点を抽出することで、対象オブジェクトの幾何学的な構造を識別し得る。オブジェクトトラッキング装置は、対象オブジェクトを整列した後、前記特徴点に基づいて対象オブジェクトをトラッキングするためのトラッキング領域510を決定する。一側面によれば、オブジェクトトラッキング装置は、前記特徴点を中心に含む領域をトラッキング領域として決定する。オブジェクトトラッキング装置は、トラッキング領域510を用いて第2フレームF2で対象オブジェクトをトラッキングする。言い換えれば、フレームF1の信頼度が閾値に比べて高い場合、フレームF2ではオブジェクト検出が再び実行されなくてもよい。
フレームF2で対象オブジェクトは、フレームF1における対象オブジェクトの位置に比べて右側上段に位置する。オブジェクト検出装置は、フレームF2でトラッキング領域510から対象オブジェクトの特徴点を抽出する。オブジェクトトラッキング装置は、フレームF2でトラッキング領域510から抽出された特徴点に基づいて新しいトラッキング領域520を決定する。例えば、オブジェクトトラッキング装置は、トラッキング領域510で抽出された特徴点を中心に含む領域をトラッキング領域520として決定する。フレームF3においても、フレームF2と同様に、トラッキング領域520から対象オブジェクトの特徴点が抽出され、新しいトラッキング領域530が決定される。このように、入力映像の信頼度が閾値に比べて高い場合、オブジェクトトラッキング装置は、トラッキングモードで対象オブジェクトを持続的にトラッキングできる。
オブジェクトトラッキング装置は、対象オブジェクトをトラッキングするとき検出器の使用を最小化することができる。検出器の使用を最小化する理由は、検出器の検出動作に消耗するコンピューティングリソースのためである。検出器は、対象オブジェクトを検出するために入力映像の全体領域をスキャンするため、検出器の検出動作にはコンピューティングリソースが大きく消耗してしまう。
オブジェクトトラッキング装置は、入力映像に含まれた対象オブジェクトをトラッキングしながら対象オブジェクトの位置情報を出力する。例えば、対象オブジェクトの位置情報はユーザの目の位置を含む。オブジェクトトラッキング装置は、入力映像に含まれた複数のフレームから対象オブジェクトをトラッキングし、それぞれのフレームに関してユーザの目の位置を出力し得る。目の位置は、2次元又は3次元座標に特定され得る。
図6は、一実施形態に係る品質測定に基づくトラッカーを示すブロック図である。図6を参照すれば、トラッカー620は、第1トラッカー611、第2トラッカー613、及び第3トラッカー615を含む。下記では、説明の便宜のためにトラッカー620が3個のサブトラッカーを含むものとして説明するが、トラッカー620は、2個又は4つ以上のサブトラッカーを含んでもよい。サブトラッカーは、互いに異なる品質を有する映像を学習する。例えば、第1トラッカー611は高い品質の映像を学習し、第2トラッカー613は中間品質の映像を学習し、第3トラッカー615は低い品質の映像を学習してもよい。より一般的に言えば、複数のサブトラッカーの各々は、各自異なる品質の映像を学習する。
オブジェクトトラッキング装置は、入力映像の品質を測定し、入力映像及び入力映像の品質情報をトラッカー620に入力する。オブジェクトトラッキング装置は、品質測定器610を用いて入力映像の品質を測定する。トラッカー620は、サブトラッカーのうち入力映像の品質情報に対応するサブトラッカーを選択し、選択されたサブトラッカーに入力映像を提供できる。例えば、入力映像の品質が高い場合、高い品質の映像を学習した第1トラッカー611に入力映像を提供し得る。入力映像が提供されたサブトラッカーは、入力映像から対象オブジェクトをトラッキングし得る。
図7は、一実施形態に係るトレーニング装置を示すブロック図である。図7を参照すれば、トレーニング装置700は、プロセッサ710及びメモリ720を含む。メモリ720は、ニューラルネットワーク725及びプロセッサ710で読み出し可能な命令語を含む。ニューラルネットワーク725は、検出器、トラッカー、信頼度測定器、及び品質測定器に対応する。前記命令語がプロセッサ710で実行されると、プロセッサ710は、ニューラルネットワーク725のためにトレーニングさせ得る。ニューラルネットワーク725をトレーニングすることは、ニューラルネットワーク725のパラメータをトレーニングすること、ニューラルネットワーク725を更新すること、あるいはニューラルネットワーク725のパラメータを更新すること等を含む。メモリ720は、トレーニング動作に必要なデータ及びトレーニングが完了した状態のニューラルネットワーク725を格納する。
図8は、一実施形態に係る検出器の学習過程を示すブロック図である。図8を参照すれば、第1サンプル検出器810は、第1トレーニングデータから対象オブジェクトを検出し、第1サンプル検出器810の出力に基づいて第1エラーデータ831が構成される。第1トレーニングデータは、第1波長帯域に基づいた映像から構成され、第1サンプル検出器810は、第1波長帯域に基づいた映像から対象オブジェクトを検出するよう予めトレーニングされる。第2サンプル検出器820は、第2トレーニングデータから対象オブジェクトを検出し、第2サンプル検出器820の出力に基づいて第2エラーデータ833が構成される。第2トレーニングデータは、第2波長帯域に基づいた映像から構成され、第2サンプル検出器820は、第2波長帯域に基づいた映像から対象オブジェクトを検出するよう予めトレーニングされ得る。
エラーデータベース830は、第1エラーデータ831及び第2エラーデータ833を格納する。エラーデータは、オブジェクト検出に難易度の高いトレーニングデータを意味し、エラーデータを用いて検出器をトレーニングすることによって検出器の検出性能を向上させ得る。例えば、エラーデータは、トレーニングデータのうち対象オブジェクトの検出が完了されていないデータ、及びトレーニングデータのうち他のオブジェクトが対象オブジェクトとして間違って検出されたデータのうち少なくとも1つを含む。第1エラーデータ831は、第1波長帯域に基づいた映像のうちオブジェクト検出に難易度の高いものを含み、第2エラーデータ833は、第2波長帯域に基づいた映像のうちオブジェクト検出に難易度の高いものを含む。
第1検出器840は第1エラーデータ831でトレーニングされ、第2検出器850は第2エラーデータ833でトレーニングされる。したがって、第1検出器840は、第1波長帯域の映像のうちオブジェクト検出に難易度の高い映像から対象オブジェクトを検出できる性能を保有し、第2検出器850は、第2波長帯域の映像のうちオブジェクト検出に難易度の高い映像から対象オブジェクトを検出できる性能を保有する。オブジェクトトラッキング装置は、第1タイプの入力映像から対象オブジェクトを検出するために第1検出器840を利用し、第2タイプの入力映像から対象オブジェクトを検出するために第2検出器850を用いる。言い換えれば、オブジェクトトラッキング装置は、モダリティごとに学習された検出器を用いて入力映像から対象オブジェクトを検出することができる。
図9は、一実施形態に係る第1波長帯域の光に基づいた入力映像から対象オブジェクトをトラッキングするトラッカーをトレーニングする過程を示す図である。図9を参照すれば、トレーニングデータ910は、高い品質データ921、中間品質データ923、及び低い品質データ925に分類される。トレーニングデータ910は、第1波長帯域の光に基づいて撮影された映像である。トレーニングデータ910は、品質測定器を用いて分類される。目が鮮明に表現された映像は高い品質データ921に分類され、目がそれ程鮮明に表現さてない映像は中間品質データ923に分類され、低い照度で撮影された映像、あるいは目の中心が不確実に表現された映像は低い品質のデータ925に分類される。
第1トラッカー931は高い品質データ921に基づいてトレーニングされ、第2トラッカー933は中間品質データ923に基づいてトレーニングされ、第3トラッカー935は低い品質データ925に基づいてトレーニングされる。第1トラッカー931ないし第3トラッカー935のそれぞれはサブトラッカーと称され、第1トラッカー931ないし第3トラッカー935のトレーニングが完了したバージョンが、図6を参照して説明した第1トラッカー611ないし第3トラッカー615に対応する。
説明の便宜のため、このように品質に基づいてトレーニングされたトラッカーをマルチモデルと称する。マルチモデルは、シングルモデルに比べて高いトラッキング性能を発揮し、マルチモデルで図3を参照して説明した第1データベース321を構成している場合、入力映像の信頼度を高い性能に測定できる。例えば、マルチモデルは、一定のトレーニングデータセットをテストし、テストエラーごとに分類し得る。トレーニングデータセットがエラーの低い第1グループ、エラーの普通である第2グループ、及びエラーの高い第3グループに分類された場合、第1グループとして第1データベース321が構成され得る。
図10は、一実施形態に係る第2波長帯域の光に基づいた入力映像から対象オブジェクトをトラッキングするトラッカーをトレーニングする過程を示す図である。図10を参照すれば、トレーニングデータ1010は、高い品質データ1021、中間品質データ1023、及び低い品質データ1025に分類される。トレーニングデータ1010は、第2波長帯域の光に基づいて撮影された映像である。トレーニングデータ1010は、品質測定器を用いて分類される。目が鮮明に表現された映像は、高い品質データ1021に分類され、弱いメガネ反射を含んだり、目がそれ程鮮明に表現されてない映像は中間品質データ1023に分類され、強いメガネ反射を含んだり、目の中心が不確実に表現された映像は低い品質のデータ1025に分類される。
第4トラッカー1031は、高い品質データ1021に基づいてトレーニングされ、第5トラッカー1033は中間品質データ1023に基づいてトレーニングされ、第6トラッカー1035は低い品質データ1025に基づいてトレーニングされる。第4トラッカー1031ないし第6トラッカー1035から構成されたマルチモデルを用いて、図3を参照して説明した第2データベース323が構成され得る。例えば、マルチモデルは、一定のトレーニングデータセットをテストし、トレーニングデータセットをエラーの低い第4グループ、エラーの普通である第5グループ、及びエラーの高い第6グループに分類し、第4グループで第2データベース323が構成され得る。
図11は、一実施形態に係るステレオカメラを用いたオブジェクトトラッキング方法を示す動作フローチャートである。ステレオカメラは、第1カメラを用いて第1入力映像を生成し、第2カメラを用いて第2入力映像を生成する。例えば、第1カメラ及び第2カメラは、第1モダリティで第1波長帯域の光に基づいて第1タイプの第1入力映像と第1タイプの第2入力映像とを生成する。ステップS1110、S1111、S1112、S1113、S1114は第1入力映像に基づいて実行され、ステップS1120、S1121、S1122、S1123、S1124は第2入力映像に基づいて実行される。ステップS1110、S1111、S1112、S1113、S1114及びステップS1120、S1121、S1122、S1123、S1124は互いに同期化状態で実行される。以下、現在のモダリティが第1モダリティで開始する場合について説明する。
オブジェクトトラッキング装置は、ステップS1110において、第1タイプの第1入力映像を取得して第1タイプの第1入力映像から対象オブジェクトを検出し、ステップS1120において、第1タイプの第2入力映像を取得して第1タイプの第2入力映像から対象オブジェクトを検出する。オブジェクトトラッキング装置は、ステップS1111、S1121で対象オブジェクトの検出の有無を決定する。対象オブジェクトが検出された場合、ステップS1112、S1122が実行され、対象オブジェクトが検出されない場合、ステップS1130、S1131が実行される。第1タイプの第1入力映像及び第1タイプの第2入力映像のいずれか1つでも対象オブジェクトが検出されない場合、ステップS1130、S1131が実行される。ステップS1130、S1131でオブジェクトトラッキング装置は、光源及びカメラのうち少なくとも1つを制御し、モダリティをスイッチングする。
オブジェクトトラッキング装置は、ステップS1112において、第1タイプの第1入力映像の次のフレームを取得し、第1タイプの第1入力映像の次のフレームから対象オブジェクトをトラッキングし、ステップS1122において、第1タイプの第2入力映像の次のフレームを取得し、第1タイプの第2入力映像の次のフレームから対象オブジェクトをトラッキングする。オブジェクトトラッキング装置は、検出情報を用いて対象オブジェクトをトラッキングし得る。
オブジェクトトラッキング装置は、ステップS1113、S1123で入力映像の信頼度を測定し、測定された信頼度及び閾値を比較する。信頼度が閾値よりも高い場合、ステップS1114、S1124が実行され、信頼度が閾値よりも低い場合、ステップS1140、S1141が実行される。第1タイプの第1入力映像及び第1タイプの第2入力映像のいずれか1つでも閾値よりも低い信頼度で測定された場合、ステップS1140、S1141が実行される。信頼度が閾値よりも低く測定され、全てのモダリティがチェックされた場合、ステップS1110、S1120が実行される。その他に、ステレオカメラを用いたオブジェクトトラッキング方法については図2を参照して説明した内容が適用され得る。
図12は、一実施形態に係る映像処理装置を示すブロック図である。図12を参照すれば、映像処理装置1200は、プロセッサ1210及びメモリ1220を含む。メモリ1220は、オブジェクトトラッキングのためのデータ及びプロセッサ1210で読み出し可能な命令語を含む。オブジェクトトラッキングのためのデータは、トレーニングが完了した検出器、トラッカー、信頼度測定器、及び品質測定器を含む。メモリ1220内の命令語がプロセッサ1210で実行されると、プロセッサ1210は、オブジェクトトラッキングのための動作を行う。例えば、プロセッサ1210は、第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトを検出し、第1タイプの入力映像から対象オブジェクトが検出された場合、対象オブジェクトの検出情報を用いて第1タイプの入力映像から対象オブジェクトをトラッキングし、第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して第1タイプの入力映像の信頼度を測定し、第1タイプの入力映像の信頼度が第1閾値よりも低い場合、検出情報を用いて第2波長帯域の光に基づいた第2タイプの入力映像から対象オブジェクトをトラッキングする。その他に、映像処理装置1200については、図1~図11を参照して説明された内容が適用され得る。
以上述した実施形態はハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組合で実現する。例えば、実施形態で説明された装置、方法及び構成要素は、例えば、プロセッサ、コントローラ、ALU(Arithmetic Logic Unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPGA(Field Programmable Gate Array)、PLU(Programmable Logic Unit)、マイクロプロセッサー、又は、命令(instruction)を実行して応答できる異なるいかなる装置と共に、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて実現される。処理装置は運営体制(OS)及び前記運営体制上で実行される1つ以上のソフトウェアアプリケーションを行う。また、処理装置はソフトウェアの実行に応答して、データをアクセス、格納、操作、処理及び生成することもできる。理解の便宜のために、処理装置は1つが使用されることによって説明された場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数タイプの処理要素を含んでもよくるということがわかる。例えば、処理装置は複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成(processing configuration)も可能である。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこののうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行され、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられ、或いは他の構成要素又は均等物によって置き換えられ又は交換されたとしても適切な結果を達成することができる。

Claims (19)

  1. 現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定するステップと、
    前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトを検出するステップと、
    前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、
    前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定するステップであって、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定するステップと、
    前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
    前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定するステップと、
    前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングするステップと、
    前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定するステップと、
    前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
    前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定するステップと、
    を含むオブジェクトトラッキング方法。
  2. 前記第1波長帯域は可視線帯域を含み、前記第2波長帯域は赤外線帯域を含む、請求項1に記載のオブジェクトトラッキング方法。
  3. 前記第1タイプの入力映像及び前記第2タイプの入力映像は、赤外線遮断フィルタが除去されたカメラを用いて取得され、
    前記第1タイプの入力映像の信頼度が前記第1閾値よりも低い場合、赤外線帯域の光を提供する赤外線光源を制御するステップをさらに含む、請求項1又は2に記載のオブジェクトトラッキング方法。
  4. 前記第1波長帯域が可視線帯域を含む場合、前記赤外線光源を制御するステップは、前記赤外線光源を活性化させるステップを含む、請求項3に記載のオブジェクトトラッキング方法。
  5. 前記第1データベースに格納された少なくとも1つの映像は、予め決定した基準よりも高い信頼度を有し、前記第1波長帯域の光に基づいて取得された少なくとも1つの第1参照映像を含む、請求項1ないし4のうちの何れか一項に記載のオブジェクトトラッキング方法。
  6. 前記第2データベースに格納された少なくとも1つの映像は、予め決定した閾値よりも高い信頼度を有し、前記第2波長帯域の光に基づいて取得された少なくとも1つの第2参照映像を含む、請求項に記載のオブジェクトトラッキング方法。
  7. 前記第1タイプの入力映像から対象オブジェクトを検出するステップは、エラーデータに基づいて予め学習された第1検出器を用いて実行され、
    前記エラーデータは、トレーニングデータのうち前記対象オブジェクトの検出が完了されていないデータ、及び前記トレーニングデータのうち他のオブジェクトが前記対象オブジェクトに間違って検出されたデータのうち少なくとも1つを含む、請求項1ないしのうちの何れか一項に記載のオブジェクトトラッキング方法。
  8. 前記検出情報は、前記第1タイプの入力映像の第1フレームで前記対象オブジェクトに対応する検出領域を含み、
    前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップは、前記検出領域を用いて前記第1タイプの入力映像の第2フレームから前記対象オブジェクトをトラッキングするステップを含む、請求項1ないしのうちの何れか一項に記載のオブジェクトトラッキング方法。
  9. 現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定するステップと、
    前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトが検出されたか否かを判断するステップと、
    前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、
    前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定するステップであって、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定するステップと、
    前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
    前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定するステップと、
    前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングするステップと、
    前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記第2タイプの入力映像から前記対象オブジェクトを検出するステップと、
    前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定するステップと、
    前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
    前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定するステップと、
    を含む、オブジェクトトラッキング方法。
  10. 前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記対象オブジェクトの検出情報を用いて前記第2タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、
    前記第2タイプの入力映像と前記第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定するステップと、
    をさらに含む、請求項に記載のオブジェクトトラッキング方法。
  11. 請求項1ないし請求項10のうちいずれか一項に記載のオブジェクトトラッキング方法をコンピュータのプロセッサに実行させるコンピュータプログラム。
  12. プロセッサと、
    前記プロセッサで読み出し可能な命令語を含むメモリと、
    を含むオブジェクトトラッキング装置であって、
    前記命令語が前記プロセッサで実行されると、前記プロセッサは、現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定し、前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトを検出し、前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定し、前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定し、前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定し、前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定し、前記第1タイプの入力映像の信頼度を測定することは、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定することを含む、オブジェクトトラッキング装置。
  13. 前記第1波長帯域は可視線帯域を含み、前記第2波長帯域は赤外線帯域を含む、請求項12に記載のオブジェクトトラッキング装置。
  14. 前記第1波長帯域の光に基づいて前記第1タイプの入力映像を生成し、前記第2波長帯域の光に基づいて前記第2タイプの入力映像を生成するカメラと、
    赤外線帯域の光を提供する赤外線光源と、
    をさらに含む、請求項12又は13に記載のオブジェクトトラッキング装置。
  15. 前記第1波長帯域が可視線帯域を含む場合、前記第1タイプの入力映像の信頼度が前記第1閾値よりも低いことに対応して前記赤外線光源が活性化される、請求項14に記載のオブジェクトトラッキング装置。
  16. 前記第1データベースに格納された少なくとも1つの映像は、予め決定した基準よりも高い信頼度を有し、前記第1波長帯域の光に基づいて取得された少なくとも1つの第1参照映像を含む、請求項12ないし15のうち何れか一項に記載のオブジェクトトラッキング装置。
  17. 前記プロセッサは、前記第2タイプの入力映像と前記第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定し、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記第1タイプの入力映像又は第2タイプの入力映像から前記対象オブジェクトを検出する、請求項12ないし16のうち何れか一項に記載のオブジェクトトラッキング装置。
  18. プロセッサと、
    前記プロセッサで読み出し可能な命令語を含むメモリと、
    を含み、
    前記命令語が前記プロセッサで実行されると、前記プロセッサは、現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定し、前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトが検出されたか否かを判断し、前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定し、前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定し、前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記第2タイプの入力映像から前記対象オブジェクトを検出し、前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定し、前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定し、前記第1タイプの入力映像の信頼度を測定することは、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定することを含む、オブジェクトトラッキング装置。
  19. 前記プロセッサは、前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記対象オブジェクトの検出情報を用いて前記第2タイプの入力映像から前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像と前記第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定する、請求項18に記載のオブジェクトトラッキング装置。
JP2018193230A 2017-10-27 2018-10-12 オブジェクトトラッキング方法及び装置 Active JP7163129B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0141332 2017-10-27
KR1020170141332A KR102495359B1 (ko) 2017-10-27 2017-10-27 객체 트래킹 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2019083004A JP2019083004A (ja) 2019-05-30
JP7163129B2 true JP7163129B2 (ja) 2022-10-31

Family

ID=63113319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193230A Active JP7163129B2 (ja) 2017-10-27 2018-10-12 オブジェクトトラッキング方法及び装置

Country Status (5)

Country Link
US (3) US10755420B2 (ja)
EP (1) EP3477540A1 (ja)
JP (1) JP7163129B2 (ja)
KR (1) KR102495359B1 (ja)
CN (1) CN109727271B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565277B1 (ko) 2017-11-24 2023-08-09 삼성전자주식회사 영상 복원 장치 및 방법
JP6725733B2 (ja) 2018-07-31 2020-07-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020027233A1 (ja) 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び車両制御システム
US20210216802A1 (en) * 2018-08-27 2021-07-15 Signify Holding B.V. Systems and methods for tuning light sources for use with object detection algorithms
KR102608471B1 (ko) 2018-11-06 2023-12-01 삼성전자주식회사 눈 추적 방법 및 장치
KR102650332B1 (ko) 2018-12-12 2024-03-22 삼성전자주식회사 3차원 영상을 표시하는 장치 및 방법
KR20210073135A (ko) 2019-12-10 2021-06-18 삼성전자주식회사 눈 복원 기반의 눈 추적 방법 및 장치
WO2021114265A1 (zh) * 2019-12-13 2021-06-17 深圳市大疆创新科技有限公司 设备/集成设备的工作方法、装置、可移动设备、介质
CN111815669B (zh) * 2020-06-23 2023-02-28 浙江大华技术股份有限公司 目标跟踪方法、目标跟踪装置及存储装置
CN112132864B (zh) * 2020-09-21 2024-04-09 大连遨游智能科技有限公司 基于视觉的机器人跟随方法及跟随机器人
CN112581507A (zh) * 2020-12-31 2021-03-30 北京澎思科技有限公司 目标跟踪方法、系统及计算机可读存储介质
CN113327273B (zh) * 2021-06-15 2023-12-19 中国人民解放军火箭军工程大学 一种基于可变窗函数相关滤波的红外目标跟踪方法
DE102022123295A1 (de) 2022-09-13 2024-03-14 Zf Cv Systems Global Gmbh Stereovisions-System, Fahrerassistenzsystem und Verfahren zur Erzeugung einer Stereovision aus zwei 2D-Darstellungen
CN116912290B (zh) * 2023-09-11 2023-12-15 四川都睿感控科技有限公司 一种记忆增强的难易视频运动小目标检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296877A (ja) 2002-03-29 2003-10-17 Natl Inst For Land & Infrastructure Management Mlit データ確信度を用いたセンサ選択方法とこれを用いた道路交通監視システム
JP2005296382A (ja) 2004-04-13 2005-10-27 Honda Motor Co Ltd 視線検出装置
JP2009512009A (ja) 2005-10-10 2009-03-19 トビイ テクノロジー アーベー 広範囲の動作距離を有するアイトラッカー
WO2017072908A1 (ja) 2015-10-29 2017-05-04 富士機械製造株式会社 基板位置検索装置、および部品実装機
JP2017084307A (ja) 2015-10-30 2017-05-18 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4457474B2 (ja) 2000-04-04 2010-04-28 ソニー株式会社 情報記録装置、情報再生装置、情報記録方法、情報再生方法、および情報記録媒体、並びにプログラム提供媒体
JP3450801B2 (ja) 2000-05-31 2003-09-29 キヤノン株式会社 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
GB2373943A (en) 2001-03-28 2002-10-02 Hewlett Packard Co Visible and infrared imaging camera
US6985179B2 (en) * 2001-03-30 2006-01-10 Intel Corporaiton Determining image quality for improving object trackability
US7206435B2 (en) 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
EP1693782B1 (en) 2005-02-21 2009-02-11 Mitsubishi Electric Information Technology Centre Europe B.V. Method for facial features detection
WO2008091565A1 (en) * 2007-01-23 2008-07-31 Valeo Schalter & Sensoren Gmbh Method and system for universal lane boundary detection
CN100498821C (zh) * 2007-07-06 2009-06-10 哈尔滨工程大学 运动背景的红外图像实时目标识别与跟踪器及方法
JP5354767B2 (ja) * 2007-10-17 2013-11-27 株式会社日立国際電気 物体検知装置
WO2014152463A1 (en) * 2013-03-15 2014-09-25 Cyberheart, Inc. Apparatus and method for real-time tracking of tissue structures
US20120206335A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based direct control of external devices with feedback
US9033510B2 (en) * 2011-03-30 2015-05-19 Carl Zeiss Meditec, Inc. Systems and methods for efficiently obtaining measurements of the human eye using tracking
US10165976B2 (en) * 2011-12-21 2019-01-01 Orlucent, Inc. System for imaging lesions aligning tissue surfaces
JP5978639B2 (ja) * 2012-02-06 2016-08-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び記録媒体
WO2013167864A1 (en) 2012-05-11 2013-11-14 Milan Momcilo Popovich Apparatus for eye tracking
EP2709060B1 (en) 2012-09-17 2020-02-26 Apple Inc. Method and an apparatus for determining a gaze point on a three-dimensional object
WO2014084224A1 (ja) * 2012-11-27 2014-06-05 京セラ株式会社 電子機器および視線入力方法
US10321055B2 (en) 2013-09-03 2019-06-11 Seeing Machines Limited Low power eye tracking system and method
US9430040B2 (en) 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
WO2015117072A1 (en) * 2014-01-31 2015-08-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting and tracking objects in a video stream
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
DE102014204845A1 (de) * 2014-03-17 2015-09-17 Bayerische Motoren Werke Aktiengesellschaft Dynamische Wellenlängenanpassung von Eye-Tracking Beleuchtungen
JP6331785B2 (ja) * 2014-07-08 2018-05-30 日本電気株式会社 物体追跡装置、物体追跡方法および物体追跡プログラム
US20160011657A1 (en) 2014-07-14 2016-01-14 Futurewei Technologies, Inc. System and Method for Display Enhancement
KR102281149B1 (ko) 2014-10-22 2021-07-23 삼성전자주식회사 고 조도 환경 및 저 조도 환경에서 동작 가능한 시점 추적 장치 및 그 방법
US10146797B2 (en) * 2015-05-29 2018-12-04 Accenture Global Services Limited Face recognition image data cache
US10141618B2 (en) 2015-07-15 2018-11-27 Hyundai Motor Company System and method of cooling high voltage battery
JP6540330B2 (ja) * 2015-07-28 2019-07-10 日本電気株式会社 追跡システム、追跡方法および追跡プログラム
KR102415503B1 (ko) * 2015-08-21 2022-07-01 삼성전자주식회사 분류기 학습 방법 및 객체 검출 방법
CN105279772B (zh) * 2015-10-23 2018-02-09 中国运载火箭技术研究院 一种红外序列图像的可跟踪性判别方法
US10152121B2 (en) * 2016-01-06 2018-12-11 Facebook Technologies, Llc Eye tracking through illumination by head-mounted displays
KR102476897B1 (ko) 2016-10-05 2022-12-12 삼성전자주식회사 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치
CN107030691B (zh) * 2017-03-24 2020-04-14 华为技术有限公司 一种看护机器人的数据处理方法及装置
US10698204B1 (en) * 2017-10-16 2020-06-30 Facebook Technologies, Llc Immersed hot mirrors for illumination in eye tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296877A (ja) 2002-03-29 2003-10-17 Natl Inst For Land & Infrastructure Management Mlit データ確信度を用いたセンサ選択方法とこれを用いた道路交通監視システム
JP2005296382A (ja) 2004-04-13 2005-10-27 Honda Motor Co Ltd 視線検出装置
JP2009512009A (ja) 2005-10-10 2009-03-19 トビイ テクノロジー アーベー 広範囲の動作距離を有するアイトラッカー
WO2017072908A1 (ja) 2015-10-29 2017-05-04 富士機械製造株式会社 基板位置検索装置、および部品実装機
JP2017084307A (ja) 2015-10-30 2017-05-18 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体

Also Published As

Publication number Publication date
CN109727271B (zh) 2023-09-22
JP2019083004A (ja) 2019-05-30
KR102495359B1 (ko) 2023-02-02
US10755420B2 (en) 2020-08-25
US20200357124A1 (en) 2020-11-12
US10977801B2 (en) 2021-04-13
CN109727271A (zh) 2019-05-07
EP3477540A1 (en) 2019-05-01
US11676421B2 (en) 2023-06-13
KR20190050876A (ko) 2019-05-14
US20190130579A1 (en) 2019-05-02
US20210233253A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
JP7163129B2 (ja) オブジェクトトラッキング方法及び装置
US20200003573A1 (en) Top-down refinement in lane marking navigation
RU2408162C2 (ru) Способ и устройство для обнаружения и отслеживания в реальном времени глаз нескольких наблюдателей
US10535160B2 (en) Markerless augmented reality (AR) system
US10318823B2 (en) Forward-facing multi-imaging system for navigating a vehicle
US10282913B2 (en) Markerless augmented reality (AR) system
US8649583B2 (en) Pupil detection device and pupil detection method
US11170525B2 (en) Autonomous vehicle based position detection method and apparatus, device and medium
KR101769177B1 (ko) 시선 추적 장치 및 방법
US20140169627A1 (en) Image processing method for detecting objects using relative motion
US11126875B2 (en) Method and device of multi-focal sensing of an obstacle and non-volatile computer-readable storage medium
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
US20170278269A1 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
US20180157922A1 (en) Passenger counting device, system, method and program
US9454226B2 (en) Apparatus and method for tracking gaze of glasses wearer
CN110490217A (zh) 用于改进对象检测和对象分类的方法和系统
WO2020133488A1 (zh) 车辆检测方法和设备
US11080562B1 (en) Key point recognition with uncertainty measurement
KR102254384B1 (ko) 딥 러닝 기반 운전자 시선 추적 장치 및 방법
KR20200052068A (ko) 눈 추적 방법 및 장치
US20210142492A1 (en) Moving object tracking using object and scene trackers
KR20220058277A (ko) 스테레오 매칭 방법 및 이를 수행하는 영상 처리 장치
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
CN117576665B (zh) 一种面向自动驾驶的单摄像头三维目标检测方法及系统
US20220300751A1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220902

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220913

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150