JP7163129B2 - オブジェクトトラッキング方法及び装置 - Google Patents
オブジェクトトラッキング方法及び装置 Download PDFInfo
- Publication number
- JP7163129B2 JP7163129B2 JP2018193230A JP2018193230A JP7163129B2 JP 7163129 B2 JP7163129 B2 JP 7163129B2 JP 2018193230 A JP2018193230 A JP 2018193230A JP 2018193230 A JP2018193230 A JP 2018193230A JP 7163129 B2 JP7163129 B2 JP 7163129B2
- Authority
- JP
- Japan
- Prior art keywords
- type
- input image
- target object
- reliability
- wavelength band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S1/00—Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Description
第1タイプの入力映像から対象オブジェクトが検出されない場合、オブジェクトトラッキング装置は、ステップS230において、光源及びカメラのうち少なくとも1つを制御し、ステップS240において、モダリティをスイッチングする。例えば、第1タイプの入力映像から対象オブジェクトが検出されない場合、オブジェクトトラッキング装置は、赤外線光源を活性化させて現在のモダリティを第1モダリティから第2モダリティにスイッチングする。その他に、ステップS230で、カメラのISO、シャッター速度、絞り(aperture)などが調整され得る。
第1タイプの入力映像から対象オブジェクトが検出された場合、オブジェクトトラッキング装置は、検出領域を含む検出情報を生成する。ステップS250でオブジェクトトラッキング装置は、第1タイプの入力映像の次のフレームを取得し、取得されたフレームから対象オブジェクトをトラッキングする。オブジェクトトラッキング装置は、検出情報を用いて対象オブジェクトをトラッキングする。
Claims (19)
- 現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定するステップと、
前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトを検出するステップと、
前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、
前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定するステップであって、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定するステップと、
前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定するステップと、
前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングするステップと、
前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定するステップと、
前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定するステップと、
を含むオブジェクトトラッキング方法。 - 前記第1波長帯域は可視線帯域を含み、前記第2波長帯域は赤外線帯域を含む、請求項1に記載のオブジェクトトラッキング方法。
- 前記第1タイプの入力映像及び前記第2タイプの入力映像は、赤外線遮断フィルタが除去されたカメラを用いて取得され、
前記第1タイプの入力映像の信頼度が前記第1閾値よりも低い場合、赤外線帯域の光を提供する赤外線光源を制御するステップをさらに含む、請求項1又は2に記載のオブジェクトトラッキング方法。 - 前記第1波長帯域が可視線帯域を含む場合、前記赤外線光源を制御するステップは、前記赤外線光源を活性化させるステップを含む、請求項3に記載のオブジェクトトラッキング方法。
- 前記第1データベースに格納された少なくとも1つの映像は、予め決定した基準よりも高い信頼度を有し、前記第1波長帯域の光に基づいて取得された少なくとも1つの第1参照映像を含む、請求項1ないし4のうちの何れか一項に記載のオブジェクトトラッキング方法。
- 前記第2データベースに格納された少なくとも1つの映像は、予め決定した閾値よりも高い信頼度を有し、前記第2波長帯域の光に基づいて取得された少なくとも1つの第2参照映像を含む、請求項1に記載のオブジェクトトラッキング方法。
- 前記第1タイプの入力映像から対象オブジェクトを検出するステップは、エラーデータに基づいて予め学習された第1検出器を用いて実行され、
前記エラーデータは、トレーニングデータのうち前記対象オブジェクトの検出が完了されていないデータ、及び前記トレーニングデータのうち他のオブジェクトが前記対象オブジェクトに間違って検出されたデータのうち少なくとも1つを含む、請求項1ないし6のうちの何れか一項に記載のオブジェクトトラッキング方法。 - 前記検出情報は、前記第1タイプの入力映像の第1フレームで前記対象オブジェクトに対応する検出領域を含み、
前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップは、前記検出領域を用いて前記第1タイプの入力映像の第2フレームから前記対象オブジェクトをトラッキングするステップを含む、請求項1ないし7のうちの何れか一項に記載のオブジェクトトラッキング方法。 - 現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定するステップと、
前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトが検出されたか否かを判断するステップと、
前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、
前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定するステップであって、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定するステップと、
前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定するステップと、
前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングするステップと、
前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記第2タイプの入力映像から前記対象オブジェクトを検出するステップと、
前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定するステップと、
前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングするステップと、
前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定するステップと、
を含む、オブジェクトトラッキング方法。 - 前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記対象オブジェクトの検出情報を用いて前記第2タイプの入力映像から前記対象オブジェクトをトラッキングするステップと、
前記第2タイプの入力映像と前記第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定するステップと、
をさらに含む、請求項9に記載のオブジェクトトラッキング方法。 - 請求項1ないし請求項10のうちいずれか一項に記載のオブジェクトトラッキング方法をコンピュータのプロセッサに実行させるコンピュータプログラム。
- プロセッサと、
前記プロセッサで読み出し可能な命令語を含むメモリと、
を含むオブジェクトトラッキング装置であって、
前記命令語が前記プロセッサで実行されると、前記プロセッサは、現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定し、前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトを検出し、前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定し、前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定し、前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定し、前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定し、前記第1タイプの入力映像の信頼度を測定することは、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定することを含む、オブジェクトトラッキング装置。 - 前記第1波長帯域は可視線帯域を含み、前記第2波長帯域は赤外線帯域を含む、請求項12に記載のオブジェクトトラッキング装置。
- 前記第1波長帯域の光に基づいて前記第1タイプの入力映像を生成し、前記第2波長帯域の光に基づいて前記第2タイプの入力映像を生成するカメラと、
赤外線帯域の光を提供する赤外線光源と、
をさらに含む、請求項12又は13に記載のオブジェクトトラッキング装置。 - 前記第1波長帯域が可視線帯域を含む場合、前記第1タイプの入力映像の信頼度が前記第1閾値よりも低いことに対応して前記赤外線光源が活性化される、請求項14に記載のオブジェクトトラッキング装置。
- 前記第1データベースに格納された少なくとも1つの映像は、予め決定した基準よりも高い信頼度を有し、前記第1波長帯域の光に基づいて取得された少なくとも1つの第1参照映像を含む、請求項12ないし15のうち何れか一項に記載のオブジェクトトラッキング装置。
- 前記プロセッサは、前記第2タイプの入力映像と前記第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定し、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記第1タイプの入力映像又は第2タイプの入力映像から前記対象オブジェクトを検出する、請求項12ないし16のうち何れか一項に記載のオブジェクトトラッキング装置。
- プロセッサと、
前記プロセッサで読み出し可能な命令語を含むメモリと、
を含み、
前記命令語が前記プロセッサで実行されると、前記プロセッサは、現在のモダリティを第1波長帯域の光を用いる第1モダリティとして設定し、前記第1波長帯域の光に基づいた第1タイプの入力映像から対象オブジェクトが検出されたか否かを判断し、前記第1タイプの入力映像から前記対象オブジェクトが検出された場合、前記対象オブジェクトの検出情報を用いて前記第1タイプの入力映像から前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像と第1データベースに格納された少なくとも1つの映像とを比較して前記第1タイプの入力映像の信頼度を測定し、前記第1タイプの入力映像の信頼度が持続的に高く測定される場合、前記第1タイプの入力映像の連続的なフレームを取得し続けて前記第1タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像の信頼度が第1閾値よりも低い場合、前記現在のモダリティを第2波長帯域の光を用いる第2モダリティとして設定し、前記第2波長帯域の光に基づいた第2タイプの入力映像から、前記検出情報を用いて前記対象オブジェクトをトラッキングし、前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記第2タイプの入力映像から前記対象オブジェクトを検出し、前記第2タイプの入力映像と第2データベースに格納された少なくとも1つの映像を比較して前記第2タイプの入力映像の信頼度を測定し、前記第2タイプの入力映像の信頼度が持続的に高く測定される場合、前記第2タイプの入力映像の連続的なフレームを取得し続けて前記第2タイプの入力映像で前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像の信頼度が第2閾値よりも低い場合、前記現在のモダリティを前記第1モダリティとして設定し、前記第1タイプの入力映像の信頼度を測定することは、前記第1タイプの入力映像に含まれる複数の特徴と前記第1データベースに格納された映像に含まれる複数の特徴との間の距離に基づいて複数のスコアを算出することによって前記信頼度を測定することを含む、オブジェクトトラッキング装置。 - 前記プロセッサは、前記第1タイプの入力映像から前記対象オブジェクトが検出されない場合、前記対象オブジェクトの検出情報を用いて前記第2タイプの入力映像から前記対象オブジェクトをトラッキングし、前記第2タイプの入力映像と前記第2データベースに格納された少なくとも1つの映像とを比較して前記第2タイプの入力映像の信頼度を測定する、請求項18に記載のオブジェクトトラッキング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0141332 | 2017-10-27 | ||
KR1020170141332A KR102495359B1 (ko) | 2017-10-27 | 2017-10-27 | 객체 트래킹 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019083004A JP2019083004A (ja) | 2019-05-30 |
JP7163129B2 true JP7163129B2 (ja) | 2022-10-31 |
Family
ID=63113319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193230A Active JP7163129B2 (ja) | 2017-10-27 | 2018-10-12 | オブジェクトトラッキング方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10755420B2 (ja) |
EP (1) | EP3477540A1 (ja) |
JP (1) | JP7163129B2 (ja) |
KR (1) | KR102495359B1 (ja) |
CN (1) | CN109727271B (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102565277B1 (ko) | 2017-11-24 | 2023-08-09 | 삼성전자주식회사 | 영상 복원 장치 및 방법 |
US11820289B2 (en) * | 2018-07-31 | 2023-11-21 | Sony Semiconductor Solutions Corporation | Solid-state imaging device and electronic device |
WO2020027233A1 (ja) | 2018-07-31 | 2020-02-06 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置及び車両制御システム |
CN112543939A (zh) * | 2018-08-27 | 2021-03-23 | 昕诺飞控股有限公司 | 用于调谐供对象检测算法使用的光源的系统和方法 |
KR102608471B1 (ko) | 2018-11-06 | 2023-12-01 | 삼성전자주식회사 | 눈 추적 방법 및 장치 |
KR102650332B1 (ko) | 2018-12-12 | 2024-03-22 | 삼성전자주식회사 | 3차원 영상을 표시하는 장치 및 방법 |
KR20210073135A (ko) | 2019-12-10 | 2021-06-18 | 삼성전자주식회사 | 눈 복원 기반의 눈 추적 방법 및 장치 |
CN112544072A (zh) * | 2019-12-13 | 2021-03-23 | 深圳市大疆创新科技有限公司 | 设备/集成设备的工作方法、装置、可移动设备、介质 |
CN111815669B (zh) * | 2020-06-23 | 2023-02-28 | 浙江大华技术股份有限公司 | 目标跟踪方法、目标跟踪装置及存储装置 |
CN112132864B (zh) * | 2020-09-21 | 2024-04-09 | 大连遨游智能科技有限公司 | 基于视觉的机器人跟随方法及跟随机器人 |
CN112581507A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 目标跟踪方法、系统及计算机可读存储介质 |
CN113327273B (zh) * | 2021-06-15 | 2023-12-19 | 中国人民解放军火箭军工程大学 | 一种基于可变窗函数相关滤波的红外目标跟踪方法 |
DE102022123295A1 (de) | 2022-09-13 | 2024-03-14 | Zf Cv Systems Global Gmbh | Stereovisions-System, Fahrerassistenzsystem und Verfahren zur Erzeugung einer Stereovision aus zwei 2D-Darstellungen |
CN116912290B (zh) * | 2023-09-11 | 2023-12-15 | 四川都睿感控科技有限公司 | 一种记忆增强的难易视频运动小目标检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296877A (ja) | 2002-03-29 | 2003-10-17 | Natl Inst For Land & Infrastructure Management Mlit | データ確信度を用いたセンサ選択方法とこれを用いた道路交通監視システム |
JP2005296382A (ja) | 2004-04-13 | 2005-10-27 | Honda Motor Co Ltd | 視線検出装置 |
JP2009512009A (ja) | 2005-10-10 | 2009-03-19 | トビイ テクノロジー アーベー | 広範囲の動作距離を有するアイトラッカー |
WO2017072908A1 (ja) | 2015-10-29 | 2017-05-04 | 富士機械製造株式会社 | 基板位置検索装置、および部品実装機 |
JP2017084307A (ja) | 2015-10-30 | 2017-05-18 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4457474B2 (ja) | 2000-04-04 | 2010-04-28 | ソニー株式会社 | 情報記録装置、情報再生装置、情報記録方法、情報再生方法、および情報記録媒体、並びにプログラム提供媒体 |
JP3450801B2 (ja) | 2000-05-31 | 2003-09-29 | キヤノン株式会社 | 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム |
GB2373943A (en) | 2001-03-28 | 2002-10-02 | Hewlett Packard Co | Visible and infrared imaging camera |
US6985179B2 (en) * | 2001-03-30 | 2006-01-10 | Intel Corporaiton | Determining image quality for improving object trackability |
US7206435B2 (en) | 2002-03-26 | 2007-04-17 | Honda Giken Kogyo Kabushiki Kaisha | Real-time eye detection and tracking under various light conditions |
US7194114B2 (en) * | 2002-10-07 | 2007-03-20 | Carnegie Mellon University | Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder |
DE602005012672D1 (de) | 2005-02-21 | 2009-03-26 | Mitsubishi Electric Corp | Verfahren zum Detektieren von Gesichtsmerkmalen |
US8462988B2 (en) * | 2007-01-23 | 2013-06-11 | Valeo Schalter Und Sensoren Gmbh | Method and system for universal lane boundary detection |
CN100498821C (zh) * | 2007-07-06 | 2009-06-10 | 哈尔滨工程大学 | 运动背景的红外图像实时目标识别与跟踪器及方法 |
JP5354767B2 (ja) | 2007-10-17 | 2013-11-27 | 株式会社日立国際電気 | 物体検知装置 |
WO2014152463A1 (en) * | 2013-03-15 | 2014-09-25 | Cyberheart, Inc. | Apparatus and method for real-time tracking of tissue structures |
US20120206335A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event, sensor, and user action based direct control of external devices with feedback |
US9033510B2 (en) * | 2011-03-30 | 2015-05-19 | Carl Zeiss Meditec, Inc. | Systems and methods for efficiently obtaining measurements of the human eye using tracking |
CN104080400B (zh) * | 2011-12-21 | 2018-08-14 | 凯瑟琳·M·莎查夫 | 使排列于组织表面的病变成像的系统 |
JP5978639B2 (ja) * | 2012-02-06 | 2016-08-24 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、及び記録媒体 |
US9456744B2 (en) | 2012-05-11 | 2016-10-04 | Digilens, Inc. | Apparatus for eye tracking |
EP2709060B1 (en) | 2012-09-17 | 2020-02-26 | Apple Inc. | Method and an apparatus for determining a gaze point on a three-dimensional object |
US20150309568A1 (en) * | 2012-11-27 | 2015-10-29 | Kyocera Corporation | Electronic apparatus and eye-gaze input method |
JP2016532396A (ja) | 2013-09-03 | 2016-10-13 | シーイング マシーンズ リミテッド | 低電力眼追跡システムおよび眼追跡方法 |
US9430040B2 (en) | 2014-01-14 | 2016-08-30 | Microsoft Technology Licensing, Llc | Eye gaze detection with multiple light sources and sensors |
US9501701B2 (en) * | 2014-01-31 | 2016-11-22 | The Charles Stark Draper Technology, Inc. | Systems and methods for detecting and tracking objects in a video stream |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
DE102014204845A1 (de) * | 2014-03-17 | 2015-09-17 | Bayerische Motoren Werke Aktiengesellschaft | Dynamische Wellenlängenanpassung von Eye-Tracking Beleuchtungen |
JP6331785B2 (ja) * | 2014-07-08 | 2018-05-30 | 日本電気株式会社 | 物体追跡装置、物体追跡方法および物体追跡プログラム |
US20160011657A1 (en) | 2014-07-14 | 2016-01-14 | Futurewei Technologies, Inc. | System and Method for Display Enhancement |
KR102281149B1 (ko) | 2014-10-22 | 2021-07-23 | 삼성전자주식회사 | 고 조도 환경 및 저 조도 환경에서 동작 가능한 시점 추적 장치 및 그 방법 |
US10146797B2 (en) * | 2015-05-29 | 2018-12-04 | Accenture Global Services Limited | Face recognition image data cache |
US10141618B2 (en) | 2015-07-15 | 2018-11-27 | Hyundai Motor Company | System and method of cooling high voltage battery |
JP6540330B2 (ja) * | 2015-07-28 | 2019-07-10 | 日本電気株式会社 | 追跡システム、追跡方法および追跡プログラム |
KR102415503B1 (ko) | 2015-08-21 | 2022-07-01 | 삼성전자주식회사 | 분류기 학습 방법 및 객체 검출 방법 |
CN105279772B (zh) * | 2015-10-23 | 2018-02-09 | 中国运载火箭技术研究院 | 一种红外序列图像的可跟踪性判别方法 |
US10152121B2 (en) * | 2016-01-06 | 2018-12-11 | Facebook Technologies, Llc | Eye tracking through illumination by head-mounted displays |
KR102476897B1 (ko) | 2016-10-05 | 2022-12-12 | 삼성전자주식회사 | 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치 |
CN107030691B (zh) * | 2017-03-24 | 2020-04-14 | 华为技术有限公司 | 一种看护机器人的数据处理方法及装置 |
US10698204B1 (en) * | 2017-10-16 | 2020-06-30 | Facebook Technologies, Llc | Immersed hot mirrors for illumination in eye tracking |
-
2017
- 2017-10-27 KR KR1020170141332A patent/KR102495359B1/ko active IP Right Grant
-
2018
- 2018-06-20 US US16/013,614 patent/US10755420B2/en active Active
- 2018-07-11 CN CN201810755172.8A patent/CN109727271B/zh active Active
- 2018-07-12 EP EP18183086.0A patent/EP3477540A1/en active Pending
- 2018-10-12 JP JP2018193230A patent/JP7163129B2/ja active Active
-
2020
- 2020-07-23 US US16/936,958 patent/US10977801B2/en active Active
-
2021
- 2021-04-12 US US17/227,806 patent/US11676421B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296877A (ja) | 2002-03-29 | 2003-10-17 | Natl Inst For Land & Infrastructure Management Mlit | データ確信度を用いたセンサ選択方法とこれを用いた道路交通監視システム |
JP2005296382A (ja) | 2004-04-13 | 2005-10-27 | Honda Motor Co Ltd | 視線検出装置 |
JP2009512009A (ja) | 2005-10-10 | 2009-03-19 | トビイ テクノロジー アーベー | 広範囲の動作距離を有するアイトラッカー |
WO2017072908A1 (ja) | 2015-10-29 | 2017-05-04 | 富士機械製造株式会社 | 基板位置検索装置、および部品実装機 |
JP2017084307A (ja) | 2015-10-30 | 2017-05-18 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN109727271B (zh) | 2023-09-22 |
US10977801B2 (en) | 2021-04-13 |
KR102495359B1 (ko) | 2023-02-02 |
EP3477540A1 (en) | 2019-05-01 |
JP2019083004A (ja) | 2019-05-30 |
US20200357124A1 (en) | 2020-11-12 |
KR20190050876A (ko) | 2019-05-14 |
US20190130579A1 (en) | 2019-05-02 |
CN109727271A (zh) | 2019-05-07 |
US10755420B2 (en) | 2020-08-25 |
US20210233253A1 (en) | 2021-07-29 |
US11676421B2 (en) | 2023-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7163129B2 (ja) | オブジェクトトラッキング方法及び装置 | |
US10535160B2 (en) | Markerless augmented reality (AR) system | |
US20200003573A1 (en) | Top-down refinement in lane marking navigation | |
US10282913B2 (en) | Markerless augmented reality (AR) system | |
RU2408162C2 (ru) | Способ и устройство для обнаружения и отслеживания в реальном времени глаз нескольких наблюдателей | |
US11170525B2 (en) | Autonomous vehicle based position detection method and apparatus, device and medium | |
US10318823B2 (en) | Forward-facing multi-imaging system for navigating a vehicle | |
US8649583B2 (en) | Pupil detection device and pupil detection method | |
KR101769177B1 (ko) | 시선 추적 장치 및 방법 | |
US10417782B2 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program | |
US20200089976A1 (en) | Method and device of multi-focal sensing of an obstacle and non-volatile computer-readable storage medium | |
US20180157922A1 (en) | Passenger counting device, system, method and program | |
US9454226B2 (en) | Apparatus and method for tracking gaze of glasses wearer | |
CN110490217A (zh) | 用于改进对象检测和对象分类的方法和系统 | |
WO2020133488A1 (zh) | 车辆检测方法和设备 | |
CN105765608A (zh) | 用于根据闪耀点进行眼睛检测的方法和设备 | |
US11080562B1 (en) | Key point recognition with uncertainty measurement | |
KR20200145923A (ko) | 딥 러닝 기반 운전자 시선 추적 장치 및 방법 | |
CN117576665B (zh) | 一种面向自动驾驶的单摄像头三维目标检测方法及系统 | |
KR20200052068A (ko) | 눈 추적 방법 및 장치 | |
US20210142492A1 (en) | Moving object tracking using object and scene trackers | |
US12099652B1 (en) | Determining IPD by adjusting the positions of displayed stimuli | |
JP6468755B2 (ja) | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム | |
US20220300751A1 (en) | Image processing device and image processing method | |
Wang et al. | Heterogeneous stereo: A human vision inspired method for general robotics sensing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200717 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220902 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220902 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220913 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7163129 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |