JP2017537484A - 可動物体を検出し、追跡するシステム及び方法 - Google Patents
可動物体を検出し、追跡するシステム及び方法 Download PDFInfo
- Publication number
- JP2017537484A JP2017537484A JP2016554437A JP2016554437A JP2017537484A JP 2017537484 A JP2017537484 A JP 2017537484A JP 2016554437 A JP2016554437 A JP 2016554437A JP 2016554437 A JP2016554437 A JP 2016554437A JP 2017537484 A JP2017537484 A JP 2017537484A
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- feature
- tracking
- pixels
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 205
- 238000003384 imaging method Methods 0.000 claims abstract description 433
- 230000033001 locomotion Effects 0.000 claims abstract description 348
- 230000000007 visual effect Effects 0.000 claims abstract description 133
- 230000001133 acceleration Effects 0.000 claims description 74
- 230000003287 optical effect Effects 0.000 claims description 13
- 241001465754 Metazoa Species 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 5
- 230000007423 decrease Effects 0.000 claims description 4
- 238000001931 thermography Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims 2
- 230000037303 wrinkles Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 29
- 238000004422 calculation algorithm Methods 0.000 description 23
- 230000008859 change Effects 0.000 description 21
- 230000006854 communication Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 19
- 230000007246 mechanism Effects 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 241000272201 Columbiformes Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000253999 Phasmatodea Species 0.000 description 1
- 241000238370 Sepia Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005755 formation reaction Methods 0.000 description 1
- 244000144980 herd Species 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001757 thermogravimetry curve Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
- B64U2101/31—UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
- B64U2201/104—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/23—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Studio Devices (AREA)
- Radar, Positioning & Navigation (AREA)
Abstract
Description
本明細書中に記載されている全ての出版物、特許、及び特許出願は、参照により、個々の出版物、特許、又は特許出願の各々が明確に、参照によって援用されると個別に明記された場合と同程度に、参照によって本願に援用される。
Vp=C.(Tref=Tcurrent)
式中、Vpはピクセルの速度、Cは速度定数、Trefは第一の画像フレーム内のピクセルの位置に基づく基準変換であり、Tcurrentは、第二の画像フレーム内のピクセルの位置に基づく現在の変換である。速度Vpは、ベクトル成分とスカラ成分の両方を含んでいてもよい。ピクセルの加速度Apは、時間の経過に伴うピクセルの速度変化によって計算されてもよい。
Ap=(Vp/(T
Claims (146)
- ビジュアルトラッキングをサポートする方法であって、
撮像デバイスを使って異なる時間に取得された複数の画像フレームを受信するステップであって、各画像フレームが複数の特徴点に関連付けられる複数のピクセルを含むステップと、
前記複数の画像フレームを分析して、前記複数の特徴点の移動特性を計算するステップと、
少なくとも1つの背景特徴に関する少なくとも1つの追跡特徴を、前記複数の特徴点の前記移動特性に基づいて特定するステップと
を含む方法。 - 前記画像フレームが複数の画像信号の中で符号化される、請求項1に記載の方法。
- 前記複数の画像信号は、前記撮像デバイスによって生成される、請求項2に記載の方法。
- 少なくとも1つの背景特徴に関する少なくとも1つの追跡特徴を特定するステップは、前記複数の特徴点の前記移動特性に基づいて、第一の特徴点群と第二の特徴点群を前記複数の特徴点の中から区別するステップを含む、請求項1に記載の方法。
- 前記第一の特徴点群は実質的に第一の移動特性を有し、前記第二の特徴点群は、前記第一の移動特性と異なる実質的に第二の移動特性を有する、請求項4に記載の方法。
- 前記第一の特徴点群を前記背景特徴として、及び前記第二の特徴点群を前記追跡特徴として特定するステップを更に含む、請求項5に記載の方法。
- 前記複数の特徴点の前記移動特性は、各特徴点の速度又は加速度の少なくとも一方を含む、請求項5に記載の方法。
- 前記複数の特徴点は前記複数の画像フレームの中の前記複数のピクセルに対応する、請求項1に記載の方法。
- 前記複数の特徴点の前記移動と癖に基づいて、第一のピクセル群と第二のピクセル群を前記複数のピクセルの中から区別するステップを更に含む、請求項8に記載の方法。
- 前記第一のピクセル群は実質的に第一の移動特性を有し、前記第二のピクセル群は、前記第一の移動特性と異なる実質的に第二の移動特性を有する、請求項9に記載の方法。
- 前記背景特徴を前記第一のピクセルに群として、及び前記追跡特徴を前記第二のピクセル群として特定するステップを更に含む、請求項10に記載の方法。
- 前記背景特徴を特定するステップは、前記第一のピクセル群を取り囲む第一の外郭を生成するステップを更に含む、請求項11に記載の方法。
- 前記追跡特徴を特定するステップは、前記第二のピクセル群を取り囲む第二の外郭を生成するステップを更に含む、請求項11に記載の方法。
- 前記第二のピクセル群を取り囲む前記第二の外郭の大きさは前記第二のピクセル群の大きさと共に変化する、請求項13に記載の方法。
- 前記第二の外郭の大きさは、前記第二のピクセル群の前記大きさが増大すると増大する、請求項14に記載の方法。
- 前記第二の外郭の大きさは、前記第二のピクセル群の前記大きさが縮小すると縮小する、請求項14に記載の方法。
- 前記背景特徴は複数の静止物体を含む、請求項10に記載の方法。
- 前記複数の静止物体は、前記第一のピクセル群の前記第一の移動特性に関連付けられるものと同じ移動特性を有する、請求項17に記載の方法。
- 前記追跡特性は複数の移動物体を含む、請求項10に記載の方法。
- 前記複数の移動物体は、前記第二のピクセル群の前記第二の移動特性に関連付けられるものと同じ移動特性を有する、請求項19に記載の方法。
- 前記第二のピクセル群を取り囲む外郭の大きさは、移動物体の数と共に変化する、請求項19に記載の方法。
- 前記第二のピクセル群を取り囲む前記外郭の前記大きさは、移動物体の数が増大すると増大する、請求項21に記載の方法。
- 前記第二のピクセル群を取り囲む前記外郭の前記大きさは、移動物体の数が減少すると縮小する、請求項21に記載の方法。
- 前記第二のピクセル群を取り囲む前記外郭の形状は、前記複数の移動物体の前記移動特性と共に変化する、請求項21に記載の方法。
- 前記第二のピクセル群を取り囲む前記外郭は、定形又は無定形を有する、請求項24に記載の方法。
- 前記第二のピクセル群を取り囲む前記外郭の前記形状は、前記第二のピクセル群を取り囲む前記外郭の前記大きさと共に変化する、請求項24に記載の方法。
- 前記複数の画像フレームは、第一の画像フレーム及び第二の画像フレームを含む、請求項1に記載の方法。
- 各ピクセルの前記移動特性は、前記第一及び第二のフレームの中に現れる各ピクセルについて計算される、請求項27に記載の方法。
- 前記方法は、
前記第一の画像フレームの中の各ピクセルの位置と、前記第二の画像フレーム中のそれに対応する位置を特定するステップと、
各ピクセルの前記移動特性を、前記第一及び第二の画像フレーム内のその位置間の差に基づいて計算するステップと
を更に含む、請求項27に記載の方法。 - 前記複数の画像フレームをマッピングするステップと、
前記マッピングに基づいて各ピクセルに関する変換を生成するステップと、
各ピクセルの前記移動特性を、その変換を使って計算するステップと
を更に含む、請求項29に記載の方法。 - 前記第一及び第二のフレーム内に現れる第一のピクセルの前記移動特性は、前記第一のピクセルの速度を含む、請求項27に記載の方法。
- 前記第一のピクセルの前記速度は、速度定数に基準変換と現在の変換との間の差を乗じることによって計算され、前記基準変換は、前記第一の画像フレーム内の前記第一のピクセルの前記位置に基づき、前記現在の変換は、前記第二の画像フレーム内の前記第一のピクセルの前記位置に基づく、請求項31に記載の方法。
- 前記追跡特徴と前記背景特徴は、物体認識方法に関係なく特定される、請求項1に記載の方法。
- 前記物体認識方法は、前記追跡特徴と前記背景特徴の各々が1つ又は複数の物体種別に属するか否かを判断するステップを含む、請求項33に記載の方法。
- 前記物体種別は、建物物体種別、地形物体種別、人物体種別、動物物体種別、及び/又は輸送手段物体種別を含む、請求項34に記載の方法。
- 前記背景特徴は何れの物体種別にも関係なく定義される、請求項34に記載の方法。
- 前記物体は何れの物体種別にも関係なく定義される、請求項34に記載の方法。
- 前記物体認識方法は、アラインメントモデル、不変特性、及び/又はパーツ分解に基づく、請求項33に記載の方法。
- 前記追跡特徴と前記背景特徴が特定された後に、前記方法は、物体認識方法を使って、前記追跡特徴と前記背景特徴が1つ又は複数の物体種別に分類されるステップを更に含む、請求項1に記載の方法。
- 前記物体認識方法は、前記追跡特徴と前記背景特徴の各々がどの物体種別に属するかを判断するステップを含む、請求項39に記載の方法。
- 前記物体種別は、建物物体種別、地形物体種別、人物体種別、動物物体種別、及び/又は輸送手段物体種別を含む、請求項40に記載の方法。
- 前記物体認識方法は、アラインメントモデル、不変特性、及び/又はパーツ分解に基づく、請求項39に記載の方法。
- 前記撮像デバイスは移動可能装置により支持される、請求項1に記載の方法。
- 前記移動可能装置は無人航空機(UAV)である、請求項43に記載の方法。
- 前記移動可能装置は、前記撮像デバイスが前記移動可能装置上の支持構造に関して移動できるようにする前記撮像デバイス用キャリアを含む、請求項43に記載の方法。
- 前記撮像デバイスは静止した装置により支持される、請求項1に記載の方法。
- 前記撮像デバイスは光学カメラである、請求項1に記載の方法。
- 前記撮像デバイスは熱画像デバイスである、請求項1に記載の方法。
- 前記方法は、前記追跡特徴は、前記特徴点の前記移動特性に基づいて、前記背景特徴に関して移動していることを判断するステップを更に含む、請求項1に記載の方法。
- 前記複数の画像フレームは複数のカラー画像を含み、前記複数のピクセルはカラーピクセルを含む、請求項1に記載の方法。
- 前記複数の画像フレームは複数のグレイスケール画像を含み、前記複数のピクセルはグレイスケールピクセルを含む、請求項1に記載の方法。
- 前記複数のグレイスケール画像の各ピクセルは正規化されたグレイスケール値を有する、請求項51に記載の方法。
- ビジュアルトラッキングをサポートする装置であって、
1つ又は複数のプロセッサであって、個々に、又はまとめて、
撮像デバイスを使って異なる時間に取得された複数の画像フレームを受信し、各画像フレームは複数の特徴点に関連付けられる複数のピクセルを含み、
前記複数の画像フレームを分析して、前記複数の特徴点の移動特性を計算し、
少なくとも1つの背景特徴に関する少なくとも1つの追跡特徴を、前記複数の特徴点の前記移動特徴に基づいて特定する
ように構成される1つ又は複数のプロセッサを含む装置。 - 実行された時に、コンピュータにビジュアルトラッキングをサポートする方法を実行させる命令を記憶した非一時的なコンピュータ読取可能媒体において、前記方法は、
撮像デバイスを使って異なる時間に取得された複数の画像フレームを受信するステップであって、各画像フレームが複数の特徴点に関連付けられる複数のピクセルを含むステップと、
前記複数の画像フレームを分析して、前記複数の特徴点の移動特性を計算するステップと、
少なくとも1つの背景特徴に関する少なくとも1つの追跡特徴を、前記複数の特徴点の前記移動特性に基づいて特定するステップと
を含む非一時的なコンピュータ読取可能媒体。 - ビジュアルトラッキングシステムにおいて、
撮像デバイスと、
1つ又は複数のプロセッサであって、個々に、又はまとめて、
撮像デバイスを使って異なる時間に取得された複数の画像フレームを受信し、各画像フレームは複数の特徴点に関連付けられる複数のピクセルを含み、
前記複数の画像フレームを分析して、前記複数の特徴点の移動特性を計算し、
少なくとも1つの背景特徴に関する少なくとも1つの追跡特徴を、前記複数の特徴点の前記移動特徴に基づいて特定する
ように構成される1つ又は複数のプロセッサと
を含むビジュアルトラッキングシステム。 - ビジュアルトラッキングをサポートする方法であって、
撮像デバイスによって、ある期間にわたり、前記撮像デバイスの運動中に捕捉された複数の画像フレームを示す複数の画像信号を受信するステップであって、各画像フレームが複数のピクセルを含むステップと、
前記撮像デバイスの運動特性を複数の運動信号に基づいて取得するステップと、
前記複数の画像信号を前記撮像デバイスの前記運動特性に基づいて分析することにより、前記複数のピクセルに関連付けられる移動特性を計算するステップと
を含む方法。 - 前記複数の画像信号を前記撮像デバイスの前記運動特性に基づいて分析するステップは、前記複数の画像フレームを前記撮像デバイスの前記運動特性に基づいて相互に相関させるステップを更に含む、請求項56に記載の方法。
- 前記複数のピクセルは複数の特徴点に関連付けられ、前記複数の画像信号を前記撮像デバイスの前記運動特性に基づいて分析するステップは、少なくとも1つの背景特徴に関する少なくとも1つの追跡特徴を、前記複数のピクセルに関連付けられる前記移動特性に基づいて特定するステップを更に含む、請求項56に記載の方法。
- 前記背景特徴は、実質的に第一の移動特性を有する第一のピクセル群に関連付けられ、前記追跡特徴は、実質的に第二の移動特性を有する第二のピクセル群に関連付けられる、請求項58に記載の方法。
- 前記複数のピクセルに関連付けられる前記移動特性は、前記複数の画像フレームにわたって測定される各ピクセルの速度と加速度のうちの少なくとも一方を含む、請求項58に記載の方法。
- 各ピクセルの前記速度は、直線(並進)速度及び/又は各ピクセルの角速度を更に含む、請求項60に記載の方法。
- 各ピクセルの前記線速度は各ピクセルの線方向線速さを含む、請求項61に記載の方法。
- 前記第一のピクセル群の前記第一の移動特性は、第一の線方向及び第一の線速さを含む第一の線速度を含む、請求項60に記載の方法。
- 前記第二のピクセル群の前記第二の移動特性は、第二の線方向及び第二の線速さを含む第二の線速度を含む、請求項60に記載の方法。
- 前記第一の線方向が前記第二の線方向に平行で、前記第一の線速さが前記第二の線速さと異なる時に、前記追跡特徴は前記撮像デバイスと実質的に同じ方向に、前記撮像デバイスとは異なる速さで移動していると判断するステップを更に含む、請求項64に記載の方法。
- 前記第一の線速さが前記第二の線速さより小さい時に、前記追跡特徴は前記撮像デバイスより高速で移動していると判断するステップを更に含む、請求項65に記載の方法。
- 前記第一の線速さが前記第二の線速さより大きい時に、前記追跡特徴は前記撮像デバイスより低速で移動していると判断するステップを更に含む、請求項65に記載の方法。
- 前記第一の線方向が前記第二の線方向と異なり、前記第一の線速さが前記第二の線速さと実質的に同じである時に、前記追跡特徴は前記撮像デバイスとは異なる方向に、前記撮像デバイスと実質的に同じ速さで移動していると判断するステップを更に含む、請求項64に記載の方法。
- 前記第一の線方向が前記第二の線方向に対して斜めであると判断するステップを更に含む、請求項68に記載の方法。
- 前記第一の線方向が前記第二の線方向と異なり、前記第一の線速さが前記第二の線速さと異なる時に、前記追跡特徴は前記撮像デバイスとは異なる方向に、前記撮像デバイスとは異なる速さで移動していると判断するステップを更に含む、請求項64に記載の方法。
- 前記第一の線方向が前記第二の線方向に対して斜めであると判断するステップを更に含む、請求項70に記載の方法。
- 前記第一の線速さが前記第二の線速さより小さい時に、前記追跡特徴は前記撮像デバイスより高速で移動していると判断するステップを更に含む、請求項70に記載の方法。
- 前記第一の線速さが前記第二の線速さより大きい時に、前記追跡特徴は前記撮像デバイスより低速で移動していると判断するステップを更に含む、請求項70に記載の方法。
- 各ピクセルの前記角速度は各ピクセルの回転方向及び回転速さを含む、請求項61に記載の方法。
- 前記第一のピクセル群の前記第一の移動特性は、第一の回転方向及び第一の回転速さを含む第一の角速度を含む、請求項74に記載の方法。
- 前記第二のピクセル群の前記第二の移動特性は、第二の回転方向及び第二の回転速さを含む第二の角速度を含む、請求項74に記載の方法。
- 前記第一の回転方向が前記第二の回転方向と同心であり、前記第一の回転速さは前記第二の回転速さと異なる時に、前記追跡特徴は前記撮像デバイスと実質的に同じ方向に、前記撮像デバイスとは異なる速さで移動していると判断するステップを更に含む、請求項76に記載の方法。
- 前記第一の回転速さが前記第二の回転速さより小さい時に、前記追跡特徴は前記撮像デバイスより高速で移動していると判断するステップを更に含む、請求項77に記載の方法。
- 前記第一の回転速さが前記第二の回転速さより大きい時に、前記追跡特徴は前記撮像デバイスより低速で移動していると判断するステップを更に含む、請求項77に記載の方法。
- 前記第一の回転方向が前記第二の回転方向と異なり、前記第一の回転速さが前記第二の回転速さと実質的に同じ時に、前記追跡特徴は前記撮像デバイスと異なる方向に、前記撮像デバイスと実質的に同じ速さで移動していると判断するステップを更に含む、請求項76に記載の方法。
- 前記第一の回転方向は前記第二の回転方向と同心ではないと判断するステップを更に含む、請求項80に記載の方法。
- 前記第一の回転方向が前記第二の回転方向とは異なり、前記第一の回転速さが前記第二の回転速さとは異なる時に、前記追跡特徴は前記撮像デバイスと異なる方向に、前記撮像デバイスとは異なる速さで移動していると判断するステップを更に含む、請求項76に記載の方法。
- 前記第一の回転方向は前記第二の回転方向と同心ではないと判断するステップを更に含む、請求項82に記載の方法。
- 前記第一の回転速さが前記第二の回転速さより小さい時に、前記追跡特徴は前記撮像デバイスより高速で移動していると判断するステップを更に含む、請求項82に記載の方法。
- 前記第一の回転速さが前記第二の回転速さより大きい時に、前記追跡特徴は前記撮像デバイスより低速で移動していると判断するステップを更に含む、請求項82に記載の方法。
- 各ピクセルの前記加速度は各ピクセルの直線加速度及び/又は角加速度を含む、請求項60に記載の方法。
- 前記第一のピクセル群の前記第一の移動特性は第一の直線加速度を含む、請求項86に記載の方法。
- 前記第一のピクセル群の前記第一の移動特性は第一の角加速度を含む、請求項87に記載の方法。
- 前記第二のピクセル群の前記第二の移動特性は第二の直線加速度を含む、請求項88に記載の方法。
- 前記第二のピクセル群の前記第二の移動特性は第二の角加速度を含む、請求項89に記載の方法。
- 前記第一の直線加速度が前記第二の直線加速度とは異なる時に、前記追跡特徴は前記背景特徴と前記撮像デバイスに関して加速していると判断するステップを更に含む、請求項90に記載の方法。
- 前記第一の直線加速度が前記第二の直線加速度より小さい時に、前記追跡特徴は前記撮像デバイスより高速で加速していると判断するステップを更に含む、請求項91に記載の方法。
- 前記第一の直線加速度が前記第二の直線加速度より大きい時に、前記追跡特徴は前記撮像デバイスより低速で加速していると判断するステップを更に含む、請求項91に記載の方法。
- 前記第一の角加速度が前記第二の角加速度とは異なる時に、前記追跡特徴は前記背景特徴と前記撮像デバイスに関して加速していると判断するステップを更に含む、請求項90に記載の方法。
- 前記第一の角加速度が前記第二の角加速度より小さい時に、前記追跡特徴は前記撮像デバイスより高速で加速していると判断するステップを更に含む、請求項94に記載の方法。
- 前記第一の角加速度が前記第二の角加速度より大きい時に、前記追跡特徴は前記撮像デバイスより低速で加速していると判断するステップを更に含む、請求項94に記載の方法。
- 前記撮像デバイスの前記運動特性は、前記撮像デバイスの姿勢、瞬間位置、速度、及び加速度のうちの少なくとも1つを含む、請求項56に記載の方法。
- 前記撮像デバイスの前記速度は前記撮像デバイスの線速度及び/又は角速度を含む、請求項97に記載の方法。
- 前記撮像デバイスの前記線速度は前記撮像デバイスの線方向と線速さを含む、請求項98に記載の方法。
- 前記第一のピクセル群の前記第一の線方向は前記撮像デバイスの前記線方向に関連付けられる、請求項63又は99に記載の方法。
- 前記第一のピクセル群の前記第一の線速さは前記撮像デバイスの前記線速さに速さ定数により比例する、請求項63又は99に記載の方法。
- 前記撮像デバイスの前記角速度は前記撮像デバイスの回転方向及び回転速さを含む、請求項98に記載の方法。
- 前記第一のピクセル群の前記第一の回転方向は前記撮像デバイスの前記回転方向に関連付けられる、請求項75又は102に記載の方法。
- 前記第一のピクセル群の前記第一の回転速さは前記撮像デバイスの前記回転速さに速さ定数により比例する、請求項75又は102に記載の方法。
- 前記撮像デバイスの前記加速度は、前記撮像デバイスの直線加速度及び/又は角加速度を含む、請求項97に記載の方法。
- 前記第一のピクセル群の前記直線加速度は前記撮像デバイスの前記直線加速度に関連付けられる、請求項87又は105に記載の方法。
- 前記第一のピクセル群の前記角加速度は前記撮像デバイスの前記角加速度に関連付けられる、請求項88又は105に記載の方法。
- 前記撮像デバイスの前記瞬間位置は距離測定及び/又は位置特定デバイスを使って判断される、請求項97に記載の方法。
- 前記距離測定及び/又は位置特定デバイスは全地球測位システム(GPS)デバイスである、請求項108に記載の方法。
- 前記距離測定及び/又は位置特定デバイスは飛行時間カメラである、請求項108に記載の方法。
- 前記撮像デバイスの前記瞬間位置は、前記背景特徴の物理的位置に関して測定される、請求項108に記載の方法。
- 前記撮像デバイスの前記瞬間位置と前記背景特徴の前記物理的位置に基づいてスケーリングファクタを計算するステップを更に含む、請求項111に記載の方法。
- 各ピクセルの前記移動特性を、前記撮像デバイスの前記運動特性と前記スケーリングファクタを使って計算するステップを更に含む、請求項112に記載の方法。
- 前記撮像デバイスの前記運動特性は、慣性計測センサ(IMU)を使って判断される、請求項56に記載の方法。
- ビジュアルトラッキングをサポートする装置であって、
1つ又は複数のプロセッサであって、個々に、又はまとめて、
撮像デバイスによって、ある期間にわたり、前記撮像デバイスの運動中に捕捉された複数の画像フレームを示す複数の画像信号を受信し、各画像フレームが複数のピクセルを含み、
前記撮像デバイスの運動特性を複数の運動信号に基づいて取得し、
前記複数の画像信号を前記撮像デバイスの前記運動特性に基づいて分析することにより、前記複数のピクセルに関連付けられる移動特性を計算する
ように構成される1つ又は複数のプロセッサを含む装置。 - 実行された時に、コンピュータに、ビジュアルトラッキングをサポートする方法を実行させる命令を記憶した非一時的なコンピュータ読取可能媒体において、前記方法は、
撮像デバイスによって、ある期間にわたり、前記撮像デバイスの運動中に捕捉された複数の画像フレームを示す複数の画像信号を受信するステップであって、各画像フレームが複数のピクセルを含むステップと、
前記撮像デバイスの運動特性を複数の運動信号に基づいて取得するステップと、
前記複数の画像信号を前記撮像デバイスの前記運動特性に基づいて分析することにより、前記複数のピクセルに関連付けられる移動特性を計算するステップと
を含む非一時的なコンピュータ読取可能媒体。 - 無人航空機(UAV)において、
ビジュアルトラッキングシステムを含み、これは、
撮像デバイスと、
1つ又は複数のプロセッサであって、個々に、又はまとめて、
撮像デバイスによって、ある期間にわたり、前記撮像デバイスの運動中に捕捉された複数の画像フレームを示す複数の画像信号を受信し、各画像フレームは複数のピクセルを含み、
前記撮像デバイスの運動特性を複数の運動信号に基づいて取得し、
前記複数の画像信号を前記撮像デバイスの前記運動特性に基づいて分析することにより、前記複数のピクセルに関連付けられる移動特性を計算する
ように構成される1つ又は複数のプロセッサと
を含む無人航空機(UAV)。 - ビジュアルトラッキングをサポートする方法であって、
移動ビジュアルトラッキングデバイスを介して、複数の特徴点の移動特性を取得するステップと、
前記複数の特徴点の前記移動特性に基づいて、前記複数の特徴点からある特徴点群を選択するステップと、
前記移動ビジュアルトラッキングデバイスの運動特性を調整することによって前記移動点群を追跡し、前記特徴点群を実質的に、前記移動ビジュアルトラッキングデバイスを使って捕捉された各画像フレームの標的領域内に位置付けるようにするステップと
を含む方法。 - 前記標的領域は各画像フレームの中央領域である、請求項118に記載の方法。
- 前記標的領域は各画像フレームの縁領域である、請求項118に記載の方法。
- 前記移動ビジュアルトラッキングデバイスの前記移動特性は、前記移動ビジュアルトラッキングデバイスの前記移動特性が前記特徴点群の前記移動特性と実質的に同じになるように調整される、請求項118に記載の方法。
- 前記特徴点群の前記移動特性が、前記特徴点群の速度及び/又は加速度のうちの少なくとも一方である、請求項121に記載の方法。
- 前記移動ビジュアルトラッキングデバイスの前記速度は前記特徴点群の前記速度と実質的に同じである、請求項122に記載の方法。
- 前記移動ビジュアルトラッキングデバイスの前記加速度は、前記特徴点群の前記加速度と実質的に同じである、請求項122に記載の方法。
- 前記移動ビジュアルトラッキングデバイスが移動可能装置に搭載されている時、前記移動可能装置の移動特性は、前記移動ビジュアルトラッキングデバイスの移動特性が、前記移動ビジュアルトラッキングデバイスが前記特徴点群を追跡できるように調整される、請求項118に記載の方法。
- 前記移動ビジュアルトラッキングデバイスが撮像デバイスを含む、請求項125に記載の方法。
- 前記UAVの前記移動に関する前記撮像デバイスの前記移動を調整して、前記特徴点群を追跡するステップを更に含む、請求項126に記載の方法。
- 前記特徴点群は常に前記撮像デバイスの視野内に位置付けられる、請求項126に記載の方法。
- 前記移動ビジュアルトラッキングデバイスは、前記特徴点群が実質的に同じ移動特性を有するかぎり、前記特徴点群を追跡するように構成される、請求項118に記載の方法。
- 前記移動ビジュアルトラッキングデバイスは、前記特徴点群の大きさ及び/又は形状に関係なく、前記特徴点群を追跡するように構成される、請求項118に記載の方法。
- 前記特徴点群は特徴点の複数の小集合を含む、請求項118に記載の方法。
- 前記特徴点群の複数の小集合は、句頂点群の第一の小集合及び第二の小集合を含む、請求項131に記載の方法。
- 前記特徴点群の第一及び第二の小集合は実質的に同じ移動特性を有する、請求項131に記載の方法。
- 前記移動ビジュアルトラッキングデバイスは、実質的に同じ移動特性を有する前記特徴点群の第一及び第二の小集合を追跡するように構成される、請求項133に記載の方法。
- 前記特徴点の第一及び第二の小集合は、実質的に異なる移動特性を有する、請求項131に記載の方法。
- 前記移動ビジュアルトラッキングデバイスは、前記特徴点の第一の、又は第二の小集合の一方を追跡するように構成される、請求項135に記載の方法。
- 前記移動ビジュアルトラッキングデバイスは、前記特徴点の第一の小集合の大きさが前記特徴点の第二の小集合の大きさより大きい時に、前記特徴点の第一の小集合を追跡するように構成される、請求項135に記載の方法。
- ビジュアルトラッキングをサポートする装置であって、
1つ又は複数のプロセッサであって、個々に、又はまとめて、
移動ビジュアルトラッキングデバイスを介して、複数の特徴点の移動特性を取得し、
前記複数の特徴点の前記移動特性に基づいて、前記複数の特徴点からある特徴点群を選択し、
前記移動ビジュアルトラッキングデバイスの運動特性を調整することによって前記特徴点群を追跡し、前記特徴点群を実質的に、前記移動ビジュアルトラッキングデバイスを使って捕捉された各画像フレームの標的領域内に位置付ける
ように構成される1つ又は複数のプロセッサを含む装置。 - 実行された時に、コンピュータにビジュアルトラッキングをサポートする方法を実行させる命令を記憶した非一時的なコンピュータ読取可能媒体において、前記方法は、
移動ビジュアルトラッキングデバイスを介して、複数の特徴点の移動特性を取得するステップと、
前記複数の特徴点の前記移動特性に基づいて、前記複数の特徴点からある特徴点群を選択するステップと、
前記移動ビジュアルトラッキングデバイスの前記運動特性を調整することによって前記特徴点群を追跡し、前記特徴点群を実質的に、前記移動ビジュアルトラッキングデバイスを使って捕捉された各画像フレームの標的領域内に位置付けるようにするステップと
を含む非一時的なコンピュータ読取可能媒体。 - 無人航空機(UAV)において、
ビジュアルトラッキングシステムを含み、これは、
撮像デバイスと、
1つ又は複数のプロセッサであって、個々に、又はまとめて、
移動ビジュアルトラッキングデバイスを介して、複数の特徴点の移動特性を取得し、
前記複数の特徴点の前記移動特性に基づいて、前記複数の特徴点からある特徴点群を選択し、
前記移動ビジュアルトラッキングデバイスの運動特性を調整することによって前記移動点群を追跡し、前記特徴点群を実質的に、前記移動ビジュアルトラッキングデバイスを使って捕捉された各画像フレームの標的領域内に位置付ける
ように構成される1つ又は複数のプロセッサと
を含む無人航空機(UAV)。 - 前記第二のピクセル群を取り囲む前記外郭の前記大きさが増大すると、
前記撮像デバイスは前記複数の移動物体に関してより高い縦方向の位置まで、又は前記複数の移動物体から横方向に離れるより遠い距離まで移動されて、前記第二のピクセル群を実質的に、前記撮像デバイスによって捕捉された前記複数の画像フレームの標的領域内に位置付けることができる、請求項22に記載の方法。 - 前記第二のピクセル群を取り囲む前記外郭の前記大きさが縮小すると、
前記撮像デバイスは前記複数の移動物体に関してより低い縦方向の位置まで、又は前記複数の移動物体から横方向に離れるより近い距離まで移動されて、前記第二のピクセル群を実質的に、前記撮像デバイスによって捕捉された前記複数の画像フレームの標的領域内に位置付けることができる、請求項23に記載の方法。 - 前記熱画像デバイスは、弱光又は暗い環境で複数の熱画像フレームを補足するように構成される、請求項48に記載の方法。
- 前記熱画像デバイスにより異なる時間に捕捉された前記複数の熱画像フレームを受け取るステップであって、各熱画像フレームは、前記複数の特徴点に関連付けられる複数のピクセルを含む、請求項143に記載の方法。
- 前記熱画像フレーム内の各ピクセルは、対応する特徴点において発せられ、透過され、及び/又は反射される赤外線エネルギーの量を示す、請求項144に記載の方法。
- 前記複数の熱画像フレームを分析して、前記複数の特徴点の前記移動特性を計算するステップと、
前記複数の特徴点の前記移動特性に基づいて、前記少なくとも1つの背景特徴に関する前記少なくとも1つの追跡特徴を特定するステップと
を更に含む、請求項144に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2015/089464 WO2017041303A1 (en) | 2015-09-11 | 2015-09-11 | Systems and methods for detecting and tracking movable objects |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017537484A true JP2017537484A (ja) | 2017-12-14 |
JP6496323B2 JP6496323B2 (ja) | 2019-04-03 |
Family
ID=58240532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016554437A Expired - Fee Related JP6496323B2 (ja) | 2015-09-11 | 2015-09-11 | 可動物体を検出し、追跡するシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10198634B2 (ja) |
EP (1) | EP3347789B1 (ja) |
JP (1) | JP6496323B2 (ja) |
CN (1) | CN108139757A (ja) |
WO (1) | WO2017041303A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020139497A1 (en) * | 2018-12-27 | 2020-07-02 | Intel Corporation | System and method of location determination using multiple location inputs |
KR20200104739A (ko) * | 2019-02-27 | 2020-09-04 | 주식회사 한국건설방재연구원 | 작업자 안전 관리를 위한 작업용 철도 차량 접근 원격 알람 시스템 |
WO2021002001A1 (ja) * | 2019-07-04 | 2021-01-07 | 三菱電機株式会社 | 移動体測位装置および移動体測位システム |
KR20210036886A (ko) * | 2018-10-04 | 2021-04-05 | 씨드로닉스(주) | 항만 모니터링 장치 및 항만 모니터링 방법 |
JP2023520017A (ja) * | 2020-04-01 | 2023-05-15 | サ-コス コーポレイション | 非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法 |
JP7462738B2 (ja) | 2019-10-25 | 2024-04-05 | ウェイモ エルエルシー | 車載クラスタ追跡システム |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9715009B1 (en) | 2014-12-19 | 2017-07-25 | Xidrone Systems, Inc. | Deterent for unmanned aerial systems |
US9689976B2 (en) | 2014-12-19 | 2017-06-27 | Xidrone Systems, Inc. | Deterent for unmanned aerial systems |
CN106296725B (zh) * | 2015-06-12 | 2021-10-19 | 富泰华工业(深圳)有限公司 | 运动目标实时检测与跟踪方法及目标检测装置 |
US20170041557A1 (en) * | 2015-08-04 | 2017-02-09 | DataFoxTrot, LLC | Generation of data-enriched video feeds |
JP6720756B2 (ja) * | 2015-10-08 | 2020-07-08 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
CA3012889A1 (en) * | 2016-01-29 | 2017-08-03 | Kiwisecurity Software Gmbh | Methods and apparatus for using video analytics to detect regions for privacy protection within images from moving cameras |
US10274737B2 (en) * | 2016-02-29 | 2019-04-30 | Microsoft Technology Licensing, Llc | Selecting portions of vehicle-captured video to use for display |
US20180364741A1 (en) | 2016-03-11 | 2018-12-20 | Raytheon Bbn Technologies Corp. | Human indication of target drone for interception |
US10402671B2 (en) * | 2016-03-28 | 2019-09-03 | General Dynamics Mission Systems, Inc. | System and methods for automatic solar panel recognition and defect detection using infrared imaging |
US10633088B2 (en) * | 2016-07-01 | 2020-04-28 | Textron Innovations Inc. | Aerial imaging aircraft having attitude stability during translation |
US11608173B2 (en) * | 2016-07-01 | 2023-03-21 | Textron Innovations Inc. | Aerial delivery systems using unmanned aircraft |
CN113955108A (zh) | 2016-08-26 | 2022-01-21 | 索尼公司 | 信息处理装置、其控制方法、移动单元及记录介质 |
WO2018086133A1 (en) * | 2016-11-14 | 2018-05-17 | SZ DJI Technology Co., Ltd. | Methods and systems for selective sensor fusion |
CN108288281A (zh) * | 2017-01-09 | 2018-07-17 | 翔升(上海)电子技术有限公司 | 视觉跟踪方法、视觉跟踪装置、无人机以及终端设备 |
US10606814B2 (en) * | 2017-01-18 | 2020-03-31 | Microsoft Technology Licensing, Llc | Computer-aided tracking of physical entities |
US20200158517A1 (en) * | 2017-01-19 | 2020-05-21 | Mindmaze Holding Sa | System, methods, device and apparatuses for preforming simultaneous localization and mapping |
US10453345B2 (en) * | 2017-01-30 | 2019-10-22 | International Business Machines Corporation | Autonomous presentation of a self-driving vehicle |
US10706289B2 (en) * | 2017-03-03 | 2020-07-07 | International Business Machines Corporation | Crowd detection, analysis, and categorization |
JP6834625B2 (ja) * | 2017-03-13 | 2021-02-24 | 富士通株式会社 | 行動量算出プログラム、行動量算出方法、行動量算出装置および動物監視システム |
US10311308B2 (en) * | 2017-03-31 | 2019-06-04 | International Business Machines Corporation | Image processing to identify selected individuals in a field of view |
US20180293735A1 (en) * | 2017-04-11 | 2018-10-11 | Sony Corporation | Optical flow and sensor input based background subtraction in video content |
US10740613B1 (en) * | 2017-04-20 | 2020-08-11 | Digimarc Corporation | Hybrid feature point/watermark-based augmented reality |
CN108475072A (zh) * | 2017-04-28 | 2018-08-31 | 深圳市大疆创新科技有限公司 | 一种跟踪控制方法、装置及飞行器 |
US10395385B2 (en) | 2017-06-27 | 2019-08-27 | Qualcomm Incorporated | Using object re-identification in video surveillance |
EP3447448B1 (en) * | 2017-07-24 | 2021-01-06 | Trifo, Inc. | Fault-tolerance to provide robust tracking for autonomous and non-autonomous positional awareness |
US10796142B2 (en) * | 2017-08-28 | 2020-10-06 | Nutech Ventures | Systems for tracking individual animals in a group-housed environment |
US10719087B2 (en) | 2017-08-29 | 2020-07-21 | Autel Robotics Co., Ltd. | Target tracking method, unmanned aerial vehicle, and computer readable storage medium |
CN107505951B (zh) * | 2017-08-29 | 2020-08-21 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、无人机和计算机可读存储介质 |
JP7025157B2 (ja) * | 2017-09-19 | 2022-02-24 | 株式会社トプコン | 撮影方法および撮影用プログラム |
US10907940B1 (en) | 2017-12-12 | 2021-02-02 | Xidrone Systems, Inc. | Deterrent for unmanned aerial systems using data mining and/or machine learning for improved target detection and classification |
US10529077B2 (en) * | 2017-12-19 | 2020-01-07 | Canon Kabushiki Kaisha | System and method for detecting interaction |
CN110445465A (zh) * | 2017-12-22 | 2019-11-12 | 晶科电力科技股份有限公司 | 一种光伏电站中热斑定位方法 |
CN108140245B (zh) * | 2017-12-25 | 2022-08-23 | 深圳市道通智能航空技术股份有限公司 | 测距方法、装置以及无人机 |
CN111527463B (zh) * | 2018-01-22 | 2024-02-23 | 深圳市大疆创新科技有限公司 | 用于多目标跟踪的方法和系统 |
EP3752881A1 (de) * | 2018-02-13 | 2020-12-23 | Ars Electronica Linz GmbH & Co KG | System zur darstellung und identifikation von markern einer veränderbaren geometrischen abbildung |
US10929704B2 (en) * | 2018-03-12 | 2021-02-23 | Phantom Auto Inc. | Landscape video stream compression using computer vision techniques |
JP6847885B2 (ja) * | 2018-03-20 | 2021-03-24 | 株式会社東芝 | 情報処理装置、情報処理方法及びプログラム |
US11380054B2 (en) | 2018-03-30 | 2022-07-05 | Cae Inc. | Dynamically affecting tailored visual rendering of a visual element |
US10964106B2 (en) | 2018-03-30 | 2021-03-30 | Cae Inc. | Dynamically modifying visual rendering of a visual element comprising pre-defined characteristics |
US10839492B2 (en) * | 2018-05-23 | 2020-11-17 | International Business Machines Corporation | Selectively redacting unrelated objects from images of a group captured within a coverage area |
WO2020000393A1 (zh) * | 2018-06-29 | 2020-01-02 | 深圳市大疆创新科技有限公司 | 图像处理方法及装置、第一电子设备和图像处理系统 |
DE102018211138A1 (de) | 2018-07-05 | 2020-01-09 | Audi Ag | System und Verfahren zur Projektion eines Projektionsbildes auf eine Oberfläche eines Fahrzeugs |
CN108848348A (zh) * | 2018-07-12 | 2018-11-20 | 西南科技大学 | 一种基于无人机的人群异常行为监测装置及方法 |
JP7396691B2 (ja) * | 2018-07-13 | 2023-12-12 | ラブラドール システムズ インコーポレイテッド | 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション |
CN110832495A (zh) * | 2018-07-13 | 2020-02-21 | 深圳市大疆创新科技有限公司 | 波浪识别方法、装置、计算机可读存储介质和无人飞行器 |
EP3837492A1 (en) * | 2018-08-21 | 2021-06-23 | SZ DJI Technology Co., Ltd. | Distance measuring method and device |
CN109344742B (zh) * | 2018-09-14 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 特征点定位方法、装置、存储介质和计算机设备 |
US10663979B2 (en) * | 2018-09-21 | 2020-05-26 | Honda Motor Co., Ltd. | Autonomous all-terrain vehicles for herding |
KR102559203B1 (ko) * | 2018-10-01 | 2023-07-25 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
US11774983B1 (en) | 2019-01-02 | 2023-10-03 | Trifo, Inc. | Autonomous platform guidance systems with unknown environment mapping |
US11037303B2 (en) * | 2019-01-31 | 2021-06-15 | Sony Corporation | Optical flow based detection and tracking of multiple moving objects in successive frames |
CN109885053B (zh) * | 2019-02-28 | 2024-09-17 | 深圳市道通智能航空技术股份有限公司 | 一种障碍物检测方法、装置及无人机 |
US11532237B2 (en) * | 2019-02-28 | 2022-12-20 | Rockwell Collins, Inc. | Autonomous aircraft sensor-based positioning and navigation system using markers |
DE102019105293A1 (de) * | 2019-03-01 | 2020-09-03 | Hochschule RheinMain University of Applied Sciences Wiesbaden Rüsselsheim Geisenheim | Schätzung der Bewegung einer Bildposition |
CA3141757A1 (en) * | 2019-05-24 | 2020-12-03 | Hubbell Incorporated | Light fixture with integrated input/output module |
US11769257B2 (en) * | 2019-05-30 | 2023-09-26 | Honeywell International Inc. | Systems and methods for image aided navigation |
WO2020237675A1 (zh) * | 2019-05-31 | 2020-12-03 | 深圳市大疆创新科技有限公司 | 目标检测方法、目标检测装置和无人机 |
US11022972B2 (en) * | 2019-07-31 | 2021-06-01 | Bell Textron Inc. | Navigation system with camera assist |
US12008805B2 (en) | 2019-08-28 | 2024-06-11 | Bae Systems Plc | Detection of modulating elements |
EP3816953A1 (en) * | 2019-10-28 | 2021-05-05 | BAE SYSTEMS plc | Detection of modulating elements |
CN111178190B (zh) * | 2019-12-17 | 2023-10-27 | 中国科学院深圳先进技术研究院 | 基于深度图像的目标检测方法、装置及存储介质 |
KR102649600B1 (ko) * | 2020-01-17 | 2024-03-22 | 삼성디스플레이 주식회사 | 클럭 생성기 및 이를 포함하는 표시 장치 |
PT3890300T (pt) * | 2020-04-03 | 2023-05-05 | Uav Autosystems Hovering Solutions Espana S L | Veículo autopropulsado |
CN111683223A (zh) * | 2020-06-02 | 2020-09-18 | 珠海精讯知识产权管理有限公司 | 一种用于动物疫病传播监控的大规模无人机启用系统 |
US11423623B2 (en) | 2020-06-10 | 2022-08-23 | At&T Intellectual Property I, L.P. | Projecting virtual presences along a moving trajectory |
US11403856B2 (en) * | 2020-08-26 | 2022-08-02 | Ford Global Technologies, Llc | Group object-tracking |
JP6858387B1 (ja) * | 2020-11-19 | 2021-04-14 | 株式会社Qoncept | 軌道算出装置、軌道算出方法、軌道算出プログラム |
US11282285B1 (en) | 2021-01-08 | 2022-03-22 | International Business Machines Corporation | Real-world object location identification using 5G network technology |
CN113109830B (zh) * | 2021-03-29 | 2024-06-07 | 桂林电子科技大学 | 一种采用光流及测距传感器的三维运动测量方法 |
US20220383515A1 (en) * | 2021-05-28 | 2022-12-01 | Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company | Digital video computing system for vehicle |
JP2023015634A (ja) * | 2021-07-20 | 2023-02-01 | キヤノン株式会社 | 情報処理装置、移動体の制御システム、情報処理方法、プログラム |
CN114910926B (zh) * | 2022-05-31 | 2024-09-06 | 中国科学院长春光学精密机械与物理研究所 | 一种用于飞行器的激光测距测速雷达自动化方法及装置 |
CN114690176B (zh) * | 2022-06-01 | 2022-09-02 | 南京隼眼电子科技有限公司 | 运动目标跟踪方法、装置、电子设备及存储介质 |
WO2024043752A1 (en) * | 2022-08-26 | 2024-02-29 | Samsung Electronics Co., Ltd. | Method and electronic device for motion-based image enhancement |
CN118736339A (zh) * | 2024-09-03 | 2024-10-01 | 南京兆联智能科技有限公司 | 一种基于红外图像的目标搜索方法、系统及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357385A (ja) * | 2000-06-14 | 2001-12-26 | Public Works Research Institute Ministry Of Land Infrastructure & Transport | 赤外線カメラによる道路上の人、車等の自動識別装置 |
JP2006146551A (ja) * | 2004-11-19 | 2006-06-08 | Matsushita Electric Ind Co Ltd | ロボット |
JP2006270274A (ja) * | 2005-03-22 | 2006-10-05 | Olympus Corp | 被写体認識装置、および被写体認識方法 |
JP2009173263A (ja) * | 2008-01-23 | 2009-08-06 | Honeywell Internatl Inc | 無人航空機(uav)によって移動目標物を自律的に追跡するための方法及びシステム |
JP2009294842A (ja) * | 2008-06-04 | 2009-12-17 | Nissan Motor Co Ltd | 歩行者検出装置及び歩行者検出方法 |
JP2014174646A (ja) * | 2013-03-06 | 2014-09-22 | Koito Electric Industries Ltd | 信号制御装置 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5047995A (en) | 1980-01-17 | 1991-09-10 | The Secretary Of State For Defence In Her Britannic Majesty's Government Of The United Kingdom Of Great Britain And Northern Ireland | Detection of moving objects |
US4924507A (en) | 1988-02-11 | 1990-05-08 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Real-time optical multiple object recognition and tracking system and method |
JP3379324B2 (ja) | 1996-02-08 | 2003-02-24 | トヨタ自動車株式会社 | 移動体検知方法及び装置 |
US7028899B2 (en) | 1999-06-07 | 2006-04-18 | Metrologic Instruments, Inc. | Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target |
US7424175B2 (en) | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
US7251346B2 (en) | 2002-11-19 | 2007-07-31 | Honda Motor Co., Ltd. | Moving object detection device, moving object detection method, and moving object detection program |
US20060067562A1 (en) * | 2004-09-30 | 2006-03-30 | The Regents Of The University Of California | Detection of moving objects in a video |
US7289227B2 (en) | 2004-10-01 | 2007-10-30 | Nomos Corporation | System and tracker for tracking an object, and related methods |
US7681839B2 (en) | 2005-02-25 | 2010-03-23 | Smiths Aerospace Llc | Optical tracking system for refueling |
TWI286484B (en) | 2005-12-16 | 2007-09-11 | Pixart Imaging Inc | Device for tracking the motion of an object and object for reflecting infrared light |
IL175877A (en) * | 2006-05-23 | 2013-07-31 | Elbit Sys Electro Optics Elop | Bundle-based contractual adjustment |
DE602006013113D1 (de) | 2006-07-07 | 2010-05-06 | Selex Galileo Spa | Verfahren und Vorrichtung zur Detektion von bewegten Objekten mittels SAR Bildern |
US8178825B2 (en) * | 2007-10-29 | 2012-05-15 | Honeywell International Inc. | Guided delivery of small munitions from an unmanned aerial vehicle |
JP2009200713A (ja) | 2008-02-20 | 2009-09-03 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
JP2011192141A (ja) * | 2010-03-16 | 2011-09-29 | Sony Corp | 動体検出装置と動体検出方法およびプログラム |
EP2547255B1 (en) | 2010-03-18 | 2015-09-30 | Rigshospitalet | Optical motion tracking of an object |
US9147260B2 (en) * | 2010-12-20 | 2015-09-29 | International Business Machines Corporation | Detection and tracking of moving objects |
US8791901B2 (en) | 2011-04-12 | 2014-07-29 | Sony Computer Entertainment, Inc. | Object tracking with projected reference patterns |
CN102222214A (zh) * | 2011-05-09 | 2011-10-19 | 苏州易斯康信息科技有限公司 | 快速物体识别算法 |
US8520075B2 (en) * | 2011-06-02 | 2013-08-27 | Dialogic Inc. | Method and apparatus for reduced reference video quality measurement |
CN102355574B (zh) * | 2011-10-17 | 2013-12-25 | 上海大学 | 机载云台运动目标自主跟踪系统的图像稳定方法 |
CA2793180A1 (en) * | 2011-11-02 | 2013-05-02 | Eads Deutschland Gmbh | Method and device for the detection of moving objects in a video image sequence |
US9131208B2 (en) * | 2012-04-06 | 2015-09-08 | Adobe Systems Incorporated | Opt-keyframe reconstruction for robust video-based structure from motion |
EP2701093B1 (en) | 2012-08-20 | 2016-06-22 | Honda Research Institute Europe GmbH | Sensing system and method for detecting moving objects |
KR20140102443A (ko) | 2013-02-14 | 2014-08-22 | 삼성전자주식회사 | 카메라를 이용한 물체 추적 방법 및 이를 위한 카메라 시스템 |
CN103149939B (zh) * | 2013-02-26 | 2015-10-21 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
AU2014253606A1 (en) * | 2013-04-16 | 2015-11-05 | Bae Systems Australia Limited | Landing system for an aircraft |
HUP1300328A3 (en) * | 2013-05-23 | 2017-03-28 | Mta Szamitastechnika Es Automatizalasi Ki | Method and system for integrated three dimensional modelling |
KR101480348B1 (ko) | 2013-05-31 | 2015-01-09 | 삼성에스디에스 주식회사 | 사람 검출 장치 및 방법과 사람 계수 장치 및 방법 |
CN103413441B (zh) | 2013-06-26 | 2015-12-23 | 广东惠利普路桥信息工程有限公司 | 道路天气状况监控方法 |
CN103413444B (zh) * | 2013-08-26 | 2015-08-19 | 深圳市川大智胜科技发展有限公司 | 一种基于无人机高清视频的交通流调查处理方法 |
US9201424B1 (en) * | 2013-08-27 | 2015-12-01 | Google Inc. | Camera calibration using structure from motion techniques |
GB2520243B (en) | 2013-11-06 | 2017-12-13 | Thales Holdings Uk Plc | Image processor |
US9418279B2 (en) * | 2013-11-19 | 2016-08-16 | Qualcomm Incorporated | Detection of an object's varying features with a non-stationary device |
CN104777847A (zh) * | 2014-01-13 | 2015-07-15 | 中南大学 | 基于机器视觉和超宽带定位技术的无人机目标追踪系统 |
CN103794087A (zh) | 2014-02-17 | 2014-05-14 | 东南大学 | 基于无线协同的运动物体穿行道路辅助避撞方法和系统 |
CN104197928B (zh) * | 2014-08-29 | 2017-01-18 | 西北工业大学 | 多摄像机协同的无人机检测、定位及跟踪方法 |
CN104794435B (zh) * | 2015-04-03 | 2017-12-29 | 中国科学院自动化研究所 | 一种基于视觉的无人机对地运动目标检测方法 |
US9852513B2 (en) * | 2016-03-01 | 2017-12-26 | Intel Corporation | Tracking regions of interest across video frames with corresponding depth maps |
-
2015
- 2015-09-11 WO PCT/CN2015/089464 patent/WO2017041303A1/en unknown
- 2015-09-11 EP EP15903408.1A patent/EP3347789B1/en active Active
- 2015-09-11 CN CN201580083050.3A patent/CN108139757A/zh active Pending
- 2015-09-11 JP JP2016554437A patent/JP6496323B2/ja not_active Expired - Fee Related
-
2016
- 2016-12-01 US US15/366,857 patent/US10198634B2/en active Active
-
2019
- 2019-02-04 US US16/266,773 patent/US10650235B2/en active Active
-
2020
- 2020-05-11 US US16/871,790 patent/US20200272803A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357385A (ja) * | 2000-06-14 | 2001-12-26 | Public Works Research Institute Ministry Of Land Infrastructure & Transport | 赤外線カメラによる道路上の人、車等の自動識別装置 |
JP2006146551A (ja) * | 2004-11-19 | 2006-06-08 | Matsushita Electric Ind Co Ltd | ロボット |
JP2006270274A (ja) * | 2005-03-22 | 2006-10-05 | Olympus Corp | 被写体認識装置、および被写体認識方法 |
JP2009173263A (ja) * | 2008-01-23 | 2009-08-06 | Honeywell Internatl Inc | 無人航空機(uav)によって移動目標物を自律的に追跡するための方法及びシステム |
JP2009294842A (ja) * | 2008-06-04 | 2009-12-17 | Nissan Motor Co Ltd | 歩行者検出装置及び歩行者検出方法 |
JP2014174646A (ja) * | 2013-03-06 | 2014-09-22 | Koito Electric Industries Ltd | 信号制御装置 |
Non-Patent Citations (1)
Title |
---|
菅谷 保之, 金谷 健一: ""運動物体分離のためのカメラモデルの自動選択"", 情報処理学会研究報告, vol. 84, JPN7017003341, 12 September 2002 (2002-09-12), JP, pages 9 - 16, ISSN: 0003872434 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240057388A (ko) * | 2018-10-04 | 2024-05-02 | 씨드로닉스(주) | 항만 모니터링 장치 및 항만 모니터링 방법 |
KR102658233B1 (ko) * | 2018-10-04 | 2024-04-19 | 씨드로닉스(주) | 항만 모니터링 장치 및 항만 모니터링 방법 |
US12057018B2 (en) | 2018-10-04 | 2024-08-06 | Seadronix Corp. | Device and method for monitoring vessel and harbor |
KR20210036886A (ko) * | 2018-10-04 | 2021-04-05 | 씨드로닉스(주) | 항만 모니터링 장치 및 항만 모니터링 방법 |
KR102566724B1 (ko) * | 2018-10-04 | 2023-08-16 | 씨드로닉스(주) | 항만 모니터링 장치 및 항만 모니터링 방법 |
KR102688958B1 (ko) | 2018-10-04 | 2024-07-29 | 씨드로닉스(주) | 항만 모니터링 장치 및 항만 모니터링 방법 |
KR20230121978A (ko) * | 2018-10-04 | 2023-08-22 | 씨드로닉스(주) | 항만 모니터링 장치 및 항만 모니터링 방법 |
WO2020139497A1 (en) * | 2018-12-27 | 2020-07-02 | Intel Corporation | System and method of location determination using multiple location inputs |
KR20200104739A (ko) * | 2019-02-27 | 2020-09-04 | 주식회사 한국건설방재연구원 | 작업자 안전 관리를 위한 작업용 철도 차량 접근 원격 알람 시스템 |
KR102265726B1 (ko) * | 2019-02-27 | 2021-06-16 | 주식회사 한국건설방재연구원 | 작업자 안전 관리를 위한 작업용 철도 차량 접근 원격 알람 시스템 |
JP7006847B2 (ja) | 2019-07-04 | 2022-01-24 | 三菱電機株式会社 | 移動体測位装置および移動体測位システム |
JPWO2021002001A1 (ja) * | 2019-07-04 | 2021-10-28 | 三菱電機株式会社 | 移動体測位装置および移動体測位システム |
WO2021002001A1 (ja) * | 2019-07-04 | 2021-01-07 | 三菱電機株式会社 | 移動体測位装置および移動体測位システム |
JP7462738B2 (ja) | 2019-10-25 | 2024-04-05 | ウェイモ エルエルシー | 車載クラスタ追跡システム |
JP2023520017A (ja) * | 2020-04-01 | 2023-05-15 | サ-コス コーポレイション | 非生物学的な可動の空中ターゲットの早期検出のためのシステムおよび方法 |
US12008807B2 (en) | 2020-04-01 | 2024-06-11 | Sarcos Corp. | System and methods for early detection of non-biological mobile aerial target |
Also Published As
Publication number | Publication date |
---|---|
WO2017041303A1 (en) | 2017-03-16 |
US20200272803A1 (en) | 2020-08-27 |
US20170083748A1 (en) | 2017-03-23 |
JP6496323B2 (ja) | 2019-04-03 |
EP3347789A1 (en) | 2018-07-18 |
CN108139757A (zh) | 2018-06-08 |
US10198634B2 (en) | 2019-02-05 |
EP3347789B1 (en) | 2021-08-04 |
US20190180077A1 (en) | 2019-06-13 |
EP3347789A4 (en) | 2018-08-29 |
US10650235B2 (en) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6496323B2 (ja) | 可動物体を検出し、追跡するシステム及び方法 | |
US11263761B2 (en) | Systems and methods for visual target tracking | |
US11879737B2 (en) | Systems and methods for auto-return | |
US20230360230A1 (en) | Methods and system for multi-traget tracking | |
US11635775B2 (en) | Systems and methods for UAV interactive instructions and control | |
US10802509B2 (en) | Selective processing of sensor data | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
US10645300B2 (en) | Methods and apparatus for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6496323 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |