JP2009008662A - センサ及びビデオ三角測量を共同使用する物体の検出 - Google Patents
センサ及びビデオ三角測量を共同使用する物体の検出 Download PDFInfo
- Publication number
- JP2009008662A JP2009008662A JP2008123481A JP2008123481A JP2009008662A JP 2009008662 A JP2009008662 A JP 2009008662A JP 2008123481 A JP2008123481 A JP 2008123481A JP 2008123481 A JP2008123481 A JP 2008123481A JP 2009008662 A JP2009008662 A JP 2009008662A
- Authority
- JP
- Japan
- Prior art keywords
- target
- platform
- sensor
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title description 5
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000003032 molecular docking Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/64—Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
- B64G1/646—Docking or rendezvous systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/64—Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
- B64G1/646—Docking or rendezvous systems
- B64G1/6462—Docking or rendezvous systems characterised by the means for engaging other vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Navigation (AREA)
- Measurement Of Optical Distance (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】標的を検出・追跡する方法及び装置が提供される。
【解決手段】1以上のプラットホームに据え付けられた少なくとも2台のカメラ(10、12、14)によって、視界(16)から画像が捉えられる。これらの画像は分析され、標的位置をフレームからフレームに追跡するのに利用できる画像で標識を確認する。画像は、少なくとも1つのセンサから標的又はプラットホームの位置に関する情報を融合して(1つにまとめて)、標的を検出・追跡する。プラットホームの位置に対する標的位置が表示されるか、あるいは標的に対するプラットホームの位置が表示される。
【選択図】図1
【解決手段】1以上のプラットホームに据え付けられた少なくとも2台のカメラ(10、12、14)によって、視界(16)から画像が捉えられる。これらの画像は分析され、標的位置をフレームからフレームに追跡するのに利用できる画像で標識を確認する。画像は、少なくとも1つのセンサから標的又はプラットホームの位置に関する情報を融合して(1つにまとめて)、標的を検出・追跡する。プラットホームの位置に対する標的位置が表示されるか、あるいは標的に対するプラットホームの位置が表示される。
【選択図】図1
Description
[0001]本発明は概ね宇宙又は地球上の物体の検出に関し、より詳細には、ランデブー(ドッキング)又は標的回避のための物体の検出及び追跡に関する。
[0002]標的物体の正確な検出及び追跡は、ランデブー(ドッキング)や衝突を防止する標的回避等の極めて重要な操作に不可欠である。スペース・シャトルのドッキング、航空機の回避、又は微光又は悪条件下での道路案内において、標的の検出及び追跡は、車輌もしくは他のプラットホーム(platform;乗物)の損害又は人命の喪失を回避する上で不可欠であろう。
[0003]従って、移動するプラットホームの位置に対する標的の位置を検出及び追跡できることが望ましい。その上、回避すべき標的に対するプラットホームの位置を検出及び追跡できることが望ましい。更に、添付の図面及び前記背景技術と併せて、以下の発明の詳細な説明及び添付の特許請求の範囲から、本発明のその他の望ましい特長及び特徴が明らかになるであろう。
[0004]標的を検出及び追跡する装置が提供される。この装置は、1以上の移動するプラットホームに据え付けられた少なくとも2台のカメラを備えている。カメラからの画像は、少なくとも1つの他のセンサから標的及び/又はプラットホームの位置に関する情報が融合される(1つにまとめられる)。融合された情報は、標的の位置を三角測量(triangulate)して、移動するプラットホームに対する標的の位置又は標的の場所(location)に対するプラットホームの位置を追跡するための処理からなる。
[0005]標的を検出及び追跡する方法が提供される。この方法は、1以上のプラットホームに据え付けられた少なくとも2台のカメラで視界の画像を捉え、画像で標識(landmarks)を確認することを含む。画像は1つにまとめられて標的を検出及び追跡する。カメラから測定された標的位置は、少なくとも1つのセンサから標的及び/又はプラットホームに関する情報と比較され、その際、プラットホームの位置に対する標的の場所が表示されるか、あるいは標的に対するプラットホームの位置が表示される。
[0006]以下に、同様の要素には同一の番号を付して、添付の図面と共に本発明を説明する。[0011]以下の発明の詳細な説明は、本来単なる例示にすぎず、本発明を限定したり本発明の適用及び使用を制限しようとするものではない。更に、前記背景技術又は以下の発明の詳細な説明に提示されたいかなる理論にも、何ら束縛されるものではない。
[0012]図1は、本発明の基本的な前提の理解に役立つ説明図である。少なくとも2台のカメラ(10,12,14)が、移動するプラットホーム(図示せず)に据え付けられている。プラットホームは、スペース・シャトル、航空機、陸上車輌、又は水上もしくは水中船舶のいずれであってもよい。複数のカメラは、異なった角度で画像が捉えられるように、視界(FOV)16に対して異なった方向に設置される。このようにして、視界16の画像が撮られると、カメラ1(10)が画像18を捉え、カメラ2(12)が画像20を捉え、カメラK(14)が画像22を捉える。各カメラは、統合されるかあるいは慣性センサ24が外部に補充されている。慣性センサ24は、全地球測位センサ(GPS)、ジャイロ・システムであってもよく、あるいは、テンプレート又は検出・追跡される物体のデータベースを含む合成視覚システム(SVS)からの情報であってもよい。しかし、典型的な本実施の形態では、GPS又はSVS特異(慣性)センサの型式のものが用いられるが、当然のことながら、本発明は絶対及び相対位置や姿勢情報を提供するセンサ型式のものに使用が限定されるものではなく、加速、速度、姿勢及び航空情報を提供するセンサを本発明において使用することもできる。
[0013]カメラと共同作業を行う慣性センサは、システムの初期較正に、また、カメラで捉えられた画像から取り出される情報によりカメラ位置についての情報を融合する(1つにまとめる)するために、使用される。その最も基本的なレベルでは、本発明により用いられる融合技術は標的位置の二重チェックを含むが、それはさておき、融合作業は、標的に関する慣性情報が先験的に知られているとき、いかに正確に標的を検出したか又は追跡しているかに関する信頼又は性能指数を提供する。
[0014]慣性センサに異常が発生した場合、あるいはGPS信号が一時的に失われた(一般に、当業者は“GPSの喪失”という)場合、情報の履歴にカルマン(Kalman)フィルタが利用可能であるならば、次のプラットホーム位置を画像に予測するために、カルマン・フィルタ26を利用することができる。当業者であれば周知であるが、以前の数値履歴が分かっているならば、カルマン・フィルタは将来の数値を予測する(本発明の場合、プラットホームの次の位置)技術的手法である。
[0015]本発明の好ましい一実施の形態によれば、本システムは、移動するプラットホームの位置に対する標的の位置を知ることが絶対不可欠なランデブー(ドッキング)操作に有用である。本発明の別の好ましい実施の形態においては、回避すべき標的の位置に対する移動するプラットホームの位置を知ることが絶対不可欠である。本発明により両方の解決策が提供される。
[0016]図2は、移動するプラットホーム(この例では、スペース・シャトル)上のカメラ10の透視平面方位を示す。スペース・シャトルの平面(シャトル面30)空間の方位を測定するために、カメラ10(カメラ面32)及びその他のカメラで別々の画像が三角測量される。視界34の視覚三角測量は、本発明によれば次の透視平面の手法により解決される。
[0017]映像平面ベクトルxc36を(カメラによって)観測された標的座標x038(シャトル平面の法線)の関数として作図すると、
xc= Rβ Tα Rθ xo を生じる。ここで、βは傾斜角であり、θはx軸の傾斜ベクトルであり、αは仰角(時には、スラント角という)である。カメラの透視位置が慣性センサの初期較正により既知であるならば、得られる共通の座標に各カメラの観測ベクトルを位置付けると、xc1 = λ1RβTαRθxo1 である。ここで、λは、プラットホームからの標的の変位又は変動を説明する画像により標識(即ち、要点)のスケーリング・パラメータを定義する。同様に、xc2及びxc3を算出することができる。
xc= Rβ Tα Rθ xo を生じる。ここで、βは傾斜角であり、θはx軸の傾斜ベクトルであり、αは仰角(時には、スラント角という)である。カメラの透視位置が慣性センサの初期較正により既知であるならば、得られる共通の座標に各カメラの観測ベクトルを位置付けると、xc1 = λ1RβTαRθxo1 である。ここで、λは、プラットホームからの標的の変位又は変動を説明する画像により標識(即ち、要点)のスケーリング・パラメータを定義する。同様に、xc2及びxc3を算出することができる。
[0024] これらの式については、標的の移動の追跡、更に表示・更新されたならば、移動するプラットホーム位置に対する標的の移動(ドッキング)又は標的に対するプラットホームの位置(回避)の追跡を支援するために、カルマン・フィルタの手法により、ある更新された(将来の)時間における標的の更新された(将来の)場所を予測することができる。
[0025]ところで図3を参照すると、本発明のシステムのブロック図が示されている。カルマン・フィルタの前記式を解いたならば、カルマン・フィルタ60が標的予測情報を提供して、カメラ10,12,14からの情景収集画像を処理することができる。物体構造の存在に基づいて透視方向を求める前記式が定式化される。この情報は尺度不変特性技術(SIFT:scale invariant features technology)40,42,44により処理される。この技術は、標的場所の追跡をフレームからフレームに用いることができる、画像内の標識(すなわち地物)に対して画素レベルでカメラ画像を検索するものである。リコールは、カメラが統合されるかあるいは慣性センサ(例えば、GPS,ジャイロ又はSVS)及び上記情報と共同して作動しており、標的を検出・追跡するためにビデオ三角測量処理46を行いながら、融合される(1つにまとめられる)。その際、移動するプラットホームの場所に対する標的の位置(ドッキング)が更新(表示)48されるか、あるいは、標的に対する移動するプラットホームの場所(回避)を示すために更新が表示される。
[0026]各反復で、プラットホーム位置を所与として、即ち、各カメラでの慣性の読出しが基準座標の定義に用いられるならば、その情景における生の地物によりあるいはビデオ三角測量46に送る物理的構造のない構造光(structured lighting)により、標的構造の確認にSIFTブロック40,42,44が用いられる。透視方向により、移動するプラットホームに対して標的位置が更新される。標的の相対位置がカルマン・フィルタ60により予測される;また、移動するプラットホーム位置が、複数の慣性センサ64から直接入力により更新62される;センサ拒絶(例えば、GPS拒絶)の場合、予測されるプラットホームの動きが別のカルマン・フィルタ26により得られ、次の予測されるプラットホーム位置を見積る。更新されたプラットホーム位置及び各カメラに対する新たな慣性の読出しが分かると、障害物を回避するために標的位置を見積る前記処理を繰り返す(ループする)。
[0027]ドッキングの適用には、標的位置の見積りを開始する逆の処理が利用される。標的位置は、データベースから読み出されるか、あるいはカルマン・フィルタ三角測量法により見積ることができる。ビデオ三角測量法46は、前述のように、カメラ10,12,14で捉えられた画像を処理するSIFTブロック40,42,44の透視方向を再構成することができる。その際、プラットホーム位置を見積ることができ、慣性センサが利用可能である場合には、予め次の見積り位置が更新される。センサを利用できない場合は、カルマン・フィルタ26がカルマン・フィルタ三角測量60に予測情報を提供して、予め標的位置の見積りを予測することができる。新たな(上記繰返しのための)標的位置の見積りにより、標的に対する次のプラットホーム位置を見積る処理を繰り返す。慣性感知が拒絶されるか又は利用できるかどうか、また、標的が構造化された地物を有するか否かを問わず、全ての場合に、標的(回避)又はプラットホーム(ドッキング)の見積を行うアプリケーションで反復(ルーピニグ)が利用される。
[0028]当業者ならば分かるであろうが、視覚ベースの標的の収集及び本発明によって提供されるような追跡システムは、カメラが視界を“見る”(目に見えるようにする)ことが可能であることを必要とする。微(又は無)光条件下では、何某かの追加の映像の補助が必要である。従って、本発明では、視界を(連続的に又は画像捕捉時期と同期して)照らす構造光の使用が検討される。構造光については、照明光源によって各カメラの視界に模様が投影されて、干渉帯を作り出す(モアレ(moire)効果)。干渉縞は、反射面までの距離を変化させることによってもたらさる2つの模様間の相対的な動きに高感度である。モアレ現象は、飛行進路の標的(又は追跡するのが望ましい限られた構造を有する標的の表面)の検出に非常に有効である。
[0029]ところで図4Aを参照すると、本発明の構造光の説明図が示されている。照明光源(図示せず)が光模様50を視界52に投影する。カメラは、図4Bに示す干渉縞54を検出することにより、画像を直ちに効果的に捉えることができる。
[0030]以上の発明の詳細な説明に少なくとも1つの典型的な実施の形態を提示してきたが、当然のことながら膨大な数の変更が存在する。同様に当然のことながら、1つ又は複数の典型的な実施の形態は、単なる例にすぎず、本発明の範囲、適用可能性又は構成を決して限定しようとするものではない。むしろ、以上の詳細な説明は、本発明の典型的な実施の形態を実施する簡便な道筋を当業者に提供するであろう。典型的な実施の形態に記載された要素の機能及び配置について、添付の特許請求の範囲に示された本発明の範囲から逸脱することなく、種々の変化がなされ得ることが理解されるであろう。
Claims (3)
- 1以上のプラットホームに据え付けられた少なくとも2台のカメラ(10,12,14)で、視界(16)の画像を捉える工程と、
画像内の標識を確認する工程(40,42,44)と、
画像を1つにまとめて標的を検出する工程(46)と、
少なくとも1つのセンサから標的に関する情報を比較する工程と、
プラットホームの位置に対する標的の場所を表示する工程(48)と、を含む、標的を検出及び追跡する方法。 - 視界の次の画像を捉える前に、標的の次の位置を予測する工程(60)を含む、請求項1に記載の方法。
- 画像(50)を捉える前に、構造光の供給源で視界を照らす工程を含む、請求項1に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/746,134 US8260036B2 (en) | 2007-05-09 | 2007-05-09 | Object detection using cooperative sensors and video triangulation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009008662A true JP2009008662A (ja) | 2009-01-15 |
JP2009008662A5 JP2009008662A5 (ja) | 2011-06-02 |
Family
ID=39682578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008123481A Withdrawn JP2009008662A (ja) | 2007-05-09 | 2008-05-09 | センサ及びビデオ三角測量を共同使用する物体の検出 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8260036B2 (ja) |
EP (1) | EP1990772A3 (ja) |
JP (1) | JP2009008662A (ja) |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2333583A1 (en) * | 2006-03-06 | 2011-06-15 | Qualcomm Incorporated | Method for position determination with measurement stitching |
US8121361B2 (en) | 2006-05-19 | 2012-02-21 | The Queen's Medical Center | Motion tracking system for real time adaptive imaging and spectroscopy |
US8260036B2 (en) * | 2007-05-09 | 2012-09-04 | Honeywell International Inc. | Object detection using cooperative sensors and video triangulation |
US9766074B2 (en) | 2008-03-28 | 2017-09-19 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
EP2159779B1 (en) * | 2008-08-27 | 2013-01-16 | Saab Ab | Using image sensor and tracking filter time-to-go to avoid mid-air collisions |
WO2010088290A1 (en) * | 2009-01-27 | 2010-08-05 | Arthur Thomas D | Tight optical intergation (toi) of images with gps range measurements |
US9074897B2 (en) * | 2009-06-15 | 2015-07-07 | Qualcomm Incorporated | Real-time data with post-processing |
US8280112B2 (en) | 2010-03-31 | 2012-10-02 | Disney Enterprises, Inc. | System and method for predicting object location |
US8704707B2 (en) | 2010-06-02 | 2014-04-22 | Qualcomm Incorporated | Position determination using measurements from past and present epochs |
JP2012034196A (ja) * | 2010-07-30 | 2012-02-16 | Olympus Corp | 撮像端末、データ処理端末、撮像方法、及びデータ処理方法 |
JP5742450B2 (ja) * | 2011-05-10 | 2015-07-01 | セイコーエプソン株式会社 | 位置算出方法及び位置算出装置 |
CN103154666B (zh) * | 2011-06-14 | 2015-03-18 | 日产自动车株式会社 | 距离测量装置以及环境地图生成装置 |
WO2013032933A2 (en) | 2011-08-26 | 2013-03-07 | Kinecticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US20140253737A1 (en) * | 2011-09-07 | 2014-09-11 | Yitzchak Kempinski | System and method of tracking an object in an image captured by a moving device |
US8744763B2 (en) | 2011-11-17 | 2014-06-03 | Honeywell International Inc. | Using structured light to update inertial navigation systems |
JP5269972B2 (ja) * | 2011-11-29 | 2013-08-21 | 株式会社東芝 | 電子機器及び三次元モデル生成支援方法 |
US9117262B2 (en) * | 2012-11-30 | 2015-08-25 | Adobe Systems Incorporated | Learned piece-wise patch regression for image enhancement |
US9845636B2 (en) * | 2013-01-07 | 2017-12-19 | WexEnergy LLC | Frameless supplemental window for fenestration |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
US10254118B2 (en) | 2013-02-21 | 2019-04-09 | Regents Of The University Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
US9607401B2 (en) | 2013-05-08 | 2017-03-28 | Regents Of The University Of Minnesota | Constrained key frame localization and mapping for vision-aided inertial navigation |
CN103267517B (zh) * | 2013-05-24 | 2015-02-11 | 北京控制工程研究所 | 一种基于电视摄像机和靶标的人控交会对接测量方法 |
US10247556B2 (en) * | 2013-07-23 | 2019-04-02 | The Regents Of The University Of California | Method for processing feature measurements in vision-aided inertial navigation |
US9677840B2 (en) | 2014-03-14 | 2017-06-13 | Lineweight Llc | Augmented reality simulator |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
US9574320B2 (en) * | 2014-03-26 | 2017-02-21 | Trimble Navigation Limited | Blended position solutions |
US9309631B2 (en) | 2014-03-26 | 2016-04-12 | Caterpillar Trimble Control Technologies Llc | Enhanced control of road construction equipment |
CN103955224B (zh) * | 2014-04-22 | 2017-01-18 | 北京控制工程研究所 | 一种用于相对运动视线跟踪的姿态控制方法 |
US10012504B2 (en) | 2014-06-19 | 2018-07-03 | Regents Of The University Of Minnesota | Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps |
US9658070B2 (en) | 2014-07-11 | 2017-05-23 | Regents Of The University Of Minnesota | Inverse sliding-window filters for vision-aided inertial navigation systems |
CN106714681A (zh) | 2014-07-23 | 2017-05-24 | 凯内蒂科尔股份有限公司 | 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法 |
US9534915B2 (en) * | 2014-09-29 | 2017-01-03 | International Business Machines Corporation | Dynamic attraction inference in route recommendations |
JP2016082462A (ja) * | 2014-10-20 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
WO2016073642A1 (en) * | 2014-11-04 | 2016-05-12 | The Regents Of The University Of California | Visual-inertial sensor fusion for navigation, localization, mapping, and 3d reconstruction |
GB2551667A (en) * | 2015-03-27 | 2017-12-27 | Google Inc | Cluster based photo navigation |
US9709404B2 (en) | 2015-04-17 | 2017-07-18 | Regents Of The University Of Minnesota | Iterative Kalman Smoother for robust 3D localization for vision-aided inertial navigation |
CN105091746B (zh) * | 2015-05-19 | 2017-10-13 | 北京星航机电装备有限公司 | 应用于航天器舱段地面对接的空间坐标系标定方法 |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
EP3358550A4 (en) * | 2015-09-30 | 2019-06-12 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US11313684B2 (en) * | 2016-03-28 | 2022-04-26 | Sri International | Collaborative navigation and mapping |
US10203209B2 (en) | 2016-05-25 | 2019-02-12 | Regents Of The University Of Minnesota | Resource-aware large-scale cooperative 3D mapping using multiple mobile devices |
US11466990B2 (en) | 2016-07-22 | 2022-10-11 | Regents Of The University Of Minnesota | Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system |
KR102541560B1 (ko) | 2017-09-14 | 2023-06-08 | 삼성전자주식회사 | 객체 인식 방법 및 장치 |
US10907971B2 (en) | 2017-12-08 | 2021-02-02 | Regents Of The University Of Minnesota | Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping |
US11940277B2 (en) | 2018-05-29 | 2024-03-26 | Regents Of The University Of Minnesota | Vision-aided inertial navigation system for ground vehicle localization |
CN111291585B (zh) * | 2018-12-06 | 2023-12-08 | 杭州海康威视数字技术股份有限公司 | 一种基于gps的目标跟踪系统、方法、装置及球机 |
US10916062B1 (en) | 2019-07-15 | 2021-02-09 | Google Llc | 6-DoF tracking using visual cues |
CN112835021B (zh) * | 2020-12-31 | 2023-11-14 | 杭州海康威视数字技术股份有限公司 | 定位方法、装置、系统及计算机可读存储介质 |
CN113624226A (zh) * | 2021-04-28 | 2021-11-09 | 上海有个机器人有限公司 | 一种平面运动约束方法、电子设备及存储介质 |
US11743428B2 (en) * | 2022-01-19 | 2023-08-29 | Ebay Inc. | Detailed videoconference viewpoint generation |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061068A (en) * | 1998-06-30 | 2000-05-09 | Raytheon Company | Method and apparatus for providing synthetic vision using reality updated virtual image |
US6157876A (en) * | 1999-10-12 | 2000-12-05 | Honeywell International Inc. | Method and apparatus for navigating an aircraft from an image of the runway |
US7219032B2 (en) * | 2002-04-20 | 2007-05-15 | John Louis Spiesberger | Estimation algorithms and location techniques |
US7280696B2 (en) * | 2002-05-20 | 2007-10-09 | Simmonds Precision Products, Inc. | Video detection/verification system |
US20060244830A1 (en) * | 2002-06-04 | 2006-11-02 | Davenport David M | System and method of navigation with captured images |
US6873251B2 (en) * | 2002-07-16 | 2005-03-29 | Delphi Technologies, Inc. | Tracking system and method employing multiple overlapping sensors |
WO2005033629A2 (en) * | 2003-09-19 | 2005-04-14 | University Of Miami | Multi-camera inspection of underwater structures |
JP2008506167A (ja) * | 2004-06-25 | 2008-02-28 | デジタルグローブ インコーポレイテッド | 画像に関連するロケーションを確定する方法および装置 |
US20060072014A1 (en) * | 2004-08-02 | 2006-04-06 | Geng Z J | Smart optical sensor (SOS) hardware and software platform |
US7920959B1 (en) * | 2005-05-01 | 2011-04-05 | Christopher Reed Williams | Method and apparatus for estimating the velocity vector of multiple vehicles on non-level and curved roads using a single camera |
US7395156B2 (en) * | 2005-06-23 | 2008-07-01 | Raytheon Company | System and method for geo-registration with global positioning and inertial navigation |
US7460951B2 (en) * | 2005-09-26 | 2008-12-02 | Gm Global Technology Operations, Inc. | System and method of target tracking using sensor fusion |
US7706963B2 (en) * | 2005-10-28 | 2010-04-27 | Gm Global Technology Operations, Inc. | System for and method of updating traffic data using probe vehicles having exterior sensors |
EP2442131A1 (en) * | 2006-04-10 | 2012-04-18 | Elta Systems Ltd. | Distributed jammer system |
US8260036B2 (en) * | 2007-05-09 | 2012-09-04 | Honeywell International Inc. | Object detection using cooperative sensors and video triangulation |
US8180107B2 (en) * | 2009-02-13 | 2012-05-15 | Sri International | Active coordinated tracking for multi-camera systems |
-
2007
- 2007-05-09 US US11/746,134 patent/US8260036B2/en not_active Expired - Fee Related
-
2008
- 2008-05-08 EP EP08155924A patent/EP1990772A3/en not_active Withdrawn
- 2008-05-09 JP JP2008123481A patent/JP2009008662A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP1990772A2 (en) | 2008-11-12 |
US8260036B2 (en) | 2012-09-04 |
EP1990772A3 (en) | 2009-07-22 |
US20080279421A1 (en) | 2008-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009008662A (ja) | センサ及びビデオ三角測量を共同使用する物体の検出 | |
Yoon et al. | Structural displacement measurement using an unmanned aerial system | |
US11132810B2 (en) | Three-dimensional measurement apparatus | |
US9275458B2 (en) | Apparatus and method for providing vehicle camera calibration | |
US20200124421A1 (en) | Method and apparatus for estimating position | |
US8340349B2 (en) | Moving target detection in the presence of parallax | |
JP5832341B2 (ja) | 動画処理装置、動画処理方法および動画処理用のプログラム | |
US20080195316A1 (en) | System and method for motion estimation using vision sensors | |
US10930013B2 (en) | Method and system for calibrating imaging system | |
US20180075614A1 (en) | Method of Depth Estimation Using a Camera and Inertial Sensor | |
JP6460700B2 (ja) | トンネルの内壁の欠陥の有無の診断を行う方法およびトンネルの内壁の欠陥の有無の診断を行うプログラム | |
JP2019074532A (ja) | Slamデータに実寸法を付与する方法とそれを用いた位置測定 | |
US20180075609A1 (en) | Method of Estimating Relative Motion Using a Visual-Inertial Sensor | |
CN111707668B (zh) | 基于序列图像的隧道检测及图像处理方法 | |
JP6291519B2 (ja) | 三次元点群データに実寸法を付与する方法とそれを用いた管路等の位置測定 | |
EP3155369B1 (en) | System and method for measuring a displacement of a mobile platform | |
JP2022042146A (ja) | データ処理装置、データ処理方法およびデータ処理用プログラム | |
JP6479296B2 (ja) | 位置姿勢推定装置および位置姿勢推定方法 | |
US20190362512A1 (en) | Method and Apparatus for Estimating a Range of a Moving Object | |
US20090226094A1 (en) | Image correcting device and method, and computer program | |
KR102288609B1 (ko) | 다중 모듈 기반의 그래프 구조를 이용한 무인체 위치 추정 시스템 및 그 방법 | |
JP5652239B2 (ja) | 運動推定装置及びプログラム | |
KR102050995B1 (ko) | 공간좌표의 신뢰성 평가 장치 및 방법 | |
Shami et al. | Geo-locating Road Objects using Inverse Haversine Formula with NVIDIA Driveworks | |
KR100586815B1 (ko) | 3차원 위치 추적 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110419 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110419 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20120626 |