JP2009008662A - センサ及びビデオ三角測量を共同使用する物体の検出 - Google Patents

センサ及びビデオ三角測量を共同使用する物体の検出 Download PDF

Info

Publication number
JP2009008662A
JP2009008662A JP2008123481A JP2008123481A JP2009008662A JP 2009008662 A JP2009008662 A JP 2009008662A JP 2008123481 A JP2008123481 A JP 2008123481A JP 2008123481 A JP2008123481 A JP 2008123481A JP 2009008662 A JP2009008662 A JP 2009008662A
Authority
JP
Japan
Prior art keywords
target
platform
sensor
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008123481A
Other languages
English (en)
Other versions
JP2009008662A5 (ja
Inventor
Rida M Hamza
リタ・エム・ハンザ
Robert A Blaser
ロバート・エイ・ブレイザー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2009008662A publication Critical patent/JP2009008662A/ja
Publication of JP2009008662A5 publication Critical patent/JP2009008662A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/64Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
    • B64G1/646Docking or rendezvous systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/64Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
    • B64G1/646Docking or rendezvous systems
    • B64G1/6462Docking or rendezvous systems characterised by the means for engaging other vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Navigation (AREA)
  • Measurement Of Optical Distance (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】標的を検出・追跡する方法及び装置が提供される。
【解決手段】1以上のプラットホームに据え付けられた少なくとも2台のカメラ(10、12、14)によって、視界(16)から画像が捉えられる。これらの画像は分析され、標的位置をフレームからフレームに追跡するのに利用できる画像で標識を確認する。画像は、少なくとも1つのセンサから標的又はプラットホームの位置に関する情報を融合して(1つにまとめて)、標的を検出・追跡する。プラットホームの位置に対する標的位置が表示されるか、あるいは標的に対するプラットホームの位置が表示される。
【選択図】図1

Description

[0001]本発明は概ね宇宙又は地球上の物体の検出に関し、より詳細には、ランデブー(ドッキング)又は標的回避のための物体の検出及び追跡に関する。
[0002]標的物体の正確な検出及び追跡は、ランデブー(ドッキング)や衝突を防止する標的回避等の極めて重要な操作に不可欠である。スペース・シャトルのドッキング、航空機の回避、又は微光又は悪条件下での道路案内において、標的の検出及び追跡は、車輌もしくは他のプラットホーム(platform;乗物)の損害又は人命の喪失を回避する上で不可欠であろう。
[0003]従って、移動するプラットホームの位置に対する標的の位置を検出及び追跡できることが望ましい。その上、回避すべき標的に対するプラットホームの位置を検出及び追跡できることが望ましい。更に、添付の図面及び前記背景技術と併せて、以下の発明の詳細な説明及び添付の特許請求の範囲から、本発明のその他の望ましい特長及び特徴が明らかになるであろう。
[0004]標的を検出及び追跡する装置が提供される。この装置は、1以上の移動するプラットホームに据え付けられた少なくとも2台のカメラを備えている。カメラからの画像は、少なくとも1つの他のセンサから標的及び/又はプラットホームの位置に関する情報が融合される(1つにまとめられる)。融合された情報は、標的の位置を三角測量(triangulate)して、移動するプラットホームに対する標的の位置又は標的の場所(location)に対するプラットホームの位置を追跡するための処理からなる。
[0005]標的を検出及び追跡する方法が提供される。この方法は、1以上のプラットホームに据え付けられた少なくとも2台のカメラで視界の画像を捉え、画像で標識(landmarks)を確認することを含む。画像は1つにまとめられて標的を検出及び追跡する。カメラから測定された標的位置は、少なくとも1つのセンサから標的及び/又はプラットホームに関する情報と比較され、その際、プラットホームの位置に対する標的の場所が表示されるか、あるいは標的に対するプラットホームの位置が表示される。
[0006]以下に、同様の要素には同一の番号を付して、添付の図面と共に本発明を説明する。[0011]以下の発明の詳細な説明は、本来単なる例示にすぎず、本発明を限定したり本発明の適用及び使用を制限しようとするものではない。更に、前記背景技術又は以下の発明の詳細な説明に提示されたいかなる理論にも、何ら束縛されるものではない。
[0012]図1は、本発明の基本的な前提の理解に役立つ説明図である。少なくとも2台のカメラ(10,12,14)が、移動するプラットホーム(図示せず)に据え付けられている。プラットホームは、スペース・シャトル、航空機、陸上車輌、又は水上もしくは水中船舶のいずれであってもよい。複数のカメラは、異なった角度で画像が捉えられるように、視界(FOV)16に対して異なった方向に設置される。このようにして、視界16の画像が撮られると、カメラ1(10)が画像18を捉え、カメラ2(12)が画像20を捉え、カメラK(14)が画像22を捉える。各カメラは、統合されるかあるいは慣性センサ24が外部に補充されている。慣性センサ24は、全地球測位センサ(GPS)、ジャイロ・システムであってもよく、あるいは、テンプレート又は検出・追跡される物体のデータベースを含む合成視覚システム(SVS)からの情報であってもよい。しかし、典型的な本実施の形態では、GPS又はSVS特異(慣性)センサの型式のものが用いられるが、当然のことながら、本発明は絶対及び相対位置や姿勢情報を提供するセンサ型式のものに使用が限定されるものではなく、加速、速度、姿勢及び航空情報を提供するセンサを本発明において使用することもできる。
[0013]カメラと共同作業を行う慣性センサは、システムの初期較正に、また、カメラで捉えられた画像から取り出される情報によりカメラ位置についての情報を融合する(1つにまとめる)するために、使用される。その最も基本的なレベルでは、本発明により用いられる融合技術は標的位置の二重チェックを含むが、それはさておき、融合作業は、標的に関する慣性情報が先験的に知られているとき、いかに正確に標的を検出したか又は追跡しているかに関する信頼又は性能指数を提供する。
[0014]慣性センサに異常が発生した場合、あるいはGPS信号が一時的に失われた(一般に、当業者は“GPSの喪失”という)場合、情報の履歴にカルマン(Kalman)フィルタが利用可能であるならば、次のプラットホーム位置を画像に予測するために、カルマン・フィルタ26を利用することができる。当業者であれば周知であるが、以前の数値履歴が分かっているならば、カルマン・フィルタは将来の数値を予測する(本発明の場合、プラットホームの次の位置)技術的手法である。
[0015]本発明の好ましい一実施の形態によれば、本システムは、移動するプラットホームの位置に対する標的の位置を知ることが絶対不可欠なランデブー(ドッキング)操作に有用である。本発明の別の好ましい実施の形態においては、回避すべき標的の位置に対する移動するプラットホームの位置を知ることが絶対不可欠である。本発明により両方の解決策が提供される。
[0016]図2は、移動するプラットホーム(この例では、スペース・シャトル)上のカメラ10の透視平面方位を示す。スペース・シャトルの平面(シャトル面30)空間の方位を測定するために、カメラ10(カメラ面32)及びその他のカメラで別々の画像が三角測量される。視界34の視覚三角測量は、本発明によれば次の透視平面の手法により解決される。
[0017]映像平面ベクトルx36を(カメラによって)観測された標的座標x38(シャトル平面の法線)の関数として作図すると、
= Rβαθ を生じる。ここで、βは傾斜角であり、θはx軸の傾斜ベクトルであり、αは仰角(時には、スラント角という)である。カメラの透視位置が慣性センサの初期較正により既知であるならば、得られる共通の座標に各カメラの観測ベクトルを位置付けると、xc1 = λβαθo1 である。ここで、λは、プラットホームからの標的の変位又は変動を説明する画像により標識(即ち、要点)のスケーリング・パラメータを定義する。同様に、xc2及びxc3を算出することができる。
[0019]傾斜角の方位マトリックスの双方がそれぞれ次のように定義され得る。
Figure 2009008662
[0020]遷移マトリックスを下記式で定式化することができる。
Figure 2009008662
[0021]次の式を解くため、式xc1,xc2及びxc3を離散カルマン・フィルタ・フレームワークに再定式化することができる。
Figure 2009008662
モデルの線形化後に、H(k)=(δh)/(δx)及びF(k)=(δf)/(δx)と定義すると、標的測定の更新の問いとして、次の式が得られる。
Figure 2009008662
時間更新式として、次の式が得られる。
Figure 2009008662
[0024] これらの式については、標的の移動の追跡、更に表示・更新されたならば、移動するプラットホーム位置に対する標的の移動(ドッキング)又は標的に対するプラットホームの位置(回避)の追跡を支援するために、カルマン・フィルタの手法により、ある更新された(将来の)時間における標的の更新された(将来の)場所を予測することができる。
[0025]ところで図3を参照すると、本発明のシステムのブロック図が示されている。カルマン・フィルタの前記式を解いたならば、カルマン・フィルタ60が標的予測情報を提供して、カメラ10,12,14からの情景収集画像を処理することができる。物体構造の存在に基づいて透視方向を求める前記式が定式化される。この情報は尺度不変特性技術(SIFT:scale invariant features technology)40,42,44により処理される。この技術は、標的場所の追跡をフレームからフレームに用いることができる、画像内の標識(すなわち地物)に対して画素レベルでカメラ画像を検索するものである。リコールは、カメラが統合されるかあるいは慣性センサ(例えば、GPS,ジャイロ又はSVS)及び上記情報と共同して作動しており、標的を検出・追跡するためにビデオ三角測量処理46を行いながら、融合される(1つにまとめられる)。その際、移動するプラットホームの場所に対する標的の位置(ドッキング)が更新(表示)48されるか、あるいは、標的に対する移動するプラットホームの場所(回避)を示すために更新が表示される。
[0026]各反復で、プラットホーム位置を所与として、即ち、各カメラでの慣性の読出しが基準座標の定義に用いられるならば、その情景における生の地物によりあるいはビデオ三角測量46に送る物理的構造のない構造光(structured lighting)により、標的構造の確認にSIFTブロック40,42,44が用いられる。透視方向により、移動するプラットホームに対して標的位置が更新される。標的の相対位置がカルマン・フィルタ60により予測される;また、移動するプラットホーム位置が、複数の慣性センサ64から直接入力により更新62される;センサ拒絶(例えば、GPS拒絶)の場合、予測されるプラットホームの動きが別のカルマン・フィルタ26により得られ、次の予測されるプラットホーム位置を見積る。更新されたプラットホーム位置及び各カメラに対する新たな慣性の読出しが分かると、障害物を回避するために標的位置を見積る前記処理を繰り返す(ループする)。
[0027]ドッキングの適用には、標的位置の見積りを開始する逆の処理が利用される。標的位置は、データベースから読み出されるか、あるいはカルマン・フィルタ三角測量法により見積ることができる。ビデオ三角測量法46は、前述のように、カメラ10,12,14で捉えられた画像を処理するSIFTブロック40,42,44の透視方向を再構成することができる。その際、プラットホーム位置を見積ることができ、慣性センサが利用可能である場合には、予め次の見積り位置が更新される。センサを利用できない場合は、カルマン・フィルタ26がカルマン・フィルタ三角測量60に予測情報を提供して、予め標的位置の見積りを予測することができる。新たな(上記繰返しのための)標的位置の見積りにより、標的に対する次のプラットホーム位置を見積る処理を繰り返す。慣性感知が拒絶されるか又は利用できるかどうか、また、標的が構造化された地物を有するか否かを問わず、全ての場合に、標的(回避)又はプラットホーム(ドッキング)の見積を行うアプリケーションで反復(ルーピニグ)が利用される。
[0028]当業者ならば分かるであろうが、視覚ベースの標的の収集及び本発明によって提供されるような追跡システムは、カメラが視界を“見る”(目に見えるようにする)ことが可能であることを必要とする。微(又は無)光条件下では、何某かの追加の映像の補助が必要である。従って、本発明では、視界を(連続的に又は画像捕捉時期と同期して)照らす構造光の使用が検討される。構造光については、照明光源によって各カメラの視界に模様が投影されて、干渉帯を作り出す(モアレ(moire)効果)。干渉縞は、反射面までの距離を変化させることによってもたらさる2つの模様間の相対的な動きに高感度である。モアレ現象は、飛行進路の標的(又は追跡するのが望ましい限られた構造を有する標的の表面)の検出に非常に有効である。
[0029]ところで図4Aを参照すると、本発明の構造光の説明図が示されている。照明光源(図示せず)が光模様50を視界52に投影する。カメラは、図4Bに示す干渉縞54を検出することにより、画像を直ちに効果的に捉えることができる。
[0030]以上の発明の詳細な説明に少なくとも1つの典型的な実施の形態を提示してきたが、当然のことながら膨大な数の変更が存在する。同様に当然のことながら、1つ又は複数の典型的な実施の形態は、単なる例にすぎず、本発明の範囲、適用可能性又は構成を決して限定しようとするものではない。むしろ、以上の詳細な説明は、本発明の典型的な実施の形態を実施する簡便な道筋を当業者に提供するであろう。典型的な実施の形態に記載された要素の機能及び配置について、添付の特許請求の範囲に示された本発明の範囲から逸脱することなく、種々の変化がなされ得ることが理解されるであろう。
本発明の一実施の形態におけるビデオ三角測量の説明図である。 本発明の透視平面方向を示す図1のカメラのうちの1つの説明図である。 本発明の一実施の形態におけるブロック図である。 本発明の一実施の形態における構造光の説明図である。

Claims (3)

  1. 1以上のプラットホームに据え付けられた少なくとも2台のカメラ(10,12,14)で、視界(16)の画像を捉える工程と、
    画像内の標識を確認する工程(40,42,44)と、
    画像を1つにまとめて標的を検出する工程(46)と、
    少なくとも1つのセンサから標的に関する情報を比較する工程と、
    プラットホームの位置に対する標的の場所を表示する工程(48)と、を含む、標的を検出及び追跡する方法。
  2. 視界の次の画像を捉える前に、標的の次の位置を予測する工程(60)を含む、請求項1に記載の方法。
  3. 画像(50)を捉える前に、構造光の供給源で視界を照らす工程を含む、請求項1に記載の方法。
JP2008123481A 2007-05-09 2008-05-09 センサ及びビデオ三角測量を共同使用する物体の検出 Withdrawn JP2009008662A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/746,134 US8260036B2 (en) 2007-05-09 2007-05-09 Object detection using cooperative sensors and video triangulation

Publications (2)

Publication Number Publication Date
JP2009008662A true JP2009008662A (ja) 2009-01-15
JP2009008662A5 JP2009008662A5 (ja) 2011-06-02

Family

ID=39682578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008123481A Withdrawn JP2009008662A (ja) 2007-05-09 2008-05-09 センサ及びビデオ三角測量を共同使用する物体の検出

Country Status (3)

Country Link
US (1) US8260036B2 (ja)
EP (1) EP1990772A3 (ja)
JP (1) JP2009008662A (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2333583A1 (en) * 2006-03-06 2011-06-15 Qualcomm Incorporated Method for position determination with measurement stitching
US8121361B2 (en) 2006-05-19 2012-02-21 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
US8260036B2 (en) * 2007-05-09 2012-09-04 Honeywell International Inc. Object detection using cooperative sensors and video triangulation
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
EP2159779B1 (en) * 2008-08-27 2013-01-16 Saab Ab Using image sensor and tracking filter time-to-go to avoid mid-air collisions
WO2010088290A1 (en) * 2009-01-27 2010-08-05 Arthur Thomas D Tight optical intergation (toi) of images with gps range measurements
US9074897B2 (en) * 2009-06-15 2015-07-07 Qualcomm Incorporated Real-time data with post-processing
US8280112B2 (en) 2010-03-31 2012-10-02 Disney Enterprises, Inc. System and method for predicting object location
US8704707B2 (en) 2010-06-02 2014-04-22 Qualcomm Incorporated Position determination using measurements from past and present epochs
JP2012034196A (ja) * 2010-07-30 2012-02-16 Olympus Corp 撮像端末、データ処理端末、撮像方法、及びデータ処理方法
JP5742450B2 (ja) * 2011-05-10 2015-07-01 セイコーエプソン株式会社 位置算出方法及び位置算出装置
CN103154666B (zh) * 2011-06-14 2015-03-18 日产自动车株式会社 距离测量装置以及环境地图生成装置
WO2013032933A2 (en) 2011-08-26 2013-03-07 Kinecticor, Inc. Methods, systems, and devices for intra-scan motion correction
US20140253737A1 (en) * 2011-09-07 2014-09-11 Yitzchak Kempinski System and method of tracking an object in an image captured by a moving device
US8744763B2 (en) 2011-11-17 2014-06-03 Honeywell International Inc. Using structured light to update inertial navigation systems
JP5269972B2 (ja) * 2011-11-29 2013-08-21 株式会社東芝 電子機器及び三次元モデル生成支援方法
US9117262B2 (en) * 2012-11-30 2015-08-25 Adobe Systems Incorporated Learned piece-wise patch regression for image enhancement
US9845636B2 (en) * 2013-01-07 2017-12-19 WexEnergy LLC Frameless supplemental window for fenestration
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US10254118B2 (en) 2013-02-21 2019-04-09 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system
US9607401B2 (en) 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
CN103267517B (zh) * 2013-05-24 2015-02-11 北京控制工程研究所 一种基于电视摄像机和靶标的人控交会对接测量方法
US10247556B2 (en) * 2013-07-23 2019-04-02 The Regents Of The University Of California Method for processing feature measurements in vision-aided inertial navigation
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9574320B2 (en) * 2014-03-26 2017-02-21 Trimble Navigation Limited Blended position solutions
US9309631B2 (en) 2014-03-26 2016-04-12 Caterpillar Trimble Control Technologies Llc Enhanced control of road construction equipment
CN103955224B (zh) * 2014-04-22 2017-01-18 北京控制工程研究所 一种用于相对运动视线跟踪的姿态控制方法
US10012504B2 (en) 2014-06-19 2018-07-03 Regents Of The University Of Minnesota Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps
US9658070B2 (en) 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
US9534915B2 (en) * 2014-09-29 2017-01-03 International Business Machines Corporation Dynamic attraction inference in route recommendations
JP2016082462A (ja) * 2014-10-20 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
WO2016073642A1 (en) * 2014-11-04 2016-05-12 The Regents Of The University Of California Visual-inertial sensor fusion for navigation, localization, mapping, and 3d reconstruction
GB2551667A (en) * 2015-03-27 2017-12-27 Google Inc Cluster based photo navigation
US9709404B2 (en) 2015-04-17 2017-07-18 Regents Of The University Of Minnesota Iterative Kalman Smoother for robust 3D localization for vision-aided inertial navigation
CN105091746B (zh) * 2015-05-19 2017-10-13 北京星航机电装备有限公司 应用于航天器舱段地面对接的空间坐标系标定方法
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
EP3358550A4 (en) * 2015-09-30 2019-06-12 Sony Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US11313684B2 (en) * 2016-03-28 2022-04-26 Sri International Collaborative navigation and mapping
US10203209B2 (en) 2016-05-25 2019-02-12 Regents Of The University Of Minnesota Resource-aware large-scale cooperative 3D mapping using multiple mobile devices
US11466990B2 (en) 2016-07-22 2022-10-11 Regents Of The University Of Minnesota Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system
KR102541560B1 (ko) 2017-09-14 2023-06-08 삼성전자주식회사 객체 인식 방법 및 장치
US10907971B2 (en) 2017-12-08 2021-02-02 Regents Of The University Of Minnesota Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
CN111291585B (zh) * 2018-12-06 2023-12-08 杭州海康威视数字技术股份有限公司 一种基于gps的目标跟踪系统、方法、装置及球机
US10916062B1 (en) 2019-07-15 2021-02-09 Google Llc 6-DoF tracking using visual cues
CN112835021B (zh) * 2020-12-31 2023-11-14 杭州海康威视数字技术股份有限公司 定位方法、装置、系统及计算机可读存储介质
CN113624226A (zh) * 2021-04-28 2021-11-09 上海有个机器人有限公司 一种平面运动约束方法、电子设备及存储介质
US11743428B2 (en) * 2022-01-19 2023-08-29 Ebay Inc. Detailed videoconference viewpoint generation

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061068A (en) * 1998-06-30 2000-05-09 Raytheon Company Method and apparatus for providing synthetic vision using reality updated virtual image
US6157876A (en) * 1999-10-12 2000-12-05 Honeywell International Inc. Method and apparatus for navigating an aircraft from an image of the runway
US7219032B2 (en) * 2002-04-20 2007-05-15 John Louis Spiesberger Estimation algorithms and location techniques
US7280696B2 (en) * 2002-05-20 2007-10-09 Simmonds Precision Products, Inc. Video detection/verification system
US20060244830A1 (en) * 2002-06-04 2006-11-02 Davenport David M System and method of navigation with captured images
US6873251B2 (en) * 2002-07-16 2005-03-29 Delphi Technologies, Inc. Tracking system and method employing multiple overlapping sensors
WO2005033629A2 (en) * 2003-09-19 2005-04-14 University Of Miami Multi-camera inspection of underwater structures
JP2008506167A (ja) * 2004-06-25 2008-02-28 デジタルグローブ インコーポレイテッド 画像に関連するロケーションを確定する方法および装置
US20060072014A1 (en) * 2004-08-02 2006-04-06 Geng Z J Smart optical sensor (SOS) hardware and software platform
US7920959B1 (en) * 2005-05-01 2011-04-05 Christopher Reed Williams Method and apparatus for estimating the velocity vector of multiple vehicles on non-level and curved roads using a single camera
US7395156B2 (en) * 2005-06-23 2008-07-01 Raytheon Company System and method for geo-registration with global positioning and inertial navigation
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
US7706963B2 (en) * 2005-10-28 2010-04-27 Gm Global Technology Operations, Inc. System for and method of updating traffic data using probe vehicles having exterior sensors
EP2442131A1 (en) * 2006-04-10 2012-04-18 Elta Systems Ltd. Distributed jammer system
US8260036B2 (en) * 2007-05-09 2012-09-04 Honeywell International Inc. Object detection using cooperative sensors and video triangulation
US8180107B2 (en) * 2009-02-13 2012-05-15 Sri International Active coordinated tracking for multi-camera systems

Also Published As

Publication number Publication date
EP1990772A2 (en) 2008-11-12
US8260036B2 (en) 2012-09-04
EP1990772A3 (en) 2009-07-22
US20080279421A1 (en) 2008-11-13

Similar Documents

Publication Publication Date Title
JP2009008662A (ja) センサ及びビデオ三角測量を共同使用する物体の検出
Yoon et al. Structural displacement measurement using an unmanned aerial system
US11132810B2 (en) Three-dimensional measurement apparatus
US9275458B2 (en) Apparatus and method for providing vehicle camera calibration
US20200124421A1 (en) Method and apparatus for estimating position
US8340349B2 (en) Moving target detection in the presence of parallax
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
US20080195316A1 (en) System and method for motion estimation using vision sensors
US10930013B2 (en) Method and system for calibrating imaging system
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
JP6460700B2 (ja) トンネルの内壁の欠陥の有無の診断を行う方法およびトンネルの内壁の欠陥の有無の診断を行うプログラム
JP2019074532A (ja) Slamデータに実寸法を付与する方法とそれを用いた位置測定
US20180075609A1 (en) Method of Estimating Relative Motion Using a Visual-Inertial Sensor
CN111707668B (zh) 基于序列图像的隧道检测及图像处理方法
JP6291519B2 (ja) 三次元点群データに実寸法を付与する方法とそれを用いた管路等の位置測定
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
JP2022042146A (ja) データ処理装置、データ処理方法およびデータ処理用プログラム
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
US20190362512A1 (en) Method and Apparatus for Estimating a Range of a Moving Object
US20090226094A1 (en) Image correcting device and method, and computer program
KR102288609B1 (ko) 다중 모듈 기반의 그래프 구조를 이용한 무인체 위치 추정 시스템 및 그 방법
JP5652239B2 (ja) 運動推定装置及びプログラム
KR102050995B1 (ko) 공간좌표의 신뢰성 평가 장치 및 방법
Shami et al. Geo-locating Road Objects using Inverse Haversine Formula with NVIDIA Driveworks
KR100586815B1 (ko) 3차원 위치 추적 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110419

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120626