JP6125100B2 - 点特徴と線特徴とを使用する堅牢な追跡 - Google Patents
点特徴と線特徴とを使用する堅牢な追跡 Download PDFInfo
- Publication number
- JP6125100B2 JP6125100B2 JP2016519514A JP2016519514A JP6125100B2 JP 6125100 B2 JP6125100 B2 JP 6125100B2 JP 2016519514 A JP2016519514 A JP 2016519514A JP 2016519514 A JP2016519514 A JP 2016519514A JP 6125100 B2 JP6125100 B2 JP 6125100B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- point
- current image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 212
- 230000015654 memory Effects 0.000 claims description 61
- 238000009826 distribution Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000007670 refining Methods 0.000 claims 4
- 238000012545 processing Methods 0.000 description 37
- 238000004891 communication Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000003708 edge detection Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Description
本出願は、2013年6月14日に出願された、「Robust Tracking Using Point and Line Features」と題する、米国仮出願第61/835,402号の利益および優先権を主張する、2014年5月15日に出願された、「Robust Tracking Using Point and Line Features」と題する、米国特許出願第14/278,928号の利益および優先権を主張し、それらの両方は、それらの全体が参照により本明細書に組み込まれる。
よって検出されたコーナー点を点特徴として使用することができる。一般的に、任意の適切な点検出技法および/またはエッジ検出技法は、利用可能なシステムリソース、所望の精度、速度、および他の設計パラメータに基づいて使用することができる。
Jは2×6マトリックスであり、測定誤差の偏微分はΔθを有し、
uは2×1測定誤差ベクトル(ux uy)Tであり、
upはuの投影であり、
umは測定された、または発見された対応である。
式(1)は、ステップ410においてヤコビアンを計算するために使用することができる。
ここで、
(λpHp+λLHL)Δθ=λpbp+λLbL(7)
上式で、λp=1であり、またλLはそれぞれ点および線に割り当てられた重みである。式(3)、(6)、および(7)は、姿勢更新を計算するために使用することができる。
110 カメラあるいは画像センサ
120 接続
130 センサバンク
140 スクリーンまたはディスプレイ
150 プロセッサ
155 CVモジュール
160 メモリ
170 送信機
200 方法
275 方法
300 方法
320 方法
400 方法
450 方法
500 コンピューティングデバイス
552 処理ユニット
554 メモリ
556 接続
558 非一時的コンピュータ可読媒体
560 ストレージデバイス
570 リムーバブルメディアドライブ
566 コンピュータビジョン(CV)モジュール
590 通信インターフェース
Claims (30)
- ターゲットオブジェクトを備えるカメラがキャプチャした現在の画像のスコアを計算するステップであって、前記スコアが、前記カメラによってキャプチャされた前記現在の画像と前の画像とにおける特徴の比較から決定された1つまたは複数のメトリクスに少なくとも部分的に基づき、前記比較が、前記現在の画像の推定されたカメラ姿勢に基づくステップと、
点ベースの特徴対応方法、エッジベースの特徴対応方法、または点ベースの特徴対応方法とエッジベースの特徴対応方法との組合せのうちの1つを、少なくとも1つの点しきい値を有する前記スコアと少なくとも1つの線しきい値とを有する前記スコアとの比較に少なくとも部分的に基づいて選択するステップであって、前記少なくとも1つの点しきい値と前記少なくとも1つの線しきい値とが、前記ターゲットオブジェクトのモデルから取得されるステップと
を備える、オブジェクト追跡の方法。 - 前記1つまたは複数のメトリクスが、
前記現在の画像と前記前の画像との間の特徴照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の特徴点照合の平均正規化相互相関(NCC)スコアのうちの少なくとも1つを備える、請求項1に記載の方法。 - 前記ターゲットオブジェクトの前記モデルが、前記ターゲットオブジェクトの複数の記憶された画像を備える、請求項1に記載の方法。
- 前記現在の画像と少なくとも1つのモデル画像との間の特徴対応を、前記選択された特徴対応方法を使用して決定するステップであって、前記モデル画像が、前記推定されたカメラ姿勢に基づいて選択されているステップと、
前記推定されたカメラ姿勢を、重み付き最小2乗近似を使用することによって、前記現在の画像と前記少なくとも1つのモデル画像との間で取得された前記特徴対応に基づいて精製するステップと
をさらに備える、請求項3に記載の方法。 - 前記ターゲットオブジェクトの記憶された各画像が複数の画像サブディビジョンを備え、各画像サブディビジョンが、点特徴のカウントと、エッジ特徴のカウントとに関連付けられており、
前記少なくとも1つの点しきい値と、前記少なくとも1つの線しきい値とが、前記モデルの可視領域から、前記可視領域内の各画像サブディビジョンに関連付けられる点特徴の前記カウントと、エッジ特徴の前記カウントとに少なくとも部分的に基づいて取得されるようにさらに構成され、前記モデルの前記可視領域が、前記現在の画像に対応する、請求項3に記載の方法。 - 前記各画像サブディビジョンが、前記モデル内の各画像を複数のグリッドにサブディビジョンすることによって取得されたグリッドである、請求項5に記載の方法。
- 前記1つまたは複数のメトリクスが、
前記現在の画像と前記前の画像との間の点照合の空間分布の均一性、
前記現在の画像と前記前の画像との間の良好な照合の数、
前記現在の画像と前記前の画像との間の不良な照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の特徴点照合の平均正規化相互相関(NCC)スコアのうちの少なくとも1つを備える、請求項5に記載の方法。 - 前記現在の画像の前記推定されたカメラ姿勢が、前記前の画像について取得された前のカメラ姿勢と、前記現在の画像内の前記ターゲットオブジェクトの推定された位置とに少なくとも部分的に基づいて取得される、請求項1に記載の方法。
- 前記少なくとも1つの点しきい値が、点ベースの特徴追跡の前記モデルの適合性の指標を提供し、
前記少なくとも1つの線しきい値が、線ベースの特徴追跡の前記モデルの適合性の指標を提供する、請求項1に記載の方法。 - ターゲットオブジェクトを備える複数の画像をキャプチャするように構成されたカメラと、
前記ターゲットオブジェクトのモデルを記憶するように構成されたメモリと、
前記カメラと前記メモリとに結合されたプロセッサであって、
前記カメラによってキャプチャされた現在の画像のスコアを計算して、前記スコアが、前記カメラによってキャプチャされた前記現在の画像と前の画像とにおける特徴の比較から決定された1つまたは複数のメトリクスに少なくとも部分的に基づき、前記比較が、前記現在の画像の推定されたカメラ姿勢に基づき、
点ベースの特徴対応方法、エッジベースの特徴対応方法、または点ベースの特徴対応方法とエッジベースの特徴対応方法との組合せのうちの1つを、少なくとも1つの点しきい値を有する前記スコアと少なくとも1つの線しきい値とを有する前記スコアとの比較に少なくとも部分的に基づいて選択して、前記少なくとも1つの点しきい値と前記少なくとも1つの線しきい値とが、前記ターゲットオブジェクトの前記モデルから取得されるように構成されたプロセッサと備える、ユーザデバイス(UD)。 - 前記1つまたは複数のメトリクスが、
前記現在の画像と前記前の画像との間の特徴照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の特徴点照合の平均正規化相互相関(NCC)スコアのうちの少なくとも1つを備える、請求項10に記載のUD。 - 前記ターゲットオブジェクトの前記モデルが、前記ターゲットオブジェクトの複数の記憶された画像を備える、請求項10に記載のUD。
- 前記プロセッサが、
前記現在の画像と少なくとも1つのモデル画像との間の特徴対応を、前記選択された特徴対応方法を使用して決定して、前記モデル画像が、前記推定されたカメラ姿勢に基づいて選択されており、
前記推定された現在のカメラ姿勢を、重み付き最小2乗近似を使用することによって、前記現在の画像と前記少なくとも1つのモデル画像との間で取得された前記特徴対応に基づいて精製する
ようにさらに構成される、請求項12に記載のUD。 - 前記ターゲットオブジェクトの前記複数の記憶された画像の各々が、複数の画像サブディビジョンを備え、各画像サブディビジョンが、点特徴のカウントと、エッジ特徴のカウントとに関連付けられており、
前記プロセッサが、
前記モデルの可視領域から、前記可視領域内の各画像サブディビジョンに関連付けられる点特徴の前記カウントと、エッジ特徴の前記カウントとに少なくとも部分的に基づいて、前記少なくとも1つの点しきい値と、前記少なくとも1つの線しきい値とを取得するようにさらに構成され、前記モデルの前記可視領域が、前記現在の画像に対応する、請求項12に記載のUD。 - 前記各画像サブディビジョンが、前記モデル内の各画像を複数のグリッドにサブディビジョンすることによって取得されたグリッドである、請求項14に記載のUD。
- メトリクスが、
前記現在の画像と前記前の画像との間の特徴点照合の空間分布の均一性、
前記現在の画像と前記前の画像との間の特徴照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の特徴点照合の平均正規化相互相関(NCC)スコアを備える、請求項14に記載のUD。 - 前記プロセッサが、
前記現在の画像の前記推定されたカメラ姿勢を、前記前の画像について取得された前のカメラ姿勢と、前記現在の画像内の前記ターゲットオブジェクトの推定された位置とに少なくとも部分的に基づいて決定するようにさらに構成される、請求項10に記載のUD。 - 前記少なくとも1つの点しきい値が、点ベースの特徴追跡の前記モデルの適合性の指標を提供し、
前記少なくとも1つの線しきい値が、エッジベースの特徴追跡の前記モデルの適合性の指標を提供する、請求項10に記載のUD。 - ターゲットオブジェクトを備える複数の画像をキャプチャするための撮像手段と、
前記ターゲットオブジェクトのモデルを記憶するための記憶手段であって、前記撮像手段に結合された前記記憶手段と、
前記撮像手段によってキャプチャされた現在の画像のスコアを計算するための手段であって、前記スコアが、前記撮像手段によってキャプチャされた前記現在の画像と前の画像とにおける特徴の比較から決定された1つまたは複数のメトリクスに少なくとも部分的に基づき、前記比較が、前記現在の画像の推定された撮像手段姿勢に基づく手段と、
点ベースの特徴対応方法、エッジベースの特徴対応方法、または点ベースの特徴対応方法とエッジベースの特徴対応方法との組合せのうちの1つを、少なくとも1つの点しきい値を有する前記スコアと少なくとも1つの線しきい値とを有する前記スコアとの比較に少なくとも部分的に基づいて選択する手段であって、前記少なくとも1つの点しきい値と前記少なくとも1つの線しきい値とが、前記記憶された前記ターゲットオブジェクトのモデルから取得される手段と
を備える、装置。 - 前記1つまたは複数のメトリクスが、
前記現在の画像と前記前の画像との間の特徴照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の点照合の平均正規化相互相関(NCC)スコアのうちの少なくとも1つを備える、請求項19に記載の装置。 - 前記ターゲットオブジェクトの前記モデルが、前記ターゲットオブジェクトの複数の画像を備える、請求項19に記載の装置。
- 前記現在の画像と少なくとも1つのモデル画像との間の特徴対応を、前記選択された特徴対応方法を使用して決定するための手段であって、前記モデル画像が、前記現在のカメラ姿勢に基づいて選択されている手段と、
前記推定された現在の撮像手段姿勢を、重み付き最小2乗近似を使用することによって、前記現在の画像と前記少なくとも1つのモデル画像との間で取得された前記特徴対応に基づいて精製するための手段と
をさらに備える、請求項21に記載の装置。 - 前記ターゲットオブジェクトの前記複数の画像の各々が、複数の画像サブディビジョンを備え、各画像サブディビジョンが、点特徴のカウントと、エッジ特徴のカウントとに関連付けられており、
前記装置が、
前記モデルの可視領域から、前記可視領域内の各画像サブディビジョンに関連付けられる点特徴の前記カウントと、エッジ特徴の前記カウントとに少なくとも部分的に基づいて、前記少なくとも1つの点しきい値と、前記少なくとも1つの線しきい値とを取得するための手段をさらに備え、前記モデルの前記可視領域が、前記現在の画像に対応する、請求項21に記載の装置。 - メトリクスが、
前記現在の画像と前記前の画像との間の特徴点照合の空間分布の均一性、
前記現在の画像と前記前の画像との間の特徴照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の特徴点照合の平均正規化相互相関(NCC)スコアを備える、請求項23に記載の装置。 - プロセッサによって実行されたとき、
ターゲットオブジェクトを備えるカメラがキャプチャした現在の画像のスコアを計算するステップであって、前記スコアが、前記カメラによってキャプチャされた前記現在の画像と前の画像とにおける特徴の比較から決定された1つまたは複数のメトリクスに少なくとも部分的に基づき、前記比較が、前記現在の画像の推定されたカメラ姿勢に基づくステップと、
点ベースの特徴対応方法、エッジベースの特徴対応方法、または点ベースの特徴対応方法とエッジベースの特徴対応方法との組合せのうちの1つを、少なくとも1つの点しきい値を有する前記スコアと少なくとも1つの線しきい値とを有する前記スコアとの比較に少なくとも部分的に基づいて選択するステップであって、前記少なくとも1つの点しきい値と前記少なくとも1つの線しきい値とが、前記ターゲットオブジェクトのモデルから取得されるステップと
を備える方法におけるステップを実行する命令を備える、非一時的コンピュータ可読記憶媒体。 - メトリクスが、
前記現在の画像と前記前の画像との間の特徴照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の特徴点照合の平均正規化相互相関(NCC)スコアのうちの少なくとも1つを備える、請求項25に記載のコンピュータ可読記憶媒体。 - 前記ターゲットオブジェクトの前記モデルが、前記ターゲットオブジェクトの複数の記憶された画像を備える、請求項25に記載のコンピュータ可読記憶媒体。
- 前記現在の画像と少なくとも1つのモデル画像との間の特徴対応を、前記選択された特徴対応方法を使用して決定するステップであって、前記モデル画像が、前記推定されたカメラ姿勢に基づいて選択されているステップと、
前記推定されたカメラ姿勢を、重み付き最小2乗近似を使用することによって、前記現在の画像と前記少なくとも1つのモデル画像との間で取得された前記特徴対応に基づいて精製するステップと
をさらに備える、請求項27に記載のコンピュータ可読記憶媒体。 - それぞれの記憶された画像が複数の画像サブディビジョンを備え、各画像サブディビジョンが、点特徴のカウントと、エッジ特徴のカウントとに関連付けられており、
前記少なくとも1つの点しきい値と、前記少なくとも1つの線しきい値とが、前記モデルの可視領域から、前記可視領域内の各画像サブディビジョンに関連付けられる点特徴の前記カウントと、エッジ特徴の前記カウントとに少なくとも部分的に基づいて取得され、前記モデルの前記可視領域が、前記現在の画像に対応する、請求項27に記載のコンピュータ可読記憶媒体。 - 前記1つまたは複数のメトリクスが、
前記現在の画像と前記前の画像との間の点照合の空間分布の均一性、
前記現在の画像と前記前の画像との間の特徴照合の数、
前記現在の画像と前記前の画像との間の特徴照合の予想される数に対する特徴照合の割合、あるいは、
前記現在の画像と前記前の画像との間の点照合の平均正規化相互相関(NCC)スコアを備える、請求項29に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361835402P | 2013-06-14 | 2013-06-14 | |
US61/835,402 | 2013-06-14 | ||
US14/278,928 | 2014-05-15 | ||
US14/278,928 US9406137B2 (en) | 2013-06-14 | 2014-05-15 | Robust tracking using point and line features |
PCT/US2014/038461 WO2014200665A1 (en) | 2013-06-14 | 2014-05-16 | Robust tracking using point and line features |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016521885A JP2016521885A (ja) | 2016-07-25 |
JP2016521885A5 JP2016521885A5 (ja) | 2016-12-15 |
JP6125100B2 true JP6125100B2 (ja) | 2017-05-10 |
Family
ID=52018894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016519514A Active JP6125100B2 (ja) | 2013-06-14 | 2014-05-16 | 点特徴と線特徴とを使用する堅牢な追跡 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9406137B2 (ja) |
EP (1) | EP3008695B1 (ja) |
JP (1) | JP6125100B2 (ja) |
KR (1) | KR101722654B1 (ja) |
CN (1) | CN105283905B (ja) |
WO (1) | WO2014200665A1 (ja) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9135646B2 (en) * | 2013-10-09 | 2015-09-15 | Ricoh Company, Ltd. | Associating advertising content with a channel |
US20170140549A1 (en) * | 2014-07-03 | 2017-05-18 | Amiad Gurman | Method of perceiving 3d structure from a pair of images |
JP6723798B2 (ja) * | 2015-05-20 | 2020-07-15 | キヤノン株式会社 | 情報処理装置、方法、プログラム |
US10282591B2 (en) * | 2015-08-24 | 2019-05-07 | Qualcomm Incorporated | Systems and methods for depth map sampling |
US9849591B2 (en) * | 2015-10-02 | 2017-12-26 | X Development Llc | Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment |
US10260862B2 (en) * | 2015-11-02 | 2019-04-16 | Mitsubishi Electric Research Laboratories, Inc. | Pose estimation using sensors |
US10217231B2 (en) * | 2016-05-31 | 2019-02-26 | Microsoft Technology Licensing, Llc | Systems and methods for utilizing anchor graphs in mixed reality environments |
US10290111B2 (en) * | 2016-07-26 | 2019-05-14 | Qualcomm Incorporated | Systems and methods for compositing images |
JP2018036901A (ja) * | 2016-08-31 | 2018-03-08 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
WO2018144929A1 (en) * | 2017-02-02 | 2018-08-09 | Infatics, Inc. (DBA DroneDeploy) | System and methods for improved aerial mapping with aerial vehicles |
US11048325B2 (en) | 2017-07-10 | 2021-06-29 | Samsung Electronics Co., Ltd. | Wearable augmented reality head mounted display device for phone content display and health monitoring |
CN108021921A (zh) * | 2017-11-23 | 2018-05-11 | 塔普翊海(上海)智能科技有限公司 | 图像特征点提取系统及其应用 |
IL274976B2 (en) | 2017-12-15 | 2024-05-01 | Magic Leap Inc | Improved positioning for a display device |
US10997744B2 (en) * | 2018-04-03 | 2021-05-04 | Korea Advanced Institute Of Science And Technology | Localization method and system for augmented reality in mobile devices |
US10964053B2 (en) * | 2018-07-02 | 2021-03-30 | Microsoft Technology Licensing, Llc | Device pose estimation using 3D line clouds |
CN109059941B (zh) * | 2018-07-06 | 2019-11-29 | 禾多科技(北京)有限公司 | 特征地图构建方法、视觉定位方法及对应装置 |
US10848664B2 (en) * | 2018-07-26 | 2020-11-24 | Sony Corporation | Image capture device and method for image score-based video quality enhancement |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
WO2020036898A1 (en) | 2018-08-13 | 2020-02-20 | Magic Leap, Inc. | A cross reality system |
CN108709560A (zh) * | 2018-08-15 | 2018-10-26 | 苏州中研讯科智能科技有限公司 | 基于直线段特征的载运机器人高精度定位导航方法 |
US11232635B2 (en) | 2018-10-05 | 2022-01-25 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
US10839556B2 (en) | 2018-10-23 | 2020-11-17 | Microsoft Technology Licensing, Llc | Camera pose estimation using obfuscated features |
CN109712170B (zh) * | 2018-12-27 | 2021-09-07 | 广东省智能制造研究所 | 基于视觉惯性里程计的环境对象追踪方法和装置 |
CN114616534A (zh) | 2019-10-15 | 2022-06-10 | 奇跃公司 | 具有无线指纹的交叉现实系统 |
US11568605B2 (en) | 2019-10-15 | 2023-01-31 | Magic Leap, Inc. | Cross reality system with localization service |
WO2021096931A1 (en) | 2019-11-12 | 2021-05-20 | Magic Leap, Inc. | Cross reality system with localization service and shared location-based content |
US11562542B2 (en) | 2019-12-09 | 2023-01-24 | Magic Leap, Inc. | Cross reality system with simplified programming of virtual content |
WO2021163300A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
JP2023514205A (ja) | 2020-02-13 | 2023-04-05 | マジック リープ, インコーポレイテッド | 正確な共有マップを伴うクロスリアリティシステム |
WO2021163295A1 (en) * | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with prioritization of geolocation information for localization |
CN115461787A (zh) | 2020-02-26 | 2022-12-09 | 奇跃公司 | 具有快速定位的交叉现实系统 |
JP2023524446A (ja) | 2020-04-29 | 2023-06-12 | マジック リープ, インコーポレイテッド | 大規模環境のためのクロスリアリティシステム |
KR20230098944A (ko) * | 2021-12-27 | 2023-07-04 | 주식회사 버넥트 | 모바일 환경에서 실시간 트래킹을 위한 키포인트 선택 방법 |
CN115690205B (zh) * | 2022-10-09 | 2023-12-05 | 北京自动化控制设备研究所 | 基于点线综合特征的视觉相对位姿测量误差估计方法 |
CN116436543B (zh) * | 2023-06-14 | 2023-08-25 | 四川恒湾科技有限公司 | 一种基于fdd系统中多失真源的无源交调校正方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3800905B2 (ja) * | 1999-07-27 | 2006-07-26 | 松下電工株式会社 | 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法 |
JP2001076151A (ja) * | 1999-09-08 | 2001-03-23 | Denso Corp | 画像情報に含まれる認識対象物の認識方法 |
AU2001250802A1 (en) | 2000-03-07 | 2001-09-17 | Sarnoff Corporation | Camera pose estimation |
US20030012410A1 (en) * | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
EP1567988A1 (en) | 2002-10-15 | 2005-08-31 | University Of Southern California | Augmented virtual environments |
US7764808B2 (en) * | 2003-03-24 | 2010-07-27 | Siemens Corporation | System and method for vehicle detection and tracking |
US7616807B2 (en) | 2005-02-24 | 2009-11-10 | Siemens Corporate Research, Inc. | System and method for using texture landmarks for improved markerless tracking in augmented reality applications |
CN101401127B (zh) * | 2006-03-23 | 2011-04-13 | Nds有限公司 | 用于运动分析的系统 |
NO327279B1 (no) | 2007-05-22 | 2009-06-02 | Metaio Gmbh | Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning |
JP4956375B2 (ja) | 2007-10-30 | 2012-06-20 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP2011043863A (ja) * | 2007-11-16 | 2011-03-03 | Nec Corp | 対象領域判定・追跡装置、方法、プログラム及び対象領域判定装置 |
JP5253066B2 (ja) | 2008-09-24 | 2013-07-31 | キヤノン株式会社 | 位置姿勢計測装置及び方法 |
US8442305B2 (en) * | 2009-06-30 | 2013-05-14 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining 3D poses using points and lines |
FR2951565B1 (fr) | 2009-10-20 | 2016-01-01 | Total Immersion | Procede, programme d'ordinateur et dispositif de suivi hybride de representations d'objets, en temps reel, dans une sequence d'images |
US9317133B2 (en) | 2010-10-08 | 2016-04-19 | Nokia Technologies Oy | Method and apparatus for generating augmented reality content |
US20120092329A1 (en) | 2010-10-13 | 2012-04-19 | Qualcomm Incorporated | Text-based 3d augmented reality |
CN102184550B (zh) * | 2011-05-04 | 2013-02-13 | 华中科技大学 | 一种动平台地面运动目标检测方法 |
-
2014
- 2014-05-15 US US14/278,928 patent/US9406137B2/en active Active
- 2014-05-16 CN CN201480033435.4A patent/CN105283905B/zh active Active
- 2014-05-16 JP JP2016519514A patent/JP6125100B2/ja active Active
- 2014-05-16 KR KR1020167000670A patent/KR101722654B1/ko active IP Right Grant
- 2014-05-16 EP EP14736497.0A patent/EP3008695B1/en active Active
- 2014-05-16 WO PCT/US2014/038461 patent/WO2014200665A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2014200665A1 (en) | 2014-12-18 |
US9406137B2 (en) | 2016-08-02 |
EP3008695B1 (en) | 2018-05-09 |
US20140368645A1 (en) | 2014-12-18 |
KR101722654B1 (ko) | 2017-04-03 |
EP3008695A1 (en) | 2016-04-20 |
CN105283905A (zh) | 2016-01-27 |
KR20160019512A (ko) | 2016-02-19 |
JP2016521885A (ja) | 2016-07-25 |
CN105283905B (zh) | 2018-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6125100B2 (ja) | 点特徴と線特徴とを使用する堅牢な追跡 | |
JP6348574B2 (ja) | 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam | |
JP6258953B2 (ja) | 単眼視覚slamのための高速初期化 | |
JP6189483B2 (ja) | 電力効率の良い深度センサーの使用によるリアルタイム3d再構成 | |
US9667873B2 (en) | Methods for facilitating computer vision application initialization | |
EP2992508B1 (en) | Diminished and mediated reality effects from reconstruction | |
US20140369557A1 (en) | Systems and Methods for Feature-Based Tracking | |
KR102169492B1 (ko) | 평면의 자연스러운 특성 타겟들의 인시츄 생성 | |
US9747516B2 (en) | Keypoint detection with trackability measurements | |
KR102450236B1 (ko) | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 | |
US20240046583A1 (en) | Real-time photorealistic view rendering on augmented reality (ar) device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161024 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161024 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20161024 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6125100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |