JP2023507498A - 3dライン接合部を用いた位置決定およびマッピング - Google Patents
3dライン接合部を用いた位置決定およびマッピング Download PDFInfo
- Publication number
- JP2023507498A JP2023507498A JP2022538066A JP2022538066A JP2023507498A JP 2023507498 A JP2023507498 A JP 2023507498A JP 2022538066 A JP2022538066 A JP 2022538066A JP 2022538066 A JP2022538066 A JP 2022538066A JP 2023507498 A JP2023507498 A JP 2023507498A
- Authority
- JP
- Japan
- Prior art keywords
- map
- client device
- line
- camera
- line junctions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 title description 73
- 238000000034 method Methods 0.000 claims abstract description 38
- 239000013598 vector Substances 0.000 claims description 30
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 14
- 230000003190 augmentative effect Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000004807 localization Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000009795 derivation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000001404 mediated effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000035899 viability Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/3867—Geometry of map features, e.g. shape points, polygons or for simplified maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Environmental & Geological Engineering (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Description
本出願は、2019年12月20日に出願された米国仮出願第62/952,016号の利益を主張し、その全体が参照により組み込まれる。
位置ベースの平行現実ゲームでは、プレイヤーは、スマートフォンなどの位置認識クライアントデバイスを用いて、現実世界を移動することによって仮想世界をナビゲートする。平行現実ゲームでプレイヤーによって使用される多くのクライアントデバイスは、プレイヤーが平行現実ゲームをプレイしながら現実世界全体を移動するときにプレイヤーの位置情報を追跡する測位デバイスを含み得る。様々な実施形態において、クライアントデバイスは、デバイス上のカメラによってキャプチャされた画像データを使用して、プレイヤーの位置を決定し、これは、測位デバイスから収集されたプレイヤーの位置情報の代わりに、またはそれを補足するために使用され得る。クライアントデバイスは、決定されたプレイヤー位置に基づいて、拡張現実(AR)画像を生成して、画像データ上にオーバーレイし得る。
システムおよび方法は、環境内のクライアントデバイスの位置を決定し、その位置に基づいてクライアントデバイスを介した現実世界とのユーザの相互作用を可能にする。さらに、システムはクライアントデバイスの位置を決定するために使用する環境の三次元(3D)マップ(例えば、1センチメートルの解像度を有する)を作成し得る。様々な実施形態において、マッピングはクライアント側(例えば、電話またはヘッドセット)で達成され、以前にコンパイルされた画像およびマッピングをクライアントデバイスに提供するバックエンドサーバとペアリングされる。
図1は、一実施形態による、ARコンピューティングシステム100のブロック図である。ARコンピューティングシステム100は、ネットワーク104を介してアクセスされる要素と協働するクライアントデバイス102を含む。例えば、要素は、ARデータを生成するように構成されたサーバデバイスのコンポーネントであり得る。図示された実施形態において、クライアントデバイス102はゲームエンジン106およびARプラットフォーム108を含む。ゲームエンジン106はクライアントデバイス102のユーザがプレイするための平行現実ゲームをレンダリングする。ゲームエンジンはUNITY(登録商標)ゲームエンジンまたは別の物理/レンダリングエンジンであり得る。ARプラットフォーム108はクライアントデバイス102のカメラによってキャプチャされた画像データに対してセグメント化およびオブジェクト認識を実行し得る。
位置推定およびマッピングモジュール112は、クライアントデバイス102を、それがキャプチャする1つまたは複数の画像に基づいて、位置推定するために3Dマップを使用するライン接合部モデルを採用し得る。以下の段落は、モデルの一実施形態がどのように定義され、数学的に適用されるかを説明する。
図2Aは一実施形態による3Dライン接合部の一例を示す。ライン接合部は、点Qと、方向ベクトル(または、いくつかの実施形態では、ラインもしくはラインセグメント)D1およびD2とを含む。各方向ベクトルは単位ベクトルであり、長さ1を有する。各3Dライン接合部は7つの自由度を有し、点Qの3つは3D空間におけるその位置を表し、2つは単位ベクトルであるため、それらは各方向ベクトル(D1およびD2)に対するものである。
D1=(X1,Y1,Z1)=(cosθ1cosα1, cosθ1sinα1, sinθ1)
D2=(X2,Y2,Z2)=(cosθ2cosα2, cosθ2sinα2, sinθ2)
となる。単位ベクトルのノルムは1であるので、次いで、
(cosθcosα)2+(cosθsinα)2+(sinθ)2
=cos2θ(cos2α+sin2α)+sin2θ
=ωs2θ+sin2θ
=1 (1)
となる。したがって、ライン接合部モデルは、3Dライン接合部を7ベクトル(θx、θy、θz、θ1、α1、θ2、α2)としてパラメータ化できる。
ライン接合部モデルは、3Dライン接合部を2D空間に投影して、図2Bに示すように、2つの交差するライン(L1およびL2)を得る。特に、点Q、1つの方向ベクトルD1、およびカメラ姿勢(R、T)を使用して、2Dライン関数はライン上の2つの別個の点(P1およびP2)の外積として定義され、以下の式
Ρ1∧Ρ2
~(RQ+T)∧(R(Q+D1)T)
~(RQ+T)∧(RQ+T+RD1)
~(RQ+T)∧(RQ+T)+(RQ+T)∧(RD1)
~(RQ+T)∧(RD1)
~R(Q∧D1)+T∧RD1
~(RQx+TxR)D1 (2)
を導き、ここで、P1、P2は直線上の2つの点であり、∧はクロス積(cross product)であり、Qx、TxはベクトルQおよびTの歪対称行列(the skew-symmetric matrices)である。
ライン接合部モデルは、1つまたは複数の画像内のキーラインを決定して、3Dライン接合部から2D投影を作成する際のエラーを決定する。キーラインは、画像内の異なる色の領域を分離する境界線である。2D投影はライン関数であるので、ライン接合部モデルは、検出されたキーラインの両方の端点からの点とラインの距離を比較できる。4つの端点が、2つのキーライン上でそれぞれu、v、x、およびyとして示される場合、ライン接合部モデルはそれぞれの距離を決定し得る。uを一例にとると、距離は
L=(RQx+TxR)D(3)
である。
2D投影の設定を最適化するために、ライン接合部モデルは非制約最小化問題(an unconstrained minimization problem)を解いて、環境内のクライアントデバイス102(例えば、カメラ)の位置を決定しなければならない。非線形性に起因して、一実施形態では、ライン接合部モデルはLevenberg-Marquardt(または「LM」)ソルバを使用する。一般的な更新のステップは、以下のように、
ΔΡ=-(JTJ+λI)-1Jtr
であり、ここで、Jは再投影エラーのヤコビアンであり、rは残差であり、λはreq項である。
収束していないが
各ランドマークについて、
LMステップを計算する
ランドマークを更新する
各フレームについて、
LMステップを計算する
フレームを更新する
のように要約できる。
Q、JQに対するヤコビアンを計算するために、ヤコビアンは、4k x 3のサイズであるべきであり、ここで、kは、1つまたは複数の画像におけるフレームの数である。各フレームkに対して、残差rkは以下
ここで(8)および(9)に従って、
ライン接合部モデルは、D1およびD2のヤコビアンを計算する。例として、D1を使用すると、D2の導出は実質的に同一であるので、ライン接合部モデルは、上記のセクション5で説明したように、残差およびヤコビアン次元から開始する。残差は式(6)と同一であり、一方でヤコビアンは、
ヤコビアン行列Rを導出することは、Tに対するヤコビアン行列を導出することよりもライン接合部モデルに対してより多くの作業を伴う。ライン接合部モデルは、
計算後。
上記で導出された式を使用して、ライン接合部モデルは、1つまたは複数の画像が与えられた環境におけるカメラ(例えば、クライアントデバイス102)の姿勢(位置および方向)を決定できる。一実施形態では、ライン接合部モデルは、3Dマップを使用して、3Dライン接合部のための頂点として使用される3Dマップ内の端点を決定する。ライン接合部モデルは、端点が1つまたは複数の画像に反映されるかどうかを決定するために、予測された姿勢を使用して端点を3Dから2Dに投影する。投影にエラーがあるので、ライン接合部モデルは、再投影エラーを低減するために、再投影エラーを計算し、1つまたは複数の画像についてのカメラの予測された姿勢(1つまたは複数の)を更新する。複数の反復についてカメラ姿勢を変化させることによって、ライン接合部モデルは、計算されたエラーが閾値未満になるまで、カメラの姿勢のその推定を収束させ得る。ライン接合部モデルは、この決定された位置を環境内のカメラの位置として使用する。
図2Cは、3Dライン接合部が2Dライン接合部にどのように関連するかを示す。カメラ中心Oi、画像のフレーム上の2Dライン接合部の点Pi、およびラインl上の任意の点は、クライアントデバイス102のカメラに対するカメラ空間210内の平面200を与える。平面200の法線ベクトルは、ラインlに対する方程式li1である。
qi=RiL1+ti
を使用する。しかし、L1は方向ベクトルであるので、変換(translation)は無視することができ、その結果、
Pi=RiP+ti
(5)
を使用して、世界空間220からカメラ220空間に転送できる。フレーム上のその画像は、両方の2Dラインと同時に交差するはずであるため、式(2)および(5)を組み合わせると、
式(4)および(6)は、2D接合部の対応関係から3D接合部を解くための式を与える。
図3は、一実施形態による、ARデータを生成および表示するためにクライアントデバイス102およびサーバデバイスによって実行されるプロセスを示すフローチャートである。クライアントデバイス102およびサーバデバイス(集合的に、「デバイス」)は、図1に示されるものと同様であり得、サーバデバイスは、ネットワーク104によってクライアントデバイス102に接続される要素によって表される。破線は、クライアントデバイス102とサーバデバイスとの間のデータの通信を表し、一方、実線は、デバイスの1つの中のデータの通信を示す。他の実施形態では、機能はデバイス間で異なるように分散され得る、および/または異なるデバイスが使用され得る。
図4は、一実施形態による、位置ベースの並行現実ゲームのプレイヤーのためのゲームボードとして機能できる、現実世界400と並行する仮想世界410の概念図を示す。図1のクライアントデバイス102は、図4に示すように、現実世界400に対応する仮想世界410を有する並行現実ゲーム(または他の位置ベースのゲーム)をホストし得る。
図5は、一実施形態による、環境内のカメラの位置を決定するためのプロセス(または「方法」)を示すフローチャートである。図5のステップは、プロセス500を実行するクライアントデバイス102の観点から示されている。しかし、ステップの一部または全部は、サーバデバイスなど、他のエンティティまたはコンポーネントによって実行され得る。加えて、いくつかの実施形態は、ステップを並行して実行、ステップを異なる順序で実行、または異なるステップを実行し得る。
図6は、クライアントデバイス102またはサーバとして使用するのに適した例示的なコンピュータ600を示す高レベルブロック図である。例示的なコンピュータ600は、チップセット604に結合された少なくとも1つのプロセッサ602を含む。チップセット604は、メモリコントローラハブ620と、入力/出力(I/O)コントローラハブ622とを含む。メモリ606およびグラフィックアダプタ612は、メモリコントローラハブ620に結合され、ディスプレイ618は、グラフィックアダプタ612に結合される。ストレージデバイス608、キーボード610、ポインティングデバイス614、およびネットワークアダプタ616はI/Oコントローラハブ622に結合される。コンピュータ600の他の実施形態は異なるアーキテクチャを有する。
ヤコビアン行列Rを導出することは、Tに対するヤコビアン行列を導出することよりもライン接合部モデルに対してより多くの作業を伴う。ライン接合部モデルは、
計算後、
図2Cは、3Dライン接合部が2Dライン接合部にどのように関連するかを示す。カメラ中心Oi、画像のフレーム上の2Dライン接合部の点Pi、およびラインll i1 上の任意の点は、クライアントデバイス102のカメラに対するカメラ空間210内の平面200を与える。平面200の法線ベクトルは、ラインlに対する方程式li1である。
Pi=RiP+ti
(5)
を使用して、世界空間220からカメラ空間210に転送できる。フレーム上のその画像は、両方の2Dラインと同時に交差するはずであるため、式(2)および(5)を組み合わせると、
Claims (20)
- カメラによってキャプチャされた1つまたは複数の画像から環境内のカメラの位置を特定するための方法であって、
クライアントデバイスの前記カメラによってキャプチャされた1つまたは複数の画像を受信することと、
前記1つまたは複数の画像のライン接合部を識別することと、
前記識別されたライン接合部を前記環境の3Dマップと比較することであって、前記3Dマップはマップライン接合部を含む、ことと、
識別されたライン接合部とマップライン接合部との間の対応関係を識別することと、
前記対応関係を使用して前記環境内の前記カメラの姿勢を決定することと、
を含む方法。 - 前記1つまたは複数の画像をグラフの頂点およびエッジに投影することによって、前記カメラの周囲の前記環境の表現を作成することと、をさらに含み、
前記識別されたライン接合部は前記表現から識別され、前記識別されたライン接合部は前記表現において重複するエッジを含む、請求項1に記載の方法。 - 仮想ゲームのために前記クライアントデバイスに接続された追加のクライアントデバイスから画像データを受信することをさらに含む、請求項1に記載の方法。
- 前記識別されたライン接合部を前記環境の3Dマップと比較することは、
パターンマッチングを前記識別されたライン接合部および3Dマップに適用して、前記識別されたライン接合部および3Dマップが重複または隣接しているかどうかを決定することを含む、請求項1に記載の方法。 - 前記3Dマップは、1つまたは複数のカメラによってキャプチャされた前記環境の画像データと、前記画像データがキャプチャされたときの前記1つまたは複数のカメラの相対位置とを使用して作成された、請求項1に記載の方法。
- 前記決定された位置は仮想世界内の位置に対応する、請求項1に記載の方法。
- 前記クライアントデバイスに、前記決定された位置に対応する前記仮想世界内の前記位置の視点を送信すること、をさらに含む、請求項6に記載の方法。
- 前記識別されたライン接合部の各々は7つの自由度を有し、3つの自由度は接合点に対してのものであり、2つの自由度は2つの方向ベクトルの各々に対してのものである、請求項1に記載の方法。
- 前記1つまたは複数の画像は、Levenberg-Marquardtソルバを用いて前記ライン接合部についての更新を計算することによって、フレームごとにそれぞれ最適化される、請求項1に記載の方法。
- 前記1つまたは複数の画像内のライン接合部を識別することが、
前記1つまたは複数の画像内のラインの2Dライン方程式を決定することであって、各2Dライン方程式が3D空間内の法線ベクトルを描写する、ことと
前記1つまたは複数の画像の各々の内の2Dライン接合部を決定することであって、各2Dライン接合部が2つの2Dライン方程式および交点から構成されている、ことと
3D空間において前記2Dライン接合部を三角測量して、3Dライン接合部を取得することと、
を含む請求項1に記載の方法。 - 前記2Dライン接合部を三角測量することは、
前記1つまたは複数の画像の各々からの前記2Dライン接合部の座標を1つのカメラ座標空間に変換することと、
前記変換された2Dライン接合部を3Dライン接合部に変換することと、
を含む請求項10に記載の方法。 - カメラによってキャプチャされた1つまたは複数の画像から環境内のカメラの位置を特定するための命令を含む非一時的コンピュータ可読記憶媒体であって、前記命令は、
クライアントデバイスの前記カメラによってキャプチャされた1つまたは複数の画像を受信するための命令と、
前記1つまたは複数の画像のライン接合部を識別するための命令と、
前記識別されたライン接合部を前記環境の3Dマップと比較するための命令であって、前記3Dマップはマップライン接合部を含む、命令と、
識別されたライン接合部とマップライン接合部との間の対応関係を識別するための命令と、
前記対応関係を使用して前記環境内の前記カメラの位置を決定するための命令と、
を含む非一時的コンピュータ可読記憶媒体。 - 前記命令は、
前記1つまたは複数の画像をグラフの頂点およびエッジに投影することによって、前記カメラの周囲の前記環境の表現を作成するための命令をさらに含み、
前記識別されたライン接合部は前記表現から識別され、前記識別されたライン接合部は前記表現において重複するエッジを含む、請求項1に記載の非一時的コンピュータ可読記憶媒体。 - 前記命令は、仮想ゲームのために前記クライアントデバイスに接続された追加のクライアントデバイスから画像データを受信するための命令をさらに含む、請求項1に記載の非一時的コンピュータ可読記憶媒体。
- 前記識別されたライン接合部を前記環境の3Dマップと比較するための命令は、
パターンマッチングを前記識別されたライン接合部および3Dマップに適用して、前記識別されたライン接合部および3Dマップが重複または隣接しているかどうかを決定するための命令を含む、請求項1に記載の非一時的コンピュータ可読記憶媒体。 - 前記3Dマップは、1つまたは複数のカメラによってキャプチャされた前記環境の画像データと、前記画像データがキャプチャされたときの前記1つまたは複数のカメラの相対位置とを使用して作成された、請求項1に記載の方法。
- 前記決定された位置は仮想世界内の位置に対応する、請求項1に記載の方法。
- 前記命令は、
前記クライアントデバイスに、前記決定された位置に対応する前記仮想世界内の前記位置の視点を送信するための命令をさらに含む、請求項17に記載の方法。 - 前記識別されたライン接合部の各々は7つの自由度を有し、3つの自由度は接合点に対してのものであり、2つの自由度は2つの方向ベクトルの各々に対してのものである、請求項1に記載の方法。
- コンピュータプロセッサと、
環境内のカメラを、前記カメラによってキャプチャされた1つまたは複数の画像から位置を特定するための命令を記憶する非一時的コンピュータ可読記憶媒体と、
を含むコンピュータシステムであって、
前記命令は、前記コンピュータプロセッサによって実行されると、
クライアントデバイスの前記カメラによってキャプチャされた1つまたは複数の画像を受信することと、
前記1つまたは複数の画像内のライン接合部を識別することと、
前記識別されたライン接合部を前記環境の3Dマップと比較することであって、前記3Dマップはマップライン接合部を含む、ことと、
識別されたライン接合部とマップライン接合部との間の対応関係を識別することと、
前記対応関係を使用して前記環境内の前記カメラの位置を決定することと、
を含む動作を実行する、コンピュータシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962952016P | 2019-12-20 | 2019-12-20 | |
US62/952,016 | 2019-12-20 | ||
PCT/IB2020/062238 WO2021124286A1 (en) | 2019-12-20 | 2020-12-18 | Location determination and mapping with 3d line junctions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023507498A true JP2023507498A (ja) | 2023-02-22 |
JP7453383B2 JP7453383B2 (ja) | 2024-03-19 |
Family
ID=76437965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022538066A Active JP7453383B2 (ja) | 2019-12-20 | 2020-12-18 | 3dライン接合部を用いた位置決定およびマッピング |
Country Status (9)
Country | Link |
---|---|
US (2) | US11847792B2 (ja) |
EP (1) | EP4076693A1 (ja) |
JP (1) | JP7453383B2 (ja) |
KR (1) | KR20220119664A (ja) |
CN (1) | CN115175749A (ja) |
AU (1) | AU2020404610A1 (ja) |
CA (1) | CA3165417A1 (ja) |
TW (1) | TWI760978B (ja) |
WO (1) | WO2021124286A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12039665B2 (en) * | 2022-08-02 | 2024-07-16 | Niantic, Inc. | Simulated consistency check for points of interest on three-dimensional maps |
CN117170501B (zh) * | 2023-08-24 | 2024-05-03 | 北京自动化控制设备研究所 | 基于点线融合特征的视觉跟踪方法 |
KR102711526B1 (ko) * | 2024-02-28 | 2024-09-30 | 고려대학교 산학협력단 | 실내 환경에서의 bim 기반 카메라 트래킹 방법 및 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007333679A (ja) * | 2006-06-19 | 2007-12-27 | Mitsubishi Electric Corp | 3次元位置補正装置 |
US20080280676A1 (en) * | 2007-05-07 | 2008-11-13 | Samsung Electronics Co. Ltd. | Wireless gaming method and wireless gaming-enabled mobile terminal |
US20150213590A1 (en) * | 2011-07-29 | 2015-07-30 | Google Inc. | Automatic Pose Setting Using Computer Vision Techniques |
JP2017182302A (ja) * | 2016-03-29 | 2017-10-05 | 富士通株式会社 | 画像処理プログラム、画像処理装置、及び画像処理方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8049750B2 (en) * | 2007-11-16 | 2011-11-01 | Sportvision, Inc. | Fading techniques for virtual viewpoint animations |
GB201208088D0 (en) * | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
KR101415016B1 (ko) * | 2012-11-07 | 2014-07-08 | 한국과학기술연구원 | 영상기반 실내 위치 검출방법 및 이를 이용한 휴대용 단말기 |
JP6278790B2 (ja) | 2014-03-31 | 2018-02-14 | 株式会社デンソーアイティーラボラトリ | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム |
CN112651288B (zh) | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US10885714B2 (en) * | 2017-07-07 | 2021-01-05 | Niantic, Inc. | Cloud enabled augmented reality |
US10841486B2 (en) * | 2017-07-20 | 2020-11-17 | Eclo, Inc. | Augmented reality for three-dimensional model reconstruction |
JP6828668B2 (ja) | 2017-12-04 | 2021-02-10 | 株式会社デンソー | 車線ネットワークデータ生成装置、車線ネットワークデータ生成プログラム及び記憶媒体 |
TWI648556B (zh) | 2018-03-06 | 2019-01-21 | 仁寶電腦工業股份有限公司 | 同步定位與地圖建構及手勢辨識方法 |
CA3104532C (en) * | 2018-06-27 | 2023-10-17 | Niantic, Inc. | Multi-sync ensemble model for device localization |
-
2020
- 2020-12-18 KR KR1020227025053A patent/KR20220119664A/ko active Search and Examination
- 2020-12-18 US US17/127,136 patent/US11847792B2/en active Active
- 2020-12-18 EP EP20902667.3A patent/EP4076693A1/en active Pending
- 2020-12-18 JP JP2022538066A patent/JP7453383B2/ja active Active
- 2020-12-18 CA CA3165417A patent/CA3165417A1/en active Pending
- 2020-12-18 WO PCT/IB2020/062238 patent/WO2021124286A1/en unknown
- 2020-12-18 TW TW109145174A patent/TWI760978B/zh active
- 2020-12-18 CN CN202080097259.6A patent/CN115175749A/zh active Pending
- 2020-12-18 AU AU2020404610A patent/AU2020404610A1/en active Pending
-
2023
- 2023-11-08 US US18/504,943 patent/US20240078701A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007333679A (ja) * | 2006-06-19 | 2007-12-27 | Mitsubishi Electric Corp | 3次元位置補正装置 |
US20080280676A1 (en) * | 2007-05-07 | 2008-11-13 | Samsung Electronics Co. Ltd. | Wireless gaming method and wireless gaming-enabled mobile terminal |
US20150213590A1 (en) * | 2011-07-29 | 2015-07-30 | Google Inc. | Automatic Pose Setting Using Computer Vision Techniques |
JP2017182302A (ja) * | 2016-03-29 | 2017-10-05 | 富士通株式会社 | 画像処理プログラム、画像処理装置、及び画像処理方法 |
Non-Patent Citations (1)
Title |
---|
HYUNWOO KIM ET AL.: ""A novel line matching method based on intersection context"", 2010 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, JPN6023028297, May 2010 (2010-05-01), pages 1014 - 1021, ISSN: 0005187215 * |
Also Published As
Publication number | Publication date |
---|---|
EP4076693A4 (en) | 2022-10-26 |
WO2021124286A1 (en) | 2021-06-24 |
EP4076693A1 (en) | 2022-10-26 |
US20210190538A1 (en) | 2021-06-24 |
CN115175749A (zh) | 2022-10-11 |
AU2020404610A1 (en) | 2022-08-18 |
US11847792B2 (en) | 2023-12-19 |
TW202135009A (zh) | 2021-09-16 |
KR20220119664A (ko) | 2022-08-30 |
JP7453383B2 (ja) | 2024-03-19 |
CA3165417A1 (en) | 2021-06-24 |
US20240078701A1 (en) | 2024-03-07 |
TWI760978B (zh) | 2022-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6931138B1 (ja) | デバイスローカリゼーションのためのマルチシンクアンサンブルモデル | |
KR102493185B1 (ko) | 깊이 힌트를 사용하는 깊이 추정 모델의 자가 감독 훈련 | |
JP7453383B2 (ja) | 3dライン接合部を用いた位置決定およびマッピング | |
US20100103196A1 (en) | System and method for generating a mixed reality environment | |
TWI797715B (zh) | 用於使用從透視校正影像中所提取之特徵的特徵匹配之電腦實施方法、電腦系統及非暫時性電腦可讀記憶體 | |
JP7466649B2 (ja) | マッピングデバイスからのローカルマップのマージング | |
Unal et al. | Distant augmented reality: Bringing a new dimension to user experience using drones | |
JP2023517661A (ja) | 単一画像からの通行可能空間の決定方法 | |
JP2024503135A (ja) | 3d拡張シーンの構造フロアプランへの位置合わせ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7453383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |