JP2018091667A - 情報処理装置、情報処理装置の制御方法及びプログラム - Google Patents
情報処理装置、情報処理装置の制御方法及びプログラム Download PDFInfo
- Publication number
- JP2018091667A JP2018091667A JP2016233501A JP2016233501A JP2018091667A JP 2018091667 A JP2018091667 A JP 2018091667A JP 2016233501 A JP2016233501 A JP 2016233501A JP 2016233501 A JP2016233501 A JP 2016233501A JP 2018091667 A JP2018091667 A JP 2018091667A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- stability
- unit
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
撮像部により現実空間を撮像して得られた画像から1以上のマーカを検出するマーカ検出手段と、
前記画像から特徴を検出する特徴検出手段と、
前記マーカ検出手段による検出結果と、前記特徴検出手段による検出結果とに基づいて、前記撮像部の位置姿勢を推定する推定手段と、
前記1以上のマーカのうち一部のマーカを排除した場合の前記位置姿勢の推定の安定度を算出する算出手段と、
前記安定度に基づいて前記一部のマーカが排除可能であることを示す情報を出力する出力手段と、
を備えることを特徴とする。
<概要>
実施形態1では、SLAMの推定の安定度を算出するためにマーカの大きさに基づいてマーカを1つ選択し、マーカの有無によるSLAMの推定結果の差異を算出する例について説明する。
図1は、本実施形態に係る情報処理装置100の構成例を示すブロック図である。情報処理装置100は、外部の撮像部1A 及び表示部1Cと、映像ケーブル(USB(Universal Serial Bus)ケーブルなど)を介して接続されている。また、情報処理装置100は、外部記憶装置1BとSATA(Serial Advanced Technology Attachment)ケーブルなどを介して接続されている。
画像取得部101は、撮像部1Aが転送する画像データを入力画像として取得し、不図示のメモリに格納する。
続いて、図2のフローチャートを参照しながら、本実施形態に係る情報処理装置100が実施する処理の手順を説明する。特に、本実施形態に係る安定度の算出方法、排除マーカの提示方法を詳細に説明する。
ステップS1001では、画像取得部101は、外部の撮像部1Aから画像データを入力画像として取得してメモリに格納する。画像データは、RGBそれぞれのチャネルの画素ごとの輝度値を記述したものである。
ステップS1002では、マーカ情報取得部102は、図3の表に示されるような、2次元コードパターンを持つ四角形マーカの4つのコーナー点の仮想空間における3次元座標とマーカのIDとを、外部記憶装置1Bに予め記憶されているテキストファイルから複数読み込み、メモリに格納する。
ステップS1003では、マーカ検出部103は、図4に示されるように、入力画像からマーカ検出処理により四角形マーカのコーナー点を検出するとともに、マーカの内部の画素の輝度値からマーカのIDを認識する。四角形マーカのコーナー点は、エッジ検出、ハフ変換による公知の線分検出を経て、線分同士の交点から算出される。また、マーカIDは、コーナー点の画像座標をホモグラフィ変換によって正対した四角形の画像に変換し、その内部を走査して公知のパターンマッチングによりIDを対応付けることによって認識される。マーカ検出部103は、マーカごとにIDと、算出した入力画像上のコーナー点の画像座標とを対応付けて、マーカ検出結果としてメモリに格納する。
ステップS1004では、マーカ検出部103は、マーカ検出結果を参照し、マーカが少なくとも1つ以上検出されたか否かを判定する。少なくとも1つ以上のマーカが検出されている場合、ステップS1005へ進む。一方、マーカが検出されていない場合、処理を終了する。
ステップS1005では、特徴検出部104は、入力画像に写る現実空間中の特徴点を検出する。特徴点検出アルゴリズムは公知のHarris特徴やSIFT特徴を用いる。ここで、図5(a)は、本実施形態に係る特徴点の検出の様子を示す図である。特徴点として、入力画像中のコーナー点が三角形で示すように複数検出される。検出した特徴点の特徴情報を、SIFTなどの公知の特徴記述ベクトル(ディスクリプタ)算出アルゴリズムを用いて算出し、特徴点の入力画像上での画像座標と併せてメモリに格納する。
ステップS1005では、マップ取得部105は、予め作成・記憶された現実空間中の特徴点を示すマップデータを外部記憶装置1Bから取得する。マップデータは、前述したように特徴点の3次元座標、特徴点を撮像部1Aを用いて事前に複数箇所で撮像したカメラの画像、当該カメラの位置姿勢、そして、当該画像中の特徴点の画像座標及び特徴記述ベクトル(ディスクリプタ)により構成される。ここで、図5(b)は、マップデータ中に含まれる画像の一例を示しており、入力画像に写るものと同じ現実空間が写っている。
および回転ベクトル
を合わせた6パラメータのベクトル
として表す。
ステップS1007では、特徴対応付け部106は、ステップS1005で算出された入力画像上の特徴点のディスクリプタと、ステップS1006で取得しされたマップデータ中の特徴点のディスクリプタとのベクトルの内積を算出することにより、類似度の高い特徴点同士を対応付ける。例えば、類似度が閾値0.8を超える場合、類似度が高いと判定して特徴点同士を対応付けてもよい。
ステップS1007では、マーカ選択部107は、ステップS1003で検出されたマーカの大きさに基づいて、これらのマーカのうち少なくとも一部のマーカを選択する。例えば、ステップS1003で検出されたマーカのうち、入力画像上で最も面積の小さいマーカを選択する。また、選択したマーカのIDを内部メモリに格納する。なお、ステップS1008では、マーカを排除した際に位置姿勢推定への影響を小さくするため、入力画像上で最も面積が小さいマーカを1つ選択する例を説明しているが、反対に最も面積の大きいマーカを選択してもよいし、複数のマーカを選択してもよい。
ステップS1009では、第1の位置姿勢推定部108は、ステップS1003で検出されたマーカの情報に基づいて、撮像部1Aのカメラ位置姿勢
を推定する。さらに、第1の位置姿勢推定部108は、ステップS1007で算出された対応付け情報を用いてカメラ位置姿勢
を再度推定する。推定したカメラ位置姿勢
の情報はメモリに格納する。以下、カメラ位置姿勢
、
の推定方法を説明する。
の推定>
現実空間におけるマーカのコーナー点の3次元座標を
とすると、ピンホールカメラモデルによってその点がカメラ投影面の画像座標
に投影される座標変換は、同次座標系表現で次式のように表される。
は、撮像部1Aの内部パラメータ
(3×3行列)と、
から一意に定義される回転行列
(3×3行列)および並進ベクトル
とを用いて、以下のように定義される。
は両辺のベクトルが長さを除いて等しいことを示す。以上の定式化に基づき、事前に校正した撮像部1Aのカメラの内部パラメータ
、および、マーカのコーナー点の3次元座標
とその投影座標
から、カメラの位置姿勢を表す
及び
を最小二乗法により求める。すなわち、反復処理のある時点での推定値
を、適切に定めた更新量
を使って
のように更新し、収束するまで反復することで解を求める。最小二乗法には、本実施形態ではガウス・ニュートン法を用いる。反復計算のコスト関数
は、
から求められる
の再投影誤差である。
の推定>
マーカ検出結果を用いて
を推定した後、
を初期値として、同様の処理を行うことにより
を推定する。このとき、ステップS1007で対応付けられたマップ中の特徴点の3次元座標を
、入力画像上の特徴点の画像座標を
として定義する。推定した
はメモリに格納する。
ステップS1010では、第2の位置姿勢推定部109は、ステップS1008で選択されたマーカの検出結果と同マーカに内包される特徴点の対応付け情報とを除外して、ステップS1009と同様にカメラ位置姿勢
を推定し、メモリに格納する。
ステップS1011では、安定度取得部110は、ステップS1009で推定されたカメラ位置姿勢
と、ステップS1010で推定されたカメラ位置姿勢
との差異を算出する。そして、当該差異に基づいてステップS1008で選択されたマーカを用いずにカメラ位置姿勢を推定した場合の安定度を算出する。
および
はいずれも上述したように並進位置ベクトルおよび回転ベクトルで表されるため、それぞれの差分ベクトルを安定度として算出してメモリに格納する。
ステップS1012では、安定度取得部110は、並進位置ベクトルの差分ベクトルの長さが所定の閾値(例えば1mm)より大きいか否かを判定し、且つ/又は、回転ベクトルの差分ベクトルの長さが所定の閾値(例えば0.1mm)より大きいか否かを判定する。これらの少なくとも一方が閾値よりも大きい場合は、差異が大きい、すなわち安定度が閾値未満であると判定できるため、処理を終了する。一方、これらが両方とも閾値以下である場合は、差異が小さい、すなわち安定度が閾値以上であると判定できるため、ステップS1013へ進む。なお、これらの一方の条件を充足するか否かで判定を行ってもよい。
ステップS1013では、排除マーカ提示部111は、ステップS1008で選択されたマーカが排除可能であることをユーザに提示するためにMR画像を生成して、生成したMR画像を提示する。例えば、図6に示されるように、MR画像の生成処理では、入力画像上にステップS1008で選択されたマーカに対して、ステップS1003で検出された際の画像座標を用いて、四角形の枠線と「排除可能」の文字とを重畳描画する。排除マーカ提示部111は、生成したMR画像のデータを、外部の表示部1Cに出力してユーザに提示する。
<概要>
実施形態1では、SLAMの推定の安定度を算出するためにマーカの大きさに基づいてマーカを1つ選択し、当該マーカの有無に応じたSLAMの推定結果の差異を算出し、当該差異に基づいてマーカを排除可能かどうか判定する例を説明した。これに対して、本実施形態では、撮像部からの距離に基づきマーカを1つ選択し、マーカの有無による画像検索結果の位置の差異を判定して(マーカを排除可能であることを示す)テキスト重畳画像を提示する例を説明する。
以下、実施形態1と重複する内容については説明を省略する。図7は、本実施形態に係る情報処理装置200の構成例を示すブロック図である。図1に示した情報処理装置100の構成要素と同じ構成要素については同じ参照符号を付しており、詳細な説明は省略する。
続いて、図8のフローチャートを参照しながら、本実施形態に係る情報処理装置200が実施する処理の手順を説明する。特に、本実施形態に係る安定度の算出方法、排除マーカの提示方法を詳細に説明する。ステップS2001〜ステップS2008の各処理は、実施形態1で図2を参照して説明したステップS1001〜ステップS1007、ステップS1009の各処理とそれぞれ同様である。
ステップS2009では、マーカ選択部701は、ステップS2003で検出されたマーカのうち、撮像部1Aからの距離が最も近いもマーカを選択する。マーカの3次元座標はステップS2002で取得した情報を用い、撮像部1Aの3次元座標はステップS2008で推定した情報を用いる。マーカ選択部701は、選択したマーカのIDをメモリに格納する。
ステップS2010では、マーカ領域削除部702は、ステップS2009で選択されたマーカの画像領域を入力画像から削除(輝度値をすべて0にする)して、図9(a)に示されるようなマーカ領域削除画像を生成する。そして、生成したマーカ領域削除画像をメモリに格納する。
ステップS2011では、多視点画像取得部703は、外部記憶装置1Bから現実空間を複数の視点で撮像した画像とその位置姿勢とをセットで多視点画像として取得し、不図示のメモリに格納する。図9(b)及び図9(c)は多視点画像の一例を示す。図9(b)は、入力画像と同じ現実空間を別の視点から撮像した画像であり、図9(c)は、入力画像と類似しているが入力画像と異なる現実空間を撮像した画像である。
ステップS2012では、安定度取得部704は、ステップS2009で選択されたマーカを排除した場合のSLAMの復帰(リローカライズ)処理の安定度を算出する。すなわち、マーカ領域削除画像をクエリとして多視点画像の中から最も類似する画像を画像検索によって選び、第1の位置姿勢推定の結果と多視点画像の位置姿勢とを比較することにより画像検索によるSLAMのリローカライズ処理の安定度を算出する。
ステップS2013では、安定度取得部704は、ステップS2012で算出された安定度(3次元距離)が閾値以上(例えば10cm以上)であるか否かを判定する。安定度が閾値以上である場合、マーカを排除した場合にリローカライズ処理が不安定になると判定して処理を終了する。一方、安定度が閾値未満である場合、ステップS2014へ進む。
ステップS2014では、排除マーカ提示部705は、ステップS2013での判定結果に基づいて、ステップS2009で選択されたマーカを排除可能であることをユーザに提示するために、入力画像にテキストを重畳表示したテキスト重畳画像を生成する。ここで、図10にテキスト重畳画像の一例を示す。排除マーカ提示部705は、排除マーカ提示部111は、生成したテキスト重畳画像のデータを、外部の表示部1Cに出力してユーザに提示する。
<概要>
実施形態1では、SLAMの推定の安定度を算出するためにマーカの大きさに基づいてマーカを1つ選択し、当該マーカの有無に応じたSLAMの推定結果の差異を算出し、当該差異に基づいてマーカを排除可能かどうか判定する例を説明した。また、実施形態2では、撮像部からの距離に基づいてマーカを1つ選択し、マーカの有無による画像検索結果の位置の差異を判定して(マーカを排除可能であることを示す)テキスト重畳画像を提示する例を説明した。
以下、実施形態1と重複する内容については説明を省略する。図11は、本実施形態に係る情報処理装置300の構成例を示すブロック図である。図1に示した情報処理装置100の構成要素と同じ構成要素については同じ参照符号を付しており、詳細な説明は省略する。
続いて、図11のフローチャートを参照しながら、本実施形態に係る情報処理装置300が実施する処理の手順を説明する。特に、本実施形態に係る安定度の算出方法、排除マーカの提示方法を詳細に説明する。ステップS3001〜ステップS3008、ステップS3012の各処理は、実施形態1で図2を参照して説明したステップS1001〜ステップS1007、ステップS1009、ステップS1013の各処理とそれぞれ同様である。
ステップS3009では、マーカ選択部1101は、ステップS3002で取得された現実空間のマーカの位置の情報に基づいてマーカの分布を算出し、最も密に配置されており且つ小さいマーカを選択する。ここで、図13は、本実施形態に係る現実空間中のマーカの分布を示した図である。現実空間中のX−Z平面に四角形の平面マーカが分布している様子を示している。このX−Z平面を500mm四方のグリッドで分割したそれぞれの領域に含まれるマーカ中心座標の個数をカウントする。マーカ中心座標がグリッドの境界線上にある場合は座標値を切り上げる。図13の例ではグリッドg11中のマーカ数が4で最大となり、グリッドg11に含まれる4つのマーカのうち、座標系原点に最も近いマーカを選択する。
ステップS3010では、安定度取得部1102は、マップ取得部105により取得された特徴点を用いて、ステップS3009で選択されたマーカの外側の特徴点の分布に基づき撮像部1Aのカメラの位置姿勢推定の安定度を算出する。
ステップS3011では、安定度取得部1102は、ステップS3010で算出された安定度が閾値以上(例えば0.95以上)であるか否かを判定する。安定度が閾値以上である場合、ステップS3012へ進む。一方、安定度が閾値未満である場合、処理を終了する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (11)
- 撮像部により現実空間を撮像して得られた画像から1以上のマーカを検出するマーカ検出手段と、
前記画像から特徴を検出する特徴検出手段と、
前記マーカ検出手段による検出結果と、前記特徴検出手段による検出結果とに基づいて、前記撮像部の位置姿勢を推定する推定手段と、
前記1以上のマーカのうち一部のマーカを排除した場合の前記位置姿勢の推定の安定度を取得する安定度取得手段と、
前記安定度に基づいて前記一部のマーカが排除可能であることを示す情報を出力する出力手段と、
を備えることを特徴とする情報処理装置。 - 前記一部のマーカに内包されない特徴に基づいて前記撮像部の第2の位置姿勢を推定する第2の推定手段をさらに備え、
前記安定度取得手段は、前記推定手段により推定された前記位置姿勢と、前記第2の推定手段により推定された前記第2の位置姿勢とに基づいて前記安定度を取得することを特徴とする請求項1に記載の情報処理装置。 - 前記一部のマーカを前記画像中から領域を指定して削除することによりマーカ領域削除画像を生成するマーカ領域削除手段と、
前記推定手段により推定された前記位置姿勢を含む複数の位置姿勢で前記現実空間を撮像して得られた複数の画像を取得する多視点画像取得手段と、をさらに備え、
前記安定度取得手段は、前記マーカ領域削除画像と前記複数の画像との類似度に基づいて前記安定度を取得することを特徴とする請求項1に記載の情報処理装置。 - 前記安定度取得手段は、前記一部のマーカの外側の特徴の分布に基づいて前記安定度を取得することを特徴とする請求項1に記載の情報処理装置。
- 前記安定度取得手段は、前記一部のマーカから所定の距離範囲に含まれる特徴に基づいて前記安定度を取得することを特徴とする請求項4に記載の情報処理装置。
- 前記マーカ検出手段により検出された前記1以上のマーカの大きさに基づいて前記一部のマーカを選択する選択手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
- 前記マーカ検出手段により検出された前記1以上のマーカの前記撮像部からの距離に基づいて前記一部のマーカを選択する選択手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
- 前記マーカ検出手段により検出された前記1以上のマーカの分布に基づいて前記一部のマーカを選択する選択手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
- 前記出力手段は、前記一部のマーカが排除可能であることを示す情報を表示部へ出力することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
- 情報処理装置の制御方法であって、
撮像部により現実空間を撮像して得られた画像から1以上のマーカを検出するマーカ検出工程と、
前記画像から特徴を検出する特徴検出工程と、
前記マーカ検出工程での検出結果と、前記特徴検出工程での検出結果とに基づいて、前記撮像部の位置姿勢を推定する推定工程と、
前記1以上のマーカのうち一部のマーカを排除した場合の前記位置姿勢の推定の安定度を取得する安定度取得工程と、
前記安定度に基づいて前記一部のマーカが排除可能であることを示す情報を出力する出力工程と、
を有することを特徴とする情報処理装置の制御方法。 - コンピュータを、請求項1乃至9の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016233501A JP6917701B2 (ja) | 2016-11-30 | 2016-11-30 | 情報処理装置、情報処理装置の制御方法及びプログラム |
US15/826,083 US10510159B2 (en) | 2016-11-30 | 2017-11-29 | Information processing apparatus, control method for information processing apparatus, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016233501A JP6917701B2 (ja) | 2016-11-30 | 2016-11-30 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018091667A true JP2018091667A (ja) | 2018-06-14 |
JP6917701B2 JP6917701B2 (ja) | 2021-08-11 |
Family
ID=62193288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016233501A Active JP6917701B2 (ja) | 2016-11-30 | 2016-11-30 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10510159B2 (ja) |
JP (1) | JP6917701B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020201572A (ja) * | 2019-06-06 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP4300160A3 (en) | 2016-12-30 | 2024-05-29 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US10620817B2 (en) * | 2017-01-13 | 2020-04-14 | International Business Machines Corporation | Providing augmented reality links to stored files |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
KR102596429B1 (ko) | 2017-12-10 | 2023-10-30 | 매직 립, 인코포레이티드 | 광학 도파관들 상의 반사―방지 코팅들 |
EP3729172A4 (en) | 2017-12-20 | 2021-02-24 | Magic Leap, Inc. | INSERT FOR AUGMENTED REALITY VIEWING DEVICE |
JP6945474B2 (ja) * | 2018-02-28 | 2021-10-06 | 富士フイルム株式会社 | 学習用データ作成支援装置、学習用データ作成支援方法、および学習用データ作成支援プログラム |
CN112136152A (zh) | 2018-03-15 | 2020-12-25 | 奇跃公司 | 由观看设备的部件变形导致的图像校正 |
US11095814B2 (en) | 2018-05-25 | 2021-08-17 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP7319303B2 (ja) | 2018-05-31 | 2023-08-01 | マジック リープ, インコーポレイテッド | レーダ頭部姿勢位置特定 |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
US10795458B2 (en) | 2018-08-03 | 2020-10-06 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
JP2022523852A (ja) | 2019-03-12 | 2022-04-26 | マジック リープ, インコーポレイテッド | 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ |
JP7288792B2 (ja) * | 2019-04-24 | 2023-06-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置およびデバイス情報導出方法 |
US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
WO2021097318A1 (en) * | 2019-11-14 | 2021-05-20 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
WO2021097323A1 (en) | 2019-11-15 | 2021-05-20 | Magic Leap, Inc. | A viewing system for use in a surgical environment |
US11917117B2 (en) | 2020-09-17 | 2024-02-27 | Canon Kabushiki Kaisha | Processing system, processing method and non-transitory computer-readable storage medium |
GB2620909A (en) * | 2022-07-04 | 2024-01-31 | Opteran Tech Limited | Method and system for determining the structure, connectivity and identity of a physical or logical space or attribute thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030012410A1 (en) * | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
JP2008064735A (ja) * | 2006-08-11 | 2008-03-21 | Canon Inc | 画像処理方法、画像処理装置 |
WO2012011180A1 (ja) * | 2010-07-22 | 2012-01-26 | パイオニア株式会社 | 拡張現実感装置及びその制御方法 |
JP2014112056A (ja) * | 2012-12-05 | 2014-06-19 | Denso It Laboratory Inc | 被写体形状の3次元計測方法およびシステム |
JP2015158461A (ja) * | 2014-02-25 | 2015-09-03 | 富士通株式会社 | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7084887B1 (en) * | 1999-06-11 | 2006-08-01 | Canon Kabushiki Kaisha | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
JP4346950B2 (ja) * | 2003-05-02 | 2009-10-21 | キヤノン株式会社 | 情報処理方法および装置 |
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
JP4689380B2 (ja) * | 2004-09-28 | 2011-05-25 | キヤノン株式会社 | 情報処理方法および装置 |
JP5036260B2 (ja) * | 2006-09-14 | 2012-09-26 | キヤノン株式会社 | 位置姿勢算出方法及び装置 |
JP4868186B2 (ja) * | 2007-01-23 | 2012-02-01 | 日本電気株式会社 | マーカ生成及びマーカ検出のシステム、方法とプログラム |
JP4876056B2 (ja) * | 2007-11-16 | 2012-02-15 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP5178860B2 (ja) * | 2011-02-24 | 2013-04-10 | 任天堂株式会社 | 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法 |
US10685490B2 (en) | 2016-03-10 | 2020-06-16 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
-
2016
- 2016-11-30 JP JP2016233501A patent/JP6917701B2/ja active Active
-
2017
- 2017-11-29 US US15/826,083 patent/US10510159B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030012410A1 (en) * | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
JP2008064735A (ja) * | 2006-08-11 | 2008-03-21 | Canon Inc | 画像処理方法、画像処理装置 |
WO2012011180A1 (ja) * | 2010-07-22 | 2012-01-26 | パイオニア株式会社 | 拡張現実感装置及びその制御方法 |
JP2014112056A (ja) * | 2012-12-05 | 2014-06-19 | Denso It Laboratory Inc | 被写体形状の3次元計測方法およびシステム |
JP2015158461A (ja) * | 2014-02-25 | 2015-09-03 | 富士通株式会社 | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020201572A (ja) * | 2019-06-06 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7341736B2 (ja) | 2019-06-06 | 2023-09-11 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6917701B2 (ja) | 2021-08-11 |
US10510159B2 (en) | 2019-12-17 |
US20180150971A1 (en) | 2018-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6917701B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
US11887247B2 (en) | Visual localization | |
US10977818B2 (en) | Machine learning based model localization system | |
JP5950973B2 (ja) | フレームを選択する方法、装置、及びシステム | |
US20230334798A1 (en) | Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service | |
US11348267B2 (en) | Method and apparatus for generating a three-dimensional model | |
WO2018112788A1 (zh) | 图像处理方法及设备 | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
JP2021535466A (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
KR101851303B1 (ko) | 3차원 공간 재구성 장치 및 방법 | |
US11620730B2 (en) | Method for merging multiple images and post-processing of panorama | |
CN110503711B (zh) | 在增强现实中渲染虚拟物体的方法及装置 | |
CN111639147B (zh) | 一种地图压缩方法、系统及计算机可读存储介质 | |
JP5439277B2 (ja) | 位置姿勢計測装置及び位置姿勢計測プログラム | |
da Silveira et al. | Dense 3D scene reconstruction from multiple spherical images for 3-DoF+ VR applications | |
JP2018113021A (ja) | 情報処理装置およびその制御方法、プログラム | |
CN114066999A (zh) | 基于三维建模的目标定位系统及方法 | |
JP2015153321A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2020027390A (ja) | 注意対象推定装置及び注意対象推定方法 | |
Li et al. | Research on MR virtual scene location method based on image recognition | |
WO2021190655A1 (en) | Method for merging multiple images and post-processing of panorama | |
JP2020101922A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2012123567A (ja) | オブジェクト検出方法、オブジェクト検出装置およびオブジェクト検出プログラム | |
Tatematsu et al. | Detection and segmentation of moving objects from dynamic RGB and depth images | |
CN112070175A (zh) | 视觉里程计方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201120 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210720 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6917701 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |