JP2013182523A - 画像処理装置、画像処理システム、画像処理方法 - Google Patents
画像処理装置、画像処理システム、画像処理方法 Download PDFInfo
- Publication number
- JP2013182523A JP2013182523A JP2012047272A JP2012047272A JP2013182523A JP 2013182523 A JP2013182523 A JP 2013182523A JP 2012047272 A JP2012047272 A JP 2012047272A JP 2012047272 A JP2012047272 A JP 2012047272A JP 2013182523 A JP2013182523 A JP 2013182523A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- feature amount
- message
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】本発明に係る画像処理装置は、対象物のCG画像と位置を記述するCG画像データを格納するCG画像データベースを備え、カメラ画像の特徴量とCG画像の特徴量を比較してカメラ画像に合致するCG画像を特定することにより、カメラ位置と姿勢を推定する。
【選択図】図1
Description
図1は、本発明の実施形態1に係る画像処理システム1000の構成を示すブロック図である。画像処理システム1000は、カメラが撮像した画像に基づき当該カメラの位置や姿勢を推定するためのシステムであり、カメラ付端末10、カメラサーバ20、カメラ位置姿勢推定サーバ30を備える。
(参考文献)D. Matsubara and A. Hiroike, "High-speed Similarity-based Image Retrieval with Data-alignment Optimization using Self-organization Algorithm," 11th IEEE International Symposium on Multimedia, pp.312--317, 2009。
図10は、カメラ101の位置と姿勢を推定する方法を示す模式図である。カメラ付端末10は、カメラ101が撮影したカメラ画像11をクエリとし、カメラ101の位置と姿勢を推定するよう、カメラ位置姿勢推定サーバ30へ要求する。カメラサーバ20はカメラ画像11の特徴量を算出し、カメラ位置姿勢推定サーバ30へ送信する。カメラ位置姿勢推定サーバ30は、CG画像DB32が格納しているCG画像データの特徴量とカメラ画像11の特徴量との間のベクトル空間内での距離を算出し、最も距離が近いCG画像データがカメラ画像11に類似していると判定する。カメラ位置姿勢推定サーバ30は、類似していると判定したCG画像データのカメラ位置フィールド322とカメラ方向フィールド323を、クエリ結果としてカメラ付端末10へ返信する。
(図11:ステップS1101〜S1102)
カメラ付端末10は、対象物を撮像してカメラ画像11を生成し(S1101)、カメラサーバ20へ送信する(S1102)。このときカメラ付端末10は、カメラ101の位置と姿勢を推定して返信するように、カメラサーバ20へ要求する。
カメラサーバ20の特徴量算出部202は、カメラ画像11の特徴量14を算出し(S1103)、カメラ画像11とともにカメラ位置姿勢推定サーバ30へ送信する(S1104)。本ステップにおいてカメラ位置姿勢推定サーバ30へ送信する情報は、類似画像を検索するために必要な情報のみでもよい。例えばカメラID111と特徴量14のみでもよい。
カメラ位置姿勢推定サーバ30の検索部304は、特徴量14とCG画像DB32に登録されている画像特徴量325との間のベクトル空間中における距離を評価することにより、カメラ画像11に類似する画像を検索する。具体的には、ベクトル空間中における距離が最も近いCG画像データを、類似画像として取得する。検索部304は、ステップS1105で取得した類似画像に対応するカメラ位置フィールド322とカメラ方向フィールド323を取得する。
検索部304は、ステップS1105で取得したカメラ位置フィールド322とカメラ方向フィールド323を、カメラサーバ20へ送信する(S1106)。カメラサーバ20は、受け取ったカメラ位置フィールド322とカメラ方向フィールド323を、クエリ結果としてカメラ付端末10へ送信する(S1107)。
図12は、カメラ付端末10がメッセージを表示部103に画面表示する方法を示した模式図である。以下、図12に示す手順について説明する。
(図13:ステップS1301〜S1305)
これらのステップは、図11のステップS1101〜S1105と同様である。ただしステップS1301において、カメラ付端末10は、カメラ101の撮像範囲に付随するメッセージを返信するように、カメラサーバ20へ要求する。
カメラ位置姿勢推定サーバ30の検索部304は、ステップS1305で取得したカメラ位置フィールド322とカメラ方向フィールド323に基づき、カメラ101が撮影し得る範囲を算出し、メッセージ位置333がその撮影範囲内にあるメッセージ332を3次元タグDB33から検索する。
検索部304は、ステップS1306で取得したメッセージ位置333をカメラ画像11上の座標へ変換し、メッセージ332とともにカメラサーバ20へ送信する(S1307)。カメラサーバ20は、受信したメッセージ位置333とメッセージ332を、カメラ付端末10へ送信する(S1308)。カメラ付端末10は、そのメッセージ位置333にしたがって、表示部103上でカメラ101が撮像している画像に重ねてメッセージ332を表示する(S1309)。
以上のように、本実施形態1に係る画像処理システム1000は、点群データから仮想カメラを用いてレンダリングしたCG画像データをCG画像DB32内に保持しておき、カメラ付端末10が撮影した画像の特徴量とCG画像データの特徴量を比較することにより、カメラ101の位置と姿勢を推定する。これにより、カメラ101の位置と姿勢を推定するためにあらかじめ3次元CADデータを準備しておく必要がなくなり、作業負担を軽減することができる。また、画像の特徴量同士を比較することにより、高速に推定結果を得ることができる。
カメラ画像を用いてカメラの位置姿勢を推定する処理(トラッキング)は、実施の形態1のように類似画像検索を用いることも可能である。さらに、トラッキングは、カメラ画像と、仮想カメラの位置姿勢をパラメータとしてレンダリングしたCG画像との類似度を用いた収束計算によって実現することが可能である。このような類似度を用いた収束計算によるトラッキングでは、収束計算の初期値が重要である。収束計算に用いる初期値が適切でない場合には、正しくない位置姿勢に収束することが考えられる。これは、類似度の収束計算において、局所最大に陥るためである。正しい位置姿勢を求めるためには、収束計算の初期値が重要である。そこで本発明の実施形態2では、実施形態1で説明した手法を初期値設定のために転用し、その初期値を開始点として類似度最大化の計算を繰り返してカメラパラメータを収束させることにより、カメラ101の位置と姿勢の推定精度を高めることを図る。
(図16:ステップS1601)
収束計算部307は、検索部304が取得したカメラ位置フィールド322とカメラ方向フィールド323を、CG画像生成部303が使用する仮想カメラの位置および方向の初期値として設定する。ただし本ステップを2回目以降に実施するときは、後述するステップS1607で更新したカメラ位置と方向を、仮想カメラの位置および方向として設定する。
収束計算部307は、CG画像生成部303の機能を使用して、点群DB31が格納している点群データに対して現在の仮想カメラの位置と姿勢を基準としてポイントベースレンダリングを実施することにより、CG画像を生成する。点群データは対象物を撮像した画像そのものではなく、対象物上の複数点の座標と色を示すものであるため、カメラ画像11と直接的に比較することはできない。点群データが表すドット集合と2次元画像は、互いに異なる種類のデータだからである。そこで本ステップにおいて、点群データから公知のポイントベースレンダリングを用いて2次元画像を生成し、カメラ画像11と直接比較できるようにすることとした。
収束計算部307は、カメラ付端末10から受け取ったカメラ画像11と、ステップS1602で生成したCG画像とを比較し、両者の類似度を求める。類似度は、2つの画像間の誤差の2乗平均(SSD:Sum of Squared Differences)によって求められる他、後述する相互情報量を画像間の類似度とすることができる。また、これらの値に何らかの演算を施して導出した値を類似度としてもよい。
収束計算部307は、ステップS1603で算出した類似度が極大値に収束したか否かを判定する。類似度が収束している場合はステップS1605に進み、収束していない場合はステップS1606に進む。
収束計算部307は、通信部305を介して、現在の仮想カメラの位置と姿勢をカメラ情報データ13としてカメラ付端末10に送信する。
収束計算部307は、本ステップを前回実施したときよりも類似度が改善されているかどうかを判定する。改善されている場合にはステップS1607に進み、改善されていない場合にはステップS1608に進む。
収束計算部307は、より高い類似度を得るために、仮想カメラの位置と姿勢を更新する。具体的には、例えば現在の仮想カメラの位置と姿勢を適当に変化させて新たな位置と姿勢を設定する。本ステップの後はステップS1601に戻り、同様の処理を繰り返すことにより、カメラ画像11とCG画像との間の類似度を最大化する。
収束計算部307は、類似度が収束せず、かつ改善もされない場合には、カメラ101の位置と姿勢を推定することに失敗したと判定し、計算を打ち切って本処理フローを終了する。
ステップS1603において、画像間の類似度として相互情報量を用いることができる。相互情報量を計算するためには、まずCG画像の輝度値と、カメラ画像11の輝度値とから、2次元ヒストグラムを求める。次に、その2次元ヒストグラムを用いて計算される確率密度関数を用いて、相互情報量を計算する。
以上のように、本実施形態2に係る画像処理システム1000は、特徴量14を用いて推定したカメラ位置と姿勢を初期値として、図16の収束計算によってカメラ画像とCG画像の類似度を最大化うる。これにより、カメラ101の位置と姿勢の推定精度を高めることができる。
CG画像DB32が格納しているCG画像データは、カメラ101が撮影した画像そのものではないため、CG画像データを対象とする類似画像検索の精度は、カメラ画像11を対象とする類似画像検索の精度と比較して必ずしも高くないと考えられる。そこで本発明の実施形態3では、実施形態2において推定結果が収束した場合には、そのカメラ画像11をCG画像データの追加分としてCG画像DB32に追加し、以後の類似画像検索においてCG画像データと同様に取り扱うこととする。本実施形態3に係る画像処理システム1000の構成は、カメラ画像11をCG画像DB32に追加する点を除いて実施形態2と同様であるため、以下では差異点を中心に説明する。
以上のように、本実施形態3に係る画像処理システム1000は、点群データから生成したCG画像データに加えて、カメラ画像11をCG画像DB32に登録する。これにより、カメラ101の位置および姿勢の推定精度を向上させることができる。
一般にカメラ101の位置方向は急激に変化するものではないため、直前のカメラ画像11を用いてカメラ位置方向の推定に成功した場合には、そのカメラ位置方向を推定の初期値として収束計算を実施することにより、カメラ位置方向を推定することができると考えられる。そこで本発明の実施形態4では、実施形態2において直前のカメラ画像11を用いてカメラ位置方向の推定に成功した場合には、現在のカメラ画像11のカメラ位置方向推定の初期値として直前のカメラ位置方向を用いる。初期値の設定以外の構成については実施形態2と同様であるため、以下では差異点を中心に説明する。
(図18:ステップS1801〜S1802)
収束計算部307は、カメラ画像11を取得する(S1801)。直前の推定対象であるカメラ画像11についてカメラ位置方向の推定が成功している場合にはステップS1803に進み、失敗している場合にはステップS1804に進む(S1802)。
収束計算部307は、直前の推定対象であるカメラ画像11のカメラ位置方向の推定結果を、現在の推定対象であるカメラ画像11についての仮想カメラの位置方向の初期値として設定する。
直前の推定対象であるカメラ画像11についてカメラ位置方向の推定が失敗している場合には、検索部304は、ステップS1801で取得したカメラ画像11に対して、実施形態1で説明した手法により、類似するCG画像データをCG画像DB32から検索する(S1804)。収束計算部307は、その結果得られたCGが像データに対応するカメラ位置フィールド322とカメラ方向フィールド323を、現在の推定対象であるカメラ画像11についての仮想カメラの位置方向の初期値として設定する(S1805)。
収束計算部307は、ステップS1803〜S1805で設定した初期値を用いて、図16で説明した手法により収束計算を実施する
収束計算部307は、ステップS1806においてカメラ位置方向の推定が成功したかどうかを判定する。成功した場合にはステップS1808に進み、失敗した場合には本フローチャートを終了する。
収束計算部307は、ステップS1806で求められたカメラ位置方向の推定値を、カメラサーバ20経由でカメラ付端末10に送信する。
以上のように、本実施形態4に係る画像処理システム1000は、直前のカメラ画像11についての推定結果を初期値とするため、高速にカメラ位置方向を推定することができる。また、カメラ101の急激な移動などによってカメラ位置方向の推定が失敗した場合であっても、実施形態2と同様の手法により初期値を設定することにより、カメラ位置方向の推定を再開することができる。
Claims (9)
- カメラが撮像した対象物の画像を取得する画像取得部と、
前記画像取得部が取得した画像の特徴量を算出する特徴量算出部と、
前記対象物のCG画像と位置を記述するCG画像データを格納するCG画像データベースと、
前記特徴量算出部が算出した前記画像の前記特徴量と前記CG画像データベースが格納している前記CG画像の特徴量を比較して前記画像に合致する前記CG画像を特定することにより前記カメラの位置と姿勢を推定する推定部と、
を備えたことを特徴とする画像処理装置。 - 前記画像処理装置はさらに、
前記対象物上の点の位置と色を記述する点群データを格納する点群データベースと、
前記点群データからCG画像を生成してその生成時に設定した仮想カメラの位置および方向とともに前記CG画像データベースへ格納するCG画像生成部と、
を備え、
前記推定部は、
前記推定によって得られた前記カメラの位置と方向を前記仮想カメラの位置と方向の初期値として、前記CG画像生成部に前記点群データからCG画像を生成させ、
前記仮想カメラの位置と方向を変化させながら前記CG画像生成部が前記生成したCG画像と前記画像とを比較する処理を繰り返して前記画像に合致する前記CG画像を特定することにより、前記カメラの位置と姿勢を推定する
ことを特徴とする請求項1記載の画像処理装置。 - 前記推定部は、
前記初期値を用いた前記推定が失敗した場合は、
前記初期値を得るための前記推定を実施した際に前記画像との間の合致度が所定値以上であった、前記カメラのその他の位置および方向を、新たな前記初期値として前記繰り返しを実施することにより、前記カメラの位置と姿勢を再推定する
ことを特徴とする請求項2記載の画像処理装置。 - 前記推定部は、
前記推定が成功した場合には、前記推定によって得られた前記画像と、前記推定によって得られた前記カメラの位置および方向を、前記CG画像データの追加分として前記CG画像データベースに追加する
ことを特徴とする請求項2記載の画像処理装置。 - 前記推定部は、
前記カメラが撮影した直前の画像について前記推定が成功した場合は、
前記直前の画像について推定した前記カメラの位置と方向を前記仮想カメラの初期値として前記繰り返しを実施することにより、前記カメラの位置と方向を推定し、
前記カメラが撮影した直前の画像について前記推定が失敗した場合は、
前記特徴量算出部が算出した現在の前記画像についての特徴量と前記CG画像データベースが格納している前記CG画像の特徴量を比較して前記画像に合致する前記CG画像を特定することにより前記カメラの位置と姿勢を推定し、
その位置と方向を前記仮想カメラの位置と方向の初期値として前記繰り返しを実施することにより、前記カメラの位置と方向を推定する
ことを特徴とする請求項2記載の画像処理装置。 - 前記カメラが撮像している画像に重畳表示すべきメッセージとその表示位置を記述するメッセージデータを格納するメッセージデータベースと、
前記推定部が推定した前記カメラの位置と姿勢に応じて、前記メッセージを前記カメラが撮像している画像に重畳表示すべき位置を特定し、その位置およびその位置に重畳表示すべきメッセージを前記カメラに通知するメッセージ位置推定部と、
を備えることを特徴とする請求項1記載の画像処理装置。 - 対象物の画像を撮影するカメラと、
請求項1記載の画像処理装置と、
を有し、
前記画像取得部は、前記カメラが撮像した前記対象物の画像を取得する
ことを特徴とする画像処理システム。 - 前記画像処理装置は、
前記カメラが撮像している画像に重畳表示すべきメッセージとその表示位置を記述するメッセージデータを格納するメッセージデータベースと、
前記推定部が推定した前記カメラの位置と姿勢に応じて、前記メッセージを前記カメラが撮像している画像に重畳表示すべき位置を特定し、その位置およびその位置に重畳表示すべきメッセージを前記カメラに通知するメッセージ位置推定部と、
を備え、
前記カメラは、
前記メッセージ位置推定部が通知した前記メッセージを表示する表示部を備える
ことを特徴とする請求項7記載の画像処理システム。 - カメラが撮像した対象物の画像を取得する画像取得ステップ、
前記画像取得ステップで取得した画像の特徴量を算出する特徴量算出ステップ、
前記対象物のCG画像と位置を記述するCG画像データを格納するCG画像データベースから前記CG画像データを読み出すステップ、
前記特徴量算出ステップで算出した前記画像の前記特徴量と前記CG画像データベースが格納している前記CG画像の特徴量を比較して前記画像に合致する前記CG画像を特定することにより前記カメラの位置と姿勢を推定するステップ、
を有することを特徴とする画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012047272A JP5837848B2 (ja) | 2012-03-02 | 2012-03-02 | 画像処理装置、画像処理システム、画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012047272A JP5837848B2 (ja) | 2012-03-02 | 2012-03-02 | 画像処理装置、画像処理システム、画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013182523A true JP2013182523A (ja) | 2013-09-12 |
JP5837848B2 JP5837848B2 (ja) | 2015-12-24 |
Family
ID=49273111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012047272A Active JP5837848B2 (ja) | 2012-03-02 | 2012-03-02 | 画像処理装置、画像処理システム、画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5837848B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016170060A (ja) * | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | 設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法 |
CN106168464A (zh) * | 2016-07-10 | 2016-11-30 | 哈尔滨理工大学 | 一种基于机器视觉的主轴动态回转精度测试方法 |
JPWO2014097413A1 (ja) * | 2012-12-19 | 2017-01-12 | 株式会社日立製作所 | 作業支援端末および作業支援システム |
JP2017097770A (ja) * | 2015-11-27 | 2017-06-01 | 富士通株式会社 | カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム |
JP2017129567A (ja) * | 2016-01-20 | 2017-07-27 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019070898A (ja) * | 2017-10-06 | 2019-05-09 | 富士通株式会社 | 推定プログラム、推定装置、及び推定方法 |
WO2021117552A1 (ja) * | 2019-12-10 | 2021-06-17 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、及びプログラム |
JP7317401B2 (ja) | 2019-06-28 | 2023-07-31 | 上海交通大学 | 三次元点群に基づく初期視野角の制御と提示の方法及びシステム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11213135A (ja) * | 1998-01-29 | 1999-08-06 | Matsushita Electric Ind Co Ltd | 画像検索装置 |
JP2003287434A (ja) * | 2002-01-25 | 2003-10-10 | Iwane Kenkyusho:Kk | 画像情報検索システム |
JP2005215917A (ja) * | 2004-01-29 | 2005-08-11 | Hitachi Plant Eng & Constr Co Ltd | 施工図作成支援方法およびリプレースモデル作成方法 |
JP2010066934A (ja) * | 2008-09-10 | 2010-03-25 | Nippon Yusoki Co Ltd | 3次元モデルを用いた自己位置認識手法及び自己位置認識システム |
US20100103075A1 (en) * | 2008-10-24 | 2010-04-29 | Yahoo! Inc. | Reconfiguring reality using a reality overlay device |
JP2010267232A (ja) * | 2009-05-18 | 2010-11-25 | Canon Inc | 位置姿勢推定方法および装置 |
-
2012
- 2012-03-02 JP JP2012047272A patent/JP5837848B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11213135A (ja) * | 1998-01-29 | 1999-08-06 | Matsushita Electric Ind Co Ltd | 画像検索装置 |
JP2003287434A (ja) * | 2002-01-25 | 2003-10-10 | Iwane Kenkyusho:Kk | 画像情報検索システム |
JP2005215917A (ja) * | 2004-01-29 | 2005-08-11 | Hitachi Plant Eng & Constr Co Ltd | 施工図作成支援方法およびリプレースモデル作成方法 |
JP2010066934A (ja) * | 2008-09-10 | 2010-03-25 | Nippon Yusoki Co Ltd | 3次元モデルを用いた自己位置認識手法及び自己位置認識システム |
US20100103075A1 (en) * | 2008-10-24 | 2010-04-29 | Yahoo! Inc. | Reconfiguring reality using a reality overlay device |
JP2010267232A (ja) * | 2009-05-18 | 2010-11-25 | Canon Inc | 位置姿勢推定方法および装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2014097413A1 (ja) * | 2012-12-19 | 2017-01-12 | 株式会社日立製作所 | 作業支援端末および作業支援システム |
JP2016170060A (ja) * | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | 設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法 |
JP2017097770A (ja) * | 2015-11-27 | 2017-06-01 | 富士通株式会社 | カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム |
JP2017129567A (ja) * | 2016-01-20 | 2017-07-27 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
CN106168464A (zh) * | 2016-07-10 | 2016-11-30 | 哈尔滨理工大学 | 一种基于机器视觉的主轴动态回转精度测试方法 |
JP2019070898A (ja) * | 2017-10-06 | 2019-05-09 | 富士通株式会社 | 推定プログラム、推定装置、及び推定方法 |
JP7317401B2 (ja) | 2019-06-28 | 2023-07-31 | 上海交通大学 | 三次元点群に基づく初期視野角の制御と提示の方法及びシステム |
WO2021117552A1 (ja) * | 2019-12-10 | 2021-06-17 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5837848B2 (ja) | 2015-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5837848B2 (ja) | 画像処理装置、画像処理システム、画像処理方法 | |
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
CN111199564B (zh) | 智能移动终端的室内定位方法、装置与电子设备 | |
US9619942B2 (en) | Coordinate geometry augmented reality process | |
JP5582548B2 (ja) | 実環境視像における仮想情報の表示方法 | |
US11113882B2 (en) | Generating immersive trip photograph visualizations | |
US10127667B2 (en) | Image-based object location system and process | |
US20200202158A1 (en) | Methods and systems for detecting and analyzing a region of interest from multiple points of view | |
JP5467177B2 (ja) | 情報提供装置、情報提供方法、情報提供処理プログラム、情報提供処理プログラムを記録した記録媒体、及び情報提供システム | |
JP6180647B2 (ja) | クラウドポイントを利用した屋内地図構築装置および方法 | |
CN110335351B (zh) | 多模态ar处理方法、装置、系统、设备及可读存储介质 | |
WO2014112138A1 (ja) | 情報処理装置、情報処理システム及び情報処理プログラム | |
JP2019190974A (ja) | キャリブレーション装置、キャリブレーション方法、及びプログラム | |
CN113656477A (zh) | 一种国土空间多源异构数据的校验与融合方法 | |
JP5248236B2 (ja) | 画像処理装置および画像処理方法 | |
CN112215964A (zh) | 基于ar的场景导览方法和设备 | |
JP5837404B2 (ja) | 画像処理装置、画像処理方法 | |
CN111832579A (zh) | 地图兴趣点数据处理方法、装置、电子设备以及可读介质 | |
JP5707238B2 (ja) | 画像検索装置及び画像検索システム | |
JP2019121176A (ja) | 位置特定装置、位置特定方法、位置特定プログラムおよびカメラ装置 | |
CN114674328B (zh) | 地图生成方法、装置、电子设备、存储介质、及车辆 | |
JP2013214158A (ja) | 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム | |
KR100782152B1 (ko) | 3차원 수치지도를 제작하기 위하여 항공사진 db로부터건물의 3차원 데이터를 획득하는 방법 | |
Guo et al. | Fusion of WiFi and vision based on smart devices for indoor localization | |
WO2023053485A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20130708 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150804 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5837848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |