JP7336653B2 - ディープラーニングを利用した屋内位置測位方法 - Google Patents
ディープラーニングを利用した屋内位置測位方法 Download PDFInfo
- Publication number
- JP7336653B2 JP7336653B2 JP2021550081A JP2021550081A JP7336653B2 JP 7336653 B2 JP7336653 B2 JP 7336653B2 JP 2021550081 A JP2021550081 A JP 2021550081A JP 2021550081 A JP2021550081 A JP 2021550081A JP 7336653 B2 JP7336653 B2 JP 7336653B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- calculating
- images
- feature
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 66
- 238000013135 deep learning Methods 0.000 title claims description 39
- 238000013528 artificial neural network Methods 0.000 claims description 103
- 239000013598 vector Substances 0.000 claims description 78
- 230000011218 segmentation Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000013507 mapping Methods 0.000 description 53
- 238000010586 diagram Methods 0.000 description 24
- 238000000605 extraction Methods 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
Claims (18)
- ユーザー端末と連携して動作する3Dツアー提供サーバーで実行される屋内位置測位方法において、
複数のパノラマ画像を含む3Dツアーを呼び出す段階、
前記ユーザー端末に備えられたカメラで撮影した第1パースペクティブ画像を受信する段階、
前記第1パースペクティブ画像と、前記3Dツアーに含まれている前記複数のパノラマ画像のそれぞれに対するグローバルフィーチャーを算出する段階、
算出された前記グローバルフィーチャーを利用して、前記第1パースペクティブ画像と最も類似したパノラマ画像を選定する段階、
前記選定されたパノラマ画像及び前記第1パースペクティブ画像に含まれている特徴点を利用して、前記3Dツアー上で、前記カメラの位置に対応する屋内位置を計算する段階、及び
前記計算された屋内位置を前記ユーザー端末に提供する段階を含み、
前記グローバルフィーチャーを算出する段階は、
前記3Dツアーに含まれる特定のパノラマ画像を複数の第2パースペクティブ画像に変換する(a)段階と、
前記変換された第2パースペクティブ画像に対するそれぞれのグローバルフィーチャー及び前記パノラマ画像に対するグローバルフィーチャーを算出する(b)段階を含み、
前記第1パースペクティブ画像と最も類似したパノラマ画像を選定する段階は、
前記パノラマ画像に対する第1グローバルフィーチャー、前記第2パースペクティブ画像に対する第2グローバルフィーチャー、比較群画像に対する第3グローバルフィーチャー、及び前記パノラマ画像に対する基準値に対応される第4グローバルフィーチャーを受信し、
前記第1グローバルフィーチャー乃至前記第4グローバルフィーチャー間の類似度を、コサイン距離(cosine distance)関数を利用して算出し、
前記第1グローバルフィーチャー乃至前記第4グローバルフィーチャー間の類似度に基づいて、前記第1パースペクティブ画像と最も類似したパノラマ画像を選定する、
ことを含む、
屋内位置測位方法。 - 前記(a)段階は、
特徴パノラマ画像を球面座標系(spherical coordinate)に投影させて複数個の区域に区分し、
前記区分された各区域に対応する画像を、2次元画像である前記第2パースペクティブ画像に変換するが、
前記複数の第2パースペクティブ画像は、相互間で一部オーバーラップされる領域を含む、
請求項1に記載の屋内位置測位方法。 - 前記(b)段階は、
同じ場所を撮影した画像に対して同じグローバルフィーチャーが出力されるように事前に学習されたディープラーニングモジュールを利用して、前記グローバルフィーチャーを算出するが、
前記ディープラーニングモジュールは、
一つ以上のニューラルネットワークモジュールと、
前記ニューラルネットワークモジュールから出力された値の類似度を算出する類似度判断モジュールと、
算出された前記類似度に対して加重値を適用し、これをもとに結果値を出力する加重値モジュールと、
前記加重値モジュールで互いに異なる時点で出力された結果値の間の差分値を導出し、導出された前記差分値を、前記ニューラルネットワークモジュールにフィードバックとして提供するフィードバックモジュールを含む、
請求項1に記載の屋内位置測位方法。 - 前記ニューラルネットワークモジュールは、
前記フィードバックモジュールから受信したフィードバック値をもとに、前記ニューラルネットワークモジュールに含まれているニューラルネットワークに適用される加重値を調節する、
請求項3に記載の屋内位置測位方法。 - 前記第1パースペクティブ画像と、前記複数のパノラマ画像に対する分類情報(class)、位置情報(position)、キャプション(caption)、及びセグメンテーション(segmentation)を導出する段階を含むが、
前記最も類似したパノラマ画像を算出する段階は、
導出された前記グローバルフィーチャー、前記分類情報、前記位置情報、前記キャプション、及び前記セグメンテーションをもとに、前記パノラマ画像と前記第1パースペクティブ画像との間の各パラメータに対する類似度を計算する(c1)段階と、
前記各パラメータに対する類似度をもとに順位を算出し、前記順位が最も高いパノラマ画像を選定する(d)段階を含む、
請求項1に記載の屋内位置測位方法。 - ユーザー端末と連携して動作する3Dツアー提供サーバーで実行される屋内位置測位方法において、
複数のパノラマ画像を含む3Dツアーを呼び出す段階、
前記ユーザー端末に備えられたカメラで撮影した第1パースペクティブ画像を受信する段階、
前記第1パースペクティブ画像と、前記3Dツアーに含まれている前記複数のパノラマ画像のそれぞれに対するグローバルフィーチャーを算出する段階、
算出された前記グローバルフィーチャーを利用して、前記第1パースペクティブ画像と最も類似したパノラマ画像を選定する段階、
前記選定されたパノラマ画像及び前記第1パースペクティブ画像に含まれている特徴点を利用して、前記3Dツアー上で、前記カメラの位置に対応する屋内位置を計算する段階、及び
前記計算された屋内位置を前記ユーザー端末に提供する段階を含み、
前記第1パースペクティブ画像と、前記複数のパノラマ画像に対する分類情報(class)、位置情報(position)、キャプション(caption)、及びセグメンテーション(segmentation)を導出する段階を含むが、
前記最も類似したパノラマ画像を算出する段階は、
導出された前記グローバルフィーチャー、前記分類情報、前記位置情報、前記キャプション、及び前記セグメンテーションをもとに、前記パノラマ画像と前記第1パースペクティブ画像との間の各パラメータに対する類似度を計算する(c1)段階と、
前記各パラメータに対する類似度をもとに順位を算出し、前記順位が最も高いパノラマ画像を選定する(d)段階を含み、
前記最も類似したパノラマ画像を算出する段階は、
前記パノラマ画像をもとに生成された第2パースペクティブ画像と、前記ユーザー端末から受信した第1パースペクティブ画像との間の類似度を計算し、あらかじめ定められた基準値以上に類似した前記第2パースペクティブ画像の画像数を各パノラマ画像別にカウントして、前記カウントされた数値をもとに、各パノラマ画像の加重値を決定する(c2)段階をさらに含む、
屋内位置測位方法。 - 前記(d)段階は、
導出された前記グローバルフィーチャー、前記分類情報、前記位置情報、前記キャプション、及び前記セグメンテーションに対する前記パノラマ画像と前記第1パースペクティブ画像との間の類似度と、前記パノラマ画像に対する加重値を利用して、前記第1パースペクティブ画像と類似度が最も高いパノラマ画像を選定することを含む、
請求項6に記載の屋内位置測位方法。 - 前記屋内位置を計算する段階は、
前記算出されたパノラマ画像に対するローカルフィーチャーを算出する段階と、
パースペクティブ画像に対するローカルフィーチャーを算出する段階と、
前記算出されたローカルフィーチャーをもとに3Dツアー上のカメラの位置に該当する屋内位置を計算する段階を含む、
請求項6に記載の屋内位置測位方法。 - ユーザー端末と連携して動作する3Dツアー提供サーバーで実行される屋内位置測位方法において、
複数のパノラマ画像を含む3Dツアーを呼び出す段階、
前記ユーザー端末に備えられたカメラで撮影したパースペクティブ画像を受信する段階、
前記複数のパノラマ画像と前記パースペクティブ画像に対するグローバルフィーチャーを算出する段階、
前記算出されたグローバルフィーチャーを利用して、前記パースペクティブ画像と最も類似したパノラマ画像を選定する段階、
前記選定されたパノラマ画像及び前記パースペクティブ画像に対するローカルフィーチャーを算出する段階、
前記算出されたローカルフィーチャーをもとに、3Dツアー上の前記カメラの位置に対応する屋内位置を計算する段階、及び
前記計算された屋内位置をユーザーに提供する段階を含み、
前記グローバルフィーチャーを算出する段階は、
前記3Dツアーに含まれる特定のパノラマ画像を複数の第2パースペクティブ画像に変換する(a)段階と、
前記変換された第2パースペクティブ画像に対するそれぞれのグローバルフィーチャー及び前記パノラマ画像に対するグローバルフィーチャーを算出する(b)段階を含み、
前記パースペクティブ画像と最も類似したパノラマ画像を選定する段階は、
前記パノラマ画像に対する第1グローバルフィーチャー、前記第2パースペクティブ画像に対する第2グローバルフィーチャー、比較群画像に対する第3グローバルフィーチャー、及び前記パノラマ画像に対する基準値に対応される第4グローバルフィーチャーを受信し、
前記第1グローバルフィーチャー乃至前記第4グローバルフィーチャー間の類似度を、コサイン距離(cosine distance)関数を利用して算出し、
前記第1グローバルフィーチャー乃至前記第4グローバルフィーチャー間の類似度に基づいて、前記パースペクティブ画像と最も類似したパノラマ画像を選定する、
ことを含む、
屋内位置測位方法。 - 前記ローカルフィーチャーを算出する段階で、
前記パノラマ画像に対する第1パッチを生成する過程は、前記パースペクティブ画像に対する第2パッチを生成する過程と互いに異なる構成となる、
請求項9に記載の屋内位置測位方法。 - 前記ローカルフィーチャーを算出する段階は、
前記パノラマ画像を互いに異なる大きさの複数の層に変換する(a)段階と、
変換された前記複数の層でキーポイント(KP)を抽出し、抽出された前記キーポイントに対応する第1パッチを生成する(b)段階と、
前記第1パッチに対する第1ローカルフィーチャーを導出する(c)段階を含む、
請求項9に記載の屋内位置測位方法。 - 前記(a)段階で、
前記複数の層は、
前記パノラマ画像と同じ大きさの第1層と、
前記第1層をあらかじめ決められた割合で変換させた第2層と、
前記第2層を前記あらかじめ決められた割合で変換させた第3層を含む、
請求項11に記載の屋内位置測位方法。 - 前記(b)段階は、
前記パノラマ画像の前記複数の層にそれぞれに対するキーポイントの位置情報を抽出する段階と、
前記パノラマ画像を球面座標系(spherical coordinate)に投影させ、前記位置情報に対応する領域のパッチを抽出する段階と、
前記抽出されたパッチを2次元画像である前記第1パッチに変換する段階を含む、
請求項11に記載の屋内位置測位方法。 - 前記(c)段階で、
前記第1ローカルフィーチャーは、あらかじめ決められた大きさのベクトル値であり、
前記第1パッチに対する第1軸の座標、前記第1軸と交差する第2軸の座標、及びスケールを含む座標情報を出力することをさらに含む、
請求項12に記載の屋内位置測位方法。 - 前記ローカルフィーチャーを算出する段階は、
前記パースペクティブ画像を互いに異なる大きさの複数の層に変換する(a)段階と、
変換された前記複数の層でキーポイント(KP)を抽出し、抽出された前記キーポイントに対応する第2パッチを生成する(b)段階と、
前記第2パッチに対する第2ローカルフィーチャーを導出する(c)段階を含む、
請求項9に記載の屋内位置測位方法。 - 前記ローカルフィーチャーを算出する段階は、
同じ場所を撮影した画像に対して、同じローカルフィーチャーが出力されるように事前に学習されたディープラーニングモジュールを利用して、前記ローカルフィーチャーを算出するが、
前記ディープラーニングモジュールは、
一つ以上のニューラルネットワークモジュールと、前記ニューラルネットワークモジュールに加重値を適用し、これをもとに結果値を出力する加重値モジュールを含むディスクリプタ抽出器と、
前記ディスクリプタ抽出器から互いに異なる時点で出力された結果値の間の差分値を導出し、導出された前記差分値を前記ディスクリプタ抽出器にフィードバックとして提供するマルチパッチロス算出器を含む、
請求項9に記載の屋内位置測位方法。 - 前記マルチパッチロス算出器は、
前記パノラマ画像に対する第1パッチの第1ローカルフィーチャーと、前記パースペクティブ画像に対する第2パッチの第2ローカルフィーチャーを受信し、
前記第1ローカルフィーチャー及び第2ローカルフィーチャー間の類似度を、コサイン距離(cosine distance)関数を利用して算出することを含む、
請求項16に記載の屋内位置測位方法。 - 前記屋内位置を計算する段階は、
第1ローカルフィーチャー及び第2ローカルフィーチャーをもとに、前記パースペクティブ画像を提供したユーザーの屋内位置を算出するが、
前記第1ローカルフィーチャー及び第2ローカルフィーチャーの位置に基づいて、エピポーラ幾何(Epipolar Geometry)アルゴリズムを介した相対的な位置関係を判断したり、画像の接続のための変換行列を利用する方法を介して相対的な位置関係を判断することにより、前記屋内位置を算出することを含む、
請求項9に記載の屋内位置測位方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200139176A KR102449031B1 (ko) | 2020-10-26 | 2020-10-26 | 딥러닝을 이용한 실내 위치 측위 방법 |
KR10-2020-0139152 | 2020-10-26 | ||
KR10-2020-0139176 | 2020-10-26 | ||
KR1020200139152A KR102495005B1 (ko) | 2020-07-13 | 2020-10-26 | 딥러닝을 이용한 실내 위치 측위 방법 |
PCT/KR2021/002213 WO2022092451A1 (ko) | 2020-10-26 | 2021-02-22 | 딥러닝을 이용한 실내 위치 측위 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023509105A JP2023509105A (ja) | 2023-03-07 |
JP7336653B2 true JP7336653B2 (ja) | 2023-09-01 |
Family
ID=81257399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021550081A Active JP7336653B2 (ja) | 2020-10-26 | 2021-02-22 | ディープラーニングを利用した屋内位置測位方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11961256B2 (ja) |
JP (1) | JP7336653B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11809520B1 (en) * | 2021-03-29 | 2023-11-07 | Amazon Technologies, Inc. | Localized visual similarity |
CN116993949A (zh) * | 2022-12-21 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 虚拟环境的显示方法、装置、可穿戴电子设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006065399A (ja) | 2004-08-24 | 2006-03-09 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2010062911A (ja) | 2008-09-04 | 2010-03-18 | Canon Inc | 画像処理装置、画像処理方法およびプログラム |
JP2011039974A (ja) | 2009-08-18 | 2011-02-24 | Kddi Corp | 画像検索方法およびシステム |
JP2011113197A (ja) | 2009-11-25 | 2011-06-09 | Kddi Corp | 画像検索方法およびシステム |
US20140222783A1 (en) | 2011-04-21 | 2014-08-07 | The Trustees Of Columbia University In The City Of New York | Systems and methods for automatically determining an improved view for a visual query in a mobile search |
JP2017220230A (ja) | 2016-06-02 | 2017-12-14 | ネイバー コーポレーションNAVER Corporation | イメージの内容に基づく地図イメージ検索方法、地図イメージ検索システム及びコンピュータプログラム |
US20190005719A1 (en) | 2017-06-29 | 2019-01-03 | Open Space Labs, Inc. | Automated spatial indexing of images based on floorplan features |
WO2019082381A1 (ja) | 2017-10-27 | 2019-05-02 | 楽天株式会社 | 画像抽出装置、画像抽出方法及び画像抽出プログラム |
JP2019125227A (ja) | 2018-01-18 | 2019-07-25 | 光禾感知科技股▲ふん▼有限公司 | 屋内測位方法及びシステム、ならびにその屋内マップを作成するデバイス |
JP2019212296A (ja) | 2018-05-31 | 2019-12-12 | キヤノンメディカルシステムズ株式会社 | 医用情報処理装置、方法及びプログラム |
JP2020526829A (ja) | 2017-07-07 | 2020-08-31 | ナイアンティック, インコーポレイテッドNiantic,Inc. | クラウド対応の拡張現実 |
WO2020194792A1 (ja) | 2019-03-26 | 2020-10-01 | 日本電信電話株式会社 | 検索装置、学習装置、検索方法、学習方法及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170076195A1 (en) | 2015-09-10 | 2017-03-16 | Intel Corporation | Distributed neural networks for scalable real-time analytics |
KR101854612B1 (ko) | 2016-12-19 | 2018-05-04 | 인천대학교 산학협력단 | 구면 파노라마 영상을 위한 표본 기반 영상 인페인팅 장치 및 방법 |
US10530997B2 (en) * | 2017-07-13 | 2020-01-07 | Zillow Group, Inc. | Connecting and using building interior data acquired from mobile devices |
KR20200046437A (ko) | 2018-10-24 | 2020-05-07 | 삼성전자주식회사 | 영상 및 맵 데이터 기반 측위 방법 및 장치 |
-
2021
- 2021-02-22 JP JP2021550081A patent/JP7336653B2/ja active Active
- 2021-08-26 US US17/412,717 patent/US11961256B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006065399A (ja) | 2004-08-24 | 2006-03-09 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2010062911A (ja) | 2008-09-04 | 2010-03-18 | Canon Inc | 画像処理装置、画像処理方法およびプログラム |
JP2011039974A (ja) | 2009-08-18 | 2011-02-24 | Kddi Corp | 画像検索方法およびシステム |
JP2011113197A (ja) | 2009-11-25 | 2011-06-09 | Kddi Corp | 画像検索方法およびシステム |
US20140222783A1 (en) | 2011-04-21 | 2014-08-07 | The Trustees Of Columbia University In The City Of New York | Systems and methods for automatically determining an improved view for a visual query in a mobile search |
JP2017220230A (ja) | 2016-06-02 | 2017-12-14 | ネイバー コーポレーションNAVER Corporation | イメージの内容に基づく地図イメージ検索方法、地図イメージ検索システム及びコンピュータプログラム |
US20190005719A1 (en) | 2017-06-29 | 2019-01-03 | Open Space Labs, Inc. | Automated spatial indexing of images based on floorplan features |
JP2020526829A (ja) | 2017-07-07 | 2020-08-31 | ナイアンティック, インコーポレイテッドNiantic,Inc. | クラウド対応の拡張現実 |
WO2019082381A1 (ja) | 2017-10-27 | 2019-05-02 | 楽天株式会社 | 画像抽出装置、画像抽出方法及び画像抽出プログラム |
JP2019125227A (ja) | 2018-01-18 | 2019-07-25 | 光禾感知科技股▲ふん▼有限公司 | 屋内測位方法及びシステム、ならびにその屋内マップを作成するデバイス |
JP2019212296A (ja) | 2018-05-31 | 2019-12-12 | キヤノンメディカルシステムズ株式会社 | 医用情報処理装置、方法及びプログラム |
WO2020194792A1 (ja) | 2019-03-26 | 2020-10-01 | 日本電信電話株式会社 | 検索装置、学習装置、検索方法、学習方法及びプログラム |
Non-Patent Citations (1)
Title |
---|
董 亜飛、外2名,"BoFの分割表現を用いた画像検索による自己位置・方位推定",情報処理学会研究報告,日本,情報処理学会,2013年05月23日,Vol.2013-CVIM-187, No.15,pp.1-6 |
Also Published As
Publication number | Publication date |
---|---|
JP2023509105A (ja) | 2023-03-07 |
US20220130069A1 (en) | 2022-04-28 |
US11961256B2 (en) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220262039A1 (en) | Positioning method, electronic device, and storage medium | |
CN107953329B (zh) | 物体识别和姿态估计方法、装置及机械臂抓取系统 | |
US10909369B2 (en) | Imaging system and method for object detection and localization | |
WO2022033076A1 (zh) | 目标检测方法、装置、设备、存储介质及程序产品 | |
CN107329962B (zh) | 图像检索数据库生成方法、增强现实的方法及装置 | |
JP7430243B2 (ja) | 視覚的測位方法及び関連装置 | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
JP7336653B2 (ja) | ディープラーニングを利用した屋内位置測位方法 | |
CN111368751A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN110070578B (zh) | 一种回环检测方法 | |
CN112084849A (zh) | 图像识别方法和装置 | |
WO2024012333A1 (zh) | 位姿估计方法及相关模型的训练方法、装置、电子设备、计算机可读介质和计算机程序产品 | |
KR102449031B1 (ko) | 딥러닝을 이용한 실내 위치 측위 방법 | |
US11295162B2 (en) | Visual object instance descriptor for place recognition | |
CN113298871B (zh) | 地图生成方法、定位方法及其系统、计算机可读存储介质 | |
KR20230049969A (ko) | 글로벌 측위 장치 및 방법 | |
KR101715782B1 (ko) | 물체 인식 시스템 및 그 물체 인식 방법 | |
CN116105721A (zh) | 地图构建的回环优化方法、装置、设备及存储介质 | |
KR102495005B1 (ko) | 딥러닝을 이용한 실내 위치 측위 방법 | |
CN107341151B (zh) | 图像检索数据库生成方法、增强现实的方法及装置 | |
US20210034915A1 (en) | Method and apparatus for object re-identification | |
Zhang et al. | Lifted semantic graph embedding for omnidirectional place recognition | |
WO2023091131A1 (en) | Methods and systems for retrieving images based on semantic plane features | |
CN111724438B (zh) | 一种数据处理方法、装置 | |
WO2023189195A1 (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7336653 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |