JP6821762B2 - 畳み込みニューラルネットワークを利用してpoi変化を検出するためのシステムおよび方法 - Google Patents
畳み込みニューラルネットワークを利用してpoi変化を検出するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP6821762B2 JP6821762B2 JP2019185375A JP2019185375A JP6821762B2 JP 6821762 B2 JP6821762 B2 JP 6821762B2 JP 2019185375 A JP2019185375 A JP 2019185375A JP 2019185375 A JP2019185375 A JP 2019185375A JP 6821762 B2 JP6821762 B2 JP 6821762B2
- Authority
- JP
- Japan
- Prior art keywords
- poi
- image
- images
- training
- signage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 102
- 238000013527 convolutional neural network Methods 0.000 title claims description 56
- 238000012549 training Methods 0.000 claims description 132
- 230000008859 change Effects 0.000 claims description 60
- 239000002131 composite material Substances 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 13
- 238000002156 mixing Methods 0.000 claims description 5
- 238000012015 optical character recognition Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000006870 function Effects 0.000 description 19
- 230000000007 visual effect Effects 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 11
- 238000002372 labelling Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 3
- 206010047571 Visual impairment Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000001932 seasonal effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 235000013410 fast food Nutrition 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 238000010792 warming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
本出願は、入力された一対のPOIイメージからPOI変化を検出するために畳み込みニューラルネットワーク(CNN)をトレーニングさせるためのトレーニングイメージのベースを生成する方法、より詳細には、前記第1方法によって生成されるベースから入力された一対のPOIイメージからPOI変化を検出するためにCNNをトレーニングさせる方法、さらに詳細には、前記第2方法によってトレーニングされたCNNを用いて入力された一対のPOIイメージからPOI変化を検出する方法を開示する。
商店正面に関連する事例において、イメージからPOI変化が検出された後、フランチャイズの認識が検出される。例えば、フランチャイズに変化した場合、POI変化が検出されてよい。本出願では、POI検出器の種類またはPOIフランチャイズに対する明示上な知識は求めない。言い換えれば、本出願は、対応するフランチャイズ(前後)がトレーニング中にまったく見えなかったとしても、商店正面のPOI変化を検出することができる。
は、予め決定されている閾値である(以下を参照)。
トレーニングイメージのベースを生成する方法は、第1サーバ1aのデータプロセッサ11aによって実現される。このような方法は、CNN(特に、3−ストリームシャム類型NN)をトレーニングするためのトレーニングベースを設定する。
上述した第1例において、それぞれのPOIイメージは、POIを識別するラベルと連関する。このような場合に、段階a1は、キャプチャされたPOIイメージを手動でラベリングすることによって実行されてよい。しかし、キャプチャされたPOIイメージを手動でラベリングすることは、時間と資源の消耗となる。
で表示されるが、ここで、Wは、図6の例のように、このようなすべてのポイントのセットである。それぞれのイメージIaに対し、このようなイメージで通路外形のセットを示す幾何学的パラメータVaが計算されてよい。これは、レイキャスティング(ray casting)によって達成される。イメージのそれぞれのピクセルに対し、カメラレンズから始まる3D光線は、このピクセルを通過した後に初めて発生する
に透写される。
トレーニング方法は、第2サーバ11bのデータプロセッサ11bによって実現され、図9に示されている。トレーニング方法は、POI変化を検出するために3−ストリームシャム類型のCNNをトレーニングさせる。
入力された一対のPOIイメージからPOI変化を検出する方法は、第2サーバ1bのデータプロセッサユニット11cによって実行されてよく、図10に示されている。この方法は、トレーニングされたCNNによって入力されたPOIイメージを比較することにより、POI変化の発生を判断する。
未満である)であり、可視性IoUが十分であれば対をなし、
幾何学的重畳計算方法を参照とする。次の例示的な値または他の適切な値が
は、POI変化スコアSwを受信し、すべてのイメージ対「(シーイング(seeing))」に対する最大スコアとして計算される。
=2メートル)または他の適切な値を用いて通路外形に沿って局所的に滑らかになる。
本方法の効率は、標準mAP(mean−Average−Precision)マトリックによって評価されてよい。mAPは、インスタンス検索システムを評価する方法である。
のとおりである。
多様な実現において、本出願は、次のうちの少なくとも1つを実行するための(特に、第1、第2、および/または第3サーバ1a、1b、1cのデータプロセッサ11a、11b、11c上で)コード命令を含むコンピュータプログラム製品を含む、上述したトレーニングイメージのベースを生成する方法、上述した畳み込みニューラルネットワークCNNをトレーニングさせる方法、および上述した入力された一対のPOIイメージからPOI変化を検出する方法を提供する。コンピュータプログラム製品は、コンピュータ装備(例えば、第1、第2、および第3サーバ1a、1b、1cのうちの少なくとも1つ)によって読み取り可能かつ実行可能な記録手段(例えば、メモリ12a、12b、12c)に記録されてよい。
主題は、「サイネージ」によって識別されるその主要視覚的特徴を有する、売場正面を識別するPOIに対する特定の参照として説明されたが、添付の特許請求の範囲に定義された主題は、必ずしも特定の特徴として制限されるものではないということが理解できるであろう。または、上述した動作、上述した特定の特徴および動作は、1つの例示的な形態を提供する。例えば、POIは、商店正面の代りに博物館を識別してよく、このようなPOIの主要視覚的特徴(または、サイネージ領域)は、博物館内の作品であってよい。
Claims (26)
- 入力された一対のPOIイメージからPOI変化を検出する方法であって、
第1プロセッサにより、トレーニングPOIイメージのトリプレットに基づいて3−ストリームシャム類型の畳み込みニューラルネットワーク(CNN)をトレーニングさせる段階、
第2プロセッサにより、前記入力された一対のPOIイメージのそれぞれのイメージに対し、3−ストリームシャム類型のCNNのストリームを用いて該当のイメージのディスクリプタを計算する段階、
前記第2プロセッサにより、類似性スコア関数を用いて前記入力された一対のPOIイメージの前記イメージのディスクリプタに基づいて類似性スコアを計算する段階、および
前記第2プロセッサにより、前記類似性スコアに基づいてPOI変化を選択的に検出する段階
を含む方法。 - 前記POI変化を選択的に検出する段階は、前記第2プロセッサにより、前記類似性スコアが閾値よりも大きい場合、前記POI変化を検出する段階を含む、
請求項1に記載の方法。 - 前記POI変化を選択的に検出する段階は、前記第2プロセッサにより、前記類似性スコアが前記閾値よりも小さい場合、前記POI変化を検出しない段階を含む、
請求項2に記載の方法。 - 前記入力された一対のPOIイメージのイメージは、2つの異なる時間に同じ位置でキャプチャされる、
請求項1に記載の方法。 - トレーニングPOIイメージのトリプレットに基づいて3−ストリームシャム類型のCNNをトレーニングさせる段階は、
第3プロセッサにより、トレーニングPOIイメージのベースを生成する段階、
前記第1プロセッサにより、前記トレーニングPOIイメージのベースを用いて複数のトレーニングPOIイメージのトリプレットを生成する段階であって、それぞれのトリプレットは、第1トレーニングPOIイメージ、前記第1トレーニングPOIイメージと関連する第2トレーニングPOIイメージ、および前記第1および第2トレーニングPOIイメージとは関連のない第3トレーニングPOIイメージを含む、段階、
前記第1プロセッサにより、トレーニングPOIイメージがそれぞれ前記トレーニングPOIイメージと連関されたラベルに基づいて関連性の有無を判断する段階、および
前記第1プロセッサにより、トレーニングPOIイメージの前記トリプレットに基づいて3−ストリームシャム類型のCNNをトレーニングさせる段階
をさらに含む請求項1に記載の方法。 - 前記ラベルそれぞれは、前記連関されたトレーニングPOIイメージの6−自由度ポーズを含む、
請求項5に記載の方法。 - 前記トレーニングPOIイメージの関連性の有無を判断する段階は、
前記第1プロセッサにより、2つのトレーニングPOIイメージが第3閾値よりも大きい幾何学的重畳を示す場合、2つのトレーニングPOIイメージが関連するものと判断する段階、および
前記第1プロセッサにより、前記幾何学的重畳が第2閾値よりも小さい場合、前記2つのトレーニングPOIイメージは関連のないものと判断する段階
を含む、請求項6に記載の方法。 - 前記第1プロセッサにより、前記2つのPOIイメージそれぞれでそれぞれ見える通路外形のセット間のIoUに基づき、前記2つのトレーニングPOIイメージ間の幾何学的重畳を計算する段階
をさらに含む請求項7に記載の方法。 - 少なくとも1つのトリプレットは、第1トレーニングイメージの第1サイネージ領域を他のトレーニングPOIイメージからの第2サイネージ領域と入れ替えることによって生成される合成POIイメージを含む、
請求項5に記載の方法。 - トレーニングPOIイメージのベースを生成する段階は、
前記第3プロセッサにより、それぞれ連関されたラベルを有するPOIイメージの初期セットを取得する段階、
前記第3プロセッサにより、初期セットのサブセット内のそれぞれのPOIイメージに対し、該POIイメージからサイネージ領域を識別する段階であって、前記サイネージ領域は、前記POIイメージによって表現されたPOI上に位置されるサイネージを含む、段階、
前記第3プロセッサにより、第1POIイメージのサイネージ領域を第2POIイメージのサイネージ領域と入れ替えることにより、サブセットの第1POIイメージに対応する合成POIイメージを生成する段階、
前記第3プロセッサにより、前記合成POIイメージに前記第2POIイメージのラベルを連関させる段階、および
トレーニングPOIイメージの基礎として、前記POIイメージの初期セットおよび前記合成POIイメージを含むPOIイメージの最終セットを記録する段階
をさらに含む、請求項5に記載の方法。 - 前記第3プロセッサにより、第3POIイメージのサイネージ領域を第4POIイメージのサイネージ領域と入れ替えることにより、前記サブセットの第3POIイメージに対応する第2合成POIイメージを生成する段階、および
前記第3プロセッサにより、合成POIイメージに前記第4POIイメージのラベルを連関させる段階をさらに含み、
前記記録する段階は、前記第2合成POIイメージを前記最終セットに記録する段階をさらに含む、
請求項10に記載の方法。 - 前記最終セット内でPOIイメージの全体数のうちの少なくとも5%は、他のPOIイメージからサイネージ領域として生成される合成POIイメージである
請求項11に記載の方法。 - 最終セット内でPOIイメージの全体数のうちの少なくとも25%は、他のPOIイメージからサイネージ領域として生成される合成POIイメージである
請求項11に記載の方法。 - クロップされたサイネージイメージのコレクションを取得する段階をさらに含み、
前記合成POIイメージを生成する段階は、前記第1POIイメージの前記サイネージ領域を前記クロップされたサイネージイメージのコレクションから前記クロップされたサイネージイメージのうちから選択された1つのクロップされたサイネージイメージと入れ替える段階を含む
請求項10に記載の方法。 - 前記クロップされたサイネージイメージのコレクションから前記クロップされたサイネージイメージのうちから前記選択された1つをランダムで選択する段階
をさらに含む請求項14に記載の方法。 - 前記第1POIイメージの前記サイネージ領域の大きさおよび形状に適応するために前記クロップされたサイネージイメージのうちから前記選択された1つのアフィンワーピングを実行する段階
をさらに含む請求項15に記載の方法。 - ポアソンブレンディングを実行する段階
をさらに含む請求項16に記載の方法。 - 前記サイネージは、(a)前記POIイメージによって表現される前記POI上に位置された名称、および(b)POIイメージによって表現される前記POI上に位置されたロゴのうちの少なくとも1つを含む
請求項10に記載の方法。 - 前記POIイメージのそれぞれから前記サイネージ領域を識別する段階は、光学文字認識およびロゴ検出のうちの少なくとも1つを用いて前記POIイメージのそれぞれから前記サイネージ領域を識別する段階を含む
請求項18に記載の方法。 - 前記POIイメージと連関する前記ラベルはそれぞれ、前記POIイメージのうちの1つによって表現される前記POIを識別するラベルを含む
請求項10に記載の方法。 - 前記POIイメージと連関する前記ラベルはそれぞれ、前記POIイメージのうちの1つの位置および方向のうちの少なくとも1つを定義するラベルを含む
請求項10に記載の方法。 - 前記POIイメージと連関する前記ラベルはそれぞれ、前記POIイメージのうちの1つの6−自由度ポーズを定義するラベルを含む
請求項10に記載の方法。 - イメージ取得装置によってPOIの地理的に局在するイメージを取得することにより、POIイメージの前記初期セットを生成する段階
請をさらに含む求項10に記載の方法。 - 前記サブセットは、前記初期セットのすべてを含む
請求項10に記載の方法。 - 入力された一対のPOIイメージからPOI変化を検出するために畳み込みニューラルネットワーク(CNN)をトレーニングさせるためのトレーニングイメージのベースを生成する方法であって、
プロセッサにより、連関するラベルを有するPOIイメージの初期セットをそれぞれ取得する段階、
前記プロセッサにより、前記初期セットのサブセット内のそれぞれのPOIイメージに対し、該POIイメージからサイネージ領域を識別する段階であって、前記サイネージ領域は、POIイメージによって表現されたPOI上に位置するサイネージを含む、段階、
前記プロセッサにより、第1POIイメージのサイネージ領域を第2POIイメージのサイネージ領域と入れ替えることにより、前記サブセットの第1POIイメージに対応する合成POIイメージを生成する段階、
前記プロセッサにより、前記合成POIイメージに前記第2POIイメージの前記ラベルを連関させる段階、および
前記トレーニングイメージのベースとして、初期セットのPOIイメージおよび合成POIイメージを含むPOIイメージの最終セットを記録する段階
を含む方法。 - 入力された一対のPOIイメージからPOI変化を検出するための畳み込みニューラルネットワーク(CNN)をトレーニングさせる方法であって、
第1プロセッサにより、トレーニングPOIイメージのベースを生成する段階、
第2プロセッサにより、複数のトレーニングPOIイメージのトリプレットを生成する段階であって、それぞれのトリプレットは、第1POIイメージ、前記第1POIイメージと関連する第2POIイメージ、および前記第1および第2POIイメージとは関係のない第3POIイメージを含む、段階、
前記第2プロセッサにより、前記POIイメージがそれぞれPOIイメージと連関するラベルに基づいて関連性の有無を判断する段階、および
前記第2プロセッサにより、トレーニングPOIイメージのトリプレットに基づいて3−ストリームシャム類型のCNNをトレーニングさせる段階
を含む方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18306335.3 | 2018-10-09 | ||
EP18306335.3A EP3637303B1 (en) | 2018-10-09 | 2018-10-09 | Methods for generating a base of training images, for training a cnn and for detecting a poi change in a pair of inputted poi images using said cnn |
US16/575,687 US11055569B2 (en) | 2018-10-09 | 2019-09-19 | Systems and methods for detecting a point of interest change using a convolutional neural network |
US16/575,687 | 2019-09-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020061146A JP2020061146A (ja) | 2020-04-16 |
JP6821762B2 true JP6821762B2 (ja) | 2021-01-27 |
Family
ID=65138788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019185375A Active JP6821762B2 (ja) | 2018-10-09 | 2019-10-08 | 畳み込みニューラルネットワークを利用してpoi変化を検出するためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11055569B2 (ja) |
EP (1) | EP3637303B1 (ja) |
JP (1) | JP6821762B2 (ja) |
KR (1) | KR102261061B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024096309A1 (ko) * | 2022-10-31 | 2024-05-10 | 네이버랩스 주식회사 | Poi 변화 자동 탐지를 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101595797B1 (ko) * | 2014-05-12 | 2016-02-22 | 네이버 주식회사 | 지도 서비스를 제공하기 위한 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템 |
US11080884B2 (en) * | 2019-05-15 | 2021-08-03 | Matterport, Inc. | Point tracking using a trained network |
CN110647886A (zh) * | 2019-09-19 | 2020-01-03 | 北京百度网讯科技有限公司 | 兴趣点标注方法、装置、计算机设备和存储介质 |
CN111898440B (zh) * | 2020-06-30 | 2023-12-01 | 成都思晗科技股份有限公司 | 一种基于三维卷积神经网络的山火检测方法 |
CN111832579B (zh) * | 2020-07-20 | 2024-01-16 | 北京百度网讯科技有限公司 | 地图兴趣点数据处理方法、装置、电子设备以及可读介质 |
CN111859002B (zh) * | 2020-07-20 | 2024-07-12 | 北京百度网讯科技有限公司 | 兴趣点名称生成方法及装置、电子设备和介质 |
KR102374158B1 (ko) * | 2020-08-10 | 2022-03-16 | (주)아이웨이 | Gis 및 cnn 기반 공공데이터를 이용한 변화탐지 서비스 제공 방법 |
US20220172386A1 (en) * | 2020-11-27 | 2022-06-02 | Samsung Electronics Co., Ltd. | Method and device for simultaneous localization and mapping (slam) |
CN112417322B (zh) * | 2020-12-10 | 2024-03-22 | 长春理工大学 | 一种面向兴趣点名称文本的类型判别方法及系统 |
EP4016377B1 (en) * | 2020-12-21 | 2024-10-09 | Axis AB | A device and a method for associating object detections between frames using a neural network |
CN112288048B (zh) * | 2020-12-28 | 2021-03-26 | 湖南师范大学 | 一种基于多源数据驱动的城市人群出行识别方法 |
CN112861026B (zh) * | 2021-02-07 | 2022-02-25 | 贝壳找房(北京)科技有限公司 | 用户偏好挖掘方法、装置、介质和电子设备 |
CN113240023B (zh) * | 2021-05-19 | 2022-09-09 | 中国民航大学 | 基于变化图像分类和特征差值先验的变化检测方法及装置 |
CN113362373B (zh) * | 2021-06-01 | 2023-12-15 | 北京首都国际机场股份有限公司 | 基于双孪生网络的复杂机坪区域内飞机跟踪方法 |
CN113705588B (zh) * | 2021-10-28 | 2022-01-25 | 南昌工程学院 | 基于卷积自注意力模块的孪生网络目标跟踪方法与系统 |
WO2023132840A1 (en) * | 2022-01-10 | 2023-07-13 | Zeku, Inc. | Picture frame processing using machine learning |
CN115270007B (zh) * | 2022-08-17 | 2023-09-22 | 烟台大学 | 一种基于混合图神经网络的poi推荐方法及系统 |
CN115601318B (zh) * | 2022-10-10 | 2023-05-02 | 广东昱升个人护理用品股份有限公司 | 快吸收低反渗纸尿裤智能生产方法及其系统 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7336803B2 (en) | 2002-10-17 | 2008-02-26 | Siemens Corporate Research, Inc. | Method for scene modeling and change detection |
DE102005036998B4 (de) | 2005-08-05 | 2014-11-20 | Siemens Aktiengesellschaft | Vorrichtung zur automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten |
US10007863B1 (en) * | 2015-06-05 | 2018-06-26 | Gracenote, Inc. | Logo recognition in images and videos |
WO2016200406A1 (en) | 2015-06-12 | 2016-12-15 | Intergraph Corporation | Image change detection |
US10037477B2 (en) * | 2015-08-31 | 2018-07-31 | Massachusetts Institute Of Technology | Combined intensity and coherent change detection in images |
US10115032B2 (en) * | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
US10181185B2 (en) * | 2016-01-11 | 2019-01-15 | Kla-Tencor Corp. | Image based specimen process control |
US10909459B2 (en) * | 2016-06-09 | 2021-02-02 | Cognizant Technology Solutions U.S. Corporation | Content embedding using deep metric learning algorithms |
JP6934231B2 (ja) * | 2016-10-14 | 2021-09-15 | アイディー メトリクス グループ インコーポレイテッド | 身分証明書の改ざん検出方法 |
JP6216024B1 (ja) * | 2016-11-15 | 2017-10-18 | 株式会社Preferred Networks | 学習済モデル生成方法及び信号データ判別装置 |
JP6804965B2 (ja) * | 2016-12-15 | 2020-12-23 | 株式会社日立製作所 | 画像処理装置、画像処理システム、および画像処理方法 |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
US10678846B2 (en) * | 2017-03-10 | 2020-06-09 | Xerox Corporation | Instance-level image retrieval with a region proposal network |
US10522186B2 (en) * | 2017-07-28 | 2019-12-31 | Adobe Inc. | Apparatus, systems, and methods for integrating digital media content |
CN107562805B (zh) * | 2017-08-08 | 2020-04-03 | 浙江大华技术股份有限公司 | 一种以图搜图的方法及装置 |
-
2018
- 2018-10-09 EP EP18306335.3A patent/EP3637303B1/en active Active
-
2019
- 2019-09-19 US US16/575,687 patent/US11055569B2/en active Active
- 2019-10-01 KR KR1020190121389A patent/KR102261061B1/ko active IP Right Grant
- 2019-10-08 JP JP2019185375A patent/JP6821762B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024096309A1 (ko) * | 2022-10-31 | 2024-05-10 | 네이버랩스 주식회사 | Poi 변화 자동 탐지를 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
EP3637303A1 (en) | 2020-04-15 |
US11055569B2 (en) | 2021-07-06 |
US20200110966A1 (en) | 2020-04-09 |
KR20200040665A (ko) | 2020-04-20 |
EP3637303B1 (en) | 2024-02-14 |
KR102261061B1 (ko) | 2021-06-04 |
JP2020061146A (ja) | 2020-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6821762B2 (ja) | 畳み込みニューラルネットワークを利用してpoi変化を検出するためのシステムおよび方法 | |
Wei et al. | A vision and learning-based indoor localization and semantic mapping framework for facility operations and management | |
Maddern et al. | 1 year, 1000 km: The oxford robotcar dataset | |
Yeum et al. | Automated region-of-interest localization and classification for vision-based visual assessment of civil infrastructure | |
US11003956B2 (en) | System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression | |
CN110622213B (zh) | 利用3d语义地图进行深度定位和分段的系统和方法 | |
US11830249B2 (en) | Augmented reality, computer vision, and digital ticketing systems | |
Gerstweiler et al. | HyMoTrack: A mobile AR navigation system for complex indoor environments | |
US20200357131A1 (en) | Methods and Systems for Detecting and Assigning Attributes to Objects of Interest in Geospatial Imagery | |
US11170485B2 (en) | Method, apparatus, and system for automatic quality assessment of cross view feature correspondences using bundle adjustment techniques | |
Anagnostopoulos et al. | Gaze-Informed location-based services | |
US10810466B2 (en) | Method for location inference from map images | |
Zhang et al. | Indoor space recognition using deep convolutional neural network: a case study at MIT campus | |
CN111491131A (zh) | 集成由每个对象检测器检测的对象检测信息的方法及装置 | |
KR102106029B1 (ko) | 간판 검출 성능 향상을 위한 방법 및 시스템 | |
Revaud et al. | Did it change? learning to detect point-of-interest changes for proactive map updates | |
Liu et al. | A large-scale dataset for indoor visual localization with high-precision ground truth | |
Xiao et al. | Semantic Loop Closure Detection for Intelligent Vehicles Using Panoramas | |
Hara et al. | An initial study of automatic curb ramp detection with crowdsourced verification using google street view images | |
Wang et al. | ATG-PVD: ticketing parking violations on a drone | |
WO2021166290A1 (ja) | 物体検出装置、物体検出システム、および、物体検出方法 | |
CN113096104A (zh) | 目标分割模型的训练方法及装置和目标分割方法及装置 | |
Kılıçkaya et al. | Performance evaluation of YOLOv5 and YOLOv8 models in car detection | |
Luttrell IV | Data Collection and Machine Learning Methods for Automated Pedestrian Facility Detection and Mensuration | |
US20240233343A1 (en) | Vector Map Verification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6821762 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |