JP2023528530A - 訓練装置、制御方法、及びプログラム - Google Patents
訓練装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2023528530A JP2023528530A JP2022575285A JP2022575285A JP2023528530A JP 2023528530 A JP2023528530 A JP 2023528530A JP 2022575285 A JP2022575285 A JP 2022575285A JP 2022575285 A JP2022575285 A JP 2022575285A JP 2023528530 A JP2023528530 A JP 2023528530A
- Authority
- JP
- Japan
- Prior art keywords
- image
- aerial
- ground
- level negative
- imagery
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 284
- 238000000034 method Methods 0.000 title claims description 33
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000009466 transformation Effects 0.000 claims description 97
- 238000013528 artificial neural network Methods 0.000 claims description 59
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 26
- 230000004048 modification Effects 0.000 claims description 18
- 238000012986 modification Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
Description
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含む。
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む。
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含む。
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む。
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含む。
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む。
図1は、実施形態1の訓練装置2000の概要を示す。なお、図1は、訓練装置2000の可能な動作の例を示すものであり、訓練装置2000の動作を限定しない。
本実施形態の訓練装置2000によれば、対応する地上画像に含まれる景色とは異なる種類の景色が含まれる第1レベル負例を利用して、識別器10が訓練される。さらに、対応する地上画像に含まれる景色と同じ種類の景色が含まれる第2レベル負例を利用して、識別器10が訓練される。
図3は、実施形態1の訓練装置2000の機能構成の例を示すブロック図である。訓練装置2000は、取得部2020、第1フェーズ訓練部2040、及び第2フェーズ訓練部2060を有する。取得部2020は、訓練データセットを取得する。第1フェーズ訓練部2040は、取得した訓練データセット内の地上画像、正例、及び第1レベル負例を用いて、識別器10の第1フェーズ訓練を行う。第2フェーズ訓練部2060は、取得した訓練データセット内の地上画像、正例、及び第2レベル負例を用いて、識別器10の第2フェーズ訓練を行う。
訓練装置2000は、1つ以上のコンピュータで実現されうる。それら1つ以上のコンピュータのそれぞれは、訓練装置2000を実現するために作成された専用のコンピュータであってもよいし、パーソナルコンピュータ(PC: Personal Computer)、サーバマシン又はモバイルデバイスなどの汎用のコンピュータであってもよい。訓練装置2000は、コンピュータにアプリケーションをインストールすることで実現されうる。そのアプリケーションは、コンピュータを訓練装置2000として機能させるプログラムで実現される。言い換えれば、そのプログラムは、訓練装置2000の機能構成部を実装したものである。
例えば、前述したように、訓練装置2000は複数のコンピュータで実現されうる。この場合、それらのコンピュータは、ネットワークを介して互いに接続されうる。
前述したように、識別器10は、訓練装置2000の中に実装されてもよいし、他の装置の中に実装されてもよい。後者の場合、他のコンピュータが、その中に識別器10が実装されている装置を実装するために利用される。このコンピュータのハードウエア構成は、図4に示されているコンピュータ1000と同様の構成を持ちうる。
図5は、実施形態1の訓練装置2000によって実行される処理の流れの例を示すフローチャートである。取得部2020は、1つ以上の訓練データセットを取得する(S102)。第1フェーズ訓練部2040は、識別器10の第1フェーズ訓練を行う(S104)。第2フェーズ訓練部2060は、識別器10の第2フェーズ訓練を行う(S106)。
識別器10は、地上画像と空撮画像を取得し、地上画像と空撮画像とがマッチするか否かを判定する。この判定は様々な方法で実現しうる。例えば、識別器10は、地上画像の特徴量と空撮画像の特徴量を抽出し、地上画像の特徴量と空撮画像の特徴量の類似度を算出する。算出した類似度が高い(例えば、所定の閾値以上である)場合、地上画像と空撮画像とがマッチすると判定される。一方、算出した類似度が低い(例えば、所定の閾値未満である)場合、地上画像と空撮画像とがマッチしないと判定される。
識別器10のアプリケーションには様々なものがある。例えば識別器10は、画像ジオローカライゼーションを行うシステム(以下、ジオローカライゼーションシステム)の一部として利用することができる。画像ジオローカライゼーションは、入力された画像の撮像場所を特定する技術である。ここで、ジオローカライゼーションシステムはあくまで、識別器10のアプリケーションの一例であり、識別器10のアプリケーションは、ジオローカライゼーションシステムの中で利用されるものに限定されない。
取得部2020は、1つ以上の訓練データセットを取得する(S102)。前述したように、訓練データセットは、地上画像、正例、第1レベル負例、及び第2レベル負例を含む。ここで、複数の第1負例が訓練データセットには含まれうる。同様に、複数の第2負例が訓練データセットには含まれうる。以下、訓練データセットを取得する方法の例について説明する。
第1フェーズ訓練部2040は、識別器10の第1フェーズ訓練を行う。以下、第1フェーズ訓練を行う方法の例が記述される。
第2フェーズ訓練部2060は、識別器10の第2フェーズ訓練を行う(S106)。第2レベル負例を用いなければならないことを除き、第2フェーズ訓練の実行方法は、第1フェーズ訓練の実行方法と同じである。具体的には、例えば識別器10は、訓練データセット内の地上画像と正例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。同様に、識別器10は、地上画像と第2レベル負例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。訓練デーセットが複数の第2レベル負例を含む場合、各第1レベル負例が順に利用される。なお、第2フェーズ訓練において、第1フェーズ訓練と同じ態様で、第1レベル負例がさらに用いられてもよい。
識別器10は、地上画像と空撮画像のマッチングを行うために付加データを利用してもよい。付加データの例は、方向情報である。地上画像に対応する方向情報は、画像の各部分について、方位角と高度のセットを示しうる。一方、空撮画像に対応する方向情報は、画像の各部分について、ラジアル距離と方位角のセットを示しうる。そのような方向情報の例は、非特許文献1に開示されている。
訓練装置2000は、識別器10の訓練の結果を出力しうる。訓練の結果は様々な態様で出力されうる。例えば訓練装置2000は、識別器10の訓練済みのパラメータ(例えば、ニューラルネットワークの各コネクションに与えられた重み)を記憶装置に格納したり、識別器10が利用される装置へ訓練済みのパラメータを送信したりしうる。ここで、パラメータだけでなく、識別器10を実装するプログラムがさらに出力されてもよい。
図8は、実施形態2の訓練装置2000の概要を示す。ここで、図8は、訓練装置2000の可能な動作の例を示すものであり、訓練装置2000の動作を限定しない。また、以下で説明される点を除き、実施形態2の訓練装置2000は、実施形態1の訓練装置2000と同じ機能を持ちうる。
実施形態2の訓練装置2000によって行われる識別器10の訓練は、実施形態1の訓練装置2000によって行われるものよりも多くのフェーズを含む。そのため、実施形態2の訓練装置2000は、実施形態1の訓練装置2000によって訓練された識別器10よりも高い精度で地上画像と空撮画像とのマッチングを行えるように、識別器10を訓練することができる。
図9は、実施形態2の訓練装置2000の機能構成の例を示すブロック図である。実施形態2の訓練装置2000は、第3フェーズ訓練部2080をさらに有する。第3フェーズ訓練部2080は、地上画像、正例、及び第3レベル負例を用いて、識別器10の第3フェーズ訓練を行う。
実施形態2の訓練装置2000のハードウエア構成は、実施形態1の訓練装置2000のハードウエア構成と同様に、図4で表されうる。しかしながら、実施形態2のストレージデバイス1080は、実施形態2の訓練装置2000の機能を実現するプログラムを格納している。
図10は、実施形態2の訓練装置2000によって実行される処理の流れを示すフローチャートである。第2フェーズ訓練の後、第3フェーズ訓練部2080は、第3レベル負例を用いて第3フェーズ訓練を行う(S202)。
前述したように、第3レベル負例は、地上画像との類似度が、第2レベル負例と地上画像の類似度よりも高くなるように、第2レベル負例に基づいて生成される。地上画像と空撮画像との類似度は、それらの特徴量(画像に含まれる各物体の位置、方向、及びサイズなど)の類似に基づくものである。画像に含まれる物体は、例えば、道路、建物、駐車場、矢印マーク、標識、及び草木などでありうる。その他にも例えば、画像の特徴量は、画像内の線の位置、方向、及びサイズ、並びにエッジでありうる。
第3フェーズ訓練部2080は、識別器10の第3フェーズ訓練を行う(S202)。第3フェーズ訓練は、第3フェーズ訓練では第3レベル負例が用いられるという点で、第1フェーズ訓練及び第2フェーズ訓練と異なる。そのため、第1レベル負例や第2レベル負例の代わりに第3レベル負例が用いられるという点を除き、第3フェーズ訓練を行う方法は、第1フェーズ訓練を行う方法や第2フェーズ訓練を行う方法と同じである。具体的には、例えば、識別器10は、訓練データセットに含まれる地上画像と正例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。同様に、識別器10は、地上画像と第3レベル負例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。
(付記1)
少なくとも一つのプロセッサと、命令が格納されている記憶要素とを有し、
前記少なくとも一つのプロセッサは、前記命令を実行することにより、
識別器の第1フェーズ訓練を実行し、前記識別器は、地上画像と空撮画像を取得し、前記地上画像と前記空撮画像とがマッチするか否かを判定し、
前記識別器の第2フェーズ訓練を実行するように構成され、
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含み、
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む、訓練装置。
(付記2)
前記少なくとも一つのプロセッサは、
前記空撮画像の正例及び空撮画像の複数の負例を取得し、
各前記取得した空撮画像の景色の種類を特定し、
前記空撮画像の前記正例の景色とは異なる種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第1レベル負例として用い、
前記空撮画像の前記正例の景色と同じ種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第2レベル負例として用いるようにさらに構成されている、付記1に記載の訓練装置。
(付記3)
前記少なくとも一つのプロセッサは、
前記地上画像に対する類似度が、前記地上画像に対する前記空撮画像の前記第2レベル負例の類似度よりも高い、前記空撮画像の第3レベル負例を取得し、
前記地上画像と前記空撮画像の前記第3レベル負例とを用いて、前記識別器の第3フェーズ訓練を行うように、さらに構成されている、付記1又は2に記載の訓練装置。
(付記4)
前記少なくとも1つのプロセッサは、
前記地上画像と、前記空撮画像の前記第2レベル負例との特徴量を抽出し、
前記地上画像と、前記空撮画像の前記第2レベル負例との前記抽出された特徴量に基づいて、変換パラメータを生成し、
前記変換パラメータに基づいて、前記空撮画像の前記第2レベル負例を前記空撮画像の前記第3レベル負例に変換することにより、前記第3レベル負例を取得するように、さらに構成されている、付記3に記載の訓練装置。
(付記5)
前記変換は、クロップ処理、アフィン変換、色変更、又は画像インペインティングを含み、
前記変換がクロップ処理を含む場合、前記変換パラメータは、切り出されるべき空撮画像の前記第2レベル負例の部分を指定し、
前記変換がアフィン変換を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例に対して行われる前記アフィン変換に用いられる変換行列を含み、
前記変換が色変更を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに対して適用されるべき色の特徴の変更とのセットを含み、
前記変換が画像インペインティングを含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに設定されるべき新たなピクセル値とのセットを含む、付記4に記載の訓練装置。
(付記6)
前記識別器は、第1ニューラルネットワークと、第2ニューラルネットワークと、第3ニューラルネットワークとを含み、
前記第1ニューラルネットワークは、前記地上画像を取得して、前記地上画像の特徴マップを出力し、
前記第2ニューラルネットワークは、前記空撮画像を取得して、前記空撮画像の特徴マップを出力し、
前記第3ニューラルネットワークは、前記地上画像の特徴マップと前記空撮画像の特徴マップとを取得し、前記地上画像と前記空撮画像とがマッチするか否かを示すデータを出力する、付記1から5いずれか一項に記載の訓練装置。
(付記7)
識別器の第1フェーズ訓練を実行し、前記識別器は、地上画像と空撮画像を取得し、前記地上画像と前記空撮画像とがマッチするか否かを判定し、
前記識別器の第2フェーズ訓練を実行することを含み、
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含み、
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む、コンピュータによって実行される制御方法。
(付記8)
前記空撮画像の正例及び空撮画像の複数の負例を取得し、
各前記取得した空撮画像の景色の種類を特定し、
前記空撮画像の前記正例の景色とは異なる種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第1レベル負例として用い、
前記空撮画像の前記正例の景色と同じ種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第2レベル負例として用いることをさらに含む、付記7に記載の制御方法。
(付記9)
前記地上画像に対する類似度が、前記地上画像に対する前記空撮画像の前記第2レベル負例の類似度よりも高い、前記空撮画像の第3レベル負例を取得し、
前記地上画像と前記空撮画像の前記第3レベル負例とを用いて、前記識別器の第3フェーズ訓練を行うことをさらに含む、付記7又は8に記載の制御方法。
(付記10)
前記地上画像と、前記空撮画像の前記第2レベル負例との特徴量を抽出し、
前記地上画像と、前記空撮画像の前記第2レベル負例との前記抽出された特徴量に基づいて、変換パラメータを生成し、
前記変換パラメータに基づいて、前記空撮画像の前記第2レベル負例を前記空撮画像の前記第3レベル負例に変換することにより、前記第3レベル負例を取得することをさらに含む、付記9に記載の制御方法。
(付記11)
前記変換は、クロップ処理、アフィン変換、色変更、又は画像インペインティングを含み、
前記変換がクロップ処理を含む場合、前記変換パラメータは、切り出されるべき空撮画像の前記第2レベル負例の部分を指定し、
前記変換がアフィン変換を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例に対して行われる前記アフィン変換に用いられる変換行列を含み、
前記変換が色変更を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに対して適用されるべき色の特徴の変更とのセットを含み、
前記変換が画像インペインティングを含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに設定されるべき新たなピクセル値とのセットを含む、付記10に記載の制御方法。
(付記12)
前記識別器は、第1ニューラルネットワークと、第2ニューラルネットワークと、第3ニューラルネットワークとを含み、
前記第1ニューラルネットワークは、前記地上画像を取得して、前記地上画像の特徴マップを出力し、
前記第2ニューラルネットワークは、前記空撮画像を取得して、前記空撮画像の特徴マップを出力し、
前記第3ニューラルネットワークは、前記地上画像の特徴マップと前記空撮画像の特徴マップとを取得し、前記地上画像と前記空撮画像とがマッチするか否かを示すデータを出力する、付記7から11いずれか一項に記載の制御方法。
(付記13)
識別器の第1フェーズ訓練を実行し、前記識別器は、地上画像と空撮画像を取得し、前記地上画像と前記空撮画像とがマッチするか否かを判定し、
前記識別器の第2フェーズ訓練を実行することをコンピュータに実行させるプログラムが格納されており、
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含み、
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む、非一時的なコンピュータ可読媒体。
(付記14)
前記プログラムは、
前記空撮画像の正例及び空撮画像の複数の負例を取得し、
各前記取得した空撮画像の景色の種類を特定し、
前記空撮画像の前記正例の景色とは異なる種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第1レベル負例として用い、
前記空撮画像の前記正例の景色と同じ種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第2レベル負例として用いることを、さらに前記コンピュータに実行させる、付記13に記載の非一時的なコンピュータ可読媒体。
(付記15)
前記プログラムは、
前記地上画像に対する類似度が、前記地上画像に対する前記空撮画像の前記第2レベル負例の類似度よりも高い、前記空撮画像の第3レベル負例を取得し、
前記地上画像と前記空撮画像の前記第3レベル負例とを用いて、前記識別器の第3フェーズ訓練を行うことを、前記コンピュータにさらに実行させる、付記13又は14に記載の非一時的なコンピュータ可読媒体。
(付記16)
前記プログラムは、
前記地上画像と、前記空撮画像の前記第2レベル負例との特徴量を抽出し、
前記地上画像と、前記空撮画像の前記第2レベル負例との前記抽出された特徴量に基づいて、変換パラメータを生成し、
前記変換パラメータに基づいて、前記空撮画像の前記第2レベル負例を前記空撮画像の前記第3レベル負例に変換することにより、前記第3レベル負例を取得することを、前記コンピュータにさらに実行させる、付記15に記載の非一時的なコンピュータ可読媒体。
(付記17)
前記変換は、クロップ処理、アフィン変換、色変更、又は画像インペインティングを含み、
前記変換がクロップ処理を含む場合、前記変換パラメータは、切り出されるべき空撮画像の前記第2レベル負例の部分を指定し、
前記変換がアフィン変換を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例に対して行われる前記アフィン変換に用いられる変換行列を含み、
前記変換が色変更を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに対して適用されるべき色の特徴の変更とのセットを含み、
前記変換が画像インペインティングを含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに設定されるべき新たなピクセル値とのセットを含む、付記16に記載の非一時的なコンピュータ可読媒体。
(付記18)
前記識別器は、第1ニューラルネットワークと、第2ニューラルネットワークと、第3ニューラルネットワークとを含み、
前記第1ニューラルネットワークは、前記地上画像を取得して、前記地上画像の特徴マップを出力し、
前記第2ニューラルネットワークは、前記空撮画像を取得して、前記空撮画像の特徴マップを出力し、
前記第3ニューラルネットワークは、前記地上画像の特徴マップと前記空撮画像の特徴マップとを取得し、前記地上画像と前記空撮画像とがマッチするか否かを示すデータを出力する、付記13から17いずれか一項に記載の非一時的なコンピュータ可読媒体。
12 抽出ネットワーク
14 抽出ネットワーク
16 判定ネットワーク
20 ジオローカライゼーションシステム
30 位置データベース
1000 コンピュータ
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 訓練装置
2020 取得部
2040 第1フェーズ訓練部
2060 第2フェーズ訓練部
2080 第3フェーズ訓練部
2082 例生成部
2084 抽出部
2085 抽出部
2086 パラメータ生成部
2087 変換部
第2フェーズ訓練部2060は、識別器10の第2フェーズ訓練を行う(S106)。第2レベル負例を用いなければならないことを除き、第2フェーズ訓練の実行方法は、第1フェーズ訓練の実行方法と同じである。具体的には、例えば第2フェーズ訓練部2060は、訓練データセット内の地上画像と正例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。同様に、第2フェーズ訓練部2060は、地上画像と第2レベル負例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。訓練デーセットが複数の第2レベル負例を含む場合、各第1レベル負例が順に利用される。なお、第2フェーズ訓練において、第1フェーズ訓練と同じ態様で、第1レベル負例がさらに用いられてもよい。
第3フェーズ訓練部2080は、識別器10の第3フェーズ訓練を行う(S202)。第3フェーズ訓練は、第3フェーズ訓練では第3レベル負例が用いられるという点で、第1フェーズ訓練及び第2フェーズ訓練と異なる。そのため、第1レベル負例や第2レベル負例の代わりに第3レベル負例が用いられるという点を除き、第3フェーズ訓練を行う方法は、第1フェーズ訓練を行う方法や第2フェーズ訓練を行う方法と同じである。具体的には、例えば、第3フェーズ訓練部2080は、訓練データセットに含まれる地上画像と正例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。同様に、第3フェーズ訓練部2080は、地上画像と第3レベル負例を識別器10に入力し、識別器10からの出力を用いて、識別器10のパラメータを更新しうる。
Claims (18)
- 少なくとも一つのプロセッサと、命令が格納されている記憶要素とを有し、
前記少なくとも一つのプロセッサは、前記命令を実行することにより、
識別器の第1フェーズ訓練を実行し、前記識別器は、地上画像と空撮画像を取得し、前記地上画像と前記空撮画像とがマッチするか否かを判定し、
前記識別器の第2フェーズ訓練を実行するように構成され、
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含み、
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む、訓練装置。 - 前記少なくとも一つのプロセッサは、
前記空撮画像の正例及び空撮画像の複数の負例を取得し、
各前記取得した空撮画像の景色の種類を特定し、
前記空撮画像の前記正例の景色とは異なる種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第1レベル負例として用い、
前記空撮画像の前記正例の景色と同じ種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第2レベル負例として用いるようにさらに構成されている、請求項1に記載の訓練装置。 - 前記少なくとも一つのプロセッサは、
前記地上画像に対する類似度が、前記地上画像に対する前記空撮画像の前記第2レベル負例の類似度よりも高い、前記空撮画像の第3レベル負例を取得し、
前記地上画像と前記空撮画像の前記第3レベル負例とを用いて、前記識別器の第3フェーズ訓練を行うように、さらに構成されている、請求項1又は2に記載の訓練装置。 - 前記少なくとも1つのプロセッサは、
前記地上画像と、前記空撮画像の前記第2レベル負例との特徴量を抽出し、
前記地上画像と、前記空撮画像の前記第2レベル負例との前記抽出された特徴量に基づいて、変換パラメータを生成し、
前記変換パラメータに基づいて、前記空撮画像の前記第2レベル負例を前記空撮画像の前記第3レベル負例に変換することにより、前記第3レベル負例を取得するように、さらに構成されている、請求項3に記載の訓練装置。 - 前記変換は、クロップ処理、アフィン変換、色変更、又は画像インペインティングを含み、
前記変換がクロップ処理を含む場合、前記変換パラメータは、切り出されるべき空撮画像の前記第2レベル負例の部分を指定し、
前記変換がアフィン変換を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例に対して行われる前記アフィン変換に用いられる変換行列を含み、
前記変換が色変更を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに対して適用されるべき色の特徴の変更とのセットを含み、
前記変換が画像インペインティングを含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに設定されるべき新たなピクセル値とのセットを含む、請求項4に記載の訓練装置。 - 前記識別器は、第1ニューラルネットワークと、第2ニューラルネットワークと、第3ニューラルネットワークとを含み、
前記第1ニューラルネットワークは、前記地上画像を取得して、前記地上画像の特徴マップを出力し、
前記第2ニューラルネットワークは、前記空撮画像を取得して、前記空撮画像の特徴マップを出力し、
前記第3ニューラルネットワークは、前記地上画像の特徴マップと前記空撮画像の特徴マップとを取得し、前記地上画像と前記空撮画像とがマッチするか否かを示すデータを出力する、請求項1から5いずれか一項に記載の訓練装置。 - 識別器の第1フェーズ訓練を実行し、前記識別器は、地上画像と空撮画像を取得し、前記地上画像と前記空撮画像とがマッチするか否かを判定し、
前記識別器の第2フェーズ訓練を実行することを含み、
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含み、
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む、コンピュータによって実行される制御方法。 - 前記空撮画像の正例及び空撮画像の複数の負例を取得し、
各前記取得した空撮画像の景色の種類を特定し、
前記空撮画像の前記正例の景色とは異なる種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第1レベル負例として用い、
前記空撮画像の前記正例の景色と同じ種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第2レベル負例として用いることをさらに含む、請求項7に記載の制御方法。 - 前記地上画像に対する類似度が、前記地上画像に対する前記空撮画像の前記第2レベル負例の類似度よりも高い、前記空撮画像の第3レベル負例を取得し、
前記地上画像と前記空撮画像の前記第3レベル負例とを用いて、前記識別器の第3フェーズ訓練を行うことをさらに含む、請求項7又は8に記載の制御方法。 - 前記地上画像と、前記空撮画像の前記第2レベル負例との特徴量を抽出し、
前記地上画像と、前記空撮画像の前記第2レベル負例との前記抽出された特徴量に基づいて、変換パラメータを生成し、
前記変換パラメータに基づいて、前記空撮画像の前記第2レベル負例を前記空撮画像の前記第3レベル負例に変換することにより、前記第3レベル負例を取得することをさらに含む、請求項9に記載の制御方法。 - 前記変換は、クロップ処理、アフィン変換、色変更、又は画像インペインティングを含み、
前記変換がクロップ処理を含む場合、前記変換パラメータは、切り出されるべき前記空撮画像の前記第2レベル負例の部分を指定し、
前記変換がアフィン変換を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例に対して行われる前記アフィン変換に用いられる変換行列を含み、
前記変換が色変更を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに対して適用されるべき色の特徴の変更とのセットを含み、
前記変換が画像インペインティングを含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに設定されるべき新たなピクセル値とのセットを含む、請求項10に記載の制御方法。 - 前記識別器は、第1ニューラルネットワークと、第2ニューラルネットワークと、第3ニューラルネットワークとを含み、
前記第1ニューラルネットワークは、前記地上画像を取得して、前記地上画像の特徴マップを出力し、
前記第2ニューラルネットワークは、前記空撮画像を取得して、前記空撮画像の特徴マップを出力し、
前記第3ニューラルネットワークは、前記地上画像の特徴マップと前記空撮画像の特徴マップとを取得し、前記地上画像と前記空撮画像とがマッチするか否かを示すデータを出力する、請求項7から11いずれか一項に記載の制御方法。 - 識別器の第1フェーズ訓練を実行し、前記識別器は、地上画像と空撮画像を取得し、前記地上画像と前記空撮画像とがマッチするか否かを判定し、
前記識別器の第2フェーズ訓練を実行することをコンピュータに実行させるプログラムが格納されており、
前記第1フェーズ訓練は、地上画像と、前記空撮画像の正例と、前記空撮画像の第1レベル負例とを用いて行われ、前記空撮画像の前記第1レベル負例は、前記地上画像に含まれる景色とは異なる種類の景色を含み、
前記第2フェーズ訓練は、前記地上画像と、前記空撮画像の正例と、前記空撮画像の第2レベル負例とを用いて行われ、前記空撮画像の前記第2レベル負例は、前記地上画像に含まれる景色と同じ種類の景色を含む、非一時的なコンピュータ可読媒体。 - 前記プログラムは、
前記空撮画像の正例及び空撮画像の複数の負例を取得し、
各前記取得した空撮画像の景色の種類を特定し、
前記空撮画像の前記正例の景色とは異なる種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第1レベル負例として用い、
前記空撮画像の前記正例の景色と同じ種類の景色を持つことが特定された前記空撮画像の前記負例を、前記空撮画像の前記第2レベル負例として用いることを、さらに前記コンピュータに実行させる、請求項13に記載の非一時的なコンピュータ可読媒体。 - 前記プログラムは、
前記地上画像に対する類似度が、前記地上画像に対する前記空撮画像の前記第2レベル負例の類似度よりも高い、前記空撮画像の第3レベル負例を取得し、
前記地上画像と前記空撮画像の前記第3レベル負例とを用いて、前記識別器の第3フェーズ訓練を行うことを、前記コンピュータにさらに実行させる、請求項13又は14に記載の非一時的なコンピュータ可読媒体。 - 前記プログラムは、
前記地上画像と、前記空撮画像の前記第2レベル負例との特徴量を抽出し、
前記地上画像と、前記空撮画像の前記第2レベル負例との前記抽出された特徴量に基づいて、変換パラメータを生成し、
前記変換パラメータに基づいて、前記空撮画像の前記第2レベル負例を前記空撮画像の前記第3レベル負例に変換することにより、前記第3レベル負例を取得することを、前記コンピュータにさらに実行させる、請求項15に記載の非一時的なコンピュータ可読媒体。 - 前記変換は、クロップ処理、アフィン変換、色変更、又は画像インペインティングを含み、
前記変換がクロップ処理を含む場合、前記変換パラメータは、切り出されるべき前記空撮画像の前記第2レベル負例の部分を指定し、
前記変換がアフィン変換を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例に対して行われる前記アフィン変換に用いられる変換行列を含み、
前記変換が色変更を含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに対して適用されるべき色の特徴の変更とのセットを含み、
前記変換が画像インペインティングを含む場合、前記変換パラメータは、前記空撮画像の前記第2レベル負例のピクセルの位置と、前記対応するピクセルに設定されるべき新たなピクセル値とのセットを含む、請求項16に記載の非一時的なコンピュータ可読媒体。 - 前記識別器は、第1ニューラルネットワークと、第2ニューラルネットワークと、第3ニューラルネットワークとを含み、
前記第1ニューラルネットワークは、前記地上画像を取得して、前記地上画像の特徴マップを出力し、
前記第2ニューラルネットワークは、前記空撮画像を取得して、前記空撮画像の特徴マップを出力し、
前記第3ニューラルネットワークは、前記地上画像の特徴マップと前記空撮画像の特徴マップとを取得し、前記地上画像と前記空撮画像とがマッチするか否かを示すデータを出力する、請求項13から17いずれか一項に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/023020 WO2021250850A1 (en) | 2020-06-11 | 2020-06-11 | Training apparatus, control method, and non-transitory computer-readable storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023528530A true JP2023528530A (ja) | 2023-07-04 |
JP7347696B2 JP7347696B2 (ja) | 2023-09-20 |
Family
ID=78847094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022575285A Active JP7347696B2 (ja) | 2020-06-11 | 2020-06-11 | 訓練装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230215144A1 (ja) |
JP (1) | JP7347696B2 (ja) |
WO (1) | WO2021250850A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114491135A (zh) * | 2022-04-06 | 2022-05-13 | 成都考拉悠然科技有限公司 | 一种基于变分信息瓶颈的跨视角地理图像检索方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200134844A1 (en) * | 2018-10-26 | 2020-04-30 | Here Global B.V. | Method, apparatus, and system for generating feature correspondence between image views |
-
2020
- 2020-06-11 JP JP2022575285A patent/JP7347696B2/ja active Active
- 2020-06-11 US US18/009,218 patent/US20230215144A1/en active Pending
- 2020-06-11 WO PCT/JP2020/023020 patent/WO2021250850A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200134844A1 (en) * | 2018-10-26 | 2020-04-30 | Here Global B.V. | Method, apparatus, and system for generating feature correspondence between image views |
Non-Patent Citations (2)
Title |
---|
SIXING HU: "CVM-Net: Cross-View Matching Network for Image-Based Ground-to-Aerial Geo-Localization", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6023032046, 18 June 2018 (2018-06-18), pages 7258 - 7267, XP033473645, ISSN: 0005125708, DOI: 10.1109/CVPR.2018.00758 * |
YICONG TIAN: "Cross-View Image Matching for Geo-localization in Urban Environments", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6023032045, 22 March 2017 (2017-03-22), pages 3608 - 3616, ISSN: 0005125709 * |
Also Published As
Publication number | Publication date |
---|---|
JP7347696B2 (ja) | 2023-09-20 |
US20230215144A1 (en) | 2023-07-06 |
WO2021250850A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI798305B (zh) | 用於更新高度自動化駕駛地圖的系統和方法 | |
US10430691B1 (en) | Learning method and learning device for object detector based on CNN, adaptable to customers' requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring | |
CN113989450B (zh) | 图像处理方法、装置、电子设备和介质 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
US10423860B1 (en) | Learning method and learning device for object detector based on CNN to be used for multi-camera or surround view monitoring using image concatenation and target object merging network, and testing method and testing device using the same | |
CN102959946A (zh) | 基于相关3d点云数据来扩充图像数据的技术 | |
KR102507501B1 (ko) | 인공지능 기반 수계오염원 모니터링 시스템 및 방법 | |
CN110909724B (zh) | 一种多目标图像的缩略图生成方法 | |
CN112581443A (zh) | 一种风力发电机叶片表面损伤轻量化识别方法 | |
KR102321998B1 (ko) | 환경 변화에 강인한 이미지의 위치 및 방향 추정 방법 및 시스템 | |
Pham et al. | Road damage detection and classification with YOLOv7 | |
Hu et al. | Research on a single-tree point cloud segmentation method based on UAV tilt photography and deep learning algorithm | |
CN115375868B (zh) | 地图显示和遥感地图显示方法、计算设备以及存储介质 | |
CN113096181B (zh) | 设备位姿的确定方法、装置、存储介质及电子装置 | |
CN107578003B (zh) | 一种基于地理标记图像的遥感图像迁移学习方法 | |
KR20170143439A (ko) | 3차원 공간 정보 구축을 위한 빅데이터 시스템의 연계 장치 및 방법 | |
CN115423968A (zh) | 基于点云数据和实景三维模型的输电通道优化方法 | |
JP7347696B2 (ja) | 訓練装置、制御方法、及びプログラム | |
US10430459B2 (en) | Server and method for providing city street search service | |
KR20220033695A (ko) | 항공영상 기반 도로객체 추출장치 및 그 방법 | |
JP2022511147A (ja) | 地理情報の生成を容易にするためのシステム及び方法 | |
JP7485200B2 (ja) | 画像拡張装置、制御方法、及びプログラム | |
Ying et al. | Fully Convolutional Networks tor Street Furniture Identification in Panorama Images. | |
JP7388595B2 (ja) | 画像拡張装置、制御方法、及びプログラム | |
Li | Lidar-based 3D object detection for autonomous driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230821 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7347696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |