JP6982242B2 - 学習データ生成装置、変化領域検出方法及びコンピュータプログラム - Google Patents

学習データ生成装置、変化領域検出方法及びコンピュータプログラム Download PDF

Info

Publication number
JP6982242B2
JP6982242B2 JP2018077109A JP2018077109A JP6982242B2 JP 6982242 B2 JP6982242 B2 JP 6982242B2 JP 2018077109 A JP2018077109 A JP 2018077109A JP 2018077109 A JP2018077109 A JP 2018077109A JP 6982242 B2 JP6982242 B2 JP 6982242B2
Authority
JP
Japan
Prior art keywords
image
map
difference
data
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018077109A
Other languages
English (en)
Other versions
JP2019185487A (ja
Inventor
基宏 高木
和也 早瀬
暁経 三反崎
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018077109A priority Critical patent/JP6982242B2/ja
Priority to PCT/JP2019/015108 priority patent/WO2019198634A1/ja
Priority to US17/046,227 priority patent/US11651288B2/en
Publication of JP2019185487A publication Critical patent/JP2019185487A/ja
Application granted granted Critical
Publication of JP6982242B2 publication Critical patent/JP6982242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、機械学習に用いられる学習用データの生成を支援する技術に関する。
近年、ほぼ同一の空間(以下「対象空間」という。)が異なる日時で撮像された画像を用いて、その対象空間に存在する構造物等の時間的な変化を検出する技術が注目されている。例えば、このような技術を用いて、新設された建物や道路等の建設物を検出する試みがなされている。
また、このような技術は地図の更新作業に用いられる場合もある。この場合、更新箇所の特定には、地図と同様に対象空間を俯瞰して撮像された衛星画像等の画像が用いられる。更新箇所を特定するためには対象空間に新たに建設された建造物を把握する必要があるが、このためには大量の衛星画像から新規建造物を見つけ出す作業が必要になる。しかしながら、この作業を人手で行うには膨大な時間的コスト及び人的コストがかかる。そのため、時系列の衛星画像の画像データに画像処理を施すことによって、対象空間における新規建造物を衛星画像間の時系列変化として検出する方法が考えられている(例えば非特許文献1参照)。
J. Tang, C. Deng, G. B. Huang and B. Zhao, "Compressed-Domain Ship Detection on Spaceborne Optical Image Using Deep Neural Network and Extreme Learning Machine," in IEEE Transactions on Geoscience and Remote Sensing, vol. 53, no. 3, pp. 1174-1185, March 2015.
画像間の時系列変化を検出するアルゴリズムの1つに機械学習に基づく検出方法がある。機械学習に基づく検出方法は、教師有り学習に基づく検出方法と教師無し学習に基づく検出方法とに分類される。教師有り学習に基づく検出方法では、対象空間において変化が発生した領域(以下「変化領域」という。)と、変化が発生していない領域(以下「非変化領域」という。)との一方又は両方が撮像された画像を大量に収集し、変化領域の画像が変化有りとして検出される確率を最大化するように画像データを学習する。
一般に、変化領域の識別を目的とした画像データの学習に用いられるデータ(以下「学習データ」という。)には、変化前後の画像、又はそれらの画像から取得されるパラメータと、それらの画像又はパラメータに対応づけられる変化の有無を示すラベルと、が含まれる。例えば、画像から得られるパラメータは、変化の有無を識別するための特徴量や特徴ベクトルである。一般に、画像の特徴量は画素値に基づく演算によって取得され、特徴ベクトルは変化領域に対応する画像を符号化したデータに基づく演算により、符号量や動きベクトル等の情報として取得される。
従来、学習データの作成のために変化領域が撮像された画像を取得する場合、異なる日時で撮像された画像データを比較して変化の有無を識別するとともに変化領域の画像データを抽出する作業を人手で行っていた。また、変化領域の有無の有無に加え、建造物の変化を検出するためには、変化領域の画像データに対して検出しようとする変化のラベリングが必要になるとともに、そのラベリングを行うためには検出しようとする変化が撮像された領域を画像から検出する必要があり、従来はこのようなラベリングの作業も人手で行っていた。そのため、従来は、このような学習データの作成に膨大な時間的コスト及び人的コストがかかっていた。
上記事情に鑑み、本発明は、画像内の変化を検出する装置が用いる学習データの作成に係る負荷を軽減することができる技術を提供することを目的とする。
本発明の一態様は、第1地図を示す第1地図データと、前記第1地図と略同一の空間を示し、かつ前記第1地図とは異なる時点の前記空間を表す第2地図を示す第2地図データとに基づいて、前記第1地図と前記第2地図との間における前記空間の変化領域を検出する検出部と、前記第1地図が表す前記空間が撮像された第1画像、及び前記第2地図が表す前記空間が撮像された第2画像から、前記検出部によって検出された前記変化領域に対応する画像を取得する変化領域画像取得部と、を備える学習データ生成装置である。
本発明の一態様は、上記の学習データ生成装置であって、前記検出部は、前記第1地図データ及び前記第2地図データから前記変化領域の視覚的特徴を示すデータを取得する。
本発明の一態様は、上記の学習データ生成装置であって、前記第1差分画像及び前記第2差分画像は、前記変化領域が第1の値で表され、前記変化領域以外の領域が第2の値で表された画像である。
本発明の一態様は、上記の学習データ生成装置であって、前記変化領域画像取得部は、前記変化領域を示す画像データと、前記変化領域に係る変化の有無を示す情報とを対応付けたデータを生成する。
本発明の一態様は、上記の学習データ生成装置であって、前記第1画像の撮像範囲を示す第1位置情報に基づいて前記第1画像内における前記変化領域の位置を示す第1差分位置情報を取得し、前記第2画像の撮像範囲を示す第2位置情報に基づいて前記第2画像内における前記変化領域の位置を示す第2差分位置情報を取得する差分位置情報取得部と、前記差分位置情報取得部によって取得された前記第1差分位置情報に基づいて前記空間を変化領域と、それ以外の領域とで表す第1差分画像を生成し、前記差分位置情報取得部によって取得された前記第2差分位置情報に基づいて前記空間を変化領域と、それ以外の領域とで表す第2差分画像を生成する差分画像生成部と、をさらに備え、前記変化領域画像取得部は、前記差分画像生成部によって生成された前記第1差分画像に基づいて、前記第1画像から前記変化領域に対応する第1変化領域画像を抽出し、前記差分画像生成部によって生成された前記第2差分画像に基づいて、前記第2画像から前記変化領域に対応する第2変化領域画像を抽出する。
本発明の一態様は、第1地図を示す第1地図データと、前記第1地図と略同一の空間を示し、かつ前記第1地図とは異なる時点の前記空間を表す第2地図を示す第2地図データとに基づいて、前記第1地図と前記第2地図との間における前記空間の変化領域を検出する検出ステップと、前記第1地図が表す前記空間が撮像された第1画像、及び前記第2地図が表す前記空間が撮像された第2画像から、前記検出ステップにおいて検出された前記変化領域に対応する画像を取得する変化領域画像取得ステップと、を有する変化領域検出方法である。
本発明の一態様は、第1地図を示す第1地図データと、前記第1地図と略同一の空間を示し、かつ前記第1地図とは異なる時点の前記空間を表す第2地図を示す第2地図データとに基づいて、前記第1地図と前記第2地図との間における前記空間の変化領域を検出する検出ステップと、前記第1地図が表す前記空間が撮像された第1画像、及び前記第2地図が表す前記空間が撮像された第2画像から、前記検出ステップにおいて検出された前記変化領域に対応する画像を取得する変化領域画像取得ステップと、をコンピュータに実行させるためのコンピュータプログラムである。
本発明により、画像内の変化を検出する装置が用いる学習データの作成に係る負荷を軽減することが可能となる。
実施形態の学習データ生成装置1の機能構成の具体例を示す図である。 実施形態の学習データ生成装置1が学習データを生成する処理の具体例を示すフローチャートである。 実施形態における差分地図データ生成処理の具体例を示すフローチャートである。 実施形態における差分位置情報取得処理の具体例を示すフローチャートである。 実施形態における差分画像生成処理の具体例を示すフローチャートである。 実施形態における変化領域検出処理の具体例を示すフローチャートである。 実施形態における第1地図及び第2地図の具体例を示す図である。 実施形態における第1差分画像及び第2差分画像の具体例を示す図である。 実施形態における第1画像及び第2画像の具体例を示す図である。 実施形態における第1変化領域画像及び第2変化領域画像の具体例を示す図である。
図1は、実施形態の学習データ生成装置1の機能構成の具体例を示す図である。学習データ生成装置1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、プログラムを実行する。学習データ生成装置1は、プログラムの実行によって地図データ記憶部11、位置情報記憶部12、サイズ情報記憶部13、画像データ記憶部14、差分地図データ取得部21、差分位置情報取得部22、差分画像生成部23及び変化領域画像取得部24を備える装置として機能する。なお、学習データ生成装置1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。プログラムは、電気通信回線を介して送信されてもよい。
地図データ記憶部11、位置情報記憶部12、サイズ情報記憶部13及び画像データ記憶部14は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。地図データ記憶部11は、第1地図データ及び第2地図データを記憶する。地図データは、変化領域の検出対象となる空間(以下「対象空間」という。)の地図を示す情報である。第1地図データによって示される対象空間は、第2地図データによって示される対象空間とほぼ同一の空間である。また、第1地図データと第2地図データとはそれぞれ異なる時点の対象空間を示す。以下の説明では第1地図データは、第2地図データによって示される対象空間よりも時系列的に過去の対象空間を示すものとする。また、地図データ記憶部11は、第1地図データ及び第2地図データを予め記憶しているものとする。
例えば地図データは、構造物や自然物等の地図に反映される対象物の形状を平面、若しくはポリゴンデータで該構造物や自然物等の存在する領域と対応づけられる地図上の領域に反映したものであればよい。具体的な例としては、地図上に家屋や無壁舎等の建造物を表す階層構造のデータ(例えばポリゴンデータ)である。なお、建造物の位置が明らかである場合、地図データは対象空間が撮像された画像データと、建造物の位置情報とが対応づけられた情報であってもよい。
位置情報記憶部12は、第1位置情報及び第2位置情報を記憶する。ここでいう位置情報とは、画像に撮像された空間の範囲を示す情報である。第1位置情報は後述する第1画像データが示す画像に撮像された空間の範囲を示し、第2位置情報は後述する第2画像データが示す画像に撮像された空間の範囲を示す。例えば、第1位置情報及び第2位置情報は、緯度及び経度の組み合わせで表される。位置情報記憶部12は、第1位置情報及び第2位置情報を予め記憶しているものとする。
サイズ情報記憶部13は、第1サイズ情報及び第2サイズ情報を記憶する。サイズ情報は、画像のサイズを示す情報である。第1サイズ情報及び第2サイズ情報は、それぞれ後述する第1画像データ及び第2画像データによって表される画像のサイズを示す。サイズ情報記憶部13は、第1サイズ情報及び第2サイズ情報を予め記憶しているものとする。
画像データ記憶部14は、第1画像データ及び第2画像データを記憶する。第1画像データ及び第2画像データは、対象空間が撮像された画像データである。第1画像データによって示される対象空間は、第2画像データによって示される対象空間とほぼ同一の空間である。また、第1画像データと第2画像データとはそれぞれ異なる時点で撮像された対象空間を示す。第1画像データは第1地図データとほぼ同じ時点の対象空間を示し、第2画像データは第2地図データとほぼ同じ時点の対象空間を示す。
すなわち、第1画像データは、第2画像データによって示される対象空間よりも時系列的に過去の対象空間を示す。画像データ記憶部14は、第1画像データ及び第2画像データを予め記憶しているものとする。なお、本実施形態では、対象空間が撮像された衛星画像が第1画像データ及び第2画像データとして取得されるものとする。また、以下では、第1画像データが示す画像を第1画像といい、第2画像データが示す画像を第2画像という。
差分地図データ取得部21(本発明における検出部の一例)は、地図データ記憶部11から第1地図データ及び第2地図データを取得する。差分地図データ取得部21は、第1地図データによって示される対象空間と、第2地図データによって示される対象空間との間の視覚的変化を示すデータを取得する。ここで、対象空間の視覚的変化とは、地図から見て取れる対象空間の変化を意味する。例えば、地図から見て取れる対象空間の変化には、対象空間における建造物の有無の変化や、建造物の形状の変化などが挙げられる。
例えば、地図データがこのような視覚的変化をポリゴンデータや画像データで表すものである場合、視覚的変化を示すデータは地図データ間の差分データとして取得することができる。このような差分データ(以下「差分地図データ」という。)を取得すれば、一方の地図に存在し、他方の地図に存在しない建造物等を含む領域の地図データを抽出することができる。一般に、地図データには対象領域の視覚的特徴を示すデータと、視覚的特徴の属性を示す文字や記号、数値等を示すデータとが含まれる。差分地図データ取得部21は、地図データに含まれる各種データのうち視覚的特徴を示すデータの差分を差分地図データとして取得する。
ここで視覚的特徴とは、地図データの対象領域における画像間の差分を表す情報である。より具体的に言えば、視覚的特徴は、検出したい変化が表れた領域を示す情報であり、その領域の画像間の差分を表す情報を含んでもよい。例えば、視覚的特徴とは、エッジの長さ、数、エッジ同士が交差するコーナーの角度、コーナー同士の距離、エッジとコーナーによって囲われる領域の変化等である。
すなわち、差分地図データは、対象空間において、視覚的特徴に係る変化が時間の経過に伴い発生した領域(以下「変化領域」という。)の地図データである。以下、対象空間において時間的な変化が発生していない領域を変化領域に対して非変化領域という。差分地図データ取得部21は、取得した差分地図データを差分位置情報取得部22に出力する。
差分位置情報取得部22は、位置情報記憶部12から第1位置情報及び第2位置情報を取得するとともに、差分地図データ取得部21から差分地図データを取得する。差分位置情報取得部22は、第1位置情報及び第2位置情報と、差分地図データとに基づいて差分位置情報を取得する。差分位置情報は、画像内での変化領域の位置を示す情報である。例えば、差分位置情報は、画像を示す各画素を単位とするピクセル座標によって表される。
具体的には、差分位置情報取得部22は、第1位置情報と差分地図データとに基づいて第1画像における変化領域の位置を示す第1差分位置情報を取得し、第2位置情報と差分地図データとに基づいて第2画像における変化領域の位置を示す第2差分位置情報を取得する。差分位置情報取得部22は、取得した第1差分地図情報及び第2差分地図情報を差分画像生成部23に出力する。
差分画像生成部23は、サイズ情報記憶部13から第1サイズ情報及び第2サイズ情報を取得するとともに、差分位置情報取得部22から第1差分位置情報及び第2差分位置情報を取得する。差分画像生成部23は、第1サイズ情報及び第2サイズ情報と、第1差分位置情報及び第2差分位置情報とに基づいて差分画像を生成する。差分画像は、対象空間を変化領域と非変化領域とのいずれかで表した画像である。例えば、差分画像は、変化領域を値“1”で表し、非変化領域を値“0”で表す二値画像である。変化領域を複数の種類に分類して識別する場合には変化領域は複数の値で表されてもよい。
具体的には、差分画像生成部23は、第1差分位置情報と第1サイズ情報とに基づいて第1画像に対応する第1差分画像を生成し、第2差分位置情報と第2サイズ情報とに基づいて第2画像に対応する第2差分画像を生成する。差分画像生成部23は、第1差分画像を示す第1差分画像データと、第2差分画像を示す第2差分画像データと、を変化領域画像取得部24に出力する。
変化領域画像取得部24は、画像データ記憶部14から第1画像データ及び第2画像データを取得するとともに、差分画像生成部23から第1差分画像データ及び第2差分画像データを取得する。変化領域画像取得部24は、第1画像データ及び第2画像データと、第1差分画像データ及び第2差分画像データとに基づいて第1画像及び第2画像に撮像された変化領域を検出する。
具体的には、変化領域画像取得部24は、第1画像データと第1差分画像データとに基づいて第1画像から変化領域が撮像された部分の画像データを抽出する。ここで、第1差分画像データは、第1画像と同じ画像サイズを有する第1差分画像を示す画像データである。例えば、第1差分画像が、変化領域を値“1”で表し、非変化領域を値“0”で表す二値画像である場合、変化領域画像取得部24は第1画像の各画素値に、第1差分画像の同じ座標の画素値を乗算する。その結果、第1画像において非変化領域がマスキングされる。変化領域画像取得部24は、第1画像からマスキングされていない部分の画像(すなわち変化領域の画像)を抽出する。
変化領域画像取得部24は、上記と同様の処理を行うことにより、第2画像データと第2差分画像データとに基づいて第2画像から変化領域が撮像された部分の画像データを抽出する。変化領域画像取得部24は、第1画像から抽出した変化領域の画像を示す画像データ(以下「第1変化領域画像データ」という。)と、第2画像から抽出した変化領域の画像を示す画像データ(以下「第2変化領域画像データ」という。)と、を学習データとして出力する。
図2は、実施形態の学習データ生成装置1が学習データを生成する処理の具体例を示すフローチャートである。まず、学習データ生成装置1において、差分地図データ取得部21が差分地図データ生成処理を実行する(ステップS1)。差分地図データ取得部21が差分地図データ生成処理を実行することにより、第1地図データと第2地図データとの差分を示す差分地図データが取得される。
続いて、差分位置情報取得部22が差分位置情報取得処理を実行する(ステップS2)。差分位置情報取得部22が差分位置情報取得処理を実行することにより、第1画像内での変化領域の位置を示す第1差分位置情報と、第2画像内での変化領域の位置を示す第2差分位置情報と、が取得される。
続いて、差分画像生成部23が差分画像生成処理を実行する(ステップS3)。差分画像生成部23が差分画像生成処理を実行することにより、第1画像と同じサイズの画像であって、変化領域と非変化領域とで対象空間を表す第1差分画像データと、第2画像と同じサイズの画像であって、変化領域と非変化領域とで対象空間を表す第2差分画像データと、が取得される。
続いて、変化領域画像取得部24が変化領域検出処理を実行する(ステップS4)。変化領域画像取得部24が変化領域検出処理を実行することにより、第1画像から抽出された変化領域の画像を示す第1変化領域画像データと、第2画像から抽出された変化領域の画像を示す第2変化領域画像データと、が取得される。
学習データ生成装置1は、取得された第1変化領域画像データ及び第2変化領域画像データを、学習データとして出力する。
図3は、実施形態における差分地図データ生成処理の具体例を示すフローチャートである。まず、差分地図データ取得部21が地図データ記憶部11から第1地図データ及び第2地図データを取得する(ステップS11)。差分地図データ取得部21は、差分地図データの取得方法を判定する(ステップS12)。ここでは、差分地図データの取得方法として、次の2つの方法を想定する。
第1の方法は、第1地図と第2地図との非交差部分を抽出する方法(非交差抽出)である。この方法は、第1地図と第2地図とを重ね合わせた際に各地図の線分が交差しない非交差部分を抽出する方法であり、いずれか一方の地図にのみ存在する建造物等を抽出する方法である。一方、第2の方法は、第1地図データと第2地図データとの数値的な差分を取得する方法である。この方法は、地図上の同じ位置に対応するデータ値の差分をとる方法であり、非変化領域については差分がなく、変化領域についてのみ差分が得られる。
なお、これらの2つの方法のどちらを差分地図データの取得に用いるかは、学習データの生成に用いる地図データの種類や性質等に応じて決定されるとよい。ここでは、差分地図データの取得方法を示す情報が予め学習データ生成装置1に記憶されており、この情報に基づいて取得方法が判定されるものとする。なお、差分地図データの取得方法は、ステップS12の実行時にユーザによって指定されてもよい。
差分地図データの取得方法として第1の方法が判定された場合(ステップS12:非交差)、差分地図データ取得部21は、第1地図と第2地図との非交差部分を識別し、第1地図データ及び第2地図データから非交差部分を示す地図データを抽出する(ステップS13)。
一方、差分地図データの取得方法として第2の方法が判定された場合(ステップS12:差分)、差分地図データ取得部21は、第1地図データ及び第2地図データのどちらを基準として差分をとるかを判定する(ステップS14)。ここでは、基準とする地図データを示す情報が予め学習データ生成装置1に記憶されており、この情報に基づいて基準とする地図データが判定されるものとする。なお、基準とする地図データは、ステップS14の実行時にユーザによって指定されてもよい。
基準とする地図データとして第1地図データが判定された場合(ステップS14:第1地図データ)、差分地図データ取得部21は、第1地図データに対する第2地図データの差分を抽出する(ステップS15)。具体的には、差分地図データ取得部21は、第2地図データのデータ値から第1地図データのデータ値を減算して得られる差分が所定値以上である領域の地図データを抽出する。
基準とする地図データとして第2地図データが判定された場合(ステップS14:第2地図データ)、差分地図データ取得部21は、第2地図データに対する第1地図データの差分を抽出する(ステップS16)。具体的には、差分地図データ取得部21は、第1地図データのデータ値から第2地図データのデータ値を減算して得られる差分が所定値以上である領域の地図データを抽出する。
差分地図データ取得部21は、ステップS13、S15又はS16において抽出された地図データを差分地図データとして差分位置情報取得部22に出力する(ステップS17)。
図4は、実施形態における差分位置情報取得処理の具体例を示すフローチャートである。まず、差分位置情報取得部22が位置情報記憶部12から第1位置情報及び第2位置情報を取得するとともに、差分地図データ取得部21から差分地図データを取得する(ステップS21)。差分位置情報取得部22は、第1位置情報及び第2位置情報と、差分地図情報とに基づき、第1画像及び第2画像のそれぞれについて差分位置情報を取得する(ステップS22)。
具体的には、差分地図データ取得部21は、第1位置情報が示す対象空間の位置情報(すなわち第1画像に撮像された対象空間の位置情報)と、差分地図情報が示す変化領域の位置情報とを照らし合わせ、第1画像内での変化領域の位置を示す第1差分位置情報を取得する。同様に、差分地図データ取得部21は、第2位置情報が示す対象空間の位置情報(すなわち第2画像に撮像された対象空間の位置情報)と、差分地図情報が示す変化領域の位置情報とを照らし合わせ、第2画像内での変化領域の位置を示す第2差分位置情報を取得する。
差分地図データ取得部21は、取得した第1差分位置情報及び第2差分位置情報を差分画像生成部23に出力する(ステップS23)。
図5は、実施形態における差分画像生成処理の具体例を示すフローチャートである。まず、差分画像生成部23は、サイズ情報記憶部13から第1サイズ情報及び第2サイズ情報を取得するとともに、差分位置情報取得部22から第1差分位置情報及び第2差分位置情報を取得する(ステップS31)。差分画像生成部23は、第1サイズ情報に基づいて第1画像と同じサイズの画像である第1サイズ画像を生成するとともに、第2サイズ情報に基づいて第2画像と同じサイズの画像である第2サイズ画像を生成する(ステップS32)。
ここで、第1サイズ画像は、差分画像生成部23が差分画像生成処理で生成する第1差分画像の元となる画像データである。第1サイズ画像は、第1画像と同じサイズの画像であればどのような画像であってもよい。例えば、第1サイズ画像は全画素が同じ色を表す画像であってもよいし、全画素値がNull値である画像であってもよい。同様に、第2サイズ画像は、第2差分画像の元となる画像データであり、第2画像と同じサイズの画像であればどのような画像であってもよい。
差分画像生成部23は、ブロック及び画素のどちらを差分画像の単位領域とするかを判定する(ステップS33)。ここでは、差分画像を生成する際の単位領域を示す情報が予め学習データ生成装置1に記憶されており、この情報に基づいて差分画像の単位領域が判定されるものとする。なお、差分画像の単位領域は、ステップS32の実行時にユーザによって指定されてもよい。
差分画像の単位領域としてブロックが判定された場合(ステップS33:ブロック)、差分画像生成部23は、第1サイズ画像及び第2サイズ画像を所定の大きさのブロックに分割する(ステップS34)。差分画像生成部23は、第1サイズ画像及び第2サイズ画像の各ブロックが第1地図と第2地図との差分領域(すなわち変化領域)に対応するか否かを判定する(ステップS35)。
具体的には、差分画像生成部23は、第1差分位置情報に基づいて第1サイズ画像の各ブロックの位置が第1画像内での変化領域の位置に対応するか否かを判定する。同様に、差分画像生成部23は、第2差分位置情報に基づいて第2サイズ画像の各ブロックの位置が第2画像内での変化領域の位置に対応するか否かを判定する。
差分画像生成部23は、第1サイズ画像及び第2サイズ画像の各画素値をステップS35の判定結果に基づいて更新する(ステップS36)。例えば、差分画像生成部23は、変化領域に対応するブロックに所属する各画素値を“1”に更新し、変化領域に対応しない(すなわち非変化領域に対応する)ブロックに所属する各画素値を“0”に更新する。これにより、第1サイズ画像及び第2サイズ画像は、変化領域に対応する値を持つ画素と、非変化領域に対応する値を持つ画素とで構成された画像となる。
一方、差分画像の単位領域として画素が判定された場合(ステップS33:画素)、差分画像生成部23は、第1サイズ画像及び第2サイズ画像の各画素が第1地図と第2地図との差分領域(すなわち変化領域)に対応するか否かを判定する(ステップS37)。差分画像生成部23は、第1サイズ画像及び第2サイズ画像の各画素値をステップS37の判定結果に基づいて更新する(ステップS38)。
差分画像生成部23は、ステップS36又はS38で更新した第1サイズ画像を示す画像データを第1差分画像データとして出力し、更新後の第2サイズ画像を示す画像データを第2差分画像データとして出力する(ステップS39)。
図6は、実施形態における変化領域検出処理の具体例を示すフローチャートである。まず、変化領域画像取得部24は、画像データ記憶部14から第1画像データ及び第2画像データを取得するとともに、差分画像生成部23から第1差分画像データ及び第2差分画像データを取得する(ステップS41)。
変化領域画像取得部24は、第1差分画像データ及び第2差分画像データを用いて第1画像データ及び第2画像データをマスキングする(ステップS42)。具体的には、変化領域画像取得部24は、第1差分画像データを用いて第1画像データをマスキングし、第2差分画像データを用いて第2画像データをマスキングする。例えば、第1差分画像において、“1”が変化領域を表し、“0”が非変化領域を表す場合、マスキングされた後の第1画像は、元の第1画像のうち非変化領域の画像のみがマスキングされた画像となる。
変化領域画像取得部24は、マスキング後の第1画像及び第2画像においてマスキングされていない部分の画像データを抽出する(ステップS43)。この処理によって、第1画像データ及び第2画像データから、変化領域の画像を示す画像データが抽出される。変化領域画像取得部24は、第1画像データから抽出した画像データを第1変化領域画像データとして出力し、第2画像データから抽出した画像データを第2変化領域画像データとして出力する(ステップS44)。
図7は、実施形態における第1地図及び第2地図の具体例を示す図である。図7(A)は第1地図の具体例を示し、図7(B)は第2地図の具体例を示す。図7(A)及び図7(B)における斜線部は道路を表す。上述のとおり、第1地図と第2地図とはほぼ同一の対象空間(図中の太線枠内の空間)を示すとともに、第1地図は第2地図が示す対象領域よりも過去の対象領域を示す。図7は、対象空間内の空間A(破線で囲まれた部分の空間)が、何もない状態から建造物B1〜B7が建設された状態に変化したことを表している。この例の場合、差分地図データ生成処理では空間Aの部分の地図データが差分地図データとして取得される。また、この例の場合、差分位置情報取得処理では、第1画像及び第2画像の各画像内における空間Aの位置情報が差分位置情報として取得される。
図8は、実施形態における第1差分画像及び第2差分画像の具体例を示す図である。図8(A)は図7(A)の第1地図に対応する第1差分画像の具体例を示し、図8(B)は図7(B)の第2地図に対応する第2差分画像の具体例を示す。上述のとおり、第1差分画像は第1画像と同じサイズを有し、第2差分画像は第2画像と同じサイズを有する。この例の場合、差分画像生成処理では、対象空間を空間Aの領域(すなわち変化領域)とそれ以外の領域(すなわち非変化領域)とで表す画像が第1差分画像及び第2差分画像として生成される。図8は、変化領域を“1”で表し、非変化領域を“0”で表す差分画像の例を示す。
図9は、実施形態における第1画像及び第2画像の具体例を示す図である。図8(A)は第1画像の具体例を示し、図8(B)は第2画像の具体例を示す。上述のとおり、第1画像は第1地図の作成時期とほぼ同時期に撮像されたものであり、第2画像は第2地図の作成時期とほぼ同時期に撮像されたものである。図8は、第1画像及び第2画像にも、図7に示す地図上の変化と同様の変化が表れていることを示している。
図10は、実施形態における第1変化領域画像及び第2変化領域画像の具体例を示す図である。図10(A)は図9(A)の第1画像が図8(A)の第1差分画像でマスキングされた結果を示し、図10(B)は図9(B)の第2画像が図8(B)の第2差分画像でマスキングされた結果を示す。この例の場合、変化領域検出処理では、図10(A)のマスキングされていない部分の画像データが第1変化領域画像データとして取得され、図10(B)のマスキングされていない部分の画像データが第2変化領域画像データとして取得される。
このように構成された実施形態の学習データ生成装置1は、画像内の変化領域を機械学習による学習結果に基づいて検出する装置に、画像間の変化の有無を学習させる際に必要となる学習データを学習対象の画像に対応する地図データを用いて生成する。そのため、実施形態の学習データ生成装置1によれば、学習データの作成に係る負荷を軽減することができる。
<変形例>
実施形態の学習データ生成装置1は、地図データの差分に基づいて抽出した変化領域の画像データを学習データとして取得したが、学習データ生成装置1は、抽出した画像データに変化の有無を示すラベルを付加したデータを学習データとして取得してもよい。このような学習データを取得することにより、教師有り学習の学習データの作成に係る負荷を軽減することができる。これに対して、学習データ生成装置1は、ラベルが付加されていない変化領域画像データを学習データとして取得することにより、教師無し学習の学習データの作成に係る付加を軽減することができる。
また、上記の実施形態では、学習データ生成装置1が第1画像及び第2画像として衛星画像を用いる例を説明したが、第1画像及び第2画像は地図データに対応する画像であれば他の画像であってもよい。例えば、第1画像及び第2画像は航空画像であってもよいし、ドローン等などで空撮した画像であってもよい。
また、上記の実施形態では、建造物の有無や違いなどを識別して地図上の変化領域を検出する例を説明したが、建造物に限らず、道路や歩道、公園など建造物以外の物を識別対象としてもよい。例えば、地図データに海や山といった自然物のポリゴンデータが含まれる場合、自然物の変化を検出することも可能である。このように、識別対象のポリゴンデータを用意することで、その識別対象の学習データを自動生成することができる。
また、上記の実施形態では、地図データや画像の位置を合わせる処理を行っているが、位置を合わせる必要がない場合は省略してもよい。
以上のような構成により、上記の学習データ生成装置1は、ほぼ同じ領域を示し、かつ時系列的に異なる2つの電子地図の間における模様に係る変化を有する領域を検出する。そして、学習データ生成装置1は、検出された領域に対応し、かつ、2つの電子地図のそれぞれに時間的に対応する現実の空間の画像を取得することで、現実の空間の変化前の画像と変化後の画像を容易に抽出することを可能とする。ここでいう模様とは上記の視覚的特徴の一例であり、視覚的特徴は模様のような視認できる特徴であればどのようなものであってもよい。
上述した実施形態における学習データ生成装置1をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、機械学習に用いられる学習用データの生成する装置に適用可能である。
1…学習データ生成装置、 11…地図データ記憶部、 12…位置情報記憶部、 13…サイズ情報記憶部、 14…画像データ記憶部、 21…差分地図データ取得部、 22…差分位置情報取得部、 23…差分画像生成部、 24…変化領域画像取得部

Claims (7)

  1. 第1地図を示す第1地図データと、前記第1地図と略同一の空間を示し、かつ前記第1地図とは異なる時点の前記空間を表す第2地図を示す第2地図データとに基づいて、前記第1地図と前記第2地図との間における前記空間の変化領域を検出する検出部と、
    前記第1地図が表す前記空間が撮像された第1画像、及び前記第2地図が表す前記空間が撮像された第2画像から、前記検出部によって検出された前記変化領域に対応する画像を取得する変化領域画像取得部と、
    を備える学習データ生成装置。
  2. 前記検出部は、前記第1地図データ及び前記第2地図データから前記変化領域の視覚的特徴を示すデータを取得する、
    請求項1に記載の学習データ生成装置。
  3. 前記変化領域画像取得部は、前記変化領域を示す画像データと、前記変化領域に係る変化の有無を示す情報とを対応付けたデータを生成する、
    請求項1または2に記載の学習データ生成装置。
  4. 前記第1画像の撮像範囲を示す第1位置情報に基づいて前記第1画像内における前記変化領域の位置を示す第1差分位置情報を取得し、前記第2画像の撮像範囲を示す第2位置情報に基づいて前記第2画像内における前記変化領域の位置を示す第2差分位置情報を取得する差分位置情報取得部と、
    前記差分位置情報取得部によって取得された前記第1差分位置情報に基づいて前記空間を変化領域と、それ以外の領域とで表す第1差分画像を生成し、前記差分位置情報取得部によって取得された前記第2差分位置情報に基づいて前記空間を変化領域と、それ以外の領域とで表す第2差分画像を生成する差分画像生成部と、
    をさらに備え、
    前記変化領域画像取得部は、前記差分画像生成部によって生成された前記第1差分画像に基づいて、前記第1画像から前記変化領域に対応する第1変化領域画像を抽出し、前記差分画像生成部によって生成された前記第2差分画像に基づいて、前記第2画像から前記変化領域に対応する第2変化領域画像を抽出する、
    請求項1からのいずれか一項に記載の学習データ生成装置。
  5. 前記第1差分画像及び前記第2差分画像は、前記変化領域が第1の値で表され、前記変化領域以外の領域が第2の値で表された画像である、
    請求項に記載の学習データ生成装置。
  6. 第1地図を示す第1地図データと、前記第1地図と略同一の空間を示し、かつ前記第1地図とは異なる時点の前記空間を表す第2地図を示す第2地図データとに基づいて、前記第1地図と前記第2地図との間における前記空間の変化領域を検出する検出ステップと、
    前記第1地図が表す前記空間が撮像された第1画像、及び前記第2地図が表す前記空間が撮像された第2画像から、前記検出ステップにおいて検出された前記変化領域に対応する画像を取得する変化領域画像取得ステップと、
    を有する変化領域検出方法。
  7. 第1地図を示す第1地図データと、前記第1地図と略同一の空間を示し、かつ前記第1地図とは異なる時点の前記空間を表す第2地図を示す第2地図データとに基づいて、前記第1地図と前記第2地図との間における前記空間の変化領域を検出する検出ステップと、
    前記第1地図が表す前記空間が撮像された第1画像、及び前記第2地図が表す前記空間が撮像された第2画像から、前記検出ステップにおいて検出された前記変化領域に対応する画像を取得する変化領域画像取得ステップと、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2018077109A 2018-04-12 2018-04-12 学習データ生成装置、変化領域検出方法及びコンピュータプログラム Active JP6982242B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018077109A JP6982242B2 (ja) 2018-04-12 2018-04-12 学習データ生成装置、変化領域検出方法及びコンピュータプログラム
PCT/JP2019/015108 WO2019198634A1 (ja) 2018-04-12 2019-04-05 学習データ生成装置、変化領域検出方法及びコンピュータプログラム
US17/046,227 US11651288B2 (en) 2018-04-12 2019-04-05 Learning data generation apparatus, change area detection method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077109A JP6982242B2 (ja) 2018-04-12 2018-04-12 学習データ生成装置、変化領域検出方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2019185487A JP2019185487A (ja) 2019-10-24
JP6982242B2 true JP6982242B2 (ja) 2021-12-17

Family

ID=68163356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077109A Active JP6982242B2 (ja) 2018-04-12 2018-04-12 学習データ生成装置、変化領域検出方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US11651288B2 (ja)
JP (1) JP6982242B2 (ja)
WO (1) WO2019198634A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11412916B2 (en) 2019-10-08 2022-08-16 Nitoms, Inc. Cleaner sheet, layered body of cleaner sheet, cleaning tool, and method for producing cleaner sheet
KR102403169B1 (ko) * 2021-12-21 2022-05-30 주식회사 인피닉 이미지 분석을 통한 가이드 제공 방법 및 이를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램
JP7466165B1 (ja) 2023-10-20 2024-04-12 株式会社Ridge-i 情報処理装置、情報処理方法及び情報処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6509887B2 (ja) * 2015-06-12 2019-05-08 インターグラフ コーポレイション 画像変化検出
JP6397379B2 (ja) * 2015-07-30 2018-09-26 日本電信電話株式会社 変化領域検出装置、方法、及びプログラム
DE112016002782T5 (de) * 2016-08-24 2018-07-05 Google LLC (n.d.Ges.d. Staates Delaware) Änderungserkennungsbasiertes System zur Aktualisierung von Kartenschnittstellen

Also Published As

Publication number Publication date
JP2019185487A (ja) 2019-10-24
US11651288B2 (en) 2023-05-16
US20210042963A1 (en) 2021-02-11
WO2019198634A1 (ja) 2019-10-17

Similar Documents

Publication Publication Date Title
US10127670B2 (en) Computer vision systems and methods for detecting and modeling features of structures in images
JST Change detection from a street image pair using cnn features and superpixel segmentation
CN109584302B (zh) 相机位姿优化方法、装置、电子设备和计算机可读介质
CN113989450B (zh) 图像处理方法、装置、电子设备和介质
JP6982242B2 (ja) 学習データ生成装置、変化領域検出方法及びコンピュータプログラム
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
US20130191082A1 (en) Method of Modelling Buildings on the Basis of a Georeferenced Image
CN111368605A (zh) 车道线提取方法及装置
CN102959946A (zh) 基于相关3d点云数据来扩充图像数据的技术
EP4020404A1 (en) Method, apparatus, and computer program product for change detection based on digital signatures
Hebbalaguppe et al. Telecom Inventory management via object recognition and localisation on Google Street View Images
CN113436338A (zh) 火灾现场的三维重建方法、装置、服务器及可读存储介质
US11798181B2 (en) Method and system for location detection of photographs using topographic techniques
CN105224582B (zh) 信息处理方法和设备
KR101767006B1 (ko) Uav 영상을 이용한 건물 레이어의 갱신 객체 탐지 방법 및 장치
CN110926478A (zh) 一种ar导航路线纠偏方法、系统及计算机可读存储介质
Liu et al. Image-translation-based road marking extraction from mobile laser point clouds
JP5035549B2 (ja) 目標物検出システム
CN107168514B (zh) 一种图像处理方法及电子设备
US20220215645A1 (en) Computer Vision Systems and Methods for Determining Roof Conditions from Imagery Using Segmentation Networks
CN113298871A (zh) 地图生成方法、定位方法及其系统、计算机可读存储介质
CN111860084A (zh) 图像特征的匹配、定位方法及装置、定位系统
Brüstle et al. Object extraction in the context of an image registration workflow
EP4141789A1 (en) An automated imaging system for object footprint detection and a method thereof
Ankayarkanni et al. Object based segmentation techniques for classification of satellite image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6982242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150