JP7174298B2 - 差異検出装置、差異検出方法及びプログラム - Google Patents
差異検出装置、差異検出方法及びプログラム Download PDFInfo
- Publication number
- JP7174298B2 JP7174298B2 JP2021521678A JP2021521678A JP7174298B2 JP 7174298 B2 JP7174298 B2 JP 7174298B2 JP 2021521678 A JP2021521678 A JP 2021521678A JP 2021521678 A JP2021521678 A JP 2021521678A JP 7174298 B2 JP7174298 B2 JP 7174298B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- area
- attribute
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、差異検出装置、差異検出方法及びプログラムに関する。
異なる時刻における地上のほぼ同じ位置の空間領域を、人工衛星又は航空機が上空から撮影する場合がある。異なる時刻に撮影された空間領域に対象物が存在するか否かに応じて画像間に差異が生じている領域(以下「差異領域」という。)が画像において検出されることによって、撮影された空間領域における対象物の有無の時系列変化が検出される。
差異領域が画像において検出されることによって、例えば、地上において新規に建築された建物(以下「新規建物」という。)が検出される。ここで、異なる時刻に撮影された画像を人が見比べて、画像内の差異領域に表された新規建物を人が検出する。例えば地図の更新のために新規建物が検出される場合、時系列の大量の画像を人が見比べる。大量の画像を人が見比べるので、時間的コスト及び人的コストは高い。
そこで、時間的コスト及び人的コストを削減するために、ニューラルネットワークを用いた機械学習によって、差異検出装置が差異領域を検出する技術が提案されている(非特許文献1参照)。非特許文献1では、異なる時刻に撮影された空間領域を表す画像間の差異領域を、差異検出装置が検出する。差異検出装置は、検出された差異領域を表す差異領域データを生成する。
R. C. Daudt, B. L. Saux, and A. Boulch, "Fully convolutional siamese networks for change detection,"in 2018 IEEE International Conference on Image Processing, ICIP 2018, Athens, Greece, October 7-10, 2018, pp. 4063-4067, 2018.
しかしながら、画像間の差異領域ではない領域を、画像間の差異領域として差異検出装置が誤検出してしまう場合がある。例えば、屋根の色が変更された既存建物の領域を、新規建物が存在することに起因する差異領域として差異検出装置が誤検出してしまう場合がある。このように、画像間の差異領域を検出する精度が低い場合がある。
上記事情に鑑み、本発明は、画像間の差異領域を検出する精度を向上させることが可能である差異検出装置、差異検出方法及びプログラムを提供することを目的としている。
本発明の一態様は、第1空間領域の画像である第1画像と、前記第1空間領域とほぼ同じ位置の第2空間領域の画像である第2画像との間における差異の度合いを表す差異度と、前記第1空間領域に対象物が存在する確率を表す第1確率データと、前記第2空間領域に対象物が存在する確率を表す第2確率データとを取得する取得部と、前記差異度と前記第1確率データと前記第2確率データとを関連付け、関連付けの結果に基づいて、前記第1画像及び前記第2画像の間に差異が生じている領域を検出する検出部とを備える差異検出装置である。
本発明の一態様は、第1空間領域の画像である第1画像に対して、前記第1空間領域に対象物が存在する確率を表す予め準備された第1確率データをマスク画像として用いて、マスク処理の結果として得られた画像である第1確率画像を生成する第1領域マスク部と、前記第1空間領域とほぼ同じ位置の第2空間領域の画像である第2画像に対して、前記第2空間領域に対象物が存在する確率の推定値を表す第2確率データをマスク画像として用いて、マスク処理の結果として得られた画像である第2確率画像を生成する第2領域マスク部と、前記第1確率データと前記第2確率データとを関連付け、関連付けの結果に基づいて、前記第1画像及び前記第2画像の間に差異が生じている領域を検出する検出部とを備える差異検出装置である。
本発明により、画像間の差異領域を検出する精度を向上させることが可能である。
本発明の実施形態について、図面を参照して詳細に説明する。
(第1実施形態)
図1は、差異検出装置1aの構成例を示す図である。差異検出装置1aは、画像間の差異領域を検出する情報処理装置である。画像間の差異領域は、異なる時刻において画像に撮影された空間領域における対象物の有無に応じて生じる。画像に撮影される対象物(被写体)は、例えば、建物、道路である。撮影された画像は、静止画像でもよいし、動画像でもよい。撮影された画像のフレームの形状は、例えば矩形である。差異検出装置1aは、例えばニューラルネットワークを用いたモデルを用いて、画像間の差異領域を検出する。
(第1実施形態)
図1は、差異検出装置1aの構成例を示す図である。差異検出装置1aは、画像間の差異領域を検出する情報処理装置である。画像間の差異領域は、異なる時刻において画像に撮影された空間領域における対象物の有無に応じて生じる。画像に撮影される対象物(被写体)は、例えば、建物、道路である。撮影された画像は、静止画像でもよいし、動画像でもよい。撮影された画像のフレームの形状は、例えば矩形である。差異検出装置1aは、例えばニューラルネットワークを用いたモデルを用いて、画像間の差異領域を検出する。
ニューラルネットワークを用いたモデルを用いて差異検出装置1aが差異領域を検出する場合、差異検出装置1aの動作の段階には、学習フェーズと、推定フェーズとがある。学習フェーズにおいて、情報処理装置(学習装置)が、差異検出装置1aに用いられるモデルの機械学習を実行する。推定フェーズにおいて、差異検出装置1aは、学習済のモデルを用いて、画像間の差異領域を検出する。
差異検出装置1aは、第1領域検出部10と、第1属性検出部11と、第2属性検出部12と、第2領域検出部13とを備える。第1属性検出部11は、データの流れに関して、第2領域検出部13の前段に備えられる。
差異検出装置の一部又は全部は、CPU(Central Processing Unit)等のプロセッサが、不揮発性の記録媒体(非一時的な記録媒体)であるメモリに記憶されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD-ROM(Compact Disc Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記憶媒体である。プログラムは、電気通信回線を介して送信されてもよい。差異検出装置の一部又は全部は、例えば、LSI(Large Scale Integration circuit)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)又はFPGA(Field Programmable Gate Array)等を用いた電子回路(electronic circuit又はcircuitry)を含むハードウェアを用いて実現されてもよい。
第1領域検出部10は、第1画像及び第2画像を取得する。第1画像及び第2画像は、互いに異なる時刻にほぼ同じ位置の空間領域が撮影された画像群のうちの2枚の画像である。第1画像は、例えば、過去において人工衛星又は航空機等によって上空から撮影された地域の画像(過去画像)である。第2画像は、例えば、第1画像の撮影時刻よりも現在時刻に近い時刻において、人工衛星又は航空機等によって上空から撮影されたほぼ同じ地域の画像(現在画像)である。第1画像のサイズは、例えば第2画像のサイズと同じである。
第1領域検出部10に保持された学習済のモデル(第1領域モデル)は、第1画像及び第2画像を入力とすることによって、第1差異領域データ(第1領域モデルの出力)を生成する。第1領域検出部10は、複数の領域に分割された第1画像及び第2画像を入力とすることによって、領域単位で第1差異領域データを生成してもよい。第1領域検出部10は、第1差異領域データを、第2領域検出部13に出力する。
第1差異領域データは、第1画像及び第2画像の間における画素値の差異の度合い(差異度)を各要素とする行列データである。画像間における画素値の差異の度合いは、撮影された地上に存在する対象物が時系列変化している確率を、画素単位で表す。
第1差異領域データ(変化マスク画像)は、行列データの各要素を各画素とする画像の形式で表現される。第1差異領域データのサイズは、第1画像及び第2画像の各サイズと同じである。第1差異領域データの画素は、第1画像及び第2画像における同じ座標の画素に対応付けられている。
第1差異領域データにおける値は、第1画像及び第2画像の間における画素値の差異の度合い(差異度)を表す。差異度は、第1画像及び第2画像の間における画素値の変化度として、行列の要素(画像の画素)ごとに推定される。差異度の範囲は、0から1までの範囲である。すなわち、第1差異領域データにおける値は、第1画像の撮影時刻から第2画像の撮影時刻までの間における、撮影された地上に存在する対象物が時系列変化している確率を表す。確率値の範囲は、0から1までの範囲である。確率値に対して変換処理が実行された結果の整数部は、画像の形式で表現される第1差異領域データ等の画素値として利用可能である。確率値に対して実行される変換処理(以下「画像変換処理」」という。)では、例えば、確率値に所定値(例えば255)が乗算された結果が画素値として導出される。
第1差異領域データの値は、確率値が1に近くなるほど、画像変換処理によって例えば白に近い色(明るい色)で表現される。第1差異領域データの値は、確率値が0に近くなるほど、画像変換処理によって例えば黒に近い色(暗い色)で表現される。
第1属性検出部11は、第1画像(過去画像)を取得する。第1属性検出部11に保持された学習済のモデル(第1属性モデル)は、第1画像を入力とすることによって、第1属性データ(第1属性モデルの出力)を生成する。第1属性検出部11は、複数の領域に分割された第1画像を入力とすることによって、領域単位で第1属性データを生成してもよい。第1属性検出部11は、第1属性データを第2領域検出部13に出力する。
第1属性データ(第1確率データ)は、第1画像の画素が対象物を表している画素である確率を各要素とする行列データである。第1画像の画素が対象物を表している画素である確率は、例えば地図データに基づいて、画素ごとに導出される。
第1属性検出部11に保持された学習済のモデルは、別途作成された地図データに基づいて学習されたモデルである。地図データは、撮影された空間領域における対象物の位置(有無)を表す。第1属性検出部11は、第1画像の画素が対象物を表している確率を、第1画像における対象物の色等に関係なく、地図データを用いて学習されたモデルの出力として画素ごとに導出する。
第1属性データ(属性マスク画像)は、例えば、行列データの各要素を各画素とする画像の形式で表現される。確率値に所定値(例えば、255)が乗算された結果の整数部は、画素値として利用可能である。第1属性データのサイズは、第1画像のサイズと同じである。第1属性データの画素は、第1画像における同じ座標の画素に対応付けられている。第1属性データの画素の画素値は、画素が対象物を表している確率が高いほど大きい。すなわち、第1属性データの画素の画素値は、画素が対象物の位置に対応付けられている確率が高いほど大きい。
対象物が例えば建物である場合、第1属性データにおいて建物の位置に対応付けられていない要素の確率値は0である。第1属性データにおいて建物の位置に対応付けられている要素の確率値は1である。地図データが画像の形式で表現される場合、地図データの画素は、確率値が1に近くなるほど、画像変換処理によって例えば白に近い色(明るい色)で表現される。地図データの画素は、画素値が0に近くなるほど、画像変換処理によって例えば黒に近い色(暗い色)で表現される。
第2属性検出部12は、第2画像(現在画像)を取得する。第2属性検出部12に保持された学習済のモデル(第2属性モデル)は、第2画像を入力とすることによって、第2属性データ(第2属性モデルの出力)を生成する。第2属性検出部12は、複数の領域に分割された第2画像を入力とすることによって、領域単位で第2属性データを生成してもよい。第2属性検出部12は、第2属性データを第2領域検出部13に出力する。
第2属性データ(第2確率データ)は、第2画像の画素が対象物を表している画素である確率を各要素とする行列データである。第2画像の画素が対象物を表している画素である確率は、例えば地図データに基づいて、画素ごとに導出される。
なお、差異領域の検出の目的(例えば、新規建物を検出する目的、新規の道路を検出する目的)に応じて、複数の種類の対象物(例えば、建物及び道路)を表す各確率が、第1属性データ及び第2属性データにおいて導出されてもよい。
第2属性検出部12に保持された学習済のモデルは、別途作成された地図データに基づいて学習されたモデルである。第2属性検出部12は、第2画像の画素が対象物を表している確率を、第2画像における対象物の色等に関係なく、地図データを用いて学習されたモデルの出力として画素ごとに導出する。
第2属性データ(属性マスク画像)は、例えば、行列データの各要素を各画素とする画像の形式で表現される。確率値に所定値(例えば、255)が乗算された結果の整数部は、画素値として利用可能である。第2属性データのサイズは、第2画像のサイズと同じである。第2属性データの画素は、第2画像における同じ座標の画素に対応付けられている。第2属性データの画素の画素値は、画素が対象物を表している確率が高いほど大きい。すなわち、第2属性データの画素の画素値は、画素が対象物の位置に対応付けられている確率が高いほど大きい。
第1属性データと同様に、第2属性データにおいて建物の位置に対応付けられていない要素の確率値は0である。第2属性データにおいて建物の位置に対応付けられている要素の確率値は1である。
第2領域検出部13は、第1差異領域データ、第1属性データ及び第2属性データを取得する。第2領域検出部13は、第1差異領域データ、第1属性データ及び第2属性データを連結する。
第2領域検出部13に保持された学習済のモデル(第2領域モデル)は、第1差異領域データ、第1属性データ及び第2属性データを入力とすることによって、第2差異領域データ(第2領域モデルの出力)を生成する。第2領域検出部13は、複数の領域に分割された第1差異領域データ、第1属性データ及び第2属性データを入力とすることによって、領域単位で第2差異領域データを生成してもよい。第2領域検出部13は、第2差異領域データを、所定の外部装置(例えば、画像認識装置)に出力する。
第2差異領域データは、第1差異領域データの各画素を各要素とする行列データである。第2差異領域データは、例えば、行列データの各要素を各画素とする画像の形式で表現される。確率値に所定値(例えば、255)が乗算された結果の整数部は、画素値として利用可能である。すなわち、第2差異領域データは、第2領域検出部13よりも後段で実行される処理において変化マスク画像として利用可能である。第2差異領域データのサイズは、第1画像及び第2画像の各サイズと同じである。第2差異領域データの画素は、第1差異領域データにおける同じ座標の画素と、第1画像及び第2画像における同じ座標の画素とに対応付けられている。
第2差異領域データは、空間領域の対象物が撮影されている画像のみから得られる特徴データが変化している確率と、ほぼ同じ空間領域の地図データを利用して得られる属性(対象物)データが変化している確率との組み合わせに基づいて、空間領域において対象物が変化している確率を表すデータである。また、第2差異領域データは、画像の形式で表現されることで、対象物が変化している確率が低いほど黒くなるような画素値で表現される。これによって、第2差異領域データは、対象物が変化していない画素が例えば黒く塗りつぶされているマスク画像(変化マスク画像)として利用可能である。
図2は、第2差異領域データ(変化マスク画像)の生成例を示す図である。第1領域検出部10は、第1領域モデル100を備える。第1属性検出部11は、第1属性モデル110を備える。第2属性検出部12は、第2属性モデル120を備える。第2領域検出部13は、第2領域モデル130を備える。
第1領域検出部10は、第1画像200及び第2画像201を取得する。第1領域モデル100は、第1画像200及び第2画像201を入力として、第1差異領域データ300を生成する。第1領域検出部10は、第1差異領域データ300を、第2領域検出部13に出力する。
第1属性検出部11は、第1画像200を取得する。第1属性モデル110は、第1画像200(過去画像)を入力として、第1属性データ301(過去属性データ)を生成する。第1属性データ301は、第1画像200における対象物の領域を、地図データに基づいて表す。第1属性検出部11は、第1属性データ301を、第2領域検出部13に出力する。
第2属性検出部12は、第2画像201を取得する。第2属性モデル120は、第2画像201(現在画像)を入力として、第2属性データ302(現在属性データ)を生成する。第2属性データ302は、第2画像201における対象物の領域を、地図データに基づいて表す。第2属性検出部12は、第2属性データ302を、第2領域検出部13に出力する。
第2領域検出部13は、第1差異領域データ、第1属性データ及び第2属性データを取得する。第2領域モデル130は、連結された第1差異領域データ300、第1属性データ301及び第2属性データ302を入力とする。
第2領域検出部13に保持された第2領域モデル130は、第1差異領域データ300の各画素値(各確率値)を、第1属性データ301及び第2属性データ302の間の差に応じて変更する。第2領域モデル130は、第1属性データ301及び第2属性データ302の間の差が大きい領域(例えば、閾値以上の領域)を、第1差異領域データ300における差異領域として検出する。
なお、第2領域検出部13は、第1差異領域データ300の各画素値(各確率値)を、第1属性データ301及び第2属性データ302の間の差異度と閾値との比較結果に基づいて変更してもよい。
第2領域モデル130は、第1属性データ301及び第2属性データ302の間の差異度が低い領域に対応付けられた第1差異領域データ300の各画素値を小さくする。例えば、新規建物である確率を第1差異領域データ300の画素値が表している場合、第2領域モデル130は、第1属性データ301及び第2属性データ302の両方において建物の位置に対応付けられている画素(差異度が低い領域の画素)を、第1差異領域データ300において検出する。
第1属性データ301及び第2属性データ302の両方のほぼ同じ位置において、ほぼ同じ画素値を持っている画素は、新規建物以外の建物(既存建物)を表す画素である可能性がある。そこで、第2領域モデル130は、第1差異領域データ300において検出された各画素の画素値(例えば新規建物である確率を表す確率値)を小さくする。
このように、第2領域検出部13は、第1差異領域データ300において、第1属性データと第2属性データとの差が大きい領域を、差異領域として検出する。ここで、第2領域検出部13は、第1差異領域データ300において画素値が大きい領域(差異度が高い領域。差異度が一定値以上である領域。)を、差異領域として検出する。
第2領域検出部13は、第1属性データ及び第2属性データの間の差異度に応じて変更された各画素値を含む第1差異領域データ300を、第2差異領域データ303として、所定の外部装置(例えば、画像認識装置)に出力する。
このように、第2領域検出部13は、過去及び現在の地図の同一位置における対象物の時系列変化の有無と、地図データが示す地域が撮影された画像の時系列変化との両方に基づいて、撮影された画像間の差異領域を検出する。例えば、既存建物の屋根の色が時系列変化した場合でも、第1属性モデル110及び第2属性モデル120の学習に用いられた地図データ(属性データの教師データ)における既存建物の時系列変化がないことに基づいて、第1領域検出部10が既存建物を新規建物と誤検出する可能性を低減することが可能である。
次に、推定フェーズにおける差異検出装置1aが実行する推定動作の例を説明する。
図3は、差異検出装置1aが実行する推定動作の例を示すフローチャートである。第1領域検出部10が、差異の検出対象である第1画像200及び第2画像201を取得する。第1領域検出部10が、第1画像200及び第2画像201に基づいて、第1差異領域データ300を生成する(ステップS101)。第2領域検出部13が、第1差異領域データ300を取得する(ステップS102)。
図3は、差異検出装置1aが実行する推定動作の例を示すフローチャートである。第1領域検出部10が、差異の検出対象である第1画像200及び第2画像201を取得する。第1領域検出部10が、第1画像200及び第2画像201に基づいて、第1差異領域データ300を生成する(ステップS101)。第2領域検出部13が、第1差異領域データ300を取得する(ステップS102)。
第1属性検出部11が、第1画像200(過去画像)を取得する。第1属性検出部11が、第1画像200に基づいて、第1属性データ301(過去属性データ)を生成する(ステップS103)。第2領域検出部13が、第1属性データ301を取得する(ステップS104)。第2属性検出部12が、第2画像201(現在画像)を取得する。第2属性検出部12が、第2画像201に基づいて、第2属性データ302(現在属性データ)を生成する(ステップS105)。
第2領域検出部13が、第2属性データ302を取得する(ステップS106)。第2領域検出部13が、連結された第1差異領域データ、第1属性データ及び第2属性データに基づいて、第2差異領域データ303を生成する(ステップS107)。
図4は、第1領域検出部10が実行する推定動作の例を示すフローチャートである。図3に示されたステップS101において、第1領域検出部10は、第1画像200及び第2画像201を取得する(ステップS201)。第1領域検出部10に保持されている学習済みの第1領域モデル100は、第1画像200及び第2画像201を取得する(ステップS202)。
第1領域モデル100は、第1画像200及び第2画像201の各画素値を第1領域モデル100の入力として、複数の確率値(第1領域モデル100の出力)を生成する。生成された確率値の個数は、例えば第1画像200の画素数(サイズ)と等しい(ステップS203)。第1領域モデル100は、複数の確率値(第1領域モデル100の出力)に基づいて、第1差異領域データ300を生成する。第1領域検出部10は、第1差異領域データ300を、第2領域検出部13に出力する(ステップS204)。
図5は、第1属性検出部11が実行する推定動作の例を示すフローチャートである。図3に示されたステップS103において、第1属性検出部11が、第1画像200を取得する(ステップS301)。第1属性検出部11に保持されている学習済みの第1属性モデル110は、第1画像200を取得する(ステップS302)。
第1属性モデル110は、第1画像200の各画素値を第1属性モデル110の入力として、複数の確率値(第1属性モデル110の出力)を生成する。生成された確率値の個数は、第1画像200の画素数(サイズ)と等しい(ステップS303)。第1属性モデル110は、複数の確率値(第1属性モデル110の出力)に基づいて、第1属性データ301を生成する。第1領域モデル100は、第1属性データ301を、第2領域検出部13に出力する(ステップS304)。
なお、図3に示されたステップS105において第2画像201を用いる第2属性検出部12が実行する推定動作は、図5に示されたように第1画像200を用いる第1属性検出部11が実行する推定動作と同様である。
図6は、第2領域検出部13が実行する推定動作の例を示すフローチャートである。第2領域検出部13は、第1差異領域データ300、第1属性データ301及び第2属性データ302を取得する(ステップS401)。第2領域検出部13に保持されている学習済みの第2領域モデル130は、第1差異領域データ300、第1属性データ301及び第2属性データ302を取得する(ステップS402)。
第2領域モデル130は、第1差異領域データ300、第1属性データ301及び第2属性データ302の各画素値を第2領域モデル130の入力として、複数の確率値(第2領域モデル130の出力)を生成する。生成された確率値の個数は、例えば第1差異領域データ300の画素数(サイズ)と等しい(ステップS403)。
第2領域検出部13は、閾値以上の画素値を表す各画素を、第1差異領域データ300において検出する。画素値の閾値の範囲は、差異度「0」に対応する画素値(例えば0)から差異度「1」に対応する画素値(例えば255)までの各画素値のうちから、モデルの精度に応じて選択されてもよい。第2領域検出部13は、検出された各画素に対応する第2差異領域データ303(変化領域データ)を生成する(ステップS404)。
次に、学習フェーズにおける学習装置の機械学習動作の例を説明する。
図7は、第1学習装置2の構成例を示す図である。第1学習装置2は、第1領域検出部10に保持される第1領域モデル100を機械学習によって生成する情報処理装置である。
図7は、第1学習装置2の構成例を示す図である。第1学習装置2は、第1領域検出部10に保持される第1領域モデル100を機械学習によって生成する情報処理装置である。
第1学習装置2は、第1学習記憶部20と、第1領域学習部21とを備える。第1学習装置2の一部又は全部は、CPU等のプロセッサが、不揮発性の記録媒体(非一時的な記録媒体)であるメモリに記憶されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。第1学習装置2の一部又は全部は、例えば、LSI、ASIC、PLD又はFPGA等を用いた電子回路を含むハードウェアを用いて実現されてもよい。
第1学習記憶部20は、第1学習画像及び第2学習画像を含む学習画像群と、地図データとを記憶する。学習画像群は、機械学習用の画像群である。第1学習画像及び第2学習画像は、互いに異なる時刻に上空から撮影された地上におけるほぼ同じ位置の空間領域を表す画像の組である。
地図データは、家屋及び無壁舎等の対象物の位置をポリゴンの配置を用いて表現する電子地図データである。地図データは、対象物の種類に対応付けられた層ごとに対象物を表すデータ(レイヤデータ)の形式で、対象物の位置データを含んでもよい。
なお、地図データは、対象物の位置を正確に表現することが可能であれば、ポリゴンを用いる代わりに、対象物の形状を表す画像の配置を用いて、対象物の位置を表現してもよい。
第1学習記憶部20は、第1差異領域データの教師データ(以下「第1領域教師データ」という。)を記憶する。第1学習画像及び第2学習画像と、地図データと、第1領域教師データとは、空間領域の位置と時刻とに関して、互いに対応付けられている。
第1領域教師データは、地図データを用いて予め作成される。例えば、第1領域教師データは、ほぼ同じ位置の空間領域を表す第1地図データ及び第2地図データのいずれか一方のみに存在する対象物の位置を、ポリゴン又は画像の配置を用いて表現するデータである。第1地図データ及び第2地図データのいずれか一方のみに存在する対象物の位置は、差異領域における対象物の位置であり、例えば新規建物の位置である。
第1領域学習部21に保持されているモデルは、エンコーダ及びデコーダを保持するU-Net等の全層畳み込みネットワーク(Fully Convolution Network)に類似するネットワークを備えるモデルである。エンコーダは、畳み込み層及びプーリング層の繰り返しを用いて、データを符号化する。デコーダは、アップサンプリング層、逆畳み込み層及びプーリング層の繰り返しを用いて、データを復号する。第1領域学習部21に保持されているモデルのネットワーク構造は、例えば、非特許文献1に示されたネットワーク構造に類似する構造でもよい。第1領域学習部21に保持されているモデルは、2個のエンコーダと1個のデコーダとを備えてもよい。
学習フェーズにおいて、第1領域学習部21は、第1学習画像及び第2学習画像と、第1領域教師データとを取得する。第1領域学習部21に保持されているモデルは、第1学習画像及び第2学習画像(学習画像の組)と、第1領域教師データとを入力として、第1差異領域データ300の推定データ(推定変化マスク画像)を出力する。
第1領域学習部21は、第1差異領域データ300の推定データと第1領域教師データとの評価誤差が最小になるように、第1領域学習部21に保持されているモデルのネットワークのパラメータを更新する。評価誤差は、例えば、バイナリ・クロス・エントロピ(Binary Cross-Entropy)等の損失関数、平均絶対誤差(MAE:Mean Absolute Error)又は平均二乗誤差(Mean Squared Error)である。
第1領域学習部21は、例えば、誤差逆伝播法を用いてパラメータを更新する。第1領域学習部21は、ネットワークのパラメータが更新されたモデルを、第1領域モデル100として第1領域検出部10に出力する。
図8は、属性学習装置3の構成例を示す図である。属性学習装置3は、第1属性検出部11に保持される第1属性モデル110を機械学習によって生成する情報処理装置である。属性学習装置3は、第1属性検出部11に保持される第1属性モデル110だけでなく、第2属性検出部12に保持される第2属性モデル120を、機械学習によって生成してもよい。
属性学習装置3は、属性学習記憶部30と、属性学習部31とを備える。属性学習装置3の一部又は全部は、CPU等のプロセッサが、不揮発性の記録媒体(非一時的な記録媒体)であるメモリに記憶されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。属性学習装置3の一部又は全部は、例えば、LSI、ASIC、PLD又はFPGA等を用いた電子回路を含むハードウェアを用いて実現されてもよい。
属性学習記憶部30は、学習画像群と、地図データとを記憶する。属性学習部31は、第1属性データ又は第2属性データの教師データ(以下「属性教師データ」という。)を記憶する。属性教師データは、地図データを用いて予め作成される。属性教師データは、学習画像の各画素値が対象物の属性を表している確率を各要素とする行列データである。例えば、属性教師データは、学習画像の各画素値が建物を表している確率を各要素とする行列データである。学習画像群と、地図データと、属性教師データとは、空間領域の位置と時刻とに関して、互いに対応付けられている。
属性学習部31に保持されているモデルは、エンコーダ及びデコーダを保持するU-Net等の全層畳み込みネットワークに類似するネットワークを備えるモデルである。属性学習部31に保持されているモデルのネットワーク構造は、例えば、非特許文献1に示されたネットワーク構造に類似する構造でもよい。
学習フェーズにおいて、属性学習部31は、学習画像群のうちの学習画像(過去の学習画像)と、属性教師データとを取得する。属性学習部31に保持されているモデルは、学習画像と、属性教師データとを入力として、第1属性データ301の推定データ(推定属性マスク画像)を出力する。
属性学習部31は、第1属性データ301の推定データと属性教師データとの評価誤差が最小になるように、属性学習部31に保持されているモデルのネットワークのパラメータを更新する。属性学習部31は、例えば、誤差逆伝播法を用いてパラメータを更新する。属性学習部31は、ネットワークのパラメータが更新されたモデルを、第1属性データ301として第1属性検出部11に出力する。
属性学習部31に保持されているモデルは、第1属性データ301の推定データが生成される際に用いられた過去の学習画像よりも新しい学習画像(現在の学習画像)と、属性教師データとを入力として、第2属性データ302の推定データ(推定属性マスク画像)を出力してもよい。属性学習部31は、ネットワークのパラメータが更新されたモデルを、第2属性データ302として第2属性検出部12に出力してもよい。
なお、属性学習部31において、過去の学習画像を用いて生成されたモデルは、現在の学習画像における対象物を検出することが可能である。このため、属性学習部31は、第1属性モデル110が生成される際に用いられた学習画像群(過去の学習画像群)を用いて学習されたモデルを、第2属性モデル120として第2属性検出部12に出力してもよい。
図9は、第2学習装置4の構成例を示す図である。第2学習装置4は、第2領域検出部13に保持される第2領域モデル130を機械学習によって生成する情報処理装置である。
第2学習装置4は、第2学習記憶部40と、第2領域学習部41とを備える。第2学習装置4の一部又は全部は、CPU等のプロセッサが、不揮発性の記録媒体(非一時的な記録媒体)であるメモリに記憶されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。第2学習装置4の一部又は全部は、例えば、LSI、ASIC、PLD又はFPGA等を用いた電子回路を含むハードウェアを用いて実現されてもよい。
第2学習記憶部40は、第2差異領域データの教師データ(以下「第2領域教師データ」という。)を記憶する。第1学習画像及び第2学習画像と、地図データと、第1差異領域データと、第2領域教師データとは、空間領域の位置と時刻とに関して、互いに対応付けられている。
第2領域教師データは、地図データを用いて予め作成される。例えば、第2領域教師データは、ほぼ同じ位置の空間領域を表す第1地図データ及び第2地図データのいずれか一方のみに存在する対象物の位置を、ポリゴン又は画像の配置を用いて表現するデータである。
第2領域学習部41に保持されているモデルは、エンコーダ及びデコーダを保持するU-Net等の全層畳み込みネットワークに類似するネットワークを備えるモデルである。第2領域学習部41に保持されているモデルのネットワーク構造は、例えば、非特許文献1に示されたネットワーク構造に類似する構造でもよい。第2領域学習部41に保持されているモデルは、2個のエンコーダと1個のデコーダとを備えてもよい。
学習フェーズにおいて、第2領域学習部41は、第1属性データ301及び第2属性データ302と、第1差異領域データ300と、第2領域教師データとを取得する。第2領域学習部41に保持されているモデルは、第1属性データ301及び第2属性データ302と、第1差異領域データ300と、第2領域教師データとを入力として、第2差異領域データ303の推定データ(推定変化マスク画像)を出力する。
第2領域学習部41は、第2差異領域データ303の推定データと第2領域教師データとの評価誤差が最小になるように、第2領域学習部41に保持されているモデルのネットワークのパラメータを更新する。第2領域学習部41は、例えば、誤差逆伝播法を用いてパラメータを更新する。第2領域学習部41は、ネットワークのパラメータが更新されたモデルを、第2領域モデル130として第2領域検出部13に出力する。
以上のように、第1実施形態の差異検出装置1aは、第2領域検出部13(取得部、検出部)を備える。第2領域検出部13は、差異度と、第1属性データ(第1確率データ)と、第2属性データ(第2確率データ)とを取得する。差異度は、第1画像200(第1空間領域が第1時刻において撮影された画像)と、第2画像201(第2空間領域が第2時刻において撮影された画像)との間における画素値の差異の度合いを画素ごとに表す。第1属性データは、第1画像200に撮影された第1空間領域に対象物が存在する確率を画素ごと表す。第2属性データは、第2画像201に撮影された第2空間領域に対象物が存在する確率を画素ごと表す。第1属性データ及び第2属性データは、例えば、地図データに基づいて生成される。第2領域検出部13は、差異度と第1属性データと第2属性データとを関連付ける。ここで、関連付けとは、例えば機械学習において、差異領域を出力するネットワーク(モデル)に、差異度と第1属性データと第2属性データとを第2領域検出部13が入力することである。関連付けとは、差異度、第1属性データ及び第2属性データの対応付けに応じて差異領域を導出するヒューリスティックに基づいて決められた信号処理を第2領域検出部13が実行する際に、差異度、第1属性データ及び第2属性データを第2領域検出部13が対応付けることでもよい。差異度、第1属性データ及び第2属性データは、0から1までの確率値として、それぞれ表現可能である。ヒューリスティックに基づいて決められた信号処理では、例えば、空間領域における対象物が変化している確率(最終的な差異度)として、各画素の画素値(各要素の確率値)の加重平均値が得られる。ヒューリスティックに基づいて決められた信号処理では、例えば、空間領域における対象物が変化している確率(最終的な差異度)として、第1属性データと第2属性データとの差に応じて得られる係数に差異度が乗算された結果の値が得られてもよい。第2領域検出部13は、関連付けの結果(例えば、ネットワークの入力)に基づいて、差異領域を検出する。
これによって、画像間の差異領域を検出する精度を向上させることが可能である。
第1属性データ301及び第2属性データ302は、人がラベル付けしたことによって生成されたデータではなく、差異検出装置1aによって生成されたデータである。このため、第1属性データ301及び第2属性データ302の精度は高い。差異検出装置1aは、第1属性データ301及び第2属性データ302を短時間で生成することができる。
人が作成した地図データ(例えば、オープンソースの地図データ)に誤りが含まれている場合、差異検出装置1aは、人が作成した地図データにおける誤りを、第1属性データ301及び第2属性データ302を用いて訂正してもよい。
(変形例)
ニューラルネットワーク等のモデルを差異検出装置1aが使用しない場合における、差異検出装置1aが実行する推定動作の例を説明する。
ニューラルネットワーク等のモデルを差異検出装置1aが使用しない場合における、差異検出装置1aが実行する推定動作の例を説明する。
図10は、第2領域検出部13が実行する推定動作の例を示すフローチャートである。第2領域検出部13は、第1差異領域データ300、第1属性データ301及び第2属性データ302を取得する(ステップS501)。第2領域検出部13は、第1差異領域データ300の画素値と、第1属性データ301の画素値と、第2属性データ302の画素値との平均値を、撮影された空間領域における同じ位置に対応付けられた画素ごとに導出する(ステップS502)。第2領域検出部13は、閾値以上の平均値を表す各画素に対応する差異領域を表す第2差異領域データ303を生成する(ステップS503)。
(第2実施形態)
第2実施形態では、画像ではなく地図データに基づいて第1属性データ301が生成される点が、第1実施形態と相違する。第2実施形態では、第1実施形態との相違点を説明する。
第2実施形態では、画像ではなく地図データに基づいて第1属性データ301が生成される点が、第1実施形態と相違する。第2実施形態では、第1実施形態との相違点を説明する。
第2領域検出部13は、地図データに基づいて生成された第1属性データ301を入力として、第2差異領域データ303を生成してもよい。
図11は、差異検出装置1bの構成例を示す図である。差異検出装置1bは、画像間の差異領域を検出する情報処理装置である。差異検出装置1bは、例えばニューラルネットワークを用いたモデルを用いて、画像間の差異領域を検出する。
差異検出装置1bは、第1領域検出部10と、第2属性検出部12と、第2領域検出部13と、属性データ記憶部14とを備える。
属性データ記憶部14は、第1属性データ301を記憶する。第1属性データ301は、撮影された空間領域における対象物の位置をポリゴンの配置を用いて表現する地図データ(過去の実際の属性データ)を用いて、予め生成される。第1属性データ301は、図8に示された属性学習記憶部30に記憶されている属性教師データでもよい。第2領域検出部13は、第1属性データ301を、属性データ記憶部14から取得する。
なお、属性データ記憶部14は、第1属性データ301及び第2属性データ302を記憶してもよい。第2領域検出部13は、第2属性データ302を、属性データ記憶部14から取得してもよい。
以上のように、第2実施形態の差異検出装置1bは、属性データ記憶部14を備える。属性データ記憶部14は、第1属性データ301を記憶する。第1属性データ301は、地図データ(過去の実際の属性データ)を用いて、予め生成される。第2領域検出部13は、第1属性データ301を、属性データ記憶部14から取得する。
これによって、地図データ(過去の実際の属性データ)を用いて、画像間の差異領域を検出する精度をさらに向上させることが可能である。
(第3実施形態)
第3実施形態では、第1画像に関して予め準備された属性データと第2画像の属性データの推定値とに基づいて差異が検出される点が、第1実施形態及び第2実施形態と相違する。第3実施形態では、第1実施形態及び第2実施形態との相違点を説明する。
第3実施形態では、第1画像に関して予め準備された属性データと第2画像の属性データの推定値とに基づいて差異が検出される点が、第1実施形態及び第2実施形態と相違する。第3実施形態では、第1実施形態及び第2実施形態との相違点を説明する。
図12は、差異検出装置1cの構成例を示す図である。差異検出装置1cは、画像間の差異領域を検出する情報処理装置である。差異検出装置1cは、例えばニューラルネットワークを用いたモデルを用いて、画像間の差異領域を検出する。
第3実施形態では、第1画像に関して予め準備属性データと、第2画像の属性データの推定値とに基づいて、第1画像及び第2画像の間の差異領域が検出される。すなわち、第1画像に関して予め準備された属性データが、画素ごとに導出される。属性データは、画素値として利用される。属性データは、画像変換処理によって画素値に変換されてもよい。第2画像の属性データの推定値が、第2画像の画素ごとに導出される。属性データの推定値は、画素値として利用される。属性データの推定値は、画像変換処理によって画素値に変換されてもよい。
第3実施形態では、第1画像に対応する属性データと、第2画像に対応する属性データの推定値とが、差異領域であるか否かが判定される対象データとされる。これによって、差異検出装置1cは、属性データに基づいて、第1画像及び第2画像の間の差異領域を検出することができる。
差異検出装置1cは、第2属性検出部12と、属性データ記憶部14、第1領域マスク部15と、第2領域マスク部16と、第3領域検出部17とを備える。
属性データ記憶部14は、第1属性データ301を記憶する。第1属性データ301は、撮影された空間領域における対象物の位置をポリゴンの配置を用いて表現する地図データ(過去の実際の属性データ)を用いて、予め生成される。第1属性データ301は、図8に示された属性学習記憶部30に記憶されている属性教師データでもよい。第1領域マスク部15は、第1属性データ301を、属性データ記憶部14から取得する。
図13は、第1領域マスク部15が実行する動作の例を示すフローチャートである。第1領域マスク部15は、第1画像200と、第1属性データ301とを取得する(ステップS601)。第1領域マスク部15は、第1画像200に対して第1属性データ301(第1確率データ)をマスク画像として用いて、マスク処理の結果として第1属性領域画像400(第1確率画像)を生成する(ステップS602)。第1領域マスク部15は、第1属性領域画像400を、第3領域検出部17に出力する(ステップS603)。
図14は、第2領域マスク部16が実行する動作の例を示すフローチャートである。第2領域マスク部16は、第2画像201と、第2属性データ302とを取得する(ステップS701)。ここで、第2属性データ302は、第2属性モデル120によって推定された属性データ(確率データの推定値)である。第2属性データ302は、画像の形式で表現される。第2属性データ302は、第2属性検出部12に第2画像201が入力された結果として得られる。第2属性データ302の各画素値に対応する各確率値の範囲は、第1実施形態に記載されているように、0から1までの範囲である。
第2領域マスク部16は、第2画像201に対して第2属性データ302をマスク画像として用いて、マスク処理の結果として第2属性領域推定画像401を生成する(ステップS702)。第2領域マスク部16は、第2属性領域推定画像において閾値以上の画素値を表す画素を、第3領域検出部に出力する(ステップS603)。ここで、第2属性領域推定画像401において閾値未満の画素値を表す画素の画素値は、0に置き換えられる。
図15は、第3領域検出部17が実行する推定動作の例を示すフローチャートである。第3領域検出部17は、第1属性領域画像400と、閾値処理された第2属性領域推定画像401とを取得する(ステップS801)。第3領域検出部17に保持されている学習済みの第3領域モデル140は、第1属性領域画像400と、閾値処理された第2属性領域推定画像401とを取得する(ステップS802)。
第3領域モデル140は、第1属性領域画像400、閾値処理された第2属性領域推定画像401の各画素値を第3領域モデル140の入力として、複数の確率値(第3領域モデル140の出力、第3差異領域データ)を生成する。生成された確率値の個数は、例えば第1差異領域データ300の画素数(サイズ)と等しい(ステップS803)。
第3領域検出部17は、閾値以上の確率値又は画素値を表す各画素に対応する第3差異領域データ304を生成する(ステップS804)。ここで、確率値の閾値の範囲は、0から1までの範囲である。
第3領域モデル140は、第1属性領域画像400と、閾値処理された第2属性領域推定画像401とが連結されたデータを入力として、第3差異領域データを生成するように学習されたモデルである。
第3領域モデル140と第2属性モデル120とは、互い独立に学習できる。閾値を有する正規化線形関数を利用したユニット(threshold rectified linear unit)と第2領域マスク部16がみなされることで、第3領域モデル140と第2領域モデルとは、互い独立ではなく一つのモデルとして学習してもよい。
以上のように、第2実施形態の差異検出装置1cは、第1領域マスク部15と、第2領域マスク部16と、第3領域検出部17とを備える。第1領域マスク部15は、第1画像200に対して、第1空間領域に対象物が存在する確率を表す予め準備(予め用意)された第1属性データ301(第1確率データ)を、マスク画像として用いる。第1領域マスク部15は、マスク処理の結果として得られた画像である第1属性領域画像400(第1確率画像)を生成する。第2領域マスク部16は、第2画像201に対して、第2空間領域に対象物が存在する確率の推定値を表す第2属性データ302(第2確率データ)を、マスク画像として用いる。第2領域マスク部16は、マスク処理の結果として得られた画像である第2属性領域推定画像401(第2確率画像)を生成する。第2領域マスク部16は、第2属性領域推定画像401において閾値未満の画素値を表す画素の画素値を、0に置き換えてもよい。第3領域検出部17は、第1属性領域画像400と第2属性領域推定画像401とを関連付ける。第3領域検出部17は、関連付けの結果に基づいて、第1画像200及び第2画像201の間に差異が生じている領域を検出する。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、複数の画像の差異領域を検出する情報処理装置(画像処理装置)に適用可能である。
1a,1b,1c…差異検出装置、10…第1領域検出部、11…第1属性検出部、12…第2属性検出部、13…第2領域検出部、14…属性データ記憶部、15…第1領域マスク部、16…第2領域マスク部、17…第3領域検出部、20…第1学習記憶部、21…第1領域学習部、30…属性学習記憶部、31…属性学習部、40…第2学習記憶部、41…第2領域学習部、100…第1領域モデル、110…第1属性モデル、120…第2属性モデル、130…第2領域モデル、140…第3領域モデル、200…第1画像、201…第2画像、300…第1差異領域データ、301…第1属性データ、302…第2属性データ、303…第2差異領域データ、304…第3差異領域データ、400…第1属性領域画像、401…第2属性領域推定画像
Claims (7)
- 第1空間領域の画像である第1画像と、前記第1空間領域とほぼ同じ位置の第2空間領域の画像である第2画像との間における差異の度合いを表す差異度と、前記第1空間領域に対象物が存在する確率を表す第1確率データと、前記第2空間領域に対象物が存在する確率を表す第2確率データとを取得する取得部と、
前記差異度と前記第1確率データと前記第2確率データとを関連付け、関連付けの結果に基づいて、前記第1画像及び前記第2画像の間に差異が生じている領域を検出する検出部と
を備える差異検出装置。 - 前記検出部は、前記第1画像及び前記第2画像において前記第1確率データ及び前記第2確率データの差が閾値以上である領域を、前記差異が生じている領域として検出する、請求項1に記載の差異検出装置。
- 前記検出部は、前記第1画像及び前記第2画像において前記差異度が一定値以上である領域を、前記差異が生じている領域として検出する、請求項1又は請求項2に記載の差異検出装置。
- 前記検出部は、前記差異度と前記第1確率データと前記第2確率データとを、学習済のニューラルネットワークに入力し、
前記学習済のニューラルネットワークは、前記差異が生じている領域を出力する、請求項1から請求項3のいずれか一項に記載の差異検出装置。 - 第1空間領域の画像である第1画像に対して、前記第1空間領域に対象物が存在する確率を表す予め準備された第1確率データをマスク画像として用いて、マスク処理の結果として得られた画像である第1確率画像を生成する第1領域マスク部と、
前記第1空間領域とほぼ同じ位置の第2空間領域の画像である第2画像に対して、前記第2空間領域に対象物が存在する確率の推定値を表す第2確率データをマスク画像として用いて、マスク処理の結果として得られた画像である第2確率画像を生成する第2領域マスク部と、
前記第1確率データと前記第2確率データとを関連付け、関連付けの結果に基づいて、前記第1画像及び前記第2画像の間に差異が生じている領域を検出する検出部と
を備える差異検出装置。 - 差異検出装置が実行する差異検出方法であって、
第1空間領域の画像である第1画像と、前記第1空間領域とほぼ同じ位置の第2空間領域の画像である第2画像との間における差異の度合いを表す差異度と、前記第1空間領域に対象物が存在する確率を表す第1確率データと、前記第2空間領域に対象物が存在する確率を表す第2確率データとを取得するステップと、
前記差異度と前記第1確率データと前記第2確率データとを関連付け、関連付けの結果に基づいて、前記第1画像及び前記第2画像の間に差異が生じている領域を検出するステップと
を含む差異検出方法。 - 請求項1から請求項5のいずれか一項に記載の差異検出装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/021465 WO2020240760A1 (ja) | 2019-05-30 | 2019-05-30 | 差異検出装置、差異検出方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020240760A1 JPWO2020240760A1 (ja) | 2020-12-03 |
JP7174298B2 true JP7174298B2 (ja) | 2022-11-17 |
Family
ID=73553598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521678A Active JP7174298B2 (ja) | 2019-05-30 | 2019-05-30 | 差異検出装置、差異検出方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220222859A1 (ja) |
JP (1) | JP7174298B2 (ja) |
WO (1) | WO2020240760A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220162971A (ko) * | 2021-06-02 | 2022-12-09 | 세메스 주식회사 | 데이터 처리 방법 및 데이터 비교 방법 |
CN114468977B (zh) * | 2022-01-21 | 2023-03-28 | 深圳市眼科医院 | 一种眼科视力检查数据收集分析方法、系统及计算机存储介质 |
CN115965773B (zh) * | 2023-03-16 | 2023-05-16 | 深圳市特安电子有限公司 | 基于物联网大数据的气体泄漏检测系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6982419B2 (ja) * | 2017-06-30 | 2021-12-17 | 三菱スペース・ソフトウエア株式会社 | 画像比較装置、画像比較プログラムおよび画像比較方法 |
-
2019
- 2019-05-30 WO PCT/JP2019/021465 patent/WO2020240760A1/ja active Application Filing
- 2019-05-30 JP JP2021521678A patent/JP7174298B2/ja active Active
- 2019-05-30 US US17/595,182 patent/US20220222859A1/en active Pending
Non-Patent Citations (1)
Title |
---|
R. C. Daudt et al.,Fully convolutional siamese networks for change detection,ICIP 2018,IEEE,2018年10月05日 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020240760A1 (ja) | 2020-12-03 |
US20220222859A1 (en) | 2022-07-14 |
WO2020240760A1 (ja) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7174298B2 (ja) | 差異検出装置、差異検出方法及びプログラム | |
CN109816012B (zh) | 一种融合上下文信息的多尺度目标检测方法 | |
WO2020063475A1 (zh) | 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置 | |
US10846870B2 (en) | Joint training technique for depth map generation | |
KR102140873B1 (ko) | 동적 객체 검출 장치 및 방법 | |
WO2022121031A1 (zh) | 基于部分卷积和掩膜更新的指静脉图像修复方法 | |
JP2006260527A (ja) | 画像マッチング方法およびこれを用いた画像補間方法 | |
US20140321738A1 (en) | Dictionary creation device, image processing device, image processing system, dictionary creation method, image processing method, and program | |
EP2591460A1 (en) | Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation | |
WO2012034467A1 (zh) | 一种天基大视场成像点源/斑状目标的图像恢复增强方法 | |
CN109635714B (zh) | 文档扫描图像的矫正方法及装置 | |
US20220076119A1 (en) | Device and method of training a generative neural network | |
CN108875504B (zh) | 基于神经网络的图像检测方法和图像检测装置 | |
JP2006090896A (ja) | ステレオ画像処理装置 | |
KR20210074163A (ko) | 공동 검출 및 기술 시스템 및 방법 | |
CN116645592B (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
JP2019194821A (ja) | 目標認識装置、目標認識方法及びプログラム | |
JP2020135465A (ja) | 学習装置、学習方法、プログラムおよび認識装置 | |
CN113643311B (zh) | 一种对边界误差鲁棒的图像分割方法和装置 | |
CN114155285B (zh) | 基于灰度直方图的图像配准方法 | |
Hossain et al. | High dynamic range imaging of non-static scenes | |
KR100362171B1 (ko) | 영상 특징점 매칭을 이용한 변환 행렬 추정 장치, 방법 및 그 기록매체와 그를 이용한 모자이크 영상 생성 장치, 방법 및 그 기록매체 | |
US20220335650A1 (en) | Methods and Systems for Training a Machine Learning Method for Determining Pre-Determined Points in an Image | |
KR102101481B1 (ko) | 인공지능 기반의 휴대용 보안영상 학습장치 및 방법 | |
JP7244738B2 (ja) | 差異検出装置及び差異検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7174298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |