JP7244738B2 - 差異検出装置及び差異検出プログラム - Google Patents

差異検出装置及び差異検出プログラム Download PDF

Info

Publication number
JP7244738B2
JP7244738B2 JP2018189513A JP2018189513A JP7244738B2 JP 7244738 B2 JP7244738 B2 JP 7244738B2 JP 2018189513 A JP2018189513 A JP 2018189513A JP 2018189513 A JP2018189513 A JP 2018189513A JP 7244738 B2 JP7244738 B2 JP 7244738B2
Authority
JP
Japan
Prior art keywords
image
difference detection
encoded
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018189513A
Other languages
English (en)
Other versions
JP2020061596A (ja
Inventor
基宏 高木
和也 早瀬
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018189513A priority Critical patent/JP7244738B2/ja
Priority to US17/282,112 priority patent/US11967121B2/en
Priority to PCT/JP2019/039074 priority patent/WO2020071472A1/ja
Publication of JP2020061596A publication Critical patent/JP2020061596A/ja
Application granted granted Critical
Publication of JP7244738B2 publication Critical patent/JP7244738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、差異検出装置及び差異検出プログラムに関する。
近年、異なる時刻に撮影された同一空間を表す画像間の差異を検出する技術が注目されている。例えば、地上に新規の建造物や道路が造られた場合、人工衛星等から撮影された新規の建造物等の画像は、画像間の差異(変化領域)として検出される。撮影された地上の画像に基づいて地図が更新される場合、撮影された地上の大量の画像群を人が比較し、地上に造られた新規の建造物等の画像を人が検出する場合がある。
しかしながら、大量の画像間の差異を人が検出する場合、時間及び人件費に関して高いコストが必要となる。そこで、画像間の差異を差異検出装置がニューラルネットワークを用いて検出する技術が提案されている(非特許文献1参照)。
非特許文献1に提案された方法では、異なる時刻に撮影された同一空間を表す2枚の画像における、建造物、植生及び道路の画像を、建造物クラス、植生クラス及び道路クラスのそれぞれに差異検出装置が分類する。差異検出装置は、建造物クラスに分類された画像に基づいて、建造物のマスク画像を生成する。差異検出装置は、撮影された2枚の画像における建造物のマスク画像の差分を検出することによって、新規の建造物の画像を検出する。
このように、差異検出装置は、撮影された2枚の画像に対してセグメンテーション処理を実行することによって、撮影された画像ごとにマスク画像を生成する。差異検出装置は、撮影された2枚の画像におけるマスク画像の差分に基づいて、画像間の差異(変化領域)を検出する。
田代、外6名、「植生・道路領域除去による空撮画像間の変化検出の精度向上」、電子情報通信学会 総合大会、D-11-37、2018.
しかしながら、従来の差異検出装置は、撮影された画像のみをニューラルネットワークに入力しており、ニューラルネットワークから出力された画像特徴以外の情報を、差異を検出する処理に使用していない。言い換えると、学習データとして用いられる画像群ごとにどのような特徴を抽出するよう学習されるかは不明である。このため、従来の差異検出装置は、画像間の差異を検出する精度を向上させることができないという問題があった。
上記事情に鑑み、本発明は、画像間の差異を検出する精度を向上させることが可能である差異検出装置及び差異検出プログラムを提供することを目的としている。
本発明の一態様は、異なる時刻に撮影されたほぼ同一空間を表す第1の画像及び第2の画像と、前記第1の画像の符号化情報及び前記第2の画像の符号化情報との関連付けに基づいて、異なる時刻に撮影されたほぼ同一空間を表す第3の画像及び第4の画像の間の差異を検出する差異検出部を備え、前記符号化情報は、符号化された前記第1の画像を含むデータと符号化された前記第2の画像を含むデータとから、前記第1の画像及び前記第2の画像に対して実行された各復号処理において逆変換処理が実行される前に取得された情報である、差異検出装置である。
本発明の一態様は、上記の差異検出装置であって、前記第3の画像及び前記第4の画像は、画像に関するフレームを分割するブロックであり、前記差異検出部は、前記フレームについて、前記第3の画像及び前記第4の画像の間の差異を前記ブロックごとに検出する。
本発明の一態様は、上記の差異検出装置であって、前記関連付けは、前記第1の画像と前記第2の画像と前記符号化情報とのいずれかに基づいて学習が実行された前段の各ニューラルネットワークの出力値の関連付けである。
本発明の一態様は、上記の差異検出装置であって、前記第1の画像及び前記第2の画像の間に差異があると判定された場合に前記出力値が第1の値に近づき、前記第1の画像及び前記第2の画像の間に差異がないと判定された場合に前記出力値が第2の値に近づくように学習が実行された後段のニューラルネットワークを更に備える。
本発明の一態様は、上記の差異検出装置であって、前記符号化情報は、符号量と、イントラ予測モードと、変換係数と、画像に関する特徴とのいずれかの情報である。
本発明の一態様は、上記の差異検出装置であって、前記符号化情報を画像形式に変換する変換部を更に備え、前記差異検出部は、画像形式に変換された前記符号化情報に基づいて、前記第3の画像及び前記第4の画像の間の差異を検出する。
本発明の一態様は、異なる時刻に撮影されたほぼ同一空間を表す第1の画像及び第2の画像と、前記第1の画像の符号化情報及び前記第2の画像の符号化情報との関連付けに基づいて、異なる時刻に撮影されたほぼ同一空間を表す第3の画像及び第4の画像の間の差異を検出する差異検出部を備え、前記符号化情報は、符号中の前記第1の画像を含むデータと符号化中の前記第2の画像を含むデータとから、前記第1の画像及び前記第2の画像に対して実行された符号化処理において変換処理が実行された後に取得された情報である、差異検出装置である。
本発明の一態様は、上記の差異検出装置としてコンピュータを機能させるための差異検出プログラムである。
本発明により、画像間の差異を検出する精度を向上させることが可能である。
第1実施形態における、差異検出装置の構成例を示す図である。 第1実施形態における、深層学習等の機械学習のモデルの構成例を示す図である。 第1実施形態における、学習部の動作例を示すフローチャートである。 第1実施形態における、検出部の動作例を示すフローチャートである。 第1実施形態における、画像復号部の動作例を示すフローチャートである。 第1実施形態における、画像分割部の動作例を示すフローチャートである。 第1実施形態における、画像特徴生成部の動作例を示すフローチャートである。 第1実施形態における、符号化特徴生成部の動作例を示すフローチャートである。 第1実施形態における、パラメータ学習部の動作例を示すフローチャートである。 第1実施形態における、差異検出部の動作例を示すフローチャートである。 第2実施形態における、差異検出装置の構成例を示す図である。 第2実施形態における、符号化特徴画像化部の動作例を示すフローチャートである。
本発明の実施形態について、図面を参照して詳細に説明する。
(第1実施形態)
図1は、差異検出装置1aの構成例を示す図である。差異検出装置1aは、画像間の差異を検出する情報処理装置である。画像は、例えば、人工衛星等によって上空から撮影された地上を表す画像である。画像間の差異は、例えば、異なる時刻に撮影されたほぼ同一空間を表す画像間の差異(変化領域)である。
差異検出装置1aは、学習部10と、検出部11とを備える。差異検出装置1aは、記憶部を更に備えてもよい。学習部10及び検出部11の一部又は全部は、CPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムを実行することにより実現される。学習部10及び検出部11の各機能部のうち一部又は全部は、例えば、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
記憶部は、例えばフラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性の記録媒体(非一時的な記録媒体)が好ましい。記憶部は、RAM(Random Access Memory)などの揮発性の記録媒体を備えてもよい。記憶部は、例えば、深層学習等の機械学習のモデルのデータ、プログラムを記憶する。
学習部10は、深層学習等の機械学習によってモデルのパラメータを学習する。学習部10は、画像復号部101と、画像分割部102と、画像特徴生成部103と、符号化特徴生成部104と、パラメータ学習部105とを備える。
画像復号部101は、学習対象の複数の画像ストリームを取得する。画像ストリームは、動画像のストリームである。画像復号部101は、画像フレーム群を画像ストリームから復号する。画像復号部101は、画像フレーム群を画像分割部102に出力する。
画像ストリームは、符号化された画像群を含むデータであり、例えば、異なる時刻の同一空間が撮影された画像群のストリームである。画像ストリームは、例えば、H.265/HEVC(High Efficiency Video Coding)、JPEG(Joint Photographic Experts Group)等のアルゴリズムを用いて符号化された画像のストリームである。以下、画像ストリームは、一例として、H.265/HEVCのアルゴリズムを用いて符号化された画像のストリームである。
画像復号部101は、1以上の符号化情報(符号化情報の集合)を、学習対象の画像ストリームごとに、学習対象の画像ストリームから取得する。例えば、画像復号部101は、1以上の符号化情報を、学習対象の画像ストリームのヘッダから取得する。画像復号部101は、1以上の符号化情報を、学習対象の画像ストリームごとに符号化特徴生成部104に出力する。
符号化情報は、画像ストリームの符号化に関する情報であり、例えば、画像の符号量の情報、画像フレームの符号化モード(例えば、イントラ予測モード)の情報、変換係数の情報と、変換係数のうちの有意な係数の個数の情報と、画像に関する特徴情報(例えば、空間周波数)の情報である。
上空から撮影された過去の画像において更地であった領域の符号量は、未来の画像においてその領域に建造物等が存在した場合、その領域の符号量は建造物等のエッジやテクスチャに応じて過去の画像と比較して増加する場合がある。このため、新規の建造物の画像(変化領域)を差異検出部115が検出する場合、符号化情報は、例えば符号量の情報である。
太陽光パネルの画像は、特定の模様パターン(太陽光パネルの模様の繰り返し)で表される。地上の草の画像は、特定の模様パターンでは表されないことが多い。このため、地上に造られた太陽光パネルに生えた草の画像(変化領域)を差異検出部115が検出する場合、符号化情報は、イントラ予測モード等の符号化モードの情報である。なお、これらは一例である。符号化情報は、複数の種類の情報の組み合わせでもよい。例えば、符号化情報は、符号量の情報と符号化モードの情報との組み合わせでもよい。なお、符号化情報は、画像の特徴を表す情報(以下「画像特徴情報」という。)を含んでもよい。
画像分割部102は、画像フレーム群を画像復号部101から取得する。画像分割部102は、画像フレームを(N×N)のサイズの画像ブロックに分割することによって、画像ブロック群を生成する。Nは、2以上の整数(画素数)であり、例えば256である。画像分割部102は、画像ブロックが互いに重ならないように、画像フレームを画像ブロックに分割する。画像分割部102は、画像特徴生成部103及びパラメータ学習部105に、画像ブロック群を出力する。
画像ブロック群は、撮影された時刻の情報と、撮影された地上等の位置の情報を含む。これによって、複数の画像ストリームは、時刻の情報と位置の情報とに基づいて、互いに対応付けられる。
画像特徴生成部103は、画像ブロック群を画像分割部102から取得する。画像特徴生成部103は、画像特徴情報を画像ブロックごとに生成する。画像の特徴は、例えば、画像ブロックの各画素値(各電力値)が離散コサイン変換(変換処理)された結果である周波数、画像ブロックごとのローカル・バイナリ・パターン(LBP: Local Binary Pattern)等の特徴ベクトルである。画像特徴生成部103は、画像特徴情報を画像ブロックごとに、パラメータ学習部105に出力する。
画像特徴情報は、撮影された時刻の情報と、撮影された地上等の位置の情報を含む。複数の画像ストリームの各画像特徴情報は、時刻の情報と位置の情報とに基づいて、互いに対応付けられる。
符号化特徴生成部104は、1以上の符号化情報を、画像復号部101から取得する。以下、1以上の符号化情報の特徴を表す情報を「符号化特徴情報」という。符号化特徴生成部104は、符号化特徴情報を画像ブロックごとに生成(画像ブロックに集約)する。例えば、(N×N)(=256×256)のサイズの画像ブロックに対して、128×128のサイズごとに符号化特徴情報が生成される場合、画像ブロックごとの符号化特徴情報は、4個の符号化情報(例えば、符号量の情報)を含む特徴ベクトル(4次元の特徴ベクトル)である。画像ブロックごとの符号化特徴情報は、4個の符号量の平均値の情報(1次元の特徴ベクトル)でもよい。符号化特徴生成部104は、符号化特徴情報を画像ブロックごとに、パラメータ学習部105に出力する。
パラメータ学習部105は、学習対象の複数の画像ストリームにおける、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、異なる時刻に撮影された同一空間を表す画像ブロックごとに取得する。
パラメータ学習部105は、変化領域(差異)であるか否かを表すラベルデータを、異なる時刻に撮影された同一空間を表す画像ブロックごとに外部装置等から取得する。例えば、ラベルデータ「1」は変化領域であることを表す。ラベルデータ「0」は変化領域でないことを表す。パラメータ学習部105は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、機械学習のモデルに入力する。
図2は、深層学習等の機械学習のモデル2の構成例を示す図である。モデル2は、ディープニューラルネットワーク(Deep Neural Network)等の機械学習のモデルであり、図2では、一例として、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)である。モデル2は、変化領域の推定に使用される。モデル2は、例えば、差異検出装置1aの記憶部に記憶される。この記憶部は、例えば、パラメータ学習部105に備えられる。
モデル2は、第1ネットワーク20と、第2ネットワーク21と、第3ネットワーク22と、第4ネットワーク23と、第5ネットワーク24とを備える。第1ネットワーク20は、畳み込み層(Covolution Layer)とプーリング層(Pooling Layer)との重ね合わせを有する。パラメータ学習部105は、時刻「A」に撮影された空間を表す画像ブロックを、第1ネットワーク20に入力する。第1ネットワーク20は、時刻「A」に撮影された画像ブロックに対して、畳み込み層とプーリング層とを用いた学習を繰り返し実行する。
第2ネットワーク21は、畳み込み層とプーリング層との重ね合わせを有する。パラメータ学習部105は、時刻「B」に撮影された同一空間を表す画像ブロックを、第2ネットワーク21に入力する。第2ネットワーク21は、時刻「B」に撮影された同一空間を表す画像ブロックに対して、畳み込み層とプーリング層とを用いた学習(例えば、畳み込み演算)を繰り返し実行する。
第3ネットワーク22は、畳み込み層とプーリング層との重ね合わせを有する。パラメータ学習部105は、時刻「A」に撮影された空間を表す画像ブロックの画像特徴情報と、時刻「B」に撮影された同一空間を表す画像ブロックの画像特徴情報とを、第3ネットワーク22に入力する。第3ネットワーク22は、時刻「A」に撮影された空間を表す画像ブロックの画像特徴情報と、時刻「B」に撮影された同一空間を表す画像ブロックの画像特徴情報とに対して、畳み込み層とプーリング層とを用いた学習を繰り返し実行する。
第4ネットワーク23は、畳み込み層とプーリング層との重ね合わせを有する。パラメータ学習部105は、時刻「A」に撮影された空間を表す画像ブロックの符号化特徴情報と、時刻「B」に撮影された同一空間を表す画像ブロックの符号化特徴情報とを、第4ネットワーク23に入力する。第4ネットワーク23は、時刻「A」に撮影された空間を表す画像ブロックの符号化特徴情報と、時刻「B」に撮影された同一空間を表す画像ブロックの符号化特徴情報とに対して、畳み込み層とプーリング層とを用いた学習を繰り返し実行する。
このようにして、パラメータ学習部105は、第1ネットワーク20の出力と、第2ネットワーク21の出力と、第3ネットワーク22の出力と、第4ネットワーク23の出力とを関連付ける。言い換えると、時刻A、Bにおける差異の有無に応じた画像の特徴の差異と符号化情報の差異とを関連付けることを狙う。
第5ネットワーク24(後段のニューラルネットワーク)は、第1ネットワーク20、第2ネットワーク21、第3ネットワーク22及び第4ネットワーク23の各出力の結合層(全結合層)である。第5ネットワーク24は、前段のニューラルネットワークである第1ネットワーク20、第2ネットワーク21、第3ネットワーク22及び第4ネットワーク23の各出力に基づいて、0から1までの範囲の推定値を、パラメータ学習部105に取得させる。推定値「1」(第1の値)は変化領域であることを表す。推定値「0」(第2の値)は変化領域でないことを表す。これらの対応関係は一例である。
パラメータ学習部105は、機械学習のモデル2から出力された推定値を取得する。パラメータ学習部105は、変化領域であるか否かを表すラベルデータと推定値との誤差を導出する。パラメータ学習部105は、推定値とラベルデータとの比較結果(推定誤差)に基づいて、機械学習のモデル2のパラメータを学習(更新)する。パラメータ学習部105は、導出された誤差に基づいて、モデル2のパラメータを更新する。例えば、パラメータ学習部105は、誤差逆伝播法(バック・プロパゲーション:Back Propagation)等でパラメータを更新する。パラメータ学習部105は、パラメータが学習済であるモデル2を、検出部11に出力する。
なお、パラメータ学習部105は、モデル2の出力である推定値と閾値との比較結果に基づいて、画像ブロックが変化領域(差異)であるか否かを画像ブロックごとに判定してもよい。パラメータ学習部105は、推定値が閾値以上である場合、画像ブロックが変化領域であると判定する。パラメータ学習部105は、推定値が閾値未満である場合、画像ブロックが変化領域でないと判定する。パラメータ学習部105は、推定値を使用する代わりに判定結果を使用して、画像ブロックが変化領域であるか否かを表す判定結果とラベルデータとの誤差に基づいて、機械学習のモデル2のパラメータを更新してもよい。すなわち、パラメータ学習部105は、画像ブロックが変化領域であるか否かを表す判定結果とラベルデータとが異なった場合、機械学習のモデル2のパラメータを更新してもよい。
パラメータ学習部105は、モデル2に入力された符号化特徴情報に基づいてモデル2のパラメータを更新することによって、モデル2のパラメータの学習が画像特徴情報(画像特性)に依存する度合いを減少させることができる。例えば、第1の画像特徴情報を有する画像ブロック群を用いてパラメータが学習されたモデル2に、第2の画像特徴情報を有する画像ブロック群が入力され、モデル2が推定値を画像ブロックごとに出力する場合、モデル2に入力された符号化情報特徴が第2の画像特徴情報(画像特性)を保持していれば、パラメータ学習部105は、モデル2のパラメータの学習が第1の画像特徴情報に依存する度合いを減少させることができる。これによって、差異検出装置1aは、第1の画像特徴情報を有する画像と第2の画像特徴情報を有する画像との間の差異を検出する精度を向上させることが可能である。
図1に戻り、差異検出装置1aの構成例の説明を続ける。検出部11は、学習済であるモデルを用いて、異なる時刻に撮影された同一空間を表す画像間の差異(変化領域)を検出する。検出部11は、画像復号部111と、画像分割部112と、画像特徴生成部113と、符号化特徴生成部114と、差異検出部115とを備える。
画像復号部111の構成は、画像復号部101の構成と同様である。画像復号部111は、検出対象の複数の画像ストリーム(符号化された画像を含むデータ)を取得する。複数の画像ストリームは、第1時間帯に撮影された空間を表す画像のストリームと、第2時間帯に撮影された同一空間を表す画像のストリームとである。画像復号部111は、画像フレーム群を画像ストリームから復号する。画像復号部111は、画像フレーム群を画像分割部112に出力する。
画像分割部112の構成は、画像分割部102の構成と同様である。画像分割部112は、画像フレーム群を画像復号部111から取得する。画像分割部112は、画像フレームを(N×N)のサイズの画像ブロックに分割することによって、画像ブロック群を生成する。画像分割部112は、画像特徴生成部113及び差異検出部115に、画像ブロック群を出力する。
画像特徴生成部113の構成は、画像特徴生成部103の構成と同様である。画像特徴生成部113は、画像ブロック群を画像分割部112から取得する。画像特徴生成部113は、画像特徴情報を画像ブロックごとに生成する。画像特徴生成部113は、画像特徴情報を画像ブロックごとに、差異検出部115に出力する。
符号化特徴生成部114の構成は、符号化特徴生成部104の構成と同様である。符号化特徴生成部114は、1以上の符号化情報を、画像復号部111から取得する。符号化特徴生成部114は、符号化特徴情報を画像ブロックごとに生成(画像ブロックに集約)する。符号化特徴生成部114は、符号化特徴情報を画像ブロックごとに、差異検出部115に出力する。
差異検出部115は、学習済であるモデルを、パラメータ学習部105から取得する。差異検出部115は、検出対象の複数の画像ストリームにおける、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、異なる時刻に撮影された同一空間を表す画像ブロックごとに取得する。
差異検出部115は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、機械学習のモデル2に入力する。差異検出部115は、機械学習のモデル2から出力された推定値(出力値)を取得する。差異検出部115は、その画像ブロックが変化領域であるか否かを、機械学習のモデル2から出力された推定値と閾値とに基づいて判定する。差異検出部115は、画像ブロックが画像間の変化領域であるか否かを表す判定結果を、所定の外部装置に出力する。
次に、差異検出装置1aの動作例を説明する。
図3は、学習部10の動作例を示すフローチャートである。図3に示されたフローチャートは、学習済であるモデル2を学習部10が検出部11に出力する動作例を示す。
画像復号部101は、学習対象の複数の画像ストリームを取得する(ステップS101)。画像復号部101は、画像フレーム群を画像ストリームから復号し、画像フレーム群を画像分割部102に出力する(ステップS102)。画像復号部101は、符号化情報を画像ストリームから取得し、学習対象の画像ストリームごとに符号化特徴生成部104に出力する(ステップS103)。画像分割部102は、画像フレームを(N×N)のサイズの画像ブロックに分割する(ステップS104)。画像特徴生成部103は、画像特徴情報を画像ブロックごとに生成する(ステップS105)。
符号化特徴生成部104は、符号化特徴情報を(N×N)のサイズの画像ブロックごとに生成する(ステップS106)。パラメータ学習部105は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、画像ブロックごとにモデル2に入力する(ステップS107)。パラメータ学習部105は、画像ブロックと、その画像ブロックのラベルデータ、画像特徴情報及び符号化特徴情報とに基づいて、モデル2のパラメータを更新する(ステップS108)。
パラメータ学習部105は、モデル2のパラメータが学習済になったか否か(学習済の条件を満たすか否か)を判定する。例えば、パラメータ学習部105は、所定枚数以上の画像を用いてモデル2がパラメータを学習した場合において、モデル2の出力である推定値とラベルデータとの誤差(推定誤差)が所定範囲内である回数が一定回数以上となった場合、モデル2のパラメータが学習済になったと判定する。パラメータ学習部105は、モデル2のパラメータが学習済になったと判定された場合、モデル2のパラメータの更新を終了する(ステップS109)。パラメータ学習部105は、学習済であるモデル2を差異検出部115に出力する(ステップS110)。
図4は、検出部11の動作例を示すフローチャートである。図4に示されたフローチャートは、検出部11に推定値を出力する動作例を示す。
画像復号部111は、検出対象の複数の画像ストリームを取得する(ステップS201)。画像復号部111は、画像フレーム群を画像ストリームから復号し、画像フレーム群を画像分割部112に出力する(ステップS202)。画像復号部111は、符号化情報を画像ストリームから取得し、学習対象の画像ストリームごとに符号化特徴生成部114に出力する(ステップS203)。画像分割部112は、画像フレームを(N×N)のサイズの画像ブロックに分割する(ステップS204)。画像特徴生成部113は、画像特徴情報を画像ブロックごとに生成する(ステップS205)。
符号化特徴生成部114は、符号化特徴情報を(N×N)のサイズの画像ブロックごとに生成する(ステップS206)。差異検出部115は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、画像ブロックごとにモデル2に入力する(ステップS207)。
差異検出部115は、0から1までの範囲の推定値(出力値)を、モデル2から取得する(ステップS208)。差異検出部115は、推定値に基づいて変化領域を検出する。すなわち、差異検出部115は、画像ブロックが変化領域(差異)であるか否かを、モデル2の出力である推定値と閾値との比較結果に基づいて、画像ブロックごとに判定する。例えば、差異検出部115は、推定値が閾値「0.5」以上である場合、画像ブロックが変化領域であると判定する。差異検出部115は、推定値が閾値「0.5」未満である場合、画像ブロックが変化領域でないと判定する(ステップS209)。
次に、学習部10の動作例の詳細を説明する。
図5は、画像復号部101の動作例を示すフローチャートである。画像復号部101は、学習対象の複数の画像ストリームを取得する(ステップS301)。画像復号部101は、画像フレーム群を画像ストリームから復号する(ステップS302)。画像復号部101は、画像フレーム群を画像分割部102に出力する(ステップS303)。画像復号部101は、1以上の符号化情報を、学習対象の画像ストリームごとに符号化特徴生成部104に出力する(ステップS304)。
図6は、画像分割部102の動作例を示すフローチャートである。画像分割部102は、画像フレーム群を画像復号部101から取得する(ステップS401)。画像分割部102は、画像フレームを(N×N)のサイズの画像ブロックに分割することによって、画像ブロック群を生成する(ステップS402)。画像分割部102は、画像特徴生成部103及びパラメータ学習部105に、画像ブロック群を出力する(ステップS403)。
図7は、画像特徴生成部103の動作例を示すフローチャートである。画像特徴生成部103は、画像ブロック群を画像分割部102から取得する(ステップS501)。画像特徴生成部103は、1以上の画像特徴情報を、画像ブロックごとに生成する。例えば、画像特徴生成部103は、128×128のサイズの4個の画像特徴情報を、256×256のサイズの画像ブロックごとに生成する(ステップS502)。画像特徴生成部103は、1以上の画像特徴情報を画像ブロックごとに、パラメータ学習部105に出力する(ステップS503)。
図8は、符号化特徴生成部104の動作例を示すフローチャートである。符号化特徴生成部104は、1以上の符号化情報を、画像復号部101から取得する(ステップS601)。符号化特徴生成部104は、1以上の符号化特徴情報を、画像ブロックごとに生成する。例えば、符号化特徴生成部104は、128×128のサイズの4個の符号化特徴情報を、256×256のサイズの画像ブロックごとに生成する(ステップS602)。符号化特徴生成部104は、1以上の符号化特徴情報を画像ブロックごとに、パラメータ学習部105に出力する(ステップS603)。
図9は、パラメータ学習部105の動作例を示すフローチャートである。パラメータ学習部105は、学習対象の複数の画像ストリームにおける、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、異なる時刻に撮影された同一空間を表す画像ブロックごとに取得する(ステップS701)。パラメータ学習部105は、変化領域(差異)であるか否かを表すラベルデータを、異なる時刻に撮影された同一空間を表す画像ブロックごとに外部装置等から取得する(ステップS702)。
パラメータ学習部105は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、機械学習のモデル2に入力する(ステップS703)。パラメータ学習部105は、機械学習のモデル2から出力された推定値を取得する(ステップS704)。パラメータ学習部105は、その画像ブロックが変化領域であるか否かを、推定値及び閾値に基づいて判定する(ステップS705)。パラメータ学習部105は、ラベルデータと判定結果又は推定値との誤差を導出する(ステップS706)。パラメータ学習部105は、モデル2のパラメータを、導出された誤差に基づいて更新する(ステップS707)。
パラメータ学習部105は、モデル2のパラメータが学習済になったか否か(学習済の条件を満たすか否か)を判定する(ステップS708)。モデル2のパラメータが学習済になっていない場合(ステップS708:NO)、パラメータ学習部105は、ステップS703に処理を戻す。モデル2のパラメータが学習済になった場合(ステップS708:YES)、パラメータ学習部105は、学習済であるモデル2を差異検出部115に出力する(ステップS709)。
次に、検出部11の動作例の詳細を説明する。
図10は、差異検出部115の動作例を示すフローチャートである。差異検出部115は、検出対象の複数の画像ストリームにおける、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、異なる時刻に撮影された同一空間を表す画像ブロックごとに取得する(ステップS801)。
差異検出部115は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴情報とを、学習済であるモデル2に入力する(ステップS802)。差異検出部115は、学習済であるモデル2から出力された推定値(出力値)を取得する(ステップS803)。差異検出部115は、その画像ブロックが変化領域であるか否かを、学習済であるモデル2から出力された推定値と閾値とに基づいて判定する(ステップS804)。
以上のように、第1実施形態の差異検出装置1aは、差異検出部115を備える。差異検出部115は、異なる時刻に撮影されたほぼ同一空間を表す第1の画像ブロック及び第2の画像ブロック(学習対象の各画像ブロック)と、第1の画像ブロックの符号化情報及び第2の画像ブロックの符号化情報との関連付けに基づいて、異なる時刻に撮影されたほぼ同一空間を表す第3の画像ブロック及び第4の画像ブロック(検出対象の各画像ブロック)の間の差異を検出する。符号化情報は、符号化された第1の画像ブロックを含むデータ(第1の画像ストリーム)と、符号化された第2の画像ブロックを含むデータ(第2の画像ストリーム)とから、第1の画像ブロック及び第2の画像ブロックに対して実行された各復号処理において逆変換処理(逆離散コサイン変換等)が実行される前に取得された情報である。この各復号処理は、例えば、ヘッダ情報等である符号化情報を画像ストリームから取得する処理と、逆量子化処理と、逆変換処理との順に実行される。符号化情報は、画像特徴情報を含んでもよい。符号化情報は、符号化中の第1の画像ブロックを含むデータ(第1の画像ストリーム)と、符号化中の第2の画像ブロックを含むデータ(第2の画像ストリーム)とから、第1の画像ブロック及び第2の画像ブロックに対して実行された各符号化処理において変換処理(離散コサイン変換等)が実行された後に取得された情報でもよい。この各符号化処理は、例えば、変換処理と、ヘッダ情報等である符号化情報を取得する処理との順に実行される。このように、差異の検出に使用される符号化情報は、符号化処理が実行される際(符号化中)に取得されてもよい。
これによって、第1実施形態の差異検出装置1aは、画像間の差異を検出する精度を向上させることが可能である。
各実施形態では、符号化された画像に対して実行される処理は、例えば、画像特徴情報(画像の特徴量)を抽出する処理(関数)の一種である。符号化特徴情報は、画像特徴情報を含んでもよい。つまり、差異検出装置1aは、画像データを学習データとして用いるだけでなく、符号化情報も学習データとして用いる。差異検出装置1aは、機械学習において失われる場合がある符号化特徴情報が機械学習において失われないように、符号化情報も学習データとして確実に用いる。
マスク画像の差分が変化領域であるか否かの判定に使用される従来の閾値は、予め調整されている必要がある。従来の閾値は、撮影された画像ごとに異なる可能性がある。このため、従来の閾値には、高い調整コストが必要である。これに対して、差異検出装置1aが使用する閾値は、一定値(例えば、0.5)に予め定められる。このため、差異検出装置1aが使用する閾値には、調整コストが不要である。
第3の画像ブロック及び第4の画像ブロックは、画像フレーム(画像に関するフレーム)が分割されたことによって生成された画像ブロックである。差異検出部115は、画像フレームについて、第3の画像ブロック及び第4の画像ブロックの間の差異を、画像ブロックごとに検出する。関連付けは、第1の画像ブロックと第2の画像ブロックと符号化情報とに基づいて学習が実行された第1ネットワーク20から第4ネットワーク23までの出力値の関連付けである。
第1実施形態の差異検出装置1aは、第5ネットワーク24を更に備える。第5ネットワーク24は、第1の画像ブロック及び第2の画像ブロックの間に差異があると判定された場合に出力値が第1の値(例えば、1)に近づき、第1の画像及び第2の画像の間に差異がないと判定された場合に出力値が第2の値(例えば、0)に近づくように学習が実行された後段のニューラルネットワークである。
(第2実施形態)
第2実施形態では、符号化特徴情報が画像化される点が、第1実施形態と相違する。第2実施形態では、第1実施形態との相違点を説明する。
図11は、差異検出装置1bの構成例を示す図である。差異検出装置1bは、画像間の差異を検出する情報処理装置である。差異検出装置1bは、学習部10と、検出部11とを備える。差異検出装置1bは、記憶部を更に備えてもよい。学習部10は、画像復号部101と、画像分割部102と、画像特徴生成部103と、パラメータ学習部105と、符号化特徴画像化部106とを備える。符号化特徴画像化部106は、符号化特徴生成部104と、符号化情報又は符号化特徴情報を画像形式に変換する変換部とを備える。
符号化特徴画像化部106は、1以上の符号化情報を、(N×N)のサイズの画像ブロックごとに画像復号部101から取得する。符号化特徴画像化部106は、符号化特徴情報を、(N×N)のサイズの画像ブロックごとに生成(画像ブロックに集約)する。符号化特徴画像化部106は、符号化特徴情報を画像化(画像の形式に変換)する。例えば、(N×N)(=256×256)のサイズの画像ブロックに対して、128×128のサイズごとに符号化特徴情報が生成される場合、符号化特徴画像化部106は、128×128のサイズごとに符号化特徴情報を画像化する。すなわち、符号化特徴画像化部106は、128×128のサイズの画像を、符号化特徴情報に基づいて生成する。この場合、符号化特徴画像化部106は、128×128のサイズの4枚の画像を、4個の符号化特徴情報に基づいて、(N×N)のサイズの画像ブロックごとに生成する。符号化特徴画像化部106は、画像化された符号化特徴情報(以下「符号化特徴画像」という。)を、画像ブロックごとにパラメータ学習部105に出力する。
パラメータ学習部105は、学習対象の複数の画像ストリームにおける、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴画像とを、異なる時刻に撮影された同一空間を表す画像ブロックごとに取得する。パラメータ学習部105は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴画像とを、機械学習のモデル2に入力する。例えば、パラメータ学習部105は、時刻「A」に撮影された空間を表す画像ブロックの符号化特徴画像と、時刻「B」に撮影された同一空間を表す画像ブロックの符号化特徴画像とを、第4ネットワーク23に入力する。
検出部11は、画像復号部111と、画像分割部112と、画像特徴生成部113と、差異検出部115と、符号化特徴画像化部116とを備える。符号化特徴画像化部116は、符号化特徴生成部114と、符号化情報又は符号化特徴情報を画像形式に変換する変換部とを備える。
符号化特徴画像化部116は、1以上の符号化情報を、(N×N)のサイズの画像ブロックごとに画像復号部111から取得する。符号化特徴画像化部116は、符号化特徴情報を、(N×N)のサイズの画像ブロックごとに生成(画像ブロックに集約)する。符号化特徴画像化部116は、符号化特徴情報を画像化する。符号化特徴画像化部116は、符号化特徴画像を画像ブロックごとに差異検出部115に出力する。
差異検出部115は、検出対象の複数の画像ストリームにおける、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴画像とを、異なる時刻に撮影された同一空間を表す画像ブロックごとに取得する。差異検出部115は、画像ブロックと、その画像ブロックの画像特徴情報及び符号化特徴画像とを、機械学習のモデル2に入力する。例えば、差異検出部115は、時刻「A」に撮影された空間を表す画像ブロックの符号化特徴画像と、時刻「B」に撮影された同一空間を表す画像ブロックの符号化特徴画像とを、第4ネットワーク23に入力する。
次に、学習部10及び検出部11の動作例の詳細を説明する。
図12は、符号化特徴画像化部106の動作例を示すフローチャートである。符号化特徴画像化部106は、1以上の符号化情報を、画像復号部101から取得する(ステップS901)。符号化特徴画像化部106は、1以上の符号化特徴画像を、画像ブロックごとに生成する。例えば、符号化特徴生成部104は、128×128のサイズの4個の符号化特徴画像を、256×256のサイズの画像ブロックごとに生成する(ステップS902)。符号化特徴画像化部106は、1以上の符号化特徴画像を画像ブロックごとに、パラメータ学習部105に出力する(ステップS903)。
符号化特徴画像化部116の動作例は、符号化特徴画像化部106の動作例と同様である。符号化特徴画像化部116は、1以上の符号化特徴画像を画像ブロックごとに、差異検出部115に出力する。
以上のように、第2実施形態の差異検出装置1bは、符号化情報を画像形式に変換する変換部を更に備える。差異検出部115は、画像形式に変換された符号化情報又は符号化特徴情報に基づいて、第3の画像ブロック及び第4の画像ブロックの間の差異を検出する。
これによって、第2実施形態の差異検出装置1bは、符号化情報から生成された画像情報を畳み込みニューラルネットワークに入力するので、符号化情報の空間的な相関を考慮した差異の検出が可能となり、画像間の差異を検出する精度を更に向上させることが可能である。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
例えば、上記の各実施形態では、異なる時刻に撮影された同一空間を表す画像間の差異を差異検出装置が検出しているが、差異検出装置は、異なる時刻に撮影された同一空間を表す画像以外の複数の画像を取得してもよい。差異検出装置は、複数の画像の撮影時刻及び撮影位置に関係なく、画像間の差異を検出してもよい。画像は、静止画像でもよい。
上述した実施形態における差異検出装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
本発明は、画像処理システムに適用可能である。
1a,1b…差異検出装置、2…モデル、11…検出部、20…第1ネットワーク、21…第2ネットワーク、22…第3ネットワーク、23…第4ネットワーク、24…第5ネットワーク、101…画像復号部、102…画像分割部、103…画像特徴生成部、104…符号化特徴生成部、105…パラメータ学習部、106…符号化特徴画像化部、111…画像復号部、112…画像分割部、113…画像特徴生成部、114…符号化特徴生成部、115…差異検出部、116…符号化特徴画像化部

Claims (8)

  1. 異なる時刻に撮影されたほぼ同一空間を表す第1の画像及び第2の画像と、前記第1の画像の符号化情報及び前記第2の画像の符号化情報との関連付けに基づいて、異なる時刻に撮影されたほぼ同一空間を表す第3の画像及び第4の画像の間の差異を検出する差異検出部を備え、
    前記符号化情報は、符号化された前記第1の画像を含むデータと符号化された前記第2の画像を含むデータとから、前記第1の画像及び前記第2の画像に対して実行された各復号処理において逆変換処理が実行される前に取得された情報であり、
    前記差異検出部は、前記関連付けに基づいて学習が実行された機械学習のモデルの出力値と一定の閾値との比較結果に基づいて、前記差異であるか否かを判定する、
    差異検出装置。
  2. 前記第3の画像及び前記第4の画像は、画像に関するフレームを分割するブロックであり、
    前記差異検出部は、前記フレームについて、前記第3の画像及び前記第4の画像の間の差異を前記ブロックごとに検出する、
    請求項1に記載の差異検出装置。
  3. 前記関連付けは、前記機械学習のモデルにおける前段の各ニューラルネットワークの前記出力値の関連付けである、
    請求項2に記載の差異検出装置。
  4. 前記第1の画像及び前記第2の画像の間に差異があると判定された場合に前記出力値が第1の値に近づき、前記第1の画像及び前記第2の画像の間に差異がないと判定された場合に前記出力値が第2の値に近づくように学習が実行された前記機械学習のモデルにおける後段のニューラルネットワークを更に備える、
    請求項3に記載の差異検出装置。
  5. 前記符号化情報は、符号量と、イントラ予測モードと、変換係数と、画像に関する特徴とのいずれかの情報である、
    請求項1から請求項4のいずれか一項に記載の差異検出装置。
  6. 前記符号化情報を画像形式に変換する変換部を更に備え、
    前記差異検出部は、画像形式に変換された前記符号化情報に基づいて、前記第3の画像及び前記第4の画像の間の差異を検出する、
    請求項1又は請求項2に記載の差異検出装置。
  7. 異なる時刻に撮影されたほぼ同一空間を表す第1の画像及び第2の画像と、前記第1の画像の符号化情報及び前記第2の画像の符号化情報との関連付けに基づいて、異なる時刻に撮影されたほぼ同一空間を表す第3の画像及び第4の画像の間の差異を検出する差異検出部を備え、
    前記符号化情報は、符号化中の前記第1の画像を含むデータと符号中の前記第2の画像を含むデータとから、前記第1の画像及び前記第2の画像に対して実行された符号化処理において変換処理が実行された後に取得された情報であり、
    前記差異検出部は、前記関連付けに基づいて学習が実行された機械学習のモデルの出力値と一定の閾値との比較結果に基づいて、前記差異であるか否かを判定する、
    差異検出装置。
  8. 請求項1から請求項7のいずれか一項に記載の差異検出装置としてコンピュータを機能させるための差異検出プログラム。
JP2018189513A 2018-10-04 2018-10-04 差異検出装置及び差異検出プログラム Active JP7244738B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018189513A JP7244738B2 (ja) 2018-10-04 2018-10-04 差異検出装置及び差異検出プログラム
US17/282,112 US11967121B2 (en) 2018-10-04 2019-10-03 Difference detection apparatus and difference detection program
PCT/JP2019/039074 WO2020071472A1 (ja) 2018-10-04 2019-10-03 差異検出装置及び差異検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018189513A JP7244738B2 (ja) 2018-10-04 2018-10-04 差異検出装置及び差異検出プログラム

Publications (2)

Publication Number Publication Date
JP2020061596A JP2020061596A (ja) 2020-04-16
JP7244738B2 true JP7244738B2 (ja) 2023-03-23

Family

ID=70055267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018189513A Active JP7244738B2 (ja) 2018-10-04 2018-10-04 差異検出装置及び差異検出プログラム

Country Status (3)

Country Link
US (1) US11967121B2 (ja)
JP (1) JP7244738B2 (ja)
WO (1) WO2020071472A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466165B1 (ja) 2023-10-20 2024-04-12 株式会社Ridge-i 情報処理装置、情報処理方法及び情報処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062776A (ja) 2015-09-04 2017-03-30 株式会社東芝 構造物に対する変化を検出するための方法、装置およびコンピュータ可読媒体
JP2018078454A (ja) 2016-11-09 2018-05-17 日本電信電話株式会社 画像生成方法、画像差異検出方法、画像生成装置及び画像生成プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136292A (ja) * 2008-12-08 2010-06-17 Toshiba Corp 画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062776A (ja) 2015-09-04 2017-03-30 株式会社東芝 構造物に対する変化を検出するための方法、装置およびコンピュータ可読媒体
JP2018078454A (ja) 2016-11-09 2018-05-17 日本電信電話株式会社 画像生成方法、画像差異検出方法、画像生成装置及び画像生成プログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KALINICHEVA, Ekaterina et al.,Neural Network Autoencoder for Change Detection in Satellite Image Time Series,2018 25th IEEE International Conference on Electronics, Circuits and Systems (ICECS),IEEE,2019年01月21日,pp. 641-642,<DOI: 10.1109/ICECS.2018.8617850>
LIM, Kyungsun et al.,Change Detection in High Resolution Satellite Images Using an Ensemble of Convolutional Neural Netwo,2018 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA),IEEE,2019年03月07日,pp. 509-515,<DOI: 10.23919/APSIPA.2018.8659603>
PACIFICI, F. et al.,A New Neural Architecture for Detecting Urban Changes in Quickbird Imagery,2007 Urban Remote Sensing Joint Event,IEEE,2007年06月18日,pp. 1-7,<DOI: 10.1109/URS.2007.371771>
早瀬 和也他,符号化データを利用した衛星画像間の変化推定方法に関する検討,映像情報メディア学会2017年冬季大会講演予稿集 PROCEEDINGS OF THE 2017 ITE WINTER ANNUAL CONVENTION,日本,2017年12月,13A-5,p. 1

Also Published As

Publication number Publication date
US11967121B2 (en) 2024-04-23
US20210375006A1 (en) 2021-12-02
JP2020061596A (ja) 2020-04-16
WO2020071472A1 (ja) 2020-04-09

Similar Documents

Publication Publication Date Title
JP4004653B2 (ja) 動きベクトル検出方法および装置、記録媒体
JP2009147807A (ja) 画像処理装置
AU2008245952B2 (en) Image compression and decompression using the pixon method
CN116648912A (zh) 基于神经网络的码流的解码和编码
Akbari et al. Joint sparse learning with nonlocal and local image priors for image error concealment
CN114096987A (zh) 视频处理方法及装置
Dinesh et al. 3D point cloud color denoising using convex graph-signal smoothness priors
JP7244738B2 (ja) 差異検出装置及び差異検出プログラム
JP7174298B2 (ja) 差異検出装置、差異検出方法及びプログラム
Rhee et al. Channel-wise progressive learning for lossless image compression
JP2006518157A (ja) オブジェクトベースの動き補償の方法及び装置
JP6748022B2 (ja) 分割形状決定装置、学習装置、分割形状決定方法及び分割形状決定プログラム
JP2000172852A (ja) 画像処理方法、装置および記録媒体
Bairagi et al. Texture-based medical image compression
Van Luong et al. Sparse signal reconstruction with multiple side information using adaptive weights for multiview sources
Taheri et al. Sparse representation based facial image compression via multiple dictionaries and separated ROI
JP6781014B2 (ja) 画像生成方法、画像差異検出方法、画像生成装置及び画像生成プログラム
Rizkallah et al. Rate distortion optimized graph partitioning for omnidirectional image coding
Sudhakar et al. ASABSA: adaptive shape assisted block search algorithm and fuzzy holoentropy-enabled cost function for motion vector computation
CN117321989A (zh) 基于神经网络的图像处理中的辅助信息的独立定位
WO2019225344A1 (ja) 符号化装置、画像補間システム及び符号化プログラム
JP4083670B2 (ja) 画像符号化装置及び画像符号化方法
JP2002118843A (ja) 背景スプライトと前景オブジェクトの分離方法、及び前景の形状マスク抽出方法、並びにその装置
WO2011049175A1 (ja) 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
Tan et al. Saliency-guided change detection for aerial and remote sensing imageries

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R150 Certificate of patent or registration of utility model

Ref document number: 7244738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150