JP2009295062A - Image processing apparatus, image processing method and image processing program - Google Patents

Image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2009295062A
JP2009295062A JP2008150058A JP2008150058A JP2009295062A JP 2009295062 A JP2009295062 A JP 2009295062A JP 2008150058 A JP2008150058 A JP 2008150058A JP 2008150058 A JP2008150058 A JP 2008150058A JP 2009295062 A JP2009295062 A JP 2009295062A
Authority
JP
Japan
Prior art keywords
image
processing unit
region
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008150058A
Other languages
Japanese (ja)
Inventor
Koichiro Sasaki
浩一郎 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008150058A priority Critical patent/JP2009295062A/en
Publication of JP2009295062A publication Critical patent/JP2009295062A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently and automatically obtain the amount of positional deviation between two images taken on different times. <P>SOLUTION: A matching process unit 202 reads two images taken on different times (e.g., a pre-disaster image and a post-disaster image, which are images immediately before and immediately after a disaster, respectively.) from a memory 252; scans a first region, including a prescribed number of pixels on one image (e.g., the post-disaster image), in one pixel increments; and calculates a coefficient of correlation between the first region and a second region, residing at the same position as the first region on the other image (e.g., the pre-disaster image), for each scanning run across the first region, using a processor 251. A processor 203 for calculating the amount of positional deviation estimates the amount of positional deviation between the two images in a unit less than one pixel using the processor 251 on the basis of the coefficient of the correlation calculated by the matching process unit 202. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理方法及び画像処理プログラムに関するものである。本発明は、特に、人工衛星や航空機から撮像された複数の画像データを解析し、画像の変化を抽出する技術(変化抽出システム)に関するものである。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program. In particular, the present invention relates to a technique (change extraction system) for analyzing a plurality of image data captured from an artificial satellite or an aircraft and extracting a change in the image.

特許文献1又は特許文献2又は特許文献3には、異なる時刻に撮像された2つの画像データ(ペア画像)から、地表面の変化を抽出する方法及び装置が開示されている。
特開2005−78566号公報 特開2005−241886号公報 特開2007−114994号公報
Patent Document 1, Patent Document 2, or Patent Document 3 discloses a method and apparatus for extracting changes in the ground surface from two image data (pair images) captured at different times.
JP-A-2005-78566 JP-A-2005-241886 JP 2007-114994 A

画像の変化を抽出する処理は、人手に頼らないで自動的に行えることが望ましい。しかし、特許文献1の装置では、ペア画像の間で季節や時刻といった時期的な撮像条件が異なる場合には、事前にどちらか一方の画像をもう一方の画像の撮像条件に合わせるような補正をしておく必要があった。さらに、特許文献1又は特許文献2の方法及び装置では、ペア画像の位置合わせ(レジストレーション)処理を実施する手段を具備していないため、事前にレジストレーションを手動で行っておく必要があった。さらに、特許文献1又は特許文献2又は特許文献3の装置では、画像から雲の抽出処理を実施する手段を具備していないため、抽出された変化の原因が雲であるか否かを人間が判読する必要があった。さらに、特許文献1又は特許文献2又は特許文献3の装置では、テクスチャの分類処理を実施する手段を具備していないため、どのような地表面で変化があったのかを人間が判読する必要があった。即ち、特許文献1又は特許文献2又は特許文献3の装置では、人手による作業を必要とするため、自動的に変化を抽出することが困難であった。   It is desirable that the process of extracting image changes can be automatically performed without relying on human hands. However, in the apparatus of Patent Document 1, when the temporal imaging conditions such as season and time differ between the paired images, correction is performed in advance so that one of the images matches the imaging condition of the other image. It was necessary to keep it. Furthermore, since the method and apparatus of Patent Document 1 or Patent Document 2 does not include a means for performing registration (registration) processing of a pair image, it is necessary to perform registration manually in advance. . Furthermore, since the apparatus of Patent Document 1, Patent Document 2, or Patent Document 3 does not include means for performing cloud extraction processing from an image, a human can determine whether or not the cause of the extracted change is a cloud. It was necessary to interpret. Furthermore, since the apparatus of Patent Document 1, Patent Document 2, or Patent Document 3 does not include a means for performing texture classification processing, it is necessary for a human to interpret what kind of ground surface has changed. there were. That is, in the apparatus of Patent Document 1, Patent Document 2, or Patent Document 3, since manual work is required, it is difficult to automatically extract changes.

本発明は、例えば、異なる時刻に撮影された2つの画像間の位置ずれ量を効率よく自動的に求めることを目的とする。また、本発明は、例えば、人手による作業を必要とせずに、異なる時刻に撮影された2つの画像間の変化を迅速に抽出することを目的とする。   For example, an object of the present invention is to efficiently and automatically obtain a positional deviation amount between two images taken at different times. Another object of the present invention is to quickly extract changes between two images taken at different times without requiring manual work, for example.

本発明の一の態様に係る画像処理装置は、
異なる時刻に撮影された2つの画像を予めメモリに記憶する画像処理装置であって、
前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出するマッチング処理部と、
前記マッチング処理部が算出した相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する位置ずれ量算出処理部とを備えることを特徴とする。
An image processing apparatus according to an aspect of the present invention includes:
An image processing apparatus for storing two images taken at different times in a memory in advance,
Each time the two images are read from the memory, a first region of a predetermined number of pixels is moved by one pixel or more in one image, and the first region is moved, the first region And a matching processing unit that calculates a correlation coefficient between the second region in the same position as the first region in the other image by a processor,
And a misregistration amount calculation processing unit that estimates a misregistration amount between the two images by a processor in units of less than one pixel based on the correlation coefficient calculated by the matching processing unit.

本発明の一の態様によれば、画像処理装置において、マッチング処理部が、異なる時刻に撮影された2つの画像のうち、一方の画像にて第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数を算出し、位置ずれ量算出処理部が、前記相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位で推定することにより、前記2つの画像間の位置ずれ量を効率よく自動的に求めることが可能となる。   According to one aspect of the present invention, in the image processing apparatus, the matching processing unit moves the first area in units of one pixel or more in one of two images taken at different times. Each time the first area is moved, a correlation coefficient between the first area and the second area at the same position as the first area in the other image is calculated. A displacement amount calculation processing unit estimates the displacement amount between the two images in units of less than one pixel based on the correlation coefficient, thereby automatically and efficiently calculating the displacement amount between the two images. It becomes possible to ask for.

以下、本発明の実施の形態について、図を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施の形態1.
図1は、本実施の形態に係る変化抽出システム100の構成の一例を示すブロック図である。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an example of the configuration of a change extraction system 100 according to the present embodiment.

変化抽出システム100は、静止光学衛星101(飛翔体の一例)と衛星画像受信センタ102と衛星画像データベース103と画像処理装置104と端末装置105とから構成される。   The change extraction system 100 includes a stationary optical satellite 101 (an example of a flying object), a satellite image receiving center 102, a satellite image database 103, an image processing device 104, and a terminal device 105.

静止光学衛星101は、赤道上空の高度約36,000kmの円軌道を、地球の自転と同じ周期で公転し、光学センサ(撮像装置の一例)によって地表面の画像(衛星画像)を撮影する人工衛星である。静止光学衛星101は、撮影した衛星画像を、無線通信により衛星画像受信センタ102へ送信する。なお、静止光学衛星101は、周回衛星、航空機など、他の飛翔体で置き換えてもよい。また、光学センサは、合成開口レーダなど、他の撮像装置で置き換えてもよい。   The geostationary optical satellite 101 revolves around a circular orbit at an altitude of about 36,000 km above the equator in the same cycle as the rotation of the earth, and takes an image of the ground surface (satellite image) with an optical sensor (an example of an imaging device). It is a satellite. The stationary optical satellite 101 transmits the captured satellite image to the satellite image receiving center 102 by wireless communication. Note that the geostationary optical satellite 101 may be replaced with another flying object such as an orbiting satellite or an aircraft. The optical sensor may be replaced with another imaging device such as a synthetic aperture radar.

衛星画像受信センタ102は、通信用アンテナなどの装置を具備し、24時間体制で静止光学衛星101と交信する設備である。衛星画像受信センタ102は、静止光学衛星101より受信した衛星画像を、衛星画像データベース103に格納する。   The satellite image receiving center 102 includes equipment such as a communication antenna and is a facility for communicating with the stationary optical satellite 101 on a 24-hour basis. The satellite image receiving center 102 stores the satellite image received from the geostationary optical satellite 101 in the satellite image database 103.

衛星画像データベース103は、3〜4ヶ月分の衛星画像の格納が可能な大容量のハードディスクドライブ(HDD)などを搭載したファイルサーバである。衛星画像データベース103は、衛星画像受信センタ102及び画像処理装置104及び端末装置105と、ネットワーク106を介して接続されている。   The satellite image database 103 is a file server equipped with a large-capacity hard disk drive (HDD) capable of storing satellite images for 3 to 4 months. The satellite image database 103 is connected to the satellite image receiving center 102, the image processing device 104, and the terminal device 105 via the network 106.

画像処理装置104は、CPU(Central・Processing・Unit)やメモリなどを搭載し、端末装置105からの処理要求に応答するアプリケーションサーバである。画像処理装置104は、その処理機能として、レジストレーション処理部141と、変化抽出処理部142と、雲抽出処理部143と、テクスチャ分類処理部144とを実装する。なお、図では画像処理装置104を1台のみ示しているが、複数台あってもよい。   The image processing apparatus 104 is an application server that has a CPU (Central Processing Unit), a memory, and the like, and responds to a processing request from the terminal device 105. The image processing apparatus 104 has a registration processing unit 141, a change extraction processing unit 142, a cloud extraction processing unit 143, and a texture classification processing unit 144 as its processing functions. In the figure, only one image processing apparatus 104 is shown, but a plurality of image processing apparatuses 104 may be provided.

端末装置105は、モニタやキーボードやマウスなどを具備したワークステーションであり、画像処理装置104に対して処理(サービス)の依頼を行い、その提供を受けるクライアントである。なお、図では端末装置105を1台のみ示しているが、複数台あってもよい。   The terminal device 105 is a workstation equipped with a monitor, a keyboard, a mouse, and the like, and is a client that requests the image processing apparatus 104 for processing (service) and receives the request. Although only one terminal device 105 is shown in the figure, a plurality of terminal devices may be provided.

このように、本実施の形態では、人工衛星や航空機から撮像された複数の画像データを解析し、画像の変化を抽出する変化抽出システム100にて、画像処理装置104が画像のレジストレーション処理と変化抽出処理と雲抽出処理とテクスチャ分類処理とを自動的に実施することで、画像判読者の負担を軽減することができる。   As described above, in this embodiment, the image processing apparatus 104 performs image registration processing in the change extraction system 100 that analyzes a plurality of image data captured from an artificial satellite or an aircraft and extracts a change in the image. By automatically performing the change extraction process, the cloud extraction process, and the texture classification process, the burden on the image reader can be reduced.

図2は、画像処理装置104の構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of the configuration of the image processing apparatus 104.

前述したように、画像処理装置104は、レジストレーション処理部141、変化抽出処理部142、雲抽出処理部143、テクスチャ分類処理部144を備える。また、画像処理装置104は、プロセッサ251、メモリ252、入力装置253、出力装置254などのハードウェアを備える。ハードウェアは画像処理装置104の各部によって利用される。画像処理装置104は、異なる時刻に撮影された少なくとも2つの画像を予めメモリ252に記憶している。画像処理装置104は、具体的には、上空から撮影された地表面の画像、即ち、前述した衛星画像をメモリ252に記憶している。   As described above, the image processing apparatus 104 includes the registration processing unit 141, the change extraction processing unit 142, the cloud extraction processing unit 143, and the texture classification processing unit 144. The image processing apparatus 104 includes hardware such as a processor 251, a memory 252, an input device 253, and an output device 254. The hardware is used by each unit of the image processing apparatus 104. The image processing apparatus 104 stores at least two images taken at different times in the memory 252 in advance. Specifically, the image processing apparatus 104 stores an image of the ground surface taken from above, that is, the above-described satellite image in the memory 252.

レジストレーション処理部141は、衛星画像のうち、異なる時刻に撮像された2つの画像データ(ペア画像)をメモリ252から読み取り、プロセッサ251を用いて自動的に画像の位置合わせをする。後述するように、レジストレーション処理部141は、マッチングのための小領域を選定する指標として、分散値とエッジ量とを使用する。レジストレーション処理部141は、マッチング小領域選定処理部201、マッチング処理部202、位置ずれ量算出処理部203、リサンプリング処理部204を備える。各部の動作については後述する。   The registration processing unit 141 reads two image data (pair images) taken at different times from the satellite images from the memory 252 and automatically aligns the images using the processor 251. As will be described later, the registration processing unit 141 uses the variance value and the edge amount as an index for selecting a small region for matching. The registration processing unit 141 includes a matching small region selection processing unit 201, a matching processing unit 202, a positional deviation amount calculation processing unit 203, and a resampling processing unit 204. The operation of each part will be described later.

変化抽出処理部142は、ペア画像における変化を、プロセッサ251を用いて自動的に抽出する。後述するように、変化抽出処理部142は、変化抽出の指標として、分散値とエッジ量と相関係数とを使用する。変化抽出処理部142は、特徴量算出処理部205を備える。特徴量算出処理部205の動作については後述する。   The change extraction processing unit 142 automatically extracts changes in the pair images using the processor 251. As will be described later, the change extraction processing unit 142 uses a variance value, an edge amount, and a correlation coefficient as an index of change extraction. The change extraction processing unit 142 includes a feature amount calculation processing unit 205. The operation of the feature amount calculation processing unit 205 will be described later.

雲抽出処理部143は、ペア画像における雲の移動ベクトル情報から、ペア画像に映っている物体が雲であるか否かを、プロセッサ251を用いて自動的に判定する。後述するように、雲抽出処理部143は、雲の移動ベクトルから雲であるか否かを判定する際、ベクトルの信頼性の指標として、分散値とエッジ量と相関係数とを使用する。雲抽出処理部143は、移動ベクトル抽出処理部206、移動量処理部207、品質指標算出処理部208を備える。各部の動作については後述する。   The cloud extraction processing unit 143 automatically determines from the cloud movement vector information in the pair image using the processor 251 whether or not the object shown in the pair image is a cloud. As will be described later, when the cloud extraction processing unit 143 determines whether or not the cloud is a cloud from the cloud movement vector, it uses a dispersion value, an edge amount, and a correlation coefficient as an index of vector reliability. The cloud extraction processing unit 143 includes a movement vector extraction processing unit 206, a movement amount processing unit 207, and a quality index calculation processing unit 208. The operation of each part will be described later.

テクスチャ分類処理部144は、画像の地表面を、植物及び水域及び陸地及び山肌及び雲のいずれかに、プロセッサ251を用いて自動的に分類する。後述するように、テクスチャ分類処理部144は、植物及び水域及び陸地及び山肌及び雲のいずれかにテクスチャ分類するための指標として、赤波長の値とNDVI(Normalized・Difference・Vegetation・Index)値とHSI(Hue・Saturation・Intensity)変換後の彩度(Saturation)と明度(Intensity)とを使用する。テクスチャ分類処理部144は、NDVI算出処理部209、HSI変換処理部210を備える。各部の動作については後述する。   The texture classification processing unit 144 automatically classifies the ground surface of the image into one of a plant, a water area, a land, a mountain surface, and a cloud using the processor 251. As will be described later, the texture classification processing unit 144 uses a value of a red wavelength, an NDVI (Normalized / Difference / Vegetation / Index) value, and an index for classifying the texture into any one of plants, water, land, mountains and clouds. The saturation (Saturation) and lightness (Intensity) after HSI (Hue / Saturation / Intensity) conversion are used. The texture classification processing unit 144 includes an NDVI calculation processing unit 209 and an HSI conversion processing unit 210. The operation of each part will be described later.

図3は、画像処理装置104のハードウェア構成の一例を示す図である。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 104.

図3において、画像処理装置104は、コンピュータであり、CRT(Cathode・Ray・Tube)やLCD(液晶ディスプレイ)の表示画面を有する表示装置901、キーボード902(K/B)、マウス903、FDD904(Flexible・Disk・Drive)、CDD905(Compact・Disc・Drive)、プリンタ装置906などのハードウェアを備え、これらはケーブルや信号線で接続されている。   In FIG. 3, an image processing apparatus 104 is a computer, and includes a display device 901 having a CRT (Cathode / Ray / Tube) or LCD (liquid crystal display) display screen, a keyboard 902 (K / B), a mouse 903, and an FDD 904 ( Hardware such as a flexible disk, a drive, a CDD 905 (Compact, a disk, and a drive), and a printer device 906 are provided, and these are connected by a cable or a signal line.

画像処理装置104は、プログラムを実行するCPU911を備えている。CPU911は、プロセッサ251の一例である。CPU911は、バス912を介してROM913(Read・Only・Memory)、RAM914(Random・Access・Memory)、通信ボード915、表示装置901、キーボード902、マウス903、FDD904、CDD905、プリンタ装置906、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカードリーダライタなどの記憶媒体が用いられてもよい。   The image processing apparatus 104 includes a CPU 911 that executes a program. The CPU 911 is an example of the processor 251. The CPU 911 includes a ROM 913 (Read / Only / Memory), a RAM 914 (Random / Access / Memory), a communication board 915, a display device 901, a keyboard 902, a mouse 903, an FDD904, a CDD905, a printer device 906, and a magnetic disk. It is connected to the device 920 and controls these hardware devices. Instead of the magnetic disk device 920, a storage medium such as an optical disk device or a memory card reader / writer may be used.

RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、メモリ252の一例である。通信ボード915、キーボード902、マウス903、FDD904、CDD905などは、入力装置253の一例である。また、通信ボード915、表示装置901、プリンタ装置906などは、出力装置254の一例である。   The RAM 914 is an example of a volatile memory. The storage media of the ROM 913, the FDD 904, the CDD 905, and the magnetic disk device 920 are an example of a nonvolatile memory. These are examples of the memory 252. The communication board 915, the keyboard 902, the mouse 903, the FDD 904, the CDD 905, and the like are examples of the input device 253. Further, the communication board 915, the display device 901, the printer device 906, and the like are examples of the output device 254.

通信ボード915は、LAN(ローカルエリアネットワーク)などに接続されている。通信ボード915は、LANに限らず、インターネット、あるいは、IP−VPN(Internet・Protocol・Virtual・Private・Network)、広域LAN、ATM(Asynchronous・Transfer・Mode)ネットワークなどのWAN(ワイドエリアネットワーク)などに接続されていても構わない。LAN、インターネット、WANは、ネットワーク106の一例である。   The communication board 915 is connected to a LAN (local area network) or the like. The communication board 915 is not limited to a LAN, but is the Internet, or an IP-VPN (Internet, Protocol, Private, Network), a wide area LAN, a WAN (Wide Area Network) such as an ATM (Asynchronous, Transfer, Mode) network, or the like. It does not matter if it is connected to. LAN, the Internet, and WAN are examples of the network 106.

磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。プログラム群923には、本実施の形態の説明において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。また、ファイル群924には、本実施の形態の説明において、「〜データ」、「〜情報」、「〜ID(識別子)」、「〜フラグ」、「〜結果」として説明するデータや情報や信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」や「〜テーブル」の各項目として記憶されている。「〜ファイル」や「〜データベース」や「〜テーブル」は、ディスクやメモリなどの記憶媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶されたデータや情報や信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理(動作)に用いられる。抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理中、データや情報や信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。   The magnetic disk device 920 stores an operating system 921 (OS), a window system 922, a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911, the operating system 921, and the window system 922. The program group 923 stores a program for executing a function described as “˜unit” in the description of the present embodiment. The program is read and executed by the CPU 911. The file group 924 includes data and information described as “˜data”, “˜information”, “˜ID (identifier)”, “˜flag”, and “˜result” in the description of this embodiment. Signal values, variable values, and parameters are stored as items of “˜file”, “˜database”, and “˜table”. The “˜file”, “˜database”, and “˜table” are stored in a storage medium such as a disk or a memory. Data, information, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for processing (operation) of the CPU 911 such as calculation / control / output / printing / display. Data, information, signal values, variable values, and parameters are temporarily stored in the main memory, cache memory, and buffer memory during processing of the CPU 911 such as extraction, search, reference, comparison, calculation, control, output, printing, and display. Is remembered.

また、本実施の形態の説明において用いるブロック図やフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号は、RAM914などのメモリ、FDD904のフレキシブルディスク(FD)、CDD905のコンパクトディスク(CD)、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク(MD)、DVD(Digital・Versatile・Disc)などの記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体により伝送される。   In addition, the arrows in the block diagrams and flowcharts used in the description of this embodiment mainly indicate input / output of data and signals, and the data and signals are the memory such as the RAM 914, the flexible disk (FD) of the FDD 904, and the compact of the CDD 905. Recording is performed on a recording medium such as a disk (CD), a magnetic disk of the magnetic disk device 920, another optical disk, a mini disk (MD), or a DVD (Digital Versatile Disc). Data and signals are transmitted by a bus 912, a signal line, a cable, and other transmission media.

また、本実施の形態の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜工程」、「〜手順」、「〜処理」であってもよい。即ち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。あるいは、ソフトウェアのみ、あるいは、素子・デバイス・基板・配線などのハードウェアのみ、あるいは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実現されていても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどの記録媒体に記憶される。このプログラムはCPU911により読み出され、CPU911により実行される。即ち、プログラムは、本実施の形態の説明で述べる「〜部」としてコンピュータを機能させるものである。あるいは、本実施の形態の説明で述べる「〜部」の手順や方法をコンピュータに実行させるものである。   In addition, what is described as “˜unit” in the description of this embodiment may be “˜circuit”, “˜device”, “˜device”, and “˜step”, “˜process”. , “˜procedure”, and “˜processing”. That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be realized only by software, or only by hardware such as an element, a device, a board, and wiring, or a combination of software and hardware, and further by a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, flexible disk, optical disk, compact disk, minidisk, or DVD. This program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “to part” described in the description of the present embodiment. Alternatively, it causes the computer to execute the procedures and methods described in the description of the present embodiment.

以下、変化抽出システム100の動作を、地震が発生した直後の例を挙げ説明する。   Hereinafter, the operation of the change extraction system 100 will be described with an example immediately after an earthquake occurs.

地震発生の一報を受けた画像判読者は、端末装置105のキーボード及びマウスなどを操作して発災時刻と推定される震源の位置とを入力し、画像処理装置104に対して処理の依頼を行う。   The image reader who has received a report of the occurrence of the earthquake operates the keyboard and mouse of the terminal device 105 to input the disaster time and the estimated location of the epicenter, and requests the image processing device 104 to perform processing. Do.

次に、画像処理装置104は入力された情報を基に、衛星画像データベース103から発災前後のペア画像を、ネットワーク106を介して取得し、レジストレーション処理と、変化抽出処理と、雲抽出処理と、テクスチャ分類処理とを実施し、処理結果を端末装置105へ提供する。それぞれの処理内容については、後述する。   Next, based on the input information, the image processing apparatus 104 acquires pair images before and after the disaster from the satellite image database 103 via the network 106, and performs registration processing, change extraction processing, and cloud extraction processing. Then, the texture classification process is performed, and the processing result is provided to the terminal device 105. Each processing content will be described later.

次に、端末装置105は、画像処理装置104より提供された処理結果をモニタに表示する。ここで、処理結果とは、ペア画像のレジストレーション処理結果と変化抽出処理結果と雲抽出処理結果とテクスチャ分類処理結果である。なお、処理結果をモニタに表示するときは、画像をセル画のように重ねて表示(レイヤ表示)する。   Next, the terminal device 105 displays the processing result provided from the image processing device 104 on the monitor. Here, the processing results are a pair image registration processing result, a change extraction processing result, a cloud extraction processing result, and a texture classification processing result. When displaying the processing result on the monitor, the images are displayed so as to overlap each other like a cell image (layer display).

最後に、画像判読者はモニタに表示された処理結果を基に、被災地及び被災状況を確認する。例えば、変化抽出結果で抽出された場所が何処であるかを確認するためには、レイヤをレジストレーション結果に重ねて表示する。また、変化抽出結果で抽出された原因が雲であるかどうかを確認するためには、レイヤを雲抽出結果に重ねて表示する。また、変化抽出結果で抽出された場所がどのような地表面であるかを確認するためには、レイヤをテクスチャ分類結果に重ねて表示する。そして、画像判読者は、確認した被災地及び被災状況を災害対策部門に報告する。必要であれば、救急隊の出動を要請する。   Finally, the image reader confirms the disaster area and the disaster situation based on the processing result displayed on the monitor. For example, in order to confirm the location extracted by the change extraction result, the layer is displayed so as to overlap the registration result. In addition, in order to confirm whether or not the cause extracted from the change extraction result is a cloud, the layer is displayed so as to overlap the cloud extraction result. Further, in order to confirm what kind of ground surface the place extracted by the change extraction result is, the layer is displayed so as to be superimposed on the texture classification result. The image reader then reports the confirmed disaster area and damage status to the disaster countermeasure department. If necessary, request an ambulance team to be dispatched.

このようにして、災害の発生直後に変化抽出システム100を利用し、被災地及び被災状況を早期に特定することにより、迅速な救助活動が可能となる。   In this way, by using the change extraction system 100 immediately after the occurrence of a disaster and identifying the disaster area and the disaster situation at an early stage, a quick rescue operation can be performed.

なお、上述の例では地震発生の場合について説明したが、津波などの他の災害についても同様である。   In the above example, the case of an earthquake has been described, but the same applies to other disasters such as a tsunami.

以下では、画像処理装置104のレジストレーション処理部141の動作、即ち、レジストレーション処理について、内容を説明する。処理の概要を示すフローチャートを図4に示す。図4に示す通り、レジストレーション処理部141は、ペア画像を入力装置253により入力し、メモリ252に記憶する。その後、レジストレーション処理部141は、メモリ252に記憶したペア画像に対し、マッチング小領域選定処理(ステップS411)、マッチング処理(ステップS412)、位置ずれ量算出処理(ステップS413)、リサンプリング処理(ステップS414)をプロセッサ251により実施する。そして、レジストレーション処理部141は、位置合わせしたペア画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。   Hereinafter, the contents of the operation of the registration processing unit 141 of the image processing apparatus 104, that is, the registration processing will be described. A flowchart showing an outline of the processing is shown in FIG. As illustrated in FIG. 4, the registration processing unit 141 inputs a pair image using the input device 253 and stores the pair image in the memory 252. Thereafter, the registration processing unit 141 performs matching small region selection processing (step S411), matching processing (step S412), misregistration amount calculation processing (step S413), resampling processing (for the pair images stored in the memory 252). Step S414) is performed by the processor 251. Then, the registration processing unit 141 stores the aligned pair images in the memory 252 and outputs them with the output device 254. Details are shown below.

まず、レジストレーション処理部141のマッチング小領域選定処理部201は、マッチング小領域選定処理(ステップS411)を実施する。なお、この処理は入力されたペア画像のどちらか一方に対してのみ行う。ここでは、撮像された時刻が発災後の画像(発災後画像)に対して処理を実施するものとする。その具体的な手順は次の通りである。まず、マッチング小領域選定処理部201は、発災後画像をN×N(NはN>0となる整数)の小領域に分割する。次に、マッチング小領域選定処理部201は、分割したそれぞれの小領域内で分散値(画素値の分散)及びエッジ量を下記の式(1)及び式(2)より算出する。最後に、マッチング小領域選定処理部201は、分散値及び/又はエッジ量が最も大きい小領域をマッチングのための小領域として選定する。これにより、後述する処理において、最も特徴的な小領域について相関係数分布が求められることになり、レジストレーション処理の精度が向上する。   First, the matching small region selection processing unit 201 of the registration processing unit 141 performs a matching small region selection process (step S411). This process is performed only on one of the input pair images. Here, it is assumed that the imaged time is processed for an image after the disaster (post-disaster image). The specific procedure is as follows. First, the matching small area selection processing unit 201 divides the post-disaster image into N × N (N is an integer satisfying N> 0) small areas. Next, the matching small area selection processing unit 201 calculates a dispersion value (pixel value dispersion) and an edge amount in each of the divided small areas from the following expressions (1) and (2). Finally, the matching small area selection processing unit 201 selects a small area having the largest variance value and / or edge amount as a small area for matching. As a result, the correlation coefficient distribution is obtained for the most characteristic small region in the processing described later, and the accuracy of the registration processing is improved.

なお、分散値は次式で求められる。   In addition, a dispersion value is calculated | required by following Formula.

Figure 2009295062
Figure 2009295062

なお、エッジ量は次式で求められる。   The edge amount is obtained by the following equation.

Figure 2009295062
Figure 2009295062

即ち、SOBELなどのエッジ抽出オペレータによりエッジ抽出した小領域画像の輝度値を合計したものをエッジ量とする。   That is, the sum of the luminance values of the small area images edge-extracted by an edge extraction operator such as SOBEL is used as the edge amount.

上記のように、マッチング小領域選定処理部201は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)をメモリ252から読み取り、一方の画像(例えば、発災後画像)を所定数の画素からなる複数(例えば、N×N)の領域に分割し、各領域における画素値の分散(分散値)とエッジ量との少なくともいずれかに基づいて、マッチング処理部202の処理対象とする第1の領域(例えば、分散値及び/又はエッジ量が最も大きい領域)を選定する。   As described above, the matching small region selection processing unit 201 reads two images (for example, pre-disaster image and post-disaster image) taken at different times from the memory 252, and one image (for example, post-disaster image). ) Is divided into a plurality of (for example, N × N) regions each having a predetermined number of pixels, and the matching processing unit 202 determines whether or not the pixel value dispersion (variance value) and the edge amount in each region are based on at least one of them. A first area to be processed (for example, an area having the largest variance value and / or edge amount) is selected.

次に、レジストレーション処理部141のマッチング処理部202は、マッチング処理(ステップS412)を実施する。この処理は、正規化相関法(面積相関法)を利用して行う。正規化相関法は、2枚の画像における同一地点(対応点)の検出のために用いられる手法で、両画像から取り出した小領域の一致の程度を定量的に表すものであり、求めた相関係数の値が大きいほど2つの小領域が一致していることを示唆する。その具体的な手順は次の通りである。まず、マッチング処理部202は、マッチング小領域選定処理(ステップS411)にて選定されたマッチングのための小領域を、発災前画像に重ね合わせる。次に、マッチング処理部202は、正規化相関法により相関係数を下記の式(3)より算出する。以降、マッチング処理部202は、重ね合わせの位置を上下左右に少なくとも1画素ずつ移動させ、それぞれの位置で相関係数を算出して相関係数分布(相関係数マップ)を作成する。   Next, the matching processing unit 202 of the registration processing unit 141 performs a matching process (step S412). This process is performed using a normalized correlation method (area correlation method). The normalized correlation method is a method used to detect the same point (corresponding point) in two images, and quantitatively represents the degree of coincidence of small regions extracted from both images. A larger value of the relation number suggests that the two small regions match. The specific procedure is as follows. First, the matching processing unit 202 superimposes the small area for matching selected in the matching small area selecting process (step S411) on the pre-disaster image. Next, the matching processing unit 202 calculates a correlation coefficient from the following equation (3) by the normalized correlation method. Thereafter, the matching processing unit 202 moves the overlapping position up, down, left, and right by at least one pixel, calculates a correlation coefficient at each position, and creates a correlation coefficient distribution (correlation coefficient map).

なお、正規化相関法の相関係数は次式により求められる。   Note that the correlation coefficient of the normalized correlation method is obtained by the following equation.

Figure 2009295062
Figure 2009295062

次に、レジストレーション処理部141の位置ずれ量算出処理部203は、位置ずれ量算出処理(ステップS413)を実施する。この処理は、ペア画像間の位置ずれの程度を画素単位以下の精度で算出する処理である。その具体的な手順は次の通りである。まず、位置ずれ量算出処理部203は、マッチング処理(ステップS412)にて作成された相関係数分布から、相関係数の最大値を抽出する。次に、位置ずれ量算出処理部203は、最大値の両隣の相関係数を抽出する。最後に、位置ずれ量算出処理部203は、抽出した3点を2次多項式(2次関数)に近似し、2次多項式のピーク位置(2次関数の放物線の頂点)を求める。このピーク位置の座標を、発災前画像と発災後画像との位置ずれ量とする。なお、位置ずれ量はX方向(横方向)及びY方向(縦方向)それぞれにおいて算出する。   Next, the misregistration amount calculation processing unit 203 of the registration processing unit 141 performs misregistration amount calculation processing (step S413). This process is a process for calculating the degree of positional deviation between the pair images with an accuracy of a pixel unit or less. The specific procedure is as follows. First, the misregistration amount calculation processing unit 203 extracts the maximum value of the correlation coefficient from the correlation coefficient distribution created in the matching process (step S412). Next, the positional deviation amount calculation processing unit 203 extracts the correlation coefficient on both sides of the maximum value. Finally, the misregistration amount calculation processing unit 203 approximates the extracted three points to a quadratic polynomial (quadratic function) and obtains the peak position of the quadratic polynomial (the apex of the parabola of the quadratic function). The coordinates of this peak position are taken as the amount of positional deviation between the pre-disaster image and the post-disaster image. The amount of positional deviation is calculated in each of the X direction (horizontal direction) and the Y direction (vertical direction).

上記のように、マッチング処理部202は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)をメモリ252から読み取り、一方の画像(例えば、発災後画像)にて所定数の画素からなる第1の領域(例えば、マッチング小領域選定処理部201が選定した領域)を1画素以上の単位(好ましくは、1画素単位)で移動し、第1の領域を移動する度に、第1の領域と、他方の画像(例えば、発災前画像)にて第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサ251により算出する。位置ずれ量算出処理部203は、マッチング処理部202が算出した相関係数に基づいて、上記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサ251により推定する。   As described above, the matching processing unit 202 reads two images (for example, pre-disaster image and post-disaster image) taken at different times from the memory 252, and uses one image (for example, post-disaster image). A first area composed of a predetermined number of pixels (for example, an area selected by the matching small area selection processing unit 201) is moved in units of 1 pixel or more (preferably, in units of one pixel), and the first area is moved. Each time, the processor 251 calculates a correlation coefficient between the first region and the second region at the same position as the first region in the other image (for example, the pre-disaster image). The misregistration amount calculation processing unit 203 estimates the misregistration amount between the two images by the processor 251 based on the correlation coefficient calculated by the matching processing unit 202 in units of less than one pixel.

なお、マッチング処理部202は、第1の領域を移動する度に、第1の領域の位置(座標)と、第1の領域と第2の領域との間の相関係数とを対応付けてメモリ252に記憶する。このときメモリ252に記憶されるデータ(第1の領域の位置と相関係数との組み合わせ)が相関係数マップに相当する。位置ずれ量算出処理部203は、第1の領域の位置と相関係数とをメモリ252から読み取り、第1の領域の位置と相関係数との関係を示す近似式をプロセッサ251により算出し、この近似式を用いて、上記2つの画像間の位置ずれ量を1画素未満の単位で推定する。上記のように、例えば、位置ずれ量算出処理部203は、第1の領域にて相関係数の最大値に対応する点のX座標とその左右の点のX座標、及び、それぞれの点に対応する相関係数をメモリ252から読み取り、当該3点のX座標及び対応する相関係数から得られる近似2次曲線を算出する。そして、位置ずれ量算出処理部203は、この近似2次曲線の頂点(相関係数の最大値の近似値に対応する点)のX座標を、横方向における位置ずれ量と推定する。同様に、位置ずれ量算出処理部203は、第1の領域にて相関係数の最大値に対応する点のY座標とその上下の点のY座標、及び、それぞれの点に対応する相関係数をメモリ252から読み取り、当該3点のY座標及び対応する相関係数から得られる近似2次曲線を算出する。そして、位置ずれ量算出処理部203は、この近似2次曲線の頂点(相関係数の最大値の近似値に対応する点)のY座標を、縦方向における位置ずれ量と推定する。このような処理を行うことにより、マッチング処理部202が第1の領域を画素単位で移動しても、位置ずれ量算出処理部203が位置ずれ量を1画素未満の単位で推定できる(例えば、位置ずれ量が縦方向に−0.1画素、横方向に+0.2画素であるといった結果が得られる)。   Note that the matching processing unit 202 associates the position (coordinates) of the first region with the correlation coefficient between the first region and the second region every time the first region is moved. Store in memory 252. At this time, data stored in the memory 252 (a combination of the position of the first region and the correlation coefficient) corresponds to the correlation coefficient map. The misregistration amount calculation processing unit 203 reads the position of the first region and the correlation coefficient from the memory 252 and calculates an approximate expression indicating the relationship between the position of the first region and the correlation coefficient by the processor 251. Using this approximate expression, the amount of displacement between the two images is estimated in units of less than one pixel. As described above, for example, the positional deviation amount calculation processing unit 203 sets the X coordinate of the point corresponding to the maximum value of the correlation coefficient in the first region, the X coordinate of the left and right points, and the respective points. The corresponding correlation coefficient is read from the memory 252 and an approximate quadratic curve obtained from the three X coordinates and the corresponding correlation coefficient is calculated. Then, the positional deviation amount calculation processing unit 203 estimates the X coordinate of the apex of this approximate quadratic curve (the point corresponding to the approximate value of the maximum correlation coefficient) as the positional deviation amount in the horizontal direction. Similarly, the misregistration amount calculation processing unit 203 calculates the Y coordinate of the point corresponding to the maximum value of the correlation coefficient in the first region, the Y coordinate of the upper and lower points, and the correlations corresponding to the respective points. The number is read from the memory 252 and an approximate quadratic curve obtained from the Y coordinate of the three points and the corresponding correlation coefficient is calculated. Then, the misregistration amount calculation processing unit 203 estimates the Y coordinate of the apex of the approximate quadratic curve (the point corresponding to the approximate value of the maximum correlation coefficient) as the misregistration amount in the vertical direction. By performing such processing, even when the matching processing unit 202 moves the first region in units of pixels, the positional deviation amount calculation processing unit 203 can estimate the positional deviation amount in units of less than one pixel (for example, The result is that the positional deviation amount is −0.1 pixel in the vertical direction and +0.2 pixel in the horizontal direction).

次に、レジストレーション処理部141のリサンプリング処理部204は、リサンプリング処理(ステップS414)を実施する。この処理は、ペア画像のどちらか一方をリサンプリングして、もう片方に位置合わせする処理である。ここでは、発災後画像に対して処理を実施するものとする。その具体的な手順は次の通りである。まず、リサンプリング処理部204は、発災後画像を位置ずれ量算出処理(ステップS413)にて算出された位置ずれ量だけずらした画像を生成する。ここで、サンプリングされていない画素の値は、周囲の値から計算により内挿する。内挿アルゴリズムとしてはNearestNeighborやBilinear、Bicubic、Lanczosなどを利用することができる。なお、位置ずれ量算出処理(ステップS413)にて位置ずれ量は1画素未満の単位で推定されるものの、推定された位置ずれ量が1画素の整数倍(例えば、+2.0画素)となることもある。この場合には、位置ずれ量だけずらした画像の各画素は既にサンプリングされているため、画素値の内挿処理は必要ない。一方、推定された位置ずれ量が1画素の小数倍(例えば、+0.2画素)となった場合、即ち、推定された位置ずれ量の単位が1画素未満であった場合には、位置ずれ量だけずらした画像の各画素は未だサンプリングされていないものとなるため、上記のような画素値の内挿処理が必要となる。   Next, the resampling processing unit 204 of the registration processing unit 141 performs resampling processing (step S414). This process is a process of resampling one of the pair images and aligning the other image. Here, it is assumed that the post-disaster image is processed. The specific procedure is as follows. First, the resampling processing unit 204 generates an image obtained by shifting the post-disaster image by the positional deviation amount calculated in the positional deviation amount calculation process (step S413). Here, unsampled pixel values are interpolated by calculation from surrounding values. As an interpolation algorithm, Nearest Neighbor, Biliner, Bicubic, Lanczos, or the like can be used. Although the positional shift amount is estimated in units of less than one pixel in the positional shift amount calculation process (step S413), the estimated positional shift amount is an integral multiple of one pixel (for example, +2.0 pixels). Sometimes. In this case, since each pixel of the image shifted by the amount of positional deviation has already been sampled, pixel value interpolation processing is not necessary. On the other hand, when the estimated displacement amount is a fraction of one pixel (for example, +0.2 pixels), that is, when the estimated displacement amount unit is less than 1 pixel, Since each pixel of the image shifted by the shift amount is not sampled yet, the pixel value interpolation process as described above is required.

最後に、レジストレーション処理部141は、位置合わせした発災前画像と発災後画像とを、同じ大きさに切り出して出力する。   Finally, the registration processing unit 141 cuts out and outputs the aligned pre-disaster image and post-disaster image to the same size.

以下では、画像処理装置104の変化抽出処理部142の動作、即ち、変化抽出処理について、内容を説明する。処理の概要を示すフローチャートを図5に示す。図5に示す通り、変化抽出処理部142は、レジストレーション済みペア画像をメモリ252から読み取って入力した後、特徴量算出処理(ステップS421)をプロセッサ251により実施する。そして、変化抽出処理部142は、得られた特徴量を比較して変化の有無をプロセッサ251により判定し、変化抽出画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。   Hereinafter, the contents of the operation of the change extraction processing unit 142 of the image processing apparatus 104, that is, the change extraction process will be described. A flowchart showing an outline of the processing is shown in FIG. As illustrated in FIG. 5, the change extraction processing unit 142 reads and inputs a registered pair image from the memory 252, and then performs a feature amount calculation process (step S <b> 421) by the processor 251. Then, the change extraction processing unit 142 compares the obtained feature amounts to determine whether or not there is a change by the processor 251, stores the change extracted image in the memory 252, and outputs it by the output device 254. Details are shown below.

まず、変化抽出処理部142の特徴量算出処理部205は、特徴量算出処理(ステップS421)を実施する。この処理はペア画像の両方に対して行う。なお、様々な特徴量が考えられるが、ここでは分散値とエッジ量と相関係数を特徴量と呼ぶことにする。その具体的な手順は次の通りである。まず、特徴量算出処理部205は、ペア画像をそれぞれN×Nの小領域に分割する。次に、特徴量算出処理部205は、それぞれ分割した小領域内で分散値及びエッジ量を前述した式(1)式及び式(2)より算出する。次に、特徴量算出処理部205は、ペア画像間で同じ位置の小領域の相関係数を前述した式(3)より算出する。   First, the feature amount calculation processing unit 205 of the change extraction processing unit 142 performs a feature amount calculation process (step S421). This process is performed for both of the pair images. Although various feature amounts can be considered, here, the variance value, the edge amount, and the correlation coefficient are referred to as feature amounts. The specific procedure is as follows. First, the feature amount calculation processing unit 205 divides each pair image into N × N small regions. Next, the feature amount calculation processing unit 205 calculates the variance value and the edge amount in the respective divided small areas from the above-described equations (1) and (2). Next, the feature amount calculation processing unit 205 calculates the correlation coefficient of the small area at the same position between the pair images using the above-described equation (3).

次に、変化抽出処理部142は、特徴量を比較する。この処理は、ペア画像から得られた特徴量を比較して、変化の有無を判定する処理である。その具体的な手順は次の通りである。まず、変化抽出処理部142は、ペア画像の同じ小領域における分散値の差と、エッジ量の差と、相関係数とを、それぞれの閾値と比較する。それぞれの閾値は予めメモリ252に記憶されており、変化抽出処理部142によって読み出されるものとする。次に、変化抽出処理部142は、比較した結果全てが閾値以上の場合にその小領域を変化ありと判断し、そうでない場合は変化なしとする。以降、変化抽出処理部142は、全ての小領域について変化の有無を判定する。   Next, the change extraction processing unit 142 compares the feature amounts. This process is a process of comparing the feature amounts obtained from the pair images to determine whether or not there is a change. The specific procedure is as follows. First, the change extraction processing unit 142 compares the variance value difference, the edge amount difference, and the correlation coefficient in the same small region of the pair image with respective threshold values. Each threshold value is stored in the memory 252 in advance and is read by the change extraction processing unit 142. Next, the change extraction processing unit 142 determines that the small area has changed when all the comparison results are equal to or greater than the threshold, and determines that there is no change otherwise. Thereafter, the change extraction processing unit 142 determines whether or not there is a change for all the small areas.

最後に、変化抽出処理部142は、変化の有無を画像化し、変化抽出画像を作成する。なお、様々な画像化の方法が考えられるが、変化の有無を2値化して表示する方法や、変化の大きさに応じて色分けして表示する方法などがある。   Finally, the change extraction processing unit 142 images the presence / absence of a change and creates a change extraction image. Various imaging methods are conceivable, and there are a method of binarizing and displaying the presence / absence of change, a method of displaying by color coding according to the magnitude of change, and the like.

なお、以上で説明した変化抽出処理は、前述したレジストレーション処理が高い精度で実施されていることが前提となっているが、そうでない場合も考慮して次のような工夫をしてもよい。図5のフローチャートにおいて、マッチング処理(ステップS412)と特徴量算出処理(ステップS421)とを、特徴量比較の直前に追加する。追加したマッチング処理(ステップS412)では、変化抽出処理部142は、前述した方法で相関係数分布を作成する。追加した特徴量算出処理(ステップS421)では、変化抽出処理部142は、得られた相関係数分布の中から最も相関が高い小領域において、発災前画像の特徴量を算出する。このようにすることで、レジストレーション処理が高い精度で実施されていない場合においても、位置ずれの影響を抑制することができる。   The change extraction process described above is based on the premise that the above-described registration process is performed with high accuracy. However, the following device may be used in consideration of other cases. . In the flowchart of FIG. 5, a matching process (step S412) and a feature amount calculation process (step S421) are added immediately before the feature amount comparison. In the added matching process (step S412), the change extraction processing unit 142 creates a correlation coefficient distribution by the method described above. In the added feature amount calculation process (step S421), the change extraction processing unit 142 calculates the feature amount of the pre-disaster image in the small region with the highest correlation among the obtained correlation coefficient distributions. By doing in this way, even when the registration process is not performed with high accuracy, it is possible to suppress the influence of misalignment.

上記のように、変化抽出処理部142は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)のうち、一方の画像を位置ずれ量算出処理部203が推定した位置ずれ量ずらした画像と他方の画像と(レジストレーション済みペア画像)の特徴量をプロセッサ251により比較し、当該比較結果に基づいて、上記2つの画像間の変化を抽出する。   As described above, the change extraction processing unit 142 estimates one of the two images (for example, the pre-disaster image and the post-disaster image) taken at different times by the positional deviation amount calculation processing unit 203. The processor 251 compares the feature amounts of the misaligned image and the other image (registered pair image), and extracts a change between the two images based on the comparison result.

以下では、画像処理装置104の雲抽出処理部143の動作、即ち、雲抽出処理について、内容を説明する。処理の概要を示すフローチャートを図6に示す。図6に示す通り、雲抽出処理部143は、レジストレーション済みペア画像をメモリ252から読み取って入力した後、移動ベクトル抽出処理(ステップS431)、移動量算出処理(ステップS432)、品質指標算出処理(ステップS433)をプロセッサ251により実施する。そして、雲抽出処理部143は、得られた品質指標と移動量とを判断材料として画像中の対象物が雲であるか否かをプロセッサ251により判定し、雲抽出画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。   The contents of the operation of the cloud extraction processing unit 143 of the image processing apparatus 104, that is, the cloud extraction processing will be described below. A flowchart showing an outline of the processing is shown in FIG. As shown in FIG. 6, the cloud extraction processing unit 143 reads and inputs the registered pair image from the memory 252, and then performs a movement vector extraction process (step S 431), a movement amount calculation process (step S 432), and a quality index calculation process. (Step S433) is performed by the processor 251. Then, the cloud extraction processing unit 143 determines whether or not the object in the image is a cloud by using the obtained quality index and the movement amount as determination materials, and stores the cloud extracted image in the memory 252. At the same time, it is output by the output device 254. Details are shown below.

まず、雲抽出処理部143の移動ベクトル抽出処理部206は、移動ベクトル抽出処理(ステップS431)を実施する。この処理は、ペア画像から雲の移動ベクトルを抽出する処理である。その具体的な手順は次の通りである。まず、移動ベクトル抽出処理部206は、発災後画像をN×Nの小領域に分割する。次に、移動ベクトル抽出処理部206は、前述したマッチング処理(ステップS412)と同様に、それぞれの小領域と発災前画像とのマッチングを前述した式(3)の正規化相関法により行い、相関係数分布を作成する。次に、移動ベクトル抽出処理部206は、それぞれの相関係数分布から相関係数が最大となる位置を抽出する。最後に、移動ベクトル抽出処理部206は、それぞれの相関係数分布から抽出した位置、即ち、それぞれの小領域についてマッチングを行った際の相関係数が最大値となる位置の発災前画像におけるXY座標(始点)と発災後画像におけるXY座標(終点)とを求め、画像中の物体の移動ベクトルとする。   First, the movement vector extraction processing unit 206 of the cloud extraction processing unit 143 performs a movement vector extraction process (step S431). This process is a process of extracting a cloud movement vector from a pair image. The specific procedure is as follows. First, the movement vector extraction processing unit 206 divides the post-disaster image into N × N small regions. Next, similarly to the matching process (step S412) described above, the movement vector extraction processing unit 206 performs matching between each small region and the pre-disaster image by the normalized correlation method of the above-described formula (3), Create a correlation coefficient distribution. Next, the movement vector extraction process part 206 extracts the position where a correlation coefficient becomes the maximum from each correlation coefficient distribution. Finally, the movement vector extraction processing unit 206 uses the position extracted from each correlation coefficient distribution, that is, the position in the pre-disaster image at the position where the correlation coefficient when matching is performed for each small region is the maximum value. The XY coordinates (start point) and the XY coordinates (end point) in the post-disaster image are obtained and used as the movement vector of the object in the image.

次に、雲抽出処理部143の移動量処理部207は、移動量算出処理(ステップS432)を実施する。この処理は、前述した移動ベクトル抽出処理(ステップS431)により得られた移動ベクトルの大きさを算出する処理である。その具体的な手順として、移動量処理部207は、移動ベクトルの始点から終点までのユークリッド距離を求め、移動ベクトルの大きさとする。   Next, the movement amount processing unit 207 of the cloud extraction processing unit 143 performs a movement amount calculation process (step S432). This process is a process of calculating the magnitude of the movement vector obtained by the movement vector extraction process (step S431) described above. As a specific procedure, the movement amount processing unit 207 obtains the Euclidean distance from the start point to the end point of the movement vector, and sets it as the magnitude of the movement vector.

次に、雲抽出処理部143の品質指標算出処理部208は、品質指標算出処理(ステップS433)を実施する。この処理は、前述した移動ベクトル抽出処理(ステップS431)により得られた移動ベクトルの、品質の良し悪しを判断するための指標を算出する処理である。なお、様々な品質指標が考えられるが、ここでは分散値とエッジ量と相関係数を品質指標とすることにする。その具体的な手順は次の通りである。まず、品質指標算出処理部208は、発災後画像をN×Nの小領域に分割する。次に、品質指標算出処理部208は、それぞれの小領域内で分散値及びエッジ量を前述した式(1)及び式(2)より算出する。最後に、品質指標算出処理部208は、前述したマッチング処理(ステップS412)と同様に、それぞれの小領域と発災前画像とのマッチングを前述した式(3)の正規化相関法により行い、相関係数分布より最大値を抽出する。なお、品質指標算出処理部208は、移動ベクトル抽出処理(ステップS431)で作成された相関係数分布を利用して、それぞれの相関係数分布より最大値を抽出してもよいし、移動ベクトル抽出処理(ステップS431)でそれぞれの相関係数分布から抽出された相関係数の最大値をそのまま利用してもよい。   Next, the quality index calculation processing unit 208 of the cloud extraction processing unit 143 performs a quality index calculation process (step S433). This process is a process of calculating an index for judging whether the quality of the movement vector obtained by the above-described movement vector extraction process (step S431) is good or bad. Various quality indexes can be considered, but here, the dispersion value, the edge amount, and the correlation coefficient are used as the quality indexes. The specific procedure is as follows. First, the quality index calculation processing unit 208 divides the post-disaster image into N × N small areas. Next, the quality index calculation processing unit 208 calculates the variance value and the edge amount in each small region from the above-described equations (1) and (2). Finally, the quality index calculation processing unit 208 performs matching between each small region and the pre-disaster image by the normalized correlation method of the above-described equation (3), similarly to the above-described matching processing (step S412). The maximum value is extracted from the correlation coefficient distribution. Note that the quality index calculation processing unit 208 may extract the maximum value from each correlation coefficient distribution using the correlation coefficient distribution created in the movement vector extraction process (step S431), or the movement vector. The maximum value of the correlation coefficient extracted from each correlation coefficient distribution in the extraction process (step S431) may be used as it is.

次に、雲抽出処理部143は、品質指標と移動量とを判断材料として、雲であるか否かを判定する。その具体的な手順は次の通りである。まず、雲抽出処理部143は、1つの小領域における品質指標(分散値、エッジ量、相関係数)を、それぞれの閾値と比較する。それぞれの閾値は予めメモリ252に記憶されており、雲抽出処理部143によって読み出されるものとする。次に、雲抽出処理部143は、比較した結果全てが閾値以上の場合に、移動量と閾値とを比較する。次に、雲抽出処理部143は、比較した移動量が閾値以上の場合に、その小領域を雲であると判断する。以降、雲抽出処理部143は、全ての小領域について雲の判定をする。このように、品質指標となる属性が一定の閾値以上である小領域のみについて雲の判定をすることで、判定の誤りの発生率を抑えることができる。また、地表面の画像において雲以外に移動するものはないことが想定されるため、移動量が一定の閾値以上である小領域のみを雲と判定することで、さらに、判定の誤りの発生率を抑えることができる。   Next, the cloud extraction processing unit 143 determines whether or not it is a cloud using the quality index and the movement amount as determination materials. The specific procedure is as follows. First, the cloud extraction processing unit 143 compares the quality index (dispersion value, edge amount, correlation coefficient) in one small region with each threshold value. Each threshold value is stored in advance in the memory 252 and is read out by the cloud extraction processing unit 143. Next, the cloud extraction processing unit 143 compares the movement amount with the threshold when all the comparison results are equal to or greater than the threshold. Next, the cloud extraction processing unit 143 determines that the small area is a cloud when the compared movement amount is equal to or greater than the threshold value. Thereafter, the cloud extraction processing unit 143 determines clouds for all the small regions. As described above, the determination rate of the cloud is determined only for the small region in which the attribute as the quality index is equal to or greater than a certain threshold value, so that the occurrence rate of the determination error can be suppressed. In addition, since it is assumed that there is no movement other than clouds in the image of the ground surface, it is further determined that only a small area whose movement amount is equal to or greater than a certain threshold is a cloud. Can be suppressed.

最後に、雲抽出処理部143は、それぞれの小領域が雲であるか否かを画像化し、雲抽出画像を作成する。なお、様々な画像化の方法が考えられるが、雲の有無を2値化して表示する方法や、雲であることの確からしさに応じて色分けして表示する方法などがある。   Finally, the cloud extraction processing unit 143 images whether each small region is a cloud and creates a cloud extraction image. Various imaging methods are conceivable, and there are a method of binarizing and displaying the presence / absence of a cloud, a method of displaying by color coding according to the probability of being a cloud, and the like.

上記のように、雲抽出処理部143は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)のうち、一方の画像を位置ずれ量算出処理部203が推定した位置ずれ量ずらした画像と他方の画像と(レジストレーション済みペア画像)で異なる位置に映っている物体(例えば、発災前画像及び発災後画像の間でマッチングをした際に相関係数が最大値となる小領域)をプロセッサ251により推定し、上記異なる位置の間の距離(移動量)が所定の閾値以上である場合、その物体が雲であると判断する。   As described above, in the cloud extraction processing unit 143, the positional deviation amount calculation processing unit 203 estimated one of two images taken at different times (for example, the pre-disaster image and the post-disaster image). An object that appears in a different position in the misaligned image and the other image (registered pair image) (for example, the maximum correlation coefficient when matching between the pre-disaster image and post-disaster image) When the distance (movement amount) between the different positions is equal to or greater than a predetermined threshold, it is determined that the object is a cloud.

以下では、画像処理装置104のテクスチャ分類処理部144の動作、即ち、テクスチャ分類処理について、内容を説明する。処理の概要を示すフローチャートを図7に示す。図7に示す通り、テクスチャ分類処理部144は、レジストレーション済み画像をメモリ252から読み取って入力した後、NDVI算出処理(ステップS441)、HSI変換処理(ステップS442)をプロセッサ251により実施する。そして、テクスチャ分類処理部144は、得られたNDVI値とHSI値とを判断材料としてテクスチャ(植物、水域、陸地、山肌、雲)をプロセッサ251により分類し、テクスチャ分類画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。   Hereinafter, the contents of the operation of the texture classification processing unit 144 of the image processing apparatus 104, that is, the texture classification processing will be described. A flowchart showing an outline of the processing is shown in FIG. As shown in FIG. 7, the texture classification processing unit 144 reads the registered image from the memory 252 and inputs it, and then performs an NDVI calculation process (step S441) and an HSI conversion process (step S442) by the processor 251. Then, the texture classification processing unit 144 classifies the texture (plant, water area, land, mountain surface, cloud) by the processor 251 using the obtained NDVI value and the HSI value as judgment materials, and stores the texture classification image in the memory 252. At the same time, it is output by the output device 254. Details are shown below.

まず、テクスチャ分類処理部144のNDVI算出処理部209は、NDVI算出処理(ステップS441)を実施する。この処理は、植物の緑葉は青領域と赤領域の波長を吸収し近赤外線領域の波長を強く反射するという特徴を活かし、植生指標を算出する処理である。その具体的な手順として、NDVI算出処理部209は、下記の式(4)よりNDVI値を算出する。   First, the NDVI calculation processing unit 209 of the texture classification processing unit 144 performs NDVI calculation processing (step S441). This process is a process of calculating a vegetation index by taking advantage of the feature that the green leaves of the plant absorb the wavelengths of the blue region and the red region and strongly reflect the wavelengths of the near infrared region. As a specific procedure, the NDVI calculation processing unit 209 calculates an NDVI value from the following equation (4).

NDVI値は次式で求められる。   The NDVI value is obtained by the following equation.

Figure 2009295062
Figure 2009295062

次に、テクスチャ分類処理部144のHSI変換処理部210は、HSI変換処理(ステップS442)を実施する。この処理は、RGB(Red・Green・Blue)の輝度値を持つ画像を顕色系のHSI空間に変換し、色相(Hue)と彩度(Saturation)と明度(Intensity)とを算出する処理である。その具体的な手順として、HSI変換処理部210は、下記の式(5)及び式(6)より明度及び彩度を算出する。なお、色相については後続の処理で使用しないため、ここでは算出しない。   Next, the HSI conversion processing unit 210 of the texture classification processing unit 144 performs HSI conversion processing (step S442). In this process, an image having RGB (Red, Green, Blue) luminance values is converted into a developing system HSI space, and hue (Hue), saturation (Saturation), and brightness (Intensity) are calculated. is there. As a specific procedure, the HSI conversion processing unit 210 calculates brightness and saturation from the following formulas (5) and (6). Note that the hue is not calculated here because it is not used in subsequent processing.

HSI変換における明度及び彩度はそれぞれ次式で求められる。   The brightness and saturation in the HSI conversion can be obtained by the following equations, respectively.

Figure 2009295062
Figure 2009295062

次に、テクスチャ分類処理部144は、画素をテクスチャに分類する。この処理は、得られたNDVI値とHSI値とを判断材料として、植物及び水域及び陸地及び山肌及び雲のいずれかに分類する処理である。その具体的な手順は次の通りである。まず、テクスチャ分類処理部144は、NDVI値を閾値と比較し、結果が閾値以上の場合にその画素を植物に分類する。次に、テクスチャ分類処理部144は、その画素が植物に分類されなかった場合に、NDVI値を閾値と比較し、結果が閾値未満の場合にその画素を水域に分類する。次に、テクスチャ分類処理部144は、その画素が水域に分類されなかった場合に、赤波長の値を閾値と比較し、結果が閾値未満の場合にその画素を陸地に分類する。次に、テクスチャ分類処理部144は、その画素が陸地に分類されなかった場合に、S値とI値をそれぞれの閾値と比較し、S値が閾値以上かつI値が閾値未満の場合にその画素を山肌に分類する。最後に、テクスチャ分類処理部144は、山肌に分類されなかった画素を雲に分類する。以降、テクスチャ分類処理部144は、全ての画素について植物又は水域又は陸地又は山肌又は雲に分類する。それぞれの閾値は予めメモリ252に記憶されており、テクスチャ分類処理部144によって読み出されるものとする。   Next, the texture classification processing unit 144 classifies the pixels into textures. This process is a process of classifying the obtained NDVI value and HSI value into any one of plants, water areas, land, mountains and clouds. The specific procedure is as follows. First, the texture classification processing unit 144 compares the NDVI value with a threshold value, and classifies the pixel as a plant when the result is equal to or greater than the threshold value. Next, when the pixel is not classified as a plant, the texture classification processing unit 144 compares the NDVI value with a threshold value, and classifies the pixel as a water area when the result is less than the threshold value. Next, when the pixel is not classified into the water area, the texture classification processing unit 144 compares the red wavelength value with a threshold value, and classifies the pixel as land when the result is less than the threshold value. Next, when the pixel is not classified as land, the texture classification processing unit 144 compares the S value and the I value with the respective threshold values, and when the S value is equal to or greater than the threshold value and the I value is less than the threshold value, Classify the pixel as a mountain surface. Finally, the texture classification processing unit 144 classifies pixels that have not been classified into the mountain surface into clouds. Thereafter, the texture classification processing unit 144 classifies all pixels into plants, water areas, land, mountains, or clouds. Each threshold value is stored in the memory 252 in advance, and is read by the texture classification processing unit 144.

最後に、テクスチャ分類処理部144は、分類結果を画像化し、テクスチャ分類画像を作成する。なお、様々な画像化の方法が考えられるが、分類に応じて色分けして表示する方法や、分類に応じて異なる模様を表示する方法などがある。   Finally, the texture classification processing unit 144 images the classification result and creates a texture classification image. Various imaging methods are conceivable, and there are a method of displaying in different colors according to the classification, a method of displaying different patterns according to the classification, and the like.

上記のように、テクスチャ分類処理部144は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)のうち、一方の画像を位置ずれ量算出処理部203が推定した位置ずれ量ずらした画像と他方の画像と(レジストレーション済みペア画像)の少なくともいずれかの各画素の赤波長値とNDVI値とS値とI値とをプロセッサ251により算出し、各画素の赤波長値とNDVI値とS値とI値とに基づいて、各画素が植物と水域と陸地と山肌と雲とのいずれであるか判断する。   As described above, the texture classification processing unit 144 estimates one of the two images (for example, the pre-disaster image and the post-disaster image) taken at different times by the positional deviation amount calculation processing unit 203. The processor 251 calculates the red wavelength value, the NDVI value, the S value, and the I value of each pixel of at least one of the image shifted in position, the other image, and the (registered pair image). Based on the wavelength value, the NDVI value, the S value, and the I value, it is determined whether each pixel is a plant, water area, land, mountain surface, or cloud.

以下、本実施の形態が奏する効果を説明する。   Hereinafter, the effect which this embodiment has will be described.

本実施の形態によれば、変化抽出システム100の画像処理装置104が、ペア画像のレジストレーション処理を実施するレジストレーション処理部141を具備しているため、撮像された位置にずれがあるペア画像間でも変化抽出が可能である。したがって、事前にペア画像のレジストレーションを行っておくといった、人手による作業が不要となる効果が得られる。   According to the present embodiment, since the image processing apparatus 104 of the change extraction system 100 includes the registration processing unit 141 that performs registration processing of a pair image, a pair image having a shift in the captured position. It is possible to extract changes in between. Therefore, an effect of eliminating the need for manual work such as registering the pair images in advance can be obtained.

さらに、本実施の形態によれば、画像処理装置104が具備する変化抽出処理部142が、変化抽出のための特徴量として、分散値とエッジ量と相関係数を用いているため、ペア画像の間で季節や時刻といった時期的な撮像条件が異なる場合においても、それに大きく影響されることなく変化抽出が可能である。したがって、事前にどちらか一方の画像をもう一方の画像の撮像条件に合わせるような補正をするといった、人手による作業が不要となる効果が得られる。   Furthermore, according to the present embodiment, since the change extraction processing unit 142 included in the image processing apparatus 104 uses the variance value, the edge amount, and the correlation coefficient as the feature amount for change extraction, the pair image Even when the temporal imaging conditions such as season and time differ between the two, change extraction can be performed without being greatly influenced by the imaging conditions. Therefore, it is possible to obtain an effect of eliminating the need for manual work, such as performing correction so that one of the images matches the imaging condition of the other image in advance.

さらに、本実施の形態によれば、画像処理装置104が、画像から雲の抽出処理を実施する雲抽出処理部143を具備しているため、雲を含む画像でもそれに大きく影響されることなく変化抽出が可能である。したがって、変化抽出後にその変化の原因が雲の移動によるものであるか否かを人間が判読するといった、人手による作業が不要となる効果が得られる。   Furthermore, according to the present embodiment, since the image processing apparatus 104 includes the cloud extraction processing unit 143 that performs cloud extraction processing from an image, even an image including a cloud can be changed without being greatly affected by the cloud extraction processing unit 143. Extraction is possible. Therefore, it is possible to obtain an effect of eliminating the need for manual work such as human interpretation of whether or not the cause of the change is due to the movement of the cloud after the change is extracted.

さらに、本実施の形態によれば、画像処理装置104が、テクスチャの分類処理を実施するテクスチャ分類処理部144を具備しているため、自動的にテクスチャの分類をすることが可能である。したがって、変化抽出後にその変化が発生した場所がどのようなところなのかを人間が判読するといった、人手による作業が不要となる効果が得られる。   Furthermore, according to the present embodiment, since the image processing apparatus 104 includes the texture classification processing unit 144 that performs texture classification processing, it is possible to automatically classify textures. Therefore, it is possible to obtain an effect of eliminating the need for manual work such as human interpretation of the place where the change has occurred after the change extraction.

実施の形態1に係る変化抽出システムの構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of a change extraction system according to Embodiment 1. FIG. 実施の形態1に係る画像処理装置の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an image processing device according to a first embodiment. 実施の形態1に係る画像処理装置のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image processing apparatus according to Embodiment 1. FIG. 実施の形態1に係るレジストレーション処理の概要を示すフローチャートである。3 is a flowchart showing an outline of a registration process according to the first embodiment. 実施の形態1に係る変化抽出処理の概要を示すフローチャートである。3 is a flowchart showing an outline of change extraction processing according to Embodiment 1; 実施の形態1に係る雲抽出処理の概要を示すフローチャートである。4 is a flowchart illustrating an outline of cloud extraction processing according to the first embodiment. 実施の形態1に係るテクスチャ分類処理の概要を示すフローチャートである。5 is a flowchart showing an outline of texture classification processing according to the first embodiment.

符号の説明Explanation of symbols

100 変化抽出システム、101 静止光学衛星、102 衛星画像受信センタ、103 衛星画像データベース、104 画像処理装置、105 端末装置、106 ネットワーク、141 レジストレーション処理部、142 変化抽出処理部、143 雲抽出処理部、144 テクスチャ分類処理部、201 マッチング小領域選定処理部、202 マッチング処理部、203 位置ずれ量算出処理部、204 リサンプリング処理部、205 特徴量算出処理部、206 移動ベクトル抽出処理部、207 移動量処理部、208 品質指標算出処理部、209 NDVI算出処理部、210 HSI変換処理部、251 プロセッサ、252 メモリ、253 入力装置、254 出力装置、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 オペレーティングシステム、922 ウィンドウシステム、923 プログラム群、924 ファイル群。   DESCRIPTION OF SYMBOLS 100 Change extraction system, 101 Geostationary optical satellite, 102 Satellite image receiving center, 103 Satellite image database, 104 Image processing apparatus, 105 Terminal apparatus, 106 Network, 141 Registration processing part, 142 Change extraction processing part, 143 Cloud extraction processing part , 144 texture classification processing unit, 201 matching small region selection processing unit, 202 matching processing unit, 203 misregistration amount calculation processing unit, 204 resampling processing unit, 205 feature amount calculation processing unit, 206 movement vector extraction processing unit, 207 movement Quantity processing unit, 208 quality index calculation processing unit, 209 NDVI calculation processing unit, 210 HSI conversion processing unit, 251 processor, 252 memory, 253 input device, 254 output device, 901 display device, 902 keyboard, 903 mouse , 904 FDD, 905 CDD, 906 Printer device, 911 CPU, 912 Bus, 913 ROM, 914 RAM, 915 communication board, 920 a magnetic disk device, 921 operating system, 922 Window system, 923 Program group, 924 File group.

Claims (8)

異なる時刻に撮影された2つの画像を予めメモリに記憶する画像処理装置であって、
前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出するマッチング処理部と、
前記マッチング処理部が算出した相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する位置ずれ量算出処理部とを備えることを特徴とする画像処理装置。
An image processing apparatus for storing two images taken at different times in a memory in advance,
Each time the two images are read from the memory, a first region of a predetermined number of pixels is moved by one pixel or more in one image, and the first region is moved, the first region And a matching processing unit that calculates a correlation coefficient between the second region in the same position as the first region in the other image by a processor,
A positional deviation amount calculation processing unit that estimates a positional deviation amount between the two images by a processor in units of less than one pixel based on the correlation coefficient calculated by the matching processing unit; apparatus.
前記マッチング処理部は、前記第1の領域を移動する度に、前記第1の領域の位置と、前記第1の領域と前記第2の領域との間の相関係数とを対応付けてメモリに記憶し、
前記位置ずれ量算出処理部は、前記第1の領域の位置と前記相関係数とをメモリから読み取り、前記第1の領域の位置と前記相関係数との関係を示す近似式をプロセッサにより算出し、前記近似式を用いて、前記2つの画像間の位置ずれ量を1画素未満の単位で推定することを特徴とする請求項1に記載の画像処理装置。
Each time the matching processing unit moves the first area, the position of the first area and the correlation coefficient between the first area and the second area are associated with each other and stored in the memory. Remember
The positional deviation amount calculation processing unit reads the position of the first region and the correlation coefficient from a memory, and calculates an approximate expression indicating the relationship between the position of the first region and the correlation coefficient by a processor. The image processing apparatus according to claim 1, wherein an amount of positional deviation between the two images is estimated in units of less than one pixel using the approximate expression.
前記画像処理装置は、さらに、
前記一方の画像を所定数の画素からなる複数の領域に分割し、各領域における画素値の分散とエッジ量との少なくともいずれかに基づいて、前記第1の領域を選定するマッチング小領域選定処理部を備えることを特徴とする請求項1又は2に記載の画像処理装置。
The image processing apparatus further includes:
A matching small region selection process in which the one image is divided into a plurality of regions each including a predetermined number of pixels, and the first region is selected based on at least one of pixel value dispersion and edge amount in each region. The image processing apparatus according to claim 1, further comprising a unit.
前記画像処理装置は、さらに、
前記一方の画像を前記位置ずれ量算出処理部が推定した位置ずれ量ずらした画像と前記他方の画像との特徴量をプロセッサにより比較し、当該比較結果に基づいて、前記2つの画像間の変化を抽出する変化抽出処理部を備えることを特徴とする請求項1から3までのいずれかに記載の画像処理装置。
The image processing apparatus further includes:
The processor compares a feature amount between the image obtained by shifting the positional deviation amount estimated by the positional deviation amount calculation processing unit with respect to the one image and the other image, and changes between the two images based on the comparison result. The image processing apparatus according to claim 1, further comprising: a change extraction processing unit that extracts the image.
前記2つの画像は、上空から撮影された地表面の画像であり、
前記画像処理装置は、さらに、
前記一方の画像を前記位置ずれ量算出処理部が推定した位置ずれ量ずらした画像と前記他方の画像とで異なる位置に映っている物体をプロセッサにより推定し、前記異なる位置の間の距離が所定の閾値以上である場合、前記物体が雲であると判断する雲抽出処理部を備えることを特徴とする請求項1から4までのいずれかに記載の画像処理装置。
The two images are images of the ground surface taken from above,
The image processing apparatus further includes:
The processor estimates an object appearing at a different position between the image obtained by shifting the displacement amount estimated by the displacement amount calculation processing unit and the other image from the one image, and a distance between the different positions is predetermined. 5. The image processing apparatus according to claim 1, further comprising a cloud extraction processing unit that determines that the object is a cloud when the threshold is equal to or greater than a threshold value.
前記2つの画像は、上空から撮影された地表面の画像であり、
前記画像処理装置は、さらに、
前記一方の画像を前記位置ずれ量算出処理部が推定した位置ずれ量ずらした画像と前記他方の画像との少なくともいずれかの各画素の赤波長値とNDVI(Normalized・Difference・Vegetation・Index)値とS(Saturation)値とI(Intensity)値とをプロセッサにより算出し、各画素の赤波長値とNDVI値とS値とI値とに基づいて、各画素が植物と水域と陸地と山肌と雲とのいずれであるか判断するテクスチャ分類処理部を備えることを特徴とする請求項1から5までのいずれかに記載の画像処理装置。
The two images are images of the ground surface taken from above,
The image processing apparatus further includes:
A red wavelength value and an NDVI (Normalized / Difference / Vegetation / Index) value of each pixel of at least one of the image obtained by shifting the position shift amount estimated by the position shift amount calculation processing unit and the other image. And S (Saturation) value and I (Intensity) value are calculated by the processor, and based on the red wavelength value, NDVI value, S value and I value of each pixel, each pixel has a plant, water area, land and mountain surface. The image processing apparatus according to claim 1, further comprising a texture classification processing unit that determines whether the image is a cloud.
異なる時刻に撮影された2つの画像を予めメモリに記憶する画像処理装置を用いた画像処理方法であって、
前記画像処理装置のマッチング処理部が、前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出する第1ステップと、
前記画像処理装置の位置ずれ量算出処理部が、前記第1ステップで算出された相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する第2ステップとを備えることを特徴とする画像処理方法。
An image processing method using an image processing apparatus that stores two images taken at different times in a memory in advance,
The matching processing unit of the image processing apparatus reads the two images from the memory, moves a first area including a predetermined number of pixels in one image in units of one pixel or more, and moves the first area to the first area. A first step of calculating by a processor a correlation coefficient between the first region and a second region at the same position as the first region in the other image each time it moves;
A second unit for estimating a positional shift amount between the two images by a processor in units of less than one pixel based on the correlation coefficient calculated in the first step; And an image processing method.
異なる時刻に撮影された2つの画像を予めメモリに記憶するコンピュータで実行される画像処理プログラムであって、
前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出するマッチング処理と、
前記マッチング処理が算出した相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する位置ずれ量算出処理とをコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program that is executed by a computer that stores two images taken at different times in a memory in advance,
Each time the two images are read from the memory, a first region of a predetermined number of pixels is moved by one pixel or more in one image, and the first region is moved, the first region And a matching process in which a processor calculates a correlation coefficient between the second image in the same position as the first region in the other image,
An image that causes a computer to execute a positional deviation amount calculation process in which a processor estimates a positional deviation amount between the two images in units of less than one pixel based on the correlation coefficient calculated by the matching process. Processing program.
JP2008150058A 2008-06-09 2008-06-09 Image processing apparatus, image processing method and image processing program Pending JP2009295062A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008150058A JP2009295062A (en) 2008-06-09 2008-06-09 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008150058A JP2009295062A (en) 2008-06-09 2008-06-09 Image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2009295062A true JP2009295062A (en) 2009-12-17

Family

ID=41543164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008150058A Pending JP2009295062A (en) 2008-06-09 2008-06-09 Image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2009295062A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190935A (en) * 2011-03-09 2012-10-04 Asahi Kasei Electronics Co Ltd Chip position specification system, chip position specification device, chip position specification program, and chip position specification method
US10002339B2 (en) 2013-07-11 2018-06-19 Fluor Technologies Corporation Post-disaster assessment systems and methods

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190935A (en) * 2011-03-09 2012-10-04 Asahi Kasei Electronics Co Ltd Chip position specification system, chip position specification device, chip position specification program, and chip position specification method
US10002339B2 (en) 2013-07-11 2018-06-19 Fluor Technologies Corporation Post-disaster assessment systems and methods

Similar Documents

Publication Publication Date Title
WO2021000702A1 (en) Image detection method, device, and system
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
KR102607517B1 (en) Generate composite images from 3D point clouds
US9305399B2 (en) Apparatus and method for displaying objects
CN108230281B (en) Remote sensing image processing method and device and electronic equipment
JP7449869B2 (en) Automatic analysis of descriptive rock slice images using advanced machine learning techniques
US20110235939A1 (en) System and Method for Enhancing Registered Images Using Edge Overlays
CN110032964B (en) Image processing method, device, equipment and storage medium for identifying visual angle
JP7135473B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, PROGRAM AND MEDICAL IMAGE PROCESSING SYSTEM
US20190347468A1 (en) 3d image detection method and apparatus, electronic device, and computer readable medium
US10733777B2 (en) Annotation generation for an image network
EP3633606B1 (en) Information processing device, information processing method, and program
US11157735B2 (en) Cloud detection in aerial imagery
CN109743566B (en) Method and equipment for identifying VR video format
CN114627173A (en) Data enhancement for object detection by differential neural rendering
CN113688658B (en) Object identification method, device, equipment and medium
CN111369557A (en) Image processing method, image processing device, computing equipment and storage medium
Waldner et al. Local adjustments of image spatial resolution to optimize large-area mapping in the era of big data
JP2009295062A (en) Image processing apparatus, image processing method and image processing program
CN113689412A (en) Thyroid image processing method and device, electronic equipment and storage medium
CN112329649A (en) Urban vegetation type identification method, system, equipment and medium
CN115861922B (en) Sparse smoke detection method and device, computer equipment and storage medium
Hashim et al. Geometric and radiometric evaluation of RazakSAT medium-sized aperture camera data
CN114913064B (en) Large parallax image splicing method and device based on structure maintenance and many-to-many matching
JP2007199865A (en) Image processing algorithm evaluation apparatus, image processing algorithm creation apparatus, image inspection apparatus, method for evaluating image processing algorithm, method for creating image processing algorithm, and method for inspecting image