JP2009295062A - Image processing apparatus, image processing method and image processing program - Google Patents
Image processing apparatus, image processing method and image processing program Download PDFInfo
- Publication number
- JP2009295062A JP2009295062A JP2008150058A JP2008150058A JP2009295062A JP 2009295062 A JP2009295062 A JP 2009295062A JP 2008150058 A JP2008150058 A JP 2008150058A JP 2008150058 A JP2008150058 A JP 2008150058A JP 2009295062 A JP2009295062 A JP 2009295062A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing unit
- region
- images
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画像処理装置及び画像処理方法及び画像処理プログラムに関するものである。本発明は、特に、人工衛星や航空機から撮像された複数の画像データを解析し、画像の変化を抽出する技術(変化抽出システム)に関するものである。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program. In particular, the present invention relates to a technique (change extraction system) for analyzing a plurality of image data captured from an artificial satellite or an aircraft and extracting a change in the image.
特許文献1又は特許文献2又は特許文献3には、異なる時刻に撮像された2つの画像データ(ペア画像)から、地表面の変化を抽出する方法及び装置が開示されている。
画像の変化を抽出する処理は、人手に頼らないで自動的に行えることが望ましい。しかし、特許文献1の装置では、ペア画像の間で季節や時刻といった時期的な撮像条件が異なる場合には、事前にどちらか一方の画像をもう一方の画像の撮像条件に合わせるような補正をしておく必要があった。さらに、特許文献1又は特許文献2の方法及び装置では、ペア画像の位置合わせ(レジストレーション)処理を実施する手段を具備していないため、事前にレジストレーションを手動で行っておく必要があった。さらに、特許文献1又は特許文献2又は特許文献3の装置では、画像から雲の抽出処理を実施する手段を具備していないため、抽出された変化の原因が雲であるか否かを人間が判読する必要があった。さらに、特許文献1又は特許文献2又は特許文献3の装置では、テクスチャの分類処理を実施する手段を具備していないため、どのような地表面で変化があったのかを人間が判読する必要があった。即ち、特許文献1又は特許文献2又は特許文献3の装置では、人手による作業を必要とするため、自動的に変化を抽出することが困難であった。 It is desirable that the process of extracting image changes can be automatically performed without relying on human hands. However, in the apparatus of Patent Document 1, when the temporal imaging conditions such as season and time differ between the paired images, correction is performed in advance so that one of the images matches the imaging condition of the other image. It was necessary to keep it. Furthermore, since the method and apparatus of Patent Document 1 or Patent Document 2 does not include a means for performing registration (registration) processing of a pair image, it is necessary to perform registration manually in advance. . Furthermore, since the apparatus of Patent Document 1, Patent Document 2, or Patent Document 3 does not include means for performing cloud extraction processing from an image, a human can determine whether or not the cause of the extracted change is a cloud. It was necessary to interpret. Furthermore, since the apparatus of Patent Document 1, Patent Document 2, or Patent Document 3 does not include a means for performing texture classification processing, it is necessary for a human to interpret what kind of ground surface has changed. there were. That is, in the apparatus of Patent Document 1, Patent Document 2, or Patent Document 3, since manual work is required, it is difficult to automatically extract changes.
本発明は、例えば、異なる時刻に撮影された2つの画像間の位置ずれ量を効率よく自動的に求めることを目的とする。また、本発明は、例えば、人手による作業を必要とせずに、異なる時刻に撮影された2つの画像間の変化を迅速に抽出することを目的とする。 For example, an object of the present invention is to efficiently and automatically obtain a positional deviation amount between two images taken at different times. Another object of the present invention is to quickly extract changes between two images taken at different times without requiring manual work, for example.
本発明の一の態様に係る画像処理装置は、
異なる時刻に撮影された2つの画像を予めメモリに記憶する画像処理装置であって、
前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出するマッチング処理部と、
前記マッチング処理部が算出した相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する位置ずれ量算出処理部とを備えることを特徴とする。
An image processing apparatus according to an aspect of the present invention includes:
An image processing apparatus for storing two images taken at different times in a memory in advance,
Each time the two images are read from the memory, a first region of a predetermined number of pixels is moved by one pixel or more in one image, and the first region is moved, the first region And a matching processing unit that calculates a correlation coefficient between the second region in the same position as the first region in the other image by a processor,
And a misregistration amount calculation processing unit that estimates a misregistration amount between the two images by a processor in units of less than one pixel based on the correlation coefficient calculated by the matching processing unit.
本発明の一の態様によれば、画像処理装置において、マッチング処理部が、異なる時刻に撮影された2つの画像のうち、一方の画像にて第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数を算出し、位置ずれ量算出処理部が、前記相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位で推定することにより、前記2つの画像間の位置ずれ量を効率よく自動的に求めることが可能となる。 According to one aspect of the present invention, in the image processing apparatus, the matching processing unit moves the first area in units of one pixel or more in one of two images taken at different times. Each time the first area is moved, a correlation coefficient between the first area and the second area at the same position as the first area in the other image is calculated. A displacement amount calculation processing unit estimates the displacement amount between the two images in units of less than one pixel based on the correlation coefficient, thereby automatically and efficiently calculating the displacement amount between the two images. It becomes possible to ask for.
以下、本発明の実施の形態について、図を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
実施の形態1.
図1は、本実施の形態に係る変化抽出システム100の構成の一例を示すブロック図である。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an example of the configuration of a change extraction system 100 according to the present embodiment.
変化抽出システム100は、静止光学衛星101(飛翔体の一例)と衛星画像受信センタ102と衛星画像データベース103と画像処理装置104と端末装置105とから構成される。
The change extraction system 100 includes a stationary optical satellite 101 (an example of a flying object), a satellite
静止光学衛星101は、赤道上空の高度約36,000kmの円軌道を、地球の自転と同じ周期で公転し、光学センサ(撮像装置の一例)によって地表面の画像(衛星画像)を撮影する人工衛星である。静止光学衛星101は、撮影した衛星画像を、無線通信により衛星画像受信センタ102へ送信する。なお、静止光学衛星101は、周回衛星、航空機など、他の飛翔体で置き換えてもよい。また、光学センサは、合成開口レーダなど、他の撮像装置で置き換えてもよい。
The geostationary optical satellite 101 revolves around a circular orbit at an altitude of about 36,000 km above the equator in the same cycle as the rotation of the earth, and takes an image of the ground surface (satellite image) with an optical sensor (an example of an imaging device). It is a satellite. The stationary optical satellite 101 transmits the captured satellite image to the satellite
衛星画像受信センタ102は、通信用アンテナなどの装置を具備し、24時間体制で静止光学衛星101と交信する設備である。衛星画像受信センタ102は、静止光学衛星101より受信した衛星画像を、衛星画像データベース103に格納する。
The satellite
衛星画像データベース103は、3〜4ヶ月分の衛星画像の格納が可能な大容量のハードディスクドライブ(HDD)などを搭載したファイルサーバである。衛星画像データベース103は、衛星画像受信センタ102及び画像処理装置104及び端末装置105と、ネットワーク106を介して接続されている。
The
画像処理装置104は、CPU(Central・Processing・Unit)やメモリなどを搭載し、端末装置105からの処理要求に応答するアプリケーションサーバである。画像処理装置104は、その処理機能として、レジストレーション処理部141と、変化抽出処理部142と、雲抽出処理部143と、テクスチャ分類処理部144とを実装する。なお、図では画像処理装置104を1台のみ示しているが、複数台あってもよい。
The
端末装置105は、モニタやキーボードやマウスなどを具備したワークステーションであり、画像処理装置104に対して処理(サービス)の依頼を行い、その提供を受けるクライアントである。なお、図では端末装置105を1台のみ示しているが、複数台あってもよい。
The terminal device 105 is a workstation equipped with a monitor, a keyboard, a mouse, and the like, and is a client that requests the
このように、本実施の形態では、人工衛星や航空機から撮像された複数の画像データを解析し、画像の変化を抽出する変化抽出システム100にて、画像処理装置104が画像のレジストレーション処理と変化抽出処理と雲抽出処理とテクスチャ分類処理とを自動的に実施することで、画像判読者の負担を軽減することができる。
As described above, in this embodiment, the
図2は、画像処理装置104の構成の一例を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of the configuration of the
前述したように、画像処理装置104は、レジストレーション処理部141、変化抽出処理部142、雲抽出処理部143、テクスチャ分類処理部144を備える。また、画像処理装置104は、プロセッサ251、メモリ252、入力装置253、出力装置254などのハードウェアを備える。ハードウェアは画像処理装置104の各部によって利用される。画像処理装置104は、異なる時刻に撮影された少なくとも2つの画像を予めメモリ252に記憶している。画像処理装置104は、具体的には、上空から撮影された地表面の画像、即ち、前述した衛星画像をメモリ252に記憶している。
As described above, the
レジストレーション処理部141は、衛星画像のうち、異なる時刻に撮像された2つの画像データ(ペア画像)をメモリ252から読み取り、プロセッサ251を用いて自動的に画像の位置合わせをする。後述するように、レジストレーション処理部141は、マッチングのための小領域を選定する指標として、分散値とエッジ量とを使用する。レジストレーション処理部141は、マッチング小領域選定処理部201、マッチング処理部202、位置ずれ量算出処理部203、リサンプリング処理部204を備える。各部の動作については後述する。
The
変化抽出処理部142は、ペア画像における変化を、プロセッサ251を用いて自動的に抽出する。後述するように、変化抽出処理部142は、変化抽出の指標として、分散値とエッジ量と相関係数とを使用する。変化抽出処理部142は、特徴量算出処理部205を備える。特徴量算出処理部205の動作については後述する。
The change
雲抽出処理部143は、ペア画像における雲の移動ベクトル情報から、ペア画像に映っている物体が雲であるか否かを、プロセッサ251を用いて自動的に判定する。後述するように、雲抽出処理部143は、雲の移動ベクトルから雲であるか否かを判定する際、ベクトルの信頼性の指標として、分散値とエッジ量と相関係数とを使用する。雲抽出処理部143は、移動ベクトル抽出処理部206、移動量処理部207、品質指標算出処理部208を備える。各部の動作については後述する。
The cloud
テクスチャ分類処理部144は、画像の地表面を、植物及び水域及び陸地及び山肌及び雲のいずれかに、プロセッサ251を用いて自動的に分類する。後述するように、テクスチャ分類処理部144は、植物及び水域及び陸地及び山肌及び雲のいずれかにテクスチャ分類するための指標として、赤波長の値とNDVI(Normalized・Difference・Vegetation・Index)値とHSI(Hue・Saturation・Intensity)変換後の彩度(Saturation)と明度(Intensity)とを使用する。テクスチャ分類処理部144は、NDVI算出処理部209、HSI変換処理部210を備える。各部の動作については後述する。
The texture
図3は、画像処理装置104のハードウェア構成の一例を示す図である。
FIG. 3 is a diagram illustrating an example of a hardware configuration of the
図3において、画像処理装置104は、コンピュータであり、CRT(Cathode・Ray・Tube)やLCD(液晶ディスプレイ)の表示画面を有する表示装置901、キーボード902(K/B)、マウス903、FDD904(Flexible・Disk・Drive)、CDD905(Compact・Disc・Drive)、プリンタ装置906などのハードウェアを備え、これらはケーブルや信号線で接続されている。
In FIG. 3, an
画像処理装置104は、プログラムを実行するCPU911を備えている。CPU911は、プロセッサ251の一例である。CPU911は、バス912を介してROM913(Read・Only・Memory)、RAM914(Random・Access・Memory)、通信ボード915、表示装置901、キーボード902、マウス903、FDD904、CDD905、プリンタ装置906、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカードリーダライタなどの記憶媒体が用いられてもよい。
The
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、メモリ252の一例である。通信ボード915、キーボード902、マウス903、FDD904、CDD905などは、入力装置253の一例である。また、通信ボード915、表示装置901、プリンタ装置906などは、出力装置254の一例である。
The
通信ボード915は、LAN(ローカルエリアネットワーク)などに接続されている。通信ボード915は、LANに限らず、インターネット、あるいは、IP−VPN(Internet・Protocol・Virtual・Private・Network)、広域LAN、ATM(Asynchronous・Transfer・Mode)ネットワークなどのWAN(ワイドエリアネットワーク)などに接続されていても構わない。LAN、インターネット、WANは、ネットワーク106の一例である。
The
磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。プログラム群923には、本実施の形態の説明において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。また、ファイル群924には、本実施の形態の説明において、「〜データ」、「〜情報」、「〜ID(識別子)」、「〜フラグ」、「〜結果」として説明するデータや情報や信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」や「〜テーブル」の各項目として記憶されている。「〜ファイル」や「〜データベース」や「〜テーブル」は、ディスクやメモリなどの記憶媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶されたデータや情報や信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理(動作)に用いられる。抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理中、データや情報や信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
The
また、本実施の形態の説明において用いるブロック図やフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号は、RAM914などのメモリ、FDD904のフレキシブルディスク(FD)、CDD905のコンパクトディスク(CD)、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク(MD)、DVD(Digital・Versatile・Disc)などの記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体により伝送される。
In addition, the arrows in the block diagrams and flowcharts used in the description of this embodiment mainly indicate input / output of data and signals, and the data and signals are the memory such as the
また、本実施の形態の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜工程」、「〜手順」、「〜処理」であってもよい。即ち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。あるいは、ソフトウェアのみ、あるいは、素子・デバイス・基板・配線などのハードウェアのみ、あるいは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実現されていても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどの記録媒体に記憶される。このプログラムはCPU911により読み出され、CPU911により実行される。即ち、プログラムは、本実施の形態の説明で述べる「〜部」としてコンピュータを機能させるものである。あるいは、本実施の形態の説明で述べる「〜部」の手順や方法をコンピュータに実行させるものである。
In addition, what is described as “˜unit” in the description of this embodiment may be “˜circuit”, “˜device”, “˜device”, and “˜step”, “˜process”. , “˜procedure”, and “˜processing”. That is, what is described as “˜unit” may be realized by firmware stored in the
以下、変化抽出システム100の動作を、地震が発生した直後の例を挙げ説明する。 Hereinafter, the operation of the change extraction system 100 will be described with an example immediately after an earthquake occurs.
地震発生の一報を受けた画像判読者は、端末装置105のキーボード及びマウスなどを操作して発災時刻と推定される震源の位置とを入力し、画像処理装置104に対して処理の依頼を行う。
The image reader who has received a report of the occurrence of the earthquake operates the keyboard and mouse of the terminal device 105 to input the disaster time and the estimated location of the epicenter, and requests the
次に、画像処理装置104は入力された情報を基に、衛星画像データベース103から発災前後のペア画像を、ネットワーク106を介して取得し、レジストレーション処理と、変化抽出処理と、雲抽出処理と、テクスチャ分類処理とを実施し、処理結果を端末装置105へ提供する。それぞれの処理内容については、後述する。
Next, based on the input information, the
次に、端末装置105は、画像処理装置104より提供された処理結果をモニタに表示する。ここで、処理結果とは、ペア画像のレジストレーション処理結果と変化抽出処理結果と雲抽出処理結果とテクスチャ分類処理結果である。なお、処理結果をモニタに表示するときは、画像をセル画のように重ねて表示(レイヤ表示)する。
Next, the terminal device 105 displays the processing result provided from the
最後に、画像判読者はモニタに表示された処理結果を基に、被災地及び被災状況を確認する。例えば、変化抽出結果で抽出された場所が何処であるかを確認するためには、レイヤをレジストレーション結果に重ねて表示する。また、変化抽出結果で抽出された原因が雲であるかどうかを確認するためには、レイヤを雲抽出結果に重ねて表示する。また、変化抽出結果で抽出された場所がどのような地表面であるかを確認するためには、レイヤをテクスチャ分類結果に重ねて表示する。そして、画像判読者は、確認した被災地及び被災状況を災害対策部門に報告する。必要であれば、救急隊の出動を要請する。 Finally, the image reader confirms the disaster area and the disaster situation based on the processing result displayed on the monitor. For example, in order to confirm the location extracted by the change extraction result, the layer is displayed so as to overlap the registration result. In addition, in order to confirm whether or not the cause extracted from the change extraction result is a cloud, the layer is displayed so as to overlap the cloud extraction result. Further, in order to confirm what kind of ground surface the place extracted by the change extraction result is, the layer is displayed so as to be superimposed on the texture classification result. The image reader then reports the confirmed disaster area and damage status to the disaster countermeasure department. If necessary, request an ambulance team to be dispatched.
このようにして、災害の発生直後に変化抽出システム100を利用し、被災地及び被災状況を早期に特定することにより、迅速な救助活動が可能となる。 In this way, by using the change extraction system 100 immediately after the occurrence of a disaster and identifying the disaster area and the disaster situation at an early stage, a quick rescue operation can be performed.
なお、上述の例では地震発生の場合について説明したが、津波などの他の災害についても同様である。 In the above example, the case of an earthquake has been described, but the same applies to other disasters such as a tsunami.
以下では、画像処理装置104のレジストレーション処理部141の動作、即ち、レジストレーション処理について、内容を説明する。処理の概要を示すフローチャートを図4に示す。図4に示す通り、レジストレーション処理部141は、ペア画像を入力装置253により入力し、メモリ252に記憶する。その後、レジストレーション処理部141は、メモリ252に記憶したペア画像に対し、マッチング小領域選定処理(ステップS411)、マッチング処理(ステップS412)、位置ずれ量算出処理(ステップS413)、リサンプリング処理(ステップS414)をプロセッサ251により実施する。そして、レジストレーション処理部141は、位置合わせしたペア画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。
Hereinafter, the contents of the operation of the
まず、レジストレーション処理部141のマッチング小領域選定処理部201は、マッチング小領域選定処理(ステップS411)を実施する。なお、この処理は入力されたペア画像のどちらか一方に対してのみ行う。ここでは、撮像された時刻が発災後の画像(発災後画像)に対して処理を実施するものとする。その具体的な手順は次の通りである。まず、マッチング小領域選定処理部201は、発災後画像をN×N(NはN>0となる整数)の小領域に分割する。次に、マッチング小領域選定処理部201は、分割したそれぞれの小領域内で分散値(画素値の分散)及びエッジ量を下記の式(1)及び式(2)より算出する。最後に、マッチング小領域選定処理部201は、分散値及び/又はエッジ量が最も大きい小領域をマッチングのための小領域として選定する。これにより、後述する処理において、最も特徴的な小領域について相関係数分布が求められることになり、レジストレーション処理の精度が向上する。
First, the matching small region
なお、分散値は次式で求められる。 In addition, a dispersion value is calculated | required by following Formula.
なお、エッジ量は次式で求められる。 The edge amount is obtained by the following equation.
即ち、SOBELなどのエッジ抽出オペレータによりエッジ抽出した小領域画像の輝度値を合計したものをエッジ量とする。 That is, the sum of the luminance values of the small area images edge-extracted by an edge extraction operator such as SOBEL is used as the edge amount.
上記のように、マッチング小領域選定処理部201は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)をメモリ252から読み取り、一方の画像(例えば、発災後画像)を所定数の画素からなる複数(例えば、N×N)の領域に分割し、各領域における画素値の分散(分散値)とエッジ量との少なくともいずれかに基づいて、マッチング処理部202の処理対象とする第1の領域(例えば、分散値及び/又はエッジ量が最も大きい領域)を選定する。
As described above, the matching small region
次に、レジストレーション処理部141のマッチング処理部202は、マッチング処理(ステップS412)を実施する。この処理は、正規化相関法(面積相関法)を利用して行う。正規化相関法は、2枚の画像における同一地点(対応点)の検出のために用いられる手法で、両画像から取り出した小領域の一致の程度を定量的に表すものであり、求めた相関係数の値が大きいほど2つの小領域が一致していることを示唆する。その具体的な手順は次の通りである。まず、マッチング処理部202は、マッチング小領域選定処理(ステップS411)にて選定されたマッチングのための小領域を、発災前画像に重ね合わせる。次に、マッチング処理部202は、正規化相関法により相関係数を下記の式(3)より算出する。以降、マッチング処理部202は、重ね合わせの位置を上下左右に少なくとも1画素ずつ移動させ、それぞれの位置で相関係数を算出して相関係数分布(相関係数マップ)を作成する。
Next, the matching
なお、正規化相関法の相関係数は次式により求められる。 Note that the correlation coefficient of the normalized correlation method is obtained by the following equation.
次に、レジストレーション処理部141の位置ずれ量算出処理部203は、位置ずれ量算出処理(ステップS413)を実施する。この処理は、ペア画像間の位置ずれの程度を画素単位以下の精度で算出する処理である。その具体的な手順は次の通りである。まず、位置ずれ量算出処理部203は、マッチング処理(ステップS412)にて作成された相関係数分布から、相関係数の最大値を抽出する。次に、位置ずれ量算出処理部203は、最大値の両隣の相関係数を抽出する。最後に、位置ずれ量算出処理部203は、抽出した3点を2次多項式(2次関数)に近似し、2次多項式のピーク位置(2次関数の放物線の頂点)を求める。このピーク位置の座標を、発災前画像と発災後画像との位置ずれ量とする。なお、位置ずれ量はX方向(横方向)及びY方向(縦方向)それぞれにおいて算出する。
Next, the misregistration amount
上記のように、マッチング処理部202は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)をメモリ252から読み取り、一方の画像(例えば、発災後画像)にて所定数の画素からなる第1の領域(例えば、マッチング小領域選定処理部201が選定した領域)を1画素以上の単位(好ましくは、1画素単位)で移動し、第1の領域を移動する度に、第1の領域と、他方の画像(例えば、発災前画像)にて第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサ251により算出する。位置ずれ量算出処理部203は、マッチング処理部202が算出した相関係数に基づいて、上記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサ251により推定する。
As described above, the matching
なお、マッチング処理部202は、第1の領域を移動する度に、第1の領域の位置(座標)と、第1の領域と第2の領域との間の相関係数とを対応付けてメモリ252に記憶する。このときメモリ252に記憶されるデータ(第1の領域の位置と相関係数との組み合わせ)が相関係数マップに相当する。位置ずれ量算出処理部203は、第1の領域の位置と相関係数とをメモリ252から読み取り、第1の領域の位置と相関係数との関係を示す近似式をプロセッサ251により算出し、この近似式を用いて、上記2つの画像間の位置ずれ量を1画素未満の単位で推定する。上記のように、例えば、位置ずれ量算出処理部203は、第1の領域にて相関係数の最大値に対応する点のX座標とその左右の点のX座標、及び、それぞれの点に対応する相関係数をメモリ252から読み取り、当該3点のX座標及び対応する相関係数から得られる近似2次曲線を算出する。そして、位置ずれ量算出処理部203は、この近似2次曲線の頂点(相関係数の最大値の近似値に対応する点)のX座標を、横方向における位置ずれ量と推定する。同様に、位置ずれ量算出処理部203は、第1の領域にて相関係数の最大値に対応する点のY座標とその上下の点のY座標、及び、それぞれの点に対応する相関係数をメモリ252から読み取り、当該3点のY座標及び対応する相関係数から得られる近似2次曲線を算出する。そして、位置ずれ量算出処理部203は、この近似2次曲線の頂点(相関係数の最大値の近似値に対応する点)のY座標を、縦方向における位置ずれ量と推定する。このような処理を行うことにより、マッチング処理部202が第1の領域を画素単位で移動しても、位置ずれ量算出処理部203が位置ずれ量を1画素未満の単位で推定できる(例えば、位置ずれ量が縦方向に−0.1画素、横方向に+0.2画素であるといった結果が得られる)。
Note that the
次に、レジストレーション処理部141のリサンプリング処理部204は、リサンプリング処理(ステップS414)を実施する。この処理は、ペア画像のどちらか一方をリサンプリングして、もう片方に位置合わせする処理である。ここでは、発災後画像に対して処理を実施するものとする。その具体的な手順は次の通りである。まず、リサンプリング処理部204は、発災後画像を位置ずれ量算出処理(ステップS413)にて算出された位置ずれ量だけずらした画像を生成する。ここで、サンプリングされていない画素の値は、周囲の値から計算により内挿する。内挿アルゴリズムとしてはNearestNeighborやBilinear、Bicubic、Lanczosなどを利用することができる。なお、位置ずれ量算出処理(ステップS413)にて位置ずれ量は1画素未満の単位で推定されるものの、推定された位置ずれ量が1画素の整数倍(例えば、+2.0画素)となることもある。この場合には、位置ずれ量だけずらした画像の各画素は既にサンプリングされているため、画素値の内挿処理は必要ない。一方、推定された位置ずれ量が1画素の小数倍(例えば、+0.2画素)となった場合、即ち、推定された位置ずれ量の単位が1画素未満であった場合には、位置ずれ量だけずらした画像の各画素は未だサンプリングされていないものとなるため、上記のような画素値の内挿処理が必要となる。
Next, the
最後に、レジストレーション処理部141は、位置合わせした発災前画像と発災後画像とを、同じ大きさに切り出して出力する。
Finally, the
以下では、画像処理装置104の変化抽出処理部142の動作、即ち、変化抽出処理について、内容を説明する。処理の概要を示すフローチャートを図5に示す。図5に示す通り、変化抽出処理部142は、レジストレーション済みペア画像をメモリ252から読み取って入力した後、特徴量算出処理(ステップS421)をプロセッサ251により実施する。そして、変化抽出処理部142は、得られた特徴量を比較して変化の有無をプロセッサ251により判定し、変化抽出画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。
Hereinafter, the contents of the operation of the change
まず、変化抽出処理部142の特徴量算出処理部205は、特徴量算出処理(ステップS421)を実施する。この処理はペア画像の両方に対して行う。なお、様々な特徴量が考えられるが、ここでは分散値とエッジ量と相関係数を特徴量と呼ぶことにする。その具体的な手順は次の通りである。まず、特徴量算出処理部205は、ペア画像をそれぞれN×Nの小領域に分割する。次に、特徴量算出処理部205は、それぞれ分割した小領域内で分散値及びエッジ量を前述した式(1)式及び式(2)より算出する。次に、特徴量算出処理部205は、ペア画像間で同じ位置の小領域の相関係数を前述した式(3)より算出する。
First, the feature amount
次に、変化抽出処理部142は、特徴量を比較する。この処理は、ペア画像から得られた特徴量を比較して、変化の有無を判定する処理である。その具体的な手順は次の通りである。まず、変化抽出処理部142は、ペア画像の同じ小領域における分散値の差と、エッジ量の差と、相関係数とを、それぞれの閾値と比較する。それぞれの閾値は予めメモリ252に記憶されており、変化抽出処理部142によって読み出されるものとする。次に、変化抽出処理部142は、比較した結果全てが閾値以上の場合にその小領域を変化ありと判断し、そうでない場合は変化なしとする。以降、変化抽出処理部142は、全ての小領域について変化の有無を判定する。
Next, the change
最後に、変化抽出処理部142は、変化の有無を画像化し、変化抽出画像を作成する。なお、様々な画像化の方法が考えられるが、変化の有無を2値化して表示する方法や、変化の大きさに応じて色分けして表示する方法などがある。
Finally, the change
なお、以上で説明した変化抽出処理は、前述したレジストレーション処理が高い精度で実施されていることが前提となっているが、そうでない場合も考慮して次のような工夫をしてもよい。図5のフローチャートにおいて、マッチング処理(ステップS412)と特徴量算出処理(ステップS421)とを、特徴量比較の直前に追加する。追加したマッチング処理(ステップS412)では、変化抽出処理部142は、前述した方法で相関係数分布を作成する。追加した特徴量算出処理(ステップS421)では、変化抽出処理部142は、得られた相関係数分布の中から最も相関が高い小領域において、発災前画像の特徴量を算出する。このようにすることで、レジストレーション処理が高い精度で実施されていない場合においても、位置ずれの影響を抑制することができる。
The change extraction process described above is based on the premise that the above-described registration process is performed with high accuracy. However, the following device may be used in consideration of other cases. . In the flowchart of FIG. 5, a matching process (step S412) and a feature amount calculation process (step S421) are added immediately before the feature amount comparison. In the added matching process (step S412), the change
上記のように、変化抽出処理部142は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)のうち、一方の画像を位置ずれ量算出処理部203が推定した位置ずれ量ずらした画像と他方の画像と(レジストレーション済みペア画像)の特徴量をプロセッサ251により比較し、当該比較結果に基づいて、上記2つの画像間の変化を抽出する。
As described above, the change
以下では、画像処理装置104の雲抽出処理部143の動作、即ち、雲抽出処理について、内容を説明する。処理の概要を示すフローチャートを図6に示す。図6に示す通り、雲抽出処理部143は、レジストレーション済みペア画像をメモリ252から読み取って入力した後、移動ベクトル抽出処理(ステップS431)、移動量算出処理(ステップS432)、品質指標算出処理(ステップS433)をプロセッサ251により実施する。そして、雲抽出処理部143は、得られた品質指標と移動量とを判断材料として画像中の対象物が雲であるか否かをプロセッサ251により判定し、雲抽出画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。
The contents of the operation of the cloud
まず、雲抽出処理部143の移動ベクトル抽出処理部206は、移動ベクトル抽出処理(ステップS431)を実施する。この処理は、ペア画像から雲の移動ベクトルを抽出する処理である。その具体的な手順は次の通りである。まず、移動ベクトル抽出処理部206は、発災後画像をN×Nの小領域に分割する。次に、移動ベクトル抽出処理部206は、前述したマッチング処理(ステップS412)と同様に、それぞれの小領域と発災前画像とのマッチングを前述した式(3)の正規化相関法により行い、相関係数分布を作成する。次に、移動ベクトル抽出処理部206は、それぞれの相関係数分布から相関係数が最大となる位置を抽出する。最後に、移動ベクトル抽出処理部206は、それぞれの相関係数分布から抽出した位置、即ち、それぞれの小領域についてマッチングを行った際の相関係数が最大値となる位置の発災前画像におけるXY座標(始点)と発災後画像におけるXY座標(終点)とを求め、画像中の物体の移動ベクトルとする。
First, the movement vector
次に、雲抽出処理部143の移動量処理部207は、移動量算出処理(ステップS432)を実施する。この処理は、前述した移動ベクトル抽出処理(ステップS431)により得られた移動ベクトルの大きさを算出する処理である。その具体的な手順として、移動量処理部207は、移動ベクトルの始点から終点までのユークリッド距離を求め、移動ベクトルの大きさとする。
Next, the movement
次に、雲抽出処理部143の品質指標算出処理部208は、品質指標算出処理(ステップS433)を実施する。この処理は、前述した移動ベクトル抽出処理(ステップS431)により得られた移動ベクトルの、品質の良し悪しを判断するための指標を算出する処理である。なお、様々な品質指標が考えられるが、ここでは分散値とエッジ量と相関係数を品質指標とすることにする。その具体的な手順は次の通りである。まず、品質指標算出処理部208は、発災後画像をN×Nの小領域に分割する。次に、品質指標算出処理部208は、それぞれの小領域内で分散値及びエッジ量を前述した式(1)及び式(2)より算出する。最後に、品質指標算出処理部208は、前述したマッチング処理(ステップS412)と同様に、それぞれの小領域と発災前画像とのマッチングを前述した式(3)の正規化相関法により行い、相関係数分布より最大値を抽出する。なお、品質指標算出処理部208は、移動ベクトル抽出処理(ステップS431)で作成された相関係数分布を利用して、それぞれの相関係数分布より最大値を抽出してもよいし、移動ベクトル抽出処理(ステップS431)でそれぞれの相関係数分布から抽出された相関係数の最大値をそのまま利用してもよい。
Next, the quality index
次に、雲抽出処理部143は、品質指標と移動量とを判断材料として、雲であるか否かを判定する。その具体的な手順は次の通りである。まず、雲抽出処理部143は、1つの小領域における品質指標(分散値、エッジ量、相関係数)を、それぞれの閾値と比較する。それぞれの閾値は予めメモリ252に記憶されており、雲抽出処理部143によって読み出されるものとする。次に、雲抽出処理部143は、比較した結果全てが閾値以上の場合に、移動量と閾値とを比較する。次に、雲抽出処理部143は、比較した移動量が閾値以上の場合に、その小領域を雲であると判断する。以降、雲抽出処理部143は、全ての小領域について雲の判定をする。このように、品質指標となる属性が一定の閾値以上である小領域のみについて雲の判定をすることで、判定の誤りの発生率を抑えることができる。また、地表面の画像において雲以外に移動するものはないことが想定されるため、移動量が一定の閾値以上である小領域のみを雲と判定することで、さらに、判定の誤りの発生率を抑えることができる。
Next, the cloud
最後に、雲抽出処理部143は、それぞれの小領域が雲であるか否かを画像化し、雲抽出画像を作成する。なお、様々な画像化の方法が考えられるが、雲の有無を2値化して表示する方法や、雲であることの確からしさに応じて色分けして表示する方法などがある。
Finally, the cloud
上記のように、雲抽出処理部143は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)のうち、一方の画像を位置ずれ量算出処理部203が推定した位置ずれ量ずらした画像と他方の画像と(レジストレーション済みペア画像)で異なる位置に映っている物体(例えば、発災前画像及び発災後画像の間でマッチングをした際に相関係数が最大値となる小領域)をプロセッサ251により推定し、上記異なる位置の間の距離(移動量)が所定の閾値以上である場合、その物体が雲であると判断する。
As described above, in the cloud
以下では、画像処理装置104のテクスチャ分類処理部144の動作、即ち、テクスチャ分類処理について、内容を説明する。処理の概要を示すフローチャートを図7に示す。図7に示す通り、テクスチャ分類処理部144は、レジストレーション済み画像をメモリ252から読み取って入力した後、NDVI算出処理(ステップS441)、HSI変換処理(ステップS442)をプロセッサ251により実施する。そして、テクスチャ分類処理部144は、得られたNDVI値とHSI値とを判断材料としてテクスチャ(植物、水域、陸地、山肌、雲)をプロセッサ251により分類し、テクスチャ分類画像をメモリ252に記憶するとともに、出力装置254により出力する。詳細を以下に示す。
Hereinafter, the contents of the operation of the texture
まず、テクスチャ分類処理部144のNDVI算出処理部209は、NDVI算出処理(ステップS441)を実施する。この処理は、植物の緑葉は青領域と赤領域の波長を吸収し近赤外線領域の波長を強く反射するという特徴を活かし、植生指標を算出する処理である。その具体的な手順として、NDVI算出処理部209は、下記の式(4)よりNDVI値を算出する。
First, the NDVI
NDVI値は次式で求められる。 The NDVI value is obtained by the following equation.
次に、テクスチャ分類処理部144のHSI変換処理部210は、HSI変換処理(ステップS442)を実施する。この処理は、RGB(Red・Green・Blue)の輝度値を持つ画像を顕色系のHSI空間に変換し、色相(Hue)と彩度(Saturation)と明度(Intensity)とを算出する処理である。その具体的な手順として、HSI変換処理部210は、下記の式(5)及び式(6)より明度及び彩度を算出する。なお、色相については後続の処理で使用しないため、ここでは算出しない。
Next, the HSI
HSI変換における明度及び彩度はそれぞれ次式で求められる。 The brightness and saturation in the HSI conversion can be obtained by the following equations, respectively.
次に、テクスチャ分類処理部144は、画素をテクスチャに分類する。この処理は、得られたNDVI値とHSI値とを判断材料として、植物及び水域及び陸地及び山肌及び雲のいずれかに分類する処理である。その具体的な手順は次の通りである。まず、テクスチャ分類処理部144は、NDVI値を閾値と比較し、結果が閾値以上の場合にその画素を植物に分類する。次に、テクスチャ分類処理部144は、その画素が植物に分類されなかった場合に、NDVI値を閾値と比較し、結果が閾値未満の場合にその画素を水域に分類する。次に、テクスチャ分類処理部144は、その画素が水域に分類されなかった場合に、赤波長の値を閾値と比較し、結果が閾値未満の場合にその画素を陸地に分類する。次に、テクスチャ分類処理部144は、その画素が陸地に分類されなかった場合に、S値とI値をそれぞれの閾値と比較し、S値が閾値以上かつI値が閾値未満の場合にその画素を山肌に分類する。最後に、テクスチャ分類処理部144は、山肌に分類されなかった画素を雲に分類する。以降、テクスチャ分類処理部144は、全ての画素について植物又は水域又は陸地又は山肌又は雲に分類する。それぞれの閾値は予めメモリ252に記憶されており、テクスチャ分類処理部144によって読み出されるものとする。
Next, the texture
最後に、テクスチャ分類処理部144は、分類結果を画像化し、テクスチャ分類画像を作成する。なお、様々な画像化の方法が考えられるが、分類に応じて色分けして表示する方法や、分類に応じて異なる模様を表示する方法などがある。
Finally, the texture
上記のように、テクスチャ分類処理部144は、異なる時刻に撮影された2つの画像(例えば、発災前画像及び発災後画像)のうち、一方の画像を位置ずれ量算出処理部203が推定した位置ずれ量ずらした画像と他方の画像と(レジストレーション済みペア画像)の少なくともいずれかの各画素の赤波長値とNDVI値とS値とI値とをプロセッサ251により算出し、各画素の赤波長値とNDVI値とS値とI値とに基づいて、各画素が植物と水域と陸地と山肌と雲とのいずれであるか判断する。
As described above, the texture
以下、本実施の形態が奏する効果を説明する。 Hereinafter, the effect which this embodiment has will be described.
本実施の形態によれば、変化抽出システム100の画像処理装置104が、ペア画像のレジストレーション処理を実施するレジストレーション処理部141を具備しているため、撮像された位置にずれがあるペア画像間でも変化抽出が可能である。したがって、事前にペア画像のレジストレーションを行っておくといった、人手による作業が不要となる効果が得られる。
According to the present embodiment, since the
さらに、本実施の形態によれば、画像処理装置104が具備する変化抽出処理部142が、変化抽出のための特徴量として、分散値とエッジ量と相関係数を用いているため、ペア画像の間で季節や時刻といった時期的な撮像条件が異なる場合においても、それに大きく影響されることなく変化抽出が可能である。したがって、事前にどちらか一方の画像をもう一方の画像の撮像条件に合わせるような補正をするといった、人手による作業が不要となる効果が得られる。
Furthermore, according to the present embodiment, since the change
さらに、本実施の形態によれば、画像処理装置104が、画像から雲の抽出処理を実施する雲抽出処理部143を具備しているため、雲を含む画像でもそれに大きく影響されることなく変化抽出が可能である。したがって、変化抽出後にその変化の原因が雲の移動によるものであるか否かを人間が判読するといった、人手による作業が不要となる効果が得られる。
Furthermore, according to the present embodiment, since the
さらに、本実施の形態によれば、画像処理装置104が、テクスチャの分類処理を実施するテクスチャ分類処理部144を具備しているため、自動的にテクスチャの分類をすることが可能である。したがって、変化抽出後にその変化が発生した場所がどのようなところなのかを人間が判読するといった、人手による作業が不要となる効果が得られる。
Furthermore, according to the present embodiment, since the
100 変化抽出システム、101 静止光学衛星、102 衛星画像受信センタ、103 衛星画像データベース、104 画像処理装置、105 端末装置、106 ネットワーク、141 レジストレーション処理部、142 変化抽出処理部、143 雲抽出処理部、144 テクスチャ分類処理部、201 マッチング小領域選定処理部、202 マッチング処理部、203 位置ずれ量算出処理部、204 リサンプリング処理部、205 特徴量算出処理部、206 移動ベクトル抽出処理部、207 移動量処理部、208 品質指標算出処理部、209 NDVI算出処理部、210 HSI変換処理部、251 プロセッサ、252 メモリ、253 入力装置、254 出力装置、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 オペレーティングシステム、922 ウィンドウシステム、923 プログラム群、924 ファイル群。 DESCRIPTION OF SYMBOLS 100 Change extraction system, 101 Geostationary optical satellite, 102 Satellite image receiving center, 103 Satellite image database, 104 Image processing apparatus, 105 Terminal apparatus, 106 Network, 141 Registration processing part, 142 Change extraction processing part, 143 Cloud extraction processing part , 144 texture classification processing unit, 201 matching small region selection processing unit, 202 matching processing unit, 203 misregistration amount calculation processing unit, 204 resampling processing unit, 205 feature amount calculation processing unit, 206 movement vector extraction processing unit, 207 movement Quantity processing unit, 208 quality index calculation processing unit, 209 NDVI calculation processing unit, 210 HSI conversion processing unit, 251 processor, 252 memory, 253 input device, 254 output device, 901 display device, 902 keyboard, 903 mouse , 904 FDD, 905 CDD, 906 Printer device, 911 CPU, 912 Bus, 913 ROM, 914 RAM, 915 communication board, 920 a magnetic disk device, 921 operating system, 922 Window system, 923 Program group, 924 File group.
Claims (8)
前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出するマッチング処理部と、
前記マッチング処理部が算出した相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する位置ずれ量算出処理部とを備えることを特徴とする画像処理装置。 An image processing apparatus for storing two images taken at different times in a memory in advance,
Each time the two images are read from the memory, a first region of a predetermined number of pixels is moved by one pixel or more in one image, and the first region is moved, the first region And a matching processing unit that calculates a correlation coefficient between the second region in the same position as the first region in the other image by a processor,
A positional deviation amount calculation processing unit that estimates a positional deviation amount between the two images by a processor in units of less than one pixel based on the correlation coefficient calculated by the matching processing unit; apparatus.
前記位置ずれ量算出処理部は、前記第1の領域の位置と前記相関係数とをメモリから読み取り、前記第1の領域の位置と前記相関係数との関係を示す近似式をプロセッサにより算出し、前記近似式を用いて、前記2つの画像間の位置ずれ量を1画素未満の単位で推定することを特徴とする請求項1に記載の画像処理装置。 Each time the matching processing unit moves the first area, the position of the first area and the correlation coefficient between the first area and the second area are associated with each other and stored in the memory. Remember
The positional deviation amount calculation processing unit reads the position of the first region and the correlation coefficient from a memory, and calculates an approximate expression indicating the relationship between the position of the first region and the correlation coefficient by a processor. The image processing apparatus according to claim 1, wherein an amount of positional deviation between the two images is estimated in units of less than one pixel using the approximate expression.
前記一方の画像を所定数の画素からなる複数の領域に分割し、各領域における画素値の分散とエッジ量との少なくともいずれかに基づいて、前記第1の領域を選定するマッチング小領域選定処理部を備えることを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus further includes:
A matching small region selection process in which the one image is divided into a plurality of regions each including a predetermined number of pixels, and the first region is selected based on at least one of pixel value dispersion and edge amount in each region. The image processing apparatus according to claim 1, further comprising a unit.
前記一方の画像を前記位置ずれ量算出処理部が推定した位置ずれ量ずらした画像と前記他方の画像との特徴量をプロセッサにより比較し、当該比較結果に基づいて、前記2つの画像間の変化を抽出する変化抽出処理部を備えることを特徴とする請求項1から3までのいずれかに記載の画像処理装置。 The image processing apparatus further includes:
The processor compares a feature amount between the image obtained by shifting the positional deviation amount estimated by the positional deviation amount calculation processing unit with respect to the one image and the other image, and changes between the two images based on the comparison result. The image processing apparatus according to claim 1, further comprising: a change extraction processing unit that extracts the image.
前記画像処理装置は、さらに、
前記一方の画像を前記位置ずれ量算出処理部が推定した位置ずれ量ずらした画像と前記他方の画像とで異なる位置に映っている物体をプロセッサにより推定し、前記異なる位置の間の距離が所定の閾値以上である場合、前記物体が雲であると判断する雲抽出処理部を備えることを特徴とする請求項1から4までのいずれかに記載の画像処理装置。 The two images are images of the ground surface taken from above,
The image processing apparatus further includes:
The processor estimates an object appearing at a different position between the image obtained by shifting the displacement amount estimated by the displacement amount calculation processing unit and the other image from the one image, and a distance between the different positions is predetermined. 5. The image processing apparatus according to claim 1, further comprising a cloud extraction processing unit that determines that the object is a cloud when the threshold is equal to or greater than a threshold value.
前記画像処理装置は、さらに、
前記一方の画像を前記位置ずれ量算出処理部が推定した位置ずれ量ずらした画像と前記他方の画像との少なくともいずれかの各画素の赤波長値とNDVI(Normalized・Difference・Vegetation・Index)値とS(Saturation)値とI(Intensity)値とをプロセッサにより算出し、各画素の赤波長値とNDVI値とS値とI値とに基づいて、各画素が植物と水域と陸地と山肌と雲とのいずれであるか判断するテクスチャ分類処理部を備えることを特徴とする請求項1から5までのいずれかに記載の画像処理装置。 The two images are images of the ground surface taken from above,
The image processing apparatus further includes:
A red wavelength value and an NDVI (Normalized / Difference / Vegetation / Index) value of each pixel of at least one of the image obtained by shifting the position shift amount estimated by the position shift amount calculation processing unit and the other image. And S (Saturation) value and I (Intensity) value are calculated by the processor, and based on the red wavelength value, NDVI value, S value and I value of each pixel, each pixel has a plant, water area, land and mountain surface. The image processing apparatus according to claim 1, further comprising a texture classification processing unit that determines whether the image is a cloud.
前記画像処理装置のマッチング処理部が、前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出する第1ステップと、
前記画像処理装置の位置ずれ量算出処理部が、前記第1ステップで算出された相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する第2ステップとを備えることを特徴とする画像処理方法。 An image processing method using an image processing apparatus that stores two images taken at different times in a memory in advance,
The matching processing unit of the image processing apparatus reads the two images from the memory, moves a first area including a predetermined number of pixels in one image in units of one pixel or more, and moves the first area to the first area. A first step of calculating by a processor a correlation coefficient between the first region and a second region at the same position as the first region in the other image each time it moves;
A second unit for estimating a positional shift amount between the two images by a processor in units of less than one pixel based on the correlation coefficient calculated in the first step; And an image processing method.
前記2つの画像をメモリから読み取り、一方の画像にて所定数の画素からなる第1の領域を1画素以上の単位で移動し、前記第1の領域を移動する度に、前記第1の領域と、他方の画像にて前記第1の領域と同じ位置にある第2の領域との間の相関係数をプロセッサにより算出するマッチング処理と、
前記マッチング処理が算出した相関係数に基づいて、前記2つの画像間の位置ずれ量を1画素未満の単位でプロセッサにより推定する位置ずれ量算出処理とをコンピュータに実行させることを特徴とする画像処理プログラム。 An image processing program that is executed by a computer that stores two images taken at different times in a memory in advance,
Each time the two images are read from the memory, a first region of a predetermined number of pixels is moved by one pixel or more in one image, and the first region is moved, the first region And a matching process in which a processor calculates a correlation coefficient between the second image in the same position as the first region in the other image,
An image that causes a computer to execute a positional deviation amount calculation process in which a processor estimates a positional deviation amount between the two images in units of less than one pixel based on the correlation coefficient calculated by the matching process. Processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008150058A JP2009295062A (en) | 2008-06-09 | 2008-06-09 | Image processing apparatus, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008150058A JP2009295062A (en) | 2008-06-09 | 2008-06-09 | Image processing apparatus, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009295062A true JP2009295062A (en) | 2009-12-17 |
Family
ID=41543164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008150058A Pending JP2009295062A (en) | 2008-06-09 | 2008-06-09 | Image processing apparatus, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009295062A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012190935A (en) * | 2011-03-09 | 2012-10-04 | Asahi Kasei Electronics Co Ltd | Chip position specification system, chip position specification device, chip position specification program, and chip position specification method |
US10002339B2 (en) | 2013-07-11 | 2018-06-19 | Fluor Technologies Corporation | Post-disaster assessment systems and methods |
-
2008
- 2008-06-09 JP JP2008150058A patent/JP2009295062A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012190935A (en) * | 2011-03-09 | 2012-10-04 | Asahi Kasei Electronics Co Ltd | Chip position specification system, chip position specification device, chip position specification program, and chip position specification method |
US10002339B2 (en) | 2013-07-11 | 2018-06-19 | Fluor Technologies Corporation | Post-disaster assessment systems and methods |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021000702A1 (en) | Image detection method, device, and system | |
US10885365B2 (en) | Method and apparatus for detecting object keypoint, and electronic device | |
KR102607517B1 (en) | Generate composite images from 3D point clouds | |
US9305399B2 (en) | Apparatus and method for displaying objects | |
CN108230281B (en) | Remote sensing image processing method and device and electronic equipment | |
JP7449869B2 (en) | Automatic analysis of descriptive rock slice images using advanced machine learning techniques | |
US20110235939A1 (en) | System and Method for Enhancing Registered Images Using Edge Overlays | |
CN110032964B (en) | Image processing method, device, equipment and storage medium for identifying visual angle | |
JP7135473B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, PROGRAM AND MEDICAL IMAGE PROCESSING SYSTEM | |
US20190347468A1 (en) | 3d image detection method and apparatus, electronic device, and computer readable medium | |
US10733777B2 (en) | Annotation generation for an image network | |
EP3633606B1 (en) | Information processing device, information processing method, and program | |
US11157735B2 (en) | Cloud detection in aerial imagery | |
CN109743566B (en) | Method and equipment for identifying VR video format | |
CN114627173A (en) | Data enhancement for object detection by differential neural rendering | |
CN113688658B (en) | Object identification method, device, equipment and medium | |
CN111369557A (en) | Image processing method, image processing device, computing equipment and storage medium | |
Waldner et al. | Local adjustments of image spatial resolution to optimize large-area mapping in the era of big data | |
JP2009295062A (en) | Image processing apparatus, image processing method and image processing program | |
CN113689412A (en) | Thyroid image processing method and device, electronic equipment and storage medium | |
CN112329649A (en) | Urban vegetation type identification method, system, equipment and medium | |
CN115861922B (en) | Sparse smoke detection method and device, computer equipment and storage medium | |
Hashim et al. | Geometric and radiometric evaluation of RazakSAT medium-sized aperture camera data | |
CN114913064B (en) | Large parallax image splicing method and device based on structure maintenance and many-to-many matching | |
JP2007199865A (en) | Image processing algorithm evaluation apparatus, image processing algorithm creation apparatus, image inspection apparatus, method for evaluating image processing algorithm, method for creating image processing algorithm, and method for inspecting image |