JP5919963B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5919963B2
JP5919963B2 JP2012083178A JP2012083178A JP5919963B2 JP 5919963 B2 JP5919963 B2 JP 5919963B2 JP 2012083178 A JP2012083178 A JP 2012083178A JP 2012083178 A JP2012083178 A JP 2012083178A JP 5919963 B2 JP5919963 B2 JP 5919963B2
Authority
JP
Japan
Prior art keywords
image
feature
matrix
feature point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012083178A
Other languages
Japanese (ja)
Other versions
JP2013214155A (en
Inventor
和美 土井
和美 土井
吉田 昇平
昇平 吉田
阿部 大輔
大輔 阿部
内藤 宏久
宏久 内藤
あきら 宮崎
あきら 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012083178A priority Critical patent/JP5919963B2/en
Publication of JP2013214155A publication Critical patent/JP2013214155A/en
Application granted granted Critical
Publication of JP5919963B2 publication Critical patent/JP5919963B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

従来、同一の地点を異なる時期に撮影して得られた複数の画像を比較し照合するための技術が用いられている。例えば、空中写真画像を用いた処理として、旧撮影空中写真画像と新撮影空中写真画像とを照合して、各画像から特徴点を抽出する。各画像の特徴点のうち、対応する特徴点を特徴点ペアとして抽出する。そして、特徴点ペアを構成する二つの特徴点を対応づけて、二つの画像の位置合わせを行う。位置合わせ後、両画像を比較することで、前の撮像時点から後の撮像時点までの間に撮像対象地点に生じた変化を、差分として抽出することができる。   Conventionally, a technique for comparing and collating a plurality of images obtained by photographing the same point at different times has been used. For example, as processing using an aerial photograph image, the old photographed aerial photograph image and the new photographed aerial photograph image are collated, and feature points are extracted from each image. Among the feature points of each image, corresponding feature points are extracted as feature point pairs. Then, the two feature points constituting the feature point pair are associated with each other, and the two images are aligned. By comparing both images after alignment, a change occurring at the imaging target point from the previous imaging time point to the subsequent imaging time point can be extracted as a difference.

特徴点ペアの抽出においては、たとえば、二つの画像から抽出された特徴点それぞれについて、画像特徴と傾き方向を算出する。算出した画像特徴や傾き方向に基づいて特徴点間の類似度を計算し、類似度の高い特徴点をペアとして抽出する。   In the feature point pair extraction, for example, an image feature and a tilt direction are calculated for each feature point extracted from two images. The similarity between feature points is calculated based on the calculated image feature and tilt direction, and feature points with high similarity are extracted as a pair.

また、撮影日時の異なる複数の航空写真などから、その土地の利用状況の時間的変化を高速に把握するための画像解析装置も提案されている。この画像解析装置では、複数の画像情報を微分処理して輪郭線画像を取得する。そして、取得した画像からフーリエ変換画像を生成して、各画素値の差分の総計が最小になる回転角度を求める。求めた回転角度で一つの画像を回転させた後、縦横方向の各画素値の差分の総計が最小となる平行移動量を求める。求めた移動量で一つの画像を移動させることで、二つの画像の位置合わせをおこなう。位置合わせ後の二つの画像の差分を求めて差分画像を生成する。   In addition, an image analysis apparatus has also been proposed for quickly grasping temporal changes in land use status from a plurality of aerial photographs having different shooting dates and times. In this image analysis apparatus, a plurality of pieces of image information are differentiated to obtain a contour image. Then, a Fourier transform image is generated from the acquired image, and the rotation angle at which the total difference of the pixel values is minimized is obtained. After rotating one image at the obtained rotation angle, a translation amount that minimizes the sum of differences between the vertical and horizontal pixel values is obtained. The two images are aligned by moving one image by the obtained movement amount. A difference image is generated by obtaining a difference between the two images after alignment.

さらに、異なる撮影位置、照明条件、角度、縮尺で撮影された複数画像から変化を抽出するための変化抽出装置および方法も提案されている。この方法では、画像それぞれからフットプリント情報を抽出して比較することで、変化を抽出する。フットプリント情報とは、幾何特徴(輪郭や内部の領域情報等)、画像特徴(色彩又はエッジ特徴等)、空間特徴(地物の空間位置情報、隣接地物間の位置関係等)のいずれか、またはその組合せである。   Furthermore, a change extraction apparatus and method for extracting changes from a plurality of images taken at different shooting positions, illumination conditions, angles, and scales have been proposed. In this method, changes are extracted by extracting and comparing footprint information from each image. Footprint information is any one of geometric features (such as contours and internal area information), image features (color or edge features, etc.), and spatial features (spatial location information of features, positional relationships between adjacent features, etc.) Or a combination thereof.

特開2005−173128号公報JP-A-2005-173128 特開2000−76423号公報JP 2000-76423 A 特開2006−65429号公報JP 2006-65429 A

しかしながら、従来手法を用いて二つの画像を比較照合する場合、二つの画像内のずれ等に起因して、二つの画像から差分が誤検出されてしまう場合がある。たとえば、二つの画像が異なる撮影角度または撮影方向から撮影された場合、同一の対象物であっても見え方が異なる場合がある。また、二つの画像のそれぞれが、画像内にずれを生じており、そのずれが異なる部分で生じている場合等は、二つの画像を比較照合して、模様や輝度、色差等の違いに基づいて差分を抽出すると、誤検出が発生することがある。このように、従来の技術を用いて、模様や輝度、色差の違い等に基づいて差分を検出した場合に、差分の誤検出が発生していた。   However, when two images are compared and collated using the conventional method, a difference may be erroneously detected from the two images due to a shift or the like in the two images. For example, when two images are taken from different shooting angles or shooting directions, even the same object may be seen differently. In addition, when each of the two images has a shift in the image and the shift is generated in a different part, the two images are compared and collated, based on differences in pattern, brightness, color difference, etc. If the difference is extracted, erroneous detection may occur. As described above, when the difference is detected based on the difference in the pattern, the brightness, the color difference, or the like using the conventional technique, the difference is erroneously detected.

開示の技術は、上記に鑑みてなされたものであって、二つの画像の差分の誤検出を抑制することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The disclosed technology has been made in view of the above, and an object thereof is to provide an image processing device, an image processing method, and an image processing program capable of suppressing erroneous detection of a difference between two images.

上述した課題を解決し、目的を達成するために、開示の技術は、第1の画像および第2の画像の各々から特徴点を抽出する。さらに、前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて第1の方向を決定する。また、当該第1の方向に基づいて第2の方向を決定する。そして、第1の方向および第2の方向それぞれを軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスを作成する。楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけて特徴量マトリクスを作成する。そして、前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する。特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する。   In order to solve the above-described problems and achieve the object, the disclosed technique extracts feature points from each of the first image and the second image. Further, for each feature point of the first and second images, a first direction is determined based on the feature point. Further, the second direction is determined based on the first direction. Then, an elliptical matrix having the first direction and the second direction as axes and centering on the feature points is created. A feature amount matrix is created by associating each area of the elliptical matrix with information regarding the difference between the luminance value of the pixel in the area and the luminance value of the feature point. Then, the feature quantity matrix of the feature points of the first image and the feature quantity matrix of the feature points of the second image are compared to determine similar feature point pairs. Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. The difference is detected based on the second image.

開示の画像処理装置、画像処理方法および画像処理プログラムは、二つの画像の差分の誤検出を抑制することができるという効果を奏する。   The disclosed image processing apparatus, image processing method, and image processing program have an effect of suppressing erroneous detection of a difference between two images.

図1は、実施例1に係る画像処理サーバの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of the image processing server according to the first embodiment. 図2は、画像記憶部に記憶される画像情報の一例を示す図である。FIG. 2 is a diagram illustrating an example of image information stored in the image storage unit. 図3は、特徴点記憶部に記憶される特徴点情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of feature point information stored in the feature point storage unit. 図4は、第1マトリクス記憶部に記憶される特徴量マトリクス情報の構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of the configuration of the feature amount matrix information stored in the first matrix storage unit. 図5は、第2マトリクス記憶部に記憶される特徴量マトリクス情報の構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of a configuration of feature amount matrix information stored in the second matrix storage unit. 図6は、特徴量マトリクスの構成の一例について説明するための図である。FIG. 6 is a diagram for explaining an example of the configuration of the feature amount matrix. 図7は、ペア記憶部に記憶される特徴点ペア情報の一例を示す図である。FIG. 7 is a diagram illustrating an example of feature point pair information stored in the pair storage unit. 図8は、回転角記憶部に記憶される情報の構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a configuration of information stored in the rotation angle storage unit. 図9は、拡大縮小率記憶部に記憶される情報の構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of a configuration of information stored in the enlargement / reduction ratio storage unit. 図10は、差分記憶部に記憶される情報の構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a configuration of information stored in the difference storage unit. 図11は、実施例1に係る画像処理サーバによる画像処理の処理手順を示すフローチャートである。FIG. 11 is a flowchart illustrating a processing procedure of image processing performed by the image processing server according to the first embodiment. 図12は、特徴量マトリクスの作成処理の一例を説明するための図である。FIG. 12 is a diagram for explaining an example of a feature amount matrix creation process. 図13−1は、特徴量マトリクスの作成処理において、注目点から最も近い特徴点を利用することを説明するための図である。FIG. 13A is a diagram for explaining that the feature point closest to the attention point is used in the feature amount matrix creation process. 図13−2は、特徴量マトリクスの作成処理において、注目点から最も近い特徴点を利用することを説明するための他の図である。FIG. 13B is another diagram for explaining the use of the feature point closest to the attention point in the feature quantity matrix creation process. 図13−3は、特徴量マトリクスの作成処理において、注目点から最も近い特徴点を利用することを説明するためのさらに他の図である。FIG. 13C is still another diagram for explaining the use of the feature point closest to the attention point in the feature amount matrix creation process. 図14は、特徴量マトリクスの拡大縮小処理を説明するための図である。FIG. 14 is a diagram for explaining the feature quantity matrix enlargement / reduction processing. 図15は、拡大縮小率での縮小率についてさらに説明するための図である。FIG. 15 is a diagram for further explaining the reduction ratio in the enlargement / reduction ratio. 図16−1は、拡大縮小処理での拡大率について説明するための図である。FIG. 16A is a diagram for explaining an enlargement rate in enlargement / reduction processing. 図16−2は、拡大縮小処理での拡大率について説明するための他の図である。FIG. 16B is another diagram for explaining the enlargement ratio in the enlargement / reduction process. 図17−1は、特徴量マトリクスの回転処理について説明するための図である。FIG. 17A is a diagram for explaining the rotation processing of the feature amount matrix. 図17−2は、特徴量マトリクスの回転処理について説明するための他の図である。FIG. 17B is another diagram for explaining the rotation process of the feature amount matrix. 図17−3は、特徴量マトリクスの回転処理について説明するためのさらに他の図である。FIG. 17C is still another diagram for explaining the rotation processing of the feature amount matrix. 図18−1は、角度変化範囲の決定手法について説明するための図である。FIG. 18A is a diagram for explaining a method of determining an angle change range. 図18−2は、角度変化範囲の決定手法について説明するための他の図である。FIG. 18-2 is another diagram for explaining the method of determining the angle change range. 図18−3は、角度変化範囲の決定手法について説明するためのさらに他の図である。FIG. 18C is still another diagram for explaining a method of determining the angle change range. 図18−4は、角度変化範囲の決定手法について説明するためのさらに他の図である。FIG. 18D is still another diagram for explaining a method of determining the angle change range. 図18−5は、角度変化範囲の決定手法について説明するためのさらに他の図である。FIG. 18-5 is still another diagram for explaining the method of determining the angle change range. 図18−6は、角度変化範囲の決定手法について説明するためのさらに他の図である。FIG. 18-6 is still another diagram for explaining a method of determining the angle change range. 図18−7は、角度変化範囲の一例を示す図である。FIG. 18-7 is a diagram illustrating an example of the angle change range. 図19−1は、回転処理を経た特徴量マトリクスの作成処理について説明するための図である。FIG. 19A is a diagram for explaining a feature amount matrix creation process that has undergone a rotation process. 図19−2は、回転処理を経た特徴量マトリクスの作成処理について説明するための他の図である。FIG. 19B is another diagram for explaining the feature matrix creation processing that has undergone the rotation processing. 図19−3は、回転処理を経た特徴量マトリクスの作成処理について説明するためのさらに他の図である。FIG. 19C is still another diagram for explaining a feature amount matrix creation process that has undergone a rotation process. 図19−4は、回転処理を経た特徴量マトリクスの作成処理について説明するためのさらに他の図である。FIG. 19-4 is still another diagram for explaining the feature matrix creation processing that has undergone the rotation processing. 図19−5は、回転処理を経た特徴量マトリクスの作成処理について説明するためのさらに他の図である。FIG. 19-5 is still another diagram for explaining the feature amount matrix creation processing that has undergone the rotation processing. 図19−6は、回転処理を経た特徴量マトリクスの作成処理について説明するためのさらに他の図である。FIG. 19-6 is still another diagram for explaining the feature matrix creation processing that has undergone the rotation processing. 図20は、検出部の構成の一例を示す図である。FIG. 20 is a diagram illustrating an example of the configuration of the detection unit. 図21−1は、ホモグラフィ行列の算出手法の一例につき説明するための図である。FIG. 21A is a diagram for explaining an example of a homography matrix calculation method. 図21−2は、ホモグラフィ行列の算出手法の一例につき説明するための他の図である。FIG. 21B is another diagram for explaining an example of a homography matrix calculation method. 図22−1は、検出処理について説明するための図である。FIG. 22-1 is a diagram for explaining the detection process. 図22−2は、検出処理について説明するための他の図である。FIG. 22-2 is another diagram for explaining the detection process. 図23−1は、位置合わせによって解消されない画像ずれを説明するための図である。FIG. 23A is a diagram for explaining an image shift that is not eliminated by alignment. 図23−2は、位置合わせによって解消されない画像ずれを説明するための他の図である。FIG. 23B is another diagram for explaining the image shift that is not eliminated by the alignment. 図24は、実施例1における検出処理の処理手順の一例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of a processing procedure of detection processing according to the first embodiment. 図25は、実施例1〜2に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。FIG. 25 is a schematic diagram illustrating an example of a computer that executes an image processing program according to the first and second embodiments.

以下に、開示の画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of the disclosed image processing apparatus, image processing method, and image processing program will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

本願の開示する画像処理装置の実施例1として、画像処理サーバ100を説明する(図1参照)。画像処理サーバ100は、たとえば、クライアント200から同一の地点を異なる時点で撮影した二つの画像の入力を受ける。または、画像処理サーバ100は、クライアント200から同一の地点を異なる時期に撮影した二つの画像を特定する指示を受け付ける。そして、画像処理サーバ100は、二つの画像の各々から特徴点を抽出する。さらに、画像処理サーバ100は、各特徴点の輝度値と、当該特徴点から所定の距離範囲内に位置する画素の輝度値との差分に関する情報を、当該特徴点を中心とする楕円状のマトリクスの複数の領域各々に対応付けて、各特徴点の特徴量マトリクスを作成する。画像処理サーバ100は、一つの画像の特徴点の特徴量マトリクスと、他の画像の特徴点の特徴量マトリクスとを比較して類似度を求める。画像処理サーバ100は、特徴量マトリクスの類似度が高い特徴点の対を特徴点ペアとして決定する。   An image processing server 100 will be described as a first embodiment of the image processing apparatus disclosed in the present application (see FIG. 1). For example, the image processing server 100 receives input of two images obtained by capturing the same point from the client 200 at different times. Alternatively, the image processing server 100 receives an instruction from the client 200 to specify two images taken at the same point at different times. Then, the image processing server 100 extracts feature points from each of the two images. Further, the image processing server 100 uses an elliptical matrix centered on the feature point as information on the difference between the brightness value of each feature point and the brightness value of a pixel located within a predetermined distance range from the feature point. A feature amount matrix of each feature point is created in association with each of the plurality of regions. The image processing server 100 compares the feature quantity matrix of the feature points of one image with the feature quantity matrix of the feature points of another image to obtain the similarity. The image processing server 100 determines a feature point pair having a high similarity in the feature quantity matrix as a feature point pair.

さらに、実施例1の画像処理サーバ100は、決定した特徴点ペアに基づいて二つの画像の位置合わせをおこなった後、二つの画像の差分領域を抽出する。そして、実際には差分に該当しない差分領域を除外するため、検出処理を実行する。   Further, the image processing server 100 according to the first embodiment performs alignment of the two images based on the determined feature point pair, and then extracts a difference area between the two images. And in order to exclude the difference area | region which does not actually correspond to a difference, a detection process is performed.

[実施例1の画像処理サーバ]
まず、図1を参照して、画像処理サーバ100の構成の一例につき説明する。図1は、実施例1に係る画像処理サーバ100の構成の一例を示す図である。画像処理サーバ100は、記憶部110と、制御部120と、入出力部130とを備える。記憶部110は、画像処理サーバ100内での処理に使用するデータおよび画像処理サーバ100内での処理により生成されるデータを記憶する。制御部120は、画像処理サーバ100内での画像処理を制御する。入出力部130は、外部から画像処理サーバ100に入力されるデータを受信するとともに、画像処理サーバ100により生成されるデータを外部に送信する。
[Image Processing Server of First Embodiment]
First, an example of the configuration of the image processing server 100 will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of the configuration of the image processing server 100 according to the first embodiment. The image processing server 100 includes a storage unit 110, a control unit 120, and an input / output unit 130. The storage unit 110 stores data used for processing in the image processing server 100 and data generated by processing in the image processing server 100. The control unit 120 controls image processing in the image processing server 100. The input / output unit 130 receives data input to the image processing server 100 from the outside, and transmits data generated by the image processing server 100 to the outside.

また、画像処理サーバ100は、クライアント200と、ネットワーク300を介して接続される。クライアント200は、たとえば、モニタ201を備える。画像処理サーバ100内で処理された画像は、入出力部130を介してクライアント200に送られ、モニタ201に表示することができる。なお、図1では、画像処理サーバ100の外部にひとつのクライアント200およびモニタ201が設けられるものとしたが、画像処理サーバ100は、ネットワーク300を介して複数のクライアント200と接続されてもよい。そして、画像処理サーバ100を、複数のクライアント200から送信される画像を受信するように構成してもよい。また、画像処理サーバ100内にモニタを設けて画像を確認できるように構成してもよい。また、画像処理サーバ100自体に撮像機能を設けてもよく、また、画像処理サーバ100を、クライアント200とは別の撮像装置と接続してもよい。なお、クライアント200は、例えば、パーソナルコンピュータ、携帯電話機、スマートフォン、インターネットTVなどのコンピュータである。   The image processing server 100 is connected to the client 200 via the network 300. The client 200 includes a monitor 201, for example. An image processed in the image processing server 100 can be sent to the client 200 via the input / output unit 130 and displayed on the monitor 201. In FIG. 1, one client 200 and the monitor 201 are provided outside the image processing server 100, but the image processing server 100 may be connected to a plurality of clients 200 via the network 300. Then, the image processing server 100 may be configured to receive images transmitted from a plurality of clients 200. Further, a monitor may be provided in the image processing server 100 so that an image can be confirmed. Further, the image processing server 100 itself may be provided with an imaging function, and the image processing server 100 may be connected to an imaging device different from the client 200. The client 200 is, for example, a computer such as a personal computer, a mobile phone, a smartphone, or an Internet TV.

[記憶部の構成]
記憶部110は、画像記憶部111、特徴点記憶部112、マトリクス記憶部113、ペア記憶部114、設定記憶部115および差分記憶部116を備える。なお、記憶部110は、半導体メモリ素子や記憶装置などである。例えば、半導体メモリ素子としては、VRAM(Video Random Access Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)やフラッシュメモリ(flash memory)などが挙げられる。また、記憶装置としては、ハードディスク、光ディスクなどの記憶装置が挙げられる。以下、記憶部110に記憶される情報につき説明する。
[Configuration of storage unit]
The storage unit 110 includes an image storage unit 111, a feature point storage unit 112, a matrix storage unit 113, a pair storage unit 114, a setting storage unit 115, and a difference storage unit 116. The storage unit 110 is a semiconductor memory element, a storage device, or the like. For example, examples of the semiconductor memory element include a video random access memory (VRAM), a random access memory (RAM), a read only memory (ROM), and a flash memory. Examples of the storage device include storage devices such as a hard disk and an optical disk. Hereinafter, information stored in the storage unit 110 will be described.

[画像情報]
画像記憶部111は、画像処理サーバ100が受信した画像情報を記憶する。図2は、画像記憶部111に記憶される画像情報の構成の一例を示す図である。たとえば、図2に示すように、画像情報は、画像を一意に識別する画像ID(Identifier)を含む。そして、画像記憶部111は、画像IDに対応付けて、画像が撮影された場所、撮影日時、画像自体等を記憶する。図2に示す例では、画像ID「001」に対応づけて、画像ID「001」の画像の撮影地点の緯度と経度が「35.6587,139.74」として記憶されている。さらに、画像ID「001」に対応づけて、撮影日時「2012/03/30」が記憶されている。さらに、画像ID「001」に対応づけて、画像自体が記憶されている。
[Image information]
The image storage unit 111 stores image information received by the image processing server 100. FIG. 2 is a diagram illustrating an example of a configuration of image information stored in the image storage unit 111. For example, as shown in FIG. 2, the image information includes an image ID (Identifier) that uniquely identifies the image. Then, the image storage unit 111 stores the location where the image was captured, the shooting date and time, the image itself, and the like in association with the image ID. In the example illustrated in FIG. 2, the latitude and longitude of the shooting point of the image with the image ID “001” are stored as “35.6687, 139.74” in association with the image ID “001”. Furthermore, the shooting date “2012/03/30” is stored in association with the image ID “001”. Further, the image itself is stored in association with the image ID “001”.

[特徴点情報]
特徴点記憶部112は、画像処理サーバ100が受信した画像の特徴点に関する情報を記憶する。図3は、特徴点記憶部112に記憶される特徴点情報の構成の一例を示す図である。
[Feature information]
The feature point storage unit 112 stores information regarding the feature points of the image received by the image processing server 100. FIG. 3 is a diagram illustrating an example of a configuration of feature point information stored in the feature point storage unit 112.

ここで、特徴点とは、画像の中で目立った特徴を示す点のことをいう。たとえば、画像中の物体の角にあたる部分や、境界線に該当する部分など、周囲の画素との輝度勾配が大きい部分が特徴点として抽出される。なお、特徴点の抽出については後述するが、抽出の手法は特に限定されない。   Here, the feature point refers to a point showing a remarkable feature in the image. For example, a part having a large luminance gradient with surrounding pixels such as a part corresponding to a corner of an object in the image and a part corresponding to a boundary line is extracted as a feature point. Although feature point extraction will be described later, the extraction method is not particularly limited.

図3に示すように、特徴点記憶部112は、たとえば、画像ID「001」に対応付けて、当該画像から抽出された特徴点の情報を記憶する。図3の例では、画像ID「001」に対応付けて、特徴点を一意に特定する特徴点ID「FP001」が記憶されている。さらに、特徴点ID「FP001」で特定される特徴点の位置が、画像上の座標「x,y」であることが記憶されている。特徴点は、各画像について複数個抽出され、その各々についての情報が特徴点記憶部112に記憶される。 As illustrated in FIG. 3, the feature point storage unit 112 stores information on feature points extracted from the image in association with the image ID “001”, for example. In the example of FIG. 3, a feature point ID “FP001” that uniquely identifies a feature point is stored in association with the image ID “001”. Further, it is stored that the position of the feature point specified by the feature point ID “FP001” is the coordinates “x 1 , y 1 ” on the image. A plurality of feature points are extracted for each image, and information about each is stored in the feature point storage unit 112.

[特徴量マトリクス情報]
マトリクス記憶部113は、特徴点各々の特徴量マトリクスの情報を記憶する。図4は、第1マトリクス記憶部113aに記憶される特徴量マトリクス情報の構成の一例を示す図である。図5は、第2マトリクス記憶部113bに記憶される特徴量マトリクス情報の構成の一例を示す図である。図6は、比較画像の特徴点の特徴量マトリクスの構成の一例について説明するための図である。図4乃至図6を参照して、特徴量マトリクス情報について説明する。
[Feature matrix information]
The matrix storage unit 113 stores information on the feature amount matrix of each feature point. FIG. 4 is a diagram illustrating an example of the configuration of the feature amount matrix information stored in the first matrix storage unit 113a. FIG. 5 is a diagram illustrating an example of the configuration of the feature amount matrix information stored in the second matrix storage unit 113b. FIG. 6 is a diagram for explaining an example of the configuration of the feature amount matrix of the feature points of the comparison image. The feature quantity matrix information will be described with reference to FIGS.

マトリクス記憶部113は、第1マトリクス記憶部113aおよび第2マトリクス記憶部113bを備える(図1参照)。第1マトリクス記憶部113aは、照合する二つの画像のうち比較対象となる画像(以下、適宜「比較画像」とも称する。)の特徴点の特徴量マトリクスを記憶する。第2マトリクス記憶部113bは、照合する二つの画像のうち比較画像ではない、処理対象となる画像(以下、適宜「処理画像」とも称する。)の特徴点の特徴量マトリクスを記憶する。第1マトリクス記憶部113aは、比較画像の各特徴点につき一つの特徴量マトリクスを記憶する。これに対して、第2マトリクス記憶部113bは、処理画像の各特徴点につき複数の特徴量マトリクスを記憶する。   The matrix storage unit 113 includes a first matrix storage unit 113a and a second matrix storage unit 113b (see FIG. 1). The first matrix storage unit 113a stores a feature quantity matrix of feature points of an image to be compared (hereinafter also referred to as “comparison image” as appropriate) out of two images to be collated. The second matrix storage unit 113b stores a feature quantity matrix of feature points of an image to be processed (hereinafter also referred to as “processed image” as appropriate) that is not a comparison image among the two images to be collated. The first matrix storage unit 113a stores one feature amount matrix for each feature point of the comparison image. On the other hand, the second matrix storage unit 113b stores a plurality of feature amount matrices for each feature point of the processed image.

図4に示すように、比較画像の特徴点についての特徴量マトリクス情報は、「画像ID」、「特徴点ID」、「マトリクスID」、「マトリクスセグメントID」、「輝度値」、「輝度差」および「輝度差レベル」を含む。特徴量マトリクス情報は、各特徴点の特徴量マトリクスについての情報である。例えば、図4の例では、「画像ID:001」の画像の「特徴点ID:FP001」の特徴点について、「マトリクスID:M00101」の特徴量マトリクスについての情報が記憶されている。   As shown in FIG. 4, the feature amount matrix information about the feature points of the comparison image includes “image ID”, “feature point ID”, “matrix ID”, “matrix segment ID”, “luminance value”, “luminance difference”. And “luminance difference level”. The feature amount matrix information is information about the feature amount matrix of each feature point. For example, in the example of FIG. 4, information about the feature amount matrix of “matrix ID: M00101” is stored for the feature point of “feature point ID: FP001” of the image of “image ID: 001”.

他方、図5に示すように、処理画像の特徴点についての特徴量マトリクス情報は、上記比較画像の特徴点について記憶される情報に加えて以下の情報を含む。すなわち、「回転角」「拡大縮小率」である。また、処理画像の特徴点についての特徴量マトリクスは、一つの特徴点について複数作成される。図5の例では、特徴点ID「FP001」の特徴点について、マトリクスID「M00101」、「M00102」、「M00103」等の複数の特徴量マトリクスが記憶されている。また、マトリクスID「M00101」は、「回転角:0°」、「拡大縮小率1.0」と対応付けられている。   On the other hand, as shown in FIG. 5, the feature amount matrix information about the feature points of the processed image includes the following information in addition to the information stored about the feature points of the comparison image. That is, “rotation angle” and “enlargement / reduction ratio”. In addition, a plurality of feature quantity matrices for feature points of the processed image are created for one feature point. In the example of FIG. 5, a plurality of feature quantity matrices such as matrix IDs “M00101”, “M00102”, “M00103”, etc. are stored for the feature point with the feature point ID “FP001”. The matrix ID “M00101” is associated with “rotation angle: 0 °” and “enlargement / reduction ratio 1.0”.

特徴量マトリクスの詳細についてさらに説明する。なお、特徴量マトリクスは後述する作成部124によって生成される。図6に示すように、特徴量マトリクスは、特徴点を中心とし所定の長さの軸を有する楕円を、周方向および半径方向に所定の数の領域に分割したものである。たとえば、作成部124は、特徴点に基づいて第1の方向を決定する。そして、作成部124は、第1の方向に基づいて第2の方向を決定する。作成部124は、決定した第1の方向と第2の方向とをそれぞれ軸として、特徴点を中心として楕円状のマトリクスを作成する。たとえば、作成部124は、特徴点と最も近い特徴点の方向を第1の方向とする。そして、作成部124は、当該特徴点と最も近い特徴点とを結ぶ線分に対して90度の角度の方向を第2の方向とする。作成部124は、このようにして作成した特徴量マトリクスに、特徴点の輝度値と、マトリクスの領域の輝度値との差分を対応づける。各領域に含まれる画素の輝度値と、同心円の中心に位置する特徴点の輝度値との差分が、各領域の「輝度差」の値となる。なお、図6の例には、合計49個の画素を示すが、以下、説明の便宜上、49個の画素をそれぞれ、「行番号、列番号」で特定して説明する。行番号は、下から上に向かって「1」〜「7」で示し、列番号は、左から右に向かって「1」〜「7」で示す。   Details of the feature amount matrix will be further described. The feature amount matrix is generated by the creation unit 124 described later. As shown in FIG. 6, the feature amount matrix is obtained by dividing an ellipse having an axis having a predetermined length with a feature point as the center into a predetermined number of regions in the circumferential direction and the radial direction. For example, the creation unit 124 determines the first direction based on the feature points. Then, the creation unit 124 determines the second direction based on the first direction. The creation unit 124 creates an elliptical matrix with the feature point as the center, with the determined first direction and second direction as axes. For example, the creation unit 124 sets the direction of the feature point closest to the feature point as the first direction. Then, the creation unit 124 sets the direction at an angle of 90 degrees with respect to the line segment connecting the feature point and the closest feature point as the second direction. The creation unit 124 associates the difference between the brightness value of the feature point and the brightness value of the area of the matrix with the feature amount matrix created in this way. The difference between the luminance value of the pixel included in each region and the luminance value of the feature point located at the center of the concentric circle is the “luminance difference” value of each region. The example of FIG. 6 shows a total of 49 pixels. For convenience of explanation, the 49 pixels will be described below by specifying “row numbers and column numbers”. Row numbers are indicated by “1” to “7” from bottom to top, and column numbers are indicated by “1” to “7” from left to right.

図6の例では、作成部124は、特徴点FPを中心として、特徴点の存在する画素位置から長軸方向に3画素の領域にわたる特徴量マトリクスを設定する。また、図6の例では、特徴量マトリクスを構成する楕円は、径方向に2領域、周方向に4領域に分割され、全部で8個の領域が形成される。各領域には、当該領域を一意に特定するためのマトリクスセグメントIDが付与される。図6の例では、楕円の上中心から右回り方向に内側から外側に向けて順番に、マトリクスセグメントIDが付与されている。たとえば、中心側の楕円に含まれる4つの領域には、上中心から右回りに、マトリクスセグメントID「1」〜「4」が付与されている。外側の楕円に含まれる4つの領域には、上中心から右回りに、マトリクスセグメントID「5」〜「8」が付与されている。   In the example of FIG. 6, the creation unit 124 sets a feature amount matrix that covers a region of three pixels in the major axis direction from the pixel position where the feature point exists with the feature point FP as the center. In the example of FIG. 6, the ellipse constituting the feature amount matrix is divided into two regions in the radial direction and four regions in the circumferential direction, and a total of eight regions are formed. Each area is given a matrix segment ID for uniquely specifying the area. In the example of FIG. 6, matrix segment IDs are assigned in order from the inner side to the outer side in the clockwise direction from the upper center of the ellipse. For example, matrix segment IDs “1” to “4” are assigned clockwise to the four regions included in the center-side ellipse. Matrix segment IDs “5” to “8” are assigned to the four regions included in the outer ellipse clockwise from the upper center.

このように特徴量マトリクスの領域を設定した場合、一つの画素が2以上の領域にまたがって存在する場合がある。ここでは、作成部124は、二つの領域にまたがる画素については、右側かつ下側の領域に入れて特徴量を計算する。たとえば、図6の画素「5、4」は、マトリクスセグメントID「1」「4」「5」「8」の4つの領域にまたがって存在する。そして、右側の領域は、マトリクスセグメントID「1」「5」の領域であり、そのうち下側の領域はマトリクスセグメントID「1」の領域である。したがって、作成部124は、画素「5、4」はマトリクスセグメントID「1」の領域に入れて特徴量を算出する。   When the region of the feature amount matrix is set as described above, one pixel may exist over two or more regions. Here, the creation unit 124 calculates the feature amount by placing the pixel extending over the two regions in the right and lower regions. For example, the pixel “5, 4” in FIG. 6 exists over four regions of matrix segment IDs “1”, “4”, “5”, and “8”. The right area is an area with matrix segment IDs “1” and “5”, and the lower area is an area with matrix segment ID “1”. Therefore, the creation unit 124 calculates the feature amount by putting the pixels “5, 4” in the region of the matrix segment ID “1”.

このようにして、作成部124は、図6に示す各領域について、特徴量を算出する。たとえば、マトリクスセグメントID「1」の領域には、画素「5、4」、「5、5」が入る。したがって、輝度値「(100+100)/2=100」がマトリクスセグメントID「1」の領域の輝度値となる。そして、特徴点が存在する領域の画素の輝度値は「255」である。よって、「255−100=155」が、マトリクスセグメントID「1」の領域の輝度差の値となる。   In this way, the creation unit 124 calculates the feature amount for each region illustrated in FIG. For example, pixels “5, 4”, “5, 5” are placed in the area of the matrix segment ID “1”. Therefore, the luminance value “(100 + 100) / 2 = 100” is the luminance value of the area of the matrix segment ID “1”. The luminance value of the pixel in the region where the feature point exists is “255”. Therefore, “255-100 = 155” is the value of the luminance difference of the area of the matrix segment ID “1”.

また、マトリクスセグメントID「2」の領域には、画素「4、4」、画素「4、5」が含まれる。したがって、輝度値「(255+255)/2=255」がマトリクスセグメントID「2」の領域の輝度値となる。よって、「255−255=0」が、マトリクスセグメントID「2」の領域の輝度差の値となる。   The area of matrix segment ID “2” includes pixels “4, 4” and pixels “4, 5”. Therefore, the luminance value “(255 + 255) / 2 = 255” is the luminance value of the area of the matrix segment ID “2”. Therefore, “255−255 = 0” is the value of the luminance difference of the area of the matrix segment ID “2”.

同様に、図6に示すマトリクスセグメントID「3」〜「8」について輝度差を求めると、最終的に得られる数値は図4に示すようになる。このように、作成部124は、各特徴点について、マトリクスセグメント各々の輝度差を求め、マトリクス記憶部113は、特徴量マトリクス情報として記憶する。   Similarly, when the luminance difference is obtained for the matrix segment IDs “3” to “8” shown in FIG. 6, finally obtained numerical values are as shown in FIG. Thus, the creation unit 124 obtains the luminance difference of each matrix segment for each feature point, and the matrix storage unit 113 stores it as feature amount matrix information.

また、マトリクス記憶部113は、輝度差の値がとり得る範囲である−255から255の値を、たとえば13のレベルに区分して、輝度差がどのレベルに該当するかも記憶する。たとえば、輝度差が「−255〜−215」の場合をP1、「−215〜−175」の場合をP2、「−175〜−135」の場合をP3、「−135〜−95」の場合をP4とする。また、輝度差が「−95〜−55」の場合をP5、「−55〜−15」の場合をP6、「−15〜15」の場合をP7、「15〜55」の場合をP8、「55〜95」の場合をP9、「95〜135」の場合をP10とする。さらに、輝度差が「135〜175」の場合をP11、「175〜215」の場合をP12、「215〜255」の場合をP13とする。この場合、図4に示すように、マトリクスセグメントID「1」の領域については、輝度差が「155」であるため、輝度差レベルは「P11」となる。なお、これに限定されず、輝度差の値のみを記憶してもよい。   In addition, the matrix storage unit 113 divides the value of −255 to 255, which is a possible range of the brightness difference value, into, for example, 13 levels, and stores which level the brightness difference corresponds to. For example, P1 when the luminance difference is “−255 to −215”, P2 when “−215 to −175”, P3 when “−175 to −135”, and “−135 to −95”. Is P4. Further, the brightness difference is “−95 to −55”, P5, “−55 to −15” is P6, “−15 to 15” is P7, “15 to 55” is P8, The case of “55 to 95” is P9, and the case of “95 to 135” is P10. Furthermore, P11 is set when the luminance difference is “135 to 175”, P12 is set when “175 to 215” is set, and P13 is set when “215 to 255” is set. In this case, as shown in FIG. 4, the luminance difference level is “P11” for the area of the matrix segment ID “1” because the luminance difference is “155”. Note that the present invention is not limited to this, and only the luminance difference value may be stored.

[特徴点ペア情報]
ペア記憶部114は、画像処理サーバ100による処理によって決定される特徴点ペアについての情報を記憶する。図7は、ペア記憶部114に記憶される特徴点ペア情報の構成の一例を示す図である。
[Feature Point Pair Information]
The pair storage unit 114 stores information on feature point pairs determined by the processing by the image processing server 100. FIG. 7 is a diagram illustrating an example of a configuration of feature point pair information stored in the pair storage unit 114.

図7に示すように、特徴点ペア情報は、処理画像を一意に特定する「処理画像ID」と、比較画像を一意に特定する「比較画像ID」とを含む。さらに、「処理画像ID」および「比較画像ID」に対応づけて、各特徴点ペアを一意に特定する「ペアID」を記憶する。そして、「ペアID」に対応づけて、処理画像の特徴点を一意に特定する「処理画像特徴点ID」と、比較画像の特徴点を一意に特定する「比較画像特徴点ID」とを記憶する。たとえば、図7の例では、「処理画像ID:001」「比較画像ID:201」に対応づけて、ペアID「001」、「002」、「003」等が記憶される。そして、ペアID「001」に対応づけて、「処理画像特徴点ID:FP001」と「比較画像特徴点ID:FP201」が記憶される。このように、特徴点ペア情報は、二つの画像のどの特徴点同士が対応するかを示す情報である。   As illustrated in FIG. 7, the feature point pair information includes a “processed image ID” that uniquely identifies a processed image and a “comparison image ID” that uniquely identifies a comparative image. Further, a “pair ID” that uniquely identifies each feature point pair is stored in association with the “processed image ID” and the “comparison image ID”. Then, in association with the “pair ID”, a “processed image feature point ID” that uniquely identifies the feature point of the processed image and a “comparison image feature point ID” that uniquely identifies the feature point of the comparison image are stored. To do. For example, in the example of FIG. 7, pair IDs “001”, “002”, “003”, and the like are stored in association with “processed image ID: 001” and “comparison image ID: 201”. Then, “processed image feature point ID: FP001” and “comparison image feature point ID: FP201” are stored in association with the pair ID “001”. Thus, the feature point pair information is information indicating which feature points of the two images correspond to each other.

[設定記憶部に記憶される情報]
実施例1に係る画像処理サーバ100は、二つの画像の一方(処理画像)の特徴点について、適用するマトリクスを所定の比率で拡大縮小して、複数の特徴量マトリクスを生成する。また、画像処理サーバ100は、生成した複数の楕円状の特徴量マトリクスの軸の一方を、特徴点を中心として所定の回転角度で回転させて、さらに特徴量マトリクスを生成する。かかる処理を実現するため、実施例1に係る画像処理サーバ100の記憶部110には、設定記憶部115が設けられている。たとえば、設定記憶部115は、回転角記憶部115aと拡大縮小率記憶部115bとを有する。なお、設定記憶部115に記憶される情報は、ユーザの入力に基づいて記憶されてもよく、回転部124aおよび拡大縮小部124bによる処理の結果に基づいて記憶されてもよい。また、初期値として予め所定の値を設定記憶部115に記憶してもよい。
[Information stored in the setting storage unit]
The image processing server 100 according to the first embodiment generates a plurality of feature amount matrices by scaling up and down a matrix to be applied at a predetermined ratio with respect to a feature point of one of two images (processed image). Further, the image processing server 100 rotates one of the axes of the plurality of generated elliptical feature amount matrices at a predetermined rotation angle around the feature point, and further generates a feature amount matrix. In order to realize such processing, a setting storage unit 115 is provided in the storage unit 110 of the image processing server 100 according to the first embodiment. For example, the setting storage unit 115 includes a rotation angle storage unit 115a and an enlargement / reduction rate storage unit 115b. Note that the information stored in the setting storage unit 115 may be stored based on a user input, or may be stored based on the results of processing by the rotation unit 124a and the enlargement / reduction unit 124b. Further, a predetermined value may be stored in advance in the setting storage unit 115 as an initial value.

[回転角情報]
回転角記憶部115aは、回転処理に用いる情報を記憶する。図8は、回転角記憶部115aに記憶される情報の構成の一例を示す図である。たとえば、回転角記憶部115aは、特徴量マトリクスの軸を回転させる回数と、回転させる角度を変化させる角度変化範囲およびその時点で適用されている回転数および角度変化範囲を示すフラグを記憶する。図8の例では、「回転数」、「角度変化範囲」、「フラグ」が記憶される。たとえば、回転数「178」に対応付けて、角度変化範囲「−89°〜+89°」が記憶されている。また、この時点で回転数「178」、角度変化範囲「−89°〜+89°」が選択されていることを示すフラグが記憶されている。図8の例では、ユーザが手動で回転数および角度変化範囲を設定することができるよう、最下段に「回転数:任意(手動設定)」のボックスを設けている。ユーザが手動で回転数および角度変化範囲を設定した場合は、最下段の空白のボックスに設定した回数および設定した角度変化範囲が記憶される。
[Rotation angle information]
The rotation angle storage unit 115a stores information used for the rotation process. FIG. 8 is a diagram illustrating an example of a configuration of information stored in the rotation angle storage unit 115a. For example, the rotation angle storage unit 115a stores the number of rotations of the axis of the feature amount matrix, an angle change range for changing the rotation angle, and a flag indicating the rotation number and the angle change range applied at that time. In the example of FIG. 8, “rotation speed”, “angle change range”, and “flag” are stored. For example, an angle change range “−89 ° to + 89 °” is stored in association with the rotational speed “178”. In addition, a flag indicating that the rotational speed “178” and the angle change range “−89 ° to + 89 °” are selected at this time is stored. In the example of FIG. 8, a box of “rotation speed: arbitrary (manual setting)” is provided at the bottom so that the user can manually set the rotation speed and the angle change range. When the user manually sets the rotation speed and the angle change range, the number of times set in the bottom blank box and the set angle change range are stored.

ここでは、回転角記憶部115aに記憶された情報に基づいて、角度変化範囲を変更することができる例を示すが、画像処理サーバ100において適用できる回転角度および回転数を固定にして、回転角記憶部115aを設けないものとすることもできる。また、回転部124aにおける処理の結果、角度変化範囲等が回転記憶部115aに設定されるものとしてもよい。   Here, an example in which the angle change range can be changed based on the information stored in the rotation angle storage unit 115a is shown. However, the rotation angle and the rotation number applicable in the image processing server 100 are fixed, and the rotation angle is changed. The storage unit 115a may not be provided. Further, as a result of processing in the rotation unit 124a, an angle change range or the like may be set in the rotation storage unit 115a.

拡大縮小率記憶部115bは、特徴量マトリクス生成のため特徴点に適用するマトリクスを特徴量マトリクスを拡大縮小する際の、拡大縮小率を記憶する。図9は、拡大縮小率記憶部115bに記憶される情報の構成の一例を示す図である。   The enlargement / reduction rate storage unit 115b stores the enlargement / reduction rate when the feature amount matrix is enlarged / reduced by the matrix applied to the feature points for generating the feature amount matrix. FIG. 9 is a diagram illustrating an example of a configuration of information stored in the enlargement / reduction ratio storage unit 115b.

拡大縮小率記憶部115bは、画像の種類に対応付けて、拡大縮小率と、拡大縮小回数と、その時点で適用されている拡大縮小率を示すフラグとを記憶する。たとえば、図9に示すように、画像の種類「衛星画像」に対応づけて、拡大縮小率「0.5〜2.0」が記憶される。さらに、この場合の拡大縮小回数である「16」が記憶される。これは、0.5〜2.0倍の範囲内で、0.1きざみに、「0.5倍」、「0.6倍」、「0.7倍」から「2.0倍」までの拡大縮小率を適用することを意味する。さらに、この時点で「衛星画像」の拡大縮小率が適用されていることを示すフラグが記憶されている。   The enlargement / reduction rate storage unit 115b stores an enlargement / reduction rate, the number of times of enlargement / reduction, and a flag indicating the enlargement / reduction rate applied at that time in association with the type of image. For example, as shown in FIG. 9, the enlargement / reduction ratio “0.5 to 2.0” is stored in association with the image type “satellite image”. Furthermore, “16” which is the number of times of enlargement / reduction in this case is stored. This is within the range of 0.5 to 2.0 times, in increments of 0.1, from "0.5 times", "0.6 times", "0.7 times" to "2.0 times" Means to apply a scaling factor of. Furthermore, a flag indicating that the enlargement / reduction ratio of the “satellite image” is applied at this time is stored.

作成部124は、たとえば、特徴量マトリクスの長軸または短軸の長さを増減させる。ここでは、拡大縮小処理は、短軸または長軸を基準として、他方の軸の長さを変更して行う。たとえば、長軸の長さを「1」として、短軸の長さを「0.5〜2.0」の拡大縮小率で変更する。なお、拡大縮小率の増減幅を別途定義するようにしてもよい。   For example, the creation unit 124 increases or decreases the length of the major axis or minor axis of the feature amount matrix. Here, the enlargement / reduction process is performed by changing the length of the other axis on the basis of the short axis or the long axis. For example, the length of the major axis is changed to “1”, and the length of the minor axis is changed at an enlargement / reduction ratio of “0.5 to 2.0”. Note that the increase / decrease width of the enlargement / reduction ratio may be defined separately.

拡大縮小率記憶部115bは、予め画像の種類に対応付けて拡大縮小率を記憶するが、ユーザが拡大縮小率を任意に設定することもできる。図9の最下段に示すように、ユーザが拡大縮小率を任意に設定した場合は、空白のボックスに拡大縮小率が記憶され、フラグが設定される。   The enlargement / reduction rate storage unit 115b stores the enlargement / reduction rate in advance in association with the type of image, but the user can arbitrarily set the enlargement / reduction rate. As shown at the bottom of FIG. 9, when the user arbitrarily sets the enlargement / reduction ratio, the enlargement / reduction ratio is stored in a blank box and a flag is set.

ここでは、拡大縮小率記憶部115bに記憶された情報に基づいて、拡大縮小率を変更することができる例を示すが、画像処理サーバ100において適用できる拡大縮小率を固定にして、拡大縮小率記憶部115bを設けないこともできる。また、拡大縮小部124bにおける処理の結果、拡大縮小率等が拡大縮小率記憶部115bに設定されるものとしてもよい。   Here, an example in which the enlargement / reduction ratio can be changed based on the information stored in the enlargement / reduction ratio storage unit 115b is shown, but the enlargement / reduction ratio that can be applied in the image processing server 100 is fixed, The storage unit 115b can be omitted. Further, as a result of processing in the enlargement / reduction unit 124b, an enlargement / reduction rate or the like may be set in the enlargement / reduction rate storage unit 115b.

実施例1では、拡大縮小処理において、特徴量マトリクスの長軸または短軸の長さを増減させるものとする。ただし、後述する回転処理において、特徴量マトリクスの軸を回転させた結果、軸方向が変化した場合は、回転後の軸方向に特徴量マトリクスを拡大縮小してもよい。   In the first embodiment, in the enlargement / reduction processing, the length of the major axis or the minor axis of the feature amount matrix is increased or decreased. However, when the axis direction changes as a result of rotating the axis of the feature amount matrix in the rotation processing described later, the feature amount matrix may be enlarged or reduced in the axis direction after the rotation.

[差分情報の一例]
差分情報につき、図10を参照して説明する。図10は、差分記憶部116に記憶される情報の構成の一例を示す図である。図10に示すように、差分情報は、当該差分を生じた処理画像を一意に特定する「処理画像ID」と、処理画像と比較された比較画像を一意に特定する「比較画像ID」とを含む。さらに、差分として抽出された画像を複数領域に区画して、各領域を一意に特定する「領域ID」を含む。そして、各領域の位置を特定するための「座標」情報を含む。ここでは、各領域が矩形の領域であるものとして、矩形の4隅の座標を位置情報とする。そして、差分情報はさらに、当該領域において差分として抽出された「差分領域画像」を含む。
[Example of difference information]
The difference information will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of a configuration of information stored in the difference storage unit 116. As shown in FIG. 10, the difference information includes a “processed image ID” that uniquely identifies the processed image that caused the difference, and a “comparison image ID” that uniquely identifies the comparative image compared to the processed image. Including. Furthermore, the image extracted as the difference is divided into a plurality of areas, and an “area ID” that uniquely identifies each area is included. Then, “coordinate” information for specifying the position of each region is included. Here, assuming that each area is a rectangular area, the coordinates of the four corners of the rectangle are used as position information. The difference information further includes a “difference area image” extracted as a difference in the area.

図10の例では、「処理画像ID:001」、「比較画像ID:101」に対応付けて、複数の領域ID「R001」、「R002」等が記憶される。さらに、各領域IDに対応づけて「座標」が記憶される。たとえば、「領域ID:R001」に対応づけて「座標:(x,y)、(x,y)、(x,y)、(x,y)」が記憶される。さらに、「領域ID:R001」に対応づけて、当該差分画像自体の情報が記憶される。なお、ここでは、差分画像を矩形領域に分割するものとしたが、差分画像の分割の態様は特に限定されない。 In the example of FIG. 10, a plurality of region IDs “R001”, “R002”, and the like are stored in association with “processed image ID: 001” and “comparison image ID: 101”. Further, “coordinates” are stored in association with each area ID. For example, “coordinates: (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 )” are stored in association with “area ID: R001”. The Further, information of the difference image itself is stored in association with “area ID: R001”. Although the difference image is divided into rectangular areas here, the manner of dividing the difference image is not particularly limited.

[制御部120の構成]
図1に戻り、制御部120の構成を説明する。制御部120は、設定部121と、受付部122と、抽出部123と、作成部124と、決定部125と、位置合わせ部126と、検出部127と、を備える。制御部120は、入出力部130を介して受信した画像を解析して特徴点ペアを決定する処理を実行する。さらに、制御部120は、決定した特徴点ペアに基づき、画像の位置合わせと画像間の差分抽出を実行する。そして、制御部120は、誤検出を抑制するため、抽出した差分領域をホモグラフィ行列を用いて変換し、変換後、所定の大きさ以下となった差分領域を差分ではないと判定する。そして、制御部120は、差分ではないと判定された差分領域を除外して、差分画像を合成し、出力する。制御部120における処理によって生成されるデータは適宜、記憶部110に記憶される。
[Configuration of Control Unit 120]
Returning to FIG. 1, the configuration of the control unit 120 will be described. The control unit 120 includes a setting unit 121, a reception unit 122, an extraction unit 123, a creation unit 124, a determination unit 125, an alignment unit 126, and a detection unit 127. The control unit 120 executes processing for analyzing the image received via the input / output unit 130 and determining a feature point pair. Further, the control unit 120 performs image alignment and extraction of differences between images based on the determined feature point pair. Then, in order to suppress erroneous detection, the control unit 120 converts the extracted difference region using a homography matrix, and determines that the difference region that has become a predetermined size or less after conversion is not a difference. And the control part 120 excludes the difference area | region determined not to be a difference, synthesize | combines a difference image, and outputs it. Data generated by the processing in the control unit 120 is stored in the storage unit 110 as appropriate.

なお、制御部120は、例えば、各種の集積回路や電子回路である。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。   The control unit 120 is, for example, various integrated circuits or electronic circuits. For example, an ASIC (Application Specific Integrated Circuit) is an example of the integrated circuit. Examples of the electronic circuit include a central processing unit (CPU) and a micro processing unit (MPU).

設定部121は、入出力部を介して、クライアント200からの入力に応じて、特徴量マトリクスを設定する。すなわち、特徴量マトリクスの角度変化範囲および拡大縮小率を設定する。たとえば、所定のコマンドをクライアント200のモニタ201から入力することで、モニタ201に入力画面が表示され、ユーザは、モニタ201から設定を入力する。設定部121は、設定の入力があると、入力された内容を、回転角記憶部115aおよび拡大縮小率記憶部115bに設定する。たとえば、該当する角度変化範囲および画像種類にフラグを設定する。または、ユーザが任意の数値を入力した場合は、空白のボックスに数値が入力され、当該ボックスにフラグが設定される。なお、設定の入力を待たず、デフォルトで拡大縮小率および回転角が設定されるものとしてもよい。また、画像処理サーバ100における処理の結果として、拡大縮小率および回転角が設定されるものとしてもよい。   The setting unit 121 sets a feature amount matrix in accordance with an input from the client 200 via the input / output unit. That is, the angle change range and the enlargement / reduction ratio of the feature amount matrix are set. For example, by inputting a predetermined command from the monitor 201 of the client 200, an input screen is displayed on the monitor 201, and the user inputs settings from the monitor 201. When there is a setting input, the setting unit 121 sets the input content in the rotation angle storage unit 115a and the enlargement / reduction rate storage unit 115b. For example, a flag is set for the corresponding angle change range and image type. Alternatively, when the user inputs an arbitrary numerical value, the numerical value is input into a blank box, and a flag is set in the box. Note that the enlargement / reduction ratio and rotation angle may be set by default without waiting for input of settings. Further, the enlargement / reduction ratio and the rotation angle may be set as a result of processing in the image processing server 100.

なお、上述のように、全ての画像に固定の角度変化範囲および拡大縮小率を適用する場合は、設定部121を設けなくてもよい。   As described above, in the case where the fixed angle change range and the enlargement / reduction ratio are applied to all images, the setting unit 121 may not be provided.

受付部122は、入出力部130を介して同一の地点を異なる時期に撮影することによって得られる少なくとも二つの画像を受け付ける。受け付けた画像は、指示入力に基づき抽出部123に送られる。また、受付部122が受け付けた画像は、画像記憶部111に記憶される。また、受付部122は、通常は受け付けた画像を画像記憶部111に記憶するのみとし、オペレータ等による指示入力があった場合に、画像記憶部111に記憶された画像を読み出し、抽出部123に送るよう構成してもよい。   The accepting unit 122 accepts at least two images obtained by photographing the same spot at different times via the input / output unit 130. The received image is sent to the extraction unit 123 based on the instruction input. The image received by the receiving unit 122 is stored in the image storage unit 111. The accepting unit 122 normally stores the accepted image only in the image storage unit 111, and reads an image stored in the image storage unit 111 when an instruction is input by an operator or the like, and sends it to the extraction unit 123. It may be configured to send.

抽出部123は、受付部122から送られる画像から特徴点を抽出する。たとえば、画像内の建物、道路、森林、敷地などの輪郭点や境界点などを特徴点として抽出する。特徴点を抽出するために用いる手法は特に限定されない。たとえば、ハリス(Harris)オペレータやモラベック(Moravec)オペレータを用いる方法、SUSAN(Smallest Univalue Segment Assimilating Nucleus)、MIC(Minimum Intensity Change)等を利用することができる。抽出部123が抽出した特徴点に関する情報は、特徴点記憶部112に記憶される。   The extraction unit 123 extracts feature points from the image sent from the reception unit 122. For example, contour points and boundary points of buildings, roads, forests, sites, etc. in the image are extracted as feature points. The technique used for extracting the feature points is not particularly limited. For example, a method using a Harris operator or a Moravec operator, a Small Univalue Segment Assimilating Nucleus (SUSAN), a Minimum Intensity Change (MIC), or the like can be used. Information about the feature points extracted by the extraction unit 123 is stored in the feature point storage unit 112.

作成部124は、抽出部123により抽出された特徴点各々について、上述した特徴量マトリクスを作成する。作成部124は、回転部124aと拡大縮小部124bとを備える。作成部124は、回転角記憶部115aおよび拡大縮小率記憶部115bに記憶される情報に基づき、二つの画像の一方(処理画像)の特徴点の特徴量マトリクスの回転処理および拡大縮小処理を実行する。すなわち、回転部124aは、回転角記憶部115aに記憶された角度変化範囲等に基づいて、特徴量マトリクスの軸を回転させる。拡大縮小部124bは、拡大縮小率記憶部115bに記憶される拡大縮小率に基づいて、特徴点に適用するマトリクスを拡大縮小する。回転部124aおよび拡大縮小部124bによる回転処理および拡大縮小処理を経て作成部124が生成した特徴量マトリクスの情報は、マトリクス記憶部113に記憶される。回転処理および拡大縮小処理についてはさらに詳しく後述する。   The creation unit 124 creates the above-described feature amount matrix for each feature point extracted by the extraction unit 123. The creation unit 124 includes a rotation unit 124a and an enlargement / reduction unit 124b. The creation unit 124 performs the rotation process and the enlargement / reduction process of the feature amount matrix of the feature point of one of the two images (processed image) based on the information stored in the rotation angle storage unit 115a and the enlargement / reduction ratio storage unit 115b. To do. That is, the rotation unit 124a rotates the axis of the feature amount matrix based on the angle change range stored in the rotation angle storage unit 115a. The enlargement / reduction unit 124b enlarges / reduces the matrix applied to the feature points based on the enlargement / reduction rate stored in the enlargement / reduction rate storage unit 115b. Information of the feature amount matrix generated by the creation unit 124 through the rotation process and the enlargement / reduction process by the rotation unit 124a and the enlargement / reduction unit 124b is stored in the matrix storage unit 113. The rotation process and the enlargement / reduction process will be described in more detail later.

決定部125は、二つの画像の各々の特徴点について作成された特徴量マトリクスを比較し、類似度を算出する。たとえば、決定部125は、一方の画像の特徴点をひとつ選択する。そして、決定部125は、当該特徴点の特徴量マトリクスを、他方の画像の特徴点すべての特徴量マトリクスと比較する。たとえば、決定部125は、二つの特徴量マトリクスの各領域の輝度差レベル(図4、図5参照)を比較する。そして、決定部125は、比較結果に基づき、特徴量マトリクス間の類似度を算出する。決定部125は、最も類似度の高い特徴点の対を特徴点ペアとして決定する。なお、類似度を算出する手法は特に限定されないが、例えば、正規化相互相関(ZNCC:Zero-mean Normalized Cross-Correlation)を用いることができる。また、差分絶対値和(SAD:Sum of Absolute Differences)、差の二乗和(SSD:Sum of Squared Difference)等を利用した手法を適用してもよい。   The determination unit 125 compares the feature amount matrices created for the feature points of the two images, and calculates the similarity. For example, the determination unit 125 selects one feature point of one image. Then, the determination unit 125 compares the feature amount matrix of the feature point with the feature amount matrix of all the feature points of the other image. For example, the determination unit 125 compares the luminance difference levels (see FIGS. 4 and 5) of the respective regions of the two feature amount matrices. Then, the determination unit 125 calculates the similarity between the feature amount matrices based on the comparison result. The determination unit 125 determines a feature point pair having the highest similarity as a feature point pair. The method for calculating the similarity is not particularly limited, and, for example, normalized cross-correlation (ZNCC) can be used. Further, a method using a sum of absolute differences (SAD), a sum of squares of differences (SSD), or the like may be applied.

位置合わせ部126は、決定部125が決定した特徴点ペアに基づいて、二つの画像の位置合わせを実行する。たとえば、位置合わせ部125は、特徴点ペアの画像上の座標に基づいてホモグラフィ行列を算出し、一方の画像を、ホモグラフィ行列を用いて変換することで、画像の位置合わせを実行する。ただし、位置合わせに用いる手法は特に限定されない。   The alignment unit 126 performs alignment of the two images based on the feature point pair determined by the determination unit 125. For example, the alignment unit 125 calculates a homography matrix based on the coordinates on the feature point pair image, and performs image alignment by converting one image using the homography matrix. However, the method used for alignment is not particularly limited.

検出部127は、作成部124が作成し、マトリクス記憶部113に記憶された特徴量マトリクスを用いて、検出処理を実行する。まず、検出部127は、位置合わせ後の二つの画像の差分領域を抽出する。たとえば、検出部127は、位置合わせ後の画像の画素値、たとえば輝度成分を比較して差分を抽出する。ただし、差分抽出に用いる手法は特に限定されない。   The detection unit 127 performs detection processing using the feature quantity matrix created by the creation unit 124 and stored in the matrix storage unit 113. First, the detection unit 127 extracts a difference area between two images after alignment. For example, the detection unit 127 compares the pixel values of the image after alignment, for example, the luminance component, and extracts the difference. However, the method used for difference extraction is not particularly limited.

そして、検出部127は、差分領域内の、特徴点ペアを構成する特徴点を二つの画像それぞれから抽出する。そして、検出部127は、抽出した特徴点の特徴量マトリクスを比較して、ホモグラフィ行列を算出する。検出部127は、算出したホモグラフィ行列を用いて、差分領域を変換する。変換後の差分領域の大きさが、所定の大きさよりも小さい場合、検出部127は、当該差分領域を差分画像から除外する。   Then, the detection unit 127 extracts feature points that constitute a feature point pair in the difference area from each of the two images. Then, the detection unit 127 compares the extracted feature amount matrices of the feature points to calculate a homography matrix. The detection unit 127 converts the difference region using the calculated homography matrix. When the size of the converted difference area is smaller than a predetermined size, the detection unit 127 excludes the difference area from the difference image.

そして、検出部127は、抽出した差分領域のうち、除外した差分領域を除いて、差分画像を合成する。検出部127が合成した差分画像は、入出力部130を介して外部に出力される。なお、検出部127の構成および検出処理の詳細については後述する。   And the detection part 127 synthesize | combines a difference image except for the excluded difference area among the extracted difference areas. The difference image synthesized by the detection unit 127 is output to the outside via the input / output unit 130. The configuration of the detection unit 127 and details of the detection process will be described later.

上記において、設定部121や位置合わせ部126は、必ずしも設けなくともよい。また、回転部124aおよび拡大縮小部124bも必ずしも設けなくとも良い。特徴量マトリクスの回転処理や拡大縮小処理はおこなわずに、各特徴点について一つずつ作成した特徴量マトリクスを用いて処理をおこなうものとしてもよい。   In the above, the setting unit 121 and the alignment unit 126 are not necessarily provided. Further, the rotation unit 124a and the enlargement / reduction unit 124b are not necessarily provided. The processing may be performed using the feature amount matrix created for each feature point without performing the feature amount matrix rotation processing and the enlargement / reduction processing.

[実施例1に係る画像処理方法]
次に、図11を参照し、実施例1に係る画像処理サーバ100による画像処理の流れにつき説明する。図11は、実施例1に係る画像処理サーバ100による画像処理の処理手順を示すフローチャートである。
[Image Processing Method According to First Embodiment]
Next, the flow of image processing by the image processing server 100 according to the first embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating a processing procedure of image processing performed by the image processing server 100 according to the first embodiment.

まず、設定部121が、設定を受け付ける(ステップS201)。次に、受付部122が、比較照合の対象となる二つの画像A(比較画像)、B(処理画像)の入力を受け付ける(ステップS202)。受付部122は、受け付けた画像A、Bを抽出部123に送る。抽出部123は、受け取った画像A、Bのそれぞれから、特徴点を抽出する(ステップS203)。抽出部123は、たとえば、画像の各画素の輝度値や輝度変化の方向にもとづき、画像内の建物、道路、森林、敷地などの輪郭点や境界点を抽出する。   First, the setting unit 121 receives a setting (step S201). Next, the accepting unit 122 accepts input of two images A (comparison image) and B (processed image) to be compared and collated (step S202). The reception unit 122 sends the received images A and B to the extraction unit 123. The extraction unit 123 extracts feature points from each of the received images A and B (step S203). For example, the extraction unit 123 extracts contour points and boundary points of buildings, roads, forests, sites, and the like in the image based on the luminance value of each pixel of the image and the direction of luminance change.

次に、作成部124は、抽出部123が抽出した、画像Aの特徴点各々について、特徴量マトリクスを生成する(ステップS204)。すなわち、作成部124は、当該特徴点を中心とする楕円状のマトリクスの各領域内の画素の輝度値を算出し、特徴点の画素の輝度値との差分を算出する。作成部124は、算出した差分を、各領域に対応づけて、特徴量マトリクスを生成する。   Next, the creation unit 124 generates a feature amount matrix for each feature point of the image A extracted by the extraction unit 123 (step S204). That is, the creation unit 124 calculates the luminance value of the pixel in each region of the elliptical matrix centered on the feature point, and calculates the difference from the luminance value of the pixel of the feature point. The creation unit 124 generates a feature amount matrix by associating the calculated difference with each region.

次に、決定部125は、特徴量マトリクスを作成していない方の画像B(処理画像)の特徴点を一つ選択する(ステップS205)。決定部125による選択を受け、作成部124は、画像Bの選択された特徴点について、特徴量マトリクスを作成する(ステップS206)。そして、決定部125は、作成部124が作成した画像Bの特徴点の特徴量マトリクスを、画像A(比較画像)の特徴点各々の特徴量マトリクスと比較して類似度を算出する(ステップS207)。   Next, the determination unit 125 selects one feature point of the image B (processed image) for which a feature amount matrix has not been created (step S205). In response to the selection by the determination unit 125, the creation unit 124 creates a feature amount matrix for the selected feature point of the image B (step S206). Then, the determination unit 125 compares the feature amount matrix of the feature points of the image B created by the creation unit 124 with the feature amount matrix of each feature point of the image A (comparison image) to calculate the similarity (step S207). ).

次に、決定部125は、回転部124aが回転角記憶部115aに記憶された所定の回転数だけ回転処理を実行したか否かを判定する(ステップS208)。所定の回転数の回転処理が完了していないと判定した場合(ステップS208、否定)、決定部125は、処理を作成部124に戻す。回転部124aはさらに、所定角度だけ特徴量マトリクスの軸を回転させて回転処理を実行する(ステップS209)。そして、作成部124が、回転処理を施した特徴量マトリクスを作成し(ステップS206)、決定部125が、類似度を算出して記憶部110に格納する(ステップS207)。   Next, the determination unit 125 determines whether or not the rotation unit 124a has performed the rotation process for the predetermined number of rotations stored in the rotation angle storage unit 115a (step S208). If it is determined that the rotation processing at the predetermined number of rotations has not been completed (No at Step S208), the determination unit 125 returns the processing to the creation unit 124. The rotating unit 124a further performs rotation processing by rotating the axis of the feature amount matrix by a predetermined angle (step S209). Then, the creation unit 124 creates a feature matrix subjected to the rotation process (step S206), and the determination unit 125 calculates the similarity and stores it in the storage unit 110 (step S207).

所定の回転数の回転処理が完了していると判定した場合(ステップS208、肯定)、決定部125は、拡大縮小率記憶部115bに記憶されている拡大縮小率に対応する拡大縮小処理が完了したか否かを判定する(ステップS210)。拡大縮小処理が完了していないと判定した場合(ステップS210、否定)、決定部125は、処理を作成部124に戻す。拡大縮小部124bは完了していない拡大縮小率による特徴量マトリクスの拡大縮小処理を実行する(ステップS211)。そして、作成部124は、拡大縮小処理後の特徴量マトリクスを元に、選択されている画像Bの特徴点の特徴量マトリクスを作成する(ステップS206)。決定部125は、作成された画像Bの特徴点の特徴量マトリクスをもとに、類似度を算出する(ステップS207)。そして、再び、作成部124は、所定回数の回転処理が完了したか否かを判定する(ステップS208)。   If it is determined that the rotation process at the predetermined number of rotations has been completed (Yes at Step S208), the determination unit 125 completes the enlargement / reduction process corresponding to the enlargement / reduction ratio stored in the enlargement / reduction ratio storage unit 115b. It is determined whether or not (step S210). If it is determined that the enlargement / reduction processing has not been completed (No at Step S <b> 210), the determination unit 125 returns the processing to the creation unit 124. The enlargement / reduction unit 124b executes the enlargement / reduction process of the feature amount matrix with the enlargement / reduction ratio that has not been completed (step S211). Then, the creating unit 124 creates a feature amount matrix of the feature points of the selected image B based on the feature amount matrix after the enlargement / reduction processing (step S206). The determination unit 125 calculates the similarity based on the feature amount matrix of the feature points of the created image B (step S207). Then, the creating unit 124 again determines whether or not the predetermined number of rotation processes have been completed (step S208).

他方、ステップS210において拡大縮小処理が完了したと判定した場合(ステップS210、肯定)、決定部125は、算出した類似度のうち最も高い類似度が算出された画像Aの特徴点を選択する(ステップS212)。次に、決定部125は、選択した画像Aの特徴点の類似度が所定値以上か否かを判定する(ステップS213)。所定値未満と判定した場合(ステップS213、否定)、決定部125は、ステップS205で選択した画像Bの特徴点を除外する(ステップS214)。すなわち、画像Bについて特徴点記憶部112に記憶された特徴点の情報から、当該特徴点の情報を削除する。他方、所定値以上と判定した場合(ステップS213、肯定)、決定部125は、ステップS212で選択した画像Aの特徴点と、ステップS206で選択した画像Bの特徴点とをペアとして決定する(ステップS215)。   On the other hand, when it is determined in step S210 that the enlargement / reduction process has been completed (Yes in step S210), the determination unit 125 selects the feature point of the image A for which the highest similarity is calculated among the calculated similarities ( Step S212). Next, the determination unit 125 determines whether the similarity of the feature points of the selected image A is greater than or equal to a predetermined value (step S213). When it determines with less than a predetermined value (step S213, negative), the determination part 125 excludes the feature point of the image B selected at step S205 (step S214). That is, the feature point information is deleted from the feature point information stored in the feature point storage unit 112 for the image B. On the other hand, when it determines with more than predetermined value (step S213, affirmation), the determination part 125 determines the feature point of the image A selected in step S212, and the feature point of the image B selected in step S206 as a pair ( Step S215).

そして、決定部125は、処理画像の全ての特徴点についてペアが決定したか否かを判定する(ステップS216)。全ての特徴点についてペアが決定していないと判定した場合(ステップS216、否定)、決定部125は次の特徴点を選択し(ステップS217)、ステップS206の処理に戻る。他方、全ての特徴点についてペアが決定したと判定した場合(ステップS216、肯定)、位置合わせ部126が、決定した特徴点ペアに基づいて画像の位置合わせをおこなう(ステップS218)。次に、位置合わせ後の二つの画像に基づいて、検出部127が検出処理を実行する(ステップS219)。すなわち、検出部127は、二つの画像の差分を抽出する。そして、検出部127は、差分に対応する特徴点ペアを抽出する。検出部127は、特徴点ペアの決定に用いられた特徴量マトリクスに基づき、ホモグラフィ行列を算出する。そして、検出部127は、ホモグラフィ行列を用いて差分の領域を変換し、変換後の領域の大きさが所定値以上であれば差分とする。なお、検出処理の詳細は後述する。これによって処理が終了する。   Then, the determination unit 125 determines whether or not a pair has been determined for all feature points of the processed image (step S216). When it is determined that no pair has been determined for all feature points (No at Step S216), the determination unit 125 selects the next feature point (Step S217), and returns to the process at Step S206. On the other hand, when it is determined that pairs have been determined for all feature points (Yes in step S216), the alignment unit 126 performs image alignment based on the determined feature point pairs (step S218). Next, based on the two images after the alignment, the detection unit 127 performs a detection process (step S219). That is, the detection unit 127 extracts a difference between two images. And the detection part 127 extracts the feature point pair corresponding to a difference. The detection unit 127 calculates a homography matrix based on the feature amount matrix used for determining the feature point pair. Then, the detection unit 127 converts the difference area using the homography matrix, and determines the difference if the size of the converted area is equal to or greater than a predetermined value. Details of the detection process will be described later. This ends the process.

[特徴量マトリクスの作成処理]
次に、特徴量マトリクスの作成処理の一例について説明する。図12は、特徴量マトリクスの作成処理の一例を説明するための図である。まず、決定部125は、画像から抽出した特徴点の中から一つの特徴点(注目点)を選択する。例えば、決定部125は、図12(A)のPを選択する。作成部124は、注目点から最も近くにある特徴点を選択する。図12(A)の場合、注目点Pから最も近くにある特徴点はPであるため、作成部124は、Pを選択する。作成部124は、そして、PとPとを結ぶ線分に対して90度の角度をなす線分を算出する。作成部124は、算出した線分上での輝度変化を算出して輝度変化が閾値以上になる点を抽出する。図12(A)の場合、Pにおいて、大きな輝度変化が生じ閾値以上となるため、探索の結果、作成部124は、Pを抽出する。そして、作成部124は、Pを中心とし、PおよびPを通る楕円形を算出する(図12(B))。作成部124は、算出した楕円形を複数領域に分割し、各領域内の画素の輝度値と、中心にある特徴点Pの画素値との差分を求め、差分を各領域に対応づける。これによって、特徴点の特徴量マトリクスが作成される。
[Feature matrix creation process]
Next, an example of a feature amount matrix creation process will be described. FIG. 12 is a diagram for explaining an example of a feature amount matrix creation process. First, the determination unit 125 selects one feature point (attention point) from the feature points extracted from the image. For example, the determination unit 125 selects the P 1 in FIG. 12 (A). The creation unit 124 selects a feature point closest to the point of interest. For FIG. 12 (A), the order feature points located nearest the point of interest P 1 is P 2, creating section 124 selects the P 2. Creating unit 124, and calculates a line segment at an angle of 90 degrees relative to a line segment connecting the P 1 and P 2. The creation unit 124 calculates a luminance change on the calculated line segment, and extracts a point where the luminance change is equal to or greater than a threshold value. For FIG. 12 (A), the at P 3, since a large luminance change is equal to or greater than the resulting threshold, the result of the search, creation unit 124 extracts the P 3. Then, the creation unit 124 calculates an ellipse that passes through P 2 and P 3 with P 1 as the center (FIG. 12B). Creating unit 124, the calculated oval divided into a plurality of areas, and the luminance value of the pixels in each region, the difference between the pixel value of the feature point P 1 in the center determined, associating the difference in the respective regions. As a result, a feature quantity matrix of feature points is created.

[最も近い特徴点を利用する理由]
上記の例では、作成部124は、特徴量マトリクスの作成において、注目点から最も近い特徴点を利用する。図13−1乃至図13−3は、特徴量マトリクスの作成処理において、注目点から最も近い特徴点を利用することを説明するための図である。
[Reason for using the closest feature point]
In the above example, the creation unit 124 uses the feature point closest to the attention point in creating the feature amount matrix. FIGS. 13A to 13C are diagrams for explaining the use of the feature point closest to the point of interest in the feature quantity matrix creation process.

まず、図13−1に示す画像Aにおいて、注目点をPとすると、最も近い特徴点はPとなる。これに対して、天候が変化したこと、たとえば、曇りの日や夕方に撮影した等の理由で、画像全体が暗く写ったとする。図13−2に示す画像Bのように、画像全体が暗くなった場合は、画像全体として輝度差の大きい部分、すなわちエッジが弱くなる。しかし、エッジが完全になくなってしまうわけではなく、作成部124は、輝度差の大きい部分を抽出することができる。したがって、作成部124は、注目点をPとし、特徴点Pを最も近い特徴点として抽出することができる。 First, in the image A shown in Figure 13-1, the point of interest and P 1, closest feature points becomes P 2. On the other hand, it is assumed that the entire image appears dark because the weather has changed, for example, because it was taken on a cloudy day or in the evening. When the entire image becomes dark like the image B shown in FIG. 13B, a portion having a large luminance difference, that is, an edge becomes weak as the entire image. However, the edge is not completely lost, and the creation unit 124 can extract a portion having a large luminance difference. Thus, creation section 124, a point of interest and P 1, it is possible to extract the feature point P 2 as the nearest feature point.

さらに、日照の変化により画像の一部に影がかかる等の変化が生じる場合がある。図13−3に示す画像Cのように、画像の左下領域のみに影がかかり、左下領域のみ明るさが他の部分と異なった場合を考える。この場合、左下領域においてはエッジが弱くなるため、作成部124は、Pを特徴点として抽出できないことがある。そして、Pが特徴点として抽出されない結果、作成部124は、他の特徴点、たとえば、Pを注目点Pから最も近い特徴点として抽出する。この場合は、作成部124が作成する特徴マトリクスは、比較画像の特徴点について作成される特徴マトリクスとずれることになり、正しく特徴点ペアが検出できない可能性がある。 Furthermore, a change such as a shadow on a part of the image may occur due to a change in sunlight. Let us consider a case in which only the lower left region of the image is shaded and the brightness of only the lower left region is different from the other portions as in the image C shown in FIG. In this case, in the lower left area because the edge is weak, creation unit 124 may not be able to extract the P 2 as a feature point. As a result of P 2 is not extracted as a feature point, creating 124, other feature points, for example, to extract the P 3 as a feature point closest to the point of interest P 1. In this case, the feature matrix created by the creation unit 124 is shifted from the feature matrix created for the feature points of the comparison image, and there is a possibility that a feature point pair cannot be detected correctly.

しかし、通常は、特徴点ペアとして数百のペアを抽出したのち、正当性をチェックして誤対応ペアを除外する処理を行う。また、衛星画像等の場合、全ての特徴点について日照変化等の影響で誤検出が生じる可能性は低い。したがって、日照変化の影響を考慮しても、最も近い特徴点を抽出して特徴量マトリクスを作成することによって妥当な特徴点ペアを決定することができる。また、作成部124は、二つの画像の一方の特徴点については、回転処理および拡大縮小処理を行い、一つの特徴点について複数の特徴量マトリクスを作成し、類似度が閾値より小さい場合は、特徴点を除外する。したがって、誤検出を抑制して適正な特徴点ペアを決定することができる。   However, normally, after extracting hundreds of pairs as feature point pairs, the correctness is checked and processing for excluding erroneous correspondence pairs is performed. In the case of a satellite image or the like, it is unlikely that erroneous detection will occur due to the influence of sunshine change or the like on all feature points. Therefore, even if the influence of sunshine change is taken into consideration, an appropriate feature point pair can be determined by extracting the closest feature point and creating a feature amount matrix. Further, the creation unit 124 performs rotation processing and enlargement / reduction processing for one feature point of the two images, creates a plurality of feature amount matrices for one feature point, and when the similarity is smaller than the threshold value, Exclude feature points. Accordingly, it is possible to determine an appropriate feature point pair while suppressing erroneous detection.

なお、このように、最も近い特徴点の方向を楕円状のマトリクスの一軸方向とする場合、特徴量マトリクスの領域の設定は、当該軸方向を基準として行う。たとえば、図6に示す例において楕円の長軸方向(列1から列7へ向かう方向)を、最も近い特徴点の方向として、図6に示すようにマトリクスの領域を設定し、各領域の輝度差の値を算出する。これによって、異なる画像の特徴点の特徴量マトリクスを適正に比較することができる。ただし、特徴量マトリクスを適正に比較することができれば、他の基準を用いて特徴量マトリクスの領域を設定してもよい。   As described above, when the direction of the closest feature point is set as one axis direction of the elliptical matrix, the region of the feature amount matrix is set on the basis of the axis direction. For example, in the example shown in FIG. 6, the area of the matrix is set as shown in FIG. 6 with the long axis direction of the ellipse (direction from column 1 to column 7) as the direction of the closest feature point, and the luminance of each area Calculate the difference value. This makes it possible to properly compare the feature quantity matrices of feature points of different images. However, if the feature amount matrix can be properly compared, the region of the feature amount matrix may be set using another criterion.

[拡大縮小処理]
図14を参照し、特徴量マトリクスの拡大縮小処理について説明する。図14は、特徴量マトリクスの拡大縮小処理を説明するための図である。まず、上述のように注目点Pから最も近い特徴点Pを抽出し、注目点Pと最も近い特徴点Pとを結ぶ線分に対して90度の角度をなす線分上において輝度変化が閾値以上となる点Pを抽出する。そして、90度の角度をなす線分の長さを所定の割合で増減させて、複数の特徴量マトリクスを作成する。
[Enlargement / reduction processing]
The feature amount matrix enlargement / reduction processing will be described with reference to FIG. FIG. 14 is a diagram for explaining the feature quantity matrix enlargement / reduction processing. First, on the line segment at an angle of 90 degrees to the extracted nearest feature point P 2 from the target points P 1, as described above, connecting the point of interest P 1 and the nearest feature point P 2 segment extracting a point P 3 in the luminance is equal to or more than a threshold. Then, the length of the line segment forming an angle of 90 degrees is increased or decreased by a predetermined ratio to create a plurality of feature amount matrices.

90度の角度をなす線分の長さは、注目点から注目点に最も近い特徴点までの長さを基準として、増減の範囲を0.5倍〜2倍までに設定してもよい。そして、基準の長さに対して、0.5倍、0.6倍、0.7倍、・・・2.0倍まで長さを変化させて特徴量マトリクスを作成すればよい。たとえば、図14に示すように、90度の角度をなす線分の長さを変更する。   The length of the line segment that forms an angle of 90 degrees may be set to 0.5 to 2 times the range of increase / decrease based on the length from the point of interest to the feature point closest to the point of interest. Then, the feature amount matrix may be created by changing the length to 0.5 times, 0.6 times, 0.7 times,..., 2.0 times with respect to the reference length. For example, as shown in FIG. 14, the length of a line segment forming an angle of 90 degrees is changed.

このように、特徴量マトリクスの短軸又は長軸の長さを変化させて複数の特徴量マトリクスを作成することにより、画像の一部が歪んでいる場合であっても、正確に画像の輝度を反映した特徴量マトリクスを作成することができる。   In this way, by creating a plurality of feature amount matrices by changing the length of the short axis or long axis of the feature amount matrix, even if a part of the image is distorted, the brightness of the image can be accurately obtained. Can be created.

なお、ここでは、特徴点(注目点)から最も近い他の特徴点を抽出して、注目点と当該他の特徴点を結ぶ線分と、当該線分と90度の角度をなす線分とを、楕円状の特徴量マトリクスの短軸および長軸とした。しかし、これに限定されず、任意の方向と、当該方向と所定の関係を有する他の方向とを、楕円形状のマトリクスの短軸方向及び長軸方向としてもよい。たとえば、画像に方位情報が含まれていれば、北方向等を第1の方向、すなわち、楕円の短軸方向または長軸方向の一方としてもよい。また、第1の方向に対して、いずれかの方向に90度を任意の角度(90度±α)で補正した方向を第2の方向、すなわち、楕円の短軸方向または長軸方向の他方としてもよい。この場合も、拡大縮小部124bは、拡大縮小処理を、特徴量マトリクスの長軸または短軸を所定の比率で増減させることにより実行すればよい。また、回転処理および拡大縮小処理をともに実行する場合は、拡大縮小部124bは、回転後の軸方向に特徴量マトリクスを拡大縮小するものとしてもよい。   Here, the other feature point closest to the feature point (attention point) is extracted, a line segment connecting the attention point and the other feature point, and a line segment forming an angle of 90 degrees with the line segment. Are the short axis and long axis of the elliptic feature matrix. However, the present invention is not limited to this, and an arbitrary direction and another direction having a predetermined relationship with the direction may be the short axis direction and the long axis direction of the elliptical matrix. For example, if the image includes orientation information, the north direction or the like may be the first direction, that is, one of the minor axis direction and the major axis direction of the ellipse. Also, a direction obtained by correcting 90 ° in any direction by an arbitrary angle (90 ° ± α) with respect to the first direction is the second direction, ie, the other of the minor axis direction or the major axis direction of the ellipse. It is good. Also in this case, the enlargement / reduction unit 124b may perform the enlargement / reduction process by increasing / decreasing the major axis or the minor axis of the feature amount matrix at a predetermined ratio. When both the rotation process and the enlargement / reduction process are executed, the enlargement / reduction unit 124b may enlarge or reduce the feature amount matrix in the axial direction after the rotation.

なお、ここでは、90度方向の線分の長さは、当該方向上の点で、当該点における輝度変化が所定の閾値以上となる点とした。しかし、90度方向の線分の長さは、たとえば、所定画素数の長さとしてもよく、楕円の中心となる特徴点と当該特徴点と最も近い特徴点との間の長さに対する比率によって決定してもよい。   Here, the length of the line segment in the 90-degree direction is a point on the direction in which the luminance change at the point is equal to or greater than a predetermined threshold. However, the length of the line segment in the 90-degree direction may be, for example, the length of a predetermined number of pixels, depending on the ratio to the length between the feature point that is the center of the ellipse and the feature point closest to the feature point. You may decide.

[縮小率および拡大率の設定]
図15は、拡大縮小処理での縮小率についてさらに説明するための図である。図15に示すように、特徴量マトリクスの半径をR(Rは画素数で示す)、半径方向の領域数をNとする。ここで、半径Rが、領域数Nよりも小さい場合、半径方向の1領域が1画素に満たないことになる。そこで、拡大縮小部124bは、縮小率を、半径方向の1領域が1画素以上となるように設定する。すなわち、縮小率pの最大値は、p=N/Rとする。
[Setting the reduction ratio and enlargement ratio]
FIG. 15 is a diagram for further explaining the reduction ratio in the enlargement / reduction processing. As shown in FIG. 15, the radius of the feature quantity matrix is R (R is the number of pixels), and the number of regions in the radial direction is N. Here, when the radius R is smaller than the number N of regions, one region in the radial direction is less than one pixel. Therefore, the enlargement / reduction unit 124b sets the reduction rate such that one area in the radial direction is 1 pixel or more. That is, the maximum value of the reduction ratio p is set to p = N / R.

また、拡大縮小部124bは、拡大率qを、画像の大きさを元に算出する。図16−1および図16−2は、拡大縮小処理での拡大率について説明するための図である。図16−1に示すように、拡大縮小部124bは、拡大縮小率を、特徴量マトリクスが画像の縦横の長さを超えるような数値に設定することはできない。たとえば、図16−1に示すように、画像の縦方向長さをW、横方向長さをHとする。このとき、特徴点が図16−1の座標「(x,y)」で表される位置にある場合、特徴量マトリクスの半径を、特徴点から画像上端までの距離より長く設定することはできない。また、特徴点が図16−1の座標「(x,y)」で表される位置にある場合、特徴量マトリクスの半径を、特徴点から画像右端までの距離より長く設定することはできない。したがって、拡大縮小部124bは、特徴点の座標の位置に応じて、設定できる特徴量マトリクスの拡大率を決定することができる。 The enlargement / reduction unit 124b calculates the enlargement ratio q based on the size of the image. FIGS. 16A and 16B are diagrams for explaining the enlargement ratio in the enlargement / reduction process. As illustrated in FIG. 16A, the enlargement / reduction unit 124b cannot set the enlargement / reduction ratio to a numerical value such that the feature amount matrix exceeds the vertical and horizontal lengths of the image. For example, as shown in FIG. 16A, the vertical length of the image is W and the horizontal length is H. At this time, when the feature point is at the position represented by the coordinates “(x 1 , y 1 )” in FIG. 16A, the radius of the feature amount matrix is set longer than the distance from the feature point to the upper end of the image. I can't. Further, when the feature point is at the position represented by the coordinates “(x 2 , y 2 )” in FIG. 16A, it is possible to set the radius of the feature amount matrix longer than the distance from the feature point to the right edge of the image. Can not. Therefore, the enlargement / reduction unit 124b can determine the enlargement ratio of the feature amount matrix that can be set according to the coordinate position of the feature point.

拡大率qは、特徴点の位置が、図16−2に示す位置(1)〜(4)のいずれの位置にあるかによって、以下の式に基づいて決定することができる。   The enlargement ratio q can be determined based on the following formula depending on which of the positions (1) to (4) shown in FIG.

特徴点が、図16−2の位置(1)にある場合は、xがyよりも大きければ、q=x/Rとなる。また、xよりyが小さければ、q=y/Rとなる。   When the feature point is at position (1) in FIG. 16B, if x is larger than y, q = x / R. If y is smaller than x, q = y / R.

特徴点が、図16−2の位置(2)にある場合は、(W−x)よりyが大きければ、q=(W−x)/Rとなる。また、(W−x)よりyが小さければ、q=y/Rとなる。   When the feature point is at position (2) in FIG. 16-2, if y is larger than (W−x), q = (W−x) / R. If y is smaller than (W−x), q = y / R.

特徴点が、図16−2の位置(3)にある場合は、xより(H−y)が大きければ、q=x/Rとなる。また、xより(H−y)が小さければ、q=(H−y)/Rとなる。   When the feature point is at position (3) in FIG. 16B, if (H−y) is larger than x, q = x / R. If (H−y) is smaller than x, q = (H−y) / R.

特徴点が、図16−2の位置(4)にある場合は、(W−x)より(H−y)が大きければ、q=(W−x)/Rとなる。また、(W−x)より(H−y)が小さければ、q=(H−y)/Rとなる。   When the feature point is at the position (4) in FIG. 16B, if (H−y) is larger than (W−x), q = (W−x) / R. If (H−y) is smaller than (W−x), q = (H−y) / R.

このように、拡大率および縮小率を設定することができる。しかし、拡大縮小による変化の幅が最大となるように拡大率および縮小率を設定した場合、処理量が多くなり、画像処理サーバ100の負担も増加する。したがって、画像間で拡大率に大きな変動がない衛星画像等の場合には、拡大縮小の幅を小さく設定することで、処理量の増加を抑制してもよい。また、適用する画像の種類に応じて、予め拡大縮小率を設定しておいてもよい。   Thus, the enlargement ratio and reduction ratio can be set. However, when the enlargement ratio and the reduction ratio are set so that the range of change due to enlargement / reduction is maximized, the processing amount increases and the burden on the image processing server 100 also increases. Therefore, in the case of a satellite image or the like in which there is no great variation in the enlargement ratio between images, an increase in the processing amount may be suppressed by setting a smaller enlargement / reduction width. Further, an enlargement / reduction ratio may be set in advance according to the type of image to be applied.

[回転処理]
次に、図17−1乃至図17−3を参照し、処理画像の特徴点の特徴量マトリクスの回転処理を説明する。図17−1乃至図17−3は、特徴量マトリクスの回転処理について説明するための図である。
[Rotation processing]
Next, with reference to FIG. 17A to FIG. FIGS. 17A to 17C are diagrams for explaining the rotation process of the feature amount matrix.

図17−1に示すように、撮影角度が変化した場合、複数画像間で、画像の映り具合が変化する。図17−1に示す画像Aと図17−2に示す画像Bとでは、被写体の縦横の長さの比率が微妙に変化している。画像Aでは、注目点をP1Aとした場合、作成部124は、最も近い特徴点としてはP2Aを抽出する。そして、作成部124は、P1AとP2Aとを結ぶ線分に対して90度の角度をなす線分上のP3Aを抽出する。そしてP3Aにおいて大きな輝度変化が生じているため、作成部124は、P3Aを、輝度変化が所定値以上になる点として抽出する。他方、画像Bでは、画像Aと比較して横方向の長さが短くなっている。このため、注目点をP1Bとした場合、作成部124は、最も近い特徴点としてP2Bを抽出するが、P1BとP2Bとを結ぶ線分と90度をなす線分上にP3Bがないため、P3Bを抽出できない。 As shown in FIG. 17A, when the shooting angle changes, the image appearance changes between a plurality of images. In the image A shown in FIG. 17A and the image B shown in FIG. 17-2, the ratio of the vertical and horizontal lengths of the subject slightly changes. In the image A, when the attention point is P1A , the creation unit 124 extracts P2A as the closest feature point. The creation unit 124 extracts the P 3A on the line segment at an angle of 90 degrees relative to a line segment connecting the P 1A and P 2A. Since a large luminance change has occurred in P 3A , the creating unit 124 extracts P 3A as a point where the luminance change is equal to or greater than a predetermined value. On the other hand, the length in the horizontal direction is shorter in the image B than in the image A. Therefore, when the point of interest is P 1B , the creation unit 124 extracts P 2B as the closest feature point, but P 3B is placed on a line segment that forms 90 degrees with the line segment connecting P 1B and P 2B. because there is no, it can not be extracted P 3B.

ここで、輝度が大きく変化する点として抽出される点を、画像Aと画像Bとで等しくするためには、輝度変化を抽出するために用いる線分の角度を変化させるとよい。そこで、作成部124は、注目点と、注目点に最も近い特徴点とを結ぶ線分となす角度を90度から所定の範囲内で増減させて、複数の特徴量マトリクスを作成する(画像C、図17−3参照)。角度は、たとえば、線分に対して−89度から+89度までの範囲内で、1度ずつ変化させればよい。   Here, in order to make the point extracted as the point where the luminance greatly changes between the image A and the image B, the angle of the line segment used for extracting the luminance change may be changed. Therefore, the creation unit 124 creates a plurality of feature amount matrices by increasing or decreasing the angle between the attention point and the line segment connecting the feature point closest to the attention point within a predetermined range from 90 degrees (image C). FIG. 17-3). For example, the angle may be changed by 1 degree within a range from -89 degrees to +89 degrees with respect to the line segment.

[角度変化範囲の決定処理]
画像処理サーバ100は、特にユーザが設定しなくとも、画像とともに撮影角度の情報を受信した場合、回転部124aが、受信した情報に基づき角度変化範囲を算出するものとしてもよい。回転部124aが角度変化範囲を算出する場合は、算出した数値等が、回転角記憶部115aに記憶される。そして、算出した角度変化範囲に基づき、回転部124aは、特徴量マトリクスの回転処理を実行するものとしてもよい。
[Angle change range determination processing]
The image processing server 100 may calculate the angle change range based on the received information when the information on the shooting angle is received together with the image even if the user does not set the image processing server 100. When the rotation unit 124a calculates the angle change range, the calculated numerical value or the like is stored in the rotation angle storage unit 115a. Then, based on the calculated angle change range, the rotation unit 124a may execute a rotation process of the feature amount matrix.

そこで、次に、回転部124aが楕円状の特徴量マトリクスの長軸と短軸とがなす角度を所定の範囲内で増減させて複数の特徴量マトリクスを作成する場合に、角度を変化させる範囲を決定する手法について、図18−1乃至図18−7を参照して説明する。図18−1乃至図18−6は、回転部124aにおける角度変化範囲の決定手法について説明するための図である。図18−7は、回転部124aが決定する角度変化範囲の一例を示す図である。   Therefore, next, when the rotation unit 124a increases or decreases the angle formed by the major axis and the minor axis of the elliptic feature quantity matrix within a predetermined range to create a plurality of feature quantity matrices, the range in which the angle is changed. A method for determining the value will be described with reference to FIGS. 18-1 to 18-7. 18A to 18D are diagrams for explaining a method of determining the angle change range in the rotating unit 124a. FIG. 18-7 is a diagram illustrating an example of an angle change range determined by the rotating unit 124a.

たとえば、衛星画像や航空画像においては、撮影場所から被写体への角度を撮影時に取得できる場合がある。このような場合には、回転部124aは、取得した角度を元に、角度を変化させる範囲を決定することができる。例えば、図18−1に示すように、地上に半径rの正円が存在すると考える。この場合、図18−1に示す上空の位置Xから真下方向を撮影した場合、半径rの正円は、図18−2のように見える。また、図18−1に示す上空の位置Yから斜め下方向の半径rの正円を撮影したとする。位置Xと位置Yとの成す角度はθであるとする。この場合、位置Yから撮影した正円は、図18−3のように見える。すなわち、長軸半径がr、短軸半径がrcosθの楕円に見える。   For example, in satellite images and aerial images, the angle from the shooting location to the subject may be acquired at the time of shooting. In such a case, the rotating unit 124a can determine a range in which the angle is changed based on the acquired angle. For example, as shown in FIG. 18A, it is assumed that a perfect circle with a radius r exists on the ground. In this case, when an image is taken in the downward direction from the position X in the sky shown in FIG. 18A, a perfect circle with a radius r looks as shown in FIG. Further, it is assumed that a perfect circle having a radius r obliquely downward from the sky position Y shown in FIG. Assume that the angle between the position X and the position Y is θ. In this case, the perfect circle photographed from the position Y looks as shown in FIG. That is, it looks like an ellipse having a major axis radius r and a minor axis radius rcos θ.

このように斜めから撮影した画像の場合は、実際は90度の部分の見かけの角度が90度とは大きく異なる場合がある。例えば、図18−4に示す例では、二つの矢印にはさまれた部分の角度は実際の被写体においては90度であるが、見かけ上は90度より大きいまたは小さい角度に見える。他方、図18−1の位置Xのように被写体の真上から撮影を行った場合は、見かけの角度と実際の角度が一致する。図18−5に示す例では、見かけの角度が実際の角度と同じ90度になっている。   Thus, in the case of an image taken from an oblique direction, the apparent angle of the 90-degree portion may actually differ greatly from 90 degrees. For example, in the example shown in FIG. 18-4, the angle between the two arrows is 90 degrees in an actual subject, but it appears to be larger or smaller than 90 degrees in appearance. On the other hand, when the image is taken from directly above the subject as in the position X in FIG. 18A, the apparent angle matches the actual angle. In the example shown in FIG. 18-5, the apparent angle is 90 degrees, which is the same as the actual angle.

そこで、回転部124aは、実際の被写体上において90度である角度を包含する範囲について、角度を変化させるように、角度を変化させる範囲を決定する。例えば、撮影位置が被写体の真上方向となす角度がθである場合、中心を原点とする座標を描くと、図18−6に示すように、座標(r,rcosθ)の位置と、座標(r,−rcosθ)の位置と、座標(−r,rcosθ)の位置によって決定される角度φmaxおよびφminによって、角度を変化させる範囲を決定できる。実際に90度の角度の見かけ上の角度は、最大でφmax、最小でφminとなるためである。具体的には、角度を変化させる範囲は、以下の式で定義できる。 Therefore, the rotation unit 124a determines a range in which the angle is changed so that the angle is changed with respect to a range including the angle of 90 degrees on the actual subject. For example, when the angle at which the shooting position is directly above the subject is θ, when the coordinates with the center as the origin are drawn, the position of the coordinates (r, r cos θ) and the coordinates ( r, the position of -rcosθ), coordinates (-r, by the angle phi max and phi min is determined by the position of rcosθ), it can determine the extent of changing the angle. This is because the apparent angle of 90 degrees is actually φ max at the maximum and φ min at the minimum. Specifically, the range for changing the angle can be defined by the following equation.

φmin≦変化範囲≦φmax φ min ≤ change range ≤ φ max

ここで、φmaxおよびφminは以下の式により求めることができる。 Here, φ max and φ min can be obtained by the following equations.

φmin=2tan−1(cosθ) φ min = 2 tan −1 (cos θ)

φmax=2tan−1(1/cosθ) φ max = 2 tan −1 (1 / cos θ)

たとえば、θ=30度の場合、φminは81.79度、φmaxは98.21度となる。したがって、角度を変化させる範囲は、81.79度以上98.21度以下となる。 For example, when θ = 30 degrees, φ min is 81.79 degrees and φ max is 98.21 degrees. Therefore, the range in which the angle is changed is 81.79 degrees or more and 98.21 degrees or less.

図18−7に、θの角度ごとに算出した角度を変化させる範囲の一例を示す。回転部124aは、たとえば、図18−7に示す変化範囲内で、所定角度ずつ角度を変化させて特徴量マトリクスを作成すればよい。実際の処理においては、回転部124aは、図18−7に示す角度を画素数に換算して、変化させる角度を決定する。たとえば、1画素が50センチメートルから1メートルに相当するとすれば、回転部124aは、2、3画素ずつ角度を変化させて特徴量マトリクスを作成する。なお、回転部124aは、角度を変化させる単位を、差分として抽出したい対象物の大きさにあわせて決定するものとしてもよい。   FIG. 18-7 shows an example of a range in which the angle calculated for each angle of θ is changed. For example, the rotation unit 124a may create the feature amount matrix by changing the angle by a predetermined angle within the change range shown in FIG. 18-7. In actual processing, the rotating unit 124a converts the angle shown in FIG. 18-7 into the number of pixels and determines the angle to be changed. For example, if one pixel corresponds to 50 centimeters to 1 meter, the rotating unit 124a creates a feature amount matrix by changing the angle by two or three pixels. The rotating unit 124a may determine a unit for changing the angle according to the size of the object to be extracted as a difference.

[回転処理を経た特徴量マトリクスの作成処理]
次に、回転処理を実行する場合の作成部124による特徴量マトリクスの作成処理につき説明する。図19−1乃至図19−6は、回転処理を経た特徴量マトリクスの作成処理について説明するための図である。まず、図19−1に示すように、回転部124aが、90度方向を角度θだけ回転させるとする。なお、図19−1中、注目点をP、注目点に最も近い特徴点をPで示す。
[Process of creating feature matrix after rotation process]
Next, a feature amount matrix creation process by the creation unit 124 when executing the rotation process will be described. FIG. 19A to FIG. 19D are diagrams for explaining a feature amount matrix creation process that has undergone a rotation process. First, as shown in FIG. 19A, it is assumed that the rotating unit 124a rotates the 90-degree direction by an angle θ. In FIG. 19A, the attention point is denoted by P 1 and the feature point closest to the attention point is denoted by P 2 .

このように回転部124aが90度方向を角度θだけ回転させると、注目点Pを中心とした楕円を描くことができない。そこで、回転部124aは、四つの楕円の部分を組み合わせることによって特徴量マトリクスを作成する。まず、図19−2に示すように、90度方向をθだけ回転させた線分の先端をPとする。そして、回転部124aは、Pから、PとPとを結ぶ線分に対しておろした垂線と、PとPとを結ぶ線分との交点Pを算出する。そして、回転部124aは、垂線を短径(または長径)とし、PからPまでの距離を長径(または短径)とする楕円を算出する。まず、図19−2に示すように、回転部124aは、右上部分について、Pを中心とする楕円を算出する。 With such rotation part 124a rotates the 90 degree direction by an angle theta, it is impossible to draw an ellipse around the attention point P 1. Therefore, the rotation unit 124a creates a feature amount matrix by combining four ellipse portions. First, as shown in FIG. 19-2, let P x be the tip of a line segment rotated 90 degrees in the direction of θ. The rotating portion 124a from P x, calculates the perpendicular line drawn against a line segment connecting the P 1 and P 2, the intersection point P 3 and a line segment connecting the P 1 and P 2. The rotating portion 124a includes a perpendicular and shorter diameter (or major axis) to calculate the ellipse the distance from P 3 to P 2 and the major axis (or minor axis). First, as shown in Figure 19-2, the rotation part 124a, for the upper right portion, it calculates an ellipse centered on P 3.

次に、図19−3に示すように、回転部124aは、左上部分について、Pを中心とし、PとPとの間の距離だけ、Pから左方向に伸ばした点までの距離を長径(または短径)とし、垂線を短径(または長径)とする楕円を算出する。さらに、図19−4に示すように、回転部124aは、90度方向を角度θだけ回転させて得られる線分の下側の端点PからPとPとを結ぶ線分に対する垂線を算出する。そして、回転部124aは、PとPとを結ぶ線分と垂線との交点Pを算出する。また、回転部124aは、PからPまでの長さだけ、PからPと反対方向に延ばした線分の端点Pを算出する。そして、図19−4に示すように、回転部124aは、左下部分について、Pを中心とし、PからPの長さを短径(または長径)、PからPの長さを長径(または短径)とする楕円を算出する。さらに、図19−5に示すように、回転部124aは、右下部分について、Pを中心とし、PからPの長さを長径(または短径)、PからPまでの長さを短径(または長径)とする楕円を算出する。 Next, as shown in Figure 19-3, the rotation part 124a, for the upper left portion, centered on P 3, the distance between P 1 and P 2, from P 3 to the point where extended leftward An ellipse having a major axis (or minor axis) as the distance and a minor axis (or major axis) as the perpendicular is calculated. Furthermore, as shown in Figure 19-4, the rotation part 124a is normal to a line connecting the P 1 and P 2 from the lower side of the end point P y of the line obtained by rotating the direction of 90 degrees by an angle θ Is calculated. The rotation unit 124a calculates the intersection point P 4 and a line segment and a vertical line connecting the P 1 and P 2. The rotating portion 124a, only the length from P 1 to P 2, and calculates the end point P 5 of the line segment extended in opposite directions from the P 1 and P 2. Then, as shown in Figure 19-4, the rotation part 124a, for bottom left, centered on P 4, the length of P 5 from P 4 the length of the P y minor axis (or diameter) from P 4 An ellipse having a major axis (or a minor axis) as a diameter is calculated. Furthermore, as shown in Figure 19-5, the rotation part 124a, for the lower right portion, centered on P 4, the P 4 of the length of the P 2 major axis (or minor axis), from P 4 to P y An ellipse whose length is the minor axis (or major axis) is calculated.

回転部124aは、このようにして求めた楕円の四つの部分を組み合わせることによって、特徴量マトリクスを算出する(図19−6)。   The rotation unit 124a calculates a feature matrix by combining the four parts of the ellipse thus obtained (FIG. 19-6).

そして、作成部124は、回転部124aが算出した特徴量マトリクスの各領域に、当該領域内の画素の輝度値と特徴点の画素の輝度値との差分を対応づけることにより、特徴量マトリクスを作成する。   Then, the creation unit 124 associates the difference between the luminance value of the pixel in the region and the luminance value of the pixel of the feature point with each region of the feature amount matrix calculated by the rotation unit 124a, thereby generating the feature amount matrix. create.

[検出部の構成の一例]
次に、図20を参照し、検出部127の構成の一例について説明する。図20は、検出部127の構成の一例を示す図である。図20に示すように、検出部127は、差分抽出部127aと、変換部127bと、差分合成部127cと、を備える。
[Example of detector configuration]
Next, an example of the configuration of the detection unit 127 will be described with reference to FIG. FIG. 20 is a diagram illustrating an example of the configuration of the detection unit 127. As illustrated in FIG. 20, the detection unit 127 includes a difference extraction unit 127a, a conversion unit 127b, and a difference synthesis unit 127c.

差分抽出部127aは、位置合わせ後の二つの画像から差分を抽出する。差分抽出部127aは、たとえば各画像の輝度を算出し、輝度の差が所定値以上の領域を抽出する。ただし、差分抽出に用いる手法は特に限定されない。   The difference extraction unit 127a extracts a difference from the two images after alignment. The difference extraction unit 127a calculates, for example, the luminance of each image, and extracts an area where the luminance difference is equal to or greater than a predetermined value. However, the method used for difference extraction is not particularly limited.

さらに、差分抽出部127aは、抽出した差分に対応する特徴点を、二つの画像それぞれから抽出する。たとえば、差分抽出部127aは、抽出した差分画像を、複数の矩形領域に分割し、各領域内の特徴点を抽出する。矩形領域内に位置する差分を、以下「差分領域」とも称する。差分抽出部127aは、たとえば、矩形領域の座標(図10参照)と、特徴点記憶部112に記憶されている特徴点の座標(図3参照)とを照合して、当該領域内にある特徴点を抽出する。   Further, the difference extraction unit 127a extracts a feature point corresponding to the extracted difference from each of the two images. For example, the difference extraction unit 127a divides the extracted difference image into a plurality of rectangular areas, and extracts feature points in each area. The difference located in the rectangular area is hereinafter also referred to as “difference area”. For example, the difference extraction unit 127a collates the coordinates of the rectangular area (see FIG. 10) with the coordinates of the feature points stored in the feature point storage unit 112 (see FIG. 3), and the features in the area. Extract points.

ここで差分抽出部127aが抽出する特徴点は、差分領域内にあることが好ましいが、当該差分領域を含む矩形領域内の特徴点であれば、差分領域外の特徴点を抽出してもよい。   Here, the feature points extracted by the difference extraction unit 127a are preferably in the difference area. However, if the feature points are in the rectangular area including the difference area, the feature points outside the difference area may be extracted. .

差分抽出部127aは、たとえば画像A(処理画像)と差分とを照合して、各領域に含まれる画像Aの特徴点を抽出し、抽出した画像Aの特徴点と特徴点ペアを構成する、画像B(比較画像)の特徴点を抽出する。いずれの画像と差分とを先に照合するかは、差分の抽出態様によって決定すればよい。   The difference extraction unit 127a compares, for example, the image A (processed image) and the difference, extracts the feature points of the image A included in each region, and configures the feature point and feature point pairs of the extracted image A. Feature points of image B (comparison image) are extracted. Which image and the difference are collated first may be determined by the difference extraction mode.

変換部127bは、差分抽出部127aにより抽出された、二つの画像の特徴点それぞれについての特徴量マトリクスに基づいて、ホモグラフィ行列を算出する。ホモグラフィ行列の算出手法については後述する。なお、変換部127bは、決定部125により特徴点ペアであると決定された二つの特徴点の、回転処理および拡大縮小処理を施していない特徴量マトリクスを用いてホモグラフィ行列を算出する。そして、変換部127bは、算出したホモグラフィ行列に基づいて、差分領域を変換する。   The conversion unit 127b calculates a homography matrix based on the feature amount matrix for each of the feature points of the two images extracted by the difference extraction unit 127a. A method for calculating the homography matrix will be described later. Note that the conversion unit 127b calculates a homography matrix using the feature amount matrix that has not been subjected to the rotation process and the enlargement / reduction process of the two feature points determined to be a feature point pair by the determination unit 125. Then, the conversion unit 127b converts the difference area based on the calculated homography matrix.

なお、ここでは、変換部127bは、特徴点ペア決定処理において利用した特徴量マトリクスを用いてホモグラフィ行列を算出するものとした。ただし、位置合わせ後の二つの画像に対して、再度、特徴点ペアをなす各特徴点の特徴量マトリクスを作成してホモグラフィ行列を算出するものとしてもよい。   Here, it is assumed that the conversion unit 127b calculates a homography matrix using the feature amount matrix used in the feature point pair determination process. However, a homography matrix may be calculated by creating a feature quantity matrix of each feature point forming a feature point pair again for the two images after alignment.

差分合成部127cは、変換部127bによって変換された後の差分領域の大きさを所定値と比較し、所定値以上の場合は、当該差分領域を差分であると判定する。すなわち、差分合成部127cは、当該差分の情報を差分記憶部116から削除しない。他方、所定値より小さい場合は、差分合成部127cは、当該差分領域は差分ではないと判定する。すなわち、差分合成部127cは、当該差分の情報を、差分記憶部116から削除する。すなわち、当該差分領域を含む矩形領域の領域IDに対応する差分領域画像から差分が削除される(図10参照)。   The difference synthesis unit 127c compares the size of the difference area after being converted by the conversion unit 127b with a predetermined value, and determines that the difference area is a difference if the size is equal to or greater than the predetermined value. That is, the difference synthesis unit 127 c does not delete the difference information from the difference storage unit 116. On the other hand, when it is smaller than the predetermined value, the difference composition unit 127c determines that the difference area is not a difference. That is, the difference synthesis unit 127c deletes the difference information from the difference storage unit 116. That is, the difference is deleted from the difference area image corresponding to the area ID of the rectangular area including the difference area (see FIG. 10).

[ホモグラフィ行列の算出手法の一例]
次に、図21−1および図21−2を参照して、ホモグラフィ行列の算出手法の一例につき説明する。図21−1および図21−2は、ホモグラフィ行列の算出手法の一例につき説明するための図である。
[Example of homography matrix calculation method]
Next, an example of a homography matrix calculation method will be described with reference to FIGS. 21-1 and 21-2. FIG. 21A and FIG. 21B are diagrams for explaining an example of a homography matrix calculation method.

たとえば、矩形領域内の特徴点の特徴量マトリクスが、画像A(比較画像)については図21−1に示す形状であり、画像B(処理画像)については図21−2に示す形状であったとする。このとき、それぞれの特徴量マトリクスを、特徴点を原点とする座標上に位置づける。そして、座標の各座標軸と、特徴量マトリクスの輪郭線との交点の座標を求める。このとき、たとえば、座標の横軸と、特徴量マトリクスの中心の特徴点と、当該特徴点と最も近い特徴点とを結ぶ線分とを一致させるように配置してもよい。ただし、特徴量マトリクスを座標上に配置する際の態様は特に限定されない。   For example, the feature quantity matrix of the feature points in the rectangular area has the shape shown in FIG. 21-1 for the image A (comparison image) and the shape shown in FIG. 21-2 for the image B (processed image). To do. At this time, each feature amount matrix is positioned on the coordinates with the feature point as the origin. And the coordinate of the intersection of each coordinate axis of a coordinate and the outline of a feature-value matrix is calculated | required. At this time, for example, the coordinate axis, the feature point at the center of the feature matrix, and the line segment connecting the feature point and the closest feature point may be arranged to coincide with each other. However, the aspect at the time of arrange | positioning a feature-value matrix on a coordinate is not specifically limited.

図21−1の例では、変換部127bは、p1,p2,p3およびp4の4つの点を算出する。図21−2の例では、変換部127bは、p1´,p2´,p3´およびp4´の4つの点を算出する。そして、変換部127bは、p1,p2,p3およびp4をそれぞれ、p1´,p2´,p3´およびp4´に移動させる行列を算出する。算出した行列が、この特徴点ペアに対するホモグラフィ行列となる。   In the example of FIG. 21A, the conversion unit 127b calculates four points p1, p2, p3, and p4. In the example of FIG. 21-2, the conversion unit 127b calculates four points p1 ′, p2 ′, p3 ′, and p4 ′. Then, the conversion unit 127b calculates a matrix that moves p1, p2, p3, and p4 to p1 ′, p2 ′, p3 ′, and p4 ′, respectively. The calculated matrix is a homography matrix for the feature point pair.

[検出処理の流れ]
次に、図22−1および図22−2を参照して、検出処理について説明する。図22−1および図22−2は、実施例1における検出処理について説明するための図である。たとえば、図22−1に示すように、同一の対象物について、処理画像に写った該対象物と比較画像に写った該対象物との間に撮影角度の差によるずれが生じているとする。この場合、作成部124が上記のように楕円形の特徴量マトリクスを作成し、回転部124aおよび拡大縮小部124bが回転処理や拡大縮小処理を施すことによって、適切な特徴点ペアを決定することができる。しかし、画像自体のずれが位置合わせによって完全に解消されていない場合がある。
[Flow of detection processing]
Next, the detection process will be described with reference to FIGS. 22-1 and 22-2. FIGS. 22-1 and 22-2 are diagrams for explaining the detection processing in the first embodiment. For example, as shown in FIG. 22-1, regarding the same object, it is assumed that there is a deviation due to a difference in shooting angle between the object shown in the processed image and the object shown in the comparison image. . In this case, the creation unit 124 creates an elliptic feature matrix as described above, and the rotation unit 124a and the enlargement / reduction unit 124b perform rotation processing and enlargement / reduction processing to determine an appropriate feature point pair. Can do. However, there is a case where the shift of the image itself is not completely eliminated by the alignment.

図23−1および図23−2は、同一の被写体を撮影した画像について、位置合わせによって解消されない画像ずれを説明するための図である。たとえば、図23−1に示す画像Cと画像Dの場合、撮影角度等の相違により画像に写った被写体の形状が微妙に異なる。この場合、決定部125が特徴点ペアを抽出して、位置合わせ部126が位置合わせを実行しても、図23−2のように被写体の写り具合の違い自体は解消されず、画像間のずれが残ることがある。   FIG. 23A and FIG. 23B are diagrams for explaining image shifts that are not eliminated by alignment for images obtained by photographing the same subject. For example, in the case of an image C and an image D shown in FIG. In this case, even if the determination unit 125 extracts the feature point pair and the alignment unit 126 executes the alignment, the difference in the appearance of the subject itself as shown in FIG. Misalignment may remain.

このように画像にずれが生じている場合、特徴点ペアをなす特徴点それぞれの特徴量マトリクスは、図22−1の下部に示すようにアスペクト比が異なった状態となる。ただし、特徴点ペア決定の処理においては、特徴量マトリクスに回転処理や拡大縮小処理を施すため、図22−1の下部に示すような特徴量マトリクスの場合も、適切なペアとして決定できる。そこで、変換部127bは、回転処理や拡大縮小処理を施さない場合の二つの特徴量マトリクスに基づいて、画像間のずれを反映するホモグラフィ行列を算出する。   When the image is shifted as described above, the feature amount matrix of each feature point forming the feature point pair is in a state where the aspect ratios are different as shown in the lower part of FIG. However, in the feature point pair determination processing, since the rotation processing and the enlargement / reduction processing are performed on the feature amount matrix, the feature amount matrix shown in the lower part of FIG. 22-1 can be determined as an appropriate pair. Therefore, the conversion unit 127b calculates a homography matrix that reflects a shift between images based on the two feature amount matrices when the rotation process and the enlargement / reduction process are not performed.

そして、変換部127bは、図22−2に示すように、当該特徴点の近傍において抽出された差分領域を、当該特徴点のホモグラフィ行列を用いて変換する。同じ対象物が異なる方向から撮影された等のために、二つの画像において異なった写り方をし、差分として抽出された場合は、変換後の差分領域は微小な領域となる。そこで、あらかじめ所定値を閾値として設定し、差分合成部127cが、変換後の差分領域の大きさが当該所定値より小さい場合は、当該差分領域を差分から削除することで、差分の誤検出を抑制することができる。   Then, as illustrated in FIG. 22-2, the conversion unit 127b converts the difference area extracted in the vicinity of the feature point using the homography matrix of the feature point. When the same object is photographed from different directions, for example, when the two images are captured differently and extracted as a difference, the converted difference area is a minute area. Therefore, a predetermined value is set as a threshold value in advance, and when the difference composition unit 127c has a smaller difference area after conversion, the difference area is deleted from the difference, thereby detecting an erroneous detection of the difference. Can be suppressed.

[検出処理の流れの一例]
次に、図24を参照して、検出部127における検出処理の流れの一例について説明する。図24は、実施例1における検出処理の処理手順の一例を示すフローチャートである。まず、検出部127の差分抽出部127aが二つの画像の差分を抽出する(ステップS301)。差分抽出部127aが抽出した差分は、差分記憶部116に記憶される。このとき差分の情報は、複数の領域ごとに、差分記憶部116に記憶される(図10参照)。差分抽出部127aは、まず、一つの領域を選択して当該領域内の特徴点ペアを抽出する(ステップS302)。特徴点ペアが抽出されると、変換部127bは、当該特徴点ペアをなす各特徴点の特徴量マトリクスをマトリクス記憶部113から読み出す。そして、変換部127bは、上述したように、各特徴量マトリクスを座標上に位置づけて、四つの対応する点を抽出する。そして、変換部127bは、四つの対応する点に基づいてホモグラフィ行列を算出する(ステップS303)。
[Example of detection process flow]
Next, an example of the flow of detection processing in the detection unit 127 will be described with reference to FIG. FIG. 24 is a flowchart illustrating an example of a processing procedure of detection processing according to the first embodiment. First, the difference extraction unit 127a of the detection unit 127 extracts a difference between two images (step S301). The difference extracted by the difference extraction unit 127a is stored in the difference storage unit 116. At this time, the difference information is stored in the difference storage unit 116 for each of a plurality of areas (see FIG. 10). The difference extraction unit 127a first selects one region and extracts a feature point pair in the region (step S302). When the feature point pair is extracted, the conversion unit 127b reads the feature amount matrix of each feature point forming the feature point pair from the matrix storage unit 113. Then, as described above, the conversion unit 127b positions each feature amount matrix on the coordinates and extracts four corresponding points. Then, the conversion unit 127b calculates a homography matrix based on the four corresponding points (step S303).

変換部127bは、算出されたホモグラフィ行列を用いて、差分領域を変換する(ステップS304)。差分合成部127cは、変換後の差分領域が所定値以上の大きさを有するか否かを判定する(ステップS305)。差分合成部127cは、変換後の差分領域が所定値より小さいと判定すると(ステップS305、否定)、当該差分領域を差分から除外する(ステップS306)。すなわち、差分記憶部116の情報を、当該差分領域について差分なしとの情報に更新する。他方、差分合成部127cは、変換後の差分領域が所定値以上の大きさであると判定すると(ステップS305、肯定)、当該差分領域は差分であると判定する(ステップS307)。すなわち、差分記憶部116に当該差分領域について差分があるとの情報を維持する。   The conversion unit 127b converts the difference region using the calculated homography matrix (step S304). The difference composition unit 127c determines whether or not the converted difference area has a size greater than or equal to a predetermined value (step S305). When determining that the converted difference area is smaller than the predetermined value (No at Step S305), the difference combining unit 127c excludes the difference area from the difference (Step S306). That is, the information in the difference storage unit 116 is updated to information indicating that there is no difference for the difference area. On the other hand, if the difference composition unit 127c determines that the converted difference area is greater than or equal to a predetermined value (Yes in step S305), it determines that the difference area is a difference (step S307). That is, information that there is a difference in the difference area in the difference storage unit 116 is maintained.

そして、差分合成部127cは、全ての差分領域を処理したか否かを判定する(ステップS308)。全ての差分領域を処理してはいないと判定した場合(ステップS308、否定)、次の差分領域を選択して(ステップS309)、処理をステップS302に戻す。他方、全ての差分領域を処理したと判定した場合(ステップS308、肯定)、差分合成部127cは処理した差分領域を合成して差分画像を生成する。そして、差分合成部127cは、生成した差分画像を出力する(ステップS310)。これによって、検出処理が終了する。   Then, the difference synthesis unit 127c determines whether or not all the difference areas have been processed (step S308). If it is determined that not all the difference areas have been processed (No at Step S308), the next difference area is selected (Step S309), and the process returns to Step S302. On the other hand, if it is determined that all the difference areas have been processed (Yes in step S308), the difference combining unit 127c combines the processed difference areas to generate a difference image. Then, the difference composition unit 127c outputs the generated difference image (Step S310). This completes the detection process.

実施例1では、画像の位置合わせ前に作成した特徴量マトリクスに基づいてホモグラフィ行列を算出するものとした。しかし、位置合わせ後の二つの画像に基づいて特徴量マトリクスを再度作成して、ホモグラフィ行列を算出することで、より正確な差分検出を行うことができる。したがって、差分抽出部127aによる処理の後、作成部124に処理を戻して、特徴量マトリクスを作成した後、変換部127bがホモグラフィ行列を算出するものとしてもよい。   In the first embodiment, the homography matrix is calculated based on the feature amount matrix created before the image alignment. However, a more accurate difference detection can be performed by creating a feature matrix again based on the two images after alignment and calculating a homography matrix. Therefore, after the processing by the difference extraction unit 127a, the process may be returned to the creation unit 124 to create a feature amount matrix, and then the conversion unit 127b may calculate the homography matrix.

[実施例1の効果]
上述の実施例1においては、画像処理サーバ100は、第1の画像および第2の画像の各々から特徴点を抽出する。そして、画像処理サーバ100は、第1および第2の画像の各々の特徴点について、該特徴点に基づいて第1の方向を決定する。また画像処理サーバ100は、当該第1の方向に基づいて第2の方向を決定する。画像処理サーバ100は、第1の方向および第2の方向それぞれを軸とし、かつ、特徴点を中心とする楕円状のマトリクスを作成する。画像処理サーバ100は、作成したマトリクスの各領域に、当該領域内の画素の輝度値と特徴点の輝度値との差分に関する情報を対応づけて特徴量マトリクスを作成する。さらに、画像処理サーバ100は、第1の画像の特徴点の特徴量マトリクスと、第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する。画像処理サーバ100は、特徴点ペアの決定に用いられた第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換する。画像処理サーバ100は、第1の画像と変換された第2の画像とに基づいて差分を検出する。このように、特徴点の特徴量として、略楕円状の特徴マトリクスの形状に基づいて、画像を変換するため、画像のアスペクト比を考慮して画像を変換することができる。このため、画像間にずれが生じている場合であっても、正確に位置合わせを行うことができる。
[Effect of Example 1]
In the first embodiment described above, the image processing server 100 extracts feature points from each of the first image and the second image. Then, the image processing server 100 determines a first direction for each feature point of the first and second images based on the feature point. The image processing server 100 determines the second direction based on the first direction. The image processing server 100 creates an elliptical matrix with the first direction and the second direction as axes and centering on the feature points. The image processing server 100 creates a feature quantity matrix by associating each area of the created matrix with information regarding the difference between the luminance value of the pixel in the area and the luminance value of the feature point. Further, the image processing server 100 compares the feature amount matrix of the feature points of the first image with the feature amount matrix of the feature points of the second image, and determines similar feature point pairs. The image processing server 100 converts the second image including the feature point based on the shape of the feature quantity matrix of the feature point of the second image used for determining the feature point pair. The image processing server 100 detects a difference based on the first image and the converted second image. Thus, since the image is converted based on the shape of the substantially elliptic feature matrix as the feature amount of the feature point, the image can be converted in consideration of the aspect ratio of the image. For this reason, even when there is a shift between images, alignment can be performed accurately.

また、実施例1においては、画像処理サーバ100は、決定部125による特徴点ペアの決定に用いられた第1の画像の特徴点の特徴量マトリクスと第2の画像の特徴点の特徴量マトリクスとを、それぞれ特徴点を中心とした座標上に配置する。そして画像処理サーバ100は、当該座標の座標軸と当該特徴量マトリクスの輪郭との交点を抽出する。そして画像処理サーバ100は、第1の画像の特徴点の特徴量マトリクスについて抽出した交点と、第2の画像の特徴点の特徴量マトリクスについて抽出した交点と、を対応づけるホモグラフィ行列を算出する。画像処理サーバ100は、算出したホモグラフィ行列を用いて、特徴点を含む第2の画像を変換する。画像処理サーバ100は、ホモグラフィ行列を用いて変換された第2の画像と第1の画像とに基づいて差分を検出する。このため、画像に一様でないずれが生じている場合でも、正確に位置合わせをして差分を抽出することができる。これによって、差分抽出における誤検出を抑制することができる。   Further, in the first embodiment, the image processing server 100 uses the feature amount matrix of the feature points of the first image and the feature amount matrix of the feature points of the second image used for determining the feature point pair by the determination unit 125. Are arranged on the coordinates with the feature point as the center. Then, the image processing server 100 extracts an intersection between the coordinate axis of the coordinate and the outline of the feature amount matrix. Then, the image processing server 100 calculates a homography matrix that associates the intersection extracted for the feature quantity matrix of the feature point of the first image with the intersection extracted for the feature quantity matrix of the feature point of the second image. . The image processing server 100 converts the second image including the feature points using the calculated homography matrix. The image processing server 100 detects a difference based on the second image and the first image converted using the homography matrix. For this reason, even if any uniform image is generated, it is possible to accurately position and extract the difference. Thereby, erroneous detection in difference extraction can be suppressed.

なお、実施例1によれば、時間的に離れた2時点でそれぞれ撮影された、人工衛星や航空機により撮影された画像を比較し、差分を抽出することで、変化が生じた地点を特定することができる。たとえば、実施例1によれば、違法に増改築された土地や建物、違法に伐採された森林や不法投棄などが行われている場所を特定することができる。また、かかる場所を画像上で特定したうえで、実際の場所を調査することができる。   In addition, according to Example 1, the point which changed has been identified by comparing the image image | photographed with the artificial satellite and the aircraft each image | photographed at two time points apart in time, and extracting a difference. be able to. For example, according to the first embodiment, it is possible to specify a land or a building that has been illegally expanded or reconstructed, a forest that has been illegally cut, or a place where illegal dumping is performed. In addition, it is possible to investigate the actual place after specifying the place on the image.

さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。   Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.

[回転および拡大縮小の省略等]
上述した実施例1においては、一方の画像の特徴点全てについて、回転角度および拡大縮小率を変化させて複数の特徴量マトリクスを作成するものとして説明した。しかし、いくつかの特徴点について回転角度および拡大縮小率を変動させて比較を行った結果、類似度が高い回転角度および/または拡大縮小率を決定することができる場合もある。そのような場合には、他の特徴点については同じ角度および/または同じ拡大縮小率の特徴量マトリクスのみを作成し、類似度を算出するものとしてもよい。
[Omission of rotation and scaling]
In the above-described first embodiment, it has been described that a plurality of feature amount matrices are created by changing the rotation angle and the enlargement / reduction ratio for all feature points of one image. However, as a result of comparison by varying the rotation angle and the enlargement / reduction ratio for some feature points, a rotation angle and / or enlargement / reduction ratio having a high degree of similarity may be determined. In such a case, only the feature amount matrix having the same angle and / or the same enlargement / reduction ratio may be created for other feature points, and the similarity may be calculated.

また、回転処理および拡大縮小処理を双方の画像の特徴点について実行するものとしてもよい。   Further, the rotation process and the enlargement / reduction process may be executed for the feature points of both images.

また、実施例1は、回転処理および拡大縮小処理を行うものとして説明したが、回転処理および拡大縮小処理のいずれか一方を実行するようにしてもよい。   In the first embodiment, the rotation process and the enlargement / reduction process are performed. However, either the rotation process or the enlargement / reduction process may be executed.

[画像処理サーバ]
開示の画像処理方法は、クラウドシステムを構成する画像処理サーバに実装し、クラウドシステムを介してユーザから送信される画像の処理に適用することができる。たとえば、衛星写真システムや航空写真システムから随時提供される写真のデータを、クラウドシステムのサーバに格納する。ユーザは、画像に撮影地点の情報を添付して送信する。また、ユーザは、撮影地点ごとに検出したい対象物を特定し、また、変化の有無を検出するための処理を行う間隔を指定する。画像処理サーバは、開示の画像処理を行うことにより特徴点ペアを決定し、画像の位置合わせおよび差分抽出を行う。このように構成することで、ユーザは、クラウドシステムに画像のデータを送信するだけで、所望の期間ごとに、同一地点においてどのような変化があったかを容易に確認することができる。
[Image processing server]
The disclosed image processing method can be implemented in an image processing server configuring a cloud system and applied to processing of an image transmitted from a user via the cloud system. For example, photo data provided as needed from a satellite photo system or an aerial photo system is stored in a cloud system server. A user attaches information about a shooting location to an image and transmits the image. In addition, the user specifies an object to be detected for each shooting point, and designates an interval for performing processing for detecting whether there is a change. The image processing server determines feature point pairs by performing the disclosed image processing, and performs image alignment and difference extraction. With this configuration, the user can easily confirm what kind of change has occurred at the same point for each desired period simply by transmitting image data to the cloud system.

[分散および統合]
図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。たとえば、図1に示したモニタ201を画像処理サーバ100に組み入れ、画像処理サーバ100においてモニタに画像等を出力し確認することができるように構成してもよい。また、記憶部110について、画像記憶部111、特徴点記憶部112、ペア記憶部114を統合して一つの記憶部として構成してもよいし、画像記憶部111を外部メモリとして、ネットワーク300により画像処理サーバ100に接続される構成にしてもよい。
[Distribution and integration]
Each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the monitor 201 shown in FIG. 1 may be incorporated into the image processing server 100 so that the image processing server 100 can output an image or the like to the monitor for confirmation. The storage unit 110 may be configured as a single storage unit by integrating the image storage unit 111, the feature point storage unit 112, and the pair storage unit 114, or the image storage unit 111 as an external memory through the network 300. The image processing server 100 may be connected.

[画像処理プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図25を用いて、上記の実施例と同様の機能を有する画像処理プログラムを実行するコンピュータの一例について説明する。
[Image processing program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes an image processing program having the same function as that of the above-described embodiment will be described with reference to FIG.

図25は、実施例1〜2に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。図25に示すように、コンピュータ1000は、操作部1100と、ディスプレイ1200と、通信部1300とを有する。さらに、このコンピュータ1000は、CPU1400と、ROM1500と、RAM1600と、HDD(Hard Disk Drive)1700とを有する。これら1100〜1700の各部はバス1800を介して接続される。   FIG. 25 is a schematic diagram illustrating an example of a computer that executes an image processing program according to the first and second embodiments. As illustrated in FIG. 25, the computer 1000 includes an operation unit 1100, a display 1200, and a communication unit 1300. The computer 1000 further includes a CPU 1400, a ROM 1500, a RAM 1600, and an HDD (Hard Disk Drive) 1700. These units 1100 to 1700 are connected via a bus 1800.

HDD1700には、図25に示すように、上記の実施例1で示した設定部121、受付部122、抽出部123、作成部124、決定部125、位置合わせ部126および検出部127と同様の機能を発揮する画像処理プログラム1700a等が予め記憶される。この画像処理プログラム1700aについては、図1に示した各々の各構成要素と同様、適宜統合または分離してもよい。すなわち、HDD1700に格納される各データは、常に全てのデータがHDD1700に格納される必要はなく、処理に必要なデータのみがHDD1700に格納されればよい。   As shown in FIG. 25, the HDD 1700 has the same configuration as the setting unit 121, the reception unit 122, the extraction unit 123, the creation unit 124, the determination unit 125, the alignment unit 126, and the detection unit 127 described in the first embodiment. An image processing program 1700a or the like that exhibits the function is stored in advance. The image processing program 1700a may be appropriately integrated or separated as with each component shown in FIG. In other words, all the data stored in the HDD 1700 does not always need to be stored in the HDD 1700, and only the data necessary for processing may be stored in the HDD 1700.

そして、CPU1400が、画像処理プログラム1700aをHDD1700から読み出してRAM1600に展開する。これによって、図25に示すように、画像処理プログラム1700aは、画像処理プロセス1600aとして機能する。この画像処理プロセス1600aは、HDD1700から読み出した各種データを適宜RAM1600上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、画像処理プロセス1600aは、たとえば図1に示した設定部121、受付部122、抽出部123、作成部124、決定部125、位置合わせ部126および検出部127にて実行される処理、たとえば、図10に示す処理を含む。また、CPU1400上で仮想的に実現される各処理部は、常に全ての処理部がCPU1400上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されればよい。   Then, the CPU 1400 reads the image processing program 1700 a from the HDD 1700 and develops it in the RAM 1600. Thereby, as shown in FIG. 25, the image processing program 1700a functions as an image processing process 1600a. The image processing process 1600a expands various data read from the HDD 1700 in an area allocated to itself on the RAM 1600, and executes various processes based on the expanded data. Note that the image processing process 1600a is performed by the setting unit 121, the reception unit 122, the extraction unit 123, the creation unit 124, the determination unit 125, the alignment unit 126, and the detection unit 127 illustrated in FIG. The processing shown in FIG. 10 is included. In addition, each processing unit virtually realized on the CPU 1400 does not always require that all processing units operate on the CPU 1400, and only a processing unit necessary for processing needs to be virtually realized.

なお、上記の画像処理プログラム1700aについては、必ずしも最初からHDD1700やROM1500に記憶させておく必要はない。たとえば、コンピュータ1000に挿入されるフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)ディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ1000がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WAN(Wide Area Network)などを介してコンピュータ1000に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ1000がこれらから各プログラムを取得して実行するようにしてもよい。   Note that the image processing program 1700a is not necessarily stored in the HDD 1700 or the ROM 1500 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), a DVD (Digital Versatile Disc) disk, a magneto-optical disk, or an IC card inserted into the computer 1000. Let Then, the computer 1000 may acquire and execute each program from these portable physical media. In addition, each program is stored in another computer or server device connected to the computer 1000 via a public line, the Internet, a LAN, a WAN (Wide Area Network), etc., and the computer 1000 acquires each program therefrom. May be executed.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)第1の画像および第2の画像の各々から特徴点を抽出する抽出部と、
前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて決定される第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成する作成部と、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する決定部と、
前記決定部による特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する検出部と、
を備えることを特徴とする画像処理装置。
(Supplementary Note 1) An extraction unit that extracts feature points from each of the first image and the second image;
For each feature point of the first and second images, the first direction determined based on the feature point and the second direction determined based on the first direction are axes, and A creation unit that creates a feature amount matrix in which each area of an elliptical matrix centered on the feature point is associated with information on a difference between a luminance value of a pixel in the area and a luminance value of the feature point; ,
A determining unit that compares the feature amount matrix of the feature points of the first image with the feature amount matrix of the feature points of the second image and determines a similar feature point pair;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair by the determination unit, the second image including the feature points is converted, and the first image and A detection unit for detecting a difference based on the converted second image;
An image processing apparatus comprising:

(付記2)前記検出部は、前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする付記1に記載の画像処理装置。 (Additional remark 2) The said detection part calculates the homography matrix for converting the shape of the feature-value matrix of the feature point of the said 2nd image into the shape of the feature-value matrix of the feature point of the said 1st image. The image processing apparatus according to appendix 1, wherein the second image including the feature points is converted using the homography matrix.

(付記3)前記作成部は、前記第2の方向を、前記特徴点を中心として所定角度ずつ回転させて、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記決定部は、前記第1の画像の複数の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記1または2に記載の画像処理装置。
(Additional remark 3) The said creation part rotates the said 2nd direction by the predetermined angle centering | focusing on the said feature point, and produces the some feature-value matrix per one feature point,
The determining unit compares a feature amount matrix of a plurality of feature points of the first image with a feature amount matrix of the feature points of the second image, and determines a similar feature point pair. The image processing apparatus according to appendix 1 or 2.

(付記4)前記作成部は、前記楕円状のマトリクスを前記第2の方向に所定の比率で拡大または縮小して、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記決定部は、前記第1の画像の複数の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記1〜3のいずれか1つに記載の画像処理装置。
(Supplementary Note 4) The creation unit creates a plurality of feature amount matrices for one feature point by enlarging or reducing the elliptical matrix in the second direction at a predetermined ratio,
The determining unit compares a feature amount matrix of a plurality of feature points of the first image with a feature amount matrix of the feature points of the second image, and determines a similar feature point pair. The image processing apparatus according to any one of appendices 1 to 3.

(付記5)前記検出部は、
前記第1の画像と前記第2の画像との差分を抽出する差分抽出部と、
前記差分抽出部が抽出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換する変換部と、
前記変換部によって変換された各差分の画像を合成する差分合成部と、
を備えることを特徴とする付記1〜4のいずれか1つに記載の画像処理装置。
(Supplementary note 5)
A difference extraction unit for extracting a difference between the first image and the second image;
A conversion unit that converts the difference image extracted by the difference extraction unit based on the shape of the feature amount matrix of the feature points of the second image;
A difference synthesis unit that synthesizes the images of the differences converted by the conversion unit;
The image processing apparatus according to any one of supplementary notes 1 to 4, further comprising:

(付記6)画像処理サーバによって実行される画像処理方法であって、
第1の画像および第2の画像の各々から特徴点を抽出し、
前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて決定される第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、
前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
ことを含むことを特徴とする画像処理方法。
(Appendix 6) An image processing method executed by an image processing server,
Extracting feature points from each of the first image and the second image;
For each feature point of the first and second images, the first direction determined based on the feature point and the second direction determined based on the first direction are axes, and , Creating a feature amount matrix in which each area of the elliptical matrix centered on the feature point is associated with information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point;
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature amount matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted,
Detecting a difference based on the first image and the converted second image;
And an image processing method.

(付記7)前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする、付記6に記載の画像処理方法。 (Supplementary Note 7) A homography matrix for converting the shape of the feature amount matrix of the feature point of the second image into the shape of the feature amount matrix of the feature point of the first image is calculated, and the homography matrix The image processing method according to appendix 6, wherein the second image including the feature points is converted by using.

(付記8)前記第2の方向を、前記特徴点を中心として所定角度ずつ回転させて、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記6または7に記載の画像処理方法。
(Supplementary Note 8) Rotate the second direction by a predetermined angle around the feature point to create a plurality of feature amount matrices per feature point,
Appendix 6 or 6, wherein a plurality of feature quantity matrices of feature points of the first image and a feature quantity matrix of feature points of the second image are compared to determine similar feature point pairs 8. The image processing method according to 7.

(付記9)前記楕円状のマトリクスを前記第2の方向に所定の比率で拡大または縮小して、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の複数の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記6〜8のいずれか1つに記載の画像処理方法。
(Supplementary note 9) The elliptical matrix is enlarged or reduced in the second direction at a predetermined ratio to create a plurality of feature amount matrices for one feature point,
The feature amount matrix of the plurality of feature points of the first image and the feature amount matrix of the feature points of the second image are compared to determine a similar feature point pair. The image processing method according to claim 1.

(付記10)前記第1の画像と前記第2の画像との差分を検出し、
検出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換し、
変換された各差分の画像を合成する、
ことを備えることを特徴とする付記6〜9のいずれか1つに記載の画像処理方法。
(Appendix 10) Detecting a difference between the first image and the second image,
The detected difference image is converted based on the shape of the feature amount matrix of the feature points of the second image,
Synthesize the converted images of each difference,
The image processing method according to any one of appendices 6 to 9, further comprising:

(付記11)第1の画像および第2の画像の各々から特徴点を抽出し、
前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて決定される第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
各処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(Appendix 11) Extracting feature points from each of the first image and the second image,
For each feature point of the first and second images, the first direction determined based on the feature point and the second direction determined based on the first direction are axes, and , Creating a feature amount matrix in which each area of the elliptical matrix centered on the feature point is associated with information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point;
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. Detecting a difference based on the two images;
An image processing program that causes a computer to execute each process.

(付記12)前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする、付記11に記載の画像処理プログラム。 (Additional remark 12) The homography matrix for converting the shape of the feature amount matrix of the feature point of the second image into the shape of the feature amount matrix of the feature point of the first image is calculated, and the homography matrix The image processing program according to appendix 11, wherein the second image including the feature points is converted by using.

(付記13)前記第2の方向を、前記特徴点を中心として所定角度ずつ回転させて、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記11または12に記載の画像処理プログラム。
(Additional remark 13) The said 2nd direction is rotated by the predetermined angle centering | focusing on the said feature point, A some feature-value matrix is produced per one feature point,
The feature amount matrix of the first image and the feature amount matrix of the feature point of the second image are compared with each other, and a similar feature point pair is determined. 12. An image processing program according to 12.

(付記14)前記楕円状のマトリクスを前記第2の方向に所定の比率で拡大または縮小して、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記11〜13のいずれか1つに記載の画像処理プログラム。
(Supplementary Note 14) The elliptical matrix is enlarged or reduced in the second direction at a predetermined ratio to create a plurality of feature amount matrices for one feature point,
Supplementary notes 11 to 11, wherein a plurality of feature amount matrices of feature points of the first image and a feature amount matrix of feature points of the second image are compared to determine similar feature point pairs. The image processing program according to any one of 13.

(付記15)前記第1の画像と前記第2の画像との差分を検出し、
検出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換し、
変換された各差分の画像を合成する、
ことを備えることを特徴とする付記11〜14のいずれか1つに記載の画像処理プログラム。
(Supplementary Note 15) Detecting a difference between the first image and the second image,
The detected difference image is converted based on the shape of the feature amount matrix of the feature points of the second image,
Synthesize the converted images of each difference,
The image processing program according to any one of appendices 11 to 14, characterized by comprising:

100 画像処理サーバ
110 記憶部
111 画像記憶部
112 特徴点記憶部
113 マトリクス記憶部
113a 第1マトリクス記憶部
113b 第2マトリクス記憶部
114 ペア記憶部
115 設定記憶部
115a 回転角記憶部
115b 拡大縮小率記憶部
116 差分記憶部
120 制御部
121 設定部
122 受付部
123 抽出部
124 作成部
124a 回転部
124b 拡大縮小部
125 決定部
126 位置合わせ部
127 検出部
127a 差分抽出部
127b 変換部
127c 差分合成部
130 入出力部
200 クライアント
201 モニタ
300 ネットワーク
100 image processing server 110 storage unit 111 image storage unit 112 feature point storage unit 113 matrix storage unit 113a first matrix storage unit 113b second matrix storage unit 114 pair storage unit 115 setting storage unit 115a rotation angle storage unit 115b enlargement / reduction ratio storage Unit 116 difference storage unit 120 control unit 121 setting unit 122 reception unit 123 extraction unit 124 creation unit 124a rotation unit 124b enlargement / reduction unit 125 determination unit 126 alignment unit 127 detection unit 127a difference extraction unit 127b conversion unit 127c difference synthesis unit 130 Output unit 200 Client 201 Monitor 300 Network

Claims (9)

第1の画像および第2の画像の各々から特徴点を抽出する抽出部と、
前記第1および第2の画像の各々の特徴点について、該特徴点から最も近い他の特徴点に向かう第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成する作成部と、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する決定部と、
前記決定部による特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する検出部と、
を備えることを特徴とする画像処理装置。
An extraction unit that extracts feature points from each of the first image and the second image;
For each feature point of the first and second images, a first direction toward the other feature point closest to the feature point and a second direction determined based on the first direction are respectively axes. And creating a feature quantity matrix in which each area of the elliptical matrix centered on the feature point is associated with information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point. The creation department;
A determining unit that compares the feature amount matrix of the feature points of the first image with the feature amount matrix of the feature points of the second image and determines a similar feature point pair;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair by the determination unit, the second image including the feature points is converted, and the first image and A detection unit for detecting a difference based on the converted second image;
An image processing apparatus comprising:
前記検出部は、前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする請求項1に記載の画像処理装置。   The detection unit calculates a homography matrix for converting the shape of the feature amount matrix of the feature points of the second image into the shape of the feature amount matrix of the feature points of the first image, and the homography The image processing apparatus according to claim 1, wherein the second image including the feature points is converted using a matrix. 前記作成部は、前記第2の方向を、前記特徴点を中心として所定角度ずつ回転させて、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記決定部は、前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、請求項1または2に記載の画像処理装置。
The creation unit rotates the second direction by a predetermined angle around the feature point to create a plurality of feature amount matrices per feature point,
The determining unit compares a plurality of feature amount matrices of feature points of the first image with a feature amount matrix of feature points of the second image, and determines similar feature point pairs. The image processing apparatus according to claim 1 or 2.
前記作成部は、前記楕円状のマトリクスを前記第2の方向に所定の比率で拡大または縮小して、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記決定部は、前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、請求項1〜3のいずれか1項に記載の画像処理装置。
The creating unit creates a plurality of feature amount matrices per feature point by enlarging or reducing the elliptical matrix at a predetermined ratio in the second direction,
The determining unit compares a plurality of feature amount matrices of feature points of the first image with a feature amount matrix of feature points of the second image, and determines similar feature point pairs. The image processing apparatus according to any one of claims 1 to 3.
前記検出部は、
前記第1の画像と前記第2の画像との差分を抽出する差分抽出部と、
前記差分抽出部が抽出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換する変換部と、
前記変換部によって変換された各差分の画像を合成する差分合成部と、
を備えることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
The detector is
A difference extraction unit for extracting a difference between the first image and the second image;
A conversion unit that converts the difference image extracted by the difference extraction unit based on the shape of the feature amount matrix of the feature points of the second image;
A difference synthesis unit that synthesizes the images of the differences converted by the conversion unit;
The image processing apparatus according to claim 1, further comprising:
画像処理サーバによって実行される画像処理方法であって、
第1の画像および第2の画像の各々から特徴点を抽出し、
前記第1および第2の画像の各々の特徴点について、該特徴点から最も近い他の特徴点に向かう第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
ことを含むことを特徴とする画像処理方法。
An image processing method executed by an image processing server,
Extracting feature points from each of the first image and the second image;
For each feature point of the first and second images, a first direction toward the other feature point closest to the feature point and a second direction determined based on the first direction are respectively axes. And a feature quantity matrix in which information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point is associated with each area of the elliptical matrix centered on the feature point. ,
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. Detecting a difference based on the two images;
And an image processing method.
前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする、請求項6に記載の画像処理方法。   Calculating a homography matrix for converting the shape of the feature amount matrix of the feature points of the second image into the shape of the feature amount matrix of the feature points of the first image, and using the homography matrix, The image processing method according to claim 6, wherein the second image including the feature point is converted. 第1の画像および第2の画像の各々から特徴点を抽出し、
前記第1および第2の画像の各々の特徴点について、該特徴点から最も近い他の特徴点に向かう第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
各処理をコンピュータに実行させることを特徴とする画像処理プログラム。
Extracting feature points from each of the first image and the second image;
For each feature point of the first and second images, a first direction toward the other feature point closest to the feature point and a second direction determined based on the first direction are respectively axes. And a feature quantity matrix in which information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point is associated with each area of the elliptical matrix centered on the feature point. ,
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. Detecting a difference based on the two images;
An image processing program that causes a computer to execute each process.
前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする、請求項8に記載の画像処理プログラム。   Calculating a homography matrix for converting the shape of the feature amount matrix of the feature points of the second image into the shape of the feature amount matrix of the feature points of the first image, and using the homography matrix, The image processing program according to claim 8, wherein the second image including the feature point is converted.
JP2012083178A 2012-03-30 2012-03-30 Image processing apparatus, image processing method, and image processing program Active JP5919963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012083178A JP5919963B2 (en) 2012-03-30 2012-03-30 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012083178A JP5919963B2 (en) 2012-03-30 2012-03-30 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2013214155A JP2013214155A (en) 2013-10-17
JP5919963B2 true JP5919963B2 (en) 2016-05-18

Family

ID=49587445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012083178A Active JP5919963B2 (en) 2012-03-30 2012-03-30 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5919963B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10372318B2 (en) * 2014-02-28 2019-08-06 Ricoh Co., Ltd. Associating strokes with content
JP6529246B2 (en) 2014-11-28 2019-06-12 キヤノン株式会社 Feature extraction method, feature extraction device, and program
JP6401064B2 (en) * 2015-01-19 2018-10-03 株式会社ユニバーサルエンターテインメント Game machine
JP6104294B2 (en) * 2015-01-19 2017-03-29 株式会社ユニバーサルエンターテインメント Game machine
JP2016131682A (en) * 2015-01-19 2016-07-25 株式会社ユニバーサルエンターテインメント Game machine
JP6283436B2 (en) * 2017-02-28 2018-02-21 株式会社ユニバーサルエンターテインメント Gaming machine and game medium discrimination device
JP6426819B2 (en) * 2017-11-29 2018-11-21 株式会社ユニバーサルエンターテインメント Gaming machine

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141539A (en) * 2001-11-01 2003-05-16 Kansai Tlo Kk Detecting method and device, computer program, and recording medium
JP2006178696A (en) * 2004-12-22 2006-07-06 Nippon Telegr & Teleph Corp <Ntt> Plane detection apparatus and method, and plane detection program
JP5216631B2 (en) * 2009-03-02 2013-06-19 Kddi株式会社 Feature extraction device
JP5709410B2 (en) * 2009-06-16 2015-04-30 キヤノン株式会社 Pattern processing apparatus and method, and program
JP5338643B2 (en) * 2009-12-07 2013-11-13 株式会社豊田中央研究所 Image feature extraction device, image processing device, and program

Also Published As

Publication number Publication date
JP2013214155A (en) 2013-10-17

Similar Documents

Publication Publication Date Title
JP5919963B2 (en) Image processing apparatus, image processing method, and image processing program
JP6721065B2 (en) Imaging device, image processing device and method
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
CN108600576B (en) Image processing apparatus, method and system, and computer-readable recording medium
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US9665986B2 (en) Systems and methods for an augmented reality platform
KR101558467B1 (en) System for revising coordinate in the numerical map according to gps receiver
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
US20090232415A1 (en) Platform for the production of seamless orthographic imagery
WO2019223158A1 (en) Vr image production method, apparatus, computer device, and storage medium
US10482571B2 (en) Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium
JP5846172B2 (en) Image processing apparatus, image processing method, program, and imaging system
JP7241812B2 (en) Information visualization system, information visualization method, and program
JP6222205B2 (en) Image processing device
JP3641747B2 (en) Image display method and image display apparatus
JP6816614B2 (en) Image output program, image output method and image output device
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
TW202011349A (en) Method and system for rendering a panoramic image
CN113454980A (en) Panorama shooting method, electronic device and storage medium
JP2013206431A (en) Image processing device, image processing method and image processing program
JP5919955B2 (en) Image processing apparatus, image processing method, and image processing program
US20230239574A1 (en) Systems and methods for image capture
JP5867237B2 (en) Image processing apparatus, image processing method, and image processing program
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
EP4154172A1 (en) Systems and methods for image capture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160328

R150 Certificate of patent or registration of utility model

Ref document number: 5919963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150