JP5919963B2 - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP5919963B2 JP5919963B2 JP2012083178A JP2012083178A JP5919963B2 JP 5919963 B2 JP5919963 B2 JP 5919963B2 JP 2012083178 A JP2012083178 A JP 2012083178A JP 2012083178 A JP2012083178 A JP 2012083178A JP 5919963 B2 JP5919963 B2 JP 5919963B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- matrix
- feature point
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 159
- 238000003672 processing method Methods 0.000 title claims description 16
- 239000011159 matrix material Substances 0.000 claims description 308
- 238000000034 method Methods 0.000 claims description 80
- 230000008569 process Effects 0.000 claims description 56
- 238000001514 detection method Methods 0.000 claims description 53
- 238000000605 extraction Methods 0.000 claims description 43
- 239000000284 extract Substances 0.000 claims description 33
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 description 82
- 238000010586 diagram Methods 0.000 description 66
- 230000008859 change Effects 0.000 description 47
- 238000011946 reduction process Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Description
本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.
従来、同一の地点を異なる時期に撮影して得られた複数の画像を比較し照合するための技術が用いられている。例えば、空中写真画像を用いた処理として、旧撮影空中写真画像と新撮影空中写真画像とを照合して、各画像から特徴点を抽出する。各画像の特徴点のうち、対応する特徴点を特徴点ペアとして抽出する。そして、特徴点ペアを構成する二つの特徴点を対応づけて、二つの画像の位置合わせを行う。位置合わせ後、両画像を比較することで、前の撮像時点から後の撮像時点までの間に撮像対象地点に生じた変化を、差分として抽出することができる。 Conventionally, a technique for comparing and collating a plurality of images obtained by photographing the same point at different times has been used. For example, as processing using an aerial photograph image, the old photographed aerial photograph image and the new photographed aerial photograph image are collated, and feature points are extracted from each image. Among the feature points of each image, corresponding feature points are extracted as feature point pairs. Then, the two feature points constituting the feature point pair are associated with each other, and the two images are aligned. By comparing both images after alignment, a change occurring at the imaging target point from the previous imaging time point to the subsequent imaging time point can be extracted as a difference.
特徴点ペアの抽出においては、たとえば、二つの画像から抽出された特徴点それぞれについて、画像特徴と傾き方向を算出する。算出した画像特徴や傾き方向に基づいて特徴点間の類似度を計算し、類似度の高い特徴点をペアとして抽出する。 In the feature point pair extraction, for example, an image feature and a tilt direction are calculated for each feature point extracted from two images. The similarity between feature points is calculated based on the calculated image feature and tilt direction, and feature points with high similarity are extracted as a pair.
また、撮影日時の異なる複数の航空写真などから、その土地の利用状況の時間的変化を高速に把握するための画像解析装置も提案されている。この画像解析装置では、複数の画像情報を微分処理して輪郭線画像を取得する。そして、取得した画像からフーリエ変換画像を生成して、各画素値の差分の総計が最小になる回転角度を求める。求めた回転角度で一つの画像を回転させた後、縦横方向の各画素値の差分の総計が最小となる平行移動量を求める。求めた移動量で一つの画像を移動させることで、二つの画像の位置合わせをおこなう。位置合わせ後の二つの画像の差分を求めて差分画像を生成する。 In addition, an image analysis apparatus has also been proposed for quickly grasping temporal changes in land use status from a plurality of aerial photographs having different shooting dates and times. In this image analysis apparatus, a plurality of pieces of image information are differentiated to obtain a contour image. Then, a Fourier transform image is generated from the acquired image, and the rotation angle at which the total difference of the pixel values is minimized is obtained. After rotating one image at the obtained rotation angle, a translation amount that minimizes the sum of differences between the vertical and horizontal pixel values is obtained. The two images are aligned by moving one image by the obtained movement amount. A difference image is generated by obtaining a difference between the two images after alignment.
さらに、異なる撮影位置、照明条件、角度、縮尺で撮影された複数画像から変化を抽出するための変化抽出装置および方法も提案されている。この方法では、画像それぞれからフットプリント情報を抽出して比較することで、変化を抽出する。フットプリント情報とは、幾何特徴(輪郭や内部の領域情報等)、画像特徴(色彩又はエッジ特徴等)、空間特徴(地物の空間位置情報、隣接地物間の位置関係等)のいずれか、またはその組合せである。 Furthermore, a change extraction apparatus and method for extracting changes from a plurality of images taken at different shooting positions, illumination conditions, angles, and scales have been proposed. In this method, changes are extracted by extracting and comparing footprint information from each image. Footprint information is any one of geometric features (such as contours and internal area information), image features (color or edge features, etc.), and spatial features (spatial location information of features, positional relationships between adjacent features, etc.) Or a combination thereof.
しかしながら、従来手法を用いて二つの画像を比較照合する場合、二つの画像内のずれ等に起因して、二つの画像から差分が誤検出されてしまう場合がある。たとえば、二つの画像が異なる撮影角度または撮影方向から撮影された場合、同一の対象物であっても見え方が異なる場合がある。また、二つの画像のそれぞれが、画像内にずれを生じており、そのずれが異なる部分で生じている場合等は、二つの画像を比較照合して、模様や輝度、色差等の違いに基づいて差分を抽出すると、誤検出が発生することがある。このように、従来の技術を用いて、模様や輝度、色差の違い等に基づいて差分を検出した場合に、差分の誤検出が発生していた。 However, when two images are compared and collated using the conventional method, a difference may be erroneously detected from the two images due to a shift or the like in the two images. For example, when two images are taken from different shooting angles or shooting directions, even the same object may be seen differently. In addition, when each of the two images has a shift in the image and the shift is generated in a different part, the two images are compared and collated, based on differences in pattern, brightness, color difference, etc. If the difference is extracted, erroneous detection may occur. As described above, when the difference is detected based on the difference in the pattern, the brightness, the color difference, or the like using the conventional technique, the difference is erroneously detected.
開示の技術は、上記に鑑みてなされたものであって、二つの画像の差分の誤検出を抑制することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 The disclosed technology has been made in view of the above, and an object thereof is to provide an image processing device, an image processing method, and an image processing program capable of suppressing erroneous detection of a difference between two images.
上述した課題を解決し、目的を達成するために、開示の技術は、第1の画像および第2の画像の各々から特徴点を抽出する。さらに、前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて第1の方向を決定する。また、当該第1の方向に基づいて第2の方向を決定する。そして、第1の方向および第2の方向それぞれを軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスを作成する。楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけて特徴量マトリクスを作成する。そして、前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する。特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する。 In order to solve the above-described problems and achieve the object, the disclosed technique extracts feature points from each of the first image and the second image. Further, for each feature point of the first and second images, a first direction is determined based on the feature point. Further, the second direction is determined based on the first direction. Then, an elliptical matrix having the first direction and the second direction as axes and centering on the feature points is created. A feature amount matrix is created by associating each area of the elliptical matrix with information regarding the difference between the luminance value of the pixel in the area and the luminance value of the feature point. Then, the feature quantity matrix of the feature points of the first image and the feature quantity matrix of the feature points of the second image are compared to determine similar feature point pairs. Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. The difference is detected based on the second image.
開示の画像処理装置、画像処理方法および画像処理プログラムは、二つの画像の差分の誤検出を抑制することができるという効果を奏する。 The disclosed image processing apparatus, image processing method, and image processing program have an effect of suppressing erroneous detection of a difference between two images.
以下に、開示の画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of the disclosed image processing apparatus, image processing method, and image processing program will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
本願の開示する画像処理装置の実施例1として、画像処理サーバ100を説明する(図1参照)。画像処理サーバ100は、たとえば、クライアント200から同一の地点を異なる時点で撮影した二つの画像の入力を受ける。または、画像処理サーバ100は、クライアント200から同一の地点を異なる時期に撮影した二つの画像を特定する指示を受け付ける。そして、画像処理サーバ100は、二つの画像の各々から特徴点を抽出する。さらに、画像処理サーバ100は、各特徴点の輝度値と、当該特徴点から所定の距離範囲内に位置する画素の輝度値との差分に関する情報を、当該特徴点を中心とする楕円状のマトリクスの複数の領域各々に対応付けて、各特徴点の特徴量マトリクスを作成する。画像処理サーバ100は、一つの画像の特徴点の特徴量マトリクスと、他の画像の特徴点の特徴量マトリクスとを比較して類似度を求める。画像処理サーバ100は、特徴量マトリクスの類似度が高い特徴点の対を特徴点ペアとして決定する。
An
さらに、実施例1の画像処理サーバ100は、決定した特徴点ペアに基づいて二つの画像の位置合わせをおこなった後、二つの画像の差分領域を抽出する。そして、実際には差分に該当しない差分領域を除外するため、検出処理を実行する。
Further, the
[実施例1の画像処理サーバ]
まず、図1を参照して、画像処理サーバ100の構成の一例につき説明する。図1は、実施例1に係る画像処理サーバ100の構成の一例を示す図である。画像処理サーバ100は、記憶部110と、制御部120と、入出力部130とを備える。記憶部110は、画像処理サーバ100内での処理に使用するデータおよび画像処理サーバ100内での処理により生成されるデータを記憶する。制御部120は、画像処理サーバ100内での画像処理を制御する。入出力部130は、外部から画像処理サーバ100に入力されるデータを受信するとともに、画像処理サーバ100により生成されるデータを外部に送信する。
[Image Processing Server of First Embodiment]
First, an example of the configuration of the
また、画像処理サーバ100は、クライアント200と、ネットワーク300を介して接続される。クライアント200は、たとえば、モニタ201を備える。画像処理サーバ100内で処理された画像は、入出力部130を介してクライアント200に送られ、モニタ201に表示することができる。なお、図1では、画像処理サーバ100の外部にひとつのクライアント200およびモニタ201が設けられるものとしたが、画像処理サーバ100は、ネットワーク300を介して複数のクライアント200と接続されてもよい。そして、画像処理サーバ100を、複数のクライアント200から送信される画像を受信するように構成してもよい。また、画像処理サーバ100内にモニタを設けて画像を確認できるように構成してもよい。また、画像処理サーバ100自体に撮像機能を設けてもよく、また、画像処理サーバ100を、クライアント200とは別の撮像装置と接続してもよい。なお、クライアント200は、例えば、パーソナルコンピュータ、携帯電話機、スマートフォン、インターネットTVなどのコンピュータである。
The
[記憶部の構成]
記憶部110は、画像記憶部111、特徴点記憶部112、マトリクス記憶部113、ペア記憶部114、設定記憶部115および差分記憶部116を備える。なお、記憶部110は、半導体メモリ素子や記憶装置などである。例えば、半導体メモリ素子としては、VRAM(Video Random Access Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)やフラッシュメモリ(flash memory)などが挙げられる。また、記憶装置としては、ハードディスク、光ディスクなどの記憶装置が挙げられる。以下、記憶部110に記憶される情報につき説明する。
[Configuration of storage unit]
The
[画像情報]
画像記憶部111は、画像処理サーバ100が受信した画像情報を記憶する。図2は、画像記憶部111に記憶される画像情報の構成の一例を示す図である。たとえば、図2に示すように、画像情報は、画像を一意に識別する画像ID(Identifier)を含む。そして、画像記憶部111は、画像IDに対応付けて、画像が撮影された場所、撮影日時、画像自体等を記憶する。図2に示す例では、画像ID「001」に対応づけて、画像ID「001」の画像の撮影地点の緯度と経度が「35.6587,139.74」として記憶されている。さらに、画像ID「001」に対応づけて、撮影日時「2012/03/30」が記憶されている。さらに、画像ID「001」に対応づけて、画像自体が記憶されている。
[Image information]
The
[特徴点情報]
特徴点記憶部112は、画像処理サーバ100が受信した画像の特徴点に関する情報を記憶する。図3は、特徴点記憶部112に記憶される特徴点情報の構成の一例を示す図である。
[Feature information]
The feature
ここで、特徴点とは、画像の中で目立った特徴を示す点のことをいう。たとえば、画像中の物体の角にあたる部分や、境界線に該当する部分など、周囲の画素との輝度勾配が大きい部分が特徴点として抽出される。なお、特徴点の抽出については後述するが、抽出の手法は特に限定されない。 Here, the feature point refers to a point showing a remarkable feature in the image. For example, a part having a large luminance gradient with surrounding pixels such as a part corresponding to a corner of an object in the image and a part corresponding to a boundary line is extracted as a feature point. Although feature point extraction will be described later, the extraction method is not particularly limited.
図3に示すように、特徴点記憶部112は、たとえば、画像ID「001」に対応付けて、当該画像から抽出された特徴点の情報を記憶する。図3の例では、画像ID「001」に対応付けて、特徴点を一意に特定する特徴点ID「FP001」が記憶されている。さらに、特徴点ID「FP001」で特定される特徴点の位置が、画像上の座標「x1,y1」であることが記憶されている。特徴点は、各画像について複数個抽出され、その各々についての情報が特徴点記憶部112に記憶される。
As illustrated in FIG. 3, the feature
[特徴量マトリクス情報]
マトリクス記憶部113は、特徴点各々の特徴量マトリクスの情報を記憶する。図4は、第1マトリクス記憶部113aに記憶される特徴量マトリクス情報の構成の一例を示す図である。図5は、第2マトリクス記憶部113bに記憶される特徴量マトリクス情報の構成の一例を示す図である。図6は、比較画像の特徴点の特徴量マトリクスの構成の一例について説明するための図である。図4乃至図6を参照して、特徴量マトリクス情報について説明する。
[Feature matrix information]
The
マトリクス記憶部113は、第1マトリクス記憶部113aおよび第2マトリクス記憶部113bを備える(図1参照)。第1マトリクス記憶部113aは、照合する二つの画像のうち比較対象となる画像(以下、適宜「比較画像」とも称する。)の特徴点の特徴量マトリクスを記憶する。第2マトリクス記憶部113bは、照合する二つの画像のうち比較画像ではない、処理対象となる画像(以下、適宜「処理画像」とも称する。)の特徴点の特徴量マトリクスを記憶する。第1マトリクス記憶部113aは、比較画像の各特徴点につき一つの特徴量マトリクスを記憶する。これに対して、第2マトリクス記憶部113bは、処理画像の各特徴点につき複数の特徴量マトリクスを記憶する。
The
図4に示すように、比較画像の特徴点についての特徴量マトリクス情報は、「画像ID」、「特徴点ID」、「マトリクスID」、「マトリクスセグメントID」、「輝度値」、「輝度差」および「輝度差レベル」を含む。特徴量マトリクス情報は、各特徴点の特徴量マトリクスについての情報である。例えば、図4の例では、「画像ID:001」の画像の「特徴点ID:FP001」の特徴点について、「マトリクスID:M00101」の特徴量マトリクスについての情報が記憶されている。 As shown in FIG. 4, the feature amount matrix information about the feature points of the comparison image includes “image ID”, “feature point ID”, “matrix ID”, “matrix segment ID”, “luminance value”, “luminance difference”. And “luminance difference level”. The feature amount matrix information is information about the feature amount matrix of each feature point. For example, in the example of FIG. 4, information about the feature amount matrix of “matrix ID: M00101” is stored for the feature point of “feature point ID: FP001” of the image of “image ID: 001”.
他方、図5に示すように、処理画像の特徴点についての特徴量マトリクス情報は、上記比較画像の特徴点について記憶される情報に加えて以下の情報を含む。すなわち、「回転角」「拡大縮小率」である。また、処理画像の特徴点についての特徴量マトリクスは、一つの特徴点について複数作成される。図5の例では、特徴点ID「FP001」の特徴点について、マトリクスID「M00101」、「M00102」、「M00103」等の複数の特徴量マトリクスが記憶されている。また、マトリクスID「M00101」は、「回転角:0°」、「拡大縮小率1.0」と対応付けられている。 On the other hand, as shown in FIG. 5, the feature amount matrix information about the feature points of the processed image includes the following information in addition to the information stored about the feature points of the comparison image. That is, “rotation angle” and “enlargement / reduction ratio”. In addition, a plurality of feature quantity matrices for feature points of the processed image are created for one feature point. In the example of FIG. 5, a plurality of feature quantity matrices such as matrix IDs “M00101”, “M00102”, “M00103”, etc. are stored for the feature point with the feature point ID “FP001”. The matrix ID “M00101” is associated with “rotation angle: 0 °” and “enlargement / reduction ratio 1.0”.
特徴量マトリクスの詳細についてさらに説明する。なお、特徴量マトリクスは後述する作成部124によって生成される。図6に示すように、特徴量マトリクスは、特徴点を中心とし所定の長さの軸を有する楕円を、周方向および半径方向に所定の数の領域に分割したものである。たとえば、作成部124は、特徴点に基づいて第1の方向を決定する。そして、作成部124は、第1の方向に基づいて第2の方向を決定する。作成部124は、決定した第1の方向と第2の方向とをそれぞれ軸として、特徴点を中心として楕円状のマトリクスを作成する。たとえば、作成部124は、特徴点と最も近い特徴点の方向を第1の方向とする。そして、作成部124は、当該特徴点と最も近い特徴点とを結ぶ線分に対して90度の角度の方向を第2の方向とする。作成部124は、このようにして作成した特徴量マトリクスに、特徴点の輝度値と、マトリクスの領域の輝度値との差分を対応づける。各領域に含まれる画素の輝度値と、同心円の中心に位置する特徴点の輝度値との差分が、各領域の「輝度差」の値となる。なお、図6の例には、合計49個の画素を示すが、以下、説明の便宜上、49個の画素をそれぞれ、「行番号、列番号」で特定して説明する。行番号は、下から上に向かって「1」〜「7」で示し、列番号は、左から右に向かって「1」〜「7」で示す。
Details of the feature amount matrix will be further described. The feature amount matrix is generated by the
図6の例では、作成部124は、特徴点FPを中心として、特徴点の存在する画素位置から長軸方向に3画素の領域にわたる特徴量マトリクスを設定する。また、図6の例では、特徴量マトリクスを構成する楕円は、径方向に2領域、周方向に4領域に分割され、全部で8個の領域が形成される。各領域には、当該領域を一意に特定するためのマトリクスセグメントIDが付与される。図6の例では、楕円の上中心から右回り方向に内側から外側に向けて順番に、マトリクスセグメントIDが付与されている。たとえば、中心側の楕円に含まれる4つの領域には、上中心から右回りに、マトリクスセグメントID「1」〜「4」が付与されている。外側の楕円に含まれる4つの領域には、上中心から右回りに、マトリクスセグメントID「5」〜「8」が付与されている。
In the example of FIG. 6, the
このように特徴量マトリクスの領域を設定した場合、一つの画素が2以上の領域にまたがって存在する場合がある。ここでは、作成部124は、二つの領域にまたがる画素については、右側かつ下側の領域に入れて特徴量を計算する。たとえば、図6の画素「5、4」は、マトリクスセグメントID「1」「4」「5」「8」の4つの領域にまたがって存在する。そして、右側の領域は、マトリクスセグメントID「1」「5」の領域であり、そのうち下側の領域はマトリクスセグメントID「1」の領域である。したがって、作成部124は、画素「5、4」はマトリクスセグメントID「1」の領域に入れて特徴量を算出する。
When the region of the feature amount matrix is set as described above, one pixel may exist over two or more regions. Here, the
このようにして、作成部124は、図6に示す各領域について、特徴量を算出する。たとえば、マトリクスセグメントID「1」の領域には、画素「5、4」、「5、5」が入る。したがって、輝度値「(100+100)/2=100」がマトリクスセグメントID「1」の領域の輝度値となる。そして、特徴点が存在する領域の画素の輝度値は「255」である。よって、「255−100=155」が、マトリクスセグメントID「1」の領域の輝度差の値となる。
In this way, the
また、マトリクスセグメントID「2」の領域には、画素「4、4」、画素「4、5」が含まれる。したがって、輝度値「(255+255)/2=255」がマトリクスセグメントID「2」の領域の輝度値となる。よって、「255−255=0」が、マトリクスセグメントID「2」の領域の輝度差の値となる。 The area of matrix segment ID “2” includes pixels “4, 4” and pixels “4, 5”. Therefore, the luminance value “(255 + 255) / 2 = 255” is the luminance value of the area of the matrix segment ID “2”. Therefore, “255−255 = 0” is the value of the luminance difference of the area of the matrix segment ID “2”.
同様に、図6に示すマトリクスセグメントID「3」〜「8」について輝度差を求めると、最終的に得られる数値は図4に示すようになる。このように、作成部124は、各特徴点について、マトリクスセグメント各々の輝度差を求め、マトリクス記憶部113は、特徴量マトリクス情報として記憶する。
Similarly, when the luminance difference is obtained for the matrix segment IDs “3” to “8” shown in FIG. 6, finally obtained numerical values are as shown in FIG. Thus, the
また、マトリクス記憶部113は、輝度差の値がとり得る範囲である−255から255の値を、たとえば13のレベルに区分して、輝度差がどのレベルに該当するかも記憶する。たとえば、輝度差が「−255〜−215」の場合をP1、「−215〜−175」の場合をP2、「−175〜−135」の場合をP3、「−135〜−95」の場合をP4とする。また、輝度差が「−95〜−55」の場合をP5、「−55〜−15」の場合をP6、「−15〜15」の場合をP7、「15〜55」の場合をP8、「55〜95」の場合をP9、「95〜135」の場合をP10とする。さらに、輝度差が「135〜175」の場合をP11、「175〜215」の場合をP12、「215〜255」の場合をP13とする。この場合、図4に示すように、マトリクスセグメントID「1」の領域については、輝度差が「155」であるため、輝度差レベルは「P11」となる。なお、これに限定されず、輝度差の値のみを記憶してもよい。
In addition, the
[特徴点ペア情報]
ペア記憶部114は、画像処理サーバ100による処理によって決定される特徴点ペアについての情報を記憶する。図7は、ペア記憶部114に記憶される特徴点ペア情報の構成の一例を示す図である。
[Feature Point Pair Information]
The
図7に示すように、特徴点ペア情報は、処理画像を一意に特定する「処理画像ID」と、比較画像を一意に特定する「比較画像ID」とを含む。さらに、「処理画像ID」および「比較画像ID」に対応づけて、各特徴点ペアを一意に特定する「ペアID」を記憶する。そして、「ペアID」に対応づけて、処理画像の特徴点を一意に特定する「処理画像特徴点ID」と、比較画像の特徴点を一意に特定する「比較画像特徴点ID」とを記憶する。たとえば、図7の例では、「処理画像ID:001」「比較画像ID:201」に対応づけて、ペアID「001」、「002」、「003」等が記憶される。そして、ペアID「001」に対応づけて、「処理画像特徴点ID:FP001」と「比較画像特徴点ID:FP201」が記憶される。このように、特徴点ペア情報は、二つの画像のどの特徴点同士が対応するかを示す情報である。 As illustrated in FIG. 7, the feature point pair information includes a “processed image ID” that uniquely identifies a processed image and a “comparison image ID” that uniquely identifies a comparative image. Further, a “pair ID” that uniquely identifies each feature point pair is stored in association with the “processed image ID” and the “comparison image ID”. Then, in association with the “pair ID”, a “processed image feature point ID” that uniquely identifies the feature point of the processed image and a “comparison image feature point ID” that uniquely identifies the feature point of the comparison image are stored. To do. For example, in the example of FIG. 7, pair IDs “001”, “002”, “003”, and the like are stored in association with “processed image ID: 001” and “comparison image ID: 201”. Then, “processed image feature point ID: FP001” and “comparison image feature point ID: FP201” are stored in association with the pair ID “001”. Thus, the feature point pair information is information indicating which feature points of the two images correspond to each other.
[設定記憶部に記憶される情報]
実施例1に係る画像処理サーバ100は、二つの画像の一方(処理画像)の特徴点について、適用するマトリクスを所定の比率で拡大縮小して、複数の特徴量マトリクスを生成する。また、画像処理サーバ100は、生成した複数の楕円状の特徴量マトリクスの軸の一方を、特徴点を中心として所定の回転角度で回転させて、さらに特徴量マトリクスを生成する。かかる処理を実現するため、実施例1に係る画像処理サーバ100の記憶部110には、設定記憶部115が設けられている。たとえば、設定記憶部115は、回転角記憶部115aと拡大縮小率記憶部115bとを有する。なお、設定記憶部115に記憶される情報は、ユーザの入力に基づいて記憶されてもよく、回転部124aおよび拡大縮小部124bによる処理の結果に基づいて記憶されてもよい。また、初期値として予め所定の値を設定記憶部115に記憶してもよい。
[Information stored in the setting storage unit]
The
[回転角情報]
回転角記憶部115aは、回転処理に用いる情報を記憶する。図8は、回転角記憶部115aに記憶される情報の構成の一例を示す図である。たとえば、回転角記憶部115aは、特徴量マトリクスの軸を回転させる回数と、回転させる角度を変化させる角度変化範囲およびその時点で適用されている回転数および角度変化範囲を示すフラグを記憶する。図8の例では、「回転数」、「角度変化範囲」、「フラグ」が記憶される。たとえば、回転数「178」に対応付けて、角度変化範囲「−89°〜+89°」が記憶されている。また、この時点で回転数「178」、角度変化範囲「−89°〜+89°」が選択されていることを示すフラグが記憶されている。図8の例では、ユーザが手動で回転数および角度変化範囲を設定することができるよう、最下段に「回転数:任意(手動設定)」のボックスを設けている。ユーザが手動で回転数および角度変化範囲を設定した場合は、最下段の空白のボックスに設定した回数および設定した角度変化範囲が記憶される。
[Rotation angle information]
The rotation
ここでは、回転角記憶部115aに記憶された情報に基づいて、角度変化範囲を変更することができる例を示すが、画像処理サーバ100において適用できる回転角度および回転数を固定にして、回転角記憶部115aを設けないものとすることもできる。また、回転部124aにおける処理の結果、角度変化範囲等が回転記憶部115aに設定されるものとしてもよい。
Here, an example in which the angle change range can be changed based on the information stored in the rotation
拡大縮小率記憶部115bは、特徴量マトリクス生成のため特徴点に適用するマトリクスを特徴量マトリクスを拡大縮小する際の、拡大縮小率を記憶する。図9は、拡大縮小率記憶部115bに記憶される情報の構成の一例を示す図である。
The enlargement / reduction
拡大縮小率記憶部115bは、画像の種類に対応付けて、拡大縮小率と、拡大縮小回数と、その時点で適用されている拡大縮小率を示すフラグとを記憶する。たとえば、図9に示すように、画像の種類「衛星画像」に対応づけて、拡大縮小率「0.5〜2.0」が記憶される。さらに、この場合の拡大縮小回数である「16」が記憶される。これは、0.5〜2.0倍の範囲内で、0.1きざみに、「0.5倍」、「0.6倍」、「0.7倍」から「2.0倍」までの拡大縮小率を適用することを意味する。さらに、この時点で「衛星画像」の拡大縮小率が適用されていることを示すフラグが記憶されている。
The enlargement / reduction
作成部124は、たとえば、特徴量マトリクスの長軸または短軸の長さを増減させる。ここでは、拡大縮小処理は、短軸または長軸を基準として、他方の軸の長さを変更して行う。たとえば、長軸の長さを「1」として、短軸の長さを「0.5〜2.0」の拡大縮小率で変更する。なお、拡大縮小率の増減幅を別途定義するようにしてもよい。
For example, the
拡大縮小率記憶部115bは、予め画像の種類に対応付けて拡大縮小率を記憶するが、ユーザが拡大縮小率を任意に設定することもできる。図9の最下段に示すように、ユーザが拡大縮小率を任意に設定した場合は、空白のボックスに拡大縮小率が記憶され、フラグが設定される。
The enlargement / reduction
ここでは、拡大縮小率記憶部115bに記憶された情報に基づいて、拡大縮小率を変更することができる例を示すが、画像処理サーバ100において適用できる拡大縮小率を固定にして、拡大縮小率記憶部115bを設けないこともできる。また、拡大縮小部124bにおける処理の結果、拡大縮小率等が拡大縮小率記憶部115bに設定されるものとしてもよい。
Here, an example in which the enlargement / reduction ratio can be changed based on the information stored in the enlargement / reduction
実施例1では、拡大縮小処理において、特徴量マトリクスの長軸または短軸の長さを増減させるものとする。ただし、後述する回転処理において、特徴量マトリクスの軸を回転させた結果、軸方向が変化した場合は、回転後の軸方向に特徴量マトリクスを拡大縮小してもよい。 In the first embodiment, in the enlargement / reduction processing, the length of the major axis or the minor axis of the feature amount matrix is increased or decreased. However, when the axis direction changes as a result of rotating the axis of the feature amount matrix in the rotation processing described later, the feature amount matrix may be enlarged or reduced in the axis direction after the rotation.
[差分情報の一例]
差分情報につき、図10を参照して説明する。図10は、差分記憶部116に記憶される情報の構成の一例を示す図である。図10に示すように、差分情報は、当該差分を生じた処理画像を一意に特定する「処理画像ID」と、処理画像と比較された比較画像を一意に特定する「比較画像ID」とを含む。さらに、差分として抽出された画像を複数領域に区画して、各領域を一意に特定する「領域ID」を含む。そして、各領域の位置を特定するための「座標」情報を含む。ここでは、各領域が矩形の領域であるものとして、矩形の4隅の座標を位置情報とする。そして、差分情報はさらに、当該領域において差分として抽出された「差分領域画像」を含む。
[Example of difference information]
The difference information will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of a configuration of information stored in the
図10の例では、「処理画像ID:001」、「比較画像ID:101」に対応付けて、複数の領域ID「R001」、「R002」等が記憶される。さらに、各領域IDに対応づけて「座標」が記憶される。たとえば、「領域ID:R001」に対応づけて「座標:(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)」が記憶される。さらに、「領域ID:R001」に対応づけて、当該差分画像自体の情報が記憶される。なお、ここでは、差分画像を矩形領域に分割するものとしたが、差分画像の分割の態様は特に限定されない。 In the example of FIG. 10, a plurality of region IDs “R001”, “R002”, and the like are stored in association with “processed image ID: 001” and “comparison image ID: 101”. Further, “coordinates” are stored in association with each area ID. For example, “coordinates: (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 )” are stored in association with “area ID: R001”. The Further, information of the difference image itself is stored in association with “area ID: R001”. Although the difference image is divided into rectangular areas here, the manner of dividing the difference image is not particularly limited.
[制御部120の構成]
図1に戻り、制御部120の構成を説明する。制御部120は、設定部121と、受付部122と、抽出部123と、作成部124と、決定部125と、位置合わせ部126と、検出部127と、を備える。制御部120は、入出力部130を介して受信した画像を解析して特徴点ペアを決定する処理を実行する。さらに、制御部120は、決定した特徴点ペアに基づき、画像の位置合わせと画像間の差分抽出を実行する。そして、制御部120は、誤検出を抑制するため、抽出した差分領域をホモグラフィ行列を用いて変換し、変換後、所定の大きさ以下となった差分領域を差分ではないと判定する。そして、制御部120は、差分ではないと判定された差分領域を除外して、差分画像を合成し、出力する。制御部120における処理によって生成されるデータは適宜、記憶部110に記憶される。
[Configuration of Control Unit 120]
Returning to FIG. 1, the configuration of the
なお、制御部120は、例えば、各種の集積回路や電子回路である。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。
The
設定部121は、入出力部を介して、クライアント200からの入力に応じて、特徴量マトリクスを設定する。すなわち、特徴量マトリクスの角度変化範囲および拡大縮小率を設定する。たとえば、所定のコマンドをクライアント200のモニタ201から入力することで、モニタ201に入力画面が表示され、ユーザは、モニタ201から設定を入力する。設定部121は、設定の入力があると、入力された内容を、回転角記憶部115aおよび拡大縮小率記憶部115bに設定する。たとえば、該当する角度変化範囲および画像種類にフラグを設定する。または、ユーザが任意の数値を入力した場合は、空白のボックスに数値が入力され、当該ボックスにフラグが設定される。なお、設定の入力を待たず、デフォルトで拡大縮小率および回転角が設定されるものとしてもよい。また、画像処理サーバ100における処理の結果として、拡大縮小率および回転角が設定されるものとしてもよい。
The
なお、上述のように、全ての画像に固定の角度変化範囲および拡大縮小率を適用する場合は、設定部121を設けなくてもよい。
As described above, in the case where the fixed angle change range and the enlargement / reduction ratio are applied to all images, the
受付部122は、入出力部130を介して同一の地点を異なる時期に撮影することによって得られる少なくとも二つの画像を受け付ける。受け付けた画像は、指示入力に基づき抽出部123に送られる。また、受付部122が受け付けた画像は、画像記憶部111に記憶される。また、受付部122は、通常は受け付けた画像を画像記憶部111に記憶するのみとし、オペレータ等による指示入力があった場合に、画像記憶部111に記憶された画像を読み出し、抽出部123に送るよう構成してもよい。
The accepting
抽出部123は、受付部122から送られる画像から特徴点を抽出する。たとえば、画像内の建物、道路、森林、敷地などの輪郭点や境界点などを特徴点として抽出する。特徴点を抽出するために用いる手法は特に限定されない。たとえば、ハリス(Harris)オペレータやモラベック(Moravec)オペレータを用いる方法、SUSAN(Smallest Univalue Segment Assimilating Nucleus)、MIC(Minimum Intensity Change)等を利用することができる。抽出部123が抽出した特徴点に関する情報は、特徴点記憶部112に記憶される。
The
作成部124は、抽出部123により抽出された特徴点各々について、上述した特徴量マトリクスを作成する。作成部124は、回転部124aと拡大縮小部124bとを備える。作成部124は、回転角記憶部115aおよび拡大縮小率記憶部115bに記憶される情報に基づき、二つの画像の一方(処理画像)の特徴点の特徴量マトリクスの回転処理および拡大縮小処理を実行する。すなわち、回転部124aは、回転角記憶部115aに記憶された角度変化範囲等に基づいて、特徴量マトリクスの軸を回転させる。拡大縮小部124bは、拡大縮小率記憶部115bに記憶される拡大縮小率に基づいて、特徴点に適用するマトリクスを拡大縮小する。回転部124aおよび拡大縮小部124bによる回転処理および拡大縮小処理を経て作成部124が生成した特徴量マトリクスの情報は、マトリクス記憶部113に記憶される。回転処理および拡大縮小処理についてはさらに詳しく後述する。
The
決定部125は、二つの画像の各々の特徴点について作成された特徴量マトリクスを比較し、類似度を算出する。たとえば、決定部125は、一方の画像の特徴点をひとつ選択する。そして、決定部125は、当該特徴点の特徴量マトリクスを、他方の画像の特徴点すべての特徴量マトリクスと比較する。たとえば、決定部125は、二つの特徴量マトリクスの各領域の輝度差レベル(図4、図5参照)を比較する。そして、決定部125は、比較結果に基づき、特徴量マトリクス間の類似度を算出する。決定部125は、最も類似度の高い特徴点の対を特徴点ペアとして決定する。なお、類似度を算出する手法は特に限定されないが、例えば、正規化相互相関(ZNCC:Zero-mean Normalized Cross-Correlation)を用いることができる。また、差分絶対値和(SAD:Sum of Absolute Differences)、差の二乗和(SSD:Sum of Squared Difference)等を利用した手法を適用してもよい。
The
位置合わせ部126は、決定部125が決定した特徴点ペアに基づいて、二つの画像の位置合わせを実行する。たとえば、位置合わせ部125は、特徴点ペアの画像上の座標に基づいてホモグラフィ行列を算出し、一方の画像を、ホモグラフィ行列を用いて変換することで、画像の位置合わせを実行する。ただし、位置合わせに用いる手法は特に限定されない。
The
検出部127は、作成部124が作成し、マトリクス記憶部113に記憶された特徴量マトリクスを用いて、検出処理を実行する。まず、検出部127は、位置合わせ後の二つの画像の差分領域を抽出する。たとえば、検出部127は、位置合わせ後の画像の画素値、たとえば輝度成分を比較して差分を抽出する。ただし、差分抽出に用いる手法は特に限定されない。
The
そして、検出部127は、差分領域内の、特徴点ペアを構成する特徴点を二つの画像それぞれから抽出する。そして、検出部127は、抽出した特徴点の特徴量マトリクスを比較して、ホモグラフィ行列を算出する。検出部127は、算出したホモグラフィ行列を用いて、差分領域を変換する。変換後の差分領域の大きさが、所定の大きさよりも小さい場合、検出部127は、当該差分領域を差分画像から除外する。
Then, the
そして、検出部127は、抽出した差分領域のうち、除外した差分領域を除いて、差分画像を合成する。検出部127が合成した差分画像は、入出力部130を介して外部に出力される。なお、検出部127の構成および検出処理の詳細については後述する。
And the
上記において、設定部121や位置合わせ部126は、必ずしも設けなくともよい。また、回転部124aおよび拡大縮小部124bも必ずしも設けなくとも良い。特徴量マトリクスの回転処理や拡大縮小処理はおこなわずに、各特徴点について一つずつ作成した特徴量マトリクスを用いて処理をおこなうものとしてもよい。
In the above, the
[実施例1に係る画像処理方法]
次に、図11を参照し、実施例1に係る画像処理サーバ100による画像処理の流れにつき説明する。図11は、実施例1に係る画像処理サーバ100による画像処理の処理手順を示すフローチャートである。
[Image Processing Method According to First Embodiment]
Next, the flow of image processing by the
まず、設定部121が、設定を受け付ける(ステップS201)。次に、受付部122が、比較照合の対象となる二つの画像A(比較画像)、B(処理画像)の入力を受け付ける(ステップS202)。受付部122は、受け付けた画像A、Bを抽出部123に送る。抽出部123は、受け取った画像A、Bのそれぞれから、特徴点を抽出する(ステップS203)。抽出部123は、たとえば、画像の各画素の輝度値や輝度変化の方向にもとづき、画像内の建物、道路、森林、敷地などの輪郭点や境界点を抽出する。
First, the
次に、作成部124は、抽出部123が抽出した、画像Aの特徴点各々について、特徴量マトリクスを生成する(ステップS204)。すなわち、作成部124は、当該特徴点を中心とする楕円状のマトリクスの各領域内の画素の輝度値を算出し、特徴点の画素の輝度値との差分を算出する。作成部124は、算出した差分を、各領域に対応づけて、特徴量マトリクスを生成する。
Next, the
次に、決定部125は、特徴量マトリクスを作成していない方の画像B(処理画像)の特徴点を一つ選択する(ステップS205)。決定部125による選択を受け、作成部124は、画像Bの選択された特徴点について、特徴量マトリクスを作成する(ステップS206)。そして、決定部125は、作成部124が作成した画像Bの特徴点の特徴量マトリクスを、画像A(比較画像)の特徴点各々の特徴量マトリクスと比較して類似度を算出する(ステップS207)。
Next, the
次に、決定部125は、回転部124aが回転角記憶部115aに記憶された所定の回転数だけ回転処理を実行したか否かを判定する(ステップS208)。所定の回転数の回転処理が完了していないと判定した場合(ステップS208、否定)、決定部125は、処理を作成部124に戻す。回転部124aはさらに、所定角度だけ特徴量マトリクスの軸を回転させて回転処理を実行する(ステップS209)。そして、作成部124が、回転処理を施した特徴量マトリクスを作成し(ステップS206)、決定部125が、類似度を算出して記憶部110に格納する(ステップS207)。
Next, the
所定の回転数の回転処理が完了していると判定した場合(ステップS208、肯定)、決定部125は、拡大縮小率記憶部115bに記憶されている拡大縮小率に対応する拡大縮小処理が完了したか否かを判定する(ステップS210)。拡大縮小処理が完了していないと判定した場合(ステップS210、否定)、決定部125は、処理を作成部124に戻す。拡大縮小部124bは完了していない拡大縮小率による特徴量マトリクスの拡大縮小処理を実行する(ステップS211)。そして、作成部124は、拡大縮小処理後の特徴量マトリクスを元に、選択されている画像Bの特徴点の特徴量マトリクスを作成する(ステップS206)。決定部125は、作成された画像Bの特徴点の特徴量マトリクスをもとに、類似度を算出する(ステップS207)。そして、再び、作成部124は、所定回数の回転処理が完了したか否かを判定する(ステップS208)。
If it is determined that the rotation process at the predetermined number of rotations has been completed (Yes at Step S208), the
他方、ステップS210において拡大縮小処理が完了したと判定した場合(ステップS210、肯定)、決定部125は、算出した類似度のうち最も高い類似度が算出された画像Aの特徴点を選択する(ステップS212)。次に、決定部125は、選択した画像Aの特徴点の類似度が所定値以上か否かを判定する(ステップS213)。所定値未満と判定した場合(ステップS213、否定)、決定部125は、ステップS205で選択した画像Bの特徴点を除外する(ステップS214)。すなわち、画像Bについて特徴点記憶部112に記憶された特徴点の情報から、当該特徴点の情報を削除する。他方、所定値以上と判定した場合(ステップS213、肯定)、決定部125は、ステップS212で選択した画像Aの特徴点と、ステップS206で選択した画像Bの特徴点とをペアとして決定する(ステップS215)。
On the other hand, when it is determined in step S210 that the enlargement / reduction process has been completed (Yes in step S210), the
そして、決定部125は、処理画像の全ての特徴点についてペアが決定したか否かを判定する(ステップS216)。全ての特徴点についてペアが決定していないと判定した場合(ステップS216、否定)、決定部125は次の特徴点を選択し(ステップS217)、ステップS206の処理に戻る。他方、全ての特徴点についてペアが決定したと判定した場合(ステップS216、肯定)、位置合わせ部126が、決定した特徴点ペアに基づいて画像の位置合わせをおこなう(ステップS218)。次に、位置合わせ後の二つの画像に基づいて、検出部127が検出処理を実行する(ステップS219)。すなわち、検出部127は、二つの画像の差分を抽出する。そして、検出部127は、差分に対応する特徴点ペアを抽出する。検出部127は、特徴点ペアの決定に用いられた特徴量マトリクスに基づき、ホモグラフィ行列を算出する。そして、検出部127は、ホモグラフィ行列を用いて差分の領域を変換し、変換後の領域の大きさが所定値以上であれば差分とする。なお、検出処理の詳細は後述する。これによって処理が終了する。
Then, the
[特徴量マトリクスの作成処理]
次に、特徴量マトリクスの作成処理の一例について説明する。図12は、特徴量マトリクスの作成処理の一例を説明するための図である。まず、決定部125は、画像から抽出した特徴点の中から一つの特徴点(注目点)を選択する。例えば、決定部125は、図12(A)のP1を選択する。作成部124は、注目点から最も近くにある特徴点を選択する。図12(A)の場合、注目点P1から最も近くにある特徴点はP2であるため、作成部124は、P2を選択する。作成部124は、そして、P1とP2とを結ぶ線分に対して90度の角度をなす線分を算出する。作成部124は、算出した線分上での輝度変化を算出して輝度変化が閾値以上になる点を抽出する。図12(A)の場合、P3において、大きな輝度変化が生じ閾値以上となるため、探索の結果、作成部124は、P3を抽出する。そして、作成部124は、P1を中心とし、P2およびP3を通る楕円形を算出する(図12(B))。作成部124は、算出した楕円形を複数領域に分割し、各領域内の画素の輝度値と、中心にある特徴点P1の画素値との差分を求め、差分を各領域に対応づける。これによって、特徴点の特徴量マトリクスが作成される。
[Feature matrix creation process]
Next, an example of a feature amount matrix creation process will be described. FIG. 12 is a diagram for explaining an example of a feature amount matrix creation process. First, the
[最も近い特徴点を利用する理由]
上記の例では、作成部124は、特徴量マトリクスの作成において、注目点から最も近い特徴点を利用する。図13−1乃至図13−3は、特徴量マトリクスの作成処理において、注目点から最も近い特徴点を利用することを説明するための図である。
[Reason for using the closest feature point]
In the above example, the
まず、図13−1に示す画像Aにおいて、注目点をP1とすると、最も近い特徴点はP2となる。これに対して、天候が変化したこと、たとえば、曇りの日や夕方に撮影した等の理由で、画像全体が暗く写ったとする。図13−2に示す画像Bのように、画像全体が暗くなった場合は、画像全体として輝度差の大きい部分、すなわちエッジが弱くなる。しかし、エッジが完全になくなってしまうわけではなく、作成部124は、輝度差の大きい部分を抽出することができる。したがって、作成部124は、注目点をP1とし、特徴点P2を最も近い特徴点として抽出することができる。
First, in the image A shown in Figure 13-1, the point of interest and P 1, closest feature points becomes P 2. On the other hand, it is assumed that the entire image appears dark because the weather has changed, for example, because it was taken on a cloudy day or in the evening. When the entire image becomes dark like the image B shown in FIG. 13B, a portion having a large luminance difference, that is, an edge becomes weak as the entire image. However, the edge is not completely lost, and the
さらに、日照の変化により画像の一部に影がかかる等の変化が生じる場合がある。図13−3に示す画像Cのように、画像の左下領域のみに影がかかり、左下領域のみ明るさが他の部分と異なった場合を考える。この場合、左下領域においてはエッジが弱くなるため、作成部124は、P2を特徴点として抽出できないことがある。そして、P2が特徴点として抽出されない結果、作成部124は、他の特徴点、たとえば、P3を注目点P1から最も近い特徴点として抽出する。この場合は、作成部124が作成する特徴マトリクスは、比較画像の特徴点について作成される特徴マトリクスとずれることになり、正しく特徴点ペアが検出できない可能性がある。
Furthermore, a change such as a shadow on a part of the image may occur due to a change in sunlight. Let us consider a case in which only the lower left region of the image is shaded and the brightness of only the lower left region is different from the other portions as in the image C shown in FIG. In this case, in the lower left area because the edge is weak,
しかし、通常は、特徴点ペアとして数百のペアを抽出したのち、正当性をチェックして誤対応ペアを除外する処理を行う。また、衛星画像等の場合、全ての特徴点について日照変化等の影響で誤検出が生じる可能性は低い。したがって、日照変化の影響を考慮しても、最も近い特徴点を抽出して特徴量マトリクスを作成することによって妥当な特徴点ペアを決定することができる。また、作成部124は、二つの画像の一方の特徴点については、回転処理および拡大縮小処理を行い、一つの特徴点について複数の特徴量マトリクスを作成し、類似度が閾値より小さい場合は、特徴点を除外する。したがって、誤検出を抑制して適正な特徴点ペアを決定することができる。
However, normally, after extracting hundreds of pairs as feature point pairs, the correctness is checked and processing for excluding erroneous correspondence pairs is performed. In the case of a satellite image or the like, it is unlikely that erroneous detection will occur due to the influence of sunshine change or the like on all feature points. Therefore, even if the influence of sunshine change is taken into consideration, an appropriate feature point pair can be determined by extracting the closest feature point and creating a feature amount matrix. Further, the
なお、このように、最も近い特徴点の方向を楕円状のマトリクスの一軸方向とする場合、特徴量マトリクスの領域の設定は、当該軸方向を基準として行う。たとえば、図6に示す例において楕円の長軸方向(列1から列7へ向かう方向)を、最も近い特徴点の方向として、図6に示すようにマトリクスの領域を設定し、各領域の輝度差の値を算出する。これによって、異なる画像の特徴点の特徴量マトリクスを適正に比較することができる。ただし、特徴量マトリクスを適正に比較することができれば、他の基準を用いて特徴量マトリクスの領域を設定してもよい。
As described above, when the direction of the closest feature point is set as one axis direction of the elliptical matrix, the region of the feature amount matrix is set on the basis of the axis direction. For example, in the example shown in FIG. 6, the area of the matrix is set as shown in FIG. 6 with the long axis direction of the ellipse (direction from
[拡大縮小処理]
図14を参照し、特徴量マトリクスの拡大縮小処理について説明する。図14は、特徴量マトリクスの拡大縮小処理を説明するための図である。まず、上述のように注目点P1から最も近い特徴点P2を抽出し、注目点P1と最も近い特徴点P2とを結ぶ線分に対して90度の角度をなす線分上において輝度変化が閾値以上となる点P3を抽出する。そして、90度の角度をなす線分の長さを所定の割合で増減させて、複数の特徴量マトリクスを作成する。
[Enlargement / reduction processing]
The feature amount matrix enlargement / reduction processing will be described with reference to FIG. FIG. 14 is a diagram for explaining the feature quantity matrix enlargement / reduction processing. First, on the line segment at an angle of 90 degrees to the extracted nearest feature point P 2 from the target points P 1, as described above, connecting the point of interest P 1 and the nearest feature point P 2 segment extracting a point P 3 in the luminance is equal to or more than a threshold. Then, the length of the line segment forming an angle of 90 degrees is increased or decreased by a predetermined ratio to create a plurality of feature amount matrices.
90度の角度をなす線分の長さは、注目点から注目点に最も近い特徴点までの長さを基準として、増減の範囲を0.5倍〜2倍までに設定してもよい。そして、基準の長さに対して、0.5倍、0.6倍、0.7倍、・・・2.0倍まで長さを変化させて特徴量マトリクスを作成すればよい。たとえば、図14に示すように、90度の角度をなす線分の長さを変更する。 The length of the line segment that forms an angle of 90 degrees may be set to 0.5 to 2 times the range of increase / decrease based on the length from the point of interest to the feature point closest to the point of interest. Then, the feature amount matrix may be created by changing the length to 0.5 times, 0.6 times, 0.7 times,..., 2.0 times with respect to the reference length. For example, as shown in FIG. 14, the length of a line segment forming an angle of 90 degrees is changed.
このように、特徴量マトリクスの短軸又は長軸の長さを変化させて複数の特徴量マトリクスを作成することにより、画像の一部が歪んでいる場合であっても、正確に画像の輝度を反映した特徴量マトリクスを作成することができる。 In this way, by creating a plurality of feature amount matrices by changing the length of the short axis or long axis of the feature amount matrix, even if a part of the image is distorted, the brightness of the image can be accurately obtained. Can be created.
なお、ここでは、特徴点(注目点)から最も近い他の特徴点を抽出して、注目点と当該他の特徴点を結ぶ線分と、当該線分と90度の角度をなす線分とを、楕円状の特徴量マトリクスの短軸および長軸とした。しかし、これに限定されず、任意の方向と、当該方向と所定の関係を有する他の方向とを、楕円形状のマトリクスの短軸方向及び長軸方向としてもよい。たとえば、画像に方位情報が含まれていれば、北方向等を第1の方向、すなわち、楕円の短軸方向または長軸方向の一方としてもよい。また、第1の方向に対して、いずれかの方向に90度を任意の角度(90度±α)で補正した方向を第2の方向、すなわち、楕円の短軸方向または長軸方向の他方としてもよい。この場合も、拡大縮小部124bは、拡大縮小処理を、特徴量マトリクスの長軸または短軸を所定の比率で増減させることにより実行すればよい。また、回転処理および拡大縮小処理をともに実行する場合は、拡大縮小部124bは、回転後の軸方向に特徴量マトリクスを拡大縮小するものとしてもよい。
Here, the other feature point closest to the feature point (attention point) is extracted, a line segment connecting the attention point and the other feature point, and a line segment forming an angle of 90 degrees with the line segment. Are the short axis and long axis of the elliptic feature matrix. However, the present invention is not limited to this, and an arbitrary direction and another direction having a predetermined relationship with the direction may be the short axis direction and the long axis direction of the elliptical matrix. For example, if the image includes orientation information, the north direction or the like may be the first direction, that is, one of the minor axis direction and the major axis direction of the ellipse. Also, a direction obtained by correcting 90 ° in any direction by an arbitrary angle (90 ° ± α) with respect to the first direction is the second direction, ie, the other of the minor axis direction or the major axis direction of the ellipse. It is good. Also in this case, the enlargement /
なお、ここでは、90度方向の線分の長さは、当該方向上の点で、当該点における輝度変化が所定の閾値以上となる点とした。しかし、90度方向の線分の長さは、たとえば、所定画素数の長さとしてもよく、楕円の中心となる特徴点と当該特徴点と最も近い特徴点との間の長さに対する比率によって決定してもよい。 Here, the length of the line segment in the 90-degree direction is a point on the direction in which the luminance change at the point is equal to or greater than a predetermined threshold. However, the length of the line segment in the 90-degree direction may be, for example, the length of a predetermined number of pixels, depending on the ratio to the length between the feature point that is the center of the ellipse and the feature point closest to the feature point. You may decide.
[縮小率および拡大率の設定]
図15は、拡大縮小処理での縮小率についてさらに説明するための図である。図15に示すように、特徴量マトリクスの半径をR(Rは画素数で示す)、半径方向の領域数をNとする。ここで、半径Rが、領域数Nよりも小さい場合、半径方向の1領域が1画素に満たないことになる。そこで、拡大縮小部124bは、縮小率を、半径方向の1領域が1画素以上となるように設定する。すなわち、縮小率pの最大値は、p=N/Rとする。
[Setting the reduction ratio and enlargement ratio]
FIG. 15 is a diagram for further explaining the reduction ratio in the enlargement / reduction processing. As shown in FIG. 15, the radius of the feature quantity matrix is R (R is the number of pixels), and the number of regions in the radial direction is N. Here, when the radius R is smaller than the number N of regions, one region in the radial direction is less than one pixel. Therefore, the enlargement /
また、拡大縮小部124bは、拡大率qを、画像の大きさを元に算出する。図16−1および図16−2は、拡大縮小処理での拡大率について説明するための図である。図16−1に示すように、拡大縮小部124bは、拡大縮小率を、特徴量マトリクスが画像の縦横の長さを超えるような数値に設定することはできない。たとえば、図16−1に示すように、画像の縦方向長さをW、横方向長さをHとする。このとき、特徴点が図16−1の座標「(x1,y1)」で表される位置にある場合、特徴量マトリクスの半径を、特徴点から画像上端までの距離より長く設定することはできない。また、特徴点が図16−1の座標「(x2,y2)」で表される位置にある場合、特徴量マトリクスの半径を、特徴点から画像右端までの距離より長く設定することはできない。したがって、拡大縮小部124bは、特徴点の座標の位置に応じて、設定できる特徴量マトリクスの拡大率を決定することができる。
The enlargement /
拡大率qは、特徴点の位置が、図16−2に示す位置(1)〜(4)のいずれの位置にあるかによって、以下の式に基づいて決定することができる。 The enlargement ratio q can be determined based on the following formula depending on which of the positions (1) to (4) shown in FIG.
特徴点が、図16−2の位置(1)にある場合は、xがyよりも大きければ、q=x/Rとなる。また、xよりyが小さければ、q=y/Rとなる。 When the feature point is at position (1) in FIG. 16B, if x is larger than y, q = x / R. If y is smaller than x, q = y / R.
特徴点が、図16−2の位置(2)にある場合は、(W−x)よりyが大きければ、q=(W−x)/Rとなる。また、(W−x)よりyが小さければ、q=y/Rとなる。 When the feature point is at position (2) in FIG. 16-2, if y is larger than (W−x), q = (W−x) / R. If y is smaller than (W−x), q = y / R.
特徴点が、図16−2の位置(3)にある場合は、xより(H−y)が大きければ、q=x/Rとなる。また、xより(H−y)が小さければ、q=(H−y)/Rとなる。 When the feature point is at position (3) in FIG. 16B, if (H−y) is larger than x, q = x / R. If (H−y) is smaller than x, q = (H−y) / R.
特徴点が、図16−2の位置(4)にある場合は、(W−x)より(H−y)が大きければ、q=(W−x)/Rとなる。また、(W−x)より(H−y)が小さければ、q=(H−y)/Rとなる。 When the feature point is at the position (4) in FIG. 16B, if (H−y) is larger than (W−x), q = (W−x) / R. If (H−y) is smaller than (W−x), q = (H−y) / R.
このように、拡大率および縮小率を設定することができる。しかし、拡大縮小による変化の幅が最大となるように拡大率および縮小率を設定した場合、処理量が多くなり、画像処理サーバ100の負担も増加する。したがって、画像間で拡大率に大きな変動がない衛星画像等の場合には、拡大縮小の幅を小さく設定することで、処理量の増加を抑制してもよい。また、適用する画像の種類に応じて、予め拡大縮小率を設定しておいてもよい。
Thus, the enlargement ratio and reduction ratio can be set. However, when the enlargement ratio and the reduction ratio are set so that the range of change due to enlargement / reduction is maximized, the processing amount increases and the burden on the
[回転処理]
次に、図17−1乃至図17−3を参照し、処理画像の特徴点の特徴量マトリクスの回転処理を説明する。図17−1乃至図17−3は、特徴量マトリクスの回転処理について説明するための図である。
[Rotation processing]
Next, with reference to FIG. 17A to FIG. FIGS. 17A to 17C are diagrams for explaining the rotation process of the feature amount matrix.
図17−1に示すように、撮影角度が変化した場合、複数画像間で、画像の映り具合が変化する。図17−1に示す画像Aと図17−2に示す画像Bとでは、被写体の縦横の長さの比率が微妙に変化している。画像Aでは、注目点をP1Aとした場合、作成部124は、最も近い特徴点としてはP2Aを抽出する。そして、作成部124は、P1AとP2Aとを結ぶ線分に対して90度の角度をなす線分上のP3Aを抽出する。そしてP3Aにおいて大きな輝度変化が生じているため、作成部124は、P3Aを、輝度変化が所定値以上になる点として抽出する。他方、画像Bでは、画像Aと比較して横方向の長さが短くなっている。このため、注目点をP1Bとした場合、作成部124は、最も近い特徴点としてP2Bを抽出するが、P1BとP2Bとを結ぶ線分と90度をなす線分上にP3Bがないため、P3Bを抽出できない。
As shown in FIG. 17A, when the shooting angle changes, the image appearance changes between a plurality of images. In the image A shown in FIG. 17A and the image B shown in FIG. 17-2, the ratio of the vertical and horizontal lengths of the subject slightly changes. In the image A, when the attention point is P1A , the
ここで、輝度が大きく変化する点として抽出される点を、画像Aと画像Bとで等しくするためには、輝度変化を抽出するために用いる線分の角度を変化させるとよい。そこで、作成部124は、注目点と、注目点に最も近い特徴点とを結ぶ線分となす角度を90度から所定の範囲内で増減させて、複数の特徴量マトリクスを作成する(画像C、図17−3参照)。角度は、たとえば、線分に対して−89度から+89度までの範囲内で、1度ずつ変化させればよい。
Here, in order to make the point extracted as the point where the luminance greatly changes between the image A and the image B, the angle of the line segment used for extracting the luminance change may be changed. Therefore, the
[角度変化範囲の決定処理]
画像処理サーバ100は、特にユーザが設定しなくとも、画像とともに撮影角度の情報を受信した場合、回転部124aが、受信した情報に基づき角度変化範囲を算出するものとしてもよい。回転部124aが角度変化範囲を算出する場合は、算出した数値等が、回転角記憶部115aに記憶される。そして、算出した角度変化範囲に基づき、回転部124aは、特徴量マトリクスの回転処理を実行するものとしてもよい。
[Angle change range determination processing]
The
そこで、次に、回転部124aが楕円状の特徴量マトリクスの長軸と短軸とがなす角度を所定の範囲内で増減させて複数の特徴量マトリクスを作成する場合に、角度を変化させる範囲を決定する手法について、図18−1乃至図18−7を参照して説明する。図18−1乃至図18−6は、回転部124aにおける角度変化範囲の決定手法について説明するための図である。図18−7は、回転部124aが決定する角度変化範囲の一例を示す図である。
Therefore, next, when the
たとえば、衛星画像や航空画像においては、撮影場所から被写体への角度を撮影時に取得できる場合がある。このような場合には、回転部124aは、取得した角度を元に、角度を変化させる範囲を決定することができる。例えば、図18−1に示すように、地上に半径rの正円が存在すると考える。この場合、図18−1に示す上空の位置Xから真下方向を撮影した場合、半径rの正円は、図18−2のように見える。また、図18−1に示す上空の位置Yから斜め下方向の半径rの正円を撮影したとする。位置Xと位置Yとの成す角度はθであるとする。この場合、位置Yから撮影した正円は、図18−3のように見える。すなわち、長軸半径がr、短軸半径がrcosθの楕円に見える。
For example, in satellite images and aerial images, the angle from the shooting location to the subject may be acquired at the time of shooting. In such a case, the rotating
このように斜めから撮影した画像の場合は、実際は90度の部分の見かけの角度が90度とは大きく異なる場合がある。例えば、図18−4に示す例では、二つの矢印にはさまれた部分の角度は実際の被写体においては90度であるが、見かけ上は90度より大きいまたは小さい角度に見える。他方、図18−1の位置Xのように被写体の真上から撮影を行った場合は、見かけの角度と実際の角度が一致する。図18−5に示す例では、見かけの角度が実際の角度と同じ90度になっている。 Thus, in the case of an image taken from an oblique direction, the apparent angle of the 90-degree portion may actually differ greatly from 90 degrees. For example, in the example shown in FIG. 18-4, the angle between the two arrows is 90 degrees in an actual subject, but it appears to be larger or smaller than 90 degrees in appearance. On the other hand, when the image is taken from directly above the subject as in the position X in FIG. 18A, the apparent angle matches the actual angle. In the example shown in FIG. 18-5, the apparent angle is 90 degrees, which is the same as the actual angle.
そこで、回転部124aは、実際の被写体上において90度である角度を包含する範囲について、角度を変化させるように、角度を変化させる範囲を決定する。例えば、撮影位置が被写体の真上方向となす角度がθである場合、中心を原点とする座標を描くと、図18−6に示すように、座標(r,rcosθ)の位置と、座標(r,−rcosθ)の位置と、座標(−r,rcosθ)の位置によって決定される角度φmaxおよびφminによって、角度を変化させる範囲を決定できる。実際に90度の角度の見かけ上の角度は、最大でφmax、最小でφminとなるためである。具体的には、角度を変化させる範囲は、以下の式で定義できる。
Therefore, the
φmin≦変化範囲≦φmax φ min ≤ change range ≤ φ max
ここで、φmaxおよびφminは以下の式により求めることができる。 Here, φ max and φ min can be obtained by the following equations.
φmin=2tan−1(cosθ) φ min = 2 tan −1 (cos θ)
φmax=2tan−1(1/cosθ) φ max = 2 tan −1 (1 / cos θ)
たとえば、θ=30度の場合、φminは81.79度、φmaxは98.21度となる。したがって、角度を変化させる範囲は、81.79度以上98.21度以下となる。 For example, when θ = 30 degrees, φ min is 81.79 degrees and φ max is 98.21 degrees. Therefore, the range in which the angle is changed is 81.79 degrees or more and 98.21 degrees or less.
図18−7に、θの角度ごとに算出した角度を変化させる範囲の一例を示す。回転部124aは、たとえば、図18−7に示す変化範囲内で、所定角度ずつ角度を変化させて特徴量マトリクスを作成すればよい。実際の処理においては、回転部124aは、図18−7に示す角度を画素数に換算して、変化させる角度を決定する。たとえば、1画素が50センチメートルから1メートルに相当するとすれば、回転部124aは、2、3画素ずつ角度を変化させて特徴量マトリクスを作成する。なお、回転部124aは、角度を変化させる単位を、差分として抽出したい対象物の大きさにあわせて決定するものとしてもよい。
FIG. 18-7 shows an example of a range in which the angle calculated for each angle of θ is changed. For example, the
[回転処理を経た特徴量マトリクスの作成処理]
次に、回転処理を実行する場合の作成部124による特徴量マトリクスの作成処理につき説明する。図19−1乃至図19−6は、回転処理を経た特徴量マトリクスの作成処理について説明するための図である。まず、図19−1に示すように、回転部124aが、90度方向を角度θだけ回転させるとする。なお、図19−1中、注目点をP1、注目点に最も近い特徴点をP2で示す。
[Process of creating feature matrix after rotation process]
Next, a feature amount matrix creation process by the
このように回転部124aが90度方向を角度θだけ回転させると、注目点P1を中心とした楕円を描くことができない。そこで、回転部124aは、四つの楕円の部分を組み合わせることによって特徴量マトリクスを作成する。まず、図19−2に示すように、90度方向をθだけ回転させた線分の先端をPxとする。そして、回転部124aは、Pxから、P1とP2とを結ぶ線分に対しておろした垂線と、P1とP2とを結ぶ線分との交点P3を算出する。そして、回転部124aは、垂線を短径(または長径)とし、P3からP2までの距離を長径(または短径)とする楕円を算出する。まず、図19−2に示すように、回転部124aは、右上部分について、P3を中心とする楕円を算出する。
With
次に、図19−3に示すように、回転部124aは、左上部分について、P3を中心とし、P1とP2との間の距離だけ、P3から左方向に伸ばした点までの距離を長径(または短径)とし、垂線を短径(または長径)とする楕円を算出する。さらに、図19−4に示すように、回転部124aは、90度方向を角度θだけ回転させて得られる線分の下側の端点PyからP1とP2とを結ぶ線分に対する垂線を算出する。そして、回転部124aは、P1とP2とを結ぶ線分と垂線との交点P4を算出する。また、回転部124aは、P1からP2までの長さだけ、P1からP2と反対方向に延ばした線分の端点P5を算出する。そして、図19−4に示すように、回転部124aは、左下部分について、P4を中心とし、P4からPyの長さを短径(または長径)、P4からP5の長さを長径(または短径)とする楕円を算出する。さらに、図19−5に示すように、回転部124aは、右下部分について、P4を中心とし、P4からP2の長さを長径(または短径)、P4からPyまでの長さを短径(または長径)とする楕円を算出する。
Next, as shown in Figure 19-3, the
回転部124aは、このようにして求めた楕円の四つの部分を組み合わせることによって、特徴量マトリクスを算出する(図19−6)。
The
そして、作成部124は、回転部124aが算出した特徴量マトリクスの各領域に、当該領域内の画素の輝度値と特徴点の画素の輝度値との差分を対応づけることにより、特徴量マトリクスを作成する。
Then, the
[検出部の構成の一例]
次に、図20を参照し、検出部127の構成の一例について説明する。図20は、検出部127の構成の一例を示す図である。図20に示すように、検出部127は、差分抽出部127aと、変換部127bと、差分合成部127cと、を備える。
[Example of detector configuration]
Next, an example of the configuration of the
差分抽出部127aは、位置合わせ後の二つの画像から差分を抽出する。差分抽出部127aは、たとえば各画像の輝度を算出し、輝度の差が所定値以上の領域を抽出する。ただし、差分抽出に用いる手法は特に限定されない。
The
さらに、差分抽出部127aは、抽出した差分に対応する特徴点を、二つの画像それぞれから抽出する。たとえば、差分抽出部127aは、抽出した差分画像を、複数の矩形領域に分割し、各領域内の特徴点を抽出する。矩形領域内に位置する差分を、以下「差分領域」とも称する。差分抽出部127aは、たとえば、矩形領域の座標(図10参照)と、特徴点記憶部112に記憶されている特徴点の座標(図3参照)とを照合して、当該領域内にある特徴点を抽出する。
Further, the
ここで差分抽出部127aが抽出する特徴点は、差分領域内にあることが好ましいが、当該差分領域を含む矩形領域内の特徴点であれば、差分領域外の特徴点を抽出してもよい。
Here, the feature points extracted by the
差分抽出部127aは、たとえば画像A(処理画像)と差分とを照合して、各領域に含まれる画像Aの特徴点を抽出し、抽出した画像Aの特徴点と特徴点ペアを構成する、画像B(比較画像)の特徴点を抽出する。いずれの画像と差分とを先に照合するかは、差分の抽出態様によって決定すればよい。
The
変換部127bは、差分抽出部127aにより抽出された、二つの画像の特徴点それぞれについての特徴量マトリクスに基づいて、ホモグラフィ行列を算出する。ホモグラフィ行列の算出手法については後述する。なお、変換部127bは、決定部125により特徴点ペアであると決定された二つの特徴点の、回転処理および拡大縮小処理を施していない特徴量マトリクスを用いてホモグラフィ行列を算出する。そして、変換部127bは、算出したホモグラフィ行列に基づいて、差分領域を変換する。
The conversion unit 127b calculates a homography matrix based on the feature amount matrix for each of the feature points of the two images extracted by the
なお、ここでは、変換部127bは、特徴点ペア決定処理において利用した特徴量マトリクスを用いてホモグラフィ行列を算出するものとした。ただし、位置合わせ後の二つの画像に対して、再度、特徴点ペアをなす各特徴点の特徴量マトリクスを作成してホモグラフィ行列を算出するものとしてもよい。 Here, it is assumed that the conversion unit 127b calculates a homography matrix using the feature amount matrix used in the feature point pair determination process. However, a homography matrix may be calculated by creating a feature quantity matrix of each feature point forming a feature point pair again for the two images after alignment.
差分合成部127cは、変換部127bによって変換された後の差分領域の大きさを所定値と比較し、所定値以上の場合は、当該差分領域を差分であると判定する。すなわち、差分合成部127cは、当該差分の情報を差分記憶部116から削除しない。他方、所定値より小さい場合は、差分合成部127cは、当該差分領域は差分ではないと判定する。すなわち、差分合成部127cは、当該差分の情報を、差分記憶部116から削除する。すなわち、当該差分領域を含む矩形領域の領域IDに対応する差分領域画像から差分が削除される(図10参照)。
The
[ホモグラフィ行列の算出手法の一例]
次に、図21−1および図21−2を参照して、ホモグラフィ行列の算出手法の一例につき説明する。図21−1および図21−2は、ホモグラフィ行列の算出手法の一例につき説明するための図である。
[Example of homography matrix calculation method]
Next, an example of a homography matrix calculation method will be described with reference to FIGS. 21-1 and 21-2. FIG. 21A and FIG. 21B are diagrams for explaining an example of a homography matrix calculation method.
たとえば、矩形領域内の特徴点の特徴量マトリクスが、画像A(比較画像)については図21−1に示す形状であり、画像B(処理画像)については図21−2に示す形状であったとする。このとき、それぞれの特徴量マトリクスを、特徴点を原点とする座標上に位置づける。そして、座標の各座標軸と、特徴量マトリクスの輪郭線との交点の座標を求める。このとき、たとえば、座標の横軸と、特徴量マトリクスの中心の特徴点と、当該特徴点と最も近い特徴点とを結ぶ線分とを一致させるように配置してもよい。ただし、特徴量マトリクスを座標上に配置する際の態様は特に限定されない。 For example, the feature quantity matrix of the feature points in the rectangular area has the shape shown in FIG. 21-1 for the image A (comparison image) and the shape shown in FIG. 21-2 for the image B (processed image). To do. At this time, each feature amount matrix is positioned on the coordinates with the feature point as the origin. And the coordinate of the intersection of each coordinate axis of a coordinate and the outline of a feature-value matrix is calculated | required. At this time, for example, the coordinate axis, the feature point at the center of the feature matrix, and the line segment connecting the feature point and the closest feature point may be arranged to coincide with each other. However, the aspect at the time of arrange | positioning a feature-value matrix on a coordinate is not specifically limited.
図21−1の例では、変換部127bは、p1,p2,p3およびp4の4つの点を算出する。図21−2の例では、変換部127bは、p1´,p2´,p3´およびp4´の4つの点を算出する。そして、変換部127bは、p1,p2,p3およびp4をそれぞれ、p1´,p2´,p3´およびp4´に移動させる行列を算出する。算出した行列が、この特徴点ペアに対するホモグラフィ行列となる。 In the example of FIG. 21A, the conversion unit 127b calculates four points p1, p2, p3, and p4. In the example of FIG. 21-2, the conversion unit 127b calculates four points p1 ′, p2 ′, p3 ′, and p4 ′. Then, the conversion unit 127b calculates a matrix that moves p1, p2, p3, and p4 to p1 ′, p2 ′, p3 ′, and p4 ′, respectively. The calculated matrix is a homography matrix for the feature point pair.
[検出処理の流れ]
次に、図22−1および図22−2を参照して、検出処理について説明する。図22−1および図22−2は、実施例1における検出処理について説明するための図である。たとえば、図22−1に示すように、同一の対象物について、処理画像に写った該対象物と比較画像に写った該対象物との間に撮影角度の差によるずれが生じているとする。この場合、作成部124が上記のように楕円形の特徴量マトリクスを作成し、回転部124aおよび拡大縮小部124bが回転処理や拡大縮小処理を施すことによって、適切な特徴点ペアを決定することができる。しかし、画像自体のずれが位置合わせによって完全に解消されていない場合がある。
[Flow of detection processing]
Next, the detection process will be described with reference to FIGS. 22-1 and 22-2. FIGS. 22-1 and 22-2 are diagrams for explaining the detection processing in the first embodiment. For example, as shown in FIG. 22-1, regarding the same object, it is assumed that there is a deviation due to a difference in shooting angle between the object shown in the processed image and the object shown in the comparison image. . In this case, the
図23−1および図23−2は、同一の被写体を撮影した画像について、位置合わせによって解消されない画像ずれを説明するための図である。たとえば、図23−1に示す画像Cと画像Dの場合、撮影角度等の相違により画像に写った被写体の形状が微妙に異なる。この場合、決定部125が特徴点ペアを抽出して、位置合わせ部126が位置合わせを実行しても、図23−2のように被写体の写り具合の違い自体は解消されず、画像間のずれが残ることがある。
FIG. 23A and FIG. 23B are diagrams for explaining image shifts that are not eliminated by alignment for images obtained by photographing the same subject. For example, in the case of an image C and an image D shown in FIG. In this case, even if the
このように画像にずれが生じている場合、特徴点ペアをなす特徴点それぞれの特徴量マトリクスは、図22−1の下部に示すようにアスペクト比が異なった状態となる。ただし、特徴点ペア決定の処理においては、特徴量マトリクスに回転処理や拡大縮小処理を施すため、図22−1の下部に示すような特徴量マトリクスの場合も、適切なペアとして決定できる。そこで、変換部127bは、回転処理や拡大縮小処理を施さない場合の二つの特徴量マトリクスに基づいて、画像間のずれを反映するホモグラフィ行列を算出する。 When the image is shifted as described above, the feature amount matrix of each feature point forming the feature point pair is in a state where the aspect ratios are different as shown in the lower part of FIG. However, in the feature point pair determination processing, since the rotation processing and the enlargement / reduction processing are performed on the feature amount matrix, the feature amount matrix shown in the lower part of FIG. 22-1 can be determined as an appropriate pair. Therefore, the conversion unit 127b calculates a homography matrix that reflects a shift between images based on the two feature amount matrices when the rotation process and the enlargement / reduction process are not performed.
そして、変換部127bは、図22−2に示すように、当該特徴点の近傍において抽出された差分領域を、当該特徴点のホモグラフィ行列を用いて変換する。同じ対象物が異なる方向から撮影された等のために、二つの画像において異なった写り方をし、差分として抽出された場合は、変換後の差分領域は微小な領域となる。そこで、あらかじめ所定値を閾値として設定し、差分合成部127cが、変換後の差分領域の大きさが当該所定値より小さい場合は、当該差分領域を差分から削除することで、差分の誤検出を抑制することができる。
Then, as illustrated in FIG. 22-2, the conversion unit 127b converts the difference area extracted in the vicinity of the feature point using the homography matrix of the feature point. When the same object is photographed from different directions, for example, when the two images are captured differently and extracted as a difference, the converted difference area is a minute area. Therefore, a predetermined value is set as a threshold value in advance, and when the
[検出処理の流れの一例]
次に、図24を参照して、検出部127における検出処理の流れの一例について説明する。図24は、実施例1における検出処理の処理手順の一例を示すフローチャートである。まず、検出部127の差分抽出部127aが二つの画像の差分を抽出する(ステップS301)。差分抽出部127aが抽出した差分は、差分記憶部116に記憶される。このとき差分の情報は、複数の領域ごとに、差分記憶部116に記憶される(図10参照)。差分抽出部127aは、まず、一つの領域を選択して当該領域内の特徴点ペアを抽出する(ステップS302)。特徴点ペアが抽出されると、変換部127bは、当該特徴点ペアをなす各特徴点の特徴量マトリクスをマトリクス記憶部113から読み出す。そして、変換部127bは、上述したように、各特徴量マトリクスを座標上に位置づけて、四つの対応する点を抽出する。そして、変換部127bは、四つの対応する点に基づいてホモグラフィ行列を算出する(ステップS303)。
[Example of detection process flow]
Next, an example of the flow of detection processing in the
変換部127bは、算出されたホモグラフィ行列を用いて、差分領域を変換する(ステップS304)。差分合成部127cは、変換後の差分領域が所定値以上の大きさを有するか否かを判定する(ステップS305)。差分合成部127cは、変換後の差分領域が所定値より小さいと判定すると(ステップS305、否定)、当該差分領域を差分から除外する(ステップS306)。すなわち、差分記憶部116の情報を、当該差分領域について差分なしとの情報に更新する。他方、差分合成部127cは、変換後の差分領域が所定値以上の大きさであると判定すると(ステップS305、肯定)、当該差分領域は差分であると判定する(ステップS307)。すなわち、差分記憶部116に当該差分領域について差分があるとの情報を維持する。
The conversion unit 127b converts the difference region using the calculated homography matrix (step S304). The
そして、差分合成部127cは、全ての差分領域を処理したか否かを判定する(ステップS308)。全ての差分領域を処理してはいないと判定した場合(ステップS308、否定)、次の差分領域を選択して(ステップS309)、処理をステップS302に戻す。他方、全ての差分領域を処理したと判定した場合(ステップS308、肯定)、差分合成部127cは処理した差分領域を合成して差分画像を生成する。そして、差分合成部127cは、生成した差分画像を出力する(ステップS310)。これによって、検出処理が終了する。
Then, the
実施例1では、画像の位置合わせ前に作成した特徴量マトリクスに基づいてホモグラフィ行列を算出するものとした。しかし、位置合わせ後の二つの画像に基づいて特徴量マトリクスを再度作成して、ホモグラフィ行列を算出することで、より正確な差分検出を行うことができる。したがって、差分抽出部127aによる処理の後、作成部124に処理を戻して、特徴量マトリクスを作成した後、変換部127bがホモグラフィ行列を算出するものとしてもよい。
In the first embodiment, the homography matrix is calculated based on the feature amount matrix created before the image alignment. However, a more accurate difference detection can be performed by creating a feature matrix again based on the two images after alignment and calculating a homography matrix. Therefore, after the processing by the
[実施例1の効果]
上述の実施例1においては、画像処理サーバ100は、第1の画像および第2の画像の各々から特徴点を抽出する。そして、画像処理サーバ100は、第1および第2の画像の各々の特徴点について、該特徴点に基づいて第1の方向を決定する。また画像処理サーバ100は、当該第1の方向に基づいて第2の方向を決定する。画像処理サーバ100は、第1の方向および第2の方向それぞれを軸とし、かつ、特徴点を中心とする楕円状のマトリクスを作成する。画像処理サーバ100は、作成したマトリクスの各領域に、当該領域内の画素の輝度値と特徴点の輝度値との差分に関する情報を対応づけて特徴量マトリクスを作成する。さらに、画像処理サーバ100は、第1の画像の特徴点の特徴量マトリクスと、第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する。画像処理サーバ100は、特徴点ペアの決定に用いられた第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換する。画像処理サーバ100は、第1の画像と変換された第2の画像とに基づいて差分を検出する。このように、特徴点の特徴量として、略楕円状の特徴マトリクスの形状に基づいて、画像を変換するため、画像のアスペクト比を考慮して画像を変換することができる。このため、画像間にずれが生じている場合であっても、正確に位置合わせを行うことができる。
[Effect of Example 1]
In the first embodiment described above, the
また、実施例1においては、画像処理サーバ100は、決定部125による特徴点ペアの決定に用いられた第1の画像の特徴点の特徴量マトリクスと第2の画像の特徴点の特徴量マトリクスとを、それぞれ特徴点を中心とした座標上に配置する。そして画像処理サーバ100は、当該座標の座標軸と当該特徴量マトリクスの輪郭との交点を抽出する。そして画像処理サーバ100は、第1の画像の特徴点の特徴量マトリクスについて抽出した交点と、第2の画像の特徴点の特徴量マトリクスについて抽出した交点と、を対応づけるホモグラフィ行列を算出する。画像処理サーバ100は、算出したホモグラフィ行列を用いて、特徴点を含む第2の画像を変換する。画像処理サーバ100は、ホモグラフィ行列を用いて変換された第2の画像と第1の画像とに基づいて差分を検出する。このため、画像に一様でないずれが生じている場合でも、正確に位置合わせをして差分を抽出することができる。これによって、差分抽出における誤検出を抑制することができる。
Further, in the first embodiment, the
なお、実施例1によれば、時間的に離れた2時点でそれぞれ撮影された、人工衛星や航空機により撮影された画像を比較し、差分を抽出することで、変化が生じた地点を特定することができる。たとえば、実施例1によれば、違法に増改築された土地や建物、違法に伐採された森林や不法投棄などが行われている場所を特定することができる。また、かかる場所を画像上で特定したうえで、実際の場所を調査することができる。 In addition, according to Example 1, the point which changed has been identified by comparing the image image | photographed with the artificial satellite and the aircraft each image | photographed at two time points apart in time, and extracting a difference. be able to. For example, according to the first embodiment, it is possible to specify a land or a building that has been illegally expanded or reconstructed, a forest that has been illegally cut, or a place where illegal dumping is performed. In addition, it is possible to investigate the actual place after specifying the place on the image.
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.
[回転および拡大縮小の省略等]
上述した実施例1においては、一方の画像の特徴点全てについて、回転角度および拡大縮小率を変化させて複数の特徴量マトリクスを作成するものとして説明した。しかし、いくつかの特徴点について回転角度および拡大縮小率を変動させて比較を行った結果、類似度が高い回転角度および/または拡大縮小率を決定することができる場合もある。そのような場合には、他の特徴点については同じ角度および/または同じ拡大縮小率の特徴量マトリクスのみを作成し、類似度を算出するものとしてもよい。
[Omission of rotation and scaling]
In the above-described first embodiment, it has been described that a plurality of feature amount matrices are created by changing the rotation angle and the enlargement / reduction ratio for all feature points of one image. However, as a result of comparison by varying the rotation angle and the enlargement / reduction ratio for some feature points, a rotation angle and / or enlargement / reduction ratio having a high degree of similarity may be determined. In such a case, only the feature amount matrix having the same angle and / or the same enlargement / reduction ratio may be created for other feature points, and the similarity may be calculated.
また、回転処理および拡大縮小処理を双方の画像の特徴点について実行するものとしてもよい。 Further, the rotation process and the enlargement / reduction process may be executed for the feature points of both images.
また、実施例1は、回転処理および拡大縮小処理を行うものとして説明したが、回転処理および拡大縮小処理のいずれか一方を実行するようにしてもよい。 In the first embodiment, the rotation process and the enlargement / reduction process are performed. However, either the rotation process or the enlargement / reduction process may be executed.
[画像処理サーバ]
開示の画像処理方法は、クラウドシステムを構成する画像処理サーバに実装し、クラウドシステムを介してユーザから送信される画像の処理に適用することができる。たとえば、衛星写真システムや航空写真システムから随時提供される写真のデータを、クラウドシステムのサーバに格納する。ユーザは、画像に撮影地点の情報を添付して送信する。また、ユーザは、撮影地点ごとに検出したい対象物を特定し、また、変化の有無を検出するための処理を行う間隔を指定する。画像処理サーバは、開示の画像処理を行うことにより特徴点ペアを決定し、画像の位置合わせおよび差分抽出を行う。このように構成することで、ユーザは、クラウドシステムに画像のデータを送信するだけで、所望の期間ごとに、同一地点においてどのような変化があったかを容易に確認することができる。
[Image processing server]
The disclosed image processing method can be implemented in an image processing server configuring a cloud system and applied to processing of an image transmitted from a user via the cloud system. For example, photo data provided as needed from a satellite photo system or an aerial photo system is stored in a cloud system server. A user attaches information about a shooting location to an image and transmits the image. In addition, the user specifies an object to be detected for each shooting point, and designates an interval for performing processing for detecting whether there is a change. The image processing server determines feature point pairs by performing the disclosed image processing, and performs image alignment and difference extraction. With this configuration, the user can easily confirm what kind of change has occurred at the same point for each desired period simply by transmitting image data to the cloud system.
[分散および統合]
図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。たとえば、図1に示したモニタ201を画像処理サーバ100に組み入れ、画像処理サーバ100においてモニタに画像等を出力し確認することができるように構成してもよい。また、記憶部110について、画像記憶部111、特徴点記憶部112、ペア記憶部114を統合して一つの記憶部として構成してもよいし、画像記憶部111を外部メモリとして、ネットワーク300により画像処理サーバ100に接続される構成にしてもよい。
[Distribution and integration]
Each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the
[画像処理プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図25を用いて、上記の実施例と同様の機能を有する画像処理プログラムを実行するコンピュータの一例について説明する。
[Image processing program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes an image processing program having the same function as that of the above-described embodiment will be described with reference to FIG.
図25は、実施例1〜2に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。図25に示すように、コンピュータ1000は、操作部1100と、ディスプレイ1200と、通信部1300とを有する。さらに、このコンピュータ1000は、CPU1400と、ROM1500と、RAM1600と、HDD(Hard Disk Drive)1700とを有する。これら1100〜1700の各部はバス1800を介して接続される。
FIG. 25 is a schematic diagram illustrating an example of a computer that executes an image processing program according to the first and second embodiments. As illustrated in FIG. 25, the
HDD1700には、図25に示すように、上記の実施例1で示した設定部121、受付部122、抽出部123、作成部124、決定部125、位置合わせ部126および検出部127と同様の機能を発揮する画像処理プログラム1700a等が予め記憶される。この画像処理プログラム1700aについては、図1に示した各々の各構成要素と同様、適宜統合または分離してもよい。すなわち、HDD1700に格納される各データは、常に全てのデータがHDD1700に格納される必要はなく、処理に必要なデータのみがHDD1700に格納されればよい。
As shown in FIG. 25, the
そして、CPU1400が、画像処理プログラム1700aをHDD1700から読み出してRAM1600に展開する。これによって、図25に示すように、画像処理プログラム1700aは、画像処理プロセス1600aとして機能する。この画像処理プロセス1600aは、HDD1700から読み出した各種データを適宜RAM1600上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、画像処理プロセス1600aは、たとえば図1に示した設定部121、受付部122、抽出部123、作成部124、決定部125、位置合わせ部126および検出部127にて実行される処理、たとえば、図10に示す処理を含む。また、CPU1400上で仮想的に実現される各処理部は、常に全ての処理部がCPU1400上で動作する必要はなく、処理に必要な処理部のみが仮想的に実現されればよい。
Then, the
なお、上記の画像処理プログラム1700aについては、必ずしも最初からHDD1700やROM1500に記憶させておく必要はない。たとえば、コンピュータ1000に挿入されるフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)ディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ1000がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WAN(Wide Area Network)などを介してコンピュータ1000に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ1000がこれらから各プログラムを取得して実行するようにしてもよい。
Note that the
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)第1の画像および第2の画像の各々から特徴点を抽出する抽出部と、
前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて決定される第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成する作成部と、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する決定部と、
前記決定部による特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する検出部と、
を備えることを特徴とする画像処理装置。
(Supplementary Note 1) An extraction unit that extracts feature points from each of the first image and the second image;
For each feature point of the first and second images, the first direction determined based on the feature point and the second direction determined based on the first direction are axes, and A creation unit that creates a feature amount matrix in which each area of an elliptical matrix centered on the feature point is associated with information on a difference between a luminance value of a pixel in the area and a luminance value of the feature point; ,
A determining unit that compares the feature amount matrix of the feature points of the first image with the feature amount matrix of the feature points of the second image and determines a similar feature point pair;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair by the determination unit, the second image including the feature points is converted, and the first image and A detection unit for detecting a difference based on the converted second image;
An image processing apparatus comprising:
(付記2)前記検出部は、前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする付記1に記載の画像処理装置。
(Additional remark 2) The said detection part calculates the homography matrix for converting the shape of the feature-value matrix of the feature point of the said 2nd image into the shape of the feature-value matrix of the feature point of the said 1st image. The image processing apparatus according to
(付記3)前記作成部は、前記第2の方向を、前記特徴点を中心として所定角度ずつ回転させて、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記決定部は、前記第1の画像の複数の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記1または2に記載の画像処理装置。
(Additional remark 3) The said creation part rotates the said 2nd direction by the predetermined angle centering | focusing on the said feature point, and produces the some feature-value matrix per one feature point,
The determining unit compares a feature amount matrix of a plurality of feature points of the first image with a feature amount matrix of the feature points of the second image, and determines a similar feature point pair. The image processing apparatus according to
(付記4)前記作成部は、前記楕円状のマトリクスを前記第2の方向に所定の比率で拡大または縮小して、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記決定部は、前記第1の画像の複数の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記1〜3のいずれか1つに記載の画像処理装置。
(Supplementary Note 4) The creation unit creates a plurality of feature amount matrices for one feature point by enlarging or reducing the elliptical matrix in the second direction at a predetermined ratio,
The determining unit compares a feature amount matrix of a plurality of feature points of the first image with a feature amount matrix of the feature points of the second image, and determines a similar feature point pair. The image processing apparatus according to any one of
(付記5)前記検出部は、
前記第1の画像と前記第2の画像との差分を抽出する差分抽出部と、
前記差分抽出部が抽出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換する変換部と、
前記変換部によって変換された各差分の画像を合成する差分合成部と、
を備えることを特徴とする付記1〜4のいずれか1つに記載の画像処理装置。
(Supplementary note 5)
A difference extraction unit for extracting a difference between the first image and the second image;
A conversion unit that converts the difference image extracted by the difference extraction unit based on the shape of the feature amount matrix of the feature points of the second image;
A difference synthesis unit that synthesizes the images of the differences converted by the conversion unit;
The image processing apparatus according to any one of
(付記6)画像処理サーバによって実行される画像処理方法であって、
第1の画像および第2の画像の各々から特徴点を抽出し、
前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて決定される第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、
前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
ことを含むことを特徴とする画像処理方法。
(Appendix 6) An image processing method executed by an image processing server,
Extracting feature points from each of the first image and the second image;
For each feature point of the first and second images, the first direction determined based on the feature point and the second direction determined based on the first direction are axes, and , Creating a feature amount matrix in which each area of the elliptical matrix centered on the feature point is associated with information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point;
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature amount matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted,
Detecting a difference based on the first image and the converted second image;
And an image processing method.
(付記7)前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする、付記6に記載の画像処理方法。
(Supplementary Note 7) A homography matrix for converting the shape of the feature amount matrix of the feature point of the second image into the shape of the feature amount matrix of the feature point of the first image is calculated, and the homography matrix The image processing method according to
(付記8)前記第2の方向を、前記特徴点を中心として所定角度ずつ回転させて、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記6または7に記載の画像処理方法。
(Supplementary Note 8) Rotate the second direction by a predetermined angle around the feature point to create a plurality of feature amount matrices per feature point,
(付記9)前記楕円状のマトリクスを前記第2の方向に所定の比率で拡大または縮小して、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の複数の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記6〜8のいずれか1つに記載の画像処理方法。
(Supplementary note 9) The elliptical matrix is enlarged or reduced in the second direction at a predetermined ratio to create a plurality of feature amount matrices for one feature point,
The feature amount matrix of the plurality of feature points of the first image and the feature amount matrix of the feature points of the second image are compared to determine a similar feature point pair. The image processing method according to
(付記10)前記第1の画像と前記第2の画像との差分を検出し、
検出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換し、
変換された各差分の画像を合成する、
ことを備えることを特徴とする付記6〜9のいずれか1つに記載の画像処理方法。
(Appendix 10) Detecting a difference between the first image and the second image,
The detected difference image is converted based on the shape of the feature amount matrix of the feature points of the second image,
Synthesize the converted images of each difference,
The image processing method according to any one of
(付記11)第1の画像および第2の画像の各々から特徴点を抽出し、
前記第1および第2の画像の各々の特徴点について、該特徴点に基づいて決定される第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
各処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(Appendix 11) Extracting feature points from each of the first image and the second image,
For each feature point of the first and second images, the first direction determined based on the feature point and the second direction determined based on the first direction are axes, and , Creating a feature amount matrix in which each area of the elliptical matrix centered on the feature point is associated with information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point;
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. Detecting a difference based on the two images;
An image processing program that causes a computer to execute each process.
(付記12)前記第2の画像の特徴点の特徴量マトリクスの形状を、前記第1の画像の特徴点の特徴量マトリクスの形状に変換するためのホモグラフィ行列を算出し、当該ホモグラフィ行列を用いて、前記特徴点を含む第2の画像を変換することを特徴とする、付記11に記載の画像処理プログラム。 (Additional remark 12) The homography matrix for converting the shape of the feature amount matrix of the feature point of the second image into the shape of the feature amount matrix of the feature point of the first image is calculated, and the homography matrix The image processing program according to appendix 11, wherein the second image including the feature points is converted by using.
(付記13)前記第2の方向を、前記特徴点を中心として所定角度ずつ回転させて、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記11または12に記載の画像処理プログラム。
(Additional remark 13) The said 2nd direction is rotated by the predetermined angle centering | focusing on the said feature point, A some feature-value matrix is produced per one feature point,
The feature amount matrix of the first image and the feature amount matrix of the feature point of the second image are compared with each other, and a similar feature point pair is determined. 12. An image processing program according to 12.
(付記14)前記楕円状のマトリクスを前記第2の方向に所定の比率で拡大または縮小して、一つの特徴点につき複数の特徴量マトリクスを作成し、
前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、付記11〜13のいずれか1つに記載の画像処理プログラム。
(Supplementary Note 14) The elliptical matrix is enlarged or reduced in the second direction at a predetermined ratio to create a plurality of feature amount matrices for one feature point,
Supplementary notes 11 to 11, wherein a plurality of feature amount matrices of feature points of the first image and a feature amount matrix of feature points of the second image are compared to determine similar feature point pairs. The image processing program according to any one of 13.
(付記15)前記第1の画像と前記第2の画像との差分を検出し、
検出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換し、
変換された各差分の画像を合成する、
ことを備えることを特徴とする付記11〜14のいずれか1つに記載の画像処理プログラム。
(Supplementary Note 15) Detecting a difference between the first image and the second image,
The detected difference image is converted based on the shape of the feature amount matrix of the feature points of the second image,
Synthesize the converted images of each difference,
The image processing program according to any one of appendices 11 to 14, characterized by comprising:
100 画像処理サーバ
110 記憶部
111 画像記憶部
112 特徴点記憶部
113 マトリクス記憶部
113a 第1マトリクス記憶部
113b 第2マトリクス記憶部
114 ペア記憶部
115 設定記憶部
115a 回転角記憶部
115b 拡大縮小率記憶部
116 差分記憶部
120 制御部
121 設定部
122 受付部
123 抽出部
124 作成部
124a 回転部
124b 拡大縮小部
125 決定部
126 位置合わせ部
127 検出部
127a 差分抽出部
127b 変換部
127c 差分合成部
130 入出力部
200 クライアント
201 モニタ
300 ネットワーク
100
Claims (9)
前記第1および第2の画像の各々の特徴点について、該特徴点から最も近い他の特徴点に向かう第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成する作成部と、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定する決定部と、
前記決定部による特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する検出部と、
を備えることを特徴とする画像処理装置。 An extraction unit that extracts feature points from each of the first image and the second image;
For each feature point of the first and second images, a first direction toward the other feature point closest to the feature point and a second direction determined based on the first direction are respectively axes. And creating a feature quantity matrix in which each area of the elliptical matrix centered on the feature point is associated with information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point. The creation department;
A determining unit that compares the feature amount matrix of the feature points of the first image with the feature amount matrix of the feature points of the second image and determines a similar feature point pair;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair by the determination unit, the second image including the feature points is converted, and the first image and A detection unit for detecting a difference based on the converted second image;
An image processing apparatus comprising:
前記決定部は、前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、請求項1または2に記載の画像処理装置。 The creation unit rotates the second direction by a predetermined angle around the feature point to create a plurality of feature amount matrices per feature point,
The determining unit compares a plurality of feature amount matrices of feature points of the first image with a feature amount matrix of feature points of the second image, and determines similar feature point pairs. The image processing apparatus according to claim 1 or 2.
前記決定部は、前記第1の画像の特徴点の複数の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定することを特徴とする、請求項1〜3のいずれか1項に記載の画像処理装置。 The creating unit creates a plurality of feature amount matrices per feature point by enlarging or reducing the elliptical matrix at a predetermined ratio in the second direction,
The determining unit compares a plurality of feature amount matrices of feature points of the first image with a feature amount matrix of feature points of the second image, and determines similar feature point pairs. The image processing apparatus according to any one of claims 1 to 3.
前記第1の画像と前記第2の画像との差分を抽出する差分抽出部と、
前記差分抽出部が抽出した差分の画像を、前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて変換する変換部と、
前記変換部によって変換された各差分の画像を合成する差分合成部と、
を備えることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。 The detector is
A difference extraction unit for extracting a difference between the first image and the second image;
A conversion unit that converts the difference image extracted by the difference extraction unit based on the shape of the feature amount matrix of the feature points of the second image;
A difference synthesis unit that synthesizes the images of the differences converted by the conversion unit;
The image processing apparatus according to claim 1, further comprising:
第1の画像および第2の画像の各々から特徴点を抽出し、
前記第1および第2の画像の各々の特徴点について、該特徴点から最も近い他の特徴点に向かう第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
ことを含むことを特徴とする画像処理方法。 An image processing method executed by an image processing server,
Extracting feature points from each of the first image and the second image;
For each feature point of the first and second images, a first direction toward the other feature point closest to the feature point and a second direction determined based on the first direction are respectively axes. And a feature quantity matrix in which information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point is associated with each area of the elliptical matrix centered on the feature point. ,
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. Detecting a difference based on the two images;
And an image processing method.
前記第1および第2の画像の各々の特徴点について、該特徴点から最も近い他の特徴点に向かう第1の方向および当該第1の方向に基づいて決定される第2の方向をそれぞれ軸とし、かつ、前記特徴点を中心とする楕円状のマトリクスの各領域に、当該領域内の画素の輝度値と前記特徴点の輝度値との差分に関する情報を対応づけた特徴量マトリクスを作成し、
前記第1の画像の特徴点の特徴量マトリクスと、前記第2の画像の特徴点の特徴量マトリクスとを比較し、類似する特徴点ペアを決定し、
特徴点ペアの決定に用いられた前記第2の画像の特徴点の特徴量マトリクスの形状に基づいて、当該特徴点を含む第2の画像を変換し、前記第1の画像と変換された第2の画像とに基づいて差分を検出する、
各処理をコンピュータに実行させることを特徴とする画像処理プログラム。 Extracting feature points from each of the first image and the second image;
For each feature point of the first and second images, a first direction toward the other feature point closest to the feature point and a second direction determined based on the first direction are respectively axes. And a feature quantity matrix in which information on the difference between the luminance value of the pixel in the area and the luminance value of the feature point is associated with each area of the elliptical matrix centered on the feature point. ,
Comparing the feature quantity matrix of the feature points of the first image with the feature quantity matrix of the feature points of the second image, and determining similar feature point pairs;
Based on the shape of the feature quantity matrix of the feature points of the second image used for determining the feature point pair, the second image including the feature points is converted, and the first image converted to the first image is converted. Detecting a difference based on the two images;
An image processing program that causes a computer to execute each process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083178A JP5919963B2 (en) | 2012-03-30 | 2012-03-30 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083178A JP5919963B2 (en) | 2012-03-30 | 2012-03-30 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013214155A JP2013214155A (en) | 2013-10-17 |
JP5919963B2 true JP5919963B2 (en) | 2016-05-18 |
Family
ID=49587445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012083178A Active JP5919963B2 (en) | 2012-03-30 | 2012-03-30 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5919963B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10372318B2 (en) * | 2014-02-28 | 2019-08-06 | Ricoh Co., Ltd. | Associating strokes with content |
JP6529246B2 (en) | 2014-11-28 | 2019-06-12 | キヤノン株式会社 | Feature extraction method, feature extraction device, and program |
JP6401064B2 (en) * | 2015-01-19 | 2018-10-03 | 株式会社ユニバーサルエンターテインメント | Game machine |
JP6104294B2 (en) * | 2015-01-19 | 2017-03-29 | 株式会社ユニバーサルエンターテインメント | Game machine |
JP2016131682A (en) * | 2015-01-19 | 2016-07-25 | 株式会社ユニバーサルエンターテインメント | Game machine |
JP6283436B2 (en) * | 2017-02-28 | 2018-02-21 | 株式会社ユニバーサルエンターテインメント | Gaming machine and game medium discrimination device |
JP6426819B2 (en) * | 2017-11-29 | 2018-11-21 | 株式会社ユニバーサルエンターテインメント | Gaming machine |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003141539A (en) * | 2001-11-01 | 2003-05-16 | Kansai Tlo Kk | Detecting method and device, computer program, and recording medium |
JP2006178696A (en) * | 2004-12-22 | 2006-07-06 | Nippon Telegr & Teleph Corp <Ntt> | Plane detection apparatus and method, and plane detection program |
JP5216631B2 (en) * | 2009-03-02 | 2013-06-19 | Kddi株式会社 | Feature extraction device |
JP5709410B2 (en) * | 2009-06-16 | 2015-04-30 | キヤノン株式会社 | Pattern processing apparatus and method, and program |
JP5338643B2 (en) * | 2009-12-07 | 2013-11-13 | 株式会社豊田中央研究所 | Image feature extraction device, image processing device, and program |
-
2012
- 2012-03-30 JP JP2012083178A patent/JP5919963B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013214155A (en) | 2013-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5919963B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6721065B2 (en) | Imaging device, image processing device and method | |
JP5740884B2 (en) | AR navigation for repeated shooting and system, method and program for difference extraction | |
CN108600576B (en) | Image processing apparatus, method and system, and computer-readable recording medium | |
US10593014B2 (en) | Image processing apparatus, image processing system, image capturing system, image processing method | |
US9665986B2 (en) | Systems and methods for an augmented reality platform | |
KR101558467B1 (en) | System for revising coordinate in the numerical map according to gps receiver | |
JP6398472B2 (en) | Image display system, image display apparatus, image display method, and program | |
US20090232415A1 (en) | Platform for the production of seamless orthographic imagery | |
WO2019223158A1 (en) | Vr image production method, apparatus, computer device, and storage medium | |
US10482571B2 (en) | Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium | |
JP5846172B2 (en) | Image processing apparatus, image processing method, program, and imaging system | |
JP7241812B2 (en) | Information visualization system, information visualization method, and program | |
JP6222205B2 (en) | Image processing device | |
JP3641747B2 (en) | Image display method and image display apparatus | |
JP6816614B2 (en) | Image output program, image output method and image output device | |
US20220230275A1 (en) | Imaging system, image processing apparatus, imaging device, and recording medium | |
TW202011349A (en) | Method and system for rendering a panoramic image | |
CN113454980A (en) | Panorama shooting method, electronic device and storage medium | |
JP2013206431A (en) | Image processing device, image processing method and image processing program | |
JP5919955B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20230239574A1 (en) | Systems and methods for image capture | |
JP5867237B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2021115192A1 (en) | Image processing device, image processing method, program and recording medium | |
EP4154172A1 (en) | Systems and methods for image capture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5919963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |