JP6043706B2 - Matching processing apparatus and matching method - Google Patents

Matching processing apparatus and matching method Download PDF

Info

Publication number
JP6043706B2
JP6043706B2 JP2013198415A JP2013198415A JP6043706B2 JP 6043706 B2 JP6043706 B2 JP 6043706B2 JP 2013198415 A JP2013198415 A JP 2013198415A JP 2013198415 A JP2013198415 A JP 2013198415A JP 6043706 B2 JP6043706 B2 JP 6043706B2
Authority
JP
Japan
Prior art keywords
low
matching
region
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013198415A
Other languages
Japanese (ja)
Other versions
JP2015064761A (en
Inventor
英朋 境野
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013198415A priority Critical patent/JP6043706B2/en
Publication of JP2015064761A publication Critical patent/JP2015064761A/en
Application granted granted Critical
Publication of JP6043706B2 publication Critical patent/JP6043706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像データをマッチングするマッチング処理装置およびマッチング処理方法に関する。   The present invention relates to a matching processing device and a matching processing method for matching image data.

画像データのマッチング方法として、画像の輝度に関するヒストグラムを比較し、その比較の結果から画像データを検索する方法が知られている(例えば、非特許文献1)。画像のマッチング処理は、例えば構造物などの劣化状況を評価する手法として利用されている。   As a method for matching image data, a method is known in which histograms relating to brightness of images are compared and image data is searched from the comparison result (for example, Non-Patent Document 1). The image matching process is used as a method for evaluating the deterioration state of a structure, for example.

S. Lazebnik, C. Schmid, and J. Ponce, “Beyond bags of features: spatial pyramid matching for recognizing natural scene categories,” IEEE Computer Vision and Pattern Recognition, 2006.S. Lazebnik, C. Schmid, and J. Ponce, “Beyond bags of features: spatial pyramid matching for recognizing natural scene categories,” IEEE Computer Vision and Pattern Recognition, 2006.

従来のマッチング方法では、輝度に関するヒストグラムの比較が行われるものの、異なる画像であったとしても輝度のヒストグラム分布が類似する場合があるため、そのような場合には、マッチングの精度が低下するという問題があった。   In the conventional matching method, although histograms relating to luminance are compared, the histograms of luminance may be similar even if they are different images. In such a case, the accuracy of matching is reduced. was there.

上述した観点に鑑み、本発明の目的は、輝度に関するヒストグラムではなく、解像度の異なる複数の画像の各々における低次元の統計量を比較し、この比較結果に基づいて画像のマッチングを行うマッチング処理装置およびマッチング方法を提供することにある。   In view of the above-described viewpoints, an object of the present invention is not a histogram relating to luminance, but a matching processing device that compares low-dimensional statistics in each of a plurality of images having different resolutions and performs image matching based on the comparison result. And providing a matching method.

上記問題を解決するための本発明は、あらかじめ設定された画像領域に対応付けられるヒストグラム分布の低次元の統計量の総和からなり、かつ前記低次元の統計量が時系列的に変化するように表した時系列モデルを蓄積するデータ蓄積部と、処理対象としてのオブジェクト画像に関して、局所的に不均一または均一に分割し、分割後の各領域ごとにヒストグラム分布を求めるとともに、前記ヒストグラム分布から前記各領域ごとの低次元の統計量を算出するデータ生成部と、前記各領域ごとの前記低次元の統計量に基づいて得られる当該低次元の統計量の総和と、前記時系列モデルの前記各領域ごとの前記時系列的な前記低次元の統計量の総和とをマッチングするマッチング部と、前記各領域ごとに対する前記マッチングの結果を視覚的に表示させる表示制御部とを含む。 The present invention for solving the above problem comprises a sum of low-dimensional statistics of a histogram distribution associated with a preset image area , and the low-dimensional statistics change in a time-series manner. The data storage unit for storing the time series model and the object image as the processing target are locally non-uniformly or uniformly divided, a histogram distribution is obtained for each divided region, and the histogram distribution a data generating unit for calculating the low-dimensional statistics for each region, the total sum of the low-dimensional statistics the low-dimensional statistical amount obtained based on the respective areas, each of the time series model a matching unit for matching the sum of the time-series the low-dimensional statistical amount for each region, the result of the matching visually for each of the areas And a display control unit that presents.

上記問題を解決するための本発明は、コンピュータがマッチング処理を行う方法であって、前記コンピュータは、あらかじめ設定された画像領域に対応付けられるヒストグラム分布の低次元の統計量の総和からなり、かつ前記低次元の統計量が時系列的に変化するように表した時系列モデルを蓄積するデータ蓄積部を備え、処理対象としてのオブジェクト画像に関して、局所的に不均一または均一に分割し、分割後の各領域ごとにヒストグラム分布を求めるとともに、前記ヒストグラム分布から前記各領域ごとの低次元の統計量を算出するステップと、前記各領域ごとの前記低次元の統計量に基づいて得られる当該低次元の統計量の総和と、前記時系列モデルの前記各領域ごとの前記時系列的な前記低次元の統計量の総和とをマッチングするステップと、前記各領域ごとに対する前記マッチングの結果を視覚的に表示するステップとを含む。 The present invention for solving the above problem is a method in which a computer performs a matching process, the computer comprising a sum of low-dimensional statistics of a histogram distribution associated with a preset image region , and A data storage unit that stores a time-series model expressing the low-dimensional statistics in a time-series manner , and locally divides the object image as a processing target unevenly or uniformly, and after the division Obtaining a histogram distribution for each of the regions , calculating a low-dimensional statistic for each region from the histogram distribution, and the low-dimensional obtained based on the low-dimensional statistic for each region matching the statistics of the sum, the sum of the time-series the low-dimensional statistics for each of the respective regions of the time-series model Comprising a step, the steps of the visually displaying the results of said matching for each of the areas.

本発明によれば、解像度の異なる複数の画像の各々における低次元の統計量を比較し、この比較結果に基づいて画像のマッチングを行うマッチング処理装置およびマッチング方法が実現される。   According to the present invention, a matching processing device and a matching method for comparing low-dimensional statistics in each of a plurality of images having different resolutions and performing image matching based on the comparison result are realized.

本発明の実施形態に係るマッチング処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the matching processing apparatus which concerns on embodiment of this invention. 本実施形態のマッチング処理装置の概要構成の一例を示す図である。It is a figure which shows an example of schematic structure of the matching processing apparatus of this embodiment. 異なる領域分割数に応じた輝度分布の例を説明するための図である。It is a figure for demonstrating the example of the luminance distribution according to a different area | region division number. 異なる領域内の画像モデルの例を説明するための図である。It is a figure for demonstrating the example of the image model in a different area | region. 異なる領域内の画像モデルのマッチング処理の例を説明するための図である。It is a figure for demonstrating the example of the matching process of the image model in a different area | region. 画像モデルの経年変化の例を説明するための図である。It is a figure for demonstrating the example of the secular change of an image model. マッチング処理装置の全体動作の一例を示すフローチャートである。It is a flowchart which shows an example of the whole operation | movement of a matching processing apparatus. 画像の輝度および勾配の各分布の一例を説明するための図である。It is a figure for demonstrating an example of each distribution of the brightness | luminance and gradient of an image.

図1は本実施形態に係るマッチング処理装置1の機能構成の一例を示す図である。   FIG. 1 is a diagram illustrating an example of a functional configuration of a matching processing device 1 according to the present embodiment.

図1に示すように、マッチング処理装置1は、データ入力部100、データ生成部110、マッチング部120、データ蓄積部130、表示制御部140および経年変化適用部150を備える。   As shown in FIG. 1, the matching processing device 1 includes a data input unit 100, a data generation unit 110, a matching unit 120, a data storage unit 130, a display control unit 140, and a secular change application unit 150.

データ入力部100は、データ処理装置1内で処理される画像データを入力する。画像データは、マッチング対象のオブジェクト(例えば構造物)を含む。   The data input unit 100 inputs image data to be processed in the data processing apparatus 1. The image data includes a matching target object (for example, a structure).

データ生成部110は、画像データに関して複数の異なる分割領域における低次元の統計量(以下、単に「統計量」と略す。)を算出し、各統計量の総和に基づいて得られる画像モデルを生成する。このデータ生成部110の処理については、後述で詳細に説明する。   The data generation unit 110 calculates low-dimensional statistics (hereinafter simply referred to as “statistics”) in a plurality of different divided regions with respect to image data, and generates an image model obtained based on the sum of the statistics. To do. The processing of the data generation unit 110 will be described in detail later.

マッチング部120は、データ生成部110によって生成された画像モデルと、データ蓄積部130の時系列モデルとをマッチングする。後述するように、時系列モデルは、各画像領域における低次元の統計量からなるモデルである。   The matching unit 120 matches the image model generated by the data generation unit 110 with the time series model of the data storage unit 130. As will be described later, the time series model is a model composed of low-dimensional statistics in each image region.

表示制御部140は、マッチング部120におけるマッチング結果を視覚的に表示させる。例えば、マッチング結果が一致する場合、表示制御部140は、一致する時系列モデルを表す画像データを視認できるように表示する。一方、マッチング結果が不一致の場合は、表示制御部140は、その旨を示すための情報を視認できるように表示する。   The display control unit 140 displays the matching result in the matching unit 120 visually. For example, when the matching results match, the display control unit 140 displays the image data representing the matching time series model so that it can be visually recognized. On the other hand, when the matching results do not match, the display control unit 140 displays information for indicating the fact so as to be visible.

経年変化適用部150は、画像モデル内の画像領域における統計量を、予め設定された関数により経年変化を表す統計量に変換する。そして、経年変化適用部150は、変換後の統計量を用いてデータ蓄積部130の時系列モデルを更新する。この経年変化適用部150の処理については、後述で詳細に説明する。   The secular change application unit 150 converts a statistic in the image region in the image model into a statistic representing a secular change by a preset function. Then, the secular change application unit 150 updates the time series model of the data storage unit 130 using the converted statistics. The process of the secular change application unit 150 will be described in detail later.

図2は、図1に示したマッチング処理装置1の機能構成を実現するためのハードウエア上の構成例を示す図である。   FIG. 2 is a diagram illustrating a hardware configuration example for realizing the functional configuration of the matching processing device 1 illustrated in FIG. 1.

図2に示すように、マッチング処理装置1は、CPU(Central Processing Unit)11と、メモリ12と、表示部13と、インターフェース14とを含む。   As shown in FIG. 2, the matching processing device 1 includes a CPU (Central Processing Unit) 11, a memory 12, a display unit 13, and an interface 14.

CPU11は、各構成要素とバスで接続されて制御信号やデータの転送処理を行う。また、CPU11は、マッチング処理装置1全体の動作を実現するためのプログラムの実行等を行う。   The CPU 11 is connected to each component via a bus and performs control signal and data transfer processing. Further, the CPU 11 executes a program for realizing the operation of the entire matching processing device 1.

メモリ12は、ROM(Read Only Memory)とRAM(Random Access Memory)により構成され、前述のデータ等を記憶する。メモリ12は、図1に示したデータ蓄積部130として機能する。   The memory 12 includes a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores the above-described data and the like. The memory 12 functions as the data storage unit 130 illustrated in FIG.

表示部13は、例えば、液晶ディスプレイ、EL(Electro-Luminescence)などのフラットパネル表示器とすることができる。   The display unit 13 can be a flat panel display such as a liquid crystal display or EL (Electro-Luminescence).

インターフェース14は、画像データを入力するためのものであり、例えばLAN(Local Area Network)等のネットワークに接続されている。この実施形態では、ネットワークには、コンピュータシステムが接続されており、画像データは、このコンピュータシステムからネットワークを介してCPU11へ伝送されて処理されるようになっている。   The interface 14 is used to input image data, and is connected to a network such as a LAN (Local Area Network). In this embodiment, a computer system is connected to the network, and image data is transmitted from the computer system to the CPU 11 via the network for processing.

このマッチング処理装置1において、例えば画像データがカラー画像の場合、CPU11は、その画像に関する異なる分割領域内の輝度ヒストグラムを求め、その各輝度ヒストグラムから各領域内の統計量(例えば、輝度の平均値、分散、歪度、尖度など)に応じて、各統計量の総和からなる画像モデルを生成する。これにより、CPU11は、第1次〜第n次モーメント量に関して定量化する。ここで、nは統計量の数を表す。   In this matching processing device 1, for example, when the image data is a color image, the CPU 11 obtains a luminance histogram in different divided regions related to the image, and calculates a statistic (for example, an average value of luminance) in each region from each luminance histogram. , Variance, skewness, kurtosis, etc.) to generate an image model consisting of the sum of each statistic. Thus, the CPU 11 quantifies the first to nth moment amounts. Here, n represents the number of statistics.

次に、マッチング処理装置1で実現されるカラー画像のマッチング処理の概略について、図3〜図6を参照して説明する。   Next, an outline of color image matching processing realized by the matching processing device 1 will be described with reference to FIGS.

図3は、異なる領域分割数に応じた各領域内の輝度ヒストグラムの例を説明するための図であって、(a)は4分割、(b)は16分割、(c)は64分割を示している。   FIG. 3 is a diagram for explaining an example of a luminance histogram in each area according to different number of area divisions, where (a) is divided into 4 parts, (b) is divided into 16 parts, and (c) is divided into 64 parts. Show.

図3(a)〜(c)では、同一の画素数を持つ画像の分割数を変更して縮小処理を行う例を示している。図3(a)ではまず、原画像を均等に4分割し、それぞれの分割領域においてヒストグラムを求める(左列)。次に画像全体を半分にし(中列)、さらに、その半分にする縮小化処理を施す(右列)。そして、縮小化された画像内において、原画像と同様に、4分割された領域ごとに、ヒストグラムを求める。   3A to 3C show an example in which the reduction process is performed by changing the number of divisions of an image having the same number of pixels. In FIG. 3A, first, the original image is equally divided into four, and a histogram is obtained in each divided region (left column). Next, the entire image is halved (middle row), and further a reduction process is performed to halve the image (right row). Then, in the reduced image, a histogram is obtained for each of the four divided areas as in the original image.

図3(b)および図3(c)に示したものについても、図3(a)と同様の処理を実施する。このような縮小化処理によって生成した画像を多重解像度画像と呼ぶ。縮小化処理では、4点(画素)のデータの平均化処理を繰り返し、画素数を1/4に減少させる。   The same processing as that in FIG. 3A is performed for the components shown in FIGS. 3B and 3C. An image generated by such a reduction process is called a multi-resolution image. In the reduction process, the averaging process of data of 4 points (pixels) is repeated to reduce the number of pixels to ¼.

図3(a)に示すように、原画像の領域が4分割された場合、CPU11は、領域A1,A2,A3,A4ごとにそれぞれ輝度ヒストグラムd1,d2,d3,d4を作成する。   As shown in FIG. 3A, when the area of the original image is divided into four, the CPU 11 creates luminance histograms d1, d2, d3, and d4 for the areas A1, A2, A3, and A4, respectively.

さらに図3(b)では、図3(a)で示した領域はさらに16分割され、CPU11は、対応する領域の輝度ヒストグラムd11〜d14を求める。   Further, in FIG. 3B, the area shown in FIG. 3A is further divided into 16, and the CPU 11 obtains luminance histograms d11 to d14 of the corresponding area.

図3(c)では、図3(b)に示した領域がさらに分割されて64分割され、CPU11は、対応する領域内の輝度ヒストグラムを求める。画像中のオブジェクトの細部のマッチングを行う場合、分割数を増やして輝度ヒストグラムを求めるようにするとよい。   In FIG. 3C, the area shown in FIG. 3B is further divided into 64 areas, and the CPU 11 obtains a luminance histogram in the corresponding area. When matching the details of an object in an image, it is preferable to obtain a luminance histogram by increasing the number of divisions.

図4は、図3と同一の画像を対象として、異なる解像度ごと、かつ分割された領域ごとに低次元の統計量を求めて各領域内の画像モデルを生成する例を示す図である。   FIG. 4 is a diagram illustrating an example of generating an image model in each region by obtaining low-dimensional statistics for each resolution and for each divided region for the same image as FIG. 3.

図4(a)では、図3(a)と同一の画像を対象として、CPU11は、統計量S1(f1,f2,f3・・・fn),S2(f1,f2,f3・・・fn),S3(f1,f2,f3・・・fn),S4(f1,f2,f3・・・fn)を求める。   In FIG. 4 (a), for the same image as in FIG. 3 (a), the CPU 11 performs statistics S1 (f1, f2, f3... Fn), S2 (f1, f2, f3... Fn). , S3 (f1, f2, f3... Fn), S4 (f1, f2, f3... Fn) are obtained.

一般に、画像のRGB成分は、下記式(1)によって変換して表されることが知られている(例えば、http://home.hiroshima-u.ac.jp/tkurita/lecture/statimage.pdf を参照)。   In general, it is known that the RGB component of an image is represented by the following equation (1) (for example, http://home.hiroshima-u.ac.jp/tkurita/lecture/statimage.pdf See).

なお、式(1)において、R:赤色成分、G:緑色成分、B:青色成分、を示す。   In the formula (1), R represents a red component, G represents a green component, and B represents a blue component.

本実施形態のマッチング処理装置1では、CPU11は、上記式(1)に従った変換処理を行い、式(1)中の左辺のR、G、B(式(1)では、Rバー、Gバー、Bバー)の値を、それぞれ、対応する統計量S1〜S4の(f1,f2,f3)の値として置き換える。なお、式(1)に例示した行列の値は一例に過ぎない。   In the matching processing device 1 of the present embodiment, the CPU 11 performs a conversion process according to the above equation (1), and R, G, B on the left side in the equation (1) (R bar, G in equation (1)) (Bar, B) are replaced with the values of (f1, f2, f3) of the corresponding statistics S1 to S4, respectively. In addition, the value of the matrix illustrated in Formula (1) is only an example.

図4(b)および図4(c)にはそれぞれ、図3(b)および図3(c)と同一の画像が示してあり、CPU11は、図4(b)および図4(c)に示したものについても、図4(a)と同様の処理を実施する。このような処理によって各多重解像度画像の統計量が求まる。   4 (b) and 4 (c) show the same images as FIG. 3 (b) and FIG. 3 (c), respectively, and the CPU 11 is shown in FIG. 4 (b) and FIG. 4 (c). The same processing as that shown in FIG. By such processing, the statistic of each multi-resolution image is obtained.

CPU11は、上述した各領域の統計量の総和を求めることによってマッチング対象の画像モデルを生成する。この場合、CPU11は、下記式(2)によって線形和Fを作成する。
F=a1×(S1+S2+S3+S4)+a2×(S1+...+S16)+a3×(S1+...+S64)+・・・+ai×(S1+...+SN)
(2)
CPU11 produces | generates the image model of matching object by calculating | requiring the sum total of the statistics of each area | region mentioned above. In this case, the CPU 11 creates a linear sum F by the following equation (2).
F = a1 × (S1 + S2 + S3 + S4) + a2 × (S1 + ... + S16) + a3 × (S1 + ... + S64) + ... + ai × (S1 + ... + SN)
(2)

なお、式(2)において、S1〜SN:対応する分割領域内の統計量、a1〜ai:重み係数、を表す。   In Expression (2), S1 to SN: statistics in the corresponding divided region, and a1 to ai: weighting factors.

一般に、分割領域が小さいほど、すなわち、解像度が高いほどマッチングし易くなるため、上記式(2)において、重み係数a1〜aiは、解像度が高いほど、値を大きくしている。例えば、a1=0.5、a2=0.25、a3=0.125、・・・とする。なお、重み係数a1〜aiの値は、変更することができる。   In general, the smaller the divided area, that is, the higher the resolution, the easier the matching is. Therefore, in Equation (2), the weight coefficients a1 to ai are increased in value as the resolution is higher. For example, a1 = 0.5, a2 = 0.25, a3 = 0.125,. Note that the values of the weighting factors a1 to ai can be changed.

このマッチング処理装置1では、上述した線形和Fによって与えられる画像モデルを用いて画像の対応付けが行われる。   In the matching processing device 1, the images are associated using the image model given by the linear sum F described above.

図5は、図4と同一の画像を対象として、異なる解像度ごと、かつ分割された領域ごとの統計量を用いて画像の対応付け(類似性)を施す例を示す図である。   FIG. 5 is a diagram illustrating an example in which image matching (similarity) is performed on the same image as in FIG. 4 using statistics for different resolutions and for each divided region.

図5(a)では、図4(a)の左列と同一の画像を対象として、CPU11は、各領域内の統計量S1〜S4を含む線形和Fからなる画像モデルMを、メモリ12の時系列モデル(例えば、過去に作成された画像モデルなど)と比較し、各統計量S1〜S4が、例えば時系列モデルの各統計量D1〜D4とマッチングすると判断する。   5A, for the same image as the left column of FIG. 4A, the CPU 11 stores an image model M composed of a linear sum F including the statistics S1 to S4 in each region in the memory 12. Compared to a time series model (for example, an image model created in the past), it is determined that each statistic S1 to S4 matches, for example, each statistic D1 to D4 of the time series model.

次に図5(b)では、図4(a)の中列と同一の多重解像度画像を対象として、CPU11は、生成した画像モデルの各統計量を、メモリ12の時系列モデル(例えば、過去に作成された統計量)と比較し、画像モデルの各統計量が、上記時系列モデルとマッチングすると判断する。   Next, in FIG. 5B, for the same multi-resolution image as in the middle column of FIG. 4A, the CPU 11 uses the statistics of the generated image model as a time series model (for example, the past) And the statistics of the image model are determined to match the time series model.

さらに図5(c)では、図4(a)の右列と同一の多重解像度画像を対象として、CPU11は、生成した画像モデルの各統計量を、メモリ12の時系列モデル(例えば、過去に作成された統計量)と比較し、画像モデルの各統計量が、上記時系列モデルとマッチングすると判断する。このようにして、CPU11は、異なる解像度ごと、かつ分割された領域ごとに、統計量を用いて画像の対応付け(類似性)を行う。   Further, in FIG. 5C, for the same multi-resolution image as that in the right column of FIG. 4A, the CPU 11 uses each statistic of the generated image model as a time series model (for example, in the past). It is determined that each statistic of the image model matches the time series model. In this way, the CPU 11 performs image association (similarity) using statistics for each different resolution and each divided region.

なお、上述のマッチング処理は、パターン認識分野でよく知られているユークリッド距離、マハラノビス距離、マンハッタン距離、ミンコフスキー距離などを用いた処理を下記の技術を利用することができる   The above-described matching process can use the following techniques for processes using Euclidean distance, Mahalanobis distance, Manhattan distance, Minkowski distance and the like well known in the pattern recognition field.

嵯峨山茂樹 東京大学工学部計数工学科システム情報工学演習第二 パターン空間・距離尺度・クラスタ・DP http://hil.t.u-tokyo.ac.jp/~sagayama/enshu2/Clustering+DP-2007nov.pdf   Shigeki Hatakeyama, Department of Computer Science, Faculty of Engineering, University of Tokyo Second Pattern Space, Distance Scale, Cluster, DP http://hil.t.u-tokyo.ac.jp/~sagayama/enshu2/Clustering+DP-2007nov.pdf

次に、このデータ処理装置1によって実行されるメモリ12内の時系列モデルDの経年変化処理について、図6を参照して説明する。図6は、時系列モデルD(t)の経年変化の例を説明するための図である。図6において、横軸Tは時間を表す。   Next, the aging process of the time series model D in the memory 12 executed by the data processing apparatus 1 will be described with reference to FIG. FIG. 6 is a diagram for explaining an example of the secular change of the time series model D (t). In FIG. 6, the horizontal axis T represents time.

時系列モデルD(t)は、経年変化により図6に示すような値をとる。すなわち、時間T=t,t+1,t+2の場合に、時系列モデルD(t),D(t+1),D(t+2)となる。この場合、CPU11は、下記式(3)に従って、画像内の輝度を例えば指数関数的に低減させる。
Y=Aexp(-Bt) (3)
The time series model D (t) takes values as shown in FIG. That is, when time T = t, t + 1, t + 2, the time series models D (t), D (t + 1), and D (t + 2) are obtained. In this case, the CPU 11 reduces the luminance in the image exponentially, for example, according to the following equation (3).
Y = Aexp (-Bt) (3)

なお、式(3)において、A:原画像の輝度、B:減衰定数、Y:時間tにおける輝度、を示す。   In equation (3), A: luminance of the original image, B: attenuation constant, Y: luminance at time t.

上記式(3)において、CPU11は、時間の経過に伴って画像の輝度を低減させることになる。これは、構造物等のオブジェクトは、時間の経過とともに金属が腐食したり、塗膜や樹脂などが劣化したりするため、その経年変化がオブジェクトの輝度に与える影響を無視できなくなるからである。換言すると、実際のオブジェクトが経年変化してもマッチングの精度を高める必要があるからである。なお、経年変化を表すための式(3)の関数は一例に過ぎず、変更することもできる。   In the above formula (3), the CPU 11 reduces the luminance of the image as time passes. This is because an object such as a structure corrodes a metal or a coating film or resin deteriorates with time, so that the influence of the secular change on the brightness of the object cannot be ignored. In other words, even if the actual object changes over time, it is necessary to improve the matching accuracy. In addition, the function of Formula (3) for expressing a secular change is only an example, and can also be changed.

次に、このマッチング処理を実現するために実行される処理の全体について、図1〜図7を参照して説明する。図7は、マッチング処理装置1の処理例を示すフローチャートである。   Next, the entire process executed to realize this matching process will be described with reference to FIGS. FIG. 7 is a flowchart illustrating a processing example of the matching processing device 1.

図7において、マッチング処理装置1のCPU11は、処理対象となる画像データを入力する(ステップS100)。この画像データは、メモリ12に格納される。   In FIG. 7, the CPU 11 of the matching processing device 1 inputs image data to be processed (step S100). This image data is stored in the memory 12.

ここで、CPU11は、インターフェース14を協働して、データ入力部100として機能する。   Here, the CPU 11 functions as the data input unit 100 in cooperation with the interface 14.

CPU11は、ステップS100で入力した画像データに関して複数の異なる分割領域における統計量(上記式(1)参照)を算出し、各統計量の総和(上記式(2)参照)に基づいて得られる画像モデルを生成する(ステップS101)。この実施形態では、CPU11は、例えば複数の異なる領域(例えば、4分割、16分割、64分割など)内の各統計量の総和からなる線形和Fを表す画像モデルMを生成する(図4参照)。   The CPU 11 calculates a statistic (see the above formula (1)) in a plurality of different divided regions with respect to the image data input in step S100, and obtains an image obtained based on the sum of each statistic (see the above formula (2)). A model is generated (step S101). In this embodiment, the CPU 11 generates an image model M representing a linear sum F composed of the sum of statistics in, for example, a plurality of different regions (for example, 4 divisions, 16 divisions, 64 divisions, etc.) (see FIG. 4). ).

ここで、CPU11は、データ生成部110として機能する。   Here, the CPU 11 functions as the data generation unit 110.

次に、CPU11は、例えば図5に示したように、ステップS101で生成された画像モデルMと、データ蓄積部130の時系列モデルとをマッチングする(ステップS102)。   Next, for example, as illustrated in FIG. 5, the CPU 11 matches the image model M generated in step S <b> 101 with the time series model of the data storage unit 130 (step S <b> 102).

ここで、CPU11は、マッチング部120として機能する。   Here, the CPU 11 functions as the matching unit 120.

なお、データ蓄積部130の時系列モデルは、CPU11により上記式(3)に従って画像内の輝度が指数関数的に低減するように設定される(図6参照)。このときのCPU11は、経年変化適用部150として機能する。   The time series model of the data storage unit 130 is set by the CPU 11 so that the luminance in the image decreases exponentially according to the above equation (3) (see FIG. 6). At this time, the CPU 11 functions as the secular change application unit 150.

CPU11は、ステップS102でマッチングした結果を表示部13に視覚的に表示させる。例えば、マッチング結果が一致する場合、CPU11は、一致する時系列モデルを表す画像データを視認できるように表示する。一方、マッチング結果が不一致の場合は、CPU11は、その旨を示すための情報を視認できるように表示する。   The CPU 11 visually displays the result of matching in step S102 on the display unit 13. For example, if the matching results match, the CPU 11 displays the image data representing the matching time series model so that it can be viewed. On the other hand, if the matching results do not match, the CPU 11 displays information for indicating the fact so as to be visible.

ここで、CPU11は、表示制御部140として機能する。   Here, the CPU 11 functions as the display control unit 140.

以上説明したように、本実施形態のマッチング処理装置1によれば、複数の異なる分割領域における統計量を算出し、各統計量の総和に基づいて得られる画像モデルを用いてマッチングを行うので、輝度に関するヒストグラムを比較する従来の場合よりも、より高い精度で画像の類似性を評価することができる。また、統計量を用いることで、画像の類似性をより多面的に評価することが可能となる。さらに、本実施形態のマッチング処理装置1の場合、マッチング処理の高速性が実現される。   As described above, according to the matching processing device 1 of the present embodiment, since statistics are calculated in a plurality of different divided regions, matching is performed using an image model obtained based on the sum of the statistics. The similarity of images can be evaluated with higher accuracy than in the conventional case of comparing histograms relating to luminance. Further, by using the statistic, it becomes possible to evaluate the similarity of images in a multifaceted manner. Furthermore, in the case of the matching processing device 1 of the present embodiment, high speed matching processing is realized.

また、マッチング処理装置1では、経年変化を表す統計量に変換して時系列モデルを更新するので、例えば、経年変化により種々の構造物における金属の腐食または塗膜・樹脂などの劣化を考慮した画像の類似性の評価を行うことができる。   Further, since the matching processing device 1 converts the statistic representing the secular change and updates the time series model, for example, considering the corrosion of the metal or the deterioration of the coating film / resin in various structures due to the secular change. Image similarity can be evaluated.

次に、本実施形態の変形例について説明する。   Next, a modification of this embodiment will be described.

例えば、特定のオブジェクトの場合は、輝度または/および勾配の大きさが他の領域と極端に異なる(大きい、小さい)ことがあるので、その領域に対して局所的に画像の分割数を増加させて統計量を求めるようにしてもよい。そのため、例えば図8に示すように、図8(a)に示した画像内の画素の輝度(図8(b))または勾配(図8(c))の大きさに着目するようにすることが好ましい。この場合、オブジェクトの検索効率が向上する。   For example, in the case of a specific object, the magnitude of brightness or / and gradient may be extremely different (large or small) from other areas, so increase the number of image divisions locally for that area. The statistic may be obtained. Therefore, for example, as shown in FIG. 8, attention is paid to the luminance (FIG. 8B) or gradient (FIG. 8C) of the pixels in the image shown in FIG. Is preferred. In this case, the object search efficiency is improved.

以上では、図3を参照して、カラー画像の場合の輝度ヒストグラムが求められる場合について説明した。しかしながら、画像データが白黒の画像であってもよい。この場合、CPU11は、上述した式(1)の変換処理を行うことなく、画像の輝度の大きさに基づいて各領域内の統計量を求めるようになる。   The case where the luminance histogram in the case of a color image is obtained has been described above with reference to FIG. However, the image data may be a black and white image. In this case, the CPU 11 obtains the statistic in each area based on the luminance level of the image without performing the conversion process of the above-described equation (1).

1 マッチング処理装置
100 データ入力部
110 データ生成部
120 マッチング部
130 データ蓄積部
140 表示制御部
150 経年変化適用部
DESCRIPTION OF SYMBOLS 1 Matching processing apparatus 100 Data input part 110 Data generation part 120 Matching part 130 Data storage part 140 Display control part 150 Aging change application part

Claims (3)

あらかじめ設定された画像領域に対応付けられるヒストグラム分布の低次元の統計量の総和からなり、かつ前記低次元の統計量が時系列的に変化するように表した時系列モデルを蓄積するデータ蓄積部と、
処理対象としてのオブジェクト画像に関して、局所的に不均一または均一に分割し、分割後の各領域ごとにヒストグラム分布を求めるとともに、前記ヒストグラム分布から前記各領域ごとの低次元の統計量を算出するデータ生成部と、
前記各領域ごとの前記低次元の統計量に基づいて得られる当該低次元の統計量の総和と、前記時系列モデルの前記各領域ごとの前記時系列的な前記低次元の統計量の総和とをマッチングするマッチング部と、
前記各領域ごとに対する前記マッチングの結果を視覚的に表示させる表示制御部と
を含むことを特徴とするマッチング処理装置。
A data accumulating unit that accumulates a time-series model that is composed of a sum of low-dimensional statistics of a histogram distribution that is associated with a preset image area and that represents the low-dimensional statistics changing in time series When,
Data for locally dividing the object image as a processing target unevenly or uniformly, obtaining a histogram distribution for each divided region, and calculating a low-dimensional statistic for each region from the histogram distribution A generator,
The sum of the low-dimensional statistics obtained based on the low-dimensional statistics for each region, and the time-series sum of the low-dimensional statistics for each region of the time-series model ; A matching unit that matches
And a display control unit for visually displaying a result of the matching for each region .
前記画像領域における低次元の統計量を、予め設定された関数により経年変化を表す統計量に変換し、変換後の統計量を用いて前記データ蓄積部の前記時系列モデルを更新する経年変化適用部をさらに含むことを特徴とする請求項1に記載のマッチング処理装置。   A low-order statistic in the image region is converted into a statistic representing a secular change by a preset function, and the chronological change application is used to update the time series model of the data storage unit using the converted statistic. The matching processing apparatus according to claim 1, further comprising a section. コンピュータがマッチング処理を行う方法であって、
前記コンピュータは、あらかじめ設定された画像領域に対応付けられるヒストグラム分布の低次元の統計量の総和からなり、かつ前記低次元の統計量が時系列的に変化するように表した時系列モデルを蓄積するデータ蓄積部を備え、
処理対象としてのオブジェクト画像に関して、局所的に不均一または均一に分割し、分割後の各領域ごとにヒストグラム分布を求めるとともに、前記ヒストグラム分布から前記各領域ごとの低次元の統計量を算出するステップと、
前記各領域ごとの前記低次元の統計量に基づいて得られる当該低次元の統計量の総和と、前記時系列モデルの前記各領域ごとの前記時系列的な前記低次元の統計量の総和とをマッチングするステップと、
前記各領域ごとに対する前記マッチングの結果を視覚的に表示するステップと
を含むことを特徴とするマッチング方法。
A method in which a computer performs matching processing,
The computer stores a time-series model that is composed of a sum of low-dimensional statistics of a histogram distribution that is associated with a preset image area , and that the low-dimensional statistics change in a time-series manner. Data storage unit
About the object image to be processed is locally unevenly or uniformly divided, with a histogram distribution in each region of the divided to calculate the low-dimensional statistics of each of said regions from said histogram distribution step When,
The sum of the low-dimensional statistics obtained based on the low-dimensional statistics for each region, and the time-series sum of the low-dimensional statistics for each region of the time-series model ; Matching the steps,
Visually displaying the result of the matching for each of the regions .
JP2013198415A 2013-09-25 2013-09-25 Matching processing apparatus and matching method Active JP6043706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013198415A JP6043706B2 (en) 2013-09-25 2013-09-25 Matching processing apparatus and matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013198415A JP6043706B2 (en) 2013-09-25 2013-09-25 Matching processing apparatus and matching method

Publications (2)

Publication Number Publication Date
JP2015064761A JP2015064761A (en) 2015-04-09
JP6043706B2 true JP6043706B2 (en) 2016-12-14

Family

ID=52832578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013198415A Active JP6043706B2 (en) 2013-09-25 2013-09-25 Matching processing apparatus and matching method

Country Status (1)

Country Link
JP (1) JP6043706B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6997110B2 (en) 2016-05-23 2022-01-17 ヘラーマンタイトン・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Retaining devices for cable ties, fixing systems, and cable ties
JP7246546B1 (en) 2022-04-11 2023-03-27 飛龍 顧 Cable tie structure and its unlocking method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11202113368YA (en) * 2019-06-07 2021-12-30 Basf Coatings Gmbh Device and method for forming at least one ground truth database for an object recognition system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078598A (en) * 2002-08-19 2004-03-11 Dainippon Printing Co Ltd Aging effect simulation method and system
JP4688920B2 (en) * 2008-10-21 2011-05-25 日本電信電話株式会社 Partial image association apparatus, partial image association method, and partial image association program
JP4720913B2 (en) * 2009-02-19 2011-07-13 ソニー株式会社 Learning device, learning method, identification device, identification method, and program
JP4636190B2 (en) * 2009-03-13 2011-02-23 オムロン株式会社 Face collation device, electronic device, face collation device control method, and face collation device control program
JP5210241B2 (en) * 2009-05-12 2013-06-12 キヤノン株式会社 Image search apparatus, control method therefor, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6997110B2 (en) 2016-05-23 2022-01-17 ヘラーマンタイトン・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Retaining devices for cable ties, fixing systems, and cable ties
JP7246546B1 (en) 2022-04-11 2023-03-27 飛龍 顧 Cable tie structure and its unlocking method

Also Published As

Publication number Publication date
JP2015064761A (en) 2015-04-09

Similar Documents

Publication Publication Date Title
TWI672667B (en) Method and device for training neural network model for image processing and computer readable storage medium
CN108492287B (en) Video jitter detection method, terminal equipment and storage medium
CN102891966B (en) Focusing method and device for digital imaging device
JP5870598B2 (en) Image white balance processing method and apparatus
JP6043706B2 (en) Matching processing apparatus and matching method
JP2017068608A (en) Arithmetic unit, method and program
JP2020042367A (en) Learning system, server, and feature amount image drawing interpolation program
JP7032913B2 (en) Image processing device, image processing method, computer program
CN109935206B (en) Neural network-based display device brightness compensation method, device and equipment
US11625816B2 (en) Learning device, image generation device, learning method, image generation method, and program
JP2020170252A (en) Image processing device, image processing method, and program
JPWO2011033744A1 (en) Image processing apparatus, image processing method, and image processing program
CN111179222A (en) Intelligent detection method and device for cerebral hemorrhage point and computer readable storage medium
JP2008113292A (en) Motion estimation method and device, program thereof and recording medium thereof
JP7106144B2 (en) Image analysis device
CN103942764B (en) A kind of two dimensional optical fiber spectrum picture based on module analysis technology repairs algorithm
US10394883B2 (en) Classification technique for multi-band raster data for sorting and processing of colorized data for display
WO2019224947A1 (en) Training device, image generation device, training method, image generation method and program
JP2016066990A (en) Evaluation method of tone correction, and arithmetic device
JP5071900B2 (en) Image generating apparatus and method
JP2019139626A (en) Similarity assessment program
JP6375778B2 (en) Image processing method and image processing apparatus
JP6093272B2 (en) Data processing apparatus and data processing method
JP7335204B2 (en) Image processing device, image processing method and image processing program
JP7189000B2 (en) Information processing equipment, in-vehicle control equipment, vehicle control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6043706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150