JP2016122405A - Pattern association method and device - Google Patents
Pattern association method and device Download PDFInfo
- Publication number
- JP2016122405A JP2016122405A JP2014263185A JP2014263185A JP2016122405A JP 2016122405 A JP2016122405 A JP 2016122405A JP 2014263185 A JP2014263185 A JP 2014263185A JP 2014263185 A JP2014263185 A JP 2014263185A JP 2016122405 A JP2016122405 A JP 2016122405A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- value
- similarity
- luminance
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、輝度などの特徴量の分布に基づき画像に含まれるパターンの検索や追跡を行うパターン対応づけ方法および装置に関する。 The present invention relates to a pattern associating method and apparatus for searching and tracking a pattern included in an image based on a distribution of feature quantities such as luminance.
近年、カメラ映像監視による人・車の自動追跡や、興味の対象を膨大なデータベースから効率よく検索する方法・システムの需要が高まっている。前者においては、照明条件が比較的安定している屋内環境だけに留まらず、太陽光や天候による照明変動に曝されている屋外環境でも行われており、特に屋外環境では不安定な追跡となることが多いことが知られている。後者においては、各種データを画像に再構成し、その画像と類似したパターンを検索する場合、画像に含まれるパターンの複雑さが一定の水準を超えると一意に絞り込むことは困難である。 In recent years, there has been an increasing demand for automatic tracking of people and vehicles by camera video monitoring and methods and systems for efficiently searching for objects of interest from a huge database. The former is not limited to indoor environments where the lighting conditions are relatively stable, but is also performed in outdoor environments exposed to lighting fluctuations due to sunlight and weather, especially in an outdoor environment. It is known that there are many cases. In the latter, when various data are reconstructed into an image and a pattern similar to the image is searched, it is difficult to uniquely narrow down if the complexity of the pattern included in the image exceeds a certain level.
そのような中で、画像データごとに、画像を構成する画素の輝度や色、テクスチャなどを特徴量としたさまざまな追跡方法や検索方法が提案されている。特に、画像中の対象の輝度の画素数を統計解析するヒストグラム法は、環境変動への耐性が比較的高く、利用されることが多い。 Under such circumstances, for each image data, various tracking methods and search methods using the luminance, color, texture, etc. of the pixels constituting the image as feature amounts have been proposed. In particular, the histogram method for statistically analyzing the number of pixels of the target luminance in an image has a relatively high resistance to environmental fluctuations and is often used.
しかしながら、この従来のヒストグラム法は環境変動への耐性が高く、簡便な方法である一方で、画像中の対象の位置情報が欠落しているため、1つの画像データから別の画像データを検索したり、追跡したりするために使う場合、画像の輝度分布が同じであるが、パターンの空間位置が異なる画像データ、すなわち構図の異なる画像データを識別できないという課題がある。そのため、誤検出の増加を抑制するための方法が求められている。 However, this conventional histogram method has a high resistance to environmental fluctuations and is a simple method. However, since the position information of the target in the image is missing, another image data is searched from one image data. When used for tracking or tracking, there is a problem that image data having the same luminance distribution but different pattern spatial positions, that is, image data having a different composition cannot be identified. Therefore, a method for suppressing an increase in false detection is required.
また、カメラ映像監視の画像データには、例えばデータセンタなどの室内、サーバの吸気、排気、ラックなどにおいて温度計測されたサーモグラフィを用いたものも含まれており、可視化された温度分布データと過去に蓄積された温度分布データを比較参照してデータセンタ内の状態を推定することにも利用されている。 In addition, the image data for camera video monitoring includes, for example, those using thermography that measures the temperature in a room such as a data center, the intake, exhaust, and rack of a server. It is also used to estimate the state in the data center by comparing and referring to the temperature distribution data accumulated in the data center.
しかしこの場合も、データセンタにおいて1つの画像内で監視される複数のサーバの発熱量や、ON、OFFなどの状態に関わる組み合わせは膨大であり、過去に蓄積された状態と同一の場合は稀である。また、温度分布のヒストグラムだけに依存し、サーバの位置情報を利用していないため、ある吸気温度を示すサーバ付近の温度センサの温度と、離れた場所にある同一の吸気温度を示す温度センサの温度を示すようなパターンを識別することができず、特に、サーバ数が多くなるほど誤った対応づけが生じるという課題がある。 However, in this case as well, the number of combinations related to the heat generation amount and ON / OFF states of a plurality of servers monitored in one image in the data center is enormous, and rarely the same as the state accumulated in the past. It is. In addition, since it depends only on the histogram of the temperature distribution and does not use the server position information, the temperature sensor temperature near the server that shows a certain intake air temperature and the temperature sensor that shows the same intake air temperature at a remote location There is a problem that a pattern indicating temperature cannot be identified, and in particular, an erroneous association occurs as the number of servers increases.
本発明は、このような課題に鑑みてなされたもので、その目的とするところは、画像の輝度などの特徴量の値毎に、その特徴量の値の位置に関連する情報とを考慮して類似度を算定するパターン対応づけ方法および装置を提供することにある。 The present invention has been made in view of such problems, and the object of the present invention is to take into account information related to the position of the feature value for each feature value such as the brightness of an image. Another object of the present invention is to provide a pattern matching method and apparatus for calculating similarity.
上記の課題を解決するために、本発明は、パターン対応づけ装置であって、画像データを取得して格納するための記憶装置と、前記画像データの特徴量に関するヒストグラムを作成し、前記特徴量の値毎にモーメント統計量を算出する特徴量解析部と、前記特徴量の勾配値を算出して前記画像データに対応するエッジ画像を生成し、前記特徴量の勾配値に関するヒストグラムを作成し、前記特徴量の勾配値毎にモーメント統計量を算出するエッジ解析部と、前記特徴量の値毎のモーメント統計量の前記画像データ間の第1の類似度および前記特徴量の勾配値毎のモーメント統計量の前記画像データ間の第2の類似度をそれぞれ算出して、前記第1および第2の類似度に基づき前記画像データ間の類似度を算出する類似度解析部と、を備えたことを特徴する。 In order to solve the above-described problems, the present invention provides a pattern association device, a storage device for acquiring and storing image data, a histogram relating to the feature amount of the image data, and the feature amount A feature amount analysis unit that calculates a moment statistic for each of the values, and calculates an edge image corresponding to the image data by calculating a gradient value of the feature amount, and creates a histogram relating to the gradient value of the feature amount, An edge analysis unit that calculates a moment statistic for each gradient value of the feature value, a first similarity between the image data of the moment statistic value for each value of the feature value, and a moment for each gradient value of the feature value A similarity analysis unit that calculates a second similarity between the image data of statistics, and calculates a similarity between the image data based on the first and second similarities. The features.
請求項2に記載の発明は、請求項1記載のパターン対応づけ装置において、前記画像データは、カメラで撮影された画像データであり、前記特徴量は、輝度であることを特徴とする。 According to a second aspect of the present invention, in the pattern associating device according to the first aspect, the image data is image data captured by a camera, and the feature amount is luminance.
請求項3に記載の発明は、請求項1記載のパターン対応づけ装置において、前記画像データは、サーモグラフィ装置で測定されたサーモグラフィであり、前記特徴量は、温度であることを特徴とする。 According to a third aspect of the present invention, in the pattern correlating device according to the first aspect, the image data is a thermography measured by a thermography device, and the feature amount is a temperature.
請求項4に記載の発明は、請求項1乃至3のいずれかに記載のパターン対応づけ装置において、前記モーメント統計量は、少なくとも平均値、分散、尖度および歪度のいずれか1つを含むことを特徴とする。 According to a fourth aspect of the present invention, in the pattern correlation apparatus according to any one of the first to third aspects, the moment statistic includes at least one of an average value, variance, kurtosis, and skewness. It is characterized by that.
請求項5に記載の発明は、パターン対応づけ方法であって、画像データを取得して記憶装置に格納するステップと、前記画像データの特徴量に関するヒストグラムを作成し、前記特徴量の値毎にモーメント統計量を算出するステップと、前記特徴量の勾配値を算出して前記画像データに対応するエッジ画像を生成し、前記特徴量の勾配値に関するヒストグラムを作成し、前記特徴量の勾配値毎にモーメント統計量を算出するステップと、前記特徴量の値毎のモーメント統計量の前記画像データ間の第1の類似度および前記特徴量の勾配値毎のモーメント統計量の前記画像データ間の第2の類似度をそれぞれ算出して、前記第1および第2の類似度に基づき前記画像データ間の類似度を算出するステップと、を有することを特徴する。 The invention according to claim 5 is a pattern associating method, the step of acquiring image data and storing it in a storage device, creating a histogram relating to the feature amount of the image data, and for each value of the feature amount Calculating a moment statistic; calculating a gradient value of the feature value; generating an edge image corresponding to the image data; creating a histogram relating to the gradient value of the feature value; And calculating a moment statistic for each feature value, a first similarity between the image data of the moment statistic for each value of the feature value, and a first statistic between the image data of the moment statistic for each gradient value of the feature value. And calculating a similarity between the image data based on the first and second similarities, respectively.
請求項6に記載の発明は、請求項5記載のパターン対応づけ方法において、前記画像データは、カメラで撮影された画像データであり、前記特徴量は、輝度であることを特徴とする。 According to a sixth aspect of the present invention, in the pattern associating method according to the fifth aspect, the image data is image data captured by a camera, and the feature amount is luminance.
請求項7に記載の発明は、請求項5記載のパターン対応づけ方法において、前記画像データは、サーモグラフィ装置で測定されたサーモグラフィであり、前記特徴量は、温度であることを特徴とする。 According to a seventh aspect of the present invention, in the pattern associating method according to the fifth aspect, the image data is a thermography measured by a thermography device, and the feature amount is a temperature.
請求項8に記載の発明は、請求項5乃至7のいずれかに記載のパターン対応づけ方法において、前記モーメント統計量は、少なくとも平均値、分散、尖度および歪度のいずれか1つを含むことを特徴とする。 The invention according to claim 8 is the pattern associating method according to any one of claims 5 to 7, wherein the moment statistic includes at least one of average value, variance, kurtosis and skewness. It is characterized by that.
本発明によれば、時系列画像データにおいて、特定の対象領域あるいは、画像全体を対象とした類似検索、画像間の移動対象の追跡問題などにおいて、従来の輝度などの特徴量だけからなるヒストグラムに、輝度ごと、及び、画素間の輝度の勾配値などの特徴量の位置に関連する情報を求めた上で、それぞれの位置、分散など、高次のモーメント統計量を用いて数理的に類似関数に表現することで、環境変動にロバストなパターン対応づけが、従来からの簡便なヒストグラム分布の計算法の延長で可能となった。 According to the present invention, in a time-series image data, in a similar search for a specific target region or the entire image, a tracking problem of a moving target between images, a conventional histogram including only feature values such as luminance is used. Mathematically similar functions using higher-order moment statistics such as each position and variance after obtaining information related to the position of feature quantity such as brightness gradient value between each brightness and pixel This makes it possible to make pattern matching robust to environmental changes by extending the conventional calculation method of histogram distribution.
以下、本発明の実施の形態について、詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail.
図1に、本発明の一実施形態に係るパターン対応づけ装置100の構成を示す。本発明を構成するデータ蓄積部121、輝度解析部122、エッジ解析部123、類似度解析部124、は、記憶装置120に格納され、以下の機能を持つ部品、もしくは処理装置130で実行可能なソフトウェアとして構成可能である。入力インタフェース110は、入力装置150などから入力された信号を数値情報としてシステムに入力するインタフェースである。出力インタフェース140は、処理結果をモニタ160などに出力するインタフェースである。 FIG. 1 shows a configuration of a pattern association apparatus 100 according to an embodiment of the present invention. The data storage unit 121, the luminance analysis unit 122, the edge analysis unit 123, and the similarity analysis unit 124 that constitute the present invention are stored in the storage device 120 and can be executed by a component having the following functions or the processing device 130. It can be configured as software. The input interface 110 is an interface that inputs a signal input from the input device 150 or the like as numerical information to the system. The output interface 140 is an interface that outputs a processing result to the monitor 160 or the like.
図2に、本発明の一実施形態に係るパターン対応づけ方法の主な処理の流れを示す。本発明は、カメラで撮影された画像データや、様々な観測データから再構成され可視化された画像データを、カメラあるいはさまざまなデータベースなどから入力インタフェース部110へ入力し、取得した画像データを記憶部120のデータ蓄積部121に保存する(S201)。データ蓄積部121に保存した画像データに対して、輝度などの特徴量ごとに、位置、分散など、高次のモーメント統計量を用いて数理的に類似関数を輝度解析部122において計算する(S202)。また、輝度などの特徴量の隣接画素間の空間的変化量を表す勾配値ごとに、位置、分散など、高次のモーメント統計量を用いて数理的に類似関数をエッジ解析部123において計算する(S203)。連続した画像間の類似度や、検索したい画像と元の画像との類似度を類似度解析部124において計算する(S204)。類似度が最も高い組み合わせを最適解とし、画像間で、移動対象を追跡したり、データベースから特定の対象を検索したりして、対応づけられた画像を結果の1つとして表示部160で示す(S205)。このようにして、本発明は環境変動にロバストなパターン対応づけ方法および装置を実現する。 FIG. 2 shows a main processing flow of the pattern association method according to the embodiment of the present invention. The present invention inputs image data captured by a camera or image data reconstructed and visualized from various observation data into the input interface unit 110 from a camera or various databases, and stores the acquired image data. The data is stored in the 120 data storage unit 121 (S201). For the image data stored in the data storage unit 121, a similarity function is mathematically calculated in the luminance analysis unit 122 using high-order moment statistics such as position and variance for each feature amount such as luminance (S <b> 202). ). In addition, for each gradient value representing the amount of spatial change between adjacent pixels of a feature quantity such as luminance, the edge analysis unit 123 mathematically calculates a similar function using higher-order moment statistics such as position and variance. (S203). The similarity analysis unit 124 calculates the similarity between consecutive images and the similarity between the image to be searched and the original image (S204). The combination having the highest similarity is set as the optimal solution, and the display unit 160 displays the associated image as one of the results by tracking the moving object between images or searching for a specific object from the database. (S205). In this manner, the present invention realizes a pattern matching method and apparatus that is robust to environmental fluctuations.
図3(a)〜(d)に、従来からの画像の輝度に関するヒストグラム法を用いた問題例を示す。あるテクスチャを持つ星形の物体が画像中に存在しているものとする。ここでは、1枚の画像における星の面積が一定とする。この条件の場合、図3(a)に対して、星の位置の違いがある場合(図3(b)、(c))、回転がある場合(図3(b)、(c))、個々の星の面積は小さいが、複数の星がある場合(図3(d))などが想定できる。 3A to 3D show examples of problems using a conventional histogram method relating to the brightness of an image. It is assumed that a star-shaped object having a certain texture exists in the image. Here, it is assumed that the area of a star in one image is constant. In the case of this condition, when there is a difference in star position (FIGS. 3B and 3C) as compared to FIG. 3A, there is a rotation (FIGS. 3B and 3C), Although the area of each star is small, it can be assumed that there are a plurality of stars (FIG. 3D).
これらの画像では、同一のテクスチャを持ち、かつ星の面積が一定であるため、画像全体の輝度のヒストグラムをつくると、図4に示すように、図3(a)〜(d)の4つとも全て同じ分布となる。なお、図4では、例として画像内の最大輝度が255の時の輝度ごとの画素数を、画像全体の画素数で割って正規化した生起頻度(確率)0〜1で表している。この例が示すように、ヒストグラムでは画像ごとにおいて明らかに異なる位置、大きさ、回転などを識別することができない。即ち、ヒストグラム法は簡便であるものの、連続した時系列画像データにおいて、安定した対象の追跡や、データベース検索に一定の限界があることを示している。 Since these images have the same texture and the area of the star is constant, when the histogram of the luminance of the entire image is created, as shown in FIG. 4, the four images shown in FIGS. Both have the same distribution. In FIG. 4, as an example, the number of pixels for each luminance when the maximum luminance in the image is 255 is represented by the occurrence frequency (probability) 0 to 1 normalized by dividing the number of pixels of the entire image. As this example shows, it is impossible to identify positions, sizes, rotations, and the like that are clearly different for each image in the histogram. That is, although the histogram method is simple, it shows that there is a certain limit to stable object tracking and database search in continuous time-series image data.
その一方で、ヒストグラム法の計算の簡便さは利点として残る。なお、輝度については、データセンタなどで計測される温度センサからの温度を画像パターンとして可視化したサーモグラフィと置き換えることができる。 On the other hand, the simplicity of the calculation of the histogram method remains as an advantage. Note that the luminance can be replaced with a thermography that visualizes the temperature from a temperature sensor measured at a data center or the like as an image pattern.
以下に、図1の輝度解析部122について述べる。 Hereinafter, the luminance analysis unit 122 in FIG. 1 will be described.
そこで本発明では、ヒストグラム法の欠点であった対象の位置情報の欠落問題に関して、次のような手順により、解決する。まず、1枚の画像の画素数をN、各画素がもつ最大輝度をB(最小0)とする。輝度は、0〜Bの整数値bをとるものとすると、ヒストグラムは、 Accordingly, the present invention solves the problem of the lack of target position information, which was a drawback of the histogram method, by the following procedure. First, assume that the number of pixels of one image is N, and the maximum luminance of each pixel is B (minimum 0). If the luminance is an integer value b of 0 to B, the histogram is
と数理モデルで記述できる。このとき、画像中のi番目の画素が輝度bをもつ場合(bi=b)は、ディラックのデルタ関数δbib=1であり、これ以外の場合(bi≠b)は、δbib=0である。Cは正規化係数であり、1枚当たりのすべての輝度に関する生起確率の和が1となるように、 And a mathematical model. At this time, when the i-th pixel in the image has luminance b (b i = b), the Dirac delta function δ bib = 1, and in other cases (b i ≠ b), δ bib = 0. C is a normalization coefficient, so that the sum of occurrence probabilities for all luminances per sheet is 1.
の関係を与えた。続いて、従来のヒストグラム解析では考慮されていなかった輝度ごとに対応した画素の画像内の位置の平均値やばらつき(分散)といった高次モーメント量を加える。すなわち、説明のために便宜的に表現すれば、本発明では、輝度の分布領域の重心とその広がりも考慮すると言える。ここで、画素iの画像中の位置はxi=[x,y]Tとすると、第一次モーメントである平均値は、 Gave a relationship. Subsequently, a higher-order moment amount such as an average value or variation (dispersion) of the position of the pixel corresponding to each luminance in the image, which is not considered in the conventional histogram analysis, is added. That is, for convenience of explanation, it can be said that the present invention also considers the center of gravity of the luminance distribution region and its spread. Here, when the position of the pixel i in the image is x i = [x, y] T , the average value that is the first moment is
となり、第二次モーメントである分散は、 And the second moment moment dispersion is
となる。第三次モーメント、第四次モーメントである尖度、歪度なども容易に定義することができ、対象の輝度分布がガウス分布でないときは効果的であるが、対象には一定以上の大きさが必要となる。
次に、2つの画像データ
It becomes. Third moment, fourth moment kurtosis, skewness, etc. can be easily defined, and it is effective when the target luminance distribution is not Gaussian distribution, but the target has a certain size or more. Is required.
Next, two image data
の類似度を、式(1)〜(3)を用いて求める。これについては、確率分布の裾の交わり具合を考慮したBhattacharayya係数を用いた(非特許文献2参照)。これは次のように定義される。 Are obtained using equations (1) to (3). About this, the Bhattacharaya coefficient which considered the crossing degree of the tail of probability distribution was used (refer nonpatent literature 2). This is defined as:
ただし、 However,
である。式(4)、(5)において、Ψは可変型重み係数であり、nbとn’bの差が小さい(大きい)ほど、類似度が高い(低い)ので、重み係数は大きくなる。 It is. In Equations (4) and (5), Ψ is a variable weighting factor. The smaller (larger) the difference between n b and n ′ b , the higher (lower) the similarity, and the larger the weighting factor.
以下に、エッジ解析部123について述べる。 The edge analysis unit 123 will be described below.
輝度解析部122では、入力データは、観測された画像データの輝度分布であったが、エッジ解析部123では、この画像データに対して、エッジ検出を施す。エッジ検出には、さまざまな方法が知られているが(非特許文献3参照)、ここでは、コンピュータビジョンで広く用いられているCANNY法を適用する。本手法は、ノイズなどの影響を排除し、強い輝度勾配値(輝度の空間一次微分)を抽出することに特徴がある。以下、CANNY法により得られた画像データをエッジ画像と呼ぶ。上述したように、式(1)などに、エッジ画像を適用する。このとき、1枚の画像の画素数はNと変わらないが、各画素がもつ一次微分相当の値については、予め、最大値B(255)で正規化しておく。実際、一次微分値は、正と負の値をもつ。以降、エッジ画像に対し、輝度勾配値に関する式(2)〜(5)に対応する式を輝度に関する場合と同様の手順で求めればよい。エッジについては、勾配方向と勾配の強さが得られるが、テクスチャの回転性に依存しないように、勾配の強さを用いた。勾配方向を考慮するような場合は、周波数領域に変換したうえで、周波数領域に関するヒストグラムを作成すればよい。 In the luminance analysis unit 122, the input data is the luminance distribution of the observed image data, but the edge analysis unit 123 performs edge detection on the image data. Various methods are known for edge detection (see Non-Patent Document 3). Here, the CANNY method widely used in computer vision is applied. This method is characterized in that it removes the influence of noise and the like and extracts a strong luminance gradient value (a spatial first derivative of luminance). Hereinafter, image data obtained by the CANNY method is referred to as an edge image. As described above, the edge image is applied to the equation (1) and the like. At this time, the number of pixels of one image is not different from N, but the value corresponding to the first derivative of each pixel is normalized in advance with the maximum value B (255). In fact, the first derivative has positive and negative values. Thereafter, for the edge image, equations corresponding to equations (2) to (5) relating to the luminance gradient value may be obtained by the same procedure as that relating to luminance. For the edge, the gradient direction and gradient strength can be obtained, but the gradient strength is used so that it does not depend on the rotational property of the texture. When the gradient direction is taken into consideration, a histogram relating to the frequency domain may be created after conversion to the frequency domain.
以上より、式(4)より、輝度およびエッジに関して2つの類似度が得られ、これをそれぞれ、ρ1、ρ2とする。輝度とエッジに関する双方の類似度は、0≦ρ1+ρ2≦2.0の範囲において、最大値の場合が対応づけに資するデータとなる。 From the above, from Equation (4), two similarities with respect to luminance and edge are obtained, which are denoted by ρ1 and ρ2, respectively. In the range of 0 ≦ ρ1 + ρ2 ≦ 2.0, the similarity between both the luminance and the edge is data that contributes to association in the case of the maximum value.
図5に、本発明によるデータベース上の複数の画像データを検索する際に用いる1枚の基準画像データXの例を示す。また、図6に、検索対象となるデータベース上の複数の画像データを示す。これらを用いて、1枚の画像データXと同じあるいは、類似した画像データを膨大なデータベース上の複数の画像データ(a)〜(d)から検索する実験を行った。 FIG. 5 shows an example of one piece of reference image data X used when searching a plurality of image data on the database according to the present invention. FIG. 6 shows a plurality of image data on a database to be searched. Using these, an experiment was performed in which image data that is the same as or similar to one piece of image data X is searched from a plurality of image data (a) to (d) on an enormous database.
従来からの輝度に基づいたヒストグラム法を用いた場合、複数の画像データ(a)〜(d)のヒストグラムは図4に示したように、すべて同じ分布になるため、複数の画像データ(a)〜(d)から基準画像データXと最も類似するもの1つに絞り込むことが困難であった。一方、本発明によれば、輝度およびエッジに関して、図5、図6(a)に示すような位置情報{(x1,y1),(x2,y2)...}や高次モーメント量の1つの分散を加味しているため、複数の画像データ(a)〜(d)と基準画像データXとの違いが数値としてはっきりと表れ、図6(a)を識別することができた。図6(b)、(c)、(d)の順に、Xとの相対距離が大きくなり、類似度指標式(4)の値が0.8、0.4、0.01と小さくなった。 When the conventional histogram method based on luminance is used, since the histograms of the plurality of image data (a) to (d) all have the same distribution as shown in FIG. 4, the plurality of image data (a) It was difficult to narrow down to one that is most similar to the reference image data X from (d). On the other hand, according to the present invention, position information {(x1, y1), (x2, y2). . . } Or one variance of higher-order moment amounts, the difference between the plurality of image data (a) to (d) and the reference image data X clearly appears as numerical values, and FIG. 6 (a) is identified. We were able to. 6 (b), (c), and (d), the relative distance from X increases, and the value of similarity index formula (4) decreases to 0.8, 0.4, and 0.01. .
図7に、カメラ映像を用いたときに背景に大きな環境変動がある状況下で、特定の対象を追跡した時の実験例を示す。実環境では、環境変動は、太陽光、陰影、他の物体混入、建物などにより対象の一部が隠蔽されるオクルージョンなどが複雑に絡んでいる、また、追跡すべき興味の対象の形状、テクスチャも複雑であることが多く、変形も伴っていることが少なくない。そこで、ここでは、時系列画像データにおける特定対象の移動追跡問題を扱った。 FIG. 7 shows an experimental example when a specific target is tracked in a situation where there is a large environmental fluctuation in the background when a camera image is used. In a real environment, environmental fluctuations are complicatedly related to sunlight, shadows, other object contamination, occlusion where a part of the object is hidden by buildings, etc., and the shape and texture of the object of interest to be tracked Are often complicated and often accompanied by deformation. Therefore, here we dealt with the problem of tracking specific objects in time-series image data.
従来からのヒストグラム法では、背景の環境変動や移動対象の変形の影響を強く受けて、対象を見逃してしまうことがたびたび生じた。一方、本発明では、安定して特定対象を追跡することができた。なお、本発明では、現在時刻から次の時刻での追跡したい対象の検索範囲について、1枚の画像640画素×480画素中、10画素×10画素の範囲を探索し、その中で、最も類似度が高い対象を検索するようにした。 In the conventional histogram method, the object is often overlooked due to the strong influence of the environmental change of the background and the deformation of the moving object. On the other hand, in the present invention, the specific target can be tracked stably. In the present invention, the search range of the target to be traced from the current time to the next time is searched for a range of 10 pixels × 10 pixels in one image of 640 pixels × 480 pixels, and the most similar among them Searched for high-level objects.
図8に、図7の実験例について、類似度評価法の違いによる画像データを用いた追跡率および検出率の精度比較結果を示す。元の画像の位置をα、推定された位置をβとしたときに、β/α×100が評価値となり、特に、対象の重心移動を追跡したときを追跡率とし、対象の全体又は一部を検出したときを検出率と定義する。 FIG. 8 shows the accuracy comparison results of the tracking rate and the detection rate using the image data for the experimental example of FIG. When the position of the original image is α and the estimated position is β, β / α × 100 is an evaluation value, and in particular, the tracking rate is when tracking the center of gravity of the target, and the whole or a part of the target The detection rate is defined as the detection rate.
さまざまな画像データを用いて、従来からのヒストグラム法A、本発明において輝度のみを用いた場合B、輝度およびエッジを併用した場合Cにおける追跡率と検出率を評価する実験を行った。なお、画像データに対して、環境変動を想定して、白色ノイズや正規ノイズを加えたことと、画像中の対象の一部をランダムに欠落させて不完全な画像データをも作成して評価データとして用いた。 Using various image data, experiments were conducted to evaluate the tracking rate and detection rate in the conventional histogram method A, B in the case of using only luminance in the present invention, and C in the case of using luminance and edges together. Note that white noise and normal noise were added to the image data assuming environmental fluctuations, and incomplete image data was also created and evaluated by deleting some of the objects in the image at random. Used as data.
その結果、A、B、Cの順に、精度が改善された。特に、本発明において、輝度だけよりも、エッジ情報を併用した方がよくなった。これについては、輝度において、空間的な位置が加味されたが、エッジ情報を導入することで、隣接する異なる輝度間の関係性が加味されたためである。即ち、より細かい空間構造が追跡問題や検出問題において効果的であることが示唆された。 As a result, the accuracy was improved in the order of A, B, and C. In particular, in the present invention, it is better to use edge information together than luminance alone. This is because the spatial position is taken into account in luminance, but the relationship between adjacent different luminances is taken into account by introducing edge information. That is, it was suggested that a finer spatial structure is effective in tracking problems and detection problems.
また、本発明は、カメラ映像監視だけでなく、上述したように、データセンタ内における温度などの状態を推定する場合に応用できる。本発明により、温度センサの(空間)位置情報と温度を同時に考慮したヒストグラム分布を用いることで、従来からの誤認識を大幅に減らすことができ、より的確に、過去データとの参照との対応づけができる。また、別の応用として、データセンタ内の温度分布の時系列変化を空間的に追従することも可能である。即ち、状態の推移を把握し、解析につなげていくことが考えられる。 Further, the present invention can be applied not only to camera image monitoring but also to estimation of a state such as temperature in the data center as described above. According to the present invention, by using a histogram distribution that takes into account the (space) position information of the temperature sensor and the temperature at the same time, it is possible to greatly reduce conventional misrecognition, and more accurately cope with reference to past data. Can be attached. As another application, it is also possible to spatially follow the time series change of the temperature distribution in the data center. That is, it is conceivable to grasp the transition of the state and connect it to the analysis.
100 パターン対応づけ装置
110 入力インタフェース
120 記憶装置
121 データ蓄積部
122 輝度解析部
123 エッジ解析部
124 類似度解析部
130 処理装置
140 出力インタフェース
150 入力装置
160 モニタ
DESCRIPTION OF SYMBOLS 100 Pattern matching apparatus 110 Input interface 120 Storage apparatus 121 Data storage part 122 Luminance analysis part 123 Edge analysis part 124 Similarity analysis part 130 Processing apparatus 140 Output interface 150 Input apparatus 160 Monitor
Claims (8)
前記画像データの特徴量に関するヒストグラムを作成し、前記特徴量の値毎にモーメント統計量を算出する特徴量解析部と、
前記特徴量の勾配値を算出して前記画像データに対応するエッジ画像を生成し、前記特徴量の勾配値に関するヒストグラムを作成し、前記特徴量の勾配値毎にモーメント統計量を算出するエッジ解析部と、
前記特徴量の値毎のモーメント統計量の前記画像データ間の第1の類似度および前記特徴量の勾配値毎のモーメント統計量の前記画像データ間の第2の類似度をそれぞれ算出して、前記第1および第2の類似度に基づき前記画像データ間の類似度を算出する類似度解析部と、
を備えたことを特徴するパターン対応づけ装置。 A storage device for acquiring and storing image data;
Creating a histogram relating to the feature amount of the image data, and calculating a moment statistic for each value of the feature amount;
Edge analysis that calculates a gradient value of the feature value, generates an edge image corresponding to the image data, creates a histogram related to the gradient value of the feature value, and calculates moment statistics for each gradient value of the feature value And
Calculating a first similarity between the image data of the moment statistics for each value of the feature quantity and a second similarity between the image data of the moment statistics for each gradient value of the feature quantity; A similarity analyzer that calculates a similarity between the image data based on the first and second similarities;
A pattern matching apparatus characterized by comprising:
前記画像データの特徴量に関するヒストグラムを作成し、前記特徴量の値毎にモーメント統計量を算出するステップと、
前記特徴量の勾配値を算出して前記画像データに対応するエッジ画像を生成し、前記特徴量の勾配値に関するヒストグラムを作成し、前記特徴量の勾配値毎にモーメント統計量を算出するステップと、
前記特徴量の値毎のモーメント統計量の前記画像データ間の第1の類似度および前記特徴量の勾配値毎のモーメント統計量の前記画像データ間の第2の類似度をそれぞれ算出して、前記第1および第2の類似度に基づき前記画像データ間の類似度を算出するステップと、
を有することを特徴するパターン対応づけ方法。 Acquiring image data and storing it in a storage device;
Creating a histogram relating to the feature amount of the image data, calculating a moment statistic for each value of the feature amount;
Calculating a gradient value of the feature value, generating an edge image corresponding to the image data, creating a histogram relating to the gradient value of the feature value, and calculating a moment statistic for each gradient value of the feature value; ,
Calculating a first similarity between the image data of the moment statistics for each value of the feature quantity and a second similarity between the image data of the moment statistics for each gradient value of the feature quantity; Calculating a similarity between the image data based on the first and second similarities;
A pattern associating method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263185A JP2016122405A (en) | 2014-12-25 | 2014-12-25 | Pattern association method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263185A JP2016122405A (en) | 2014-12-25 | 2014-12-25 | Pattern association method and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016122405A true JP2016122405A (en) | 2016-07-07 |
Family
ID=56328995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014263185A Pending JP2016122405A (en) | 2014-12-25 | 2014-12-25 | Pattern association method and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016122405A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101849605B1 (en) | 2016-12-29 | 2018-04-18 | 성균관대학교산학협력단 | Image matching method and image matching device |
-
2014
- 2014-12-25 JP JP2014263185A patent/JP2016122405A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101849605B1 (en) | 2016-12-29 | 2018-04-18 | 성균관대학교산학협력단 | Image matching method and image matching device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105069424B (en) | Quick face recognition system and method | |
TWI532014B (en) | Image similarity judgment system and method | |
RU2607774C2 (en) | Control method in image capture system, control apparatus and computer-readable storage medium | |
JP6482195B2 (en) | Image recognition apparatus, image recognition method, and program | |
JP6024658B2 (en) | Object detection apparatus, object detection method, and program | |
WO2015161776A1 (en) | Hand motion identification method and apparatus | |
JP6547744B2 (en) | Image processing system, image processing method and program | |
US20140169639A1 (en) | Image Detection Method and Device | |
US8542912B2 (en) | Determining the uniqueness of a model for machine vision | |
JP3970877B2 (en) | Tracking device and tracking method | |
JP5455787B2 (en) | Motion analysis apparatus and motion analysis method | |
CN110909825A (en) | Detecting objects in visual data using a probabilistic model | |
JPWO2014010174A1 (en) | Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program | |
CN110598559A (en) | Method and device for detecting motion direction, computer equipment and storage medium | |
US8542905B2 (en) | Determining the uniqueness of a model for machine vision | |
Priya et al. | Edge strength extraction using orthogonal vectors for shot boundary detection | |
JP5674550B2 (en) | Status tracking apparatus, method, and program | |
JP2015507736A (en) | System and method for estimating target size | |
JP2016122405A (en) | Pattern association method and device | |
JP7243372B2 (en) | Object tracking device and object tracking method | |
JP2010097507A (en) | Device, method, and program for extracting movement object | |
WO2012092132A2 (en) | Determining the uniqueness of a model for machine vision | |
JP2020071716A (en) | Abnormality determination method, feature quantity calculation method, and appearance inspection device | |
Patel et al. | Illumination invariant moving object detection | |
CN108696722B (en) | Target monitoring method, system and device and storage medium |