JP2006072763A - Image processing apparatus, image processing integrated circuit, image processing method, image processing program and computer-readable recording medium - Google Patents
Image processing apparatus, image processing integrated circuit, image processing method, image processing program and computer-readable recording medium Download PDFInfo
- Publication number
- JP2006072763A JP2006072763A JP2004256184A JP2004256184A JP2006072763A JP 2006072763 A JP2006072763 A JP 2006072763A JP 2004256184 A JP2004256184 A JP 2004256184A JP 2004256184 A JP2004256184 A JP 2004256184A JP 2006072763 A JP2006072763 A JP 2006072763A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- difference value
- value
- estimated position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像分割処理を用いて画像内のオブジェクトを抽出し、連想処理を用いてオブジェクトのマッチングをとることにより、画像内から静止物体と動物体とを検出するものである。 The present invention detects a stationary object and a moving object from an image by extracting an object in the image using image division processing and matching the objects using association processing.
近年、知的情報処理技術の実現に向けての画像認識処理技術の要求が高まっている。特に、人間に近い動作・判断をする知能ロボットの実現や、リアルタイムでの画像認識処理においては、カメラ等から取り込んだ画像を高速に処理する必要があり、処理の高速化が求められている(非特許文献3および非特許文献4参照)。
In recent years, there has been an increasing demand for image recognition processing technology for realizing intelligent information processing technology. In particular, in realization of intelligent robots that perform operations and judgments similar to humans, and in real-time image recognition processing, it is necessary to process images captured from cameras and the like at high speed, and high-speed processing is required ( Non-Patent
そのためには、入力画像中の様々なオブジェクトから、対象となるオブジェクトを分割し取り出す、画像分割処理が必要である。そして、画像分割処理のアルゴリズムとして、LEGION(Locally Excitatory Globally Inhibitory Oscillator Network)(非特許文献2、非特許文献6、および非特許文献7参照)に基づいたセルオートマトン型ディジタル画像分割アーキテクチャが提案されている(非特許文献11および13参照)。
For this purpose, it is necessary to perform an image division process in which a target object is divided and extracted from various objects in the input image. As an image division processing algorithm, a cellular automaton type digital image division architecture based on LEGION (Locally Excitatory Globally Inhibitory Oscillator Network) (see Non-Patent
さらに、これまでの研究では、セルオートマトン型ディジタル画像分割アーキテクチャのハードウェア化が行われるとともに、セルネットワークをフルカスタム設計したチップ(非特許文献8参照)が試作され、その処理時間が測定されている。その測定の結果、セルオートマトン型ディジタル画像分割アーキテクチャによれば、非常に高速で精度良く画像分割処理できることが知られている。 Furthermore, in the research so far, the cellular automaton type digital image segmentation architecture has been implemented as hardware, and a chip (see Non-Patent Document 8) in which the cell network is fully custom designed has been prototyped and its processing time has been measured. Yes. As a result of the measurement, it is known that according to the cellular automaton type digital image segmentation architecture, image segmentation processing can be performed at a very high speed and with high accuracy.
また、知的情報処理技術の実現に向けては、画像内のオブジェクトの動きを検出する技術への要求も高い。これまでに、オブジェクトの動き検出のために、たとえば、特許文献1および特許文献2に記載されているような様々なアルゴリズムが提案されている。
しかしながら、従来の動き検出のためのアルゴリズムは、フレーム毎に入力画像からと背景との差分をとることで、入力画像における背景部分を取り除き、残っている部分からオブジェクトの動きを認識することにより、処理が比較的簡略化されている。その反面、従来のアルゴリズムは、同時に複数の動体オブジェクトを判別し、動き検出をすることが容易ではないという問題点を有している(非特許文献10参照)。 However, the conventional algorithm for motion detection removes the background portion from the input image by taking the difference between the input image and the background for each frame, and recognizes the motion of the object from the remaining portion. Processing is relatively simplified. On the other hand, the conventional algorithm has a problem that it is not easy to simultaneously detect a plurality of moving objects and detect a motion (see Non-Patent Document 10).
すなわち、特許文献1および特許文献2に記載されているアルゴリズムでは、分割されたオブジェクトに関して「色」「重心位置」「面積」といった特徴量を把握して、その特徴量に基づき異なるフレーム間で同一のオブジェクトを認識している。しかしながら、このようなオブジェクトの特徴量を把握するだけでは、画像内に複数のオブジェクトが存在する場合に、フレーム間で同一のオブジェクトを認識することが困難である。なぜなら、複数のオブジェクトが画像内に存在すると、それらのオブジェクトのうち、上記特徴量が近似するものが同一フレーム内に含まれている可能性があり、それらの特徴量が近似するオブジェクトが同一のオブジェクトとして認識されてしまう可能性があるからである。
That is, according to the algorithms described in
本発明は、上記従来の問題点に鑑みなされたものであって、画像内に複数のオブジェクトが存在していても、異なるフレーム間で同一のオブジェクトを認識し得る画像処理装置、画像処理集積化回路、画像処理方法、画像処理プログラム、および記録媒体を提供することを目的とする。 The present invention has been made in view of the above-described conventional problems, and is capable of recognizing the same object between different frames even when a plurality of objects exist in an image, and image processing integration. An object is to provide a circuit, an image processing method, an image processing program, and a recording medium.
本発明の画像処理装置は、上記課題を解決するために、入力画像中に含まれる複数のオブジェクトを、その入力画像のフレーム毎に入力画像から分割する画像分割手段と、分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する動きベクトル算出手段と、各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する推定位置算出手段と、上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識するオブジェクト認識手段とを備えていることを特徴としている。 In order to solve the above problems, an image processing apparatus according to the present invention is configured to divide a plurality of objects included in an input image from the input image for each frame of the input image, and to each divided object , A motion vector calculation means for calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate of the object in the previous frame and the position coordinate of the previous frame, and for each object, the motion vector of the previous frame of the object Based on the position coordinates and the motion vector, an estimated position calculating means for calculating an estimated position that is estimated to be present in each object in the current frame; the estimated position; and an estimated position other than the estimated position for each object in the previous frame Features other than the estimated position of each object in the current frame Based on the symptoms weight, it is characterized in that it comprises a and object recognizing means for recognizing the same object between the current and previous frames.
すなわち、入力画像中に含まれるオブジェクトを、画像分割手段を用いてフレーム毎に入力画像から分割するとともに、分割されたオブジェクトに関して「色」「重心位置」「面積」といった特徴量を算出して、その特徴量に基づきフレーム間で同一のオブジェクトを認識することは、知的情報処理技術の実現において重要である。なお、「オブジェクト」とは、入力画像において、画素単位で互いに同一の範疇に属する領域を意味する。 That is, the object included in the input image is divided from the input image for each frame using the image dividing means, and the feature amount such as “color”, “centroid position”, and “area” is calculated for the divided object, Recognizing the same object between frames based on the feature amount is important in realizing intelligent information processing technology. Note that “object” means a region in the input image that belongs to the same category in units of pixels.
しかしながら、そのように同一のオブジェクトを認識する従来の画像処理方法においては、画像内に複数のオブジェクトが存在する場合に、フレーム間で同一のオブジェクトを認識することが困難であった。これは、複数のオブジェクトが画像内に存在すると、それらのオブジェクトのうち、上記特徴量が近似するものが同一フレーム内に含まれている可能性があり、それらの特徴量が近似するオブジェクトが同一のオブジェクトとして認識されてしまう可能性があるからである。 However, in such a conventional image processing method for recognizing the same object, it is difficult to recognize the same object between frames when there are a plurality of objects in the image. This is because if there are multiple objects in the image, those objects whose features are approximate may be included in the same frame, and the objects whose features are approximate are the same. This is because it may be recognized as an object.
そこで、本発明の画像処理装置は、特に、動きベクトル算出手段と、推定位置算出手段と、オブジェクト認識手段とを備えている。すなわち、動きベクトル算出手段によりフレーム間で動きベクトルを算出し、その動きベクトルを用いて推定位置算出手段によりオブジェクトの推定位置を算出することにより、異なるフレーム間でのオブジェクトの移動状態を把握することができる。 Therefore, the image processing apparatus of the present invention particularly includes a motion vector calculation unit, an estimated position calculation unit, and an object recognition unit. That is, the motion vector is calculated between the frames by the motion vector calculation means, and the estimated position of the object is calculated by the estimated position calculation means using the motion vector, thereby grasping the moving state of the object between the different frames. Can do.
さらに、オブジェクト認識手段においては、推定位置に基づき同一のオブジェクトを認識しているので、異なるフレーム間でのオブジェクトの移動状態を考慮して同一オブジェクトを認識することができる。 Furthermore, since the object recognition means recognizes the same object based on the estimated position, the same object can be recognized in consideration of the movement state of the object between different frames.
特に、画像分割手段により分割されたオブジェクトについて、動きベクトル算出手段により動きベクトルを算出し、その動きベクトルを用いてオブジェクト認識手段によりフレーム間で同一であるオブジェクトの検出を行うので、複数のオブジェクトのフレーム間での対応付けが可能となる。そのため、単純にフレーム間の画像の差分情報から動いている物体を検出する方法と違い、本発明では動物体の認識だけでなく、静止物体の認識もできる。さらに、カメラがパーンしたりするような撮影画像全てが動いている場合にも物体を検出することが可能となる。 In particular, for an object divided by the image dividing means, a motion vector is calculated by the motion vector calculating means, and the object recognition means detects the same object between frames using the motion vector. Correspondence between frames becomes possible. Therefore, unlike the method of simply detecting a moving object from difference information of images between frames, the present invention can recognize not only a moving object but also a stationary object. Furthermore, it is possible to detect an object even when all the captured images that the camera pans are moving.
なお、オブジェクト同士が衝突したりする等の事情により、あるオブジェクトについての動きベクトルが突然変化するというような状況も十分考えうる。この場合、推定位置算出手段により算出された推定位置と、オブジェクトの実際の位置との間に誤差が生じ、オブジェクト認識手段が異なるフレーム間で同一のオブジェクトを正しく認識できない可能性がある。 It should be noted that a situation in which the motion vector of a certain object suddenly changes due to circumstances such as collision between objects can be considered. In this case, an error may occur between the estimated position calculated by the estimated position calculation unit and the actual position of the object, and the object recognition unit may not be able to correctly recognize the same object between different frames.
そこで、オブジェクト認識手段は、推定位置以外の特徴量も考慮して、異なるフレーム間で同一のオブジェクトを認識する。つまり、フレーム間で動きベクトルが突然変化したとしても、あるオブジェクトに関する動きベクトル以外の特徴量はフレーム間で同一であることが多いので、本発明のオブジェクト認識手段によれば、動きベクトルが変化したとしても異なるフレーム間で同一のオブジェクトを認識することができる。 Therefore, the object recognition means recognizes the same object between different frames in consideration of feature quantities other than the estimated position. That is, even if the motion vector suddenly changes between frames, the feature quantity other than the motion vector related to a certain object is often the same between the frames. Therefore, according to the object recognition means of the present invention, the motion vector has changed. However, the same object can be recognized between different frames.
このように、本発明の画像処理装置によれば、画像内に複数のオブジェクトが存在する場合においても、異なるフレーム間で同一のオブジェクトを正しく認識することができる。 Thus, according to the image processing apparatus of the present invention, even when there are a plurality of objects in an image, the same object can be correctly recognized between different frames.
さらに、上記オブジェクト認識手段は、現フレームの注目オブジェクトと、前フレームの各オブジェクトとの間で、第1差分値および第2差分値に基づく値である距離指標を算出し、その距離指標が最小となるオブジェクトを同一のオブジェクトとして認識するものであり、上記第1差分値は、現フレームにおける注目オブジェクトの推定位置を示す座標と、前フレームにおける各オブジェクトの実際の位置を示す座標との差分値であり、上記第2差分値は、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの注目オブジェクトに関する推定位置以外の特徴量との差分値であることが好ましい。なお、距離指標としては、たとえば、マンハッタン距離や、ユークリッド距離を用いることができる。 Further, the object recognition means calculates a distance index, which is a value based on the first difference value and the second difference value, between the target object of the current frame and each object of the previous frame, and the distance index is the smallest The first difference value is a difference value between coordinates indicating the estimated position of the object of interest in the current frame and coordinates indicating the actual position of each object in the previous frame. The second difference value is preferably a difference value between a feature quantity other than the estimated position related to each object in the previous frame and a feature quantity other than the estimated position related to the object of interest in the current frame. As the distance index, for example, Manhattan distance or Euclidean distance can be used.
すなわち、あるオブジェクトに関しては、そのオブジェクトがフレーム間で移動しても、そのオブジェクトの特徴量はそれほど変化しない。つまり、異なるフレーム間においてオブジェクト同士の特徴量の差分値を算出すれば、同一のオブジェクトに関するその差分値は最小になるといえる。 That is, for an object, even if the object moves between frames, the feature quantity of the object does not change so much. In other words, if the difference value of the feature amount between objects is calculated between different frames, it can be said that the difference value regarding the same object is minimized.
本発明のオブジェクト認識手段は、上記の差分値に基づく値を、距離指標として算出し、その距離指標が最小となるオブジェクトを同一のオブジェクトとして認識するので、適切に同一のオブジェクトを認識することができる。 The object recognition means of the present invention calculates a value based on the above difference value as a distance index, and recognizes the object having the smallest distance index as the same object, so that the same object can be appropriately recognized. it can.
さらに、上述の距離指標は、注目オブジェクトの推定位置の座標と、前フレームにおける各オブジェクトの実際の位置の座標との差分値である第1差分値を考慮して算出されている。 Further, the above-described distance index is calculated in consideration of a first difference value that is a difference value between the coordinates of the estimated position of the object of interest and the coordinates of the actual position of each object in the previous frame.
つまり、注目オブジェクトの動きベクトルが突然変化しない限り、注目オブジェクトの推定位置の座標と、その注目オブジェクトの前フレームにおける実際の位置の座標との差分値は、注目オブジェクトの推定位置座標と、注目オブジェクト以外のオブジェクトの前フレームにおける位置座標との差分値よりも小さくなる。すなわち、フレーム間で上記第1差分値が最小になるオブジェクト同士が、同一のオブジェクトであるといえる。 In other words, unless the motion vector of the target object changes suddenly, the difference value between the coordinates of the estimated position of the target object and the coordinates of the actual position in the previous frame of the target object is the estimated position coordinate of the target object and the target object. It becomes smaller than the difference value with the position coordinate in the previous frame of the other object. That is, it can be said that the objects having the smallest first difference value between frames are the same object.
そして、本発明のオブジェクト認識手段は、上記第1差分値に基づく値である距離指標を算出し、その距離指標が最小になるオブジェクトを同一のオブジェクトとして認識する。したがって、より適切に同一のオブジェクトを認識することができる。 And the object recognition means of this invention calculates the distance parameter | index which is a value based on the said 1st difference value, and recognizes the object from which the distance parameter | index is the minimum as the same object. Therefore, the same object can be recognized more appropriately.
また、第1差分値および第2差分値を算出するためには、位置座標の差分値または特徴量の差分値を算出することが必要になる。このように差分値を算出することは、減算器等を設けるといった比較的簡単な回路構成で実現することができる。したがって、本発明によれば、簡易な回路構成で同一のオブジェクトを認識することが可能となる。 Further, in order to calculate the first difference value and the second difference value, it is necessary to calculate the difference value of the position coordinates or the difference value of the feature amount. The calculation of the difference value in this way can be realized with a relatively simple circuit configuration such as providing a subtractor. Therefore, according to the present invention, it is possible to recognize the same object with a simple circuit configuration.
さらに、上記推定位置以外の特徴量は、画素数、幅、高さ、および色情報のうち、少なくとも1つを含むものであってもよい。 Furthermore, the feature amount other than the estimated position may include at least one of the number of pixels, the width, the height, and the color information.
すなわち、オブジェクトの特徴量として、画素数、幅、高さ、および色情報は、簡易に算出することができる。つまり、画素数、幅、および高さに関しては、オブジェクトに含まれる画素の数をカウントすることにより容易に算出できるし、色情報に関しても画素値から簡易に算出することができる。 That is, the number of pixels, the width, the height, and the color information can be easily calculated as the feature amount of the object. That is, the number of pixels, the width, and the height can be easily calculated by counting the number of pixels included in the object, and the color information can also be easily calculated from the pixel values.
したがって、上記構成によれば、簡易にオブジェクトの特徴量を算出できるので、オブジェクト認識手段による同一オブジェクトの認識処理を簡略化することができる。したがって、より簡易な処理で同一オブジェクトを認識することができる。 Therefore, according to the above configuration, the feature amount of the object can be easily calculated, so that the recognition process of the same object by the object recognition unit can be simplified. Therefore, the same object can be recognized by a simpler process.
また、上記推定位置以外の特徴量は、画素数、幅、高さ、および色情報であり、上記第2差分値は、画素数、幅、高さ、および色情報のそれぞれに関する差分値であり、上記オブジェクト認識手段は、現フレームのオブジェクトiと、前フレームのオブジェクトjとの間における距離指標をDij、上記第1差分値をIpij、上記画素数の差分値をIaij、上記幅の差分値をIwij、上記高さの差分値をIhij、上記色情報の差分値をIcijとした場合、
Dij=αIaij+β(Iwij+Ihij)+γIpij+εIcij (マンハッタン距離の場合)
または、
Dij=√k
k=αIaij 2+βIwij 2+βIhij 2+γIpij 2+εIcij 2 (ユークリッド距離の場合)
(α、β、γ、εは、Iaij,Iwij,Ihij,Ipij,およびIcijのそれぞれの大きさに応じて決定される係数)
と設定して、距離指標Dijを算出することが好ましい。
The feature quantities other than the estimated position are the number of pixels, the width, the height, and the color information, and the second difference value is a difference value for each of the number of pixels, the width, the height, and the color information. The object recognizing means has a distance index D ij between the object i of the current frame and the object j of the previous frame, the first difference value Ip ij , the difference value of the number of pixels Ia ij , and the width The difference value of Iw ij , the height difference value Ih ij , and the color information difference value Ic ij ,
D ij = αIa ij + β (Iw ij + Ih ij ) + γIp ij + εIc ij (in case of Manhattan distance)
Or
D ij = √k
k = αIa ij 2 + βIw ij 2 + βIh ij 2 + γIp ij 2 + εIc ij 2 (in the case of Euclidean distance)
(Α, β, γ, ε are coefficients determined according to the respective sizes of Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij )
And the distance index D ij is preferably calculated.
上記構成によれば、第1差分値、画素数、幅、高さ、および色情報のそれぞれについて、係数α、β、γ、εを重みとして設定し、距離指標Dijを算出することができる。したがって、第1差分値、画素数、幅、高さ、および色情報のうち、いずれを重視するかに応じて重み関数を設定し、距離指標を算出することができる。 According to the above configuration, the distance index D ij can be calculated by setting the coefficients α, β, γ, and ε as weights for each of the first difference value, the number of pixels, the width, the height, and the color information. . Therefore, it is possible to calculate a distance index by setting a weight function according to which of the first difference value, the number of pixels, the width, the height, and the color information is important.
たとえば、オブジェクトの画素数を重視して同一オブジェクトを認識したいというニーズがある場合には、係数αを、β、γ、εよりも大きく設定すればよい。これにより、第1差分値、画素数、幅、高さ、および色情報の変化のうち、距離指標の値は、画素数の変化に最も大きな影響をうけることになる。このように重みが設定された距離指標を用いれば、オブジェクトの画素数の差分値を重視した同一オブジェクトの認識が可能となる。 For example, if there is a need to recognize the same object with an emphasis on the number of pixels of the object, the coefficient α may be set larger than β, γ, and ε. Thereby, among the changes in the first difference value, the number of pixels, the width, the height, and the color information, the value of the distance index has the greatest influence on the change in the number of pixels. If the distance index with the weight set in this way is used, it is possible to recognize the same object with an emphasis on the difference value of the number of pixels of the object.
このように、上記構成によれば、ユーザニーズに合わせて、重みα、β、γ、εを設定して同一オブジェクトを認識することができる。 Thus, according to the above configuration, the same object can be recognized by setting weights α, β, γ, and ε according to user needs.
また、上記係数α、β、γ、およびεは、α=2β=2γ=εを満たすように設定されていてもよい。 The coefficients α, β, γ, and ε may be set so as to satisfy α = 2β = 2γ = ε.
すなわち、差分値Iaij、Iwij、Ihij、Ipij、Icijのうち、Iwij、Ihijはオブジェクトの「サイズ」を示す指標として共通するものである。また、Ipijに関しては、x座標の差分値、y座標の差分値として2つのパラメータが含まれている。 That is, among the difference values Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij , Iw ij and Ih ij are common as an index indicating the “size” of the object. As for Ip ij , two parameters are included as a difference value of the x coordinate and a difference value of the y coordinate.
つまり、オブジェクトのサイズの差分値を示すパラメータ、および座標の差分値を示すパラメータがそれぞれ2つあるのに対し、Iaij、Icijに関してはパラメータが1つしかない。このようにパラメータの数が異なると、オブジェクトの「サイズ」および「位置」に偏ったオブジェクト認識がなされてしまう場合がある。 In other words, there are two parameters indicating the difference value of the object size and two parameters indicating the difference value of the coordinates, but there is only one parameter for Ia ij and Ic ij . Thus, when the number of parameters is different, object recognition biased to the “size” and “position” of the object may be performed.
そこで、上記構成では、α=2β=2γ=εとして設定している。これにより、オブジェクトの特徴量としての「サイズ」、「位置」、「画素数」、および「色情報」について、等しい重み関数が設定されることになる。これにより、特定の特徴量に偏ったオブジェクト認識が行われることを防止し、各特徴量の変化に等しいバランスを設定して同一のオブジェクトを認識することができる。 Therefore, in the above configuration, α = 2β = 2γ = ε is set. As a result, equal weight functions are set for “size”, “position”, “number of pixels”, and “color information” as the feature amount of the object. As a result, object recognition biased to a specific feature amount can be prevented, and the same object can be recognized by setting a balance equal to the change in each feature amount.
さらに、上記オブジェクト認識手段は、上記推定位置またはそれ以外の特徴量として、正規化された値を用いることが好ましい。 Further, the object recognition means preferably uses a normalized value as the estimated position or other feature amount.
上記構成によれば、特徴量としての推定位置、またはそれ以外の特徴量として、正規化された値を用いる。したがって、特徴量を用いる演算処理において、特徴量のビット数を削減することができるので、より簡易な処理において同一オブジェクトの認識が可能となる。 According to the above configuration, a normalized value is used as the estimated position as the feature amount or the other feature amount. Therefore, since the number of bits of the feature value can be reduced in the arithmetic processing using the feature value, the same object can be recognized in a simpler process.
正規化の手法としては、現実の値を、その特徴量がとり得る最大値で除算する手法を用いることが可能である。この正規化手法によれば、特徴量を0〜1の値に正規化することができるので、特徴量を用いる演算処理を非常に簡略化することができる。 As a normalization method, it is possible to use a method of dividing an actual value by the maximum value that the feature amount can take. According to this normalization method, the feature amount can be normalized to a value of 0 to 1, so that the arithmetic processing using the feature amount can be greatly simplified.
または、正規化の手法として、特徴量の現実の値を、入力画像を分割した領域の大きさに基づく所定値で除算してもよい。たとえば、1つの領域が16×16画素の大きさを有するように、画像を複数の領域に分割する場合には、特徴量を16にて除算すればよい。このように分割された領域の大きさに基づく正規化によっても、特徴量のビット数は十分削減できるので、簡易な処理において同一のオブジェクトを認識することができる。 Alternatively, as a normalization method, the actual value of the feature amount may be divided by a predetermined value based on the size of the area into which the input image is divided. For example, when an image is divided into a plurality of regions so that one region has a size of 16 × 16 pixels, the feature amount may be divided by 16. Also by normalization based on the size of the divided areas as described above, the number of bits of the feature amount can be sufficiently reduced, so that the same object can be recognized in a simple process.
さらに、本発明の画像処理集積化回路は、上記構成の画像処理装置を集積回路化したことを特徴としている。これにより、画像処理装置における各手段の処理を並列して高速で行うことができるので、リアルタイムで物体検出が可能なハードウェアを提供することもできる。 Furthermore, an image processing integrated circuit according to the present invention is characterized in that the image processing apparatus having the above configuration is integrated. Thereby, since the processing of each means in the image processing apparatus can be performed in parallel at high speed, hardware capable of detecting an object in real time can be provided.
また、本発明の画像処理方法は、入力画像中に含まれる複数のオブジェクトを、その入力画像のフレーム毎に入力画像から分割する第1ステップと、分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する第2ステップと、各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する第3ステップと、上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識する第4ステップとを備えていることを特徴としている。 The image processing method of the present invention includes a first step of dividing a plurality of objects included in an input image from the input image for each frame of the input image, and for each divided object, before the object. A second step of calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate in the frame and the position coordinate of the previous frame; for each object, the position coordinate of the object in the previous frame; and the motion vector And a third step of calculating an estimated position, which is a position where each object is estimated to exist in the current frame, the estimated position, a feature amount other than the estimated position for each object in the previous frame, and the current frame Based on features other than the estimated position for each object, the current frame and the previous It is characterized in that it comprises a fourth step recognizes the same object with the frame.
上記構成の画像処理方法においては、第1ステップ、第2ステップ、第3ステップ、および第4ステップのそれぞれにおいて、本発明の画像分割手段、動きベクトル算出手段、推定位置算出手段、およびオブジェクト認識手段と同一の処理が実現されている。したがって、本発明の画像処理方法によれば、本発明の画像処理装置と同様の作用効果を得ることができる。 In the image processing method configured as described above, in each of the first step, the second step, the third step, and the fourth step, the image dividing unit, the motion vector calculating unit, the estimated position calculating unit, and the object recognizing unit of the present invention. The same processing is realized. Therefore, according to the image processing method of the present invention, it is possible to obtain the same effect as the image processing apparatus of the present invention.
なお、コンピュータに上記画像処理方法における各ステップを実行させる画像処理プログラムにより、コンピュータを用いて本発明の画像処理方法と同様の作用効果を得ることができる。さらに、上記画像処理プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記画像処理プログラムを実行させることができる。 In addition, the effect similar to the image processing method of this invention can be obtained using a computer with the image processing program which makes a computer perform each step in the said image processing method. Furthermore, the image processing program can be executed on an arbitrary computer by storing the image processing program in a computer-readable recording medium.
本発明の画像処理装置は、動きベクトル算出手段と、推定位置算出手段と、オブジェクト認識手段とを備えている。すなわち、動きベクトル算出手段によりフレーム間で動きベクトルを算出し、その動きベクトルを用いて推定位置算出手段によりオブジェクトの推定位置を算出することにより、異なるフレーム間でのオブジェクトの移動状態を把握することができる。 The image processing apparatus of the present invention includes motion vector calculation means, estimated position calculation means, and object recognition means. That is, the motion vector is calculated between the frames by the motion vector calculation means, and the estimated position of the object is calculated by the estimated position calculation means using the motion vector, thereby grasping the moving state of the object between the different frames. Can do.
さらに、オブジェクト認識手段においては、推定位置に基づき同一のオブジェクトを認識しているので、異なるフレーム間でのオブジェクトの移動状態を考慮して同一オブジェクトを認識することができる。 Furthermore, since the object recognition means recognizes the same object based on the estimated position, the same object can be recognized in consideration of the movement state of the object between different frames.
したがって、本発明のオブジェクト認識手段は、画像内に複数のオブジェクトが存在していても、異なるフレーム間で同一のオブジェクトを認識することができる。 Therefore, the object recognition means of the present invention can recognize the same object between different frames even if a plurality of objects exist in the image.
さらに、オブジェクト認識手段は、推定位置以外の特徴量も考慮して、異なるフレーム間で同一のオブジェクトを認識する。つまり、フレーム間で動きベクトルが突然変化したとしても、あるオブジェクトに関する動きベクトル以外の特徴量はフレーム間で同一であることが多いので、本発明のオブジェクト認識手段によれば、動きベクトルが変化したとしても異なるフレーム間で同一のオブジェクトを認識することができる。 Furthermore, the object recognition means recognizes the same object between different frames in consideration of feature quantities other than the estimated position. That is, even if the motion vector suddenly changes between frames, the feature quantity other than the motion vector related to a certain object is often the same between the frames. Therefore, according to the object recognition means of the present invention, the motion vector has changed. However, the same object can be recognized between different frames.
このように、本発明の画像処理装置によれば、画像内に複数のオブジェクトが存在する場合においても、異なるフレーム間で同一のオブジェクトを正しく認識することができるという効果が奏される。 Thus, according to the image processing apparatus of the present invention, there is an effect that the same object can be correctly recognized between different frames even when a plurality of objects are present in the image.
特に、画像分割手段により分割されたオブジェクトについて、動きベクトル算出手段により動きベクトルを算出し、その動きベクトルを用いてオブジェクト認識手段によりフレーム間で同一であるオブジェクトの検出を行うので、複数のオブジェクトのフレーム間での対応付けが可能となる。そのため、単純にフレーム間の画像の差分情報から動いている物体を検出する方法と違い、本発明では動物体の認識だけでなく、静止物体の認識もできる。さらに、カメラがパーンしたりするような撮影画像全てが動いている場合にも物体を検出することが可能となる。 In particular, for an object divided by the image dividing means, a motion vector is calculated by the motion vector calculating means, and the object recognition means detects the same object between frames using the motion vector. Correspondence between frames becomes possible. Therefore, unlike the method of simply detecting a moving object from difference information of images between frames, the present invention can recognize not only a moving object but also a stationary object. Furthermore, it is possible to detect an object even when all the captured images that the camera pans are moving.
〔1.画像処理回路の構成〕
本発明の画像処理回路(画像処理装置)1は、図1に示すように、画像分割/特徴量計算部2と、物体検出部3とにより構成されている。さらに、画像分割/特徴量計算部2は、結合重み計算部(画像分割手段)4と、リーダーセル計算部(画像分割手段)5と、画像分割セルネットワーク(画像分割手段)6と、物体情報計算部7とを備えている。また、物体検出部3は、検索情報保存部8と、位置情報計算部(動きベクトル算出手段、推定位置算出手段)9と、最小距離検索連想メモリ(オブジェクト認識手段)10とを備えている。
[1. Configuration of image processing circuit]
As shown in FIG. 1, the image processing circuit (image processing apparatus) 1 according to the present invention includes an image division / feature
画像処理回路1における処理を概説すると、入力画像データが、画像分割/特徴量計算部2の画像分割セルネットワーク6に入力され、画像分割処理が行われる。この画像分割処理において、1つのオブジェクトの画像分割処理が完了すると同時に、対応するオブジェクトの画像の特徴量が計算され、その値は物体検出部3に送られフレーム間でマッチング(詳細は後述する)が取られる。最後にこのマッチング結果と検出オブジェクトの位置情報とから、次フレームの推定位置と動きベクトルが計算されるとともにメモリに記憶される。以下、画像処理回路1を構成するこれらのブロックの機能についての説明を行う。
When the processing in the
〔1−1.画像分割/特徴量計算部2の構成〕
画像分割/特徴量計算部2は、上述のように、結合重み計算部4と、リーダーセル計算部5と、画像分割セルネットワーク6と、物体情報計算部7とを備えている。
[1-1. Configuration of image segmentation / feature amount calculation unit 2]
As described above, the image division / feature
結合重み計算部4は、入力画像データがグレースケール画像の場合には、その輝度値に基づき、また、入力画像がカラー画像の場合には、各Red,Green,Blue成分の輝度値に基づき、画素間の輝度の近さを表す結合重みを計算するものである。また、リーダーセル計算部5は、後述の画像分割処理を行う時にその処理の起点となるリーダーセルを決定するものである。リーダーセルを決定するためには、注目画素と、その周囲に存在するたとえば8つの画素のそれぞれとの間において、結合重み計算部4を用いて結合重みを計算する。そして、その結合重みの和が、予めユーザが指定したしきい値より大きければ、その注目画素をリーダーセルとして決定する。
When the input image data is a grayscale image, the connection
画像分割セルネットワーク6は、初期化フェーズ、自己発火フェーズ、引火フェーズ、および鎮火フェーズからなる画像分割処理を行うものである。これらのフェーズにおける処理内容の詳細については後述する。
The image
より具体的には、画像分割セルネットワーク6は、図2に示すように、水平結合重みレジスタWR(H)と、垂直結合重みレジスタWR(V)と、画像分割セルCi(iは整数)とから構成されている(特許文献3および非特許文献13参照)。
More specifically, as shown in FIG. 2, the image
水平結合重みレジスタWR(H)および垂直結合重みレジスタWR(V)は、画像分割セルCiの間に配置されるとともに、水平・垂直結合重みレジスタが交互になるように配置されている。また、水平結合重みレジスタWR(H)は、斜め方向と水平方向の画素に関する結合重みWijを4つ保持し、垂直結合重みレジスタWR(V)は斜め方向と垂直方向の画素に関する結合重みWijを4つ保持している。なお、図2における各結合重みレジスタの中の矢印は、保存されるセル間の結合重みの位置関係を模式的に表している。 Horizontal coupling weight register WR (H) and vertical coupling weight register WR (V) is disposed between the image segmentation cell C i, are arranged so that the horizontal and vertical coupling weight register alternating. The horizontal connection weight register WR (H) holds four connection weights W ij for the pixels in the diagonal direction and the horizontal direction, and the vertical connection weight register WR (V) stores the connection weight W for the pixels in the diagonal direction and the vertical direction. It holds 4 ij . Note that arrows in each connection weight register in FIG. 2 schematically represent the positional relationship of connection weights between stored cells.
また、画像分割セルCiは、結合重みレジスタWR(H)・WR(V)の出力に基づき、実際に画像分割処理を実行するものである。 The image division cell C i actually executes the image division processing based on the output of the combination weight register WR (H) / WR (V).
さらに、画像分割セルネットワーク6は、図3に示すように、グローバル抑制部11を備えている。このグローバル抑制部11は、隣接する画像分割セルにおけるグローバル抑制子Zi(詳細は後述する)の論理和(OR)をとることにより、画像分割セルの各行毎に新しく発火したセルがあるかどうかを示す信号であるZory信号を出力するものである。画像分割セルネットワーク6内でこのZory信号が立ち上がった範囲には、必ず画像分割されたオブジェクトが1つ存在する。
Furthermore, the image division |
なお、図4(a)に示すように、画像分割セルの各列毎に新しく発火したセルがあるかどうかを示す信号であるZorx信号を出力することにより、画像分割されたオブジェクトが存在するx座標とy座標の範囲を計算するようにしてもよい。また、図4(b)に、i行目におけるグローバル抑制部11の詳細な構成を示す。
As shown in FIG. 4A, by outputting a Zorx signal that is a signal indicating whether or not there is a newly fired cell for each column of the image division cells, there exists an object in which the image division exists. A range of coordinates and y coordinates may be calculated. FIG. 4B shows a detailed configuration of the
また、物体情報計算部7は、図5に示すように、min-max計算部7aと、面積/min-max計算部7bと、物体情報保存部7cと、特徴量計算部7dとにより構成されており、画像分割セルネットワーク6により分割されたオブジェクトの特徴量などの情報を計算する。また、図5に示すように、画像分割/特徴量計算部2には、画像分割/特徴量計算部2内の各ブロックにおける処理を統括的に制御する制御回路12が設けられている。
As shown in FIG. 5, the object
min-max計算部7aは、グローバル抑制部11により出力されるグローバル抑制信号Zoryを用いて、画像分割されたオブジェクトの縦方向(y座標方向)の大きさを計算する回路である。なお、分割されたオブジェクトの大きさを計算するためには、図4(a)に示すように改良されたグローバル抑制部11により出力されるZorx信号を用いてもよい。
The min-
また、min-max計算部7aは、図6に示すように、レジスタ7e…と、min-max検出部7fと、デコーダ7g…とを備えている。
As shown in FIG. 6, the min-
レジスタ7eは、Zorx信号として1が出力された列の番号を記憶するものである。また、min-max検出部7fは、図7に示すように、レジスタ7eに記憶された列の番号のうち、最小のものと最大のものとを1とし、それ以外の部分を0として出力するものである。さらに、デコーダ7gは、図8に示すように、min-max検出部7fにより出力された「1」の情報を、列の番号の情報に変換するものであり、これによりオブジェクトの横方向(x座標方向)の大きさを計算することができる。
The
上記の処理により、min-max計算部7aは、図9のように検出されたオブジェクトiの4つの座標xi,min, xi,max, yi,min, yi,maxのうち、xi,min とxi,max とを求める。また、xi,minとxi,max の情報を用いることで、以降の面積計算処理の計算範囲を絞りこむことができる。なお、min-max計算部7aの詳細な構成を図10に示す。
Through the above processing, the min-
面積/min-max計算部7bは、min-max計算部7aで計算されたxi,min,xi,maxの範囲で、検出されたオブジェクトの面積および残りの座標情報の計算を行う。これらの計算は、画像分割結果の1つのオブジェクトの分割結果の出力と並行して行われる。
The area / min-
具体的に説明すると、面積/min-max計算部7bは、図11に示すように、レジスタ7h…と、カウンタ7i…と、加算器7jとを備えている。まず、図11に示す制御回路12は、画像分割セルネットワーク6において、xi,maxの位置から1列ずつ分割領域であるかをチェックし、1つのオブジェクトの分割領域であれば1を、そうでなければ0をレジスタ7hに記憶する。このとき、制御回路12は、レジスタ7hからの信号をカウンタ7iに出力する。このような1つのオブジェクトの分割領域のチェック処理、および「0」または「1」の出力処理を、xi,minの場所まで繰り返す。
Specifically, as shown in FIG. 11, the area / min-
これにより、(xi,min, xi,max)間において「0」または「1」の出力処理が終了したとき、カウンタ7iには、画像分割セルネットワーク6における行ごとの1つのオブジェクトの画素数が入力されるので、全てのカウンタ7i…の値を加算器7jを用いて足すことにより、現在分割されている1つのオブジェクトの面積を画素数ajとして計算することができる。
As a result, when the output process of “0” or “1” is completed between (x i, min , x i, max ), the
さらに、面積/min-max計算部7bは、オブジェクトの面積と同時に、yi,min, yi,maxの値も求める。具体的に説明すると、yi,min, yi,maxは、面積の計算のためにレジスタ7hに記憶した値が1以上の行を検出し、その中で最も上にあるy座標をyi,max 、最も下にあるy座標をyi,minとすることにより、yi,min, yi,max の値を求める。なお、面積/min-max計算部7bの詳細な構成を図12に示す。
Further, the area / min-
物体情報保存部7cは、図13に示すように、レジスタ7k…で構成されており、各レジスタ7kには、上述のように計算されたオブジェクトの画素数ai と、xi,min,xi,max, yi,min, yi,maxの4つの座標が保存されている。
As shown in FIG. 13, the object
特徴量計算部7dは、物体情報保存部7cに保存された座標データの中から、そのオブジェクトのサイズ(幅wi(t),高さhi(t)),位置(xi(t),yi(t))および、色情報ci(t)を計算するものである。サイズおよび位置情報の計算方法の詳細は後述するが、計算結果を除算器により0〜1の範囲に正規化するのは、ハードウェアのコストが大きくなる場合がある。
The feature
そこで、ビット数を削減する方法をシミュレーションした結果、大きさが16×16画素の領域を基準として入力画像をブロックで分割することで、それぞれ情報のビット数の削減が可能であることがわかった。たとえば、図14に示すように、入力画像が240×320画素の大きさであれば、縦方向は15ブロック、横方向は20ブロックに分割される。このようにビット数を削減する方法を用いることにより、各情報のビット数は表1のように削減することができる。 Therefore, as a result of simulating the method of reducing the number of bits, it was found that the number of bits of information can be reduced by dividing the input image into blocks based on an area of 16 × 16 pixels in size. . For example, as shown in FIG. 14, if the input image has a size of 240 × 320 pixels, the vertical direction is divided into 15 blocks and the horizontal direction is divided into 20 blocks. By using the method of reducing the number of bits in this way, the number of bits of each information can be reduced as shown in Table 1.
なお、検出されたオブジェクトの色情報は、同一物体との比較でも0〜8の範囲でずれていることもあるので、この範囲に対応するビット数を削減する。 Note that the color information of the detected object may be shifted in the range of 0 to 8 even when compared with the same object, so the number of bits corresponding to this range is reduced.
また、特徴量計算部7dは、図15に示すように、座標およびサイズを計算する減算器7l…および加算器7m…と、ビット数を削減するシフタ7n…とにより構成されている。また、色情報は、これまでに得られた座標情報を、特徴量計算部7d内の入力メモリ7oに転送することで4点の色情報を受け取り、それらを平均することで得られる。なお、特徴量計算部7dで計算された値は、物体情報保存部7cに記憶される。
Further, as shown in FIG. 15, the feature
このように、画像分割/特徴量計算部2は、画像分割セルネットワーク6と、min-max計算部7aと、面積/min-max計算部7bと、物体情報保存部7cと、特徴量計算部7dとにより構成されている。画像分割/特徴量計算部2に係る詳細な構成を、図16に示す。
As described above, the image division / feature
〔1−2.物体検出部3の構成〕
物体検出部3は、図17に示すように、検索情報保存部8と、動きベクトル計算部(動きベクトル算出手段)9aと、推定位置計算部(推定位置算出手段)9bと、最小距離検索連想メモリ(非特許文献9および非特許文献12参照)10とを備えている。なお、図1に示した位置情報計算部9は、動きベクトル計算部9aと、推定位置計算部9bとにより構成される。
[1-2. Configuration of Object Detection Unit 3]
As shown in FIG. 17, the
物体検出部3における処理を概説すると、画像分割/特徴量計算部2で計算されたある時刻tにおける画像の特徴量、すなわち画像の面積,サイズ,位置、および色情報が、検索情報保存部8に記憶された後、最小距離検索連想メモリ10に渡される。
When the processing in the
そして、最小距離検索連想メモリ10でマッチングを取った後に、マッチングしたオブジェクトの情報と、検索情報保存部8の位置情報とが動きベクトル計算部9aに送られ、動きベクトル計算部9aにおいてフレーム間におけるオブジェクトの移動量が計算される。
Then, after matching is performed in the minimum distance search
このように計算されたオブジェクトの移動量と、オブジェクトの現在位置から、フレームt+1の時の推定位置が推定位置計算部9bで計算される。以下、物体検出部3を構成する各ブロックの機能についての説明を行う。
From the calculated movement amount of the object and the current position of the object, the estimated position at the time of frame t + 1 is calculated by the estimated
検索情報保存部8は、現フレームで分割されたオブジェクトの特徴量として、画素数、サイズ、位置および色情報を保存し、マッチング用のデータとして最小距離検索連想メモリ10にこれらの特徴量を出力するものである。検索情報保存部8の回路構成を図18に示す。
The search
最小距離検索連想メモリ10は、保持している前フレームt−1のオブジェクトの特徴量と、検索情報保存部8に記憶している現フレームtのオブジェクトの物体情報とのマッチングを取り、前フレームと現フレームとの間において最も近いオブジェクトを検索するものである。
The minimum distance search
図19に、最小距離検索連想メモリ10の構成を示す。図19に示すように、最小距離検索連想メモリ10は、メモリ領域10aと、ウィンナ・ルーザ距離増幅を行うウィンナ・ラインアップ増幅器(以下、WLA)10bと、ウィンナ・テイクオール回路(以下、WTA)10cとで構成される。
FIG. 19 shows the configuration of the minimum distance search
さらに、メモリ領域10aは、集積化されたユニット比較器UCi,j(i=1〜R,j=1〜W、添え字i,jの範囲は以下同様)を備えるR行、W列の蓄積セルSCi,jと、ワード比較に重み付けを行ったワード比較器WCiとから構成される。
Further, the
また、メモリ領域10aの左辺には、R行のロウデコーダ10dが接続され、上辺には入力データ(K×Wビット)を入力するワード検索部10eが配置される。また、下辺にはK×Wカラムのカラムデコーダ10fが接続され、蓄積セルごとに読み出し・書き込みが行われる。なお、K×Wビットの参照ワードは、予め各蓄積セルSCi,jに書き込まれ、ワード検索部10eに入力されるK×Wビットの入力ワードに最も類似する最小距離参照ワードがウィンナとして読み出される。また、最小距離検索連想メモリ10の詳細については、特許文献4を参照されたい。
Further, a
また、最小距離検索連想メモリ10に記憶されている情報は、表2のようになっており、このうち実際に検索に使用される情報は画素数、サイズ、位置情報、色情報である。使用されない情報である動きベクトルは、後述する動きベクトル計算部9aの計算結果として計算される。
The information stored in the minimum distance search
動きベクトル計算部9aは、図20に示すように、減算器を備えるものであり、検索情報保存部8の位置情報(xn(t−1),yn(t−1))と、最小距離検索連想メモリ10とによりマッチングが取られたオブジェクトの位置情報(xn(t),yn(t))とから、動きベクトル(mvx(t),mvy(t))を求めるものである。
As shown in FIG. 20, the motion
具体的には、動きベクトル計算部9aは、以下の式に基づき、動きベクトルを求める。
Specifically, the motion
mvx(t)=xn(t)−xn(t−1)
mvy(t)=yn(t)−yn(t−1)
なお、動きベクトル計算部9aの計算結果は、マッチングが取られた最小距離検索連想メモリ10の情報に上書きされる。
mv x (t) = x n (t) −x n (t−1)
mv y (t) = y n (t) −y n (t−1)
The calculation result of the motion
推定位置計算部9bは、図21に示すように、加算器を備えるものであり、以下の式に示すように、動きベクトル計算部9aにより計算された動きベクトル(mvx(t),mvy(t))と、現フレームの位置情報(xn(t),yn(t))を足すことで、次フレームでの推定位置(xn(t+1),yn(t+1))を計算するものである。
As shown in FIG. 21, the estimated
xn(t+1)=xn(t)+mvx(t)
yn(t+1)=yn(t)+mvy(t)
このように、物体検出部3は、検索情報保存部8と、動きベクトル計算部9aと、推定位置計算部9bと、最小距離検索連想メモリ10とにより構成されている。物体検出部3に係る詳細な構成を、図22に示す。
x n (t + 1) = x n (t) + mv x (t)
y n (t + 1) = y n (t) + mv y (t)
Thus, the
〔2.画像処理アルゴリズム〕
次に、上記構成の画像処理回路1による画像処理アルゴリズム(画像処理方法)について説明する。本実施形態の画像処理アルゴリズムは、図23に示すように、(1)画像分割,(2)特徴抽出,(3)連想マッチング,(4)動き検出の4つのブロックから成っている。
[2. Image processing algorithm)
Next, an image processing algorithm (image processing method) by the
先ず、画像処理アルゴリズムの流れについて概説する。画像処理アルゴリズムが開始されると(ステップ0、以下ステップを単に「S」と記載する)、制御回路12(図5参照)により入力フレームデータが存在するか否かのチェックが行われる(S1)。
First, the flow of the image processing algorithm will be outlined. When the image processing algorithm is started (
このとき、入力フレームデータが存在しない場合は、画像処理アルゴリズムは終了する。一方、入力フレームデータが存在する場合は、そのフレームに対して画像分割処理が行われる。ここで、ある1領域(1オブジェクト)が画像分割されると、その結果から後述の特徴抽出処理が実行される。以下に、入力フレームデータが存在するか否かを確認するアルゴリズムの記述例を示す。 At this time, if there is no input frame data, the image processing algorithm ends. On the other hand, when input frame data exists, image division processing is performed on the frame. Here, when one region (one object) is image-divided, a feature extraction process described later is executed from the result. A description example of an algorithm for confirming whether or not input frame data exists will be shown below.
特徴抽出処理が実行された後、分割された1つのオブジェクトの情報に基づき連想マッチング処理が実行される。そして、連想マッチング処理と同時に、入力画像に対して次の領域の分割処理が始まる。なお、新しく分割される領域がないときは、S1の入力フレームデータのチェック処理に戻る。 After the feature extraction process is executed, an associative matching process is executed based on the information of one divided object. At the same time as the associative matching process, the next area division process starts for the input image. If there is no newly divided area, the process returns to the input frame data check process in S1.
また、連想マッチング処理は、特徴抽出処理の結果に基づき、フレーム間でオブジェクトごとに特徴量の距離指標(たとえばマンハッタン距離、ユークリッド距離。詳細は後述する)を計算し、最も距離指標が小さいオブジェクトを同一のオブジェクトして認識する。その後、元のオブジェクトおよび検索されたオブジェクトの位置情報から、移動量を計算するとともに、動きベクトルを求めた後、画像分割処理に戻る。また、連想マッチング処理の際に一致するオブジェクトが存在しない場合は、分割されたオブジェクトを新しいオブジェクトとして認識し、画像分割処理に戻る。以下、画像処理アルゴリズムにおける各処理の詳細について、具体的に説明を行う。 In the associative matching process, a distance index of a feature amount (for example, Manhattan distance, Euclidean distance; details will be described later) is calculated for each object between frames based on the result of the feature extraction process, and an object having the smallest distance index is calculated. Recognize as the same object. Thereafter, the movement amount is calculated from the position information of the original object and the searched object, and the motion vector is obtained, and then the process returns to the image division process. If there is no matching object in the associative matching process, the divided object is recognized as a new object, and the process returns to the image dividing process. The details of each process in the image processing algorithm will be specifically described below.
〔2−1.画像分割処理のアルゴリズム〕
本実施形態では、セルネットワークに基づく画像分割アルゴリズム(特許文献3参照)をオブジェクトの抽出に用いる。この画像分割アルゴリズムの特徴として、比較的に簡単な処理で画像分割が実現できること、またその処理サイクル数も少なく高速であること、並列処理が可能であることなどを挙げることができる。さらに、この画像分割アルゴリズムは、初期化フェーズ、自己発火フェーズ、引火フェーズ、および鎮火フェーズの4つの段階に分けられる。以下、各フェーズにおける処理の詳細を説明する。
[2-1. (Image segmentation algorithm)
In this embodiment, an image segmentation algorithm based on a cell network (see Patent Document 3) is used for object extraction. Features of this image segmentation algorithm include that image segmentation can be realized with relatively simple processing, that the number of processing cycles is small and high speed, and that parallel processing is possible. Furthermore, this image segmentation algorithm is divided into four stages: an initialization phase, a self-ignition phase, a flash phase, and a fire suppression phase. Details of the processing in each phase will be described below.
先ず、初期化フェーズ(S2)においては、発火中のセルが存在するかどうかを決定するための変数z(グローバル抑制子)を0に設定する。z=1の場合、発火中のセルが存在すること、すなわち1つの領域の画像分割処理が続いていることを表し、z=0の場合には、発火中のセルが存在しない、すなわち1つの領域の画像分割処理が終わったことを表す。 First, in the initialization phase (S2), a variable z (global suppressor) for determining whether or not there is a cell being ignited is set to zero. When z = 1, this means that there is a cell that is firing, that is, the image segmentation process of one region is continuing, and when z = 0, there is no cell that is firing, that is, one This represents the end of the image segmentation process for the area.
また、各セルiには、状態変化の有無を表す変数ziを用意するとともに、非発火状態から発火状態へ遷移した場合にのみzi=1とし、それ以外はzi=0とする。この変数ziをもとに、フレームtにおけるグローバル抑制子z(t)の値を全てのziの論理和として、z(t)=∪∀izi(t)と定義する。ここで、∪は論理和(OR)演算子を表す。 Each cell i is provided with a variable z i indicating whether or not there is a state change, and z i = 1 only when transitioning from the non-ignition state to the ignition state, and z i = 0 otherwise. Based on this variable z i , the value of the global suppressor z (t) in the frame t is defined as z (t) = ∪ ∀ i z i (t) as the logical sum of all z i . Here, ∪ represents a logical sum (OR) operator.
また、初期化フェーズにおいては、入力画像データとしてグレースケールの画像データが結合重み計算部4(図5等参照)に入力される。グレースケールの画像データとは、画像の輝度値であり、その値は0〜255の範囲に入っている。そして、S2の初期化フェーズにおいては、この画像データの輝度値に基づき、結合重み計算部4により、画素間の輝度の近さを表す結合重みWikが計算される。この結合重みWikは下式で表される。
In the initialization phase, grayscale image data is input to the connection weight calculation unit 4 (see FIG. 5 and the like) as input image data. Grayscale image data is the luminance value of an image, and the value is in the range of 0-255. Then, in the initialization phase of S2, based on the luminance value of the image data, the coupling
Wik=Imax/(1+│Ii−Ik│),k∈N(i)
なお、Ii,Ikは画素i,kの輝度値であり、Imaxは画素の輝度値の最大値であり、輝度値を8bitで表現した場合はImax=255となる。
W ik = I max / (1+ | I i −I k |), k∈N (i)
Note that I i and I k are the luminance values of the pixels i and k, I max is the maximum luminance value of the pixels, and when the luminance value is expressed in 8 bits, I max = 255.
さらに、S2における初期化フェーズでは、リーダーセル計算部5(図5等参照)により、リーダーセルが存在するか否かが判断される(S3)。すなわち、リーダーセル計算部5は、注目画素の近傍の結合重みWikの和Σk∈N(i)Wikを計算するとともに、その値がしきい値φpより大きければリーダーセルが存在すると判断する。
Further, in the initialization phase in S2, the leader cell calculation unit 5 (see FIG. 5 and the like) determines whether or not a leader cell exists (S3). That is, the leader
さらに、Σk∈N(i)Wikがφpより大きい場合には、自己発火の可否を表す変数piを1に設定し、リーダーセルを自己発火可能なセルとして決定する。Σk∈N(i)Wikがφpに等しい、またはそれより小さい場合(Σk∈N(i)Wik≦φp)には、pi=0(自己発火不可能)に初期化する。 Further, Σ k∈N (i) W ik is the larger than phi p, and sets the variable p i indicating whether the self-ignition in 1, to determine the leader cell as the self-excitable cell. If Σ k ∈ N (i) W ik is equal to or smaller than φ p (Σ k ∈ N (i) W ik ≤ φ p ), it is initialized to p i = 0 (self-ignition is impossible) To do.
また、S2における初期化フェーズでは、全てのセルについて、そのセルが発火しているかどうかを示す変数xi(t)を0に設定する。なお、この変数xi(t)は、セルが発火状態にある場合には1に設定される。 In the initialization phase in S2, for all the cells, a variable x i (t) indicating whether or not the cells are firing is set to zero. Note that this variable x i (t) is set to 1 when the cell is in an ignition state.
S3においてリーダーセルが存在すると判断された場合、画像処理アルゴリズムは、実際に画像分割処理を行う自己発火フェーズ(S4)に移行する。自己発火フェーズにおいては、初期化フェーズで決定したリーダーセルのうちの一つが発火状態とされる。 When it is determined in S3 that a leader cell exists, the image processing algorithm proceeds to a self-ignition phase (S4) in which image division processing is actually performed. In the self-ignition phase, one of the leader cells determined in the initialization phase is set in an ignition state.
さらに、S4における自己発火フェーズでは、制御回路12により、発火可能なセルが存在するか否かが判断される(S5)。
Further, in the self-ignition phase in S4, the
すなわち、制御回路12は、非発火状態のセルに隣接する8つのセルの中で発火状態になっているセルと、その非発火状態のセルとの間において結合重みの和Si(t)=Σk∈N(i)(Wik×xk(t))を算出し、その結合重みの和を所定のしきい値φZと比較する。そして、結合重みの和が所定のしきい値より大きければ、その非発火状態のセルを、新たに発火可能なセルとして判断し、引火する(S6)。
In other words, the
一方、結合重みの和が所定のしきい値より小さければ、発火可能なセルがないと判断し、S7の鎮火処理を行う。このS5〜S7における処理を、非発火のリーダーセルがなくなるまで行い、リーダーセルがなくなれば画像分割処理を終了させる。 On the other hand, if the sum of the coupling weights is smaller than the predetermined threshold value, it is determined that there is no cell that can be ignited, and the fire extinguishing process of S7 is performed. The processes in S5 to S7 are performed until there are no non-ignited leader cells. When there are no more leader cells, the image division process is terminated.
図24(a)および図24(b)に、上記の画像分割処理によりグレースケール画像を画像分割した結果を示す。また、図24(c)および図24(d)にカラー画像に対して上記画像分割処理により画像分割を行った結果を示す。図24(c)および図24(d)に示すように、上記の画像処理アルゴリズムによれば、カラー画像に対しても、精度良く分割することができる。 FIG. 24A and FIG. 24B show the result of image division of a grayscale image by the above image division processing. FIGS. 24C and 24D show the result of image division performed on the color image by the image division process. As shown in FIGS. 24C and 24D, according to the image processing algorithm described above, a color image can be divided with high accuracy.
また、上記の画像分割アルゴリズムを用いて画像分割処理を行った場合における、画素数と処理時間との関係を図25に示す。なお、図25のシミュレーションでは、複数のサンプル画像を入力データとして与え、画素数の平方根(画像の一辺の長さを表す)と画像分割に要する処理時間の最長時間と最短時間を計測した。また、計算式により最悪ケースの処理時間を見積もるために、自然画像では非常に希なケースであるが画像分割領域が多くなる理論上の最悪の場合のケースとして、白黒の格子状の規則正しい画像を想定した場合の予想される画像分割処理時間もグラフに示している。 FIG. 25 shows the relationship between the number of pixels and the processing time when image division processing is performed using the above-described image division algorithm. In the simulation of FIG. 25, a plurality of sample images were given as input data, and the square root of the number of pixels (representing the length of one side of the image) and the longest and shortest processing times required for image division were measured. In addition, in order to estimate the worst case processing time using a calculation formula, a regular image in a black and white grid pattern is used as a theoretical worst case in which the number of image segmentation areas is increased, which is very rare for natural images. The expected image division processing time when assumed is also shown in the graph.
以下に、画像分割処理のアルゴリズムの記述例を示す。 A description example of the algorithm for image division processing is shown below.
〔2−2.特徴抽出処理のアルゴリズム〕
上述の画像分割処理が終了した後、画像処理アルゴリズムは、特徴抽出処理に移行する。特徴抽出処理においては、先ず、画像分割処理により分割されたオブジェクトの特徴量として、min-max計算部7a(図5参照)により、時刻tにおいて分割されたオブジェクトiの左端の座標xi,min(t)、および右端の座標xi,max(t)が求められる(S8)。なお、オブジェクトiと座標xi,min(t)および座標xi,max(t)との関係を、図9に示す。
[2-2. (Feature extraction processing algorithm)
After the above-described image division processing is completed, the image processing algorithm shifts to feature extraction processing. In the feature extraction processing, first, as the feature amount of the object divided by the image division processing, the min-
S8の後、面積/min-max計算部7b(図5参照)により、オブジェクトiの特徴量として、面積ai(t)(画素数),座標yi,min,およびyi,maxの値が求められる(S9)。なお、図9に示すように、座標yi,minは、オブジェクトiにおける下端の座標であり、座標yi,maxは、オブジェクトiにおける上端の座標である。
After S8, the area / min-
さらに、S9の後、特徴量計算部7d(図5参照)により、オブジェクトiのサイズ(幅:wi(t),高さ:hi(t)),位置情報(xi(t),yi(t)),色情報ci(t)が求められる(S10)。
Further, after S9, the
上述のオブジェクトの特徴のうち、面積ai(t)は画像分割結果の出力時に画素数をカウントすることで求める。サイズおよび位置情報は、各オブジェクトの現フレームtでのx,y座標それぞれの最大および最小値を求め、その値を用いて計算する。 Of the above-described object characteristics, the area a i (t) is obtained by counting the number of pixels when outputting the image division result. The size and position information are calculated using the maximum and minimum values of the x and y coordinates of each object in the current frame t.
すなわち、分割されたオブジェクトi の左下の座標を(xi,min(t), yi,min(t )),右上の座標を(xi,max(t),yi,max(t))とすると、サイズ(wi(t ),hi(t))および位置座標(xi(t),yi(t))は、以下の式に基づき算出される。 That is, the lower left coordinates of the divided object i are (x i, min (t), y i, min (t)), and the upper right coordinates are (x i, max (t), y i, max (t) ), The size (w i (t), h i (t)) and the position coordinates (x i (t), y i (t)) are calculated based on the following equations.
wi(t)=xi,max(t)−xi,min(t)
hi(t)=yi,max(t)−yi,min(t)
xi(t)={xi,max(t)+xi,min(t)}/2
yi(t)={yi,max(t)+yi,min(t)}/2
また,色情報は、xi,max(t),xi,min(t),yi,max(t),yi,min(t)における各座標の色情報(R, G, B)を入力メモリから取り込んでおくことにより求められる。
w i (t) = x i, max (t) −x i, min (t)
h i (t) = y i, max (t) −y i, min (t)
x i (t) = {x i, max (t) + x i, min (t)} / 2
y i (t) = {y i, max (t) + y i, min (t)} / 2
The color information is the color information (R, G, B) of each coordinate in x i, max (t), x i, min (t), y i, max (t), y i, min (t). Is obtained from the input memory.
S8〜S10を踏むことにより求められた特徴量を用いて、後述の連想マッチング処理が行われる。 The associative matching process described later is performed using the feature amount obtained by stepping on S8 to S10.
以下に、特徴抽出処理のアルゴリズムの記述例を示す。 A description example of the algorithm for feature extraction processing is shown below.
〔2−3.連想マッチング処理のアルゴリズム〕
連想マッチング処理は、特徴抽出処理で計算された情報を検索情報保存部8(図17参照)から最小距離検索連想メモリ10(図17参照)に書き込み(S11)、最小距離検索連想メモリ10においてオブジェクトの距離指標を計算するとともに、その距離指標が最小のオブジェクトを検出する(S12)処理である。
[2-3. (Associative matching algorithm)
The associative matching process writes the information calculated in the feature extraction process from the search information storage unit 8 (see FIG. 17) to the minimum distance search associative memory 10 (see FIG. 17) (S11). The distance index is calculated and an object having the smallest distance index is detected (S12).
ここで、オブジェクトiと、オブジェクトjとの間における時刻tの距離指標Dij(t)は、オブジェクトi,jの画素数、サイズ、位置、および色情報の差分の絶対値であるIaij(t)、Isij(t)、Ipij(t)、Icij(t)によって表される。 Here, the distance index D ij (t) at time t between the object i and the object j is the absolute value of the difference between the number of pixels, the size, the position, and the color information of the object i, j, Ia ij ( t), Is ij (t), Ip ij (t), and Ic ij (t).
つまり、距離指標としてマンハッタン距離を用いるならば、Dij(t)は下式で表される。 That is, if the Manhattan distance is used as a distance index, D ij (t) is expressed by the following equation.
Dij(t)=αIaij+βIsij+γIpij+εIcij
なお、α,β,γ,εはそれぞれ情報に対する重みを表している。
D ij (t) = αIa ij + βIs ij + γIp ij + εIc ij
Note that α, β, γ, and ε represent weights for information.
一方、距離指標としてユークリッド距離を用いるならばDij(t)は下式で表される。 On the other hand, if Euclidean distance is used as a distance index, D ij (t) is expressed by the following equation.
Dij=√k
k=αIaij 2+βIsij 2+γIpij 2+εIcij 2
また、ここでは現フレームtの位置情報(xi(t),yi(t))として、図26に示すように、前のフレームt−1の位置座標(xi(t−1),yi(t−1))にそのときの動きベクトル(mvxi(t−1),mvyi(t−1))の値を加えた推定位置(xi(t)',yi(t)')を用いるが、1フレーム目(=0)に関しては動きベクトルが計算できないので、1フレーム目の位置情報を2フレーム目の位置情報としてそのまま用いる。
D ij = √k
k = αIa ij 2 + βIs ij 2 + γIp ij 2 + εIc ij 2
Further, here, as position information (x i (t), y i (t)) of the current frame t, as shown in FIG. 26, position coordinates (x i (t−1), y i (t-1)) to the motion vector of that time (mvx i (t-1) , value estimated position plus the mvy i (t-1)) (x i (t) ', y i (t ) ′), But since the motion vector cannot be calculated for the first frame (= 0), the position information of the first frame is used as it is as the position information of the second frame.
なお、(xi(t)',yi(t)')を求めるための式を以下に示す。 An expression for obtaining (x i (t) ′, y i (t) ′) is shown below.
xi(t)'=xi(t−1)+mvxi(t−1)
yi(t)'=yi(t−1)+mvyi(t−1)
これらの結果から距離指標を計算するが、サイズおよび位置情報に関しては、wi(t),hi(t),xi,yiというようにそれぞれ2つのパラメータがあるのに対し、画素数および色情報は1つのパラメータしかない。そこで、画素数および色情報を2倍することによって重みの調節を行う。
x i (t) '= x i (t−1) + mvx i (t−1)
y i (t) '= y i (t−1) + mvy i (t−1)
The distance index is calculated from these results. For size and position information, there are two parameters such as w i (t), h i (t), x i , and y i , respectively. And the color information has only one parameter. Therefore, the weight is adjusted by doubling the number of pixels and the color information.
つまり、画素数の差の絶対値をIaij(t)、幅,高さのそれぞれに関するサイズ情報の差の絶対値をIwij(t),Ihij(t),x座標およびy座標のそれぞれに関する位置情報の差の絶対値をIxij(t),Iyij(t),色情報の差の絶対値をIcij(t)とすると、距離指標Dijは下式で表される。 In other words, the absolute value of the difference in the number of pixels is Ia ij (t), the absolute value of the difference in size information about width and height is Iw ij (t), Ih ij (t), x coordinate and y coordinate, respectively. The distance index D ij is expressed by the following equation, where Ix ij (t) and Iy ij (t) are the absolute values of the positional information differences and Ic ij (t) are the absolute values of the color information differences.
Dij=2Iaij(t)+(Iwij(t)+Ihij(t))+(Ixij(t)+Iyij(t))+2Icij(t)
また、色情報の差の絶対値Icijは、下式で表される。
Dij = 2Ia ij (t) + (Iw ij (t) + Ih ij (t)) + (Ix ij (t) + Iy ij (t)) + 2 Ic ij (t)
The absolute value Ic ij of the color information difference is expressed by the following equation.
Icij=max(│Cri-Crj│,│Cgi-Cgj│,│Cbi-Cbj│)
なお、Cr,Cg,Cbのそれぞれは、赤,緑,青の色情報であり、添え字で付されたiまたはjの文字が、オブジェクトiまたはオブジェクトjのいずれの色情報であるのかを示している。
Ic ij = max (│Cr i -Cr j │, │Cg i -Cg j │, │Cb i -Cb j │)
Each of Cr, Cg, and Cb is red, green, and blue color information, and indicates whether the letter i or j attached to the subscript is the color information of object i or object j. ing.
しかし、各情報の最大値は、表3(QVGAサイズの場合)のようになり、計算結果をそのまま使うと、画素数の値がマンハッタン距離に与える影響が大きくなりすぎるため、各情報を0〜1の範囲に正規化することで全体のバランスを取る。 However, the maximum value of each information is as shown in Table 3 (in the case of QVGA size). If the calculation result is used as it is, the influence of the value of the number of pixels on the Manhattan distance becomes too large. Balance the whole by normalizing to a range of 1.
たとえば、計算された値をそれぞれの値の最大値で割ることによって正規化を行うことが可能である。すなわち、オブジェクトi,j間の距離指標として正規化されたマンハッタン距離は下式で表される。そして、最小距離検索連想メモリ10は、正規化されたマンハッタン距離をフレームのオブジェクトごとに計算して(S12)、最もマンハッタン距離が小さいものを同じオブジェクトとして認識する。
For example, normalization can be performed by dividing the calculated value by the maximum value of each value. That is, the Manhattan distance normalized as a distance index between the objects i and j is expressed by the following equation. Then, the minimum distance search
Dij=2×Iaij/217+(Iwij/29+Ihij/28)+(Ixij/29+Iyij/28)+2×Icij/28
なお、このように計算結果を除算することにより正規化すると、上述のようにハードウェアのコストが大きくなる場合があるので、表1のように、所定の大きさの領域を基準として入力画像を分割することにより、各情報のビット数を削減してもよい。
D ij = 2 × Ia ij / 2 17 + (Iw ij / 2 9 + Ih ij / 2 8 ) + (Ix ij / 2 9 + Iy ij / 2 8 ) + 2 × Ic ij / 2 8
If normalization is performed by dividing the calculation result in this way, the hardware cost may increase as described above. Therefore, as shown in Table 1, the input image is determined based on a region having a predetermined size. The number of bits of each information may be reduced by dividing.
また、最小の距離指標の値が所定値以上である場合、最小距離検索連想メモリ10は、そのオブジェクトを画像内に新たに登場したオブジェクトとして認識する(S13)。
If the minimum distance index value is equal to or greater than the predetermined value, the minimum distance search
以下に、連想マッチング処理のアルゴリズムの記述例を示す。 A description example of the associative matching processing algorithm is shown below.
〔2−4.動き検出処理のアルゴリズム〕
動き検出処理においては、先ず、動きベクトル計算部9a(図17参照)により、動きベクトルの計算が行われる(S14)。すなわち、検索するオブジェクトのフレームtにおける位置情報を(xn(t),yn(t))、検出されたオブジェクトのフレームt−1における位置情報を(xn(t−1),yn(t−1))とすると、フレームtにおける動きベクトル(mvx(t), mvy(t))は、下式で表される。
[2-4. (Motion detection processing algorithm)
In the motion detection process, first, a motion vector is calculated by the motion
mvx(t)=xn(t)−xn(t−1)
mvy(t)=yn(t)−yn(t−1)
次のこの動きベクトルを用いて、物体検出に用いられる次フレームt+1での推定位置(xn(t−1),yn(t−1))が、推定位置計算部9b(図17参照)により計算される。次フレームt+1での推定位置(xn(t+1),yn(t+1))は、下式で表される。
mv x (t) = x n (t) −x n (t−1)
mv y (t) = y n (t) −y n (t−1)
Using the next motion vector, the estimated position (x n (t−1), y n (t−1)) in the next frame t + 1 used for object detection is converted into an estimated
xn(t+1)=xn(t)+mvx(t)
yn(t+1)=yn(t)+mvy(t)
そして、このように計算された推定位置(xn(t+1),yn(t+1))を、推定位置計算部9bから最小距離検索連想メモリ10に書き込む(S16)ことにより、動き検出処理が終了する。
x n (t + 1) = x n (t) + mv x (t)
y n (t + 1) = y n (t) + mv y (t)
Then, the estimated position (x n (t + 1), y n (t + 1)) calculated in this way is written in the minimum distance search
以下に、動き検出処理のアルゴリズムの記述例を記載する。 A description example of the algorithm of motion detection processing is described below.
〔3.画像処理アルゴリズムのシミュレーションとその結果〕
本発明者らは、上記構成の画像処理回路1を用いて、実際の画像に対して本発明の画像処理アルゴリズムをシミュレーションしたので、その結果を以下に説明する。なお、このシミュレーションは、全ての情報量について表1の値に正規化された値を用いるとともに、Mathworks社のMATLABを用いて行われた。
[3. Simulation of image processing algorithm and results]
The inventors of the present invention simulated the image processing algorithm of the present invention on an actual image using the
〔3−1.連続した静止画像に対する動き検出処理〕
最初に、3個のオブジェクトが左から右に移動する画像(図27参照)に対して、本発明の画像処理アルゴリズムによる動き検出を行った。なお、実際に入力画像にMorphology処理(非特許文献14参照)を行った画像を図28(a)〜図28(c)、図28(a)に示された1フレーム目の画像を画像分割した結果を図29(a)〜図29(c)に示す。
[3-1. Motion detection processing for continuous still images)
First, motion detection by the image processing algorithm of the present invention was performed on an image in which three objects move from left to right (see FIG. 27). It should be noted that the image obtained by performing Morphology processing (see Non-Patent Document 14) on the input image is divided into the first frame image shown in FIGS. 28 (a) to 28 (c) and 28 (a). The results are shown in FIGS. 29 (a) to 29 (c).
また、これらの画像から計算した特徴量の例として、3フレーム目のオブジェクト3に、および2フレーム目のオブジェクトに係る特徴量を計算した結果を表4に示す。
In addition, as an example of the feature amount calculated from these images, Table 4 shows the result of calculating the feature amount related to the
なお、表4におけるラベル(t,i)は、tフレーム目のオブジェクト番号iを表しており、面積,幅,高さ,位置,色情報はそれぞれ画像分割された後のオブジェクトから求めた特徴量であり、α=1/162、β=γ=1/16、ε=1/8により正規化し小数第一位を四捨五入したものである。 Note that the label (t, i) in Table 4 represents the object number i of the t-th frame, and the area, width, height, position, and color information are the feature values obtained from the objects after image division. Normalized by α = 1/16 2 , β = γ = 1/16, ε = 1/8 and rounded to the first decimal place.
また、表4においては、距離指標としてのマンハッタン距離およびユークリッド距離を併記しており、これらの距離指標は、それぞれのオブジェクトとラベル(3,3)が付されたオブジェクトとの間における距離指標を示している。 In Table 4, the Manhattan distance and the Euclidean distance as the distance index are also shown, and these distance indices are the distance indices between the respective objects and the object labeled (3, 3). Show.
たとえば、オブジェクト(3,3)とオブジェクト(2,3)との間のマンハッタン距離をDMとすると、
DM=│6−7│+│2−3│+│3−3│+│13−12│+│12−11│+│4−5│+│0−1│
=6
となる。
For example, the Manhattan distance between the object and (3,3) and the object (2, 3) When D M,
D M = | 6-7 | + | 2-3 | + | 3-3 | + | 13-12 | + | 12-11 | + | 4-5 | + | 0-1 |
= 6
It becomes.
また、オブジェクト(3,3)とオブジェクト(2,3)との間のユークリッド距離をDEとすると、
DE=√k
k=(6−7)2+(2−3)2+(3−3)2+(13−12)2+(12−11)2+(4−5)2+(0−1)2
となり、DE=2として求められる。
Also, if Euclidean distance between the object (3, 3) and the object (2, 3) is D E ,
D E = √k
k = (6-7) 2 + (2-3) 2 + (3-3) 2 + (13-12) 2 + (12-11) 2 + (4-5) 2 + (0-1) 2
And is obtained as D E = 2.
なお、DEを求めるにあたり、小数第一位は四捨五入されている。 In calculating DE , the first decimal place is rounded off.
なお、以下に記載する表においても、ラベル、マンハッタン距離およびユークリッド距離は、表4と同様に記載している。 In the table described below, the label, the Manhattan distance, and the Euclidean distance are described in the same manner as in Table 4.
この表4から、距離指標に関しては、ラベル(2,3)が付されたオブジェクトとの値が最も小さくなっていることがわかる。これはすなわち、ラベル(3,3)のオブジェクトと、ラベル(2,3)のオブジェクトとが同一のものであるとして認識されていることを示しており、2フレーム目の画像と3フレーム目の画像との間において同一のオブジェクトが正しく認識されていることがわかる。 From Table 4, it can be seen that the distance index has the smallest value with the object with the label (2, 3). This indicates that the object of the label (3, 3) and the object of the label (2, 3) are recognized as being the same, and the second frame image and the third frame object are recognized. It can be seen that the same object is correctly recognized between the images.
また、動き検出処理は前フレームで計算した動きベクトルをもとに現フレームの推定位置を計算し、この推定位置と実際の位置の差とに基づき距離指標を計算している。そこで、図30(a)〜図30(e)に示すように、実際に動きベクトルがオブジェクトの移動中において変化する画像に対して、本発明の画像処理アルゴリズムによる動き検出処理を行った。この処理により、推定位置が変わっても他の特徴量から正しくオブジェクトを認識できるかを検証することができる。 In the motion detection process, the estimated position of the current frame is calculated based on the motion vector calculated in the previous frame, and the distance index is calculated based on the difference between the estimated position and the actual position. Therefore, as shown in FIGS. 30A to 30E, motion detection processing using the image processing algorithm of the present invention is performed on an image in which the motion vector actually changes while the object is moving. With this process, it is possible to verify whether the object can be correctly recognized from other feature amounts even if the estimated position changes.
なお、図30(a)〜図30(e)は、左側の青いオブジェクト1と、右側の赤いオブジェクト2とが3フレーム目で衝突し(図30(c)参照)、4フレーム目でオブジェクト1およびオブジェクト2の移動方向が180°変化する(図30(d)参照)という一連の流れを示す画像である。オブジェクト1とオブジェクト2とが衝突した後のフレームにおけるオブジェクトの特徴とその差を表5に示す。
In FIGS. 30A to 30E, the
表5より,ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における位置(xi)に関するマンハッタン距離は5(=13−8)となる。このマンハッタン距離は、ラベル(4,1)が付されたオブジェクトとラベル(3,2)が付されたオブジェクトとの間における位置(xi)に関するマンハッタン距離3(=13−10)より大きくなる。ユークリッド距離についても同様に、ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における位置(xi)に関するものが、ラベル(4,1)が付されたオブジェクトとラベル(3,2)が付されたオブジェクトとの間における位置(xi)に関するものよりも大きい。 From Table 5, the Manhattan distance regarding the position (x i ) between the object with the label (4, 1) and the object with the label (3, 1) is 5 (= 13−8). This Manhattan distance is greater than the Manhattan distance 3 (= 13-10) for the position (x i ) between the object labeled (4, 1) and the object labeled (3, 2). . Similarly, the Euclidean distance is related to the position (x i ) between the object with the label (4, 1) and the object with the label (3, 1). It is larger than that relating to the position (x i ) between the attached object and the labeled object (3, 2).
しかし、ラベル(4,1)が付されたオブジェクトとラベル(3,2)が付されたオブジェクトとの間における色情報(Ci)に関するマンハッタン距離は、ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における色情報(Ci)に関するマンハッタン距離よりも大きい。色情報(Ci)に関するユークリッド距離についても同様である。 However, the Manhattan distance for color information (C i ) between the object with label (4,1) and the object with label (3,2) is labeled (4,1). It is greater than the Manhattan distance for color information (C i ) between the object and the object labeled (3, 1). The same applies to the Euclidean distance related to the color information (C i ).
そのため、全ての特徴量を考慮した距離指標は、ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における距離指標の方が小さくなっている。したがって、本発明の画像処理アルゴリズムによれば、オブジェクトの移動中に動きベクトルが変化しても、同一のオブジェクトが認識できることを検証できた。 Therefore, the distance index in consideration of all the feature quantities is smaller in the distance index between the object with the label (4, 1) and the object with the label (3, 1). Therefore, according to the image processing algorithm of the present invention, it can be verified that the same object can be recognized even if the motion vector changes during the movement of the object.
〔3−2.動画像に対する動き検出処理〕
次に実際に撮影した動画から1フレームずつ切り出した画像に対して、本発明の画像処理アルゴリズムを適用した結果について説明する。
[3-2. Motion detection processing for moving images)
Next, the result of applying the image processing algorithm of the present invention to an image cut out frame by frame from the actually captured moving image will be described.
まず複数のオブジェクトがランダムに動いている動画(図31(a)〜図31(k)参照)に対して動き検出処理を行った。図32に、1フレーム目の画像(図31(a)参照)を画像分割した結果の画像を示す。 First, motion detection processing was performed on a moving image in which a plurality of objects are moving randomly (see FIGS. 31A to 31K). FIG. 32 shows an image obtained as a result of dividing the first frame image (see FIG. 31A).
これらの画像のうち、7フレーム目のオブジェクト5(ラベル(7,5)のオブジェクト、図31(g)参照)の変化が最も大きいので、このオブジェクトと、6フレーム目のオブジェクトのそれぞれとの間において計算した距離指標を表6に示す。
Among these images, the change of the
表6に示すように、ラベル(7,5)が付されたオブジェクトと、ラベル(6,1)〜(6,6)のそれぞれが付されたオブジェクトとの間における距離指標のうち、ラベル(7,5)が付されたオブジェクトとラベル(6,5)が付されたオブジェクトとの間における距離指標が最小である。この結果より、複数のオブジェクトがランダムに動いている動画に対しても、本発明の動き検出処理を行えば、同一のオブジェクトを認識できることを検証した。 As shown in Table 6, among the distance indices between the object with the label (7, 5) and the object with each of the labels (6, 1) to (6, 6), the label ( The distance index between the object labeled with (7, 5) and the object labeled (6, 5) is the smallest. From this result, it was verified that the same object can be recognized if the motion detection process of the present invention is performed on a moving image in which a plurality of objects are moving randomly.
次に、ボールが床に衝突して跳ね返ることにより、動きベクトルが急激に変化する画像(図33(a)〜図33(f),図34(a)〜図34(f))に対して、本発明の画像処理アルゴリズムを適用した。なお、図33(a)に示す画像を画像分割した結果を図35(a)〜図35(d)に示し、図34(a)に示す画像を画像分割した結果を図36(a)〜図36(d)に示す。 Next, with respect to images (FIGS. 33 (a) to 33 (f) and FIGS. 34 (a) to 34 (f)) in which the motion vector changes suddenly when the ball collides with the floor and rebounds. The image processing algorithm of the present invention was applied. Note that the results of image segmentation of the image shown in FIG. 33 (a) are shown in FIGS. 35 (a) to 35 (d), and the results of image segmentation of the image shown in FIG. 34 (a) are shown in FIGS. As shown in FIG.
また、図33(a)〜図33(f)の画像を分割した画像に関して距離指標を算出した結果を表7に示し、また、図34(a)〜図33(f)の画像を分割した画像に関して距離指標を算出した結果を表8に示す。 In addition, Table 7 shows the result of calculating the distance index for the images obtained by dividing the images of FIGS. 33 (a) to 33 (f), and the images of FIGS. 34 (a) to 33 (f) are divided. Table 8 shows the result of calculating the distance index for the image.
表7に示すとおり、ラベル(4,3)のオブジェクトと、ラベル(3,1)〜ラベル(3,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(4,3)のオブジェクトと、ラベル(3,3)のオブジェクトとの間における距離指標が最も小さい。また、表8に示すとおり、ラベル(5,2)のオブジェクトと、ラベル(4,1)〜ラベル(4,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(5,2)のオブジェクトと、ラベル(4,2)のオブジェクトとの間における距離指標が最も小さい。 As shown in Table 7, among the distance indices between the object of label (4, 3) and each of the objects of label (3, 1) to label (3, 4), the object of label (4, 3) And the distance index between the object of the label (3, 3) is the smallest. As shown in Table 8, among the distance indices between the object of label (5, 2) and each of the objects of label (4, 1) to label (4, 4), label (5, 2) And the object of the label (4, 2) has the smallest distance index.
したがって、これらの表7および表8から、本発明の画像処理アルゴリズムによれば、動きベクトルが急激に変化する場合でも正確に同一のオブジェクトを認識できることがわかる。 Therefore, it can be seen from Tables 7 and 8 that the image processing algorithm of the present invention can accurately recognize the same object even when the motion vector changes rapidly.
さらに、小さなオブジェクトがランダムに動いている動画(図37(a)〜図37(f)参照)に対しても、本発明の画像処理アルゴリズムを適用した。 Furthermore, the image processing algorithm of the present invention is also applied to a moving image in which small objects are moving randomly (see FIGS. 37A to 37F).
なお、図37(a)の画像を分割した結果を、図38(a)〜図38(d)に示す。図38(a)からわかるように、図37(a)の画像において真ん中付近に存在するボール(同図中、ハッチングされていないボール)は検出することができなかった。 The results of dividing the image of FIG. 37A are shown in FIGS. 38A to 38D. As can be seen from FIG. 38 (a), the ball existing in the vicinity of the center in the image of FIG. 37 (a) (a ball not hatched in the same figure) could not be detected.
図37(a)の画像において検出されたオブジェクトのうち、ラベル(3,1)のオブジェクトと、ラベル(2,1)〜ラベル(2,4)のオブジェクトのそれぞれとの間において、距離指標を算出した結果を表9に示す。 Among the objects detected in the image of FIG. 37 (a), a distance index is set between the object of label (3, 1) and each of the objects of label (2, 1) to label (2, 4). The calculated results are shown in Table 9.
表9に示すとおり、ラベル(3,1)のオブジェクトと、ラベル(2,1)〜ラベル(2,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(3,1)のオブジェクトと、ラベル(2,1)のオブジェクトとの間における距離指標が最も小さい。 As shown in Table 9, among the distance indexes between the object of label (3, 1) and each of the objects of label (2, 1) to label (2, 4), the object of label (3, 1) And the distance index between the object of the label (2, 1) is the smallest.
したがって、表9から、複数の小さいオブジェクトがランダムに動いている動画に対しても、本発明の画像処理アルゴリズムを実行すれば、同一のオブジェクトを認識できることがわかる。 Therefore, it can be seen from Table 9 that the same object can be recognized by executing the image processing algorithm of the present invention even on a moving image in which a plurality of small objects are moving randomly.
〔3−3.自然画像に対する動き検出処理〕
次に、実際に人物がフレーム中で歩いている画像(図39(a)〜図39(c)参照)についてのシミュレーション結果を示す。また、図39(a)に示す画像を分割した結果を、図40(a)〜図40(d)に示す。
[3-3. Motion detection processing for natural images)
Next, a simulation result for an image (see FIGS. 39A to 39C) in which a person is actually walking in a frame is shown. Also, the results of dividing the image shown in FIG. 39A are shown in FIGS. 40A to 40D.
図40(a)〜図40(d)に示すように、図39(a)に示す画像は、図40(a)に示す壁の画像、図40(b)に示す床の画像、図40(c)に示す人物aの画像、および図40(d)に示す人物bの画像に分割される。 As shown in FIGS. 40 (a) to 40 (d), the image shown in FIG. 39 (a) is the image of the wall shown in FIG. 40 (a), the image of the floor shown in FIG. 40 (b), and FIG. The image is divided into an image of the person a shown in (c) and an image of the person b shown in FIG.
これら分割後の画像のうち、実際に移動している画像は、図40(c)に示す人物aの画像および図40(d)に示す人物bの画像だけであり、床と壁の画像は、人物aおよび人物bが動くことで形が変わっているだけである。図39(a)〜図39(c)に示す画像に関して、距離指標を算出した結果を表10に示す。 Of these divided images, the images that are actually moving are only the image of the person a shown in FIG. 40C and the image of the person b shown in FIG. The shape is changed only by the movement of the person a and the person b. Table 10 shows the results of calculating the distance index for the images shown in FIGS. 39 (a) to 39 (c).
表10に示すとおり、ラベル(3,3)のオブジェクトと、ラベル(2,1)〜ラベル(2,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(3,3)のオブジェクトと、ラベル(2,3)のオブジェクトとの間における距離指標が最も小さい。 As shown in Table 10, among the distance indices between the object of label (3, 3) and each of the objects of label (2, 1) to label (2, 4), the object of label (3, 3) And the distance index between the object of the label (2, 3) is the smallest.
したがって、表10から、実際に人物がフレーム中で歩いている動画に対しても、本発明の動き検出処理を実行すれば、同一のオブジェクトを認識できることがわかる。 Therefore, it can be seen from Table 10 that the same object can be recognized by executing the motion detection process of the present invention even on a moving image in which a person is actually walking in a frame.
さらに、同一オブジェクトを認識することが一般的に困難な、歩いている人物(オブジェクト)がフレーム中で別の人物(オブジェクト)と重なる画像(図41(a)〜図41(h)参照)に対して、本発明の動き検出処理を行った。 Furthermore, in an image in which it is generally difficult to recognize the same object, a walking person (object) overlaps another person (object) in the frame (see FIGS. 41A to 41H). On the other hand, the motion detection process of the present invention was performed.
図41(a)の画像を分割すると、図42(a)〜図42(d)に示すように分割される。また、図41(d)の画像を分割すると、図43(a)〜図43(c)に示すように分割される。なお、図42(d)に示すように、1フレーム目で停止している人物(図41(a)参照)の上半身が分割されないのは、オブジェクトのグラデーションによりリーダーセルがないこと、又は、結合重みが小さいためオブジェクトとして認識できないことが原因として考えられる。 When the image of FIG. 41A is divided, it is divided as shown in FIGS. 42A to 42D. Further, when the image of FIG. 41D is divided, it is divided as shown in FIGS. 43A to 43C. Note that, as shown in FIG. 42 (d), the upper body of the person stopped in the first frame (see FIG. 41 (a)) is not divided because there is no leader cell due to the gradation of the object, or in combination This may be because the weight is small and cannot be recognized as an object.
これらの分割結果に関して、3フレーム目の3番目のオブジェクト、物体数が変化する4フレーム目の3番目のオブジェクト、7フレーム目の3番目のオブジェクトに関する動き検出処理のシミュレーション結果を、表11、表12、および表13に示す。 Regarding these division results, the simulation results of the motion detection processing for the third object in the third frame, the third object in the fourth frame where the number of objects change, and the third object in the seventh frame are shown in Tables 11 and 11 below. 12 and Table 13.
この表11より、ラベル(3,3)のオブジェクトと、ラベル(2,3)のオブジェクトとの間における距離指標が最も小さいことがわかる。また、表12に関しては、ラベル(4,3)のオブジェクトと、ラベル(3,3)のオブジェクトとの間における距離指標が最も小さい。さらに、表13においては、ラベル(7,3)のオブジェクトとラベル(6,3)のオブジェクトとの間における距離指標が最も小さい。これらの結果より、図41(a)〜図41(h)に示したような、移動するオブジェクトが、他のオブジェクトと重なるような画像に対しても、本発明の画像処理アルゴリズムを適用すれば、同一のオブジェクトを認識できることを検証できた。 From Table 11, it can be seen that the distance index between the object of the label (3, 3) and the object of the label (2, 3) is the smallest. In Table 12, the distance index between the object of the label (4, 3) and the object of the label (3, 3) is the smallest. Furthermore, in Table 13, the distance index between the object of the label (7, 3) and the object of the label (6, 3) is the smallest. From these results, if the image processing algorithm of the present invention is applied to an image in which a moving object overlaps with other objects as shown in FIGS. 41 (a) to 41 (h). It was verified that the same object can be recognized.
さらに、分割が困難な画像の一例である、図44(a)〜図44(f)に示すミニカーが動いている画像について、本発明の画像処理アルゴリズムを実行した結果について説明する。また、1フレーム目の画像(図44(a)参照)に関して、分割処理を行った結果を図45(a)〜図45(c)に示す。 Furthermore, the result of executing the image processing algorithm of the present invention on the image of the minicar shown in FIGS. 44 (a) to 44 (f), which is an example of an image that is difficult to divide, will be described. 45A to 45C show the results of the division processing performed on the first frame image (see FIG. 44A).
図45(a)〜図45(c)に示すように、画像分割された後のオブジェクトは、実際の画像のオブジェクトと、その形状が大きく異なっている。図45(a)〜図45(c)に示す画像に対して動き検出処理を行った結果を表14に示す。 As shown in FIGS. 45 (a) to 45 (c), the object after the image division is greatly different in shape from the object of the actual image. Table 14 shows the result of motion detection processing performed on the images shown in FIGS. 45 (a) to 45 (c).
表14より、ラベル(4,2)のオブジェクトと、ラベル(3,2)のオブジェクトとの間における距離指標が最も小さいことがわかる。よって、入力画像に対する画像分割の精度はそれほどよくないが、オブジェクトの特徴量からフレーム間において同一のオブジェクトを正しく認識できていることを検証できた。 Table 14 shows that the distance index between the object of label (4, 2) and the object of label (3, 2) is the smallest. Therefore, although the accuracy of image division with respect to the input image is not so good, it was verified that the same object could be correctly recognized between frames from the feature amount of the object.
次に、車が走っている道路を撮影した画像(図46(a)〜図46(f)参照)について、本発明の画像処理アルゴリズムを実行した結果について説明する。また、1フレーム目の画像(図46(a)参照)に関して、分割処理を行った結果を図47(a)および図47(b)に示す。 Next, the results of executing the image processing algorithm of the present invention will be described with respect to images (see FIGS. 46 (a) to 46 (f)) taken of a road on which a car is running. In addition, FIG. 47 (a) and FIG. 47 (b) show the results of performing the division processing on the first frame image (see FIG. 46 (a)).
図47(a)および図47(b)からわかるように、走行中の車の画像は、図47(a)に示す車の屋根の画像と、図47(b)に示す車のボンネット部分の画像とに分割される。図47(a)および図47(b)から得られた情報をもとに、本発明の画像処理アルゴリズムを適用した結果を表15に示す。 As can be seen from FIGS. 47 (a) and 47 (b), the image of the running car is the image of the car roof shown in FIG. 47 (a) and the hood part of the car shown in FIG. 47 (b). Divided into images. Table 15 shows the results of applying the image processing algorithm of the present invention based on the information obtained from FIGS. 47 (a) and 47 (b).
表15より、ラベル(4,1)のオブジェクトと、ラベル(3,1)のオブジェクトとの間における距離指標が最も小さいことがわかる。この結果から、図46(a)〜図46(f)に示す画像に関しても、本発明の画像処理アルゴリズムによれば、同一のオブジェクトを正しく認識できることを確認できる。 From Table 15, it can be seen that the distance index between the object of the label (4, 1) and the object of the label (3, 1) is the smallest. From these results, it can be confirmed that the same object can be correctly recognized according to the image processing algorithm of the present invention also for the images shown in FIGS.
〔4.補足〕
本発明の画像処理アルゴリズムにおける各処理ステップは、CPUなどの演算手段が、ROM(Read Only Memory)やRAMなどの記憶手段に記憶されたプログラムを実行し、キーボードなどの入力手段、ディスプレイなどの出力手段、あるいは、インターフェース回路などの通信手段を制御することにより実現することができる。
[4. Supplement)
In each processing step in the image processing algorithm of the present invention, a calculation unit such as a CPU executes a program stored in a storage unit such as a ROM (Read Only Memory) or a RAM, and an input unit such as a keyboard or an output such as a display. It can be realized by controlling a communication means such as an interface circuit or the like.
したがって、これらの手段を有するコンピュータが、上記プログラムを記録した記録媒体を読み取り、当該プログラムを実行するだけで、本実施形態の画像処理回路の各種処理を実現することができる。また、上記プログラムをリムーバブルな記録媒体に記録することにより、任意のコンピュータ上で上記の各種機能および各種処理を実現することができる。 Therefore, various processes of the image processing circuit according to the present embodiment can be realized simply by a computer having these means reading the recording medium storing the program and executing the program. In addition, by recording the program on a removable recording medium, the various functions and various processes described above can be realized on an arbitrary computer.
この記録媒体としては、マイクロコンピュータで処理を行うために図示しないメモリ、例えばROMのようなものがプログラムメディアであっても良いし、また、図示していないが外部記憶装置としてプログラム読取り装置が設けられ、そこに記録媒体を挿入することにより読取り可能なプログラムメディアであっても良い。 As the recording medium, a memory (not shown) such as a ROM may be used as a program medium for processing by the microcomputer, and a program reader is provided as an external storage device (not shown). It may be a program medium that can be read by inserting a recording medium therein.
また、何れの場合でも、格納されているプログラムは、マイクロプロセッサがアクセスして実行される構成であることが好ましい。さらに、プログラムを読み出し、読み出されたプログラムは、マイクロコンピュータのプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であることが好ましい。なお、このダウンロード用のプログラムは予め本体装置に格納されているものとする。 In any case, the stored program is preferably configured to be accessed and executed by the microprocessor. Furthermore, it is preferable that the program is read out, and the read program is downloaded to the program storage area of the microcomputer and the program is executed. It is assumed that the download program is stored in the main device in advance.
また、上記プログラムメディアとしては、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD/MO/MD/DVD等のディスクのディスク系、ICカード(メモリカードを含む)等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムを担持する記録媒体等がある。 The program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, or a disk such as a CD / MO / MD / DVD. Fixed disk system, card system such as IC card (including memory card), or semiconductor memory such as mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. In particular, there are recording media that carry programs.
また、インターネットを含む通信ネットワークを接続可能なシステム構成であれば、通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する記録媒体であることが好ましい。 In addition, if the system configuration is capable of connecting to a communication network including the Internet, the recording medium is preferably a recording medium that fluidly carries the program so as to download the program from the communication network.
さらに、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであることが好ましい。 Further, when the program is downloaded from the communication network as described above, it is preferable that the download program is stored in the main device in advance or installed from another recording medium.
なお、本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。 In addition, this invention is not limited to embodiment mentioned above, A various change is possible in the range shown to the claim.
本発明の画像処理装置は、画像認識システム、動体検出システム、ディジタルカメラ、ディジタルビデオカメラ、ロボットビジョン、顔認識による認証システム、セキュリティシステム、人工知能システム等における画像分割・抽出のための画像分割・抽出集積回路として適用可能である。 The image processing apparatus according to the present invention includes an image recognition system, a moving object detection system, a digital camera, a digital video camera, a robot vision, a face recognition authentication system, a security system, an artificial intelligence system, and the like. It can be applied as an extraction integrated circuit.
1 画像処理回路(画像処理装置)
4 結合重み計算部(画像分割手段)
5 リーダーセル計算部(画像分割手段)
6 画像分割セルネットワーク(画像分割手段)
9 位置情報計算部(動きベクトル算出手段、推定位置算出手段)
9a 動きベクトル計算部(動きベクトル算出手段)
9b 推定位置計算部(推定位置算出手段)
10 最小距離検索連想メモリ(オブジェクト認識手段)
1 Image processing circuit (image processing device)
4 Connection weight calculator (image dividing means)
5 Leader cell calculator (image segmentation means)
6 Image segmentation cell network (image segmentation means)
9 Position information calculation unit (motion vector calculation means, estimated position calculation means)
9a Motion vector calculation unit (motion vector calculation means)
9b Estimated position calculation unit (estimated position calculation means)
10 Minimum distance search associative memory (object recognition means)
Claims (16)
分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する動きベクトル算出手段と、
各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する推定位置算出手段と、
上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識するオブジェクト認識手段とを備えていることを特徴とする画像処理装置。 Image dividing means for dividing a plurality of objects included in the input image from the input image for each frame of the input image;
For each divided object, a motion vector calculating means for calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate of the object in the frame immediately before and the position coordinate of the previous frame;
For each object, estimated position calculation means for calculating an estimated position, which is a position where each object is estimated to exist in the current frame, based on the position coordinates of the previous frame of the object and the motion vector;
The same object is recognized between the current frame and the previous frame based on the estimated position, the feature amount other than the estimated position for each object in the previous frame, and the feature amount other than the estimated position for each object in the current frame. An image processing apparatus comprising: an object recognition unit.
上記第1差分値は、現フレームにおける注目オブジェクトの推定位置を示す座標と、前フレームにおける各オブジェクトの実際の位置を示す座標との差分値であり、
上記第2差分値は、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの注目オブジェクトに関する推定位置以外の特徴量との差分値であることを特徴とする請求項1に記載の画像処理装置。 The object recognition means calculates a distance index, which is a value based on the first difference value and the second difference value, between the target object of the current frame and each object of the previous frame, and the distance index is minimized. Recognizing objects as the same object,
The first difference value is a difference value between coordinates indicating the estimated position of the object of interest in the current frame and coordinates indicating the actual position of each object in the previous frame,
The said 2nd difference value is a difference value of the feature-value other than the presumed position regarding each object of a previous frame, and the feature-value other than the presumed position regarding the attention object of the present frame, The feature value of Claim 1 characterized by the above-mentioned. Image processing device.
上記第2差分値は、画素数、幅、高さ、および色情報のそれぞれに関する差分値であり、
上記オブジェクト認識手段は、
現フレームのオブジェクトiと、前フレームのオブジェクトjとの間における距離指標をDij、上記第1差分値をIpij、上記画素数の差分値をIaij、上記幅の差分値をIwij、上記高さの差分値をIhij、上記色情報の差分値をIcijとした場合、
Dij=αIaij+β(Iwij+Ihij)+γIpij+εIcij
(α、β、γ、εは、Iaij,Iwij,Ihij,Ipij,およびIcijのそれぞれの大きさに応じて決定される係数)
と設定して、距離指標Dijを算出することを特徴とする請求項2に記載の画像処理装置。 The feature amount other than the estimated position is the number of pixels, width, height, and color information,
The second difference value is a difference value for each of the number of pixels, width, height, and color information,
The object recognition means is
The distance index between the object i of the current frame and the object j of the previous frame is D ij , the first difference value is Ip ij , the pixel number difference value is Ia ij , and the width difference value is Iw ij , When the height difference value is Ih ij and the color information difference value is Ic ij ,
D ij = αIa ij + β (Iw ij + Ih ij ) + γIp ij + εIc ij
(Α, β, γ, ε are coefficients determined according to the respective sizes of Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij )
The image processing apparatus according to claim 2, wherein the distance index D ij is calculated.
上記第2差分値は、画素数、幅、高さ、および色情報のそれぞれに関する差分値であり、
上記オブジェクト認識手段は、
現フレームのオブジェクトiと、前フレームのオブジェクトjとの間における距離指標をDij、上記第1差分値をIpij、上記画素数の差分値をIaij、上記幅の差分値をIwij、上記高さの差分値をIhij、上記色情報の差分値をIcijとした場合、
Dij=√k
k=αIaij 2+βIwij 2+βIhij 2+γIpij 2+εIcij 2
(α、β、γ、εは、Iaij,Iwij,Ihij,Ipij,およびIcijのそれぞれの大きさに応じて決定される係数)
と設定して、距離指標Dijを算出することを特徴とする請求項2に記載の画像処理装置。 The feature amount other than the estimated position is the number of pixels, width, height, and color information,
The second difference value is a difference value for each of the number of pixels, width, height, and color information,
The object recognition means is
The distance index between the object i of the current frame and the object j of the previous frame is D ij , the first difference value is Ip ij , the pixel number difference value is Ia ij , and the width difference value is Iw ij , When the height difference value is Ih ij and the color information difference value is Ic ij ,
D ij = √k
k = αIa ij 2 + βIw ij 2 + βIh ij 2 + γIp ij 2 + εIc ij 2
(Α, β, γ, ε are coefficients determined according to the respective sizes of Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij )
The image processing apparatus according to claim 2, wherein the distance index D ij is calculated.
分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する第2ステップと、
各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する第3ステップと、
上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識する第4ステップとを備えていることを特徴とする画像処理方法。 A first step of dividing a plurality of objects included in the input image from the input image for each frame of the input image;
For each divided object, a second step of calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate of the object in the previous frame and the position coordinate of the previous frame;
For each object, a third step of calculating an estimated position, which is a position where each object is estimated to exist in the current frame, based on the position coordinates of the previous frame of the object and the motion vector;
The same object is recognized between the current frame and the previous frame based on the estimated position, the feature amount other than the estimated position for each object in the previous frame, and the feature amount other than the estimated position for each object in the current frame. An image processing method comprising: a fourth step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004256184A JP4500999B2 (en) | 2004-09-02 | 2004-09-02 | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004256184A JP4500999B2 (en) | 2004-09-02 | 2004-09-02 | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006072763A true JP2006072763A (en) | 2006-03-16 |
JP4500999B2 JP4500999B2 (en) | 2010-07-14 |
Family
ID=36153317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004256184A Active JP4500999B2 (en) | 2004-09-02 | 2004-09-02 | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4500999B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146490A (en) * | 2006-12-12 | 2008-06-26 | Yahoo Japan Corp | Information providing device, information providing method and computer program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063577A (en) * | 2000-08-15 | 2002-02-28 | Nippon Telegr & Teleph Corp <Ntt> | System and method for analyzing image, and image analysis program recording medium |
JP2003346142A (en) * | 2002-05-27 | 2003-12-05 | Univ Hiroshima | Image split processing method, image split processor, real- time image processing method, real-time image processor, and image processing integrated circuit |
JP2004013615A (en) * | 2002-06-07 | 2004-01-15 | Matsushita Electric Ind Co Ltd | Moving object monitoring device |
JP2004013306A (en) * | 2002-06-04 | 2004-01-15 | Nec Corp | Similarity computing device, index data generating device, video or audio database device, similarity computing method, index data generating method, content representation data storage device, and recording medium |
JP2004046647A (en) * | 2002-07-12 | 2004-02-12 | Univ Waseda | Method and device for tracking moving object based on dynamic image data |
-
2004
- 2004-09-02 JP JP2004256184A patent/JP4500999B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063577A (en) * | 2000-08-15 | 2002-02-28 | Nippon Telegr & Teleph Corp <Ntt> | System and method for analyzing image, and image analysis program recording medium |
JP2003346142A (en) * | 2002-05-27 | 2003-12-05 | Univ Hiroshima | Image split processing method, image split processor, real- time image processing method, real-time image processor, and image processing integrated circuit |
JP2004013306A (en) * | 2002-06-04 | 2004-01-15 | Nec Corp | Similarity computing device, index data generating device, video or audio database device, similarity computing method, index data generating method, content representation data storage device, and recording medium |
JP2004013615A (en) * | 2002-06-07 | 2004-01-15 | Matsushita Electric Ind Co Ltd | Moving object monitoring device |
JP2004046647A (en) * | 2002-07-12 | 2004-02-12 | Univ Waseda | Method and device for tracking moving object based on dynamic image data |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146490A (en) * | 2006-12-12 | 2008-06-26 | Yahoo Japan Corp | Information providing device, information providing method and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP4500999B2 (en) | 2010-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855098B2 (en) | Face detection training methods, equipment and electronics | |
US7539327B2 (en) | System and process for bootstrap initialization of nonparametric color models | |
WO2021012484A1 (en) | Deep learning-based target tracking method and apparatus, and computer readable storage medium | |
CN108960211B (en) | Multi-target human body posture detection method and system | |
Liao et al. | Modeling pixel process with scale invariant local patterns for background subtraction in complex scenes | |
CN108470354A (en) | Video target tracking method, device and realization device | |
WO2019227479A1 (en) | Method and apparatus for generating face rotation image | |
CN111062263B (en) | Method, apparatus, computer apparatus and storage medium for hand gesture estimation | |
WO2016119076A1 (en) | A method and a system for face recognition | |
CN113407027B (en) | Pose acquisition method and device, electronic equipment and storage medium | |
CN110598715A (en) | Image recognition method and device, computer equipment and readable storage medium | |
CN111126249A (en) | Pedestrian re-identification method and device combining big data and Bayes | |
CN111582349A (en) | Improved target tracking algorithm based on YOLOv3 and kernel correlation filtering | |
El‐Shafie et al. | Survey on hardware implementations of visual object trackers | |
CN110349188A (en) | Multi-object tracking method, device and storage medium based on TSK fuzzy model | |
CN111340213B (en) | Neural network training method, electronic device, and storage medium | |
CN111382791B (en) | Deep learning task processing method, image recognition task processing method and device | |
US20070147678A1 (en) | Adaptive Scene Dependent Filters In Online Learning Environments | |
CN111104911A (en) | Pedestrian re-identification method and device based on big data training | |
Kang et al. | Yolo-6d+: single shot 6d pose estimation using privileged silhouette information | |
US20100246905A1 (en) | Person identifying apparatus, program therefor, and method thereof | |
JP4500999B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium | |
CN114724175B (en) | Pedestrian image detection network, pedestrian image detection method, pedestrian image training method, electronic device and medium | |
US20230036402A1 (en) | Focused Computer Detection Of Objects In Images | |
Bakr et al. | Mask R-CNN for moving shadow detection and segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070405 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100330 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |