JP2006072763A - Image processing apparatus, image processing integrated circuit, image processing method, image processing program and computer-readable recording medium - Google Patents

Image processing apparatus, image processing integrated circuit, image processing method, image processing program and computer-readable recording medium Download PDF

Info

Publication number
JP2006072763A
JP2006072763A JP2004256184A JP2004256184A JP2006072763A JP 2006072763 A JP2006072763 A JP 2006072763A JP 2004256184 A JP2004256184 A JP 2004256184A JP 2004256184 A JP2004256184 A JP 2004256184A JP 2006072763 A JP2006072763 A JP 2006072763A
Authority
JP
Japan
Prior art keywords
image
image processing
difference value
value
estimated position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004256184A
Other languages
Japanese (ja)
Other versions
JP4500999B2 (en
Inventor
Tetsushi Koide
哲士 小出
Hans Juergen Mattausch
ハンス ユルゲン マタウシュ,
Takashi Morimoto
高志 森本
Hiroaki Harada
洋明 原田
Osamu Kiriyama
治 桐山
Hidekazu Adachi
英和 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima University NUC
Original Assignee
Hiroshima University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima University NUC filed Critical Hiroshima University NUC
Priority to JP2004256184A priority Critical patent/JP4500999B2/en
Publication of JP2006072763A publication Critical patent/JP2006072763A/en
Application granted granted Critical
Publication of JP4500999B2 publication Critical patent/JP4500999B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize the same object between different frames, even when a plurality of objects are present inside an image. <P>SOLUTION: This image processor has an image division cell network 6 dividing the plurality of objects included inside the input image from the input image in each the frame; a position information calculating part 9 calculating an estimation position of each the object, on the basis of a movement vector showing a movement amount about each the object; and a minimum distance retrieval associative memory 10 for recognizing the same object between the different frames on the basis of the estimation position, and a characteristic amount, other than the estimated position. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像分割処理を用いて画像内のオブジェクトを抽出し、連想処理を用いてオブジェクトのマッチングをとることにより、画像内から静止物体と動物体とを検出するものである。   The present invention detects a stationary object and a moving object from an image by extracting an object in the image using image division processing and matching the objects using association processing.

近年、知的情報処理技術の実現に向けての画像認識処理技術の要求が高まっている。特に、人間に近い動作・判断をする知能ロボットの実現や、リアルタイムでの画像認識処理においては、カメラ等から取り込んだ画像を高速に処理する必要があり、処理の高速化が求められている(非特許文献3および非特許文献4参照)。   In recent years, there has been an increasing demand for image recognition processing technology for realizing intelligent information processing technology. In particular, in realization of intelligent robots that perform operations and judgments similar to humans, and in real-time image recognition processing, it is necessary to process images captured from cameras and the like at high speed, and high-speed processing is required ( Non-Patent Document 3 and Non-Patent Document 4).

そのためには、入力画像中の様々なオブジェクトから、対象となるオブジェクトを分割し取り出す、画像分割処理が必要である。そして、画像分割処理のアルゴリズムとして、LEGION(Locally Excitatory Globally Inhibitory Oscillator Network)(非特許文献2、非特許文献6、および非特許文献7参照)に基づいたセルオートマトン型ディジタル画像分割アーキテクチャが提案されている(非特許文献11および13参照)。   For this purpose, it is necessary to perform an image division process in which a target object is divided and extracted from various objects in the input image. As an image division processing algorithm, a cellular automaton type digital image division architecture based on LEGION (Locally Excitatory Globally Inhibitory Oscillator Network) (see Non-Patent Document 2, Non-Patent Document 6, and Non-Patent Document 7) has been proposed. (See Non-Patent Documents 11 and 13).

さらに、これまでの研究では、セルオートマトン型ディジタル画像分割アーキテクチャのハードウェア化が行われるとともに、セルネットワークをフルカスタム設計したチップ(非特許文献8参照)が試作され、その処理時間が測定されている。その測定の結果、セルオートマトン型ディジタル画像分割アーキテクチャによれば、非常に高速で精度良く画像分割処理できることが知られている。   Furthermore, in the research so far, the cellular automaton type digital image segmentation architecture has been implemented as hardware, and a chip (see Non-Patent Document 8) in which the cell network is fully custom designed has been prototyped and its processing time has been measured. Yes. As a result of the measurement, it is known that according to the cellular automaton type digital image segmentation architecture, image segmentation processing can be performed at a very high speed and with high accuracy.

また、知的情報処理技術の実現に向けては、画像内のオブジェクトの動きを検出する技術への要求も高い。これまでに、オブジェクトの動き検出のために、たとえば、特許文献1および特許文献2に記載されているような様々なアルゴリズムが提案されている。
特開平8−241414号公報(1996年9月17日公開) 特開2002−312793号公報(2002年10月25日公開) 特開2003−346142号公報(2003年12月5日公開) 特開2004−13504号公報(2004年1月15日公開) N. H. E. Weste and K. Eshraghian, “PRINCIPLES OF CMOS VLSI DESIGN : A System Perspective Second Edition,” Addison-Wesley Publising Company, 1993. D. L. Wang, and D. Terman, “Image segmentation based on oscillator correlation,” Neural Computation, Vol. 9, No. 4, pp. 805-836, 1997. 松山隆司,久野義徳,井宮淳,”コンピュータビジョン:技術評論と将来展望,” pp.138-146, 1998. J. C. Russ, “The Image Processing Handbook,” CRC PRESS, 1999. 谷口慶治,“画像処理工学,”共立出版株式会社, 1999. H. Ando, T. Morie, M. Nagata and A. Iwata, “A nonlinear oscillator network for gray-level image segmentation and PWM/PPM circuits for its VLSI implementation,” IEICE Trans. Fundamentals, Vol. E83-A, No. 2, pp. 329-336, 2000. H. Ando, T. Morie, M. Miyake, M. Nagata, and A. Iwata, “Image segmentation/extraction using nonlinear cellular networks and their VLSI implementation using pulse-modulation techniques,” IEICE Trans. Fundamentals, Vol. E85-A, No.2, pp. 381-388, 2002. 原田洋明,森本高志,小出哲士,マタウシュハンスユルゲン,“全並列画像分割セルネットワークLSI の設計,”平成14 年度電気・情報関連学会中国支部連合大会, pp.591-592, 2002. H. J. Mattausch, T. Gyohten, Y. Soda, and T. Koide, “Compact associative-memory architecture with fully-parallel search capability for the minimum Hamming distance,” IEEE Journal of Solid-State Circuits, Vol37, pp. 218-227, 2002. H .Kimura, T. Shibata, “Simple-architecture motion-detection analog V-chip based on quasi-two-dimensional processing,” Extended Abstracts of the 2002 International Conference on Solid State Devices and Materials (SSDM2002), pp .240-241 ,2002. T. Morimoto, Y. Harada, T. Koide, and H. J. Mattausch, “Low-complexity, highly-parallel color motion-picture segmentation architecture for compact digital CMOS implementation,” Extended Abstracts of the 2002 International Conference on Solid State Devices and Materials (SSDM2002), pp. 242-243, 2002. Y. Yano, T. Koide, H. J. Mattausch, “Fully parallel nearest Manhattan-distance search memory with large reference-pattern number,” Extended Abstracts of the 2002 International Conference on Solid State Devices and Materials (SSDM2002),pp. 254-255, 2002. T. Koide, T. Morimoto, Y. Harada, and H. J. Mattausch, “Digital gray-scale/color image-segmentation architecture for cell-network-based real-time applications,” Proceedings of International Technical Conference on Circuits/Systems, Computers and Communications (ITC-CSCC2002), pp. 670-673, 2002. Bernd Jaehne, “Digital Image Processing,” pp. 481-499, 2002.
In addition, in order to realize intelligent information processing technology, there is a high demand for technology for detecting the movement of an object in an image. So far, various algorithms as described in, for example, Patent Document 1 and Patent Document 2 have been proposed for object motion detection.
JP-A-8-241414 (published September 17, 1996) JP 2002-312793 A (released on October 25, 2002) JP 2003-346142 A (released on December 5, 2003) JP 2004-13504 A (published January 15, 2004) NHE Weste and K. Eshraghian, “PRINCIPLES OF CMOS VLSI DESIGN: A System Perspective Second Edition,” Addison-Wesley Publising Company, 1993. DL Wang, and D. Terman, “Image segmentation based on oscillator correlation,” Neural Computation, Vol. 9, No. 4, pp. 805-836, 1997. Takashi Matsuyama, Yoshinori Kuno, Satoshi Imiya, “Computer Vision: Technical Review and Future Prospects,” pp.138-146, 1998. JC Russ, “The Image Processing Handbook,” CRC PRESS, 1999. Keiji Taniguchi, “Image Processing Engineering,” Kyoritsu Publishing Co., Ltd., 1999. H. Ando, T. Morie, M. Nagata and A. Iwata, “A nonlinear oscillator network for gray-level image segmentation and PWM / PPM circuits for its VLSI implementation,” IEICE Trans. Fundamentals, Vol. E83-A, No 2, pp. 329-336, 2000. H. Ando, T. Morie, M. Miyake, M. Nagata, and A. Iwata, “Image segmentation / extraction using nonlinear cellular networks and their VLSI implementation using pulse-modulation techniques,” IEICE Trans. Fundamentals, Vol. E85- A, No.2, pp. 381-388, 2002. Hiroaki Harada, Takashi Morimoto, Tetsushi Koide, Jurgen Mataushhans, “Design of All-Parallel Image-Division Cell Network LSI,” 2002 Annual Conference of the Chugoku Branch of Electrical and Information Society, pp.591-592, 2002. HJ Mattausch, T. Gyohten, Y. Soda, and T. Koide, “Compact associative-memory architecture with fully-parallel search capability for the minimum Hamming distance,” IEEE Journal of Solid-State Circuits, Vol37, pp. 218-227 , 2002. H. Kimura, T. Shibata, “Simple-architecture motion-detection analog V-chip based on quasi-two-dimensional processing,” Extended Abstracts of the 2002 International Conference on Solid State Devices and Materials (SSDM2002), pp. 240-241, 2002. T. Morimoto, Y. Harada, T. Koide, and HJ Mattausch, “Low-complexity, highly-parallel color motion-picture segmentation architecture for compact digital CMOS implementation,” Extended Abstracts of the 2002 International Conference on Solid State Devices and Materials (SSDM2002), pp. 242-243, 2002. Y. Yano, T. Koide, HJ Mattausch, “Fully parallel nearest Manhattan-distance search memory with large reference-pattern number,” Extended Abstracts of the 2002 International Conference on Solid State Devices and Materials (SSDM2002), pp. 254-255 , 2002. T. Koide, T. Morimoto, Y. Harada, and HJ Mattausch, “Digital gray-scale / color image-segmentation architecture for cell-network-based real-time applications,” Proceedings of International Technical Conference on Circuits / Systems, Computers and Communications (ITC-CSCC2002), pp. 670-673, 2002. Bernd Jaehne, “Digital Image Processing,” pp. 481-499, 2002.

しかしながら、従来の動き検出のためのアルゴリズムは、フレーム毎に入力画像からと背景との差分をとることで、入力画像における背景部分を取り除き、残っている部分からオブジェクトの動きを認識することにより、処理が比較的簡略化されている。その反面、従来のアルゴリズムは、同時に複数の動体オブジェクトを判別し、動き検出をすることが容易ではないという問題点を有している(非特許文献10参照)。   However, the conventional algorithm for motion detection removes the background portion from the input image by taking the difference between the input image and the background for each frame, and recognizes the motion of the object from the remaining portion. Processing is relatively simplified. On the other hand, the conventional algorithm has a problem that it is not easy to simultaneously detect a plurality of moving objects and detect a motion (see Non-Patent Document 10).

すなわち、特許文献1および特許文献2に記載されているアルゴリズムでは、分割されたオブジェクトに関して「色」「重心位置」「面積」といった特徴量を把握して、その特徴量に基づき異なるフレーム間で同一のオブジェクトを認識している。しかしながら、このようなオブジェクトの特徴量を把握するだけでは、画像内に複数のオブジェクトが存在する場合に、フレーム間で同一のオブジェクトを認識することが困難である。なぜなら、複数のオブジェクトが画像内に存在すると、それらのオブジェクトのうち、上記特徴量が近似するものが同一フレーム内に含まれている可能性があり、それらの特徴量が近似するオブジェクトが同一のオブジェクトとして認識されてしまう可能性があるからである。   That is, according to the algorithms described in Patent Document 1 and Patent Document 2, feature quantities such as “color”, “centroid position”, and “area” are grasped with respect to divided objects, and the same between different frames based on the feature quantities. Recognize the object. However, it is difficult to recognize the same object between frames when there are a plurality of objects in an image only by grasping the feature amount of such an object. This is because if there are multiple objects in the image, there is a possibility that those objects whose features are approximated are included in the same frame, and those objects whose features are approximated are the same. This is because it may be recognized as an object.

本発明は、上記従来の問題点に鑑みなされたものであって、画像内に複数のオブジェクトが存在していても、異なるフレーム間で同一のオブジェクトを認識し得る画像処理装置、画像処理集積化回路、画像処理方法、画像処理プログラム、および記録媒体を提供することを目的とする。   The present invention has been made in view of the above-described conventional problems, and is capable of recognizing the same object between different frames even when a plurality of objects exist in an image, and image processing integration. An object is to provide a circuit, an image processing method, an image processing program, and a recording medium.

本発明の画像処理装置は、上記課題を解決するために、入力画像中に含まれる複数のオブジェクトを、その入力画像のフレーム毎に入力画像から分割する画像分割手段と、分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する動きベクトル算出手段と、各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する推定位置算出手段と、上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識するオブジェクト認識手段とを備えていることを特徴としている。   In order to solve the above problems, an image processing apparatus according to the present invention is configured to divide a plurality of objects included in an input image from the input image for each frame of the input image, and to each divided object , A motion vector calculation means for calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate of the object in the previous frame and the position coordinate of the previous frame, and for each object, the motion vector of the previous frame of the object Based on the position coordinates and the motion vector, an estimated position calculating means for calculating an estimated position that is estimated to be present in each object in the current frame; the estimated position; and an estimated position other than the estimated position for each object in the previous frame Features other than the estimated position of each object in the current frame Based on the symptoms weight, it is characterized in that it comprises a and object recognizing means for recognizing the same object between the current and previous frames.

すなわち、入力画像中に含まれるオブジェクトを、画像分割手段を用いてフレーム毎に入力画像から分割するとともに、分割されたオブジェクトに関して「色」「重心位置」「面積」といった特徴量を算出して、その特徴量に基づきフレーム間で同一のオブジェクトを認識することは、知的情報処理技術の実現において重要である。なお、「オブジェクト」とは、入力画像において、画素単位で互いに同一の範疇に属する領域を意味する。   That is, the object included in the input image is divided from the input image for each frame using the image dividing means, and the feature amount such as “color”, “centroid position”, and “area” is calculated for the divided object, Recognizing the same object between frames based on the feature amount is important in realizing intelligent information processing technology. Note that “object” means a region in the input image that belongs to the same category in units of pixels.

しかしながら、そのように同一のオブジェクトを認識する従来の画像処理方法においては、画像内に複数のオブジェクトが存在する場合に、フレーム間で同一のオブジェクトを認識することが困難であった。これは、複数のオブジェクトが画像内に存在すると、それらのオブジェクトのうち、上記特徴量が近似するものが同一フレーム内に含まれている可能性があり、それらの特徴量が近似するオブジェクトが同一のオブジェクトとして認識されてしまう可能性があるからである。   However, in such a conventional image processing method for recognizing the same object, it is difficult to recognize the same object between frames when there are a plurality of objects in the image. This is because if there are multiple objects in the image, those objects whose features are approximate may be included in the same frame, and the objects whose features are approximate are the same. This is because it may be recognized as an object.

そこで、本発明の画像処理装置は、特に、動きベクトル算出手段と、推定位置算出手段と、オブジェクト認識手段とを備えている。すなわち、動きベクトル算出手段によりフレーム間で動きベクトルを算出し、その動きベクトルを用いて推定位置算出手段によりオブジェクトの推定位置を算出することにより、異なるフレーム間でのオブジェクトの移動状態を把握することができる。   Therefore, the image processing apparatus of the present invention particularly includes a motion vector calculation unit, an estimated position calculation unit, and an object recognition unit. That is, the motion vector is calculated between the frames by the motion vector calculation means, and the estimated position of the object is calculated by the estimated position calculation means using the motion vector, thereby grasping the moving state of the object between the different frames. Can do.

さらに、オブジェクト認識手段においては、推定位置に基づき同一のオブジェクトを認識しているので、異なるフレーム間でのオブジェクトの移動状態を考慮して同一オブジェクトを認識することができる。   Furthermore, since the object recognition means recognizes the same object based on the estimated position, the same object can be recognized in consideration of the movement state of the object between different frames.

特に、画像分割手段により分割されたオブジェクトについて、動きベクトル算出手段により動きベクトルを算出し、その動きベクトルを用いてオブジェクト認識手段によりフレーム間で同一であるオブジェクトの検出を行うので、複数のオブジェクトのフレーム間での対応付けが可能となる。そのため、単純にフレーム間の画像の差分情報から動いている物体を検出する方法と違い、本発明では動物体の認識だけでなく、静止物体の認識もできる。さらに、カメラがパーンしたりするような撮影画像全てが動いている場合にも物体を検出することが可能となる。   In particular, for an object divided by the image dividing means, a motion vector is calculated by the motion vector calculating means, and the object recognition means detects the same object between frames using the motion vector. Correspondence between frames becomes possible. Therefore, unlike the method of simply detecting a moving object from difference information of images between frames, the present invention can recognize not only a moving object but also a stationary object. Furthermore, it is possible to detect an object even when all the captured images that the camera pans are moving.

なお、オブジェクト同士が衝突したりする等の事情により、あるオブジェクトについての動きベクトルが突然変化するというような状況も十分考えうる。この場合、推定位置算出手段により算出された推定位置と、オブジェクトの実際の位置との間に誤差が生じ、オブジェクト認識手段が異なるフレーム間で同一のオブジェクトを正しく認識できない可能性がある。   It should be noted that a situation in which the motion vector of a certain object suddenly changes due to circumstances such as collision between objects can be considered. In this case, an error may occur between the estimated position calculated by the estimated position calculation unit and the actual position of the object, and the object recognition unit may not be able to correctly recognize the same object between different frames.

そこで、オブジェクト認識手段は、推定位置以外の特徴量も考慮して、異なるフレーム間で同一のオブジェクトを認識する。つまり、フレーム間で動きベクトルが突然変化したとしても、あるオブジェクトに関する動きベクトル以外の特徴量はフレーム間で同一であることが多いので、本発明のオブジェクト認識手段によれば、動きベクトルが変化したとしても異なるフレーム間で同一のオブジェクトを認識することができる。   Therefore, the object recognition means recognizes the same object between different frames in consideration of feature quantities other than the estimated position. That is, even if the motion vector suddenly changes between frames, the feature quantity other than the motion vector related to a certain object is often the same between the frames. Therefore, according to the object recognition means of the present invention, the motion vector has changed. However, the same object can be recognized between different frames.

このように、本発明の画像処理装置によれば、画像内に複数のオブジェクトが存在する場合においても、異なるフレーム間で同一のオブジェクトを正しく認識することができる。   Thus, according to the image processing apparatus of the present invention, even when there are a plurality of objects in an image, the same object can be correctly recognized between different frames.

さらに、上記オブジェクト認識手段は、現フレームの注目オブジェクトと、前フレームの各オブジェクトとの間で、第1差分値および第2差分値に基づく値である距離指標を算出し、その距離指標が最小となるオブジェクトを同一のオブジェクトとして認識するものであり、上記第1差分値は、現フレームにおける注目オブジェクトの推定位置を示す座標と、前フレームにおける各オブジェクトの実際の位置を示す座標との差分値であり、上記第2差分値は、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの注目オブジェクトに関する推定位置以外の特徴量との差分値であることが好ましい。なお、距離指標としては、たとえば、マンハッタン距離や、ユークリッド距離を用いることができる。   Further, the object recognition means calculates a distance index, which is a value based on the first difference value and the second difference value, between the target object of the current frame and each object of the previous frame, and the distance index is the smallest The first difference value is a difference value between coordinates indicating the estimated position of the object of interest in the current frame and coordinates indicating the actual position of each object in the previous frame. The second difference value is preferably a difference value between a feature quantity other than the estimated position related to each object in the previous frame and a feature quantity other than the estimated position related to the object of interest in the current frame. As the distance index, for example, Manhattan distance or Euclidean distance can be used.

すなわち、あるオブジェクトに関しては、そのオブジェクトがフレーム間で移動しても、そのオブジェクトの特徴量はそれほど変化しない。つまり、異なるフレーム間においてオブジェクト同士の特徴量の差分値を算出すれば、同一のオブジェクトに関するその差分値は最小になるといえる。   That is, for an object, even if the object moves between frames, the feature quantity of the object does not change so much. In other words, if the difference value of the feature amount between objects is calculated between different frames, it can be said that the difference value regarding the same object is minimized.

本発明のオブジェクト認識手段は、上記の差分値に基づく値を、距離指標として算出し、その距離指標が最小となるオブジェクトを同一のオブジェクトとして認識するので、適切に同一のオブジェクトを認識することができる。   The object recognition means of the present invention calculates a value based on the above difference value as a distance index, and recognizes the object having the smallest distance index as the same object, so that the same object can be appropriately recognized. it can.

さらに、上述の距離指標は、注目オブジェクトの推定位置の座標と、前フレームにおける各オブジェクトの実際の位置の座標との差分値である第1差分値を考慮して算出されている。   Further, the above-described distance index is calculated in consideration of a first difference value that is a difference value between the coordinates of the estimated position of the object of interest and the coordinates of the actual position of each object in the previous frame.

つまり、注目オブジェクトの動きベクトルが突然変化しない限り、注目オブジェクトの推定位置の座標と、その注目オブジェクトの前フレームにおける実際の位置の座標との差分値は、注目オブジェクトの推定位置座標と、注目オブジェクト以外のオブジェクトの前フレームにおける位置座標との差分値よりも小さくなる。すなわち、フレーム間で上記第1差分値が最小になるオブジェクト同士が、同一のオブジェクトであるといえる。   In other words, unless the motion vector of the target object changes suddenly, the difference value between the coordinates of the estimated position of the target object and the coordinates of the actual position in the previous frame of the target object is the estimated position coordinate of the target object and the target object. It becomes smaller than the difference value with the position coordinate in the previous frame of the other object. That is, it can be said that the objects having the smallest first difference value between frames are the same object.

そして、本発明のオブジェクト認識手段は、上記第1差分値に基づく値である距離指標を算出し、その距離指標が最小になるオブジェクトを同一のオブジェクトとして認識する。したがって、より適切に同一のオブジェクトを認識することができる。   And the object recognition means of this invention calculates the distance parameter | index which is a value based on the said 1st difference value, and recognizes the object from which the distance parameter | index is the minimum as the same object. Therefore, the same object can be recognized more appropriately.

また、第1差分値および第2差分値を算出するためには、位置座標の差分値または特徴量の差分値を算出することが必要になる。このように差分値を算出することは、減算器等を設けるといった比較的簡単な回路構成で実現することができる。したがって、本発明によれば、簡易な回路構成で同一のオブジェクトを認識することが可能となる。   Further, in order to calculate the first difference value and the second difference value, it is necessary to calculate the difference value of the position coordinates or the difference value of the feature amount. The calculation of the difference value in this way can be realized with a relatively simple circuit configuration such as providing a subtractor. Therefore, according to the present invention, it is possible to recognize the same object with a simple circuit configuration.

さらに、上記推定位置以外の特徴量は、画素数、幅、高さ、および色情報のうち、少なくとも1つを含むものであってもよい。   Furthermore, the feature amount other than the estimated position may include at least one of the number of pixels, the width, the height, and the color information.

すなわち、オブジェクトの特徴量として、画素数、幅、高さ、および色情報は、簡易に算出することができる。つまり、画素数、幅、および高さに関しては、オブジェクトに含まれる画素の数をカウントすることにより容易に算出できるし、色情報に関しても画素値から簡易に算出することができる。   That is, the number of pixels, the width, the height, and the color information can be easily calculated as the feature amount of the object. That is, the number of pixels, the width, and the height can be easily calculated by counting the number of pixels included in the object, and the color information can also be easily calculated from the pixel values.

したがって、上記構成によれば、簡易にオブジェクトの特徴量を算出できるので、オブジェクト認識手段による同一オブジェクトの認識処理を簡略化することができる。したがって、より簡易な処理で同一オブジェクトを認識することができる。   Therefore, according to the above configuration, the feature amount of the object can be easily calculated, so that the recognition process of the same object by the object recognition unit can be simplified. Therefore, the same object can be recognized by a simpler process.

また、上記推定位置以外の特徴量は、画素数、幅、高さ、および色情報であり、上記第2差分値は、画素数、幅、高さ、および色情報のそれぞれに関する差分値であり、上記オブジェクト認識手段は、現フレームのオブジェクトiと、前フレームのオブジェクトjとの間における距離指標をDij、上記第1差分値をIpij、上記画素数の差分値をIaij、上記幅の差分値をIwij、上記高さの差分値をIhij、上記色情報の差分値をIcijとした場合、
Dij=αIaij+β(Iwij+Ihij)+γIpij+εIcij (マンハッタン距離の場合)
または、
Dij=√k
k=αIaij 2+βIwij 2+βIhij 2+γIpij 2+εIcij 2 (ユークリッド距離の場合)
(α、β、γ、εは、Iaij,Iwij,Ihij,Ipij,およびIcijのそれぞれの大きさに応じて決定される係数)
と設定して、距離指標Dijを算出することが好ましい。
The feature quantities other than the estimated position are the number of pixels, the width, the height, and the color information, and the second difference value is a difference value for each of the number of pixels, the width, the height, and the color information. The object recognizing means has a distance index D ij between the object i of the current frame and the object j of the previous frame, the first difference value Ip ij , the difference value of the number of pixels Ia ij , and the width The difference value of Iw ij , the height difference value Ih ij , and the color information difference value Ic ij ,
D ij = αIa ij + β (Iw ij + Ih ij ) + γIp ij + εIc ij (in case of Manhattan distance)
Or
D ij = √k
k = αIa ij 2 + βIw ij 2 + βIh ij 2 + γIp ij 2 + εIc ij 2 (in the case of Euclidean distance)
(Α, β, γ, ε are coefficients determined according to the respective sizes of Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij )
And the distance index D ij is preferably calculated.

上記構成によれば、第1差分値、画素数、幅、高さ、および色情報のそれぞれについて、係数α、β、γ、εを重みとして設定し、距離指標Dijを算出することができる。したがって、第1差分値、画素数、幅、高さ、および色情報のうち、いずれを重視するかに応じて重み関数を設定し、距離指標を算出することができる。 According to the above configuration, the distance index D ij can be calculated by setting the coefficients α, β, γ, and ε as weights for each of the first difference value, the number of pixels, the width, the height, and the color information. . Therefore, it is possible to calculate a distance index by setting a weight function according to which of the first difference value, the number of pixels, the width, the height, and the color information is important.

たとえば、オブジェクトの画素数を重視して同一オブジェクトを認識したいというニーズがある場合には、係数αを、β、γ、εよりも大きく設定すればよい。これにより、第1差分値、画素数、幅、高さ、および色情報の変化のうち、距離指標の値は、画素数の変化に最も大きな影響をうけることになる。このように重みが設定された距離指標を用いれば、オブジェクトの画素数の差分値を重視した同一オブジェクトの認識が可能となる。   For example, if there is a need to recognize the same object with an emphasis on the number of pixels of the object, the coefficient α may be set larger than β, γ, and ε. Thereby, among the changes in the first difference value, the number of pixels, the width, the height, and the color information, the value of the distance index has the greatest influence on the change in the number of pixels. If the distance index with the weight set in this way is used, it is possible to recognize the same object with an emphasis on the difference value of the number of pixels of the object.

このように、上記構成によれば、ユーザニーズに合わせて、重みα、β、γ、εを設定して同一オブジェクトを認識することができる。   Thus, according to the above configuration, the same object can be recognized by setting weights α, β, γ, and ε according to user needs.

また、上記係数α、β、γ、およびεは、α=2β=2γ=εを満たすように設定されていてもよい。   The coefficients α, β, γ, and ε may be set so as to satisfy α = 2β = 2γ = ε.

すなわち、差分値Iaij、Iwij、Ihij、Ipij、Icijのうち、Iwij、Ihijはオブジェクトの「サイズ」を示す指標として共通するものである。また、Ipijに関しては、x座標の差分値、y座標の差分値として2つのパラメータが含まれている。 That is, among the difference values Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij , Iw ij and Ih ij are common as an index indicating the “size” of the object. As for Ip ij , two parameters are included as a difference value of the x coordinate and a difference value of the y coordinate.

つまり、オブジェクトのサイズの差分値を示すパラメータ、および座標の差分値を示すパラメータがそれぞれ2つあるのに対し、Iaij、Icijに関してはパラメータが1つしかない。このようにパラメータの数が異なると、オブジェクトの「サイズ」および「位置」に偏ったオブジェクト認識がなされてしまう場合がある。 In other words, there are two parameters indicating the difference value of the object size and two parameters indicating the difference value of the coordinates, but there is only one parameter for Ia ij and Ic ij . Thus, when the number of parameters is different, object recognition biased to the “size” and “position” of the object may be performed.

そこで、上記構成では、α=2β=2γ=εとして設定している。これにより、オブジェクトの特徴量としての「サイズ」、「位置」、「画素数」、および「色情報」について、等しい重み関数が設定されることになる。これにより、特定の特徴量に偏ったオブジェクト認識が行われることを防止し、各特徴量の変化に等しいバランスを設定して同一のオブジェクトを認識することができる。   Therefore, in the above configuration, α = 2β = 2γ = ε is set. As a result, equal weight functions are set for “size”, “position”, “number of pixels”, and “color information” as the feature amount of the object. As a result, object recognition biased to a specific feature amount can be prevented, and the same object can be recognized by setting a balance equal to the change in each feature amount.

さらに、上記オブジェクト認識手段は、上記推定位置またはそれ以外の特徴量として、正規化された値を用いることが好ましい。   Further, the object recognition means preferably uses a normalized value as the estimated position or other feature amount.

上記構成によれば、特徴量としての推定位置、またはそれ以外の特徴量として、正規化された値を用いる。したがって、特徴量を用いる演算処理において、特徴量のビット数を削減することができるので、より簡易な処理において同一オブジェクトの認識が可能となる。   According to the above configuration, a normalized value is used as the estimated position as the feature amount or the other feature amount. Therefore, since the number of bits of the feature value can be reduced in the arithmetic processing using the feature value, the same object can be recognized in a simpler process.

正規化の手法としては、現実の値を、その特徴量がとり得る最大値で除算する手法を用いることが可能である。この正規化手法によれば、特徴量を0〜1の値に正規化することができるので、特徴量を用いる演算処理を非常に簡略化することができる。   As a normalization method, it is possible to use a method of dividing an actual value by the maximum value that the feature amount can take. According to this normalization method, the feature amount can be normalized to a value of 0 to 1, so that the arithmetic processing using the feature amount can be greatly simplified.

または、正規化の手法として、特徴量の現実の値を、入力画像を分割した領域の大きさに基づく所定値で除算してもよい。たとえば、1つの領域が16×16画素の大きさを有するように、画像を複数の領域に分割する場合には、特徴量を16にて除算すればよい。このように分割された領域の大きさに基づく正規化によっても、特徴量のビット数は十分削減できるので、簡易な処理において同一のオブジェクトを認識することができる。   Alternatively, as a normalization method, the actual value of the feature amount may be divided by a predetermined value based on the size of the area into which the input image is divided. For example, when an image is divided into a plurality of regions so that one region has a size of 16 × 16 pixels, the feature amount may be divided by 16. Also by normalization based on the size of the divided areas as described above, the number of bits of the feature amount can be sufficiently reduced, so that the same object can be recognized in a simple process.

さらに、本発明の画像処理集積化回路は、上記構成の画像処理装置を集積回路化したことを特徴としている。これにより、画像処理装置における各手段の処理を並列して高速で行うことができるので、リアルタイムで物体検出が可能なハードウェアを提供することもできる。   Furthermore, an image processing integrated circuit according to the present invention is characterized in that the image processing apparatus having the above configuration is integrated. Thereby, since the processing of each means in the image processing apparatus can be performed in parallel at high speed, hardware capable of detecting an object in real time can be provided.

また、本発明の画像処理方法は、入力画像中に含まれる複数のオブジェクトを、その入力画像のフレーム毎に入力画像から分割する第1ステップと、分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する第2ステップと、各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する第3ステップと、上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識する第4ステップとを備えていることを特徴としている。   The image processing method of the present invention includes a first step of dividing a plurality of objects included in an input image from the input image for each frame of the input image, and for each divided object, before the object. A second step of calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate in the frame and the position coordinate of the previous frame; for each object, the position coordinate of the object in the previous frame; and the motion vector And a third step of calculating an estimated position, which is a position where each object is estimated to exist in the current frame, the estimated position, a feature amount other than the estimated position for each object in the previous frame, and the current frame Based on features other than the estimated position for each object, the current frame and the previous It is characterized in that it comprises a fourth step recognizes the same object with the frame.

上記構成の画像処理方法においては、第1ステップ、第2ステップ、第3ステップ、および第4ステップのそれぞれにおいて、本発明の画像分割手段、動きベクトル算出手段、推定位置算出手段、およびオブジェクト認識手段と同一の処理が実現されている。したがって、本発明の画像処理方法によれば、本発明の画像処理装置と同様の作用効果を得ることができる。   In the image processing method configured as described above, in each of the first step, the second step, the third step, and the fourth step, the image dividing unit, the motion vector calculating unit, the estimated position calculating unit, and the object recognizing unit of the present invention. The same processing is realized. Therefore, according to the image processing method of the present invention, it is possible to obtain the same effect as the image processing apparatus of the present invention.

なお、コンピュータに上記画像処理方法における各ステップを実行させる画像処理プログラムにより、コンピュータを用いて本発明の画像処理方法と同様の作用効果を得ることができる。さらに、上記画像処理プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記画像処理プログラムを実行させることができる。   In addition, the effect similar to the image processing method of this invention can be obtained using a computer with the image processing program which makes a computer perform each step in the said image processing method. Furthermore, the image processing program can be executed on an arbitrary computer by storing the image processing program in a computer-readable recording medium.

本発明の画像処理装置は、動きベクトル算出手段と、推定位置算出手段と、オブジェクト認識手段とを備えている。すなわち、動きベクトル算出手段によりフレーム間で動きベクトルを算出し、その動きベクトルを用いて推定位置算出手段によりオブジェクトの推定位置を算出することにより、異なるフレーム間でのオブジェクトの移動状態を把握することができる。   The image processing apparatus of the present invention includes motion vector calculation means, estimated position calculation means, and object recognition means. That is, the motion vector is calculated between the frames by the motion vector calculation means, and the estimated position of the object is calculated by the estimated position calculation means using the motion vector, thereby grasping the moving state of the object between the different frames. Can do.

さらに、オブジェクト認識手段においては、推定位置に基づき同一のオブジェクトを認識しているので、異なるフレーム間でのオブジェクトの移動状態を考慮して同一オブジェクトを認識することができる。   Furthermore, since the object recognition means recognizes the same object based on the estimated position, the same object can be recognized in consideration of the movement state of the object between different frames.

したがって、本発明のオブジェクト認識手段は、画像内に複数のオブジェクトが存在していても、異なるフレーム間で同一のオブジェクトを認識することができる。   Therefore, the object recognition means of the present invention can recognize the same object between different frames even if a plurality of objects exist in the image.

さらに、オブジェクト認識手段は、推定位置以外の特徴量も考慮して、異なるフレーム間で同一のオブジェクトを認識する。つまり、フレーム間で動きベクトルが突然変化したとしても、あるオブジェクトに関する動きベクトル以外の特徴量はフレーム間で同一であることが多いので、本発明のオブジェクト認識手段によれば、動きベクトルが変化したとしても異なるフレーム間で同一のオブジェクトを認識することができる。   Furthermore, the object recognition means recognizes the same object between different frames in consideration of feature quantities other than the estimated position. That is, even if the motion vector suddenly changes between frames, the feature quantity other than the motion vector related to a certain object is often the same between the frames. Therefore, according to the object recognition means of the present invention, the motion vector has changed. However, the same object can be recognized between different frames.

このように、本発明の画像処理装置によれば、画像内に複数のオブジェクトが存在する場合においても、異なるフレーム間で同一のオブジェクトを正しく認識することができるという効果が奏される。   Thus, according to the image processing apparatus of the present invention, there is an effect that the same object can be correctly recognized between different frames even when a plurality of objects are present in the image.

特に、画像分割手段により分割されたオブジェクトについて、動きベクトル算出手段により動きベクトルを算出し、その動きベクトルを用いてオブジェクト認識手段によりフレーム間で同一であるオブジェクトの検出を行うので、複数のオブジェクトのフレーム間での対応付けが可能となる。そのため、単純にフレーム間の画像の差分情報から動いている物体を検出する方法と違い、本発明では動物体の認識だけでなく、静止物体の認識もできる。さらに、カメラがパーンしたりするような撮影画像全てが動いている場合にも物体を検出することが可能となる。   In particular, for an object divided by the image dividing means, a motion vector is calculated by the motion vector calculating means, and the object recognition means detects the same object between frames using the motion vector. Correspondence between frames becomes possible. Therefore, unlike the method of simply detecting a moving object from difference information of images between frames, the present invention can recognize not only a moving object but also a stationary object. Furthermore, it is possible to detect an object even when all the captured images that the camera pans are moving.

〔1.画像処理回路の構成〕
本発明の画像処理回路(画像処理装置)1は、図1に示すように、画像分割/特徴量計算部2と、物体検出部3とにより構成されている。さらに、画像分割/特徴量計算部2は、結合重み計算部(画像分割手段)4と、リーダーセル計算部(画像分割手段)5と、画像分割セルネットワーク(画像分割手段)6と、物体情報計算部7とを備えている。また、物体検出部3は、検索情報保存部8と、位置情報計算部(動きベクトル算出手段、推定位置算出手段)9と、最小距離検索連想メモリ(オブジェクト認識手段)10とを備えている。
[1. Configuration of image processing circuit]
As shown in FIG. 1, the image processing circuit (image processing apparatus) 1 according to the present invention includes an image division / feature amount calculation unit 2 and an object detection unit 3. Further, the image division / feature amount calculation unit 2 includes a combination weight calculation unit (image division unit) 4, a leader cell calculation unit (image division unit) 5, an image division cell network (image division unit) 6, and object information. And a calculator 7. The object detection unit 3 includes a search information storage unit 8, a position information calculation unit (motion vector calculation means, estimated position calculation means) 9, and a minimum distance search associative memory (object recognition means) 10.

画像処理回路1における処理を概説すると、入力画像データが、画像分割/特徴量計算部2の画像分割セルネットワーク6に入力され、画像分割処理が行われる。この画像分割処理において、1つのオブジェクトの画像分割処理が完了すると同時に、対応するオブジェクトの画像の特徴量が計算され、その値は物体検出部3に送られフレーム間でマッチング(詳細は後述する)が取られる。最後にこのマッチング結果と検出オブジェクトの位置情報とから、次フレームの推定位置と動きベクトルが計算されるとともにメモリに記憶される。以下、画像処理回路1を構成するこれらのブロックの機能についての説明を行う。   When the processing in the image processing circuit 1 is outlined, input image data is input to the image division cell network 6 of the image division / feature quantity calculation unit 2 and image division processing is performed. In this image division processing, the feature amount of the image of the corresponding object is calculated at the same time as the image division processing of one object is completed, and the value is sent to the object detection unit 3 and matched between frames (details will be described later). Is taken. Finally, the estimated position and motion vector of the next frame are calculated and stored in the memory from the matching result and the position information of the detected object. The functions of these blocks constituting the image processing circuit 1 will be described below.

〔1−1.画像分割/特徴量計算部2の構成〕
画像分割/特徴量計算部2は、上述のように、結合重み計算部4と、リーダーセル計算部5と、画像分割セルネットワーク6と、物体情報計算部7とを備えている。
[1-1. Configuration of image segmentation / feature amount calculation unit 2]
As described above, the image division / feature amount calculation unit 2 includes the connection weight calculation unit 4, the leader cell calculation unit 5, the image division cell network 6, and the object information calculation unit 7.

結合重み計算部4は、入力画像データがグレースケール画像の場合には、その輝度値に基づき、また、入力画像がカラー画像の場合には、各Red,Green,Blue成分の輝度値に基づき、画素間の輝度の近さを表す結合重みを計算するものである。また、リーダーセル計算部5は、後述の画像分割処理を行う時にその処理の起点となるリーダーセルを決定するものである。リーダーセルを決定するためには、注目画素と、その周囲に存在するたとえば8つの画素のそれぞれとの間において、結合重み計算部4を用いて結合重みを計算する。そして、その結合重みの和が、予めユーザが指定したしきい値より大きければ、その注目画素をリーダーセルとして決定する。   When the input image data is a grayscale image, the connection weight calculation unit 4 is based on the luminance value. When the input image is a color image, the connection weight calculation unit 4 is based on the luminance value of each Red, Green, and Blue component. A connection weight that represents the closeness of luminance between pixels is calculated. The leader cell calculation unit 5 determines a leader cell as a starting point of the image division process described later. In order to determine the leader cell, the connection weight is calculated using the connection weight calculator 4 between the target pixel and each of, for example, eight pixels existing around the target pixel. If the sum of the coupling weights is larger than a threshold value designated in advance by the user, the target pixel is determined as a leader cell.

画像分割セルネットワーク6は、初期化フェーズ、自己発火フェーズ、引火フェーズ、および鎮火フェーズからなる画像分割処理を行うものである。これらのフェーズにおける処理内容の詳細については後述する。   The image segmentation cell network 6 performs image segmentation processing including an initialization phase, a self-ignition phase, an ignition phase, and a fire suppression phase. Details of the processing contents in these phases will be described later.

より具体的には、画像分割セルネットワーク6は、図2に示すように、水平結合重みレジスタWR(H)と、垂直結合重みレジスタWR(V)と、画像分割セルC(iは整数)とから構成されている(特許文献3および非特許文献13参照)。 More specifically, as shown in FIG. 2, the image division cell network 6 includes a horizontal combination weight register WR (H), a vertical combination weight register WR (V), and an image division cell C i (i is an integer). (See Patent Document 3 and Non-Patent Document 13).

水平結合重みレジスタWR(H)および垂直結合重みレジスタWR(V)は、画像分割セルCの間に配置されるとともに、水平・垂直結合重みレジスタが交互になるように配置されている。また、水平結合重みレジスタWR(H)は、斜め方向と水平方向の画素に関する結合重みWijを4つ保持し、垂直結合重みレジスタWR(V)は斜め方向と垂直方向の画素に関する結合重みWijを4つ保持している。なお、図2における各結合重みレジスタの中の矢印は、保存されるセル間の結合重みの位置関係を模式的に表している。 Horizontal coupling weight register WR (H) and vertical coupling weight register WR (V) is disposed between the image segmentation cell C i, are arranged so that the horizontal and vertical coupling weight register alternating. The horizontal connection weight register WR (H) holds four connection weights W ij for the pixels in the diagonal direction and the horizontal direction, and the vertical connection weight register WR (V) stores the connection weight W for the pixels in the diagonal direction and the vertical direction. It holds 4 ij . Note that arrows in each connection weight register in FIG. 2 schematically represent the positional relationship of connection weights between stored cells.

また、画像分割セルCは、結合重みレジスタWR(H)・WR(V)の出力に基づき、実際に画像分割処理を実行するものである。 The image division cell C i actually executes the image division processing based on the output of the combination weight register WR (H) / WR (V).

さらに、画像分割セルネットワーク6は、図3に示すように、グローバル抑制部11を備えている。このグローバル抑制部11は、隣接する画像分割セルにおけるグローバル抑制子Zi(詳細は後述する)の論理和(OR)をとることにより、画像分割セルの各行毎に新しく発火したセルがあるかどうかを示す信号であるZory信号を出力するものである。画像分割セルネットワーク6内でこのZory信号が立ち上がった範囲には、必ず画像分割されたオブジェクトが1つ存在する。   Furthermore, the image division | segmentation cell network 6 is provided with the global suppression part 11, as shown in FIG. The global suppression unit 11 takes a logical sum (OR) of global suppressors Zi (details will be described later) in adjacent image division cells to determine whether or not there is a newly fired cell for each row of the image division cells. A Zory signal, which is a signal indicating the above, is output. There is always one image-divided object in the range where the Zory signal rises in the image-dividing cell network 6.

なお、図4(a)に示すように、画像分割セルの各列毎に新しく発火したセルがあるかどうかを示す信号であるZorx信号を出力することにより、画像分割されたオブジェクトが存在するx座標とy座標の範囲を計算するようにしてもよい。また、図4(b)に、i行目におけるグローバル抑制部11の詳細な構成を示す。   As shown in FIG. 4A, by outputting a Zorx signal that is a signal indicating whether or not there is a newly fired cell for each column of the image division cells, there exists an object in which the image division exists. A range of coordinates and y coordinates may be calculated. FIG. 4B shows a detailed configuration of the global suppression unit 11 in the i-th row.

また、物体情報計算部7は、図5に示すように、min-max計算部7aと、面積/min-max計算部7bと、物体情報保存部7cと、特徴量計算部7dとにより構成されており、画像分割セルネットワーク6により分割されたオブジェクトの特徴量などの情報を計算する。また、図5に示すように、画像分割/特徴量計算部2には、画像分割/特徴量計算部2内の各ブロックにおける処理を統括的に制御する制御回路12が設けられている。   As shown in FIG. 5, the object information calculation unit 7 includes a min-max calculation unit 7a, an area / min-max calculation unit 7b, an object information storage unit 7c, and a feature amount calculation unit 7d. The information such as the feature amount of the object divided by the image division cell network 6 is calculated. Further, as shown in FIG. 5, the image division / feature amount calculation unit 2 is provided with a control circuit 12 that comprehensively controls processing in each block in the image division / feature amount calculation unit 2.

min-max計算部7aは、グローバル抑制部11により出力されるグローバル抑制信号Zoryを用いて、画像分割されたオブジェクトの縦方向(y座標方向)の大きさを計算する回路である。なお、分割されたオブジェクトの大きさを計算するためには、図4(a)に示すように改良されたグローバル抑制部11により出力されるZorx信号を用いてもよい。   The min-max calculation unit 7a is a circuit that calculates the size in the vertical direction (y-coordinate direction) of the image-divided object using the global suppression signal Zory output from the global suppression unit 11. In order to calculate the size of the divided object, a Zorx signal output by the improved global suppression unit 11 as shown in FIG. 4A may be used.

また、min-max計算部7aは、図6に示すように、レジスタ7e…と、min-max検出部7fと、デコーダ7g…とを備えている。   As shown in FIG. 6, the min-max calculator 7a includes registers 7e, min-max detectors 7f, and decoders 7g.

レジスタ7eは、Zorx信号として1が出力された列の番号を記憶するものである。また、min-max検出部7fは、図7に示すように、レジスタ7eに記憶された列の番号のうち、最小のものと最大のものとを1とし、それ以外の部分を0として出力するものである。さらに、デコーダ7gは、図8に示すように、min-max検出部7fにより出力された「1」の情報を、列の番号の情報に変換するものであり、これによりオブジェクトの横方向(x座標方向)の大きさを計算することができる。   The register 7e stores the column number from which 1 is output as the Zorx signal. Further, as shown in FIG. 7, the min-max detection unit 7f outputs 1 as the minimum and maximum among the column numbers stored in the register 7e, and outputs the other portions as 0. Is. Further, as shown in FIG. 8, the decoder 7g converts the information of “1” output by the min-max detector 7f into information of the column number, and thereby the horizontal direction (x The size of the coordinate direction can be calculated.

上記の処理により、min-max計算部7aは、図9のように検出されたオブジェクトiの4つの座標xi,min, xi,max, yi,min, yi,maxのうち、xi,min とxi,max とを求める。また、xi,minとxi,max の情報を用いることで、以降の面積計算処理の計算範囲を絞りこむことができる。なお、min-max計算部7aの詳細な構成を図10に示す。 Through the above processing, the min-max calculation unit 7a outputs x of the four coordinates x i, min , x i, max , y i, min , y i, max of the object i detected as shown in FIG. Find i, min and x i, max . Further, by using the information of x i, min and x i, max , the calculation range of the subsequent area calculation processing can be narrowed down. The detailed configuration of the min-max calculator 7a is shown in FIG.

面積/min-max計算部7bは、min-max計算部7aで計算されたxi,min,xi,maxの範囲で、検出されたオブジェクトの面積および残りの座標情報の計算を行う。これらの計算は、画像分割結果の1つのオブジェクトの分割結果の出力と並行して行われる。 The area / min-max calculation unit 7b calculates the area of the detected object and the remaining coordinate information in the range of x i, min , x i, max calculated by the min-max calculation unit 7a. These calculations are performed in parallel with the output of the division result of one object of the image division result.

具体的に説明すると、面積/min-max計算部7bは、図11に示すように、レジスタ7h…と、カウンタ7i…と、加算器7jとを備えている。まず、図11に示す制御回路12は、画像分割セルネットワーク6において、xi,maxの位置から1列ずつ分割領域であるかをチェックし、1つのオブジェクトの分割領域であれば1を、そうでなければ0をレジスタ7hに記憶する。このとき、制御回路12は、レジスタ7hからの信号をカウンタ7iに出力する。このような1つのオブジェクトの分割領域のチェック処理、および「0」または「1」の出力処理を、xi,minの場所まで繰り返す。 Specifically, as shown in FIG. 11, the area / min-max calculation unit 7b includes registers 7h, counters 7i, and adders 7j. First, the control circuit 12 shown in FIG. 11 checks in the image division cell network 6 whether the division area is one column at a time from the position of x i, max , and if the division area is one object, 1 is set. Otherwise, 0 is stored in the register 7h. At this time, the control circuit 12 outputs a signal from the register 7h to the counter 7i. Such a check process of the divided area of one object and an output process of “0” or “1” are repeated up to the place of x i, min .

これにより、(xi,min, xi,max)間において「0」または「1」の出力処理が終了したとき、カウンタ7iには、画像分割セルネットワーク6における行ごとの1つのオブジェクトの画素数が入力されるので、全てのカウンタ7i…の値を加算器7jを用いて足すことにより、現在分割されている1つのオブジェクトの面積を画素数ajとして計算することができる。 As a result, when the output process of “0” or “1” is completed between (x i, min , x i, max ), the counter 7 i stores the pixel of one object for each row in the image division cell network 6. Since the number is input, the area of one object currently divided can be calculated as the pixel number a j by adding the values of all the counters 7i... Using the adder 7j.

さらに、面積/min-max計算部7bは、オブジェクトの面積と同時に、yi,min, yi,maxの値も求める。具体的に説明すると、yi,min, yi,maxは、面積の計算のためにレジスタ7hに記憶した値が1以上の行を検出し、その中で最も上にあるy座標をyi,max 、最も下にあるy座標をyi,minとすることにより、yi,min, yi,max の値を求める。なお、面積/min-max計算部7bの詳細な構成を図12に示す。 Further, the area / min-max calculator 7b obtains the values of y i, min , y i, max simultaneously with the area of the object. More specifically, y i, min , y i, max are detected when a line having a value stored in the register 7h of 1 or more for area calculation is detected, and the y coordinate at the top is defined as y i. , max , and the lowest y coordinate as y i, min , the values of y i, min , y i, max are obtained. The detailed configuration of the area / min-max calculator 7b is shown in FIG.

物体情報保存部7cは、図13に示すように、レジスタ7k…で構成されており、各レジスタ7kには、上述のように計算されたオブジェクトの画素数ai と、xi,min,xi,max, yi,min, yi,maxの4つの座標が保存されている。 As shown in FIG. 13, the object information storage unit 7c is composed of registers 7k..., And each register 7k includes the object pixel number a i calculated as described above, x i, min , x Four coordinates i, max , y i, min , y i, max are stored.

特徴量計算部7dは、物体情報保存部7cに保存された座標データの中から、そのオブジェクトのサイズ(幅wi(t),高さhi(t)),位置(xi(t),yi(t))および、色情報ci(t)を計算するものである。サイズおよび位置情報の計算方法の詳細は後述するが、計算結果を除算器により0〜1の範囲に正規化するのは、ハードウェアのコストが大きくなる場合がある。 The feature amount calculation unit 7d selects the size (width w i (t), height h i (t)), position (x i (t)) of the object from the coordinate data stored in the object information storage unit 7c. , y i (t)) and color information c i (t). Although details of the calculation method of the size and position information will be described later, normalizing the calculation result to a range of 0 to 1 by a divider may increase the cost of hardware.

そこで、ビット数を削減する方法をシミュレーションした結果、大きさが16×16画素の領域を基準として入力画像をブロックで分割することで、それぞれ情報のビット数の削減が可能であることがわかった。たとえば、図14に示すように、入力画像が240×320画素の大きさであれば、縦方向は15ブロック、横方向は20ブロックに分割される。このようにビット数を削減する方法を用いることにより、各情報のビット数は表1のように削減することができる。   Therefore, as a result of simulating the method of reducing the number of bits, it was found that the number of bits of information can be reduced by dividing the input image into blocks based on an area of 16 × 16 pixels in size. . For example, as shown in FIG. 14, if the input image has a size of 240 × 320 pixels, the vertical direction is divided into 15 blocks and the horizontal direction is divided into 20 blocks. By using the method of reducing the number of bits in this way, the number of bits of each information can be reduced as shown in Table 1.

Figure 2006072763
Figure 2006072763

なお、検出されたオブジェクトの色情報は、同一物体との比較でも0〜8の範囲でずれていることもあるので、この範囲に対応するビット数を削減する。   Note that the color information of the detected object may be shifted in the range of 0 to 8 even when compared with the same object, so the number of bits corresponding to this range is reduced.

また、特徴量計算部7dは、図15に示すように、座標およびサイズを計算する減算器7l…および加算器7m…と、ビット数を削減するシフタ7n…とにより構成されている。また、色情報は、これまでに得られた座標情報を、特徴量計算部7d内の入力メモリ7oに転送することで4点の色情報を受け取り、それらを平均することで得られる。なお、特徴量計算部7dで計算された値は、物体情報保存部7cに記憶される。   Further, as shown in FIG. 15, the feature amount calculation unit 7d includes subtracters 7l,... For adding coordinates and sizes, and shifters 7n, for reducing the number of bits. Further, the color information is obtained by transferring the coordinate information obtained so far to the input memory 7o in the feature amount calculation unit 7d to receive the color information of four points and averaging them. The value calculated by the feature amount calculation unit 7d is stored in the object information storage unit 7c.

このように、画像分割/特徴量計算部2は、画像分割セルネットワーク6と、min-max計算部7aと、面積/min-max計算部7bと、物体情報保存部7cと、特徴量計算部7dとにより構成されている。画像分割/特徴量計算部2に係る詳細な構成を、図16に示す。   As described above, the image division / feature amount calculation unit 2 includes the image division cell network 6, the min-max calculation unit 7a, the area / min-max calculation unit 7b, the object information storage unit 7c, and the feature amount calculation unit. 7d. A detailed configuration of the image division / feature amount calculation unit 2 is shown in FIG.

〔1−2.物体検出部3の構成〕
物体検出部3は、図17に示すように、検索情報保存部8と、動きベクトル計算部(動きベクトル算出手段)9aと、推定位置計算部(推定位置算出手段)9bと、最小距離検索連想メモリ(非特許文献9および非特許文献12参照)10とを備えている。なお、図1に示した位置情報計算部9は、動きベクトル計算部9aと、推定位置計算部9bとにより構成される。
[1-2. Configuration of Object Detection Unit 3]
As shown in FIG. 17, the object detection unit 3 includes a search information storage unit 8, a motion vector calculation unit (motion vector calculation unit) 9a, an estimated position calculation unit (estimated position calculation unit) 9b, and a minimum distance search association. And a memory (see Non-Patent Document 9 and Non-Patent Document 12). Note that the position information calculation unit 9 shown in FIG. 1 includes a motion vector calculation unit 9a and an estimated position calculation unit 9b.

物体検出部3における処理を概説すると、画像分割/特徴量計算部2で計算されたある時刻tにおける画像の特徴量、すなわち画像の面積,サイズ,位置、および色情報が、検索情報保存部8に記憶された後、最小距離検索連想メモリ10に渡される。   When the processing in the object detection unit 3 is outlined, the feature quantity of the image at a certain time t calculated by the image segmentation / feature quantity calculation unit 2, that is, the area, size, position, and color information of the image are obtained as a search information storage unit 8. Are stored in the minimum distance search associative memory 10.

そして、最小距離検索連想メモリ10でマッチングを取った後に、マッチングしたオブジェクトの情報と、検索情報保存部8の位置情報とが動きベクトル計算部9aに送られ、動きベクトル計算部9aにおいてフレーム間におけるオブジェクトの移動量が計算される。   Then, after matching is performed in the minimum distance search associative memory 10, information on the matched object and position information in the search information storage unit 8 are sent to the motion vector calculation unit 9a. The amount of object movement is calculated.

このように計算されたオブジェクトの移動量と、オブジェクトの現在位置から、フレームt+1の時の推定位置が推定位置計算部9bで計算される。以下、物体検出部3を構成する各ブロックの機能についての説明を行う。   From the calculated movement amount of the object and the current position of the object, the estimated position at the time of frame t + 1 is calculated by the estimated position calculation unit 9b. Hereinafter, the function of each block constituting the object detection unit 3 will be described.

検索情報保存部8は、現フレームで分割されたオブジェクトの特徴量として、画素数、サイズ、位置および色情報を保存し、マッチング用のデータとして最小距離検索連想メモリ10にこれらの特徴量を出力するものである。検索情報保存部8の回路構成を図18に示す。   The search information storage unit 8 stores the number of pixels, size, position, and color information as the feature quantities of the object divided in the current frame, and outputs these feature quantities to the minimum distance search associative memory 10 as matching data. To do. The circuit configuration of the search information storage unit 8 is shown in FIG.

最小距離検索連想メモリ10は、保持している前フレームt−1のオブジェクトの特徴量と、検索情報保存部8に記憶している現フレームtのオブジェクトの物体情報とのマッチングを取り、前フレームと現フレームとの間において最も近いオブジェクトを検索するものである。   The minimum distance search associative memory 10 matches the retained feature quantity of the object of the previous frame t−1 with the object information of the object of the current frame t stored in the search information storage unit 8, and The closest object between the current frame and the current frame is searched.

図19に、最小距離検索連想メモリ10の構成を示す。図19に示すように、最小距離検索連想メモリ10は、メモリ領域10aと、ウィンナ・ルーザ距離増幅を行うウィンナ・ラインアップ増幅器(以下、WLA)10bと、ウィンナ・テイクオール回路(以下、WTA)10cとで構成される。   FIG. 19 shows the configuration of the minimum distance search associative memory 10. As shown in FIG. 19, the minimum distance search associative memory 10 includes a memory area 10a, a winner lineup amplifier (hereinafter referred to as WLA) 10b that performs a winner-loser distance amplification, and a winner take-all circuit (hereinafter referred to as WTA). 10c.

さらに、メモリ領域10aは、集積化されたユニット比較器UCi,j(i=1〜R,j=1〜W、添え字i,jの範囲は以下同様)を備えるR行、W列の蓄積セルSCi,jと、ワード比較に重み付けを行ったワード比較器WCとから構成される。 Further, the memory area 10a has an integrated unit comparator UC i, j (i = 1 to R, j = 1 to W, the ranges of subscripts i and j are the same below) of R rows and W columns. The storage cell SC i, j includes a word comparator WC i weighted for word comparison.

また、メモリ領域10aの左辺には、R行のロウデコーダ10dが接続され、上辺には入力データ(K×Wビット)を入力するワード検索部10eが配置される。また、下辺にはK×Wカラムのカラムデコーダ10fが接続され、蓄積セルごとに読み出し・書き込みが行われる。なお、K×Wビットの参照ワードは、予め各蓄積セルSCi,jに書き込まれ、ワード検索部10eに入力されるK×Wビットの入力ワードに最も類似する最小距離参照ワードがウィンナとして読み出される。また、最小距離検索連想メモリ10の詳細については、特許文献4を参照されたい。 Further, a row decoder 10d of R rows is connected to the left side of the memory area 10a, and a word search unit 10e for inputting input data (K × W bits) is arranged on the upper side. A column decoder 10f of K × W column is connected to the lower side, and reading / writing is performed for each storage cell. The K × W bit reference word is written in each storage cell SC i, j in advance , and the minimum distance reference word most similar to the K × W bit input word input to the word search unit 10e is read as a winner. It is. For details of the minimum distance search associative memory 10, refer to Patent Document 4.

また、最小距離検索連想メモリ10に記憶されている情報は、表2のようになっており、このうち実際に検索に使用される情報は画素数、サイズ、位置情報、色情報である。使用されない情報である動きベクトルは、後述する動きベクトル計算部9aの計算結果として計算される。   The information stored in the minimum distance search associative memory 10 is as shown in Table 2, and the information actually used for the search is the number of pixels, size, position information, and color information. A motion vector, which is information that is not used, is calculated as a calculation result of a motion vector calculation unit 9a described later.

Figure 2006072763
Figure 2006072763

動きベクトル計算部9aは、図20に示すように、減算器を備えるものであり、検索情報保存部8の位置情報(xn(t−1),yn(t−1))と、最小距離検索連想メモリ10とによりマッチングが取られたオブジェクトの位置情報(xn(t),yn(t))とから、動きベクトル(mvx(t),mvy(t))を求めるものである。 As shown in FIG. 20, the motion vector calculation unit 9a includes a subtracter, and the position information (x n (t−1), y n (t−1)) of the search information storage unit 8 and the minimum A motion vector (mv x (t), mv y (t)) is obtained from the position information (x n (t), y n (t)) of the object matched by the distance search associative memory 10 It is.

具体的には、動きベクトル計算部9aは、以下の式に基づき、動きベクトルを求める。   Specifically, the motion vector calculation unit 9a obtains a motion vector based on the following formula.

mvx(t)=xn(t)−xn(t−1)
mvy(t)=yn(t)−yn(t−1)
なお、動きベクトル計算部9aの計算結果は、マッチングが取られた最小距離検索連想メモリ10の情報に上書きされる。
mv x (t) = x n (t) −x n (t−1)
mv y (t) = y n (t) −y n (t−1)
The calculation result of the motion vector calculation unit 9a is overwritten on the information in the minimum distance search associative memory 10 for which matching has been taken.

推定位置計算部9bは、図21に示すように、加算器を備えるものであり、以下の式に示すように、動きベクトル計算部9aにより計算された動きベクトル(mvx(t),mvy(t))と、現フレームの位置情報(xn(t),yn(t))を足すことで、次フレームでの推定位置(xn(t+1),yn(t+1))を計算するものである。 As shown in FIG. 21, the estimated position calculation unit 9b includes an adder, and as shown in the following equation, the motion vector (mv x (t), mv y calculated by the motion vector calculation unit 9a (t)) and the position information (x n (t), y n (t)) of the current frame, the estimated position (x n (t + 1), y n (t + 1) in the next frame is added. )) Is calculated.

xn(t+1)=xn(t)+mvx(t)
yn(t+1)=yn(t)+mvy(t)
このように、物体検出部3は、検索情報保存部8と、動きベクトル計算部9aと、推定位置計算部9bと、最小距離検索連想メモリ10とにより構成されている。物体検出部3に係る詳細な構成を、図22に示す。
x n (t + 1) = x n (t) + mv x (t)
y n (t + 1) = y n (t) + mv y (t)
Thus, the object detection unit 3 includes the search information storage unit 8, the motion vector calculation unit 9a, the estimated position calculation unit 9b, and the minimum distance search associative memory 10. A detailed configuration of the object detection unit 3 is shown in FIG.

〔2.画像処理アルゴリズム〕
次に、上記構成の画像処理回路1による画像処理アルゴリズム(画像処理方法)について説明する。本実施形態の画像処理アルゴリズムは、図23に示すように、(1)画像分割,(2)特徴抽出,(3)連想マッチング,(4)動き検出の4つのブロックから成っている。
[2. Image processing algorithm)
Next, an image processing algorithm (image processing method) by the image processing circuit 1 having the above configuration will be described. As shown in FIG. 23, the image processing algorithm of this embodiment is composed of four blocks: (1) image segmentation, (2) feature extraction, (3) associative matching, and (4) motion detection.

先ず、画像処理アルゴリズムの流れについて概説する。画像処理アルゴリズムが開始されると(ステップ0、以下ステップを単に「S」と記載する)、制御回路12(図5参照)により入力フレームデータが存在するか否かのチェックが行われる(S1)。   First, the flow of the image processing algorithm will be outlined. When the image processing algorithm is started (step 0, the following steps are simply referred to as “S”), the control circuit 12 (see FIG. 5) checks whether or not input frame data exists (S1). .

このとき、入力フレームデータが存在しない場合は、画像処理アルゴリズムは終了する。一方、入力フレームデータが存在する場合は、そのフレームに対して画像分割処理が行われる。ここで、ある1領域(1オブジェクト)が画像分割されると、その結果から後述の特徴抽出処理が実行される。以下に、入力フレームデータが存在するか否かを確認するアルゴリズムの記述例を示す。   At this time, if there is no input frame data, the image processing algorithm ends. On the other hand, when input frame data exists, image division processing is performed on the frame. Here, when one region (one object) is image-divided, a feature extraction process described later is executed from the result. A description example of an algorithm for confirming whether or not input frame data exists will be shown below.

Figure 2006072763
Figure 2006072763

特徴抽出処理が実行された後、分割された1つのオブジェクトの情報に基づき連想マッチング処理が実行される。そして、連想マッチング処理と同時に、入力画像に対して次の領域の分割処理が始まる。なお、新しく分割される領域がないときは、S1の入力フレームデータのチェック処理に戻る。   After the feature extraction process is executed, an associative matching process is executed based on the information of one divided object. At the same time as the associative matching process, the next area division process starts for the input image. If there is no newly divided area, the process returns to the input frame data check process in S1.

また、連想マッチング処理は、特徴抽出処理の結果に基づき、フレーム間でオブジェクトごとに特徴量の距離指標(たとえばマンハッタン距離、ユークリッド距離。詳細は後述する)を計算し、最も距離指標が小さいオブジェクトを同一のオブジェクトして認識する。その後、元のオブジェクトおよび検索されたオブジェクトの位置情報から、移動量を計算するとともに、動きベクトルを求めた後、画像分割処理に戻る。また、連想マッチング処理の際に一致するオブジェクトが存在しない場合は、分割されたオブジェクトを新しいオブジェクトとして認識し、画像分割処理に戻る。以下、画像処理アルゴリズムにおける各処理の詳細について、具体的に説明を行う。   In the associative matching process, a distance index of a feature amount (for example, Manhattan distance, Euclidean distance; details will be described later) is calculated for each object between frames based on the result of the feature extraction process, and an object having the smallest distance index is calculated. Recognize as the same object. Thereafter, the movement amount is calculated from the position information of the original object and the searched object, and the motion vector is obtained, and then the process returns to the image division process. If there is no matching object in the associative matching process, the divided object is recognized as a new object, and the process returns to the image dividing process. The details of each process in the image processing algorithm will be specifically described below.

〔2−1.画像分割処理のアルゴリズム〕
本実施形態では、セルネットワークに基づく画像分割アルゴリズム(特許文献3参照)をオブジェクトの抽出に用いる。この画像分割アルゴリズムの特徴として、比較的に簡単な処理で画像分割が実現できること、またその処理サイクル数も少なく高速であること、並列処理が可能であることなどを挙げることができる。さらに、この画像分割アルゴリズムは、初期化フェーズ、自己発火フェーズ、引火フェーズ、および鎮火フェーズの4つの段階に分けられる。以下、各フェーズにおける処理の詳細を説明する。
[2-1. (Image segmentation algorithm)
In this embodiment, an image segmentation algorithm based on a cell network (see Patent Document 3) is used for object extraction. Features of this image segmentation algorithm include that image segmentation can be realized with relatively simple processing, that the number of processing cycles is small and high speed, and that parallel processing is possible. Furthermore, this image segmentation algorithm is divided into four stages: an initialization phase, a self-ignition phase, a flash phase, and a fire suppression phase. Details of the processing in each phase will be described below.

先ず、初期化フェーズ(S2)においては、発火中のセルが存在するかどうかを決定するための変数z(グローバル抑制子)を0に設定する。z=1の場合、発火中のセルが存在すること、すなわち1つの領域の画像分割処理が続いていることを表し、z=0の場合には、発火中のセルが存在しない、すなわち1つの領域の画像分割処理が終わったことを表す。   First, in the initialization phase (S2), a variable z (global suppressor) for determining whether or not there is a cell being ignited is set to zero. When z = 1, this means that there is a cell that is firing, that is, the image segmentation process of one region is continuing, and when z = 0, there is no cell that is firing, that is, one This represents the end of the image segmentation process for the area.

また、各セルiには、状態変化の有無を表す変数ziを用意するとともに、非発火状態から発火状態へ遷移した場合にのみzi=1とし、それ以外はzi=0とする。この変数ziをもとに、フレームtにおけるグローバル抑制子z(t)の値を全てのziの論理和として、z(t)=∪∀ii(t)と定義する。ここで、∪は論理和(OR)演算子を表す。 Each cell i is provided with a variable z i indicating whether or not there is a state change, and z i = 1 only when transitioning from the non-ignition state to the ignition state, and z i = 0 otherwise. Based on this variable z i , the value of the global suppressor z (t) in the frame t is defined as z (t) = ∪ ∀ i z i (t) as the logical sum of all z i . Here, ∪ represents a logical sum (OR) operator.

また、初期化フェーズにおいては、入力画像データとしてグレースケールの画像データが結合重み計算部4(図5等参照)に入力される。グレースケールの画像データとは、画像の輝度値であり、その値は0〜255の範囲に入っている。そして、S2の初期化フェーズにおいては、この画像データの輝度値に基づき、結合重み計算部4により、画素間の輝度の近さを表す結合重みWikが計算される。この結合重みWikは下式で表される。 In the initialization phase, grayscale image data is input to the connection weight calculation unit 4 (see FIG. 5 and the like) as input image data. Grayscale image data is the luminance value of an image, and the value is in the range of 0-255. Then, in the initialization phase of S2, based on the luminance value of the image data, the coupling weight calculation unit 4 calculates a coupling weight W ik that represents the closeness of luminance between pixels. This connection weight W ik is expressed by the following equation.

ik=Imax/(1+│Ii−I│),k∈N(i)
なお、Ii,Iは画素i,kの輝度値であり、Imaxは画素の輝度値の最大値であり、輝度値を8bitで表現した場合はImax=255となる。
W ik = I max / (1+ | I i −I k |), k∈N (i)
Note that I i and I k are the luminance values of the pixels i and k, I max is the maximum luminance value of the pixels, and when the luminance value is expressed in 8 bits, I max = 255.

さらに、S2における初期化フェーズでは、リーダーセル計算部5(図5等参照)により、リーダーセルが存在するか否かが判断される(S3)。すなわち、リーダーセル計算部5は、注目画素の近傍の結合重みWikの和Σk∈N(i)ikを計算するとともに、その値がしきい値φより大きければリーダーセルが存在すると判断する。 Further, in the initialization phase in S2, the leader cell calculation unit 5 (see FIG. 5 and the like) determines whether or not a leader cell exists (S3). That is, the leader cell calculation unit 5 calculates the sum Σ k∈N (i) W ik of the connection weights W ik in the vicinity of the target pixel, and if the value is larger than the threshold value φ p , the leader cell exists. to decide.

さらに、Σk∈N(i)ikがφより大きい場合には、自己発火の可否を表す変数pを1に設定し、リーダーセルを自己発火可能なセルとして決定する。Σk∈N(i)ikがφpに等しい、またはそれより小さい場合(Σk∈N(i)ik≦φp)には、pi=0(自己発火不可能)に初期化する。 Further, Σ k∈N (i) W ik is the larger than phi p, and sets the variable p i indicating whether the self-ignition in 1, to determine the leader cell as the self-excitable cell. If Σ kN (i) W ik is equal to or smaller than φ pkN (i) W ik ≤ φ p ), it is initialized to p i = 0 (self-ignition is impossible) To do.

また、S2における初期化フェーズでは、全てのセルについて、そのセルが発火しているかどうかを示す変数xi(t)を0に設定する。なお、この変数xi(t)は、セルが発火状態にある場合には1に設定される。 In the initialization phase in S2, for all the cells, a variable x i (t) indicating whether or not the cells are firing is set to zero. Note that this variable x i (t) is set to 1 when the cell is in an ignition state.

S3においてリーダーセルが存在すると判断された場合、画像処理アルゴリズムは、実際に画像分割処理を行う自己発火フェーズ(S4)に移行する。自己発火フェーズにおいては、初期化フェーズで決定したリーダーセルのうちの一つが発火状態とされる。   When it is determined in S3 that a leader cell exists, the image processing algorithm proceeds to a self-ignition phase (S4) in which image division processing is actually performed. In the self-ignition phase, one of the leader cells determined in the initialization phase is set in an ignition state.

さらに、S4における自己発火フェーズでは、制御回路12により、発火可能なセルが存在するか否かが判断される(S5)。   Further, in the self-ignition phase in S4, the control circuit 12 determines whether or not there is a cell that can be ignited (S5).

すなわち、制御回路12は、非発火状態のセルに隣接する8つのセルの中で発火状態になっているセルと、その非発火状態のセルとの間において結合重みの和S(t)=Σk∈N(i)(Wik×xk(t))を算出し、その結合重みの和を所定のしきい値φZと比較する。そして、結合重みの和が所定のしきい値より大きければ、その非発火状態のセルを、新たに発火可能なセルとして判断し、引火する(S6)。 In other words, the control circuit 12 determines the sum of coupling weights S i (t) = between the cells in the firing state among the eight cells adjacent to the non-firing state cell and the non-firing state cells. Σ kεN (i) (W ik × x k (t)) is calculated, and the sum of the coupling weights is compared with a predetermined threshold value φ Z. If the sum of the combined weights is larger than a predetermined threshold value, the non-ignited cell is determined as a newly ignitable cell and ignited (S6).

一方、結合重みの和が所定のしきい値より小さければ、発火可能なセルがないと判断し、S7の鎮火処理を行う。このS5〜S7における処理を、非発火のリーダーセルがなくなるまで行い、リーダーセルがなくなれば画像分割処理を終了させる。   On the other hand, if the sum of the coupling weights is smaller than the predetermined threshold value, it is determined that there is no cell that can be ignited, and the fire extinguishing process of S7 is performed. The processes in S5 to S7 are performed until there are no non-ignited leader cells. When there are no more leader cells, the image division process is terminated.

図24(a)および図24(b)に、上記の画像分割処理によりグレースケール画像を画像分割した結果を示す。また、図24(c)および図24(d)にカラー画像に対して上記画像分割処理により画像分割を行った結果を示す。図24(c)および図24(d)に示すように、上記の画像処理アルゴリズムによれば、カラー画像に対しても、精度良く分割することができる。   FIG. 24A and FIG. 24B show the result of image division of a grayscale image by the above image division processing. FIGS. 24C and 24D show the result of image division performed on the color image by the image division process. As shown in FIGS. 24C and 24D, according to the image processing algorithm described above, a color image can be divided with high accuracy.

また、上記の画像分割アルゴリズムを用いて画像分割処理を行った場合における、画素数と処理時間との関係を図25に示す。なお、図25のシミュレーションでは、複数のサンプル画像を入力データとして与え、画素数の平方根(画像の一辺の長さを表す)と画像分割に要する処理時間の最長時間と最短時間を計測した。また、計算式により最悪ケースの処理時間を見積もるために、自然画像では非常に希なケースであるが画像分割領域が多くなる理論上の最悪の場合のケースとして、白黒の格子状の規則正しい画像を想定した場合の予想される画像分割処理時間もグラフに示している。   FIG. 25 shows the relationship between the number of pixels and the processing time when image division processing is performed using the above-described image division algorithm. In the simulation of FIG. 25, a plurality of sample images were given as input data, and the square root of the number of pixels (representing the length of one side of the image) and the longest and shortest processing times required for image division were measured. In addition, in order to estimate the worst case processing time using a calculation formula, a regular image in a black and white grid pattern is used as a theoretical worst case in which the number of image segmentation areas is increased, which is very rare for natural images. The expected image division processing time when assumed is also shown in the graph.

以下に、画像分割処理のアルゴリズムの記述例を示す。   A description example of the algorithm for image division processing is shown below.

Figure 2006072763
Figure 2006072763

〔2−2.特徴抽出処理のアルゴリズム〕
上述の画像分割処理が終了した後、画像処理アルゴリズムは、特徴抽出処理に移行する。特徴抽出処理においては、先ず、画像分割処理により分割されたオブジェクトの特徴量として、min-max計算部7a(図5参照)により、時刻tにおいて分割されたオブジェクトiの左端の座標xi,min(t)、および右端の座標xi,max(t)が求められる(S8)。なお、オブジェクトiと座標xi,min(t)および座標xi,max(t)との関係を、図9に示す。
[2-2. (Feature extraction processing algorithm)
After the above-described image division processing is completed, the image processing algorithm shifts to feature extraction processing. In the feature extraction processing, first, as the feature amount of the object divided by the image division processing, the min-max calculation unit 7a (see FIG. 5) uses the left end coordinates x i, min of the object i divided at time t. (t) and the right end coordinate x i, max (t) are obtained (S8). FIG. 9 shows the relationship between the object i and the coordinates x i, min (t) and the coordinates x i, max (t).

S8の後、面積/min-max計算部7b(図5参照)により、オブジェクトiの特徴量として、面積ai(t)(画素数),座標yi,min,およびyi,maxの値が求められる(S9)。なお、図9に示すように、座標yi,minは、オブジェクトiにおける下端の座標であり、座標yi,maxは、オブジェクトiにおける上端の座標である。 After S8, the area / min-max calculator 7b (see FIG. 5) uses the values of the area a i (t) (number of pixels), coordinates y i, min , and y i, max as the feature quantity of the object i. Is obtained (S9). As shown in FIG. 9, the coordinates y i, min are the coordinates of the lower end of the object i, and the coordinates y i, max are the coordinates of the upper end of the object i.

さらに、S9の後、特徴量計算部7d(図5参照)により、オブジェクトiのサイズ(幅:wi(t),高さ:hi(t)),位置情報(xi(t),yi(t)),色情報ci(t)が求められる(S10)。 Further, after S9, the feature amount calculator 7d (see FIG. 5) uses the size (width: w i (t), height: h i (t)) of the object i, position information (x i (t), y i (t)) and color information c i (t) are obtained (S10).

上述のオブジェクトの特徴のうち、面積ai(t)は画像分割結果の出力時に画素数をカウントすることで求める。サイズおよび位置情報は、各オブジェクトの現フレームtでのx,y座標それぞれの最大および最小値を求め、その値を用いて計算する。 Of the above-described object characteristics, the area a i (t) is obtained by counting the number of pixels when outputting the image division result. The size and position information are calculated using the maximum and minimum values of the x and y coordinates of each object in the current frame t.

すなわち、分割されたオブジェクトi の左下の座標を(xi,min(t), yi,min(t )),右上の座標を(xi,max(t),yi,max(t))とすると、サイズ(wi(t ),hi(t))および位置座標(xi(t),yi(t))は、以下の式に基づき算出される。 That is, the lower left coordinates of the divided object i are (x i, min (t), y i, min (t)), and the upper right coordinates are (x i, max (t), y i, max (t) ), The size (w i (t), h i (t)) and the position coordinates (x i (t), y i (t)) are calculated based on the following equations.

wi(t)=xi,max(t)−xi,min(t)
hi(t)=yi,max(t)−yi,min(t)
xi(t)={xi,max(t)+xi,min(t)}/2
yi(t)={yi,max(t)+yi,min(t)}/2
また,色情報は、xi,max(t),xi,min(t),yi,max(t),yi,min(t)における各座標の色情報(R, G, B)を入力メモリから取り込んでおくことにより求められる。
w i (t) = x i, max (t) −x i, min (t)
h i (t) = y i, max (t) −y i, min (t)
x i (t) = {x i, max (t) + x i, min (t)} / 2
y i (t) = {y i, max (t) + y i, min (t)} / 2
The color information is the color information (R, G, B) of each coordinate in x i, max (t), x i, min (t), y i, max (t), y i, min (t). Is obtained from the input memory.

S8〜S10を踏むことにより求められた特徴量を用いて、後述の連想マッチング処理が行われる。   The associative matching process described later is performed using the feature amount obtained by stepping on S8 to S10.

以下に、特徴抽出処理のアルゴリズムの記述例を示す。   A description example of the algorithm for feature extraction processing is shown below.

Figure 2006072763
Figure 2006072763

〔2−3.連想マッチング処理のアルゴリズム〕
連想マッチング処理は、特徴抽出処理で計算された情報を検索情報保存部8(図17参照)から最小距離検索連想メモリ10(図17参照)に書き込み(S11)、最小距離検索連想メモリ10においてオブジェクトの距離指標を計算するとともに、その距離指標が最小のオブジェクトを検出する(S12)処理である。
[2-3. (Associative matching algorithm)
The associative matching process writes the information calculated in the feature extraction process from the search information storage unit 8 (see FIG. 17) to the minimum distance search associative memory 10 (see FIG. 17) (S11). The distance index is calculated and an object having the smallest distance index is detected (S12).

ここで、オブジェクトiと、オブジェクトjとの間における時刻tの距離指標Dij(t)は、オブジェクトi,jの画素数、サイズ、位置、および色情報の差分の絶対値であるIaij(t)、Isij(t)、Ipij(t)、Icij(t)によって表される。 Here, the distance index D ij (t) at time t between the object i and the object j is the absolute value of the difference between the number of pixels, the size, the position, and the color information of the object i, j, Ia ij ( t), Is ij (t), Ip ij (t), and Ic ij (t).

つまり、距離指標としてマンハッタン距離を用いるならば、Dij(t)は下式で表される。 That is, if the Manhattan distance is used as a distance index, D ij (t) is expressed by the following equation.

Dij(t)=αIaij+βIsij+γIpij+εIcij
なお、α,β,γ,εはそれぞれ情報に対する重みを表している。
D ij (t) = αIa ij + βIs ij + γIp ij + εIc ij
Note that α, β, γ, and ε represent weights for information.

一方、距離指標としてユークリッド距離を用いるならばDij(t)は下式で表される。 On the other hand, if Euclidean distance is used as a distance index, D ij (t) is expressed by the following equation.

Dij=√k
k=αIaij 2+βIsij 2+γIpij 2+εIcij 2
また、ここでは現フレームtの位置情報(xi(t),yi(t))として、図26に示すように、前のフレームt−1の位置座標(xi(t−1),yi(t−1))にそのときの動きベクトル(mvxi(t−1),mvyi(t−1))の値を加えた推定位置(xi(t)',yi(t)')を用いるが、1フレーム目(=0)に関しては動きベクトルが計算できないので、1フレーム目の位置情報を2フレーム目の位置情報としてそのまま用いる。
D ij = √k
k = αIa ij 2 + βIs ij 2 + γIp ij 2 + εIc ij 2
Further, here, as position information (x i (t), y i (t)) of the current frame t, as shown in FIG. 26, position coordinates (x i (t−1), y i (t-1)) to the motion vector of that time (mvx i (t-1) , value estimated position plus the mvy i (t-1)) (x i (t) ', y i (t ) ′), But since the motion vector cannot be calculated for the first frame (= 0), the position information of the first frame is used as it is as the position information of the second frame.

なお、(xi(t)',yi(t)')を求めるための式を以下に示す。 An expression for obtaining (x i (t) ′, y i (t) ′) is shown below.

xi(t)'=xi(t−1)+mvxi(t−1)
yi(t)'=yi(t−1)+mvyi(t−1)
これらの結果から距離指標を計算するが、サイズおよび位置情報に関しては、wi(t),hi(t),xi,yiというようにそれぞれ2つのパラメータがあるのに対し、画素数および色情報は1つのパラメータしかない。そこで、画素数および色情報を2倍することによって重みの調節を行う。
x i (t) '= x i (t−1) + mvx i (t−1)
y i (t) '= y i (t−1) + mvy i (t−1)
The distance index is calculated from these results. For size and position information, there are two parameters such as w i (t), h i (t), x i , and y i , respectively. And the color information has only one parameter. Therefore, the weight is adjusted by doubling the number of pixels and the color information.

つまり、画素数の差の絶対値をIaij(t)、幅,高さのそれぞれに関するサイズ情報の差の絶対値をIwij(t),Ihij(t),x座標およびy座標のそれぞれに関する位置情報の差の絶対値をIxij(t),Iyij(t),色情報の差の絶対値をIcij(t)とすると、距離指標Dijは下式で表される。 In other words, the absolute value of the difference in the number of pixels is Ia ij (t), the absolute value of the difference in size information about width and height is Iw ij (t), Ih ij (t), x coordinate and y coordinate, respectively. The distance index D ij is expressed by the following equation, where Ix ij (t) and Iy ij (t) are the absolute values of the positional information differences and Ic ij (t) are the absolute values of the color information differences.

Dij=2Iaij(t)+(Iwij(t)+Ihij(t))+(Ixij(t)+Iyij(t))+2Icij(t)
また、色情報の差の絶対値Icijは、下式で表される。
Dij = 2Ia ij (t) + (Iw ij (t) + Ih ij (t)) + (Ix ij (t) + Iy ij (t)) + 2 Ic ij (t)
The absolute value Ic ij of the color information difference is expressed by the following equation.

Icij=max(│Cri-Crj│,│Cgi-Cgj│,│Cbi-Cbj│)
なお、Cr,Cg,Cbのそれぞれは、赤,緑,青の色情報であり、添え字で付されたiまたはjの文字が、オブジェクトiまたはオブジェクトjのいずれの色情報であるのかを示している。
Ic ij = max (│Cr i -Cr j │, │Cg i -Cg j │, │Cb i -Cb j │)
Each of Cr, Cg, and Cb is red, green, and blue color information, and indicates whether the letter i or j attached to the subscript is the color information of object i or object j. ing.

しかし、各情報の最大値は、表3(QVGAサイズの場合)のようになり、計算結果をそのまま使うと、画素数の値がマンハッタン距離に与える影響が大きくなりすぎるため、各情報を0〜1の範囲に正規化することで全体のバランスを取る。   However, the maximum value of each information is as shown in Table 3 (in the case of QVGA size). If the calculation result is used as it is, the influence of the value of the number of pixels on the Manhattan distance becomes too large. Balance the whole by normalizing to a range of 1.

Figure 2006072763
Figure 2006072763

たとえば、計算された値をそれぞれの値の最大値で割ることによって正規化を行うことが可能である。すなわち、オブジェクトi,j間の距離指標として正規化されたマンハッタン距離は下式で表される。そして、最小距離検索連想メモリ10は、正規化されたマンハッタン距離をフレームのオブジェクトごとに計算して(S12)、最もマンハッタン距離が小さいものを同じオブジェクトとして認識する。   For example, normalization can be performed by dividing the calculated value by the maximum value of each value. That is, the Manhattan distance normalized as a distance index between the objects i and j is expressed by the following equation. Then, the minimum distance search associative memory 10 calculates the normalized Manhattan distance for each object in the frame (S12), and recognizes the one with the smallest Manhattan distance as the same object.

Dij=2×Iaij/217+(Iwij/29+Ihij/28)+(Ixij/29+Iyij/28)+2×Icij/28
なお、このように計算結果を除算することにより正規化すると、上述のようにハードウェアのコストが大きくなる場合があるので、表1のように、所定の大きさの領域を基準として入力画像を分割することにより、各情報のビット数を削減してもよい。
D ij = 2 × Ia ij / 2 17 + (Iw ij / 2 9 + Ih ij / 2 8 ) + (Ix ij / 2 9 + Iy ij / 2 8 ) + 2 × Ic ij / 2 8
If normalization is performed by dividing the calculation result in this way, the hardware cost may increase as described above. Therefore, as shown in Table 1, the input image is determined based on a region having a predetermined size. The number of bits of each information may be reduced by dividing.

また、最小の距離指標の値が所定値以上である場合、最小距離検索連想メモリ10は、そのオブジェクトを画像内に新たに登場したオブジェクトとして認識する(S13)。   If the minimum distance index value is equal to or greater than the predetermined value, the minimum distance search associative memory 10 recognizes the object as a newly appearing object in the image (S13).

以下に、連想マッチング処理のアルゴリズムの記述例を示す。   A description example of the associative matching processing algorithm is shown below.

Figure 2006072763
Figure 2006072763

〔2−4.動き検出処理のアルゴリズム〕
動き検出処理においては、先ず、動きベクトル計算部9a(図17参照)により、動きベクトルの計算が行われる(S14)。すなわち、検索するオブジェクトのフレームtにおける位置情報を(xn(t),yn(t))、検出されたオブジェクトのフレームt−1における位置情報を(xn(t−1),yn(t−1))とすると、フレームtにおける動きベクトル(mvx(t), mvy(t))は、下式で表される。
[2-4. (Motion detection processing algorithm)
In the motion detection process, first, a motion vector is calculated by the motion vector calculation unit 9a (see FIG. 17) (S14). That is, the position information of the object to be searched at frame t is (x n (t), y n (t)), and the position information of the detected object at frame t−1 is (x n (t−1), y n (t−1)), the motion vector (mv x (t), mv y (t)) in the frame t is expressed by the following equation.

mvx(t)=xn(t)−xn(t−1)
mvy(t)=yn(t)−yn(t−1)
次のこの動きベクトルを用いて、物体検出に用いられる次フレームt+1での推定位置(xn(t−1),yn(t−1))が、推定位置計算部9b(図17参照)により計算される。次フレームt+1での推定位置(xn(t+1),yn(t+1))は、下式で表される。
mv x (t) = x n (t) −x n (t−1)
mv y (t) = y n (t) −y n (t−1)
Using the next motion vector, the estimated position (x n (t−1), y n (t−1)) in the next frame t + 1 used for object detection is converted into an estimated position calculation unit 9b (FIG. 17). Reference). The estimated position (x n (t + 1), y n (t + 1)) in the next frame t + 1 is expressed by the following equation.

xn(t+1)=xn(t)+mvx(t)
yn(t+1)=yn(t)+mvy(t)
そして、このように計算された推定位置(xn(t+1),yn(t+1))を、推定位置計算部9bから最小距離検索連想メモリ10に書き込む(S16)ことにより、動き検出処理が終了する。
x n (t + 1) = x n (t) + mv x (t)
y n (t + 1) = y n (t) + mv y (t)
Then, the estimated position (x n (t + 1), y n (t + 1)) calculated in this way is written in the minimum distance search associative memory 10 from the estimated position calculation unit 9b (S16), thereby moving the motion. The detection process ends.

以下に、動き検出処理のアルゴリズムの記述例を記載する。   A description example of the algorithm of motion detection processing is described below.

Figure 2006072763
Figure 2006072763

〔3.画像処理アルゴリズムのシミュレーションとその結果〕
本発明者らは、上記構成の画像処理回路1を用いて、実際の画像に対して本発明の画像処理アルゴリズムをシミュレーションしたので、その結果を以下に説明する。なお、このシミュレーションは、全ての情報量について表1の値に正規化された値を用いるとともに、Mathworks社のMATLABを用いて行われた。
[3. Simulation of image processing algorithm and results]
The inventors of the present invention simulated the image processing algorithm of the present invention on an actual image using the image processing circuit 1 having the above configuration, and the results will be described below. This simulation was performed using MATLAB normalized by the values in Table 1 for all information amounts and using Mathworks MATLAB.

〔3−1.連続した静止画像に対する動き検出処理〕
最初に、3個のオブジェクトが左から右に移動する画像(図27参照)に対して、本発明の画像処理アルゴリズムによる動き検出を行った。なお、実際に入力画像にMorphology処理(非特許文献14参照)を行った画像を図28(a)〜図28(c)、図28(a)に示された1フレーム目の画像を画像分割した結果を図29(a)〜図29(c)に示す。
[3-1. Motion detection processing for continuous still images)
First, motion detection by the image processing algorithm of the present invention was performed on an image in which three objects move from left to right (see FIG. 27). It should be noted that the image obtained by performing Morphology processing (see Non-Patent Document 14) on the input image is divided into the first frame image shown in FIGS. 28 (a) to 28 (c) and 28 (a). The results are shown in FIGS. 29 (a) to 29 (c).

また、これらの画像から計算した特徴量の例として、3フレーム目のオブジェクト3に、および2フレーム目のオブジェクトに係る特徴量を計算した結果を表4に示す。   In addition, as an example of the feature amount calculated from these images, Table 4 shows the result of calculating the feature amount related to the object 3 in the third frame and the object in the second frame.

Figure 2006072763
Figure 2006072763

なお、表4におけるラベル(t,i)は、tフレーム目のオブジェクト番号iを表しており、面積,幅,高さ,位置,色情報はそれぞれ画像分割された後のオブジェクトから求めた特徴量であり、α=1/162、β=γ=1/16、ε=1/8により正規化し小数第一位を四捨五入したものである。 Note that the label (t, i) in Table 4 represents the object number i of the t-th frame, and the area, width, height, position, and color information are the feature values obtained from the objects after image division. Normalized by α = 1/16 2 , β = γ = 1/16, ε = 1/8 and rounded to the first decimal place.

また、表4においては、距離指標としてのマンハッタン距離およびユークリッド距離を併記しており、これらの距離指標は、それぞれのオブジェクトとラベル(3,3)が付されたオブジェクトとの間における距離指標を示している。   In Table 4, the Manhattan distance and the Euclidean distance as the distance index are also shown, and these distance indices are the distance indices between the respective objects and the object labeled (3, 3). Show.

たとえば、オブジェクト(3,3)とオブジェクト(2,3)との間のマンハッタン距離をDとすると、
=│6−7│+│2−3│+│3−3│+│13−12│+│12−11│+│4−5│+│0−1│
=6
となる。
For example, the Manhattan distance between the object and (3,3) and the object (2, 3) When D M,
D M = | 6-7 | + | 2-3 | + | 3-3 | + | 13-12 | + | 12-11 | + | 4-5 | + | 0-1 |
= 6
It becomes.

また、オブジェクト(3,3)とオブジェクト(2,3)との間のユークリッド距離をDとすると、
=√k
k=(6−7)+(2−3)+(3−3)+(13−12)+(12−11)+(4−5)+(0−1)
となり、D=2として求められる。
Also, if Euclidean distance between the object (3, 3) and the object (2, 3) is D E ,
D E = √k
k = (6-7) 2 + (2-3) 2 + (3-3) 2 + (13-12) 2 + (12-11) 2 + (4-5) 2 + (0-1) 2
And is obtained as D E = 2.

なお、Dを求めるにあたり、小数第一位は四捨五入されている。 In calculating DE , the first decimal place is rounded off.

なお、以下に記載する表においても、ラベル、マンハッタン距離およびユークリッド距離は、表4と同様に記載している。   In the table described below, the label, the Manhattan distance, and the Euclidean distance are described in the same manner as in Table 4.

この表4から、距離指標に関しては、ラベル(2,3)が付されたオブジェクトとの値が最も小さくなっていることがわかる。これはすなわち、ラベル(3,3)のオブジェクトと、ラベル(2,3)のオブジェクトとが同一のものであるとして認識されていることを示しており、2フレーム目の画像と3フレーム目の画像との間において同一のオブジェクトが正しく認識されていることがわかる。   From Table 4, it can be seen that the distance index has the smallest value with the object with the label (2, 3). This indicates that the object of the label (3, 3) and the object of the label (2, 3) are recognized as being the same, and the second frame image and the third frame object are recognized. It can be seen that the same object is correctly recognized between the images.

また、動き検出処理は前フレームで計算した動きベクトルをもとに現フレームの推定位置を計算し、この推定位置と実際の位置の差とに基づき距離指標を計算している。そこで、図30(a)〜図30(e)に示すように、実際に動きベクトルがオブジェクトの移動中において変化する画像に対して、本発明の画像処理アルゴリズムによる動き検出処理を行った。この処理により、推定位置が変わっても他の特徴量から正しくオブジェクトを認識できるかを検証することができる。   In the motion detection process, the estimated position of the current frame is calculated based on the motion vector calculated in the previous frame, and the distance index is calculated based on the difference between the estimated position and the actual position. Therefore, as shown in FIGS. 30A to 30E, motion detection processing using the image processing algorithm of the present invention is performed on an image in which the motion vector actually changes while the object is moving. With this process, it is possible to verify whether the object can be correctly recognized from other feature amounts even if the estimated position changes.

なお、図30(a)〜図30(e)は、左側の青いオブジェクト1と、右側の赤いオブジェクト2とが3フレーム目で衝突し(図30(c)参照)、4フレーム目でオブジェクト1およびオブジェクト2の移動方向が180°変化する(図30(d)参照)という一連の流れを示す画像である。オブジェクト1とオブジェクト2とが衝突した後のフレームにおけるオブジェクトの特徴とその差を表5に示す。   In FIGS. 30A to 30E, the blue object 1 on the left side and the red object 2 on the right side collide at the third frame (see FIG. 30C), and the object 1 at the fourth frame. FIG. 30 is an image showing a series of flows in which the moving direction of the object 2 changes by 180 ° (see FIG. 30D). Table 5 shows the object characteristics and the differences between the objects 1 and 2 after the collision.

Figure 2006072763
Figure 2006072763

表5より,ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における位置(x)に関するマンハッタン距離は5(=13−8)となる。このマンハッタン距離は、ラベル(4,1)が付されたオブジェクトとラベル(3,2)が付されたオブジェクトとの間における位置(x)に関するマンハッタン距離3(=13−10)より大きくなる。ユークリッド距離についても同様に、ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における位置(x)に関するものが、ラベル(4,1)が付されたオブジェクトとラベル(3,2)が付されたオブジェクトとの間における位置(x)に関するものよりも大きい。 From Table 5, the Manhattan distance regarding the position (x i ) between the object with the label (4, 1) and the object with the label (3, 1) is 5 (= 13−8). This Manhattan distance is greater than the Manhattan distance 3 (= 13-10) for the position (x i ) between the object labeled (4, 1) and the object labeled (3, 2). . Similarly, the Euclidean distance is related to the position (x i ) between the object with the label (4, 1) and the object with the label (3, 1). It is larger than that relating to the position (x i ) between the attached object and the labeled object (3, 2).

しかし、ラベル(4,1)が付されたオブジェクトとラベル(3,2)が付されたオブジェクトとの間における色情報(C)に関するマンハッタン距離は、ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における色情報(C)に関するマンハッタン距離よりも大きい。色情報(C)に関するユークリッド距離についても同様である。 However, the Manhattan distance for color information (C i ) between the object with label (4,1) and the object with label (3,2) is labeled (4,1). It is greater than the Manhattan distance for color information (C i ) between the object and the object labeled (3, 1). The same applies to the Euclidean distance related to the color information (C i ).

そのため、全ての特徴量を考慮した距離指標は、ラベル(4,1)が付されたオブジェクトとラベル(3,1)が付されたオブジェクトとの間における距離指標の方が小さくなっている。したがって、本発明の画像処理アルゴリズムによれば、オブジェクトの移動中に動きベクトルが変化しても、同一のオブジェクトが認識できることを検証できた。   Therefore, the distance index in consideration of all the feature quantities is smaller in the distance index between the object with the label (4, 1) and the object with the label (3, 1). Therefore, according to the image processing algorithm of the present invention, it can be verified that the same object can be recognized even if the motion vector changes during the movement of the object.

〔3−2.動画像に対する動き検出処理〕
次に実際に撮影した動画から1フレームずつ切り出した画像に対して、本発明の画像処理アルゴリズムを適用した結果について説明する。
[3-2. Motion detection processing for moving images)
Next, the result of applying the image processing algorithm of the present invention to an image cut out frame by frame from the actually captured moving image will be described.

まず複数のオブジェクトがランダムに動いている動画(図31(a)〜図31(k)参照)に対して動き検出処理を行った。図32に、1フレーム目の画像(図31(a)参照)を画像分割した結果の画像を示す。   First, motion detection processing was performed on a moving image in which a plurality of objects are moving randomly (see FIGS. 31A to 31K). FIG. 32 shows an image obtained as a result of dividing the first frame image (see FIG. 31A).

これらの画像のうち、7フレーム目のオブジェクト5(ラベル(7,5)のオブジェクト、図31(g)参照)の変化が最も大きいので、このオブジェクトと、6フレーム目のオブジェクトのそれぞれとの間において計算した距離指標を表6に示す。   Among these images, the change of the object 5 in the seventh frame (the object of the label (7, 5), see FIG. 31 (g)) is the largest, so between this object and each of the objects in the sixth frame Table 6 shows the distance index calculated in (5).

Figure 2006072763
Figure 2006072763

表6に示すように、ラベル(7,5)が付されたオブジェクトと、ラベル(6,1)〜(6,6)のそれぞれが付されたオブジェクトとの間における距離指標のうち、ラベル(7,5)が付されたオブジェクトとラベル(6,5)が付されたオブジェクトとの間における距離指標が最小である。この結果より、複数のオブジェクトがランダムに動いている動画に対しても、本発明の動き検出処理を行えば、同一のオブジェクトを認識できることを検証した。   As shown in Table 6, among the distance indices between the object with the label (7, 5) and the object with each of the labels (6, 1) to (6, 6), the label ( The distance index between the object labeled with (7, 5) and the object labeled (6, 5) is the smallest. From this result, it was verified that the same object can be recognized if the motion detection process of the present invention is performed on a moving image in which a plurality of objects are moving randomly.

次に、ボールが床に衝突して跳ね返ることにより、動きベクトルが急激に変化する画像(図33(a)〜図33(f),図34(a)〜図34(f))に対して、本発明の画像処理アルゴリズムを適用した。なお、図33(a)に示す画像を画像分割した結果を図35(a)〜図35(d)に示し、図34(a)に示す画像を画像分割した結果を図36(a)〜図36(d)に示す。   Next, with respect to images (FIGS. 33 (a) to 33 (f) and FIGS. 34 (a) to 34 (f)) in which the motion vector changes suddenly when the ball collides with the floor and rebounds. The image processing algorithm of the present invention was applied. Note that the results of image segmentation of the image shown in FIG. 33 (a) are shown in FIGS. 35 (a) to 35 (d), and the results of image segmentation of the image shown in FIG. 34 (a) are shown in FIGS. As shown in FIG.

また、図33(a)〜図33(f)の画像を分割した画像に関して距離指標を算出した結果を表7に示し、また、図34(a)〜図33(f)の画像を分割した画像に関して距離指標を算出した結果を表8に示す。   In addition, Table 7 shows the result of calculating the distance index for the images obtained by dividing the images of FIGS. 33 (a) to 33 (f), and the images of FIGS. 34 (a) to 33 (f) are divided. Table 8 shows the result of calculating the distance index for the image.

Figure 2006072763
Figure 2006072763

Figure 2006072763
Figure 2006072763

表7に示すとおり、ラベル(4,3)のオブジェクトと、ラベル(3,1)〜ラベル(3,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(4,3)のオブジェクトと、ラベル(3,3)のオブジェクトとの間における距離指標が最も小さい。また、表8に示すとおり、ラベル(5,2)のオブジェクトと、ラベル(4,1)〜ラベル(4,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(5,2)のオブジェクトと、ラベル(4,2)のオブジェクトとの間における距離指標が最も小さい。   As shown in Table 7, among the distance indices between the object of label (4, 3) and each of the objects of label (3, 1) to label (3, 4), the object of label (4, 3) And the distance index between the object of the label (3, 3) is the smallest. As shown in Table 8, among the distance indices between the object of label (5, 2) and each of the objects of label (4, 1) to label (4, 4), label (5, 2) And the object of the label (4, 2) has the smallest distance index.

したがって、これらの表7および表8から、本発明の画像処理アルゴリズムによれば、動きベクトルが急激に変化する場合でも正確に同一のオブジェクトを認識できることがわかる。   Therefore, it can be seen from Tables 7 and 8 that the image processing algorithm of the present invention can accurately recognize the same object even when the motion vector changes rapidly.

さらに、小さなオブジェクトがランダムに動いている動画(図37(a)〜図37(f)参照)に対しても、本発明の画像処理アルゴリズムを適用した。   Furthermore, the image processing algorithm of the present invention is also applied to a moving image in which small objects are moving randomly (see FIGS. 37A to 37F).

なお、図37(a)の画像を分割した結果を、図38(a)〜図38(d)に示す。図38(a)からわかるように、図37(a)の画像において真ん中付近に存在するボール(同図中、ハッチングされていないボール)は検出することができなかった。   The results of dividing the image of FIG. 37A are shown in FIGS. 38A to 38D. As can be seen from FIG. 38 (a), the ball existing in the vicinity of the center in the image of FIG. 37 (a) (a ball not hatched in the same figure) could not be detected.

図37(a)の画像において検出されたオブジェクトのうち、ラベル(3,1)のオブジェクトと、ラベル(2,1)〜ラベル(2,4)のオブジェクトのそれぞれとの間において、距離指標を算出した結果を表9に示す。   Among the objects detected in the image of FIG. 37 (a), a distance index is set between the object of label (3, 1) and each of the objects of label (2, 1) to label (2, 4). The calculated results are shown in Table 9.

Figure 2006072763
Figure 2006072763

表9に示すとおり、ラベル(3,1)のオブジェクトと、ラベル(2,1)〜ラベル(2,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(3,1)のオブジェクトと、ラベル(2,1)のオブジェクトとの間における距離指標が最も小さい。   As shown in Table 9, among the distance indexes between the object of label (3, 1) and each of the objects of label (2, 1) to label (2, 4), the object of label (3, 1) And the distance index between the object of the label (2, 1) is the smallest.

したがって、表9から、複数の小さいオブジェクトがランダムに動いている動画に対しても、本発明の画像処理アルゴリズムを実行すれば、同一のオブジェクトを認識できることがわかる。   Therefore, it can be seen from Table 9 that the same object can be recognized by executing the image processing algorithm of the present invention even on a moving image in which a plurality of small objects are moving randomly.

〔3−3.自然画像に対する動き検出処理〕
次に、実際に人物がフレーム中で歩いている画像(図39(a)〜図39(c)参照)についてのシミュレーション結果を示す。また、図39(a)に示す画像を分割した結果を、図40(a)〜図40(d)に示す。
[3-3. Motion detection processing for natural images)
Next, a simulation result for an image (see FIGS. 39A to 39C) in which a person is actually walking in a frame is shown. Also, the results of dividing the image shown in FIG. 39A are shown in FIGS. 40A to 40D.

図40(a)〜図40(d)に示すように、図39(a)に示す画像は、図40(a)に示す壁の画像、図40(b)に示す床の画像、図40(c)に示す人物aの画像、および図40(d)に示す人物bの画像に分割される。   As shown in FIGS. 40 (a) to 40 (d), the image shown in FIG. 39 (a) is the image of the wall shown in FIG. 40 (a), the image of the floor shown in FIG. 40 (b), and FIG. The image is divided into an image of the person a shown in (c) and an image of the person b shown in FIG.

これら分割後の画像のうち、実際に移動している画像は、図40(c)に示す人物aの画像および図40(d)に示す人物bの画像だけであり、床と壁の画像は、人物aおよび人物bが動くことで形が変わっているだけである。図39(a)〜図39(c)に示す画像に関して、距離指標を算出した結果を表10に示す。   Of these divided images, the images that are actually moving are only the image of the person a shown in FIG. 40C and the image of the person b shown in FIG. The shape is changed only by the movement of the person a and the person b. Table 10 shows the results of calculating the distance index for the images shown in FIGS. 39 (a) to 39 (c).

Figure 2006072763
Figure 2006072763

表10に示すとおり、ラベル(3,3)のオブジェクトと、ラベル(2,1)〜ラベル(2,4)のオブジェクトのそれぞれとの間における距離指標のうち、ラベル(3,3)のオブジェクトと、ラベル(2,3)のオブジェクトとの間における距離指標が最も小さい。   As shown in Table 10, among the distance indices between the object of label (3, 3) and each of the objects of label (2, 1) to label (2, 4), the object of label (3, 3) And the distance index between the object of the label (2, 3) is the smallest.

したがって、表10から、実際に人物がフレーム中で歩いている動画に対しても、本発明の動き検出処理を実行すれば、同一のオブジェクトを認識できることがわかる。   Therefore, it can be seen from Table 10 that the same object can be recognized by executing the motion detection process of the present invention even on a moving image in which a person is actually walking in a frame.

さらに、同一オブジェクトを認識することが一般的に困難な、歩いている人物(オブジェクト)がフレーム中で別の人物(オブジェクト)と重なる画像(図41(a)〜図41(h)参照)に対して、本発明の動き検出処理を行った。   Furthermore, in an image in which it is generally difficult to recognize the same object, a walking person (object) overlaps another person (object) in the frame (see FIGS. 41A to 41H). On the other hand, the motion detection process of the present invention was performed.

図41(a)の画像を分割すると、図42(a)〜図42(d)に示すように分割される。また、図41(d)の画像を分割すると、図43(a)〜図43(c)に示すように分割される。なお、図42(d)に示すように、1フレーム目で停止している人物(図41(a)参照)の上半身が分割されないのは、オブジェクトのグラデーションによりリーダーセルがないこと、又は、結合重みが小さいためオブジェクトとして認識できないことが原因として考えられる。   When the image of FIG. 41A is divided, it is divided as shown in FIGS. 42A to 42D. Further, when the image of FIG. 41D is divided, it is divided as shown in FIGS. 43A to 43C. Note that, as shown in FIG. 42 (d), the upper body of the person stopped in the first frame (see FIG. 41 (a)) is not divided because there is no leader cell due to the gradation of the object, or in combination This may be because the weight is small and cannot be recognized as an object.

これらの分割結果に関して、3フレーム目の3番目のオブジェクト、物体数が変化する4フレーム目の3番目のオブジェクト、7フレーム目の3番目のオブジェクトに関する動き検出処理のシミュレーション結果を、表11、表12、および表13に示す。   Regarding these division results, the simulation results of the motion detection processing for the third object in the third frame, the third object in the fourth frame where the number of objects change, and the third object in the seventh frame are shown in Tables 11 and 11 below. 12 and Table 13.

Figure 2006072763
Figure 2006072763

Figure 2006072763
Figure 2006072763

Figure 2006072763
Figure 2006072763

この表11より、ラベル(3,3)のオブジェクトと、ラベル(2,3)のオブジェクトとの間における距離指標が最も小さいことがわかる。また、表12に関しては、ラベル(4,3)のオブジェクトと、ラベル(3,3)のオブジェクトとの間における距離指標が最も小さい。さらに、表13においては、ラベル(7,3)のオブジェクトとラベル(6,3)のオブジェクトとの間における距離指標が最も小さい。これらの結果より、図41(a)〜図41(h)に示したような、移動するオブジェクトが、他のオブジェクトと重なるような画像に対しても、本発明の画像処理アルゴリズムを適用すれば、同一のオブジェクトを認識できることを検証できた。   From Table 11, it can be seen that the distance index between the object of the label (3, 3) and the object of the label (2, 3) is the smallest. In Table 12, the distance index between the object of the label (4, 3) and the object of the label (3, 3) is the smallest. Furthermore, in Table 13, the distance index between the object of the label (7, 3) and the object of the label (6, 3) is the smallest. From these results, if the image processing algorithm of the present invention is applied to an image in which a moving object overlaps with other objects as shown in FIGS. 41 (a) to 41 (h). It was verified that the same object can be recognized.

さらに、分割が困難な画像の一例である、図44(a)〜図44(f)に示すミニカーが動いている画像について、本発明の画像処理アルゴリズムを実行した結果について説明する。また、1フレーム目の画像(図44(a)参照)に関して、分割処理を行った結果を図45(a)〜図45(c)に示す。   Furthermore, the result of executing the image processing algorithm of the present invention on the image of the minicar shown in FIGS. 44 (a) to 44 (f), which is an example of an image that is difficult to divide, will be described. 45A to 45C show the results of the division processing performed on the first frame image (see FIG. 44A).

図45(a)〜図45(c)に示すように、画像分割された後のオブジェクトは、実際の画像のオブジェクトと、その形状が大きく異なっている。図45(a)〜図45(c)に示す画像に対して動き検出処理を行った結果を表14に示す。   As shown in FIGS. 45 (a) to 45 (c), the object after the image division is greatly different in shape from the object of the actual image. Table 14 shows the result of motion detection processing performed on the images shown in FIGS. 45 (a) to 45 (c).

Figure 2006072763
Figure 2006072763

表14より、ラベル(4,2)のオブジェクトと、ラベル(3,2)のオブジェクトとの間における距離指標が最も小さいことがわかる。よって、入力画像に対する画像分割の精度はそれほどよくないが、オブジェクトの特徴量からフレーム間において同一のオブジェクトを正しく認識できていることを検証できた。   Table 14 shows that the distance index between the object of label (4, 2) and the object of label (3, 2) is the smallest. Therefore, although the accuracy of image division with respect to the input image is not so good, it was verified that the same object could be correctly recognized between frames from the feature amount of the object.

次に、車が走っている道路を撮影した画像(図46(a)〜図46(f)参照)について、本発明の画像処理アルゴリズムを実行した結果について説明する。また、1フレーム目の画像(図46(a)参照)に関して、分割処理を行った結果を図47(a)および図47(b)に示す。   Next, the results of executing the image processing algorithm of the present invention will be described with respect to images (see FIGS. 46 (a) to 46 (f)) taken of a road on which a car is running. In addition, FIG. 47 (a) and FIG. 47 (b) show the results of performing the division processing on the first frame image (see FIG. 46 (a)).

図47(a)および図47(b)からわかるように、走行中の車の画像は、図47(a)に示す車の屋根の画像と、図47(b)に示す車のボンネット部分の画像とに分割される。図47(a)および図47(b)から得られた情報をもとに、本発明の画像処理アルゴリズムを適用した結果を表15に示す。   As can be seen from FIGS. 47 (a) and 47 (b), the image of the running car is the image of the car roof shown in FIG. 47 (a) and the hood part of the car shown in FIG. 47 (b). Divided into images. Table 15 shows the results of applying the image processing algorithm of the present invention based on the information obtained from FIGS. 47 (a) and 47 (b).

Figure 2006072763
Figure 2006072763

表15より、ラベル(4,1)のオブジェクトと、ラベル(3,1)のオブジェクトとの間における距離指標が最も小さいことがわかる。この結果から、図46(a)〜図46(f)に示す画像に関しても、本発明の画像処理アルゴリズムによれば、同一のオブジェクトを正しく認識できることを確認できる。   From Table 15, it can be seen that the distance index between the object of the label (4, 1) and the object of the label (3, 1) is the smallest. From these results, it can be confirmed that the same object can be correctly recognized according to the image processing algorithm of the present invention also for the images shown in FIGS.

〔4.補足〕
本発明の画像処理アルゴリズムにおける各処理ステップは、CPUなどの演算手段が、ROM(Read Only Memory)やRAMなどの記憶手段に記憶されたプログラムを実行し、キーボードなどの入力手段、ディスプレイなどの出力手段、あるいは、インターフェース回路などの通信手段を制御することにより実現することができる。
[4. Supplement)
In each processing step in the image processing algorithm of the present invention, a calculation unit such as a CPU executes a program stored in a storage unit such as a ROM (Read Only Memory) or a RAM, and an input unit such as a keyboard or an output such as a display. It can be realized by controlling a communication means such as an interface circuit or the like.

したがって、これらの手段を有するコンピュータが、上記プログラムを記録した記録媒体を読み取り、当該プログラムを実行するだけで、本実施形態の画像処理回路の各種処理を実現することができる。また、上記プログラムをリムーバブルな記録媒体に記録することにより、任意のコンピュータ上で上記の各種機能および各種処理を実現することができる。   Therefore, various processes of the image processing circuit according to the present embodiment can be realized simply by a computer having these means reading the recording medium storing the program and executing the program. In addition, by recording the program on a removable recording medium, the various functions and various processes described above can be realized on an arbitrary computer.

この記録媒体としては、マイクロコンピュータで処理を行うために図示しないメモリ、例えばROMのようなものがプログラムメディアであっても良いし、また、図示していないが外部記憶装置としてプログラム読取り装置が設けられ、そこに記録媒体を挿入することにより読取り可能なプログラムメディアであっても良い。   As the recording medium, a memory (not shown) such as a ROM may be used as a program medium for processing by the microcomputer, and a program reader is provided as an external storage device (not shown). It may be a program medium that can be read by inserting a recording medium therein.

また、何れの場合でも、格納されているプログラムは、マイクロプロセッサがアクセスして実行される構成であることが好ましい。さらに、プログラムを読み出し、読み出されたプログラムは、マイクロコンピュータのプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であることが好ましい。なお、このダウンロード用のプログラムは予め本体装置に格納されているものとする。   In any case, the stored program is preferably configured to be accessed and executed by the microprocessor. Furthermore, it is preferable that the program is read out, and the read program is downloaded to the program storage area of the microcomputer and the program is executed. It is assumed that the download program is stored in the main device in advance.

また、上記プログラムメディアとしては、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD/MO/MD/DVD等のディスクのディスク系、ICカード(メモリカードを含む)等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムを担持する記録媒体等がある。   The program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, or a disk such as a CD / MO / MD / DVD. Fixed disk system, card system such as IC card (including memory card), or semiconductor memory such as mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. In particular, there are recording media that carry programs.

また、インターネットを含む通信ネットワークを接続可能なシステム構成であれば、通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する記録媒体であることが好ましい。   In addition, if the system configuration is capable of connecting to a communication network including the Internet, the recording medium is preferably a recording medium that fluidly carries the program so as to download the program from the communication network.

さらに、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであることが好ましい。   Further, when the program is downloaded from the communication network as described above, it is preferable that the download program is stored in the main device in advance or installed from another recording medium.

なお、本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。   In addition, this invention is not limited to embodiment mentioned above, A various change is possible in the range shown to the claim.

本発明の画像処理装置は、画像認識システム、動体検出システム、ディジタルカメラ、ディジタルビデオカメラ、ロボットビジョン、顔認識による認証システム、セキュリティシステム、人工知能システム等における画像分割・抽出のための画像分割・抽出集積回路として適用可能である。   The image processing apparatus according to the present invention includes an image recognition system, a moving object detection system, a digital camera, a digital video camera, a robot vision, a face recognition authentication system, a security system, an artificial intelligence system, and the like. It can be applied as an extraction integrated circuit.

本発明の一実施形態に係る画像処理回路の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing circuit which concerns on one Embodiment of this invention. 図1の画像処理回路における画像分割セルネットワークの構成を示す図である。It is a figure which shows the structure of the image division cell network in the image processing circuit of FIG. 図2の画像分割セルネットワークにおけるグローバル抑制部の構成を示す図である。It is a figure which shows the structure of the global suppression part in the image division cell network of FIG. (a)は、画像分割セルの各列毎にZorx信号を出力する状態を示す図であり、(b)は、図3のグローバル抑制部におけるi行目の詳細な構成を示す図である。(A) is a figure which shows the state which outputs a Zorx signal for every column of an image division cell, (b) is a figure which shows the detailed structure of the i row in the global suppression part of FIG. 図1の画像処理回路における物体情報計算部の構成を詳細に示すブロック図である。FIG. 2 is a block diagram illustrating in detail a configuration of an object information calculation unit in the image processing circuit of FIG. 1. 図5の物体情報計算部におけるmin-max計算部の構成を示す図である。It is a figure which shows the structure of the min-max calculation part in the object information calculation part of FIG. 図6のmin-max計算部におけるmin-max検出部の構成を示す図である。It is a figure which shows the structure of the min-max detection part in the min-max calculation part of FIG. 図6のmin-max計算部におけるデコーダの構成を示す図である。It is a figure which shows the structure of the decoder in the min-max calculation part of FIG. 図1の画像分割セルネットワークにより分割されたオブジェクトと、特徴量との関係を示す図である。It is a figure which shows the relationship between the object divided | segmented by the image division | segmentation cell network of FIG. 1, and a feature-value. 図5の物体情報計算部におけるmin-max計算部の構成を示す図である。It is a figure which shows the structure of the min-max calculation part in the object information calculation part of FIG. 図5の物体情報計算部における面積/min-max計算部の構成を示す図である。It is a figure which shows the structure of the area / min-max calculation part in the object information calculation part of FIG. 図5の物体情報計算部における面積/min-max計算部の構成を示す図である。It is a figure which shows the structure of the area / min-max calculation part in the object information calculation part of FIG. 図5の物体情報計算部における物体情報保存部の構成を示す図である。It is a figure which shows the structure of the object information storage part in the object information calculation part of FIG. 入力画像を16×16画素の領域を基準として分割する状態を示す図である。It is a figure which shows the state which divides | segments an input image on the basis of a 16 * 16 pixel area | region. 図5の物体情報計算部における特徴量計算部の構成を示す図である。It is a figure which shows the structure of the feature-value calculation part in the object information calculation part of FIG. 図1の画像処理回路における画像分割/特徴量計算部に係る詳細な構成を示す図である。FIG. 2 is a diagram illustrating a detailed configuration of an image division / feature amount calculation unit in the image processing circuit of FIG. 1. 図1の画像処理回路における物体検出部の構成を示す図である。It is a figure which shows the structure of the object detection part in the image processing circuit of FIG. 図17の物体検出部における検索情報保存部の構成を示す図である。It is a figure which shows the structure of the search information storage part in the object detection part of FIG. 図17の物体検出部における最小距離検索連想メモリの構成を示す図である。It is a figure which shows the structure of the minimum distance search content addressable memory in the object detection part of FIG. 図17の物体検出部における動きベクトル計算部の構成を示す図である。It is a figure which shows the structure of the motion vector calculation part in the object detection part of FIG. 図17の物体検出部における推定位置計算部の構成を示す図である。It is a figure which shows the structure of the estimated position calculation part in the object detection part of FIG. 図1の画像処理回路における物体検出部の構成を示す図である。It is a figure which shows the structure of the object detection part in the image processing circuit of FIG. 図1の画像処理回路による画像処理アルゴリズムを示すフローチャートである。3 is a flowchart showing an image processing algorithm by the image processing circuit of FIG. 1. (a)および(b)は、画像分割処理によりグレースケール画像を画像分割した結果を示す画像であり、(c)および(d)は、カラー画像に対して画像分割を行った結果を示す画像である。(A) and (b) are images showing the result of image division of a grayscale image by image division processing, and (c) and (d) are images showing the result of image division on a color image. It is. 画像分割アルゴリズムを用いて画像分割処理を行った場合における、画素数と処理時間との関係を示すグラフである。It is a graph which shows the relationship between the number of pixels and processing time when image division processing is performed using an image division algorithm. オブジェクトの前フレームの位置と、現フレームの推定位置との関係を示す図である。It is a figure which shows the relationship between the position of the front frame of an object, and the estimated position of the present frame. (a)〜(c)は、本発明の画像処理方法をシミュレーションした3個のオブジェクトが左から右に移動する画像である。(A)-(c) is an image which three objects which simulated the image processing method of this invention move from the left to the right. (a)〜(c)は、図27の画像に対してMorphology処理を行った画像である。(A)-(c) is the image which performed Morphology processing with respect to the image of FIG. (a)〜(c)は、図28の画像を分割した結果を示す画像である。(A)-(c) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(e)は、本発明の画像処理方法をシミュレーションした、動きベクトルがオブジェクトの移動中において変化する画像である。(A)-(e) is the image which the motion vector changed during the movement of the object which simulated the image processing method of this invention. (a)〜(k)は、本発明の画像処理方法をシミュレーションした、複数のオブジェクトがランダムに動いている画像である。(A)-(k) is the image which simulated the image processing method of this invention and several objects are moving at random. (a)〜(f)は、図31の画像を分割した結果を示す画像である。(A)-(f) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(f)は、ボールが床に衝突して跳ね返ることにより、動きベクトルが急激に変化する画像である。(A)-(f) is an image in which a motion vector changes rapidly, when a ball | bowl collides with a floor and bounces off. (a)〜(f)は、ボールが床に衝突して跳ね返ることにより、動きベクトルが急激に変化する別の画像である。(A)-(f) is another image from which a motion vector changes rapidly, when a ball | bowl collides with a floor and bounces off. (a)〜(d)は、図33の画像を分割した結果を示す画像である。(A)-(d) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(d)は、図34の画像を分割した結果を示す画像である。(A)-(d) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(f)は、小さなオブジェクトがランダムに動いている画像である。(A) to (f) are images in which small objects are moving randomly. 図37の画像を分割した結果を示す画像である。It is an image which shows the result of having divided | segmented the image of FIG. (a)〜(c)は、人物がフレーム中で動いている画像である。(A) to (c) are images of a person moving in a frame. (a)〜(d)は、図39の画像を分割した結果を示す画像である。(A)-(d) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(h)は、歩いている人物がフレーム中で別の人物と重なる画像である。(A) to (h) are images in which a walking person overlaps another person in the frame. (a)〜(d)は、図41の画像を分割した結果を示す画像である。(A)-(d) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(c)は、図41の画像を分割した結果を示す画像である。(A)-(c) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(f)は、ミニカーが動いている画像である。(A)-(f) are the images which the minicar is moving. (a)〜(c)は、図44の画像を分割した結果を示す画像である。(A)-(c) is an image which shows the result of having divided | segmented the image of FIG. (a)〜(f)は、車が走っている道路を撮影した画像である。(A)-(f) is the image which image | photographed the road where the car is running. (a)および(b)は、図46の画像を分割した結果を示す画像である。(A) And (b) is an image which shows the result of having divided | segmented the image of FIG.

符号の説明Explanation of symbols

1 画像処理回路(画像処理装置)
4 結合重み計算部(画像分割手段)
5 リーダーセル計算部(画像分割手段)
6 画像分割セルネットワーク(画像分割手段)
9 位置情報計算部(動きベクトル算出手段、推定位置算出手段)
9a 動きベクトル計算部(動きベクトル算出手段)
9b 推定位置計算部(推定位置算出手段)
10 最小距離検索連想メモリ(オブジェクト認識手段)
1 Image processing circuit (image processing device)
4 Connection weight calculator (image dividing means)
5 Leader cell calculator (image segmentation means)
6 Image segmentation cell network (image segmentation means)
9 Position information calculation unit (motion vector calculation means, estimated position calculation means)
9a Motion vector calculation unit (motion vector calculation means)
9b Estimated position calculation unit (estimated position calculation means)
10 Minimum distance search associative memory (object recognition means)

Claims (16)

入力画像中に含まれる複数のオブジェクトを、その入力画像のフレーム毎に入力画像から分割する画像分割手段と、
分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する動きベクトル算出手段と、
各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する推定位置算出手段と、
上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識するオブジェクト認識手段とを備えていることを特徴とする画像処理装置。
Image dividing means for dividing a plurality of objects included in the input image from the input image for each frame of the input image;
For each divided object, a motion vector calculating means for calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate of the object in the frame immediately before and the position coordinate of the previous frame;
For each object, estimated position calculation means for calculating an estimated position, which is a position where each object is estimated to exist in the current frame, based on the position coordinates of the previous frame of the object and the motion vector;
The same object is recognized between the current frame and the previous frame based on the estimated position, the feature amount other than the estimated position for each object in the previous frame, and the feature amount other than the estimated position for each object in the current frame. An image processing apparatus comprising: an object recognition unit.
上記オブジェクト認識手段は、現フレームの注目オブジェクトと、前フレームの各オブジェクトとの間で、第1差分値および第2差分値に基づく値である距離指標を算出し、その距離指標が最小となるオブジェクトを同一のオブジェクトとして認識するものであり、
上記第1差分値は、現フレームにおける注目オブジェクトの推定位置を示す座標と、前フレームにおける各オブジェクトの実際の位置を示す座標との差分値であり、
上記第2差分値は、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの注目オブジェクトに関する推定位置以外の特徴量との差分値であることを特徴とする請求項1に記載の画像処理装置。
The object recognition means calculates a distance index, which is a value based on the first difference value and the second difference value, between the target object of the current frame and each object of the previous frame, and the distance index is minimized. Recognizing objects as the same object,
The first difference value is a difference value between coordinates indicating the estimated position of the object of interest in the current frame and coordinates indicating the actual position of each object in the previous frame,
The said 2nd difference value is a difference value of the feature-value other than the presumed position regarding each object of a previous frame, and the feature-value other than the presumed position regarding the attention object of the present frame, The feature value of Claim 1 characterized by the above-mentioned. Image processing device.
上記推定位置以外の特徴量は、画素数、幅、高さ、および色情報のうち、少なくとも1つを含むものであることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature amount other than the estimated position includes at least one of the number of pixels, the width, the height, and the color information. 上記推定位置以外の特徴量は、画素数、幅、高さ、および色情報であり、
上記第2差分値は、画素数、幅、高さ、および色情報のそれぞれに関する差分値であり、
上記オブジェクト認識手段は、
現フレームのオブジェクトiと、前フレームのオブジェクトjとの間における距離指標をDij、上記第1差分値をIpij、上記画素数の差分値をIaij、上記幅の差分値をIwij、上記高さの差分値をIhij、上記色情報の差分値をIcijとした場合、
Dij=αIaij+β(Iwij+Ihij)+γIpij+εIcij
(α、β、γ、εは、Iaij,Iwij,Ihij,Ipij,およびIcijのそれぞれの大きさに応じて決定される係数)
と設定して、距離指標Dijを算出することを特徴とする請求項2に記載の画像処理装置。
The feature amount other than the estimated position is the number of pixels, width, height, and color information,
The second difference value is a difference value for each of the number of pixels, width, height, and color information,
The object recognition means is
The distance index between the object i of the current frame and the object j of the previous frame is D ij , the first difference value is Ip ij , the pixel number difference value is Ia ij , and the width difference value is Iw ij , When the height difference value is Ih ij and the color information difference value is Ic ij ,
D ij = αIa ij + β (Iw ij + Ih ij ) + γIp ij + εIc ij
(Α, β, γ, ε are coefficients determined according to the respective sizes of Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij )
The image processing apparatus according to claim 2, wherein the distance index D ij is calculated.
上記推定位置以外の特徴量は、画素数、幅、高さ、および色情報であり、
上記第2差分値は、画素数、幅、高さ、および色情報のそれぞれに関する差分値であり、
上記オブジェクト認識手段は、
現フレームのオブジェクトiと、前フレームのオブジェクトjとの間における距離指標をDij、上記第1差分値をIpij、上記画素数の差分値をIaij、上記幅の差分値をIwij、上記高さの差分値をIhij、上記色情報の差分値をIcijとした場合、
Dij=√k
k=αIaij 2+βIwij 2+βIhij 2+γIpij 2+εIcij 2
(α、β、γ、εは、Iaij,Iwij,Ihij,Ipij,およびIcijのそれぞれの大きさに応じて決定される係数)
と設定して、距離指標Dijを算出することを特徴とする請求項2に記載の画像処理装置。
The feature amount other than the estimated position is the number of pixels, width, height, and color information,
The second difference value is a difference value for each of the number of pixels, width, height, and color information,
The object recognition means is
The distance index between the object i of the current frame and the object j of the previous frame is D ij , the first difference value is Ip ij , the pixel number difference value is Ia ij , and the width difference value is Iw ij , When the height difference value is Ih ij and the color information difference value is Ic ij ,
D ij = √k
k = αIa ij 2 + βIw ij 2 + βIh ij 2 + γIp ij 2 + εIc ij 2
(Α, β, γ, ε are coefficients determined according to the respective sizes of Ia ij , Iw ij , Ih ij , Ip ij , and Ic ij )
The image processing apparatus according to claim 2, wherein the distance index D ij is calculated.
上記係数α、β、γ、およびεは、α=2β=2γ=εを満たすことを特徴とする請求項4または5に記載の画像処理装置。   6. The image processing apparatus according to claim 4, wherein the coefficients α, β, γ, and ε satisfy α = 2β = 2γ = ε. 上記オブジェクト認識手段は、上記推定位置として、正規化された値を用いることを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the object recognition unit uses a normalized value as the estimated position. 上記オブジェクト認識手段は、上記推定位置の現実の値を、上記推定位置が取り得る最大値で除算することにより、上記正規化を行うことを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the object recognition unit performs the normalization by dividing an actual value of the estimated position by a maximum value that can be taken by the estimated position. 上記オブジェクト認識手段は、それぞれが等しい大きさを有する複数の領域に入力画像を分割するとともに、上記推定位置の現実の値を、その領域の大きさに基づく所定値で除算することにより、上記正規化を行うことを特徴とする請求項7に記載の画像処理装置。   The object recognition means divides the input image into a plurality of regions each having the same size, and divides the actual value of the estimated position by a predetermined value based on the size of the region, thereby The image processing apparatus according to claim 7, wherein: 上記オブジェクト認識手段は、上記推定位置以外の特徴量として、正規化された値を用いることを特徴とする請求項1ないし9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the object recognition unit uses a normalized value as a feature amount other than the estimated position. 上記オブジェクト認識手段は、上記特徴量の現実の値を、上記特徴量の対応する値が取り得る最大値で除算することにより、上記正規化を行うことを特徴とする請求項10に記載の画像処理装置。   11. The image according to claim 10, wherein the object recognition unit performs the normalization by dividing an actual value of the feature quantity by a maximum value that can be taken by a corresponding value of the feature quantity. Processing equipment. 上記オブジェクト認識手段は、それぞれが等しい大きさを有する複数の領域に入力画像を分割するとともに、上記特徴量の現実の値を、その領域の大きさに基づく所定値で除算することにより、上記正規化を行うことを特徴とする請求項10に記載の画像処理装置。   The object recognition means divides the input image into a plurality of regions each having the same size, and divides the actual value of the feature amount by a predetermined value based on the size of the region, thereby The image processing apparatus according to claim 10, wherein the image processing is performed. 請求項1ないし12のいずれか1項に記載の画像処理装置を集積回路化したことを特徴とする画像処理集積化回路。   13. An image processing integrated circuit, wherein the image processing apparatus according to claim 1 is integrated. 入力画像中に含まれる複数のオブジェクトを、その入力画像のフレーム毎に入力画像から分割する第1ステップと、
分割された各オブジェクトについて、そのオブジェクトの前々フレームにおける位置座標と、前フレームの位置座標との差分から、そのオブジェクトの移動量を示す動きベクトルを算出する第2ステップと、
各オブジェクトについて、そのオブジェクトの前フレームの位置座標と、上記動きベクトルとに基づき、現フレームにおいて各オブジェクトが存在すると推定される位置である推定位置を算出する第3ステップと、
上記推定位置と、前フレームの各オブジェクトに関する推定位置以外の特徴量と、現フレームの各オブジェクトに関する推定位置以外の特徴量とに基づき、現フレームと前フレームとの間で同一のオブジェクトを認識する第4ステップとを備えていることを特徴とする画像処理方法。
A first step of dividing a plurality of objects included in the input image from the input image for each frame of the input image;
For each divided object, a second step of calculating a motion vector indicating the amount of movement of the object from the difference between the position coordinate of the object in the previous frame and the position coordinate of the previous frame;
For each object, a third step of calculating an estimated position, which is a position where each object is estimated to exist in the current frame, based on the position coordinates of the previous frame of the object and the motion vector;
The same object is recognized between the current frame and the previous frame based on the estimated position, the feature amount other than the estimated position for each object in the previous frame, and the feature amount other than the estimated position for each object in the current frame. An image processing method comprising: a fourth step.
コンピュータに請求項14に記載の画像処理方法における各ステップを実行させるための画像処理プログラム。   An image processing program for causing a computer to execute each step in the image processing method according to claim 14. 請求項15に記載の画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the image processing program according to claim 15 is recorded.
JP2004256184A 2004-09-02 2004-09-02 Image processing apparatus, image processing method, image processing program, and computer-readable recording medium Active JP4500999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004256184A JP4500999B2 (en) 2004-09-02 2004-09-02 Image processing apparatus, image processing method, image processing program, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004256184A JP4500999B2 (en) 2004-09-02 2004-09-02 Image processing apparatus, image processing method, image processing program, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2006072763A true JP2006072763A (en) 2006-03-16
JP4500999B2 JP4500999B2 (en) 2010-07-14

Family

ID=36153317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004256184A Active JP4500999B2 (en) 2004-09-02 2004-09-02 Image processing apparatus, image processing method, image processing program, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP4500999B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146490A (en) * 2006-12-12 2008-06-26 Yahoo Japan Corp Information providing device, information providing method and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063577A (en) * 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> System and method for analyzing image, and image analysis program recording medium
JP2003346142A (en) * 2002-05-27 2003-12-05 Univ Hiroshima Image split processing method, image split processor, real- time image processing method, real-time image processor, and image processing integrated circuit
JP2004013615A (en) * 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd Moving object monitoring device
JP2004013306A (en) * 2002-06-04 2004-01-15 Nec Corp Similarity computing device, index data generating device, video or audio database device, similarity computing method, index data generating method, content representation data storage device, and recording medium
JP2004046647A (en) * 2002-07-12 2004-02-12 Univ Waseda Method and device for tracking moving object based on dynamic image data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063577A (en) * 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> System and method for analyzing image, and image analysis program recording medium
JP2003346142A (en) * 2002-05-27 2003-12-05 Univ Hiroshima Image split processing method, image split processor, real- time image processing method, real-time image processor, and image processing integrated circuit
JP2004013306A (en) * 2002-06-04 2004-01-15 Nec Corp Similarity computing device, index data generating device, video or audio database device, similarity computing method, index data generating method, content representation data storage device, and recording medium
JP2004013615A (en) * 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd Moving object monitoring device
JP2004046647A (en) * 2002-07-12 2004-02-12 Univ Waseda Method and device for tracking moving object based on dynamic image data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146490A (en) * 2006-12-12 2008-06-26 Yahoo Japan Corp Information providing device, information providing method and computer program

Also Published As

Publication number Publication date
JP4500999B2 (en) 2010-07-14

Similar Documents

Publication Publication Date Title
JP6855098B2 (en) Face detection training methods, equipment and electronics
US7539327B2 (en) System and process for bootstrap initialization of nonparametric color models
WO2021012484A1 (en) Deep learning-based target tracking method and apparatus, and computer readable storage medium
CN108960211B (en) Multi-target human body posture detection method and system
Liao et al. Modeling pixel process with scale invariant local patterns for background subtraction in complex scenes
CN108470354A (en) Video target tracking method, device and realization device
WO2019227479A1 (en) Method and apparatus for generating face rotation image
CN111062263B (en) Method, apparatus, computer apparatus and storage medium for hand gesture estimation
WO2016119076A1 (en) A method and a system for face recognition
CN113407027B (en) Pose acquisition method and device, electronic equipment and storage medium
CN110598715A (en) Image recognition method and device, computer equipment and readable storage medium
CN111126249A (en) Pedestrian re-identification method and device combining big data and Bayes
CN111582349A (en) Improved target tracking algorithm based on YOLOv3 and kernel correlation filtering
El‐Shafie et al. Survey on hardware implementations of visual object trackers
CN110349188A (en) Multi-object tracking method, device and storage medium based on TSK fuzzy model
CN111340213B (en) Neural network training method, electronic device, and storage medium
CN111382791B (en) Deep learning task processing method, image recognition task processing method and device
US20070147678A1 (en) Adaptive Scene Dependent Filters In Online Learning Environments
CN111104911A (en) Pedestrian re-identification method and device based on big data training
Kang et al. Yolo-6d+: single shot 6d pose estimation using privileged silhouette information
US20100246905A1 (en) Person identifying apparatus, program therefor, and method thereof
JP4500999B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium
CN114724175B (en) Pedestrian image detection network, pedestrian image detection method, pedestrian image training method, electronic device and medium
US20230036402A1 (en) Focused Computer Detection Of Objects In Images
Bakr et al. Mask R-CNN for moving shadow detection and segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070405

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150