JP2008276613A - Mobile body determination device, computer program and mobile body determination method - Google Patents

Mobile body determination device, computer program and mobile body determination method Download PDF

Info

Publication number
JP2008276613A
JP2008276613A JP2007121048A JP2007121048A JP2008276613A JP 2008276613 A JP2008276613 A JP 2008276613A JP 2007121048 A JP2007121048 A JP 2007121048A JP 2007121048 A JP2007121048 A JP 2007121048A JP 2008276613 A JP2008276613 A JP 2008276613A
Authority
JP
Japan
Prior art keywords
pixel
captured image
moving body
type
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007121048A
Other languages
Japanese (ja)
Inventor
Masakatsu Higashikubo
政勝 東久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2007121048A priority Critical patent/JP2008276613A/en
Publication of JP2008276613A publication Critical patent/JP2008276613A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile body determination device, for accurately determining the position and type of a mobile body, and to provide a computer program and a mobile body determination method therefor. <P>SOLUTION: A CPU 25 sets a pixel area, and sets a position of a target pixel. The CPU 25 extracts a characteristic quantity vector based on a correlation between the target pixel within the set pixel area and a specific pixel specified by a displacement direction from the target pixel. The pixel block size and frame number of the pixel area, the space between pixels and the frame space are changed according to the apparent size and moving speed of the mobile body in the position of the target pixel on an image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、道路を含む領域を撮像装置で撮像して得られた時系列の撮像画像に基づいて移動体の種別を判定する移動体判定装置、該移動体判定装置をコンピュータで実現するためのコンピュータプログラム及び移動体判定方法に関する。   The present invention relates to a moving body determination device that determines a type of a moving body based on a time-series captured image obtained by capturing an area including a road with an imaging device, and for realizing the moving body determination device with a computer. The present invention relates to a computer program and a moving object determination method.

円滑な交通を実現し、あるいは交通事故を未然に防止するために詳細な交通情報を提供することが求められている。例えば、道路の所定の地点を通過する車両の通過台数又は平均速度等のマクロな交通パラメータを取得することができる装置のみならず、個々の車両の位置又は動きを精度良く計測することができる装置が求められている。   It is demanded to provide detailed traffic information in order to realize smooth traffic or prevent traffic accidents. For example, not only a device that can acquire macro traffic parameters such as the number of vehicles passing through a predetermined point on a road or an average speed, but also a device that can accurately measure the position or movement of each vehicle. Is required.

これらの計測装置は屋外に設置されることが多く、様々な環境変化に対応した安定性のある計測精度が要求されている。また、これらの装置を用いた社会インフラを普及させるためには、安価な装置を提供することも不可欠である。   These measuring devices are often installed outdoors, and stable measuring accuracy corresponding to various environmental changes is required. In order to spread social infrastructure using these devices, it is also essential to provide inexpensive devices.

このような装置の一例として、画像処理技術を利用した画像式車両感知器の普及が進んでいる。例えば、車両が存在しない道路を撮像した撮像画像を予め作成しておき、車両が道路を走行する際に撮像した撮像画像との差分を算出して車両のみの情報を抽出する。その後エッジを抽出し、抽出したエッジの分布により車両位置を検出する装置が提案されている(特許文献1参照)。   As an example of such an apparatus, an image-type vehicle detector using an image processing technique has been widely used. For example, a captured image obtained by capturing a road where no vehicle is present is created in advance, and a difference from the captured image captured when the vehicle travels on the road is calculated to extract information on only the vehicle. There has been proposed an apparatus for extracting an edge and detecting a vehicle position based on the distribution of the extracted edge (see Patent Document 1).

また、車両又はその他の輝度分布そのものを特徴量とし、ニューラルネットワーク等で車両を判別する方式もあるが、様々な環境下でのパターンデータを予め準備しておくことは現実的ではなく、かつ判別に要する処理時間も膨大となることから安価な装置として実現することは非常に困難であった。   In addition, there is a method in which a vehicle or other luminance distribution itself is used as a feature amount and the vehicle is discriminated by a neural network or the like. However, it is not realistic to prepare pattern data in various environments in advance. Since the processing time required for this is enormous, it has been very difficult to implement as an inexpensive device.

一方、動画像に基づいて注目画素の周辺及び時間方向での局所領域での相関特徴量を抽出して、動作特徴の統計的な分布を考慮した場合に分布の集中する通常動作と、その分布から大きく逸脱する異常動作とを識別する立体高次局所自己相関特徴抽出手法が提案されている(非特許文献1参照)。
特開平5−307695号公報 南里 卓也、他1名、「複数人動画像からの異常動作検出」、情報処理学会研究報告、2004−CVIM−145、pp179−186、2004年9月11日
On the other hand, by extracting the correlation features in the local area around the pixel of interest and in the temporal direction based on the moving image, and taking into account the statistical distribution of motion features, the normal motion where the distribution is concentrated and its distribution A three-dimensional higher-order local autocorrelation feature extraction method has been proposed (see Non-Patent Document 1) for discriminating abnormal movements that greatly deviate from
JP-A-5-307695 Takuya Nanzato, 1 other, "Detection of abnormal motion from multiple moving images", IPSJ Research Report, 2004-CVIM-145, pp 179-186, September 11, 2004

しかしながら、特許文献1の例にあっては、日照変化、天候変化などの外部環境変化の影響により、路面上の影、路面標記、路面反射、あるいは樹木の揺れなどを車両として誤って計測するという問題があり、抜本的な解決はなされていない。また、非特許文献1の例にあっては、撮像画像内で通常動作又は異常動作の有無を識別することができるものの、撮像画像上のどの位置に通常動作を行う対象物が存在するのか、また、撮像画像上のどの位置に異常動作を行う対象物が存在するのかは識別することができない。従って、非特許文献1の手法を交通流監視等に適用したとしても、車両、人などの移動体が何処に存在するのか判定することができなかった。   However, in the example of Patent Document 1, due to the influence of changes in the external environment such as sunshine changes and weather changes, the road surface shadows, road surface markings, road surface reflections, or tree shakes are erroneously measured as vehicles. There are problems and no radical solution has been made. Further, in the example of Non-Patent Document 1, although the presence or absence of normal operation or abnormal operation can be identified in the captured image, in which position on the captured image the object that performs the normal operation exists, In addition, it cannot be identified at which position on the captured image the target object that performs the abnormal operation exists. Therefore, even if the method of Non-Patent Document 1 is applied to traffic flow monitoring or the like, it is not possible to determine where a moving body such as a vehicle or a person exists.

本発明は、斯かる事情に鑑みてなされたものであり、撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成される画素領域を設定し、設定した画素領域内の注目画素とその注目画素からの変位情報により特定される画素との相関に基づいて特徴量ベクトルを抽出する。抽出した特徴量ベクトルを画素領域内の注目画素毎に加算し、加算した特徴量ベクトルを所定の変換係数で種別判定値に変換して移動体の種別を判定することにより、外部環境変化の影響を受けることなく、移動体の位置及び種別を精度良く判定することができる移動体判定装置、該移動体判定装置をコンピュータで実現するためのコンピュータプログラム及び移動体判定方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and sets a pixel region configured by arranging a plurality of pixel blocks in each captured image of a plurality of captured images at different capturing time points in time series, and the set pixels A feature quantity vector is extracted based on the correlation between the target pixel in the region and the pixel specified by the displacement information from the target pixel. The extracted feature vector is added to each pixel of interest in the pixel area, and the added feature vector is converted into a type determination value using a predetermined conversion coefficient to determine the type of moving object, thereby affecting the influence of external environment changes. It is an object of the present invention to provide a moving body determination device capable of accurately determining the position and type of a moving body without receiving a computer, a computer program for realizing the moving body determination device by a computer, and a moving body determination method. To do.

第1発明に係る移動体判定装置は、道路を含む領域を撮像して得られた時系列の撮像画像に基づいて移動体の種別を判定する移動体判定装置において、撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成される画素領域を設定する設定手段と、該設定手段で設定した画素領域内の注目画素と該注目画素からの変位情報により特定される画素との相関に基づいて特徴量ベクトルを抽出する抽出手段と、前記画素領域内の注目画素毎に前記抽出手段で抽出した特徴量ベクトルを加算する加算手段と、該加算手段で加算した特徴量ベクトルを所定の変換係数で種別判定値に変換する変換手段とを備え、該変換手段で変換した種別判定値に基づいて移動体の種別を判定するように構成してあることを特徴とする。   A mobile body determination device according to a first aspect of the present invention is a mobile body determination device that determines a type of mobile body based on a time-series captured image obtained by imaging a region including a road. A setting unit that sets a pixel area configured by arranging a plurality of pixel blocks in each captured image of the image in time series, a target pixel in the pixel area set by the setting unit, and displacement information from the target pixel Extracting means for extracting a feature quantity vector based on the correlation with the pixel to be added, adding means for adding the feature quantity vector extracted by the extracting means for each target pixel in the pixel area, and features added by the adding means Conversion means for converting the quantity vector into a type determination value with a predetermined conversion coefficient, and configured to determine the type of the moving body based on the type determination value converted by the conversion means.

第2発明に係る移動体判定装置は、第1発明において、前記設定手段は、撮像画像の遠距離/近距離に対応する領域で前記画素領域の画素ブロックの大きさを小さく/大きく設定するように構成してあることを特徴とする。   In the mobile body determination device according to a second aspect of the present invention, in the first aspect, the setting means sets the size of the pixel block in the pixel area to be smaller / larger in an area corresponding to a long distance / short distance of the captured image. It is comprised by these.

第3発明に係る移動体判定装置は、第1発明又は第2発明において、注目画素と変位情報により特定される画素との画素間隔は、撮像画像の遠距離/近距離に対応する領域で小さい/大きいことを特徴とする。   In the mobile object determination device according to the third invention, in the first invention or the second invention, the pixel interval between the pixel of interest and the pixel specified by the displacement information is small in a region corresponding to a long distance / short distance of the captured image. / It is characterized by being large.

第4発明に係る移動体判定装置は、第1発明乃至第3発明のいずれかにおいて、前記設定手段は、撮像画像の遠距離/近距離に対応する領域で前記画素領域の時系列に並べた画素ブロックの数を多く/少なく設定するように構成してあることを特徴とする。   In the mobile object determination device according to a fourth aspect of the present invention, in any one of the first to third aspects, the setting means arranges the pixel areas in time series in an area corresponding to a long distance / short distance of the captured image. The present invention is characterized in that the number of pixel blocks is set to be large / small.

第5発明に係る移動体判定装置は、第1発明乃至第4発明のいずれかにおいて、注目画素が存在する画素ブロックと変位情報により特定される画素が存在する画素ブロックとの時間間隔は、撮像画像の遠距離/近距離に対応する領域で大きい/小さいことを特徴とする。   According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the time interval between the pixel block in which the pixel of interest is present and the pixel block in which the pixel specified by the displacement information is present is imaged. It is characterized by being large / small in an area corresponding to a long distance / short distance of an image.

第6発明に係る移動体判定装置は、第1発明乃至第5発明のいずれかにおいて、前記加算手段で加算した特徴量ベクトルを前記画素領域内の注目画素数で除算して正規化する正規化手段を備え、前記変換手段は、前記正規化手段で正規化した特徴量ベクトルを変換するように構成してあることを特徴とする。   The moving body determination device according to a sixth aspect of the present invention is the normalization according to any one of the first to fifth aspects, wherein the feature vector added by the adding means is normalized by dividing by the number of pixels of interest in the pixel region. And the conversion means is configured to convert the feature quantity vector normalized by the normalization means.

第7発明に係る移動体判定装置は、第1発明乃至第6発明のいずれかにおいて、前記加算手段で加算した特徴量ベクトルの各要素の変動量を複数の撮像時点に亘って算出する変動量算出手段を備え、前記抽出手段は、前記変動量算出手段で算出した変動量が所定の閾値以下である場合、該変動量に対応する要素を除外して特徴量ベクトルを抽出するように構成してあることを特徴とする。   A moving body determination apparatus according to a seventh aspect of the present invention is the variation amount of any one of the first to sixth aspects, wherein the variation amount of each element of the feature amount vector added by the adding means is calculated over a plurality of imaging time points. And a calculating unit, wherein the extracting unit is configured to extract a feature vector by excluding an element corresponding to the variation when the variation calculated by the variation calculating unit is equal to or less than a predetermined threshold. It is characterized by being.

第8発明に係るコンピュータプログラムは、コンピュータに、道路を含む領域を撮像して得られた時系列の撮像画像に基づいて移動体の種別を判定させるためのコンピュータプログラムにおいて、コンピュータを、撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成される画素領域を設定する手段と、設定した画素領域内の注目画素と該注目画素からの変位情報により特定される画素との相関に基づいて特徴量ベクトルを抽出する手段と、前記画素領域内の注目画素毎に抽出した特徴量ベクトルを加算する手段と、加算した特徴量ベクトルを所定の変換係数で種別判定値に変換する手段と、変換した種別判定値に基づいて移動体の種別を判定する手段として機能させることを特徴とする。   A computer program according to an eighth invention is a computer program for causing a computer to determine a type of a moving body based on a time-series captured image obtained by imaging a region including a road. Specified by means for setting a pixel area configured by arranging a plurality of pixel blocks in each captured image of a plurality of different captured images in time series, and a target pixel in the set pixel area and displacement information from the target pixel Means for extracting a feature vector based on correlation with a pixel; means for adding a feature vector extracted for each pixel of interest in the pixel area; and a type determination value for the added feature vector with a predetermined conversion coefficient And a means for determining the type of the moving body based on the converted type determination value.

第9発明に係る移動体判定方法は、道路を含む領域を撮像して得られた時系列の撮像画像に基づいて移動体の種別を判定する移動体判定方法において、撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成される画素領域を設定し、設定した画素領域内の注目画素と該注目画素からの変位情報により特定される画素との相関に基づいて特徴量ベクトルを抽出し、前記画素領域内の注目画素毎に抽出した特徴量ベクトルを加算し、加算した特徴量ベクトルを所定の変換係数で種別判定値に変換し、変換した種別判定値に基づいて移動体の種別を判定することを特徴とする。   A moving body determination method according to a ninth aspect of the present invention is the moving body determination method for determining the type of moving body based on a time-series captured image obtained by capturing an area including a road. Based on the correlation between the target pixel in the set pixel area and the pixel specified by the displacement information from the target pixel by setting a plurality of pixel blocks in each captured image of the image arranged in time series To extract the feature amount vector, add the feature amount vectors extracted for each pixel of interest in the pixel region, convert the added feature amount vector into a type determination value with a predetermined conversion coefficient, The type of the moving body is determined based on the above.

第1発明、第8発明及び第9発明にあっては、撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成された画素領域を設定し、設定した画素領域内で注目画素の位置を設定する。設定した画素領域は、撮像画像上の2方向及び時間方向の3次元の領域となる。設定した画素領域内の注目画素とその注目画素からの変位情報により特定される画素(特定画素)との相関に基づいて特徴量ベクトルを抽出する。画素領域内で注目画素を移動させ、位置が異なる注目画素毎に抽出した特徴量ベクトルを加算する。変位情報は、注目画素から見た特定画素の変位方向であり、例えば、変位方向は注目画素を中心とする3×3×3画素の領域の26方向(26通り)とすることができる。相関特徴量を求める場合、変位方向の組み合わせ数だけ特徴量が生成される。例えば、組み合わせ数が251である場合、特徴量ベクトルは251次元ベクトルとなる。これにより、従来の手法(例えば、エッジ検出など)に比べて抽出することができる特徴量が増え、かつ時間変化による動きの特徴も抽出することができるため、複雑な特徴を注目画素毎に精度良く抽出することができる。   In the first invention, the eighth invention, and the ninth invention, a pixel area configured by setting a plurality of pixel blocks in each captured image of a plurality of captured images at different imaging time points in time series is set, and the set pixel The position of the target pixel is set in the area. The set pixel region is a three-dimensional region in the two directions and the time direction on the captured image. A feature vector is extracted based on the correlation between the target pixel in the set pixel region and the pixel (specific pixel) specified by the displacement information from the target pixel. The pixel of interest is moved within the pixel area, and the feature vector extracted for each pixel of interest at a different position is added. The displacement information is the displacement direction of the specific pixel viewed from the target pixel. For example, the displacement direction can be 26 directions (26 ways) of a 3 × 3 × 3 pixel region centered on the target pixel. When obtaining the correlation feature quantity, the feature quantity is generated by the number of combinations in the displacement direction. For example, when the number of combinations is 251, the feature vector is a 251 dimensional vector. This increases the amount of features that can be extracted compared to conventional methods (for example, edge detection), and also enables the extraction of motion features due to changes over time. Extract well.

加算した特徴量ベクトルを所定の変換係数で種別判定値に変換する。変換係数は予め決定しておくことができる。例えば、変換係数は、移動体の種別(車両あり、人あり、車両・人なしなど)が判明している学習用データ(例えば、数百から数千フレーム、フレームレートは1秒間で30フレーム)を用いて特徴量ベクトルを抽出し、回帰分析、主成分分析、判別分析などの多変量解析手法により求めることができる。変換した種別判定値に基づいて移動体の種別を判定する。これにより、画素領域の基準となる撮像時点の撮像画像における画素ブロックにおいて、車両あり、人あり、車両・人なしなどの移動体の種別を判定することができる。また、画素領域の画素ブロックの重なりを許して撮像画像全体に走査して同様の処理を繰り返すことにより、撮像画像上の移動体の位置及び種別を精度良く判定することができる。   The added feature vector is converted into a type determination value using a predetermined conversion coefficient. The conversion coefficient can be determined in advance. For example, the conversion coefficient is the learning data (for example, several hundred to several thousand frames, the frame rate is 30 frames per second) in which the type of the moving body (with vehicles, with people, without vehicles / people, etc.) is known. The feature quantity vector can be extracted by using multivariate analysis techniques such as regression analysis, principal component analysis, and discriminant analysis. The type of the moving object is determined based on the converted type determination value. Thereby, in the pixel block in the picked-up image at the time of image pick-up used as a reference of the pixel region, it is possible to determine the type of moving body such as the presence of a vehicle, the presence of a person, and the absence of a vehicle / person. Further, by repeating the same processing by allowing the entire pixel image to overlap with the pixel block in the pixel area, the position and type of the moving object on the captured image can be accurately determined.

第2発明にあっては、撮像画像の遠距離/近距離に対応する領域で画素領域の画素ブロックの大きさを小さく/大きく設定する。移動体が近くに存在する場合には撮像画像上での見かけの大きさが大きくなるため、画素ブロックの大きさを大きくする。これにより、画素領域の撮像画像上の2方向の大きさを大きくして広い範囲の特徴量を抽出することができ、精度良く移動体の種別を判定することができる。また、移動体が遠くに存在する場合には撮像画像上での見かけの大きさが小さくなるため、画素ブロックの大きさを小さくする。これにより、画素領域の撮像画像上の2方向の大きさを小さくして移動体の種別を精度良く判定しつつ、不要な処理を削除して処理労力を低減することができる。   In the second invention, the size of the pixel block in the pixel region is set to be small / large in the region corresponding to the long / short distance of the captured image. When the moving body exists nearby, the apparent size on the captured image increases, so the size of the pixel block is increased. As a result, the size of the pixel region in the two directions on the captured image can be increased to extract a wide range of feature values, and the type of the moving object can be determined with high accuracy. In addition, when the moving body is located far away, the apparent size on the captured image is reduced, so the size of the pixel block is reduced. Accordingly, it is possible to reduce the processing effort by deleting unnecessary processing while accurately determining the type of the moving body by reducing the size of the pixel region in the two directions on the captured image.

第3発明にあっては、注目画素と変位情報により特定される画素との画素間隔を、撮像画像の遠距離/近距離に対応する領域で小さく/大きくする。移動体が近くに存在する場合には撮像画像上での見かけの大きさが大きくなるため、画素間隔を大きくして変位方向の長さを長くする。これにより、広い範囲の特徴量を抽出することができ、精度良く移動体の種別を判定することができる。また、移動体が遠くに存在する場合には撮像画像上での見かけの大きさが小さくなるため、画素間隔を小さくして変位方向の長さを短くする。これにより、移動体の見かけの大きさに応じて精度良く移動体の種別を判定することができる。   In the third invention, the pixel interval between the pixel of interest and the pixel specified by the displacement information is reduced / increased in a region corresponding to the long distance / short distance of the captured image. When the moving body is present in the vicinity, the apparent size on the captured image becomes large, so the pixel interval is increased to increase the length in the displacement direction. As a result, a wide range of feature quantities can be extracted, and the type of mobile object can be determined with high accuracy. In addition, since the apparent size on the captured image is reduced when the moving object is located far away, the pixel interval is reduced to shorten the length in the displacement direction. Thereby, according to the apparent magnitude | size of a moving body, the classification of a moving body can be determined with sufficient precision.

第4発明にあっては、撮像画像の遠距離/近距離に対応する領域で画素領域の時系列に並べた画素ブロックの数を多く/少なく設定する。移動体が近くに存在する場合には撮像画像上での見かけの移動速度が速く、短い時間でも移動体の移動量が大きいため、画素ブロックの数を少なくする。これにより、画素領域の時間方向の長さを短くして移動体の移動速度に応じて精度良く移動体の種別を判定することができる。また、移動体が遠くに存在する場合には撮像画像上での見かけの移動速度が遅く、長い時間でないと移動体の移動量が大きくならないため、画素ブロックの数を多くする。これにより、長い時間に亘って特徴量を抽出することができ、精度良く移動体の種別を判定することができる。   In the fourth aspect of the invention, the number of pixel blocks arranged in time series of the pixel area in the area corresponding to the long distance / short distance of the captured image is set to be large / small. When the moving body exists nearby, the apparent moving speed on the captured image is fast, and the moving amount of the moving body is large even in a short time, so the number of pixel blocks is reduced. Thereby, the length of the pixel region in the time direction can be shortened, and the type of the moving body can be accurately determined according to the moving speed of the moving body. In addition, when the moving body exists far away, the apparent moving speed on the captured image is slow, and the moving amount of the moving body does not increase unless the time is long, so the number of pixel blocks is increased. Thereby, a feature-value can be extracted over a long time, and the classification of a mobile body can be determined with sufficient precision.

第5発明にあっては、注目画素が存在する画素ブロックと変位情報により特定される画素が存在する画素ブロックとの時間間隔を、撮像画像の遠距離/近距離に対応する領域で大きく/小さくする。移動体が近くに存在する場合には撮像画像上での見かけの移動速度が速く、短い時間でも移動体の移動量が大きいため、時系列に並んだ画素ブロックの時間間隔を短くする。これにより、移動体の移動速度に応じて精度良く移動体の種別を判定することができる。また、移動体が遠くに存在する場合には撮像画像上での見かけの移動速度が遅く、長い時間でないと移動体の移動量が大きくならないため、時系列に並んだ画素ブロックの時間間隔を長くする。これにより、長い時間に亘って特徴量を抽出することができ、精度良く移動体の種別を判定することができる。   In the fifth invention, the time interval between the pixel block in which the pixel of interest exists and the pixel block in which the pixel specified by the displacement information exists is increased / decreased in an area corresponding to the long / short distance of the captured image. To do. When the moving object is present in the vicinity, the apparent moving speed on the captured image is high, and the moving amount of the moving object is large even in a short time. Therefore, the time interval between the pixel blocks arranged in time series is shortened. As a result, the type of the moving body can be accurately determined according to the moving speed of the moving body. In addition, when the moving object is located far away, the apparent moving speed on the captured image is slow, and the moving amount of the moving object does not increase unless the time is long, so the time interval between the pixel blocks arranged in time series is increased. To do. Thereby, a feature-value can be extracted over a long time, and the classification of a mobile body can be determined with sufficient precision.

第6発明にあっては、加算した特徴量ベクトルを画素領域内の注目画素数(例えば、注目画素の総数)で除算して正規化する。正規化した特徴量ベクトルを変換係数で変換して種別判定値を求める。これにより、画素領域の2方向又は時間方向の大きさに依存しない相関特徴量を求めることができる。   In the sixth aspect of the invention, the added feature vector is normalized by dividing it by the number of target pixels in the pixel area (for example, the total number of target pixels). A type determination value is obtained by converting the normalized feature vector with a conversion coefficient. Thereby, the correlation feature amount independent of the size of the pixel region in the two directions or the time direction can be obtained.

第7発明にあっては、加算した特徴量ベクトルの各要素の変動量を複数の撮像時点に亘って算出する。例えば、予め移動体の種別(車両あり、人あり、車両・人なしなど)が判明している学習用データを用いて、複数の撮像時点(例えば、数百から数千フレーム)で特徴量ベクトル(画素領域内の注目画素毎に抽出した特徴量ベクトルを加算した特徴量ベクトル)を抽出し、抽出した特徴量ベクトルの各要素(251次元ベクトルの場合、251要素)の変動量を算出する。変動量が所定の閾値以下である場合、すなわち、移動体の種別に関わらず特徴量が変化しない要素を除去する。移動体の種別を判定する場合、移動体の種別に関わらず特徴量がほとんど変化しない要素を除去した特徴量ベクトル(部分特徴量ベクトル)を抽出する。これにより、移動体の種別判定に不要な特徴量を求める必要がなくなり、移動体の種別判定の精度を維持しつつ処理量を削減することができ、移動体の種別の判定をより安価な装置で実現することが可能となる。   In the seventh invention, the fluctuation amount of each element of the added feature vector is calculated over a plurality of imaging time points. For example, using learning data in which the type of a moving object (with a vehicle, with a person, with a vehicle / without a person, etc.) is known in advance, a feature vector at a plurality of imaging points (for example, several hundred to several thousand frames) (A feature amount vector obtained by adding the feature amount vectors extracted for each pixel of interest in the pixel area) is extracted, and a variation amount of each element (251 elements in the case of a 251 dimensional vector) of the extracted feature amount vector is calculated. When the fluctuation amount is equal to or less than the predetermined threshold, that is, the element whose feature amount does not change regardless of the type of the moving body is removed. When determining the type of the moving body, a feature amount vector (partial feature amount vector) from which an element whose feature amount hardly changes regardless of the type of the moving body is removed is extracted. As a result, there is no need to obtain unnecessary feature amounts for the mobile body type determination, the processing amount can be reduced while maintaining the accuracy of the mobile body type determination, and the mobile body type determination is less expensive. Can be realized.

本発明にあっては、外部環境変化の影響を受けることなく、移動体の位置及び種別を精度良く判定することができる。   In the present invention, it is possible to accurately determine the position and type of the moving body without being affected by changes in the external environment.

以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本発明に係る移動体判定装置を用いた移動体判定の概要を示す模式図である。図1に示すように、交差点手前の停止線P付近の路上10m程度の位置にビデオカメラ1を設置する。ビデオカメラ1は、交差点への流入路又は流出路の数十m程度の範囲を移動体の種別(例えば、車両あり、人あり、車両・人なし)を判定する判定領域として撮像する。   Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. FIG. 1 is a schematic diagram showing an outline of mobile body determination using the mobile body determination apparatus according to the present invention. As shown in FIG. 1, the video camera 1 is installed at a position about 10 m on the road near the stop line P before the intersection. The video camera 1 images a range of about several tens of meters of an inflow path or an outflow path to an intersection as a determination area for determining the type of a moving body (for example, with a vehicle, with a person, without a vehicle / with a person).

ビデオカメラ1には、所要の映像ケーブルを介して本発明に係る移動体判定装置2を接続してある。移動体判定装置2は、ビデオカメラ1で撮像して得られた時系列の撮像画像(動画像)を処理して移動体の種別を判定する。移動体判定装置2は、交通管制センタに設置されたセンタ装置3との間で有線又は無線通信により通信を行うことができる。移動体判定装置2は、移動体の種別の判定結果をセンタ装置3へ出力する。なお、ビデオカメラ1と移動体判定装置2とは一体型であってもよい。   A moving body determination device 2 according to the present invention is connected to the video camera 1 via a required video cable. The moving body determination device 2 processes time-series captured images (moving images) obtained by capturing with the video camera 1 and determines the type of the moving body. The mobile body determination device 2 can communicate with the center device 3 installed in the traffic control center by wired or wireless communication. The mobile body determination device 2 outputs the determination result of the mobile body type to the center device 3. Note that the video camera 1 and the moving body determination device 2 may be integrated.

図2は移動体判定装置2の構成を示すブロック図である。図において、1はビデオカメラである。ビデオカメラ1は撮像して得られた撮像画像を映像信号(アナログ信号)として画像入力部21へ出力する。画像入力部21は、取得した映像信号をA/D変換部22へ出力する。   FIG. 2 is a block diagram showing a configuration of the moving body determination device 2. In the figure, reference numeral 1 denotes a video camera. The video camera 1 outputs a captured image obtained by imaging to the image input unit 21 as a video signal (analog signal). The image input unit 21 outputs the acquired video signal to the A / D conversion unit 22.

A/D変換部22は、入力された映像信号をデジタル信号に変換し、変換したデジタル信号を画像データとして画像メモリ23へ記憶する。CPU25は、画像入力部21を介してビデオカメラ1から入力された撮像画像を画像データとして、ビデオカメラ1のフレームレート(撮像時点の間隔、例えば、1秒間に30フレーム)と同期して、1フレーム単位(例えば、480×640画素)で画像メモリ23に記憶する。   The A / D converter 22 converts the input video signal into a digital signal, and stores the converted digital signal in the image memory 23 as image data. The CPU 25 uses the captured image input from the video camera 1 via the image input unit 21 as image data in synchronization with the frame rate of the video camera 1 (interval at the time of imaging, for example, 30 frames per second). The data is stored in the image memory 23 in units of frames (for example, 480 × 640 pixels).

補助記憶部28は、本発明のコンピュータプログラムPGを記録したCD−ROM29が挿入されることにより、CD−ROM29に記録されたコンピュータプログラムPGをRAM24に記憶する。なお、コンピュータプログラムPGを記録する媒体は、CD−ROM29に限定されず他の記録媒体であってもよく、あるいは、インターネットからダウンロードすることもできる。CPU25は、RAM24に記憶されたコンピュータプログラムPGを実行する。移動体判定装置2は、CD−ROM29に記録したコンピュータプログラムPGがRAM24に読み込まれ、読み込まれたコンピュータプログラムPGをCPU25で実行することにより、移動体の種別判定処理を行う。なお、移動体の種別判定処理は、コンピュータプログラムに代えて、専用のハードウエア回路で実現することもできる。   The auxiliary storage unit 28 stores the computer program PG recorded on the CD-ROM 29 in the RAM 24 by inserting the CD-ROM 29 on which the computer program PG of the present invention is recorded. The medium for recording the computer program PG is not limited to the CD-ROM 29, but may be another recording medium, or can be downloaded from the Internet. The CPU 25 executes the computer program PG stored in the RAM 24. The moving body determination device 2 reads the computer program PG recorded in the CD-ROM 29 into the RAM 24 and executes the read computer program PG by the CPU 25 to perform the moving body type determination processing. Note that the mobile type determination process can be realized by a dedicated hardware circuit instead of the computer program.

画像メモリ23は、画像入力部21を介して取得された撮像画像を画像データとして、フレーム毎に記憶する。   The image memory 23 stores the captured image acquired via the image input unit 21 as image data for each frame.

記憶部27は、コンピュータプログラムPGをCPU25で実行することにより、得られた特徴量ベクトルの抽出結果、移動体の種別の判定処理結果を各フレームの画素毎に対応させて記憶している。また、記憶部27は、学習用データを用いて算出された変換係数を記憶している。また、記憶部27は、特徴量ベクトルの各要素のうち、相関特徴量を抽出する必要のない要素に関する情報を記憶している。   The storage unit 27 stores the obtained feature vector extraction result and the moving body type determination processing result corresponding to each pixel of each frame by executing the computer program PG by the CPU 25. Further, the storage unit 27 stores a conversion coefficient calculated using the learning data. In addition, the storage unit 27 stores information related to elements that do not require extraction of the correlation feature quantity among the elements of the feature quantity vector.

通信部26は、移動体判定装置2で判定した移動体の位置及び種別に関する情報を、センタ装置3へ出力する。   The communication unit 26 outputs information related to the position and type of the moving object determined by the moving object determination device 2 to the center device 3.

CPU25は、撮像画像上で所要の大きさの画素ブロックを複数設定する。撮像画像上の画素ブロックの位置は、画素ブロックの一部が相互に重なり合うように配置することもでき、離隔して配置することもでき、あるいは、重なり合う画素ブロックと離隔する画素ブロックが混在することもできる。なお、画素ブロックの設定は、CPU25が行う代わりに、予め定めておくこともできる。CPU25は、撮像時点が異なる複数の撮像画像それぞれの画素ブロックを時系列に複数並べて構成された画素領域を設定し、設定した画素領域内で注目画素の位置を設定する。設定した画素領域は、撮像画像上の2方向及び時間方向の3次元の領域となる。   The CPU 25 sets a plurality of pixel blocks having a required size on the captured image. The positions of the pixel blocks on the captured image can be arranged so that part of the pixel blocks overlap each other, can be arranged apart from each other, or there are mixed pixel blocks separated from the overlapping pixel blocks. You can also. The pixel block setting can be determined in advance instead of the CPU 25. The CPU 25 sets a pixel area configured by arranging a plurality of pixel blocks of a plurality of captured images at different imaging time points in time series, and sets the position of the target pixel in the set pixel area. The set pixel region is a three-dimensional region in the two directions and the time direction on the captured image.

CPU25は、設定した画素領域内の注目画素とその注目画素からの変位情報により特定される画素(特定画素)との相関に基づいて特徴量ベクトルを抽出する。画素領域内で注目画素を移動させ、位置が異なる注目画素毎に抽出した特徴量ベクトルを加算する。すなわち、注目画素毎に抽出した個々の特徴ベクトルを画素領域内のすべての画素及び撮像時点について加算する。変位情報は、注目画素から見た画素領域内の特定画素の変位方向であり、例えば、変位方向は注目画素を中心とする3×3×3画素の領域の26方向(26通り)とすることができる。画素領域で特徴量ベクトルを抽出する場合、変位方向の組み合わせ数だけ特徴量が生成される。例えば、組み合わせ数が251である場合、特徴量ベクトルは251次元ベクトルとなる。   The CPU 25 extracts a feature vector based on the correlation between the target pixel in the set pixel region and the pixel (specific pixel) specified by the displacement information from the target pixel. The pixel of interest is moved within the pixel area, and the feature vector extracted for each pixel of interest at a different position is added. That is, the individual feature vectors extracted for each pixel of interest are added for all the pixels in the pixel region and the imaging time point. The displacement information is the displacement direction of a specific pixel in the pixel region viewed from the pixel of interest. For example, the displacement direction is 26 directions (26 ways) of a 3 × 3 × 3 pixel region centered on the pixel of interest. Can do. When extracting feature quantity vectors in the pixel area, feature quantities are generated as many as the number of combinations in the displacement direction. For example, when the number of combinations is 251, the feature vector is a 251 dimensional vector.

CPU25は、加算した特徴量ベクトルを所定の変換係数で種別判定値に変換する。CPU25は、変換した種別判定値に基づいて移動体の種別を判定する。なお、変換係数は予め決定しておくことができる。例えば、変換係数は、移動体の種別(車両あり、人あり、車両・人なしなど)が判明している学習用データ(例えば、数百から数千フレーム、1秒間で30フレーム)を用いて特徴量ベクトルを抽出し、回帰分析、主成分分析、判別分析などの多変量解析手法により求めることができる。これにより、画素領域の基準となる撮像時点の撮像画像における画素ブロックにおいて、車両あり、人あり、車両・人なしなどの移動体の種別を判定することができる。画素領域の画素ブロックの重なりを許して撮像画像全体に走査して同様の処理を繰り返すことにより、撮像画像上の移動体の位置及び種別を精度良く判定することができる。   The CPU 25 converts the added feature vector into a type determination value using a predetermined conversion coefficient. The CPU 25 determines the type of the moving body based on the converted type determination value. The conversion coefficient can be determined in advance. For example, the conversion coefficient is obtained by using learning data (for example, several hundred to several thousand frames, 30 frames per second) in which the type of moving body (with vehicles, with people, without vehicles / people, etc.) is known. Feature quantity vectors can be extracted and obtained by multivariate analysis techniques such as regression analysis, principal component analysis, and discriminant analysis. Thereby, in the pixel block in the picked-up image at the time of image pick-up used as a reference of the pixel region, it is possible to determine the type of moving body such as the presence of a vehicle, the presence of a person, and the absence of a vehicle / person. By repeating the same processing by allowing the pixel blocks in the pixel area to overlap and scanning the entire captured image, the position and type of the moving object on the captured image can be accurately determined.

図3は撮像画像の一例を示す説明図である。図3に示すように、撮像画像上の近距離に対応する領域をブロックAとし、遠距離に対応する領域をブロックCとし、その中間である中距離に対応する領域をブロックBとして3分割する。図3に示すように、ブロックAはブロックBよりも大きく、ブロックBはブロックCよりも大きくなるように設定してある。なお、後述するように分割したブロック毎に画素領域の大きさを変化させる。また、画素ブロックA、B、Cには、それぞれ複数の画素ブロックを設定してある。撮像画像上の画素ブロックの位置は、画素ブロックの一部が相互に重なり合うように配置することもでき、離隔して配置することもでき、あるいは、重なり合う画素ブロックと離隔する画素ブロックが混在することもできる。   FIG. 3 is an explanatory diagram illustrating an example of a captured image. As shown in FIG. 3, the area corresponding to the short distance on the captured image is set as block A, the area corresponding to the long distance is set as block C, and the area corresponding to the middle distance in the middle is divided into three as block B. . As shown in FIG. 3, the block A is set to be larger than the block B, and the block B is set to be larger than the block C. As will be described later, the size of the pixel region is changed for each divided block. A plurality of pixel blocks are set for each of the pixel blocks A, B, and C. The positions of the pixel blocks on the captured image can be arranged so that part of the pixel blocks overlap each other, can be arranged apart from each other, or there are mixed pixel blocks separated from the overlapping pixel blocks. You can also.

撮像画像の距離に対応する領域の分割数は3に限定されるものではなく、4以上に分割することもできる。また、撮像画像を分割する分割線は、横方向(水平走査線方向)に限定されるものではなく、撮像する道路の向き、道路状況に応じて縦方向、斜め方向など適宜設定することができる。   The number of divisions of the area corresponding to the distance of the captured image is not limited to 3, and can be divided into 4 or more. Further, the dividing line for dividing the captured image is not limited to the horizontal direction (horizontal scanning line direction), and can be appropriately set such as a vertical direction and an oblique direction according to the direction of the road to be captured and the road condition. .

図4は各ブロックにおける画素領域の一例を示す説明図である。画素領域は、撮像時点が異なる複数の撮像画像それぞれの画素ブロックを時系列に複数並べて構成したものであり、撮像画像上の2方向及び時間方向の3次元の領域である。画素領域の大きさは、縦画素数×横画素数(画素ブロック)×フレーム数で設定される。また、画素間隔は、例えば、画素領域内の注目画素とその注目画素からの変位情報(変位方向)により特定される特定画素との画素の間隔であり、撮像画像上での変位の長さを示す。また、フレーム間隔は、例えば、画素領域内の注目画素が存在するフレームとその注目画素からの変位情報(変位方向)により特定される特定画素が存在するフレームとのフレームの間隔であり、時間方向での変位の長さを示す。   FIG. 4 is an explanatory diagram showing an example of a pixel region in each block. The pixel region is configured by arranging a plurality of pixel blocks of a plurality of captured images at different imaging time points in time series, and is a three-dimensional region in two directions and a time direction on the captured image. The size of the pixel region is set by the number of vertical pixels × the number of horizontal pixels (pixel block) × the number of frames. In addition, the pixel interval is, for example, a pixel interval between a target pixel in the pixel region and a specific pixel specified by displacement information (displacement direction) from the target pixel, and represents the length of the displacement on the captured image. Show. The frame interval is, for example, a frame interval between a frame in which a pixel of interest in the pixel area exists and a frame in which a specific pixel specified by displacement information (displacement direction) from the pixel of interest exists, and in the time direction The length of displacement at.

図4に示すように、ブロックA(撮像画像の近距離に対応する領域)では、画素領域の大きさは、9画素×9画素(9×9画素ブロック)×5フレームであり、画素領域内の注目画素と特定画素との画素間隔は3画素、フレーム間隔は1フレームである。   As shown in FIG. 4, in block A (area corresponding to the short distance of the captured image), the size of the pixel area is 9 pixels × 9 pixels (9 × 9 pixel block) × 5 frames, The pixel interval between the target pixel and the specific pixel is 3 pixels, and the frame interval is 1 frame.

図5はブロックAにおける画素領域の構成例を示す説明図である。図5に示すように、画素領域は、時刻t、…、t−4における5つの撮像画像(5フレーム)内の9画素×9画素の画素ブロックを時系列に5フレーム分並べて構成される。なお、各フレームの時間間隔は、フレームレートが30フレーム/秒であれば、1/30秒である。   FIG. 5 is an explanatory diagram showing a configuration example of the pixel area in the block A. As shown in FIG. 5, the pixel region is configured by arranging 9 pixel × 9 pixel pixel blocks in five captured images (5 frames) at time t,. Note that the time interval of each frame is 1/30 seconds if the frame rate is 30 frames / second.

また、図4に示すように、ブロックB(撮像画像の中距離に対応する領域)では、画素領域の大きさは、7画素×7画素(7×7画素ブロック)×7フレームであり、画素領域内の注目画素と特定画素との画素間隔は2画素、フレーム間隔は2フレームである。   Further, as shown in FIG. 4, in the block B (area corresponding to the middle distance of the captured image), the size of the pixel area is 7 pixels × 7 pixels (7 × 7 pixel block) × 7 frames, The pixel interval between the target pixel and the specific pixel in the region is two pixels, and the frame interval is two frames.

図6はブロックBにおける画素領域の構成例を示す説明図である。図6に示すように、画素領域は、時刻t、…、t−6における7つの撮像画像(7フレーム)内の7画素×7画素の画素ブロックを時系列に7フレーム分並べて構成される。   FIG. 6 is an explanatory diagram illustrating a configuration example of the pixel region in the block B. As shown in FIG. 6, the pixel area is configured by arranging 7 pixel × 7 pixel pixel blocks in 7 captured images (7 frames) at time t,..., T-6 for 7 frames in time series.

また、図4に示すように、ブロックC(撮像画像の遠距離に対応する領域)では、画素領域の大きさは、3画素×3画素(3×3画素ブロック)×9フレームであり、画素領域内の注目画素と特定画素との画素間隔は1画素、フレーム間隔は3フレームである。   As shown in FIG. 4, in block C (area corresponding to the long distance of the captured image), the size of the pixel area is 3 pixels × 3 pixels (3 × 3 pixel block) × 9 frames, The pixel interval between the target pixel and the specific pixel in the region is 1 pixel, and the frame interval is 3 frames.

図7はブロックCにおける画素領域の構成例を示す説明図である。図7に示すように、画素領域は、時刻t、…、t−8における9つの撮像画像(9フレーム)内の3画素×3画素の画素ブロックを時系列に9フレーム分並べて構成される。   FIG. 7 is an explanatory diagram illustrating a configuration example of a pixel region in the block C. As shown in FIG. 7, the pixel area is configured by arranging 9 pixel blocks of 3 pixels × 3 pixels in nine captured images (9 frames) at time t,.

次に特徴量ベクトルの抽出法について説明する。以下の説明ではブロックBにおける画素領域を用いて説明するが、他のブロックA、Cについては画素領域の大きさ、画素間隔及びフレーム間隔が異なるだけで特徴量ベクトルの抽出法は同様である。また、画素領域のうち5画素×5画素の画素ブロックを例示し、画素間隔は2画素、フレーム間隔は2フレームとして説明する。   Next, a feature vector extraction method will be described. In the following description, the pixel area in the block B will be described. However, the other block A and C have the same feature vector extraction method except that the size of the pixel area, the pixel interval, and the frame interval are different. Further, a pixel block of 5 pixels × 5 pixels in the pixel area is illustrated as an example, and the pixel interval is 2 pixels and the frame interval is 2 frames.

図8は特徴量ベクトル抽出例を示す説明図である。図8に示すように、フレーム間隔を2フレームとして(すなわち、1フレームおきに)、5画素×5画素の画素ブロックを3フレーム分(時刻t、t−2、t−4)時系列に並べて構成してある。また、注目画素は時刻t−2のフレームの画素ブロックの中心にある。   FIG. 8 is an explanatory diagram showing an example of feature quantity vector extraction. As shown in FIG. 8, the frame interval is set to 2 frames (that is, every other frame), and 5 × 5 pixel blocks are arranged in time series for 3 frames (time t, t−2, t−4). It is configured. Further, the target pixel is at the center of the pixel block of the frame at time t−2.

CPU25は、撮像画像上の注目画素毎に式(1)に基づいて特徴量ベクトルVijを抽出する。   The CPU 25 extracts a feature vector Vij based on the formula (1) for each target pixel on the captured image.

Figure 2008276613
Figure 2008276613

ここで、i、jは撮像画像上の注目画素の位置を示す。また、rは画素領域内の注目画素の位置を示し、r=(x、y、z)、z=t、t−2、t−4である。また、a1、a2、…、aNは、注目画素から見た変位方向(変位情報)であり、Nは変位方向の数を表す。r+a1、r+a2、…、r+aNは、注目画素と相関特徴量を算出する特定画素の位置を表すことになる。また、f(r)、f(r+a1)、…は、各画素の輝度値を表す。なお、f(r)、f(r+a1)、…は、輝度値に代えて、時間差分又は背景差分結果を二値化した値とすることもできる。   Here, i and j indicate the position of the target pixel on the captured image. R indicates the position of the target pixel in the pixel area, and r = (x, y, z), z = t, t−2, and t−4. Further, a1, a2,..., AN are displacement directions (displacement information) viewed from the target pixel, and N represents the number of displacement directions. r + a1, r + a2,..., r + aN represent the positions of the target pixel and the specific pixel for which the correlation feature amount is calculated. Further, f (r), f (r + a1),... Represent the luminance value of each pixel. Note that f (r), f (r + a1),... Can be values obtained by binarizing the time difference or the background difference result instead of the luminance value.

変位方向の数Nは、例えば、注目画素を中心とする3×3×3画素の領域の26方向(26通り)とすることができる。画素領域で特徴量ベクトルを抽出する場合、相関特徴量を求めるために選択する選択画素の数に応じた変位方向の組み合わせ数だけ特徴量が生成される。例えば、f(r)、f(r+a1)、…として二値化した値を用いる場合、相関特徴量を求める選択画素の数を1〜3とすると、選択画素の数が1である場合は、注目画素が1つ選択されるため、組み合わせ数は1個である。また、選択画素の数が2である場合は、注目画素と他の1つの特定画素の組み合わせ数は13個である。また、選択画素の数が3である場合は、注目画素と他の2つの特定画素の組み合わせ数は237個である。なお、画素領域内で注目画素を移動させることにより重複する組み合わせは除外してある。これにより、組み合わせ数が251となり、特徴量ベクトルは251次元ベクトルとなる。   The number N of the displacement directions can be, for example, 26 directions (26 ways) of a 3 × 3 × 3 pixel region centered on the target pixel. When extracting feature quantity vectors in the pixel area, feature quantities are generated for the number of combinations in the displacement direction corresponding to the number of selected pixels to be selected for obtaining the correlation feature quantity. For example, when binarized values are used as f (r), f (r + a1),..., When the number of selected pixels for obtaining the correlation feature amount is 1 to 3, when the number of selected pixels is 1, Since one target pixel is selected, the number of combinations is one. When the number of selected pixels is 2, the number of combinations of the target pixel and another specific pixel is 13. Further, when the number of selected pixels is 3, the number of combinations of the target pixel and the other two specific pixels is 237. Note that overlapping combinations are excluded by moving the pixel of interest within the pixel region. Thereby, the number of combinations becomes 251 and the feature vector becomes a 251 dimensional vector.

すなわち、f(r)、f(r+a1)、…として二値化した値を用いる場合、式(1)において、f(r)、f(r+a1)、…それぞれを掛け合わす組み合わせが251通りあることになる。なお、撮像画像を予め二値化しておくことにより、f(r)、f(r+a1)、…を掛け合わせた値は1又は0のいずれかの値をとることになる。また、式(1)においてdrで積分する処理は、画素領域内で注目画素を移動させ、移動させる都度特徴量ベクトルを求めることに相当する。したがって、特徴量ベクトルの各要素(251次元ベクトルの場合251要素)は、注目画素の移動の都度加算されることになり、加算処理後の特徴量ベクトルを抽出することができる。   That is, when binarized values are used as f (r), f (r + a1),..., There are 251 combinations that multiply f (r), f (r + a1),. become. Note that by binarizing the captured image in advance, the value obtained by multiplying f (r), f (r + a1),... Takes either 1 or 0. Further, the process of integrating with dr in equation (1) corresponds to moving the pixel of interest within the pixel area and obtaining a feature vector each time it is moved. Therefore, each element of the feature vector (251 element in the case of a 251 dimensional vector) is added every time the pixel of interest moves, and the feature vector after the addition process can be extracted.

加算処理後の特徴量ベクトルは、画素領域内の注目画素数(例えば、注目画素の総数)で除算することにより、正規化することができる。これにより、抽出した特徴量ベクトルは、画素領域の撮像画像上の2方向又は時間方向の大きさに依存しない値として求めることができる。   The feature amount vector after the addition process can be normalized by dividing by the number of target pixels (for example, the total number of target pixels) in the pixel region. Thereby, the extracted feature vector can be obtained as a value that does not depend on the magnitude of the two directions or the time direction on the captured image of the pixel region.

次に特徴量ベクトルの各要素の算出例について説明する。図9は選択画素の数が2である場合の特徴量ベクトルの算出例を示す説明図である。図9に示すように、注目画素rは時刻t−2のフレームの画素ブロックの中心に存在し、その座標をr(x、y、t−2)とする。また、変位方向a1をa1(−2、0、0)とする。なお、この場合、変位方向の長さ、すなわち、相関特徴量を算出する際の画素間隔は2画素である。特定画素の座標r+a1は、r+a1(x−2、y、t−2)となり、特徴量ベクトルの要素v1は、v1=f(r)・f(r+a1)となる。   Next, an example of calculating each element of the feature vector will be described. FIG. 9 is an explanatory diagram illustrating an example of calculating a feature vector when the number of selected pixels is two. As shown in FIG. 9, the target pixel r exists at the center of the pixel block of the frame at time t-2, and its coordinates are r (x, y, t-2). Further, the displacement direction a1 is set to a1 (−2, 0, 0). In this case, the length in the displacement direction, that is, the pixel interval when calculating the correlation feature amount is two pixels. The coordinate r + a1 of the specific pixel is r + a1 (x−2, y, t−2), and the element v1 of the feature vector is v1 = f (r) · f (r + a1).

図10は選択画素の数が3である場合の特徴量ベクトルの算出例を示す説明図である。図10に示すように、注目画素rは時刻t−2のフレームの画素ブロックの中心に存在し、その座標をr(x、y、t−2)とする。また、変位方向a1をa1(−2、0、0)、変位方向a2をa2(0、2、0)とする。なお、この場合も変位方向の長さ、すなわち、相関特徴量を算出する際の画素間隔は2画素である。特定画素の座標r+a1は、r+a1(x−2、y、t−2)となり、特定画素の座標r+a2は、r+a2(x、y+2、t−2)となる。特徴量ベクトルの要素v2は、v2=f(r)・f(r+a1)・f(r+a2)となる。   FIG. 10 is an explanatory diagram illustrating an example of calculating a feature vector when the number of selected pixels is three. As shown in FIG. 10, the target pixel r exists at the center of the pixel block of the frame at time t-2, and its coordinates are r (x, y, t-2). The displacement direction a1 is a1 (−2, 0, 0), and the displacement direction a2 is a2 (0, 2, 0). In this case as well, the length in the displacement direction, that is, the pixel interval when calculating the correlation feature amount is two pixels. The coordinate r + a1 of the specific pixel is r + a1 (x-2, y, t-2), and the coordinate r + a2 of the specific pixel is r + a2 (x, y + 2, t-2). The element v2 of the feature vector is v2 = f (r) · f (r + a1) · f (r + a2).

図11は時間方向に変位した場合の特徴量ベクトルの算出例を示す説明図である。図11に示すように、注目画素rは時刻t−2のフレームの画素ブロックの中心に存在する。また、変位方向amは、注目画素から見て時刻tのフレームの特定画素の方向であり、その特定画素の座標はr+amとなる。また、変位方向anは、注目画素から見て時刻t−4のフレームの特定画素の方向であり、その特定画素の座標はr+anとなる。この場合、変位方向の長さ、すなわち、相関特徴量を算出する際のフレーム間隔は2フレームである。特徴量ベクトルの要素vkは、vk=f(r)・f(r+am)・f(r+an)となる。   FIG. 11 is an explanatory diagram illustrating a calculation example of the feature amount vector when displaced in the time direction. As shown in FIG. 11, the target pixel r exists at the center of the pixel block of the frame at time t-2. The displacement direction am is the direction of the specific pixel of the frame at time t as viewed from the target pixel, and the coordinate of the specific pixel is r + am. The displacement direction an is the direction of the specific pixel of the frame at time t-4 when viewed from the target pixel, and the coordinate of the specific pixel is r + an. In this case, the length in the displacement direction, that is, the frame interval for calculating the correlation feature amount is two frames. The element vk of the feature vector is vk = f (r) · f (r + am) · f (r + an).

図12は注目画素の特徴量ベクトルの例を示す説明図である。図12に示すように、撮像画像上の注目画素rijの特徴量ベクトルVijは、上述の処理を行うことにより、Vij(v1、v2、…、v251)のように抽出することができる。画素領域全体に走査して同様の処理を繰り返すことにより、画素領域の各画素の特徴量ベクトルを抽出することができる。   FIG. 12 is an explanatory diagram illustrating an example of a feature vector of a target pixel. As shown in FIG. 12, the feature vector Vij of the pixel of interest rij on the captured image can be extracted as Vij (v1, v2,..., V251) by performing the above-described processing. By scanning the entire pixel area and repeating the same processing, it is possible to extract a feature vector of each pixel in the pixel area.

画素領域の画素毎に抽出した特徴量ベクトルVijに変換係数を乗算して移動体判定値に変換することができる。式(2)、式(3)は変換式の一例である。   The feature amount vector Vij extracted for each pixel in the pixel region can be multiplied by a conversion coefficient to be converted into a moving object determination value. Expressions (2) and (3) are examples of conversion expressions.

Figure 2008276613
Figure 2008276613

式(2)において、Aは変換係数であり、特徴量ベクトルが251次元のベクトルである場合、変換係数Aも、251次元のベクトルとすることができ、変換結果である移動体判定値(種別判定値)Rは、例えば、0〜1の間の実数とすることができる。   In Expression (2), A is a conversion coefficient, and when the feature quantity vector is a 251-dimensional vector, the conversion coefficient A can also be a 251-dimensional vector, and the mobile object determination value (type) as the conversion result The judgment value R can be a real number between 0 and 1, for example.

変換係数Aは、例えば、移動体の種別(例えば、車両あり、移動体なし)が判明している学習用データ(例えば、数百から数千フレーム)を用いて特徴量ベクトルを抽出し、回帰分析、主成分分析、判別分析などの多変量解析手法により求めることができる。   For example, the conversion coefficient A is obtained by extracting a feature vector using learning data (for example, several hundred to several thousand frames) in which the type of the moving object (for example, there is a vehicle and no moving object) is known. It can be obtained by multivariate analysis techniques such as analysis, principal component analysis, and discriminant analysis.

また、式(3)において、Bは変換係数であり、特徴量ベクトルが251次元のベクトルである場合、変換係数Bも、251次元のベクトルとすることができ、変換結果である移動体判定値(種別判定値)Sは、例えば、0〜1の間の実数とすることができる。   Also, in equation (3), B is a transform coefficient, and when the feature quantity vector is a 251 dimensional vector, the transform coefficient B can also be a 251 dimensional vector, and the mobile object determination value that is the transform result (Type determination value) S can be a real number between 0 and 1, for example.

変換係数Bは、例えば、移動体の種別(例えば、人あり、移動体なし)が判明している学習用データ(例えば、数百から数千フレーム)を用いて特徴量ベクトルを抽出し、回帰分析、主成分分析、判別分析などの多変量解析手法により求めることができる。   For example, the transformation coefficient B is obtained by extracting a feature vector using learning data (for example, several hundred to several thousand frames) in which the type of the moving object (for example, there is a person and no moving object) is known. It can be obtained by multivariate analysis techniques such as analysis, principal component analysis, and discriminant analysis.

図13は移動体の種別判定の例を示す説明図である。式(2)により求めた移動体判定値Rが「1」に近い場合、車両ありと判定することができ、また、移動体判定値Rが「0」に近い場合、移動体なしと判定することができる。   FIG. 13 is an explanatory diagram showing an example of determining the type of moving object. When the moving object determination value R obtained by the equation (2) is close to “1”, it can be determined that there is a vehicle. When the moving object determination value R is close to “0”, it is determined that there is no moving object. be able to.

また、同様に、式(3)により求めた移動体判定値Sが「1」に近い場合、人ありと判定することができ、また、移動体判定値Sが「0」に近い場合、移動体なしと判定することができる。   Similarly, when the moving object determination value S obtained by the equation (3) is close to “1”, it can be determined that there is a person. When the moving object determination value S is close to “0”, the moving object determination value S It can be determined that there is no body.

これにより、画素領域の基準となる撮像時点の撮像画像(上記の場合は時刻t)における画素ブロックにおいて、車両あり、人あり、車両・人(移動体)なしなどの移動体の種別を判定することができる。画素領域の画素ブロックの重なりを許して撮像画像全体に走査して同様の処理を繰り返すことにより、撮像画像上の移動体の位置及び種別を精度良く判定することができる。   As a result, in the pixel block in the captured image (time t in the above case) at the time of imaging serving as a reference for the pixel area, the type of the moving body such as the presence of a vehicle, the presence of a person, and the absence of a vehicle / person (moving body) be able to. By repeating the same processing by allowing the pixel blocks in the pixel area to overlap and scanning the entire captured image, the position and type of the moving object on the captured image can be accurately determined.

移動体判定値の算出例は、一例であって上述の例に限定されるものではない。例えば、変換係数A、Bを251次元のベクトルではなく、2×251の行列(例えば、変換行列C)にすることにより、移動体判定値を2次元の値として求め、二次元座標上の位置に応じて、車両あり、人あり、移動体なしと判定するようにしてもよい。なお、この場合でも、変換行列Cは、移動体の種別(例えば、車両あり、人あり、移動体なし)が判明している学習用データ(例えば、数百から数千フレーム)を用いて特徴量ベクトルを抽出し、回帰分析、主成分分析、判別分析などの多変量解析手法により求めることができる。   The calculation example of the moving object determination value is an example, and is not limited to the above example. For example, the moving body determination value is obtained as a two-dimensional value by making the conversion coefficients A and B not a 251-dimensional vector but a 2 × 251 matrix (for example, the conversion matrix C), and the position on the two-dimensional coordinates. Depending on the situation, it may be determined that there is a vehicle, there is a person, and there is no moving body. Even in this case, the transformation matrix C is characterized by using learning data (for example, several hundred to several thousand frames) in which the type of the moving object (for example, with a vehicle, with a person, without a moving object) is known. A quantity vector can be extracted and obtained by a multivariate analysis technique such as regression analysis, principal component analysis, and discriminant analysis.

図14は各フレームでの特徴量ベクトルの抽出例を示す説明図である。なお、画素領域は、ブロックBにおける画素領域を用いて説明する。また、画素領域のうち5画素×5画素の画素ブロックを例示し、画素間隔は2画素、フレーム間隔は2フレームとして説明する。図14(a)に示すように、時刻tのフレームが入力された場合、特徴量ベクトルを抽出する領域は、時刻t、t−2、t−4の3つのフレームの各画素ブロック(5画素×5画素)で構成される。画素領域内の注目画素に対して特徴量ベクトルを抽出し、画素領域内で注目画素を移動させ、移動させる都度特徴量ベクトルの各要素を加算して得られた特徴量ベクトルを、変換係数により移動体判定値に変換して移動体の種別判定を行う。撮像画像上の全画素について同様の処理を行った後、図14(b)に示すように、時刻t+1のフレームが入力される。   FIG. 14 is an explanatory diagram illustrating an example of extracting feature quantity vectors in each frame. The pixel area will be described using the pixel area in the block B. Further, a pixel block of 5 pixels × 5 pixels in the pixel area is illustrated as an example, and the pixel interval is 2 pixels and the frame interval is 2 frames. As shown in FIG. 14A, when a frame at time t is input, a region for extracting a feature vector is a pixel block (5 pixels) of three frames at times t, t-2, and t-4. × 5 pixels). Extract a feature vector for the target pixel in the pixel area, move the target pixel in the pixel area, and add each element of the feature vector each time it is moved. Conversion to a moving body determination value is performed to determine the type of the moving body. After performing the same processing for all pixels on the captured image, a frame at time t + 1 is input as shown in FIG.

時刻t+1では、特徴量ベクトルを抽出する領域は、時刻t+1、t−1、t−3の3つのフレームの各画素ブロック(5画素×5画素)で構成される。画素領域内の注目画素に対して特徴量ベクトルを抽出し、画素領域内で注目画素を移動させ、移動させる都度特徴量ベクトルの各要素を加算して得られた特徴量ベクトルを、変換係数により移動体判定値に変換して移動体の種別判定を行う。撮像画像上の全画素について同様の処理を行い、以下同様に次のフレームが入力され、同様の処理を繰り返す。   At time t + 1, the region from which the feature vector is extracted is composed of pixel blocks (5 pixels × 5 pixels) of three frames at times t + 1, t−1, and t−3. Extract a feature vector for the target pixel in the pixel area, move the target pixel in the pixel area, and add each element of the feature vector each time it is moved. Conversion to a moving body determination value is performed to determine the type of the moving body. The same processing is performed for all the pixels on the captured image, and the next frame is input in the same manner, and the same processing is repeated.

図15は変換係数を算出する処理手順を示すフローチャートである。CPU25は、学習用撮像画像を取得し(S11)、画素領域を設定する(S12)。この場合、撮像画像上の画素ブロックの位置がブロックA、B、Cのいずれに存在するかに応じて、図4で示したように画素領域を設定する。CPU25は、画素領域内で注目画素の位置を設定する(S13)。なお、注目画素の走査順序は適宜設定することができるが、一例としては、画素ブロックの左上の位置から開始し、右下の位置まで走査することができる。また、注目画素の時間方向の走査順序についても適宜設定することができ、例えば、時刻の古いフレームから時刻の新しいフレームに向かって走査することができる。   FIG. 15 is a flowchart showing a processing procedure for calculating a conversion coefficient. The CPU 25 acquires a captured image for learning (S11) and sets a pixel area (S12). In this case, the pixel area is set as shown in FIG. 4 according to which of the blocks A, B, and C the position of the pixel block on the captured image is. The CPU 25 sets the position of the pixel of interest within the pixel area (S13). Note that the scanning order of the target pixel can be set as appropriate, but as an example, scanning can be started from the upper left position of the pixel block to the lower right position. Further, the scanning order of the pixel of interest in the time direction can be set as appropriate. For example, scanning can be performed from a frame with an old time to a frame with a new time.

CPU25は、画素領域内の注目画素に対して抽出した特徴量ベクトルを画素領域内の全注目画素について加算することにより(加算後の)特徴量ベクトルを抽出し(S14)、抽出した特徴量ベクトルの各要素を画素領域内の注目画素総数で除算して正規化する(S15)。   The CPU 25 extracts the feature amount vector (after addition) by adding the feature amount vector extracted for the target pixel in the pixel region to all the target pixels in the pixel region (S14), and extracts the extracted feature amount vector. Each element is divided by the total number of pixels of interest in the pixel area and normalized (S15).

CPU25は、撮像画像の全画素の処理を終了したか否かを判定し(S16)、全画素の処理が終了していない場合(S16でNO)、ステップS12以降の処理を繰り返す。全画素の処理が終了した場合(S16でYES)、CPU25は、全フレームの処理を終了したか否かを判定し(S17)、全フレームの処理が終了していない場合(S17でNO)、ステップS11以降の処理を繰り返す。   The CPU 25 determines whether or not the processing for all the pixels of the captured image has been completed (S16). If the processing for all the pixels has not been completed (NO in S16), the processing from step S12 is repeated. When the processing for all the pixels has been completed (YES in S16), the CPU 25 determines whether the processing for all the frames has been completed (S17). If the processing for all the frames has not been completed (NO in S17), The processes after step S11 are repeated.

全フレームの処理が終了した場合(S17でYES)、CPU25は、抽出した特徴量ベクトルの各要素の変動量を算出する(S18)。なお、変動量は、特徴量ベクトルの要素毎に、その最大値と最小値との差分として求めることができるが、これに限定されるものではない。   When the processing for all the frames has been completed (YES in S17), the CPU 25 calculates the variation amount of each element of the extracted feature vector (S18). Note that the variation amount can be obtained as a difference between the maximum value and the minimum value for each element of the feature amount vector, but is not limited thereto.

CPU25は、変動量が所定の閾値以下であるか否かを判定し(S19)、変動量が所定の閾値以下である場合(S19でYES)、その変動量に対応する特徴量ベクトルの要素を除去要素とする(S20)。すなわち、移動体の種別に関わらず特徴量がほとんど変化しない要素を除去する。CPU25は、抽出した特徴量ベクトルに基づいて多変量解析により変換係数を算出し(S21)、処理を終了する。また、変動量が所定の閾値以下でない場合(S19でNO)、CPU25は、ステップS21の処理を行う。なお、変動量の大小判定は、すべての要素について行う。   The CPU 25 determines whether or not the variation amount is equal to or less than a predetermined threshold (S19). If the variation amount is equal to or less than the predetermined threshold (YES in S19), the element of the feature amount vector corresponding to the variation amount is determined. It is set as a removal element (S20). That is, an element whose feature amount hardly changes regardless of the type of the moving body is removed. The CPU 25 calculates a conversion coefficient by multivariate analysis based on the extracted feature vector (S21), and ends the process. On the other hand, when the fluctuation amount is not equal to or smaller than the predetermined threshold (NO in S19), the CPU 25 performs the process of step S21. Note that the magnitude of the variation is determined for all elements.

学習用のデータを用いて、移動体の種別に関わらず特徴量がほとんど変化しない要素を予め除去要素として特定しておくことができる。これにより、移動体の種別を判定する場合、移動体の種別判定に不要な特徴量を求める必要がなくなり、移動体の種別判定の精度を維持しつつ処理量を削減することができ、移動体の種別の判定をより安価な装置で実現することが可能となる。   Using learning data, an element whose feature amount hardly changes regardless of the type of moving object can be specified in advance as a removal element. Thereby, when determining the type of the moving object, it is not necessary to obtain a feature amount unnecessary for determining the type of the moving object, and the processing amount can be reduced while maintaining the accuracy of the type determination of the moving object. It is possible to realize the type determination with a cheaper device.

図16は移動体の種別を判定する処理手順を示すフローチャートである。CPU25は、撮像画像を取得し(S31)、画素領域を設定する(S32)。この場合、撮像画像上の画素ブロックの位置がブロックA、B、Cのいずれに存在するかに応じて、図4で示したように画素領域を設定する。CPU25は、撮像画像上で注目画素の位置を設定する(S33)。なお、注目画素の走査順序は適宜設定することができるが、一例としては、画素ブロックの左上の位置から開始し、右下の位置まで走査することができる。また、注目画素の時間方向の走査順序についても適宜設定することができ、例えば、時刻の古いフレームから時刻の新しいフレームに向かって走査することができる。   FIG. 16 is a flowchart showing a processing procedure for determining the type of the moving object. The CPU 25 acquires a captured image (S31) and sets a pixel area (S32). In this case, the pixel area is set as shown in FIG. 4 according to which of the blocks A, B, and C the position of the pixel block on the captured image is. The CPU 25 sets the position of the target pixel on the captured image (S33). Note that the scanning order of the target pixel can be set as appropriate, but as an example, scanning can be started from the upper left position of the pixel block to the lower right position. Further, the scanning order of the pixel of interest in the time direction can be set as appropriate. For example, scanning can be performed from a frame with an old time to a frame with a new time.

CPU25は、除去要素の有無を判定し(S34)、除去要素がある場合(S34でYES)、除去要素を除外して画素領域内の注目画素に対して抽出した特徴量ベクトル画素領域内の全注目画素について加算することにより(加算後の)部分特徴量ベクトルを抽出する(S35)。なお、除外できる要素の数に応じて、部分特徴量ベクトルの次元は251より少なくなる。   The CPU 25 determines the presence / absence of a removal element (S34). If there is a removal element (YES in S34), the CPU 25 excludes the removal element and extracts all of the feature amount vector pixel areas extracted for the target pixel in the pixel area. A partial feature vector (after addition) is extracted by adding the pixel of interest (S35). Note that the dimension of the partial feature vector becomes less than 251 depending on the number of elements that can be excluded.

除去要素がない場合(S34でNO)、CPU25は、画素領域内の注目画素に対して抽出した特徴量ベクトル画素領域内の全注目画素について加算することにより(加算後の)特徴量ベクトルを抽出する(S36)。CPU25は、抽出した特徴量ベクトル(又は部分特徴量ベクトル)の各要素を画素領域内の注目画素総数で除算して正規化する(S37)。   When there is no removal element (NO in S34), the CPU 25 extracts the feature amount vector (after addition) by adding all the attention pixels in the feature amount vector pixel region extracted with respect to the attention pixel in the pixel region. (S36). The CPU 25 normalizes by dividing each element of the extracted feature vector (or partial feature vector) by the total number of pixels of interest in the pixel area (S37).

CPU25は、特徴量ベクトルを変換係数で移動体判定値に変換し(S38)、移動体判定値に応じて移動体の種別を判定する(S39)。CPU25は、撮像画像の全画素の処理を終了したか否かを判定し(S40)、全画素の処理が終了していない場合(S40でNO)、ステップS32以降の処理を繰り返す。   The CPU 25 converts the feature vector into a moving object determination value using a conversion coefficient (S38), and determines the type of the moving object according to the moving object determination value (S39). The CPU 25 determines whether or not the processing of all the pixels of the captured image has been completed (S40). If the processing of all the pixels has not been completed (NO in S40), the processing from step S32 is repeated.

全画素の処理が終了した場合(S40でYES)、CPU25は、全フレームの処理を終了したか否かを判定し(S41)、全フレームの処理が終了していない場合(S41でNO)、ステップS31以降の処理を繰り返す。全フレームの処理が終了した場合(S41でYES)、CPU25は、処理を終了する。   When processing for all pixels is completed (YES in S40), the CPU 25 determines whether or not processing for all frames is completed (S41). When processing for all frames is not completed (NO in S41), The processes after step S31 are repeated. When the processing for all the frames is completed (YES in S41), the CPU 25 ends the processing.

図17は本発明に係る移動体判定装置を用いた移動体判定の他の例を示す模式図である。図17に示すように、交差点角の路上10m程度の位置にビデオカメラ1を設置する。ビデオカメラ1は、交差点内を移動体の種別(例えば、車両あり、人あり、車両・人なし)を判定する判定領域として撮像する。   FIG. 17 is a schematic diagram showing another example of moving object determination using the moving object determination device according to the present invention. As shown in FIG. 17, the video camera 1 is installed at a position about 10 m on the road at the intersection angle. The video camera 1 captures an image in the intersection as a determination area for determining the type of moving object (for example, with a vehicle, with a person, without a vehicle / with a person).

ビデオカメラ1には、所要の映像ケーブルを介して移動体判定装置2を接続してある。移動体判定装置2は、ビデオカメラ1で撮像して得られた時系列の撮像画像(動画像)を処理して移動体の種別を判定する。移動体判定装置2は、交通管制センタに設置されたセンタ装置3との間で有線又は無線通信により通信を行うことができる。移動体判定装置2は、移動体の種別の判定結果をセンタ装置3へ出力する。なお、ビデオカメラ1と移動体判定装置2とは一体型であってもよい。移動体判定装置2の構成、動作は上述の例と同様であるので説明は省略する。   A moving body determination device 2 is connected to the video camera 1 via a required video cable. The moving body determination device 2 processes time-series captured images (moving images) obtained by capturing with the video camera 1 and determines the type of the moving body. The mobile body determination device 2 can communicate with the center device 3 installed in the traffic control center by wired or wireless communication. The mobile body determination device 2 outputs the determination result of the mobile body type to the center device 3. Note that the video camera 1 and the moving body determination device 2 may be integrated. Since the configuration and operation of the mobile body determination device 2 are the same as those in the above example, the description thereof is omitted.

以上説明したように、本発明にあっては、画素領域の基準となる撮像時点の撮像画像における画素ブロックにおいて、車両あり、人あり、車両・人なしなどの移動体の種別を判定することができる。画素領域の画素ブロックの重なりを許して撮像画像全体に走査して同様の処理を繰り返すことにより、撮像画像上の移動体の位置及び種別を精度良く判定することができる。   As described above, in the present invention, it is possible to determine the type of a moving body such as a vehicle, a person, and a vehicle / no person in a pixel block in a captured image at the time of imaging serving as a reference for a pixel region. it can. By repeating the same processing by allowing the pixel blocks in the pixel area to overlap and scanning the entire captured image, the position and type of the moving object on the captured image can be accurately determined.

また、撮像画像の遠距離/近距離に対応する領域で画素領域の画素ブロックの大きさを小さく/大きく設定することにより、移動体の種別を精度良く判定しつつ、不要な処理を削除して処理労力を低減することができる。また、注目画素と変位情報により特定される画素との画素間隔を、撮像画像の遠距離/近距離に対応する領域で小さく/大きくすることにより、広い範囲の特徴量を抽出することができ、かつ、移動体の見かけの大きさに応じて精度良く移動体の種別を判定することができる。   In addition, the size of the pixel block in the pixel area is set to be small / large in the area corresponding to the long distance / short distance of the captured image, and unnecessary types of processing are deleted while accurately determining the type of the moving object. Processing effort can be reduced. In addition, by reducing / increasing the pixel interval between the pixel of interest and the pixel specified by the displacement information in an area corresponding to the long / short distance of the captured image, a wide range of feature values can be extracted. In addition, it is possible to accurately determine the type of the moving body according to the apparent size of the moving body.

また、撮像画像の遠距離/近距離に対応する領域で画素領域の時系列に並べた画素ブロックの数を多く/少なく設定することにより、移動体の見かけの移動速度に応じて精度良く移動体の種別を判定することができる。また、注目画素が存在する画素ブロックと変位情報により特定される画素が存在する画素ブロックとの時間間隔を、撮像画像の遠距離/近距離に対応する領域で大きく/小さくすることにより、移動体の見かけの移動速度に応じて精度良く移動体の種別を判定することができる。   In addition, by setting the number of pixel blocks arranged in time series in the pixel area in the area corresponding to the long distance / short distance of the captured image, the moving body can be accurately adjusted according to the apparent moving speed of the moving body. Can be determined. Further, by increasing / decreasing the time interval between the pixel block in which the pixel of interest exists and the pixel block in which the pixel specified by the displacement information exists in a region corresponding to the long / short distance of the captured image, The type of the moving body can be accurately determined according to the apparent moving speed.

また、特徴量ベクトルを画素領域内の注目画素総数で除算して正規化することにより、画素領域の撮像画像上の2方向又は時間方向の大きさに依存しない特徴量ベクトルを求めることができる。また、部分特徴量ベクトルを抽出することで、移動体の種別判定に不要な特徴量を求める必要がなくなり、移動体の種別判定の精度を維持しつつ処理量を削減することができ、移動体の種別の判定をより安価な装置で実現することが可能となる。   Also, by dividing the feature quantity vector by the total number of pixels of interest in the pixel area and normalizing it, it is possible to obtain a feature quantity vector that does not depend on the size in the two or temporal directions on the captured image of the pixel area. In addition, by extracting the partial feature quantity vector, it is not necessary to obtain a feature quantity unnecessary for the mobile body type determination, and the processing amount can be reduced while maintaining the accuracy of the mobile body type determination. It is possible to realize the type determination with a cheaper device.

上述の実施の形態において、画素領域の画素ブロックの大きさ及びフレーム数、並びに画素間隔及びフレーム間隔は、あくまで一例であって、これに限定されるものではない。撮像画像上の注目画素の位置が遠距離に対応するか近距離に対応するかに応じて適宜設定することができる。   In the above-described embodiment, the size of the pixel block in the pixel region, the number of frames, the pixel interval, and the frame interval are merely examples, and are not limited thereto. The position of the target pixel on the captured image can be set as appropriate depending on whether the position corresponds to a long distance or a short distance.

上述の実施の形態においては、移動体の種別に関わらず特徴量がほとんど変化しない要素を予め除去要素として特定する構成であったが、これに限定されるものではなく、除去要素を予め特定しない構成とすることもできる。この場合、図15に例示したステップS19、S20の処理は不要となり、図16に例示したステップS34、S35の処理も不要となる。   In the above-described embodiment, an element whose feature amount hardly changes regardless of the type of moving object is specified in advance as a removal element. However, the present invention is not limited to this, and the removal element is not specified in advance. It can also be configured. In this case, the processes in steps S19 and S20 illustrated in FIG. 15 are not necessary, and the processes in steps S34 and S35 illustrated in FIG. 16 are also unnecessary.

以上に開示された実施の形態及び実施例は、全ての点で例示であって制限的なものではないと考慮されるべきである。本発明の範囲は、以上の実施の形態及び実施例ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての修正や変形を含むものと意図される。   The embodiments and examples disclosed above should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above embodiments and examples but by the scope of claims, and is intended to include all modifications and variations within the meaning and scope equivalent to the scope of claims. .

本発明に係る移動体判定装置を用いた移動体判定の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the mobile body determination using the mobile body determination apparatus which concerns on this invention. 移動体判定装置の構成を示すブロック図である。It is a block diagram which shows the structure of a moving body determination apparatus. 撮像画像の一例を示す説明図である。It is explanatory drawing which shows an example of a captured image. 各ブロックにおける画素領域の一例を示す説明図である。It is explanatory drawing which shows an example of the pixel area | region in each block. ブロックにおける画素領域の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the pixel area | region in a block. ブロックにおける画素領域の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the pixel area | region in a block. ブロックにおける画素領域の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the pixel area | region in a block. 特徴量ベクトル抽出例を示す説明図である。It is explanatory drawing which shows the feature-value vector extraction example. 選択画素の数が2である場合の特徴量ベクトルの算出例を示す説明図である。It is explanatory drawing which shows the example of calculation of the feature-value vector in case the number of selection pixels is two. 選択画素の数が3である場合の特徴量ベクトルの算出例を示す説明図である。It is explanatory drawing which shows the example of calculation of the feature-value vector in case the number of selection pixels is 3. 時間方向に変位した場合の特徴量ベクトルの算出例を示す説明図である。It is explanatory drawing which shows the example of calculation of the feature-value vector at the time of displacing in a time direction. 注目画素の特徴量ベクトルの例を示す説明図である。It is explanatory drawing which shows the example of the feature-value vector of an attention pixel. 移動体の種別判定の例を示す説明図である。It is explanatory drawing which shows the example of classification determination of a moving body. 各フレームでの特徴量ベクトルの抽出例を示す説明図である。It is explanatory drawing which shows the example of extraction of the feature-value vector in each flame | frame. 変換係数を算出する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which calculates a conversion coefficient. 移動体の種別を判定する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which determines the classification of a moving body. 本発明に係る移動体判定装置を用いた移動体判定の他の例を示す模式図である。It is a schematic diagram which shows the other example of the mobile body determination using the mobile body determination apparatus which concerns on this invention.

符号の説明Explanation of symbols

1 ビデオカメラ
2 移動体判定装置
21 画像入力部
22 A/D変換部
23 画像メモリ
24 RAM
25 CPU
26 通信部
27 記憶部
28 補助記憶部
29 CD−ROM
DESCRIPTION OF SYMBOLS 1 Video camera 2 Moving body determination apparatus 21 Image input part 22 A / D conversion part 23 Image memory 24 RAM
25 CPU
26 Communication Unit 27 Storage Unit 28 Auxiliary Storage Unit 29 CD-ROM

Claims (9)

道路を含む領域を撮像して得られた時系列の撮像画像に基づいて移動体の種別を判定する移動体判定装置において、
撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成される画素領域を設定する設定手段と、
該設定手段で設定した画素領域内の注目画素と該注目画素からの変位情報により特定される画素との相関に基づいて特徴量ベクトルを抽出する抽出手段と、
前記画素領域内の注目画素毎に前記抽出手段で抽出した特徴量ベクトルを加算する加算手段と、
該加算手段で加算した特徴量ベクトルを所定の変換係数で種別判定値に変換する変換手段と
を備え、
該変換手段で変換した種別判定値に基づいて移動体の種別を判定するように構成してあることを特徴とする移動体判定装置。
In the mobile body determination device that determines the type of mobile body based on a time-series captured image obtained by imaging a region including a road,
Setting means for setting a pixel region configured by arranging a plurality of pixel blocks in each captured image of a plurality of captured images at different imaging time points in time series;
Extraction means for extracting a feature vector based on the correlation between the target pixel in the pixel region set by the setting means and the pixel specified by the displacement information from the target pixel;
Adding means for adding the feature quantity vector extracted by the extracting means for each target pixel in the pixel region;
Conversion means for converting the feature amount vector added by the addition means into a type determination value with a predetermined conversion coefficient, and
A mobile object determination apparatus configured to determine a type of a mobile object based on a type determination value converted by the conversion means.
前記設定手段は、
撮像画像の遠距離/近距離に対応する領域で前記画素領域の画素ブロックの大きさを小さく/大きく設定するように構成してあることを特徴とする請求項1に記載の移動体判定装置。
The setting means includes
The moving body determination apparatus according to claim 1, wherein the size of the pixel block of the pixel area is set to be small / large in an area corresponding to a long distance / short distance of a captured image.
注目画素と変位情報により特定される画素との画素間隔は、撮像画像の遠距離/近距離に対応する領域で小さい/大きいことを特徴とする請求項1又は請求項2に記載の移動体判定装置。   The moving object determination according to claim 1 or 2, wherein a pixel interval between the pixel of interest and a pixel specified by the displacement information is small / large in a region corresponding to a long distance / short distance of a captured image. apparatus. 前記設定手段は、
撮像画像の遠距離/近距離に対応する領域で前記画素領域の時系列に並べた画素ブロックの数を多く/少なく設定するように構成してあることを特徴とする請求項1乃至請求項3のいずれかに記載の移動体判定装置。
The setting means includes
4. The configuration according to claim 1, wherein the number of pixel blocks arranged in time series of the pixel area in the area corresponding to the long distance / short distance of the captured image is set to be large / small. The moving body determination apparatus in any one of.
注目画素が存在する画素ブロックと変位情報により特定される画素が存在する画素ブロックとの時間間隔は、撮像画像の遠距離/近距離に対応する領域で大きい/小さいことを特徴とする請求項1乃至請求項4のいずれかに記載の移動体判定装置。   2. The time interval between a pixel block in which a pixel of interest exists and a pixel block in which a pixel specified by displacement information exists is large / small in a region corresponding to a long distance / short distance of a captured image. The moving body determination device according to claim 4. 前記加算手段で加算した特徴量ベクトルを前記画素領域内の注目画素数で除算して正規化する正規化手段を備え、
前記変換手段は、
前記正規化手段で正規化した特徴量ベクトルを変換するように構成してあることを特徴とする請求項1乃至請求項5のいずれかに記載の移動体判定装置。
Normalizing means for normalizing by dividing the feature vector added by the adding means by the number of pixels of interest in the pixel region;
The converting means includes
6. The moving body determination apparatus according to claim 1, wherein the moving body determination apparatus is configured to convert the feature vector normalized by the normalizing unit.
前記加算手段で加算した特徴量ベクトルの各要素の変動量を複数の撮像時点に亘って算出する変動量算出手段を備え、
前記抽出手段は、
前記変動量算出手段で算出した変動量が所定の閾値以下である場合、該変動量に対応する要素を除外して特徴量ベクトルを抽出するように構成してあることを特徴とする請求項1乃至請求項6のいずれかに記載の移動体判定装置。
A variation amount calculating means for calculating a variation amount of each element of the feature amount vector added by the adding means over a plurality of imaging time points;
The extraction means includes
The feature amount vector is extracted by excluding an element corresponding to the variation amount when the variation amount calculated by the variation amount calculation means is equal to or less than a predetermined threshold value. The moving body determination apparatus in any one of Claim 6 thru | or 6.
コンピュータに、道路を含む領域を撮像して得られた時系列の撮像画像に基づいて移動体の種別を判定させるためのコンピュータプログラムにおいて、
コンピュータを、撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成される画素領域を設定する手段と、
設定した画素領域内の注目画素と該注目画素からの変位情報により特定される画素との相関に基づいて特徴量ベクトルを抽出する手段と、
前記画素領域内の注目画素毎に抽出した特徴量ベクトルを加算する手段と、
加算した特徴量ベクトルを所定の変換係数で種別判定値に変換する手段と、
変換した種別判定値に基づいて移動体の種別を判定する手段として機能させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to determine the type of a moving body based on a time-series captured image obtained by imaging a region including a road,
Means for setting a pixel area configured by arranging a plurality of pixel blocks in each captured image of a plurality of captured images at different imaging time points in time series;
Means for extracting a feature vector based on a correlation between a target pixel in a set pixel region and a pixel specified by displacement information from the target pixel;
Means for adding a feature vector extracted for each pixel of interest in the pixel region;
Means for converting the added feature vector into a type determination value with a predetermined conversion coefficient;
A computer program that functions as means for determining a type of a moving object based on a converted type determination value.
道路を含む領域を撮像して得られた時系列の撮像画像に基づいて移動体の種別を判定する移動体判定方法において、
撮像時点が異なる複数の撮像画像の各撮像画像内の画素ブロックを時系列に複数並べて構成される画素領域を設定し、
設定した画素領域内の注目画素と該注目画素からの変位情報により特定される画素との相関に基づいて特徴量ベクトルを抽出し、
前記画素領域内の注目画素毎に抽出した特徴量ベクトルを加算し、
加算した特徴量ベクトルを所定の変換係数で種別判定値に変換し、
変換した種別判定値に基づいて移動体の種別を判定することを特徴とする移動体判定方法。
In the moving object determination method for determining the type of moving object based on a time-series captured image obtained by imaging an area including a road,
Set a pixel area configured by arranging a plurality of pixel blocks in each captured image of a plurality of captured images at different capturing points in time series,
Extracting a feature vector based on the correlation between the target pixel in the set pixel region and the pixel specified by the displacement information from the target pixel;
Add the feature vector extracted for each pixel of interest in the pixel area,
The added feature vector is converted into a type determination value with a predetermined conversion coefficient,
A moving body determination method, wherein the type of a moving body is determined based on the converted type determination value.
JP2007121048A 2007-05-01 2007-05-01 Mobile body determination device, computer program and mobile body determination method Pending JP2008276613A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007121048A JP2008276613A (en) 2007-05-01 2007-05-01 Mobile body determination device, computer program and mobile body determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007121048A JP2008276613A (en) 2007-05-01 2007-05-01 Mobile body determination device, computer program and mobile body determination method

Publications (1)

Publication Number Publication Date
JP2008276613A true JP2008276613A (en) 2008-11-13

Family

ID=40054472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007121048A Pending JP2008276613A (en) 2007-05-01 2007-05-01 Mobile body determination device, computer program and mobile body determination method

Country Status (1)

Country Link
JP (1) JP2008276613A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267055A (en) * 2009-05-14 2010-11-25 Sony Corp Apparatus and method for detection of moving object, and computer program
JP2010286985A (en) * 2009-06-10 2010-12-24 Fujitsu Ten Ltd Apparatus and method for detecting object
CN102194238A (en) * 2010-03-16 2011-09-21 索尼公司 Moving-object detection apparatus, moving-object detection method and moving-object detection program
JP2014239554A (en) * 2014-09-26 2014-12-18 リズム時計工業株式会社 Detection system, signal processing method thereof, and program
CN114459614A (en) * 2022-02-10 2022-05-10 浙江大华技术股份有限公司 Method and device for determining heat source type, storage medium and electronic device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267055A (en) * 2009-05-14 2010-11-25 Sony Corp Apparatus and method for detection of moving object, and computer program
JP2010286985A (en) * 2009-06-10 2010-12-24 Fujitsu Ten Ltd Apparatus and method for detecting object
CN102194238A (en) * 2010-03-16 2011-09-21 索尼公司 Moving-object detection apparatus, moving-object detection method and moving-object detection program
JP2011192141A (en) * 2010-03-16 2011-09-29 Sony Corp Moving body detecting device and moving body detection method and program
JP2014239554A (en) * 2014-09-26 2014-12-18 リズム時計工業株式会社 Detection system, signal processing method thereof, and program
CN114459614A (en) * 2022-02-10 2022-05-10 浙江大华技术股份有限公司 Method and device for determining heat source type, storage medium and electronic device
CN114459614B (en) * 2022-02-10 2024-08-30 浙江华感科技有限公司 Method and device for determining heat source type, storage medium and electronic device

Similar Documents

Publication Publication Date Title
JP4429298B2 (en) Object number detection device and object number detection method
CN108648211B (en) Small target detection method, device, equipment and medium based on deep learning
Kromanis et al. Measuring structural deformations in the laboratory environment using smartphones
KR101747216B1 (en) Apparatus and method for extracting target, and the recording media storing the program for performing the said method
JP6397379B2 (en) CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM
CN107845095B (en) Moving object real-time detection method based on three-dimensional laser point cloud
JP5549345B2 (en) Sky detection apparatus and method used in image acquisition apparatus
KR20140045854A (en) Method and apparatus for monitoring video for estimating gradient of single object
Zhao et al. Video‐based multiscale identification approach for tower vibration of a cable‐stayed bridge model under earthquake ground motions
KR102199094B1 (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
JP2016212784A (en) Image processing apparatus and image processing method
KR102559586B1 (en) Structural appearance inspection system and method using artificial intelligence
JP2008276613A (en) Mobile body determination device, computer program and mobile body determination method
KR101793264B1 (en) Analysis method for occurrence and growth progression of crack
Min et al. Non-contact and real-time dynamic displacement monitoring using smartphone technologies
CN114613006A (en) Remote gesture recognition method and device
JP2015197851A (en) Image processor, program for image processing and information management system
CN105631849B (en) The change detecting method and device of target polygon
JP6246441B1 (en) Image analysis system, image analysis method, and program
JP4918615B2 (en) Object number detection device and object number detection method
KR101313879B1 (en) Detecting and Tracing System of Human Using Gradient Histogram and Method of The Same
JP2018066687A (en) Information processing device, information processing method, and information processing program
KR20140045834A (en) Method and apparatus for monitoring video for estimating size of single object
KR102150661B1 (en) Method and Apparatus for Preprocessing Image for Detecting Objects
JP4674920B2 (en) Object number detection device and object number detection method