JP5931662B2 - Road condition monitoring apparatus and road condition monitoring method - Google Patents

Road condition monitoring apparatus and road condition monitoring method Download PDF

Info

Publication number
JP5931662B2
JP5931662B2 JP2012203499A JP2012203499A JP5931662B2 JP 5931662 B2 JP5931662 B2 JP 5931662B2 JP 2012203499 A JP2012203499 A JP 2012203499A JP 2012203499 A JP2012203499 A JP 2012203499A JP 5931662 B2 JP5931662 B2 JP 5931662B2
Authority
JP
Japan
Prior art keywords
vehicle
road condition
template
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012203499A
Other languages
Japanese (ja)
Other versions
JP2014059655A (en
Inventor
勝大 堀江
勝大 堀江
佐藤 俊雄
俊雄 佐藤
青木 泰浩
泰浩 青木
鈴木 美彦
美彦 鈴木
健二 君山
健二 君山
雄介 高橋
雄介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012203499A priority Critical patent/JP5931662B2/en
Publication of JP2014059655A publication Critical patent/JP2014059655A/en
Application granted granted Critical
Publication of JP5931662B2 publication Critical patent/JP5931662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、道路上の車両等を検出して道路状況を監視する道路状況監視装置、及び道路状況監視方法に関する。   Embodiments described herein relate generally to a road condition monitoring apparatus and a road condition monitoring method that detect a vehicle on a road and monitor the road condition.

一般に、道路上の車両を検出して道路状況を監視する装置として道路状況監視装置が知られている。   In general, a road condition monitoring apparatus is known as an apparatus that detects a vehicle on a road and monitors the road condition.

従来の道路状況監視装置では、カーブ等、車両の進行方向が変化する画像に対応できないため、適用可能な道路が直線に限られる。これにより、入力画像上の道路面ごとにテンプレート作成範囲を指定する必要があるため、車両検出精度が低下するという課題がある。   The conventional road condition monitoring device cannot deal with an image such as a curve in which the traveling direction of the vehicle changes, so that the applicable road is limited to a straight line. Thereby, since it is necessary to designate the template creation range for each road surface on the input image, there is a problem that the vehicle detection accuracy is lowered.

特許第3435623号公報Japanese Patent No. 3345623

以上のように、従来の道路状況監視装置では、カーブ等、車両の進行方向が変化する画像に対応できないため、適用可能な道路が直線に限られる。これにより、入力画像上の道路面ごとにテンプレート作成範囲を指定する必要があるため、車両検出精度が低下するという課題がある。   As described above, the conventional road condition monitoring device cannot deal with an image in which the traveling direction of the vehicle changes, such as a curve, so that applicable roads are limited to straight lines. Thereby, since it is necessary to designate the template creation range for each road surface on the input image, there is a problem that the vehicle detection accuracy is lowered.

そこで、目的は、カーブ等、車両の進行方向が変化する画像に対しても、安定して車両の抽出、及び追跡ができ、車両検出精度を向上させることが可能な道路状況監視装置、及び道路状況監視方法を提供することにある。   Accordingly, the object is to provide a road condition monitoring device capable of stably extracting and tracking a vehicle, such as a curve, in which the traveling direction of the vehicle changes, and improving vehicle detection accuracy, and a road. It is to provide a situation monitoring method.

本実施形態によれば、道路状況監視装置は、撮影手段と、取得手段と、第1の検出手段と、作成手段と、第2の検出手段と、道路状況検知手段とを具備する。撮影手段は、監視エリアを撮影する。取得手段は、前記撮影手段から前記監視エリアの画像を取得する。第1の検出手段は、前記取得した画像における局所領域での特徴量の頻度に基づいて、前記監視エリアに写る車両を検出する。作成手段は、前記取得手段で取得された画像から検され前記監視エリア上の車両の位置情報とその特徴情報を計算し、この計算結果から前記車両を識別するためのテンプレートを作成する。第2の検出手段は、前記取得手段で取得される画像に対して前記作成手段で作成されたテンプレートを順次比較照合することで同一の車両を検出する。道路状況検知手段は、前記第1の検出手段で得られる前記局所領域での特徴量の頻度に基づく前記車両の検出結果、及び第2の検出手段得られる前記監視エリアの画像と前記テンプレートとの比較照合による前記車両の検出結果に基づいて道路状況を検知する。 According to the present embodiment, the road condition monitoring apparatus includes a photographing means, an acquisition means, a first detection means, a creation means, a second detection means, and a road condition detection means. The photographing means photographs the monitoring area. The acquisition unit acquires an image of the monitoring area from the photographing unit. The first detection means detects a vehicle that appears in the monitoring area based on the frequency of the feature amount in the local region in the acquired image. Creating means, the positional information and its characteristic information of the vehicle of the upper monitor area which is image or we detect acquired by the acquisition unit is calculated to create a template for identifying the vehicles from the calculated results . The second detecting means detects the same vehicle by sequentially comparing and collating the templates created by the creating means against the image obtained by the obtaining means. The road condition detection means includes a detection result of the vehicle based on the frequency of the feature quantity in the local region obtained by the first detection means , an image of the monitoring area obtained by the second detection means , and the template. The road condition is detected on the basis of the detection result of the vehicle based on the comparison comparison .

本実施形態に係る道路状況監視装置の構成を示すブロック図。The block diagram which shows the structure of the road condition monitoring apparatus which concerns on this embodiment. 図1に示す車両領域抽出部における車両領域の抽出結果を示す図。The figure which shows the extraction result of the vehicle area | region in the vehicle area extraction part shown in FIG. 図1に示すテンプレート作成部で作成されたテンプレート画像を示す図。The figure which shows the template image produced in the template production part shown in FIG. 図1に示すマッチング処理部におけるラスタスキャンの過程を示す図。The figure which shows the process of the raster scan in the matching process part shown in FIG. 図1に示すマッチング処理部における車両追跡の過程を示す図。The figure which shows the process of the vehicle tracking in the matching process part shown in FIG. 本実施形態に係る候補領域の複数抽出を示す図。The figure which shows multiple extraction of the candidate area | region which concerns on this embodiment.

以下、実施形態について、図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施形態に係る道路状況監視装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the road condition monitoring apparatus according to the present embodiment.

道路状況監視装置は、撮影装置と、画像取得部1と、車両検出部2と、識別器構築部3と、テンプレート作成部4と、車両追跡部5と、テンプレート更新部6と、道路状況検知部7とを備える。   The road condition monitoring apparatus includes an imaging device, an image acquisition unit 1, a vehicle detection unit 2, a discriminator construction unit 3, a template creation unit 4, a vehicle tracking unit 5, a template update unit 6, and a road condition detection. Part 7.

画像取得部1は、撮影装置からフレーム単位で監視エリアの画像データを受け取り、車両検出部2へ画像データを伝送する。なお、本実施形態の撮影装置は、例えば、ITVカメラであり、道路脇、あるいは道路の上方の所定位置に設置されて、監視対象の道路の画像を撮影して、画像データをフレーム単位で出力する。   The image acquisition unit 1 receives the image data of the monitoring area from the imaging device in units of frames and transmits the image data to the vehicle detection unit 2. Note that the imaging apparatus of the present embodiment is, for example, an ITV camera, is installed at a predetermined position on the side of the road or above the road, captures an image of the road to be monitored, and outputs image data in units of frames. To do.

車両検出部2は、画像取得部1から得られたフレーム単位での画像データごとに、局所領域での特徴量の頻度に基づいて、監視エリアに写る道路上の車両を検出する。なお、特徴量とは、輝度等、画像データ中の数値的変化を表す量のことである。この車両検出部2は、探索窓設定部21と、第1の高次特徴量算出部22と、尤度算出部23と、識別器選択部24と、車両領域抽出部25とを有する。   The vehicle detection unit 2 detects a vehicle on the road that appears in the monitoring area based on the frequency of the feature amount in the local region for each frame of image data obtained from the image acquisition unit 1. The feature amount is an amount representing a numerical change in image data such as luminance. The vehicle detection unit 2 includes a search window setting unit 21, a first higher-order feature amount calculation unit 22, a likelihood calculation unit 23, a discriminator selection unit 24, and a vehicle region extraction unit 25.

探索窓設定部21は、得られた画像データ上に探索領域を設定する。   The search window setting unit 21 sets a search area on the obtained image data.

第1の高次特徴量算出部22は、探索窓設定部21から探索領域の情報を受け取り、受け取った探索領域から高次特徴量を算出する。   The first higher-order feature quantity calculation unit 22 receives information on the search area from the search window setting unit 21 and calculates a higher-order feature quantity from the received search area.

尤度算出部23は、第1の高次特徴量算出部22で算出した高次特徴量と複数の識別器271〜27Nに保持された車両情報に基づいて、車両か車両でないか、乃至どのような車両か、数値で表現する尤度を算出する。   The likelihood calculating unit 23 is based on the high-order feature amount calculated by the first high-order feature amount calculating unit 22 and the vehicle information held in the plurality of discriminators 271 to 27N. The likelihood expressed as a vehicle or a numerical value is calculated.

識別器選択部24は、尤度算出部23で尤度を算出する際、車両検出部2内に保持され、普通車、及び大型車等、複数のカテゴリに分類された識別器271〜27Nの中から、最適な識別器を選択する。このとき、識別器選択部24は、設置された複数の辞書261〜26Nの中に保持されている車両の輝度等の数値を参照して、尤度の算出に最適な識別器を選択する。   The discriminator selection unit 24 stores the discriminators 271 to 27N that are held in the vehicle detection unit 2 and classified into a plurality of categories such as ordinary vehicles and large vehicles when the likelihood calculation unit 23 calculates the likelihood. The optimum classifier is selected from among them. At this time, the discriminator selecting unit 24 refers to numerical values such as the brightness of the vehicle held in the plurality of installed dictionaries 261 to 26N, and selects the discriminator that is optimal for calculating the likelihood.

車両領域抽出部25は、尤度算出部23で算出した尤度情報に基づいて、車両が検出されたと思われる車両領域を抽出する。   The vehicle region extraction unit 25 extracts a vehicle region in which the vehicle is considered to be detected based on the likelihood information calculated by the likelihood calculation unit 23.

テンプレート作成部4は、車両検出部2で抽出された車両領域において、画像取得部1で取得された画像から検出した車両の監視エリア上の位置情報とその特徴情報を計算し、この計算結果から車両を識別するためのテンプレートを作成する。作成されたテンプレートは、テンプレート情報記憶部63に記憶される。   In the vehicle area extracted by the vehicle detection unit 2, the template creation unit 4 calculates the position information on the monitoring area of the vehicle detected from the image acquired by the image acquisition unit 1 and its feature information, and from this calculation result Create a template to identify the vehicle. The created template is stored in the template information storage unit 63.

車両追跡部5は、テンプレート作成部4で作成されたテンプレートを用いて、画像取得部1で取得される画像に対してテンプレートを順次比較照合することで同一の車両を検出し、追跡する。この車両追跡部5は、テンプレート情報読込部51と、マッチング処理部52とを有する。   The vehicle tracking unit 5 detects and tracks the same vehicle by using the template created by the template creation unit 4 and sequentially comparing and collating the template with the image acquired by the image acquisition unit 1. The vehicle tracking unit 5 includes a template information reading unit 51 and a matching processing unit 52.

テンプレート情報読込部51は、テンプレート作成部4で作成されたテンプレートと、テンプレート内に設定された探索領域の左上座標、及び右下座標を読み込む。ここで、テンプレート画像内の探索領域は、テンプレート作成時における車両領域の位置情報に基づいて設定され、車両追跡部5は、その周辺について探索を行う。   The template information reading unit 51 reads the template created by the template creation unit 4 and the upper left coordinates and lower right coordinates of the search area set in the template. Here, the search area in the template image is set based on the position information of the vehicle area at the time of creating the template, and the vehicle tracking unit 5 searches for the surrounding area.

マッチング処理部52は、テンプレート情報読込部51で読み込まれたテンプレート画像、探索領域の左上座標、及び右下座標を用いて、ラスタスキャンを行う。マッチング処理部52は、ラスタスキャンにより、テンプレートと探索領域との輝度差の総和を算出し、算出された輝度差の総和から車両を検出し、追跡する。   The matching processing unit 52 performs raster scanning using the template image read by the template information reading unit 51, the upper left coordinates, and the lower right coordinates of the search area. The matching processing unit 52 calculates the sum of the luminance differences between the template and the search area by raster scanning, and detects and tracks the vehicle from the calculated sum of the luminance differences.

また、車両追跡部5は、マッチング処理部52におけるテンプレート画像と探索領域との比較を輝度差の総和だけではなく、正規相関のように類似度で算出してもよい。   Further, the vehicle tracking unit 5 may calculate the comparison between the template image and the search area in the matching processing unit 52 not only by the sum of the luminance differences but also by the similarity as in the normal correlation.

テンプレート更新部6は、車両追跡部5で検出、追跡される車両の画像データごとに、テンプレートを更新する。このテンプレート更新部6は、重なり率算出部61と、テンプレート更新判定部62を有する。   The template update unit 6 updates the template for each vehicle image data detected and tracked by the vehicle tracking unit 5. The template update unit 6 includes an overlap rate calculation unit 61 and a template update determination unit 62.

重なり率算出部61は、車両領域抽出部25から得られる座標と、マッチング処理部52で得られる座標とを比較し、2つの矩形領域の重なり率を算出する。   The overlapping rate calculating unit 61 compares the coordinates obtained from the vehicle region extracting unit 25 with the coordinates obtained by the matching processing unit 52, and calculates the overlapping rate of the two rectangular regions.

テンプレート更新判定部62は、重なり率算出部61で算出した重なり率が一定値より大きいかを判定し、重なり率が一定値より大きい場合、車両抽出部2で抽出された矩形領域をテンプレートとして更新し、探索領域の左上座標と右下座標も同時に更新する。このとき、更新されたテンプレートは、テンプレート情報記憶部63に記憶される。   The template update determination unit 62 determines whether the overlap rate calculated by the overlap rate calculation unit 61 is greater than a certain value. If the overlap rate is greater than a certain value, the rectangular area extracted by the vehicle extraction unit 2 is updated as a template. Then, the upper left coordinates and lower right coordinates of the search area are updated simultaneously. At this time, the updated template is stored in the template information storage unit 63.

道路状況検知部7は、車両検出部2、及び車両追跡部5を経て得られる検出結果を用いて、道路上の渋滞、通過台数、速度超過、停止、低速、回避、及び逆走等の事象を検知する。このとき、事象の検知は、車両追跡部5で得られる車両の移動データに基づいて行う。   The road condition detection unit 7 uses the detection results obtained through the vehicle detection unit 2 and the vehicle tracking unit 5 to cause events such as traffic congestion on the road, number of passing vehicles, overspeed, stop, low speed, avoidance, and reverse running. Is detected. At this time, the event is detected based on vehicle movement data obtained by the vehicle tracking unit 5.

ここで、上記識別器を構築する過程について説明する。   Here, the process of constructing the classifier will be described.

識別器構築部3は、識別器選択部24で選択するための識別器を構築する。この識別器構築部3は、学習用データ保持部31と、教示データ作成部32と、第2の高次特徴量算出部33と、学習部34と、識別器構築処理部35とを有する。   The discriminator construction unit 3 constructs a discriminator for selection by the discriminator selection unit 24. The classifier construction unit 3 includes a learning data holding unit 31, a teaching data creation unit 32, a second higher-order feature quantity calculation unit 33, a learning unit 34, and a classifier construction processing unit 35.

教示データ作成部32は、学習用データ保持部31で保持された複数の学習用の画像データに対して、手動で矩形の車両領域を作成する。   The teaching data creation unit 32 manually creates a rectangular vehicle region for the plurality of learning image data held by the learning data holding unit 31.

第2の高次特徴量算出部33は、教示データ作成部32により作成された矩形の車両領域から、CoHOG(Co-occurrence Histograms of Gradients)特徴量、乃至HOG(Histograms of Gradients)特徴量等に基づいて、局所領域の高次特徴量を算出する。なお、算出される局所領域の高次特徴量の数は、教示データ作成部31で作成された車両領域の数と一致する。   The second higher-order feature quantity calculation unit 33 converts the rectangular vehicle area created by the teaching data creation unit 32 into a CoHOG (Co-occurrence Histograms of Gradients) feature quantity or a HOG (Histograms of Gradients) feature quantity, etc. Based on this, a high-order feature amount of the local region is calculated. Note that the calculated number of higher-order feature quantities in the local area matches the number of vehicle areas created by the teaching data creation unit 31.

学習部34は、第2の高次特徴量算出部33で算出された局所領域の高次特徴量から、車種情報等の学習データを算出する。   The learning unit 34 calculates learning data such as vehicle type information from the high-order feature quantity of the local region calculated by the second high-order feature quantity calculation unit 33.

識別器構築処理部35は、学習部34により算出された学習データを、普通車、及び大型車等、複数のカテゴリに分類し、カテゴリ別で複数の識別器271〜27Nに保持する。ここで、識別器271〜27Nの構築には、例えば、部分空間法、サポートベクターマシン、K近傍識別器、ベイズ分類等の機械学習により、大量のデータから識別パラメータを構成する非ルールベースの手法を用いる。なお、本実施形態は、上記以外の手法で実現してもよい。   The discriminator construction processing unit 35 classifies the learning data calculated by the learning unit 34 into a plurality of categories such as a normal car and a large car, and holds them in the plurality of discriminators 271 to 27N for each category. Here, for the construction of the discriminators 271 to 27N, for example, a non-rule-based method for constructing discrimination parameters from a large amount of data by machine learning such as subspace method, support vector machine, K-neighbor discriminator, Bayesian classification Is used. In addition, you may implement | achieve this embodiment by methods other than the above.

図2は、車両領域抽出部25における、車両領域の抽出結果を示す図である。   FIG. 2 is a diagram illustrating a vehicle region extraction result in the vehicle region extraction unit 25.

図2には、3台の車両を用いて説明しているが、台数に上限はなく、道路上の車両全てに対して車両領域201〜203を抽出する。   Although FIG. 2 has been described using three vehicles, there is no upper limit to the number of vehicles, and the vehicle areas 201 to 203 are extracted for all vehicles on the road.

図3は、テンプレート作成部4で作成されたテンプレート画像を示す図である。   FIG. 3 is a diagram showing a template image created by the template creation unit 4.

テンプレート作成部4では、カメラの設置場所、及び道路面の大きさ等に依存せず、テンプレート画像を作成することが可能である。また、テンプレート画像サイズ301は、車両検出時の矩形サイズ201でも良いし、背景等を削除する目的で、高さ、及び幅共に、車両検出時より予め設定している数値分だけ小さく設定してもよい。このとき、車両抽出領域201とテンプレート画像301、車両抽出領域202とテンプレート画像302、車両抽出領域203とテンプレート画像303がそれぞれ対応付けられている。図3では、3台の車両を用いて説明しているが、テンプレート作成部4は、台数に上限がなく、道路上の車両全てに対しテンプレートを作成する。   The template creation unit 4 can create a template image without depending on the installation location of the camera, the size of the road surface, and the like. Further, the template image size 301 may be the rectangular size 201 at the time of vehicle detection, or the height and width may be set smaller by a preset numerical value than at the time of vehicle detection for the purpose of deleting the background and the like. Also good. At this time, the vehicle extraction area 201 and the template image 301, the vehicle extraction area 202 and the template image 302, and the vehicle extraction area 203 and the template image 303 are associated with each other. In FIG. 3, the description has been made using three vehicles, but the template creation unit 4 creates a template for all the vehicles on the road without any upper limit.

図4は、マッチング処理部52におけるラスタスキャンの過程を示す図である。   FIG. 4 is a diagram illustrating a raster scanning process in the matching processing unit 52.

図4に示すように、テンプレート情報読込部51で読み込まれたテンプレート画像402、探索領域の左上座標401、及び右下座標404を用いて、ラスタスキャン403を行い、テンプレート画像402で輝度差の総和を算出し、算出された輝度差の総和から車両を追跡する。   As illustrated in FIG. 4, a raster scan 403 is performed using the template image 402 read by the template information reading unit 51, the upper left coordinates 401 and the lower right coordinates 404 of the search area, and the template image 402 performs summation of luminance differences. And the vehicle is tracked from the calculated sum of the brightness differences.

図5は、マッチング処理部52における車両追跡の過程を示す図である。   FIG. 5 is a diagram illustrating a vehicle tracking process in the matching processing unit 52.

図5に示す501〜506はそれぞれ、前フレームのテンプレート画像501〜503、現在フレームにおけるマッチング結果画像504〜506を示している。   501 to 506 shown in FIG. 5 respectively show template images 501 to 503 for the previous frame and matching result images 504 to 506 for the current frame.

図5では、3台の車両を用いて説明しているが、車両追跡部5は、台数に上限がなく、道路上の車両全てに対して、車両を検出、追跡する。   In FIG. 5, although three vehicles are used for explanation, the vehicle tracking unit 5 has no upper limit on the number of vehicles, and detects and tracks vehicles for all vehicles on the road.

以上のように、本実施形態では、車両検出部2の検出処理と車両追跡部5の検出処理を併用することによって、片方の検出処理が検出に失敗した場合でも、もう片方の検出処理でカバーできる。   As described above, in the present embodiment, the detection process of the vehicle detection unit 2 and the detection process of the vehicle tracking unit 5 are used together, so that even if the detection process of one side fails in detection, the detection process of the other side is covered. it can.

これにより、安定して車両を抽出や追跡ができ、車両検出精度を向上させることができる。   Thereby, a vehicle can be extracted and tracked stably, and a vehicle detection accuracy can be improved.

したがって、カーブ等、車両の進行方向が変化する画像に対しても、安定して車両の抽出、及び追跡ができ、車両検出精度を向上させることが可能な道路状況監視装置、及び道路状況監視方法を提供することが可能になる。   Therefore, a road condition monitoring apparatus and a road condition monitoring method that can stably extract and track a vehicle, such as a curve, in which the traveling direction of the vehicle changes and can improve the vehicle detection accuracy. It becomes possible to provide.

ここで、車両検出部2の識別器271〜27Nは、車両検出部2が車両の検出に失敗した場合において、車両追跡部5における車両の検出、追跡が成功した場合にはその検出結果を学習させることで、その後の検出精度を向上させることができる。   Here, the discriminators 271 to 27N of the vehicle detection unit 2 learn the detection results when the vehicle detection unit 2 fails to detect the vehicle and the vehicle tracking unit 5 succeeds in detecting and tracking the vehicle. By doing so, the subsequent detection accuracy can be improved.

また、図6は、候補領域の複数抽出を示す図である。   FIG. 6 is a diagram showing a plurality of candidate area extractions.

図6に示すように、車両追跡部5は、時刻tにおけるマッチング処理部62でのマッチング処理の際、候補領域603〜604を複数抽出する。さらに、車両追跡部5は、過去に検出した車両領域の軌跡601〜602に応じて、候補領域から追跡結果603を選択する。   As shown in FIG. 6, the vehicle tracking unit 5 extracts a plurality of candidate regions 603 to 604 during the matching process in the matching processing unit 62 at time t. Furthermore, the vehicle tracking unit 5 selects the tracking result 603 from the candidate areas according to the trajectories 601 to 602 of the vehicle area detected in the past.

これにより、隣接レーンへの車両対応付けに失敗しなくなるため、車両の車両追跡精度が向上する。   Thereby, since the vehicle matching to the adjacent lane does not fail, the vehicle tracking accuracy of the vehicle is improved.

なお、図6では、軌跡を計算する時間間隔、及び候補領域数は、図上の数値に限定せず、自由に決定できるものとする。   In FIG. 6, the time interval for calculating the trajectory and the number of candidate areas are not limited to the numerical values in the figure and can be freely determined.

また、本実施形態で示した識別器構築部3において、学習部34は車両の向き情報を予め学習し、識別器構築処理部35は、識別器の構築を行う。識別器選択部24は、カーブ等、車両検出部2で検出された画像中の車両の見え方が一定角度以上変わった時に、角度に応じて識別器の選択を行う。同時に、テンプレート更新判定部62は、車両領域抽出部25で抽出された矩形領域をテンプレート502として更新し、探索領域の左上座標501と右下座標504も更新する。   In the classifier construction unit 3 shown in the present embodiment, the learning unit 34 learns vehicle orientation information in advance, and the classifier construction processing unit 35 constructs a classifier. The discriminator selection unit 24 selects the discriminator according to the angle when the appearance of the vehicle in the image detected by the vehicle detection unit 2 such as a curve changes by a certain angle or more. At the same time, the template update determination unit 62 updates the rectangular area extracted by the vehicle area extraction unit 25 as the template 502, and also updates the upper left coordinates 501 and lower right coordinates 504 of the search area.

これにより、カーブ等、車両の進行方向が変化する画像にも安定して車両を抽出や追跡ができ、車両検出精度を向上させることができる。   As a result, the vehicle can be extracted and tracked stably even in an image such as a curve where the traveling direction of the vehicle changes, and the vehicle detection accuracy can be improved.

以上、本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   As mentioned above, although embodiment of this invention was described, this embodiment is shown as an example and is not intending limiting the range of invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. This embodiment and its modifications are included in the scope of the present invention and the gist thereof, and are also included in the invention described in the claims and the equivalent scope thereof.

1…画像取得部、2…車両検出部、21…探索窓設定部、22…第1の高次特徴量算出部、23…尤度算出部、24…識別器選択部、25…車両領域抽出部、261〜26N…辞書、271〜27N…識別器、3…識別器構築部、31…学習用データ保持部、32…教示データ作成部、33…第2の高次特徴量算出部、34…学習部、35…識別器構築処理部、4…テンプレート作成部、5…車両追跡部、51…、52…、6…テンプレート更新部、61…重なり率算出部、62…テンプレート更新判定部、63…テンプレート情報記憶部、7…道路状況検知部。   DESCRIPTION OF SYMBOLS 1 ... Image acquisition part, 2 ... Vehicle detection part, 21 ... Search window setting part, 22 ... 1st high-order feature-value calculation part, 23 ... Likelihood calculation part, 24 ... Discriminator selection part, 25 ... Vehicle area extraction 261-26N ... dictionary, 271-27N ... discriminator, 3 ... discriminator construction unit, 31 ... learning data holding unit, 32 ... teaching data creation unit, 33 ... second higher-order feature quantity calculation unit, 34 ... Learning unit, 35 ... Classifier construction processing unit, 4 ... Template creation unit, 5 ... Vehicle tracking unit, 51 ..., 52 ..., 6 ... Template update unit, 61 ... Overlap rate calculation unit, 62 ... Template update determination unit, 63 ... Template information storage unit, 7 ... Road condition detection unit.

Claims (11)

監視エリアを撮影する撮影手段と、
前記撮影手段から前記監視エリアの画像を取得する取得手段と、
前記取得した画像における局所領域での特徴量の頻度に基づいて、前記監視エリアに写る車両を検出する第1の検出手段と、
前記取得手段で取得された画像から検され前記監視エリア上の車両の位置情報とその特徴情報を計算し、この計算結果から前記車両を識別するためのテンプレートを作成する作成手段と、
前記取得手段で取得される画像に対して前記作成手段で作成されたテンプレートを順次比較照合することで同一の車両を検出する第2の検出手段と、
前記第1の検出手段で得られる前記局所領域での特徴量の頻度に基づく前記車両の検出結果、及び第2の検出手段得られる前記監視エリアの画像と前記テンプレートとの比較照合による前記車両の検出結果に基づいて道路状況を検知する道路状況検知手段と
を具備することを特徴とする道路状況監視装置。
Photographing means for photographing the surveillance area;
Obtaining means for obtaining an image of the monitoring area from the photographing means;
First detection means for detecting a vehicle in the monitoring area based on the frequency of feature quantities in a local region in the acquired image;
A creation unit for position information and characteristics information of the vehicle of the upper monitor area which is image or we detect acquired by the acquisition means calculates, to create a template for identifying the vehicle from the calculation results,
Second detecting means for detecting the same vehicle by sequentially comparing and collating the templates created by the creating means with respect to the image obtained by the obtaining means;
Wherein by comparison and collation between said first detection result of the vehicle in which the based on the feature amount of the frequency of a local region obtained by the detection means, and the image and the template of the monitoring area obtained by the second detection means vehicle A road condition monitoring device, comprising: road condition detection means for detecting a road condition based on the detection result of.
前記第1の検出手段は、複数のカテゴリに分類した複数の識別器を保持することを特徴とする請求項1記載の道路状況監視装置。 The road condition monitoring apparatus according to claim 1, wherein the first detection means holds a plurality of discriminators classified into a plurality of categories. 前記第1の検出手段で車両の検出に失敗し、前記第2の検出手段で車両の検出及び追跡に成功した場合、前記第1の検出手段における複数の識別器に前記第2の検出手段による検出結果を学習させることを特徴とする請求項記載の道路状況監視装置。 When the first detection means fails to detect the vehicle and the second detection means succeeds in detecting and tracking the vehicle, a plurality of discriminators in the first detection means are used by the second detection means. The road condition monitoring apparatus according to claim 2, wherein the detection result is learned. 前記第1の検出手段は、部分空間法、サポートベクターマシン、K近傍識別器、及びベイズ分類のうちの少なくとも一つの機械学習により構築された前記識別器に基づいて検出することを特徴とする請求項記載の道路状況監視装置。 The first detection means, subspace method, support vector machines, K near identifier, and wherein the detection on the basis of the classifier constructed in accordance with at least one machine learning of the Bayesian classification The road condition monitoring device according to claim 2 . 前記第2の検出手段は、テンプレート作成時の位置情報に基づいて、その周辺を探索領域として設定することを特徴とする請求項1記載の道路状況監視装置。   The road condition monitoring apparatus according to claim 1, wherein the second detection unit sets the periphery as a search area based on position information at the time of template creation. 前記第2の検出手段は、前記テンプレートと前記探索領域の輝度差との総和、乃至類似度を算出することを特徴とする請求項記載の道路状況監視装置。 The second detection means, wherein the sum of the template and the luminance difference of the search area, or a road condition monitoring apparatus according to claim 5, characterized in that the similarity is calculated. 前記第2の検出手段は、候補領域を複数抽出し、過去に検出した車両領域の軌跡に応じて、候補領域から追跡結果を選択することを特徴とする請求項記載の道路状況監視装置。 The second detection means, the candidate region more extraction, depending on the locus of previously detected vehicle area, the road condition monitoring apparatus according to claim 2, wherein the selecting the tracking result from the candidate region. 前記第2の検出手段で追跡する車両ごとにテンプレートを更新する更新手段をさらに具備することを特徴とする請求項記載の道路状況監視装置。 The road condition monitoring apparatus according to claim 7 , further comprising an updating unit that updates a template for each vehicle tracked by the second detection unit. 前記更新手段は、前記第1の検出手段で得られた矩形領域と、前記第2の検出手段で得られた矩形領域との重なり率によって、前記テンプレートを更新するか判定することを特徴とする請求項記載の道路状況監視装置。 The update unit includes: a feature a rectangular region obtained in said first detection means, by overlapping ratio of the rectangular area obtained by the second detection means, to determine whether to update the template The road condition monitoring apparatus according to claim 8 . 前記更新手段は、前記第1の検出手段で検出された画像中の車両の見え方が一定角度以上変わった場合、前記テンプレートを更新するか判定することを特徴とする請求項記載の道路状況監視装置。 It said updating means, when said appearance of the first vehicle of the detected in the image by the detection means has changed a predetermined angle or more, according to claim 8, wherein the determining whether to update the pre-Symbol Template Road condition monitoring device. 監視エリアを撮影して前記監視エリアの画像を取得し、
前記取得した画像における局所領域での特徴量の頻度に基づいて、前記監視エリアに写る車両を検出し、
前記取得された画像から、前記検出された車両の位置、及び車両の向き情報に基づいて、前記車両を識別するためのテンプレートを作成し、
前記取得された画像に対して前記作成されたテンプレートを順次比較照合することで車両を検出し、
前記局所領域での特徴量の頻度に基づく前記車両の検出結果、及び前記監視エリアの画像と前記テンプレートとの比較照合による前記車両の検出結果に基づいて検出結果に基づいて、道路状況を検知すること
を特徴とする道路状況監視方法。
Take a picture of the surveillance area to obtain an image of the surveillance area ,
Based on the frequency of the feature amount in the local area in the acquired image, detect the vehicle that appears in the monitoring area ,
From the acquired image, the detected position of the vehicle, and based on the orientation information of the vehicle to create a template for identifying the vehicle,
It detects vehicle by sequentially comparing and collating the created template to the acquired image,
The road condition is detected based on the detection result based on the detection result of the vehicle based on the frequency of the feature amount in the local region and the detection result of the vehicle based on the comparison check between the image of the monitoring area and the template A road condition monitoring method characterized by this.
JP2012203499A 2012-09-14 2012-09-14 Road condition monitoring apparatus and road condition monitoring method Active JP5931662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012203499A JP5931662B2 (en) 2012-09-14 2012-09-14 Road condition monitoring apparatus and road condition monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012203499A JP5931662B2 (en) 2012-09-14 2012-09-14 Road condition monitoring apparatus and road condition monitoring method

Publications (2)

Publication Number Publication Date
JP2014059655A JP2014059655A (en) 2014-04-03
JP5931662B2 true JP5931662B2 (en) 2016-06-08

Family

ID=50616097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012203499A Active JP5931662B2 (en) 2012-09-14 2012-09-14 Road condition monitoring apparatus and road condition monitoring method

Country Status (1)

Country Link
JP (1) JP5931662B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9503706B2 (en) * 2013-09-10 2016-11-22 Xerox Corporation Determining source lane of moving item merging into destination lane
JP6488647B2 (en) * 2014-09-26 2019-03-27 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
CN105957347B (en) * 2016-06-16 2018-06-19 大连海事大学 A kind of vehicle peccancy based on navigation automobile data recorder turns around detection method
TWI723299B (en) * 2018-11-20 2021-04-01 遠創智慧股份有限公司 Traffic condition monitoring method and system using the same
KR102286250B1 (en) * 2019-10-30 2021-08-05 주식회사 서안에스앤씨 Vehicle number recognition system using cctv
CN114333356B (en) * 2021-11-30 2023-12-15 中交第二公路勘察设计研究院有限公司 Road plane intersection traffic volume statistical method based on video multi-region marking
CN117557570B (en) * 2024-01-12 2024-05-24 中数智科(杭州)科技有限公司 Rail vehicle abnormality detection method and system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284997A (en) * 1998-03-31 1999-10-15 Oki Electric Ind Co Ltd Traveling object sensing device
JP3605525B2 (en) * 1999-02-10 2004-12-22 株式会社日立製作所 Vehicle traffic monitoring and management device
JP4802176B2 (en) * 2007-11-26 2011-10-26 株式会社東芝 Pattern recognition apparatus, pattern recognition program, and pattern recognition method
JP5238573B2 (en) * 2009-03-25 2013-07-17 株式会社東芝 Learning apparatus, method and program
JP5397157B2 (en) * 2009-10-28 2014-01-22 日本電気株式会社 Vehicle tracking system, vehicle tracking method, and vehicle tracking program
JP5025713B2 (en) * 2009-11-30 2012-09-12 日本電信電話株式会社 Attribute identification device and attribute identification program
JP5573353B2 (en) * 2010-05-18 2014-08-20 株式会社ニコン Imaging device, image display device, and image display program
JP5593217B2 (en) * 2010-12-28 2014-09-17 クラリオン株式会社 Vehicle external recognition device and vehicle system using the same

Also Published As

Publication number Publication date
JP2014059655A (en) 2014-04-03

Similar Documents

Publication Publication Date Title
JP5931662B2 (en) Road condition monitoring apparatus and road condition monitoring method
EP3576008B1 (en) Image based lane marking classification
US8588466B2 (en) Object area detection system, device, method, and program for detecting an object
TWI452540B (en) Image based detecting system and method for traffic parameters and computer program product thereof
WO2018072233A1 (en) Method and system for vehicle tag detection and recognition based on selective search algorithm
US9047518B2 (en) Method for the detection and tracking of lane markings
US9626599B2 (en) Reconfigurable clear path detection system
CN103699905B (en) Method and device for positioning license plate
CN107992819B (en) Method and device for determining vehicle attribute structural features
JP6226368B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
CN102609720B (en) Pedestrian detection method based on position correction model
JP2007334623A (en) Face authentication device, face authentication method, and access control device
KR101753097B1 (en) Vehicle detection method, data base for the vehicle detection, providing method of data base for the vehicle detection
CN109829382B (en) Abnormal target early warning tracking system and method based on intelligent behavior characteristic analysis
WO2014181386A1 (en) Vehicle assessment device
US20150347804A1 (en) Method and system for estimating fingerprint pose
WO2015184899A1 (en) Method and device for recognizing license plate of vehicle
CN109344886B (en) Occlusion number plate distinguishing method based on convolutional neural network
JP6595375B2 (en) Traffic condition analysis device, traffic condition analysis method, and traffic condition analysis program
WO2021018144A1 (en) Indication lamp detection method, apparatus and device, and computer-readable storage medium
CN105488484B (en) A kind of track of vehicle extracting method based on unmanned plane image
CN104463232A (en) Density crowd counting method based on HOG characteristic and color histogram characteristic
CN107170012A (en) A kind of method that viewpoint estimation is carried out based on language ambience information
CN109344829A (en) A kind of Train number recognition method and device of High Speed Railway Trains
JP6698058B2 (en) Image processing device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160427

R151 Written notification of patent or utility model registration

Ref document number: 5931662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151