JP2016062369A - Vehicle detection system, adjustment support device, vehicle detection method and adjustment method - Google Patents
Vehicle detection system, adjustment support device, vehicle detection method and adjustment method Download PDFInfo
- Publication number
- JP2016062369A JP2016062369A JP2014190594A JP2014190594A JP2016062369A JP 2016062369 A JP2016062369 A JP 2016062369A JP 2014190594 A JP2014190594 A JP 2014190594A JP 2014190594 A JP2014190594 A JP 2014190594A JP 2016062369 A JP2016062369 A JP 2016062369A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- road
- unit
- vehicle detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Input (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明の実施形態は、車両検出装置、調整支援装置、車両検出方法及び調整方法に関する。 Embodiments described herein relate generally to a vehicle detection device, an adjustment support device, a vehicle detection method, and an adjustment method.
従来、カメラ等の撮像装置を用いて道路を撮像し、取得された画像から撮像された道路を走行する車両を検出することが行われている。この車両の検出により、通行車両の計数や、通行車両のナンバー情報の取得が行われている。このような画像から車両を検出する手法の1つにパターンマッチングがある。取得された画像と、パターン画像とのマッチングを行うことにより精度の高い車両の検出が可能である。
しかしながら、パターンマッチングにより車両検出を行う場合、検出精度は、画像に撮像された検出対象の対称性や歪み等によって大きく左右される。そのため、撮像装置の設置位置や設置角度によっては、マッチングの精度が大きく低下する場合があった。
Conventionally, an image of a road is picked up using an image pickup device such as a camera, and a vehicle traveling on the picked up image is detected from an acquired image. By detecting this vehicle, counting of passing vehicles and acquisition of number information of passing vehicles are performed. One method for detecting a vehicle from such an image is pattern matching. It is possible to detect the vehicle with high accuracy by matching the acquired image with the pattern image.
However, when vehicle detection is performed by pattern matching, the detection accuracy greatly depends on the symmetry and distortion of the detection target captured in the image. Therefore, depending on the installation position and the installation angle of the imaging device, the matching accuracy may be greatly reduced.
本発明が解決しようとする課題は、より精度良く画像から車両を検出することができる車両検出装置、調整支援装置、車両検出方法及び調整方法を提供することである。 The problem to be solved by the present invention is to provide a vehicle detection device, an adjustment support device, a vehicle detection method, and an adjustment method that can detect a vehicle from an image with higher accuracy.
実施形態の車両検出装置は、撮像部と、幾何学変換部と、車両検出部と、を持つ。撮像部は、道路を撮像して前記道路の画像を取得する。幾何学変換部は、前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う。車両検出部は、前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する。 The vehicle detection device according to the embodiment includes an imaging unit, a geometric conversion unit, and a vehicle detection unit. The imaging unit captures a road and acquires an image of the road. The geometric conversion unit performs geometric conversion according to the installation position and orientation of the imaging unit for a plurality of gaze regions in the image where the vehicle traveling on the road is captured. A vehicle detection part detects the said vehicle from the image of the gaze area | region geometrically transformed by the said geometry conversion part.
以下、実施形態の車両検出装置、調整支援装置、車両検出方法及び調整方法を、図面を参照して説明する。
図1は、実施形態の車両検出システム1のシステム構成を示すシステム構成図である。
車両検出システム1は、調整支援装置2及び車両検出装置3を備える。
調整支援装置2は、車両検出装置3の設置又は調整の作業(以下、「調整作業」という。)を支援する装置である。例えば、調整支援装置2は、PCやスマートフォン等の端末装置を用いて構成される。調整支援装置2には、車両検出装置3の調整を行うためのアプリケーション(以下、「調整ツール」という。)がインストールされる。作業者は、調整ツールを操作することにより、設定情報や調整結果等の情報を確認することができる。調整支援装置2は、LAN(Local Area Network)等の通信インターフェースを備え、車両検出装置3の設置又は調整の際に、車両検出装置3に接続される。調整支援装置2は、車両検出装置3に直接接続されてもよいし、ネットワークを介して接続されてもよい。また、調整支援装置2の車両検出装置3への接続は、有線接続であってもよいし、無線接続であってもよい。
Hereinafter, a vehicle detection device, an adjustment support device, a vehicle detection method, and an adjustment method according to embodiments will be described with reference to the drawings.
FIG. 1 is a system configuration diagram illustrating a system configuration of a
The
The
車両検出装置3は、道路を走行する車両を検出する装置である。車両検出装置3は、道路上空の所定の位置に設置され、道路を撮像する。車両検出装置3は、撮像により取得した画像データから車両を検出する。車両検出装置3は、検出結果に基づいて、車両の通行状況を判断し、通過した車両を計数する。また、車両検出装置3は、検出された車両の画像からナンバーの読み取りを行う。車両検出装置3は、車両の検出有無や、それに基づいて取得される車両の通行状況や車両数、ナンバー等の情報を、他の装置やシステムに送信する。これらの情報をまとめて、検出情報と呼ぶ。図1の例の場合、車両検出装置3は、検出情報を上位システム4に通知する。
The
なお、車両検出装置3が上位システム4に送信する情報は検出情報に限定されない。車両検知装置3は、自装置に保持されるどのような情報を上位システム4に送信してもよい。例えば、車両検出装置3は、自装置の設定情報や、車両検出処理の過程で取得又は生成された情報などを上位システム4に送信してもよい。また、車両検出装置3は、調整支援装置2から取得される各種の情報を上位システム4に送信してもよい。また、車両検出装置3は、上位システム4から情報を取得してもよい。
In addition, the information which the
上位システム4は、車両検出システム1から検出情報を受信するシステムである。例えば、上位システム4は、交通状況をモニタリングするシステムであってもよいし、料金収受を自動化するETC(Electronic Toll Collection)システムであってもよい。
The
図2及び図3は、車両検出装置3の設置例を示す図である。
図2及び図3における符号5は、道路を走行する車両を表す。また、符号6は、車両検出装置3を道路上空に設置するために、道路脇に設けられた構造物である。車両検出装置3は、構造物6に備え付けられることによって、道路を上空から撮像する。図2は、車両検出装置3が、車両5の進行方向に対して逆方向に道路を撮像するように設置された例である。この場合、車両検出装置3は、車両の全面を撮像することになる。図3は、車両検出装置3が、車両5の進行方向に対して順方向に道路を撮像するように設置された例である。この場合、車両検出装置3は、車両の背面を撮像することになる。
2 and 3 are diagrams illustrating an installation example of the
図4、図5及び図6は、画像から車両の通過を判断する方法の一例を示す図である。
図4、図5及び図6は、特許文献1に開示された方法であるため、ここでは概要のみの説明に留める。図4において、画像101〜104は、道路を通過する車両が画像101〜104の順に時系列に撮像された画像である。符号105及び106は、画像101〜104を車両の進行方向の向きに3分割する境界線である。境界線105及び106によって、画像101〜104は、Area1、Area2及びArea3に分割される。画像101では、Area1及びArea2において車両が検出される。画像102及び画像103では、Area1、Area2及びArea3において車両が検出される。画像104では、Area3において車両が検出される。
4, 5 and 6 are diagrams illustrating an example of a method for determining the passage of a vehicle from an image.
4, 5, and 6 are methods disclosed in Japanese Patent Application Laid-Open No. H10-260260, and therefore only an overview is given here. In FIG. 4,
図5は、車両が通過するときのArea1、Area2及びArea3の状態の遷移を示す図である。画像111〜115は、それぞれ画像左からArea1、Area2及びArea3に分割されている。車両の進行方向は、紙面の右方向である。まず、画像111が撮像されたタイミングでは、検出対象の車両が存在しない。そして、画像112が撮像されたタイミングで、Area1に新規車両が検出される。検出された車両は進行方向に走行し、画像113が撮像されたタイミングで、Area1、Area2及びArea3に検出される。検出された車両はさらに走行し、画像114が撮像されたタイミングでは、Area3に検出される。そして、車両はArea3を完全に通過し、画像115が撮像されたタイミングでは、再び検出対象の車両が存在しない状態となる。画像111〜115に示される車両の検出状態をそれぞれ、S0、S1、S3、S2、S0と表す。
FIG. 5 is a diagram illustrating transition of the states of Area1, Area2, and Area3 when the vehicle passes. The
図6は、Area1を基準区間a、Area2を基準区間bとしたときの、各基準区間における車両検出の状態の遷移をON又はOFFで示した図である。ONは検出車両有りを示す状態であり、OFFは検出車両無しを示す状態である。車両が通過するとき、基準区間a(Area1)がONとなるのは、図5よりS1及びS3の状態である。また、同様に、基準区間b(Area2)がONとなるのは、S3及びS2の状態である。すなわち、基準区間a及び基準区間bのON又はOFFによって表される状態が、S0、S1、S3、S2、S0の順に変化したことを検出することによって、車両の通過を判断することができる。
FIG. 6 is a diagram showing vehicle detection state transitions in each reference section as ON or OFF when
上記の方法は、S0(車両なし)の状態を検出して車両の通過を判定するため、高い検出精度を得るためには車両を真上又は真横から撮像する必要がある。しかしながら、真上又は真横から車両を撮像した場合、ナンバープレートを撮像することは困難であり、車両を特定するためのナンバー情報を取得することができない。そのため、本実施形態の車両検出装置3は、図2及び図3で示されるように車両の前斜め上方又は後斜め上方から車両を撮像する。
In the above method, since the state of S0 (no vehicle) is detected to determine the passage of the vehicle, in order to obtain high detection accuracy, it is necessary to image the vehicle from directly above or next to it. However, when a vehicle is imaged from directly above or from the side, it is difficult to image a license plate, and it is not possible to acquire number information for identifying the vehicle. Therefore, the
図7、図8及び図9は、実施形態の車両検出装置3が車両の通過を判定する方法の概要を示す図である。
図7の画像200は、車両検出装置3によって撮像された道路の画像である。画像200において、符号201が示す領域が道路である。以下、画像において道路を示す領域を道路領域と呼ぶ。道路領域が示す道路とは、広い範囲での道路ではなく、車両が走行する1又は複数の車線を指す。画像200は、1車線の道路領域の例である。符号202及び203が示す領域は道路以外の領域(以下、「非道路領域」という。)である。道路領域201に示された矢印は車両の進行方向を示す。
7, 8, and 9 are diagrams illustrating an outline of a method in which the
An
図8は、車両検出装置3に設定される注視領域の具体例を示す図である。注視領域とは、車両検出装置3が車両検出に用いる画像の領域のことである。図8の画像200は、図7の画像200と同じ画像である。図8の例では、車両の進行方向の順に符号V1〜V5で示される注視領域が設定されている。各注視領域は、車両の進行方向及び道路面に直交し、道路の幅と同じ長さの幅を持つ平面で構成される。図8の例の場合、車両検出装置3は、車両前斜め上方から道路を撮像するため、注視領域の形状は長方形ではなく、図のような台形となる。
FIG. 8 is a diagram illustrating a specific example of a gaze area set in the
図9の画像210は、画像200に撮像された道路を車両が走行する様子が撮像された画像である。車両検出装置3は、注視領域V1〜V5の画像について画像処理を行って、各注視領域からナンバープレートを含む車両のフロント部分を検出する。図9の場合、注視領域V4において車両のフロント部分が検出される。車両検出装置3は、車両のフロント部分が検出される注視領域の遷移に基づいて車両の通過を判定する。具体的には、車両検出装置3は、まず注視領域V1で車両のフロント部分を検出する。車両検出装置3は、注視領域V1で車両を検出すると、検出された車両の追跡を開始する。車両検出装置3は、注視領域V1で車両を検出した後、注視領域V2、V3、V4及びV5の順に車両を検出したときに、車両が通過したことを判定する。
An
なお、車両検出装置3は、注視領域の画像から車両を検出する際、Hough変換等の手法により、検出された車両の特徴を取得してもよい。車両検出装置3は、ある注視領域において検出された車両が、その注視領域において前回検出された車両か否かを判定することによって、車両の通過の判定をより正確に行うことができる。車両検出装置3は、車両の幅や、高さ、ナンバープレートの位置などの情報を、車両の特徴として取得してもよい。車両検出装置3は、車両の追跡開始から、車両が通過するまでの間に、いずれかの注視領域において検出された車両の画像からナンバープレートを読み取って、車両のナンバー情報を取得する。
In addition, when detecting the vehicle from the image of the gaze area, the
なお、注視領域の画像上の大きさは、車両検出装置3から近い位置の注視領域ほど大きくなる。そのため、図9の例では、注視領域V1、V2、V3、V4及びV5の順に注視領域は大きくなっている。注視領域の大きさが大きいほど、その注視領域は多くの画素を含む。そのため、被写体はより鮮明に撮像される。逆に、注視領域の大きさが小さいほど、その注視領域に含まれる画素が少なくなる。そのため、被写体の鮮明さが低下する。一方、車両検出装置3に近い位置の注視領域では、車両はより真上又は真横に近い向きから撮像される。そのため、車両検出装置3に近い位置の注視領域では、車両は鮮明に撮像されるが、ナンバープレートの読み取りが難しくなる。このような理由により、ナンバープレートの読み取りは、車両検出装置3から遠すぎず、近すぎない中間位置の注視領域において行われるとよい。例えば、図9の例の場合、車両検出装置3は、注視領域V3又はV4の画像でナンバープレートの読み取りを行うとよい。
以下、上記方法で車両検出を行う車両検出装置3の詳細について説明する。
Note that the size of the gaze area on the image increases as the gaze area is located closer to the
Hereinafter, the details of the
図10は、車両検出装置3の機能構成を示す機能ブロック図である。
車両検出装置3は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、車両検出プログラムを実行する。車両検出装置3は、車両検出プログラムの実行によって通信部31、記憶部32、撮像部33、車両候補検出部34、注視領域補正部35、車両検出部36、車両状態判定部37、車両計数部38及び設定登録部39を備える装置として機能する。なお、車両検出装置3の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。車両検出プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。車両検出プログラムは、電気通信回線を介して送信されてもよい。
FIG. 10 is a functional block diagram showing a functional configuration of the
The
通信部31は、LAN等の通信インターフェースを用いて構成される。通信部31は、調整支援装置2と通信する。
記憶部32は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部32は、車両検出処理において用いられる、マッチング用のパターン画像(以下、「辞書データ」という。)を予め記憶する。
撮像部33は、カメラ等の撮像装置を用いて構成される。撮像部33は、所定の位置及び向きで道路を撮像し、画像データを生成する。撮像部33は、画像データを車両候補検出部34に出力する。
The
The
The
車両候補検出部34は、車両候補検出部34撮像部33から画像データを取得する。車両候補検出部34は、車両候補検出部34取得した画像データに画像処理を行って、画像に撮像された物体の特徴点を抽出する。車両候補検出部34は、連続する画像データにおける同一の特徴点から、特徴点が示す物体の速度を算出する。車両候補検出部34は、算出された速度に基づいて、車両候補となる物体を検出する。
注視領域補正部35(幾何学変換部)は、車両候補が検出された画像の注視領域について幾何学変換を行う。この幾何学変換は、被写体の画像上の長さの比を、実空間における長さの比に変換する処理である。
The vehicle
The gaze area correction unit 35 (geometric conversion unit) performs geometric conversion on the gaze area of the image in which the vehicle candidate is detected. This geometric conversion is a process of converting a length ratio on the image of the subject into a length ratio in real space.
図11は、幾何学変換の具体例を示す図である。
図11は、図9の注視領域V4に撮像された画像の幾何学変換を示している。注視領域V4’の画像は、注視領域V4の画像が幾何学変換された画像である。このように、注視領域補正部35は、台形状の注視領域V4を、矩形の注視領域V4’に幾何学変換することによって、距離の遠近により生じる被写体の画像上の大きさを補正する。この幾何学変換に用いられるパラメータ(以下、「幾何パラメータ」という。)は、すなわち注視領域V4が注視領域V4’に対してどれだけ傾いているかを示す角度であり、この角度は注視領域V4の設定情報から取得可能である。
FIG. 11 is a diagram illustrating a specific example of geometric transformation.
FIG. 11 shows geometric transformation of an image captured in the gaze region V4 of FIG. The image of the gaze region V4 ′ is an image obtained by geometrically converting the image of the gaze region V4. In this way, the gaze
図10の説明に戻る。
車両検出部36は、注視領域補正部35によって補正された注視領域の画像について、辞書データとのマッチング処理を行うことによって車両のフロント部分を検出する。辞書データには、車種や、車体の大きさ、車幅などの特徴に応じて複数の画像データが予め用意されている。車両検出部36は、検出結果を車両状態判定部37に出力する。また、車両検出部36は、車両が検出された注視領域の画像からナンバープレートを検出し、ナンバーを読み取る。
Returning to the description of FIG.
The
車両状態判定部37は、車両検出部36の検出結果に基づいて、車両の進行状況を判定する。車両状態判定部37は、車両が通過したことを判定した場合、車両計数部38及び上位システム4に車両の通過を通知する。
車両計数部38は、車両通過の通知に基づいて、通過車両を計数する。
設定登録部39は、調整支援装置2から送信される自装置の設定を記憶部32に保存する。
The vehicle
The
The setting
図12は、調整支援装置2の機能構成を示す機能ブロック図である。
調整支援装置2は、バスで接続されたCPUやメモリや補助記憶装置などを備え、調整支援プログラムを実行する。調整支援装置2は、調整支援プログラムの実行によって通信部21、表示部22、入力部23、記憶部24、情報取得部25、調整情報取得部26及び設定部27を備える装置として機能する。また、調整支援プログラムの実行によって、調整支援装置2は、作業者による調整ツールの使用を可能にする。なお、調整支援装置2の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。調整支援プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。調整支援プログラムは、電気通信回線を介して送信されてもよい。
FIG. 12 is a functional block diagram showing a functional configuration of the
The
通信部21は、LAN等の通信インターフェースを用いて構成される。通信部21は、車両検出装置3と通信する。
表示部22は、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置を用いて構成される。又は、表示部22は、これらの表示装置を自装置に接続するインターフェースとして構成されてもよい。表示部22は、作業者の操作に応じて調整作業に関する情報(以下、「調整情報」という。)を表示する。
The
The
入力部23は、マウスやキーボード、タッチパネル等の入力装置を用いて構成される。又は、入力部23は、これらの入力装置を自装置に接続するインターフェースとして構成されてもよい。入力部23は、作業者の操作を受け付け、操作の内容に応じて各機能部に入力情報を出力する。
The
記憶部24は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部24は、車両検出装置3の設定に関する情報や、車両検出装置3から取得された情報を記憶する。
The
情報取得部25は、車両検出装置3から、調整作業に必要となる情報を取得する。例えば、調整作業に必要となる情報には、車両の検出結果や検出位置などの車両検出装置3の動作に関する情報や、取得された画像データなどが含まれる。情報取得部25は、車両検出装置3から取得した情報を記憶部24に保存する。
The
調整情報取得部26は、記憶部24から各種情報を取得して、表示部22に表示させる調整情報を生成する。調整情報取得部26は、入力部23から取得する入力情報に応じた調整情報を生成する。調整情報取得部26は、生成した調整情報を表示部22に出力し、表示させる。
The adjustment
設定部27は、車両検出装置3の動作に関する各種設定を行う。具体的には、設定部27は、入力部23から入力情報を取得する。設定部27は、入力情報から各種設定の設定情報を取得する。設定情報には、設定の種別を示す情報と設定値とが含まれる。設定部27は、取得した設定情報を記憶部24に保存する。また、設定部27は、取得した設定情報を車両検出装置3に送信し、車両検出装置3に設定を反映させる。設定の種別には、設置設定、道路領域設定、画像特徴設定及び注視領域設定がある。設定部27は、各種別の設定を行う機能部として、設置情報設定部271、道路領域設定部272、画像特徴設定部273及び注視領域設定部274を備える。
The setting
設置情報設定部271は、画像検出装置3の設置設定を行う。設置設定は、画像検出装置3の設置位置や設置状態に関する設定である。具体的には、設置情報設定部271は、画像検出装置3の設置高や俯角、視野角などの設定を行う。また、設置情報設定部271は、緯度及び経度などの位置情報を設定するように構成されてもよい。
The installation
道路領域設定部272は、画像検出装置3の道路領域設定を行う。道路領域設定は、画像検出装置3によって撮像される画像において、道路が撮像される領域(以下、「道路領域」という。)の画像内の位置を登録する設定である。ここでいう道路とは、車両が走行する車線を意味する。この道路領域設定によって、画像は道路領域と道路以外の領域とに分類される。道路領域設定部272によって設定される道路領域は、注視領域設定に用いられる。道路領域の画像内の位置は、画像処理によって検出されてもよいし、作業者の入力によって指定されてもよい。本実施形態では、道路領域設定部272は、作業者の入力情報に基づいて道路領域の位置を取得する。例えば、作業者は、入力部23を操作して、車両検出装置3により撮像された画像を表示部22に表示させる。作業者は、表示された画像における道路領域の境界線を入力する。道路領域設定部272は、入力された境界線によって表される道路領域を多角形で近似する。
The road
例えば、画像検出装置3により撮像される画像が図7の画像200であった場合、作業者は、道路領域201と、非道路領域202及び203との境界線を入力する。画像200の例では、道路は直線に近い。この場合、道路領域設定部272は、入力された境界線を直線で近似することにより、道路領域201を5角形で近似する。
For example, when the image captured by the
図12の説明に戻る。
道路領域設定部272は、道路領域を識別すると、道路領域を複数の領域に分割する。具体的には、道路領域設定部272は、車両の進行方向と直交する直線で道路領域を分割する。
Returning to the description of FIG.
When the road area is identified, the road
図13は、道路領域の分割の例を示す図である。
図13は、図7の道路領域201が6つの領域に分割された例を示している。この場合、例えば作業者は、道路領域201と非道路領域202及び203との境界線上に、道路領域201を分割する点のサンプルを入力する。図13では、道路右側のサンプル点の例がR1、R2、・・・、で表されている。同様に道路左側のサンプル点の例がL1、L2、・・・、で表されている。道路右側のサンプル点の集合を{R}と記載する。道路左側のサンプル点の集合を{L}と記載する。道路領域設定部272は、2点を結ぶ直線が車両の進行方向と直交するように、集合{R}及び{L}からサンプル点を選択する。このように選択されたサンプル点の組を(Rn、Ln)(nは1以上の整数)と記載する。また、各サンプル点の組において、サンプル点を端点とする直線をRn−Lnと記載する。図13の例では、道路領域201を分割する直線として、R1−L1、R2−L2、R3−L3、R4−L4及びR5−L5が得られたことが示されている。
FIG. 13 is a diagram illustrating an example of dividing a road area.
FIG. 13 shows an example in which the
図12の説明に戻る。
画像特徴設定部273は、車両検出装置3の撮像視野内に存在する物体の特徴を設定する。例えば、画像特徴設定部273は、柱や街灯など定常的に撮像される物体の位置及び形状に関する情報を設定する。このように設定された特徴を、時系列に撮像される画像間で比較することによって、車両検出装置3の設置状況の変化を検知することが可能となる。
Returning to the description of FIG.
The image
注視領域設定部274は、車両検出装置3によって取得される画像について、車両の検出に用いられる領域(以下、「注視領域」という。)を設定する。具体的には、注視領域設定部274は、道路領域を分割する直線Rn−Lnを含み、道路面に直交する平面を注視領域に設定する。例えば、図13で得られた直線R1−L1、R2−L2、R3−L3、R4−L4及びR5−L5に基づいて設定された注視領域は、図8の注視領域V1〜V5となる。
The gaze
図8に示されるように注視領域の設定には、道路面からの高さが必要である。この高さは、長さが既知であるポール等を撮像し、この長さを基準として画像上の距離と比較することによって決定される。ここで、注視領域が示す実空間の領域の高さは、直線Rn−Ln上のいずれの点においても同じである。車両検出装置3は、このように設定された注視領域の画像について、予め保持するパターン画像とのマッチング処理を行うことによって車両を検出する。
As shown in FIG. 8, the height from the road surface is necessary for setting the gaze area. This height is determined by taking an image of a pole or the like whose length is known and comparing it with the distance on the image with this length as a reference. Here, the height of the real space region indicated by the gaze region is the same at any point on the straight line Rn-Ln. The
図14、図15及び図16は、注視領域の具体例を示す図である。
図14は、注視領域間の距離が車両の車体長より長い間隔で設定された例を示す図である。図14の画像300は、画像200に撮像された道路を2台の車両が近接して走行する様子が撮像された画像である。図14の例の場合、先行車両は注視領域V7において車両のフロント部分が検出される。また、後続車両は、注視領域V6において車両のフロント部分が検出される。このように、注視領域が複数設けられることによって、車両検出装置3は、複数の車両を同時に検出することが可能となる。しかしながら、注視領域を過度に多く設定してしまうと、車両の誤検出や性能劣化等の問題が発生する可能性がある。そのため、注視領域間の距離は車両の車体長と同程度、又はそれより長い間隔で設定されてもよい。
14, FIG. 15 and FIG. 16 are diagrams showing specific examples of the gaze area.
FIG. 14 is a diagram illustrating an example in which the distance between the gaze regions is set at an interval longer than the vehicle body length of the vehicle. An
また、撮像対象の道路が複数車線を有する場合、図15のように、車線毎に異なる注視領域が設定されてもよい。図15のように、車線毎に注視領域が設定されることによって、車両検出装置3は、1つの画像で複数の車線の車両を検出することが可能となる。ただし、複数の車線について注視領域を設定した場合、同一の車両が複数の注視領域に撮像される場合がある。例えば、車体の大きな車両が手前の車線を走行する場合、その車両は奥の車線の注視領域に撮像される可能性がある。そして、隣接する車線において、注視領域が重複するように設定されている場合には、この可能性はより高まる。例えば、図15の例の場合、符号401の注視領域に撮像された車両は、符号402の注視領域に撮像される可能性がある。すなわち、同じ車両が複数の注視領域で検出される可能性があり、このような領域はマッチング処理の精度を低下させる要因となりうる。そのため、注視領域設定部274は、同一車両が重複して撮像される注視領域内の領域にマスクを行って、当該領域をマッチング処理に使用される領域から除外してもよい。
When the imaging target road has a plurality of lanes, different gaze areas may be set for each lane as shown in FIG. As shown in FIG. 15, by setting a gaze area for each lane, the
また、車両の種類によっては、車両の特徴となる部分が注視領域に収まらない場合がある。そのため、車両検出装置3には複数の高さの注視領域が設定されてもよい。例えば、図16のように車高の高い車両においては、車両のフロント部分の一部が注視領域に収まらず、マッチング処理の精度が低下する可能性がある。また、夜間など、光量が少ない状況においては、画像中の物体はエッジ情報が大きく失われ、マッチング処理の精度が低下する可能性がある。このような、マッチング処理の精度の低下を抑制するために、より広い範囲の注視領域が設定されてもよい。例えば、図16の場合、注視領域501は、通常の注視領域を表す。この場合、注視領域は、より広い範囲の注視領域として注視領域502のように設定されてもよい。注視領域502は、注視領域501が車両の高さ方向に拡大されたものである。注視領域503は、注視領域501と注視領域502との差分の領域である。マッチング処理は、注視領域502に対して行われてもよいし、注視領域501及び503のそれぞれに対して行われてもよい。
In addition, depending on the type of vehicle, a portion that is a characteristic of the vehicle may not fit in the gaze area. Therefore, a plurality of height gaze areas may be set in the
以上、図2のように車両を前面から撮像する場合を例に注視領域を説明した。上記説明した注視領域は、車両を前面又は背面のいずれから撮像する場合に適用されてもよい。これに対して、車両を背面から撮像する場合に特に有効となる注視領域の設定について次に説明する。 The gaze area has been described above by taking as an example the case where the vehicle is imaged from the front as shown in FIG. The gaze area described above may be applied when the vehicle is imaged from either the front or the back. On the other hand, the setting of the gaze area that is particularly effective when the vehicle is imaged from the back side will be described below.
図17及び図18は、車両を背面から撮像する場合の注視領域の具体例を示す図である。
図17の符号601及び符号602は、車両検出装置3の撮像範囲を示す。図17において符号603が示す2台の車両は同一の車両を表している。位置Aの車両603は、紙面左方向に進行し位置Bに到達する。図17のように車両を背面から撮像する場合、車両検出装置3は車両前面のナンバープレートを撮像することはできない。そのため、この場合、車両検出装置3は、車両背面のナンバープレートを検出することになる。
17 and 18 are diagrams illustrating specific examples of the gaze area when the vehicle is imaged from the back.
図18の画像701及び702は、車両の進行を車両背面から撮像した画像である。この場合、車両検出装置3の向きと、車両の進行方向との関係は図3のようになる。画像702は、画像701が撮像された時刻より後の時刻で撮像された画像である。そのため、画像702において、画像701に撮像された車両は進行方向(紙面右上)に移動した位置に撮像されている。符号703〜705は、画像701及び702を撮像する車両検出装置3に設定された注視領域である。注視領域703〜705は、画像701及び702において同じ位置の領域を示す。画像701では、車両背面のナンバープレートは、注視領域704の位置に撮像されており、画像702では注視領域705の位置に撮像されている。
このように、車両を背面から撮像する場合、車両の種類や高さ、車両検出装置3の位置、向きによっては、注視領域703には、ナンバープレートが写らない場合がある。例えばトラックなどの車両は、注視領域703には、車両の荷台部分しか映らない可能性がある。この場合、車両検出装置3は、車両のナンバープレートが検出される可能性のない又は、検出されるとしても検出精度が低い注視領域に対してマッチング処理を行うことになり、車両検出装置3のシステムリソースが無駄に消費される。そのため、調整支援装置2は、このような注視領域をマッチング処理の対象外としてマスクする設定を、車両検出装置3に行ってもよい。
As described above, when the vehicle is imaged from the back side, the license plate may not appear in the
図19は、実施形態の車両検出装置3による車両検出処理の流れを示すフローチャートである。
まず、撮像部33が道路を撮像し、画像データを取得する(ステップS101)。撮像部33は、取得した画像データを車両候補検出部34に出力する。車両候補検出部34は、撮像部33から画像データを取得する。車両候補検出部34は、取得した画像データに前処理を行う(ステップS102)。前処理において、車両候補検出部34は、まずSobelフィルタ等によるフィルタ処理を行い、画像データからノイズを除去する。これは、夜間等、光量が少ない状況における撮像は、ノイズの影響を受けやすいためである。そして、車両候補検出部34は、ノイズが除去された画像から移動体の特徴点を抽出する。画像から移動体の特徴点を抽出する手法には、既存のどのような手法が用いられてもよい。
FIG. 19 is a flowchart illustrating a flow of a vehicle detection process performed by the
First, the
車両候補検出部34は、連続する画像データにおける同一の特徴点から移動ベクトルを算出する。車両候補検出部34は、複数の特徴点のそれぞれについて移動ベクトルを算出し、移動ベクトル群を算出する。車両候補検出部34は、各移動ベクトルの絶対値について、平均や分散等の統計値を算出する(ステップS103)。車両候補検出部34は、統計値を所定の閾値と比較することによって車両候補の有無を判定する(ステップS104)。車両候補検出部34は、統計値が所定の閾値以上である場合、車両候補有りと判定する。車両候補有りと判定された場合(ステップS104−YES)、車両候補が検出された位置とともに画像データを注視領域補正部35に出力する。一方、車両検出部36は、統計値が所定の閾値未満である場合、車両候補無しと判定する。車両候補無しと判定された場合(ステップS104−NO)、ステップS101に戻り、車両検出装置3は次の画像データについて車両候補の検出を行う。
The vehicle
注視領域補正部35は、車両候補有りと判定された画像の注視領域について幾何学変換を行う(ステップS105)。注視領域補正部35は、変換対象の注視領域を、車両候補が検出された画像の位置に基づいて判断する。注視領域補正部35は、調整支援装置2によって算出された幾何パラメータを用いて注視領域の画像を変換する。注視領域補正部35は、幾何学変換により補正された注視領域の画像を車両検出部36に出力する。
The gaze
車両検出部36は、補正後の注視領域の画像について、辞書データとのマッチング処理を行う(ステップS106)。このマッチング処理によって、注視領域の画像から車両を検出する。具体的には、車両検出部36は、注視領域の画像と辞書データの画像との相関を示すスコアを算出する。このとき、車両検出部36は、マッチングの精度を向上させるため、辞書データの画像について解像度及びサイズを変化させながらマッチング処理を行う。車両検出部36は、辞書データに含まれる複数の画像ごとに、かつ解像度及びサイズの変化ごとに、スコアを算出する。車両検出部36は、算出されたスコアを所定の閾値と比較することによって車両の有無を判定する(ステップS107)。車両検出部36は、スコアが所定の閾値以上である場合(ステップS107−YES)、車両有りと判定し、車両が検出された注視領域を車両状態判定部37に通知する。一方、車両検出部36は、スコアが所定の閾値未満である場合(ステップS107−NO)、車両無しと判定する。車両無しと判定された場合、ステップS101に戻り、車両検出装置3は次の画像データについて車両候補の検出を行う。
The
車両状態判定部37は、車両検出部36から車両が検出された注視領域の通知を受ける。車両状態判定部37は、通知された注視領域と、前回通知された注視領域とにより、車両の進行状況を判定する(ステップS108)。例えば、車両状態判定部37は、車両の進行状況を「進入」、「通過中」及び「退出」の3つの状態に判定する。車両状態判定部37は、「退出」を判定した場合、車両が通過したことを車両計数部38に通知する。車両検出部36は、車両が検出された注視領域の画像からナンバープレートを検出し、ナンバーを読み取る(ステップS109)。車両計数部38は、車両状態判定部37から車両が通過したことの通知を受けると、現在の車両数に1を加算する(ステップS110)。車両計数部38は、車両数の加算を行うと、新たな車両が通過したことを上位システム4に通知する。
The vehicle
このように構成された実施形態の車両検出システム1では、車両検出装置3は、車両検出処理において注視領域の補正を行う注視領域補正部35を備える。この注視領域補正部35を備えることにより、車両検出装置3は、注視領域の画像と辞書データの画像とのマッチング処理をより精度よく行うことが可能となる。その結果、車両検出装置3の車両検出の精度が向上する。
In the
また、実施形態の車両検出システム1では、車両検出装置3を設置又は調整する作業者は、調整支援装置2を用いて作業することにより、設置に関する情報を視覚的に確認することができる。そのため、車両検出装置3の設置又は調整の精度が向上し、車両検出装置3は、より精度良く車両を検出することが可能となる。
In the
以下、実施形態の調整支援装置2及び車両検出装置3の変形例について説明する。
車両検出装置3は、車両の種別ごとに設定された優先順位に基づいて、ナンバープレートの読み取りを行うように構成されてもよい。具体的には、車両検出装置3の記憶部32は、この優先順位を保持する優先順位テーブル321を記憶する。
Hereinafter, modified examples of the
The
図20は、優先順位テーブル321の具体例を示す図である。
優先順位テーブル321は、注視領域ごとに優先順位レコードを有する。優先順位レコードは、注視領域ID、解像度、補正角度及び車種1〜車種nの各値を有する。注視領域IDは、注視領域の識別情報である。解像度は、注視領域を構成する画素数を表す。すなわち、車両検出装置3に近い位置が撮像される注視領域ほど解像度は高くなる。補正角度は、注視領域に対して行われる幾何学補正の角度を表す。すなわち、車両検出装置3に近い位置が撮像される注視領域ほど補正角度は大きくなる。解像度及び補正角度は、注視量IDが示す注視領域の設定から取得される。
FIG. 20 is a diagram showing a specific example of the priority order table 321.
The priority order table 321 has a priority order record for each gaze area. The priority order record includes gaze area ID, resolution, correction angle, and
車種1〜n(nは1以上の整数)は、大きさや高さなどの車両の特徴によって分類される車両の種別を表す。この分類は、注視領域の画像にマッチしたパターン画像の種別によって分類することができる。車種1〜nの値には、各注視領域に設定された優先順位の値が登録される。
この注視領域ごとの優先順位は、車両検出装置3の検出結果に基づいて調整作業の作業者が判断する。この場合、車両検出装置3は、検出結果に関する情報を自装置の記憶部32に蓄積し、自装置の調整時に調整支援装置2に送信する。作業者は、調整支援装置2を用いて検出結果を確認し、ナンバープレートの読み取りに適した注視領域の優先順位を決定する。作業者は、決定した優先順位を車両検出装置3に設定する。
The priority for each gaze area is determined by the operator of the adjustment work based on the detection result of the
図21は、ナンバープレートの認識結果を確認するための画面の具体例を示す図である。
画面800は、調整支援装置2の表示部22に表示される。画面800は、例えば、画像表示領域801、ナンバー画像表示領域802及びナンバー情報表示領域803を備える。画像表示領域801は、ナンバープレートの読み取りが行われた画像が表示される領域である。ナンバー画像表示領域802は、画像表示領域801に表示された画像から検出されたナンバープレートの画像が表示される領域である。ナンバー情報表示領域803は、ナンバープレートから読み取られた情報が表示される領域である。作業者は、画面800を目視により確認し、検出結果を評価する。
FIG. 21 is a diagram illustrating a specific example of a screen for confirming the license plate recognition result.
The
このように、車両検出装置3の検出結果に基づいて決定された注視領域の優先順位が車両の種別ごとに設定されることによって、車両検出装置3は、より精度よくナンバープレートを認識することが可能となる。
Thus, the priority order of the gaze area determined based on the detection result of the
また、車両検出装置3は、車両の種別ごとに設定された位置情報に基づいて、ナンバープレートの読み取りを行うように構成されてもよい。具体的には、車両検出装置3の記憶部32は、この位置情報を保持する位置情報テーブル322を記憶する。
Further, the
図22は、位置情報テーブル322の具体例を示す図である。
位置情報テーブル322は、車種ごとに位置情報レコードを有する。位置情報レコードは、車種、開始位置情報、終了位置情報及び補正角度の各値を有する。車種は、大きさや高さなどの車両の特徴によって分類される車両の種別を表す。この分類は、注視領域の画像にマッチしたパターン画像の種別によって分類することができる。開始位置情報は、ナンバープレートの検出を行う領域の始点の位置を表す。終了位置情報は、ナンバープレートの検出を行う領域の終点の位置を表す。補正角度は、ナンバープレートの検出を行う領域の傾きを表す。開始位置情報、終了位置情報及び補正角度により、ナンバープレートの検出を行う領域の形状が定まる。
FIG. 22 is a diagram illustrating a specific example of the position information table 322.
The position information table 322 has a position information record for each vehicle type. A position information record has each value of a vehicle type, start position information, end position information, and a correction angle. The vehicle type represents the type of vehicle classified according to the vehicle characteristics such as size and height. This classification can be performed according to the type of pattern image that matches the image of the gaze area. The start position information represents the position of the start point of the area where the license plate is detected. The end position information represents the position of the end point of the area where the license plate is detected. The correction angle represents the inclination of the area where the license plate is detected. The shape of the area where the license plate is detected is determined by the start position information, the end position information, and the correction angle.
この車種ごとの位置情報は、車両検出装置3の検出結果に基づいて調整作業の作業者が判断する。作業者は、調整支援装置2を用いて検出結果を確認し、ナンバープレートが設置される可能性のある位置を決定する。作業者は、決定した車種ごとの位置情報を車両検出装置3に設定する。
The position information for each vehicle type is determined by the operator of the adjustment work based on the detection result of the
このように、車両検出装置3の検出結果に基づいて決定された位置情報が車両の種別ごとに設定されることによって、車両検出装置3は、通常とは異なる位置に設置されたナンバープレートを検出することが可能となる。
Thus, the position information determined based on the detection result of the
以上説明した少なくともひとつの実施形態によれば、注視領域の画像を補正する注視領域補正部及び車両検出装置の設置又は調整を支援する調整支援装置を持つことにより、車両検出システムにおける車両検出の精度を向上させることができる。 According to at least one of the embodiments described above, the accuracy of vehicle detection in the vehicle detection system includes the gaze area correction unit that corrects the image of the gaze area and the adjustment support apparatus that supports the installation or adjustment of the vehicle detection apparatus. Can be improved.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1…車両検出システム,2…調整支援装置,21…通信部,22…表示部,23…入力部,24…記憶部,25…情報取得部,26…調整情報取得部,27…設定部,271…設置情報設定部,272…道路領域設定部,273…画像特徴設定部,274…注視領域設定部,3…車両検出装置,31…通信部,32…記憶部,321…優先順位テーブル,322…位置情報テーブル,33…撮像部,34…車両候補検出部,35…注視領域補正部,36…車両検出部,37…車両状態判定部,38…車両計数部,4…上位システム,5…車両,6…構造物,200…画像,201…道路領域,202、203…非道路領域,300…画像,400…画像,401、402…注視領域,501〜503…注視領域,601、602…撮像範囲,603…車両,701、702…画像,703〜705…注視領域,800…画面,801…画像表示領域,802…ナンバー画像表示領域,803…ナンバー情報表示領域,V1〜V7…注視領域
DESCRIPTION OF
Claims (13)
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う幾何学変換部と、
前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する車両検出部と、
を備える車両検出装置。 An imaging unit that captures a road and obtains an image of the road;
For a plurality of gaze regions in the image where the vehicle traveling on the road is imaged, a geometric conversion unit that performs geometric conversion according to the installation position and orientation of the imaging unit;
A vehicle detection unit for detecting the vehicle from an image of a gaze area geometrically transformed by the geometry transformation unit;
A vehicle detection device comprising:
複数の注視領域における前記車両の検出結果の遷移に基づいて、前記車両の前記道路の通過を判断する状態判定部と、
前記判断に基づいて、前記道路を通過した車両を計数する計数部と、をさらに備える、
請求項1に記載の車両検出装置。 The vehicle detection unit detects a front portion of the vehicle including a license plate from the image of the gaze area,
A state determination unit that determines the passage of the vehicle on the road based on the transition of the detection result of the vehicle in a plurality of gaze regions;
A counting unit that counts vehicles that have passed through the road based on the determination; and
The vehicle detection device according to claim 1.
請求項1又は請求項2のいずれか一項に記載の車両検出装置。 The vehicle detection unit reads the number of the vehicle from the image of the gaze area where the vehicle is detected.
The vehicle detection device according to any one of claims 1 and 2.
請求項3に記載の車両検出装置。 The vehicle detection unit selects a gaze area from which the number of the detected vehicle is read based on the relationship between the priority order of the gaze area set in advance and the vehicle type.
The vehicle detection device according to claim 3.
請求項3に記載の車両検出装置。 When the vehicle detection unit cannot read the number from the image of the gaze area in which the vehicle is detected, the vehicle detection unit reads the number from the region at a predetermined position in the preset image.
The vehicle detection device according to claim 3.
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う、幾何学変換部と、
前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する車両検出部と、
を備え、前記車両検出装置の設定を行う調整支援装置であって、
前記車両検出装置の設置に関する情報を設定する設置情報設定部と、
前記画像において撮像された前記道路が位置する領域を設定する道路領域設定部と、
前記画像に定常的に撮像される被写体の位置及び形状に関する情報を設定する特徴設定部と、
前記注視領域を設定する注視領域設定部と、
を備える調整支援装置。 An imaging unit that captures a road and obtains an image of the road;
A geometric conversion unit that performs geometric conversion according to an installation position and orientation of the imaging unit for a plurality of gaze regions in the image in which a vehicle traveling on the road is captured;
A vehicle detection unit for detecting the vehicle from an image of a gaze area geometrically transformed by the geometry transformation unit;
An adjustment support device for setting the vehicle detection device,
An installation information setting unit for setting information regarding the installation of the vehicle detection device;
A road area setting unit for setting an area where the road imaged in the image is located;
A feature setting unit for setting information on the position and shape of a subject that is constantly imaged in the image;
A gaze area setting unit for setting the gaze area;
An adjustment support apparatus comprising:
請求項6に記載の調整支援装置。 The gaze area setting unit sets a plurality of gaze areas at intervals equal to or longer than the vehicle body length of the vehicle based on the area where the captured road is located.
The adjustment support device according to claim 6.
前記注視領域設定部は、車線ごとの注視領域を設定し、同一車両が重複して撮像される可能性がある注視領域内の領域をマスクし、1の車線の注視領域からマスクされた領域を除外する、
請求項7に記載の調整支援装置。 The road area setting unit sets a position for each lane for a road composed of a plurality of lanes,
The gaze area setting unit sets a gaze area for each lane, masks an area in the gaze area where the same vehicle may be imaged in duplicate, and masks an area masked from the gaze area of one lane exclude,
The adjustment support device according to claim 7.
請求項8に記載の調整支援装置。 The gaze area setting unit sets the gaze area where the license plate is not likely to be imaged and the vehicle type where the license plate is not likely to be imaged in the gaze area,
The adjustment support device according to claim 8.
請求項9に記載の調整支援装置。 The gaze area setting unit sets priority of gaze areas determined for each vehicle type based on a detection result in the vehicle detection device;
The adjustment support device according to claim 9.
請求項10に記載の調整支援装置。 The gaze area setting unit sets position information of a gaze area determined for each vehicle type based on a detection result in the vehicle detection device;
The adjustment support device according to claim 10.
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記画像を取得する撮像部の設置位置及び向きに応じた幾何学変換を行う、幾何学変換ステップと、
前記幾何学変換ステップにおいて幾何学変換された注視領域の画像から前記車両を検出する車両検出ステップと、
を有する車両検出方法。 An imaging step of capturing a road and obtaining an image of the road;
A geometric conversion step for performing a geometric conversion according to an installation position and orientation of an imaging unit that acquires the image for a plurality of gaze regions in the image in which a vehicle traveling on the road is captured;
A vehicle detection step of detecting the vehicle from an image of the gaze area that has been geometrically transformed in the geometric transformation step;
A vehicle detection method comprising:
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う、幾何学変換部と、
前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する車両検出部と、
を備える車両検出装置と通信し、前記車両検出装置の設定を行う調整支援装置が行う調整方法であって、
前記車両検出装置の設置に関する情報を設定する設置情報設定ステップと、
前記画像において撮像された前記道路が位置する領域を設定する道路領域設定ステップと、
前記画像に定常的に撮像される被写体の位置及び形状に関する情報を設定する特徴設定ステップと、
前記注視領域を設定する注視領域設定ステップと、
を有する調整方法。 An imaging unit that captures a road and obtains an image of the road;
A geometric conversion unit that performs geometric conversion according to an installation position and orientation of the imaging unit for a plurality of gaze regions in the image in which a vehicle traveling on the road is captured;
A vehicle detection unit for detecting the vehicle from an image of a gaze area geometrically transformed by the geometry transformation unit;
An adjustment method performed by an adjustment support device that communicates with a vehicle detection device including the setting of the vehicle detection device,
An installation information setting step for setting information regarding the installation of the vehicle detection device;
A road area setting step for setting an area where the road imaged in the image is located;
A feature setting step for setting information on the position and shape of a subject that is regularly imaged in the image;
A gaze area setting step for setting the gaze area;
An adjustment method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014190594A JP6316154B2 (en) | 2014-09-18 | 2014-09-18 | Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014190594A JP6316154B2 (en) | 2014-09-18 | 2014-09-18 | Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016062369A true JP2016062369A (en) | 2016-04-25 |
JP6316154B2 JP6316154B2 (en) | 2018-04-25 |
Family
ID=55796059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014190594A Active JP6316154B2 (en) | 2014-09-18 | 2014-09-18 | Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6316154B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026019A (en) * | 2016-08-10 | 2018-02-15 | 日本信号株式会社 | Vehicle recognition device |
CN107844796A (en) * | 2016-09-20 | 2018-03-27 | 福特全球技术公司 | The detecting system and method for ice and snow |
JP2021002192A (en) * | 2019-06-21 | 2021-01-07 | 三菱重工機械システム株式会社 | License plate recognition device, compression method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5651075A (en) * | 1993-12-01 | 1997-07-22 | Hughes Missile Systems Company | Automated license plate locator and reader including perspective distortion correction |
JPH1186185A (en) * | 1997-09-03 | 1999-03-30 | Mitsubishi Heavy Ind Ltd | Vehicle-type discriminating device |
JP2010218438A (en) * | 2009-03-18 | 2010-09-30 | Fujitsu Ltd | Vehicle recognition device and program |
JP2012063869A (en) * | 2010-09-14 | 2012-03-29 | Nippon Signal Co Ltd:The | License plate reader |
JP2013089031A (en) * | 2011-10-18 | 2013-05-13 | Sumitomo Electric Ind Ltd | Number plate detector, computer program, and number plate detection method |
-
2014
- 2014-09-18 JP JP2014190594A patent/JP6316154B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5651075A (en) * | 1993-12-01 | 1997-07-22 | Hughes Missile Systems Company | Automated license plate locator and reader including perspective distortion correction |
JPH1186185A (en) * | 1997-09-03 | 1999-03-30 | Mitsubishi Heavy Ind Ltd | Vehicle-type discriminating device |
JP2010218438A (en) * | 2009-03-18 | 2010-09-30 | Fujitsu Ltd | Vehicle recognition device and program |
JP2012063869A (en) * | 2010-09-14 | 2012-03-29 | Nippon Signal Co Ltd:The | License plate reader |
JP2013089031A (en) * | 2011-10-18 | 2013-05-13 | Sumitomo Electric Ind Ltd | Number plate detector, computer program, and number plate detection method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026019A (en) * | 2016-08-10 | 2018-02-15 | 日本信号株式会社 | Vehicle recognition device |
CN107844796A (en) * | 2016-09-20 | 2018-03-27 | 福特全球技术公司 | The detecting system and method for ice and snow |
CN107844796B (en) * | 2016-09-20 | 2023-07-21 | 福特全球技术公司 | Ice and snow detection system and method |
JP2021002192A (en) * | 2019-06-21 | 2021-01-07 | 三菱重工機械システム株式会社 | License plate recognition device, compression method, and program |
JP7329981B2 (en) | 2019-06-21 | 2023-08-21 | 三菱重工機械システム株式会社 | License plate recognition device, compression method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6316154B2 (en) | 2018-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970566B2 (en) | Lane line detection method and apparatus | |
US9846823B2 (en) | Traffic lane boundary line extraction apparatus and method of extracting traffic lane boundary line | |
US10943131B2 (en) | Image based lane marking classification | |
JP6395759B2 (en) | Lane detection | |
US8902053B2 (en) | Method and system for lane departure warning | |
US8184859B2 (en) | Road marking recognition apparatus and method | |
JP4725391B2 (en) | Visibility measuring device for vehicle and driving support device | |
US20080013789A1 (en) | Apparatus and System for Recognizing Environment Surrounding Vehicle | |
JP6818626B2 (en) | Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system | |
JP2015064752A (en) | Vehicle monitoring device and vehicle monitoring method | |
JP6316154B2 (en) | Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method | |
KR101178508B1 (en) | Vehicle Collision Alarm System and Method | |
JP2018055597A (en) | Vehicle type discrimination device and vehicle type discrimination method | |
JP5062091B2 (en) | Moving object identification device, computer program, and optical axis direction specifying method | |
EP3905115A1 (en) | Road shape determination method and road shape determination program | |
KR20090083184A (en) | Method for dectecting front and rear vehicle by using image | |
CN108491795B (en) | Pedestrian detection method and device for rail transit scene | |
JP2012185555A (en) | Object detecting device and method, and program | |
JP2020095628A (en) | Image processing device and image processing method | |
JP4172236B2 (en) | Facial image processing apparatus and program | |
KR20150002039A (en) | Real-Time Lane Detection Method Using Black Box Video | |
CN109886120B (en) | Zebra crossing detection method and system | |
JP6226371B2 (en) | DSRC communication abnormality monitoring apparatus and DSRC communication abnormality monitoring program | |
JP2014010765A (en) | Mobile object detector, image type sensor, and computer program | |
JP2020095620A (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170228 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170911 Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6316154 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |