JP2016062369A - Vehicle detection system, adjustment support device, vehicle detection method and adjustment method - Google Patents

Vehicle detection system, adjustment support device, vehicle detection method and adjustment method Download PDF

Info

Publication number
JP2016062369A
JP2016062369A JP2014190594A JP2014190594A JP2016062369A JP 2016062369 A JP2016062369 A JP 2016062369A JP 2014190594 A JP2014190594 A JP 2014190594A JP 2014190594 A JP2014190594 A JP 2014190594A JP 2016062369 A JP2016062369 A JP 2016062369A
Authority
JP
Japan
Prior art keywords
vehicle
image
road
unit
vehicle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014190594A
Other languages
Japanese (ja)
Other versions
JP6316154B2 (en
Inventor
青木 泰浩
Yasuhiro Aoki
泰浩 青木
佐藤 俊雄
Toshio Sato
俊雄 佐藤
雄介 高橋
Yusuke Takahashi
雄介 高橋
昌弘 山本
Masahiro Yamamoto
昌弘 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014190594A priority Critical patent/JP6316154B2/en
Publication of JP2016062369A publication Critical patent/JP2016062369A/en
Application granted granted Critical
Publication of JP6316154B2 publication Critical patent/JP6316154B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle detection system, an adjustment support device, a vehicle detection method and an adjustment method capable of precisely detecting vehicles from images.SOLUTION: The vehicle detection system includes: an imaging unit; a geometrical conversion part; and a vehicle detection part. The imaging unit acquires images of a road by taking images of the road. The geometrical conversion part performs a geometry conversion based on the installation position and the direction of the imaging unit with respect to plural focusing areas in the images in which images of vehicles travelling on the road are taken. The vehicle detection part detects the vehicles from the images in the focusing areas after the geometry conversion by the geometrical conversion part.SELECTED DRAWING: Figure 10

Description

本発明の実施形態は、車両検出装置、調整支援装置、車両検出方法及び調整方法に関する。   Embodiments described herein relate generally to a vehicle detection device, an adjustment support device, a vehicle detection method, and an adjustment method.

従来、カメラ等の撮像装置を用いて道路を撮像し、取得された画像から撮像された道路を走行する車両を検出することが行われている。この車両の検出により、通行車両の計数や、通行車両のナンバー情報の取得が行われている。このような画像から車両を検出する手法の1つにパターンマッチングがある。取得された画像と、パターン画像とのマッチングを行うことにより精度の高い車両の検出が可能である。
しかしながら、パターンマッチングにより車両検出を行う場合、検出精度は、画像に撮像された検出対象の対称性や歪み等によって大きく左右される。そのため、撮像装置の設置位置や設置角度によっては、マッチングの精度が大きく低下する場合があった。
Conventionally, an image of a road is picked up using an image pickup device such as a camera, and a vehicle traveling on the picked up image is detected from an acquired image. By detecting this vehicle, counting of passing vehicles and acquisition of number information of passing vehicles are performed. One method for detecting a vehicle from such an image is pattern matching. It is possible to detect the vehicle with high accuracy by matching the acquired image with the pattern image.
However, when vehicle detection is performed by pattern matching, the detection accuracy greatly depends on the symmetry and distortion of the detection target captured in the image. Therefore, depending on the installation position and the installation angle of the imaging device, the matching accuracy may be greatly reduced.

特開2013−117768号公報JP2013-117768A 特開2010−218438号公報JP 2010-218438 A 特開2012−3708号公報JP 2012-3708 A

本発明が解決しようとする課題は、より精度良く画像から車両を検出することができる車両検出装置、調整支援装置、車両検出方法及び調整方法を提供することである。   The problem to be solved by the present invention is to provide a vehicle detection device, an adjustment support device, a vehicle detection method, and an adjustment method that can detect a vehicle from an image with higher accuracy.

実施形態の車両検出装置は、撮像部と、幾何学変換部と、車両検出部と、を持つ。撮像部は、道路を撮像して前記道路の画像を取得する。幾何学変換部は、前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う。車両検出部は、前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する。   The vehicle detection device according to the embodiment includes an imaging unit, a geometric conversion unit, and a vehicle detection unit. The imaging unit captures a road and acquires an image of the road. The geometric conversion unit performs geometric conversion according to the installation position and orientation of the imaging unit for a plurality of gaze regions in the image where the vehicle traveling on the road is captured. A vehicle detection part detects the said vehicle from the image of the gaze area | region geometrically transformed by the said geometry conversion part.

実施形態の車両検出システム1のシステム構成を示すシステム構成図。The system configuration figure showing the system configuration of vehicle detection system 1 of an embodiment. 車両検出装置3の設置例を示す図。The figure which shows the example of installation of the vehicle detection apparatus 3. FIG. 車両検出装置3の設置例を示す図。The figure which shows the example of installation of the vehicle detection apparatus 3. FIG. 画像から車両の通過を判断する方法の一例を示す図。The figure which shows an example of the method of judging passage of a vehicle from an image. 画像から車両の通過を判断する方法の一例を示す図。The figure which shows an example of the method of judging passage of a vehicle from an image. 画像から車両の通過を判断する方法の一例を示す図。The figure which shows an example of the method of judging passage of a vehicle from an image. 実施形態の車両検出装置3が車両の通過を判定する方法の概要を示す図。The figure which shows the outline | summary of the method by which the vehicle detection apparatus 3 of embodiment determines the passage of a vehicle. 実施形態の車両検出装置3が車両の通過を判定する方法の概要を示す図。The figure which shows the outline | summary of the method by which the vehicle detection apparatus 3 of embodiment determines the passage of a vehicle. 実施形態の車両検出装置3が車両の通過を判定する方法の概要を示す図。The figure which shows the outline | summary of the method by which the vehicle detection apparatus 3 of embodiment determines the passage of a vehicle. 車両検出装置3の機能構成を示す機能ブロック図。FIG. 3 is a functional block diagram showing a functional configuration of the vehicle detection device 3. 幾何学変換の具体例を示す図。The figure which shows the specific example of geometric transformation. 調整支援装置2の機能構成を示す機能ブロック図。FIG. 3 is a functional block diagram showing a functional configuration of the adjustment support apparatus 2. 道路領域の分割の例を示す図。The figure which shows the example of the division | segmentation of a road area. 注視領域の具体例を示す図。The figure which shows the specific example of a gaze area | region. 注視領域の具体例を示す図。The figure which shows the specific example of a gaze area | region. 注視領域の具体例を示す図。The figure which shows the specific example of a gaze area | region. 車両を背面から撮像する場合の注視領域の具体例を示す図。The figure which shows the specific example of the gaze area | region in the case of imaging a vehicle from the back. 車両を背面から撮像する場合の注視領域の具体例を示す図。The figure which shows the specific example of the gaze area | region in the case of imaging a vehicle from the back. 実施形態の車両検出装置3による車両検出処理の流れを示すフローチャート。The flowchart which shows the flow of the vehicle detection process by the vehicle detection apparatus 3 of embodiment. 優先順位テーブル321の具体例を示す図。The figure which shows the specific example of the priority table 321. FIG. ナンバープレートの認識結果を確認するための画面の具体例を示す図。The figure which shows the specific example of the screen for confirming the recognition result of a license plate. 位置情報テーブル322の具体例を示す図。The figure which shows the specific example of the position information table 322.

以下、実施形態の車両検出装置、調整支援装置、車両検出方法及び調整方法を、図面を参照して説明する。
図1は、実施形態の車両検出システム1のシステム構成を示すシステム構成図である。
車両検出システム1は、調整支援装置2及び車両検出装置3を備える。
調整支援装置2は、車両検出装置3の設置又は調整の作業(以下、「調整作業」という。)を支援する装置である。例えば、調整支援装置2は、PCやスマートフォン等の端末装置を用いて構成される。調整支援装置2には、車両検出装置3の調整を行うためのアプリケーション(以下、「調整ツール」という。)がインストールされる。作業者は、調整ツールを操作することにより、設定情報や調整結果等の情報を確認することができる。調整支援装置2は、LAN(Local Area Network)等の通信インターフェースを備え、車両検出装置3の設置又は調整の際に、車両検出装置3に接続される。調整支援装置2は、車両検出装置3に直接接続されてもよいし、ネットワークを介して接続されてもよい。また、調整支援装置2の車両検出装置3への接続は、有線接続であってもよいし、無線接続であってもよい。
Hereinafter, a vehicle detection device, an adjustment support device, a vehicle detection method, and an adjustment method according to embodiments will be described with reference to the drawings.
FIG. 1 is a system configuration diagram illustrating a system configuration of a vehicle detection system 1 according to the embodiment.
The vehicle detection system 1 includes an adjustment support device 2 and a vehicle detection device 3.
The adjustment support device 2 is a device that supports installation or adjustment work (hereinafter referred to as “adjustment work”) of the vehicle detection device 3. For example, the adjustment support device 2 is configured using a terminal device such as a PC or a smartphone. An application (hereinafter referred to as “adjustment tool”) for adjusting the vehicle detection device 3 is installed in the adjustment support device 2. The operator can confirm information such as setting information and adjustment results by operating the adjustment tool. The adjustment support device 2 includes a communication interface such as a LAN (Local Area Network) and is connected to the vehicle detection device 3 when the vehicle detection device 3 is installed or adjusted. The adjustment support device 2 may be directly connected to the vehicle detection device 3 or may be connected via a network. Further, the connection of the adjustment support device 2 to the vehicle detection device 3 may be a wired connection or a wireless connection.

車両検出装置3は、道路を走行する車両を検出する装置である。車両検出装置3は、道路上空の所定の位置に設置され、道路を撮像する。車両検出装置3は、撮像により取得した画像データから車両を検出する。車両検出装置3は、検出結果に基づいて、車両の通行状況を判断し、通過した車両を計数する。また、車両検出装置3は、検出された車両の画像からナンバーの読み取りを行う。車両検出装置3は、車両の検出有無や、それに基づいて取得される車両の通行状況や車両数、ナンバー等の情報を、他の装置やシステムに送信する。これらの情報をまとめて、検出情報と呼ぶ。図1の例の場合、車両検出装置3は、検出情報を上位システム4に通知する。   The vehicle detection device 3 is a device that detects a vehicle traveling on a road. The vehicle detection device 3 is installed at a predetermined position above the road and images the road. The vehicle detection device 3 detects a vehicle from image data acquired by imaging. The vehicle detection device 3 determines the traffic situation of the vehicle based on the detection result, and counts the vehicles that have passed. The vehicle detection device 3 reads the number from the detected vehicle image. The vehicle detection device 3 transmits information such as the presence / absence of vehicle detection, the traffic status of the vehicle, the number of vehicles, and the number acquired based on the detection to other devices and systems. These pieces of information are collectively referred to as detection information. In the case of the example in FIG. 1, the vehicle detection device 3 notifies the detection information to the host system 4.

なお、車両検出装置3が上位システム4に送信する情報は検出情報に限定されない。車両検知装置3は、自装置に保持されるどのような情報を上位システム4に送信してもよい。例えば、車両検出装置3は、自装置の設定情報や、車両検出処理の過程で取得又は生成された情報などを上位システム4に送信してもよい。また、車両検出装置3は、調整支援装置2から取得される各種の情報を上位システム4に送信してもよい。また、車両検出装置3は、上位システム4から情報を取得してもよい。   In addition, the information which the vehicle detection apparatus 3 transmits to the high-order system 4 is not limited to detection information. The vehicle detection device 3 may transmit any information held by the own device to the host system 4. For example, the vehicle detection device 3 may transmit the setting information of the own device, information acquired or generated in the course of the vehicle detection process, and the like to the upper system 4. Further, the vehicle detection device 3 may transmit various types of information acquired from the adjustment support device 2 to the host system 4. The vehicle detection device 3 may acquire information from the host system 4.

上位システム4は、車両検出システム1から検出情報を受信するシステムである。例えば、上位システム4は、交通状況をモニタリングするシステムであってもよいし、料金収受を自動化するETC(Electronic Toll Collection)システムであってもよい。   The host system 4 is a system that receives detection information from the vehicle detection system 1. For example, the host system 4 may be a system that monitors traffic conditions or an ETC (Electronic Toll Collection) system that automates toll collection.

図2及び図3は、車両検出装置3の設置例を示す図である。
図2及び図3における符号5は、道路を走行する車両を表す。また、符号6は、車両検出装置3を道路上空に設置するために、道路脇に設けられた構造物である。車両検出装置3は、構造物6に備え付けられることによって、道路を上空から撮像する。図2は、車両検出装置3が、車両5の進行方向に対して逆方向に道路を撮像するように設置された例である。この場合、車両検出装置3は、車両の全面を撮像することになる。図3は、車両検出装置3が、車両5の進行方向に対して順方向に道路を撮像するように設置された例である。この場合、車両検出装置3は、車両の背面を撮像することになる。
2 and 3 are diagrams illustrating an installation example of the vehicle detection device 3.
Reference numeral 5 in FIGS. 2 and 3 represents a vehicle traveling on the road. Reference numeral 6 denotes a structure provided on the side of the road in order to install the vehicle detection device 3 over the road. The vehicle detection device 3 is mounted on the structure 6 to image the road from the sky. FIG. 2 is an example in which the vehicle detection device 3 is installed so as to image a road in a direction opposite to the traveling direction of the vehicle 5. In this case, the vehicle detection device 3 images the entire surface of the vehicle. FIG. 3 is an example in which the vehicle detection device 3 is installed so as to image a road in the forward direction with respect to the traveling direction of the vehicle 5. In this case, the vehicle detection device 3 images the back surface of the vehicle.

図4、図5及び図6は、画像から車両の通過を判断する方法の一例を示す図である。
図4、図5及び図6は、特許文献1に開示された方法であるため、ここでは概要のみの説明に留める。図4において、画像101〜104は、道路を通過する車両が画像101〜104の順に時系列に撮像された画像である。符号105及び106は、画像101〜104を車両の進行方向の向きに3分割する境界線である。境界線105及び106によって、画像101〜104は、Area1、Area2及びArea3に分割される。画像101では、Area1及びArea2において車両が検出される。画像102及び画像103では、Area1、Area2及びArea3において車両が検出される。画像104では、Area3において車両が検出される。
4, 5 and 6 are diagrams illustrating an example of a method for determining the passage of a vehicle from an image.
4, 5, and 6 are methods disclosed in Japanese Patent Application Laid-Open No. H10-260260, and therefore only an overview is given here. In FIG. 4, images 101 to 104 are images in which vehicles passing through a road are captured in time series in the order of images 101 to 104. Reference numerals 105 and 106 are boundary lines that divide the images 101 to 104 into three in the direction of the traveling direction of the vehicle. The images 101 to 104 are divided into Area1, Area2, and Area3 by the boundary lines 105 and 106. In the image 101, vehicles are detected in Area1 and Area2. In the image 102 and the image 103, the vehicle is detected in Area1, Area2, and Area3. In the image 104, a vehicle is detected in Area3.

図5は、車両が通過するときのArea1、Area2及びArea3の状態の遷移を示す図である。画像111〜115は、それぞれ画像左からArea1、Area2及びArea3に分割されている。車両の進行方向は、紙面の右方向である。まず、画像111が撮像されたタイミングでは、検出対象の車両が存在しない。そして、画像112が撮像されたタイミングで、Area1に新規車両が検出される。検出された車両は進行方向に走行し、画像113が撮像されたタイミングで、Area1、Area2及びArea3に検出される。検出された車両はさらに走行し、画像114が撮像されたタイミングでは、Area3に検出される。そして、車両はArea3を完全に通過し、画像115が撮像されたタイミングでは、再び検出対象の車両が存在しない状態となる。画像111〜115に示される車両の検出状態をそれぞれ、S0、S1、S3、S2、S0と表す。   FIG. 5 is a diagram illustrating transition of the states of Area1, Area2, and Area3 when the vehicle passes. The images 111 to 115 are divided into Area1, Area2, and Area3 from the left of the image, respectively. The traveling direction of the vehicle is the right direction of the page. First, there is no vehicle to be detected at the timing when the image 111 is captured. Then, at the timing when the image 112 is captured, a new vehicle is detected in Area1. The detected vehicle travels in the traveling direction, and is detected by Area1, Area2, and Area3 at the timing when the image 113 is captured. The detected vehicle further travels and is detected by Area 3 at the timing when the image 114 is captured. Then, the vehicle completely passes through Area3, and at the timing when the image 115 is captured, the vehicle to be detected does not exist again. The vehicle detection states shown in the images 111 to 115 are represented as S0, S1, S3, S2, and S0, respectively.

図6は、Area1を基準区間a、Area2を基準区間bとしたときの、各基準区間における車両検出の状態の遷移をON又はOFFで示した図である。ONは検出車両有りを示す状態であり、OFFは検出車両無しを示す状態である。車両が通過するとき、基準区間a(Area1)がONとなるのは、図5よりS1及びS3の状態である。また、同様に、基準区間b(Area2)がONとなるのは、S3及びS2の状態である。すなわち、基準区間a及び基準区間bのON又はOFFによって表される状態が、S0、S1、S3、S2、S0の順に変化したことを検出することによって、車両の通過を判断することができる。   FIG. 6 is a diagram showing vehicle detection state transitions in each reference section as ON or OFF when Area 1 is the reference section a and Area 2 is the reference section b. ON is a state indicating that there is a detected vehicle, and OFF is a state indicating that there is no detected vehicle. When the vehicle passes, the reference section a (Area 1) is turned on in the states S1 and S3 from FIG. Similarly, the reference section b (Area 2) is turned on in the states of S3 and S2. In other words, the passage of the vehicle can be determined by detecting that the state represented by ON or OFF of the reference section a and the reference section b has changed in the order of S0, S1, S3, S2, and S0.

上記の方法は、S0(車両なし)の状態を検出して車両の通過を判定するため、高い検出精度を得るためには車両を真上又は真横から撮像する必要がある。しかしながら、真上又は真横から車両を撮像した場合、ナンバープレートを撮像することは困難であり、車両を特定するためのナンバー情報を取得することができない。そのため、本実施形態の車両検出装置3は、図2及び図3で示されるように車両の前斜め上方又は後斜め上方から車両を撮像する。   In the above method, since the state of S0 (no vehicle) is detected to determine the passage of the vehicle, in order to obtain high detection accuracy, it is necessary to image the vehicle from directly above or next to it. However, when a vehicle is imaged from directly above or from the side, it is difficult to image a license plate, and it is not possible to acquire number information for identifying the vehicle. Therefore, the vehicle detection device 3 according to the present embodiment images the vehicle from the front diagonally upper side or the rear diagonal upper side of the vehicle as shown in FIGS. 2 and 3.

図7、図8及び図9は、実施形態の車両検出装置3が車両の通過を判定する方法の概要を示す図である。
図7の画像200は、車両検出装置3によって撮像された道路の画像である。画像200において、符号201が示す領域が道路である。以下、画像において道路を示す領域を道路領域と呼ぶ。道路領域が示す道路とは、広い範囲での道路ではなく、車両が走行する1又は複数の車線を指す。画像200は、1車線の道路領域の例である。符号202及び203が示す領域は道路以外の領域(以下、「非道路領域」という。)である。道路領域201に示された矢印は車両の進行方向を示す。
7, 8, and 9 are diagrams illustrating an outline of a method in which the vehicle detection device 3 according to the embodiment determines the passage of the vehicle.
An image 200 in FIG. 7 is an image of a road imaged by the vehicle detection device 3. In the image 200, a region indicated by reference numeral 201 is a road. Hereinafter, an area indicating a road in the image is referred to as a road area. The road indicated by the road region refers to one or a plurality of lanes on which the vehicle travels, not a road in a wide range. The image 200 is an example of a one-lane road area. The areas indicated by reference numerals 202 and 203 are areas other than roads (hereinafter referred to as “non-road areas”). The arrow shown in the road area 201 indicates the traveling direction of the vehicle.

図8は、車両検出装置3に設定される注視領域の具体例を示す図である。注視領域とは、車両検出装置3が車両検出に用いる画像の領域のことである。図8の画像200は、図7の画像200と同じ画像である。図8の例では、車両の進行方向の順に符号V1〜V5で示される注視領域が設定されている。各注視領域は、車両の進行方向及び道路面に直交し、道路の幅と同じ長さの幅を持つ平面で構成される。図8の例の場合、車両検出装置3は、車両前斜め上方から道路を撮像するため、注視領域の形状は長方形ではなく、図のような台形となる。   FIG. 8 is a diagram illustrating a specific example of a gaze area set in the vehicle detection device 3. The gaze area is an area of an image used by the vehicle detection device 3 for vehicle detection. An image 200 in FIG. 8 is the same image as the image 200 in FIG. In the example of FIG. 8, gaze areas indicated by reference signs V1 to V5 are set in the order of the traveling direction of the vehicle. Each gaze area is formed of a plane that is orthogonal to the traveling direction of the vehicle and the road surface and has a width that is the same as the width of the road. In the case of the example in FIG. 8, the vehicle detection device 3 images the road from the upper front side of the vehicle, so the shape of the gaze area is not a rectangle but a trapezoid as shown in the figure.

図9の画像210は、画像200に撮像された道路を車両が走行する様子が撮像された画像である。車両検出装置3は、注視領域V1〜V5の画像について画像処理を行って、各注視領域からナンバープレートを含む車両のフロント部分を検出する。図9の場合、注視領域V4において車両のフロント部分が検出される。車両検出装置3は、車両のフロント部分が検出される注視領域の遷移に基づいて車両の通過を判定する。具体的には、車両検出装置3は、まず注視領域V1で車両のフロント部分を検出する。車両検出装置3は、注視領域V1で車両を検出すると、検出された車両の追跡を開始する。車両検出装置3は、注視領域V1で車両を検出した後、注視領域V2、V3、V4及びV5の順に車両を検出したときに、車両が通過したことを判定する。   An image 210 in FIG. 9 is an image in which a state where the vehicle travels on the road imaged in the image 200 is captured. The vehicle detection device 3 performs image processing on the images of the gaze areas V1 to V5, and detects the front portion of the vehicle including the license plate from each gaze area. In the case of FIG. 9, the front portion of the vehicle is detected in the gaze region V4. The vehicle detection device 3 determines the passage of the vehicle based on the transition of the gaze area where the front portion of the vehicle is detected. Specifically, the vehicle detection device 3 first detects the front portion of the vehicle in the gaze region V1. When the vehicle detection device 3 detects the vehicle in the gaze area V1, the vehicle detection device 3 starts tracking the detected vehicle. After detecting the vehicle in the gaze area V1, the vehicle detection device 3 determines that the vehicle has passed when detecting the vehicle in the order of the gaze areas V2, V3, V4, and V5.

なお、車両検出装置3は、注視領域の画像から車両を検出する際、Hough変換等の手法により、検出された車両の特徴を取得してもよい。車両検出装置3は、ある注視領域において検出された車両が、その注視領域において前回検出された車両か否かを判定することによって、車両の通過の判定をより正確に行うことができる。車両検出装置3は、車両の幅や、高さ、ナンバープレートの位置などの情報を、車両の特徴として取得してもよい。車両検出装置3は、車両の追跡開始から、車両が通過するまでの間に、いずれかの注視領域において検出された車両の画像からナンバープレートを読み取って、車両のナンバー情報を取得する。   In addition, when detecting the vehicle from the image of the gaze area, the vehicle detection device 3 may acquire the detected feature of the vehicle by a technique such as Hough conversion. The vehicle detection device 3 can more accurately determine the passage of the vehicle by determining whether or not the vehicle detected in a certain gaze area is the vehicle detected last time in the gaze area. The vehicle detection device 3 may acquire information such as the width, height, and position of the license plate as vehicle characteristics. The vehicle detection device 3 reads the number plate from the image of the vehicle detected in any of the gaze areas from the start of tracking the vehicle until the vehicle passes, and acquires the vehicle number information.

なお、注視領域の画像上の大きさは、車両検出装置3から近い位置の注視領域ほど大きくなる。そのため、図9の例では、注視領域V1、V2、V3、V4及びV5の順に注視領域は大きくなっている。注視領域の大きさが大きいほど、その注視領域は多くの画素を含む。そのため、被写体はより鮮明に撮像される。逆に、注視領域の大きさが小さいほど、その注視領域に含まれる画素が少なくなる。そのため、被写体の鮮明さが低下する。一方、車両検出装置3に近い位置の注視領域では、車両はより真上又は真横に近い向きから撮像される。そのため、車両検出装置3に近い位置の注視領域では、車両は鮮明に撮像されるが、ナンバープレートの読み取りが難しくなる。このような理由により、ナンバープレートの読み取りは、車両検出装置3から遠すぎず、近すぎない中間位置の注視領域において行われるとよい。例えば、図9の例の場合、車両検出装置3は、注視領域V3又はV4の画像でナンバープレートの読み取りを行うとよい。
以下、上記方法で車両検出を行う車両検出装置3の詳細について説明する。
Note that the size of the gaze area on the image increases as the gaze area is located closer to the vehicle detection device 3. Therefore, in the example of FIG. 9, the gaze area becomes larger in the order of the gaze areas V1, V2, V3, V4, and V5. The larger the size of the gaze area, the more the gaze area includes more pixels. Therefore, the subject is imaged more clearly. Conversely, the smaller the size of the gaze area, the fewer pixels included in the gaze area. Therefore, the sharpness of the subject is reduced. On the other hand, in the gaze area at a position close to the vehicle detection device 3, the vehicle is imaged from a direction more directly above or just beside. Therefore, in the gaze area near the vehicle detection device 3, the vehicle is clearly imaged, but it is difficult to read the license plate. For such a reason, the reading of the license plate is preferably performed in a gaze area at an intermediate position that is not too far from the vehicle detection device 3 and not too close. For example, in the case of the example of FIG. 9, the vehicle detection device 3 may read the license plate with the image of the gaze region V3 or V4.
Hereinafter, the details of the vehicle detection device 3 that performs vehicle detection by the above method will be described.

図10は、車両検出装置3の機能構成を示す機能ブロック図である。
車両検出装置3は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、車両検出プログラムを実行する。車両検出装置3は、車両検出プログラムの実行によって通信部31、記憶部32、撮像部33、車両候補検出部34、注視領域補正部35、車両検出部36、車両状態判定部37、車両計数部38及び設定登録部39を備える装置として機能する。なお、車両検出装置3の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。車両検出プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。車両検出プログラムは、電気通信回線を介して送信されてもよい。
FIG. 10 is a functional block diagram showing a functional configuration of the vehicle detection device 3.
The vehicle detection device 3 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a vehicle detection program. The vehicle detection device 3 includes a communication unit 31, a storage unit 32, an imaging unit 33, a vehicle candidate detection unit 34, a gaze area correction unit 35, a vehicle detection unit 36, a vehicle state determination unit 37, and a vehicle counting unit by executing a vehicle detection program. 38 and a setting registration unit 39. All or some of the functions of the vehicle detection device 3 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). . The vehicle detection program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The vehicle detection program may be transmitted via a telecommunication line.

通信部31は、LAN等の通信インターフェースを用いて構成される。通信部31は、調整支援装置2と通信する。
記憶部32は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部32は、車両検出処理において用いられる、マッチング用のパターン画像(以下、「辞書データ」という。)を予め記憶する。
撮像部33は、カメラ等の撮像装置を用いて構成される。撮像部33は、所定の位置及び向きで道路を撮像し、画像データを生成する。撮像部33は、画像データを車両候補検出部34に出力する。
The communication unit 31 is configured using a communication interface such as a LAN. The communication unit 31 communicates with the adjustment support device 2.
The storage unit 32 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 32 stores in advance a pattern image for matching (hereinafter referred to as “dictionary data”) used in the vehicle detection process.
The imaging unit 33 is configured using an imaging device such as a camera. The imaging unit 33 images a road at a predetermined position and orientation, and generates image data. The imaging unit 33 outputs the image data to the vehicle candidate detection unit 34.

車両候補検出部34は、車両候補検出部34撮像部33から画像データを取得する。車両候補検出部34は、車両候補検出部34取得した画像データに画像処理を行って、画像に撮像された物体の特徴点を抽出する。車両候補検出部34は、連続する画像データにおける同一の特徴点から、特徴点が示す物体の速度を算出する。車両候補検出部34は、算出された速度に基づいて、車両候補となる物体を検出する。
注視領域補正部35(幾何学変換部)は、車両候補が検出された画像の注視領域について幾何学変換を行う。この幾何学変換は、被写体の画像上の長さの比を、実空間における長さの比に変換する処理である。
The vehicle candidate detection unit 34 acquires image data from the vehicle candidate detection unit 34 and the imaging unit 33. The vehicle candidate detection unit 34 performs image processing on the image data acquired by the vehicle candidate detection unit 34 and extracts feature points of the object captured in the image. The vehicle candidate detection unit 34 calculates the speed of the object indicated by the feature point from the same feature point in the continuous image data. The vehicle candidate detection unit 34 detects an object that is a vehicle candidate based on the calculated speed.
The gaze area correction unit 35 (geometric conversion unit) performs geometric conversion on the gaze area of the image in which the vehicle candidate is detected. This geometric conversion is a process of converting a length ratio on the image of the subject into a length ratio in real space.

図11は、幾何学変換の具体例を示す図である。
図11は、図9の注視領域V4に撮像された画像の幾何学変換を示している。注視領域V4’の画像は、注視領域V4の画像が幾何学変換された画像である。このように、注視領域補正部35は、台形状の注視領域V4を、矩形の注視領域V4’に幾何学変換することによって、距離の遠近により生じる被写体の画像上の大きさを補正する。この幾何学変換に用いられるパラメータ(以下、「幾何パラメータ」という。)は、すなわち注視領域V4が注視領域V4’に対してどれだけ傾いているかを示す角度であり、この角度は注視領域V4の設定情報から取得可能である。
FIG. 11 is a diagram illustrating a specific example of geometric transformation.
FIG. 11 shows geometric transformation of an image captured in the gaze region V4 of FIG. The image of the gaze region V4 ′ is an image obtained by geometrically converting the image of the gaze region V4. In this way, the gaze area correction unit 35 corrects the size of the subject on the image caused by the distance in the distance by geometrically converting the trapezoidal gaze area V4 into the rectangular gaze area V4 ′. A parameter (hereinafter referred to as “geometric parameter”) used for the geometric transformation is an angle indicating how much the gaze region V4 is inclined with respect to the gaze region V4 ′, and this angle is the angle of the gaze region V4. It can be acquired from the setting information.

図10の説明に戻る。
車両検出部36は、注視領域補正部35によって補正された注視領域の画像について、辞書データとのマッチング処理を行うことによって車両のフロント部分を検出する。辞書データには、車種や、車体の大きさ、車幅などの特徴に応じて複数の画像データが予め用意されている。車両検出部36は、検出結果を車両状態判定部37に出力する。また、車両検出部36は、車両が検出された注視領域の画像からナンバープレートを検出し、ナンバーを読み取る。
Returning to the description of FIG.
The vehicle detection unit 36 detects the front portion of the vehicle by performing a matching process with dictionary data on the image of the gaze area corrected by the gaze area correction unit 35. In the dictionary data, a plurality of image data are prepared in advance according to characteristics such as the vehicle type, the size of the vehicle body, and the vehicle width. The vehicle detection unit 36 outputs the detection result to the vehicle state determination unit 37. Moreover, the vehicle detection part 36 detects a number plate from the image of the gaze area | region where the vehicle was detected, and reads a number.

車両状態判定部37は、車両検出部36の検出結果に基づいて、車両の進行状況を判定する。車両状態判定部37は、車両が通過したことを判定した場合、車両計数部38及び上位システム4に車両の通過を通知する。
車両計数部38は、車両通過の通知に基づいて、通過車両を計数する。
設定登録部39は、調整支援装置2から送信される自装置の設定を記憶部32に保存する。
The vehicle state determination unit 37 determines the progress of the vehicle based on the detection result of the vehicle detection unit 36. When it is determined that the vehicle has passed, the vehicle state determination unit 37 notifies the vehicle counting unit 38 and the host system 4 that the vehicle has passed.
The vehicle counting unit 38 counts passing vehicles based on the vehicle passing notification.
The setting registration unit 39 stores the setting of the own device transmitted from the adjustment support device 2 in the storage unit 32.

図12は、調整支援装置2の機能構成を示す機能ブロック図である。
調整支援装置2は、バスで接続されたCPUやメモリや補助記憶装置などを備え、調整支援プログラムを実行する。調整支援装置2は、調整支援プログラムの実行によって通信部21、表示部22、入力部23、記憶部24、情報取得部25、調整情報取得部26及び設定部27を備える装置として機能する。また、調整支援プログラムの実行によって、調整支援装置2は、作業者による調整ツールの使用を可能にする。なお、調整支援装置2の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。調整支援プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。調整支援プログラムは、電気通信回線を介して送信されてもよい。
FIG. 12 is a functional block diagram showing a functional configuration of the adjustment support apparatus 2.
The adjustment support apparatus 2 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an adjustment support program. The adjustment support device 2 functions as a device including the communication unit 21, the display unit 22, the input unit 23, the storage unit 24, the information acquisition unit 25, the adjustment information acquisition unit 26, and the setting unit 27 by executing the adjustment support program. In addition, the adjustment support apparatus 2 enables the operator to use the adjustment tool by executing the adjustment support program. Note that all or part of each function of the adjustment support apparatus 2 may be realized using hardware such as an ASIC, a PLD, or an FPGA. The adjustment support program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The adjustment support program may be transmitted via a telecommunication line.

通信部21は、LAN等の通信インターフェースを用いて構成される。通信部21は、車両検出装置3と通信する。
表示部22は、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示装置を用いて構成される。又は、表示部22は、これらの表示装置を自装置に接続するインターフェースとして構成されてもよい。表示部22は、作業者の操作に応じて調整作業に関する情報(以下、「調整情報」という。)を表示する。
The communication unit 21 is configured using a communication interface such as a LAN. The communication unit 21 communicates with the vehicle detection device 3.
The display unit 22 is configured using a display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or an organic EL (Electro-Luminescence) display. Or the display part 22 may be comprised as an interface which connects these display apparatuses to an own apparatus. The display unit 22 displays information related to the adjustment work (hereinafter referred to as “adjustment information”) in accordance with the operation of the worker.

入力部23は、マウスやキーボード、タッチパネル等の入力装置を用いて構成される。又は、入力部23は、これらの入力装置を自装置に接続するインターフェースとして構成されてもよい。入力部23は、作業者の操作を受け付け、操作の内容に応じて各機能部に入力情報を出力する。   The input unit 23 is configured using an input device such as a mouse, a keyboard, or a touch panel. Alternatively, the input unit 23 may be configured as an interface for connecting these input devices to the own device. The input unit 23 accepts an operator's operation and outputs input information to each functional unit according to the content of the operation.

記憶部24は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部24は、車両検出装置3の設定に関する情報や、車両検出装置3から取得された情報を記憶する。   The storage unit 24 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 24 stores information related to the setting of the vehicle detection device 3 and information acquired from the vehicle detection device 3.

情報取得部25は、車両検出装置3から、調整作業に必要となる情報を取得する。例えば、調整作業に必要となる情報には、車両の検出結果や検出位置などの車両検出装置3の動作に関する情報や、取得された画像データなどが含まれる。情報取得部25は、車両検出装置3から取得した情報を記憶部24に保存する。   The information acquisition unit 25 acquires information necessary for the adjustment work from the vehicle detection device 3. For example, the information necessary for the adjustment work includes information regarding the operation of the vehicle detection device 3 such as the detection result and detection position of the vehicle, acquired image data, and the like. The information acquisition unit 25 stores information acquired from the vehicle detection device 3 in the storage unit 24.

調整情報取得部26は、記憶部24から各種情報を取得して、表示部22に表示させる調整情報を生成する。調整情報取得部26は、入力部23から取得する入力情報に応じた調整情報を生成する。調整情報取得部26は、生成した調整情報を表示部22に出力し、表示させる。   The adjustment information acquisition unit 26 acquires various types of information from the storage unit 24 and generates adjustment information to be displayed on the display unit 22. The adjustment information acquisition unit 26 generates adjustment information according to the input information acquired from the input unit 23. The adjustment information acquisition unit 26 outputs the generated adjustment information to the display unit 22 for display.

設定部27は、車両検出装置3の動作に関する各種設定を行う。具体的には、設定部27は、入力部23から入力情報を取得する。設定部27は、入力情報から各種設定の設定情報を取得する。設定情報には、設定の種別を示す情報と設定値とが含まれる。設定部27は、取得した設定情報を記憶部24に保存する。また、設定部27は、取得した設定情報を車両検出装置3に送信し、車両検出装置3に設定を反映させる。設定の種別には、設置設定、道路領域設定、画像特徴設定及び注視領域設定がある。設定部27は、各種別の設定を行う機能部として、設置情報設定部271、道路領域設定部272、画像特徴設定部273及び注視領域設定部274を備える。   The setting unit 27 performs various settings related to the operation of the vehicle detection device 3. Specifically, the setting unit 27 acquires input information from the input unit 23. The setting unit 27 acquires setting information for various settings from the input information. The setting information includes information indicating the type of setting and a setting value. The setting unit 27 stores the acquired setting information in the storage unit 24. The setting unit 27 transmits the acquired setting information to the vehicle detection device 3 to reflect the setting in the vehicle detection device 3. Types of setting include installation setting, road area setting, image feature setting, and gaze area setting. The setting unit 27 includes an installation information setting unit 271, a road region setting unit 272, an image feature setting unit 273, and a gaze region setting unit 274 as functional units that perform various types of settings.

設置情報設定部271は、画像検出装置3の設置設定を行う。設置設定は、画像検出装置3の設置位置や設置状態に関する設定である。具体的には、設置情報設定部271は、画像検出装置3の設置高や俯角、視野角などの設定を行う。また、設置情報設定部271は、緯度及び経度などの位置情報を設定するように構成されてもよい。   The installation information setting unit 271 performs installation setting of the image detection device 3. The installation setting is a setting related to the installation position and installation state of the image detection device 3. Specifically, the installation information setting unit 271 sets the installation height, the depression angle, the viewing angle, and the like of the image detection device 3. Further, the installation information setting unit 271 may be configured to set position information such as latitude and longitude.

道路領域設定部272は、画像検出装置3の道路領域設定を行う。道路領域設定は、画像検出装置3によって撮像される画像において、道路が撮像される領域(以下、「道路領域」という。)の画像内の位置を登録する設定である。ここでいう道路とは、車両が走行する車線を意味する。この道路領域設定によって、画像は道路領域と道路以外の領域とに分類される。道路領域設定部272によって設定される道路領域は、注視領域設定に用いられる。道路領域の画像内の位置は、画像処理によって検出されてもよいし、作業者の入力によって指定されてもよい。本実施形態では、道路領域設定部272は、作業者の入力情報に基づいて道路領域の位置を取得する。例えば、作業者は、入力部23を操作して、車両検出装置3により撮像された画像を表示部22に表示させる。作業者は、表示された画像における道路領域の境界線を入力する。道路領域設定部272は、入力された境界線によって表される道路領域を多角形で近似する。   The road area setting unit 272 sets the road area of the image detection device 3. The road area setting is a setting for registering a position in an image of an area where a road is imaged (hereinafter referred to as “road area”) in an image captured by the image detection device 3. The road here means a lane in which the vehicle travels. The image is classified into a road area and an area other than the road by the road area setting. The road area set by the road area setting unit 272 is used for gaze area setting. The position of the road region in the image may be detected by image processing, or may be designated by an operator input. In the present embodiment, the road area setting unit 272 acquires the position of the road area based on the input information of the worker. For example, the operator operates the input unit 23 to display the image captured by the vehicle detection device 3 on the display unit 22. The worker inputs the boundary line of the road area in the displayed image. The road area setting unit 272 approximates the road area represented by the input boundary line with a polygon.

例えば、画像検出装置3により撮像される画像が図7の画像200であった場合、作業者は、道路領域201と、非道路領域202及び203との境界線を入力する。画像200の例では、道路は直線に近い。この場合、道路領域設定部272は、入力された境界線を直線で近似することにより、道路領域201を5角形で近似する。   For example, when the image captured by the image detection device 3 is the image 200 in FIG. 7, the worker inputs a boundary line between the road region 201 and the non-road regions 202 and 203. In the example of the image 200, the road is close to a straight line. In this case, the road area setting unit 272 approximates the road area 201 with a pentagon by approximating the input boundary line with a straight line.

図12の説明に戻る。
道路領域設定部272は、道路領域を識別すると、道路領域を複数の領域に分割する。具体的には、道路領域設定部272は、車両の進行方向と直交する直線で道路領域を分割する。
Returning to the description of FIG.
When the road area is identified, the road area setting unit 272 divides the road area into a plurality of areas. Specifically, the road area setting unit 272 divides the road area with a straight line orthogonal to the traveling direction of the vehicle.

図13は、道路領域の分割の例を示す図である。
図13は、図7の道路領域201が6つの領域に分割された例を示している。この場合、例えば作業者は、道路領域201と非道路領域202及び203との境界線上に、道路領域201を分割する点のサンプルを入力する。図13では、道路右側のサンプル点の例がR1、R2、・・・、で表されている。同様に道路左側のサンプル点の例がL1、L2、・・・、で表されている。道路右側のサンプル点の集合を{R}と記載する。道路左側のサンプル点の集合を{L}と記載する。道路領域設定部272は、2点を結ぶ直線が車両の進行方向と直交するように、集合{R}及び{L}からサンプル点を選択する。このように選択されたサンプル点の組を(Rn、Ln)(nは1以上の整数)と記載する。また、各サンプル点の組において、サンプル点を端点とする直線をRn−Lnと記載する。図13の例では、道路領域201を分割する直線として、R1−L1、R2−L2、R3−L3、R4−L4及びR5−L5が得られたことが示されている。
FIG. 13 is a diagram illustrating an example of dividing a road area.
FIG. 13 shows an example in which the road area 201 in FIG. 7 is divided into six areas. In this case, for example, the worker inputs a sample of points dividing the road area 201 on the boundary line between the road area 201 and the non-road areas 202 and 203. In FIG. 13, examples of sample points on the right side of the road are represented by R1, R2,. Similarly, examples of sample points on the left side of the road are represented by L1, L2,. A set of sample points on the right side of the road is described as {R}. A set of sample points on the left side of the road is denoted as {L}. The road area setting unit 272 selects sample points from the sets {R} and {L} so that a straight line connecting the two points is orthogonal to the traveling direction of the vehicle. A set of sample points selected in this way is described as (Rn, Ln) (n is an integer of 1 or more). Further, in each set of sample points, a straight line having the sample points as end points is described as Rn-Ln. In the example of FIG. 13, it is shown that R1-L1, R2-L2, R3-L3, R4-L4, and R5-L5 were obtained as straight lines dividing the road region 201.

図12の説明に戻る。
画像特徴設定部273は、車両検出装置3の撮像視野内に存在する物体の特徴を設定する。例えば、画像特徴設定部273は、柱や街灯など定常的に撮像される物体の位置及び形状に関する情報を設定する。このように設定された特徴を、時系列に撮像される画像間で比較することによって、車両検出装置3の設置状況の変化を検知することが可能となる。
Returning to the description of FIG.
The image feature setting unit 273 sets the feature of an object existing in the imaging field of view of the vehicle detection device 3. For example, the image feature setting unit 273 sets information related to the position and shape of an object that is regularly imaged, such as a pillar or a streetlight. It is possible to detect a change in the installation state of the vehicle detection device 3 by comparing the characteristics set in this way between images captured in time series.

注視領域設定部274は、車両検出装置3によって取得される画像について、車両の検出に用いられる領域(以下、「注視領域」という。)を設定する。具体的には、注視領域設定部274は、道路領域を分割する直線Rn−Lnを含み、道路面に直交する平面を注視領域に設定する。例えば、図13で得られた直線R1−L1、R2−L2、R3−L3、R4−L4及びR5−L5に基づいて設定された注視領域は、図8の注視領域V1〜V5となる。   The gaze area setting unit 274 sets an area (hereinafter referred to as “gaze area”) used for vehicle detection for the image acquired by the vehicle detection device 3. Specifically, the gaze area setting unit 274 sets a plane that includes the straight line Rn-Ln that divides the road area and is orthogonal to the road surface as the gaze area. For example, gaze areas set based on the straight lines R1-L1, R2-L2, R3-L3, R4-L4, and R5-L5 obtained in FIG. 13 are gaze areas V1 to V5 in FIG.

図8に示されるように注視領域の設定には、道路面からの高さが必要である。この高さは、長さが既知であるポール等を撮像し、この長さを基準として画像上の距離と比較することによって決定される。ここで、注視領域が示す実空間の領域の高さは、直線Rn−Ln上のいずれの点においても同じである。車両検出装置3は、このように設定された注視領域の画像について、予め保持するパターン画像とのマッチング処理を行うことによって車両を検出する。   As shown in FIG. 8, the height from the road surface is necessary for setting the gaze area. This height is determined by taking an image of a pole or the like whose length is known and comparing it with the distance on the image with this length as a reference. Here, the height of the real space region indicated by the gaze region is the same at any point on the straight line Rn-Ln. The vehicle detection device 3 detects the vehicle by performing a matching process with the pattern image held in advance for the image of the gaze area set in this way.

図14、図15及び図16は、注視領域の具体例を示す図である。
図14は、注視領域間の距離が車両の車体長より長い間隔で設定された例を示す図である。図14の画像300は、画像200に撮像された道路を2台の車両が近接して走行する様子が撮像された画像である。図14の例の場合、先行車両は注視領域V7において車両のフロント部分が検出される。また、後続車両は、注視領域V6において車両のフロント部分が検出される。このように、注視領域が複数設けられることによって、車両検出装置3は、複数の車両を同時に検出することが可能となる。しかしながら、注視領域を過度に多く設定してしまうと、車両の誤検出や性能劣化等の問題が発生する可能性がある。そのため、注視領域間の距離は車両の車体長と同程度、又はそれより長い間隔で設定されてもよい。
14, FIG. 15 and FIG. 16 are diagrams showing specific examples of the gaze area.
FIG. 14 is a diagram illustrating an example in which the distance between the gaze regions is set at an interval longer than the vehicle body length of the vehicle. An image 300 in FIG. 14 is an image of a situation in which two vehicles are traveling close to each other on the road imaged in the image 200. In the example of FIG. 14, the front portion of the preceding vehicle is detected in the gaze region V7. Further, for the following vehicle, the front portion of the vehicle is detected in the gaze region V6. Thus, by providing a plurality of gaze regions, the vehicle detection device 3 can detect a plurality of vehicles at the same time. However, if an excessively large gaze area is set, problems such as vehicle misdetection and performance degradation may occur. Therefore, the distance between the gaze regions may be set at an interval that is about the same as or longer than the vehicle body length of the vehicle.

また、撮像対象の道路が複数車線を有する場合、図15のように、車線毎に異なる注視領域が設定されてもよい。図15のように、車線毎に注視領域が設定されることによって、車両検出装置3は、1つの画像で複数の車線の車両を検出することが可能となる。ただし、複数の車線について注視領域を設定した場合、同一の車両が複数の注視領域に撮像される場合がある。例えば、車体の大きな車両が手前の車線を走行する場合、その車両は奥の車線の注視領域に撮像される可能性がある。そして、隣接する車線において、注視領域が重複するように設定されている場合には、この可能性はより高まる。例えば、図15の例の場合、符号401の注視領域に撮像された車両は、符号402の注視領域に撮像される可能性がある。すなわち、同じ車両が複数の注視領域で検出される可能性があり、このような領域はマッチング処理の精度を低下させる要因となりうる。そのため、注視領域設定部274は、同一車両が重複して撮像される注視領域内の領域にマスクを行って、当該領域をマッチング処理に使用される領域から除外してもよい。   When the imaging target road has a plurality of lanes, different gaze areas may be set for each lane as shown in FIG. As shown in FIG. 15, by setting a gaze area for each lane, the vehicle detection device 3 can detect vehicles in a plurality of lanes with one image. However, when a gaze area is set for a plurality of lanes, the same vehicle may be captured in a plurality of gaze areas. For example, when a vehicle with a large vehicle body travels in the front lane, the vehicle may be imaged in the gaze area of the back lane. And when it is set so that a gaze area may overlap in an adjacent lane, this possibility increases more. For example, in the case of the example in FIG. 15, a vehicle imaged in the gaze area 401 may be imaged in the gaze area 402. That is, there is a possibility that the same vehicle is detected in a plurality of gaze regions, and such a region can be a factor that reduces the accuracy of the matching process. Therefore, the gaze area setting unit 274 may mask an area in the gaze area where the same vehicle is imaged twice and exclude the area from the area used for the matching process.

また、車両の種類によっては、車両の特徴となる部分が注視領域に収まらない場合がある。そのため、車両検出装置3には複数の高さの注視領域が設定されてもよい。例えば、図16のように車高の高い車両においては、車両のフロント部分の一部が注視領域に収まらず、マッチング処理の精度が低下する可能性がある。また、夜間など、光量が少ない状況においては、画像中の物体はエッジ情報が大きく失われ、マッチング処理の精度が低下する可能性がある。このような、マッチング処理の精度の低下を抑制するために、より広い範囲の注視領域が設定されてもよい。例えば、図16の場合、注視領域501は、通常の注視領域を表す。この場合、注視領域は、より広い範囲の注視領域として注視領域502のように設定されてもよい。注視領域502は、注視領域501が車両の高さ方向に拡大されたものである。注視領域503は、注視領域501と注視領域502との差分の領域である。マッチング処理は、注視領域502に対して行われてもよいし、注視領域501及び503のそれぞれに対して行われてもよい。   In addition, depending on the type of vehicle, a portion that is a characteristic of the vehicle may not fit in the gaze area. Therefore, a plurality of height gaze areas may be set in the vehicle detection device 3. For example, in a vehicle with a high vehicle height as shown in FIG. 16, a part of the front portion of the vehicle may not fit in the gaze area, and the accuracy of the matching process may be reduced. Further, in a situation where the amount of light is small, such as at night, the edge information of the object in the image is greatly lost, and the accuracy of the matching processing may be reduced. In order to suppress such a decrease in accuracy of the matching process, a wider gaze area may be set. For example, in the case of FIG. 16, the gaze area 501 represents a normal gaze area. In this case, the gaze area may be set as a gaze area 502 as a wider gaze area. The gaze area 502 is obtained by enlarging the gaze area 501 in the height direction of the vehicle. The gaze area 503 is a difference area between the gaze area 501 and the gaze area 502. The matching process may be performed on the gaze area 502 or may be performed on each of the gaze areas 501 and 503.

以上、図2のように車両を前面から撮像する場合を例に注視領域を説明した。上記説明した注視領域は、車両を前面又は背面のいずれから撮像する場合に適用されてもよい。これに対して、車両を背面から撮像する場合に特に有効となる注視領域の設定について次に説明する。   The gaze area has been described above by taking as an example the case where the vehicle is imaged from the front as shown in FIG. The gaze area described above may be applied when the vehicle is imaged from either the front or the back. On the other hand, the setting of the gaze area that is particularly effective when the vehicle is imaged from the back side will be described below.

図17及び図18は、車両を背面から撮像する場合の注視領域の具体例を示す図である。
図17の符号601及び符号602は、車両検出装置3の撮像範囲を示す。図17において符号603が示す2台の車両は同一の車両を表している。位置Aの車両603は、紙面左方向に進行し位置Bに到達する。図17のように車両を背面から撮像する場合、車両検出装置3は車両前面のナンバープレートを撮像することはできない。そのため、この場合、車両検出装置3は、車両背面のナンバープレートを検出することになる。
17 and 18 are diagrams illustrating specific examples of the gaze area when the vehicle is imaged from the back.
Reference numerals 601 and 602 in FIG. 17 indicate the imaging range of the vehicle detection device 3. In FIG. 17, two vehicles indicated by reference numeral 603 represent the same vehicle. The vehicle 603 at position A travels to the left in the drawing and reaches position B. When the vehicle is imaged from the back as shown in FIG. 17, the vehicle detection device 3 cannot image the license plate on the front of the vehicle. Therefore, in this case, the vehicle detection device 3 detects the number plate on the rear surface of the vehicle.

図18の画像701及び702は、車両の進行を車両背面から撮像した画像である。この場合、車両検出装置3の向きと、車両の進行方向との関係は図3のようになる。画像702は、画像701が撮像された時刻より後の時刻で撮像された画像である。そのため、画像702において、画像701に撮像された車両は進行方向(紙面右上)に移動した位置に撮像されている。符号703〜705は、画像701及び702を撮像する車両検出装置3に設定された注視領域である。注視領域703〜705は、画像701及び702において同じ位置の領域を示す。画像701では、車両背面のナンバープレートは、注視領域704の位置に撮像されており、画像702では注視領域705の位置に撮像されている。   Images 701 and 702 in FIG. 18 are images obtained by capturing the progress of the vehicle from the back of the vehicle. In this case, the relationship between the direction of the vehicle detection device 3 and the traveling direction of the vehicle is as shown in FIG. The image 702 is an image captured at a time later than the time when the image 701 was captured. Therefore, in the image 702, the vehicle imaged in the image 701 is imaged at a position moved in the traveling direction (upper right in the drawing). Reference numerals 703 to 705 are gaze areas set in the vehicle detection device 3 that captures the images 701 and 702. The gaze regions 703 to 705 indicate regions at the same position in the images 701 and 702. In the image 701, the license plate on the back of the vehicle is imaged at the position of the gaze area 704, and in the image 702, the image is captured at the position of the gaze area 705.

このように、車両を背面から撮像する場合、車両の種類や高さ、車両検出装置3の位置、向きによっては、注視領域703には、ナンバープレートが写らない場合がある。例えばトラックなどの車両は、注視領域703には、車両の荷台部分しか映らない可能性がある。この場合、車両検出装置3は、車両のナンバープレートが検出される可能性のない又は、検出されるとしても検出精度が低い注視領域に対してマッチング処理を行うことになり、車両検出装置3のシステムリソースが無駄に消費される。そのため、調整支援装置2は、このような注視領域をマッチング処理の対象外としてマスクする設定を、車両検出装置3に行ってもよい。   As described above, when the vehicle is imaged from the back side, the license plate may not appear in the gaze region 703 depending on the type and height of the vehicle, the position and orientation of the vehicle detection device 3. For example, for a vehicle such as a truck, there is a possibility that only the cargo bed portion of the vehicle is shown in the gaze area 703. In this case, the vehicle detection device 3 performs a matching process on a gaze area that has no possibility of detecting the license plate of the vehicle or has low detection accuracy even if it is detected. System resources are wasted. Therefore, the adjustment support apparatus 2 may perform a setting for masking such a gaze area as a target for the matching process in the vehicle detection apparatus 3.

図19は、実施形態の車両検出装置3による車両検出処理の流れを示すフローチャートである。
まず、撮像部33が道路を撮像し、画像データを取得する(ステップS101)。撮像部33は、取得した画像データを車両候補検出部34に出力する。車両候補検出部34は、撮像部33から画像データを取得する。車両候補検出部34は、取得した画像データに前処理を行う(ステップS102)。前処理において、車両候補検出部34は、まずSobelフィルタ等によるフィルタ処理を行い、画像データからノイズを除去する。これは、夜間等、光量が少ない状況における撮像は、ノイズの影響を受けやすいためである。そして、車両候補検出部34は、ノイズが除去された画像から移動体の特徴点を抽出する。画像から移動体の特徴点を抽出する手法には、既存のどのような手法が用いられてもよい。
FIG. 19 is a flowchart illustrating a flow of a vehicle detection process performed by the vehicle detection device 3 according to the embodiment.
First, the imaging unit 33 images a road and acquires image data (step S101). The imaging unit 33 outputs the acquired image data to the vehicle candidate detection unit 34. The vehicle candidate detection unit 34 acquires image data from the imaging unit 33. The vehicle candidate detection unit 34 performs preprocessing on the acquired image data (step S102). In the preprocessing, the vehicle candidate detection unit 34 first performs filter processing using a Sobel filter or the like to remove noise from the image data. This is because imaging in situations where the amount of light is low, such as at night, is susceptible to noise. And the vehicle candidate detection part 34 extracts the feature point of a moving body from the image from which noise was removed. Any existing method may be used as a method for extracting feature points of a moving object from an image.

車両候補検出部34は、連続する画像データにおける同一の特徴点から移動ベクトルを算出する。車両候補検出部34は、複数の特徴点のそれぞれについて移動ベクトルを算出し、移動ベクトル群を算出する。車両候補検出部34は、各移動ベクトルの絶対値について、平均や分散等の統計値を算出する(ステップS103)。車両候補検出部34は、統計値を所定の閾値と比較することによって車両候補の有無を判定する(ステップS104)。車両候補検出部34は、統計値が所定の閾値以上である場合、車両候補有りと判定する。車両候補有りと判定された場合(ステップS104−YES)、車両候補が検出された位置とともに画像データを注視領域補正部35に出力する。一方、車両検出部36は、統計値が所定の閾値未満である場合、車両候補無しと判定する。車両候補無しと判定された場合(ステップS104−NO)、ステップS101に戻り、車両検出装置3は次の画像データについて車両候補の検出を行う。 The vehicle candidate detection unit 34 calculates a movement vector from the same feature point in continuous image data. The vehicle candidate detection unit 34 calculates a movement vector for each of the plurality of feature points, and calculates a movement vector group. The vehicle candidate detection unit 34 calculates a statistical value such as an average or a variance for the absolute value of each movement vector (step S103). The vehicle candidate detection unit 34 determines the presence or absence of a vehicle candidate by comparing the statistical value with a predetermined threshold (step S104). The vehicle candidate detection unit 34 determines that there is a vehicle candidate when the statistical value is equal to or greater than a predetermined threshold. When it is determined that there is a vehicle candidate (step S104—YES), the image data is output to the gaze area correction unit 35 together with the position where the vehicle candidate is detected. On the other hand, the vehicle detection unit 36 determines that there is no vehicle candidate when the statistical value is less than a predetermined threshold. When it is determined that there is no vehicle candidate (step S104-NO), the process returns to step S101, and the vehicle detection device 3 detects the vehicle candidate for the next image data.

注視領域補正部35は、車両候補有りと判定された画像の注視領域について幾何学変換を行う(ステップS105)。注視領域補正部35は、変換対象の注視領域を、車両候補が検出された画像の位置に基づいて判断する。注視領域補正部35は、調整支援装置2によって算出された幾何パラメータを用いて注視領域の画像を変換する。注視領域補正部35は、幾何学変換により補正された注視領域の画像を車両検出部36に出力する。   The gaze area correction unit 35 performs geometric conversion on the gaze area of the image determined to have a vehicle candidate (step S105). The gaze area correction unit 35 determines the gaze area to be converted based on the position of the image where the vehicle candidate is detected. The gaze area correction unit 35 converts the image of the gaze area using the geometric parameter calculated by the adjustment support apparatus 2. The gaze area correction unit 35 outputs an image of the gaze area corrected by the geometric transformation to the vehicle detection unit 36.

車両検出部36は、補正後の注視領域の画像について、辞書データとのマッチング処理を行う(ステップS106)。このマッチング処理によって、注視領域の画像から車両を検出する。具体的には、車両検出部36は、注視領域の画像と辞書データの画像との相関を示すスコアを算出する。このとき、車両検出部36は、マッチングの精度を向上させるため、辞書データの画像について解像度及びサイズを変化させながらマッチング処理を行う。車両検出部36は、辞書データに含まれる複数の画像ごとに、かつ解像度及びサイズの変化ごとに、スコアを算出する。車両検出部36は、算出されたスコアを所定の閾値と比較することによって車両の有無を判定する(ステップS107)。車両検出部36は、スコアが所定の閾値以上である場合(ステップS107−YES)、車両有りと判定し、車両が検出された注視領域を車両状態判定部37に通知する。一方、車両検出部36は、スコアが所定の閾値未満である場合(ステップS107−NO)、車両無しと判定する。車両無しと判定された場合、ステップS101に戻り、車両検出装置3は次の画像データについて車両候補の検出を行う。   The vehicle detection unit 36 performs matching processing with dictionary data on the corrected image of the gaze area (step S106). By this matching process, the vehicle is detected from the image of the gaze area. Specifically, the vehicle detection unit 36 calculates a score indicating the correlation between the gaze area image and the dictionary data image. At this time, the vehicle detection unit 36 performs matching processing while changing the resolution and size of the image of the dictionary data in order to improve matching accuracy. The vehicle detection unit 36 calculates a score for each of a plurality of images included in the dictionary data and for each change in resolution and size. The vehicle detection unit 36 determines the presence or absence of a vehicle by comparing the calculated score with a predetermined threshold (step S107). When the score is equal to or greater than a predetermined threshold (step S107—YES), the vehicle detection unit 36 determines that there is a vehicle and notifies the vehicle state determination unit 37 of the gaze area where the vehicle is detected. On the other hand, when the score is less than the predetermined threshold (step S107—NO), the vehicle detection unit 36 determines that there is no vehicle. When it is determined that there is no vehicle, the process returns to step S101, and the vehicle detection device 3 detects a vehicle candidate for the next image data.

車両状態判定部37は、車両検出部36から車両が検出された注視領域の通知を受ける。車両状態判定部37は、通知された注視領域と、前回通知された注視領域とにより、車両の進行状況を判定する(ステップS108)。例えば、車両状態判定部37は、車両の進行状況を「進入」、「通過中」及び「退出」の3つの状態に判定する。車両状態判定部37は、「退出」を判定した場合、車両が通過したことを車両計数部38に通知する。車両検出部36は、車両が検出された注視領域の画像からナンバープレートを検出し、ナンバーを読み取る(ステップS109)。車両計数部38は、車両状態判定部37から車両が通過したことの通知を受けると、現在の車両数に1を加算する(ステップS110)。車両計数部38は、車両数の加算を行うと、新たな車両が通過したことを上位システム4に通知する。   The vehicle state determination unit 37 receives a notice of the gaze area where the vehicle is detected from the vehicle detection unit 36. The vehicle state determination unit 37 determines the progress of the vehicle based on the notified gaze area and the previously notified gaze area (step S108). For example, the vehicle state determination unit 37 determines the vehicle progress status into three states of “entry”, “passing”, and “exit”. When the vehicle state determination unit 37 determines “exit”, the vehicle state determination unit 37 notifies the vehicle counting unit 38 that the vehicle has passed. The vehicle detection unit 36 detects the number plate from the image of the gaze area where the vehicle is detected, and reads the number (step S109). When the vehicle count unit 38 receives a notification that the vehicle has passed from the vehicle state determination unit 37, the vehicle count unit 38 adds 1 to the current number of vehicles (step S110). When the number of vehicles is added, the vehicle counting unit 38 notifies the host system 4 that a new vehicle has passed.

このように構成された実施形態の車両検出システム1では、車両検出装置3は、車両検出処理において注視領域の補正を行う注視領域補正部35を備える。この注視領域補正部35を備えることにより、車両検出装置3は、注視領域の画像と辞書データの画像とのマッチング処理をより精度よく行うことが可能となる。その結果、車両検出装置3の車両検出の精度が向上する。   In the vehicle detection system 1 of the embodiment configured as described above, the vehicle detection device 3 includes a gaze area correction unit 35 that corrects the gaze area in the vehicle detection process. By providing the gaze area correction unit 35, the vehicle detection device 3 can perform the matching process between the gaze area image and the dictionary data image with higher accuracy. As a result, the vehicle detection accuracy of the vehicle detection device 3 is improved.

また、実施形態の車両検出システム1では、車両検出装置3を設置又は調整する作業者は、調整支援装置2を用いて作業することにより、設置に関する情報を視覚的に確認することができる。そのため、車両検出装置3の設置又は調整の精度が向上し、車両検出装置3は、より精度良く車両を検出することが可能となる。   In the vehicle detection system 1 according to the embodiment, an operator who installs or adjusts the vehicle detection device 3 can visually check information regarding the installation by working using the adjustment support device 2. Therefore, the accuracy of installation or adjustment of the vehicle detection device 3 is improved, and the vehicle detection device 3 can detect the vehicle with higher accuracy.

以下、実施形態の調整支援装置2及び車両検出装置3の変形例について説明する。
車両検出装置3は、車両の種別ごとに設定された優先順位に基づいて、ナンバープレートの読み取りを行うように構成されてもよい。具体的には、車両検出装置3の記憶部32は、この優先順位を保持する優先順位テーブル321を記憶する。
Hereinafter, modified examples of the adjustment support device 2 and the vehicle detection device 3 of the embodiment will be described.
The vehicle detection device 3 may be configured to read the license plate based on the priority order set for each type of vehicle. Specifically, the storage unit 32 of the vehicle detection device 3 stores a priority table 321 that holds this priority.

図20は、優先順位テーブル321の具体例を示す図である。
優先順位テーブル321は、注視領域ごとに優先順位レコードを有する。優先順位レコードは、注視領域ID、解像度、補正角度及び車種1〜車種nの各値を有する。注視領域IDは、注視領域の識別情報である。解像度は、注視領域を構成する画素数を表す。すなわち、車両検出装置3に近い位置が撮像される注視領域ほど解像度は高くなる。補正角度は、注視領域に対して行われる幾何学補正の角度を表す。すなわち、車両検出装置3に近い位置が撮像される注視領域ほど補正角度は大きくなる。解像度及び補正角度は、注視量IDが示す注視領域の設定から取得される。
FIG. 20 is a diagram showing a specific example of the priority order table 321.
The priority order table 321 has a priority order record for each gaze area. The priority order record includes gaze area ID, resolution, correction angle, and vehicle type 1 to vehicle type n. The gaze area ID is identification information of the gaze area. The resolution represents the number of pixels constituting the gaze area. That is, the resolution increases as the gaze area where the position close to the vehicle detection device 3 is imaged. The correction angle represents an angle of geometric correction performed on the gaze area. That is, the correction angle becomes larger as the gaze area where the position close to the vehicle detection device 3 is imaged. The resolution and the correction angle are acquired from the setting of the gaze area indicated by the gaze amount ID.

車種1〜n(nは1以上の整数)は、大きさや高さなどの車両の特徴によって分類される車両の種別を表す。この分類は、注視領域の画像にマッチしたパターン画像の種別によって分類することができる。車種1〜nの値には、各注視領域に設定された優先順位の値が登録される。   Vehicle types 1 to n (n is an integer equal to or greater than 1) represent vehicle types classified according to vehicle characteristics such as size and height. This classification can be performed according to the type of pattern image that matches the image of the gaze area. The value of the priority set in each gaze area is registered in the values of the vehicle types 1 to n.

この注視領域ごとの優先順位は、車両検出装置3の検出結果に基づいて調整作業の作業者が判断する。この場合、車両検出装置3は、検出結果に関する情報を自装置の記憶部32に蓄積し、自装置の調整時に調整支援装置2に送信する。作業者は、調整支援装置2を用いて検出結果を確認し、ナンバープレートの読み取りに適した注視領域の優先順位を決定する。作業者は、決定した優先順位を車両検出装置3に設定する。   The priority for each gaze area is determined by the operator of the adjustment work based on the detection result of the vehicle detection device 3. In this case, the vehicle detection device 3 accumulates information related to the detection result in the storage unit 32 of the own device, and transmits the information to the adjustment support device 2 when adjusting the own device. The operator confirms the detection result using the adjustment support device 2 and determines the priority order of the gaze area suitable for reading the license plate. The operator sets the determined priority order in the vehicle detection device 3.

図21は、ナンバープレートの認識結果を確認するための画面の具体例を示す図である。
画面800は、調整支援装置2の表示部22に表示される。画面800は、例えば、画像表示領域801、ナンバー画像表示領域802及びナンバー情報表示領域803を備える。画像表示領域801は、ナンバープレートの読み取りが行われた画像が表示される領域である。ナンバー画像表示領域802は、画像表示領域801に表示された画像から検出されたナンバープレートの画像が表示される領域である。ナンバー情報表示領域803は、ナンバープレートから読み取られた情報が表示される領域である。作業者は、画面800を目視により確認し、検出結果を評価する。
FIG. 21 is a diagram illustrating a specific example of a screen for confirming the license plate recognition result.
The screen 800 is displayed on the display unit 22 of the adjustment support apparatus 2. The screen 800 includes, for example, an image display area 801, a number image display area 802, and a number information display area 803. The image display area 801 is an area in which an image from which the license plate has been read is displayed. The number image display area 802 is an area in which an image of a license plate detected from the image displayed in the image display area 801 is displayed. The number information display area 803 is an area in which information read from the license plate is displayed. The operator visually confirms the screen 800 and evaluates the detection result.

このように、車両検出装置3の検出結果に基づいて決定された注視領域の優先順位が車両の種別ごとに設定されることによって、車両検出装置3は、より精度よくナンバープレートを認識することが可能となる。   Thus, the priority order of the gaze area determined based on the detection result of the vehicle detection device 3 is set for each type of vehicle, so that the vehicle detection device 3 can recognize the license plate more accurately. It becomes possible.

また、車両検出装置3は、車両の種別ごとに設定された位置情報に基づいて、ナンバープレートの読み取りを行うように構成されてもよい。具体的には、車両検出装置3の記憶部32は、この位置情報を保持する位置情報テーブル322を記憶する。   Further, the vehicle detection device 3 may be configured to read the license plate based on position information set for each type of vehicle. Specifically, the storage unit 32 of the vehicle detection device 3 stores a position information table 322 that holds this position information.

図22は、位置情報テーブル322の具体例を示す図である。
位置情報テーブル322は、車種ごとに位置情報レコードを有する。位置情報レコードは、車種、開始位置情報、終了位置情報及び補正角度の各値を有する。車種は、大きさや高さなどの車両の特徴によって分類される車両の種別を表す。この分類は、注視領域の画像にマッチしたパターン画像の種別によって分類することができる。開始位置情報は、ナンバープレートの検出を行う領域の始点の位置を表す。終了位置情報は、ナンバープレートの検出を行う領域の終点の位置を表す。補正角度は、ナンバープレートの検出を行う領域の傾きを表す。開始位置情報、終了位置情報及び補正角度により、ナンバープレートの検出を行う領域の形状が定まる。
FIG. 22 is a diagram illustrating a specific example of the position information table 322.
The position information table 322 has a position information record for each vehicle type. A position information record has each value of a vehicle type, start position information, end position information, and a correction angle. The vehicle type represents the type of vehicle classified according to the vehicle characteristics such as size and height. This classification can be performed according to the type of pattern image that matches the image of the gaze area. The start position information represents the position of the start point of the area where the license plate is detected. The end position information represents the position of the end point of the area where the license plate is detected. The correction angle represents the inclination of the area where the license plate is detected. The shape of the area where the license plate is detected is determined by the start position information, the end position information, and the correction angle.

この車種ごとの位置情報は、車両検出装置3の検出結果に基づいて調整作業の作業者が判断する。作業者は、調整支援装置2を用いて検出結果を確認し、ナンバープレートが設置される可能性のある位置を決定する。作業者は、決定した車種ごとの位置情報を車両検出装置3に設定する。   The position information for each vehicle type is determined by the operator of the adjustment work based on the detection result of the vehicle detection device 3. An operator confirms a detection result using the adjustment support apparatus 2, and determines the position where a license plate may be installed. The worker sets the determined position information for each vehicle type in the vehicle detection device 3.

このように、車両検出装置3の検出結果に基づいて決定された位置情報が車両の種別ごとに設定されることによって、車両検出装置3は、通常とは異なる位置に設置されたナンバープレートを検出することが可能となる。   Thus, the position information determined based on the detection result of the vehicle detection device 3 is set for each type of vehicle, so that the vehicle detection device 3 detects a license plate installed at a position different from the normal position. It becomes possible to do.

以上説明した少なくともひとつの実施形態によれば、注視領域の画像を補正する注視領域補正部及び車両検出装置の設置又は調整を支援する調整支援装置を持つことにより、車両検出システムにおける車両検出の精度を向上させることができる。   According to at least one of the embodiments described above, the accuracy of vehicle detection in the vehicle detection system includes the gaze area correction unit that corrects the image of the gaze area and the adjustment support apparatus that supports the installation or adjustment of the vehicle detection apparatus. Can be improved.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1…車両検出システム,2…調整支援装置,21…通信部,22…表示部,23…入力部,24…記憶部,25…情報取得部,26…調整情報取得部,27…設定部,271…設置情報設定部,272…道路領域設定部,273…画像特徴設定部,274…注視領域設定部,3…車両検出装置,31…通信部,32…記憶部,321…優先順位テーブル,322…位置情報テーブル,33…撮像部,34…車両候補検出部,35…注視領域補正部,36…車両検出部,37…車両状態判定部,38…車両計数部,4…上位システム,5…車両,6…構造物,200…画像,201…道路領域,202、203…非道路領域,300…画像,400…画像,401、402…注視領域,501〜503…注視領域,601、602…撮像範囲,603…車両,701、702…画像,703〜705…注視領域,800…画面,801…画像表示領域,802…ナンバー画像表示領域,803…ナンバー情報表示領域,V1〜V7…注視領域 DESCRIPTION OF SYMBOLS 1 ... Vehicle detection system, 2 ... Adjustment support apparatus, 21 ... Communication part, 22 ... Display part, 23 ... Input part, 24 ... Memory | storage part, 25 ... Information acquisition part, 26 ... Adjustment information acquisition part, 27 ... Setting part, 271 ... Installation information setting unit, 272 ... Road region setting unit, 273 ... Image feature setting unit, 274 ... Gaze region setting unit, 3 ... Vehicle detection device, 31 ... Communication unit, 32 ... Storage unit, 321 ... Priority order table, 322 ... Position information table, 33 ... Imaging unit, 34 ... Vehicle candidate detection unit, 35 ... Gaze area correction unit, 36 ... Vehicle detection unit, 37 ... Vehicle state determination unit, 38 ... Vehicle counting unit, 4 ... Host system, 5 ... vehicle, 6 ... structure, 200 ... image, 201 ... road area, 202, 203 ... non-road area, 300 ... image, 400 ... image, 401, 402 ... gaze area, 501 to 503 ... gaze area, 601 and 602 ... imaging range, 03 ... vehicle, 701 ... image, 703 to 705 ... attentive area, 800 ... screen, 801 ... image display area, 802 ... Number image display area, 803 ... number information display area, V1 to V7 ... watch area

Claims (13)

道路を撮像して前記道路の画像を取得する撮像部と、
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う幾何学変換部と、
前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する車両検出部と、
を備える車両検出装置。
An imaging unit that captures a road and obtains an image of the road;
For a plurality of gaze regions in the image where the vehicle traveling on the road is imaged, a geometric conversion unit that performs geometric conversion according to the installation position and orientation of the imaging unit;
A vehicle detection unit for detecting the vehicle from an image of a gaze area geometrically transformed by the geometry transformation unit;
A vehicle detection device comprising:
前記車両検出部は、前記注視領域の画像から、ナンバープレートを含む前記車両のフロント部分を検出し、
複数の注視領域における前記車両の検出結果の遷移に基づいて、前記車両の前記道路の通過を判断する状態判定部と、
前記判断に基づいて、前記道路を通過した車両を計数する計数部と、をさらに備える、
請求項1に記載の車両検出装置。
The vehicle detection unit detects a front portion of the vehicle including a license plate from the image of the gaze area,
A state determination unit that determines the passage of the vehicle on the road based on the transition of the detection result of the vehicle in a plurality of gaze regions;
A counting unit that counts vehicles that have passed through the road based on the determination; and
The vehicle detection device according to claim 1.
前記車両検出部は、車両が検出された注視領域の画像から前記車両のナンバーを読み取る、
請求項1又は請求項2のいずれか一項に記載の車両検出装置。
The vehicle detection unit reads the number of the vehicle from the image of the gaze area where the vehicle is detected.
The vehicle detection device according to any one of claims 1 and 2.
前記車両検出部は、予め設定された注視領域の優先順位と車種との関係に基づいて、検出された車両のナンバーを読み取る注視領域を選択する、
請求項3に記載の車両検出装置。
The vehicle detection unit selects a gaze area from which the number of the detected vehicle is read based on the relationship between the priority order of the gaze area set in advance and the vehicle type.
The vehicle detection device according to claim 3.
前記車両検出部は、車両が検出された注視領域の画像からナンバーが読み取れない場合、予め設定された画像内の所定の位置の領域からナンバーを読み取る、
請求項3に記載の車両検出装置。
When the vehicle detection unit cannot read the number from the image of the gaze area in which the vehicle is detected, the vehicle detection unit reads the number from the region at a predetermined position in the preset image.
The vehicle detection device according to claim 3.
道路を撮像して前記道路の画像を取得する撮像部と、
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う、幾何学変換部と、
前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する車両検出部と、
を備え、前記車両検出装置の設定を行う調整支援装置であって、
前記車両検出装置の設置に関する情報を設定する設置情報設定部と、
前記画像において撮像された前記道路が位置する領域を設定する道路領域設定部と、
前記画像に定常的に撮像される被写体の位置及び形状に関する情報を設定する特徴設定部と、
前記注視領域を設定する注視領域設定部と、
を備える調整支援装置。
An imaging unit that captures a road and obtains an image of the road;
A geometric conversion unit that performs geometric conversion according to an installation position and orientation of the imaging unit for a plurality of gaze regions in the image in which a vehicle traveling on the road is captured;
A vehicle detection unit for detecting the vehicle from an image of a gaze area geometrically transformed by the geometry transformation unit;
An adjustment support device for setting the vehicle detection device,
An installation information setting unit for setting information regarding the installation of the vehicle detection device;
A road area setting unit for setting an area where the road imaged in the image is located;
A feature setting unit for setting information on the position and shape of a subject that is constantly imaged in the image;
A gaze area setting unit for setting the gaze area;
An adjustment support apparatus comprising:
前記注視領域設定部は、撮像された前記道路が位置する領域に基づいて、複数の注視領域を前記車両の車体長と同程度、又はそれより長い間隔で設定する、
請求項6に記載の調整支援装置。
The gaze area setting unit sets a plurality of gaze areas at intervals equal to or longer than the vehicle body length of the vehicle based on the area where the captured road is located.
The adjustment support device according to claim 6.
前記道路領域設定部は、複数車線で構成される道路について、車線ごとの位置を設定し、
前記注視領域設定部は、車線ごとの注視領域を設定し、同一車両が重複して撮像される可能性がある注視領域内の領域をマスクし、1の車線の注視領域からマスクされた領域を除外する、
請求項7に記載の調整支援装置。
The road area setting unit sets a position for each lane for a road composed of a plurality of lanes,
The gaze area setting unit sets a gaze area for each lane, masks an area in the gaze area where the same vehicle may be imaged in duplicate, and masks an area masked from the gaze area of one lane exclude,
The adjustment support device according to claim 7.
前記注視領域設定部は、ナンバープレートが撮像される可能性のない注視領域と、前記注視領域にナンバープレートが撮像される可能性のない車種とを対応づけて設定する、
請求項8に記載の調整支援装置。
The gaze area setting unit sets the gaze area where the license plate is not likely to be imaged and the vehicle type where the license plate is not likely to be imaged in the gaze area,
The adjustment support device according to claim 8.
前記注視領域設定部は、前記車両検出装置における検出結果に基づいて車種ごとに決定された注視領域の優先順位を設定する、
請求項9に記載の調整支援装置。
The gaze area setting unit sets priority of gaze areas determined for each vehicle type based on a detection result in the vehicle detection device;
The adjustment support device according to claim 9.
前記注視領域設定部は、前記車両検出装置における検出結果に基づいて車種ごとに決定された注視領域の位置情報を設定する、
請求項10に記載の調整支援装置。
The gaze area setting unit sets position information of a gaze area determined for each vehicle type based on a detection result in the vehicle detection device;
The adjustment support device according to claim 10.
道路を撮像して前記道路の画像を取得する撮像ステップと、
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記画像を取得する撮像部の設置位置及び向きに応じた幾何学変換を行う、幾何学変換ステップと、
前記幾何学変換ステップにおいて幾何学変換された注視領域の画像から前記車両を検出する車両検出ステップと、
を有する車両検出方法。
An imaging step of capturing a road and obtaining an image of the road;
A geometric conversion step for performing a geometric conversion according to an installation position and orientation of an imaging unit that acquires the image for a plurality of gaze regions in the image in which a vehicle traveling on the road is captured;
A vehicle detection step of detecting the vehicle from an image of the gaze area that has been geometrically transformed in the geometric transformation step;
A vehicle detection method comprising:
道路を撮像して前記道路の画像を取得する撮像部と、
前記道路を走行する車両が撮像される前記画像内の複数の注視領域について、前記撮像部の設置位置及び向きに応じた幾何学変換を行う、幾何学変換部と、
前記幾何学変換部により幾何学変換された注視領域の画像から前記車両を検出する車両検出部と、
を備える車両検出装置と通信し、前記車両検出装置の設定を行う調整支援装置が行う調整方法であって、
前記車両検出装置の設置に関する情報を設定する設置情報設定ステップと、
前記画像において撮像された前記道路が位置する領域を設定する道路領域設定ステップと、
前記画像に定常的に撮像される被写体の位置及び形状に関する情報を設定する特徴設定ステップと、
前記注視領域を設定する注視領域設定ステップと、
を有する調整方法。
An imaging unit that captures a road and obtains an image of the road;
A geometric conversion unit that performs geometric conversion according to an installation position and orientation of the imaging unit for a plurality of gaze regions in the image in which a vehicle traveling on the road is captured;
A vehicle detection unit for detecting the vehicle from an image of a gaze area geometrically transformed by the geometry transformation unit;
An adjustment method performed by an adjustment support device that communicates with a vehicle detection device including the setting of the vehicle detection device,
An installation information setting step for setting information regarding the installation of the vehicle detection device;
A road area setting step for setting an area where the road imaged in the image is located;
A feature setting step for setting information on the position and shape of a subject that is regularly imaged in the image;
A gaze area setting step for setting the gaze area;
An adjustment method comprising:
JP2014190594A 2014-09-18 2014-09-18 Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method Active JP6316154B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014190594A JP6316154B2 (en) 2014-09-18 2014-09-18 Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014190594A JP6316154B2 (en) 2014-09-18 2014-09-18 Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method

Publications (2)

Publication Number Publication Date
JP2016062369A true JP2016062369A (en) 2016-04-25
JP6316154B2 JP6316154B2 (en) 2018-04-25

Family

ID=55796059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014190594A Active JP6316154B2 (en) 2014-09-18 2014-09-18 Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method

Country Status (1)

Country Link
JP (1) JP6316154B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026019A (en) * 2016-08-10 2018-02-15 日本信号株式会社 Vehicle recognition device
CN107844796A (en) * 2016-09-20 2018-03-27 福特全球技术公司 The detecting system and method for ice and snow
JP2021002192A (en) * 2019-06-21 2021-01-07 三菱重工機械システム株式会社 License plate recognition device, compression method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5651075A (en) * 1993-12-01 1997-07-22 Hughes Missile Systems Company Automated license plate locator and reader including perspective distortion correction
JPH1186185A (en) * 1997-09-03 1999-03-30 Mitsubishi Heavy Ind Ltd Vehicle-type discriminating device
JP2010218438A (en) * 2009-03-18 2010-09-30 Fujitsu Ltd Vehicle recognition device and program
JP2012063869A (en) * 2010-09-14 2012-03-29 Nippon Signal Co Ltd:The License plate reader
JP2013089031A (en) * 2011-10-18 2013-05-13 Sumitomo Electric Ind Ltd Number plate detector, computer program, and number plate detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5651075A (en) * 1993-12-01 1997-07-22 Hughes Missile Systems Company Automated license plate locator and reader including perspective distortion correction
JPH1186185A (en) * 1997-09-03 1999-03-30 Mitsubishi Heavy Ind Ltd Vehicle-type discriminating device
JP2010218438A (en) * 2009-03-18 2010-09-30 Fujitsu Ltd Vehicle recognition device and program
JP2012063869A (en) * 2010-09-14 2012-03-29 Nippon Signal Co Ltd:The License plate reader
JP2013089031A (en) * 2011-10-18 2013-05-13 Sumitomo Electric Ind Ltd Number plate detector, computer program, and number plate detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026019A (en) * 2016-08-10 2018-02-15 日本信号株式会社 Vehicle recognition device
CN107844796A (en) * 2016-09-20 2018-03-27 福特全球技术公司 The detecting system and method for ice and snow
CN107844796B (en) * 2016-09-20 2023-07-21 福特全球技术公司 Ice and snow detection system and method
JP2021002192A (en) * 2019-06-21 2021-01-07 三菱重工機械システム株式会社 License plate recognition device, compression method, and program
JP7329981B2 (en) 2019-06-21 2023-08-21 三菱重工機械システム株式会社 License plate recognition device, compression method, and program

Also Published As

Publication number Publication date
JP6316154B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
US10970566B2 (en) Lane line detection method and apparatus
US9846823B2 (en) Traffic lane boundary line extraction apparatus and method of extracting traffic lane boundary line
US10943131B2 (en) Image based lane marking classification
JP6395759B2 (en) Lane detection
US8902053B2 (en) Method and system for lane departure warning
US8184859B2 (en) Road marking recognition apparatus and method
JP4725391B2 (en) Visibility measuring device for vehicle and driving support device
US20080013789A1 (en) Apparatus and System for Recognizing Environment Surrounding Vehicle
JP6818626B2 (en) Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system
JP2015064752A (en) Vehicle monitoring device and vehicle monitoring method
JP6316154B2 (en) Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method
KR101178508B1 (en) Vehicle Collision Alarm System and Method
JP2018055597A (en) Vehicle type discrimination device and vehicle type discrimination method
JP5062091B2 (en) Moving object identification device, computer program, and optical axis direction specifying method
EP3905115A1 (en) Road shape determination method and road shape determination program
KR20090083184A (en) Method for dectecting front and rear vehicle by using image
CN108491795B (en) Pedestrian detection method and device for rail transit scene
JP2012185555A (en) Object detecting device and method, and program
JP2020095628A (en) Image processing device and image processing method
JP4172236B2 (en) Facial image processing apparatus and program
KR20150002039A (en) Real-Time Lane Detection Method Using Black Box Video
CN109886120B (en) Zebra crossing detection method and system
JP6226371B2 (en) DSRC communication abnormality monitoring apparatus and DSRC communication abnormality monitoring program
JP2014010765A (en) Mobile object detector, image type sensor, and computer program
JP2020095620A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170228

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R150 Certificate of patent or registration of utility model

Ref document number: 6316154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150