JP6280659B2 - Vehicle monitoring apparatus and vehicle monitoring method - Google Patents

Vehicle monitoring apparatus and vehicle monitoring method Download PDF

Info

Publication number
JP6280659B2
JP6280659B2 JP2017017819A JP2017017819A JP6280659B2 JP 6280659 B2 JP6280659 B2 JP 6280659B2 JP 2017017819 A JP2017017819 A JP 2017017819A JP 2017017819 A JP2017017819 A JP 2017017819A JP 6280659 B2 JP6280659 B2 JP 6280659B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
image
imaging
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017017819A
Other languages
Japanese (ja)
Other versions
JP2017084417A (en
Inventor
青木 泰浩
泰浩 青木
佐藤 俊雄
俊雄 佐藤
横井 謙太朗
謙太朗 横井
鈴木 美彦
美彦 鈴木
健二 君山
健二 君山
中村 順一
順一 中村
昌弘 山本
昌弘 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017017819A priority Critical patent/JP6280659B2/en
Publication of JP2017084417A publication Critical patent/JP2017084417A/en
Application granted granted Critical
Publication of JP6280659B2 publication Critical patent/JP6280659B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明の実施形態は、車両を監視する車両監視装置、および車両監視方法に関する。   Embodiments described herein relate generally to a vehicle monitoring apparatus and a vehicle monitoring method for monitoring a vehicle.

カメラによって道路等を撮像し、撮像された画像中の車両を検知したり、車両のナンバープレートに記載された情報を読み取ったりするシステムが知られている(例えば、特許文献1参照)。この種のシステムは、例えば、有料道路の入口や出口等に取り付けられ、通過車両を認識するために利用される。   There is known a system that images a road or the like with a camera, detects a vehicle in the captured image, and reads information described on a license plate of the vehicle (see, for example, Patent Document 1). This type of system is attached to, for example, an entrance or exit of a toll road and used to recognize a passing vehicle.

特許第4690657号公報Japanese Patent No. 4690657

カメラの画像から車両のナンバープレートに記載された情報を読み取る際に、画像の全体について文字認識処理を行うと、処理負荷が過大になり、効率的に情報を読み取ることができない場合があった。
本発明が解決しようとする課題は、車両のナンバープレートに記載された情報を効率的に読み取ることができる車両監視装置、および車両監視方法を提供することである。
When character recognition processing is performed on the entire image when reading information written on the license plate of the vehicle from the camera image, the processing load becomes excessive and information may not be read efficiently.
The problem to be solved by the present invention is to provide a vehicle monitoring apparatus and a vehicle monitoring method capable of efficiently reading information described on a license plate of a vehicle.

実施形態の車両監視装置は、画像取得部と、判定部と、読取部と、車両位置推定部と、車種割当部と、を持つ。画像取得部は、所定箇所に近接する車両を前方から撮像可能な第1の撮像部と、前記所定箇所を通過する車両を上方から撮像可能な第2の撮像部と、前記所定箇所から遠ざかる前記車両を後方から撮像可能な第3の撮像部とを備える撮像部によって撮像された画像を取得する。判定部は、前記撮像部により撮像された画像において、前記画像を少なくとも車両の進行方向に略直交する分割線で分割した複数の領域のうち特定の領域に、前記車両の特定の部位が存在するか否かを判定する。読取部は、前記車両の特定の部位が前記特定の領域に存在すると判定された場合に、前記特定の領域から、前記車両に取り付けられたナンバープレートに記載された情報を読み取る。車両位置推定部は、前記第3の撮像部により撮像された画像に基づいて、前記第1の撮像部によって撮像された画像から検出された車両の前記所定箇所付近における位置を時刻毎に特定する。車種割当部は、前記車両推定部によって特定された前記車両の位置に、前記読取部が前記第1の撮像部によって撮像された画像から読み取った情報を割り当てる。   The vehicle monitoring apparatus according to the embodiment includes an image acquisition unit, a determination unit, a reading unit, a vehicle position estimation unit, and a vehicle type assignment unit. The image acquisition unit includes a first imaging unit that can image a vehicle that is close to a predetermined location from the front, a second imaging unit that can image a vehicle that passes through the predetermined location from above, and the distance from the predetermined location. An image captured by an imaging unit including a third imaging unit capable of imaging the vehicle from behind is acquired. In the image captured by the imaging unit, the determination unit includes a specific part of the vehicle in a specific region among a plurality of regions obtained by dividing the image by a dividing line substantially orthogonal to the traveling direction of the vehicle. It is determined whether or not. A reading part reads the information described in the number plate attached to the said vehicle from the said specific area | region, when it determines with the specific site | part of the said vehicle existing in the said specific area | region. The vehicle position estimation unit specifies, for each time, a position of the vehicle in the vicinity of the predetermined location detected from the image captured by the first imaging unit, based on the image captured by the third imaging unit. . The vehicle type assigning unit assigns information read from the image captured by the first image capturing unit to the position of the vehicle specified by the vehicle estimating unit.

第1実施形態の車両監視システム1に含まれるカメラ10、20がガントリGTに取り付けられた様子を示す図である。It is a figure which shows a mode that the cameras 10 and 20 contained in the vehicle monitoring system 1 of 1st Embodiment were attached to the gantry GT. カメラ10により撮像される画像の一例を示す図である。2 is a diagram illustrating an example of an image captured by a camera 10. FIG. 第1実施形態に係る車両監視装置100の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the vehicle monitoring apparatus 100 which concerns on 1st Embodiment. 撮像された画像からフロント部の画像を切り出した図である。It is the figure which extracted the image of the front part from the imaged image. 撮像された画像からボディ部の画像を切り出した図である。It is the figure which extracted the image of the body part from the imaged image. 撮像された画像からリア部の画像を切り出した図である。It is the figure which cut out the image of the rear part from the imaged image. カメラ10によって時系列に撮像される画像を、撮像順に並べた図である。It is the figure which arranged the image imaged by the camera 10 in time series in order of imaging. 画像が領域1〜3に分割された様子を示す図である。It is a figure which shows a mode that the image was divided | segmented into the areas 1-3. 各領域に存在する車両の部位と、各状態との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the site | part of the vehicle which exists in each area | region, and each state. 車両の状態の他の例を示す図である。It is a figure which shows the other example of the state of a vehicle. カメラ10の画像を用いる場合の車両の状態の変化をモデル化した図である。It is the figure which modeled the change of the state of the vehicle in the case of using the image of the camera. カメラ20の画像を用いる場合の車両の状態の変化をモデル化した図である。It is the figure which modeled the change of the state of the vehicle in the case of using the image of the camera 20. FIG. 車幅計測部114による計測手法の一例を説明するための図である。It is a figure for demonstrating an example of the measurement method by the vehicle width measurement part. 第2実施形態の車両監視システム2に含まれるカメラ10、20、30がガントリGTに取り付けられた様子を示す図である。It is a figure which shows a mode that the cameras 10, 20, and 30 contained in the vehicle monitoring system 2 of 2nd Embodiment were attached to the gantry GT. 第2実施形態の車両監視システム2により、複数車線を走行する車両が確実に認識される様子を示す図である。It is a figure which shows a mode that the vehicle which drive | works a several lane is reliably recognized by the vehicle monitoring system 2 of 2nd Embodiment. 第2実施形態に係る車両監視装置200の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the vehicle monitoring apparatus 200 which concerns on 2nd Embodiment.

以下、図面を参照し、車両監視装置、および車両監視方法の実施形態について説明する。
<第1実施形態>
[構成]
図1は、第1実施形態の車両監視システム1に含まれるカメラ10、20がガントリGTに取り付けられた様子を示す図である。ガントリGTは、例えば、自動料金収受システムのガントリである。カメラ10、20は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えるカメラである。
Hereinafter, embodiments of a vehicle monitoring device and a vehicle monitoring method will be described with reference to the drawings.
<First Embodiment>
[Constitution]
FIG. 1 is a diagram illustrating a state in which cameras 10 and 20 included in the vehicle monitoring system 1 of the first embodiment are attached to a gantry GT. The gantry GT is, for example, an automatic fee collection system gantry. The cameras 10 and 20 are cameras including an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).

カメラ10は、ガントリGTに接近して通過する車両MBの前面を斜め上方向から撮像する。図中、A(10)はカメラ10の撮像領域を示す。また、カメラ20は、ガントリGTを通過して遠ざかる車両MBの後面を斜め上方向から撮像する。図中、A(20)はカメラ20の撮像領域を示す。カメラ10、20は、例えば道路の7[m]上空から、45[度]程度の俯角で撮像を行う。また、カメラ10、20は、所定周期で繰り返し撮像を行うように制御される。なお、カメラ10、20の設置場所は、図1に示すものに限らず、車両の前面や後面を撮像可能な場所であればよい。カメラ10、20の撮像した画像は、車両監視装置100に送信される。図2(A)、(B)は、カメラ10により撮像される画像の一例を示す図である。カメラ10は、図2(A)に示すように、主に一車線を撮像してもよいし、図2(B)に示すように、複数車線を同時に撮像してもよい。   The camera 10 images the front surface of the vehicle MB passing close to the gantry GT from an obliquely upward direction. In the figure, A (10) indicates an imaging region of the camera 10. Further, the camera 20 captures an image of the rear surface of the vehicle MB passing through the gantry GT from an obliquely upward direction. In the figure, A (20) indicates an imaging region of the camera 20. For example, the cameras 10 and 20 perform imaging at a depression angle of about 45 [degrees] from 7 [m] above the road. Further, the cameras 10 and 20 are controlled so as to repeatedly perform imaging at a predetermined cycle. The installation locations of the cameras 10 and 20 are not limited to those shown in FIG. 1, but may be any locations where the front and rear surfaces of the vehicle can be imaged. Images captured by the cameras 10 and 20 are transmitted to the vehicle monitoring apparatus 100. 2A and 2B are diagrams illustrating an example of an image captured by the camera 10. The camera 10 may mainly capture one lane as shown in FIG. 2A, or may simultaneously capture multiple lanes as shown in FIG. 2B.

このように、車両MBの前方および後方から撮像を行うことで、二輪車のように、後方にのみナンバープレートが取り付けられた車両についても、ナンバープレートの認識を行うことができる。また、道路が渋滞している場合において、車両MBの前方から撮像した画像では後続の車両MBのナンバープレートが隠れてしまった場合でも、車両MBの後方から撮像した画像において後続の車両MBのナンバープレートを認識することが可能となる場合がある。   In this way, by imaging from the front and rear of the vehicle MB, the license plate can be recognized even for a vehicle having a license plate attached only to the rear, such as a two-wheeled vehicle. Further, when the road is congested, even if the number plate of the subsequent vehicle MB is hidden in the image captured from the front of the vehicle MB, the number of the subsequent vehicle MB in the image captured from the rear of the vehicle MB. It may be possible to recognize the plate.

車両監視装置100は、任意の場所に設置することができる。図3は、第1実施形態に係る車両監視装置100の機能構成の一例を示す図である。車両監視装置100は、例えば、車両検知部102と、車両状態判定部104と、認識位置判定部106と、ナンバー認識部108と、車両状態遷移部110と、車両台数計測部112と、車幅計測部114と、車種判定部116と、車両情報統合部118と、記憶部120とを備える。各機能部は、例えば、車両監視装置100のCPU(Central Processing Unit)が、記憶部120に記憶されたプログラムを実行することにより機能するソフトウェア機能部である。
なお、これに代えて、各機能部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。記憶部120は、例えば、HDD(Hard Disk Drive)やフラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)等である。
The vehicle monitoring apparatus 100 can be installed in any place. FIG. 3 is a diagram illustrating an example of a functional configuration of the vehicle monitoring apparatus 100 according to the first embodiment. The vehicle monitoring device 100 includes, for example, a vehicle detection unit 102, a vehicle state determination unit 104, a recognition position determination unit 106, a number recognition unit 108, a vehicle state transition unit 110, a vehicle number measurement unit 112, a vehicle width. A measurement unit 114, a vehicle type determination unit 116, a vehicle information integration unit 118, and a storage unit 120 are provided. Each functional unit is, for example, a software functional unit that functions when a CPU (Central Processing Unit) of the vehicle monitoring apparatus 100 executes a program stored in the storage unit 120.
Alternatively, each functional unit may be a hardware functional unit such as an LSI (Large Scale Integration) or an ASIC (Application Specific Integrated Circuit). The storage unit 120 is, for example, an HDD (Hard Disk Drive), a flash memory, a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.

[車両の部位の特定]
車両検知部102は、カメラ10、20の撮像した画像の中に、車両の一部(部位)が存在するか否かを判定する。車両検知部102は、例えば、車両のフロント部、ボディ部、リア部などの車両を構成する部位毎に、Sobelフィルタ処理などでエッジ強調された特徴量、勾配特徴量、輝度特徴量等と、それらのパターンで構成される識別器を構成する(下記参考文献を参照)。そして、車両検知部102は、構成した識別器を用いて、画像の中に存在する車両の部位の種類と位置を特定する。
参考文献:”Coarse-to-fine approach for fast deformable object detection”, M.Pedersoli, A.Vadaldi, J.Gonzalez, CVPR2011
[Identification of vehicle parts]
The vehicle detection unit 102 determines whether or not a part (part) of the vehicle exists in the images captured by the cameras 10 and 20. The vehicle detection unit 102, for example, for each part constituting the vehicle such as a front part, a body part, and a rear part of the vehicle, feature quantities that are edge-enhanced by Sobel filter processing, gradient feature quantities, luminance feature quantities, etc. A discriminator composed of these patterns is constructed (see the following reference). And the vehicle detection part 102 pinpoints the kind and position of the site | part of the vehicle which exist in an image using the comprised discriminator.
Reference: “Coarse-to-fine approach for fast deformable object detection”, M.Pedersoli, A.Vadaldi, J.Gonzalez, CVPR2011

図4(A)〜(C)は、撮像された画像からフロント部の画像を切り出した図である。
フロント部は、ヘッドランプ、フロントグリル、バンパー、ナンバープレート等の構成要素を含む。前述の識別器は、これらの構成要素を統合して検出可能となるように構成される。これによって、車両検知部102は、車種によって異なる構成要素の位置に対応して、高精度にフロント部を特定することができる。また、図5(A)〜(C)は、撮像された画像からボディ部の画像を切り出した図である。ボディ部は、主に車両の屋根を含む簡素な形状となるが、作業車等の場合は、より複雑な形状となる。これに対して、車両検知部102は、予め用意された作業車のボディ部用の識別器を用いればよい。また、図6(A)〜(C)は、撮像された画像からリア部の画像を切り出した図である。
4A to 4C are diagrams in which an image of a front portion is cut out from a captured image.
The front part includes components such as a headlamp, a front grille, a bumper, and a license plate. The aforementioned discriminator is configured so that these components can be integrated and detected. As a result, the vehicle detection unit 102 can identify the front part with high accuracy corresponding to the positions of the components that differ depending on the vehicle type. 5A to 5C are diagrams in which an image of a body part is cut out from a captured image. The body portion has a simple shape mainly including the roof of the vehicle, but in the case of a work vehicle or the like, the body portion has a more complicated shape. On the other hand, the vehicle detection unit 102 may use an identifier for a body part of a work vehicle prepared in advance. FIGS. 6A to 6C are diagrams in which a rear image is cut out from a captured image.

図7(A)〜(D)は、カメラ10によって時系列に撮像される画像を、撮像順に並べた図である。車両MBの進行に応じて、まず図7(A)に示す画像が撮像され、その後、図7(B)に示す画像が撮像され、その後、図7(C)に示す画像が撮像され、その後、図7(D)に示す画像が撮像される。図中、Fは車両検知部102により特定されるフロント部を、Bは車両検知部102により特定されるボディ部を、Rは車両検知部102により特定されるリア部をそれぞれ示す。   7A to 7D are diagrams in which images captured in time series by the camera 10 are arranged in the order of imaging. In accordance with the progress of the vehicle MB, the image shown in FIG. 7 (A) is first picked up, then the image shown in FIG. 7 (B) is picked up, and then the image shown in FIG. 7 (C) is picked up. The image shown in FIG. 7D is taken. In the figure, F denotes a front part specified by the vehicle detection unit 102, B denotes a body part specified by the vehicle detection unit 102, and R denotes a rear part specified by the vehicle detection unit 102.

[車両の状態判定]
車両状態判定部104は、カメラ10、20の撮像した画像を、例えば画像横方向の分割線で仮想的に3分割し、各領域1〜3のそれぞれに、フロント部、ボディ部、リア部が収まっているか否かを判定する。横方向の分割線は、車両の進行方向に略直交する直線である。以下、説明を簡略化するために、主にカメラ10の撮像画像に対する処理について説明する。図8は、画像が領域1〜3に分割された様子を示す図である。
[Vehicle condition determination]
The vehicle state determination unit 104 virtually divides an image captured by the cameras 10 and 20 into, for example, three horizontal dividing lines, and each of the regions 1 to 3 includes a front part, a body part, and a rear part. It is determined whether or not it is accommodated. The dividing line in the horizontal direction is a straight line that is substantially orthogonal to the traveling direction of the vehicle. Hereinafter, in order to simplify the description, processing on the captured image of the camera 10 will be mainly described. FIG. 8 is a diagram illustrating a state in which the image is divided into regions 1 to 3.

[ナンバープレート認識]
認識位置判定部106は、車両状態判定部104による判定結果を参照し、領域2にフロント部(F)が存在するか否かを判定し、領域2にフロント部(F)が存在する場合に、ナンバー認識部108にナンバープレート認識を行わせる。ナンバー認識部108は、領域2内の走査領域(例えば、フロント部(F)と認識された車両の前端部から画像奥行き方向に向かう領域)を走査してナンバープレートの占める領域(ナンバープレート領域)を特定し、ナンバープレート領域内で文字認識処理を行って、ナンバープレートに記載された情報を読み取る。
[Number plate recognition]
The recognition position determination unit 106 refers to the determination result by the vehicle state determination unit 104, determines whether or not the front part (F) exists in the region 2, and when the front part (F) exists in the region 2. Then, the license recognition unit 108 is made to recognize the license plate. The number recognizing unit 108 scans a scanning region in the region 2 (for example, a region from the front end portion of the vehicle recognized as the front portion (F) toward the image depth direction) to occupy the number plate (number plate region). Is identified, character recognition processing is performed in the license plate area, and information written on the license plate is read.

認識位置判定部106は、領域2にフロント部(F)が存在する場合ではなく、領域2と1のいずれかにフロント部(F)が存在する場合に、ナンバー認識部108にナンバープレート認識を行わせてもよい。また、認識位置判定部106は、後述する車種判定部116による判定結果を参照し、車種に対応した最適な領域にフロント部(F)が存在する場合に、ナンバー認識部108にナンバープレート認識を行わせてもよい。   The recognition position determination unit 106 recognizes the number plate in the number recognition unit 108 when the front part (F) exists in one of the areas 2 and 1, not when the front part (F) exists in the area 2. It may be done. Further, the recognition position determination unit 106 refers to the determination result by the vehicle type determination unit 116 described later, and performs license plate recognition to the number recognition unit 108 when the front part (F) exists in the optimum region corresponding to the vehicle type. It may be done.

いずれの場合も、領域2(または領域1)にフロント部(F)が映された画像は、当該車両がガントリGT付近から退出するまで一時的に記憶部120に保存される。これによって、ナンバー認識部108による認識漏れを少なくすることができる。   In any case, the image in which the front portion (F) is displayed in the region 2 (or region 1) is temporarily stored in the storage unit 120 until the vehicle exits from the vicinity of the gantry GT. Accordingly, recognition failure by the number recognition unit 108 can be reduced.

ナンバー認識部108は、走査領域に対して、特定周波数以下の成分の抽出、2値化処理等を行い、更にラベリング等の方法を使って文字候補領域を切り出す。そして、文字候補領域から大きさや縦横比が、目的とする文字領域とかけ離れている領域を排除して文字認識を行う(「特許第4901676号公報」を参照)。文字認識によって得られる情報には、一連番号、陸支部、分類番号、用途コード、車種コード等が含まれる。ナンバー認識部108は、このような処理によってナンバープレートに記載された情報(文字)を読み取ると共に、文字認識スコアを認識位置判定部106に出力する。認識位置判定部106は、文字認識スコアが基準値よりも低い場合には、再度、領域2などにフロント部(F)が映された画像を対象として、ナンバー認識部108に文字を読み取らせる。   The number recognizing unit 108 performs extraction, binarization processing, and the like of components below a specific frequency for the scanning region, and further extracts a character candidate region using a method such as labeling. Then, character recognition is performed by removing a region whose size and aspect ratio are far from the target character region from the character candidate region (see “Patent No. 4901676”). Information obtained by character recognition includes a serial number, a land branch, a classification number, a use code, a vehicle type code, and the like. The number recognizing unit 108 reads information (characters) written on the number plate by such processing, and outputs a character recognition score to the recognition position determining unit 106. When the character recognition score is lower than the reference value, the recognition position determining unit 106 causes the number recognizing unit 108 to read a character again for an image in which the front part (F) is displayed in the area 2 or the like.

このように、本実施形態の車両監視装置100は、車両のナンバープレートを読み取りやすい、領域2(または領域1)にフロント部(F)が存在する場合に、ナンバープレートに記載された情報を読み取るため、走査領域を小さくすることができ、車両のナンバープレートに記載された情報を効率的に読み取ることができる。   As described above, the vehicle monitoring apparatus 100 according to the present embodiment reads the information written on the license plate when the front portion (F) exists in the area 2 (or area 1), which makes it easy to read the license plate of the vehicle. Therefore, the scanning area can be reduced, and the information written on the license plate of the vehicle can be read efficiently.

すなわち、フロント部(F)を特定する処理は、道路と車両との境界を特定するという、比較的処理負荷が小さく、且つ高精度に行うことができる処理により行われる。このため、車両監視装置100は、低負荷で且つ迅速にナンバープレートの存在する画像中の領域を絞り込むことができ、画像全体からナンバープレートを走査するものに比して、車両のナンバープレートに記載された情報を効率的に読み取ることができる。   That is, the process of specifying the front portion (F) is performed by a process that specifies a boundary between a road and a vehicle, which has a relatively small processing load and can be performed with high accuracy. For this reason, the vehicle monitoring apparatus 100 can narrow down the area | region in the image which a license plate exists quickly with low load, and it describes in the license plate of a vehicle compared with what scans a license plate from the whole image. Can be read efficiently.

また、ナンバー認識部108は、後述する車種判定部116による判定結果に基づいて、走査領域を修正または絞り込んでよい。例えば、車種判定部116により、ナンバープレートが中央部分に無い車種であると判定された場合、ナンバー認識部108は、ナンバープレートの偏りに応じた位置に走査領域を修正または絞り込む。この結果、車両監視装置100は、より低負荷で且つ迅速にナンバープレートの存在する画像中の領域を絞り込むことができ、車両のナンバープレートに記載された情報を更に効率的に読み取ることができる。   Further, the number recognizing unit 108 may correct or narrow down the scanning area based on the determination result by the vehicle type determining unit 116 described later. For example, when the vehicle type determination unit 116 determines that the license plate is a vehicle type that does not exist in the center portion, the number recognition unit 108 corrects or narrows the scanning area to a position corresponding to the deviation of the license plate. As a result, the vehicle monitoring apparatus 100 can narrow down the area in the image where the license plate exists quickly and with a lower load, and can more efficiently read the information described on the license plate of the vehicle.

一方、認識位置判定部106は、カメラ20の撮像した画像については、領域2(または領域3)にリア部(R)が存在するか否かを判定し、ナンバー認識部108は、領域2(または領域3)にリア部(R)が存在する場合に、走査領域(例えば、リア部(R)と認識された車両の後端部から画像奥行き方向に向かう領域)を走査してナンバープレート領域を特定し、ナンバープレート領域内で文字認識処理を行って、ナンバープレートに記載された情報を読み取る。   On the other hand, the recognition position determination unit 106 determines whether or not the rear part (R) exists in the region 2 (or region 3) for the image captured by the camera 20, and the number recognition unit 108 determines whether the region 2 (or region 3) has the rear part (R). Alternatively, when the rear portion (R) exists in the region 3), the license plate region is scanned by scanning the scanning region (for example, the region from the rear end of the vehicle recognized as the rear portion (R) toward the image depth direction). Is identified, character recognition processing is performed in the license plate area, and information written on the license plate is read.

[車両台数の計測]
車両状態遷移部110は、車両状態判定部104の判定結果を参照し、領域1〜3に存在するフロント部(F)、ボディ部(B)、リア部(R)の組み合わせによって、カメラ10の撮像領域内の車両の状態を類型化する。車両状態遷移部110は、例えば、カメラ10の撮像範囲内の車両の状態を、S0「車両無」、S1「進入」、S2「領域内滞留」、S3「退出」、S4「2台接近」の各状態に分類する。図9は、各領域に存在する車両の部位と、各状態との対応関係の一例を示す図である。図9において、「×」は、該当する領域内で車両検知部102により車両の部位が特定されなかったことを示す。なお、図8の状態は、領域1で車両のフロント部(F)が、領域3で車両のリア部(R)が特定されているため、S4「2台接近」に該当する。また、図10は、車両の状態の他の例を示す図である。図10の状態は、領域1で車両のフロント部(F)が、領域2で車両のリア部(R)が、領域3で車両のボディ部(B)が特定されているため、S2「領域内滞留」に該当する。一方、車両状態遷移部110は、カメラ20の画像に対しては、図9の対応関係を、領域1〜3の順序を逆にして、車両の状態を類型化する。
[Measurement of the number of vehicles]
The vehicle state transition unit 110 refers to the determination result of the vehicle state determination unit 104, and the combination of the front part (F), the body part (B), and the rear part (R) existing in the regions 1 to 3 Classify the state of the vehicle in the imaging area. For example, the vehicle state transition unit 110 may change the state of the vehicle within the imaging range of the camera 10 to S0 “no vehicle”, S1 “entry”, S2 “stay in area”, S3 “exit”, and S4 “two approaching”. It classifies into each state. FIG. 9 is a diagram illustrating an example of a correspondence relationship between a vehicle part existing in each region and each state. In FIG. 9, “X” indicates that the vehicle part is not specified by the vehicle detection unit 102 in the corresponding region. The state in FIG. 8 corresponds to S4 “two approaching” because the front part (F) of the vehicle is specified in region 1 and the rear part (R) of the vehicle is specified in region 3. FIG. 10 is a diagram illustrating another example of the state of the vehicle. In the state of FIG. 10, the front part (F) of the vehicle is specified in the area 1, the rear part (R) of the vehicle is specified in the area 2, and the body part (B) of the vehicle is specified in the area 3. Corresponds to “internal retention”. On the other hand, the vehicle state transition unit 110 classifies the state of the vehicle by reversing the order of the regions 1 to 3 in the correspondence relationship of FIG.

車両台数計測部112は、車両状態遷移部110により類型化された車両の状態の変化を参照し、変化パターンから車両台数の計測を行う。図11は、カメラ10の画像を用いる場合の車両の状態の変化をモデル化した図である。図11のモデルを用いる場合、車両台数計測部112は、S4からS2に遷移したとき、および、S3からS0に遷移したときに、車両が1台、ガントリGTの下方領域に進入したと判定する。また、図12は、カメラ20の画像を用いる場合の車両の状態の変化をモデル化した図である。図12のモデルを用いる場合、車両台数計測部112は、S4からS2に遷移したとき、および、S1からS0に遷移したときに、車両が1台、ガントリGTの下方領域から退出したと判定する。   The vehicle number measurement unit 112 refers to the change in the state of the vehicle typified by the vehicle state transition unit 110 and measures the number of vehicles from the change pattern. FIG. 11 is a diagram in which changes in the state of the vehicle when the image of the camera 10 is used are modeled. When the model of FIG. 11 is used, the vehicle number measuring unit 112 determines that one vehicle has entered the lower region of the gantry GT when transitioning from S4 to S2 and when transitioning from S3 to S0. . FIG. 12 is a diagram modeling changes in the state of the vehicle when the image of the camera 20 is used. When the model shown in FIG. 12 is used, the vehicle number measuring unit 112 determines that one vehicle has left the area below the gantry GT when transitioning from S4 to S2 and when transitioning from S1 to S0. .

このような判定を行うことによって、本実施形態の車両監視装置100は、例えば渋滞によって車両の一部が重なって撮像された場合でも、漏れの少ない台数計測を行うことができる。また、車両台数計測部112は、記憶部120において、ガントリGTの下領域から退出したと判定した車両についての不要な画像等の情報を格納した領域を解放する。
これによって、記憶部120のリソースの浪費を防止することができる。
By making such a determination, the vehicle monitoring apparatus 100 of the present embodiment can measure the number of units with little leakage even when, for example, images of a part of the vehicles overlap due to traffic congestion. In addition, the vehicle number measuring unit 112 releases an area in the storage unit 120 that stores information such as unnecessary images about a vehicle that has been determined to have left the area under the gantry GT.
Thereby, waste of resources in the storage unit 120 can be prevented.

[車幅、車種、情報統合]
車幅計測部114は、カメラ10により撮像された画像における車両外輪郭から車両の車幅を計測する。図13は、車幅計測部114による計測手法の一例を説明するための図である。車幅計測部114は、例えば、予め記憶部120に格納された画像の縦位置y毎の道路幅L(y)と、画像における道路幅方向の傾きθに基づいて、車幅を計測する。すなわち、車幅計測部114は、車両外輪郭の下部ベクトルを→W(→はベクトルを示す)とすると、これを道路幅方向に平行なベクトル→W*に写像する。そして、車幅計測部114は、ベクトル→W*と、その縦位置yにおける画像上の道路幅l(y)との比率を求め、ベクトル→W*の起点を縦位置yとする道路幅L(y)に、上記求めた比率を乗算して、車幅を計測する。
[Vehicle width, vehicle type, information integration]
The vehicle width measuring unit 114 measures the vehicle width of the vehicle from the vehicle outer contour in the image captured by the camera 10. FIG. 13 is a diagram for explaining an example of a measurement method performed by the vehicle width measurement unit 114. For example, the vehicle width measurement unit 114 measures the vehicle width based on the road width L (y) for each vertical position y of the image stored in the storage unit 120 in advance and the inclination θ in the road width direction in the image. That is, if the lower vector of the vehicle outer contour is set to → W (→ indicates a vector), the vehicle width measuring unit 114 maps this to a vector → W * parallel to the road width direction. Then, the vehicle width measuring unit 114 obtains the ratio of the vector → W * and the road width l (y) on the image at the vertical position y, and the road width L with the starting point of the vector → W * as the vertical position y. The vehicle width is measured by multiplying (y) by the obtained ratio.

車種判定部116は、車両検知部102により検知されたフロント部(F)等の形状パターンと、車幅計測部114により計測された車幅を統合して、カメラ10により撮像された画像に映された車両の車種を判定する。車種判定部116は、「二輪車」「軽自動車」「普通車」「大型車両」「その他」「判定不能」等に車両の車種を分類する。これらのうち、「二輪車」と四輪車については、フロント部(F)等の形状パターンに基づき判定が行われ、四輪車の種別については、フロント部(F)等の形状パターンおよび車幅に基づき判定が行われる。   The vehicle type determination unit 116 integrates the shape pattern such as the front portion (F) detected by the vehicle detection unit 102 and the vehicle width measured by the vehicle width measurement unit 114, and displays the image on the image captured by the camera 10. The vehicle type of the selected vehicle is determined. The vehicle type determination unit 116 classifies the vehicle type into “two-wheeled vehicle”, “light vehicle”, “normal vehicle”, “large vehicle”, “other”, “impossible determination”, and the like. Among these, for “two-wheeled vehicle” and four-wheeled vehicle, the determination is made based on the shape pattern of the front portion (F) and the like, and for the type of the four-wheeled vehicle, the shape pattern of the front portion (F) and the vehicle width are determined. A determination is made based on

車両情報統合部118は、車両台数計測部112により計測された車両の台数、車両毎に得られたナンバー認識部108による認識結果、車種判定部116により判定された車種等の情報を統合し、車両の通過時刻と対応付けて車両の管理を行う。ここで、「二輪車」については、車両の前面画像によるナンバープレート情報がないことから、カメラ10側の情報が不十分となるが、カメラ20側の情報に基づいて、これを補完することができる。   The vehicle information integration unit 118 integrates information such as the number of vehicles measured by the vehicle number measurement unit 112, the recognition result obtained by the number recognition unit 108 obtained for each vehicle, the vehicle type determined by the vehicle type determination unit 116, and the like. The vehicle is managed in association with the passing time of the vehicle. Here, as for “two-wheeled vehicle”, since there is no license plate information by the front image of the vehicle, the information on the camera 10 side is insufficient, but this can be supplemented based on the information on the camera 20 side. .

[まとめ]
以上説明した本実施形態の車両監視装置100によれば、道路と車両との境界を特定するという、比較的処理負荷が小さく且つ高精度に行うことができる、フロント部(F)を特定する処理によって走査領域を絞り込むことができる。この結果、画像全体からナンバープレートを走査するものに比して、車両のナンバープレートに記載された情報を効率的に読み取ることができる。
[Summary]
According to the vehicle monitoring apparatus 100 of the present embodiment described above, the process of identifying the front portion (F) that can be performed with a relatively small processing load and high accuracy, such as identifying the boundary between the road and the vehicle. Can narrow down the scanning area. As a result, the information written on the license plate of the vehicle can be read more efficiently than when scanning the license plate from the entire image.

また、本実施形態の車両監視装置100によれば、ナンバー認識部108が、車種判定部116による判定結果に基づいて、走査領域を修正または絞り込むことで、より低負荷で且つ迅速にナンバープレートの存在する画像中の領域を絞り込むことができ、車両のナンバープレートに記載された情報を更に効率的に読み取ることができる。   Further, according to the vehicle monitoring apparatus 100 of the present embodiment, the number recognition unit 108 corrects or narrows down the scanning area based on the determination result by the vehicle type determination unit 116, so that the license plate can be quickly and lightly loaded. The area in the existing image can be narrowed down, and the information written on the license plate of the vehicle can be read more efficiently.

また、本実施形態の車両監視装置100によれば、車両台数計測部112が、車両状態遷移部110により類型化された車両の状態の変化パターンから車両台数の計測を行うため、漏れの少ない台数計測を行うことができる。   Further, according to the vehicle monitoring apparatus 100 of the present embodiment, the vehicle number measuring unit 112 measures the number of vehicles from the change pattern of the vehicle state typified by the vehicle state transition unit 110, and thus the number of vehicles with little leakage. Measurement can be performed.

<第2実施形態>
以下、第2実施形態の車両監視システム2および車両監視装置200について説明する。図14は、第2実施形態の車両監視システム2に含まれるカメラ10、20、30がガントリGTに取り付けられた様子を示す図である。カメラ10、20、30は、例えばCCDやCMOS等の撮像素子を備えるカメラである。カメラ10、20については第1実施形態と同様であるため、説明を省略する。カメラ30は、ガントリGTの直下領域を撮像する。図中、A(30)はカメラ30の撮像領域を示す。カメラ30の撮像領域A(30)は、例えば、撮像領域A(10)とA(20)の死角をカバーするように設定される。また、カメラ10、20、30は、所定周期で繰り返し撮像を行うように制御される。
カメラ10、20、30の撮像した画像は、車両監視装置200に送信される。
Second Embodiment
Hereinafter, the vehicle monitoring system 2 and the vehicle monitoring device 200 of the second embodiment will be described. FIG. 14 is a diagram illustrating a state where the cameras 10, 20, and 30 included in the vehicle monitoring system 2 of the second embodiment are attached to the gantry GT. The cameras 10, 20, and 30 are cameras that include an image sensor such as a CCD or a CMOS, for example. Since the cameras 10 and 20 are the same as those in the first embodiment, description thereof is omitted. The camera 30 captures an area immediately below the gantry GT. In the figure, A (30) indicates an imaging region of the camera 30. The imaging area A (30) of the camera 30 is set to cover the blind spots of the imaging areas A (10) and A (20), for example. Further, the cameras 10, 20, and 30 are controlled so as to repeatedly perform imaging at a predetermined cycle.
Images captured by the cameras 10, 20, and 30 are transmitted to the vehicle monitoring device 200.

このように、車両MBの前方、後方、および直上から撮像を行うことで、カメラ10に撮像された車両MBが、その後にカメラ20に撮像されるまでの間の状態変化を、漏れなく把握することができる。例えば、ガントリGTが2車線以上の道路に跨って懸架されている場合に、係る効果は顕著なものとなる。   In this way, by capturing images from the front, rear, and directly above the vehicle MB, the state change until the vehicle MB captured by the camera 10 is subsequently captured by the camera 20 can be grasped without omission. be able to. For example, when the gantry GT is suspended over a road having two or more lanes, the effect is remarkable.

図15は、第2実施形態の車両監視システム2により、複数車線を走行する車両が確実に認識される様子を示す図である。ここでは、カメラ10、20、30の撮像領域A(10)、A(20)、A(30)は、複数車線に跨るものとする。図15(A)は、車線1、車線2の2車線に跨ってガントリGTが懸架され、ガントリGTの直下で車両MB2が車両MB1を追い越した状況を示す図である。この場合、ガントリGTの直下を撮像するカメラ30が存在しなければ、カメラ10によって直列状に並んで撮像された車両MB1と車両MB2は、カメラ20の撮像画像において横に並んで出現することになり、双方の車両の同定が困難になる場合がある。   FIG. 15 is a diagram illustrating a state in which a vehicle traveling in a plurality of lanes is reliably recognized by the vehicle monitoring system 2 according to the second embodiment. Here, the imaging areas A (10), A (20), and A (30) of the cameras 10, 20, and 30 are assumed to straddle a plurality of lanes. FIG. 15A is a diagram illustrating a situation in which the gantry GT is suspended over two lanes of the lane 1 and the lane 2 and the vehicle MB2 passes the vehicle MB1 immediately below the gantry GT. In this case, if there is no camera 30 that images directly under the gantry GT, the vehicles MB1 and MB2 captured in series by the camera 10 appear side by side in the captured image of the camera 20. Therefore, it may be difficult to identify both vehicles.

これに対し、第2実施形態の車両監視システム2では、カメラ30の撮像画像によって、車両MB2の追い越し動作を把握することができるため、より確実に車両の同定を行うことができる。図15(B)は、車両監視装置20によって車両MB1、MB2が把握されることによって、記憶部120(後述)に格納される情報の一例を示す図である。   On the other hand, in the vehicle monitoring system 2 of the second embodiment, the overtaking operation of the vehicle MB2 can be grasped from the captured image of the camera 30, so that the vehicle can be identified more reliably. FIG. 15B is a diagram illustrating an example of information stored in the storage unit 120 (described later) when the vehicle monitoring device 20 grasps the vehicles MB1 and MB2.

車両監視装置200は、任意の場所に設置することができる。図16は、第2実施形態に係る車両監視装置200の機能構成の一例を示す図である。車両監視装置200は、例えば、前方車両判定部202と、車両進入検出部204と、車両位置推定部206と、速度計測部208と、車種割当部210と、車両退出判定部212と、車両情報統合部214と、後方車両判定部216と、カメラ制御部218と、画質向上処理部220と、記憶部230とを備える。これらの機能部は、例えば、車両監視装置200のCPUが、記憶部230に記憶されたプログラムを実行することにより機能するソフトウェア機能部である。なお、これに代えて、各機能部は、LSIやASIC等のハードウェア機能部であってもよい。   The vehicle monitoring device 200 can be installed at an arbitrary place. FIG. 16 is a diagram illustrating an example of a functional configuration of the vehicle monitoring apparatus 200 according to the second embodiment. The vehicle monitoring apparatus 200 includes, for example, a forward vehicle determination unit 202, a vehicle entry detection unit 204, a vehicle position estimation unit 206, a speed measurement unit 208, a vehicle type assignment unit 210, a vehicle exit determination unit 212, and vehicle information. An integration unit 214, a rear vehicle determination unit 216, a camera control unit 218, an image quality improvement processing unit 220, and a storage unit 230 are provided. These functional units are, for example, software functional units that function when the CPU of the vehicle monitoring apparatus 200 executes a program stored in the storage unit 230. Instead of this, each functional unit may be a hardware functional unit such as an LSI or an ASIC.

前方車両判定部202は、例えば、カメラ10により撮像された画像から、第1実施形態における車両状態判定部104や認識位置判定部106と同様の処理を行って、ガントリGTに向かって前進する車両の位置等を特定すると共に、その車両のナンバープレートに記載された情報を読み取る。図15に示したように、ガントリGTが複数車線に跨る場合には、車両の位置やナンバープレートに記載された情報は、走行車線の情報と共に記憶部230に格納される。車両進入検出部204は、前方車両判定部202から、ガントリGTの直下に進入する車両の位置と時刻を受け取り、車両サイズの物体が進入することを検知する。   The forward vehicle determination unit 202 performs, for example, the same processing as the vehicle state determination unit 104 and the recognition position determination unit 106 in the first embodiment from an image captured by the camera 10, and moves forward toward the gantry GT. The position of the vehicle is specified, and the information written on the license plate of the vehicle is read. As shown in FIG. 15, when the gantry GT straddles a plurality of lanes, the information on the vehicle position and the number plate is stored in the storage unit 230 together with the information on the traveling lane. The vehicle entry detection unit 204 receives the position and time of the vehicle entering immediately below the gantry GT from the forward vehicle determination unit 202, and detects that an object of vehicle size enters.

車両位置推定部206は、車両進入検出部204によって検出された車両が時刻毎に移動する様子を捉え、時刻毎の車両の位置を特定する。車両位置推定部206は、真上方向から撮影した車両については、例えば、時刻毎に車両輪郭領域内の輝度情報テンプレートを更新して車両を同定する。   The vehicle position estimation unit 206 captures how the vehicle detected by the vehicle entry detection unit 204 moves at each time, and specifies the position of the vehicle at each time. For the vehicle imaged from directly above, the vehicle position estimation unit 206 identifies the vehicle by updating the luminance information template in the vehicle contour region at each time, for example.

速度計測部208は、車両位置推定部206により特定される車両の位置の単位時間あたりの移動量に基づいて、車両の速度を計測する。速度計測部208により計測された速度が車両間で大きく偏っている場合には、法定速度で移動する車両がいるのにも関わらず、故障や事故などにより停止している車両が発生していることが予想されるため、警告装置へ通報するなどの処理を行ってもよい。   The speed measurement unit 208 measures the speed of the vehicle based on the amount of movement of the vehicle position specified by the vehicle position estimation unit 206 per unit time. When the speed measured by the speed measuring unit 208 is greatly deviated between vehicles, there are vehicles that are stopped due to a failure or accident even though there are vehicles that move at the legal speed. Therefore, processing such as reporting to a warning device may be performed.

車種割当部210は、車両位置推定部206によって特定された車両の位置に、前方車両判定部202により検出および読み取られた情報を割り当てる。特に「二輪車」に関しては、前方車両判定部202により読み取られた、ナンバープレートに記載された情報が存在しないため、車両の位置を確実に把握しておく。   The vehicle type assigning unit 210 assigns the information detected and read by the forward vehicle determining unit 202 to the position of the vehicle specified by the vehicle position estimating unit 206. In particular, regarding the “two-wheeled vehicle”, since there is no information written on the license plate read by the forward vehicle determination unit 202, the position of the vehicle is surely grasped.

車両退出判定部212は、車両位置推定部206によって特定された車両の位置に基づき、車両が出口付近の位置を越えたか否かを判定することで、ガントリGTの下部領域からの車両の退出を判定する。   The vehicle exit determination unit 212 determines whether or not the vehicle has exceeded a position near the exit based on the vehicle position specified by the vehicle position estimation unit 206, so that the vehicle exits from the lower region of the gantry GT. judge.

車両情報統合部214は、ガントリGTの下部領域から退出する車両毎に、走行していた車線および退出時刻と、車種割当部210により割り当てられた情報とを統合し、車両通行の管理を行う。   The vehicle information integration unit 214 manages the vehicle traffic by integrating the lane and the exit time that have been traveled and the information allocated by the vehicle type allocation unit 210 for each vehicle that exits from the lower region of the gantry GT.

後方車両判定部216は、ガントリGTより離れる方向に進行する車両を撮影するカメラ20により撮像された画像から、第1実施形態における車両状態判定部104や認識位置判定部106と同様の処理を行って、車両の位置を特定すると共にナンバープレート情報を読み取る。   The rear vehicle determination unit 216 performs the same processing as the vehicle state determination unit 104 and the recognition position determination unit 106 in the first embodiment from the image captured by the camera 20 that captures the vehicle traveling in a direction away from the gantry GT. Then, the position of the vehicle is specified and the license plate information is read.

カメラ制御部218は、後方車両判定部216が使用するカメラ20に送信されるパラメータの変更情報を生成する。例えば、カメラ制御部218は、車両情報統合部214において、顕著に速度の早い車両が通過していることが検知された場合には、カメラ20のシャッター速度を速くするなどの制御を行う。また、「二輪車」が多数通行することが検知された場合には、解像度を上げるためにズーム情報を変更するなどの制御を行う。また、照明装置によってガントリGT周辺を照射している場合には、カメラ20の撮像領域A(20)に車両が進入するタイミングを予測して、照明点灯(或いは強度の調整)のタイミングを計るなどの制御を行ってもよい。また、車両後方はナンバープレート装着が義務づけられていることから、カメラ20の撮像画像の解像度をカメラ10の画像の撮像画像の解像度よりも高く設定してよい。   The camera control unit 218 generates parameter change information transmitted to the camera 20 used by the rear vehicle determination unit 216. For example, the camera control unit 218 performs control such as increasing the shutter speed of the camera 20 when the vehicle information integration unit 214 detects that a vehicle with a significantly high speed is passing. In addition, when it is detected that many “two-wheeled vehicles” pass, control such as changing zoom information is performed in order to increase the resolution. In addition, when the illumination device irradiates the periphery of the gantry GT, the timing at which the vehicle enters the imaging region A (20) of the camera 20 is predicted, and the timing of illumination lighting (or intensity adjustment) is measured. You may control. In addition, since the license plate is required to be mounted behind the vehicle, the resolution of the captured image of the camera 20 may be set higher than the resolution of the captured image of the image of the camera 10.

画質向上処理部220は、カメラ10、20により撮像された画像に対して、例えば、ガントリGT全体の振動による車両の動きぼけを補正する処理等を行う。また、画質向上処理部220は、カメラ制御部218による調整が追いつかないような場合に、画像の露出不足や解像度不足を補うための補正処理等を行ってもよい。   The image quality improvement processing unit 220 performs, for example, processing for correcting motion blur of the vehicle due to vibration of the entire gantry GT on the images captured by the cameras 10 and 20. In addition, the image quality improvement processing unit 220 may perform a correction process or the like to make up for insufficient image exposure or insufficient resolution when adjustment by the camera control unit 218 cannot catch up.

図15の例では、車両情報統合部214が、入口付近で時刻Tn−1に車両MB1が、続いて時刻Tnに車両MB2が車線2を通過したという情報を、前方車両判定部202から受け取り、更に、カメラ30により撮像された画像に基づいて各車両の同定を行った結果、各車両がカメラ20の撮像領域A(20)に進入する前に、車両MB2が車両MB1を追い越し、車線2から車線1へ進路変更したことが判明したものとする。この時、車両情報統合部214は、車両の時系列情報に変更を加え、後方車両判定部216に対して、車線2から、車両MB2が先に画面に現れることを伝達する。従って、入口側と出口側での車両管理状態には矛盾は生じず、予め車両到達の情報を持つことが出来るため、認識精度の向上を図ることができる。   In the example of FIG. 15, the vehicle information integration unit 214 receives information from the front vehicle determination unit 202 that the vehicle MB1 has passed the lane 2 at time Tn-1 and subsequently the vehicle MB2 at time Tn near the entrance. Furthermore, as a result of identifying each vehicle based on the image captured by the camera 30, before each vehicle enters the imaging area A (20) of the camera 20, the vehicle MB2 overtakes the vehicle MB1, and from the lane 2 It is assumed that the course has been changed to lane 1. At this time, the vehicle information integration unit 214 changes the time-series information of the vehicle, and notifies the rear vehicle determination unit 216 that the vehicle MB2 appears on the screen first from the lane 2. Accordingly, there is no contradiction between the vehicle management states on the entrance side and the exit side, and information on the arrival of the vehicle can be held in advance, so that the recognition accuracy can be improved.

以上説明した第2実施形態の車両監視装置200によれば、カメラ10とカメラ20の撮像領域の隙間を補完するカメラ30の撮像画像を用いて車両の監視を行なうため、シームレスな車両監視を実現することができる。   According to the vehicle monitoring apparatus 200 of the second embodiment described above, since the vehicle is monitored using the captured image of the camera 30 that complements the gap between the imaging regions of the camera 10 and the camera 20, seamless vehicle monitoring is realized. can do.

また、第2実施形態の車両監視装置200によれば、カメラ制御部218が、カメラ10、30により撮像された画像に基づく情報を用いて、カメラ20に送信するパラメータを変更するため、より確実に車両を監視することができる。   Further, according to the vehicle monitoring apparatus 200 of the second embodiment, the camera control unit 218 uses the information based on the images captured by the cameras 10 and 30 to change the parameter to be transmitted to the camera 20, so that it is more reliable. The vehicle can be monitored.

以上説明した少なくともひとつの実施形態によれば、道路と車両との境界を特定するという、比較的処理負荷が小さく且つ高精度に行うことができる、フロント部(F)を特定する処理によって走査領域を絞り込むことにより、車両のナンバープレートに記載された情報を効率的に読み取ることができる。   According to at least one embodiment described above, the scanning region is identified by the process of identifying the front portion (F), which can be performed with a relatively small processing load and high accuracy, such as identifying the boundary between the road and the vehicle. By narrowing down, the information described on the license plate of the vehicle can be read efficiently.

なお、上記各実施形態における車両状態判定部104、認識位置判定部106、前方車両判定部202、後方車両判定部216が、特許請求の範囲における「判定部」の一例である。また、上記各実施形態におけるナンバー認識部108、前方車両判定部202、後方車両判定部216が、特許請求の範囲における「読取部」の一例である。   In addition, the vehicle state determination unit 104, the recognition position determination unit 106, the forward vehicle determination unit 202, and the rear vehicle determination unit 216 in each of the embodiments are examples of the “determination unit” in the claims. Moreover, the number recognition part 108 in each said embodiment, the front vehicle determination part 202, and the back vehicle determination part 216 are examples of the "reading part" in a claim.

以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば、第1実施形態においても、第2実施形態と同様のカメラ制御、画質向上処理、カメラ20による情報補完等が行われてよい。第1実施形態として説明した技術と、第2実施形態として説明した技術は、適宜、組み合わせて使用することができる。
As mentioned above, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
For example, also in the first embodiment, the same camera control, image quality improvement processing, and information supplementation by the camera 20 as in the second embodiment may be performed. The technique described as the first embodiment and the technique described as the second embodiment can be used in appropriate combination.

10、20、30 カメラ
100、200 車両監視装置
102 車両検知部
104 車両状態判定部
106 認識位置判定部
108 ナンバー認識部
110 車両状態遷移部
112 車両台数計測部
114 車幅計測部
116 車種判定部
118 車両情報統合部
120、230 記憶部
202 前方車両判定部
204 車両進入検出部
206 車両位置推定部
208 速度計測部
210 車種割当部
212 車両退出判定部
214 車両情報統合部
216 後方車両判定部
218 カメラ制御部
220 画質向上処理部
10, 20, 30 Camera 100, 200 Vehicle monitoring device 102 Vehicle detection unit 104 Vehicle state determination unit 106 Recognition position determination unit 108 Number recognition unit 110 Vehicle state transition unit 112 Vehicle number measurement unit 114 Vehicle width measurement unit 116 Vehicle type determination unit 118 Vehicle information integration unit 120, 230 Storage unit 202 Forward vehicle determination unit 204 Vehicle entry detection unit 206 Vehicle position estimation unit 208 Speed measurement unit 210 Vehicle type assignment unit 212 Vehicle exit determination unit 214 Vehicle information integration unit 216 Rear vehicle determination unit 218 Camera control Part 220 Image quality improvement processing part

Claims (11)

所定箇所に近接する車両を前方から撮像可能な第1の撮像部と、前記所定箇所を通過する車両を上方から撮像可能な第の撮像部と、前記所定箇所から遠ざかる前記車両を後方から撮像可能な第の撮像部とを備える撮像部によって撮像された画像を取得する画像取得部と、
前記撮像部により撮像された画像において、前記画像を少なくとも車両の進行方向に略直交する分割線で分割した複数の領域のうち特定の領域に、前記車両の特定の部位が存在するか否かを判定する判定部と、
前記車両の特定の部位が前記特定の領域に存在すると判定された場合に、前記特定の領域から、前記車両に取り付けられたナンバープレートに記載された情報を読み取る読取部と、
前記第3の撮像部により撮像された画像に基づいて、前記第1の撮像部によって撮像された画像から検出された車両の前記所定箇所付近における位置を時刻毎に特定する車両位置推定部と、
前記車両位置推定部によって特定された前記車両の位置に、前記読取部が前記第1の撮像部によって撮像された画像から読み取った情報を割り当てる車種割当部と、
前記撮像部により撮像された画像において、前記複数の領域のそれぞれに存在する車両の部位のパターンに基づいて、前記撮像部により撮像される領域における車両の状態の類型化を行う類型化部と、
前記類型化部によって類型化された車両の状態の変化に基づいて通過車両の台数を計測する計測部と、
を備える車両監視装置。
A first imaging unit capable of imaging a vehicle close to a predetermined location from the front, a third imaging unit capable of imaging a vehicle passing through the predetermined location from above, and an image of the vehicle moving away from the predetermined location from the rear An image acquisition unit that acquires an image captured by an imaging unit including a second imaging unit possible;
Whether or not a specific part of the vehicle exists in a specific region among a plurality of regions obtained by dividing the image by a dividing line substantially orthogonal to the traveling direction of the vehicle in the image captured by the imaging unit. A determination unit for determining;
When it is determined that a specific part of the vehicle is present in the specific region, a reading unit that reads information described on a license plate attached to the vehicle from the specific region;
A vehicle position estimator that identifies the position of the vehicle in the vicinity of the predetermined location detected from the image captured by the first imager based on the image captured by the third imager;
A vehicle type assigning unit that assigns information read from the image captured by the first image capturing unit to the position of the vehicle specified by the vehicle position estimating unit;
In the image captured by the imaging unit, a categorizing unit that classifies the state of the vehicle in the region imaged by the imaging unit, based on a pattern of a part of the vehicle existing in each of the plurality of regions;
A measurement unit that measures the number of passing vehicles based on a change in the state of the vehicle typified by the typification unit;
A vehicle monitoring device comprising:
前記車両位置推定部は、前記第3の撮像部により撮像された画像に基づいて、前記所定箇所付近における車両の追い越し又は車線変更を検出する、
請求項1記載の車両監視装置。
The vehicle position estimation unit detects overtaking or lane change of the vehicle in the vicinity of the predetermined location based on an image captured by the third imaging unit;
The vehicle monitoring apparatus according to claim 1.
前記車両位置推定部によって特定された前記車両の位置の単位時間あたりの移動量に基づいて、前記車両の速度を計測する速度計測部をさらに備える、
請求項1又は2記載の車両監視装置。
A speed measuring unit that measures the speed of the vehicle based on a movement amount per unit time of the position of the vehicle specified by the vehicle position estimating unit;
The vehicle monitoring apparatus according to claim 1 or 2.
前記速度計測部は、計測した速度が車両間で大きく偏っている場合には、異常事態が発生している可能性があることを警告装置へ通報する、
請求項3記載の車両監視装置。
The speed measuring unit, when the speed measured is biased greatly between vehicles, to report to the warning device that might abnormal situation has occurred,
The vehicle monitoring device according to claim 3.
前記撮像部の動作を制御するカメラ制御部をさらに備え、
前記カメラ制御部は、前記速度計測部によって過度に速度の早い車両が通過していることが検知された場合には前記撮像部のシャッター速度を速くする、
請求項3又は4記載の車両監視装置。
A camera control unit for controlling the operation of the imaging unit;
The camera control unit increases the shutter speed of the imaging unit when it is detected by the speed measurement unit that an excessively fast vehicle is passing,
The vehicle monitoring device according to claim 3 or 4.
前記撮像部の動作を制御するカメラ制御部をさらに備え、
前記カメラ制御部は、前記速度計測部によって計測された速度に基づいて車両が前記所定箇所付近に進入するタイミングを予測し、予測した前記タイミングで前記所定箇所付近に設置された照明装置を点灯させる、
請求項3又は4記載の車両監視装置。
A camera control unit for controlling the operation of the imaging unit;
The camera control unit predicts the timing at which the vehicle enters the vicinity of the predetermined location based on the speed measured by the speed measurement unit, and lights the lighting device installed near the predetermined location at the predicted timing. ,
The vehicle monitoring device according to claim 3 or 4.
前記特定の部位は、車両の前端部または後端部である、
請求項1から6のいずれか一項に記載の車両監視装置。
The specific portion is a front end portion or a rear end portion of the vehicle.
The vehicle monitoring device according to any one of claims 1 to 6.
前記読取部により読み取られた前記情報に基づいて車両の車種を判定する車種判定部をさらに備え
前記読取部は、前記車種判定部により判定された車両の車種に基づいて、前記特定の領域のうち、前記ナンバープレートを走査する走査領域を決定する、
請求項1から7のいずれか一項に記載の車両監視装置。
Further comprising a vehicle type determination unit for determining the vehicle type of the vehicle based on the information read by the reading unit,
The reading unit determines a scanning region for scanning the license plate among the specific regions based on the vehicle type of the vehicle determined by the vehicle type determination unit.
The vehicle monitoring device according to any one of claims 1 to 7.
前記第1の撮像部により撮像された画像に基づく情報と、前記第2の撮像部により撮像された画像に基づく情報とを統合する統合部を備える、
請求項1からのいずれか一項に記載の車両監視装置。
Wherein comprising a first information based on the image captured by the imaging unit, an integrating unit that integrates the information based on the second image captured by the imaging unit,
The vehicle monitoring device according to any one of claims 1 to 8 .
前記第1の撮像部により撮像された画像に基づく情報を用いて、前記第2の撮像部に撮像パラメータを提供する提供部を備える、
請求項1からのいずれか一項に記載の車両監視装置。
Using a providing unit that provides imaging parameters to the second imaging unit using information based on an image captured by the first imaging unit;
The vehicle monitoring device according to any one of claims 1 to 9 .
コンピュータが、
所定箇所に近接する車両を前方から撮像可能な第1の撮像部と、前記所定箇所を通過する車両を上方から撮像可能な第の撮像部と、前記所定箇所から遠ざかる前記車両を後方から撮像可能な第の撮像部とを備える撮像部によって撮像された画像を取得し、
前記撮像された画像において、前記画像を少なくとも車両の進行方向に略直交する分割線で分割した複数の領域のうち特定の領域に、前記車両の特定の部位が存在するか否かを判定し、
前記車両の特定の部位が前記特定の領域に存在すると判定された場合に、前記特定の領域から、前記車両に取り付けられたナンバープレートに記載された情報を読み取り、
前記第3の撮像部により撮像された画像に基づいて、前記第1の撮像部によって撮像された画像から検出された車両の前記所定箇所付近における位置を時刻毎に特定し、
特定された前記車両の位置に、前記第1の撮像部によって撮像された画像から読み取られた情報を割り当てる、
前記撮像部により撮像された画像において、前記複数の領域のそれぞれに存在する車両の部位のパターンに基づいて、前記撮像部により撮像される領域における車両の状態の類型化を行い、
類型化された前記車両の状態の変化に基づいて通過車両の台数を計測する、
車両監視方法。
Computer
A first imaging unit capable of imaging a vehicle close to a predetermined location from the front, a third imaging unit capable of imaging a vehicle passing through the predetermined location from above, and an image of the vehicle moving away from the predetermined location from the rear An image captured by an image capturing unit including a second image capturing unit,
In the captured image, it is determined whether or not a specific part of the vehicle exists in a specific region among a plurality of regions divided by at least a dividing line substantially orthogonal to the traveling direction of the vehicle,
When it is determined that a specific part of the vehicle is present in the specific area, the information described on a license plate attached to the vehicle is read from the specific area,
Based on the image captured by the third imaging unit, the position of the vehicle near the predetermined location detected from the image captured by the first imaging unit is specified for each time,
Assigning the information read from the image captured by the first imaging unit to the identified position of the vehicle;
In the image picked up by the image pickup unit, based on the pattern of the part of the vehicle existing in each of the plurality of regions, to classify the state of the vehicle in the region picked up by the image pickup unit,
Measure the number of passing vehicles based on the categorized change in the state of the vehicle,
Vehicle monitoring method.
JP2017017819A 2017-02-02 2017-02-02 Vehicle monitoring apparatus and vehicle monitoring method Expired - Fee Related JP6280659B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017017819A JP6280659B2 (en) 2017-02-02 2017-02-02 Vehicle monitoring apparatus and vehicle monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017017819A JP6280659B2 (en) 2017-02-02 2017-02-02 Vehicle monitoring apparatus and vehicle monitoring method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013152080A Division JP2015022658A (en) 2013-07-22 2013-07-22 Vehicle monitoring apparatus and vehicle monitoring method

Publications (2)

Publication Number Publication Date
JP2017084417A JP2017084417A (en) 2017-05-18
JP6280659B2 true JP6280659B2 (en) 2018-02-14

Family

ID=58711010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017017819A Expired - Fee Related JP6280659B2 (en) 2017-02-02 2017-02-02 Vehicle monitoring apparatus and vehicle monitoring method

Country Status (1)

Country Link
JP (1) JP6280659B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11914041B2 (en) 2018-05-30 2024-02-27 Ihi Corporation Detection device and detection system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7099091B2 (en) * 2018-07-03 2022-07-12 沖電気工業株式会社 License plate recognition device, license plate recognition method and program
KR102622169B1 (en) 2018-12-06 2024-01-08 팅크웨어(주) Method, apparatus, electronic device, computer program and computer readable recording medium for measuring a distance between front vehicle and rear vehicle
KR102039118B1 (en) * 2019-04-17 2019-11-26 유에프엠시스템즈 주식회사 Photographing system of multi lines using radar
KR102076309B1 (en) * 2019-06-03 2020-03-17 정흥원 Moving motocycle recognition and motocycle entry/exit processing method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721488A (en) * 1993-07-02 1995-01-24 Omron Corp Traffic flow abnormality monitoring and supporting device
JPH09282447A (en) * 1996-04-18 1997-10-31 Mitsubishi Electric Corp Picture recognizing device
WO1997050067A1 (en) * 1996-06-24 1997-12-31 Philips Electronics N.V. A multilane traffic registration system, comprising multiple and gantry-mounted detector means
JP3605955B2 (en) * 1996-07-31 2004-12-22 オムロン株式会社 Vehicle identification device
JP4032680B2 (en) * 2001-08-24 2008-01-16 三菱電機株式会社 Monitoring device
JP2003217083A (en) * 2002-01-18 2003-07-31 Mitsubishi Heavy Ind Ltd Vehicle detecting method and device
JP2003228793A (en) * 2002-02-04 2003-08-15 Matsushita Electric Ind Co Ltd Reader for front and rear license plates
JP4587770B2 (en) * 2004-10-20 2010-11-24 名古屋電機工業株式会社 Vehicle photographing method and apparatus
WO2008010308A1 (en) * 2006-07-18 2008-01-24 Fujitsu Limited Number-plate information acquiring device, number-plate information acquiring method, and number-plate information acquiring program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11914041B2 (en) 2018-05-30 2024-02-27 Ihi Corporation Detection device and detection system

Also Published As

Publication number Publication date
JP2017084417A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
WO2015012219A1 (en) Vehicle monitoring device and vehicle monitoring method
JP6280659B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP5679461B2 (en) Method and apparatus for determining valid lane markings
US7512494B2 (en) Vehicle mounted image processor and method of use
EP3576008B1 (en) Image based lane marking classification
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
CN104537841B (en) Unlicensed vehicle violation detection method and detection system thereof
US9904860B2 (en) Vehicle exterior environment recognition apparatus
CN111891061B (en) Vehicle collision detection method and device and computer equipment
JP6226368B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP2008052517A (en) Traffic measurement method and traffic measurement apparatus
KR102306789B1 (en) License Plate Recognition Method and Apparatus for roads
KR101894710B1 (en) Apparatus for classifying vehicle type and control method thereof
JP5062091B2 (en) Moving object identification device, computer program, and optical axis direction specifying method
JP4532372B2 (en) Road marking line detection device
JP7261006B2 (en) External environment recognition device
Yim et al. Integrated plate recognition and speed detection for intelligent transportation systems
CN113128264A (en) Vehicle area determination method and device and electronic equipment
Wangsiripitak et al. Traffic light and crosswalk detection and localization using vehicular camera
JP2006012013A (en) Mobile object tracking device
JP4074571B2 (en) Traffic flow measuring device
CN114746915A (en) Signal machine identification method and signal machine identification device
JP7384181B2 (en) Image collection device, image collection method, and computer program for image collection
JP7103202B2 (en) Image recognition device
JP7005762B2 (en) Sign recognition method of camera device and sign recognition device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170913

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180119

R150 Certificate of patent or registration of utility model

Ref document number: 6280659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees