JP2004013207A - Automatic toll collection system and vehicle management method - Google Patents

Automatic toll collection system and vehicle management method Download PDF

Info

Publication number
JP2004013207A
JP2004013207A JP2002161618A JP2002161618A JP2004013207A JP 2004013207 A JP2004013207 A JP 2004013207A JP 2002161618 A JP2002161618 A JP 2002161618A JP 2002161618 A JP2002161618 A JP 2002161618A JP 2004013207 A JP2004013207 A JP 2004013207A
Authority
JP
Japan
Prior art keywords
vehicle
detector
image processing
image
vehicle management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002161618A
Other languages
Japanese (ja)
Inventor
Yuji Hasegawa
長谷川 裕二
Ryuji Horie
堀江 竜司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002161618A priority Critical patent/JP2004013207A/en
Publication of JP2004013207A publication Critical patent/JP2004013207A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an ETC system for detecting deviation of vehicle management due to erroneous detection by a vehicle detection device and bringing back to a correct vehicle management condition. <P>SOLUTION: A plurality of vehicle detection devices S1, S2, S3 and S4 for detecting a passing vehicle and a photographing means 20 for photographing the passing vehicle are provided. Identity of the vehicle detected by the plurality of the vehicle detection devices S1, S2, S3 and S4 is determined by using an image taken by the photographing means 20. By combining information by the vehicle detection devices S1, S2, S3 and S4 for detecting only whether a vehicle has passed or not and image information by the photographing means 20, it is possible to identify whether a vehicle respectively detected by the vehicle detection devices S1, S2, S3 and S4 is identical or not, so that deviation of vehicle management can be corrected. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、有料道路の自動料金収受(Electronic Toll Collection:ETC)システムと、そのシステム等での車両管理方法に関し、特に、料金所のETCレーン内の車両を的確に管理できるようにしたものである。
【0002】
【従来の技術】
近年、ETCシステムは、各所の有料道路に導入されており、このシステムを利用できる車両は、有料道路の料金所をノンストップで通過することができる。ETCシステムを利用するには、車両にETC車載器を取り付け、この車載器にETCカードを挿入して、料金所の通信用アンテナを備えたETCレーンのゲートを通過しなければならない。このETC車載器には、それを取り付けた車両の車種、長さ、幅、高さなどの情報が予め登録(セットアップ)されている。また、ETCカードは、クレジットカード会社が発行するETC専用のICカードなどであり、料金所通過の際に通過ゲートのIDや料金収受の記録が書き込まれる。 有料道路の通行料は車種ごとに設定されている。また、入口ゲートと出口ゲートとを設けて走行距離に応じた料金を算定する対距離制の方式と、一つのゲートで一定額を徴収する料金均一制の方式とがある。ゲートの構成は、その方式の違いや入口ゲート、出口ゲートにより異なり、また、立地条件によっても違っている。このゲートの一例を図19(斜視図)及び図20(平面図)に示している。 このゲートは、ETC車載器との無線通信に使用するアンテナ10をレーン上に備え、アイランド17には、複数の投光器及び受光器の対から成り、光線の遮断によって車両の通過を感知する第1車両検知器S1、第2車両検知器S2、第3車両検知器S3及び第4車両検知器S4と、レーンを通過する車両14−1に対して「通行可」または「停車」を表示する路側表示器11と、車両14−1がETC車載器を装備したETC車両であるときはバーを開き、非ETC車両であるときはバーを閉じたままとする遮断機12と、アンテナ10を通じてETC車載器と無線通信を行う路側無線装置16を内包し、レーンの動作を制御する車線制御装置15と、収受員が入るブース13とを備えている。
【0003】
図21は各部の関係をブロック図で示している。車線制御装置15は、各車両検知器S1〜S4及び路側無線装置16の検知情報を基に、車両14−1がETC車両であるか非ETC車両であるかを識別し、ETC車両であるときは、必要な課金処理を行い、路側表示器11に「通行可」を表示して遮断機12を開く。また、非ETC車両であるときは、路側表示器11に「停車」を表示し、遮断機12は閉じたままとする。なお、非ETC車両の場合は、収受員が料金の徴収等を行った後、手動で遮断機12を開く。また、車線制御装置15は、課金情報等の必要な情報を中央装置に送信し、また、中央装置からの指示情報を受信する。
【0004】
図22に示すように、第1車両検知器S1と第2車両検知器S2との間隔は4m程度に設定されている。なお、図19では、第1車両検知器S1を二対の車両検知器で構成しているが、こうすることにより車両の進行方向の検知が可能になる。また、両方の車両検知器の光線が同時に遮断されたときに車両として識別することにより、風に舞う新聞紙などを車両と誤認する検知ミスが防止できる。但し、第1車両検知器S1は一対の車両検知器で構成することも可能である。
【0005】
アンテナ10の指向性は、この第1車両検知器S1と第2車両検知器S2との間の区間だけが無線通信領域となるように絞り込まれる。このレーンに車両が進入し、第1車両検知器S1が車両を検知すると、その検知情報が車線制御装置15に伝えられ、車線制御装置15は路側無線装置16に無線送信を開始させる。車両がETC車両である場合には、車内のダッシュボード上などにETC車載器が設置されている。このETC車載器は、アンテナ10からの無線信号を受信すると、車種などの車両情報や、入口ゲート通過時にETCカードに書き込まれた入口ゲートのID情報などを送信する。この情報はアンテナ10で受信され、路側無線装置16から車線制御装置15に送られる。
【0006】
車線制御装置15は、通過車両14−1から無線による応答があると、自動料金収受の通信処理を実行し、その通信処理が正常に終了すると、路側表示器11に通行可能であることを表示し、遮断機12を開く。
通過車両14−1が第2車両検知器S2の位置に達し、第2車両検知器S2が車両14−1を検知すると、車線制御装置15は、アンテナ10からの送信を打ち切る。車両14−1が第1車両検知器S1の位置から第2車両検知器S2の位置まで走行する間に無線応答しなければ、車線制御装置15は、通過車両14−1を非ETC車両と識別し、路側表示器11に停車の指示を表示し、遮断機12を閉じたままとする。
通過車両14−1が第3車両検知器S3の位置に達し、第3車両検知器S3が車両14−1を検知すると、車線制御装置15は、路側表示器11の表示を消す。これは、後続車両14−2が路側表示器11の表示を見て誤認することを避けるためである。
【0007】
また、ETC車両が、開かれた遮断機12を通過し、あるいは、収受員の課金処理を受けた非ETC車両が、収受員により開かれた遮断機12を通過すると、第4車両検知器S4は、これらの車両の車尾を検知して車線制御装置15に伝え、これを受けた車線制御装置15は、遮断機12を閉じる。
このように、ETCシステムでは、路車間通信の開始及び終了のタイミング、路側表示器11の点灯及び消灯のタイミング、遮断機12の開/閉のタイミングなどを全て、アイランド17に設置した車両検知器S1〜S4の検知結果に基づいて決めている。
【0008】
この車両検知器S1〜S4は、図23に示すように、一列に並ぶ複数の投光器と、これに対峙する複数の受光器とを備えており、複数の投光器が発光して光スクリーンを形成し、この光スクリーンを車両14が通過すると、車両の形状に応じて光が遮られ、受光器に検知される。
レーンに進入した車両は、車両検知器S1〜S4が形成する光スクリーンを次々に通過してレーンを通り抜ける。レーン内の車両は、追い越すことも追い越されることも無く、レーンに進入した順番でレーンから退出する。
【0009】
車線制御装置15は、こうした前提のもとに、現在レーン内を走行している車両の車両管理を行っており、第1車両検知器S1が進入車両を検知すると、その車両にIDを付してメモリのテーブルに登録し、第2車両検知器S2、第3車両検知器S3からの検知信号に基づいて、その車両位置を特定し、第4車両検知器S4が車両を検知すると、その車両がレーンからいなくなったものとしてテーブルから消去する。
【0010】
図24は、この車両管理の模様を概念的に示している。車線制御装置15は、まず、第1車両検知器S1が検知した進入車両をB1としてテーブルに登録し、無線通信の開始を制御する。次に第2車両検知器S2が車両を検知すると、車両B1が第2車両検知器S2の位置に到達したものと識別して、テーブルに到達位置を記録し、路車間通信を終了する。そして、車両B1に対するETC車両/非ETC車両の判別結果に基づき、路側表示器11に「通行可」または「停車」のメッセージを表示し、遮断機12の開閉を制御する。次に第3車両検知器S3が車両を検知すると、車両B1が第3車両検知器S3の位置に到達したものと識別してテーブルに到達位置を記録し、路側表示器11の表示を消去する。次に第4車両検知器S4が車尾を検知すると、車両B1が第4車両検知器S4の位置を通過したものと識別して、車両B1を管理対象から除外し、遮断機12を閉じる。
【0011】
しかし、車両検知器では、稀に、車両が通過したのに検知できなかったり、車両が通過しないのに検知したりする誤検知が発生する。こうした誤検知は、牽引車両やトレーラ等の1台の車両を誤って2台と検知したり、あるいは、新聞紙や蛙などが車両検知器に張り付いて光を遮断し、車両が通り過ぎてもそれが検知できなくなったりすること等が原因となる。
【0012】
車両検知器の誤検知が発生すると、車線制御装置15が管理している車両とレーン内に現存する車両との間にズレが生じる。
例えば、図24において、第1車両検知器S1がレーンに進入した車両を検知し、車線制御装置15がこの車両をB2としてテーブルに登録したとする。第2車両検知器S2が車両を検知すると、車線制御装置15は、車両B2が第2車両検知器S2の位置に到達したものと識別し、テーブルに車両B2の到達位置を記録する。
【0013】
次に、車両B2が第3車両検知器S3の位置を通過したとき、第3車両検知器S3がこの車両を検知できなかったとすると、車両管理のテーブル上では、車両B2は第3車両検知器S3の位置に到達していないことになり、そのため、路側表示器11の表示は消去されないままとなる。車両B2が第4車両検知器S3の位置を通過し、第4車両検知器S4が車両B2を検知しても、第3車両検知器S3を通過せずに第4車両検知器S4を通過する筈がないので、これは検知ミスとして扱われ、車両B2は車両管理のテーブル上に残ることになる。
このように、レーンには実在しないのに車両管理テーブル上は残ってしまう車両を「ゴースト車両」と呼んでいる。車両管理ズレは、このゴースト車両により発生する。
第1車両検知器S1が次の車両を検知し、車線制御装置15がこの車両をB3としてテーブルに登録する。第2車両検知器S2が車両を検知すると、車線制御装置15は、車両B3が第2車両検知器S2の位置に到達したものと識別し、テーブルに車両B3の到達位置を記録する。
【0014】
次に、車両B3が第3車両検知器S3の位置を通過し、第3車両検知器S3がこの車両を検知すると、車線制御装置15は、実際に通過したのは車両B3であるのに、ゴースト車両B2が第3車両検知器S3の位置に到達したものと識別し、テーブルに車両B2の到達位置を記録し、路側表示器11の表示を消去する。ここで車両管理ズレが発生する。
【0015】
次に車両B3が第4車両検知器S4の位置を通過し、第4車両検知器S4がこの車両を検知すると、車線制御装置15は、同様に、ゴースト車両B2が第4車両検知器S4の位置を通過したものと識別し、車両B2を管理対象から除外する。そのため、今度は車両B3がゴースト車両として車両管理テーブルに残ることになる。このように、一旦ゴースト車両が発生すると、ゴースト車両が次々と更新されて、車両管理ズレが継続する。
【0016】
この車両管理ズレが起きると、先行車両に対するETC車両/非ETC車両の識別結果に基づいて路側表示器11の表示や遮断機12の制御が行われるため、トラブルが発生する。
係員(収受員)は、レーンを目視し、一台の車両もレーンを走行していないときに車両管理テーブル上で車両の記録が残されている場合に、始めてゴースト車両の存在を知ることができる。このとき、係員は、ゴースト車両を排除する手動操作を行い、車両管理ズレを修正する。
【0017】
この車両管理ズレの自動検出を可能にしたETCシステムが特開2001−312753号公報に開示されている。このシステムでは、2アンテナ方式のゲート(図19のゲートの第1のアンテナ10とは別に、遮断機12の後方に第2のアンテナを備えている。対距離制の有料道路の入口ゲートなどに見られる)の場合、第1のアンテナがETC車載器から受信した車載器情報と第2のアンテナがETC車載器から受信した車載器情報とを照合して車両管理ズレをチェックし、車両管理内容に異常があるときには、その管理内容を変更する。
また、1アンテナ方式のゲートでは、レーン内の車両の滞在時間を計測し、一定の時間を超過した場合に操作パネルにエラー表示を行い、これを見た係員が手入力で車両管理ズレを修正する。
【0018】
【発明が解決しようとする課題】
しかし、特開2001−312753号公報に開示された車両管理方法では、1アンテナ方式の場合に、車両管理ズレの検出結果に対する信頼性が乏しく、そのため、この検出結果を用いて車両管理ズレを自動的に修正することができないと言う問題点がある。
また、2アンテナ方式の場合には、非ETC車両がレーンに進入したとき、車両管理ズレをチェックすることができないと言う問題点がある。
【0019】
本発明は、こうした従来の問題点を解決するものであり、どのような方式のレーンにおいても、車両検知器の誤検知による車両管理ズレを検出し、正しい車両管理状態に戻すことができるETCシステムを提供し、また、その車両管理方法を提供することを目的としている。
【0020】
【課題を解決するための手段】
そこで、本発明のETCシステムでは、通過車両を検知する複数の車両検知手段と、この通過車両を撮影する撮影手段とを設け、複数の車両検知手段により検知された車両の同一性を、撮影手段が撮影した映像を用いて判別するようにしている。
【0021】
また、通過車両を検知する複数の車両検知手段の車両検知情報に基づいて、この複数の車両検知手段が配置された区間に存在する車両の車両位置情報を管理する車両管理方法において、この区間の全域を撮影手段で撮影し、車両検知手段の各々が車両を検知した時点の撮影手段の映像を用いて、車両検知手段が検知した車両と隣接する車両検知手段が検知した車両との同一性を識別し、車両位置情報の誤りを検出するようにしている。
【0022】
このように、車両が通過したか否かのみを検出する車両検知器の情報と撮影手段の画像情報とを組み合わせることにより、それぞれの車両検知器で検知された車両が同じものかどうかを識別することができ、車両管理ズレを修正することができる。
【0023】
【発明の実施の形態】
(第1の実施形態)
本発明の第1の実施形態では、レーンを通過する車両を一台の監視カメラで追跡し、監視カメラの画像解析から得られる情報と車両検知器の検知信号との整合を取ることにより車両の位置を特定し、車両管理ズレの修正を行うETCシステムについて説明する。
【0024】
このETCレーンには、図2に示すように、ETCレーンの全体を見通すことができるレーンの頭上に監視カメラ20を設置している。図1は、この監視カメラ20の撮影エリア22を示している。
また、図3は、車両検知器S1〜S4と監視カメラ20との情報を用いてETCレーンの車線制御を行う車線制御装置30の構成を示している。この車線制御装置30は、車両検知器S1〜S4の検知情報を基に車両管理データを生成する車両管理データ生成部31と、監視カメラ20の画像を取り込み、画像解析して画像処理データを生成する画像処理データ生成部32と、車両管理データ生成部31及び画像処理データ生成部32に時刻情報を提供する時計35と、車両管理データ及び画像処理データが書き込まれる車両管理テーブル33と、車両管理テーブル33に書き込まれた車両管理データを、画像処理データを用いて修正し、この車両管理テーブル33を用いて車線制御を行う車線制御部34とを備えている。
【0025】
図4は、監視カメラ20が撮影する画像を模式的に示している。第1車両検知器S1が映る画像上のアドレスをL1、第2車両検知器S2が映る画像上のアドレスをL2、第3車両検知器S3が映る画像上のアドレスをL3、また、第4車両検知器S4が映る画像上のアドレスをL4とすると、第1車両検知器S1が車両を検知したとき、ETCレーンに進入した車両は、画像上でアドレスL1の位置まで進んでいる。同様に、第2車両検知器S2が車両を検知したとき、車両は画像上のアドレスL2の位置まで進み、第3車両検知器S3が車両を検知したとき、車両は画像上のアドレスL3の位置まで進み、また、第4車両検知器S4が車両を検知したとき、車両は画像上のアドレスL4の位置まで進んでいる。
【0026】
画像上の車両位置は画像解析により求めることができる。画像解析の手法は種々知られている。例えば、画像処理のエリアを走行レーンに限定し、そのエリア内のエッジ検出を行うと、車両が存在する箇所ではエッジの量が多くなるため、その部分を車両として検出することができる。
図5は、画像上のアドレスL1、L2、L3、及びL4の各位置に車両が存在する映像の撮影時間を時系列で示している。矢印で示すように、この変化を追うことにより車両を追跡することができる。
【0027】
一方、図6は、各車両検知器が一台の走行車両を順次検知して検知信号を出力する時点を時系列で示している。この検知時刻は、図5において、画像上のアドレスL1、L2、L3、及びL4に車両が出現する時刻と一致するため、各車両検知器の車両検知時刻における監視カメラ20の映像を解析し、図5に示すように時系列の変化を追うことにより、各車両検知器で検知された車両が同一車両であるか否かを判別することができる。そのため、各車両検知器の検知結果に基づく車両管理で、車両検知器の検知車両を実体の無いゴースト車両と誤認した場合に、その車両検知器の検知車両が実際は何であるかを、監視カメラ20の映像解析から識別し、車両管理上の誤りを直ちに修正することができる。
【0028】
ここでは、車両管理の一例として、ETCレーンに存在する個々の車両に対して、各車両検知器の検知結果を基に、車線制御装置30の車両管理データ生成部31が“車両管理データ”を作成し、また、各車両検知器が検知信号を出力した時点の監視カメラ20の映像を画像処理データ生成部32が解析して“画像処理データ”を作成し、車線制御部34が、車両管理データの誤りを、画像処理データを用いて修正する場合について説明する。
【0029】
図10(a)に示すように、車両管理データには、第1車両検知器S1が車両を検知した時点で設定するカーID(CID)と、その車両に対するETC/非ETC判別結果と、検知した車両検知器の位置を示す位置情報と、その車両検知器の検知時刻を示す時刻情報とを記述する。
また、図10(b)に示すように、画像処理データには、第1車両検知器S1が車両を検知した時点の画像から識別した車両に対して設定するPCIDと、映像解析の契機となった検知信号を出力した車両検知器の位置を示す位置情報と、その車両検知器の検知時刻を示す時刻情報とを記述する。
【0030】
図7のフロー図は、画像処理データ生成部32での画像処理データの作成手順を示している。
車両検知器が検知信号を出力すると(ステップ1)、監視カメラ20の画像を取り込み(ステップ2)、車両検出処理を行い(ステップ3)、検知信号を出力した車両検知器の位置に車両が存在するか否かを識別する。車両が存在しない場合(例えば、飛んで来た新聞紙に反応して検知信号を出力したような場合)は、ステップ1に戻る。車両が存在する場合は、その検知信号を出力した車両検知器が第1車両検知器S1であれば、その車両に対してPCIDを割り当てる(ステップ7)。また、その検知信号を出力した車両検知器が第2〜第4車両検知器S2〜S4であれば、前回の車両検出画像と今回の車両検出画像とを比較し、その車両検出位置の変化から、前回の画像から検出した車両と今回の画像から検出した車両との同一性を確認し、前回の車両検出画像から生成した画像処理データを参照して、その車両のPCIDを識別する(ステップ8)。ステップ7またはステップ8で求めたPCIDを、今回の車両検出画像から生成する画像処理データのPCIDとして記録する。
【0031】
また、この画像処理データの位置情報として、検知信号を出力した車両検知器の位置情報を登録し(ステップ9)、この画像処理データの時刻情報として、その車両検知器が検知信号を出力した時刻を登録する(ステップ10)。この画像処理データを車両管理データが記録されている車両管理テーブル33に記録し(ステップ11)、この画像処理データを用いて、車両管理データの修正処理を行う(ステップ12)。
【0032】
図8のフロー図は、車線制御部34での車両管理データの修正処理の手順を示しており、また、図9及び図11は、この修正処理手順を当てはめた具体例を示している。まず、この具体例から説明する。
【0033】
図9は、ETCレーンに進入した車両の到達位置(各車両検知器S1〜S4の位置)と到達時刻との関係を図示している。図11は、図9の各車両位置で生成される車両管理データ及び画像処理データを示している。例えば、第1車両検知器S1が時刻t1に検知した図9の(1)の車両に対してCID=B1を付与することにより、図11(1)の車両管理データが生成され、車両管理テーブル33に記録される。また、第1車両検知器S1が検知信号を出力した時刻t1の画像を解析して検出した図9の(1)の車両に対してPCID=b1を付与することにより、図11(1)の画像処理データが生成され、車両管理テーブル33に記録される。
【0034】
また、CID=B1の車両が第1車両検知器S1と第2車両検知器S2との間を走行する過程でETC車両と判定されると、この車両が第2車両検知器S2で時刻t2に検知されたとき(図9の(2))、図11(2)の車両管理データが生成され、車両管理テーブルに、同一CID(=B1)の図11(1)の車両管理データに代わって記録される。また、第2車両検知器S2が検知信号を出力した時刻t2の画像を解析して検出した図9の(2)の車両に対して、図11(2)の画像処理データが生成され、車両管理テーブルに、同一PCID(=b1)の図11(1)の画像処理データに代わって記録される。
【0035】
同様に、第3車両検知器S3が時刻t3に車両を検出した時点(図9の(3))で、車両管理テーブルの記録は、図11(3)の車両管理データ及び画像処理データにより更新され、第4車両検知器S4が時刻t4に車両を検出した時点(図9の(4))で、車両管理テーブルの記録は、図11(4)の車両管理データ及び画像処理データにより更新される。位置情報がS4に達した車両管理データ及び画像処理データは、車両がETCレーンを通り過ぎたことを表しているため、車両管理テーブルから削除される。
【0036】
同じように、第1車両検知器S1が時刻t5に検知した車両(図9の(5))に対してCID=B2が付与され、また、PCID=b2が付与されて図11(5)の車両管理データ及び画像処理データが車両管理テーブルに記録され、この車両(ETC車両)を第2車両検知器S2が時刻t6に検知した時点(図9の(6))で車両管理テーブルは図11(6)の車両管理データ及び画像処理データに更新される。
この車両が第3車両検知器S3を通過するときに(図9の(7))、検知ミスが発生すると、第3車両検知器S3から検知信号が出力されないため、図9の(7)の位置に対応する車両管理データ及び画像処理データは生成されない。
【0037】
この車両が時刻t8に第4車両検知器S4の位置に達すると(図9の(8))、第4車両検知器S4は検知信号を出力し、この検知信号が出力された時刻t8の画像を解析して図11(8)の画像処理データが生成され、図11(6)の画像処理データに代わって、車両管理テーブルに記録され、その後、位置情報がS4であるため、車両管理テーブルから削除される。
【0038】
一方、第4車両検知器S4の検知信号に基づいて生成された図11(8)の車両管理データは、第3車両検知器S3が車両を検知していないのに、第4車両検知器S4が車両を検知する筈がないので、廃棄される。
従って、車両管理テーブルには、車両管理データとして図11(6)の車両管理データが残ることになる。
【0039】
次に、第1車両検知器S1が時刻t9に検知した車両(図9の(9))に対してCID=B3が付与され、また、PCID=b3が付与されて図11(9)の車両管理データ及び画像処理データが車両管理テーブルに記録される。この車両が第2車両検知器S2の位置に時刻t10に到達すると、この車両(非ETC車両)を第2車両検知器S2が検知した時点(図9の(10))で図11(10)の車両管理データ及び画像処理データが生成され、車両管理テーブルに記録された同一CID(=B3)及び同一PCID(=b3)の車両管理データ及び画像処理データが更新される。
【0040】
この車両が第3車両検知器S3の位置に時刻t11に到達し、第3車両検知器S3がこの車両を検知して検知信号を出力すると、車両管理テーブルに記録されている車両管理データの記録順序及びその位置情報から見て、この車両はCID=B2の車両と判断できるため、図11(11)の車両管理データが生成され、図11(6)の車両管理データに代わって車両管理テーブルに記録される。
一方、第3車両検知器S3が検知信号を出力した時刻t11の画像を解析して図11(11)の画像処理データが生成され、図11(10)の画像処理データに代わって、車両管理テーブルに記録される。
【0041】
このとき、位置情報(S3)及び時刻情報(t11)が同一の図11(11)の車両管理データと画像処理データとが比較され、車両管理データのCID(=B2)が、画像処理データのPCID(=b3)に対応する車両管理データのCID(=B3)と異なる場合に、車両管理データのCID=B2をCID=B3に修正し、車両管理データのETC/非ETC判別結果を、修正したCID=B3の判別結果(非ETC)に修正する処理が行われ。
また、この修正でCID=B3の車両管理データが出現したため、同一CID(=B3)の図11(8)の車両管理データ及び画像処理データは車両管理テーブルから削除される。
【0042】
こうして車両管理テーブルの車両管理データが修正されたことにより、この車両が第4車両検知器S4の位置に時刻t12に到達したとき(図9の(12))には、第4車両検知器S4の検知信号に基づいて、正常な図11(12)の車両管理データ及び画像処理データが作成され、車両管理テーブルに記録されたデータが更新される。
【0043】
図8のフロー図は、この車両管理データの修正処理手順を一般化して示している。
車両管理テーブルに記入した画像処理データの位置情報がS1であるか否かを識別し(ステップ20)、S1であるときは、その画像処理データの位置情報(S1)及び時刻情報と同一の位置情報(S1)及び時刻情報を有する車両管理データを車両管理テーブルから探し、その車両管理データのCIDと画像処理データのPCIDとを対応付けて記憶する(ステップ21)。また、車両管理テーブルに記入した画像処理データの位置情報がS2〜S4であるときは、その画像処理データの位置情報及び時刻情報と同一の位置情報及び時刻情報を有する車両管理データを車両管理テーブルから探し(ステップ22)、その車両管理データのCID(=Bi)が、画像処理データのPCID(=bk)に対応付けたCID(=Bk)と一致するか否かを識別する(ステップ23)。一致する場合は、車両管理データの修正は行わない。一致しない場合は、車両管理データのCIDを画像処理データのPCID(=bk)に対応付けたCID(=Bk)に修正し、また、車両管理データのETC/非ETC判別結果を、修正したCID(=Bk)の車両のETC/非ETC判別結果に修正する。また、この修正で、車両管理テーブルに同一CIDの車両管理データが複数出現した場合は、時刻情報が最新の車両管理データだけを残し、CIDが重複する他の車両管理データを削除する(ステップ24)。
こうした処理により、車両管理上に現れるゴースト車両を削除することができ、車両管理を正常化することができる。
【0044】
なお、ここでは、検知ミス後の第4車両検知器S4で検知された検知データを破棄し、車両管理テーブル33には記録していないが、この車両検知器の検知データに基づいて位置情報及び時刻情報を記録した車両管理データを車両管理テーブル33に記録し、位置情報及び時刻情報が一致する画像処理データを用いて、車両管理データの不足するCIDを補正し、そのCIDを持つ車両のETC/非ETC判別結果を車両管理データに記述することにより、その車両管理データを再生するようにしても良い。この場合には、ゴースト車両の発生自体を抑制することができる。
【0045】
また、ここでは、車両管理データの誤りを自動修正する場合について説明したが、車両管理テーブルに記録された車両管理データの誤りを検出した時点で警報を出力し、係員の操作で車両管理データを修正するようにしたり、あるいは、警報を出力して車両管理データの誤りを自動修正するようにしたりすることもできる。
【0046】
また、監視カメラ20の遠方に位置する複数の車両が、画像上で重なって映り、後ろ側の車両が車両検知器で検知されたときに、この車両の位置が画像上で判別できない場合でも、図12に示すように、検知信号を出力した車両検知器の位置に車両が存在するものとして、画像処理データを生成するものとする。こうすることにより、車両が監視カメラ20に近付き、個々の車両が画像上で区別できるようになったときに、それぞれの車両に対応付けた画像処理データの生成が可能になる。
【0047】
(第2の実施形態)
第2の実施形態では、レーンを通過する車両を複数の台数の監視カメラで追跡するETCシステムについて説明する。
このシステムでは、監視カメラの画像上で複数の車両が重ならないように、複数の監視カメラでETCレーンを分担して撮影する。図14は、ETCレーンの前後に監視カメラ20及び監視カメラ21を配置する場合を示しており、図13は、これらの監視カメラ20及び監視カメラ21の撮影エリア23、24を示している。
【0048】
また、図15(a)は、ETCレーンの前側の頭上に設置した監視カメラ21の画像を示し、また、図15(b)は、ETCレーンの後側の頭上に設置した監視カメラ20の画像を示している。このように、複数の監視カメラ20、21の画像に共通する車両検知器(この場合は第3車両検知器S3)が映るように、各監視カメラ20、21の撮影エリアを設定することにより、図16に示すように、その共通する車両検知器の位置を通過する車両が、監視カメラ20及び21で同時刻に撮影される。この同時刻に撮影された同一車両の映像を介して、矢印で示すように、監視カメラ21の画像に映る車両を監視カメラ20の画像上で追跡することができる。
車線制御装置の構成は、第1の実施形態(図3)と同じである。ただ、画像処理データ生成部32に監視カメラ20及び21の画像が入力し、画像処理データ生成部32が、監視カメラ20及び21の画像から、それぞれ画像処理データを生成して車両管理テーブル33に書き込む点だけが相違している。
【0049】
図17のフロー図は、画像処理データ生成部32における画像処理データの作成手順を示している。
ここで、ステップ30からステップ40は、監視カメラ21の画像から画像処理データ1を作成する手順であり、ステップ41からステップ51は、監視カメラ20の画像から画像処理データ2を作成する手順である。これらの手順は、第1の実施形態で説明した画像処理データの作成手順(図7)と基本的に同じであり、以下に示す点だけが相違している。
【0050】
画像処理データ1の作成は、第1、第2及び第3車両検知器S1、S2、S3が検知信号を出力したときにだけ行い(ステップ30)、画像処理データ1のPCIDにはPCID1を使用する(ステップ36、ステップ37)。
また、画像処理データ2の作成は、第3及び第4車両検知器S3、S4が検知信号を出力したときにだけ行う(ステップ41)。また、第3車両検知器S3が検知信号を出力したときに第3車両検知器S3の位置に存在する車両に対してPCID2を付与し(ステップ47)、画像処理データ2のPCIDは、このPCID2を使用する(ステップ48)。
こうして生成された画像処理データ1及び画像処理データ2は、車両管理テーブル33に記録され(ステップ40、51)、これらの画像処理データを用いて、車両管理データの修正処理が行われる(ステップ52)。
【0051】
図18のフロー図は、車線制御部34が画像処理データ1及び画像処理データ2を用いて車両管理データを修正する処理手順を示している。
車両管理テーブルに記入された画像処理データが画像処理データ1であるか画像処理データ2であるかを識別し(ステップ60)、画像処理データ1の場合はステップ61〜ステップ64の修正処理を行い、画像処理データ2の場合はステップ65〜ステップ68の修正処理を行う。
【0052】
この修正処理自体は、第1の実施形態で説明した修正処理(図8)と基本的に同じである。
画像処理データ1を用いる修正処理では、PCIDとしてPCID1を用いる点だけが相違している(ステップ64)が、その他は変わりがない。
【0053】
また、画像処理データ2を用いる修正処理では、監視カメラ21と監視カメラ20との撮影エリアに共通して存在する第3車両検知器S3の位置を位置情報に持ち、時刻情報が同じ画像処理データ1と画像処理データ2とを比較して、PCID2に対応するPCID1を求める。次いで、ステップ62で対応付けた、そのPCID1に対応する車両管理データのCIDを求め、PCID2に対応するCIDを得る(ステップ66)。
【0054】
画像処理データ2の位置情報がS4であるときは、その画像処理データ2の位置情報及び時刻情報と同一の位置情報及び時刻情報を有する車両管理データを車両管理テーブルから探し(ステップ67)、その車両管理データのCID(=Bi)が、画像処理データ2のPCID2(=bk)に対応付けたCID(=Bk)と一致するか否かを識別し(ステップ68)、一致しない場合に、車両管理データのCIDを画像処理データ2のPCID2(=bk)に対応付けたCID(=Bk)に修正し、また、車両管理データのETC/非ETC判別結果を、修正したCID(=Bk)の車両のETC/非ETC判別結果に修正する。また、この修正で、車両管理テーブルに同一CIDの車両管理データが複数出現した場合は、時刻情報が最新の車両管理データだけを残し、CIDが重複する他の車両管理データを削除する(ステップ69)。
【0055】
このように、複数の監視カメラを用いることにより、ETCレーンを走行する車両を重ならずに映すことができ、この画像から生成した画像処理データを用いて車両管理データの誤りを的確に修正することができる。
【0056】
なお、ここでは2台の監視カメラを用いる場合について説明したが、3台以上の監視カメラを用いることも可能である。この場合も、隣接する撮影エリアが共通の車両検知器を含むように、その撮影エリアを設定する。
また、各実施形態で説明した車両管理の方法は、一つの例であって、本発明はそれに限定されるものでは無い。
【0057】
【発明の効果】
以上の説明から明らかなように、本発明のETCシステム及び車両管理方法では、車両が通過したか否かのみを検出する車両検知器の情報と監視カメラの画像情報とを組み合わせることにより、それぞれの車両検知器で検知された車両が同じ車両であるかどうかを識別することが可能になり、その結果、車両管理ズレを修正することができる。
【0058】
本発明は、どのような料金徴収方式のETCゲートにも適用することができ、また、非ETC車両がレーンを走行する場合でも、その車両管理を的確に行うことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における監視カメラの撮影エリアを示す図、
【図2】本発明の第1の実施形態におけるETCレーンを示す図、
【図3】本発明の第1の実施形態における車線制御装置の構成を示すブロック図、
【図4】本発明の第1の実施形態における監視カメラの画像を示す図、
【図5】本発明の第1の実施形態における画像処理で得られる車両画像の時系列を示す図、
【図6】本発明の第1の実施形態における車両検知器の検知信号の時系列を示す図、
【図7】本発明の第1の実施形態における画像処理データの生成手順を示すフロー図、
【図8】本発明の第1の実施形態における車両管理データの修正処理手順を示すフロー図、
【図9】本発明の第1の実施形態における車両管理データの修正処理を説明する説明図、
【図10】本発明の第1の実施形態における車両管理データ及び画像処理データのデータ構造を示す図、
【図11】本発明の第1の実施形態における車両管理データ及び画像処理データの具体例を示す図、
【図12】本発明の第1の実施形態における重畳車両が分離する時系列変化を示す図、
【図13】本発明の第2の実施形態における監視カメラの撮影エリアを示す図、
【図14】本発明の第2の実施形態におけるETCレーンを示す図、
【図15】本発明の第2の実施形態における監視カメラの画像を示す図、
【図16】本発明の第2の実施形態における画像処理で得られる車両画像の時系列を示す図、
【図17】本発明の第2の実施形態における画像処理データの生成手順を示すフロー図、
【図18】本発明の第2の実施形態における車両管理データの修正処理手順を示すフロー図、
【図19】従来のETCシステムの料金所のゲートを示す斜視図、
【図20】従来のETCシステムの料金所のゲートを示す平面図、
【図21】従来のETCシステムの料金所の構成を示す機能ブロック図、
【図22】従来のETCシステムの路車間通信領域を示す図、
【図23】従来の車両検知器を示す図、
【図24】従来のETCシステムでの車両管理を説明する図である。
【符号の説明】
S1 第1車両検知器
S2 第2車両検知器
S3 第3車両検知器
S4 第4車両検知器
10 アンテナ
11 路側表示器
12 遮断機
13 ブース
14 車両
15 車線制御装置
16 路側無線装置
17 アイランド
20 監視カメラ
21 監視カメラ
22 撮影エリア
23 撮影エリア
24 撮影エリア
30 車線制御装置
31 車両管理データ生成部
32 画像処理データ生成部
33 車両管理テーブル
34 車線制御部
35 時計
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic toll collection (ETC) system for a toll road and a vehicle management method using the system, and more particularly, to a vehicle capable of accurately managing vehicles in an ETC lane of a tollgate. is there.
[0002]
[Prior art]
In recent years, the ETC system has been introduced to various toll roads, and vehicles that can use this system can pass through toll gates on toll roads without stopping. In order to use the ETC system, an ETC vehicle-mounted device must be mounted on a vehicle, an ETC card must be inserted into the vehicle, and the vehicle must pass through an ETC lane gate provided with a communication antenna at a tollgate. Information such as the type, length, width, and height of the vehicle to which the ETC device is mounted is registered (set up) in the ETC vehicle-mounted device in advance. The ETC card is an IC card for exclusive use of the ETC issued by a credit card company, and records the ID of a passing gate and a record of toll collection when passing through a tollgate. Tolls on toll roads are set for each model. Further, there are a distance-based system in which an entrance gate and an exit gate are provided to calculate a fare according to a traveling distance, and a flat fare system in which a fixed amount is collected at one gate. The configuration of the gate differs depending on the type of the gate, the entrance gate, the exit gate, and also on the location. An example of this gate is shown in FIG. 19 (perspective view) and FIG. 20 (plan view). This gate includes an antenna 10 used for wireless communication with the on-board ETC device on the lane, and the island 17 includes a plurality of pairs of light emitters and light receivers, and a first sensor that detects passage of a vehicle by blocking light beams. Roadside that displays “passable” or “stopped” for vehicle 14-1 passing through the lane, with vehicle detector S1, second vehicle detector S2, third vehicle detector S3, and fourth vehicle detector S4. An indicator 11, a circuit breaker 12 that opens a bar when the vehicle 14-1 is an ETC vehicle equipped with an ETC vehicle-mounted device, and keeps the bar closed when the vehicle 14-1 is a non-ETC vehicle, and an ETC vehicle mounted through the antenna 10. A lane control device 15 for controlling the operation of the lane, which includes a roadside wireless device 16 for performing wireless communication with the vehicle, and a booth 13 for receiving the collection staff.
[0003]
FIG. 21 is a block diagram showing the relationship between the components. The lane control device 15 identifies whether the vehicle 14-1 is an ETC vehicle or a non-ETC vehicle based on the detection information of each of the vehicle detectors S1 to S4 and the roadside device 16, and when the vehicle 14-1 is an ETC vehicle. Performs a necessary charging process, displays "passable" on the roadside display 11, and opens the circuit breaker 12. When the vehicle is a non-ETC vehicle, "stop" is displayed on the roadside display 11, and the circuit breaker 12 is kept closed. In the case of a non-ETC vehicle, after the collection member collects a fee or the like, the breaker 12 is manually opened. In addition, the lane control device 15 transmits necessary information such as billing information to the central device, and receives instruction information from the central device.
[0004]
As shown in FIG. 22, the distance between the first vehicle detector S1 and the second vehicle detector S2 is set to about 4 m. In FIG. 19, the first vehicle detector S1 is configured by two pairs of vehicle detectors, but this enables detection of the traveling direction of the vehicle. Further, by identifying the vehicle as a vehicle when the light beams of both vehicle detectors are simultaneously blocked, it is possible to prevent a detection error that mistakes a newspaper or the like flying in the wind as a vehicle. However, the first vehicle detector S1 can be constituted by a pair of vehicle detectors.
[0005]
The directivity of the antenna 10 is narrowed down so that only the section between the first vehicle detector S1 and the second vehicle detector S2 is a wireless communication area. When the vehicle enters this lane and the first vehicle detector S1 detects the vehicle, the detection information is transmitted to the lane control device 15, and the lane control device 15 causes the roadside wireless device 16 to start wireless transmission. When the vehicle is an ETC vehicle, an on-board ETC device is installed on a dashboard or the like in the vehicle. Upon receiving the wireless signal from the antenna 10, the ETC on-board unit transmits vehicle information such as a vehicle type, ID information of the entrance gate written on the ETC card when passing through the entrance gate, and the like. This information is received by the antenna 10 and sent from the roadside apparatus 16 to the lane controller 15.
[0006]
The lane control device 15 executes communication processing for automatic toll collection when there is a wireless response from the passing vehicle 14-1, and when the communication processing ends normally, the roadside display 11 indicates that it is possible to pass. Then, the circuit breaker 12 is opened.
When the passing vehicle 14-1 reaches the position of the second vehicle detector S2 and the second vehicle detector S2 detects the vehicle 14-1, the lane controller 15 terminates the transmission from the antenna 10. If the vehicle 14-1 does not wirelessly respond while traveling from the position of the first vehicle detector S1 to the position of the second vehicle detector S2, the lane controller 15 identifies the passing vehicle 14-1 as a non-ETC vehicle. Then, an instruction to stop is displayed on the roadside display 11, and the circuit breaker 12 is kept closed.
When the passing vehicle 14-1 reaches the position of the third vehicle detector S3 and the third vehicle detector S3 detects the vehicle 14-1, the lane control device 15 turns off the display of the roadside display 11. This is to prevent the following vehicle 14-2 from erroneously recognizing the display on the roadside display 11.
[0007]
In addition, when the ETC vehicle passes through the open circuit breaker 12 or the non-ETC vehicle that has been subjected to the billing process by the consignee passes through the circuit breaker 12 opened by the consignee, the fourth vehicle detector S4 Detects the tails of these vehicles and transmits them to the lane control device 15, which receives the information and closes the circuit breaker 12.
As described above, in the ETC system, the start and end timings of the road-vehicle communication, the timing of turning on / off the roadside display 11, the timing of opening / closing the circuit breaker 12, and the like are all determined by the vehicle detector installed on the island 17. It is determined based on the detection results of S1 to S4.
[0008]
As shown in FIG. 23, the vehicle detectors S1 to S4 include a plurality of light emitters arranged in a line and a plurality of light receivers opposed thereto, and the plurality of light emitters emit light to form an optical screen. When the vehicle 14 passes through the light screen, the light is blocked according to the shape of the vehicle and detected by the light receiver.
The vehicles that have entered the lane pass the light screens formed by the vehicle detectors S1 to S4 one after another and pass through the lane. Vehicles in the lane leave the lane in the order they entered the lane without being overtaken or overtaken.
[0009]
The lane control device 15 performs vehicle management of a vehicle currently traveling in the lane based on such a premise, and when the first vehicle detector S1 detects an approaching vehicle, the lane control device 15 assigns an ID to the vehicle. When the fourth vehicle detector S4 detects the vehicle based on the detection signals from the second vehicle detector S2 and the third vehicle detector S3, the vehicle is registered. Is removed from the table as missing from the lane.
[0010]
FIG. 24 conceptually shows this vehicle management pattern. First, the lane control device 15 registers the approaching vehicle detected by the first vehicle detector S1 in the table as B1 and controls the start of wireless communication. Next, when the second vehicle detector S2 detects the vehicle, the vehicle B1 identifies that the vehicle B1 has reached the position of the second vehicle detector S2, records the arrival position on the table, and ends the road-vehicle communication. Then, based on the discrimination result of the ETC vehicle / non-ETC vehicle with respect to the vehicle B1, a message of "passing allowed" or "stop" is displayed on the roadside display 11, and the opening and closing of the circuit breaker 12 is controlled. Next, when the third vehicle detector S3 detects the vehicle, it identifies that the vehicle B1 has reached the position of the third vehicle detector S3, records the arrival position on the table, and erases the display of the roadside display 11. . Next, when the fourth vehicle detector S4 detects the tail, the vehicle B1 is identified as having passed the position of the fourth vehicle detector S4, the vehicle B1 is excluded from the management target, and the circuit breaker 12 is closed.
[0011]
However, in the vehicle detector, erroneous detection occurs, in which the vehicle passes but cannot be detected or the vehicle does not pass. Such erroneous detection may be caused by erroneously detecting one vehicle such as a towing vehicle or a trailer as two vehicles, or a newspaper or a frog sticking to the vehicle detector to block the light, and even if the vehicle passes by, May not be detected.
[0012]
When erroneous detection of the vehicle detector occurs, a deviation occurs between the vehicle managed by the lane control device 15 and the existing vehicle in the lane.
For example, in FIG. 24, it is assumed that the first vehicle detector S1 detects a vehicle that has entered the lane, and the lane controller 15 registers this vehicle as B2 in the table. When the second vehicle detector S2 detects the vehicle, the lane controller 15 identifies that the vehicle B2 has reached the position of the second vehicle detector S2, and records the arrival position of the vehicle B2 on the table.
[0013]
Next, when the vehicle B2 passes through the position of the third vehicle detector S3, if the third vehicle detector S3 cannot detect this vehicle, the vehicle B2 is displayed on the vehicle management table as the third vehicle detector S3. This means that the position of S3 has not been reached, so that the display on the roadside display 11 remains unerased. Even if the vehicle B2 passes through the position of the fourth vehicle detector S3 and the fourth vehicle detector S4 detects the vehicle B2, it passes through the fourth vehicle detector S4 without passing through the third vehicle detector S3. Since there is no way to do this, this is treated as a detection error, and the vehicle B2 remains on the vehicle management table.
Thus, a vehicle that does not actually exist in the lane but remains on the vehicle management table is called a “ghost vehicle”. The vehicle management deviation is caused by this ghost vehicle.
The first vehicle detector S1 detects the next vehicle, and the lane controller 15 registers this vehicle in the table as B3. When the second vehicle detector S2 detects the vehicle, the lane controller 15 identifies that the vehicle B3 has reached the position of the second vehicle detector S2, and records the arrival position of the vehicle B3 on the table.
[0014]
Next, when the vehicle B3 passes through the position of the third vehicle detector S3 and the third vehicle detector S3 detects this vehicle, the lane control device 15 determines that although the vehicle B3 has actually passed, It identifies that the ghost vehicle B2 has reached the position of the third vehicle detector S3, records the arrival position of the vehicle B2 on the table, and erases the display on the roadside display 11. Here, a vehicle management deviation occurs.
[0015]
Next, when the vehicle B3 passes through the position of the fourth vehicle detector S4, and the fourth vehicle detector S4 detects this vehicle, the lane control device 15 similarly sets the ghost vehicle B2 to the fourth vehicle detector S4. The vehicle B2 is identified as having passed the position, and the vehicle B2 is excluded from the management target. Therefore, this time, the vehicle B3 remains in the vehicle management table as a ghost vehicle. As described above, once a ghost vehicle occurs, the ghost vehicles are updated one after another, and the vehicle management deviation continues.
[0016]
When the vehicle management deviation occurs, a trouble occurs because the display of the roadside display 11 and the control of the circuit breaker 12 are performed based on the identification result of the ETC vehicle / non-ETC vehicle with respect to the preceding vehicle.
The attendant (collector) looks at the lane and can know the presence of a ghost vehicle for the first time if no vehicle is running on the lane and a vehicle record is left on the vehicle management table. it can. At this time, the attendant performs a manual operation to eliminate the ghost vehicle and corrects the vehicle management deviation.
[0017]
An ETC system that enables automatic detection of the vehicle management deviation is disclosed in Japanese Patent Application Laid-Open No. 2001-312753. In this system, a two-antenna type gate (aside from the first antenna 10 of the gate in FIG. 19, a second antenna is provided behind the circuit breaker 12. For example, an entrance gate of a distance-distance toll road, etc.) ), The first antenna checks the vehicle-mounted device information received from the ETC vehicle-mounted device and the second antenna checks the vehicle-mounted device information received from the ETC vehicle-mounted device to check the vehicle management deviation, and the vehicle management content. If there is an abnormality in the information, the management content is changed.
In addition, the one-antenna gate measures the staying time of vehicles in the lane, displays an error on the operation panel when a certain time is exceeded, and corrects the vehicle management deviation by manual input by the attendant who saw this. I do.
[0018]
[Problems to be solved by the invention]
However, in the vehicle management method disclosed in Japanese Patent Application Laid-Open No. 2001-312753, the reliability of the vehicle management deviation detection result is poor in the case of the single antenna system, and therefore, the vehicle management deviation is automatically determined using this detection result. There is a problem that it cannot be fixed.
Further, in the case of the two-antenna system, there is a problem that when a non-ETC vehicle enters the lane, it is not possible to check for a vehicle management deviation.
[0019]
The present invention solves such a conventional problem, and an ETC system capable of detecting a vehicle management deviation due to an erroneous detection of a vehicle detector in any type of lane and returning to a correct vehicle management state. And a method for managing the vehicle.
[0020]
[Means for Solving the Problems]
Therefore, in the ETC system of the present invention, a plurality of vehicle detecting means for detecting a passing vehicle and a photographing means for photographing the passing vehicle are provided, and the identity of the vehicle detected by the plurality of vehicle detecting means is determined by the photographing means. Is determined by using the captured video.
[0021]
Further, in a vehicle management method for managing vehicle position information of a vehicle existing in a section where the plurality of vehicle detection units are arranged, based on vehicle detection information of a plurality of vehicle detection units for detecting passing vehicles, The entire area is photographed by the photographing means, and the identity of the vehicle detected by the vehicle detecting means and the vehicle detected by the adjacent vehicle detecting means is determined using the image of the photographing means at the time when each of the vehicle detecting means detects the vehicle. The vehicle is identified and an error in the vehicle position information is detected.
[0022]
In this way, by combining the information of the vehicle detector that detects only whether the vehicle has passed or not and the image information of the photographing means, it is possible to determine whether the vehicles detected by each vehicle detector are the same. Vehicle management deviation can be corrected.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
(1st Embodiment)
In the first embodiment of the present invention, a vehicle passing through a lane is tracked by one surveillance camera, and information obtained from image analysis of the surveillance camera is matched with a detection signal of the vehicle detector to thereby match the vehicle. An ETC system that specifies a position and corrects a vehicle management deviation will be described.
[0024]
In this ETC lane, as shown in FIG. 2, a surveillance camera 20 is installed above the lane from which the entire ETC lane can be seen. FIG. 1 shows a shooting area 22 of the monitoring camera 20.
FIG. 3 shows a configuration of a lane control device 30 that performs lane control of an ETC lane using information from the vehicle detectors S1 to S4 and the monitoring camera 20. The lane control device 30 captures an image of the surveillance camera 20 and generates an image processing data by capturing an image of the monitoring camera 20 and a vehicle management data generation unit 31 that generates vehicle management data based on detection information of the vehicle detectors S1 to S4. An image processing data generation unit 32, a clock 35 for providing time information to the vehicle management data generation unit 31 and the image processing data generation unit 32, a vehicle management table 33 in which the vehicle management data and the image processing data are written, A vehicle lane control unit 34 that corrects vehicle management data written in the table 33 using image processing data and performs lane control using the vehicle management table 33 is provided.
[0025]
FIG. 4 schematically shows an image captured by the monitoring camera 20. The address on the image reflected by the first vehicle detector S1 is L1, the address on the image reflected by the second vehicle detector S2 is L2, the address on the image reflected by the third vehicle detector S3 is L3, and the fourth vehicle Assuming that the address on the image reflected by the detector S4 is L4, when the first vehicle detector S1 detects a vehicle, the vehicle that has entered the ETC lane has advanced to the position of the address L1 on the image. Similarly, when the second vehicle detector S2 detects the vehicle, the vehicle advances to the position of the address L2 on the image, and when the third vehicle detector S3 detects the vehicle, the vehicle moves to the position of the address L3 on the image. When the fourth vehicle detector S4 detects the vehicle, the vehicle has advanced to the position of the address L4 on the image.
[0026]
The vehicle position on the image can be determined by image analysis. Various image analysis techniques are known. For example, if the area of the image processing is limited to the traveling lane and the edge detection is performed in the area, the edge amount becomes large at the place where the vehicle exists, so that the part can be detected as the vehicle.
FIG. 5 shows, in chronological order, the photographing time of a video in which a vehicle exists at each of the addresses L1, L2, L3, and L4 on the image. As shown by the arrow, the vehicle can be tracked by following this change.
[0027]
On the other hand, FIG. 6 shows the time points at which each vehicle detector sequentially detects one traveling vehicle and outputs a detection signal. Since this detection time coincides with the time at which the vehicle appears at the addresses L1, L2, L3, and L4 on the image in FIG. 5, the video of the monitoring camera 20 at the vehicle detection time of each vehicle detector is analyzed. By following the time-series change as shown in FIG. 5, it is possible to determine whether or not the vehicles detected by each vehicle detector are the same vehicle. Therefore, when the vehicle detected based on the detection result of each vehicle detector is misidentified as a ghost vehicle having no substance, the surveillance camera 20 determines which vehicle is actually detected by the vehicle detector. Of the vehicle, and correct the vehicle management errors immediately.
[0028]
Here, as an example of vehicle management, the vehicle management data generation unit 31 of the lane control device 30 converts “vehicle management data” for each vehicle existing in the ETC lane based on the detection result of each vehicle detector. The image processing data generation unit 32 analyzes the image of the monitoring camera 20 at the time when each vehicle detector outputs a detection signal to generate “image processing data”, and the lane control unit 34 A case where a data error is corrected using image processing data will be described.
[0029]
As shown in FIG. 10A, the vehicle management data includes a car ID (CID) set when the first vehicle detector S1 detects a vehicle, an ETC / non-ETC determination result for the vehicle, and a detection result. Position information indicating the position of the detected vehicle detector and time information indicating the detection time of the vehicle detector are described.
Further, as shown in FIG. 10B, the image processing data includes a PCID set for the vehicle identified from the image at the time when the first vehicle detector S1 detects the vehicle, and a trigger for video analysis. Position information indicating the position of the vehicle detector that has output the detected signal and time information indicating the detection time of the vehicle detector are described.
[0030]
The flowchart in FIG. 7 shows a procedure for generating image processing data in the image processing data generation unit 32.
When the vehicle detector outputs a detection signal (Step 1), the image of the monitoring camera 20 is captured (Step 2), vehicle detection processing is performed (Step 3), and a vehicle exists at the position of the vehicle detector that outputs the detection signal. Identify whether to do so. When there is no vehicle (for example, when the detection signal is output in response to the flying newspaper), the process returns to step 1. If there is a vehicle, if the vehicle detector that has output the detection signal is the first vehicle detector S1, a PCID is assigned to the vehicle (step 7). If the vehicle detector that has output the detection signal is the second to fourth vehicle detectors S2 to S4, the previous vehicle detection image is compared with the current vehicle detection image, and the change in the vehicle detection position is determined. Then, the identity of the vehicle detected from the previous image and the vehicle detected from the current image are confirmed, and the PCID of the vehicle is identified with reference to the image processing data generated from the previous vehicle detected image (step 8). ). The PCID obtained in step 7 or 8 is recorded as the PCID of the image processing data generated from the current vehicle detection image.
[0031]
The position information of the vehicle detector that outputs the detection signal is registered as the position information of the image processing data (step 9), and the time at which the vehicle detector outputs the detection signal is registered as the time information of the image processing data. Is registered (step 10). The image processing data is recorded in the vehicle management table 33 in which the vehicle management data is recorded (step 11), and the vehicle management data is corrected using the image processing data (step 12).
[0032]
The flowchart in FIG. 8 shows the procedure of the correction processing of the vehicle management data in the lane control unit 34, and FIGS. 9 and 11 show a specific example to which this correction processing procedure is applied. First, this specific example will be described.
[0033]
FIG. 9 illustrates the relationship between the arrival position of the vehicle that has entered the ETC lane (the position of each of the vehicle detectors S1 to S4) and the arrival time. FIG. 11 shows vehicle management data and image processing data generated at each vehicle position in FIG. For example, by giving CID = B1 to the vehicle shown in FIG. 9 (1) detected by the first vehicle detector S1 at time t1, the vehicle management data shown in FIG. 11 (1) is generated, and the vehicle management table shown in FIG. 33. Further, PCID = b1 is assigned to the vehicle of FIG. 9 (1) detected by analyzing the image at the time t1 when the first vehicle detector S1 outputs the detection signal, thereby obtaining the signal of FIG. 11 (1). Image processing data is generated and recorded in the vehicle management table 33.
[0034]
When the vehicle having CID = B1 is determined to be an ETC vehicle in the process of traveling between the first vehicle detector S1 and the second vehicle detector S2, the vehicle is detected by the second vehicle detector S2 at time t2. When it is detected ((2) in FIG. 9), the vehicle management data of FIG. 11 (2) is generated, and the vehicle management table replaces the vehicle management data of FIG. 11 (1) of the same CID (= B1). Be recorded. Further, the image processing data of FIG. 11 (2) is generated for the vehicle of FIG. 9 (2) detected by analyzing the image at time t2 when the second vehicle detector S2 outputs the detection signal, and the vehicle It is recorded in the management table in place of the image processing data of FIG. 11A having the same PCID (= b1).
[0035]
Similarly, when the third vehicle detector S3 detects a vehicle at time t3 ((3) in FIG. 9), the record in the vehicle management table is updated with the vehicle management data and the image processing data in FIG. 11 (3). Then, at the time when the fourth vehicle detector S4 detects the vehicle at the time t4 ((4) in FIG. 9), the record of the vehicle management table is updated with the vehicle management data and the image processing data in FIG. 11 (4). You. The vehicle management data and the image processing data whose position information has reached S4 are deleted from the vehicle management table because they indicate that the vehicle has passed the ETC lane.
[0036]
Similarly, CID = B2 is assigned to the vehicle ((5) in FIG. 9) detected by the first vehicle detector S1 at time t5, and PCID = b2 is assigned to the vehicle (FIG. 11 (5)). The vehicle management data and the image processing data are recorded in the vehicle management table, and when the vehicle (ETC vehicle) detects the vehicle (ETC vehicle) at time t6 ((6) in FIG. 9), the vehicle management table changes to FIG. The vehicle management data and the image processing data of (6) are updated.
When this vehicle passes through the third vehicle detector S3 ((7) in FIG. 9), if a detection error occurs, no detection signal is output from the third vehicle detector S3. Vehicle management data and image processing data corresponding to the position are not generated.
[0037]
When this vehicle reaches the position of the fourth vehicle detector S4 at time t8 ((8) in FIG. 9), the fourth vehicle detector S4 outputs a detection signal, and the image at time t8 when this detection signal is output. Is analyzed to generate the image processing data of FIG. 11 (8), which is recorded in the vehicle management table instead of the image processing data of FIG. 11 (6). After that, since the position information is S4, the vehicle management table Removed from.
[0038]
On the other hand, the vehicle management data of FIG. 11 (8) generated based on the detection signal of the fourth vehicle detector S4 indicates that although the third vehicle detector S3 does not detect the vehicle, the fourth vehicle detector S4 Is discarded because it cannot detect the vehicle.
Therefore, the vehicle management data of FIG. 11 (6) remains in the vehicle management table as vehicle management data.
[0039]
Next, CID = B3 is assigned to the vehicle ((9) in FIG. 9) detected by the first vehicle detector S1 at time t9, and PCID = b3 is assigned to the vehicle in FIG. 11 (9). Management data and image processing data are recorded in the vehicle management table. When the vehicle reaches the position of the second vehicle detector S2 at time t10, the vehicle (non-ETC vehicle) is detected by the second vehicle detector S2 ((10) in FIG. 9) and FIG. Is generated, and the vehicle management data and the image processing data of the same CID (= B3) and the same PCID (= b3) recorded in the vehicle management table are updated.
[0040]
When the vehicle reaches the position of the third vehicle detector S3 at time t11 and the third vehicle detector S3 detects the vehicle and outputs a detection signal, the vehicle management data recorded in the vehicle management table is recorded. From the order and the position information, it can be determined that this vehicle is a vehicle of CID = B2, so that the vehicle management data of FIG. 11 (11) is generated, and the vehicle management table is replaced with the vehicle management data of FIG. 11 (6). Recorded in.
On the other hand, the image at the time t11 when the third vehicle detector S3 outputs the detection signal is analyzed to generate the image processing data of FIG. 11 (11), and the vehicle management is performed instead of the image processing data of FIG. 11 (10). Recorded in the table.
[0041]
At this time, the vehicle management data and the image processing data of FIG. 11 (11) having the same position information (S3) and time information (t11) are compared, and the CID (= B2) of the vehicle management data is compared with the image processing data. When the CID (= B3) of the vehicle management data corresponding to the PCID (= b3) is different, the CID = B2 of the vehicle management data is corrected to CID = B3, and the ETC / non-ETC determination result of the vehicle management data is corrected. A process is performed to correct the result of CID = B3 (non-ETC).
Further, since the vehicle management data of CID = B3 appears by this correction, the vehicle management data and the image processing data of FIG. 11 (8) of the same CID (= B3) are deleted from the vehicle management table.
[0042]
When the vehicle management data in the vehicle management table is corrected in this way, when this vehicle reaches the position of the fourth vehicle detector S4 at time t12 ((12) in FIG. 9), the fourth vehicle detector S4 Based on the detection signal, the normal vehicle management data and image processing data shown in FIG. 11 (12) are created, and the data recorded in the vehicle management table is updated.
[0043]
The flowchart of FIG. 8 shows a generalized procedure for correcting the vehicle management data.
It is determined whether or not the position information of the image processing data entered in the vehicle management table is S1 (step 20). If the position information is S1, the same position as the position information (S1) and time information of the image processing data is identified. The vehicle management data having the information (S1) and the time information is searched from the vehicle management table, and the CID of the vehicle management data and the PCID of the image processing data are stored in association with each other (step 21). When the position information of the image processing data entered in the vehicle management table is S2 to S4, the vehicle management data having the same position information and time information as the position information and time information of the image processing data is stored in the vehicle management table. (Step 22), and identifies whether the CID (= Bi) of the vehicle management data matches the CID (= Bk) associated with the PCID (= bk) of the image processing data (step 23). . If they match, the vehicle management data is not modified. If they do not match, the CID of the vehicle management data is corrected to the CID (= Bk) associated with the PCID (= bk) of the image processing data, and the ETC / non-ETC discrimination result of the vehicle management data is corrected. Correction is made to the ETC / non-ETC determination result of the vehicle (= Bk). If a plurality of vehicle management data with the same CID appears in the vehicle management table as a result of this modification, only the vehicle management data with the latest time information is left, and other vehicle management data with the same CID is deleted (step 24). ).
By such processing, a ghost vehicle appearing in vehicle management can be deleted, and vehicle management can be normalized.
[0044]
Here, the detection data detected by the fourth vehicle detector S4 after the detection error is discarded and is not recorded in the vehicle management table 33, but the position information and the position information are determined based on the detection data of the vehicle detector. The vehicle management data in which the time information is recorded is recorded in the vehicle management table 33, and the CID in which the vehicle management data is insufficient is corrected using the image processing data in which the position information and the time information match, and the ETC of the vehicle having the CID is corrected. By describing the / non-ETC determination result in the vehicle management data, the vehicle management data may be reproduced. In this case, the generation of a ghost vehicle can be suppressed.
[0045]
Also, here, the case where the error of the vehicle management data is automatically corrected has been described, but when an error of the vehicle management data recorded in the vehicle management table is detected, an alarm is output, and the vehicle management data is output by an operator. Correction may be performed, or an alarm may be output to automatically correct an error in the vehicle management data.
[0046]
Further, even if a plurality of vehicles located far from the monitoring camera 20 are superimposed on the image and the vehicle on the rear side is detected by the vehicle detector, even if the position of the vehicle cannot be determined on the image, As shown in FIG. 12, image processing data is generated on the assumption that a vehicle exists at the position of the vehicle detector that has output the detection signal. By doing so, when a vehicle approaches the monitoring camera 20 and individual vehicles can be distinguished on an image, it becomes possible to generate image processing data associated with each vehicle.
[0047]
(Second embodiment)
In the second embodiment, an ETC system that tracks a vehicle passing through a lane with a plurality of monitoring cameras will be described.
In this system, an ETC lane is shared and photographed by a plurality of surveillance cameras so that a plurality of vehicles do not overlap on an image of the surveillance cameras. FIG. 14 shows a case where the monitoring camera 20 and the monitoring camera 21 are arranged before and after the ETC lane. FIG. 13 shows shooting areas 23 and 24 of the monitoring camera 20 and the monitoring camera 21.
[0048]
FIG. 15A shows an image of the monitoring camera 21 installed above the front head of the ETC lane, and FIG. 15B shows an image of the monitoring camera 20 installed above the rear head of the ETC lane. Is shown. As described above, by setting the shooting area of each monitoring camera 20, 21 so that the vehicle detector (in this case, the third vehicle detector S3) common to the images of the plurality of monitoring cameras 20, 21 is reflected, As shown in FIG. 16, vehicles passing through the position of the common vehicle detector are photographed by the monitoring cameras 20 and 21 at the same time. The vehicle shown in the image of the surveillance camera 21 can be tracked on the image of the surveillance camera 20 as shown by the arrow through the image of the same vehicle taken at the same time.
The configuration of the lane control device is the same as that of the first embodiment (FIG. 3). However, the images of the monitoring cameras 20 and 21 are input to the image processing data generation unit 32, and the image processing data generation unit 32 generates image processing data from the images of the monitoring cameras 20 and 21, respectively, and stores the image processing data in the vehicle management table 33. The only difference is in the writing.
[0049]
The flowchart in FIG. 17 shows a procedure for creating image processing data in the image processing data generation unit 32.
Here, steps 30 to 40 are procedures for creating the image processing data 1 from the image of the monitoring camera 21, and steps 41 to 51 are procedures for creating the image processing data 2 from the image of the monitoring camera 20. . These procedures are basically the same as the procedure for creating image processing data (FIG. 7) described in the first embodiment, and differ only in the following points.
[0050]
The image processing data 1 is created only when the first, second, and third vehicle detectors S1, S2, and S3 output detection signals (step 30), and PCID1 is used as the PCID of the image processing data 1. (Steps 36 and 37).
The creation of the image processing data 2 is performed only when the third and fourth vehicle detectors S3 and S4 output detection signals (step 41). When the third vehicle detector S3 outputs a detection signal, PCID2 is given to the vehicle located at the position of the third vehicle detector S3 (step 47), and the PCID of the image processing data 2 is the PCID2. Is used (step 48).
The image processing data 1 and the image processing data 2 thus generated are recorded in the vehicle management table 33 (steps 40 and 51), and the vehicle management data is corrected using these image processing data (step 52). ).
[0051]
The flowchart in FIG. 18 illustrates a processing procedure in which the lane control unit 34 modifies the vehicle management data using the image processing data 1 and the image processing data 2.
It is determined whether the image processing data entered in the vehicle management table is the image processing data 1 or the image processing data 2 (step 60). If the image processing data is the image processing data 1, the correction processing of steps 61 to 64 is performed. In the case of the image processing data 2, the correction processing of steps 65 to 68 is performed.
[0052]
This correction processing itself is basically the same as the correction processing (FIG. 8) described in the first embodiment.
The correction process using the image processing data 1 is different only in that the PCID1 is used as the PCID (step 64), but the other processes are the same.
[0053]
Further, in the correction processing using the image processing data 2, the position information of the third vehicle detector S3 which is commonly present in the shooting area of the monitoring camera 21 and the monitoring camera 20 is used as the position information, and the time information is the same. PCID1 corresponding to PCID2 is obtained by comparing 1 with image processing data 2. Next, the CID of the vehicle management data corresponding to the PCID1 associated in step 62 is obtained, and the CID corresponding to PCID2 is obtained (step 66).
[0054]
When the position information of the image processing data 2 is S4, vehicle management data having the same position information and time information as the position information and time information of the image processing data 2 is searched from the vehicle management table (step 67). It is determined whether or not the CID (= Bi) of the vehicle management data matches the CID (= Bk) associated with the PCID2 (= bk) of the image processing data 2 (step 68). The CID of the management data is corrected to the CID (= Bk) corresponding to the PCID2 (= bk) of the image processing data 2, and the ETC / non-ETC discrimination result of the vehicle management data is changed to the corrected CID (= Bk). Correct to the ETC / non-ETC discrimination result of the vehicle. If a plurality of vehicle management data with the same CID appears in the vehicle management table as a result of this modification, only the vehicle management data with the latest time information is left, and other vehicle management data with the same CID is deleted (step 69). ).
[0055]
In this way, by using a plurality of surveillance cameras, vehicles traveling on the ETC lane can be displayed without overlapping, and errors in vehicle management data can be accurately corrected using image processing data generated from this image. be able to.
[0056]
Although the case where two monitoring cameras are used has been described here, it is also possible to use three or more monitoring cameras. Also in this case, the photographing area is set so that the adjacent photographing area includes the common vehicle detector.
Further, the vehicle management method described in each embodiment is one example, and the present invention is not limited to this.
[0057]
【The invention's effect】
As is apparent from the above description, in the ETC system and the vehicle management method of the present invention, the information of the vehicle detector that detects only whether or not the vehicle has passed and the image information of the surveillance camera are combined, so that the respective It becomes possible to identify whether the vehicle detected by the vehicle detector is the same vehicle, and as a result, it is possible to correct the vehicle management deviation.
[0058]
INDUSTRIAL APPLICABILITY The present invention can be applied to any ETC gate of a toll collection system, and even if a non-ETC vehicle runs on a lane, the vehicle management can be performed accurately.
[Brief description of the drawings]
FIG. 1 is a diagram showing a shooting area of a surveillance camera according to a first embodiment of the present invention;
FIG. 2 is a diagram showing an ETC lane according to the first embodiment of the present invention;
FIG. 3 is a block diagram illustrating a configuration of a lane control device according to the first embodiment of the present invention;
FIG. 4 is a diagram showing an image of a surveillance camera according to the first embodiment of the present invention;
FIG. 5 is a diagram showing a time series of a vehicle image obtained by the image processing according to the first embodiment of the present invention;
FIG. 6 is a diagram showing a time series of a detection signal of the vehicle detector according to the first embodiment of the present invention;
FIG. 7 is a flowchart showing a procedure for generating image processing data according to the first embodiment of the present invention;
FIG. 8 is a flowchart showing a procedure for correcting vehicle management data according to the first embodiment of the present invention;
FIG. 9 is an explanatory diagram illustrating a process of correcting vehicle management data according to the first embodiment of the present invention;
FIG. 10 is a diagram showing a data structure of vehicle management data and image processing data according to the first embodiment of the present invention;
FIG. 11 is a diagram showing a specific example of vehicle management data and image processing data according to the first embodiment of the present invention;
FIG. 12 is a diagram showing a time-series change in which a superimposed vehicle separates according to the first embodiment of the present invention;
FIG. 13 is a diagram showing a shooting area of a surveillance camera according to a second embodiment of the present invention;
FIG. 14 is a diagram showing an ETC lane according to the second embodiment of the present invention;
FIG. 15 is a diagram showing an image of a surveillance camera according to the second embodiment of the present invention;
FIG. 16 is a diagram showing a time series of a vehicle image obtained by image processing according to the second embodiment of the present invention;
FIG. 17 is a flowchart showing a procedure for generating image processing data according to the second embodiment of the present invention;
FIG. 18 is a flowchart showing a procedure for correcting vehicle management data according to the second embodiment of the present invention;
FIG. 19 is a perspective view showing a gate of a tollgate of a conventional ETC system,
FIG. 20 is a plan view showing a gate of a tollgate of the conventional ETC system,
FIG. 21 is a functional block diagram showing a configuration of a tollgate of a conventional ETC system;
FIG. 22 is a diagram showing a road-vehicle communication area of a conventional ETC system.
FIG. 23 is a diagram showing a conventional vehicle detector.
FIG. 24 is a diagram illustrating vehicle management in a conventional ETC system.
[Explanation of symbols]
S1 First vehicle detector
S2 Second vehicle detector
S3 Third vehicle detector
S4 4th vehicle detector
10 Antenna
11 Roadside indicator
12 Breaker
13 booth
14 vehicles
15 Lane control device
16 Roadside wireless device
17 Island
20 surveillance cameras
21 surveillance camera
22 shooting area
23 Shooting area
24 Shooting area
30 Lane control device
31 Vehicle management data generator
32 Image processing data generator
33 Vehicle management table
34 Lane control unit
35 clock

Claims (8)

通過車両を検知する複数の車両検知手段と、前記通過車両を撮影する撮影手段とを備え、前記複数の車両検知手段により検知された車両の同一性を、前記撮影手段が撮影した映像を用いて判別することを特徴とする自動料金収受システム。A plurality of vehicle detecting means for detecting the passing vehicle, and a photographing means for photographing the passing vehicle, wherein the identity of the vehicle detected by the plurality of vehicle detecting means is determined by using an image photographed by the photographing means. An automatic toll collection system characterized by discrimination. 前記複数の車両検知手段の車両検知情報に基づいて、前記複数の車両検知手段が配置された区間に存在する車両の車両位置情報を管理し、前記車両検知手段の検知ミスで生じる前記車両位置情報の誤りを、前記撮影手段が撮影した映像を用いて検出することを特徴とする請求項1に記載の自動料金収受システム。Based on the vehicle detection information of the plurality of vehicle detection units, manages vehicle position information of a vehicle existing in a section where the plurality of vehicle detection units are arranged, and the vehicle position information generated by a detection error of the vehicle detection unit 2. The automatic toll collection system according to claim 1, wherein an error of the toll is detected by using a video image captured by the imaging unit. 前記車両位置情報の誤りが検出されたとき、警報を出力することを特徴とする請求項2に記載の自動料金収受システム。The automatic toll collection system according to claim 2, wherein an alarm is output when an error in the vehicle position information is detected. 前記車両位置情報の誤りが検出されたとき、前記誤りを車線制御装置が修正することを特徴とする請求項2または3に記載の自動料金収受システム。The automatic toll collection system according to claim 2 or 3, wherein when an error in the vehicle position information is detected, the error is corrected by a lane control device. 前記撮影手段は、前記複数の車両検知手段が配置された区間の全域を撮影することを特徴とする請求項2に記載の自動料金収受システム。3. The automatic toll collection system according to claim 2, wherein the photographing unit photographs an entire area of the section where the plurality of vehicle detecting units are arranged. 4. 前記撮影手段として複数の撮影手段を備え、前記複数の撮影手段が前記区間の全域を分担して撮影することを特徴とする請求項5に記載の自動料金収受システム。6. The automatic toll collection system according to claim 5, wherein a plurality of photographing means are provided as the photographing means, and the plurality of photographing means share and photograph the entire area of the section. 通過車両を検知する複数の車両検知手段の車両検知情報に基づいて、前記複数の車両検知手段が配置された区間に存在する車両の車両位置情報を管理する車両管理方法において、
前記区間の全域を撮影手段で撮影し、前記車両検知手段の各々が車両を検知した時点の前記撮影手段の映像を用いて、前記車両検知手段が検知した車両と隣接する前記車両検知手段が検知した車両との同一性を識別し、前記車両位置情報の誤りを検出することを特徴とする車両管理方法。
A vehicle management method for managing vehicle position information of a vehicle existing in a section where the plurality of vehicle detection units are arranged, based on vehicle detection information of a plurality of vehicle detection units that detect a passing vehicle,
The entire area of the section is photographed by photographing means, and the image of the photographing means at the time when each of the vehicle detecting means detects the vehicle is detected by the vehicle detecting means adjacent to the vehicle detected by the vehicle detecting means. A vehicle management method comprising: identifying the identity of a vehicle that has been identified; and detecting an error in the vehicle position information.
前記区間の全域を複数の撮影手段で分担して撮影し、前記撮影手段の各々が撮影する撮影エリアは、隣接する前記撮影エリアと一部が重なり、重なったエリアに前記車両検出手段の少なくとも一つが含まれるように設定することを特徴とする請求項7に記載の車両管理方法。The entire area of the section is shared by a plurality of image capturing units, and an image capturing area captured by each of the image capturing units partially overlaps with the adjacent image capturing area. The vehicle management method according to claim 7, wherein the setting is made to include one of the two.
JP2002161618A 2002-06-03 2002-06-03 Automatic toll collection system and vehicle management method Withdrawn JP2004013207A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002161618A JP2004013207A (en) 2002-06-03 2002-06-03 Automatic toll collection system and vehicle management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002161618A JP2004013207A (en) 2002-06-03 2002-06-03 Automatic toll collection system and vehicle management method

Publications (1)

Publication Number Publication Date
JP2004013207A true JP2004013207A (en) 2004-01-15

Family

ID=30430640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002161618A Withdrawn JP2004013207A (en) 2002-06-03 2002-06-03 Automatic toll collection system and vehicle management method

Country Status (1)

Country Link
JP (1) JP2004013207A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209428A (en) * 2005-01-27 2006-08-10 Toshiba Corp Electronic toll collection system
WO2017109127A1 (en) * 2015-12-23 2017-06-29 Thales Method for detecting a towbar and associated computer program product
WO2023157343A1 (en) * 2022-02-17 2023-08-24 日立Astemo株式会社 Vehicle recognition system and server

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209428A (en) * 2005-01-27 2006-08-10 Toshiba Corp Electronic toll collection system
WO2017109127A1 (en) * 2015-12-23 2017-06-29 Thales Method for detecting a towbar and associated computer program product
FR3046278A1 (en) * 2015-12-23 2017-06-30 Thales Sa METHOD FOR DETECTING A COUPLING TIMON AND ASSOCIATED COMPUTER PROGRAM PRODUCT
WO2023157343A1 (en) * 2022-02-17 2023-08-24 日立Astemo株式会社 Vehicle recognition system and server

Similar Documents

Publication Publication Date Title
ES2282395T3 (en) SYSTEM AND PROCEDURE FOR READING REGISTRATION PLATES.
US7630515B2 (en) Method of and apparatus for setting image-capturing conditions, and computer program
US6747687B1 (en) System for recognizing the same vehicle at different times and places
KR101710646B1 (en) System for recognizing front and back face of license plate using video tracking
US20080062009A1 (en) Method and system to improve traffic flow
KR102205057B1 (en) Same vehicle detection device, fee receiving facility, same vehicle detection method and program
JP2013088979A (en) Parking lot management system
JP2016021200A (en) Determination method, determination system and determination device
KR101880243B1 (en) Multi-lane hi-pass system for impruving matching accuracy of vehicle number and OBU unique number
JP4961305B2 (en) Vehicle monitoring device for toll road automatic toll booth
JP2808513B2 (en) Electronic toll collection system
KR101538592B1 (en) Parking Management System with Aoutomatic Control for License Plate Misrecognition
KR100941528B1 (en) Vehicle registration plate archive system and method of operating the same
JP2015187897A (en) Parking lot management system
CN110070724A (en) A kind of video monitoring method, device, video camera and image information supervisory systems
JP2004013207A (en) Automatic toll collection system and vehicle management method
JP2009048225A (en) Vehicle recognition device and vehicle recognition method
JP4086519B2 (en) Automatic fee collection system
KR20020032049A (en) A fare collection a means
JP5320096B2 (en) Unauthorized passing vehicle management system and unauthorized passing vehicle management method
JP2002032890A (en) Fraudulent vehicle information acquiring method and device therefor
CN115798067A (en) Electronic license plate recognition system based on high-power RSU and recognition method thereof
JP2004258981A (en) Vehicle monitoring method and device
JP2003281581A (en) Vehicle management device for electronic toll collection lane
JP4064745B2 (en) ETC motion analysis system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050601

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070614