JP2015046126A - 車両検知装置 - Google Patents

車両検知装置 Download PDF

Info

Publication number
JP2015046126A
JP2015046126A JP2013178244A JP2013178244A JP2015046126A JP 2015046126 A JP2015046126 A JP 2015046126A JP 2013178244 A JP2013178244 A JP 2013178244A JP 2013178244 A JP2013178244 A JP 2013178244A JP 2015046126 A JP2015046126 A JP 2015046126A
Authority
JP
Japan
Prior art keywords
vehicle
data
detection device
detection unit
vehicle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013178244A
Other languages
English (en)
Inventor
雄介 高橋
Yusuke Takahashi
雄介 高橋
青木 泰浩
Yasuhiro Aoki
泰浩 青木
佐藤 俊雄
Toshio Sato
俊雄 佐藤
茂 唐澤
Shigeru Karasawa
茂 唐澤
末木 信之
Nobuyuki Sueki
信之 末木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013178244A priority Critical patent/JP2015046126A/ja
Publication of JP2015046126A publication Critical patent/JP2015046126A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】車両以外の物体による誤検知を低減することができる車両検知装置を提供することである。
【解決手段】実施形態の車両検知装置は、車両候補オブジェクト検出部と、車両検知部を有する。車両候補オブジェクト検出部は、複数の計測点のデータについて、所定の座標系における計測点間の距離に基づいて、車両の候補となるオブジェクトを検出する。車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関して、前記所定の座標系における所定の方向の前記オブジェクトの長さに基づいて、車両のオブジェクトを検知する。
【選択図】図1

Description

本発明の実施形態は、車両検知装置に関する。
料金収受システムに用いられる車両検知装置では、一般に、赤外線を用いた透過型のポールセンサによって車両の通過を検知する。すなわち、一対のポールセンサは、走行車線の両側に設置され、互いに赤外線ビームを照射して検知し合い、車両が赤外線ビームを横切った瞬間を検知する。これにより、比較的安定して車両の通過を検知することができる。
特開平11−120480号公報
本発明が解決しようとする課題は、車両以外の物体による誤検知を低減することができる車両検知装置を提供することである。
実施形態の車両検知装置は、車両候補オブジェクト検出部と、車両検知部を有する。車両候補オブジェクト検出部は、複数の計測点のデータについて、所定の座標系における計測点間の距離に基づいて、車両の候補となるオブジェクトを検出する。車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関して、前記所定の座標系における所定の方向の前記オブジェクトの長さに基づいて、車両のオブジェクトを検知する。
実施形態1の車両検知装置を適用した車両情報処理システムの構成を示す概要図である。 実施形態1の車両検知装置の構成を示すブロック図である。 実施形態1の車両検知装置における処理の流れを示すフローチャートである。 実施形態1のステレオカメラからの距離と視差との関係を示す関係図である。 実施形態1の撮像画像を車両進行方向に分割した基準期間a、bおよびcを示す図である。 実施形態1の判定結果に基づいて割り振られた状態番号を示す図である。 実施形態1の車両が前進通過する場合の状態番号の遷移を示す図である。 実施形態1の車両が前進通過する場合の車両の存在位置と状態番号との関係を示す関係図である。 実施形態1のカメラ座標系から基準座標系への座標変換を示す図である。 実施形態1の車両以外の種別を判定する処理の流れを示すフローチャートである。 実施形態1の車両検知装置の制御部の構成例を示すブロック図である。
(第1の実施形態)
以下、実施形態1の車両情報処理システム1を図面を参照して説明する。
図1は、実施形態1の車両検知装置13を適用した車両情報処理システム1の構成を示す概要図である。
車両情報処理システム1は、ステレオカメラ11、ETC(Electronic Toll Collection)システム12および車両検知装置13を備える。
ステレオカメラ11は、複数のカメラ(本実施形態では、2個のカメラ11a〜11b)を所定の視差が得られるように配置した撮像装置である。本実施形態では、複数のカメラ11a〜11bを上下に並べて配置し、各カメラ11a〜11bにより車両52が進行する道路51の車線を撮像し、各々のカメラ11a〜11bによる撮像画像を車両検知装置13に送出する。本実施形態では、例として2台のカメラ11a〜11bを用いて、一方のカメラ11a(または、11b)で撮像した画像を基準画像とし、他方のカメラ11b(または、11a)で撮像された画像を参照画像とする。
ステレオカメラ11内の各カメラ11a〜11bは、予め設定したフレームレートで動画像を撮像するディジタルカメラである。このステレオカメラ11は、料金所のアイランド部分に立つポールに設置され、車両52の進行方向に対し、上下に並ぶそれぞれのカメラ11a〜11bが上斜め方向から撮像し、車両52が横方向に通過するようにカメラ視野(撮像領域)21が設定されている。すなわち、ステレオカメラ11は、斜め上方から路面を撮像可能な位置に設置される。また、ステレオカメラ11は、カメラ視野21内を走行する車両52について、タイヤ(車軸)と地面との接地部分が映るように調整される。また、ステレオカメラ11は、牽引棒などの牽引構造物を撮像する際に、車両52による死角が発生しないように、車両52の進行方向に対して垂直な方向から撮像可能な位置に設置される。
なお、料金所では、車線内の車両52の位置を適切に把握するために、1車線あたり例えば3〜4箇所にステレオカメラ11および車両検知装置13を設置してもよい。この場合、車両検知装置13は、複数のステレオカメラ11に共通化されてもよい。
他の構成例として、ステレオカメラ11としては、上下のカメラに代えて、1枚のレンズで光学的に車両52の上下の撮像画像を得る撮像装置を用いてもよい。例えば、ステレオカメラ11としては、特殊なレンズにより1台のカメラで同時に双方向からの映像を一度に分岐できるような場合には、単数のカメラでハードウェアを構築してもよい。この具体例として、光の入り口には2つのレンズを備え、内部には光路を曲げるプリズムが配置されたウェッジプリズム偏光方式を用いたレンズ等が、適宜使用可能である。
ステレオカメラ11によって得られた撮像画像は、撮像時刻を示すタイムコードを含んでいる。このタイムコードは、例えば、ステレオカメラ11が撮像画像に含める。ステレオカメラ11、ETCシステム12および車両検知装置13は、互いに同期した時刻情報を生成する時計装置(図示せず)を有する。
なお、他の手法によって、ステレオカメラ11、ETCシステム12および車両検知装置13が同期して動作すれば、すなわち、ステレオカメラ11の撮像画像(画像データ)の撮像時刻をETCシステム12および車両検知装置13が認識することができれば、必ずしも、撮像画像はタイムコードを含まなくてもよい。
ここで、ステレオカメラ11の撮像画像では、大型車両のような高さ(例えば、4.0m以内)においても、車両の下端(タイヤ接地部分)から上端(屋根)までが映るとする。また、ステレオカメラ11の撮像画像では、映像が動画で撮像され、車両の通行に際しては、時速80km/hまでの移動を想定して、ステレオカメラ11のカメラ視野21内への通行履歴として、車両1台につき、少なくとも数フレーム(進入および退出の場面)が映るとする。
ETCシステム12は、高速道路等の有料道路を通行する車両52に対して課せられる通行料金を自動的に徴収する料金収受装置であり、通信エリア22に存在する車両52に搭載されるETC車載器と無線通信し、通過車両を特定する情報を取得する。ETC車載器は、一般に、少なくとも無線通信を行うためのアンテナがフロントガラスを介して視認できる位置に設置される。
図2は、実施形態1の車両検知装置13の構成を示すブロック図である。
車両検知装置13は、表示部101、ユーザインターフェース102、ネットワークインターフェース103、記憶部104および制御部105を備える。
表示部101は、LCD(Liquid Crystal Display)等を用いたディスプレイ装置であり、車両検知装置13の運用状況を始めとする種々な情報を表示する。
ユーザインターフェース102は、キーボード、マウス、タッチパネル等のように、ユーザから指示を受け付けるインターフェースである。
ネットワークインターフェース103は、LAN(Local Area Network)等のネットワークを通じて、ステレオカメラ11およびETCシステム12と通信するインターフェースである。
記憶部104は、制御部105の制御プログラムや制御データを記憶する記憶装置であり、ハードディスク(HDD)、RAM(Random Access Memory)、ROM(Read Only Memory)およびフラッシュメモリ等の記憶手段を1つまたは複数用いたものである。
制御データとしては、例えば、立体の形状を表す複数の部品データ(例えば、牽引棒の形状パターン、車軸の円形部分の形状データ、人物の一部の形状データ)などが用いられる。すなわち、記憶部104は、複数の部品データを予め記憶する。なお、牽引棒の形状パターンは、例えば、車両の進行方向に沿って長辺を有する長方形を示す形状パターンの如き、牽引棒の典型的な形状パターンを示す情報である。牽引棒の形状パターンは、近接した2台の車両と、被牽引車を牽引棒で牽引する1台の車両と、を区別する場合に記憶される。このため、牽引棒の形状パターンは、これらの両者を区別しない場合には省略することが可能である。
制御部105は、メモリを有するマイクロプロセッサを備え、記憶部104が記憶する制御プログラムや制御データにしたがって動作し、車両検知装置13の各部101〜104を統括して制御する。
制御部105は、ステレオカメラ11により得られた各々の撮像画像から視差を求め、ステレオカメラ11のカメラ視野21内(撮像領域内)の物体との距離のデータ(距離データ)を計算する。また、制御部105は、予めステレオカメラ11により取得される背景距離のデータ(背景距離データ)と計算された距離データとの差分により、カメラ視野21内の物体の存在を確認し、その位置関係を時刻毎に記録し、物体の移動方向を判定して、車両52の入出を検知する。なお、制御部105は、入出車両の検知に加え、実空間上における通過時刻(ETCシステム12の通信エリア22の通過時刻)を予測する機能を有してもよい。
また、制御部105は、例えば、以下の機能(f1)〜(f6)を備えている。
(f1)各々の撮像画像について、車両の上下方向へのエッジ強調を行うエッジ強調機能。
(f2)エッジ強調された各々の撮像画像間の視差データを画素毎に計測する視差データ計測機能。
(f3)基準画像内および参照画像内の注目画素を含む小領域内の画素値の分散を求め、その結果により不要な視差データを棄却する視差データ棄却機能。つまり、分散が大きい方が信頼できることから、分散が所定の閾値より小さいデータを捨てる機能。
(f4)上記した視差データからステレオカメラ11と撮像対象との間の距離を示す距離データを画素毎に求め、この距離データを画素毎に有する距離画像を作成する距離データ計測・距離画像作成機能(距離データ計測機能および距離画像作成機能)。
(f5)車両52の進行方向に距離画像を分割して複数の基準区間を形成し、複数の基準区間のそれぞれで、予め車両52のない状態で計測される背景距離データと距離データ計測機能で指定車両の入出時に時刻毎に計測される距離データとの差分を求めることで、基準区間毎に差分を時刻毎に求め、基準区間毎に差分を所定の閾値と比較することで、車両52の有無を時刻毎に状態判定する状態判定機能。
(f6)時刻毎の状態判定の結果を保持し、その履歴に基づいて車両52の先頭、側面および後端の流れ、あるいは車両52の後端、側面および先頭の流れを監視することで、車両52の遷移方向を判定し、その判定結果に基づいて車両の入出を検知する車両検知機能。
図3は、実施形態1の車両検知装置13における処理の流れを示すフローチャートである。
まず、車両検知装置13は、撮像画像入力ステップにて、ステレオカメラ11で撮像(撮影)された撮像画像(一方が基準画像、他方が参照画像)を入力する(ステップST1)。車両検知装置13は、平行等位化処理ステップにて、入力された撮像画像の平行等位化および歪み補正を行い(ステップST2)、輝度補正処理ステップにて、平行等位化およい歪み補正が行われた撮像画像の輝度補正(ステップST3)を行う。車両検知装置13は、画像特徴抽出処理ステップにて、各々の撮像画像について、輝度補正が行われた撮像画像に対して制御部105の機能(f1)により車両の上下方向へのエッジ強調を行う(ステップST4)。
次に、車両検知装置13は、対応点探索マッチングステップにて、エッジ強調を行った各々の撮像画像間の画素毎の対応点をブロックマッチング手法等で求める(ステップST5)。車両検知装置13は、マッチング棄却処理ステップにて、制御部105の機能(f2)により各々の撮像画像間の視差データを画素毎に求めて、制御部105の機能(f3)により不要な視差データを棄却する(ステップST6)。車両検知装置13は、距離計測ステップにて、制御部105の機能(f4)により視差データから距離データを画素毎に求め、この距離データを画素毎に有する距離画像を作成する(ステップST7)。
図4は、実施形態1のステレオカメラ11からの距離と視差との関係を示す関係図である。
実際には、図4に示すように、物体(例えば、車、背景)をステレオカメラ11で撮像すると、物体上の同一点は、それぞれのカメラ11a,11bの撮像画像内で異なる位置に見える。この位置のズレを視差と呼び、画素毎に得られる視差に基づいて、ステレオカメラ11から物体までの距離を算出する。
なお、図4には、基準面201や、車幅の例や、道路幅の例を示してある。
図3に示されるフローチャートにおいて、上記の処理に続いて、車両検知装置13は、次のようにして、作成した距離画像から車両の台数を計測する。
車両検知装置13は、基準区間変化量判定ステップにて、作成した距離画像を、車両の進行方向における進入側(入場側)に位置する基準区間aの距離画像と、車両の退出側(出場側)に位置する基準区間bの距離画像と、基準区間aおよび基準区間bとの間に位置する基準区間cの距離画像とに分割する。
図5は、実施形態1の撮像画像を車両進行方向に分割した基準期間a、bおよびcを示す図である。
図5の例では、車両の進入側から退出側に向かって、距離画像が9個の単位区間A1〜A9に分割されている。そして、車両の進入側にある3個の単位区間A1〜A3を基準区間aと設定してあり、それに続く中央の3個の単位区間A4〜A6を基準区間cと設定してあり、それに続く車両の退出側にある3個の単位区間A7〜A9を基準区間bと設定してある。
車両検知装置13は、制御部105の機能(f5)により距離画像における基準区間a内の画素毎の距離データと、背景距離画像における基準区間a内の画素毎の距離データとの間の差分を計測する。車両検知装置13は、この画素毎の差分を基準区間a内で合計した総和が所定の閾値を超えた場合に、距離画像の基準区間aをオン状態と判定し、この総和が当該閾値を超えない(例えば、当該閾値以下である)場合には、距離画像の基準区間aをオフ状態と判定する。そして、車両検知装置13は、基準区間aと同様にして、基準区間bおよび基準区間cについても、オン/オフの状態を判定する(ステップST8)。なお、各基準区間a、b、c毎の閾値は、同じであってもよく、または、異なっていてもよい。
車両検知装置13は、状態判定ステップにて、制御部105の機能(f5)により判定された基準区間a、bおよびcの各変化量の判定結果(オン/オフの状態の判定結果)に基づいて、状態の番号(状態番号)を決定する(ステップST9)。
図6は、実施形態1の判定結果に基づいて割り振られた状態番号を示す図である。
図6の表に示すように、本実施形態では、例えば、基準区間a、bおよびcがいずれもオフ状態である場合には状態番号をS0(車両なし)とし、基準区間aのみがオン状態である場合には状態番号をS1(車両先頭)とし、基準区間bのみがオン状態である場合には状態番号をS2(車両後端)とし、基準区間cのみがオフ状態である場合には状態番号をS4(後続車両先端および先行車両後端)とし、その他の状態である場合には状態番号をS3(車両側面)とする。
車両検知装置13は、状態番号の判定結果に基づいて、制御部105の機能(f6)により過去の状態番号の判定履歴と比較して遷移状態を判定する。
図7は、車両が前進通過する場合の状態番号の遷移を示す図である。
図7には、状態番号の遷移(例えば、車両の前進時の遷移)と対応させて、基準区間aにおけるオン(ON)とオフ(OFF)の状態の特性501の一例と、基準区間bにおけるオン(ON)とオフ(OFF)の状態の特性502の一例を示してある。
図8は、車両が前進通過する場合の車両の存在位置と状態番号との関係を示す関係図である。
図8には、状態番号の遷移(例えば、車両の前進時の遷移)と対応させて、基準区間a、c、bに対応する区間B1、B2、B3について、車両の画像の様子の一例を示してある。
図7および図8に示すように、車両検知装置13は、例えば、状態番号の遷移として“S0→S1→S3→S2→S0”という遷移を、車両の前進通過と判定する。この場合、画像フレーム毎の判定履歴としては、例えば“S0、S1、S1、S3、S3、S3、S3、S2、S2、S0、・・・”などというように、途中で同じ状態番号が重複して現れることがあり、このため、判定履歴には、このような重複を棄却して、状態番号の変化時に履歴として登録する。車両検知装置13は、これらの状態番号の遷移を予め登録された遷移のモデルと比較して、車両の通行(例えば、前進通過であるか否か)を判定する。
ここでは前進通過について説明したが、後進通過についても同様である。すなわち、車両検知装置13は、逆方向についても同様に、“S0→S2→S3→S1→S0”という状態番号の遷移である場合に、後進通過であると判定する。
図3に示されるフローチャートにおいて、上記の過程を経て、車両検知装置13は、次に、台数計測処理ステップにて、通過する車両52を検出し、通過した車両52の台数を計測(検出)する(ステップST10)。そして、車両検知装置13は、通過する車両の検出結果を出力する(ステップST11)。
以上のように、車両検知装置13は、上下に設置されたカメラ11a〜11bを有するステレオカメラ11により、車両52が通過する車線を撮像した各々の撮像画像から視差データを求め、カメラ視野21内の物体との距離データを計算する。また、車両検知装置13は、背景距離データと視差データとの差分により、カメラ視野21内の物体の存在を確認し、その物体の位置関係を時刻毎に記録し、車両52の状態の遷移を判定して、車両52の入出を検知する。
以上は、実施形態1における車両検知装置13の基本的な構成および動作の例である。
以下において、主に軽自動車より小型の物体による誤検知を低減させることを図る構成および動作について、詳しく説明する。
図9を参照して、カメラ座標系と基準座標系について説明する。
図9は、実施形態1のカメラ座標系から基準座標系への座標変換を示す図である。
図9に示すように、カメラ11a〜11b(ステレオカメラ11)を基準とした座標系(カメラ座標系)として、原点Oc、互いに直交する座標軸Xc、Yc、Zcをとる。カメラ11a〜11bから得られた撮像画像に基づく距離データは、カメラ座標系における座標値で表される。
また、図9に示すように、道路上における基準とする世界座標系を定義する。本実施形態では、世界座標系として、カメラ11a〜11b(ステレオカメラ11)が設置されている道路面の端を原点Owとし、道路面における道路幅の方向に軸Xwをとし、車両52の進行方向に軸Ywをとり、道路面に対して法線方向に軸Zwをとる。
実施形態1では、予め規定したサイズにより検知すべき車両であるか否かを判別する場合について説明する。
図3に示される状態判定ステップ(ステップST9)において、車両検知装置13は、図10に示される処理を行う。
図10は、実施形態1の車両以外の種別を判定する処理の流れを示すフローチャートである。
まず、車両検知装置13は、計測点について、カメラ座標系から基準座標系への座標変換を行う(ステップST101)。
任意の点Pについて、カメラ座標系で得られた座標Pcから基準となる世界座標系における座標Pwへの変換は式(1)に従う。ここで、Rは回転行列を表し、Tは平行移動行列を表す。
(数1)
Pw=R・Pc+T ・・(1)
次に、車両検知装置13は、カメラ11a〜11bで計測した3次元座標点において、例えばZwの座標値について正の座標値を持つ点を抽出することで、道路面上に高さを持つ物体として、車両候補点を抽出することができる。また、車両検知装置13は、車両が存在しないシーンにおいて予め計測点を得ることで、道路面上を含む背景物体の3次元座標値を得ておき、任意の計測点において、背景物体の3次元座標値と比較することで、前景となる車両候補点を抽出することができる(ステップST102)。
次に、車両検知装置13は、計測された複数の車両候補点の群のデータに対して、基準となる世界座標系における分布状況に応じて複数のグループ(クラスタ)に分類し、各グループを1つのオブジェクト(車両候補オブジェクト)として扱って抽出する(ステップST103)。
ここで、代表的なクラスタリング手法として、Nearest Neighbor Algorithm(NN法)や、K−Nearest Neighbor Algorithm(K−NN法)や、K−Mean Algorithm(K平均法)などがあり、用いることができる。
次に、車両検知装置13は、車両候補オブジェクトについて、基準となる世界座標系における車両の進行方向の座標軸Ywにおける分布を分析する。具体的には、車両検知装置13は、車両候補オブジェクトを構成する点群のデータについて、座標Ywの最大値と最小値からオブジェクトの長さを算出し、これにより、車両であると判定する基準の長さ(所定の閾値)以上の長さを有する車両候補オブジェクトを車両(検知の対象とする物体)であると判定し、それ以下の車両候補オブジェクトを車両以外のオブジェクト(非車両オブジェクト:検知の対象としない物体)として判定する(ステップST104)。
なお、非車両オブジェクトは、本実施形態において車両としては検知の対象としない物体であり、例えば、一般的に車両と呼ばれるものが含まれていてもよい。
また、車両検知装置13は、車両候補オブジェクトについて、基準となる世界座標系における道路幅方向の座標軸Xw、および道路面に対して法線方向の座標軸Zwに関しても、オブジェクトの長さを算出し、これらに基づいて、車両候補オブジェクトを詳細に判別する。具体的には、車両検知装置13は、車両については、規程の車両の寸法に基づいて決定する。また、車両検知装置13は、車両以外のオブジェクト(非車両のオブジェクト)については、Yw方向の長さとXw方向の長さを比較して、この結果、Yw方向に顕著に長い場合には、自動二輪車もしくは自転車であるとして車両候補オブジェクトの種別を判別し、また、Xw方向の長さとYw方向の長さに対して、Zw方向に顕著に長い場合には、人であるとして車両候補オブジェクトの種別を判別する(ステップST105)。
ここで、本実施形態では、センサとしてステレオカメラ11(カメラ11a〜11b)を用いて、ステレオカメラ11(カメラ11a〜11b)による撮像画像から3次元座標データを計測する方法を例として記述したが、他の構成例として、センサとしては、様々なものが用いられてもよい。具体例として、センサとしては、赤外線を用いたTOF(Time Of Flight)カメラが用いられてもよく、また、センサとしては、カメラのみでなく、例えば、レーザ測距計、赤外線測距計等が用いられてもよい。これら様々なセンサを基準とした距離を測定して得られる3次元座標データ(本実施形態におけるカメラの座標系に対応するセンサの座標系のデータ)を用いることができる。
図11を参照して、効果の例を説明する。
図11は、実施形態1の車両検知装置13の制御部105の構成例を示すブロック図である。
制御部105は、距離データ計測部1001、座標変換部1002、車両候補点検出部1003、車両候補オブジェクト検出部1004、車両検知部1005を備える。
本実施形態に係る車両情報処理システム1では、車両52が通過する道路51をセンサ(本実施形態では、ステレオカメラ11)で監視して監視エリア(例えば、カメラ視野21)内を入出する車両52を検知する車両検知装置13において、次のような処理を行う。
距離データ計測部1001が、センサにより監視エリア内の物体との距離を計測する。座標変換部1002が、センサを起点とした距離データに基づいて、当該距離データを基準座標系における3次元空間上の計測点データへ変換する。車両候補点検出部1003が、基準座標系の任意の1軸において予め設定した範囲内の値を有する計測点データを車両候補点として検出する。車両候補オブジェクト検出部1004が、車両候補点となる複数の計測点データから基準座標系での計測点間の距離に基づいて1つのオブジェクト(車両候補オブジェクト)として検出する。車両検知部1005が、車両候補オブジェクトに関して、基準座標系における任意の1つの軸の方向のオブジェクトの長さに基づいて、車両と車両以外のオブジェクトを判別する。したがって、車両以外の物体による誤検知を低減することができる。
ここで、基準座標系としては、例えば、道路51の面に対して法線方向を1つの軸とする基準座標系や、もしくは、垂直方向(重力の方向)を1つの軸とする基準座標系を用いることができる。この場合、残りの2つの軸は任意であってもよい。一例として、車両の横幅方向に沿った軸と、車両の進行方向(長さ方向)に沿った軸と、車両の高さ方向に沿った軸と、からなる基準座標系を用いることができる。
また、車両検知装置13において、車両候補点検出部1003は、予め通過車両が存在しないシーンにおける道路面を含む計測点データを背景オブジェクトとして記憶しておき、センサにより得られた計測点データと背景オブジェクトデータとを比較し、基準座標系の任意の1つの軸における差が一定以上である場合に車両候補点として検出することができる。したがって、車両以外の物体による誤検知を低減することができる。
このように、車両検知装置13において、車両候補オブジェクト検出部1004が、複数の計測点のデータについて、所定の座標系(例えば、基準座標系)における計測点間の距離に基づいて、車両の候補となるオブジェクトを検出し、車両検知部1005が、車両候補オブジェクト検出部1004により検出されたオブジェクトに関して、前記所定の座標系における所定の方向の前記オブジェクトの長さに基づいて、車両のオブジェクトを検知する。
また、車両検知装置13において、座標変換部1002が、所定の監視エリア(例えば、カメラ視野21)における物体に関して得られた複数の計測点の距離データを、道路に対応する前記所定の座標系における3次元空間上の距離データへ変換し、車両候補オブジェクト検出部1004は、複数の計測点のデータとして、座標変換部1002による変換により得られた距離データを用いる。
以上のように、本実施形態に係る車両情報処理システム1では、ステレオカメラ11等のように3次元距離データを取得することが可能なエリアセンサを用いて、道路上の特定の領域を入出する車両を検知することができる。例えば、料金収受システムに用いられる車両検知装置13において、カメラ等を用いたエリアセンサにより装置コストを低減することができ、また、車両以外の物体である例えば自動二輪車、自転車、人などが通過した際に誤って車両として検知してしまう誤検知を低減することができる。
(第2の実施形態)
以下、実施形態2の車両情報処理システム1を説明する。本実施形態では、実施形態1とは異なる点について詳細に説明し、実施形態1と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
本実施形態では、車両検知装置13は、車両候補オブジェクトについて、センサから抽出されたオブジェクトの任意の2次元平面への射影シルエット、オブジェクトの形状および構造のデータを用いて、オブジェクトの位置、姿勢の取得を行う。
具体的には、予め計算機上に記憶したオブジェクトの形状および構造のモデルを基に、オブジェクトに様々な位置、姿勢をとらせ、仮想的にオブジェクトを2次元平面上に投影し、シルエットを得る。このシルエットと、実際に計測したオブジェクトのシルエットとの一致度を比較し、最も一致した位置、姿勢をそのときのオブジェクトの位置、姿勢として出力する。
射影平面としては、例えば実施形態1で示した基準座標系によると、Yw−Zw平面への射影では車両等を側方から見たシルエットになり、Xw−Zw平面への射影では車両等を前方もしくは後方から見たシルエットとなる。但し、センサが車両走行方向に垂直な方向にある場合には、Xw−Zw平面においては十分な車幅方向の座標データが得られないことがあり得る。このため、センサの監視方向を車両走行方向に対して(垂直な方向ではなく)角度をつけ、車両走行方向に対して斜め前方もしくは斜め後方にすることで、車幅方向の計測方向についても測定値を十分に取得することが好ましい一例である。
一般的に用いられるオブジェクト間の一致度としては、例えば、実際のシルエットと仮想的なシルエットとが重なった領域に対する2つのシルエットの和集合領域の比や、あるいは、仮想的なシルエットの輪郭上の点に対する実際のシルエットの輪郭上で最も近い点の距離を全体にわたって平均した結果の値、などが用いられる。また、さまざまな位置、姿勢をとらせる際には、自由度が大きいことからあらゆる姿勢に対して評価することは不可能に近いため、例えば、最急降下法などの最小化アルゴリズムや、遺伝的アルゴリズム(GA)などを利用して解を求めることが行われる。
以上のように、本実施形態に係る車両情報処理システム1では、予め自動二輪車、自転車、人などのモデルデータを計算機上に持つことで、これらの判別を可能とすることができる。
図11を参照して、効果の例を説明する。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
車両検知部1005は、車両候補オブジェクトに関して、基準座標系における任意の2つの軸からなる平面に車両候補オブジェクトを構成する車両候補点の3次元座標を正射影し、車両候補オブジェクトの正射影した点群に関して射影平面の2つの軸の方向の大きさに基づいて、車両種別と自動二輪車、自転車、人などを判別する。したがって、車両の種別を精度よく判別することができる。
また、車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、基準座標系における任意の2つの軸からなる平面に車両以外と判別された車両候補オブジェクトを構成する車両候補点の3次元座標を正射影し、正射影した点群に関して射影平面上での形状と、予め記憶した自動二輪車、自転車、人などの射影平面上での種別形状モデルとを比較し、これらの一致度が最大となる種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
また、車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、予め記憶した自動二輪車、自転車、人などの3次元座標点群からなる種別モデルと、センサにより得られた複数の車両候補点との間で対応点探索を行い、対応点間の距離が最小となる種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
このように、車両検知装置13において、車両検知部1005は、車両候補オブジェクト検出部1004により検出されたオブジェクトに関するデータと予め定められた種別毎のモデルのデータとを比較した結果に基づいて、オブジェクトの種別を判別する。
(第3の実施形態)
以下、実施形態3の車両情報処理システム1を説明する。本実施形態では、実施形態1とは異なる点について詳細に説明し、実施形態1と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
本実施形態では、車両検知装置13は、車両候補オブジェクトについて、センサがカメラを用いている場合に、実施形態2のような3次元データを用いたモデルマッチングではなく、オブジェクトに対応する画像特徴を用いたモデルマッチングを行う。
例えば、画像特徴量の一種である画像の局所特徴量としては、勾配情報から算出されるSIFT(Scale Invariant Feature Transform)や、HOG(Histogram of Oriented Gradients)が一般的に用いられている。SIFTは、スケール変化、回転変化に不変な特徴量を記述することができる。HOGは、画像から輝度勾配を算出し、算出された勾配の強度と勾配の方向から輝度の勾配方向ヒストグラムを作成し、正規化を行い、歩行者認識等の物体検出に用いられる。
次に、画像特徴量(例えば、画像の局所特徴量)を基に、オブジェクトを、自動二輪車、自転車、人、などに分類判別する。各分類について、多数の画像から学習用データを抽出し、画像特徴量を学習させた辞書を予め準備する。認識アルゴリズムとしては、例えば、SVM(Support Vector Machine)やAdaBoost等の識別器により、パターン認識で分類を判別することができる。なお、画像特徴量の空間においてクラス間の分離境界面を決定する方式としては、他の方法が用いられてもよい。
図11を参照して、効果の例を説明する。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
距離データ計測部1001は、カメラ映像を用いた手法を使用する。車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、当該オブジェクトに対応するカメラ画像上の領域を求め、予め記憶した自動二輪車、自転車、人などの種別画像との画像特徴量に関する比較を行い、画像特徴量の一致度が最大となる種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
このように、車両検知装置13において、車両検知部1005は、車両候補オブジェクト検出部1004により検出されたオブジェクトに関するデータから得られる画像特徴量と予め定められた種別毎のモデルの画像特徴量とを比較した結果に基づいて、オブジェクトの種別を判別する。
(第4の実施形態)
以下、実施形態4の車両情報処理システム1を説明する。本実施形態では、実施形態1〜3とは異なる点について詳細に説明し、実施形態1〜3と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
本実施形態では、実施形態1〜3のいずれかにおいて、車両検知装置13は、車両候補オブジェクトについて、複数の時間で得られるオブジェクト間で、カルマンフィルタ、パーティクルフィルタ等により、同一のオブジェクトの通過軌跡(追跡軌跡)を得る。
ここで、車両検知装置13は、通過軌跡のパターンに基づいて、例えば、オブジェクトが、監視エリア(例えば、カメラ視野21)内で行き来したり、車線幅方向に移動したりする場合には、そのオブジェクトは人であると判別することができる。このように人であると判別する条件は、予め車両検知装置13に設定される。
図11を参照して、効果の例を説明する。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、複数の時間で得られるオブジェクトの間の対応付けを行って追跡し、オブジェクトの通過軌跡に基づいて自動二輪車、自転車、人などの種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
このように、車両検知装置13において、車両検知部1005は、車両候補オブジェクト検出部1004により検出されたオブジェクトに関するデータから得られるオブジェクトの時間的な変化のデータに基づいて、オブジェクトの種別を判別する。
(第5の実施形態)
以下、実施形態5の車両情報処理システム1を説明する。本実施形態では、実施形態1〜3とは異なる点について詳細に説明し、実施形態1〜3と同様な点については詳しい説明を省略する。車両検知装置13において、各種の処理は、制御部105により制御されて行われる。
本実施形態では、実施形態1〜3のいずれかにおいて、実施形態4と同様に、車両検知装置13は、車両候補オブジェクトについて、複数の時間で得られるオブジェクト間で、カルマンフィルタ、パーティクルフィルタ等により、同一のオブジェクトの通過軌跡(追跡軌跡)を得る。
そして、本実施形態では、車両検知装置13は、同一のオブジェクトのシルエット等の形状の変化を分析し、形状の変化が大きい場合には、人の歩行による形状の変化であると判定し、対象のオブジェクトは人であると判別することができる。一つの単純な例としては、射影平面への2次元シルエットにおける各軸上での最大値と最小値の差の比率(例えば、複数の軸間での比率)を取り、この比率の変化が所定の閾値以上である場合にオブジェクトは人であると判別することができる。
図11を参照して、効果の例を説明する。
本実施形態に係る車両情報処理システム1では、車両検知装置13において、次のような処理を行う。
車両検知部1005は、サイズを基に判別した車両以外のオブジェクトに関して、複数の時間で得られるオブジェクトの間の対応付けを行って追跡し、同一のオブジェクトの時間による形状変化情報に基づいて自動二輪車、自転車、人などの種別を判別することで、小型車両候補の種別を判定する。したがって、小型車両の種別を精度よく判別することができる。
このように、車両検知装置13において、車両検知部1005は、車両候補オブジェクト検出部1004により検出されたオブジェクトに関するデータから得られるオブジェクトの時間的な変化のデータに基づいて、オブジェクトの種別を判別する。
以上述べた少なくともひとつの実施形態の車両検知装置13によれば、車両候補オブジェクトに関して所定の座標系(例えば、基準座標系)における所定の方向の長さに基づいて車両のオブジェクトを検知する車両検知部1005を有することにより、車両以外の物体による誤検知を低減することができる。
以上に示した実施形態に係る各装置(例えば、センサ、車両検知装置13、ETCシステム12など)の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、オペレーティング・システム(OS:Operating System)や周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに、「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…車両情報処理システム、11…ステレオカメラ、11a、11b…カメラ、12…ETCシステム、13…車両検知装置、21…カメラ視野、22…通信エリア、51…道路、52…車両、101…表示部、102…ユーザインターフェース、103…ネットワークインターフェース、104…記憶部、105…制御部、201…基準面、A1〜A9…単位区間、501、502…特性、1001…距離データ計測部、1002…座標変換部、1003…車両候補点検出部、1004…車両候補オブジェクト検出部、1005…車両検知部

Claims (5)

  1. 複数の計測点のデータについて、所定の座標系における計測点間の距離に基づいて、車両の候補となるオブジェクトを検出する車両候補オブジェクト検出部と、
    前記車両候補オブジェクト検出部により検出されたオブジェクトに関して、前記所定の座標系における所定の方向の前記オブジェクトの長さに基づいて、車両のオブジェクトを検知する車両検知部と、
    を有する車両検知装置。
  2. 所定の監視エリアにおける物体に関して得られた複数の計測点の距離データを、道路に対応する前記所定の座標系における3次元空間上の距離データへ変換する座標変換部を有し、
    前記車両候補オブジェクト検出部は、前記複数の計測点のデータとして、前記座標変換部による変換により得られた距離データを用いる、
    請求項1に記載の車両検知装置。
  3. 前記車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関するデータと予め定められた種別毎のモデルのデータとを比較した結果に基づいて、前記オブジェクトの種別を判別する、
    請求項1または請求項2のいずれか1項に記載の車両検知装置。
  4. 前記車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関するデータから得られる画像特徴量と予め定められた種別毎のモデルの画像特徴量とを比較した結果に基づいて、前記オブジェクトの種別を判別する、
    請求項1から請求項3のいずれか1項に記載の車両検知装置。
  5. 前記車両検知部は、前記車両候補オブジェクト検出部により検出されたオブジェクトに関するデータから得られる前記オブジェクトの時間的な変化のデータに基づいて、前記オブジェクトの種別を判別する、
    請求項1から請求項4のいずれか1項に記載の車両検知装置。
JP2013178244A 2013-08-29 2013-08-29 車両検知装置 Pending JP2015046126A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013178244A JP2015046126A (ja) 2013-08-29 2013-08-29 車両検知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013178244A JP2015046126A (ja) 2013-08-29 2013-08-29 車両検知装置

Publications (1)

Publication Number Publication Date
JP2015046126A true JP2015046126A (ja) 2015-03-12

Family

ID=52671547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013178244A Pending JP2015046126A (ja) 2013-08-29 2013-08-29 車両検知装置

Country Status (1)

Country Link
JP (1) JP2015046126A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017041214A (ja) * 2015-08-21 2017-02-23 日本信号株式会社 車種判別装置
JP2019064456A (ja) * 2017-09-29 2019-04-25 日本信号株式会社 物体通過検知装置
JP2020017240A (ja) * 2018-07-29 2020-01-30 株式会社コンピュータシステム研究所 監視支援装置、監視支援プログラム、および記憶媒体
JP7514772B2 (ja) 2021-01-21 2024-07-11 日本信号株式会社 移動ベクトル検出装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933232A (ja) * 1995-05-18 1997-02-07 Omron Corp 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置
JPH09297849A (ja) * 1996-05-08 1997-11-18 Matsushita Electric Ind Co Ltd 車両検出装置
JP2001256485A (ja) * 2000-03-14 2001-09-21 Hitachi Ltd 車種判別システム
JP2012216022A (ja) * 2011-03-31 2012-11-08 Mitsubishi Heavy Ind Ltd 特徴領域抽出装置、特徴領域抽出方法、及びプログラム
JP2012221456A (ja) * 2011-04-14 2012-11-12 Toyota Central R&D Labs Inc 対象物識別装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933232A (ja) * 1995-05-18 1997-02-07 Omron Corp 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置
JPH09297849A (ja) * 1996-05-08 1997-11-18 Matsushita Electric Ind Co Ltd 車両検出装置
JP2001256485A (ja) * 2000-03-14 2001-09-21 Hitachi Ltd 車種判別システム
JP2012216022A (ja) * 2011-03-31 2012-11-08 Mitsubishi Heavy Ind Ltd 特徴領域抽出装置、特徴領域抽出方法、及びプログラム
JP2012221456A (ja) * 2011-04-14 2012-11-12 Toyota Central R&D Labs Inc 対象物識別装置及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017041214A (ja) * 2015-08-21 2017-02-23 日本信号株式会社 車種判別装置
JP2019064456A (ja) * 2017-09-29 2019-04-25 日本信号株式会社 物体通過検知装置
JP7053207B2 (ja) 2017-09-29 2022-04-12 日本信号株式会社 物体通過検知装置
JP2020017240A (ja) * 2018-07-29 2020-01-30 株式会社コンピュータシステム研究所 監視支援装置、監視支援プログラム、および記憶媒体
JP7284951B2 (ja) 2018-07-29 2023-06-01 株式会社コンピュータシステム研究所 監視支援装置、監視支援プログラム、および記憶媒体
JP7514772B2 (ja) 2021-01-21 2024-07-11 日本信号株式会社 移動ベクトル検出装置

Similar Documents

Publication Publication Date Title
CA2958832C (en) Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
CN109074651B (zh) 移动体的周围环境识别装置
Sina et al. Vehicle counting and speed measurement using headlight detection
US8798314B2 (en) Detection of vehicles in images of a night time scene
US9685079B2 (en) Short-time stopping detection from red light camera evidentiary photos
JP5867273B2 (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
US9363483B2 (en) Method for available parking distance estimation via vehicle side detection
WO2016129403A1 (ja) 物体検知装置
JP6453490B2 (ja) 路面反射を認識し評価するための方法及び装置
JP6226368B2 (ja) 車両監視装置、および車両監視方法
JP2018516799A5 (ja)
Li et al. Robust vehicle tracking for urban traffic videos at intersections
KR20150029551A (ko) 도착 레인으로 합병되는 이동 아이템의 출발 레인을 결정
JP2015046126A (ja) 車両検知装置
Stec et al. Using time-of-flight sensors for people counting applications
KR101089029B1 (ko) 광류를 이용한 방범용 차량 감지 시스템
Suryakala et al. Vision based vehicle/pedestrian detection in traffic surveillance system
Santos et al. Car recognition based on back lights and rear view features
JP6431271B2 (ja) 車両検知及び車両番号認識装置
TW201536609A (zh) 障礙物偵測裝置
Nam et al. Pedestrian detection system based on stereo vision for mobile robot
JP2009048225A (ja) 車両認識装置及び車両認識方法
KR102656252B1 (ko) 단속 정확성을 높인 무인 교통 단속시스템
Shirazi et al. Vision-based pedestrian monitoring at intersections including behavior & crossing count
Kataoka et al. Symmetrical Judgment and Improvement of CoHOG Feature Descriptor for Pedestrian Detection.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170704

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911