JP2012064046A - 車両検出装置 - Google Patents

車両検出装置 Download PDF

Info

Publication number
JP2012064046A
JP2012064046A JP2010208539A JP2010208539A JP2012064046A JP 2012064046 A JP2012064046 A JP 2012064046A JP 2010208539 A JP2010208539 A JP 2010208539A JP 2010208539 A JP2010208539 A JP 2010208539A JP 2012064046 A JP2012064046 A JP 2012064046A
Authority
JP
Japan
Prior art keywords
vehicle
line segment
detection
image
detection means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010208539A
Other languages
English (en)
Other versions
JP5651414B2 (ja
Inventor
Yasuhiro Aoki
泰浩 青木
Toshio Sato
俊雄 佐藤
Yusuke Takahashi
雄介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010208539A priority Critical patent/JP5651414B2/ja
Priority to DE102011082661A priority patent/DE102011082661A1/de
Priority to US13/232,525 priority patent/US20120069183A1/en
Publication of JP2012064046A publication Critical patent/JP2012064046A/ja
Application granted granted Critical
Publication of JP5651414B2 publication Critical patent/JP5651414B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/06Arrangements for road pricing or congestion charging of vehicles or vehicle users, e.g. automatic toll systems
    • G07B15/063Arrangements for road pricing or congestion charging of vehicles or vehicle users, e.g. automatic toll systems using wireless information transmission between the vehicle and a fixed station

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】カメラの設置自由度が高く、高い検出精度が得られる車両検出装置を提供することを目的とする。
【解決手段】実施形態によれば、線分抽出手段と、候補生成手段と、評価手段と、特定部位検出手段とを具備する。そして、線分抽出手段は、車両を撮影した画像から、車両の映像を構成する複数の線分成分を抽出する。候補生成手段は、複数の線分成分を用いて閉ループを生成する多角形近似を行い、車両の特定部位の領域の候補を複数生成する。評価手段は、複数の候補に対して、それぞれ複数の異なる評価を行う。そして特定部位検出手段は、評価手段の評価結果に基づいて、複数の候補のうち1つの候補を特定部位として検出する。
【選択図】 図2

Description

この発明の実施形態は、例えば自動車などの車両の特定部位の検出に用いられる車両検出装置に関する。
周知のように、例えば高速道路の料金所などに設置される車両検出装置は、ポールセンサ(車両検知器)によって車両の通過を検出する。しかし、車両の形状は多種多様であり、ポールセンサによって検出される車両先端部から、車両の特定部位(例えば、フロントガラス)までの長さは異なり、ポールセンサによる特定部位の検出は困難である。
一方、通過車両を撮像した画像を解析することで、車両の特定部位を検出する技術があるが、カメラの設置条件が厳しいという問題があった。
特許第4333683号公報
従来の車両検出装置では、カメラの設置条件が厳しいという問題があった。
この問題を解決することを課題とし、カメラの設置自由度が高く、高い検出精度が得られる車両検出装置を提供することを目的とする。
実施形態によれば、線分抽出手段と、候補生成手段と、評価手段と、特定部位検出手段とを具備する。そして、線分抽出手段は、車両を撮影した画像から、車両の映像を構成する複数の線分成分を抽出する。候補生成手段は、複数の線分成分を用いて閉ループを生成する多角形近似を行い、車両の特定部位の領域の候補を複数生成する。評価手段は、複数の候補に対して、それぞれ複数の異なる評価を行う。そして特定部位検出手段は、評価手段の評価結果に基づいて、複数の候補のうち1つの候補を特定部位として検出する。
実施形態に係わる車両検出装置を適用したETCシステムの構成を示す図。 図1に示した車両検出装置の構成を示す回路ブロック図。 図1に示した車両検出装置の第1の実施形態に係わる動作を説明するためのフローチャート。 第1の実施形態における色による領域分けを説明するための図。 第1の実施形態における領域分けの概念を説明するための図。 第1の実施形態における閉ループを生成する動作を説明するための図。 図1に示した車両検出装置の第2の実施形態に係わる動作を説明するためのフローチャート。 第2の実施形態における車両画像中の特徴部位の検出動作を説明するための図。 図1に示した車両検出装置の第3の実施形態に係わる動作を説明するためのフローチャート。 第3の実施形態における車両画像中の特徴部位の検出動作を説明するための図。 第3の実施形態における車両の外郭検出動作を説明するための図。
(第1の実施形態)
以下、図面を参照して、実施形態について説明する。
図1は、第1の実施形態に係わる車両検出装置100をETC(Electronic Toll Collection System)に適用した場合のシステム構成例を示すものである。
ポールセンサ10は、光センサや踏板を用いて、ETCレーンに進入する車両を検出するものであり、検出結果を車両検出装置100に通知する。
電子カメラ20は、予め設定したフレームレートで、動画像を撮影するディジタルカメラであって、ETCレーンを走行し、ポールセンサ10を通過してくる車両を撮影するものである。すなわち、ETCレーンを走行する車両について、複数の画像を撮影する。なお、以下の説明では、車両の特定部位として、フロントガラスを例に挙げるため、電子カメラ20は、少なくとも車両のフロントガラスを含む全景が撮影できる位置に設置される。
また電子カメラ20によって得られた画像データは、撮影時刻を示すタイムコードが含まれている。電子カメラ20と、車両検出装置100をはじめと図1に示した他の装置とは、同期した時刻情報を有する。なお、他の手法によって、電子カメラ20と車両検出装置100をはじめとする他の装置が同期して動作すれば(電子カメラ20の画像データの撮影時刻を車両検出装置100をはじめとする他の装置が認識できれば)、必ずしも画像データにタイムコードが含まれなくてもよい。
ETCシステム30は、高速道路などの有料道路を走行する車両に対して課せられる通行料金を自動的に徴収するものであって、車両に搭載されるETC車載器と無線通信し、通過車両を特定する情報を取得する。なお、一般にETC車載器は、少なくとも無線通信を行うためのアンテナがフロントガラスを介して視認できる位置に設置される。このため、フロントガラスの位置を正確に特定することで、ETC車載器と精度の高い通信を行うことができる。
車両検出装置100は、図2に示すように、表示部110と、ユーザインタフェース120と、記憶部130と、ネットワークインタフェース140と、制御部150とを備える。
表示部110は、LCD(Liquid Crystal Display)などを用いたディスプレイ装置であって、当該車両検出装置100の運用状況をはじめとする種々の情報を表示する。
ユーザインタフェース120は、キーボード、マウス、タッチパネルなどのユーザから指示を受け付けるインタフェースである。
記憶部130は、制御部150の制御プログラムや制御データを記憶するものであって、HDD、RAM、ROM、フラッシュメモリなどの記憶手段を1つまたは複数用いたものである。
ネットワークインタフェース140は、LANなどのネットワークに接続され、このネットワークを通じて、ポールセンサ10、電子カメラ20およびETCシステム30と通信する。
制御部150は、マイクロプロセッサを備え、記憶部130が記憶する制御プログラムや制御データにしたがって動作し、当該車両検出装置100の各部を統括して制御するものであって、予め制御プログラムに組み込まれた車両の特定部位を電子カメラ20の撮影画像から検出し、実空間上における通過時刻(ETCシステム30の通信エリアの通過時刻)を予測するものである。
次に、上記構成の車両検出装置100の動作について説明する。
図3は、車両検出装置100の動作を説明するためのフローチャートであって、電源が投入されて起動されると、電源が切られるまで繰り返し実行される。なお、この動作は、制御部150が、記憶部130に記憶される制御プログラムや制御データにしたがって動作することにより実現する。
また車両検出装置100の起動に先立って、ポールセンサ10および電子カメラ20も起動される。これにより、ポールセンサ10は、ETCレーンへの車両進入の監視を開始し、電源が切られるまで、検出結果を車両検出装置100に通知する。また電子カメラ20は、所定のフレームレートによる撮影を開始し、電源が切られるまで、撮影した画像データを車両検出装置100に伝送する。
まずステップ3aにおいて制御部150は、ネットワークインタフェース140を通じたポールセンサ10からの通知に基づいて、ETCレーンに車両が進入したか否かを判定する。ここで、車両の進入を検出した場合には、ステップ3bに移行し、一方、車両の進入が検出できない場合は、再びステップ3aに移行して、車両の進入の監視を行う。
ステップ3bにおいて制御部150は、ネットワークインタフェース140を通じて、電子カメラ20から伝送される複数の画像データのうち、所定の時刻に撮影されたフレームの画像データを抽出し、ステップ3cに移行する。以下、この抽出した画像データを処理対象画像データと称する。なお、上記所定の時刻は、車両の特定部位が写る画像データが抽出できるように、ポールセンサ10の設置位置と電子カメラ20のカメラ視野(撮影範囲)の位置関係(設置距離)、車両の想定通過速度などを考慮して決定される。
ステップ3cにおいて制御部150は、上記処理対象画像データに対して前処理を施し、ステップ3dに移行する。なお、具体的な前処理の内容としては、S/N比を向上させる目的でノイズ除去を行って画像の鮮鋭化を行ったり、あるいは映像のコントラストを向上させるためにフィルタリングを行う。また画像の補正を目的として、例えば、映像歪の修正などを行う。
ステップ3dにおいて制御部150は、ステップ3cにて前処理が施された処理対象画像データに対して、ハフ変換などの手法を適用し、映像から車両の映像を構成する複数の線分成分を抽出して、ステップ3eに移行する。
特定部位としてフロントガラスを想定した具体的な抽出アルゴリズムとしては、車両を上方から撮影する場合、映像中の水平および垂直方向を基本とした8方向の線分成分の抽出を行う。
これにより、フロントガラス境界部分を含む線分が多数抽出されることになる。フロントガラスについては、ワイパー周り等は曲線となっている場合が多いため、1つの線分で抽出するのは難しいと考えられるので、一般的には、複数の線分を組み合わせた多角形もしくは折れ線で抽出することで、フロントガラスの形状を近似することが可能である。また例えば、円を線分で近似する場合は、内接正八角形にて近似し、誤差は円と内接正八角形の面積の差に相当するが、実用設計上の誤差として許容可能と考えられる。
なお、処理対象画像データと、その前後のフレームの画像データに対して、ハフ変換などの手法を適用し、各映像から線分成分を抽出し、これらの時間的に連続する線分成分から車両の移動に伴う幾何学的な変動予測を行って、所定の時刻(処理対象画像データの撮影時刻)における線分成分を得るようにしてもよい。このように複数フレームの画像データを用いることで、抽出精度を上げることができる。
ステップ3eにおいて制御部150は、ステップ3cにて前処理が施された処理対象画像データに対して、解像度を上げる鮮鋭化処理を施した上で、ステップ3dと同様に、ハフ変換などの手法を適用し、映像から車両の映像を構成する複数の線分成分を抽出して、ステップ3fに移行する。
なお、ステップ3eにおいては、例えば、電子カメラ20のダイナミックレンジの大きい場合(例えば10bit)、多段階レンジのスコープ(1-255, 256-512, 513-768, 768-1024)に分割し、各スコープにおいてハフ変換などの手法を適用し、映像から線分成分を抽出するようにしてもよい。
またステップ3dおよびステップ3eにおいては、ハフ変換などの手法を用いて線分成分を抽出すると説明したが、処理対象画像データにカラー情報が含まれる場合には、例えば図4に示すように、カラー情報に基づいて、処理対象画像データに基づく映像を同系色毎の領域に分け、領域の境界を線分成分として抽出するようにしてもよい。このような手法によっても、フロントガラスと、それ以外の車両の部位の境界を線分成分として検出することができる。
ステップ3fにおいて制御部150は、ステップ3dおよびステップ3eで抽出した線分成分を用いて、閉ループを生成する多角形近似を行って、フロントガラス領域の候補を生成し、ステップ3gに移行する。
多角形近似によって映像から抽出される要素としては、図5に示すように、フロントガラス領域、フロントガラス内に写り込む影領域、太陽の反射が写り込む反射領域、車両の一部であるピラー、運転席および助手席の窓ガラスがある。実際には、図6に示すように、複数の線分によって複雑な形状の閉ループが生成される。
フロントガラス領域は、最も単純なものであれば矩形に近似できるが、フロントガラスの形状によっては曲線を含む形に近似される。また単純な形状であっても、車両の横方向から撮影された場合、フロントガラスの左右で奥行きが発生して非対称性が現れる。
また、この時点では、どの線分成分がフロントガラス領域の一部であるかは判っていないが、フロントガラスと車体との境界を表す線分成分を、上記多角形近似によって組み込んだ閉ループの組み合わせの中に、最適解が存在する。このため、ステップ3fでは、多角形近似によって生成された複数の閉ループについて、評価関数を用いて評価を行い、フロントガラス領域を正確に近似するものに候補を絞り込む。
なお、実際には、曲率が高い部分や境界のコントラストに不十分なところがあり、部分的に線分が欠損したままの候補も考えられる。このため、欠損部を線分で補完的に近似したのち、上記評価を行ってもよい。例えば、撮影の角度によっては、ピラーの片方がフロントガラスで隠れる場合があり、このような場合には、隠れてしまったピラー側のフロントガラス端部について線分を補完して、閉ループを完成させる。
また、予め記憶部130に、種々のピラーのパターンを記憶しておくとともに、各パターンに対応付けて、複数のフロントガラス領域の候補を記憶しておく。そして、ステップ3fにおいて、多角形近似からピラーに類似した閉ループを検出し、この検出した閉ループと記憶部130に記憶する情報とのパターンマッチングにより、ピラーを検出し、そして、この検出したピラーに対応付けたフロントガラス領域の候補を得るようにしてもよい
ステップ3gにおいて制御部150は、ステップ3fで求めたフロントガラス領域の候補に対して、複数の異なる評価を行い、各評価のスコアの合計値をそれぞれ求め、ステップ3hに移行する。
複数の評価の方法としては、1)画像上のフロントガラスの位置およびサイズなどを考慮したスコア付け、2)フロントガラス領域を構成する線分の周辺の輝度分布に基づくスコア付け、3)予め記憶部130に記憶しておいたフロントガラスのテンプレートとのマッチングの度合いに応じたスコア付け、などが考えられる。フロントガラス領域内に例えば反射や影の影響より多角形が出現することが考えられるが、1)と、3)によって、上記多角形は低いスコア付けが為される。
ステップ3hにおいて制御部150は、ステップ3gで求めたスコアの合計値から、最適なフロントガラス領域を選出し、ステップ3iに移行する。
ステップ3iにおいて制御部150は、ステップ3hで選出したフロントガラス領域と、処理対象画像データに含まれるフロントマスク部(ライト、グリル、ナンバー)との位置関係を検査し、矛盾(例えば、フロントガラス領域とフロントマスク部の横方向のズレが大きい)がないかを確認する。矛盾がない場合には、ステップ3jに移行し、一方、矛盾がある場合には、次順のスコア合計値が高いフロントガラス領域について、同様の検査を行う。なお、上記車両フロントマスク部の位置は、フロントマスク部を構成する要素のパターンマッチングにより求める。
ステップ3jにおいて制御部150は、処理対象画像データの撮影時刻と、処理対象画像データの画像上におけるフロントガラス領域の位置とに基づいて、ETCレーン上の実空間におけるフロントガラスの座標(位置)を特定する座標変換処理を実施し、ステップ3kに移行する。
ステップ3kにおいて制御部150は、ステップ3jで特定したフロントガラスの座標(位置)をネットワークインタフェース140を通じて、ETCシステム30に通知し、ステップ3aに移行する。フロントガラスの座標(位置)の通知を受けたETCシステム30は、フロントガラスの座標(位置)および車両の想定通過速度などを考慮し、ETC車載器のアンテナが搭載されるフロントガラスに向けたタイミングで、無線信号の送受信を行う。
以上のように、上記構成の車両検出装置では、車両を撮影した画像データから車両の映像を構成する複数の線分成分を抽出し(ステップ3dおよび3e)、これらの線分成分を用いて、閉ループを生成する多角形近似を行って、車両の特定部位(例えば、フロントガラス)の領域の候補を複数生成し(ステップ3f)、それらに対して複数の異なる評価を行って最も確からしい車両の特定部位の領域を特定する(ステップ3gおよび3h)ようにしている。
したがって、上記構成の車両検出装置によれば、目標とする車両の特定部位が写っていれば、画像解析によって上記特定部位を検出できるので、カメラの設置自由度が高く、また高い検出精度が得られる。
(第2の実施形態)
次に、第2の実施形態について説明する。なお、第2の実施形態は、見かけ上、図1および図2に示した第1の実施形態と同様であることより、その構成についての説明は省略する。また、第1の実施形態と同様に、ETCに適用した場合を例示する。第2の実施形態が、第1の実施形態と異なる点は、車両検出装置100の制御プログラムが異なる点にある。このため、第2の実施形態に係わる車両検出装置100の動作について説明する。
図7は、第2の実施形態に係わる車両検出装置100の動作を説明するためのフローチャートであって、電源が投入されて起動されると、電源が切られるまで繰り返し実行される。なお、この動作は、制御部150が、記憶部130に記憶される制御プログラムや制御データにしたがって動作することにより実現する。
また車両検出装置100の起動に先立って、ポールセンサ10および電子カメラ20も起動される。これにより、ポールセンサ10は、ETCレーンへの車両進入の監視を開始し、電源が切られるまで、検出結果を車両検出装置100に通知する。また電子カメラ20は、所定のフレームレートによる撮影を開始し、電源が切られるまで、撮影した画像データを車両検出装置100に伝送する。
まずステップ7aにおいて制御部150は、ネットワークインタフェース140を通じたポールセンサ10からの通知に基づいて、ETCレーンに車両が進入したか否かを判定する。ここで、車両の進入を検出した場合には、ステップ7bに移行し、一方、車両の進入が検出できない場合は、再びステップ7aに移行して、車両の進入の監視を行う。
ステップ7bにおいて制御部150は、ネットワークインタフェース140を通じて、電子カメラ20から伝送される複数の画像データのうち、所定の時刻に撮影されたフレームの画像データを抽出し、ステップ7cに移行する。以下、この抽出した画像データを処理対象画像データと称する。なお、上記所定の時刻は、車両の特定部位が写る画像データが抽出できるように、ポールセンサ10の設置位置と電子カメラ20のカメラ視野(撮影範囲)の位置関係(設置距離)、車両の想定通過速度などを考慮して決定される。
ステップ7cにおいて制御部150は、上記処理対象画像データに対して前処理を施し、ステップ7dに移行する。なお、具体的な前処理の内容としては、S/N比を向上させる目的でノイズ除去を行って画像の鮮鋭化を行ったり、あるいは映像のコントラストを向上させるためにフィルタリングを行う。また画像の補正を目的として、例えば、映像歪の修正などを行う。
ステップ7dにおいて制御部150は、図8に示すように、ステップ7cにて前処理が施された処理対象画像データの画像に対して、予め記憶部130に準備した種々の車両のドアミラーの形状および配置を組み合わせたパターンと一致する部位を探索するパターンマッチ処理を実施し、最も一致したパターンに基づいて、左ドアミラー情報dml(cx,cy,s)、右ドアミラー情報dmr(cx,cy,s)を検出し、ステップ7eに移行する。なお、cxは、処理対象画像データに基づく画像上のx座標、cyは、同画像のy座標、そして、sは、大きさを示す。
ステップ7eにおいて制御部150は、図8に示すように、ステップ7cにて前処理が施された処理対象画像データの画像に対して、予め記憶部130に準備した種々の顔パターンと一致する部位を探索するパターンマッチ処理を実施し、最も一致したパターンに基づいて、顔情報df(cx,cy,s)を検出し、ステップ7fに移行する。なお、cxは、処理対象画像データに基づく画像上のx座標、cyは、同画像のy座標、そして、sは、大きさを示す。
ステップ7fにおいて制御部150は、図8に示すように、ステップ7cにて前処理が施された処理対象画像データの画像に対して、予め記憶部130に準備した種々のハンドルの形状パターンと一致する部位を探索するパターンマッチ処理を実施し、最も一致したパターンに基づいて、ハンドル情報dh(cx,cy,s)を検出し、ステップ7gに移行する。なお、cxは、処理対象画像データに基づく画像上のx座標、cyは、同画像のy座標、そして、sは、大きさを示す。
ステップ7gにおいて制御部150は、左ドアミラー情報dml(cx,cy,s)、右ドアミラー情報dmr(cx,cy,s)、顔情報df(cx,cy,s)、およびハンドル情報dh(cx,cy,s)に基づいて、左ドアミラー、右ドアミラー、顔、ハンドルの配置や大きさに矛盾が無いかを判定し、矛盾が無い場合には、ステップ7hに移行する。なお、一般の車両では、左ドアミラーと右ドアミラーの間に、運転者の顔とハンドルが存在し、顔とハンドルの縦方向の座標は所定の範囲内に存在し、顔がハンドルの上方に存在する。このような配置に反することを、矛盾という。その他、サイズなども校了して矛盾が無いかを検知する。一方、矛盾がある場合には、ステップ7dに移行して、ドアミラー、顔、あるいはハンドルのうち、少なくとも1つを変更した組み合わせを検出する。
ステップ7hにおいて制御部150は、左ドアミラー情報dml(cx,cy,s)、右ドアミラー情報dmr(cx,cy,s)、顔情報df(cx,cy,s)およびハンドル情報dh(cx,cy,s)に基づいて、予め記憶部130に準備したフロントガラスのパターンから、最適なパターンを抽出するとともに、処理対象画像データに基づく画像上におけるフロントガラス領域を特定し、ステップ7iに移行する。
ステップ7iにおいて制御部150は、処理対象画像データの撮影時刻と、処理対象画像データの画像上におけるフロントガラス領域の位置とに基づいて、ETCレーン上の実空間におけるフロントガラスの座標(位置)を特定する座標変換処理を実施し、ステップ7jに移行する。
ステップ7jにおいて制御部150は、ステップ7iで特定したフロントガラスの座標(位置)をネットワークインタフェース140を通じて、ETCシステム30に通知し、ステップ7aに移行する。フロントガラスの座標(位置)の通知を受けたETCシステム30は、フロントガラスの座標(位置)および車両の想定通過速度などを考慮し、ETC車載器のアンテナが搭載されるフロントガラスに向けたタイミングで、無線信号の送受信を行う。
以上のように、上記構成の車両検出装置では、車両の運転席付近を撮影した画像データからミラー、顔、ハンドルの位置や大きさを検出し(ステップ7d、7eおよび7f)、これらの情報に矛盾が無いことを確認(ステップ7g)した後、上記情報に基づいて、画像データに基づく映像における車両の特定部位(フロントガラス)の領域を特定する(ステップ7h)ようにしている。
したがって、上記構成の車両検出装置によれば、目標とする車両の運転席付近が写っていれば、画像解析によって上記特定部位を検出できるので、カメラの設置自由度が高く、また高い検出精度が得られる。
なお、上記第2の実施形態の説明では、運転者の顔を認識するものとして説明したが、これに限定されるものではなく、上半身や腕などを対象にパターンマッチ処理を施して、その位置を特定するようにしてもよい。
(第3の実施形態)
次に、第3の実施形態について説明する。なお、第3の実施形態は、見かけ上、図1および図2に示した第1の実施形態と同様であることより、その構成についての説明は省略する。また、第1の実施形態と同様に、ETCに適用した場合を例示する。第3の実施形態が、第1の実施形態と異なる点は、車両検出装置100の制御プログラムが異なる点にある。このため、第3の実施形態に係わる車両検出装置100の動作について説明する。
図9は、第3の実施形態に係わる車両検出装置100の動作を説明するためのフローチャートであって、電源が投入されて起動されると、電源が切られるまで繰り返し実行される。なお、この動作は、制御部150が、記憶部130に記憶される制御プログラムや制御データにしたがって動作することにより実現する。
また車両検出装置100の起動に先立って、ポールセンサ10および電子カメラ20も起動される。これにより、ポールセンサ10は、ETCレーンへの車両進入の監視を開始し、電源が切られるまで、検出結果を車両検出装置100に通知する。また電子カメラ20は、所定のフレームレートによる撮影を開始し、電源が切られるまで、撮影した画像データを車両検出装置100に伝送する。
まずステップ9aにおいて制御部150は、ネットワークインタフェース140を通じたポールセンサ10からの通知に基づいて、ETCレーンに車両が進入したか否かを判定する。ここで、車両の進入を検出した場合には、ステップ9bに移行し、一方、車両の進入が検出できない場合は、再びステップ9aに移行して、車両の進入の監視を行う。
ステップ9bにおいて制御部150は、ネットワークインタフェース140を通じて、電子カメラ20から伝送される複数の画像データのうち、所定の時刻に撮影されたフレームの画像データを抽出し、ステップ9cに移行する。以下、この抽出した画像データを処理対象画像データと称する。なお、上記所定の時刻は、車両の特定部位が写る画像データが抽出できるように、ポールセンサ10の設置位置と電子カメラ20のカメラ視野(撮影範囲)の位置関係(設置距離)、車両の想定通過速度などを考慮して決定される。
ステップ9cにおいて制御部150は、上記処理対象画像データに対して前処理を施し、ステップ9dに移行する。なお、具体的な前処理の内容としては、S/N比を向上させる目的でノイズ除去を行って画像の鮮鋭化を行ったり、あるいは映像のコントラストを向上させるためにフィルタリングを行う。また画像の補正を目的として、例えば、映像歪の修正などを行う。
ステップ9dにおいて制御部150は、ステップ9cにて前処理が施された処理対象画像データの画像に対して、図10に示すように、ラベリング処理などによって車両のヘッドライトの領域を抽出し、その位置から推定される範囲からナンバープレートに類似する矩形の形状を抽出し、ステップ9eに移行する。一般に、ナンバープレートは、左右のヘッドライトの間の中心かつそれらを結ぶ線より下に存在する。左右のヘッドライト、およびナンバープレートの位置をフロント部情報として扱う。
なお、予め記憶部130に、車種毎に異なって存在するヘッドライト周辺やナンバープレート周辺の凹凸を示す凹凸情報を予めパターンとして記憶しておくとともに、車種毎のフロント部の情報(左右のヘッドライト、およびナンバープレートの位置)を記憶しておく。そして、ステップ9dでは、処理対象画像データの画像において、ヘッドライトやナンバープレートの周辺に存在する凹凸を、上記凹凸情報と比較するパターンマッチングを行って、車種を特定し、この特定した車種のフロント部の情報を検出するようにしてもよい。
ステップ9eにおいて制御部150は、ステップ9で検出したフロント部情報のうち、左右のヘッドライト位置および間隔から、車両の前方投影幅(もしくは、大型車/中型車/小型車の別)を推定し、ステップ9fに移行する。
ステップ9fにおいて制御部150は、ステップ9cにて前処理が施された処理対象画像データを含む連続したフレームの画像データの差分を検出して背景と分離し(図11(a)参照)、この差分を1つの画像上に累積させることで、車両の外郭を検出し(図11(b)参照)、これに基づいて、車両の高さ(車高)およびフロントガラスの傾きを推定し、ステップ9gに移行する。
ステップ9gにおいて制御部150は、ステップ9dで求めたフロント部情報、ステップ9eで求めた車両の前方投影幅(もしくは、大型車/中型車/小型車の別)、ステップ9fで求めた車両の高さ(車高)およびフロントガラスの傾きに基づいて、フロントガラスが収まる範囲を推定し、ステップ9hに移行する。
ステップ9hにおいて制御部150は、予め記憶部130に準備した種々のフロントガラスの外形モデルを参照し、ステップ9gで推定した範囲に適応する外形モデルが存在する(すなわち、フロントガラス存在範囲の推定が正しい)かを確認し、存在する場合に、ステップ9iに移行する。一方、存在しない場合には、エラーメッセージを表示部110に出力する。
ステップ9iにおいて制御部150は、処理対象画像データの撮影時刻と、ステップ9iで推定した範囲とに基づいて、ETCレーン上の実空間におけるフロントガラスの座標(位置)を特定する座標変換処理を実施し、ステップ9jに移行する。
ステップ9jにおいて制御部150は、ステップ9iで特定したフロントガラスの座標(位置)をネットワークインタフェース140を通じて、ETCシステム30に通知し、ステップ9aに移行する。フロントガラスの座標(位置)の通知を受けたETCシステム30は、フロントガラスの座標(位置)および車両の想定通過速度などを考慮し、ETC車載器のアンテナが搭載されるフロントガラスに向けたタイミングで、無線信号の送受信を行う。
以上のように、上記構成の車両検出装置では、車両のフロント部分を撮影した画像データからヘッドライトおよびナンバープレートを検出し(ステップ9d)、これらの情報から車幅を推定する(ステップ9e)とともに、複数の連続するフレームの画像データから車両の外郭を検出し(ステップ9f)、車幅および外郭からフロントガラスが収まる範囲を推定する(ステップ9g、9h)ようにしている。
したがって、上記構成の車両検出装置によれば、目標とする車両のフロント部分が写っていれば、画像解析によって上記特定部位の位置を検出(推定)できるので、カメラの設置自由度が高く、また高い検出精度が得られる。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…ポールセンサ、20…電子カメラ、30…ETCシステム、100…車両検出装置、110…表示部、120…ユーザインタフェース、130…記憶部、140…ネットワークインタフェース、150…制御部。

Claims (8)

  1. 車両を撮影した画像から、車両の映像を構成する複数の線分成分を抽出する線分抽出手段と、
    前記複数の線分成分を用いて閉ループを生成する多角形近似を行い、車両の特定部位の領域の候補を複数生成する候補生成手段と、
    前記複数の候補に対して、それぞれ複数の異なる評価を行う評価手段と、
    この評価手段の評価結果に基づいて、前記複数の候補のうち1つの候補を前記特定部位として検出する特定部位検出手段とを具備することを特徴とする車両検出装置。
  2. 前記線分抽出手段は、車両を撮影した画像のカラー情報に基づいて、同系色毎の領域に分け、領域の境界を線分成分として抽出することを特徴とする請求項1に記載の車両検出装置。
  3. 前記線分抽出手段は、車両を撮影した時間的に連続する複数の画像について、それぞれ車両の映像を構成する複数の線分成分を抽出し、これらの時間的に連続する線分成分から車両の移動に伴う幾何学的な変動予測を行って、車両の映像を構成する複数の線分成分を抽出することを特徴とする請求項1に記載の車両検出装置。
  4. 前記候補生成手段は、
    車両の特定部位の近傍部位の形状を示す複数のパターンと、このパターンに対応付けて特定部位の候補を複数記憶する記憶手段と、
    前記複数の線分成分を用いて閉ループを生成する多角形近似を行い、前記近傍部位に類似するパターンを前記記憶手段から検出するパターン検出手段と、
    このパターン検出手段が検出したパターンに対応付けられた複数の特定部位の候補を前記記憶手段から検出する候補検出手段とを備えることを特徴とする請求項1に記載の車両検出装置。
  5. 前記候補生成手段は、前記複数の線分成分を補完して閉ループを生成する多角形近似を行い、車両の特定部位の領域の候補を複数生成することを特徴とする請求項1に記載の車両検出装置。
  6. 車両を撮影した画像から、左および右のサイドミラーを検出するミラー検出手段と、
    前記画像から、運転者の顔を検出する顔検出手段と、
    前記画像から、ハンドルを検出するハンドル検出手段と、
    前記ミラー検出手段、前記顔検出手段および前記ハンドル検出手段の各検出結果に基づいて、前記画像におけるフロントガラスの位置を検出するフロントガラス検出手段とを具備することを特徴とする車両検出装置。
  7. 車両を撮影した画像から、左および右のヘッドライトを検出するヘッドライト検出手段と、
    前記画像から、ナンバープレートを検出するナンバープレート検出手段と、
    前記ヘッドライト検出手段および前記ナンバープレート検出手段の各検出結果に基づいて、車両の幅を推定する幅推定手段と、
    前記画像を含む前記車両を撮影した複数の画像から、前記車両と背景の境界を抽出することで前記車両の外郭を検出する外郭検出手段と、
    前記幅推定手段が推定した幅と、前記外郭検出手段が検出した外郭とに基づいて、前記画像におけるフロントガラスの位置を検出する特定部位検出手段とを具備することを特徴とする車両検出装置。
  8. 前記特定部位検出手段の検出結果を得るために用いた画像の撮影時間、撮影位置および前記特定部位検出手段が検出した位置に基づいて、前記位置の実空間における座標を求める座標検出手段とを備えることを特徴とする請求項1、請求項6、請求項7のいずれかに記載の車両検出装置。
JP2010208539A 2010-09-16 2010-09-16 車両検出装置 Expired - Fee Related JP5651414B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010208539A JP5651414B2 (ja) 2010-09-16 2010-09-16 車両検出装置
DE102011082661A DE102011082661A1 (de) 2010-09-16 2011-09-14 Fahrzeugdetektionsvorrichtung
US13/232,525 US20120069183A1 (en) 2010-09-16 2011-09-14 Vehicle detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010208539A JP5651414B2 (ja) 2010-09-16 2010-09-16 車両検出装置

Publications (2)

Publication Number Publication Date
JP2012064046A true JP2012064046A (ja) 2012-03-29
JP5651414B2 JP5651414B2 (ja) 2015-01-14

Family

ID=45769100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010208539A Expired - Fee Related JP5651414B2 (ja) 2010-09-16 2010-09-16 車両検出装置

Country Status (3)

Country Link
US (1) US20120069183A1 (ja)
JP (1) JP5651414B2 (ja)
DE (1) DE102011082661A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037394A (ja) * 2011-08-03 2013-02-21 Toshiba Corp 車両検出装置
JP2018026019A (ja) * 2016-08-10 2018-02-15 日本信号株式会社 車両認識装置
JP2019023860A (ja) * 2017-05-30 2019-02-14 ゲートキーパー・インコーポレーテッド 車両検査セキュリティシステムにおける改善された顔検出および認識のための装置、システムおよび方法
JP2019158628A (ja) * 2018-03-14 2019-09-19 富士通株式会社 検査装置、検査方法、及び検査プログラム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011053052B3 (de) * 2011-08-26 2013-02-28 Jenoptik Robot Gmbh Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
US9129159B2 (en) * 2012-06-05 2015-09-08 Xerox Corporation Vehicle headlight state monitoring methods, systems and processor-readable media
US8824742B2 (en) * 2012-06-19 2014-09-02 Xerox Corporation Occupancy detection for managed lane enforcement based on localization and classification of windshield images
US9652851B2 (en) * 2014-04-01 2017-05-16 Conduent Business Services, Llc Side window detection in near-infrared images utilizing machine learning
US9842266B2 (en) 2014-04-04 2017-12-12 Conduent Business Services, Llc Method for detecting driver cell phone usage from side-view images
US9633267B2 (en) * 2014-04-04 2017-04-25 Conduent Business Services, Llc Robust windshield detection via landmark localization
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9552524B2 (en) * 2014-09-15 2017-01-24 Xerox Corporation System and method for detecting seat belt violations from front view vehicle images
JP6757258B2 (ja) * 2015-01-08 2020-09-16 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置および画像処理方法
US11538257B2 (en) 2017-12-08 2022-12-27 Gatekeeper Inc. Detection, counting and identification of occupants in vehicles
KR20200130602A (ko) * 2019-05-10 2020-11-19 한국전자통신연구원 영상 인식 장치, 영상 인식 장치의 동작 방법, 그리고 영상 인식 장치를 포함하는 컴퓨팅 장치
US10867193B1 (en) * 2019-07-10 2020-12-15 Gatekeeper Security, Inc. Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection
US11196965B2 (en) 2019-10-25 2021-12-07 Gatekeeper Security, Inc. Image artifact mitigation in scanners for entry control systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055445A (ja) * 1996-08-09 1998-02-24 Mitsubishi Electric Corp 車両監視装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
JP2007235950A (ja) * 2006-02-28 2007-09-13 Alpine Electronics Inc 車両位置検出方法及び装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3815704B2 (ja) * 1997-10-28 2006-08-30 株式会社リコー 図形分類処理方法、図形検索処理方法、図形分類システム、図形検索システム、図形分類用特徴抽出処理方法、図形分類用表作成処理方法、情報記録媒体、図形間の類似度又は相異度の評価処理方法、図形正規化処理方法、及び、図形間対応付け処理方法
US6546119B2 (en) * 1998-02-24 2003-04-08 Redflex Traffic Systems Automated traffic violation monitoring and reporting system
JP4226730B2 (ja) * 1999-01-28 2009-02-18 株式会社東芝 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP5221886B2 (ja) * 2007-03-07 2013-06-26 富士重工業株式会社 物体検出装置
US8798314B2 (en) * 2008-07-14 2014-08-05 National Ict Australia Limited Detection of vehicles in images of a night time scene
US8457360B2 (en) * 2008-09-25 2013-06-04 National Ict Australia Limited Detection of vehicles in an image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055445A (ja) * 1996-08-09 1998-02-24 Mitsubishi Electric Corp 車両監視装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
JP2007235950A (ja) * 2006-02-28 2007-09-13 Alpine Electronics Inc 車両位置検出方法及び装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037394A (ja) * 2011-08-03 2013-02-21 Toshiba Corp 車両検出装置
JP2018026019A (ja) * 2016-08-10 2018-02-15 日本信号株式会社 車両認識装置
JP2019023860A (ja) * 2017-05-30 2019-02-14 ゲートキーパー・インコーポレーテッド 車両検査セキュリティシステムにおける改善された顔検出および認識のための装置、システムおよび方法
JP2019158628A (ja) * 2018-03-14 2019-09-19 富士通株式会社 検査装置、検査方法、及び検査プログラム
JP7027978B2 (ja) 2018-03-14 2022-03-02 富士通株式会社 検査装置、検査方法、及び検査プログラム

Also Published As

Publication number Publication date
JP5651414B2 (ja) 2015-01-14
US20120069183A1 (en) 2012-03-22
DE102011082661A1 (de) 2012-03-22

Similar Documents

Publication Publication Date Title
JP5651414B2 (ja) 車両検出装置
JP5740241B2 (ja) 車両検出装置
US10753758B2 (en) Top-down refinement in lane marking navigation
KR102022388B1 (ko) 실세계 물체 정보를 이용한 카메라 공차 보정 시스템 및 방법
JP6458734B2 (ja) 乗車人数計測装置、乗車人数計測方法および乗車人数計測プログラム
US9047518B2 (en) Method for the detection and tracking of lane markings
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
KR100630088B1 (ko) 옵티컬 플로우를 이용한 차량 감시 장치 및 방법
CN106647776B (zh) 车辆变道趋势的判断方法、判断装置和计算机存储介质
JP6184877B2 (ja) 車両用外界認識装置
EP2639742A2 (en) Vehicle periphery monitoring apparatus
JP6569280B2 (ja) 路面標示検出装置及び路面標示検出方法
WO2009088035A1 (ja) 車線認識装置、車線認識方法および車線認識プログラム
US10565438B2 (en) Vehicle periphery monitor device
CN103523014A (zh) 车载装置
JP2006527427A (ja) 車両から対象物を位置測定して追跡する方法および装置
JP5106771B2 (ja) 路面標示計測装置
KR101178508B1 (ko) 차량 충돌 경보 시스템 및 방법
US11403865B2 (en) Number-of-occupants detection system, number-of-occupants detection method, and program
JP2004355139A (ja) 車両認識装置
JP5957182B2 (ja) 路面上パターン認識方法および車両用情報記録装置
JP2018073049A (ja) 画像認識装置、画像認識システム、及び画像認識方法
KR20080109173A (ko) 멀티패턴마스크를 이용한 이동차량인식방법
JP6134693B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R151 Written notification of patent or utility model registration

Ref document number: 5651414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees