JP5917303B2 - 移動体検出装置、移動体検出システム、および、移動体検出方法 - Google Patents

移動体検出装置、移動体検出システム、および、移動体検出方法 Download PDF

Info

Publication number
JP5917303B2
JP5917303B2 JP2012128200A JP2012128200A JP5917303B2 JP 5917303 B2 JP5917303 B2 JP 5917303B2 JP 2012128200 A JP2012128200 A JP 2012128200A JP 2012128200 A JP2012128200 A JP 2012128200A JP 5917303 B2 JP5917303 B2 JP 5917303B2
Authority
JP
Japan
Prior art keywords
likelihood
image
vehicle
unit
search window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012128200A
Other languages
English (en)
Other versions
JP2013254262A (ja
Inventor
鈴木 美彦
美彦 鈴木
佐藤 俊雄
俊雄 佐藤
青木 泰浩
泰浩 青木
健二 君山
健二 君山
雄介 高橋
雄介 高橋
勝大 堀江
勝大 堀江
亮一 倉田
亮一 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012128200A priority Critical patent/JP5917303B2/ja
Publication of JP2013254262A publication Critical patent/JP2013254262A/ja
Application granted granted Critical
Publication of JP5917303B2 publication Critical patent/JP5917303B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、移動体検出装置、移動体検出システム、および、移動体検出方法に関する。
移動体検出装置の1つである車両検出装置は、撮影した画像から抽出する特徴量と事前に収集された車両画像の特徴量との尤度(当該画像の車両らしさを定量化した値)を算出する。車両検出装置は、計算した尤度がある閾値をより大きい場合に撮影した画像に車両が含まれると判断する。
このような車両検出装置は、背景を車両と誤判断することを防止するため、車両と判断するための閾値を高めに設定する必要がある。しかし、閾値を高めに設定すると、車両検出装置は、車両の見え方、あるいは、天候の変化などの環境の変化によって尤度が低下すると車両の検出に失敗しやすいという課題がある。
特開2011−13838号公報 特開2011−118450号公報
上記の課題を解決するために、環境変化の影響をうけにくい移動体検出装置、移動体検出システム、および、移動体検出方法を提供する。
実施形態によれば、移動体検出装置は、画像生成部と、設定部と、特徴算出部と、尤度算出部と、尤度分布生成部と、格納部と、検出部とを有する。画像生成部は、撮影画像の解像度を変更したマルチスケールの複数の画像を生成する。設定部は、マルチスケールの各画像に対して複数位置に順次探索窓を設定する。特徴算出部は、設定部が設定した探索窓内の画像の特徴量を計算する。尤度算出部は、特徴算出部が算出した特徴量に基づいて探索窓内の画像の移動体らしさを示す尤度を算出する。尤度分布生成部は、設定部が複数位置に設定した探索窓内の画像から尤度算出部が算出した複数の尤度に基づいて画像生成部が生成した複数の画像ごとに尤度分布を生成する。格納部は、移動体の画像領域近傍の尤度分布モデルを格納する。検出部は、尤度分布生成部が生成した複数の尤度分布から最も尤度のピークが大きい尤度分布を選択し、当該尤度分布の尤度のピーク近傍の尤度分布と、前記尤度分布モデルとを比較して撮影画像内における移動体を検出する。
図1は、本実施形態に係る車両検出装置を備えた道路監視システムの構成例を概略的に示すブロック図である。 図2は、本実施形態に係る車両検出装置の構成例を概略的に示すブロック図である。 図3は、本実施形態に係る車両検出装置の機能例を示すブロック図である。 図4は、本実施形態に係る車両検出装置が生成する車両の属性情報の例を示す表である。 図5は、本実施形態に係る車両検出装置の探索窓の動きを示す図である。 図6は、尤度分布の算出対象となる画像の例である。 図7は、図6に示す画像における尤度分布の例を示す図である。 図8は、各領域で算出される尤度データに基づく尤度分布の構成例を示す図である。 図9は、マルチスケール画像から算出した尤度分布を示す図である。 図10(a)は、時刻tnの画像における尤度分布の例を示す図であり、図10(b)は、時刻tn+1の画像における尤度分布の例を示す図である。 図11は、本実施形態に係る車両検出装置の動作例を説明するためのフローチャートである。 図12は、本実施形態に係る識別器における車両画像の高次特徴量分布モデルを構築する際の学習処理のフローチャートである。 図13は、本実施形態に係る車両検出部における車両領域の尤度分布モデルを構築する際の学習処理のフローチャートである。
以下、本実施形態について図面を参照して説明する。
本実施形態に係る移動体検出装置は、移動体が記録されている可能性のある画像データを取得し、取得した画像データにおいて移動体を検出する装置である。本実施形態においては、検出対象となる移動体が車両であることを想定して説明するが、検出対象となる移動体は、例えば、人などであっても良く、特定の対象に限定されるものではない。
本実施形態では、移動体検出装置として、車両検出装置を例として説明する。
本実施形態に係る車両検出装置は、道路などを撮影した画像データを取得し、当該画像データに映し出されている車両を検出する装置である。
本実施形態に係る車両検出装置は、たとえば、道路監視システムなどで利用される。道路監視システムは、車両検出装置が検知する道路上を走行している車両の状態あるいは検知した車両の状態に基づく道路の状況などを示す情報を当該道路の管理者に通知したり、当該道路を走行する他の車両の運転者などに通知したりする。道路監視システムは、車両の運転者に情報を提供する構成として、掲示板などにより運転者に道路状況などの情報を提供しても良いし、路側に設けた路側装置と車両内の車載器との無線通信(路車間通信)などにより車両内の車載器に道路状況などの情報を提供するようにしても良い。
例えば、道路監視システムは、車両検出装置が検知する車両の数、車両の間隔および車両の走行速度などの情報から道路の渋滞状況を判断するようにしても良い。道路監視システムは、車両検知装置の検知結果から判断した渋滞状況に基づく渋滞情報を道路の管理者へ通知したり、掲示板又は路車間通信などを通じて運転者に通知したりする。これにより、管理者は、道路の渋滞状況を監視することができ、運転者は、当該道路の渋滞情報を知ることができ、渋滞している道路の回避などが容易になる。
また、道路監視システムは、車両検出装置が検知する各車両の走行状態から道路上を蛇行運転している車両あるいは逆走している車両などの挙動不審な車両を検知するようにしても良い。道路監視システムは、道路上に蛇行運転車両又は逆走車両などの挙動不審な車両を検知した場合、当該道路の管理者に挙動不審な車両を通知したり、掲示板又は路車間通信などを通じて他の車両の運転者に通知したりすることができる。これにより、道路監視システムによれば、道路の管理者は挙動不審な車両を監視でき、当該道路を走行する車両の運転者に対して道路上に挙動不審な車両があることを知らせることができ、安全な車両運行を支援することが可能となる。
図1は、本実施形態に係る車両検出装置を備えた道路監視システムの構成例を概略的に示すブロック図である。
道路監視システム10は、カメラ11a〜11k、車両検出装置12a〜12j、情報掲示装置13a、13b、及び、情報提示装置14などを備える。
カメラ11a〜11kは、監視対象となる道路(車両を検出する道路)RDの画像を撮影するものである。カメラ11a〜11kは、例えば、動画像の撮影を行うビデオカメラである。カメラ11a〜カメラ11kは、たとえば、1秒間に30フレーム程度の画像を撮影することにより動画像を撮影し、撮影した画像を1フレーム毎に各カメラ11に対応する車両検出装置12へ送信する。カメラ11a〜カメラ11kは、撮影した動画像をアナログデータ又はデジタルデータに変換して各カメラ11に対応する車両検出装置12へ送信する。
カメラ11a〜11kは、監視対象となる道路RDを撮影できるように、道路RDの上方又は道路RD脇などに設置される。カメラ11a〜11kは、道路RDにおける所定の領域を撮影するため、所定の高さ、俯角及び回転角などの撮影条件を満たすよう設置される。
車両検出装置12a〜12jは、それぞれカメラ11a〜11kのうち少なくとも1つのカメラと有線ケーブル又は無線ユニットを通じて接続される。たとえば、図1に示す構成例において、車両検出装置12aは、カメラ11a及びカメラ11bと接続され、車両検出装置12bは、カメラ11cと接続されている。車両検出装置12a〜12jは、それぞれが接続しているカメラ11から道路RD上を撮影した動画を取得する。
なお、車両検出装置12a〜12jは、道路RD上を撮影した動画を取得できればよく、他の装置から道RD路上を撮影した動画を取得するものとしてもよい。
車両検出装置12a〜12jは、情報提示装置14と有線ケーブル又は無線ユニットを通じて接続されている。車両検出装置12a〜12jは、検出した車両に関する情報や車両の状態(走行状態)に関する情報などを情報提示装置14へ送信する。
車両検出装置12(12a〜12j)の詳細な説明は、後述する。
情報掲示装置13a並びに13bは、情報提示装置14からの画像データを受信し、受信した画像データを表示する表示装置である。情報掲示装置13a並びに13bは、たとえば、電光掲示板あるいは大型LEDディスプレイなどである。情報掲示装置13a並びに13bは、道路RD上の車両の運転者(例えば、図1では、車両C1及びC2の運転者)に道路状況などの情報を提供するためのものである。たとえば、情報掲示装置13a並びに13bは、情報提示装置14から送信された道路RDの渋滞情報など含む画像データを受信し、当該画像データを表示する。これにより、道路RD上の車両の運転者は、道路RDの渋滞情報などを知ることができる。
なお、図1に示す構成例では、カメラ11a〜11k、車両検出装置12a〜12j、情報掲示装置13a、13b、及び情報提示装置14は、それぞれ個別の装置としたが、この態様に限るものではなく、2つ以上の特定の装置を一体として構成してもよいし、全てを一体として構成してもよい。
次に、車両検出装置12(12a〜12j)の構成について説明する。
車両検出装置12a〜12jは、同様の構成で実現できる。このため、車両検出装置12a〜12jの構成については、車両検出装置12aの構成例として説明するものとする。
車両検出装置12aは、カメラ11などから道路の撮影画像を取得し、取得した撮影画像に車両が存在するか判定する。車両検出装置12aは、取得した画像内に対して探索窓を設定し、探索窓内の高次特徴量を算出する。車両検出装置12aは、算出した高次特徴量と事前に収集された車両画像の高次特徴量量(辞書データ)とを比較し、当該探索窓における画像の車両画像らしさ(尤度)を計算する。
車両検出装置12aは、探索窓を取得した画像内で動かし、探索窓を動かすごとに探索窓内の尤度を計算する。車両検出装置12aは、画像内において繰り返し探索窓を動かし、当該画像内の各所に設定した探索窓内の画像と車両画像との尤度を計算することにより、取得した画像のあらゆる場所について車両画像との尤度を計算する。車両検出装置12aは、取得した画像のあらゆる場所で計算した尤度に基づいて、取得した画像全体における尤度分布を作成する。また、車両検出装置12aは、取得した画像の解像度を段階的に下げた画像(又は解像度を上げた画像)を複数生成(マルチスケール画像を生成)し、各画像に対しても探索窓を用いた尤度分布の作成処理を行う。車両検出装置12aは、各画像における尤度分布と事前に構築された尤度分布モデル(辞書データ)とを比較し、取得した画像のどの部分に車両があるかを判定する。
図2は、車両検出装置12aの構成例を概略的に示すブロック図である。
車両検出装置12aは、制御部21、通信インターフェイス(I/F)部22、記憶部23及び外部記憶装置24などを備える。
制御部21は、車両検出装置12aの各部の動作を統合的に制御する。制御部21は、MPU、RAM及びROMなどを備えるマイクロコンピュータで構成される。制御部21は、制御部21内のROM及び記憶部23内のROMに格納されている制御プログラムを実行することで種々の処理を行う。たとえば、制御部21は、オペレーティングシステムのプログラムを実行することにより、車両検出装置12aの基本的な動作制御を行う。また、制御部21は、アプリケーションプログラムを実行することにより、車両検出装置12aの運用形態に応じた種々の処理を行う。なお、制御部21は、マイクロコンピュータに限定されず、ハードウェアの動作を制御しアプリケーションプログラムを実行できる装置であればよい。制御部21は、たとえば、パソコンなどであってもよい。
通信I/F部22は、対応するカメラ11a、カメラ11b及び情報提示装置14との間で通信を行うためのインターフェイスである。制御部21は、通信I/F部22を通じて、カメラ11a及びカメラ11bから動画を取得する。また、制御部21は、通信I/F部22を通じて、検出した車両の情報を情報提示装置14へ送信する。通信I/F部22は、有線で情報を送受信するものでもよいし、無線で情報を送受信するものでもよい。また、通信I/F部22は、無線通信及び有線通信の両者に対応するものでもよい。通信I/F部22は、たとえば、USBポート、有線LANポート及び無線LAN端末などであってもよい。
記憶部23は、制御部21が制御を行うための制御プログラムなどを不揮発的に格納するROM、ワークエリアとして用いられ各種データを揮発的に格納するRAM、設定データなどを更新可能に不揮発的に記録するフラッシュROM及び画像データを格納するVRAMなどを備える。
外部記憶装置24は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)などの大容量記録装置により構成される。
次に、車両検出装置12aの機能について説明する。
図2は、車両検出装置12aの機能を示す機能ブロック図である。
車両検出装置12aは、入力画像取込部31、マルチスケール画像算出部32、探索窓設定部33、高次特徴量算出部34、識別部35a〜35m、尤度分布生成器36a〜36m、車両検出部37、属性情報付加部38、車両追跡部39、車両挙動把握部40及び車両情報送信部41などを備える。
入力画像取込部31は、通信I/F部22を介してカメラ11a及びカメラ11bから画像データを取り込む。入力画像取込部31は、車両検出装置12aの仕様に合わせて、入力された画像データを修正するようにしても良い。たとえば、入力画像取込部31は、ビットマップ又はJPEGなどの圧縮形式を変換するようにしても良いし、画素数などを所定の形式になるように修正するようにしても良い。
マルチスケール画像算出部32は、入力画像取込部31で取り込んだ画像データを基に、当該画像データの解像度を変更した複数の画像データを生成する。解像度を変更した画像データは、マルチスケール画像とも称するものとする。また、マルチスケール画像として生成された複数の画像は、それぞれマルチスケール画像の種別番号などで識別されるものとする。
たとえば、マルチスケール画像算出部32は、取り込んだ画像データの解像度を段階的に下げることにより複数の解像度の画像(マルチスケール画像)を生成する。マルチスケール画像算出部32は、取り込んだ画像データの解像度を下げる方法として、バイリニア方式あるいはバイキュービック方式などが適用可能である。ただし、取り込んだ画像データの解像度を変更する方法は、特定の方法に限定されるものではない。
一例として、カメラ11aからの画像データが640×480画素の画像であるものとする。この場合、マルチスケール画像算出部32は、解像度を段階的に下げたマルチスケール画像として、560×420画素の画像、440×330画素の画像、400×300画素の画像、320×240画素の画像、および、240×180画素の画像などを生成する。
なお、マルチスケール画像算出部32で生成される画像の解像度は、特定の解像度に限定されるものではなく、生成されるマルチスケール画像の枚数も特定の枚数に限定されるものではない。また、マルチスケール画像算出部32は、アスペクト比の異なる画像を生成するようにしても良い。ただし、以下の説明においては、マルチスケール画像算出部32は、n枚のマルチスケール画像を生成するものとする。
探索窓設定部33は、マルチスケール画像算出部32で生成された各画像に対して車両検出用の探索窓を設定する。高次特徴量算出部34は、探索窓設定部33が設定した探索窓内の画像における高次特徴量を計算するものである。つまり、探索窓とは、高次特徴量算出部34が高次特徴量を計算する対象となる領域である。言い換えれば、探索窓は、識別器35が車両画像らしさとしての尤度を計算する対象となる領域である。
たとえば、探索窓設定部33は、マルチスケールで生成した画像のうち560×420ピクセルの画像に対して座標(10,10)に、30×30の探索窓を設定する。この場合、設定された探索窓の左上の座標は、(10,10)であり、右下の座標は(39,39)となる。探索窓設定部33が当該探索窓を設定すると、高次特徴量算出部34が当該探索窓の高次特徴量を計算し、識別部35が当該高次特徴量から当該探索窓の画像が車両画像らしい尤度を計算する。
なお、探索窓は、特定の大きさに限定されないが、処理対象となる画像よりは小さい必要がある。また、探索窓は、正方形或いは長方形などの矩形に限定されるものではなく、特定の形に限定されない。
探索窓設定部33は、設定した探索窓を処理対象となる画像内で動かすことができる。これにより、車両検出装置12aは、マルチスケール画像算出部32で生成した各画像の多数の領域において尤度を得ることができ、各画像全体における尤度分布を得ることができる。
たとえば、探索窓設定部33は、560×420ピクセルの画像において座標(10,10)に設定した探索窓を座標(13,10)に動かす。探索窓設定部33が探索窓を動かすと、上記の通り、高次特徴量算出部34が当該探索窓における画像の高次特徴量を計算し、識別部35が当該探索窓における画像の車両画像らしさを示す尤度を計算する。
探索窓設定部33は、さらに、探索窓を(13,10)から(16、10)へ、(16,10)から(19、10)へと動かす。探索窓設定部33が探索窓を動かすごとに、高次特徴量算出部34は、上記と同様に尤度を算出する処理を行う。なお、探索窓の動かし方は、特定の方法に限定されるものではない。
高次特徴量算出部34は、探索窓設定部33が設定した探索窓内の画像について、特徴量(高次特徴量)を計算する。高次特徴量算出部34が計算する高次特徴量は、識別器35が尤度を計算する際に使用される高次特徴量と比較されるデータである。たとえば、高次特徴量算出部34は、探索窓内の画像をぼかした後の輝度勾配情報を128次元ベクトルとして高次特徴量を計算してもよい。また、高次特徴量算出部34は、HOG特徴量又はエッジ特徴量などを高次特徴量としてもよい。高次特徴量の計算方法は、特定の方法に限定されるものではない。また、高次特徴量の計算方法は、識別器35a〜35mによって変更してもよい。
識別部35a〜35mは、車両を見込む角度(対応するカメラの設置状態)、周囲の明るさ、撮影時間帯、探索窓について計算された高次特徴量などに基づいてパターン分析を行い、当該探索窓の画像の車両画像らしさを示す尤度を計算する。たとえば、識別部35a〜35mは、事前に収集した車両画像の高次特徴量(高次特徴量分布)を保持する辞書データ部Da〜Dmを備える。辞書データ部Da〜Dmは、記憶部23あるいは外部記憶装置24に設けても良い。高次特徴量分布とは、特徴量の平均値m及び共役分散行列Σであってもよい。識別部35a〜35mは、当該高次特徴量分布と探索窓における画像の高次特徴量とを比較することにより、当該探索窓における画像の尤度を計算する。また、識別部35a〜35mは、車両を見込む角度(対応するカメラの設置状態)、周囲の明るさ、撮影時間帯などから、尤度を補正してもよい。識別部35a〜35mが尤度を計算する方法は、特定の方法に限定されない。
また、識別部35a〜35mは、それぞれ異なる特性を持っている。即ち、識別部35a〜35mは、車両の種類、車両の向き、天候、あるいは、路面状況などにそれぞれ対応した特性を持つ。たとえば、識別部35aは、車両の側面を識別するための識別器であってもよいし、識別器35bは、車両の正面を識別するための識別器であってもよい。各識別器35がどのような特性を持つかは、特定の構成に限定されない。また、識別器35の個数も限定されない。ただし、本実施形態においては、識別器35aは識別器1、識別器35bは識別器2、…、識別器35mは識別器mと称し、識別器の総数は、m個あるものとする。
尤度分布生成器36a〜36mは、それぞれに対応する識別器35から出力された尤度を基に画像全体における尤度分布を作成する。尤度分布生成器36a〜36mは、探索窓の重心の座標に当該探索窓における画像の車両画像らしさを示す尤度を設定することにより画像全体における尤度分布を作成する。
車両検出部37は、尤度分布生成器36a〜36mで作成された尤度分布から車両領域を抽出する。
車両検出部37は、マルチスケール画像の枚数に識別器35の個数を掛けた数だけ尤度分布を取得する。たとえば、マルチスケール画像の枚数がn枚で識別器35の個数がm個の場合、車両検出部37は、n×m個の尤度分布を取得する。
各尤度分布生成器36a〜36mから尤度分布を取得すると、車両検出部37は、取得した複数の尤度分布を正規化する。正規化の方法は、たとえば尤度のピークが最も高い尤度分布に合わせて全ての尤度分布を正規化する方法が考えられるが、特定の方法に限定されない。
車両検出部37は、複数の尤度分布から尤度のピークが重なる位置を特定する。ピークが重なる位置を特定すると、車両検出部37は、複数の尤度分布の中から、当該位置において最もピークが大きい尤度分布を選択する。即ち、車両検出部37は、マルチスケールの画像のうち探索窓と車両サイズとが最もマッチする画像から算出された尤度分布を選択する。これは、探索窓と車両サイズとが近いほど尤度が大きく算出されるためである。また、車両検出部37は、撮影状況あるいは車両の写り方に最も良く対応している識別器35からの尤度分布を選択していることにもなる。
最もピークが大きい尤度分布を選択すると、車両検出部37は、ピークが出現する位置の周辺領域(近傍領域)を選択する。車両検出部37は、近傍領域の尤度分布から車両の有無を判定する。以下に、具体的に説明する。
車両検出部37は、予め作成された車両領域の尤度分布モデルをモデルデータ部Mに記憶する。モデルデータ部Mは、記憶部23あるいは外部機器装置24に設けても良い。尤度分布モデルとは、たとえば車両領域及び車両領域周辺の典型的な尤度分布である。尤度分布モデルは、識別器35a〜35m、あるいは、マルチスケールの各画像に応じて異なるものとしてもよい。尤度分布モデルの作成方法については、後述する。
車両検出部37は、尤度分布モデルと近傍領域の尤度分布とを比較して両者の類似度を算出する。類似度の算出方法は、複数点での両者の差分の合計を計算する方法、又は、両者の特徴を数値化し比較する方法などが考えられるが、特定の方法に限定されるものではない。
尤度分布モデルと尤度分布との類似度を算出すると、車両検出部37は、算出した類似度と所定の閾値とを比較する。類似度が大きいほど当該尤度分布の画像が車両画像らしいことを示すので、車両検出部37は、類似度が閾値より大きい(あるいは、以上である)場合には当該近傍領域を車両領域と判定する。また、類似度が小さいほど当該尤度分布の画像が車両画像らしくないので、車両検出部37は、類似度が閾値未満である(あるいは、以下である)場合には当該近傍領域を車両領域でない(取り込んだ画像には車両画像を含まない)と判定する。
なお、車両検出部37は、車両領域の尤度分布の特徴パラメータ分布を保管するものであってもよい。この場合、車両検出部37は、近傍領域の特徴パラメータと、車両領域の尤度分布の特徴パラメータ分布とを比較して、近傍領域が車両領域であるか判定してもよい。
車両検出部37は、特定した車両領域の位置と検出に使用した尤度分布などを情報付加部38へ送信する。送信する情報は、特定の情報に限定されるものではない。
属性情報付加部38は、車両検出部37で検出した車両一台ごとに車両の識別、追跡、或いは挙動把握などに必要な属性情報を付加する。即ち、属性情報付加部38は、車両検出部37で特定した車両領域の位置及び検出に使用した尤度分布に付加する他の情報として属性情報を生成する。
図4は、属性情報付加部38が生成する属性情報の例を示す図である。
識別器の番号は、当該車両の検出処理を行った各識別器を識別するための識別番号である。車両領域の尤度分布は、車両検出部37が車両検出に使用した尤度分布である。マルチスケール画像の種別番号は、尤度分布を算出したマルチスケールの各画像に対する種別番号である。車両IDは、各車両を識別するために、各車両に個別に設定されるIDである。車線番号は、当該車両の検出処理を行った車線を示す車線番号である。検出時刻は、当該車両の検出処理を行った時刻である。車両領域の座標は、車両を検出された領域の座標を示すものであり、図4に示す例では車両が検出された矩形領域(探索窓)の左上と右下との座標である。
なお、属性情報は、運用形態に応じて適宜設定されるものであり、特定の構成に限定されるものではない。
車両追跡部39は、属性情報付加部38により付加された車両情報に基づいて車両を追跡する。
車両追跡部39は、たとえば、時刻Tnに検出した車両領域の尤度分布と、次の時刻Tn+1に検出した尤度分布とを比較して類似度を計算する。時間差での類似度の算出方法は、複数点での両者の差分の合計を計算する方法、又は両者の特徴を数値化し比較する方法などが考えられるが、特定の方法に限定されるものではない。
時間差での類似度を算出すると、車両追跡部39は、算出した類似度と所定の閾値とを比較する。類似度が大きいほど類似性が高いことを示すため、車両追跡部39は、算出した類似度が閾値より大きい(あるいは、以上である)場合には時刻tnに検出した車両と時刻tn+1に検出した車両とが同一車両であると判定する。また、類似度が小さいほど類似性が低いことを示すため、車両追跡部39は、類似度が閾値未満である(あるいは、以下である)場合には時刻tnに検出した車両と時刻tn+1に検出した車両が同一車両でないと判定する。
これにより、車両追跡部39は、時系列で特定の車両を検出することができ、時系列での特定の車両の位置により当該車両を追跡することができる。
車両挙動把握部40は、車両追跡部39の追跡結果に基づいて、車両の挙動を把握する。車両の挙動とは、単に車両の時系列の位置情報ではなく、たとえば、車両の蛇行、逆走、急な車線変更、低速走行、あるいは、走行速度超過などの車両の動きの状態を示す情報である。なお、車両の挙動は、特定の構成に限定されるものではない。
車両情報送信部41は、情報提示装置14へ車両情報を出力する。車両情報は、たとえば、車両の属性情報、時系列の位置情報及び車両の挙動情報などである。車両情報送信部41が情報提示装置14へ出力する車両情報の内容は、情報提示装置14の機能あるいは表示能力などによって変更してもよい。また、車両情報送信部41は、道路の管理者が道路状況を監視する監視サーバ(図示しない)に車両情報を送信するようにしても良い。これにより、監視サーバは、道路の管理者に道路を走行する各車両の状況を報知するようにしても良いし、図示しない路車間通信などにより道路を走行中の車両の状況を他の車両の車載器などに通知するようにしても良い。なお、車両情報は、特定の内容に限定されるものではない。
次に、車両検出装置12aの動作について説明する。
まず、入力画像取込部31は、カメラ11aから道路RD上を撮影した画像(撮影画像データ)を取得する。ここでは、撮影画像データは、640×480画素の画像データであるものとする。車両検出装置12aは、車両検出装置12aに接続されているカメラ11bが撮影した画像に対しても同様な処理を行う。ここでは、カメラ11aが撮影した画像についての検出処理について説明する。
撮影画像データを取得すると、入力画像取込部31は、撮影画像データをマルチスケール画像算出部32へ送信する。
マルチスケール画像算出部32は、受信した撮影画像データに対して段階的に解像度を下げる処理を施して、撮影画像データのマルチスケール画像を生成する。ここでは、マルチスケール画像算出部32は、n枚のマルチスケール画像を生成するものとする。また、オリジナルの撮影画像データもマルチスケール画像の1つに含まれるものとする。即ち、マルチスケール画像算出部32は、マルチスケール画像として、1個のオリジナルの撮影画像データとオリジナルの撮影画像データから解像度を落として生成したn−1個のマルチスケール画像と合計n個生成する。
マルチスケール画像をn個生成すると、マルチスケール画像算出部32は、n個のマルチスケール画像のうち1個目の画像を探索窓設定部33に送信する。ここでは、1個目のマルチスケール画像は、オリジナルの撮影画像データの解像度である640×480画素の画像データであるものとする。即ち、マルチスケール画像算出部32は、640×480画素の画像を探索窓設定部33へ送信する。なお、マルチスケール画像の番号の付け方は、特定の方法に限定されない。
探索窓設定部33は、送信されたマルチスケール画像に探索窓SWを設定する。ここでは、探索窓設定部33は、X軸方向の大きさXW=30ピクセル、Y軸方向の大きさYW=30ピクセルの探索窓SWを、当該マルチスケール画像の(0,0)を基点に設定する。即ち、探索窓設定部33は、探索窓SWの左上の座標が(0,0)、右下の座標が(29,29)となるように当該マルチスケール画像上に設定する。
探索窓設定部33が探索窓SWを当該マルチスケール画像上に設定すると、高次特徴量算出部34は、当該探索窓SW内の画像についての高次特徴量を算出する。ここでいう高次特徴量とは、識別器35aで高次特徴量分布と比較されるものである。当該探索窓SW内の画像について高次特徴量を算出すると、高次特徴量算出部34は、算出した高次特徴量を識別器35aへ送信する。
高次特徴量算出部34から当該探索窓SW内の画像についての高次特徴量を受信すると、識別器35aは、それぞれに格納された高次特徴量分布と受信した高次特徴量を比較することで、当該探索窓内の画像の車両画像らしさを示す尤度を計算する。当該探索窓内の画像に対する尤度を計算すると、識別器35aは、尤度分布生成器36aへ計算した尤度を送信する。
ここまでの処理が終了すると、探索窓設定部33は、探索窓SWをX軸方向へ動かす。
図5は、探索窓設定部33が探索窓SWを動かす軌道を示す図である。図5中において、SWは探索窓、PLは探索窓の左上、PRは探索窓の右下を示している。
探索窓設定部33は、左上の座標が(kx,0)、右下の座標が(kx+29,29)の探索窓SWを当該マルチスケール画像上に設定する。ここで、kxは、探索窓設定部33が探索窓SWをX軸方法へ動かす幅である。例えば、本実施形態において、kxは、
3ピクセル≦kx≦10ピクセル
を満たす値とする。ただし、kxの値は、特定の値に限定されるものではない。
探索窓設定部33が探索窓SWを動かすと、上述したように、動かした探索窓SWについて、高次特徴量算出部34が高次特徴量を計算し、識別器35aが尤度を計算する。これにより、尤度分布生成器36aは、識別器35aから動かした探索窓SW内の画像に対する尤度を受信する。
ここまでの処理が終了すると、探索窓設定部33は、さらに探索窓SWをX軸方向へkx動かす。つまり、探索窓設定部33は、探索窓SWを左上の座標が(kx×2,0)となる位置へ動かす。探索窓設定部33が探索窓SWを動かすと、高次特徴量算出部34、識別器35aおよび尤度分布生成器36aは、動かした探索窓SW内の画像に対する尤度を算出するために、再度上記と同様の処理を行う。
探索窓設定部33は、探索窓SWをX軸方向へkx分づつ動かし、探索窓設定部33が探索窓SWを動かすごとに、高次特徴量算出部34、識別器35aおよび尤度分布生成器36aは、動かした探索窓SW内の画像に対する尤度を取得する処理を行う。
探索窓設定部33は、画像の右端まで探索窓SWを動かすと、探索窓SWの設定位置をY軸方向へ動かし、X座標をリセットする(0に戻す)。即ち、探索窓設定部33は、探索窓SWを(0,ky)へ動かす。ここで、kyは、探索窓設定部33が探索窓SWをY軸方法へ動かす幅である。例えば、本実施形態において、kyは、
3ピクセル≦ky≦10ピクセル
を満たす値とする。ただし、kyの値は、特定の値に限定されるものではない。
探索窓設定部33が画像の右端まで探索窓SWを動かすごとに、探索窓SWをY軸方向へky分づつ動かし、探索窓SWのX座標をリセットする(0に戻す)。たとえば、Y座標がkyの状態で探索窓SWが画像の右端まで動くと、探索窓設定部33は、探索窓SWを(0,ky×2)へ動かす。
すなわち、探索窓設定部33は、探索窓SWを画像の左から右へ動かし、右端まで動かすと、左に戻し下に動かす。探索窓設定部33は、このような動作を繰り返し行うことにより、探索窓設定は、探索窓SWを画像の左上から右下まで動かし、探索窓SWを画像の左上から右下までの各位置に順次設定する。
探索窓設定部33が探索窓SWを動かすたびに、識別器35aは探索窓SW内の尤度を計算し、尤度分布生成器36aへ尤度を送信する。このため、尤度分布生成器36aは、マルチスケールで生成した各画像の複数位置に対して車両らしさを示す尤度を得ることができる。尤度分布生成器36aは、当該尤度から当該マルチスケール画像の尤度分布を生成することができる。
尤度分布が生成されると、車両検出装置12aは、識別器35aから識別器35bへ、尤度分布生成器36aから尤度分布生成器35bへ変更して、上述の処理と同様な処理を行う。尤度分布生成器36bが尤度分布を生成すると、車両検出装置12aは、識別器35bを識別器35cに変更し、尤度分布生成器36bを尤度分布生成器36cへ変更し、上述の処理と同様な処理を行う。すなわち、車両検出装置12aは、識別器および尤度分布生成器を順に切り替えて、最後の識別器35m及び尤度分布生成器36mが尤度分布を生成するまで、上述の処理と同様な処理を繰り返し行う。
図6は、尤度分布の算出対象となる画像の例である。図6では、尤度分布の算出対象となる画像における注目領域とその周辺領域の状態を示している。図7は、図6に示す画像における尤度分布の例を示す図である。図8は、各領域で算出される尤度データに基づく尤度分布の構成例を示す図である。
図6において、注目領域は、車両(車両画像)領域であり、周辺領域は、車両領域の周辺領域である。また、注目領域および周辺領域は、探索窓設定部が設定する探索窓の領域に相当するものであり、各領域ごとに車両らしさを示す尤度が算出される。図6において、注目領域は、車両(車両画像)領域である。このため、図7に示すように、注目領域では、車両らしさを示す尤度は高い値になり、周辺領域においては、含まれる車両領域が小さくなるほど尤度が減少する。すなわち、尤度は、車両領域と最もマッチする領域でピークとなり車両領域から離れるほど減少する。これらの尤度をプロットしたデータにより、尤度分布生成器36a〜36mは、図8に示すように、尤度分布を算出できる。
尤度分布生成器36a〜36mが1個目のマルチスケール画像における尤度分布を生成すると、車両検出装置12aは、2個目のマルチスケール画像における尤度分布を作成する。2個目のマルチスケール画像の尤度分布を生成するプロセスは、1個目のマルチスケール画像の尤度分布を生成するプロセスと同様である。車両検出装置12aは、n個のマルチスケール画像についても同様に処理を行い、尤度分布を生成する。
尤度分布生成器36a〜36mがn個のマルチスケール画像の尤度分布を生成すると、生成した全ての尤度分布を車両検出部37へ送信する。
なお、尤度分布生成器36a〜36mは、1個のマルチスケール画像の尤度分布を生成するたびに、尤度分布を車両検出部37へ送信してもよい。
全てのマルチスケール画像における尤度分布を受信すると、車両検出部37は、車両判定に用いる尤度分布を選択する処理を行う。図9は、マルチスケールで生成した各画像における尤度分布の違いを説明するための図である。車両領域よりも探索窓が小さい場合(即ち、車両サイズ>探索窓サイズである場合)、車両領域での尤度が小さくピークがはっきりしない。また、車両領域よりも探索窓が大きい場合(即ち、車両サイズ<探索窓サイズである場合)、車両領域での尤度が小さくピークがはっきりしない。一方、車両領域と探索窓がほぼ一致する場合(即ち、車両サイズ≒探索窓サイズの場合)、車両領域での尤度が高くピークもはっきりする。このため、車両検出部37は、ピークの大きい尤度分布を選択することにより、画像に含まれる車両領域に最もマッチするサイズの探索窓で算出した尤度による尤度分布を選択することができる。
尤度分布を選択すると、車両検出部37は、選択した尤度分布において、ピークの周辺領域(近傍領域)の尤度分布と、モデルデータ部Mに記憶している尤度分布モデルとを比較する。ピークの周辺領域の尤度分布と尤度分布モデルとが所定の基準以上に類似していると判断された場合に、車両検出部37は、ピーク領域に車両領域があると判断する。車両領域を検出すると、車両検出部37は、検出した車両領域の位置及び車両領域の検出に使用した尤度分布などを属性情報付加部38へ送信する。
車両領域の位置を取得した属性情報付加部38は、車両を検出した識別器及び車両領域の尤度分布などに他の情報を付加し、属性情報を生成する。属性情報は、たとえば、図4に示すような情報が設定可能である。属性情報を生成すると、属性情報付加部38は、車両の属性情報を車両追跡部39へ送信する。また、属性情報付加部38は、車両の属性情報を車両情報送信部41へも送信するようにしてもよい。
属性情報を受信すると、車両追跡部39は、直前(たとえば、時刻tn)に取得した車両の属性情報と現在(例えば、時刻tn+1)に取得した車両の属性情報から、車両の対応付けを行う。図10(a)は、時刻tnの画像における尤度分布の例を示す図である。図10(b)は、時刻tn+1の画像における尤度分布の例を示す図である。ここでは、図10(a)及び図10(b)を参照しつつ、時系列の複数の画像における尤度分布に基づいて、車両追跡部39が車両を対応付ける処理(追跡処理)について説明する。
図10(a)は、時刻tnの画像における車両領域近傍の尤度分布を示している。図10(b)は、時刻tn+1の画像における車両領域近傍の尤度分布を示している。また、図10(b)では、時刻tnにおける車両領域近傍の尤度分布を点線で示している。
車両追跡部39は、両時刻における車両領域近傍の尤度分布が所定の基準以上に類似していると判断した場合、両時刻で検出された車両が同一の車両であると判定する。これにより、車両追跡部39は、時系列で車両の位置情報を取得することができる。時系列で車両の位置情報を取得すると、車両追跡部39は、時系列での車両の位置情報を車両挙動把握部40へ送信する。また、車両追跡部39は、時系列での車両の位置情報を車両情報送信部41へ送信してもよい。
時系列での車両の位置情報を受信すると、車両挙動把握部40は、時系列での車両の位置情報から当該車両の挙動を把握する。たとえば、車両挙動把握部40は、当該車両の蛇行、逆走及び速度超過などの車両の挙動を検出する。車両挙動把握部40は、当該車両が問題なく走行している場合には、車両の挙動を通常運行としてもよい。車両の挙動を検出すると、車両挙動把握部40は、車両の挙動情報を車両情報送信部41へ送信する。
車両の挙動情報を受信すると、車両情報送信部41は、当該車両の挙動情報を車両情報として情報提示装置14へ送信する。また、車両情報送信部41は、車両の挙動情報を道路を管理する管理者や他の車両の運転者に報知するために図示しない監視サーバへ送信するようにしても良い。車両情報送信部41は、属性情報付加部38から車両の属性情報を受信し、車両情報に属性情報を加えてもよい。また、車両情報送信部41は、車両追跡部39から時系列での車両の位置情報を取得し、車両情報に時系列での車両の位置情報を加えてもよい。車両情報送信部41は、その他の情報を車両情報に加えてもよく、その他の情報は特定の情報に限定されるものではない。
なお、マルチスケール画像算出部32は、解像度を上げたマルチスケール画像を生成してもよい。また、マルチスケール画像算出部32は、取得した画像からマルチスケール画像を生成する処理に代えて、探索窓SWの大きさを大きく又は小さく変更してもよい。また、車両検出装置12aは、マルチスケールの画像を生成するとともに、探索窓の大きさも変更するようにしてもよい。すなわち、車両検出装置12aは、車両検出の対象となる画像と車両画像を検出するための探索窓との相対的な大きさを変更して複数の尤度分布を検出するようにすれば良い。言い換えれば、車両検出装置12aは、撮影画像と探索窓との相対的な大きさが変化するように設定した状態で、複数の尤度分布を検出するものであれば良い。
また、入力画像取込部31、マルチスケール画像算出部32、探索窓設定部33、高次特徴量算出部34、識別部35a〜35m、尤度分布生成器36a〜36m、車両検出部37、属性情報付加部38、車両追跡部39、車両挙動把握部40及び車両情報送信部41は、プロセッサがプログラムを実行することにより実現されるものとするが、一部又は全部をハードウェアで実現しても良い。
次に、車両検出処理の流れについて説明する。
図11は、車両検出装置12aによる車両検出処理の流れを説明するためのフローチャートである。
車両検出装置12aにおいて、入力画像取込部31は、カメラ11aが道路を撮影した画像(撮影画像データ)を取り込む(ステップ31)。入力画像取込部31は、取り込んだ撮影画像データをマルチスケール画像算出部32へ送信する。
撮影画像データを受信すると、マルチスケール画像算出部32は、撮影画像データの解像度を段階的に落とした複数の画像(マルチスケール画像)を生成する(ステップ32)。マルチスケール画像算出部32が生成するマルチスケールの画像は、オリジナルの撮影画像データを含めてn枚であるものとする。
マルチスケール画像が生成されると、制御部21は、変数MNを初期化(MN=1)する(ステップ13)。ここで、変数MNは、尤度分布を算出するマルチスケールの画像を特定するためのマルチスケール画像番号(1〜n)である。変数MNを初期化すると、制御部21は、変数SNを初期化(SN=1)する(ステップ14)。ここで、変数SNは、尤度を計算する識別器を特定する識別器番号(1〜m)である。識別器番号1は識別器35a、識別器番号2は識別器35b、…、識別器番号mは識別器35mを示すものとして、ここでは、識別器の総数がm個であるものとする。
変数SNを初期化すると、制御部21は、探索窓SWの設定位置を示す座標を初期化(X=0,Y=0)する(ステップ15)。
探索窓SWの座標を初期化した後、探索窓設定部33は、マルチスケール画像算出部32が生成したマルチスケール画像のうちMN個目の画像を探索対象の画像として、当該画像における座標(X,Y)を基点にして探索窓SWを設定する。即ち、探索窓設定部33は、左上の座標PLを(X,Y)、右下の座標PRを(X+XW−1,Y+YW−1)とする探索窓SWを探索対象の画像内に設定する(ステップS16)。ここで、XWは探索窓SWのX軸方向大きさであり、YWは探索窓SWのY軸方向大きさである。探索対象の画像に探索窓SWを設定すると、探索窓設定部33は、探索窓SWの座標PL及び座標PRを高次特徴量算出部34へ送信する。
探索窓SWの座標PL及び座標PRを受信すると、高次特徴量算出部34は、探索窓SW内の画像における高次特徴量を算出する(ステップ17)。高次特徴量算出部34が算出する高次特徴量は、SN番目の識別器(識別器SN)が当該探索窓内の画像の車両画像らしさを示す尤度を計算するために使用する特徴量である。高次特徴量算出部34は、算出した高次特徴量を識別器SNへ送信する。
高次特徴量を受信すると、識別器SNは、受信した高次特徴量から尤度を計算する。識別器SNは、計算した尤度をSN番目の尤度分布生成器(尤度分布生成器SN)へ送信する(ステップ18)。ここで、尤度分布生成器SNは、識別器SNに対応する尤度分布生成器を示す。たとえば、SN=2である場合、識別器2(識別器35b)に対応する尤度分布生成器35bを示す。
識別器SNが尤度を尤度分布生成器SNへ送信すると、探索窓設定部33は、探索窓SWをさらにX軸方向へ移動させることができるか判定する(ステップ19)。即ち、探索窓設定部33は、探索窓SWを現在の設定位置からさらにX軸方向へkx分移動した場合に探索窓SWの右側が探索対象の画像からはみ出さないか判定する。ここで、MWXは、探索対象の画像の右端座標であるものとする。たとえば、MN=1である場合、1個目のマルチスケール画像(オリジナルの解像度(640×480)の撮影画像)においては、MWX=639である。探索窓SWをX方向にkx分移動させた後の探索窓SWの右側のX座標は「X+kx+XW」であるので、
X+kx+XW≦MWX
を満たせば、探索窓設定部33は、探索窓SWをX軸方向へkx移動させることができると判定する。
探索窓SWをX軸方向へkx移動させることができると判定した場合(ステップ19、YES)、探索窓設定部33は、探索窓SWのX座標を示すXの値にkxを加算(X=X+ky)して(ステップ20)、ステップ16へ戻る。
探索窓SWをX軸方向へkx移動させることができないと判定した場合(ステップ19、NO)、探索窓設定部33は、探索窓SWをY軸方向へky分移動させることができるか判定する(ステップ21)。即ち、探索窓設定部33は、探索窓SWを現在の設定位置からさらにY軸方向へky分移動した場合に探索窓SWの下側が探索対象の画像からはみ出さないか判定する。ここで、MWYは、探索対象の画像の下端座標であるものとする。たとえば、MN=1である場合、1個目のマルチスケール画像(オリジナルの解像度(640×480)の撮影画像)においては、MWY=479である。探索窓SWをY方向にky分移動させた後の探索窓SWの下側のY座標は「Y+ky+YW」であるので、
Y+ky+YW≦MWY
を満たせば、探索窓設定部33は、探索窓SWをY軸方向へky移動させることができると判定する。
探索窓SWをY軸方向へky移動させることができると判定した場合(ステップ21、YES)、探索窓設定部33は、探索窓SWのX座標を示すXを初期化(X=0)し、探索窓SWのX座標を示すYの値にkyを加算(Y=Y+ky)して(ステップ22)、ステップ16へ戻る。
探索窓SWをY軸方向へky移動させることができないと判定した場合(ステップ21、NO)、探索窓設定部33は、当該探索対象の画像に対する探索窓SWの設定を終了する。この場合、尤度分布生成器SNは、当該探索対象の画像の各所に設定した探索窓SWによって算出した尤度に基づいて当該探索対象の画像における尤度分布を生成する(ステップ23)。
尤度分布生成器SNが尤度分布を生成すると、制御部21は、全ての識別器(識別器35a〜識別器35m)で尤度分布を生成したか判定する(ステップ24)。識別器は、m個なので、SN=mなら、制御部21は、当該探索対象の画像に対して、全ての識別器での尤度分布の生成を完了したものと判断する(ステップS24、YES)。全ての識別器での尤度分布の生成を終了していないと判定した場合(ステップ24、NO)、制御部21は、変数SNをインクリメント(SN=SN+1)し(ステップ25)、ステップ15へ戻る。この場合(SNがmとなるまで)、次の識別器及び尤度分布生成器を用いて、上記ステップS15〜S25の処理が実行される。
全ての識別器での尤度分布の生成を完了したと判定した場合(ステップ24、YES)、制御部21は、全てのマルチスケール画像について尤度分布を生成したか判定する(ステップ26)。ここでは、マルチスケール画像は、n枚なので、MN=nなら、制御部21は、全てのマルチスケール画像で尤度分布を生成したといえる。全てのマルチスケール画像で尤度分布を生成していないと判定した場合(ステップ26、NO)、制御部21は、変数MNをインクリメント(MN=MN+1)し(ステップ27)、ステップ14へ戻る。この場合(MNがnとなるまで)、上記ステップS14〜S27の処理が繰り返し実行される。
全てのマルチスケール画像で尤度分布を生成したと判定した場合(ステップ26、YES)、尤度分布生成器36a〜36mは、それぞれが生成した尤度分布を車両検出部37へ送信する。なお、尤度分布生成器36a〜36mは、尤度分布を作成する度に車両検出部37へ尤度分布を送信してもよい。
尤度分布を受信すると、車両検出部37は、受信した尤度分布に基づいて車両領域を特定する(ステップ28)。車両検出部37は、受信した複数の尤度分布からピーク値の大きい尤度分布を選択し、選択した尤度分布から撮影画像における車両画像らしい領域(車両領域)の座標を特定する。車両検出部37は、特定した車両領域の座標及び車両領域の検出に使用した尤度分布などを車両検出結果の情報として属性情報付加部38へ送信する。
特定された車両領域の座標及び車両領域の検出に使用した尤度分布などの車両検出結果を受信すると、属性情報付加部38は、特定された車両領域の座標及び車両領域の検出に使用した尤度分布などの車両検出結果に付加する属性情報を生成する(ステップ29)。属性情報付加部38は、生成した属性情報を付加した車両検出結の情報を車両追跡部39へ送信する。
属性情報が付加された車両検出結果の情報を受信すると、車両追跡部39は、当該属性情報と以前に受信した他の属性情報とから特定の車両を追跡し、当該車両の時系列での位置情報(車両の走行状態を示す情報)を生成する(ステップ30)。車両追跡部39は、生成した車両の時系列での位置情報を車両挙動把握部40へ送信する。また、車両追跡部39は、生成した車両の時系列での位置情報を車両情報送信部41へ送信するようにしても良い。
車両の時系列での位置情報を受信すると、車両挙動把握部40は、車両の時系列での位置情報(車両の走行状態を示す情報)に基づいて当該車両の挙動を示す挙動情報を生成する(ステップ31)。車両挙動把握部40は、生成した車両の挙動情報を車両情報送信部41へ送信する。車両挙動把握部40は、車両の挙動情報とともに、車両検出結果および属性情報なども車両情報送信部41へ送信する。ただし、車両検出結果および属性情報は、属性情報付加部38あるいは車両追跡部39から車両情報送信部41へ送信するようにしても良い。なお、車両挙動把握部40は、当該車両の挙動が異常(不審)か否かを判定し、挙動が異常(不審)である場合に当該車両の挙動情報を車両情報送信部41へ送信するようにしても良い。
車両の挙動情報を受信すると、車両情報送信部41は、車両の挙動情報、属性情報、車両検出結果、及び時系列での位置情報などに基づいて車両情報を生成する。車両情報送信部41は、生成した車両情報を情報提示装置14へ送信する(ステップ32)。
以上のような態様によれば、車両検出装置は、単純に特定の領域について車両の画像か否かを判定していくのではなく、撮影画像全体(あるいは車両領域らしい周辺画像)における尤度分布から車両の画像を検出することができる。これにより、車両の見え方あるいは天候などの影響によって車両らしさを示す尤度が下がったとしても、車両検出装置は、精度良く車両の画像を検出することができる。
次に、識別器35(35a〜35m)の構築方法について説明する。
識別器35は、サポートベクターマシン、K近傍識別器、ベイズ分類等の機械学習により大量のデータから識別パラメータを構成する非ルールベールの手法を用いて構築される。識別器35は、車両検出装置12aで構築されてもよいし、他の装置で構成されてもよい。ここでは、車両検出装置12aで構築される場合を例に説明する。
図12は、識別器35を構築する際の学習処理のフローチャートである。
まず、制御部21は、ディスプレイなどに車両画像を含む画像を表示させる。当該画像は、想定される撮影条件(車両を撮影する角度あるいは照度条件など)によって撮影された画像である。ディスプレイに当該画像を表示させると、制御部21は、オペレータに車両領域を教示するよう促す。オペレータは、表示された画像内の車両領域を教示する。これにより、制御部21は、車両画像を含む撮影画像と当該撮影画像内の車両領域データとの組み合わせ(教示データ)を得ることができる(ステップ31)。
教示データを取得すると、制御部21は、当該車両領域内の画像について高次特徴量を算出する(ステップ32)。高次特徴量は、たとえばHOG(Histograms Of Gradients)やCoHOG(Co-occurrence Histograms Of Gradients)であるが、特定の構成に限定されない。
制御部21は、同様に背景についても高次特徴量を算出する。制御部21は、既存のパターン学習技術を用いて、車両領域における高次特徴量および背景画像における高次特徴量から学習を行う(ステップ33)。
以上の処理を繰り返すことにより、制御部21は、識別器35を構築することができる(ステップ34)。
なお、パターン学習技術は、特定の方法に限定されるものではない。また、識別器35は、学習以外の方法で構築されてもよく、識別器35の構築方法は限定されるものではない。
次に、尤度分布モデルの構築方法について説明する。
尤度分布モデルは、車両検出装置12aで構築されてもよいし、他の装置で構築されてもよい。ここでは、車両検出装置12aで構築される場合を例に説明する。
図13は、尤度分布モデルを構築する際の学習処理のフローチャートである。
まず、制御部21は、ディスプレイなどに車両画像を含む画像を表示させる。ディスプレイなどに当該画像を表示させると、制御部21は、オペレータに車両領域を教示するよう促す。オペレータは、表示された画像内における車両領域を教示する。これにより、制御部21は、車両画像を含む画像全体と当該画像内の車両領域データとを組み合わせた情報(教示データ)を得ることができる(ステップ41)。
教示データを取得すると、制御部21は、当該車両領域近傍の尤度分布を算出する。(ステップ42)。尤度分布の算出方法は、前述の通りである。制御部21は、既存のパターン学習技術を用いて、当該尤度分布から学習を行う(ステップ43)。
以上の処理を繰り返すことにより、制御部21は、尤度分布モデルを構築することができる(ステップ44)。
なお、パターン学習技術は、特定の方法に限定されるものではない。また、尤度分布モデルは、学習以外の方法で構築されてもよく、尤度分布モデルの構築方法は限定されるものではない。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下、本出願当初の特許請求の範囲の記載を付記する。
[1]
移動体の検出対象となる撮影画像を取得する取得部と、
前記撮影画像内の複数位置に順次探索窓を設定する設定部と、
前記設定部が設定した探索窓内の画像の特徴量を計算する特徴算出部と、
前記特徴算出部が算出した前記特徴量に基づいて前記探索窓内の画像の移動体らしさを示す尤度を算出する尤度算出部と、
前記設定部が複数位置に設定した探索窓内の画像から前記尤度算出部が算出した複数の尤度に基づいて前記撮影画像全体における尤度分布を生成する尤度分布生成部と、
前記尤度分布生成部が生成した前記尤度分布に基づいて前記撮影画像内における移動体を検出する検出部と、
を備える移動体検出装置。
[2]
前記移動体は、車両であり、
前記撮影画像は、車両が走行する道路を撮影した画像である、
前記[1]に記載の移動体検出装置。
[3]
前記撮影画像の解像度を変更したマルチスケールの複数の画像を生成する画像生成部と、を備え、
前記設定部は、前記マルチスケールの各画像に対して複数位置に順次探索窓を設定し、
前記尤度分布生成部は、前記画像生成部が生成した複数の画像ごとに尤度分布を生成し、
前記検出部は、前記尤度分布生成部が生成した前記複数の画像ごとの尤度分布に基づいて前記撮影画像内の移動体領域を検出する、
前記[1]又は[2]の何れかに記載の移動体検出装置。
[4]
さらに、移動体の画像領域近傍の尤度分布モデルを格納する格納部と、を備え、
前記検出部は、前記複数の尤度分布から最も尤度のピークが大きい尤度分布を選択し、当該尤度分布の尤度のピーク近傍の尤度分布と、前記尤度分布モデルとを比較して移動体を検出する、
前記[3]に記載の移動体検出装置。
[5]
前記画像生成部は、撮影画像の解像度を段階的に下げてマルチスケールの複数の画像を生成する、
前記[3]又は[4]の何れかに記載の移動体検出装置。
[6]
前記設定部は、複数の尤度分布を生成するために前記探索窓の大きさを変更する、
前記[1]乃至[5]の何れかに記載の移動体検出装置。
[7]
さらに、前記検出部が検出した移動体領域の尤度分布を時系列に従って格納する尤度分布格納部と、
過去の移動体領域近傍の尤度分布と現在の移動体領域近傍の尤度分布とを比較して同一となる移動体を追跡する移動体追跡部と、を備える、
前記[1]乃至[6]の何れかに記載の移動体検出装置。
[8]
さらに、前記移動体追跡部が追跡する特定の移動体の時間的変化に基づいて当該移動体の挙動を把握する挙動把握部を備える、
前記[7]に記載の移動体検出装置。
[9]
移動体を検出する移動体検出装置と情報を提供する情報提供装置とを有する移動体検出システムであって、
前記移動体検出装置は、
移動体検出の対象となる撮影画像を取得する取得部と、
前記撮影画像内の複数位置に順次探索窓を設定する設定部と、
前記設定部が設定した探索窓内の画像の特徴量を計算する特徴算出部と、
前記特徴算出部が算出した前記特徴量に基づいて前記探索窓内の画像の移動体らしさを示す尤度を算出する尤度算出部と、
前記設定部が複数位置に設定した探索窓内の画像から前記尤度算出部が算出した複数の尤度に基づいて前記撮影画像全体における尤度分布を生成する尤度分布生成部と、
前記尤度分布生成部が生成した前記尤度分布に基づいて前記撮影画像内における移動体を検出する検出部と、
前記検出部による移動体の検出結果に基づく車両情報を前記情報提供装置へ出力する出力部と、を備え、
前記情報提供装置は、
前記移動体検出装置から取得した移動体の検出結果に基づく車両情報を報知する報知手段を備える、
移動体検出システム。
[10]
移動体の検出対象となる撮影画像を取得し、
前記撮影画像内の複数位置に順次探索窓を設定し、
前記設定された探索窓内の画像の特徴量を計算し、
前記算出した前記特徴量に基づき、前記探索窓内の画像の移動体らしさを示す尤度を算出し、
前記複数位置に設定した探索窓内の画像から算出した複数の尤度に基づいて前記撮影画像全体における尤度分布を生成し、
前記生成した前記尤度分布に基づいて前記撮影画像内における移動体を検出する、
移動体検出方法。
10…道路監視システム、11a〜11k…カメラ、12a〜12m…車両識別装置、13a及び13b…情報掲示装置、14…情報提示装置、RD…道路、C1及びC2…車両、21…制御部、22…通信I/F、23…記憶部、24…外部記憶部、31…入力画像取込部、32…マルチスケール画像算出部、33…探索窓設定部、34…高次特徴量算出部、35a〜35m…識別器、36a〜36m…尤度分布生成器、37…車両検出部、38…属性情報付加部、39…車両追跡部、40…車両挙動把握部、41…車両情報送信部。

Claims (8)

  1. 撮影画像を取得する取得部と、
    前記撮影画像の解像度を変更したマルチスケールの複数の画像を生成する画像生成部と、
    前記マルチスケールの各画像に対して複数位置に順次探索窓を設定する設定部と、
    前記設定部が設定した探索窓内の画像の特徴量を計算する特徴算出部と、
    前記特徴算出部が算出した前記特徴量に基づいて前記探索窓内の画像の移動体らしさを示す尤度を算出する尤度算出部と、
    前記設定部が複数位置に設定した探索窓内の画像から前記尤度算出部が算出した複数の尤度に基づいて前記画像生成部が生成した複数の画像ごとに尤度分布を生成する尤度分布生成部と、
    移動体の画像領域近傍の尤度分布モデルを格納する格納部と、
    前記尤度分布生成部が生成した前記複数の尤度分布から最も尤度のピークが大きい尤度分布を選択し、当該尤度分布の尤度のピーク近傍の尤度分布と、前記尤度分布モデルとを比較して前記撮影画像内における移動体を検出する検出部と、
    を備える移動体検出装置。
  2. 前記移動体は、車両であり、
    前記撮影画像は、車両が走行する道路を撮影した画像である、
    前記請求項1記載の移動体検出装置。
  3. 前記画像生成部は、撮影画像の解像度を段階的に下げてマルチスケールの複数の画像を生成する、
    前記請求項1又は2の何れか1項に記載の移動体検出装置。
  4. 前記設定部は、複数の尤度分布を生成するために前記探索窓の大きさを変更する、
    前記請求項1乃至の何れか1項に記載の移動体検出装置。
  5. さらに、前記検出部が検出した移動体領域の尤度分布を時系列に従って格納する尤度分布格納部と、
    過去の移動体領域近傍の尤度分布と現在の移動体領域近傍の尤度分布とを比較して同一となる移動体を追跡する移動体追跡部と、を備える、
    前記請求項1乃至の何れか1項に記載の移動体検出装置。
  6. さらに、前記移動体追跡部が追跡する特定の移動体の時間的変化に基づいて当該移動体の挙動を把握する挙動把握部を備える、
    前記請求項に記載の移動体検出装置。
  7. 移動体検出装置と情報提供装置とを有する移動体検出システムであって、
    前記移動体検出装置は、
    撮影画像を取得する取得部と、
    前記撮影画像の解像度を変更したマルチスケールの複数の画像を生成する画像生成部と、
    前記マルチスケールの各画像に対して複数位置に順次探索窓を設定する設定部と、
    前記設定部が設定した探索窓内の画像の特徴量を計算する特徴算出部と、
    前記特徴算出部が算出した前記特徴量に基づいて前記探索窓内の画像の移動体らしさを示す尤度を算出する尤度算出部と、
    前記設定部が複数位置に設定した探索窓内の画像から前記尤度算出部が算出した複数の尤度に基づいて前記画像生成部が生成した複数の画像ごとに尤度分布を生成する尤度分布生成部と、
    移動体の画像領域近傍の尤度分布モデルを格納する格納部と、
    前記尤度分布生成部が生成した前記複数の尤度分布から最も尤度のピークが大きい尤度分布を選択し、当該尤度分布の尤度のピーク近傍の尤度分布と、前記尤度分布モデルとを比較して前記撮影画像内における移動体を検出する検出部と、
    前記検出部による移動体の検出結果に基づく車両情報を前記情報提供装置へ出力する出力部と、を備え、
    前記情報提供装置は、
    前記移動体検出装置から取得した移動体の検出結果に基づく車両情報を報知する報知手段を備える、
    移動体検出システム。
  8. 撮影画像を取得し、
    前記撮影画像の解像度を変更したマルチスケールの複数の画像を生成し、
    前記マルチスケールの各画像に対して複数位置に順次探索窓を設定し、
    前記設定された探索窓内の画像の特徴量を計算し、
    前記計算した前記特徴量に基づき、前記探索窓内の画像の移動体らしさを示す尤度を算出し、
    前記複数位置に設定した探索窓内の画像から算出した複数の尤度に基づいて前記生成したマルチスケールの複数の画像ごとに尤度分布を生成し、
    前記生成した前記複数の尤度分布から最も尤度のピークが大きい尤度分布を選択し、当該尤度分布の尤度のピーク近傍の尤度分布と、移動体の画像領域近傍の尤度分布モデルとを比較して前記撮影画像内における移動体を検出する、
    移動体検出方法。
JP2012128200A 2012-06-05 2012-06-05 移動体検出装置、移動体検出システム、および、移動体検出方法 Active JP5917303B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012128200A JP5917303B2 (ja) 2012-06-05 2012-06-05 移動体検出装置、移動体検出システム、および、移動体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012128200A JP5917303B2 (ja) 2012-06-05 2012-06-05 移動体検出装置、移動体検出システム、および、移動体検出方法

Publications (2)

Publication Number Publication Date
JP2013254262A JP2013254262A (ja) 2013-12-19
JP5917303B2 true JP5917303B2 (ja) 2016-05-11

Family

ID=49951735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012128200A Active JP5917303B2 (ja) 2012-06-05 2012-06-05 移動体検出装置、移動体検出システム、および、移動体検出方法

Country Status (1)

Country Link
JP (1) JP5917303B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6340228B2 (ja) * 2014-03-27 2018-06-06 株式会社メガチップス 物体検出装置
KR102474837B1 (ko) * 2015-09-14 2022-12-07 주식회사 한화 전경 추출 방법 및 장치
JP2017167870A (ja) * 2016-03-17 2017-09-21 セコム株式会社 飛行物体監視システム及び飛行物体監視装置
WO2018051459A1 (ja) * 2016-09-15 2018-03-22 三菱電機株式会社 物体検出装置および物体検出方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5128339B2 (ja) * 2007-09-11 2013-01-23 株式会社日立製作所 交通流計測システム
JP5290227B2 (ja) * 2010-03-30 2013-09-18 セコム株式会社 対象物検知装置及びその学習装置
JP5597454B2 (ja) * 2010-06-17 2014-10-01 東芝テリー株式会社 異常走行車両検出システムおよび道路監視プログラム
WO2012046426A1 (ja) * 2010-10-06 2012-04-12 日本電気株式会社 物体検出装置、物体検出方法および物体検出プログラム

Also Published As

Publication number Publication date
JP2013254262A (ja) 2013-12-19

Similar Documents

Publication Publication Date Title
US9704040B2 (en) Image processing apparatus for dividing an image based on markers, method thereof and program therefor
US9129524B2 (en) Method of determining parking lot occupancy from digital camera images
US11450114B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
US9489586B2 (en) Traffic sign recognizing apparatus and operating method thereof
JP6406241B2 (ja) 情報処理システム、情報処理方法及びプログラム
CN107431762B (zh) 图像处理设备、图像处理方法以及图像处理系统
KR101708547B1 (ko) 사상(事象) 검출 장치 및 사상 검출 방법
US20180151063A1 (en) Real-time detection system for parked vehicles
KR101716646B1 (ko) 국부이진패턴을 이용한 객체 검출 인식 방법 및 장치
CN110738150B (zh) 相机联动抓拍方法、装置以及计算机存储介质
WO2017171659A1 (en) Signal light detection
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP5917303B2 (ja) 移動体検出装置、移動体検出システム、および、移動体検出方法
CN110782433A (zh) 基于时序的动态信息暴力抛物检测方法、装置及存储介质
KR101355201B1 (ko) 시-공간적 특징벡터 기반의 차량인식을 활용한 불법 주정차 단속 시스템 및 단속방법
JP2020013206A (ja) 動画・カメラからの二輪車検知装置、プログラム及びシステム
CN110225236B (zh) 为视频监控系统配置参数的方法、装置和视频监控系统
JP2021051470A (ja) 対象追跡手段の切り替えが可能な対象追跡プログラム、装置及び方法
JP5780979B2 (ja) 車両状態検出装置、車両挙動検出装置及び車両状態検出方法
CN113177917B (zh) 一种抓拍图像优选方法、系统、设备及介质
JP6384167B2 (ja) 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム
CN111241918B (zh) 一种基于人脸识别的车用防跟踪方法及系统
KR101154350B1 (ko) 고해상도 영상의 객체 검지 및 분할 인식을 이용한 다중 영상처리시스템 및 방법
CN115909219A (zh) 一种基于视频分析的场景变更检测方法与系统
KR101766467B1 (ko) 이벤트 발생 알림 장치, 이벤트 발생 알림 방법, 및 이벤트 발생 판단 모델 제공 방법

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160406

R151 Written notification of patent or utility model registration

Ref document number: 5917303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151