JP6595375B2 - 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム - Google Patents

交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム Download PDF

Info

Publication number
JP6595375B2
JP6595375B2 JP2016046609A JP2016046609A JP6595375B2 JP 6595375 B2 JP6595375 B2 JP 6595375B2 JP 2016046609 A JP2016046609 A JP 2016046609A JP 2016046609 A JP2016046609 A JP 2016046609A JP 6595375 B2 JP6595375 B2 JP 6595375B2
Authority
JP
Japan
Prior art keywords
image
unit
information
inter
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016046609A
Other languages
English (en)
Other versions
JP2017163374A (ja
Inventor
譲 秦
茂 門田
ウィドド アリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2016046609A priority Critical patent/JP6595375B2/ja
Publication of JP2017163374A publication Critical patent/JP2017163374A/ja
Application granted granted Critical
Publication of JP6595375B2 publication Critical patent/JP6595375B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、道路上の所定領域を撮像する撮像装置から入力される入力画像に基づき、当該所定領域における交通状況に係り、道路上を移動する少なくとも1つの物体の行動を解析するための交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラムに関する。
従来、交差点などの道路上の交通流の監視・分析手法としては、人が現場に出張して目視によって、通行体種別層別、通行状況(停止、不停止、通行場所等)層別、通行軌跡パターンや通行数量などの観測層別を行う手法が知られている。
このような交通流の監視・分析手法と関連して、定点カメラにより撮像された道路上の交通流動画像を用いて、画像処理を施すことによって当該画像から車両等の領域を自動的に抽出する手法も提案されている(例えば特許文献1)。
特開2015−90679号公報
従来の目視による交通流の監視・分析手法は、作業員が現場へ出張する必要があることや、実時間にわたる監視が必要であることなどの工数過多や、膨大な画像データから車両や歩行者などの行動(例えば一時停止行動など)を取得・監視するなどの作業困難性、作業可否が天候に左右されるなどの問題がある。このような作業負荷を軽減するため、目視の代わりに画像処理手法などを適用して交通流の解析などを自動化できることが望ましい。
しかしながら、従来の目視による交通流の監視・分析手法では、道路上に混在する自動車、二輪車、歩行者などの複数種の対象物を個体判別でき、個々の対象物ごとに通行軌跡や通行速度などの推移を監視することが求められている。特許文献1などに記載される従来の画像処理手法では、このようなニーズを実現するためには更なる改善の余地がある。
本発明はこのような課題に鑑みてなされたものであり、その目的は、道路上の所定領域を撮像する撮像装置から入力される入力画像に基づき、当該所定領域における交通状況に係り、道路上を移動する物体の行動を精度良く推定できる交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラムを提供することにある。
上記課題を解決するために、本発明に係る交通状況解析装置(1)は、道路上の所定領域を撮像する撮像装置(5)から入力される入力画像(It)と、前記所定領域の背景情報に係る背景画像(BGt−1)との差分である背景差分画像(BDt)を算出する背景差分算出部(21)と、前記背景差分算出部により算出された前記背景差分画像から、前記道路上の所定領域における交通状況に係り、前記道路上を移動する少なくとも1つの物体(M[k])の識別情報及び動きベクトルを算出する物体検知部(3)と、前記物体検知部により検知された前記物体の前記識別情報及び前記動きベクトルの情報に基づき、前記道路上の所定領域における前記識別情報をもつ前記物体の行動を推定する行動理解部(4)と、前記入力画像と時間差のある少なくとも1つの時間差入力画像(It−1,It−2)と、前記入力画像と、の差分であるフレーム間差分画像(FDt)を算出するフレーム間差分算出部(22)と、を具備する。前記行動理解部は、前記物体検知部により検知された前記物体の前記識別情報及び前記動きベクトルの情報に基づき、前記物体の走行速度を算出する速度算出部(41)と、前記フレーム間差分算出部により算出された前記フレーム間差分画像に含まれる停止領域の情報に基づき、前記物体検知部により検知された前記物体が完全に停止している完全停止状態であるか否かを判定する完全停止判定部(42)と、前記完全停止判定部による前記物体の完全停止状態の判定結果と、前記速度算出部により算出された前記物体の走行速度情報とに基づいて、前記物体が走行中か、一時停止中か、または停止中かを判定する一時停止判定部(43)と、を備える。前記完全停止判定部は、前記フレーム間差分画像を二値化して、第1のピクセル値となる領域を前記物体の動きを検知できない前記停止領域として抽出し、第2のピクセル値となる領域を前記物体の動きを検知できる領域として抽出し、前記背景差分画像における前記物体の領域に対応する前記フレーム間差分画像の領域中の全てのピクセルが前記第1のピクセル値である場合に、前記物体が前記完全停止状態であると判定し、そうでない場合には前記物体が前記完全停止状態ではないと判定する。
上記構成により、背景差分画像を利用して物体検知処理を行うことによって、道路上に混在する自動車、二輪車、歩行者などの複数種の物体を、移動中のもののみならず一時停止中のものまで含めて精度良く入力画像から抽出して個体判別できる。さらに、動きベクトルなどの情報に基づき、個体判別した個々の物体ごとに行動を検知できる。これにより、道路上の所定領域を撮像する撮像装置から入力される入力画像に基づき、当該所定領域における交通状況に係り、道路上を移動する物体の行動を精度良く推定できる。
本発明によれば、道路上の所定領域を撮像する撮像装置から入力される入力画像に基づき、当該所定領域における交通状況に係り、道路上を移動する物体の行動を精度良く推定できる交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラムを提供することができる。
図1は、本発明の一実施形態に係る交通状況解析装置の一例としての交差点解析装置の概略構成を示すブロック図である。 図2は、本実施形態に係る交差点解析装置による入力画像の解析の一例を説明するための図である。 図3は、本実施形態に係る交差点解析装置による入力画像の解析の一例を説明するための図である。 図4は、本実施形態に係る交差点解析装置による入力画像の解析の一例を説明するための図である。 図5は、交差点解析装置の背景差分算出部により実施される処理を示すフローチャートである。 図6は、背景差分画像の作成過程を説明するための図である。 図7は、交差点解析装置のフレーム間差分算出部により実施される処理を示すフローチャートである。 図8は、フレーム間差分画像の作成過程を説明するための図である。 図9は、交差点解析装置の物体クラスタリング部により実施される処理を示すフローチャートである。 図10は、交差点解析装置の物体認識部により実施される処理を示すフローチャートである。 図11は、図10中のステップS402にて実施されるサブルーチン処理を示すフローチャートである。 図12は、図10中のステップS403にて実施されるサブルーチン処理を示すフローチャートである。 図13は、図10中のステップS404にて実施されるサブルーチン処理を示すフローチャートである。 図14は、図13中のステップS704にて実施される入力画像中の検索範囲の抽出手法を説明するための模式図である。 図15は、交差点解析装置の速度算出部により実施される処理を示すフローチャートである。 図16は、交差点解析装置の完全停止判定部により実施される処理を示すフローチャートである。 図17は、交差点解析装置の一時停止判定部により実施される処理を示すフローチャートである。
以下、添付図面を参照しながら本発明の実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
[実施形態]
本実施形態では、本発明に係る交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラムが交通状況を解析する道路上の所定領域として交差点を取り上げる。また、本実施形態では、本発明に係る交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラムの一例として、交差点の定点画像に基づき交差点周辺の交通状況を解析することができる交差点解析装置1を挙げて説明する。
[交差点解析装置1の概要]
図1に示すように、交差点解析装置1は、カメラ5(撮像装置)及びアプリケーション6と通信可能に接続される。交差点解析装置1は、カメラ5から交差点を撮像した入力画像Itが入力され、装置内部でこの入力画像Itから交差点の交通状況を解析して、アプリケーション6に出力することができる。ここで、「交通状況」とは、例えば、入力画像It中に存在する解析対象の物体M[k](kは画像中の物体数に応じた引数)の行動A[k]や、各物体の走行位置、走行速度、走行方向などの時間推移を含むことができる。解析対象の「物体M[k]」とは、移動可能な物体であり、例えば自動車、二輪車、歩行者などを含むものである。
また、各物体の行動A[k]とは、例えば、交差点において走行中、一時停止中、または停止中などの行動を含む。なお、ここで物体の行動の種類として「一時停止」と「停止」とを区分しているのは下記の理由による。すなわち、本実施形態における「停止」とは、対象物体が車速0の完全停止を継続している状態を含むのに対して、「一時停止」とは、対象物体が停止している状態に加えて、この停止状態の前後の最徐行の状態までを含ませるためである。
なお、本実施形態では時間推移を離散的に示し、現在の時点を符号tで表し、現時点から1ステップ前の時点を符号t−1で表し、現時点から2ステップ前の時点を符号t−2で表す。
従来、交差点では、例えば交差点入口の一時停止標識を点滅させて強調表示する構成など、交通流を適切に誘導させるためのシステムが導入され始めている。本実施形態の交差点解析装置1は、このようなシステムが導入された交差点の交通状況を自動で解析し、システム導入による効果を観測するために利用することができる。交差点解析装置1が交通状況データを出力するアプリケーション6としては、例えば、交通違反車両や違法駐車車両、または渋滞等の交通情報を検知・認識する交通流監視サービス、通行量自動算出や通行パターン推定などの交通流分析サービス、不審車検出などの異常検知・発見サービスなどが挙げられる。
図2〜図4を参照して、交差点解析装置1の動作の概略を説明する。図2〜図4は、一台の自動車M[1]が交差点を通過する際の自動車M[1]の一連の行動を示す図である。図2、図3、図4の順で時間が経過しており、図2は自動車M[1]が交差点まで進行している場面、図3は自動車M[1]が交差点進入時に一時停止している場面、図4は自動車M[1]が交差点に進入して左折している場面を示す。また、図2〜図4のそれぞれには、各場面における(A)入力画像Itと、交差点解析装置1によりこの入力画像Itから作成される(B)背景差分画像BDtと、が示されている。「背景差分画像BDt」とは、入力画像It中から移動している物体M[k]を抽出した画像であり、その詳細については図5及び図6を参照して後述する。
図2(A)に示すように自動車M[1]が交差点まで進行している場面において、交差点解析装置1が作成する背景差分画像BDt上では、図2(B)に示すように移動中の自動車M[1]のみが抽出されて表示されている。このとき、交差点解析装置1は、画像中に自動車M[1]が存在する領域を矩形状の枠体R1で囲んで単一の物体M[1]として認識すると共に、この物体M[1]の移動方向や移動量を表す動きベクトルV1を算出して表示する。この場面では、交差点解析装置1は、自動車M[1]の行動A[1]を「走行中」と解析することができる。
図3(A)に示すように自動車M[1]が交差点進入時に一時停止している場面において、交差点解析装置1が作成する背景差分画像BDtでは、図3(B)に示すように、一時停止中の自動車M[1]は、図2(B)と比較して移動量が少ないため相対的に薄く抽出されているが、図2の場面から引き続き共通の枠体R1が付されている。また、このとき自動車M[1]は瞬間的に停止状態にあり、動きベクトルV1は0であるため、図3(B)に表示されていない。さらに、この場面では、自動車M[1]と直交する道路を他の2台の自動車M[2],M[3]が通過しており、背景差分画像ではこれらの自動車M[2],M[3]が枠体R2,R3で囲われてそれぞれ別の物体として認識されており、走行速度と走行方向に応じた動きベクトルV2,V3が表示されている。この場面では、交差点解析装置1は、自動車M[1]の行動A[1]を「一時停止中」、自動車M[2],M[3]の行動A[2],A[3]をそれぞれ「走行中」と解析することができる。
図4(A)に示すように自動車M[1]が交差点に進入して左折している場面において、交差点解析装置1が作成する背景差分画像BDtでは、図4(B)に示すように、一時停止から走行しはじめた自動車M[1]は、図3(B)と比較して移動量が多くなったため相対的に濃く抽出されている。このとき、左折に応じて自動車M[1]の見え方が正面から斜め方向に変わっているが、図3の場面から引き続き共通の枠体R1が付されている。また、自動車M1の左折に伴って、動きベクトルV1も自動車M[1]の左折方向に向きが変更されて算出されている。この場面では、交差点解析装置1は、自動車M[1]の行動A[1]を「走行中」と解析することができる。
このように、交差点解析装置1は、カメラ5からの入力画像Itに基づき、交差点を含む所定領域中における少なくとも1つの物体M[k](自動車、二輪車、歩行者など)の一連の行動A[k](走行、一時停止、右左折など)を物体ごとに個別に自動的に検出することができる。また、交差点を通る物体M[k]の移動方向、移動速度、移動経路などの情報や、これらの時系列データも検出することができる。
[交差点解析装置1の構成]
図1に示すように、交差点解析装置1は、特徴量抽出部2と、物体検知部3と、行動理解部4とを具備する。
特徴量抽出部2は、カメラ5により撮像された入力画像Itから、交通状況を判別するための特徴量を抽出する。特徴量抽出部2は、抽出した特徴量を物体検知部3及び行動理解部4に出力する。本実施形態では、この特徴量として後述する「背景差分画像BDt」と「フレーム間差分画像FDt」とが適用されている。
物体検知部3は、特徴量抽出部2により抽出された特徴量に基づいて、入力画像Itから交通状況に係る対象である物体M[k]を検知する。物体検知部3は、検知した物体M[k]に関する物体情報(位置情報、動きベクトル情報など)を行動理解部4に出力する。
行動理解部4は、特徴量抽出部2により抽出された特徴量と、物体検知部3により検知された各物体M[k]の物体情報とに基づいて、各物体M[k]の行動A[k](走行中、一時停止、停止中)を個別に判別する。なお、行動理解部4は、物体M[k]の行動A[k]に係るデータをアプリケーション6へ逐次出力する構成でもよいし、時系列データとして内部に保存し、この時系列データを適宜アプリ―ケーション6へ提供する構成でもよい。
以下、特徴量抽出部2、物体検知部3、行動理解部4の各部の詳細について説明する。
特徴量抽出部2は、背景差分算出部21と、フレーム間差分算出部22と、背景画像データベース(以下「DB」と表記する)23と、過去画像DB24と、を備える。
背景差分算出部21は、カメラ5から入力される入力画像Itと、背景画像DB23に保存されている背景画像BGt−1とを用いて背景差分画像BDtを算出する。背景差分画像BDtの詳細については図5及び図6を参照して後述する。
フレーム間差分算出部22は、カメラ5から入力される入力画像Itと、過去画像DB24に保存されている過去画像It−1,It−2とを用いてフレーム間差分画像FDtを算出する。フレーム間差分画像FDtの詳細については図7及び図8を参照して後述する。
背景画像DB23は、背景差分画像BDtの算出に用いる背景画像BGt−1を保存する記憶装置である。背景画像BGt−1は、カメラ5が撮像する入力画像Itのうち、移動物体が除外され基本的に静止物のみからなる画像である。背景画像DB23に保存される背景画像BGt−1は、背景差分算出部21により逐次更新される。
過去画像DB24は、フレーム間差分画像FDtの算出に用いる過去画像It−1,It−2を保存する記憶装置である。過去画像は、過去の時点においてカメラ5が撮像した入力画像であり、本実施形態では、直近の過去2ステップ分(時刻t−1、t−2)の入力画像It−1,It−2である。過去画像DB24に保存される過去画像は、カメラ5から新たに入力画像Itが入力される度にフレーム間差分算出部22により逐次更新される。
物体検知部3は、物体クラスタリング部31と、物体認識部32と、物体辞書DB33と、過去物体辞書DB34と、を備える。
物体クラスタリング部31は、背景差分算出部21により算出された背景差分画像BDtを用いて、背景差分画像BDtから物体M[k]を抽出する。物体クラスタリング部31は、背景差分画像BDtから動きベクトル(オプティカルフロー)を算出し、同一方向、長さの動きベクトルを同一物体としてクラスタリング化することによって物体M[k]を抽出する。物体クラスタリング部31の物体抽出手法の詳細については図9を参照して後述する。
物体認識部32は、物体クラスタリング部31により背景差分画像BDtから抽出された各物体M[k]について、物体辞書DB33及び過去物体辞書DB34を参照して過去に認識された物体N[L]か、または新規に認識された物体かを判別して、各物体M[k]に識別情報を付加する。物体認識部32は、照合した各物体M[k]に関する物体情報を行動理解部4に出力する。ここで、「物体情報」とは、例えば以下の情報を含むことができる。
・位置情報(例えば図14のように枠体Rの左上の頂点の位置座標と枠体Rの縦横幅)
・識別情報
・種別情報(例えば物体辞書DB34に登録しているテンプレートの種別)
・移動ベクトル(長さ、方向)
物体認識部32の物体認識手法の詳細については図10〜図14を参照して後述する。
物体辞書DB33は、対象物体の種別を判別するためのテンプレートを保存する記憶装置である。物体辞書DB33は、例えば車両辞書33A、歩行者辞書33B、二輪車辞書33Cなどの、物体の種別ごとに複数の辞書情報を備える構成とすることができる(図12参照)。物体辞書DB33に保存される各種テンプレートは、例えば以下の情報を含むことができる。
・種別情報
・サイズ情報(縦幅a、横幅b)
・特徴量情報(例えば後述するHOG)
また、物体辞書DB33の各種辞書33A,33B,33Cは、同一種別の物体について、さまざまな方向から視たときの画像上の形態を示す複数のテンプレートも含むことができる。
過去物体辞書DB34は、物体認識部32により過去に認識された物体(以下「過去物体」という)N[L](Lは過去物体の数に対応する引数)の情報を保存する記憶装置である。過去物体辞書DB34は、各過去物体N[L]の各種情報を関連付けて保存している。過去物体N[L]の情報とは、例えば以下の情報を含むことができる。
・識別情報
・種別情報
・画面上の位置情報(例えば図14のように枠体Rの左上の頂点の位置座標と枠体Rの縦横幅A,B)
・特徴量情報(例えば後述するHOG)
過去物体辞書DB34に保存されている情報は、物体認識部32により逐次追加、更新、または削除が行われる。
行動理解部4は、速度算出部41と、完全停止判定部42と、一時停止判定部43と、停止履歴DB44と、交通状況データ作成部45と、を備える。
速度算出部41は、物体認識部32により認識された入力画像It中の各物体M[k]について動きベクトルに基づき移動速度を算出する。速度算出部41の処理の詳細については図15を参照して後述する。
完全停止判定部42は、フレーム間差分算出部22により算出されたフレーム間差分画像FDtに基づいて、物体認識部32により認識された入力画像It中の各物体M[k]が完全停止状態か否かを判定する。ここで、「完全停止状態」とは、例えば、該当物体M[k]が、フレーム間差分画像FDtの算出に用いる時刻t、t−1、t−2の期間において全く移動していない状態、と定義することができる。完全停止判定部42の処理の詳細については図16を参照して後述する。
一時停止判定部43は、入力画像It中の各物体M[k]について、速度算出部41により算出された移動速度の情報と、完全停止判定部42による完全停止か否かの判定結果とに基づいて、各物体M[k]が一時停止中か否かを判定する。より詳細には、一時停止判定部43は、入力画像It中の各物体M[k]の現時点tにおける行動A[k]が、「一時停止中」、「走行中」、または「停止中」のいずれに該当するかを判定する。ここで、「停止中」とは上記の「完全停止状態」と同様に該当物体が複数ステップに亘り停止を継続している状態を含む。「一時停止中」とは、上記の停止中には該当しないが、物体の速度が一時的に0になっている状態や、停止状態から徐行し始めた状態を含む。「走行中」とは、上記の停止中や一時停止中に該当しない状態を含む。一時停止判定部43の処理の詳細については図17を参照して後述する。
停止履歴DB44は、過去のステップにおいて一時停止判定部43により停止中と判定された物体の情報を保存する記憶装置である。
交通状況データ作成部45は、速度算出部41から入力される各物体M[k]に関する各種情報(位置情報、識別情報、種別情報、移動ベクトル、速度情報)や、一時停止判定部43から入力される各物体M[k]の行動情報A[k]に基づいて、交差点の交通状況データを作成する。交通状況データ作成部45が作成する交通状況データは、例えば、入力画像It中の各物体M[k]の行動A[k]や、位置、速度、方向などの情報を逐次出力する形式でもよいし、これらの情報を蓄積して時系列データとして出力する形式でもよい。
交差点解析装置1は、物理的には、CPU(Central Processing Unit)、RAM(Random Access Memory)及びROM(Read Only Memory)などを有するコンピュータである。上述した交差点解析装置1の各機能の全部または一部(特に背景差分算出部21の機能に関する背景差分算出機能、物体検知部3の機能に関する物体検知機能、行動理解部4に関する行動理解機能など)は、ROMに保持されるアプリケーションプログラムをRAMにロードしてCPUで実行することによって、RAMやROMにおけるデータの読み出し及び書き込みを行うことで実現される。
また、上記のアプリケーションプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、MO、DVD、および、Blu−ray Disc(登録商標)等の任意の「可搬用の物理媒体」を含むものとする。また、アプリケーションプログラムは、交差点解析装置1に対して任意のネットワークを介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
[交差点解析装置1の動作]
以下、交差点解析装置1の各部の具体的な処理について説明する。
[背景差分算出部21]
背景差分算出部21は、カメラ5から入力画像Itが入力され、この入力画像Itに基づいて背景差分画像BDtを作成して物体検知部3に出力する。背景差分算出部21における具体的な処理について図5のフローチャートに従って説明する。
ステップS101では、カメラ5により撮像された入力画像Itが取得される。背景差分算出部21は、カメラ5からリアルタイムで入力画像Itを受信する構成でもよいし、カメラ5が録画した動画データの各フレームを入力画像Itとして順次入力する構成でもよい。ステップS101の処理が完了するとステップS102に進む。
ステップS102では、背景画像DB23から背景画像BGt−1が読み出される。「背景画像」とは、入力画像Itに含まれる静止物(例えば背景や固定物など基本的に移動しないもの)を含む画像である。背景画像BGt−1は、前回の処理時点t−1の処理の際に、後述するステップS104において算出されたものである。ステップS102の処理が完了するとステップS103に進む。
ステップS103では、入力画像It及び背景画像BGt−1から背景差分画像BDtが算出される。背景差分算出部21は、例えば図6に示すように、入力画像Itから背景画像BGt−1の情報を除外することによって背景差分画像BDtを算出することができる。上述のとおり背景画像BGt−1には入力画像Itの静止物に関する情報が含まれるので、背景差分画像BDtは、入力画像Itから静止物に関する情報を除外され、道路上を移動する物体を切り出した画像となる。図6の例では、背景差分画像BDtは、入力画像Itのうち道路上にて一時停止している1台の自動車M[1]と、道路上を走行する2台の自動車M[2],M[3]とが抽出された画像となっている。背景差分算出部21は、算出した背景差分画像BDtの情報を物体クラスタリング部31に出力する。ステップS103の処理が完了するとステップS104に進む。
ステップS104では、入力画像Itを用いて背景画像BGt−1が更新される。背景差分算出部21は、例えば下記の(1)式を用いて背景画像BGt−1を更新する。
BGt=(1−β)・BGt-1+β・It ・・・(1)
ここで、BGtは時刻t(今回の処理時点)における背景画像、BGt-1は時刻t−1(今回の処理より1ステップ前の時点)における背景画像、Itは時刻tにおける入力画像、βは更新係数(例えば0.015)を表す。このように、背景画像BGt,BGt−1は過去及び現在の入力画像の加重平均であるので、図6の背景画像BGt−1にも示すように、静止物のみならず一時停止中の自動車(例えば図6の自動車M[1])などの移動物体の情報の一部も含む、入力画像Itの長期的な特徴を含むものとなる。したがって、背景画像BGt−1により算出される背景差分画像BDtも、入力画像Itの長期的な特徴を反映させたものとなる。背景差分算出部21は、更新した背景画像BGtを背景画像DB23に保存する。ステップS104の処理が完了すると本制御フローを終了する。
[フレーム間差分算出部22]
フレーム間差分算出部22は、カメラから入力画像Itが入力され、この入力画像Itを用いてフレーム間差分画像FDtを作成し、行動理解部4に出力する。フレーム間差分算出部22における具体的な処理について図7のフローチャートに従って説明する。
ステップS201では、カメラ5により撮像された入力画像Itが取得される。フレーム間差分算出部22は、背景差分算出部21と同様に、カメラ5からリアルタイムで入力画像Itを受信する構成でもよいし、カメラ5が録画した動画データの各フレームを入力画像Itとして順次入力する構成でもよい。ステップS201の処理が完了するとステップS202に進む。
ステップS202では、過去画像DB24から時刻t−1及び時刻t−2の入力画像It−1,It−2が読み出される。入力画像It−1,It−2は、今回の処理時点tより1ステップ前及び2ステップ前における入力画像である。ステップS202の処理が完了するとステップS203に進む。
ステップS203では、ステップS201及びS202で取得された3つの入力画像It,It−1,It−2からフレーム間差分画像FDtが算出される。フレーム間差分算出部22は、例えば図8に示すように、まず、入力画像Itと入力画像It−1との差分画像D1と、入力画像It−1と入力画像It−2との差分画像D2とを算出する。次に、これらの差分画像D1と差分画像D2との共通部分(AND)がフレーム間差分画像FDtとして算出される。このように、フレーム間差分画像FDtは、時系列の3フレームの画像から差分情報を抽出したものであり、フレーム間の変化量を安定的に抽出できる。
フレーム間差分画像FDtは、入力画像Itから短期的な特徴(例えばフレーム間で瞬間的に動いている物体)を抽出した画像である点で、入力画像Itの長期的な特徴を反映させている上記の背景差分画像BDtとは異なるものである。例えば、図8のフレーム間差分画像FDtを図6の背景差分画像BDtと比較すると、入力画像において一時停止している自動車M[1]は、背景差分画像BDtでは抽出されて視認できるが、フレーム間差分画像FDtでは抽出されず視認できない。フレーム間差分算出部22は、算出したフレーム間差分画像FDtの情報を、行動理解部4の完全停止判定部42に出力する。ステップS203の処理が完了するとステップS204に進む。
ステップS204では、入力画像Itを用いて過去画像DB24に記憶されている過去画像が更新される。フレーム間差分算出部22は、現在の入力画像It−1を入力画像It−2として過去画像DB24に記憶し直し、また、現在の入力画像Itを入力画像It−1として過去画像DB24に記憶することにより、過去画像DB24の過去画像を更新する。ステップS204の処理が完了すると本制御フローを終了する。
なお、フレーム間差分算出部22がフレーム間差分画像FDtの作成に用いる入力画像の過去画像は、本実施形態の直近の2ステップ分(入力画像It−1,It−2)に限らず、直近の3ステップ分以上でもよいし、または、相互に所定ステップ分を開けた複数のステップの入力画像を用いることもできる。
[物体クラスタリング部31]
物体クラスタリング部31は、背景差分算出部21から背景差分画像BDtが入力され、この背景差分画像BDtの中から物体M[k]を抽出する。物体クラスタリング部31における具体的な処理について図9を参照して説明する。
ステップS301では、時刻t及び時刻t−1の背景差分画像BDt,BDt−1が取得される。背景差分画像BDtは、上述のとおり、現在時点tの制御フローにおいて特徴量抽出部2の背景差分算出部21により算出されて物体クラスタリング部31に入力される。背景差分画像BDt−1は、例えば物体クラスタリング部31が前回の処理の際に保存しておくことができる。ステップS301の処理が完了するとステップS302に進む。
ステップS302では、ステップS301にて取得された時刻tと時刻t−1の背景差分画像BDt,BDt−1から動きベクトル(オプティカルフロー)が算出される。動きベクトルは、連続画像における物体の特徴点(例えばコーナー点など)の移動量と移動方位をベクトルの長さ及び方向として表したものである。動きベクトルは、例えばブロックマッチング法や、勾配法などの周知の手法により算出することができる。ステップS302の処理が完了するとステップS303に進む。
ステップS303では、ステップS302にて算出された動きベクトル群のうち、ベクトル長さが0より大きく、かつ、N以下のものが消去される。この範囲の長さの動きベクトルは、物体の移動を示すものよりもノイズの可能性が高いため、以降のクラスタリングの邪魔になるノイズ成分を予め除去しておくために本ステップの処理が行われる。ステップS303の処理が完了するとステップS304に進む。
ステップS304では、ステップS303にてノイズ成分が除去された動きベクトル群から、同じ方向と長さをもつ動きベクトル群が、同一の物体M[k]としてクラスタリング化される。ステップS304の処理が完了するとステップS305に進む。
ステップS305では、ステップS304にてクラスタリング化されたベクトル群が含まれる領域に、物体M[k]を包含する枠体が作成される。この枠体は、例えば図2〜図4に示した矩形状の枠体R1,R2,R3である。枠体のサイズ(縦横幅)は、動きベクトルの始点となるピクセルの配置などによって適宜決定される。物体クラスタリング部31は、このように作成した枠体の画像内の位置に応じて該当する物体M[k]の位置情報を作成することができる。位置情報は、例えば矩形上の枠体の左上の頂点の位置座標と、枠体の縦横幅とを含むことができる。ステップS305の処理が完了するとステップS306に進む。
ステップS306では、ステップS305にて作成された枠体のそれぞれにおいて、枠体内の動きベクトルの方向と長さが平均化される。物体クラスタリング部31は、このように平均化した動きベクトルを、該当する物体M[k]の動きベクトルとすることができる。この動きベクトルは、例えば図2〜図4に示した矢印V1,V2,V3である。物体クラスタリング部31は、ステップS305で算出した位置情報と、ステップS306にて算出した動きベクトルとを纏めて、物体M[k]に関する物体情報として物体認識部32に出力する。ステップS306の処理が完了すると本制御フローを終了する。
[物体認識部32]
物体認識部32は、物体クラスタリング部31から入力される背景差分画像BDtと、その画像中の物体の位置情報とに基づき、各物体に識別情報を付与して出力する。物体認識部32における具体的な処理について図10のフローチャートに従って説明する。
ステップS401では、クラスタリング化された物体M[k]の情報が物体クラスタリング部31から取得される。ステップS401の処理が完了するとステップS402に進む。
ステップS402では、ステップS401にて取得された物体M[k]について、過去に検知した物体情報による認識が実施される。本ステップの具体的な処理は、図11に示すサブルーチン処理におけるステップS501〜S508である。
ステップS501では、ステップS401にて取得された物体の中から1つの物体候補M[k](k=0〜Z)が選択される。ステップS501の処理が完了するとステップS502に進む。
ステップS502では、過去物体辞書DB34に登録されている過去物体の情報が読み込まれる。ステップS502の処理が完了するとステップS503に進む。
ステップS503では、ステップS502にて読み込まれた過去物体から1つの過去物体N[L](L=0〜Y)が選択される。ステップS503の処理が完了するとステップS504に進む。
ステップS504では、ステップS501にて選択された物体候補M[k]と、ステップS503で選択された過去物体N[L]とが照合される。物体認識部32は、例えば、以下の手順で物体候補M[k]と過去物体N[L]との照合を行うことができる。まず、物体候補M[k]の枠体の領域の画像から特徴量としてHOG(Histogram of Oriented Gradient:局所領域の輝度勾配方向のヒストグラム)を算出する。次に、算出した物体候補M[k]のHOGと、過去物体N[L]のHOGとの類似度を計算する。なお、過去物体N[L]のHOGの情報は、例えば過去物体辞書DB34に記憶されている。そして、物体候補M[k]と過去物体N[L]とのHOGの類似度が所定値以上となる場合に、物体候補M[k]と過去物体N[L]とが一致していると判定する。なお、上記の照合手法の詳細については、例えば特開2014−112358号公報、または、特開2015−15014号公報に記載されている。ステップS504の処理が完了するとステップS505に進む。
ステップS505では、ステップS504の照合の結果、物体候補M[k]と過去物体N[L]とが一致するか否かが判定される。物体候補M[k]と過去物体N[L]とが不一致の場合(ステップS505のNo)には、ステップS506に進む。物体候補M[k]と過去物体N[L]とが一致する場合(ステップS505のYes)には、ステップS507に進む。
ステップS506では、過去物体N[L]の引数Lに1が加算される。Lが所定の上限値Yを超えるまでは、ステップS503に戻り、新たに過去物体が選択されてステップS505以降の処理が繰り返される。Lが所定の上限値Yを超えた場合にはメインフローに戻り、ステップS403に進む。
ステップS507では、ステップS505の判定の結果、現在選択されている物体候補M[k]が過去物体N[L]と一致するので、この物体候補M[k]に過去物体N[L]の識別情報が付加される。ステップS507の処理が完了するとステップS508に進む。
ステップS508では、ステップS507にて識別情報が付加された物体候補M[k]を用いて、過去物体辞書DB34が更新される。物体認識部32は、物体候補M[k]の位置情報や動きベクトルなどの情報に基づき、過去物体辞書DB34に記憶されている過去物体N[L]の情報を更新する。ステップS508の処理が完了すると、後述する新規物体認識処理(図12参照)のステップS606に進む。
図10に戻り、ステップS403では、ステップS402にて選択された物体候補M[k]と一致する過去物体N[L]が見つからなかった場合に、この物体候補M[k]が過去物体辞書DB34に記憶されていない新規の物体とみなし、物体辞書DB33を参照して新規の物体の種別を特定する新規物体認識処理が実施される。本ステップの具体的な処理は、図12に示すサブルーチン処理におけるステップS601A〜S606である。
ステップS601〜S603では、対象の物体M[k]が物体辞書DB33に記憶されているテンプレートと照合され、物体M[k]の種別が判定される。物体辞書DB33は、物体の種別ごとに個別のデータベースを有する構成とすることができ、本実施形態では図12に示すように、車両辞書33A、歩行者辞書33B、及び二輪車辞書33Cを有する。車両辞書33A、歩行者辞書33B、及び二輪車辞書33Cは、それぞれ車両、歩行者、二輪車のさまざまな形状や色彩を表す複数のテンプレートを記憶している。本実施形態では、各辞書33A,33B,33Cに応じて、各物体M[k]の照合用画像を生成し、辞書のテンプレートと比較して、物体M[k]の種別を判別する。このような照合用画像とテンプレートとの照合処理は、例えば図12に示すように各辞書33A,33B,33Cごとに並列に行ってもよいし、順番に1つずつ行ってもよい。図12では、車両辞書33A、歩行者辞書33B、二輪車辞書33Cのそれぞれを用いた照合処理について、符号に添字A,B,Cを付加して表している。以下では、これらの個別の処理を纏めて説明する。
ステップS601(S601A,S601B,S601C)では、背景差分画像における物体の領域を使用して、照合用画像が生成される。
ステップS601における照合用画像の生成手順は、例えば以下の(i)〜(v)である。
(i)クラスタリング化した物体の枠体Rの部分の画像(クラスタリング画像)の縦横幅(A,B)を求める(図14参照)。
(ii)照合対象辞書(車両辞書33A、歩行者辞書33B、二輪車辞書33Cのいずれか)からテンプレートの縦横幅(a,b)を求める。
(iii)枠体Rとテンプレートの縦幅比率Δa=A/a及び横幅比率Δb=B/bを算出する。
(iv)縦幅比率及び横幅比率の平均値Δc=(Δa+Δb)/2を算出する。
(v)クラスタリング画像の縦横幅を、下記の(2)式によりΔcで正規化する
A´=m×Δc×A
B´=m×Δc×B ・・・(2)
ここで、mは、正規化画像を複数サイズにするための係数であり、本実施形態ではm=0.8,0.9,1.0,1.1,1.2である。したがって、サイズの異なる5種類の照合用画像が生成される。ステップS601の処理が完了するとステップS602に進む。
ステップS602(S602A,S602B,S602C)では、ステップS601にて生成された5種類の照合用画像と、照合対象辞書(車両辞書33A、歩行者辞書33B、二輪車辞書33Cのいずれか1つ)の各テンプレートとが照合される。本ステップの照合手法は、ステップS504と同様であり、照合用画像のHOGとテンプレートのHOGとの類似度に基づき、両画像の一致を判定する。ステップS602の処理が完了するとステップS603に進む。
ステップS603(S603A,S603B,S603C)では、ステップS602の照合の結果、照合用画像とテンプレートと一致したか否かが判定される。判定の結果、照合用画像と一致するテンプレートがあった場合(ステップS603のYes)にはステップS604に進む。照合用画像と一致するテンプレートがなかった場合(ステップS603のNo)にはステップS606に進む。
ステップS604では、照合対象辞書に特徴量HOGが一致するテンプレートがあった物体M[k]に、新規の識別情報が付加される。ステップS604の処理が完了するとステップS605に進む。
ステップS605では、過去物体辞書DB34へ新規に作成された物体M[k]の情報が書き込まれる。物体認識部32は、物体の識別情報に、テンプレートに応じた物体の種別(車両、歩行者、二輪車など)の情報や、特徴量HOGの情報、位置情報などを関連付けて過去物体辞書DB34に登録することができる。ステップS605の処理が完了するとステップS606に進む。
ステップS606では、物体候補M[k]の符号Kに1が加算される。Kが所定の上限値Zを超えるまでは、ステップS402のサブルーチン処理におけるステップS501に戻り、新たに物体候補が選択されてステップS502以降の処理が繰り返される。Kが所定の上限値Zを超えた場合にはメインフローに戻り、ステップS404に進む。
ステップS404では、過去物体辞書DB34に記憶されている過去の物体情報について見落とし有無認識が実施される。本ステップの具体的な処理は、図13に示すサブルーチン処理におけるステップS701〜S710である。
ステップS701では、過去物体辞書DB34に登録されている過去物体の情報が読み込まれる。ステップS701の処理が完了するとステップS702に進む。
ステップS702では、ステップS701にて読み込まれた過去物体から1つの過去物体N[L](L=0〜Y)が選択される。ステップS702の処理が完了するとステップS703に進む。
ステップS703では、ステップS702にて選択された過去物体N[L]が、時刻tに更新又は追加されたか否かが判定される。言い換えると、物体認識部32は、今回の制御フローにおいて、上述のステップS402の「過去に検知した物体情報による認識」処理にて過去物体辞書DB34が更新されているか、または、ステップS403の「新規物体認識」処理にて過去物体辞書DB34に新たな物体情報が追加されているかを判定する。ステップS703の判定の結果、選択された過去物体N[L]が時刻tに更新又は追加されている場合には(ステップS703のYes)ステップS710に進む。
一方、選択された過去物体N[L]が時刻tに更新も追加もされていない場合には(ステップS703のNo)、当該過去物体N[L]が今回の制御フローにおいて入力画像Itから抽出されなかった状態であるので、この過去物体N[L]を見落としたか否かが判定される。
まずステップS704では、入力画像It中の過去物体N[L]の位置周辺の画像が、過去物体N[L]と照合される。言い換えると、入力画像Itにおいて、過去物体N[L]の位置に相当する領域の画像と、過去物体N[L]とが照合される。
本ステップではまず、過去物体辞書DB34に記憶されている、選択された過去物体N[L]の位置情報に基づき、入力画像It上においてこの位置情報に該当する位置とその周辺を含む検索範囲Sが抽出される。入力画像Itからの検索範囲Sの抽出手法の一例について、図14を参照して説明する。図14に示すように、過去物体N[L]の位置情報(X,Y)[pxl]と、枠体Rの縦横幅(A,B)[pxl]に基づき、入力画像Itにおいて過去物体N[L]に相当する領域Pが選択される。次に、この領域Pを上下方向にそれぞれA/2[pxl]ずつ拡張し、かつ、左右方向にそれぞれB/2[pxl]ずつ拡張して、検索範囲Sが算出される。
次に、このように入力画像Itから抽出された検索範囲S内の画像が過去物体N[L]と照合される。本ステップにおける照合手法は、ステップS504,S602と同様であり、照合用画像のHOGとテンプレートのHOGとの類似度に基づき、両画像の一致を判定する。より詳細には、検索範囲S内の各ピクセルのHOG分布が算出され、この検索範囲SのHOG分布の中に、選択されている過去物体N[L]のHOG分布と合致する部分があるか否かが照合される。ステップS704の処理が完了するとステップS705に進む。
ステップS705では、ステップS704の照合の結果、入力画像の検索範囲Sに、過去物体辞書DB34に記憶されている過去物体N[L]と一致する部分があるか否かが判定される。検索範囲Sに過去物体N[L]と一致する部分がある場合(ステップS705のYes)にはステップS706に進む。一方、検索範囲Sに過去物体N[L]と一致する部分が無い場合(ステップS705のNo)にはステップS707に進む。
ステップS706では、ステップS705の判定の結果、現在選択されている過去物体N[L]が入力画像Itに存在しており、背景差分画像BDtからの物体抽出過程(ステップS402,S403)で漏れていたものとみなして、過去物体辞書DB34が更新される。ステップS706の処理が完了するとステップS710に進む。
ステップS707では、ステップS705の判定の結果、現在選択されている過去物体N[L]が入力画像Itに存在していないものとみなして、所定の変数Δtに1が加算される。Δtは、初期値が0であり、各回の制御フローのステップS705において不一致の判定がされる度に1ずつ増加する変数である。ステップS707の処理が完了するとステップS708に進む。
ステップS708では、Δtが一致時間Tmaxを超えた(Δt>Tmax)か否かが判定される。ΔtがTmaxを超えた場合(S708のYes)にはステップS709に進み、そうでない場合(S708のNo)にはステップS710に進む。
ステップS709では、ステップS708の判定の結果、現在選択されている過去物体N[L]は、過去の所定時間Tmaxに亘り入力画像Itに存在しない状態であるので、対象の過去物体が入力画像Itの枠外へ既に移動したものとみなして、この過去物体N[L]の情報が過去物体辞書DB34から削除される。ステップS709の処理が完了するとステップS710に進む。
ステップS710では、過去物体N[L]の変数Lに1が加算される。Lが所定の上限値Yを超えるまでは、ステップS702に戻り、新たに過去物体N[L]が選択されてステップS703以降の処理が繰り返される。Lが所定の上限値Yを超えた場合にはメインフローに戻る。
物体認識部32は、このように処理が施された入力画像It中の各物体の物体情報について行動理解部4の速度算出部41及び完全停止判定部42に出力する。ステップS404の処理が完了すると本制御フローを終了する。
[速度算出部41]
速度算出部41は、物体認識部32から入力画像It中の各物体の物体情報を入力され、これらの情報に基づいて各物体の移動速度を算出する。速度算出部41における具体的な処理について図15を参照して説明する。
ステップS801では、物体認識部32から物体の識別情報と位置情報、動きベクトルの情報が取得される。ステップS801の処理が完了するとステップS802に進む。
ステップS802では、ステップS801にて取得された各物体の動きベクトルの長さA[pxl]がA´[m]に変換される。この変換は、例えばルックアップテーブルや変換式を利用して行うことができる。ステップS802の処理が完了するとステップS803に進む。
ステップS803では、ステップS802にて算出された各物体のベクトル長さ[m]を用いて、フレームレートcに音付き物体の移動速度B[m/s]が算出される。速度算出部41は、このように算出した物体の速度情報を、物体の枠情報と紐付けて一時停止判定部に出力する。また、速度算出部41は、各物体の速度情報、位置情報、識別情報などを纏めて交通状況データ作成部45にも出力する。ステップS803の処理が完了すると本制御フローを終了する。
[完全停止判定部42]
完全停止判定部42は、物体認識部32から入力画像It中の各物体の物体情報を入力され、また、特徴量抽出部2のフレーム間差分算出部22からフレーム間差分画像FDtが入力され、これらの情報に基づいて、入力画像Itの中の各物体のそれぞれが完全停止状態か否かを判定する。完全停止判定部42の具体的な処理について図16を参照して説明する。
ステップS901では、フレーム間差分算出部22により算出されたフレーム間差分画像FDtが取得される。ステップS901の処理が完了するとステップS902に進む。
ステップS902では、ステップS901にて取得したフレーム間差分画像FDtが二値化される。画像の二値化の方法としては、例えば大津法などの周知の手法を用いることができる。この二値化処理によって、フレーム間差分画像FDtの中で物体の動きがある領域のピクセルの値を「1」、動きが無い領域のピクセルの値を「0」になる。ステップS902の処理が完了するとステップS903に進む。
ステップS903では、物体認識部32から物体の識別情報と位置情報が取得される。ステップS903の処理が完了するとステップS904に進む。
ステップS904では、ステップS903にて取得された物体から1つの物体M[k](k=0〜Z)が選択される。ステップS904の処理が完了するとステップS905に進む。
ステップS905では、フレーム間差分画像FDtから物体の領域中のピクセル値が抽出される。完全停止判定部42は、選択されている物体M[k]の位置情報に基づき、フレーム間差分画像FDtにおいてこの物体の位置情報に対応する領域を選択し、この選択された領域内のピクセル値を求める。ステップS905の処理が完了するとステップS906に進む。
ステップS906では、ステップS905で抽出された全てのピクセル値が0か否かが判定される。全てのピクセル値が0である場合には(ステップS906のYes)、ステップS907に進み、そうでない場合には(ステップS906のNo)、ステップS908に進む。
ステップS907では、ステップS906の判定の結果、物体の存在領域に該当するフレーム間差分画像FDtの領域の全てのピクセル値が0であるので、該当領域において物体の動きが無いものとみなし、該当物体M[k]は完全停止状態であると判定される。ステップS907の処理が完了するとステップS909に進む。
ステップS908では、ステップS906の判定の結果、物体の存在領域に該当するフレーム間差分画像FDtの領域のピクセル値の少なくとも一部が0ではないので、該当領域において物体の動きが有るものとみなし、該当物体は完全停止状態ではないと判定される。ステップS908の処理が完了するとステップS909に進む。
ステップS909では、該当物体の引数kに1が加算される。kが所定の上限値Zを超えるまでは、ステップS904に戻り、新たに物体が選択されてステップS905〜S908の処理が繰り返される。kが所定の上限値Zを超えた場合には本制御フローを終了する。
完全停止判定部42は、このように算出した入力画像It中の各物体M[k]についての完全停止状態か否かの情報を、一時停止判定部43に出力する。
[一時停止判定部43]
一時停止判定部43は、速度算出部41から入力画像It中の各物体M[k]の物体情報や速度情報が入力され、また、完全停止判定部42から各物体M[k]の完全停止状態か否かに関する情報が入力され、これらの情報に基づき、各物体M[k]の行動A[k]を出力する。一時停止判定部43における具体的な処理について図17を参照して説明する。
ステップS1001では、完全停止判定部42から各物体M[k]の完全停止有無の情報が取得される。ステップS1001の処理が完了するとステップS1002に進む。
ステップS1002では、速度算出部41から各物体M[k]の速度情報などの物体情報が取得される。ステップS1001の処理が完了するとステップS1002に進む。
ステップS1003では、ステップS1002にて取得された物体から1つの物体M[k](k=0〜Z)が選択される。ステップS1003の処理が完了するとステップS1004に進む。
ステップ1004では、該当物体M[k]について、速度が0[m/s]であり、かつ、完全停止状態であるか否かが判定される。一時停止判定部43は、速度算出部41により算出された物体の移動速度情報に基づいて速度が0[m/s]であるか否かを判別し、また、完全停止判定部42による判定結果に基づき完全停止状態か否かを判別できる。ステップS1004の判定の結果、両条件を満たす場合(ステップS1004のYes)には、該当物体M[k]は停止中と判定され(S1005)、該当物体M[k]の情報が停止履歴DB44に記録されて(S1006)、ステップS1011に進む。
一方、ステップS1004の判定の結果、両条件の少なくとも一方を満たさない場合(ステップS1004のNo)には、該当物体M[k]は停止中とは判断されず、停止履歴DB44から前ステップ(t−1)の停止中物体の情報が読み出され(S1007)、ステップS1008に進む。
ステップS1008では、時刻t−1において該当物体M[k]は停止中だったか否かが判定される。一時停止判定部43は、例えば現在選択されている物体M[k]の識別情報を用いて、この物体が停止履歴DB44に記録されていたか否かを判定する。そして、この物体が停止履歴DB44に記録されていた場合に、時刻t−1において該当物体M[k]は停止中だったと判定する。
ステップS1008の判定の結果、時刻t−1において該当物体M[k]が停止中だった場合(ステップS1008のYes)には、該当物体M[k]は現時点において完全停止状態ではないものの直前まで停止しており、未だ一時停止状態に含まれるとみなすことができるので、一時停止中と判定され(S1009)、ステップS1011に進む。
一方、ステップS1008の判定の結果、時刻t−1において該当物体M[k]は停止中ではなかった場合(ステップS1008のNo)には、該当物体M[k]は現時点において完全停止状態ではなく、さらに直前でも停止中ではなく、一時停止中または停止中とはみなすことができないので、該当物体は走行中と判定され(S1010)、ステップS1011に進む。
ステップS1011では、該当物体M[k]の引数kに1が加算される。kが所定の上限値Zを超えるまでは、ステップS1003に戻り、新たに物体が選択されてステップS1004〜S1010の処理が繰り返される。kが所定の上限値Zを超えた場合には本制御フローを終了する。
[交差点解析装置1の効果]
次に、本実施形態に係る交差点解析装置1の効果について説明する。本実施形態の交差点解析装置1は、交差点を撮像するカメラ5から入力される入力画像Itと、交差点の背景情報に係る背景画像BGt−1との差分である背景差分画像BDtを算出する背景差分算出部21と、背景差分算出部21により算出された背景差分画像BDtから、交差点における交通状況に係り、交差点の道路上を移動する少なくとも1つの物体M[k]の識別情報及び動きベクトルを算出する物体検知部3と、物体検知部3により検知された物体M[k]の識別情報及び前記動きベクトルの情報に基づき、交差点における識別情報をもつ物体M[k]の行動A[k]を推定する行動理解部4と、を具備する。
上述のとおり、入力画像Itから算出される背景差分画像BDtは、入力画像Itの長期的な特徴(静止物、一時停止中の自動車など移動物体の一部)が反映された画像であるので、この背景差分画像BDtを利用して物体検知処理を行うことにより、交差点に混在する自動車、二輪車、歩行者などの複数種の物体M[k]を、移動中のもののみならず一時停止中のものまで含めて精度良く入力画像Itから抽出して個体判別できる。さらに、動きベクトルなどの情報に基づき、個体判別した個々の物体M[k]ごとに行動A[k]を検知できる。これにより、交差点を撮像するカメラ5から入力される入力画像Itに基づき、当該交差点における交通状況に係り、道路上を移動する物体M[k]の行動A[k]を精度良く推定できる。この結果、従来の目視による交通流の監視・分析手法を、交差点などで設置されている監視カメラから道路上での交通状況などを自動で解析する手法に置き換えることが可能となり、作業負担を大幅に改善できる。
また、本実施形態の交差点解析装置1は、入力画像Itと時間差のある2つの時間差入力画像It−1,It−2と、入力画像Itと、の差分であるフレーム間差分画像FDtを算出するフレーム間差分算出部22、を具備する。行動理解部4は、物体検知部3により検知された物体M[k]の識別情報及び動きベクトルの情報に基づき、物体M[k]の走行速度を算出する速度算出部41と、フレーム間差分算出部22により算出されたフレーム間差分画像FDtに含まれる停止領域の情報に基づき、物体検知部3により検知された物体M[k]が完全に停止している完全停止状態であるか否かを判定する完全停止判定部42と、完全停止判定部42による物体M[k]の完全停止状態の判定結果と、速度算出部41により算出された物体M[k]の走行速度情報とに基づいて、物体M[k]が走行中か、一時停止中か、または停止中かを判定する一時停止判定部43と、を備える。
上述のとおり、複数の時間差入力画像It,It−1,It−2から算出されるフレーム間差分画像FDtは、入力画像Itから短期的な特徴(例えばフレーム間で瞬間的に動いている物体)を抽出した画像であるので、フレーム間差分画像FDtを利用すれば、入力画像It内の物体M[k]が完全停止状態であるか否かを高精度に判別できる。このため、上記の背景差分画像BDtによる物体検知に加えて、フレーム間差分画像FDtに基づく物体の停止判定処理を併用することにより、物体M[k]の行動A[k]の推定精度を向上できる。
また、本実施形態の交差点解析装置1において、完全停止判定部42は、フレーム間差分画像FDtを二値化して、ピクセル値が0(第1のピクセル値)となる領域を物体M[k]の動きを検知できない停止領域として抽出し、ピクセル値が1(第2のピクセル値)となる領域を物体M[k]の動きを検知できる領域として抽出する。完全停止判定部42は、背景差分画像BDtにおける物体M[k]の領域に対応するフレーム間差分画像FDtの領域中の全てのピクセルのピクセル値が0である場合に、物体M[k]が完全停止状態であると判定し、そうでない場合には物体M[k]が完全停止状態ではないと判定する。
この構成により、フレーム間差分画像FDtを二値化することで、フレーム間差分画像内の停止領域とそれ以外の領域とを明確に区分することができる。そして、このように区分された領域と物体の領域とを照合することにより、物体が完全停止状態か否かの判定を迅速に行うことができる。
また、本実施形態の交差点解析装置1において、一時停止判定部43は、速度算出部41により算出された物体M[k]の走行速度が0[m/s]であり、かつ、完全停止判定部42により物体M[k]が完全停止状態と判定されたとき、物体M[k]の行動A[k]が「停止中」であると判定し、物体M[k]が停止中であるとの情報を停止履歴として停止履歴DB44に記録する。
この構成により、速度算出部41により算出された物体M[k]の走行速度が0[m/s]であっても、完全停止判定部42により物体M[k]が完全停止状態と判定されない場合には、該当物体は停止中とは判定されない。物体M[k]の走行速度の算出に用いる背景差分画像BDtは、(1)式のように背景画像BGtを過去のすべての入力画像の加重平均により作成しているため、直近の複数の入力画像のみを用いて作成されるフレーム間差分画像FDtと比較して相対的にノイズ成分の割合が高くなる傾向がある。このため、完全停止判定部42による物体M[k]の完全停止状態判定の結果は、速度算出部41により算出された物体M[k]の走行速度より相対的に信頼度が高いと考えられる。そこで、上記のように、速度算出部41により算出された物体M[k]の走行速度が0[m/s]であっても、完全停止判定部42により物体M[k]が完全停止状態と判定されない場合には、該当物体は停止中とは判定しないようにすることで、物体の行動の誤検知を低減させることができる。
また、本実施形態の交差点解析装置1において、一時停止判定部43は、物体M[k]が停止中ではないと判定したとき、停止履歴DB44を参照して1ステップ前において物体M[k]が停止中であった場合には物体M[k]の行動A[k]が「一時停止中」であると判定し、1ステップ前において物体M[k]が停止中でなかった場合には物体M[k]の行動A[k]が「走行中」であると判定する。
この構成により、一時停止判定部43が物体M[k]の行動A[k]として「停止中」、「一時停止中」、「走行中」の3パターンを判定できる。
また、本実施形態の交差点解析装置1において、物体検知部3は、背景差分算出部21により算出された背景差分画像BDtから、複数の所定部分の動きベクトルを算出し、複数の動きベクトルのうち同じ方向と長さをもつ動きベクトルを含む領域を、交差点の道路上を移動する同一物体M[k]の領域として抽出する物体クラスタリング部31と、物体クラスタリング部31により抽出された各物体M[k]について、過去に検知した物体N[L]に関する履歴を参照して識別情報を付与する物体認識部32と、を備える。
この構成により、物体検知部3が入力画像It中から物体M[k]を抽出する処理と、抽出した物体の個体判別処理とを好適に行うことができる。
以上、具体例を参照しつつ本発明の実施の形態について説明した。しかし、本発明はこれらの具体例に限定されるものではない。すなわち、これら具体例に、当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、前述した各具体例が備える各要素及びその配置、材料、条件、形状、サイズなどは、例示したものに限定されるわけではなく適宜変更することができる。また、前述した各実施の形態が備える各要素は、技術的に可能な限りにおいて組み合わせることができ、これらを組み合わせたものも本発明の特徴を含む限り本発明の範囲に包含される。
上記実施形態では、交差点の定点画像に基づき交差点周辺の交通状況を解析することができる交差点解析装置1を例示したが、本発明に係る交通状況解析装置が交通状況を解析する道路上の所定領域は交差点に限られず、道路上の任意の所定領域を対象とすることができる。
1:交差点解析装置(交通状況解析装置)
2:特徴量抽出部
21:背景差分算出部
22:フレーム間差分算出部
3:物体検知部
31:物体クラスタリング部
32:物体認識部
4:行動理解部
41:速度算出部
42:完全停止判定部
43:一時停止判定部
5:カメラ(撮像装置)
It:入力画像
BGt−1,BGt:背景画像
BDt:背景差分画像
FDt:フレーム間差分画像
M[k]:物体

Claims (5)

  1. 道路上の所定領域を撮像する撮像装置(5)から入力される入力画像(It)と、前記所定領域の背景情報に係る背景画像(BGt−1)との差分である背景差分画像(BDt)を算出する背景差分算出部(21)と、
    前記背景差分算出部により算出された前記背景差分画像から、前記道路上の所定領域における交通状況に係り、前記道路上を移動する少なくとも1つの物体(M[k])の識別情報及び動きベクトルを算出する物体検知部(3)と、
    前記物体検知部により検知された前記物体の前記識別情報及び前記動きベクトルの情報に基づき、前記道路上の所定領域における前記識別情報をもつ前記物体の行動を推定する行動理解部(4)と、
    前記入力画像と時間差のある少なくとも1つの時間差入力画像(It−1,It−2)と、前記入力画像と、の差分であるフレーム間差分画像(FDt)を算出するフレーム間差分算出部(22)と、を具備し、
    前記行動理解部は、
    前記物体検知部により検知された前記物体の前記識別情報及び前記動きベクトルの情報に基づき、前記物体の走行速度を算出する速度算出部(41)と、
    前記フレーム間差分算出部により算出された前記フレーム間差分画像に含まれる停止領域の情報に基づき、前記物体検知部により検知された前記物体が完全に停止している完全停止状態であるか否かを判定する完全停止判定部(42)と、
    前記完全停止判定部による前記物体の完全停止状態の判定結果と、前記速度算出部により算出された前記物体の走行速度情報とに基づいて、前記物体が走行中か、一時停止中か、または停止中かを判定する一時停止判定部(43)と、を備え、
    前記完全停止判定部は、
    前記フレーム間差分画像を二値化して、第1のピクセル値となる領域を前記物体の動きを検知できない前記停止領域として抽出し、第2のピクセル値となる領域を前記物体の動きを検知できる領域として抽出し、
    前記背景差分画像における前記物体の領域に対応する前記フレーム間差分画像の領域中の全てのピクセルが前記第1のピクセル値である場合に、前記物体が前記完全停止状態であると判定し、そうでない場合には前記物体が前記完全停止状態ではないと判定する、交通状況解析装置(1)。
  2. 前記一時停止判定部は、
    前記速度算出部により算出された前記物体の走行速度が0[m/s]であり、かつ、前記完全停止判定部により前記物体が完全停止状態と判定されたとき、前記物体が停止中であると判定し、前記物体が停止中であるとの情報を停止履歴として記録する、
    請求項に記載の交通状況解析装置。
  3. 前記一時停止判定部は、
    前記物体が停止中ではないと判定したとき、前記停止履歴を参照して1ステップ前において前記物体が停止中であった場合には前記物体が一時停止中と判定し、1ステップ前において前記物体が停止中でなかった場合には前記物体が走行中と判定する、
    請求項に記載の交通状況解析装置。
  4. 前記物体検知部は、
    前記背景差分算出部により算出された前記背景差分画像から、複数の所定部分の動きベクトルを算出し、前記複数の動きベクトルのうち同じ方向と長さをもつ動きベクトルを含む領域を、道路上を移動する同一物体の領域として抽出する物体クラスタリング部(31)と、
    前記物体クラスタリング部により抽出された各物体について、過去に検知した物体に関する履歴を参照して前記識別情報を付与する物体認識部(32)と、
    を備える、請求項1〜のいずれか1項に記載の交通状況解析装置。
  5. 交差点を撮像する撮像装置から入力される入力画像に基づいて、
    前記交差点における交通状況に係り、前記交差点の道路上を移動する少なくとも1つの物体の行動を推定する、
    請求項1〜のいずれか1項に記載の交通状況解析装置。
JP2016046609A 2016-03-10 2016-03-10 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム Expired - Fee Related JP6595375B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016046609A JP6595375B2 (ja) 2016-03-10 2016-03-10 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016046609A JP6595375B2 (ja) 2016-03-10 2016-03-10 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム

Publications (2)

Publication Number Publication Date
JP2017163374A JP2017163374A (ja) 2017-09-14
JP6595375B2 true JP6595375B2 (ja) 2019-10-23

Family

ID=59854195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016046609A Expired - Fee Related JP6595375B2 (ja) 2016-03-10 2016-03-10 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム

Country Status (1)

Country Link
JP (1) JP6595375B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020240851A1 (ja) * 2019-05-31 2020-12-03 ニューラルポケット株式会社 システム、方法、又はプログラム
JP7238738B2 (ja) * 2019-11-19 2023-03-14 トヨタ自動車株式会社 画像処理システム、処理装置、中継装置及びプログラム
KR102359902B1 (ko) 2020-04-17 2022-02-09 (주)더아이엠씨 빅데이터 및 인공지능 기반 교차로 서비스수준 예측방법, 그리고 이를 포함하는 저장매체
JP7379268B2 (ja) * 2020-05-14 2023-11-14 日立Astemo株式会社 画像処理装置
JP7074161B2 (ja) * 2020-07-07 2022-05-24 フジテック株式会社 画像処理装置および画像処理方法
KR102645892B1 (ko) * 2021-06-16 2024-03-11 주식회사 인찬 어린이 보호 구역 안전 표지판 장치
GB2622770A (en) * 2022-09-20 2024-04-03 Thales Holdings Uk Plc Image processor

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06180749A (ja) * 1992-12-14 1994-06-28 Toyota Motor Corp 路上物体監視装置
JP3892059B2 (ja) * 1995-03-07 2007-03-14 松下電器産業株式会社 動物体追跡装置
JP4480299B2 (ja) * 2001-06-21 2010-06-16 富士通マイクロエレクトロニクス株式会社 移動体を含む画像の処理方法及び装置
JP5556748B2 (ja) * 2011-06-21 2014-07-23 株式会社デンソー 車両状態検出装置
JP5848665B2 (ja) * 2012-05-15 2016-01-27 日本電信電話株式会社 移動物体上動きベクトル検出装置、移動物体上動きベクトル検出方法、およびプログラム
US9008359B2 (en) * 2012-06-28 2015-04-14 International Business Machines Corporation Detection of static object on thoroughfare crossings

Also Published As

Publication number Publication date
JP2017163374A (ja) 2017-09-14

Similar Documents

Publication Publication Date Title
JP6595375B2 (ja) 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム
US11840239B2 (en) Multiple exposure event determination
CN110619279B (zh) 一种基于跟踪的路面交通标志实例分割方法
CN110781711A (zh) 目标对象识别方法、装置、电子设备及存储介质
CN113033604A (zh) 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质
CN110675637A (zh) 车辆违法视频的处理方法、装置、计算机设备及存储介质
JP5931662B2 (ja) 道路状況監視装置、及び道路状況監視方法
CN111274926B (zh) 图像数据筛选方法、装置、计算机设备和存储介质
Hakim et al. Implementation of an image processing based smart parking system using Haar-Cascade method
Lisanti et al. A multi-camera image processing and visualization system for train safety assessment
CN113515968A (zh) 街道的异常事件检测方法、装置、设备及介质
Gupta et al. Computer vision based animal collision avoidance framework for autonomous vehicles
Kejriwal et al. Vehicle detection and counting using deep learning basedYOLO and deep SORT algorithm for urban traffic management system
CN115165398A (zh) 车辆的行驶功能测试方法、装置、计算设备及介质
Guerrieri et al. Real-time social distance measurement and face mask detection in public transportation systems during the COVID-19 pandemic and post-pandemic Era: Theoretical approach and case study in Italy
Al Nasim et al. An automated approach for the recognition of bengali license plates
Jiao et al. Traffic behavior recognition from traffic videos under occlusion condition: a Kalman filter approach
Kiew et al. Vehicle route tracking system based on vehicle registration number recognition using template matching algorithm
Ham et al. Investigating the influential factors for practical application of multi-class vehicle detection for images from unmanned aerial vehicle using deep learning models
Martin et al. Object of fixation estimation by joint analysis of gaze and object dynamics
CN114693722B (zh) 一种车辆行驶行为检测方法、检测装置及检测设备
CN116310748A (zh) 一种自动驾驶场景恢复及自动驾驶原型测试方法和系统
CN115775372A (zh) 车辆上下客的识别方法、终端设备以及存储介质
CN116052189A (zh) 一种文本识别方法、系统和存储介质
Ahmed et al. Real-time road occupancy and traffic measurements using unmanned aerial vehicle and fundamental traffic flow diagrams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190926

R150 Certificate of patent or registration of utility model

Ref document number: 6595375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees