JP2009104232A - 車種判別装置 - Google Patents
車種判別装置 Download PDFInfo
- Publication number
- JP2009104232A JP2009104232A JP2007272858A JP2007272858A JP2009104232A JP 2009104232 A JP2009104232 A JP 2009104232A JP 2007272858 A JP2007272858 A JP 2007272858A JP 2007272858 A JP2007272858 A JP 2007272858A JP 2009104232 A JP2009104232 A JP 2009104232A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- projection plane
- unit
- image
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】車両の車種をより正確に判別する車種判別装置を提供する。
【解決手段】車両10の車種を判別する車種判別装置1であって、車両10を撮像するカメラ11及びレーザレーダ12と、カメラ11及びレーザレーダ12の撮像方向と異なる方向から車両10が撮像された場合の投影面PAを設定する投影面推定部13と、カメラ11及びレーザレーダ12により撮像された撮像画像を、投影面推定部13により設定された投影面PAに投影して、撮像画像を変換する画像変換部14と、画像変換部14により変換されたフレームを複数蓄積する画像蓄積部15と、画像蓄積部15により蓄積された複数のフレームに基づいて車両10のシルエットを検出して車種を判別するシルエット抽出部16と、を備える。
【選択図】図1
【解決手段】車両10の車種を判別する車種判別装置1であって、車両10を撮像するカメラ11及びレーザレーダ12と、カメラ11及びレーザレーダ12の撮像方向と異なる方向から車両10が撮像された場合の投影面PAを設定する投影面推定部13と、カメラ11及びレーザレーダ12により撮像された撮像画像を、投影面推定部13により設定された投影面PAに投影して、撮像画像を変換する画像変換部14と、画像変換部14により変換されたフレームを複数蓄積する画像蓄積部15と、画像蓄積部15により蓄積された複数のフレームに基づいて車両10のシルエットを検出して車種を判別するシルエット抽出部16と、を備える。
【選択図】図1
Description
本発明は、車両の車種を判別する車種判別装置に関する。
従来、道路などにカメラを設置し、カメラで得られた画像に基づいて車両を認識する技術が提案されている。例えば、特許文献1には、2台のカメラにより道路を撮像して、各カメラからの画像上の特徴点を用いた三次元計測処理を行い、得られた各三次元座標を、道路の長さ方向に沿う仮想垂直平面に投影して、さらにこの投影結果に対し、大型車輌のフロントガラス部分の投影モデルを走査してマッチング処理を行い、大型車輌の先頭位置を検出する技術が開示されている。
特開平11−259792号公報
特許文献1に記載の技術では、ステレオ法を用いた複数のカメラによる撮像の場合、その内の一のカメラが遮蔽物の存在によって撮影できないために特徴点までの距離が計測できないことから車種をより正確に判別できないおそれがある。また、特許文献1に記載の技術では、レーダによる撮像の場合、平面計測には好適だが、高分解能の空間計測を行うためには複数のレーダまたは走査可能なレーダが必要となるために車載が困難であることから車種をより正確に判別できないおそれがある。
そこで本発明は、車両の車種をより正確に判別する車種判別装置を提供することを目的とする。
すなわち、本発明に係る車種判別装置は、車両の車種を判別する車種判別装置であって、車両を撮像する撮像手段と、撮像手段の撮像方向と異なる方向から車両が撮像された場合の投影面を設定する設定手段と、撮像手段により撮像された撮像画像を、設定手段により設定された投影面に投影して、撮像画像を変換する変換手段と、変換手段により変換された変換画像を複数蓄積する蓄積手段と、蓄積手段により蓄積された複数の変換画像に基づいて車両の車体領域を検出して車種を判別する判別手段と、を備えることを特徴とする。
本発明では、撮像手段により撮像された撮像画像を、設定手段により設定された投影面に変換手段が投影して、撮像画像を変換し、変換された変換画像を蓄積手段が複数蓄積する。そして、蓄積手段により蓄積された複数の変換画像に基づいて、車両の車体領域を判別手段が検出して車種を判別する。このように、共通の投影面に投影された複数の変換画像に基づいて車体領域を検出しているため、車体領域に関する事前情報を必要とせずに車体領域を検出して、車両の車種をより正確に判別できるようになる。
また、撮像手段は、互いに異なる複数の視点から車両を撮像し、設定手段は、撮像手段により撮像された複数の撮像画像に基づいて、車両との距離が最短となる面を投影面として設定するのも好ましい。
これにより、互いに異なる複数の視点から車両が撮像手段により撮像され、撮像された複数の撮像画像に基づいて、車両との距離が最短となる面が設定手段により投影面として設定される。このように、設定手段が設定した投影面は、車両との距離が最短であるため、この投影面に投影されて変換された変換画像に基づいて車体領域を検出する際、より精度よく検出できるようになる。
また、判別手段は、蓄積手段により蓄積された複数の変換画像において共通する領域を車体領域として検出するのも好ましい。
これにより、蓄積手段により蓄積された複数の変換画像において共通する領域が、判別手段により車体領域として検出される。このため、車両が移動中であっても、判別手段は、変換画像において共通しない領域を車体領域以外として検出するとともに、変換画像において共通する領域を車体領域として容易に検出することができるようになる。
また、蓄積手段により蓄積された複数の変換画像において一致する領域が所定面積以上になるように第二の投影面を設定する第二設定手段と、撮像手段により撮像された撮像画像を、第二設定手段により設定された第二投影面に投影して、撮像画像を変換する第二変換手段と、を更に備え、判別手段は、第二変換手段により変換された第二変換画像に基づいて車両の車体領域を検出して車種を判別するのも好ましい。
これにより、複数の変換画像において一致する領域が所定面積以上になるように第二の投影面が第二設定手段により設定され、撮像手段により撮像された撮像画像が第二変換手段により第二投影面に投影されて撮像画像が変換される。そして、判別手段が、第二変換手段により変換された第二変換画像に基づいて車両の車体領域を検出して車種を判別する。このように、複数の変換画像において一致する領域が所定面積以上であるため、車体領域に関する事前情報を必要とせずに車体領域をより正確に検出して、車両の車種をより正確に判別できるようになる。
本発明によれば、車両の車種をより正確に判別する車種判別装置を提供することが可能である。
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を附し、重複する説明は省略する。
(1)第一実施形態
まず、図1を用いて、本発明の第一実施形態に係る車種判別装置1の構成について説明する。図1は、第一実施形態に係る車種判別装置1の構成概略図である。車種判別装置1は、車道などを走行する自動車などの車両を撮像して得られた画像に基づいて、その車両の車種を判別するための装置である。第一実施形態に係る車種判別装置1は、カメラ11(撮像手段)と、レーザレーダ12(撮像手段及び設定手段)と、投影面推定部13(設定手段)と、画像変換部14(変換手段)と、画像蓄積部15(蓄積手段)と、シルエット抽出部16(判別手段)と、を備えている。
まず、図1を用いて、本発明の第一実施形態に係る車種判別装置1の構成について説明する。図1は、第一実施形態に係る車種判別装置1の構成概略図である。車種判別装置1は、車道などを走行する自動車などの車両を撮像して得られた画像に基づいて、その車両の車種を判別するための装置である。第一実施形態に係る車種判別装置1は、カメラ11(撮像手段)と、レーザレーダ12(撮像手段及び設定手段)と、投影面推定部13(設定手段)と、画像変換部14(変換手段)と、画像蓄積部15(蓄積手段)と、シルエット抽出部16(判別手段)と、を備えている。
カメラ11は、上記した車両を撮像する撮像機器である。カメラ11は、例えば、道路近傍に設置された電柱などの支柱の所定の高さ位置で、道路を走行する車両に向けて設置される。カメラ11を複数設置してもよく、この場合、これら複数のカメラ11は、互いに異なる複数の視点から上記の車両を三次元撮像する。カメラ11は、このような撮像機器であれば特に限定されず、例えばCCDカメラなどでもよい。
レーザレーダ12は、レーザ光を用いて上記した車両の形状を計測するレーダである。レーザレーダ12は、例えば、カメラ11と同じ位置及び方向で設置される。レーザレーダ12を複数設置してもよく、この場合、これら複数のレーザレーダ12は、互いに異なる複数の視点から上記の車両の形状を計測する。
投影面推定部13は、カメラ11の撮像方向と異なる方向から上記した車両が撮像される(即ち、車両の像が投影される)と仮定した場合における、仮想の投影面を設定する部分である。この投影面としては、通常、車両の一側面に平行な面が設定されるが、車両の前面(即ち正面)や後面(即ち背面)に平行な面が設定されてもよい。投影面推定部13の機能は、例えば、車両に内蔵されたECUにより実現される。
なお、上記したように、カメラ11が複数設置された場合、投影面推定部13は、複数のカメラ11により撮像された複数の撮像画像に基づいて、上記の車両との距離が最短となる面を投影面として設定してもよい。また、投影面推定部13は、投影面を複数設定してもよく、設定した複数の投影面のうち一の投影面を設定してもよい。投影面の詳細については後述する。
画像変換部14は、上記の撮像画像が上記の投影面へ投影された結果生成される投影面上の画像に、撮像画像を変換する部分である。画像変換部14の機能は、例えば、車両に内蔵されたECUにより実現される。なお、画像変換部14は、カメラ11により撮像された撮像画像を用いずに、レーザレーダ12によって計測された車両の形状情報を用いて上記の変換処理を行ってもよい。
画像蓄積部15は、画像変換部14により変換された変換画像(即ち、フレーム)を複数蓄積して記憶する部分である。画像蓄積部15は、例えば、カメラ11によって撮像された時刻が異なる複数のフレームを蓄積してもよく、設置位置の異なる複数のカメラ11によって撮像された複数のフレームを蓄積してもよい。画像蓄積部15は、このような記憶が可能であれば特に限定されず、例えばRAMなどでもよい。
シルエット抽出部16は、画像蓄積部15により蓄積された複数のフレームに基づいて、上記の車両の車体領域(即ち、シルエット)を検出して、シルエットからこの車両の車種を判別する部分である。例えば、シルエット抽出部16は、画像蓄積部15により蓄積された複数のフレームにおいて共通する領域を上記のシルエットとして検出するとともに、共通しない領域を上記のシルエット以外の領域(例えば、車両の背景など)として検出する。シルエット抽出部16の機能は、例えば、車両に内蔵されたECUやRAMにより実現される。
引き続き、図2を用いて、レーザレーダ12が行う車両形状の計測処理について説明する。図2は、車両形状の計測処理が行われる様子を説明する鳥瞰図である。まず、図2(a)に示すように、レーザレーダ12が車両10に対してレーザ光を照射可能な範囲に照射することにより、車両10における複数の照射ポイントが定まる。ここでは、9つの照射ポイントP1〜P9が定まったとし、照射ポイントP1〜P6は車両10の側面に設定され、照射ポイントP6〜P9は車両10の前面に設定されたとする。
次に、図2(b)に示すように、画像変換部14が、上記の照射ポイントP1〜P6は略直線上に並んでいるとみなし、この直線L1を、車両10の側面を表す平面式として設定する。具体的には、画像変換部14が、照射ポイントP1〜P6(即ち、点列)の位置座標の平均μpと共分散行列Σpとを計算してから、共分散行列Σpの固有値λp,iとその固有ベクトルxp,iとを計算する。ただし、iは、固有値λp,iと固有ベクトルxp,iとのインデックスである。ここで、固有ベクトルxp,iは、おおよそ、車両10の側面の法線ベクトルとなっている。
また、車両10の側面、正面、背面の推定は、車両10の運動量と、車両10は一般的に進行方向に細長い形状を有する事実とから、固有値λp,iに基づいて画像変換部14により推定される。そして、推定した上記の法線ベクトルに基づいて、点列と最も一致する平面式が検出される。同様に、画像変換部14が、上記の照射ポイントP6〜P9は略直線上に並んでいるとみなし、この直線L2を、車両10の前面を表す平面式として設定する。ここで設定された平面式は、投影面推定部13による投影面の設定に用いられる。投影面の詳細については後述する。
引き続き、図3〜図5を用いて、画像変換部14が撮像画像を投影面へ投影する原理について説明する。図3は、撮像画像の投影面への投影原理を説明する鳥瞰図である。図4及び図5のそれぞれは、撮像画像を投影面へ投影して画像変換する前後の様子を示す図である。
まず、図3(a)に示すように、カメラ11の視点Vから車両10を撮像する場合において、撮像された撮像画像が撮像平面Paに形成されるとする。車両10は、投影面推定部13により略直方体とみなされ、このため、図3に示される平面図において略長方形で示されるとみなされる。このとき、この長方形の頂点である車両頂点A1〜A3のそれぞれは、撮像平面Paにおける頂点である撮像頂点a1〜a3に対応している。また、上記の直線L1に基づいて投影面推定部13により車両10の側面を含む投影面PAが設定され、この投影面PAに平行な、視点Vからの直線と撮像平面Paとの交点a0が定まる。
ここで、撮像平面Pa上の撮像画像を投影面PAへ投影するために、図3に示す平面において、車両頂点及びこれに対応する撮像頂点を結ぶ線分と投影面PAとの交点が求められ、この交点が投影後の頂点である投影頂点となる。具体的には、例えば、車両頂点A3及び撮像頂点a3を結ぶ線分と投影面PAとの交点T3が求められ、この交点が投影頂点T3となる。
同様に、車両頂点A1及び撮像頂点a1を結ぶ線分と投影面PAとの交点である投影頂点T1が求められるとともに、車両頂点A2及び撮像頂点a2を結ぶ線分と投影面PAとの交点である投影頂点T2が求められる。ここで、車両頂点A1は投影面PA上にあるため、車両頂点A1は投影頂点T1と重なる。同様に、車両頂点A2は投影面PA上にあるため、車両頂点A2は投影頂点T2と重なる。
上記したような原理により、図4(a)の撮像画像が、図4(b)のように投影面へ投影される。なお、このような原理に基づいて行列を用いて投影画像を求める方法の詳細については後述する。
次に、図3(b)に示すように、図3(a)の状態から所定時間経過後に車両10が所定距離進んだ状態でも撮像が行われ、上記したような原理で投影が行われたとする。なお、図3(a)における撮像頂点a1〜a3のそれぞれが、図3(b)における撮像頂点b1〜b3に対応する。これにより、図5に示すように、撮像画像が投影面へ投影される。
ここで、図3(a)における投影結果と図3(b)における投影結果とを比較する。図4及び図5も併せて示すように、投影面PAにおける車両10の側面のシルエットの長さDAは、図3(a)の場合と図3(b)の場合とで略同じ長さである。同様に、投影面PAにおける車両10の側面のシルエットの長さDAは、車両10の側面は同じ平面上にあるため、図4(b)の場合と図5(b)の場合とで略同じ長さである。
一方、図3(a)及び図4(b)の場合の、投影面PAにおける車両10の前面のシルエットの長さDaの長さに対して、図3(b)及び図5(b)の場合の、投影面PAにおける車両10の前面のシルエットの長さDbの長さの方が短くなっている。即ち、図3(a)及び図4(b)の車両前面の投影部分は、図3(b)及び図5(b)において圧縮されて変換表示されている。
このため、投影面PAにおける車両10のシルエットのうち、長さDAの範囲にある側面部分が図4(b)の場合と図5(b)の場合とで共通しているため、この側面部分のみがシルエット抽出部16によって抽出される。
引き続き、この直線L1を用いた投影面への投影の仕方について説明する。上記したように、画像変換部14が設定した直線L1は、xy平面上における平面式として、以下に示す数式(1)で表されるとする。ただし、数式(1)中のa,b,dは定数であり、bはゼロではない。
一般的に、平面上の点の位置座標を別の平面上の点の位置座標として画像変換する場合は、以下に示す数式(2)を用いる。ただし、数式(2)中のs1は定数であり、u,v,x,zは変数であり、P,H1は射影行列である。
撮像画像において数式(1)で表される平面上の点を上記の投影面に投影することにより撮像画像を変換する場合は、数式(2)から導かれる以下に示す数式(3)を用いる。ただし、数式(3)中のs2は定数であり、u^,v^,x,zは位置座標を示す変数であり、fは仮想的に配置したカメラ11の焦点距離であり、Tは座標変換行列であり、H2は同次変換行列である。なお、「u^」はuの文字の上部に記号ハットが付された文字を意味しており、「v^」についても同様である。この数式(3)を用いることにより、例えば、車両10の側面から車両10を真正面にしてカメラから見た場合に相当するフレームが得られる。
ここで、撮像画像を投影面に投影したフレーム(即ち、車両10の側面から見た画像)に変換するための平面射影変換行列は、数式(2)及び数式(3)を用いて、H2H1 −1により求まる。
引き続き、図6を用いて、車種判別装置1で実行される、複数のフレームを用いたシルエットの検出処理について説明する。図6は、車種判別装置1で実行されるシルエットの検出処理を説明するためのフローチャートである。まず、シルエット抽出部16が、画像蓄積部15により蓄積された複数のフレームの中から、未だ選択されていない二つのフレームt及びt’の組み合わせを選択する(ステップS01)。
次に、シルエット抽出部16が、フレームt及びフレームt’の互いに対応する箇所(例えば所定面積単位の画素)の輝度差dIt,t’(u^,v^)を、フレーム内の全箇所に関して計算する(ステップS02)。輝度差dIt,t’(u^,v^)は、フレームtにおける一箇所の画素値It(u^,v^)とフレームt’における該一箇所の対応箇所の画素値It’(u^,v^)の差分の絶対値である。即ち、輝度差dIt,t’(u^,v^)は、以下の数式(4)により求められる。ここで、画素値とは、例えば、輝度値や、RGBの比率に関する値や、テクスチャー(即ち、エッジ)の強度値などを意味する。
次に、シルエット抽出部16が、フレーム内の残りの全箇所に関して現時点までに求められた輝度差dIt,t’(u^,v^)を、異なるフレームの組み合わせで互いに足し合わせた輝度差総和sdI(u^,v^)を計算する(ステップS03)。輝度差総和sdI(u^,v^)は、フレームt及びt’のあらゆる組み合わせに関する、輝度差dIt,t’(u^,v^)の総和である。即ち、輝度差総和sdI(u^,v^)は、以下の数式(5)により求められる。
ここでは、現時点で選ばれているフレームt及びt’の組み合わせ(即ち、ステップS01で選ばれたフレームt及びt’の組み合わせ)の輝度差dIt,t’が、同じく現時点で既に求められている総和に足し合わされて、次のステップに移行する。既に求められている総和が無い場合はその値をゼロとして、この値(即ちゼロ)に、現時点での輝度差dIt,t’を足し合わせて、次のステップに移行する。
次に、シルエット抽出部16が、未選択のフレームの組み合わせがあるか否かを判定する(ステップS04)。上記したように、ステップS03で輝度差総和sdI(u^,v^)を求めるには、フレームt及びt’のあらゆる組み合わせに関して輝度差dIt,t’(u^,v^)の総和を求める必要がある。ここで、あらゆる組み合わせの代わりに、時間的に連続したフレームのみの組み合わせとしてもよい。このため、未選択のフレームの組み合わせがあるか否かが判定される。未選択のフレームの組み合わせが未だある場合は、ステップS01に戻る。一方、未選択のフレームの組み合わせはもう無く、あらゆる組み合わせが尽くされた場合は、ステップS05に移行する。
次に、シルエット抽出部16が、フレームの上記の組み合わせ数Nを用いて、フレーム内の全箇所に関して現時点で求められている輝度差総和sdI(u^,v^)の規格化を行う(ステップS05)。規格化された輝度差総和である規格化総和SdI(u^,v^)は、現時点で求められている輝度差総和sdI(u^,v^)を、フレームの組み合わせ総数Nで除することにより求められる。即ち、規格化総和SdI(u^,v^)は、以下の数式(6)により求められる。このように規格化することにより、フレームの組み合わせ総数Nに関わらず、フレームを用いた後述する判定が可能となる。
次に、シルエット抽出部16が、フレーム内の全箇所に関して、規格化した輝度差総和sdI(u^,v^)である規格化総和SdI(u^,v^)が所定の閾値Thより大きいか否かを判定する(ステップS06)。所定の閾値Thは、画像蓄積部15により蓄積された複数のフレームにおいて共通する領域をシルエットとして判断するか否かを判別するための閾値である。
ここで、規格化総和SdI(u^,v^)が閾値Th以下である箇所がフレーム内に無ければ、即ち、全箇所において、規格化総和SdI(u^,v^)が閾値Thより大きければ、一連の処理が終了する。ここで、規格化総和SdI(u^,v^)が閾値Thより大きい箇所とは、フレーム間で共通しない箇所(例えば、車両10のシルエットが含まれていない箇所や、背景が撮像されて投影変換された箇所など)を意味する。
一方、規格化総和SdI(u^,v^)が閾値Th以下である箇所がフレーム内にあれば、即ち、規格化総和SdI(u^,v^)が閾値Th以下である箇所がフレーム内にあれば、後述するステップS07に移行する。ここで、規格化総和SdI(u^,v^)が閾値Th以下である箇所とは、フレーム間で共通する箇所(例えば、車両10のシルエットが含まれている箇所や、背景が含まれていない箇所など)を意味する。
次に、シルエット抽出部16が、規格化総和SdI(u^,v^)が閾値Th以下である箇所の全てが示す像を、車両10のシルエットの候補として検出する(ステップS07)。そして、一連の処理が終了する。なお、シルエット抽出部16が、車両10のシルエットの候補に基づいて、車両10の車種を判別する。
引き続き、本実施形態の作用効果について説明する。本実施形態によれば、カメラ11により撮像された車両10の撮像画像を、投影面推定部13により設定された投影面PAに、画像変換部14が投影して、撮像画像をフレームに変換し、変換されたフレームを画像蓄積部15が複数蓄積する。そして、画像蓄積部15により蓄積された複数のフレームに基づいて、車両10のシルエットをシルエット抽出部16が検出及び抽出して車両10の車種を判別する。このように、共通の投影面PAに投影された複数のフレームに基づいて車両10のシルエットを検出しているため、車両10のシルエットに関する情報が車種判別装置1内に事前に用意されていなくても、車両10の車種をより正確に判別できるようになる。
また、互いに異なる複数の視点Vから車両10がカメラ11により撮像され、撮像された複数の撮像画像に基づいて、投影面推定部13が設定しうる複数の投影面PAのうち車両10との距離が最短(又はゼロ)となる面が投影面PAとして設定される。このように、投影面推定部13が設定した投影面PAは、車両10との距離が最短(又はゼロ)であてシルエットは縮小されないため、この投影面PAに投影されて変換されたフレームに基づいて車両10のシルエットを検出する際、より精度よく検出できるようになる。
また、画像蓄積部15により蓄積された複数のフレームにおいて共通する領域が、シルエット抽出部16により車両10のシルエットとして検出される。このため、車両10が移動中であっても、シルエット抽出部16は、フレームにおいて共通しない領域をシルエット以外として検出するとともに、フレームにおいて共通する領域をシルエットとして容易に検出することができるようになる。
上記実施形態では、図1に示すように、画像蓄積部15が、画像変換部14により変換されたフレームを複数蓄積して記憶する構成であるが、撮像画像を投影面PAに投影してフレームを複数蓄積してからシルエットを検出する構成であれば特に限定されない。例えば、図7に示すように、別の構成を有する車種判別装置2としてもよい。車種判別装置2は、カメラ11により撮像された複数の撮像画像を画像蓄積部15が直接蓄積して記憶し、この撮像画像を画像変換部14が投影面PAに逐次投影してフレームを複数蓄積してからシルエットを検出する。
(2)第二実施形態
次に、図8を用いて、本発明の第二実施形態に係る車種判別装置3の構成について説明する。図8は、第二実施形態に係る車種判別装置3の構成概略図である。第二実施形態に係る車種判別装置3は、カメラ11と、レーザレーダ12と、第一投影面推定部131(設定手段)と、第二投影面推定部132(第二設定手段)と、第一画像変換部141(変換手段)と、第二画像変換部142(第二変換手段)と、第一画像蓄積部151(蓄積手段)と、第二画像蓄積部152(蓄積手段)と、シルエット抽出部16と、を備えている。
次に、図8を用いて、本発明の第二実施形態に係る車種判別装置3の構成について説明する。図8は、第二実施形態に係る車種判別装置3の構成概略図である。第二実施形態に係る車種判別装置3は、カメラ11と、レーザレーダ12と、第一投影面推定部131(設定手段)と、第二投影面推定部132(第二設定手段)と、第一画像変換部141(変換手段)と、第二画像変換部142(第二変換手段)と、第一画像蓄積部151(蓄積手段)と、第二画像蓄積部152(蓄積手段)と、シルエット抽出部16と、を備えている。
カメラ11及びレーザレーダ12は、本発明の第一実施形態に係る車種判別装置1のものと同様の構成である。なお、レーザレーダ12の代わりに、ミリ波レーダを用いてもよい。
第一投影面推定部131は、カメラ11の撮像方向と異なる方向から車両10が撮像される(即ち、車両10の像が投影される)と仮定した場合における、仮想の第一投影面PA1を設定する部分である。また、第一投影面推定部131は、車両10の進行方向を、車両10の移動量やドップラー効果による速度計測により推定する。第一投影面推定部131の機能は、例えば、車両に内蔵されたECUにより実現される。
第一画像変換部141は、上記の撮像画像が上記の第一投影面PA1へ投影された結果生成される投影面上の画像に、撮像画像を変換する部分である。第一画像変換部141の機能は、例えば、車両10に内蔵されたECUにより実現される。
第一画像蓄積部151は、第一画像変換部141により変換されたフレームを複数蓄積して記憶する部分である。第一画像蓄積部151は、このような記憶が可能であれば特に限定されず、例えばRAMなどでもよい。
第二投影面推定部132は、第一画像蓄積部151により蓄積された複数のフレーム間で共通する領域が所定面積以上となるように(即ち、フレーム間における一致度が所定度以上となるように)、カメラ11の撮像方向と異なる方向から車両10が撮像される(即ち、車両10の像が投影される)と仮定した場合における、仮想の第二投影面PA2を設定する部分である。なお、第二投影面PA2は、第一投影面PA1と平行に設定されるのが好ましい。第二投影面推定部132の機能は、例えば、車両に内蔵されたECUにより実現される。
第二画像変換部142は、上記の撮像画像が上記の第二投影面PA2へ投影された結果生成される第二投影面PA2上の画像に、撮像画像を変換する部分である。第二画像変換部142の機能は、例えば、車両10に内蔵されたECUにより実現される。
第二画像蓄積部152は、第二画像変換部142により変換された変換フレーム(第二変換画像)を複数蓄積して記憶する部分である。第二画像蓄積部152は、このような記憶が可能であれば特に限定されず、例えばRAMなどでもよい。
シルエット抽出部16は、第二画像蓄積部152により蓄積された複数の変換フレームに基づいて、上記の車両10のシルエットを検出して、シルエットからこの車両10の車種を判別する部分である。例えば、シルエット抽出部16は、第二画像蓄積部152により蓄積された複数の変換フレームにおいて共通する領域を上記のシルエットとして検出する。シルエット抽出部16の機能は、例えば、車両に内蔵されたECUにより実現される。
引き続き、図9及び図10を用いて、第一画像変換部141及び第二画像変換部142が撮像画像を投影面へ投影する原理について説明する。図9及び図10は、撮像画像の投影面への投影原理を説明する鳥瞰図である。
まず、図9(a)に示すように、カメラ11の視点Vから車両10を撮像する場合において、撮像画像が撮像平面Paに形成されるとする。車両10は略直方体とみなされ、このため、図9に示される平面図において略長方形で示されるとみなされる。このとき、車両頂点A1〜A3のそれぞれは、撮像平面Paにおける頂点である撮像頂点a1〜a3に対応している。また、上記の直線L1に平行な直線に基づいて第一投影面推定部131により第一投影面PA1が設定され、この第一投影面PA1に平行な、視点Vからの直線と撮像平面Paとの交点a0が定まる。
ここで、上記したような原理により、撮像平面Pa上の撮像画像が第一画像変換部141により第一投影面PAへ投影されてフレームとなって、第一画像蓄積部151により蓄積される。この投影を行うために、車両頂点及びこれに対応する撮像頂点を結ぶ線分と第一投影面PA1との交点が求められ、この交点が投影頂点となる。具体的には、例えば、車両頂点A1及び撮像頂点a1を結ぶ線分と第一投影面PA1との交点T1が求められ、この交点T1が投影頂点T1となる。
次に、図9(b)に示すように、図9(a)の状態から所定時間経過後に車両10が所定距離進んだ状態でも撮像が行われ、上記したような原理で投影が行われたとする。なお、図9(a)における撮像頂点a1〜a3のそれぞれが、図9(b)における撮像頂点b1〜b3に対応する。
次に、図10(a)に示すように、第二投影面PA2が第二投影面推定部132により設定され、上記の撮像画像がこの第二投影面PA2へ投影される。ここでは、第二投影面PA2は、第一投影面PA1を基準として車両10から離れる位置に設定されたとする。
ここで、この撮像画像を第二投影面PA2へ投影するために、車両頂点及びこれに対応する撮像頂点を結ぶ線分と第二投影面PA2との交点が求められ、この交点が投影頂点となる。具体的には、例えば、車両頂点A1及び撮像頂点a1を結ぶ線分と第二投影面PA2との交点U1が求められ、この交点U1が投影頂点U1となる。
次に、図10(b)に示すように、図10(a)の状態から所定時間経過後に車両10が所定距離進んだ状態でも撮像が行われ、上記したような原理で投影が行われる。
引き続き、図9及び図10を用いて、第二投影面PA2の設定の仕方について説明する。まず、カメラ11により撮像された撮像画像から、車両10の進行方向ベクトルFとしての(vx,vy,vz)Tと、車両10が走行する道路面の法線ベクトルRとしての(rx,ry,rz)Tとが第一投影面推定部131により検出される。第一投影面PA1の法線ベクトルn1としての(nx,1,ny,1,nz,1)Tはこれら二つのベクトルF,Rに直交するため、法線ベクトルn1は、以下に示す数式(7)のように、これら二つのベクトルの外積を第一投影面推定部131が求めることにより得られる。なお、道路面の法線ベクトルRは、レーザレーダ12などを用いて計測してもよく、また、車両10の車高方向のベクトルを適用してもよい。
ここで、第一投影面推定部131が、カメラ11により撮像された撮像画像から車両10の重心位置Pcを(xv,yv,zv)Tと推測するとともに、車両10から距離dの位置にある投影面を第一投影面PA1として設定する。この距離dは、一般的な車両の平均的な車幅としてもよい。このため、第一投影面PA1は、以下に示す数式(8)により与えられる。ただし、数式(8)中のa4は、以下に示す式(9)又は式(10)により与えられる。
このようにして、第一投影面PA1が与えられるため、上記の数式(2)及び数式(3)を用いることにより、撮像画像を第一投影面PA1に投影するために用いられる平面射影変換行列が第一投影面推定部131により求められる。
次に、第一投影面推定部131が、この平面射影変換行列を用いて撮像画像を投影するが、図9(a)及び図9(b)に示すように、第一投影面PA1に投影されたフレームの一領域、例えば車両10の側面の長さ(即ち大きさ)がフレーム間で異なってしまうことがある。具体的には、図9(a)に示される上記の側面の長さDAは、図9(b)に示される上記の側面の長さDBよりも長い。
ここで、この長さの差分を補正してフレーム間で共通しているとすべき領域を正確に検出するために、第二投影面推定部132が、図10に示すように、車両10から距離dの位置にある第一投影面PA1を中心として距離Adの範囲内(即ち、車両10からの距離がd−Ad以上d+Ad以下の範囲内)に第二投影面PA2を複数設定し、設定した複数の第二投影面PA2のそれぞれに上記の撮像画像を投影して変換フレームを生成する。そして、第二投影面推定部132が、変換フレーム間で一致する領域(例えば、投影後の側面の長さ)が所定面積以上(又は差分が所定度以下)になって略マッチングする(即ち、略等しくなる)ように第二投影面PA2を選択して確定する。
なお、変換フレーム間で略マッチングするか(即ち、後述する類似度Lが所定度以上であるか)否かの判断は、変換フレーム間の差分の絶対値の総和が所定数以下であるか否かで判断したり、変換フレーム間の差分の二乗の総和が所定数以下であるか否かで判断したり、輝度差をベクトルに見立てて内積を計算してこの内積が所定数以下であるか否かで判断したりすることができる。
例えば、図10(a)及び図10(b)ともに第一投影面PA1に投影した場合における車両10の側面の長さの差分(即ち、T1及びT2間の線分の長さの差)よりも、図10(a)及び図10(b)ともに第二投影面PA2に投影した場合における車両10の側面の長さの差分(即ち、U1及びU2間の線分の長さの差)の方が小さく、マッチングの度合は高くなっている。このため、この第二投影面PA2が第二画像変換部142により採用される。なお、車両10から距離Adの位置にある投影面は、上記の数式(8)により与えられ、数式(8)中のa4は、以下に示す式(11)又は式(12)により与えられる。
引き続き、図11を用いて、車種判別装置3で実行される第二投影面PA2の設定処理について説明する。図11は、車種判別装置3で実行される第二投影面PA2の設定処理を説明するためのフローチャートである。まず、第二投影面推定部132が、車両10と第二投影面PA2との距離d’を、第一投影面PA1から例えばd/2だけ離れた位置に設定する(ステップS11)。即ち、車両10と第一投影面PA1との距離dの半分の距離であるd/2だけ第一投影面PA1から離れた位置に第二投影面PA2を設定する。そして、第二画像変換部142が、この第二投影面PA2へ、撮像画像から生成されたフレームtとフレームt’のそれぞれを投影する(ステップS12)。
次に、第二投影面推定部132が、この投影後のフレームtとフレームt’の類似度Lを計算により求める(ステップS13)。この類似度Lとは、上記したように、変換フレーム間で一致する領域(例えば、投影後の側面の長さ)が所定面積以上(又は差分が所定度以下)になって略マッチングする(即ち、略類似する)度合である。そして、第二投影面推定部132が、ここで求められた類似度Lは直前に求められた類似度Lよりも大きいか否か、即ち、ここで求められた類似度Lは、現時点までに求められた全ての類似度Lの中で最大か否かを判定する(ステップS14)。
ステップS13で求められた類似度Lが、現時点までに求められた全ての類似度Lの中で最大でない場合、後述のステップS16に移行する。一方、ステップS13で求められた類似度Lが、現時点までに求められた類似度Lの中で最大である場合、第二投影面推定部132が、現時点で設定されている距離d’を確定させて記憶する(ステップS15)。
次に、第二投影面推定部132が、現時点で記憶されている車両10から第二投影面PA2までの距離d’はd/2より大きいか否かを判定する。車両10から第二投影面PA2までの距離d’がd/2より大きい場合、第二画像変換部142が、車両10から距離d’の位置にある第二投影面PA2にフレームを投影するための平面射影変換行列を求め(ステップS17)、一連の処理が終了する。一方、車両10から第二投影面PA2までの距離d’がd/2より大きくない場合、即ち、距離d’がd/2以下である場合、第二画像変換部142が、車両10から第二投影面PA2までの距離d’をd’+Δdに設定して、ステップS12に戻る。ここで、Δdは、d/2以下であるのが好ましく、例えばd/4などである。
引き続き、本実施形態の作用効果について説明する。本実施形態によれば、まず、複数のフレームにおいて一致する領域が所定面積以上になるように第二投影面PA2が第二投影面推定部132により設定される。そして、カメラ11により撮像された撮像画像から生成されたフレームが、第二画像変換部142により第二投影面PA2に投影された結果、撮像画像がフレームを経て変換フレームに変換される。そして、シルエット抽出部16が、第二画像変換部142により変換された変換フレームに基づいて、車両10のシルエットを検出及び抽出して車種を判別する。このように、複数の変換フレームにおいて一致する領域が所定面積以上であるため、シルエットに関する事前情報を必要とせずにシルエットをより正確に検出して、車両10の車種をより正確に判別できるようになる。
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。例えば、カメラ11により撮像された複数の撮像画像を第一画像蓄積部151が直接蓄積して記憶し、この撮像画像を第一画像変換部141が第一投影面PA1に逐次投影してフレームを複数蓄積する構成としてもよい。
1〜3…車種判別装置、10…車両、11…カメラ、12…レーザレーダ、13…投影面推定部、14…画像変換部、15…画像蓄積部、16…シルエット抽出部、131…第一投影面推定部、132…第二投影面推定部、141…第一画像変換部、142…第二画像変換部、151…第一画像蓄積部、152…第二画像蓄積部、a0…交点、a1〜a3,b1〜b3…撮像頂点、A1〜A3…車両頂点、Ad,d…距離、F,R,n1…ベクトル、L1,L2…直線、P1〜P9…照射ポイント、Pa…撮像平面、PA,PA1,PA2…投影面、Pc…重心位置、T1〜T3,U1〜U3…投影頂点、V…視点。
Claims (4)
- 車両の車種を判別する車種判別装置であって、
前記車両を撮像する撮像手段と、
前記撮像手段の撮像方向と異なる方向から前記車両が撮像された場合の投影面を設定する設定手段と、
前記撮像手段により撮像された撮像画像を、前記設定手段により設定された前記投影面に投影して、前記撮像画像を変換する変換手段と、
前記変換手段により変換された変換画像を複数蓄積する蓄積手段と、
前記蓄積手段により蓄積された複数の前記変換画像に基づいて前記車両の車体領域を検出して前記車種を判別する判別手段と、
を備えることを特徴とする車種判別装置。 - 前記撮像手段は、互いに異なる複数の視点から前記車両を撮像し、
前記設定手段は、前記撮像手段により撮像された複数の前記撮像画像に基づいて、前記車両との距離が最短となる面を前記投影面として設定することを特徴とする請求項1に記載の車種判別装置。 - 前記判別手段は、前記蓄積手段により蓄積された複数の前記変換画像において共通する領域を前記車体領域として検出することを特徴とする請求項1または2に記載の車種判別装置。
- 前記蓄積手段により蓄積された複数の前記変換画像において一致する領域が所定面積以上になるように第二の前記投影面を設定する第二設定手段と、
前記撮像手段により撮像された撮像画像を、前記第二設定手段により設定された前記第二投影面に投影して、前記撮像画像を変換する第二変換手段と、
を更に備え、
前記判別手段は、前記第二変換手段により変換された第二変換画像に基づいて前記車両の前記車体領域を検出して前記車種を判別することを特徴とする請求項1〜3のいずれかに記載の車種判別装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007272858A JP2009104232A (ja) | 2007-10-19 | 2007-10-19 | 車種判別装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007272858A JP2009104232A (ja) | 2007-10-19 | 2007-10-19 | 車種判別装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009104232A true JP2009104232A (ja) | 2009-05-14 |
Family
ID=40705873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007272858A Pending JP2009104232A (ja) | 2007-10-19 | 2007-10-19 | 車種判別装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009104232A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011198030A (ja) * | 2010-03-19 | 2011-10-06 | Mitsubishi Electric Corp | 交通流計測装置 |
JP2014010559A (ja) * | 2012-06-28 | 2014-01-20 | Toshiba Corp | 計測支援装置、方法及びプログラム |
JP2017097783A (ja) * | 2015-11-27 | 2017-06-01 | 株式会社東芝 | 車種判別装置および車種判別方法 |
JP2018055597A (ja) * | 2016-09-30 | 2018-04-05 | 株式会社東芝 | 車種判別装置および車種判別方法 |
-
2007
- 2007-10-19 JP JP2007272858A patent/JP2009104232A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011198030A (ja) * | 2010-03-19 | 2011-10-06 | Mitsubishi Electric Corp | 交通流計測装置 |
JP2014010559A (ja) * | 2012-06-28 | 2014-01-20 | Toshiba Corp | 計測支援装置、方法及びプログラム |
JP2017097783A (ja) * | 2015-11-27 | 2017-06-01 | 株式会社東芝 | 車種判別装置および車種判別方法 |
JP2018055597A (ja) * | 2016-09-30 | 2018-04-05 | 株式会社東芝 | 車種判別装置および車種判別方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106575473B (zh) | 用于对车辆进行非接触式计轴的方法、设备及计轴系统 | |
US10501059B2 (en) | Stereo camera device | |
US7933433B2 (en) | Lane marker recognition apparatus | |
KR101411668B1 (ko) | 교정 장치, 거리 측정 시스템, 교정 방법, 및 교정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 | |
US8867790B2 (en) | Object detection device, object detection method, and program | |
CN108692719B (zh) | 物体检测装置 | |
CN110826499A (zh) | 物体空间参数检测方法、装置、电子设备及存储介质 | |
EP3705371A1 (en) | Obstacle detecting device | |
US20020134151A1 (en) | Apparatus and method for measuring distances | |
JP6021689B2 (ja) | 車両諸元計測処理装置、車両諸元計測方法及びプログラム | |
KR101592685B1 (ko) | 노면 모델 설정을 이용한 장애물 검출 시스템 및 그 방법 | |
WO2017051480A1 (ja) | 画像処理装置及び画像処理方法 | |
CN110431562B (zh) | 图像识别装置 | |
US11971961B2 (en) | Device and method for data fusion between heterogeneous sensors | |
JP2010079582A (ja) | 物体を検出する装置、方法及びプログラム | |
JP6685704B2 (ja) | 車種判別装置および車種判別方法 | |
JP2009104232A (ja) | 車種判別装置 | |
JP2016045767A (ja) | 運動量推定装置及びプログラム | |
JP5981284B2 (ja) | 対象物検出装置、及び対象物検出方法 | |
CN114830180A (zh) | 摄像机自动检查系统 | |
CN111301407B (zh) | 一种危险车辆确定方法、装置、电子设备及可读存储介质 | |
JP5715784B2 (ja) | 画像の輪郭点検出方法 | |
JPH10312463A (ja) | 物体認識方法およびその装置 | |
JP2001108434A (ja) | 距離測定方法及び距離測定装置 | |
Corneliu et al. | Real-time pedestrian classification exploiting 2D and 3D information |