JP4829966B2 - 物体検出システム及び物体検出方法 - Google Patents

物体検出システム及び物体検出方法 Download PDF

Info

Publication number
JP4829966B2
JP4829966B2 JP2008519552A JP2008519552A JP4829966B2 JP 4829966 B2 JP4829966 B2 JP 4829966B2 JP 2008519552 A JP2008519552 A JP 2008519552A JP 2008519552 A JP2008519552 A JP 2008519552A JP 4829966 B2 JP4829966 B2 JP 4829966B2
Authority
JP
Japan
Prior art keywords
region
area
symmetry
image
symmetry axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008519552A
Other languages
English (en)
Other versions
JPWO2008065729A1 (ja
Inventor
政美 水谷
隆文 枝並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/JP2006/323792 external-priority patent/WO2008065717A1/ja
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008519552A priority Critical patent/JP4829966B2/ja
Publication of JPWO2008065729A1 publication Critical patent/JPWO2008065729A1/ja
Application granted granted Critical
Publication of JP4829966B2 publication Critical patent/JP4829966B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車等に搭載される物体検出装置及びその方法に関し、更に詳しくは車等に搭載した単眼カメラによる画像に対して、歩行者等の物体を含む可能性の高い画像領域を検出する物体検出装置及び方法に関する。
現在車戴型の前方衝突事故の事前防止システムついて、様々な方式が提案されている。
例えば特許文献1では、2つの赤外線カメラによる画像中のライトを検知することにより、車両の大きさや位置を検出するシステムが提案されている。
また歩行者等の物体をターゲットにして検出するシステムとしては、例えば非特許文献1に提案されている方式のものがある。
非特許文献1に開示されている従来の歩行者等の物体検出方式では、歩行者の形状がほぼ線対称であることを利用し、画像局所領域内の線対称性を評価することによって、歩行者の候補領域を抽出している。
非特許文献1に開示されている物体検出方式では、物体サイズとカメラの透視投影条件に基づき、各画素について、その画素が足元であると仮定した場合の人を囲うと想定する矩形領域ついて、輝度画像とエッジ画像の対称性の評価を行っている(具体的な方法は未開示)。そしてこのとき、対称性評価値がある閾値以上の矩形領域が同じ対称軸上に複数存在する場合、垂直エッジ画像の対称性と、垂直エッジ密度を要素とする評価関数(未開示)が最大となるものを、1つ選択している。
しかしながら、人を囲うと想定する矩形領域の上端から下端までに、同一の垂直方向の対称軸の存在を仮定すると、不具合が生じる場合がある。
例えば、横方向に大きな歩幅で動く人は、上半身の対称軸と同じ軸上に下半身の対称性が得られない場合がある。この場合、矩形領域として本来より上方に小さい領域が選択されてしまう。
このことは、自車からの距離を換算した場合、矩形領域が小さくなるため実際よりも遠くに検出されてしまうという問題が生じる。また、小さな矩形領域は、上半身だけの矩形領域は、後段のパターン認識の詳細判定によって棄却されてしまう可能性があり、検出性能が悪くなるという問題が生じる。
上記問題点を図1に示す。
図1は、人が歩行している画像を模式化して表現したものである。
人が歩行している場合、上半身から下半身までを通した対称軸を得ることは難しい。同図において、下半身部分が左右対称となる対称軸2は、上半身の対称軸1よりずれており、非特許文献1のシステムでは、この1人の画像は、本来は矩形領域4のように検知されなければならないのに、上半身の矩形領域3のみが検出されてしまい、下半身部分は別の矩形領域として処理されてしまう。
これに対し、非特許文献2では、2つのカメラを車に搭載してステレオ画像処理方式による距離測定を行なって矩形領域の距離を算出し、算出した距離に基づいて透視投影条件から導かれる位置とサイズに矩形領域の補正を行っていた。しかしこの非特許文献2の方式では、カメラが2台必要になるなどステレオ画像処理用の仕組みを必要とするので、コスト高となる課題があった。
また、背景とのコントラストが不足し下半身の画像5が不鮮明な場合、図2(a)のように垂直エッジが十分に抽出されないため、本来より上方に小さい領域6が選択されるという問題があった。
また足元の下に対称性のテクスチャ7(ペンキ、マンホール等)がある場合は、その垂直エッジが考慮されるため、歩行者の矩形領域として、図2(b)のように本来より下方に大きい矩形領域8が選択されるという問題があった。
以上を顧み、本発明は、ステレオ画像処理を行わず単眼カメラによる画像のみを用いて、対象物体の領域をより高精度に判定する仕組みを持つ物体検出システム及び検出方法を提供することを課題とする。
また低コストで物体検出性能の高い物体者検出システム及び物体検出方法を提供することを課題とする。
特開2003−230134号公報 Massimo Bertozzi, Alberto Broggi, at el., Vision-based Pedestrian Detection: will Ants Help?, IEEE Intelligent Vehicles 2002, volume 1, pages 1-7, June 2002. Alberto Broggi, Massimo Bertozzi, at el., Pedestrian Localization and Tracking System with Kalman Filtering, IEEE Intelligent Vehicles 2004, pages 584-589, June 2004.
上記課題を解決するため、本発明による物体検出システムは、幾何学情報生成部、対称性評価部、対称軸連続性評価部、及び矩形領域生成部を有する。
幾何学情報生成部は、1つのカメラから得られる撮影画像に対して、対象物体の実際のサイズとカメラパラメータ情報を用いて、路面上に存在する物体の画像上での位置と画像領域サイズの関係情報を算出する。
対称性評価部は、特定の画素について、幾何学情報に基づいて決められる対称間隔Tでの対称軸の可能性を評価する。
対称軸連続性評価部は、前記対称性評価部によって評価されたある閾値以上の画素の、矩形領域内の中心軸付近の密度と連続性の少なくとも一方を評価し、前記対称物体の最下端点を検出する。
矩形領域生成部は、前記対称軸連続性評価部によって特定された最下端点及び前記幾何学情報に基づいて、前記対称物体の候補領域の位置とサイズを出力する。
この構成により、画像から求めた矩形領域の対称軸を求め、この対称軸が連続するものを1つの矩形領域として見なすことができる。
また本発明は、前記カメラのシャッターに同期してON/OFFを交互に切り換える照射ライトに接続され、前記照射ライトがONのとき撮影した画像と、前記照射ライトがOFFのとき撮影した画像の差分画像を求め、当該差分画像に対して、線分除去フィルタを適用して反射領域を抽出する反射領域抽出部を更に備え、前記幾何学情報生成部は、当該反射領域に対して、対象物体の実際のサイズとカメラパラメータ情報を用いて、路面上に存在する物体の画像上での位置と画像領域サイズの関係情報を算出するよう構成してもよい。
この構成により、その連続する撮像から路面領域のテクスチャを弱め、光の反応領域を強調した画像を生成する反射領域を抽出することが出来る。
更に本発明は、前記矩形領域中の前記対象物体に依存した部位領域情報を記憶する対象物体部位分割情報記憶部と、前記部位領域情報に基づいて、矩形領域を複数の部分領域に分割する領域分割処理部と、前記各部分領域において前記対称軸連続性評価部によって算出された対称軸存在確率に基づいて、歩行者候補領域を統合的に判定する統合判定部を、
を有し、前記対称性評価部は、分割された前記部分領域それぞれに対して、前記部位領域情報で定義される、前記インターバルサイズを用いて対称軸の可能性を評価し、前記対称軸連続性評価部は、前記対称性評価部によって評価された対称軸候補領域の、部分領域の所定位置における密度を評価し、対称軸存在確率を算出する構成としても良い。
この構成により、より物体検出性能の高いシステムを実現することができる。
また本発明は、物体検出方法もその範囲に含む。
従来の物体検出の問題点を示す図である。 (a)は垂直エッジが十分に抽出されないため、本来より上方に小さい領域が選択される場合、(b)は足元の下に対称性のテクスチャ(ペンキ、マンホール等)がある場合を示す図である。 本実施形態の概略を示す図である。 第1の実施形態のシステム構成を示す図である。 第1の実施形態で用いられる幾何学情報テーブルの構成例を示す図である。 インターバルサイズTを示す図である。 関数Symm(x,T)を示す図である。 閾値Th1以上の対称性フィルタの反応領域Fx、線分領域FL及び線分領域ELの下端点Eを示す図である。 矩形領域Rの中心付近の、細線化線分領域ELの密度と連続性を評価を示す図である。 第1の実施形態におけるシステムによって実行される処理を示すフローチャートである。 (a)は第2の実施形態のシステム構成、(b)はその処理を示す図である。 近赤外線カメラのシャッターと近赤外線照射ライトの同期を示す図である。 第2の実施形態における反射領域Rの求め方を示す図である。 第2の実施形態で用いられる幾何学情報テーブルの構成例を示す図である。 第2の実施形態におけるシステムによって実行される処理を示すフローチャートである。 第3の実施形態のシステムが解決する課題を示す図である。 候補領域を複数の領域に分け、各領域ごとに異なる対称間隔を用いる例を示す図である。 第3の実施形態のシステム構成例を示す図である。 対象物体部位分割情報記憶部に記憶される部位領域情報の例を示す図である。 部分画像領域Iiを模式的に示す図である。 部分領域Riを模式的に示す図である。 第3の実施形態におけるシステムによって実行される処理を示すフローチャートである。
以下に本発明の一実施形態を図面を参照しながら説明する。
本実施形態のシステムでは、車等に搭載した単眼カメラによる画像を用い、歩行者等の検出対称物体がほぼ線対称であるという特徴を考慮して、線対称性を含む画像領域を検出対称物体を含む可能性の高い画像領域として検出する。
具体的には図3において、カメラで撮影した画像に対して、人の幅を囲うと想定する細い矩形領域11−1〜11−6の対称性を評価し、人を囲うと想定する矩形領域12の中心軸付近13に存在する対称軸候補領域14−1〜14−6の密度と連続性を評価することで、人の候補領域を生成し、これにより対称軸が部分的にずれる場合や、斜め方向の対称軸に対してロバストな効果を有する。
また第2の形態のシステムとして、カメラのシャッターに同期して交互に、水平に照射・消灯を行える照射ライトを備え、その連続する撮像から路面領域のテクスチャを弱め、光の反応領域を強調した画像を生成する反射領域を抽出し、この反射領域の画像に対して第1の実施形態と同様の処理を適用することで、さらに物体検出性能の高いシステムを提供する。
また第3の実施形態のシステムとして、抽出した対象物の抽出枠を更に複数に分割し、それぞれの領域事に対称軸の評価を行うことにより、さらに物体検出性能の高いシステムを提供する。
図4は第1の実施形態のシステム構成例を示す図である。
同図において物体検出システム22aは、カメラ21と接続されており、カメラインタフェース23、画像フレーム記憶部24、対象性評価部25、対称軸連続性評価部26、矩形領域生成部27、後段処理部28、カメラパラメータ記憶部29、幾何情報生成部30及び幾何学情報テーブル記憶部31を備える。
カメラインタフェース23は、カメラ21と物体検出システム22aを接続するインタフェースである。画像フレーム記憶部24は、カメラ21によって撮像された1枚の画像フレームのデータを記憶するメモリである。対称性評価部25は、ある画素について、幾何学情報テーブル記憶部31内の幾何学情報に基づいて決められる対称間隔(インターバルサイズ)で、水平方向の対称軸の可能性を評価する。対称軸連続性評価部26は、対称性評価部25によって評価されたある閾値以上の画素の、矩形領域内の中心軸付近の密度と連続性を評価し、最下端点(足元)を検出する。矩形領域生成部27は、対称軸連続性評価部26によって特定された最下端点と、幾何学情報に基づいて、歩行者等の候補領域の位置とサイズを出力する。
後段処理部28は、矩形領域生成部27が出力した、歩行者等の候補領域に対してニューラルネットワークによる識別処理や、パターンマッチング処理を行ない、歩行者等に対する矩形領域であるかどうかを特定する。カメラパラメータ記憶部29、物体検出システム22aに接続されるカメラ21に対するパラメータ、例えばカメラ21の焦点距離f、自車の運動中心Oに対するカメラ21の位置O’(x0,y0,z0)、カメラ21の向きθ(yaw,row,pit)を記憶する。幾何情報生成部30は、物体サイズとカメラの透視投影条件に基づき、各画素について、その画素が足元であると仮定した場合の物体を囲うと想定する画像領域を算出する。幾何学情報テーブル記憶部31は、撮影画像について、各ピクセルのy座標が歩行者の足元であった場合の、人を囲う矩形領域の縦と幅の情報が対応付けられた幾何学情報テーブルが記憶されている。
次にこの図4のシステムによる歩行者の検出の詳細を説明する。
カメラ21で撮影した画像に対して、幾何学情報生成部30は、物体(歩行者)のサイズとカメラの透視投影条件に基づき、矩形領域の各画素について、その画素が足元であると仮定した場合の物体を囲うと想定する画像領域を算出する。具体的には、例えば、カメラパラメータ記憶部29に記憶されている、カメラの焦点距離f、自車の運動中心Oに対するカメラの位置O’(x0,y0,z0)、カメラの向きθ(yaw,row,pit)を用いて、公知の変換式を利用して、実際の座標P(X,Y,Z)と、画面上での座標Q(u,v)を対応付ける。
また実際の人の幅を例えば70cm等と規定することにより、画像上の任意の点を足元とした場合の、その点のy座標と人を囲う矩形の幅と縦の大きさの関係を幾何学情報テーブルとして生成して事前に幾何学情報テーブル記憶部31に記憶しておく。
図5に幾何学情報テーブルの構成例を示す。
同図の幾何学情報テーブルは、カメラ21による画像の横方向にx軸、縦方向にy軸を取り、左上を原点とした座標軸において、幾何学情報として、カメラ21による画像の各ピクセルのy座標、物体(歩行者)を含む矩形領域の幅W、矩形領域の縦H、インターバルサイズTが関連付けられて記憶されている。例えば足元の画素のY座標が140であったときその物体(歩行者)を含む矩形領域の幅Wは10、縦Hは20、インターバルサイズは17.5である。なおインターバルサイズは、その矩形領域の対称性を評価する際に用いる値で、詳細は後述する。
幾何学情報生成部30は幾何学情報テーブル記憶部31内の幾何学情報テーブルとカメラパラメータ記憶部29内のカメラパラメータを用いてを用いて、実際の座標P(X,Y,Z)と、カメラ21による画像上での座標Q(u,v)を対応付ける。
このような状態において、以下の手順により、カメラ21による画像上での歩行者を含む矩形領域を特定する。
以下に第1の実施形態のシステム22aによって行なわれる処理の詳細を順を追って示す。
〔Step1〕
対称性評価部25は、幾何学情報テーブル内の幾何学情報テーブルを用い、各y座標に対応する矩形領域幅Wに対するインターバルサイズTを決定する。
この幾何学情報テーブルに記憶されているインターバルサイズTは、例えば、矩形領域幅の最小値Wmin と最大値Wmax を、均等にN分割した値Sを用いて、N+1種類のインターバルサイズTを離散的に決定することができる。
この場合インターバルサイズTは、下式のように求まる。
このTを図で表すと、図6のようになる(図6はN=5の場合)。
また例えば、Wmin =10,Wmax =110,N=8の場合では、T=17.5,30,42.5,55,67.5,80,92.5,105,117の9種類のインターバルサイズTが決定される。
このとき、あるy座標については、W<Tiとなる最小のiを用いてインターバルサイズTiを定義する。
例えば、図5の幾何学情報テーブルにおいて、y座標=141のときW=11なので、W<Tiを満たす最小のi=1を用いて、インターバルサイズT=17.5と決定される。
〔Step2〕
次に対称性評価部25は、各インターバルサイズTiで、画像Iの各画素xにおける水平方向の対象性を対称性フィルタの関数Symm(x,T)によって評価したフィルタ反応画像Fiを生成する。
なお、決定したインターバルサイズTiに対し、Tiを超えない最大の奇数を用いて、Symm(X,T)を計算する。たとえば、T=17.5の場合、T=17を用いる。
各画素について、水平方向の信号のインターバルサイズTにおける対称性は、次式の対象性フィルタの関数Symmで評価できる。
上式において、Eはxを中心とした、画素Iの偶関数成分であり同様にOは奇関数成分である。このときEは、u=1〜TにおけるEの平均EAVを引くことで正規化してE’を求める。そして、奇関数成分Oと正規化値E’の2乗和の差を評価することで対象性の評価関数とすることが出来る。
この関数Symm(x,T)を図にして示したのが図7である。
なお、上記式では画像Iに水平方向の1列分のみに対して評価したものであるが、本実施形態はこのような形に限定されるものではなく、水平方向に複数列分を代入して評価するものとしてもよい。
複数列分の画素を評価した場合の評価関数Symmは下式のようになる。
〔Step3〕
対称軸連続性評価部26は、各画像Fiについて、縦方向に重みを用いて平滑化処理を行い、画像Fi’を生成する。画像Fi’は例えば、評価式Vsymm(x)によって得ることが出来る。
〔Step4〕
対称軸連続性評価部26は、平滑化処理後の画像Fi’について、ある閾値Th1以上の領域Fxについて縦方向のみに細線化処理を行い、細線化処理をして得られた線分領域ELを抽出する。
細線分化処理では画像Fi’の画素xにおける値Fi’(x)が左右両方向に距離tの周辺画素Fi’(x−t),...,Fi’(x),...,Fi’(x+t)の中で最大値となる場合に1を、それ以外の場合には0を出力する。
細線分化処理Thinは、下式で表される。
Thin(x,t)=1 if Fi’(x)==max(Fi’(x-t),...,Fi’(x),...,Fi’(x+t)) oterwise 0
図8に閾値Th1以上の対称性フィルタの反応領域Fx、線分領域FL及び線分領域ELの下端点Eを示す。

〔Step5〕
対称軸連続性評価部26は、細線化処理を行なった線分領域ELの下端点Eを抽出する。下端点Eは、細線化処理によって得られた線分領域ELについて、y軸方向の連続性を評価することで得られる。
〔Step6〕
対称軸連続性評価部26は、幾何学情報テーブル記憶部31に基づいて上方に存在する矩形領域Rを決定する。
具体的には、例えば、X=−W/2+x〜x+W/2,Y=y−H+1〜yの領域を矩形領域Rとする。ただし、矩形幅WがインターバルサイズTに対して所定の値よりも大きい場合若しくは小さい場合は、この矩形領域Rを棄却する。たとえば、0.5*T<W<1.5Tの場合のみ、矩形領域Rとして採用する。
〔Step7〕
対称軸連続性評価部26は、Step6で決定した矩形領域Rの中心付近の、細線化線分領域ELの密度と連続性を評価する。
具体的な処理を図9を参照しながら説明する。
まず、幅W縦Hの矩形領域の中心座標が(x1,y1)のとき、a%の中心領域(x1−0.5*a*W〜x1+0.5*a*W,y=y1−H〜y1)について、各行における細線化線分領域ELの存在NELを評価する。なお本実施形態のではこの中心領域からa%の領域に存在する細線分化線分領域ELの量を密度と言う。
同図では、線分領域ELがa%の中心領域a*Wに入っている部分を1、外れている部分を0で表している。
次にa%の中心領域の全行分のNELの合計SNEL(同図では7)が、定められた閾値Th2以上の場合、同矩形領域Rに対称軸が存在すると判断する。(例えばSNEL>H*Th2)
〔Step8〕
矩形領域生成部27は、各対象フィルタ反応画像Fi(i=1,..,N+1)で得られた矩形領域Rを統合し、距離的に近いものを統合する。例えば、2つの矩形領域R1とR2について、下端中央点E1とE2の距離がある閾値Th3以下であれば、対称軸の中心付近の密度(N2/H)の大きい方の矩形領域を採択し、他方を棄却する。
以上により得られた矩形領域Rを、歩行者候補の矩形領域とする。
そしてこの歩行者の候補領域に対して、後段処理部28は、ニューラルネットワークによる識別処理や、パターンマッチング処理を行ない、歩行者に対する矩形領域であるかどうかを特定する。
なおインターバルサイズTで対称性評価部25及び対称軸連続性評価部26による処理を行う際、計算量削減のため、Gaussian Pyramidなどの多解像度化処理によって,1/2,1/4等のサイズに画像を変換する構成としてもよい。この場合例えば1/2のサイズに変換する場合、1/2Tのインターバルサイズで1/2サイズ画像に対して評価を実施し、矩形領域を統合する際に元のスケールに復元する構成となる。
図9は、第1の実施形態におけるシステムによって実行される処理を示すフローチャートである。
同図においてまず事前処理として幾何学情報テーブル31を1フレーム毎に算出する。
次にステップS1として、幾何学情報テーブル31を参照してインターバルサイズTiを決定する。
次に、各インターバルサイズTiに対して、ステップS2として各画素について上記した関数Symm(x、T)を用いた対称軸評価処理を行なう。
そして次に、ステップS3として、ステップS2で得られた画像の各画素について上記した関数Vsymmによる平滑化処理を行なう。
そしてステップS4として、細線分化処理Thinにより線分領域ELを抽出する。
そして次に、ステップS5として、ステップS4で得られた線分領域ELの下端点Eを求める。
次にステップS6としてそしてこの下端点を歩行者の足元と想定して、矩形領域Rを生成する。
そしてステップS7としてステップS6で生成した、矩形領域Rに対して線分化領域ELが、中心からa%の領域に入っているか否かを調べ、対称軸の連続性の評価を行なう。
このステップS2乃至S7の処理を各インターバルサイズTiに対して行い、ステップS8として各インターバルサイズTiについて得られた矩形領域Rを距離的に近いものを統合する。そして最後にステップS9として候補の矩形領域を出力する。
このように第1の実施形態では、歩行者の上半身と下半身のように矩形領域の対称軸が異なっていても、中心から特定の範囲内に収まっていれば1つの矩形領域と見なすことができる。
これにより、対象物体の領域をより高精度に判定することが出来、低コストで歩行者検出性能の高い歩行者検出システムを実現することが出来る。
次に本発明の第2の実施形態について説明する。
図11は、第2の実施形態におけるシステム40の構成例を示す図である。
同図(a)に示すように、第2の実施形態では、システム40に近赤外光などの光を照射する照射ライト42と、この照射ライトから照射された光を受光することが可能なカメラ41を接続する構成となっている。またシステム40は、反射領域抽出部43、点等・消灯制御部44及び解決部45を備えている。
なお以下の説明では、照射ライト42は、近赤外光の照射を行う近赤外光照射ライトで、またカメラ41は、近赤外光を受光できる近赤外光カメラであるものとするが、本実施形態のカメラ41とライト42は、このようなものに限定されるものではなく、レーダ等アクティブに光を照射できるライトと、この照射の反射光を受光できるカメラであれば、他のものでもよい。
反射領域抽出部43は、照射光の反射領域を抽出するものである。点等・消灯制御部44は、カメラ41のシャッターに同期させて、照射ライト42のON/OFFを交互に切換える制御を行なうものである。解決部44は、反射領域抽出部43が抽出した反射領域の画像に対して第1の実施形態の対称性評価部25、対称軸連続性評価部26、及び矩形領域生成部27が行なう処理と同様の処理を行なう。
照射ライト42はカメラ41のシャッターと同期してON/OFFを切り替えられ、路面に略平行に近赤外線を照射する。
図11(b)に示すように、記憶領域に記憶した近赤外光等の光を照射した状態でカメラ41で撮影した画像と、照射ライト42をOFFにして撮影画像との、差分を減算部によって求め、これを記憶領域に記憶する。反射領域抽出手段は、この画像に対して、後述する線分除去処理を行ない反射画像を出力する。
近赤外線カメラ41と、近赤外線照射ライト42は、カメラ42のシャッターの同期信号に基づいてシャッター周期Tで同期しており、図12に示すように、奇フィールド51では近赤外線照射ライト42をONの状態で、撮影し、偶フィールド52では近赤外線照射ライト42をOFFの状態で撮影する。そしてこれらの撮影画像のデータは、不図示の記憶領域に記憶される。
以下に第2の実施形態のシステム40によって行なわれる処理の詳細を順を追って示す。
〔Step1〕
反射領域抽出部43は、連続して撮影した画像I1,I2(ライトONの画像I1、ライトOFFの画像I2)から、差分画像Dを生成する。このとき例えば、対応する画素値の差分絶対値を用いることができる。
D(x,y)=|I1−I2|
〔Step2〕
反射領域抽出部43は、差分画像Dに対し、所定の係数γでガンマ補正をした後、所定の閾値Thで2値化処理した画像Bを生成する。画像Bは、例えば、
B(x,y)=1 if D(x,y)^γ>Th otherwise 0
として求めることができる。
〔Step3〕
反射領域抽出部43は、画像Bに対して生じている小さい孤立点の、除去もしくは穴埋めを行うため、モルフォロジ演算のオープン・クローズフィルタを適用し、画像Mを生成する。
〔Step4〕
反射領域抽出部43は、画像Mに対し、所定のウィンドウサイズの平滑化フィルタを適用し、所定の閾値Th2以上であった画素領域を反射領域Rとする。
例えば反射領域Rは
と定義することができる。
図13に第2の実施形態における反射領域Rの求め方を示す。
画像61は、近赤外線照射ライト42をOFFにして撮影した画像であり、画像62は、近赤外線照射ライト42をONにして撮影した画像である。
近赤外線照射ライト42は、路面に略平行に照射されるので照射光は路面64部分にはほとんど当たらない。
減算部によりこの画像61と62の差分を求めた画像が画像63である。
画像63では、歩行者65には近赤外線照射ライト42による照射光が当たり反射領域となっている。また路面66はエッジのみが残るが、これは平滑化フィルタによって線分除去処理を行ない、除去される。
これにより、歩行者のみが反射領域Rとして抽出される。
〔Step6〕
解決部45は、第1の実施形態の対称性評価部25と同様に、各y座標に対応する矩形領域幅Wから、インターバルサイズTを決定する。このインターバルサイズの決定の仕方としては、例えば、Wを上回る最小の奇数とする。
図14は、第2の実施形態で用いられる幾何学情報テーブルである。
同図において、例えばy=140であるとき、インターバルサイズTは、物体の矩形幅W=10を上回る最小の奇数11となっている。
〔Step7〕
解決部45は、Step5で画像から抽出された反射領域Rの下端点Eを抽出する。
下端点Eha反射領域のy軸方向の連続性を評価することで得ることができる。
〔Step8〕
解決部45は、抽出された各下端点E(x,y)に関して、Eが足元であると想定し、幾何学情報テーブル1に基づいて上方に存在する矩形領域Rectを決定する。
〔Step9〕
解決部45は、矩形領域Rectの各画素について、各下端点E(x,y)のy座標で参照される幾何学情報テーブルのインターバルサイズTiを用い、対称性フィルタ反応値Fiを算出する。この処理は、第1の実施形態のStep2と同じである。
〔Step10〕
解決部45は、各矩形領域Rect対して、Vsymmによる平滑軸評価化処理を行なう。この処理は、第1の実施形態のStep3と同じである。
〔Step11〕
解決部45は、各矩形領域Rect対して、Thinによる細線化処理を行なう。
この処理は、第1の実施形態のStep4と同じである。
〔Step12〕
解決部45は、各矩形領域Rectに対し、対称軸連続性評価処理を行なう。この処理は、第1の実施形態のStep5と同じである。
このようにして得られた、歩行者の候補の矩形領域に対して第1の実施形態と同様、後段処理としてニューラルネットワークによる識別処理や、パターンマッチング処理を行ない、歩行者に対する矩形領域であるかどうかを特定する。
これにより、歩行者の領域を正確に認識することが出来る。
図15は、第2の実施形態のシステムが行なう処理を示すフローチャートである。
同図において処理が開始されると、まず事前処理として幾何学情報テーブル31を1フレーム毎に算出する。
そして次にステップS11として反射領域抽出部43が、差分画像生成処理を行なう。この差分画像生成処理では、近赤外線照射ライト42をONにしたとき撮影した画像から近赤外線照射ライト42をONにしたとき撮影した画像を減算する。
次に反射領域抽出部43は、ステップS12として、ステップS11で求めた差分画像を2値化する。そしてこの2値化画像に対して、モルフォロジ演算のオープン・クローズフィルタを適用して、孤立点の除去や穴埋め処理を行なう(ステップS13)。
そして次にステップS14として、反射領域抽出部43は、平面領域抽出処理として閾値Th2以上の反射領域の抽出を行なう。そしてこの反射領域の下端点M(x,y)を求める(ステップS15)。
次に、ステップS16として、解決部44が、ステップS15で求めた各下端点Mに対して、この下端点Mを歩行者の足元と想定した場合の矩形領域を生成する。
そして各矩形領域に対して解決部44は、ステップS17として関数Symmによる対称軸評価処理を行なう。このステップS17の処理は第1の実施形態のステップS3と同じ処理である。
次に解決部44は、ステップS18として、各矩形領域に対してVsymmによって平滑処理を行なう。このステップS18の処理は第1の実施形態のステップS4と同じ処理である。
次に解決部44は、ステップS19として、各矩形領域に対してThinによる細線化処理を行なう。このステップS19の処理は第1の実施形態のステップS5と同じ処理である。
次に解決部44は、ステップS20として、各矩形領域に対して対称軸連続性評価処理を行なう。このステップS20に処理は、第1の実施形態のステップS7と同じ処理である。
そして最後にステップS21として候補の矩形領域を出力する。
このように第2の実施形態のシステムによれば、コントラストが不足して歩行者の下半身の画像が不鮮明な場合や、足元の下に対称性のテクスチャ(ペンキ、マンホール等)がある場合でも、足元を精度よく検出することが出来る。
次に本発明の第3の実施形態について説明する。
第3の実施形態のシステムは、矩形領域の上端から下端まで、正面肩幅を狙った対称間隔Tを使用しているため、路面の横断ペイントに対称軸候補が抽出され、誤検出の元になる場合に対処するものである。
これは、自車からの距離に換算すると、実際よりも近くに検出されてしまうという問題、及び後段処理部28の詳細判定によって棄却されてしまい検出性能が悪くなるという問題となっていた。
また、第2の実施形態と同様、路上ペンキと道路背景の組合せによって、歩行者の存在しない領域に候補領域が生成されるという問題にも対処している。これは、後段の詳細判定処理の実行回数が増え、処理量が多くなるという問題ともなる。
図16は、これらの問題点を示したものである。
同図においては、物体(歩行者)を検出するにあたって、例えば歩行者の肩幅から求めた対称間隔(インターバルサイズ)71からもとめた矩形領域72ではなく、路面のペイントも含んだ矩形領域73や、検出対象物以外のもの74による矩形領域75が候補領域として初期段階では検出される。
第3の実施形態では、これらの候補領域を評価して、誤った矩形領域を後段処理部28による詳細判定前に除去する。
本実施形態のシステムでは、車載した単眼カメラによる画像を用い、歩行者がほぼ線対称であるという特徴を考慮して、線対称性を含む画像領域を歩行者を含む可能性の高い画像領域として検出する。
具体的には図3において、カメラで撮影した画像に対して、物体の幅を囲うと想定する細い矩形領域11−1〜11−6の対称性を評価し、物体を囲うと想定する矩形領域12の中心軸付近13に存在する対称軸候補領域14−1〜14−6の密度と連続性を評価することで、検出対象物体の候補領域を生成し、これにより対称軸が部分的にずれる場合や、斜め方向の対称軸に対してロバストな効果を有する。
この際、第3の実施形態では例えば検出対象物が歩行者である場合、人の幅を囲うと想定する領域に対する対称性の評価に、人の頭部、上半身、下半身などの部位に対応する領域毎に異なる対称間隔を使用する。
図17に候補領域を複数の領域に分け、各領域ごとに異なる対称間隔を用いる例を示す。
同図は、歩行者の候補領域を示すもので、これを頭部領域81、上半身領域82及び下半身領域83それぞれに対して、それぞれ異なる対称間隔Tbd、Tub及びTlbを用いて対称軸候補領域を求める。
これにより第3の実施形態のシステムは第1の実施形態のシステムより、より高い物体検出能力を実現することができる。
図18は、第3の実施形態のシステム構成例を示す図である。
同図は、図4の第1の実施形態のシステム構成例の図と対比する形で書かれており、実質的に同一の機能を有する構成要素には同一の符号が付せられている。
図18の構成と図4の構成を比較すると、新たに領域分割処理部91、対象物体部位分割情報記憶部92及び統合判定処理部93を有している。
領域分割処理部91は、対象物体部位分割情報記憶部92内の情報に基づいて、全身矩形領域を複数の部位領域に分割する対象物体部位分割情報記憶部92は、幾何学情報テーブルに基づいて決定された人の全身を囲う矩形領域に対して、対象物体(歩行者)に依存した部位領域情報を記憶する。統合判定処理部93は、複数の部位領域から得られる対称軸の存在確率から、全身矩形領域に対象物体(歩行者)が含まれるかを統合的に判断する。
そして対称軸連続性評価部26は、全身矩形領域ではなく、領域分割処理部91が分割した1つの部位領域における対称軸の存在確率を算出する。
以下に第3の実施形態のシステム22bによって行なわれる処理の詳細を順を追って示す。
以下のStep Aの処理は、各Y座標について実施される。
〔Step A−1〕
領域分割処理部91は、各Y座標について、現在処理中の幾何学情報テーブルに基づき、人を囲う全身矩形領域の縦辺長を決定する。この縦辺長を、対象物体部位分割情報記憶部92に記憶される部位領域情報を参照し、各領域に適用するインターバルサイズを決定する。
例えば、領域分割処理部91が全身矩形領域を歩行者の頭部、上半身、下半身の3つの領域に分割する場合、対象物体部位分割情報記憶部92に記憶される部位領域情報は、図19のように縦方向の分割比率と、それぞれの領域におけるインターバルサイズを物体の矩形幅Wに対する比率を格納している。また、部位領域内における対称軸が存在する水平方向の位置を、Wに対する比率として格納している。
例えば縦分割比率より、頭部、上半身、下半身の縦(Y座標)の分割比は、1:2:2となる。また頭部、上半身、下半身のインターバルサイズを物体の矩形幅Wに対する比で表したものが0.5、1、0.3となる。さらに対称軸の存在位置の期待値を比で表すと頭部及び上半身は0.5となり、下半身は2つ対称軸が現れる可能性が高いので0.3と0.7になっている。
そしてこの部位領域情報を用い、例えば、図5よりY座標が180の場合、H=50、W=25から、図20に示すように、Y座標がY=130のライン101とY=180のライン102の間の領域(Y=131〜180の領域)を上から1:2:2に分割し、それぞれの領域I1、I2、I3とする。そして領域I1、I2、I3に対する対称性評価部25が使用するインターバルサイズTlocal1(図17のTbdに相当)、Tlocal2(図17のTubに相当)及びTllocal3(図17のTlbに相当)を、Tlocal1=W*0.5≒13、Tlocal2=W*1=25、Tllocal3=W*0.3=8と求める。
次に各部分画像領域Iiに対して以下の処理を行う。
以下のStep Bの処理は、各部分画像領域Iiに対する処理を示している。
〔Step B−1〕
対称性評価部25は、各インターバルサイズTlocal_iで、画像領域Iiの各画素xにおける水平方向の対称性を対称性フィルタの関数Symm(x,T)によって評価したフィルタ反応画像Fiを生成する。(〔第1の実施形態のStep2と同じ処理〕)
〔Step B−2〕
対称軸連続性評価部26は、各画像Fiについて、縦方向に重みを用いて平滑化処理を行い、画像Fi’を生成する。これらは例えば、評価式Vsymm(x)によって得ることが出来る。(〔第1の実施形態のStep3と同じ処理〕)
〔Step B−3〕
対称軸連続性評価部26は、平滑化処理後の画像Fi’について、ある閾値Th_i以上の領域Fxについて縦方向のみに細線化処理を行い、細線化処理をして得られた線分領域ELを抽出する。(〔第1の実施形態のStep4と同じ処理〕)
次に各X座標について以下の処理を実施する。
以下のStep Cの処理は、各X座標に対して実行される。
〔Step C−1〕
対称軸連続性評価部26は、幾何学情報テーブル31に基づいて、現在の処理対象の画素(x,y)の上方に存在する矩形領域Rを決定する。(第1の実施形態のStep6に相当)
具体的には、Y座標から得られる物体の矩形幅Wに基づき、Y=130のライン101とY=180のラインの間の領域において、X=−W/2+x〜x+W/2、Y=y−H+1〜yの領域を矩形領域Rとする。
次に各部分矩形領域Ri毎について以下の処理を実施する。
以下のStep Dの処理は、各部分矩形領域Ri毎に対して実行される。
図21にY=130のライン101とY=180のラインの間の領域における各部分領域Riを模式的に示す。
〔Step D−1〕
対称軸連続性評価部26は、StepC−1で決定した矩形領域Rと画像領域Iiで定義される領域Riの中心付近の、細線化線分領域ELの密度を評価し、対称軸の存在確率Psymm_iを算出する。
例えば、領域Riについて、部位領域情報を参照し、対称軸存在位置(期待値)に基づき、中心位置x1を決定する。例えば頭部の場合、x1=0.5*Wで得られる。
このとき、領域Riのy座標をy1〜y2とすると、x1を中心としたa%の領域(x=x1−0.5*a*W〜x1+0.5*a*W,y=y1−H〜y1)について、各行における細線化線分領域ELの存在NELを評価する。
a%の中心領域の全行分のNELの合計をSNELとすると、Psymm_i=NEL/(y2−y1+1)と定義することができる。(第1の実施形態における〔Step 7〕と同様)
また、下半身部分の場合のように、領域Riに2本以上の対称軸が期待される場合は、部位領域情報を参照して得られる、それぞれの位置についてPsymmを算出する。
Step Dの処理が終了すると、各X座標について実施されるStep C−2が実行される。
〔Step C−2〕
各部分矩形領域RiからのPsymmに基づき、矩形領域Rに対象物体が含まれるか否かの判定処理を統合的に行う。例えば、すべてのPsymm_iが所定の閾値Thiを満たす場合に、矩形領域Rに、歩行者の各部位に応じた対称軸が存在すると判断し、領域Rを採択する。そうでない場合は、棄却する。(Riから2つ以上の存在確率が得られている場合はOR条件とする)
if Psymm1>Th1 & Psymm2>Th2 & (Psymm31>Th31 |Psymm32>Th32) then f(Psymm1,Psymm2,Psymm3)=1 otherwise 0
そして評価関数によりf(Psymm1,Psymm2,Psymm3)が1のときは、全部分領域を採択し、0のときは破棄する。
以上のStepを全Y座標に対して実行することにより、各点(x,y)における歩行者存在判定が行われる。
図22は、第3の実施形態のシステムで実行される処理を示すフローチャートである。
同図の処理が開始されると、まずステップS31として幾何学情報テーブルの算出が1フレーム毎に行われる。
この幾何学情報テーブルは、カメラの高さ、傾き具合、焦点距離等のパラメータから算出する。
次にY座標毎に以下のステップS32〜S38の処理を繰り返す。
まずステップS32として、部位領域情報に基づいた部分領域の決定処理を行う。
例えば部位領域情報が、図19に示すような値の場合、全身矩形領域を1:2:2で頭部、上半身及び下半身の部分領域に分割する。また各部分領域のインターバルサイズを決定する。
次に以下のステップS33〜S35の処理を各部分領域Ii毎に処理を行う。
まずステップS33では、対称性評価部25が、対称性フィルタの関数Symm(x,T)によって評価したフィルタ反応画像Fiを生成する。
次にステップS34として、対称軸連続性評価部26は、各画像Fiについて、縦方向に重みを用いて平滑化処理を行い、画像Fi’を生成する。
そして次に、ステップS35として、対称軸連続性評価部26は、平滑化処理後の画像Fi’について、ある閾値Th_i以上の領域Fxについて縦方向のみに細線化処理を行い、細線化処理をして得られた線分領域ELを抽出する。
以上のステップS33〜35の処理を全ての部分領域Iiに対して行うと、次にX座標毎の処理としてステップS36を行う。
このステップS36では、部分領域Rの決定処理を行う。
そして次にステップS37の処理を行う。このステップS37の処理は全ての部分領域Riに対して行われる。
ステップS37では、各部分領域Riの対称軸存在確率を求める。
そしてステップS37の処理が終了後、ステップS38として全部分領域の存在確率、Psymnに基づいた判定処理を判定式f(Psymm1,Psymm2,・・・)から求める。
このステップS32からステップS38までの処理を全てのY座標について実行後、本処理を終了する。
以上のように、本発明の第1の実施形態によれば、歩行者の幅を囲うと想定する細い矩形領域の対称性を評価し、矩形領域の中心軸付近に存在する対称軸候補領域の密度と連続性を評価することで、人の候補領域を生成し、これにより対称軸が部分的にずれる場合や、斜め方向の対称軸に対してロバストな効果を有する。
これによって、本来より矩形領域が小さく認識され、距離が本来よりも非常に遠くに認識されたり、後段の詳細判定によって矩形領域が棄却され、検出性能が悪くなったりする問題を改善することができる。
また単眼のカメラ構成により、システムを構築できるので、安価で小型なシステムを構築することが出来る。
また第2の実施形態のシステムによれば、背景とのコントラストが不足し下半身の画像が不鮮明な場合や、足元の下に対称性のテクスチャ(ペンキ、マンホール等)がある場合でも、足元を精度よく検出できる。また第1の実施形態のシステム同様、距離が本来よりも非常に遠くに認識されたり、後段の詳細判定によって矩形領域が棄却され、検出性能が悪くなったりする問題を改善することができる。
また第3の実施形態のシステムによれば、矩形領域を複数の部分領域に分割して、各部分領域ごとに異なったインターバルサイズを用いて対称軸の評価を行うことにより、誤検出が少なくなり、さらに高い物体検出性能を実現することができる。
なお上記例では、物体検出システムが検出する検出対象物の一例として歩行者を挙げているが、本発明による物体検出システムの検出対象物体は歩行者に限定されるものではなく、看板、標識、自動車、自転車、オートバイ等、ゆるい対称性を持つものなら他のものでも良い。

Claims (15)

  1. 1つのカメラから得られる撮影画像に対して、対象物体の実際のサイズとカメラパラメータ情報を用いて、路面上に存在する物体の画像上での位置と画像領域サイズの関係を示す幾何学情報を算出する幾何学情報生成部と、
    評価対象として指定される各画素前記対象物体の実際の幅として想定される幅と前記幾何学情報に基づいて決められる対称間隔での対称軸である可能性を評価する対称性評価部と、
    前記対称性評価部によ評価から得られる値がある閾値以上の画素の連続性を評価し最下端点検出し、検出された前記最下端点及び前記幾何学情報に基づいて得られる矩形領域において、当該矩形領域内の中心軸付近の、対称軸である画素の密度を評価する対称軸連続性評価部と、
    前記対称軸連続性評価部による前記密度の評価から得られる値が所定値以上である場合に、前記対物体の候補領域として当該矩形領域の位置とサイズを出力する矩形領域生成部と、
    を有することを特徴とする物体検出システム。
  2. 前記撮影画像の縦方向の画素の位置と、前記対物体が収まる前記矩形領域の幅と縦の大きさを対応付けたテーブルを、前記幾何学情報として記憶する幾何学情報テーブル記憶部を更に備えることを特徴とする請求項1に記載の物体検出システム。
  3. 画素の横方向の位置をx、前記対称間隔をTとすると、前記対性評価部による対称軸の可能性の評価は、関数Symm(x,T)
    によって行なわれることを特徴とする請求項1に記載の物体検出システム。
  4. 画素の横方向の位置をx、前記対称間隔をTとすると、前記対性評価部による対称軸の可能性の評価は、関数Symm(x,T)
    によって行なわれることを特徴とする請求項1に記載の物体検出システム。
  5. 前記対称軸連続性評価部は、画素毎に前記対称性評価部によって得られる対称軸の可能性の評価値を平滑化し、平滑化後の評価値がある閾値以上の画素構成される画像に対して細線分化処理を行ない、当該細線分化処理によって得られた線分領域の前記最下端点を求めることを特徴とする請求項1に記載の物体検出システム。
  6. 前記矩形領域生成部は、前記対称軸連続性評価部が検出した最下端点のうち近似するものを統合し、当該最下端点を最下端とする矩形領域を前記対物体の候補領域の位置とサイズとして出力することを特徴とする請求項1に記載の物体検出システム。
  7. 前記カメラのシャッターに同期してON/OFFを交互に切り換える照射ライトに接続され、前記照射ライトがONのとき撮影した画像と、前記照射ライトがOFFのとき撮影した画像の差分画像を求め、当該差分画像に対して、線分除去フィルタを適用して反射領域を抽出する反射領域抽出部を更に備え、前記幾何学情報生成部は、当該反射領域に対して、対象物体の実際のサイズとカメラパラメータ情報を用いて、前記幾何学情報を算出することを特徴とする請求項1に記載の物体検出システム。
  8. 前記照射ライトは、近赤外線照射ライトであることを特徴とする請求項7に記載の物体検出システム。
  9. 前記照射ライトは、路面に対して略平行に光を照射することを特徴とする請求項7に記載の物体検出システム。
  10. 前記対象物体は、歩行者であることを特徴とする請求項1に記載の物体検出システム。
  11. 前記矩形領域中の前記対象物体に依存した部位領域情報を記憶する対象物体部位分割情報記憶部と、
    前記部位領域情報に基づいて、矩形領域を複数の部分領域に分割する領域分割処理部と、
    前記各部分領域において前記対称軸連続性評価部によって算出された対称軸存在確率に基づいて、歩行者候補領域を統合的に判定する統合判定部
    を有し、
    前記対称性評価部は、分割された前記部分領域それぞれに対して、前記部位領域情報で定義される、前記対称間隔を用いて対称軸の可能性を評価し、前記対称軸連続性評価部は、前記対称性評価部によって評価された対称軸候補領域の、部分領域の所定位置における密度を評価し、対称軸存在確率を算出する
    ことを特徴とする請求項1に記載の物体検出システム。
  12. 前記対象物体は歩行者で、前記領域分割処理部は前記矩形領域を前記歩行者の頭部に当たる部分領域、上半身に当たる部分領域及び下半身に当たる部分領域に分割することを特徴とする請求項11に記載の物体検出システム。
  13. 1つのカメラから得られる撮影画像に対して、対象物体の実際のサイズとカメラパラメータ情報を用いて、路面上に存在する物体の画像上での位置と画像領域サイズの関係を示す幾何学情報を算出し、
    評価対象として指定される各画素前記対象物体の実際の幅として想定される幅と前記幾何学情報に基づいて決められる対称間隔の対称軸である可能性を評価し、
    前記可能性の評価により得られる値がある閾値以上の画素連続性評価し最下端点を検出し、
    前記検出された最下端点及び前記幾何学情報に基づいて得られる矩形領域において、当該矩形領域内の中心軸付近の、対称軸である画素の密度を評価し、
    前記密度の評価から得られる値が所定値以上である場合に、前記対物体の候補領域として当該矩形領域の位置とサイズを出力する
    ことを特徴とする物体検出方法。
  14. 記憶されている前記矩形領域中の前記対象物体に依存した部位領域情報に基づいて、矩形領域を複数の部分領域に分割し、
    前記各部分領域において算出された対称軸存在確率に基づいて、歩行者候補領域を統合的に判定し、
    分割された前記部分領域それぞれに対して、前記部位領域情報で定義される、前記対称間隔を用いて対称軸の可能性を評価し、
    評価された対称軸候補領域の、部分領域の所定位置における密度を評価し、対称軸存在確率を算出する
    ことを特徴とする請求項13に記載の物体検出方法。
  15. 照射ライトがONのとき撮影した画像と、前記照射ライトがOFFのとき撮影した画像の差分画像を求め、当該差分画像に対して、線分除去フィルタを適用して反射領域を抽出し、当該反射領域に対して、対象物体の実際のサイズとカメラパラメータ情報を用いて、前記幾何学情報を算出することを特徴とする請求項13に記載の物体検出方法。
JP2008519552A 2006-11-29 2007-06-08 物体検出システム及び物体検出方法 Expired - Fee Related JP4829966B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008519552A JP4829966B2 (ja) 2006-11-29 2007-06-08 物体検出システム及び物体検出方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPPCT/JP2006/323792 2006-11-29
PCT/JP2006/323792 WO2008065717A1 (fr) 2006-11-29 2006-11-29 Système et procédé de détection de piéton
JP2008519552A JP4829966B2 (ja) 2006-11-29 2007-06-08 物体検出システム及び物体検出方法
PCT/JP2007/000616 WO2008065729A1 (fr) 2006-11-29 2007-06-08 Système et procédé de détection d'objet

Publications (2)

Publication Number Publication Date
JPWO2008065729A1 JPWO2008065729A1 (ja) 2010-03-04
JP4829966B2 true JP4829966B2 (ja) 2011-12-07

Family

ID=45418253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008519552A Expired - Fee Related JP4829966B2 (ja) 2006-11-29 2007-06-08 物体検出システム及び物体検出方法

Country Status (1)

Country Link
JP (1) JP4829966B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6003367B2 (ja) * 2012-08-06 2016-10-05 日本電気株式会社 画像認識装置、画像認識方法および画像認識プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315149A (ja) * 1995-05-17 1996-11-29 Oki Electric Ind Co Ltd 侵入物体認識装置
JP2000039306A (ja) * 1998-07-22 2000-02-08 Nec Corp 車両領域検出装置及び車両領域検定方法
JP2003284057A (ja) * 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
JP2005339389A (ja) * 2004-05-28 2005-12-08 Matsushita Electric Works Ltd 画像処理方法および画像処理装置
JP2006099603A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315149A (ja) * 1995-05-17 1996-11-29 Oki Electric Ind Co Ltd 侵入物体認識装置
JP2000039306A (ja) * 1998-07-22 2000-02-08 Nec Corp 車両領域検出装置及び車両領域検定方法
JP2003284057A (ja) * 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
JP2005339389A (ja) * 2004-05-28 2005-12-08 Matsushita Electric Works Ltd 画像処理方法および画像処理装置
JP2006099603A (ja) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd 人物検出装置及び方法

Also Published As

Publication number Publication date
JPWO2008065729A1 (ja) 2010-03-04

Similar Documents

Publication Publication Date Title
WO2008065729A1 (fr) Système et procédé de détection d'objet
JP6184877B2 (ja) 車両用外界認識装置
CN107463890B (zh) 一种基于单目前视相机的前车检测与跟踪方法
US9117115B2 (en) Exterior environment recognition device and exterior environment recognition method
JP6358552B2 (ja) 画像認識装置および画像認識方法
KR101362631B1 (ko) 머리 인식 방법
JP2014115978A (ja) 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
JP2013089252A (ja) 映像処理方法及び装置
JP2008123113A (ja) 歩行者検知装置
CN106573588A (zh) 驾驶辅助装置、驾驶辅助方法和程序
JP2010244194A (ja) 物体識別装置
JP4674179B2 (ja) 影認識方法及び影境界抽出方法
KR101483742B1 (ko) 지능형 차량의 차선 검출방법
JP4094604B2 (ja) 車両周辺監視装置
WO2011099072A1 (ja) パターン識別装置
JP4425852B2 (ja) 車両周辺監視装置
JP2006151300A (ja) 車両周辺監視装置
JP5867267B2 (ja) 歩行者検出装置及び歩行者検出方法
JP4829966B2 (ja) 物体検出システム及び物体検出方法
KR101696086B1 (ko) 소나 이미지 내의 물체 부분 추출 방법 및 장치
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
KR101371875B1 (ko) 스테레오 비전을 이용한 차량검출과 차간거리 산출 방법 및 그 장치
JP4298699B2 (ja) 車両周辺監視装置
JP2013214258A (ja) 歩行者検出装置及び方法、並びに車両用衝突判定装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20110617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees