JP5742873B2 - 物体識別装置 - Google Patents

物体識別装置 Download PDF

Info

Publication number
JP5742873B2
JP5742873B2 JP2013098804A JP2013098804A JP5742873B2 JP 5742873 B2 JP5742873 B2 JP 5742873B2 JP 2013098804 A JP2013098804 A JP 2013098804A JP 2013098804 A JP2013098804 A JP 2013098804A JP 5742873 B2 JP5742873 B2 JP 5742873B2
Authority
JP
Japan
Prior art keywords
score
identification
vector
image
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013098804A
Other languages
English (en)
Other versions
JP2014219847A (ja
Inventor
一仁 竹中
一仁 竹中
誉司 坂東
誉司 坂東
ニキネジャド ホセイン テヘラニ
ニキネジャド ホセイン テヘラニ
万寿三 江川
江川  万寿三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013098804A priority Critical patent/JP5742873B2/ja
Priority to US14/271,543 priority patent/US9367735B2/en
Publication of JP2014219847A publication Critical patent/JP2014219847A/ja
Application granted granted Critical
Publication of JP5742873B2 publication Critical patent/JP5742873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Description

本発明は、画像内の物体を識別する物体識別装置に関する。
従来、画像内の物体を識別する物体識別装置において、画像内に写っている態様(例えば、人の顔の向き、傾き、大きさ)が変動する物体を識別するために、上記変動の態様(以下、変動態様という)を分類し、分類した変動態様毎に、変動態様に適した識別器を構築する技術が知られている(例えば、特許文献1を参照)。
特開2010−165046号公報
しかし特許文献1に記載の技術では、物体識別装置の設計者が上記変動態様の分類を予め決定しておく必要がある。このため、上記分類における上記変動態様の区切りが設計者の判断に依存し、上記分類が物体識別において適切なものではない可能性がある。また、上記変動態様の数が多くなると、上記分類を設計者が事前に決定することができなくなる可能性がある。
本発明は、こうした問題に鑑みてなされたものであり、物体識別のために行われる分類を設計者の判断を介することなく行うことができる技術を提供することを目的とする。
上記目的を達成するためになされた本発明の物体識別装置は、画像内において写っている態様が変動する物体を識別するものであり、複数の予備識別手段と、スコアベクトル生成手段と、クラスタ決定手段と、本識別手段とを備える。
本発明の物体識別装置では、まず複数の予備識別手段が、識別対象として予め設定された物体である識別対象物体を画像内において識別するために予め設定された特徴量を画像から取得し、取得した特徴量に基づいて、画像内に識別対象物体が写っている信頼度を示すスコアを、互いに異なるように予め設定されたスコア算出条件に基づいて算出する。次にスコアベクトル生成手段が、複数の予備識別手段が算出したスコアを成分とするベクトルであるスコアベクトルを生成する。さらにクラスタ決定手段が、スコアベクトルを分類するために予め設定された複数のクラスタの中から、スコアベクトル生成手段により生成されたスコアベクトルを含むクラスタを決定する。
そして本識別手段が、画像内に識別対象物体が写っているか否かを判断するための判断条件が複数のクラスタ毎に予め設定され、クラスタ決定手段により決定されたクラスタに対応する判断条件に基づいて、画像内に写る識別対象物体を識別する。
このように構成された物体識別装置では、スコアベクトルを分類するために、複数のクラスタが予め設定されている必要がある。
なお、複数のクラスタを予め設定しておくには、画像内に識別対象物体が写っていることを示すスコアベクトルと、画像内に識別対象物体が写っていないことを示すスコアベクトルを多数用意して、これらのスコアベクトルを用いてクラスタリングをする必要がある。
そして、ベクトル空間内の複数のベクトルは、周知のクラスタリング手法により計算機で自動的に分類することができる。このため、スコアベクトルを分類するために予め行われるクラスタ設定を設計者の判断を介することなく行うことができる。これにより、予め設定される必要がある上記クラスタが識別対象物体の識別において適切ではないという事態の発生を抑制することができる。
また上述のように、複数のクラスタの設定を計算機で自動的に行うことができるため、画像内において識別対象物体が写っている態様の数が多くなったとしても、複数のクラスタの設定ができなくなるという事態の発生を抑制することができる。また、設計者の判断では区別が困難な複数のクラスタの設定も適切に行うことができる。
運転支援装置1の構成を示すブロック図である。 制御部4が実行する処理の概要を示す機能ブロック図である。 検出窓とパーツ領域を示す図である。 クラスタリングの方法を示す説明図である。 歩行者識別処理を示すフローチャートである。 歩行者識別学習装置100が実行する処理の概要を示す機能ブロック図である。 スコアベクトル生成処理を示すフローチャートである。 SVM学習処理を示すフローチャートである。 予備識別器の識別性能を示す棒グラフである。 クラスタの数と識別性能との関係を示すグラフである。 変動の態様を設計者が事前に分割した場合の特徴量空間内の分割を示す図である。 クラスタが設定されていない場合における特徴量空間内の超平面を示す図である。 別の実施形態における車両識別方法を説明する図である。 別の実施形態におけるスコアベクトル空間内のスコアベクトル分布を示す図である。
以下に本発明の実施形態について図面とともに説明する。
本発明が適用された運転支援装置1は、車両に搭載され、図1に示すように、カメラ2、ヘッドアップディスプレイ(Head Up Display)装置3(以下、HUD装置3という)および制御部4を備えている。
運転支援装置1は、車両の前方に歩行者が存在する場合に、歩行者が存在する位置を示す画像をHUD装置3に表示させることにより、歩行者の存在を運転者に報知する。
カメラ2は、運転者がウインドシールド越しに視認可能な自車両前方の風景(以下、前景ともいう)を連続して撮影する。なお以下、カメラ2が撮影することにより取得された画像データを前景画像データという。
HUD装置3は、画像を表示するための表示光を、ウインドシールドの下方からウインドシールドに向けて照射する。これにより、運転者は、その投影された虚像を車両前方の実際の風景に重ねて視認することになる。
制御部4は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されている。そして制御部4は、カメラ2からの入力に基づいて各種処理を実行してHUD装置3を制御する。
また制御部4は、図2に示すように、機能ブロックとして、予備識別器群11、スコアベクトル生成部12、クラスタ決定部13および本識別器14を備えている。
予備識別器群11は、予備識別器11−1、予備識別器11−2、・・・、予備識別器11−(N−1)および予備識別器11−Nを備える(Nは2以上の整数)。
N個の予備識別器11−i(iは1〜Nの整数)はそれぞれ、DPM(Deformable Part Model)を用いて、前景画像データが示す前景画像内に歩行者が存在するか否かを識別する識別器である。
DPMは、検出対象物体を複数のパーツの集合として表し、各パーツ内に含まれる物体の形状と各パーツの相対位置とに基づいて算出された類似度(スコア)を用いて、画像内の検出対象物体を検出する手法である(P. F. Felzenszwalb et al., "Object Detection with Discriminatively Trained Part Based Models, "IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,2010年9月,第32巻,第9号,p1627−1645を参照)。
予備識別器11−iは、図3に示すように、1個の検出窓DWと、歩行者の頭部、左肩部、右肩部、腰部、脚部に対応する5個のパーツP1,P2,P3,P4,P5とを用いて上記スコアを算出する。
なお、前景画像内の歩行者は、歩行者の大きさ、体の向き(前向き、横向き、後ろ向きなど)、歩行状態(静止中、歩行中)および服装(シャツ、コートなど)などに基づいて互いに異なる複数の変動態様で写ることが想定される。
検出窓DWは、検出対象物体である歩行者全体を包含するように矩形状に形成されている。歩行者の頭部に対応する頭部パーツ領域P1、歩行者の左肩部に対応する左肩部パーツ領域P2、歩行者の右肩部に対応する右肩部パーツ領域P3、歩行者の腰部に対応する腰部パーツ領域P4、および歩行者の脚部に対応する脚部パーツ領域P5はそれぞれ、歩行者の対応部位を包含するように矩形状に形成されており、検出窓DW内に配置される。
予備識別器11−iは、検出窓DWを前景画像GD内で走査させ(図3の矢印SDを参照)、走査された検出窓DWの位置とサイズ毎に、複数のスコアを算出する。スコアは、例えばHOG(Histograms of Oriented Gradients)特徴量を用いた周知のマッチングアルゴリズムにより算出される。
上記複数のスコアは、全体形状スコアs0、頭部形状スコアs1、左肩部形状スコアs2、右肩部形状スコアs3、腰部形状スコアs4、脚部形状スコアs5、頭部位置スコアd1、左肩部位置スコアd2、右肩部位置スコアd3、腰部位置スコアd4および脚部位置スコアd5により構成されている。
全体形状スコアs0は、検出窓DW内に包含される画像と歩行者の全身との間における形状の類似度を示す。頭部形状スコアs1は、頭部パーツ領域P1内に包含される画像と歩行者の頭部との間における形状の類似度を示す。左肩部形状スコアs2は、左肩部パーツ領域P2内に包含される画像と歩行者の左肩部との間における形状の類似度を示す。右肩部形状スコアs3は、右肩部パーツ領域P3内に包含される画像と歩行者の右肩部との間における形状の類似度を示す。腰部形状スコアs4は、腰部パーツ領域P4内に包含される画像と歩行者の腰部との間における形状の類似度を示す。脚部形状スコアs5は、脚部パーツ領域P5内に包含される画像と歩行者の脚部との間における形状の類似度を示す。
頭部位置スコアd1は、検出窓DW内における頭部パーツ領域P1の位置と歩行者の頭部の位置との類似度を示す。左肩部位置スコアd2は、検出窓DW内における左肩部パーツ領域P2の位置と歩行者の左肩部の位置との類似度を示す。右肩部位置スコアd3は、検出窓DW内における右肩部パーツ領域P3の位置と歩行者の右肩部の位置との類似度を示す。腰部位置スコアd4は、検出窓DW内における腰部パーツ領域P4の位置と歩行者の腰部の位置との類似度を示す。脚部位置スコアd5は、検出窓DW内における脚部パーツ領域P5の位置と歩行者の脚部の位置との類似度を示す。
そしてN個の予備識別器11−i(iは1〜Nの整数)は、互いに異なる学習用撮影画像データを用いて行われた学習の結果に基づいて、上記スコアを算出するように構成されている。
スコアベクトル生成部12は、N個の予備識別器11−iが算出したスコアを用いて、スコアベクトルを生成する。
スコアベクトルは、N個の予備識別器11−iのそれぞれについて下式(1)で表されるN個の6次元ベクトルVi(iは1〜Nの整数)を行方向に配列することにより形成された(6×N)次元ベクトルである。
i=(s0,s1+d1,s2+d2,s3+d3,s4+d4,s5+d5) ・・・(1)
クラスタ決定部13は、スコアベクトル生成部12により生成されたスコアベクトルが、予め設定されているM個(Mは2以上の整数)のクラスタの何れに分類されるかを決定する。クラスタは、スコアベクトルを構成する各成分を座標とする(6×N)次元の特徴空間におけるスコアベクトル間の距離により分類されたスコアベクトルの集合である。本実施形態では、スコアベクトル間の距離計量にはユークリッド距離を用いる。
図4の左図は、特徴空間におけるスコアベクトルの分布を示すイメージ図である。図4の右図は、左図に示すスコアベクトルの分布をクラスタリングした結果を示すイメージ図である。図4では、説明の簡略化のために、特徴空間を、予備識別器11−1の6次元ベクトルV1の成分を構成する6個のスコアのうちの1個を横軸とし、予備識別器11−2の6次元ベクトルV2の成分を構成する6個のスコアのうちの1個を縦軸としたものとしている。そして図4では、スコアベクトルが、第1クラスタCL1、第2クラスタCL2、第3クラスタCL3および第4クラスタCL4の何れかに分類されている状態を示している。
クラスタ決定部13は、M個のクラスタCL−1,CL−2,・・・,CL−(M−1),CL−Mそれぞれの中心と、入力したスコアベクトルの位置とを比較することにより、入力したスコアベクトルが所属するクラスタを決定する。
本識別器14は、図2に示すように、サポートベクタマシン(Support Vector Machine)識別器群21(以下、SVM識別器群21という)および歩行者識別部22を備えている。
SVM識別器群21は、SVM識別器21−1、SVM識別器21−2、・・・、SVM識別器21−(M−1)およびSVM識別器21−Mを備える(Mは2以上の整数)。
M個のSVM識別器21−1,21−2,・・・,21−(M−1),21−Mはそれぞれ、M個のクラスタCL−1,CL−2,・・・,CL−(M−1),CL−Mに対応して設けられている。
SVM識別器21−j(jは1〜Mの整数)は、周知の線形サポートベクタマシン(以下、線形SVM)を用いて、クラスタCL−jを構成するスコアベクトルを、歩行者を示すものであるか否かに分類する。SVM識別器21−jは、クラスタCL−jを構成するスコアベクトルを歩行者および非歩行者の何れか一方に分類するために予め設定された超平面を用いる。具体的には、SVM識別器21−jは、入力したスコアベクトルが歩行者を示すものであると判断した場合には、識別スコアとして正の値を出力し、入力したスコアベクトルが歩行者を示すものではないと判断した場合には、識別スコアとして負の値を出力する。
図4の右図には、クラスタCL1,CL2,CL3,CL4のそれぞれに対して設定された超平面HP1,HP2,HP3,HP4を示している。
なおスコアベクトルの入力は、クラスタ決定部13で決定されたクラスタに対応するSVM識別器21−jに対して行われる。例えば、スコアベクトル生成部12により生成されたスコアベクトルがクラスタCL−2に分類されるとクラスタ決定部13が決定した場合には、このスコアベクトルはSVM識別器21−2に入力される。
歩行者識別部22は、SVM識別器群21が出力した識別スコアに基づいて、この識別スコアに対応したスコアベクトルが生成された検出窓DW内の歩行者を識別する。具体的には、識別スコアが正の値である場合には、検出窓DW内に歩行者が存在すると判断し、識別スコアが負の値である場合には、検出窓DW内に歩行者が存在しないと判断する。
次に、制御部4が歩行者を識別するために実行する処理(以下、歩行者識別処理という)の手順を図5を用いて説明する。歩行者識別処理は、運転支援装置1の動作中において繰り返し実行される処理である。
歩行者識別処理が実行されると、制御部4は、図5に示すように、まずS10にて、カメラ2から前景画像データを取得する。そしてS20にて、取得した前景画像データを用いて、予備識別器群11の予備識別器11−1、予備識別器11−2、・・・、予備識別器11−(N−1)および予備識別器11−Nを用いて、検出窓に対応するスコアs1 0,s1 1,s1 2,s1 3,s1 4,s1 5,d1 1,d1 2,d1 3,d1 4,d1 5,s2 0,・・・,dN 5を算出する。ただし、sj 0は予備識別器11−jによって算出された全体形状スコア、dj 5は予備識別器11−jによって算出された脚部パーツ領域P5の位置スコアを表す。
その後S30にて、スコアベクトル生成部12を用いてスコアベクトルを生成する。さらにS40にて、クラスタ決定部13を用いて、スコアベクトルが所属するクラスタを決定する。
次にS50にて、S40で決定したクラスタに対応するSVM識別器21−jを用いて、識別スコアを算出する。そしてS60にて、S50で算出した識別スコアに基づいて、前景画像内の歩行者を識別し、歩行者識別処理を一旦終了する。この処理を検出窓の位置およびサイズを変化させながら繰り返すことで、前景画像全体から歩行者を識別する。
次に、制御部4による歩行者識別処理のためにSVM識別器群21の学習を行う歩行者識別学習装置100を説明する。
歩行者識別学習装置100は、図6に示すように、機能ブロックとして、予備識別器群101、スコアベクトル生成部102、スコアベクトル記憶部103、クラスタリング部104、スコアベクトル分類部105およびSVM学習部群106を備えている。
予備識別器群101は、予備識別器101−1、予備識別器101−2、・・・、予備識別器101−(N−1)および予備識別器101−Nを備える(Nは2以上の整数)。予備識別器101−iは、上述の予備識別器11−iと同一のものである(iは1〜Nの整数)。
スコアベクトル生成部102は、N個の予備識別器101−iが算出したスコアを用いて、上述のスコアベクトル生成部12と同様にして、スコアベクトルを生成する。
スコアベクトル記憶部103は、スコアベクトル生成部102が生成したスコアベクトルを記憶する。
クラスタリング部104は、スコアベクトル記憶部103に記憶されている複数(本実施形態では例えば1000個)のスコアベクトルを、周知のクラスタリング手法(例えば「k-means」、「Spectral Clustering」、「凝集クラスタリング」、「混合正規分布を用いたクラスタリング」、「ディリクレ過程混合分布を用いたクラスタリング」)によりクラスタリングし、複数(本実施形態ではM個)のクラスタCL−1,CL−2,・・・,CL−(M−1),CL−Mに分類する(Mは2以上の整数)。
スコアベクトル分類部105は、スコアベクトル記憶部105−1、スコアベクトル記憶部105−2、・・・、スコアベクトル記憶部105−(M−1)およびスコアベクトル記憶部105−Mを備える。
スコアベクトル記憶部105−1,105−2,・・・105−(M−1),スコアベクトル記憶部105−Mはそれぞれ、スコアベクトル記憶部103に記憶されているスコアベクトルのうちクラスタリング部104でクラスタCL−1,CL−2,・・・,CL−(M−1),CL−Mに分類されたスコアベクトルを記憶する。例えば、スコアベクトル分類部105でクラスタCL−2に分類されたスコアベクトルは、スコアベクトル記憶部105−2に記憶される。
SVM学習部群106は、SVM学習部106−1、SVM学習部106−2、・・・、SVM学習部106−(M−1)およびSVM学習部106−Mを備える。
SVM学習部106−jは、スコアベクトル記憶部105−jに記憶されているスコアベクトルを入力して、線形SVMの手法により、歩行者が存在することを示すスコアベクトルと歩行者が存在しないことを示すスコアベクトルとを分類するための超平面を学習する(jは1〜Mの整数)。
次に、歩行者識別学習装置100が学習用のスコアベクトルを生成する処理(以下、スコアベクトル生成処理という)の手順を図7を用いて説明する。スコアベクトル生成処理は、学習用撮影画像データが歩行者識別学習装置100に入力される毎に実行される処理である。
学習用撮影画像データは、予め複数(本実施形態では例えば1000)用意されており、複数の学習用撮影画像データは互いに画像が異なっている。そして複数の学習用撮影画像データは、歩行者が撮影されている画像(以下、歩行者撮影画像という)、および歩行者が撮影されていない画像の何れかに分類されている。なお学習用撮影画像データには、歩行者撮影画像であるか否かを示す情報が付加される。
スコアベクトル生成処理が実行されると、歩行者識別学習装置100は、図7に示すように、まずS110にて、歩行者識別学習装置100に入力した学習用撮影画像データを取得する。そしてS120にて、取得した学習用撮影画像データを用いて、予備識別器群101の予備識別器101−1、予備識別器101−2、・・・、予備識別器101−(N−1)および予備識別器101−Nを用いて、スコアs1 0,s1 1,s1 2,s1 3,s1 4,s1 5,d1 1,d1 2,d1 3,d1 4,d1 5,・・・,dN 5を算出する。
その後S130にて、スコアベクトル生成部102を用いてスコアベクトルを生成し、生成したスコアベクトルをスコアベクトル記憶部103に記憶して、スコアベクトル生成処理を一旦終了する。
次に、歩行者識別学習装置100がSVM識別器の超平面を学習する処理(以下、SVM学習処理という)の手順を図8を用いて説明する。SVM学習処理は、SVM学習処理の開始を指示するために予め設定された開始指示情報が歩行者識別学習装置100に入力したときに実行される処理である。
SVM学習処理が実行されると、歩行者識別学習装置100は、図8に示すように、まずS210にて、クラスタリング部104により、スコアベクトル記憶部103に記憶されている複数(本実施形態では例えば1000)のスコアベクトルをクラスタリングする。本実施形態では、クラスタリングにより、クラスタCL−1,CL−2,・・・,CL−(M−1),CL−Mの何れかにスコアベクトルが分類されたとする。
そしてS220にて、クラスタ毎に分類されたスコアベクトルを、対応するスコアベクトル記憶部105−j(jは1〜Mの整数)に記憶する。例えば、クラスタリング部104でクラスタCL−2に分類されたスコアベクトルは、スコアベクトル記憶部105−2に記憶される。
その後S230にて、スコアベクトル記憶部105−jに記憶されたスコアベクトルに基づいて、SVM学習部106−jにより、SVM識別器21−jの超平面を学習する(jは1〜Mの整数)。これにより、クラスタ毎にSVM識別器の超平面が学習される。そして、全てのクラスタについて超平面の学習が完了すると、SVM学習処理を終了する。
次に、本発明が適用された運転支援装置1のように、予備識別器により算出されるスコアの線形結合が本識別に有効であることを以下に示す。
図9は、それぞれ異なるデータを用いて行われた学習の結果に基づいてスコアを算出するように構成された30個の予備識別器の識別性能(縦棒H1,H2,・・・H29,H30を参照)と、上記30個の予備識別器により算出されたスコアの線形結合を用いた識別性能(縦棒H31を参照)とを示す棒グラフである。H1〜H31はすべて、評価用に用意された同じデータセットに対する識別性能を示す。
図9に示すように、上記30個の予備識別器により算出されたスコアの線形結合を用いた識別性能(H31)は、上記30個の予備識別器単独の識別性能(H1〜H30)よりも高くなる。
また、本発明が適用された運転支援装置1のように、スコアベクトルを構成する各成分を座標とする特徴空間内でスコアベクトルをクラスタリングすることが本識別に有効であることを以下に示す。
図10に示すように、データセットAを用いて行われた学習の結果に基づいてスコアを算出するように構成された予備識別器は、特徴空間を分割することで識別性能が向上している(グラフG1を参照)。データセットAと異なるデータセットBの両方を用いて行われた学習の結果に基づいてスコアを算出するように構成された予備識別器においても同様に、特徴空間を分割することで識別性能が向上している(グラフG2を参照)。
このように構成された運転支援装置1では、まず、N個の予備識別器11−i(iは1〜Nの整数)が、歩行者を画像内において識別するために予め設定されたHOG特徴量を画像から取得し、取得したHOG特徴量に基づいて、スコアs0,s1,s2,s3,s4,s5,d1,d2,d3,d4,d5を、互いに異なる学習用撮影画像データを用いて行われた学習の結果に基づいて算出する。次にスコアベクトル生成部12が、N個の予備識別器11−iが算出したスコアを成分とするスコアベクトルを生成する。さらにクラスタ決定部13が、スコアベクトルを分類するために予め設定されたM個(Mは2以上の整数)のクラスタの中から、スコアベクトル生成部12により生成されたスコアベクトルを含むクラスタを決定する。
そして、画像内に歩行者が写っているか否かを判断するための超平面が複数のクラスタ毎に予め設定され、本識別器14が、クラスタ決定部13により決定されたクラスタに対応する超平面に基づいて、画像内に写る歩行者を識別する。
このように構成された運転支援装置1では、スコアベクトルを分類するために、複数のクラスタが予め設定されている必要がある。
なお、複数のクラスタを予め設定しておくには、画像内に歩行者が写っていることを示すスコアベクトルと、画像内に歩行者が写っていないことを示すスコアベクトルを多数用意して、これらのスコアベクトルを用いてクラスタリングをする必要がある。
そして、ベクトル空間内の複数のベクトルは、周知のクラスタリング手法により計算機で自動的に分類することができる。このため、スコアベクトルを分類するために予め行われるクラスタ設定を設計者の判断を介することなく行うことができる。これにより、予め設定される必要がある上記クラスタが歩行者の識別において適切ではないという事態の発生を抑制することができる。一方、画像内において写っている態様が変動する物体(本実施形態では歩行者)を識別するために、この変動の態様を設計者が事前に分割した場合には、図11に示すように、複数の特徴量を座標とする特徴量空間内の分割が歩行者を識別するために適したものにならない可能性がある(図中の実線は、分割された各領域の境界を示し、図中の破線は、各領域内の超平面を示す)。
また上述のように、複数のクラスタの設定を計算機で自動的に行うことができるため、画像内において歩行者が写っている態様の数が多くなったとしても、複数のクラスタの設定ができなくなるという事態の発生を抑制することができる。
また運転支援装置1では、予め設定されたM個のクラスタの何れかにスコアベクトルが分類され、歩行者識別のための超平面がM個のクラスタ毎に設定されている。このため、例えば線形SVMのように超平面の設定を簡略化することができる。一方、クラスタが設定されていない場合には、図12に示すように、歩行者識別のための超平面が複雑になり、線型SVMでは十分に識別を行えない可能性がある(図12の破線は超平面を示す)。
またクラスタ決定部13は、M個のクラスタCL−1,CL−2,・・・,CL−(M−1),CL−Mそれぞれの中心と、入力したスコアベクトルの位置との間の距離に基づいて、スコアベクトルが所属するクラスタを決定する。これにより、距離の算出と距離の大小の比較という簡便な方法で所属クラスタを決定することができるため、制御部4の演算負荷を低減することができる。
予備識別器11−i(iは1〜Nの整数)は、歩行者の頭部、左肩部、右肩部、腰部、脚部を示す5個のパーツにより歩行者が構成されているとして、5個のパーツのそれぞれに対応して設けられたパーツ領域P1,P2,P3,P4,P5を画像内で移動させることで、5個のパーツ領域P1,P2,P3,P4,P5毎に、対応する頭部、左肩部、右肩部、腰部、脚部が画像内に写っている信頼度を示すスコアを算出する。このスコアは、少なくとも、頭部形状スコアs1、左肩部形状スコアs2、右肩部形状スコアs3、腰部形状スコアs4、脚部形状スコアs5、頭部位置スコアd1、左肩部位置スコアd2、右肩部位置スコアd3、腰部位置スコアd4および脚部位置スコアd5により構成されている。
そしてスコアベクトル生成部12は、形状スコアs1,s2,s3,s4,s5と位置スコアd1,d2,d3,d4,d5を加算したスコアを成分として含むようにしてスコアベクトルを生成する。これにより、パーツの形状に関する情報とパーツの位置に関する情報を含んだスコアベクトルを生成することができる。さらに、形状スコアs1,s2,s3,s4,s5と位置スコアd1,d2,d3,d4,d5をそれぞれ個別に成分とするスコアベクトルよりもベクトルの次元数が小さくなるため、制御部4の演算負荷を低減することができる。このようにして生成したスコアベクトルは、予備識別器における5個のパーツの形状と位置に関する情報と、全体形状に関する情報を独立に持っているため、特に一部のパーツの見え方が変化したり隠れるといった変化の態様に対して、その変化の態様ごとにクラスタを形成することができる。
また本識別器14は、クラスタ決定部13におけるクラスタの決定で用いたスコアベクトルに基づいて、画像内に歩行者が写っているか否かを判断する。これにより、本識別器14による歩行者識別のために新たな情報を追加する必要がなくなり、運転支援装置1の構成が複雑になるのを抑制することができる。
また本識別器14には、サポートベクタマシン(SVM)により、歩行者が存在することを示すスコアベクトルと歩行者が存在しないことを示すスコアベクトルとを分類する超平面が設定されている。SVMにより、上記両スコアベクトルとの間の距離(マージン)が最大になるように超平面が設定されるため、高い識別能力を確保することができる。
以上説明した実施形態において、運転支援装置1は本発明における物体識別装置、予備識別器11−iは本発明における予備識別手段、スコアベクトル生成部12は本発明におけるスコアベクトル生成手段、クラスタ決定部13は本発明におけるクラスタ決定手段、本識別器14は本発明における本識別手段、歩行者は本発明における識別対象物体、HOG特徴量は本発明における特徴量である。
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採ることができる。
例えば上記実施形態では、歩行者を識別するものを示したが、識別対象物体は歩行者に限定されるものではなく、例えば自動車や自転車、バイクを識別対象物体としてもよい。また歩行者、自動車、自転車、バイクの全部あるいは一部を識別対象物体としてもよい。
また上記実施形態では、入力としてカメラが撮影することにより取得された画像データを用いていたが、入力とする画像データは他の取得方法によるものとしてもよい。例えば、LIDARや赤外線カメラなどの計測装置によって取得されるものを用いてもよい。
また上記実施形態では、DPMを用いて予備識別器がスコアを算出するものを示したが、物体識別に用いるモデルはDPMに限定されるものではなく、識別結果に対応するスコアを算出できるものであればよい。
また上記実施形態では、形状スコアと位置スコアとを加算したスコアを成分として含むようにしてスコアベクトルを生成するものを示した。しかし、形状スコアのみを含むようにしてスコアベクトルを生成してもよいし、位置スコアのみを含むようにしてスコアベクトルを生成してもよいし、形状スコアおよび位置スコアの両方を含むようにしてスコアベクトルを生成してもよい。またDPMではなく識別結果に対応するスコアを算出できる他の予備識別器を用いる場合には、個々の予備識別器のスコアを配列してもよい。
また上記実施形態では、スコアベクトル間の距離計量としてユークリッド距離を利用したが、利用される距離計量はこれに限定されるものではない。例えば、マンハッタン距離、ハミング距離、最大値ノルム、などの周知の距離計量を利用してもよい。
また上記実施形態では、本識別器14として線型SVMを用いたが、本識別器14による識別方法はこれに限定されるものではない。例えば、本識別器14としてカーネルSVM、ニューラルネットワーク、ロジスティック回帰など、周知の識別器を用いてもよい。
また上記実施形態では、歩行者を示すものであるか否かの何れかにスコアベクトルを分類することにより本識別器14が歩行者を識別するものを示した。しかし、本識別器14による識別方法はこれに限定されるものではない。
例えば図13に示すように、スコアベクトル空間VSにおいて設定された複数のクラスタ(図13のクラスタCL11,CL12,CL13,CL14を参照)のうち、一部あるいは全部のクラスタ(図12ではクラスタCL14)について、スコアベクトルとは別の特徴量を用いて物体の識別を行うようにしてもよい。
図13のクラスタCL14を構成するスコアベクトルの分布では、物体識別を行うことができない、あるいは、線形SVMを用いて設定された超平面のような簡単な識別条件では物体識別を行うことができない。なおクラスタCL14は、典型的な横からの角度で観測した車両が所属するクラスタである。図13では、スコアベクトルがクラスタCL14に分類される場合に、ステレオカメラまたは距離センサなどにより検出した物体のサイズと、奥行き情報の分散とを特徴量とした特徴量空間FS内おける分布に基づいて車両を識別することを示している。これにより、物体か平坦であるか否かを識別し、実車(図13のC1を参照)と看板(図13のC2を参照)とを区別することができる。
また図14に示すように、スコアベクトル空間VSにおいて設定された複数のクラスタ(図14のクラスタCL21,CL22,CL23,CL24を参照)のうち、一部あるいは全部のクラスタ(図13ではクラスタCL24)について、スコアベクトルを構成する一部の成分のみを用いて物体の識別を行うようにしてもよい。
図14では、スコアベクトルがクラスタCL24に分類される場合に、スコアベクトル空間VSの縦軸の座標を構成するスコアと、横軸の座標を構成するスコアのうち、縦軸の座標を構成するスコアのみを用いて識別を行うことを示している(図14の超平面HP24を参照)。このようにスコアベクトルを構成する部分の一部の成分のみを用いることで、本識別器に必要な記憶容量と計算時間の両方を少なくすることができる。
また上記実施形態では、クラスタ決定部13で決定されたクラスタの全てにおいてスコアベクトルを用いて本識別器14が歩行者の識別を行うものを示した。しかし、クラスタ決定部13で決定されたクラスタに応じて、本識別器14が歩行者識別に用いる特徴量を異ならせるようにしてもよい。例えば、図4のクラスタCL1では、スコアベクトルを構成する全てのスコアを特徴量とし、クラスタCL2では距離情報を特徴とし、クラスタCL3では、スコアベクトルを構成する一部のスコアを特徴量とし、クラスタCL4では検出窓DW内のカラーヒストグラムを特徴量とするというようにして、本識別器14が歩行者識別に用いる特徴量を異ならせるようにしてもよい。
1…運転支援装置、11−i…予備識別器、12…スコアベクトル生成部、13…クラスタ決定部、14…本識別器

Claims (7)

  1. 画像内において写っている態様が変動する物体を識別する物体識別装置(1)であって、
    識別対象として予め設定された前記物体である識別対象物体を前記画像内において識別するために予め設定された特徴量を前記画像から取得し、取得した前記特徴量に基づいて、前記画像内に前記識別対象物体が写っている信頼度を示すスコアを、互いに異なるように予め設定されたスコア算出条件に基づいて算出する複数の予備識別手段(11−i)と、
    複数の前記予備識別手段が算出した前記スコアを成分とするベクトルであるスコアベクトルを生成するスコアベクトル生成手段(12)と、
    前記スコアベクトルを分類するために予め設定された複数のクラスタの中から、前記スコアベクトル生成手段により生成された前記スコアベクトルを含む前記クラスタを決定するクラスタ決定手段(13)と、
    前記画像内に前記識別対象物体が写っているか否かを判断するための判断条件が複数の前記クラスタ毎に予め設定され、前記クラスタ決定手段により決定された前記クラスタに対応する前記判断条件に基づいて、前記画像内に写る前記識別対象物体を識別する本識別手段(14)とを備える
    ことを特徴とする物体識別装置。
  2. 前記クラスタ決定手段は、前記スコアベクトルと複数の前記クラスタそれぞれとの間の距離に基づいて、前記クラスタを決定する
    ことを特徴とする請求項1に記載の物体識別装置。
  3. 前記予備識別手段は、
    前記識別対象物体の一部分を示し互いに異なる複数のパーツにより前記識別対象物体が構成されているとして、複数の前記パーツのそれぞれに対応して設けられたパーツ領域を前記画像内で移動させることで、複数の前記パーツ領域毎に、該パーツ領域に対応する前記一部分が前記画像内に写っている信頼度を示すスコアであるパーツスコアを算出し、
    前記パーツスコアに対応する前記パーツ領域内に該パーツ領域に対応する前記一部分が写っている信頼度を示すスコアを第1スコアとし、前記パーツ領域の位置の信頼度を示すスコアを第2スコアとして、前記パーツスコアは、少なくとも前記第1スコアおよび前記第2スコアにより構成されている
    ことを特徴とする請求項1または請求項2に記載の物体識別装置。
  4. 前記スコアベクトル生成手段は、
    少なくとも前記第1スコアおよび前記第2スコアの少なくとも一方を成分として含むようにして前記スコアベクトルを生成する
    ことを特徴とする請求項3に記載の物体識別装置。
  5. 前記スコアベクトル生成手段は、
    前記第1スコアと前記第2スコアとを加算したスコアを成分として含むようにして前記スコアベクトルを生成する
    ことを特徴とする請求項4に記載の物体識別装置。
  6. 前記判断条件は、
    前記クラスタ決定手段が前記クラスタの決定に用いた前記スコアベクトルに基づいて、前記画像内に前記識別対象物体が写っているか否かを判断するように設定されている
    ことを特徴とする請求項1〜請求項5の何れか1項に記載の物体識別装置。
  7. 前記判断条件は、
    サポートベクタマシンにより、前記クラスタに分類される複数の前記スコアベクトルが、前記画像内に前記識別対象物体が写っていることを示すもの、および前記画像内に前記識別対象物体が写っていないことを示すものの何れかに分類されるように設定される
    ことを特徴とする請求項6に記載の物体識別装置。
JP2013098804A 2013-05-08 2013-05-08 物体識別装置 Active JP5742873B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013098804A JP5742873B2 (ja) 2013-05-08 2013-05-08 物体識別装置
US14/271,543 US9367735B2 (en) 2013-05-08 2014-05-07 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013098804A JP5742873B2 (ja) 2013-05-08 2013-05-08 物体識別装置

Publications (2)

Publication Number Publication Date
JP2014219847A JP2014219847A (ja) 2014-11-20
JP5742873B2 true JP5742873B2 (ja) 2015-07-01

Family

ID=51864825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013098804A Active JP5742873B2 (ja) 2013-05-08 2013-05-08 物体識別装置

Country Status (2)

Country Link
US (1) US9367735B2 (ja)
JP (1) JP5742873B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170137273A (ko) * 2016-06-02 2017-12-13 중앙대학교 산학협력단 변형 가능한 파트 모델을 사용한 보행자 검출 장치 및 방법

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6448325B2 (ja) * 2014-11-19 2019-01-09 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2016108961A1 (en) * 2014-12-30 2016-07-07 Battelle Memorial Institute Anomaly detection for vehicular networks for intrusion and malfunction detection
JP6638484B2 (ja) * 2016-03-10 2020-01-29 富士通株式会社 情報処理装置、類似検索プログラム、及び類似検索方法
CN106127235B (zh) * 2016-06-17 2020-05-08 武汉烽火众智数字技术有限责任公司 一种基于目标特征碰撞的车辆查询方法和系统
CN106650806B (zh) * 2016-12-16 2019-07-26 北京大学深圳研究生院 一种用于行人检测的协同式深度网络模型方法
WO2019041360A1 (zh) * 2017-09-04 2019-03-07 华为技术有限公司 行人属性识别与定位方法以及卷积神经网络系统
CN108320374B (zh) * 2018-02-08 2019-12-03 中南大学 一种基于图像指纹的多国纸币冠字号字符识别方法
JP7238470B2 (ja) * 2018-03-15 2023-03-14 富士通株式会社 学習装置、検査装置、学習検査方法、学習プログラムおよび検査プログラム
WO2019187216A1 (ja) 2018-03-30 2019-10-03 Necソリューションイノベータ株式会社 物体識別装置、物体識別方法、及び制御プログラムを格納する非一時的なコンピュータ可読媒体
JP2020013206A (ja) * 2018-07-13 2020-01-23 日本ユニシス株式会社 動画・カメラからの二輪車検知装置、プログラム及びシステム
US11747444B2 (en) * 2018-08-14 2023-09-05 Intel Corporation LiDAR-based object detection and classification
DE102019218479A1 (de) * 2019-11-28 2021-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klassifikation von Objekten auf einer Fahrbahn in einem Umfeld eines Fahrzeugs
CN114494729B (zh) * 2022-04-02 2022-07-12 广州市开富信息科技有限责任公司 基于ai识别技术的汽车配件识别方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5235691B2 (ja) 2009-01-13 2013-07-10 キヤノン株式会社 情報処理装置及び情報処理方法
JP5259456B2 (ja) * 2009-03-02 2013-08-07 株式会社東芝 学習装置及び物体検出装置
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
JP5554987B2 (ja) * 2009-12-28 2014-07-23 キヤノン株式会社 オブジェクト識別装置及びその制御方法
JP5539102B2 (ja) * 2010-08-18 2014-07-02 キヤノン株式会社 物体検出装置および物体検出方法
US8842883B2 (en) * 2011-11-21 2014-09-23 Seiko Epson Corporation Global classifier with local adaption for objection detection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170137273A (ko) * 2016-06-02 2017-12-13 중앙대학교 산학협력단 변형 가능한 파트 모델을 사용한 보행자 검출 장치 및 방법
KR101866381B1 (ko) 2016-06-02 2018-06-12 중앙대학교 산학협력단 변형 가능한 파트 모델을 사용한 보행자 검출 장치 및 방법

Also Published As

Publication number Publication date
JP2014219847A (ja) 2014-11-20
US9367735B2 (en) 2016-06-14
US20140334719A1 (en) 2014-11-13

Similar Documents

Publication Publication Date Title
JP5742873B2 (ja) 物体識別装置
Prioletti et al. Part-based pedestrian detection and feature-based tracking for driver assistance: real-time, robust algorithms, and evaluation
Keller et al. A new benchmark for stereo-based pedestrian detection
Xu et al. An efficient tree classifier ensemble-based approach for pedestrian detection
Kühnl et al. Monocular road segmentation using slow feature analysis
Xu et al. Learning a part-based pedestrian detector in a virtual world
CN102609686A (zh) 一种行人检测方法
WO2012073894A1 (ja) 物体の検出方法及びその方法を用いた物体の検出装置
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP6936866B2 (ja) 外観特徴の記述属性を認識する方法及び装置
US20140133705A1 (en) Red-eye determination device
CN105740751A (zh) 一种目标检测与识别的方法和系统
JP2012221162A (ja) 対象物検出装置及びプログラム
JP2012164026A (ja) 画像認識装置及び車両用表示装置
JP5691834B2 (ja) 画像識別装置及びプログラム
Hemmati et al. Adaptive vehicle detection for real-time autonomous driving system
Juang et al. Stereo-camera-based object detection using fuzzy color histograms and a fuzzy classifier with depth and shape estimations
JP2013205410A (ja) 車両用外界認識装置およびそれを用いた車両システム
Kadow et al. Radar-vision based vehicle recognition with evolutionary optimized and boosted features
Shang et al. A novel method for vehicle headlights detection using salient region segmentation and PHOG feature
JP6472504B1 (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
Mitsui et al. Object detection by joint features based on two-stage boosting
WO2018173848A1 (ja) オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体
CN110175622B (zh) 基于共生关系的卷积神经网络的车辆部件识别方法和系统
JP2021081789A (ja) 物体識別装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150420

R151 Written notification of patent or utility model registration

Ref document number: 5742873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250