JP5293321B2 - 対象物識別装置及びプログラム - Google Patents

対象物識別装置及びプログラム Download PDF

Info

Publication number
JP5293321B2
JP5293321B2 JP2009070397A JP2009070397A JP5293321B2 JP 5293321 B2 JP5293321 B2 JP 5293321B2 JP 2009070397 A JP2009070397 A JP 2009070397A JP 2009070397 A JP2009070397 A JP 2009070397A JP 5293321 B2 JP5293321 B2 JP 5293321B2
Authority
JP
Japan
Prior art keywords
identification
candidate area
identification result
candidate
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009070397A
Other languages
English (en)
Other versions
JP2010224787A (ja
Inventor
清澄 城殿
誠良 平塚
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2009070397A priority Critical patent/JP5293321B2/ja
Publication of JP2010224787A publication Critical patent/JP2010224787A/ja
Application granted granted Critical
Publication of JP5293321B2 publication Critical patent/JP5293321B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、対象物識別装置及びプログラムに関する。
従来、車載カメラにより撮像された画像から、車両の周辺に存在する歩行者、動物等の障害物を検出する技術が提案されている(特許文献1〜3参照)。
特許文献1には、カメラで撮像された画像内の白線(例えば道路の中央線等)を白線認識部23aで認識して路面領域を切り出し、道路に対応する基準データに基づいて、入力画像内の路面領域の中から道路以外の領域を画像制御部23bで特定すると共に、道路以外の領域を特定した入力画像を上記画像制御部23bで俯瞰した状態に画像変換し、路面標示認識部23cで路面標示認識を行うと共に、歩行者認識部23dで路面標示以外の領域を歩行者認識候補として特定する画像認識装置が開示されている。
特許文献2には、撮像した画像データから直線と認識される部分又は角と認識される部分が存在するかを判断し、直線部分又は角部分を有する領域を排除することにより、人間が存在する領域の認識精度を向上させる画像認識システムが開示されている。
特許文献3には、赤外線画像から赤外線を発する対象物画像を抽出し、抽出した対象物画像と直線パターンあるいは直角パターンからなる基準画像との照合により、対象物が人工構造物であるか否かを判定して、その判定から人工構造物を除外し、残された対象物を歩行者や動物等の動く物体として検出する車両周辺監視装置が開示されている。
特開2008−034981号公報 特開2006−171884号公報 特開2003−016429号公報
しかし、特許文献1〜3の技術は、単独の障害物を識別するため、誤って識別されやすい障害物が存在する場合には識別精度が低下してしまう、という問題がある。
また、特許文献1の技術では、複数の認識部23a、23c、23dが、直列に接続され、それぞれ所定の認識処理を行っている。しかし、各認識部23a、23c、23dは、それぞれ画像を用いて認識処理を行っているため、認識結果を得るのに時間がかかってしまう、という問題がある。
特許文献2の技術は、画像データを用いて直線部分又は角部分を含む領域を認識しても、画像データからその領域を削除しなければならず、処理時間がかかってしまう問題がある。特許文献3の技術は、対象物の画像の形状判定後に、対象物の画像から人工構造物を除外しなければならず、処理時間がかかってしまうという問題がある。
本発明は、上述した課題を解決するために提案されたものであり、誤って識別されやすい障害物が存在しても、識別率の低下を抑制しつつ短時間かつ高精度に対象物を識別できる対象物識別装置及びプログラムを提供することを目的とする。
本発明の対象物識別装置は、被写体を撮像して画像を生成する撮像手段と、前記撮像手段により生成された画像から識別したい対象物の候補領域を設定する候補領域設定手段と、候補領域設定手段により設定された候補領域に対して、前記対象物の識別結果と、前記対象物と種類が異なる複数の障害物の各々の識別結果と、をそれぞれ出力する第1の識別手段と、直列に接続された複数の第2の識別手段であって、最前段の第2の識別手段は前記第1の識別手段から出力された各識別結果に基づいて前記候補領域についての前記対象物の識別結果を出力し、最前段を除く第2の識別手段は前段から出力された識別結果に基づいて前記候補領域についての前記対象物の識別結果を後段に出力する、複数の第2の識別手段と、最後段の前記第2の識別手段の識別結果に基づいて、対象物であると識別された候補領域の情報を出力する出力手段と、を備えている。
本発明によれば、候補領域についての対象物の識別結果と、対象物と種類が異なる複数の障害物の識別結果と、をそれぞれ用いて、候補領域に対して対象物の識別結果を出力することにより、短時間で識別すると共に対象物の識別精度を向上させることができる。
また、本発明の対象物識別装置は、被写体を撮像して画像を生成する撮像手段と、前記撮像手段により生成された画像から識別したい対象物の候補領域を設定する候補領域設定手段と、候補領域設定手段により設定された候補領域に対して前記対象物の識別結果を出力する対象物識別器と、前記候補領域に対して前記対象物と種類が異なる複数の障害物の各々の識別結果を出力する複数の障害物識別器と、を有する第1の識別手段と、前記第1の識別手段の対象物識別器及び複数の障害物識別器の各識別結果に基づいて、前記候補領域に対して前記対象物の識別結果を出力する第2の識別手段と、前記第2の識別手段の識別結果に基づいて、対象物であると識別された候補領域の情報を出力する出力手段と、を備えている。
本発明によれば、対象物識別器及び障害物識別器の各識別結果をそれぞれ用いて候補領域に対して対象物の識別結果を出力することにより、短時間で識別すると共に対象物の識別精度を向上させることができる。
本発明に係る対象物識別装置及びプログラムは、誤って識別されやすい障害物が存在しても、識別率の低下を抑制しつつ短時間かつ高精度に対象物を識別することができる。
本発明の第1の実施形態に係る対象物識別装置の構成を示すブロック図である。 歩行者識別ルーチンを示すフローチャートである。 第1の統合特徴量生成ルーチンを示すフローチャートである。 従来の誤検出された障害物を示す図である。 従来の誤検出された障害物を示す図である。 従来の誤検出された障害物を示す図である。 本実施形態に係る対象物識別装置により識別された歩行者を示す図である。 第2の統合特徴量生成ルーチンを示すフローチャートである。
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る対象物識別装置の構成を示すブロック図である。対象物識別装置は、例えば車両に搭載され、車両前方の画像に基づいて識別対象となる障害物(本実施形態では人物(歩行者))を識別するものである。
対象物識別装置は、車両前方の環境を撮像して画像を生成するカメラ10と、カメラ10で生成された画像に基づいて歩行者の候補領域を設定する候補領域設定部20と、歩行者及び歩行者と誤って識別しやすい障害物をそれぞれ識別する第1段識別部30と、を備えている。
対象物識別装置は、さらに、第1段識別部30の識別結果に基づいて歩行者を識別する第2段識別部40と、候補領域設定部20、第1段識別部30及び第2段識別部40でそれぞれ使用される学習モデルが記憶されているデータベース50と、第2段識別部40の識別結果を出力する出力部60とを備えている。なお、カメラ10と出力部60を除く各部は、所定のプログラムに基づいて動作するコンピュータで構成されたものでもよい。
第1段識別部30は、特徴量を抽出する9つの特徴抽出部30Ai(iは1〜9)と、識別対象である歩行者及び誤って歩行者と識別されやすい障害物(樹木、車両、電柱等)をそれぞれ識別するためのM(=9)個の識別器30Bi(iは1〜9)と、を有している。各識別器は、それぞれ異なる障害物を識別する、又は、それぞれ異なる特徴量を使用する。
なお、第1及び第2の実施形態では、各識別器は、サポートベクターマシン(SVM)を用いているが、学習によりパターン認識できればSVMに限定されるものではない。ここで、第1段識別部30が複数の識別器を有しているのは次の理由による。
識別器は、後述のように、学習用の画像サンプル(ポジティブ画像/ネガティブ画像)に基づいて識別境界面を学習する。ここで、画像サンプルに含まれていなかった画像が候補領域として設定された場合、識別器は境界面付近の判定を行うため、曖昧性が生じる。そこで、第1段識別部30は、対象物を識別するための人物識別器30B1だけでなく、誤って識別されやすい障害物を識別する複数の識別器を並列に用意して、各識別器の結果を出力する。第2段識別部40は、上記のすべての識別器の出力値の関係から最適な識別結果を得ることができ、この結果識別性能が向上される。
第1段識別部30は、9個の識別器として、特徴抽出部30A1で抽出された特徴量に基づいて人物を識別する人物識別器30B1と、特徴抽出部30A2で抽出された特徴量に基づいて自転車を識別する自転車識別器30B2と、特徴抽出部30A3で抽出された特徴量に基づいて二輪車を識別する二輪車識別器30B3と、を有している。
更に、第1段識別部30は、特徴抽出部30A4で抽出された特徴量に基づいて電柱を識別する電柱識別器30B4と、特徴抽出部30A5で抽出された特徴量に基づいて路面標示を識別する路面標示識別器30B5と、特徴抽出部30A6で抽出された特徴量に基づいて標識を識別する標識識別器30B6と、を有している。
更に、第1段識別部30は、特徴抽出部30A7で抽出された特徴量に基づいて車両を識別する車両識別器30B7と、特徴抽出部30A8で抽出された特徴量に基づいて樹木を識別する樹木識別器30B8と、特徴抽出部30A9で抽出された特徴量に基づいてガードレールを識別するガードレール識別器30B9と、を有している。
各特徴抽出部30Ai(i=1〜9)は、互いに並列に設けられており、候補領域設定部20で設定された候補領域からそれぞれ特徴量を抽出する。なお、特徴抽出部30Aiはそれぞれ同一の特徴量を抽出してもよいし、また、特徴抽出部30Aiの一部のみが同一の特徴量を抽出し他の特徴抽出部30Aiがそれぞれ異なる特徴量を抽出してもよい。また、特徴量は、輝度、エッジの強度、エッジの方向等、特に限定されるものではない。
各識別器30Bi(i=1〜9)は、データベース50に予め保存されている学習モデルを用いて候補領域の識別処理を実行し、識別対象らしさを示す数値を第2段識別部40へ出力する。
なお、図1に示す第1段識別部30は、並列に接続された識別器を含む構成であるが、エッジ特徴や矩形を抽出するフィルタを更に含んだ構成であってもよい。例えば、第1段識別部30は、候補領域設定部20で設定された候補領域内の特定方向のエッジの数や強度を0又は1で出力してこの出力結果を第2段識別部40に供給するフィルタを備えてもよい。
第2段識別部40は、第1段識別部30の各識別器30Bi(i=1〜9)の識別結果を統合して特徴量を生成する統合特徴量生成部40Aと、統合特徴量生成部40Aで生成された統合特徴量に基づいて人物を識別する統合識別器40Bと、を備えている。
すなわち、第2段識別部40は、輝度やエッジ方向等のような画像特徴量ではなく、第1段識別部30による歩行者の識別結果と、誤って歩行者であると識別される傾向のある1つ以上の障害物の識別結果と、に基づく統合特徴量から、候補領域が歩行者であるか否かを識別する。
データベース50には、パターン認識により候補領域設定部20で候補領域を設定するために使用される人物モデル、第1段識別部30の各識別器で使用される各々の学習モデル、統合識別器40Bで使用される学習モデルが記憶されている。なお、候補領域設定部20は、パターン認識により候補領域を設定する場合に限らず、単純に画像中の人物の大きさに対応した候補枠を候補領域として設定してもよい。
出力部60は、第2段識別部40により歩行者であると識別された候補領域の情報(位置及び大きさ)を出力する。例えば、出力部60が、車両前方の周辺環境画像を表示するモニタの場合、周辺環境画像を表示すると共に、歩行者であると識別された候補領域の枠を表示する。なお、出力部60は、上述の例に限らず、候補領域の情報を音声で出力してもよいし、画像及び音声で出力してもよい。
(学習処理)
以上のように構成された対象物識別装置において、最初に、第1段識別部30の各識別器に学習させて、次に、第2段識別部40の統合識別器40Bに学習させる。具体的には、予め学習用の画像サンプル(ポジティブ画像、ネガティブ画像)を用意しておき、候補領域設定部20にこれらの画像サンプルが入力されると、第1段識別部30の各識別器がそれぞれ学習して学習モデルを生成する。次に、上述の画像サンプルと異なる画像サンプルを用意しておき、候補領域設定部20にこれらの画像サンプルが入力されると、第2段識別部40の統合識別器40Bが学習モデルを生成する。これらの学習モデルは、データベース50に保存され、障害物識別処理の際に使用される。
(識別処理)
図2は、歩行者識別ルーチンを示すフローチャートである。対象物識別装置は、画像サンプルを用いた学習をした後、図2に示す歩行者識別ルーチンを実行する。
ステップS1では、カメラ10は、周辺環境を撮像して、周辺環境の画像を取得する。
ステップS2では、候補領域設定部20は、カメラ10により取得された画像の中から、対象物である歩行者に似た画像パターンを持つ候補領域を探索し、その候補領域の場所及び大きさを決定する。そして、次のステップS3〜S8においては、第1段識別部30が処理を行う。
ステップS3では、インデックス番号i=1に設定される。ここで、インデックス番号iは第1段識別部30内の各識別器及びそれに対応する特徴抽出部を特定するパラメータであり、「第i番目」(i=1〜M(Mは並列に接続された識別器の個数を示し、本実施形態ではM=9))という表記により識別器又は特徴抽出部が特定される。例えば、第1番目の特徴抽出部は特徴抽出部30A1であり、第2番目の特徴抽出部は特徴抽出部30A2である。また、第1番目の識別器は人物識別器30B1であり、第3番目の識別器は二輪車識別器30B3である。
ステップS4では、第i番目の特徴抽出部が、第i番目の識別器用の特徴量を抽出して、ステップS5に進む。ステップS5では、第i番目の識別器が候補領域を評価して、ステップS6に進む。ステップS6では、第i番目の識別器の評価値が保存されて、ステップS7に進む。
ステップS7では、インデックス番号i<M(本実施形態ではM=9)であるかが判定され、肯定判定の場合はステップS8に進み、否定判定の場合はステップS9に進む。 ステップS8では、インデックス番号iがインクリメントされて(i=i+1)、ステップS4に戻る。
ステップS9では、第2段識別部40の統合特徴量生成部40Aが、第1段識別部30の複数の識別器の評価結果を統合して特徴量を抽出する。ここでは統合特徴量抽出ルーチンが実行される。
図3は、第1の統合特徴量生成ルーチンを示すフローチャートである。統合特徴量生成部40Aは、初期設定としてk=1に設定する(ステップS21)。統合特徴量生成部40Aは、次に、第1段識別部30の識別器群から任意のk個の識別器を選択し(ステップS22)、選択したk個の識別器の出力から統合特徴量A1、A2を算出する(ステップS23)。
ここで、選択したk個の識別器の出力値を
とおくと、統合特徴量生成部40Aは、次の式(1)及び(2)に従って統合特徴量A1、A2を算出する。
w及びtは、重み係数であり、統合特徴量生成部40Aの学習の際に決定される。なお、統合特徴量生成部40Aは考えられるすべてのk個の出力値Dを選択してもよいし、予め指定された組み合わせの出力値Dのみを計算してもよい。よって、人物識別器30B1の出力値は必須ではなく、他の識別器30B2〜30B9の出力値から歩行者が識別可能であれば、人物識別器30B1の出力値は選択されなくてもよい。
そして、統合特徴量生成部40Aは、k<Mであるかを判定し(ステップS24)、肯定判定の場合はkをインクリメント(k=k+1)して(ステップS25)、その後ステップS22に戻り、否定判定の場合は算出したすべての統合特徴量を第2段の識別器がある統合識別器40Bへ出力する(ステップS26)。これにより、統合特徴量抽出ルーチンが終了して、図2に示すステップS10に移行する。
ステップS10では、第2段識別部40の統合識別器40Bが、統合特徴量生成部40Aで抽出された統合特徴量A1、A2を入力して学習結果と照合することによって統合特徴量A1、A2を評価し、それぞれの評価結果を示す評価値を出力して、ステップS11に進む。
ステップS11では、統合識別器40Bが、統合特徴量A1、A2のそれぞれの評価値と予め設定された閾値とを比較する閾値判定を行い、それぞれの評価値が閾値を超えている場合には候補領域は歩行者であると識別し、閾値を超えていない場合には候補領域は歩行者でないと識別して、ステップS12に進む。
ステップS12では、出力部60は、第2段識別部40の識別結果に基づいて、歩行者であると識別された候補領域の位置及び大きさを出力する。なお、このような識別処理は、候補領域設定部20で設定された全ての候補領域について行われる。
図4から図6は、従来の誤検出された障害物を示す図である。図7は、本実施形態に係る対象物識別装置により識別された歩行者を示す図である。つまり、従来は、電柱、車両、樹木等が歩行者として誤検出されることがあったが、本実施形態に係る対象物識別装置は、電柱、車両、樹木を検出することなく、歩行者のみを識別している。
以上のように、第1の実施形態に係る対象物識別装置は、画像の中から識別対象である歩行者の候補領域を設定し、この候補領域に対して、歩行者の識別結果と歩行者と誤って識別されやすい障害物の識別結果のうち、全部又は一部の識別結果に基づいて歩行者らしさを判定する。よって、上記対象物識別装置は、候補領域について1つの識別器では正確に対象物を識別できない場合であっても、当該識別器の識別結果と、他の障害物を識別する他の識別器の識別結果と、を統合して対象物を識別するので、識別精度を向上させることができる。
また、異なる障害物を識別する複数の識別器を直列に並べて対象物を識別する場合、誤検出率が低下すると共に、正確な識別率も低下してしまう。これに対して、本実施形態に係る対象物識別装置は、第1段識別部30及び第2段識別部40の2段だけで構成されているので、識別率の低下を抑制しつつ誤識別を削減することができる。
[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。第2の実施形態の統合特徴量生成部40Aは、図3に示す第1の統合特徴量生成ルーチンの代わりに、第2の統合特徴量生成ルーチンを実行する。
図8は、第2の統合特徴量生成ルーチンを示すフローチャートである。
ステップS31では、統合特徴量生成部40Aは、第1段識別部30の各識別器30Ai(i=1〜9)の出力値Diをビット信号Biに変換する。
例えば、識別器30Aiの出力値が4.5、識別器30Ajの出力値が−5.2であるとする。それぞれの識別器の出力値をビット信号に変換するための多段階閾値Ti、Tjをそれぞれ式(3)及び(4)のように与える。
そして、統合特徴量生成部40Aは、Ti、Tjの各成分と識別器30Ai、30Ajの出力値とを比較して、その出力値をビット信号に変換する。例えば、識別器30Ai、30Ajの出力値の方が大きい場合を1、小さい場合を0で表現すると、式(5)及び(6)に示すようなビット信号Bi、Bjが生成される。
統合特徴量生成部40Aは、以上のようにして各識別器30Ai(i=1〜9)の出力値をビット信号Biに変換して、ステップS32に進む。
ステップS32では、統合特徴量生成部40Aは、各識別器30Ai(i=1〜9)から2個を選択し、ステップS33に進む。
ステップS33では、統合特徴量生成部40Aは、ステップS32で選択した2個の識別器の出力値のビット信号(Bi,Bj)から統合特徴量Bを算出する。なお、統合特徴量の算出については、次の2つの方法がある。
(Bi、Bjの要素成分の組み合わせを使用する方法)
統合特徴量生成部40Aは、ビット信号Bi、Bjからそれぞれ要素成分bi、bjを抽出し、以下の式(7)に基づいて統合特徴量B1を生成する。
なお、重み係数w、組み合わされる要素成分(bi,bj)の組み合わせについては、上述した学習処理によって識別に有効なものが選択される。また、式(7)については、biやbjの2乗の項を追加する等拡張してもよい。
(Bi、Bjの論理演算結果を使用する方法)
統合特徴量生成部40Aは、ビット信号Bi、Bjを用いて、論理和ORij、論理積ANDij、排他的論理和XORij、否定論理和NORij、否定論理積NANDijを演算し、これらの演算結果を使用して統合特徴量B2を算出する。例えば、ビット信号Bi、Bjが式(5)及び(6)の場合、各論理演算は次の式(8)〜(12)のようになる。
そして、統合特徴量生成部40Aは、式(13)に従って統合特徴量B2を算出する。
なお、重み係数w、組み合わされる論理演算結果については、上述した学習処理によって識別に有効なものが選択される。
また、式(13)で使用可能な論理演算は、上記のものに限られず、例えば、Biの否定演算とBjの論理和を用いてもよいし、上記の演算結果同士の論理和や論理積などを用いて拡張してもよい。さらに、「Bi、Bjの要素成分の組み合わせを使用する方法」と同様に、統合特徴量生成部40Aは、各ビット演算結果の要素成分から任意の組み合わせを抽出して判定してもよい。また、統合特徴量生成部40Aは、主成分分析(PCA)を用いて、生成した特徴量の数を効果的に削減することもできる。これにより、統合特徴量A、Bを任意の次元を用いて表すことができる。
そして、以上のような演算によって統合特徴量Bが算出されると、ステップS34へ進む。
ステップS34では、統合特徴量生成部40Aは、(bi,bj)の全組み合わせについて統合特徴量Bの演算処理が終了したかを判定し、肯定判定の場合はステップS35に進み、否定判定の場合はステップS32に戻る。
ステップS35では、統合特徴量生成部40Aは、算出したすべての統合特徴量Bを統合識別器40Bへ出力する。そして、本ルーチンが終了する。
統合識別器40Bは、統合特徴量生成部40Aで生成された統合特徴量Bを学習結果と照合(評価)し、その評価値が閾値Tijより大きい(B>Tij)かを判定する。なお、閾値Tijは学習により選択された値である。統合識別器40Bは、B>Tijである場合には候補領域に歩行者の存在を識別し、B>Tijでない場合には歩行者の存在を識別しない。
第2の実施形態に係る対象物識別装置は、上記の第2の統合特徴量生成ルーチンを実行することにより、識別対象である歩行者の識別結果だけでなく、誤って識別されやすい障害物の識別結果を利用して、歩行者の識別性能をより向上させることができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。例えば、上述した対象物識別装置は、歩行者を識別対象としたが、二輪車、車両などの他の障害物を識別対象としてもよいのは勿論である。
また、統合特徴量生成部40Aによる統合特徴量の生成方法は、上述した各実施形態の態様に限らず、これらを組み合わせたものでもよい。
また、図1に示す対象物識別装置の第1段識別部30及び第2段識別部40は直列に「2段」で構成されているが、より高次の多段化も可能である。例えば、第1段識別部の各識別器を2つのグループに分けた場合、第2段識別部はそれぞれのグループに属する識別器の出力値を入力する2つの識別器を備えるとよい。このときさらに、第3段識別部の識別器は、第2段識別部の2つの識別器の出力を統合して判定するようにすればよい。
10 カメラ
20 候補領域設定部
30 第1段識別部
40 第2段識別部
50 データベース
60 出力部

Claims (6)

  1. 被写体を撮像して画像を生成する撮像手段と、
    前記撮像手段により生成された画像から識別したい対象物の候補領域を設定する候補領域設定手段と、
    候補領域設定手段により設定された候補領域に対して、前記対象物の識別結果と、前記対象物と種類が異なる複数の障害物の各々の識別結果と、をそれぞれ出力する第1の識別手段と、
    直列に接続された複数の第2の識別手段であって、最前段の第2の識別手段は前記第1の識別手段から出力された各識別結果に基づいて前記候補領域についての前記対象物の識別結果を出力し、前記最前段を除く第2の識別手段は前段から出力された識別結果に基づいて前記候補領域についての前記対象物の識別結果を後段に出力する、複数の第2の識別手段と、
    最後段の前記第2の識別手段の識別結果に基づいて、対象物であると識別された候補領域の情報を出力する出力手段と、
    を備えた対象物識別装置。
  2. 被写体を撮像して画像を生成する撮像手段と、
    前記撮像手段により生成された画像から識別したい対象物の候補領域を設定する候補領域設定手段と、
    候補領域設定手段により設定された候補領域に対して前記対象物の識別結果を出力する対象物識別器と、前記候補領域に対して前記対象物と種類が異なる複数の障害物の各々の識別結果を出力する複数の障害物識別器と、を有する第1の識別手段と、
    前記第1の識別手段の対象物識別器及び複数の障害物識別器の各識別結果に基づいて、前記候補領域に対して前記対象物の識別結果を出力する第2の識別手段と、
    前記第2の識別手段の識別結果に基づいて、対象物であると識別された候補領域の情報を出力する出力手段と、
    を備えた対象物識別装置。
  3. 前記第2の識別手段は、前記対象物識別器の識別結果及び前記複数の前記障害物識別器の識別結果のうち、一部の識別結果に基づいて、前記候補領域に対して前記対象物の識別結果を出力する
    請求項2に記載の対象物識別装置。
  4. 前記第2の識別手段は、前記対象物識別器の識別結果及び前記複数の前記障害物識別器の識別結果のうち、一部の識別結果の値を多段階閾値と比較することでビット信号に変換し、変換したビット信号に基づいて前記候補領域に対して前記対象物の識別結果を出力する
    請求項2に記載の対象物識別装置。
  5. コンピュータを、
    撮像手段により生成された画像から識別したい対象物の候補領域を設定する候補領域設定手段と、
    候補領域設定手段により設定された候補領域に対して、前記対象物の識別結果と、前記対象物と種類が異なる複数の障害物の各々の識別結果と、をそれぞれ出力する第1の識別手段と、
    直列に接続された複数の第2の識別手段であって、最前段の第2の識別手段は前記第1の識別手段から出力された各識別結果に基づいて前記候補領域についての前記対象物の識別結果を出力し、最前段を除く第2の識別手段は前段から出力された識別結果に基づいて前記候補領域についての前記対象物の識別結果を後段に出力する、複数の第2の識別手段と、
    最後段の前記第2の識別手段の識別結果に基づいて、対象物であると識別された候補領域の情報を出力手段から出力させる出力制御手段と、
    して機能させるための対象物識別プログラム。
  6. コンピュータを、
    撮像手段により生成された画像から識別したい対象物の候補領域を設定する候補領域設定手段と、
    候補領域設定手段により設定された候補領域に対して前記対象物の識別結果を出力する対象物識別器と、前記候補領域に対して前記対象物と種類が異なる複数の障害物の各々の識別結果を出力する複数の障害物識別器と、を有する第1の識別手段と、
    前記第1の識別手段の対象物識別器及び複数の障害物識別器の各識別結果に基づいて、前記候補領域に対して前記対象物の識別結果を出力する第2の識別手段と、
    前記第2の識別手段の識別結果に基づいて、対象物であると識別された候補領域の情報を出力手段から出力させる出力制御手段と、
    して機能させるための対象物識別プログラム。
JP2009070397A 2009-03-23 2009-03-23 対象物識別装置及びプログラム Expired - Fee Related JP5293321B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009070397A JP5293321B2 (ja) 2009-03-23 2009-03-23 対象物識別装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009070397A JP5293321B2 (ja) 2009-03-23 2009-03-23 対象物識別装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010224787A JP2010224787A (ja) 2010-10-07
JP5293321B2 true JP5293321B2 (ja) 2013-09-18

Family

ID=43041918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009070397A Expired - Fee Related JP5293321B2 (ja) 2009-03-23 2009-03-23 対象物識別装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5293321B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5286574B2 (ja) * 2010-01-08 2013-09-11 日本電信電話株式会社 オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム
JP5648655B2 (ja) * 2012-04-27 2015-01-07 株式会社デンソー 対象物識別装置
JP6225844B2 (ja) * 2014-06-30 2017-11-08 株式会社デンソー 対象物検出装置
JP5892275B2 (ja) * 2015-02-26 2016-03-23 カシオ計算機株式会社 多クラス識別器生成装置、データ識別装置、多クラス識別器生成方法、データ識別方法、及びプログラム
CN106203398B (zh) 2016-07-26 2019-08-13 东软集团股份有限公司 一种检测车道边界的方法、装置和设备
CN109583384A (zh) * 2018-11-30 2019-04-05 百度在线网络技术(北京)有限公司 用于无人驾驶车的避障方法和装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01246678A (ja) * 1988-03-29 1989-10-02 Toshiba Corp パターン認識装置
JPH09319825A (ja) * 1996-05-30 1997-12-12 N T T Data Tsushin Kk 文字認識装置
JP3915200B2 (ja) * 1997-10-18 2007-05-16 マツダ株式会社 車両の障害物警報装置
JP2006018578A (ja) * 2004-07-01 2006-01-19 Nippon Signal Co Ltd:The 個人認証装置
JP4745403B2 (ja) * 2006-12-19 2011-08-10 パイオニア株式会社 情報処理装置及びその制御方法等

Also Published As

Publication number Publication date
JP2010224787A (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
Börcs et al. Instant object detection in lidar point clouds
US10204283B2 (en) Image recognizing apparatus, image recognizing method, and storage medium
CN109063768B (zh) 车辆重识别方法、装置及系统
JP5293321B2 (ja) 対象物識別装置及びプログラム
AU2011352412B2 (en) Scene activity analysis using statistical and semantic feature learnt from object trajectory data
JP5333080B2 (ja) 画像認識システム
JP6543066B2 (ja) 機械学習装置
Shvai et al. Accurate classification for automatic vehicle-type recognition based on ensemble classifiers
WO2007092756A2 (en) Hierarchical system for object recognition in images
Roy et al. Multi-modality sensing and data fusion for multi-vehicle detection
JP2012531685A (ja) 少なくとも1つの設定された画像要素の少なくとも一部を検出およびクラス分類する、車両のドライバーアシストシステム用の画像処理方法
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
CN103366154A (zh) 可重配置的畅通路径检测系统
CN104615986A (zh) 利用多检测器对场景变化的视频图像进行行人检测的方法
CN104350526B (zh) 人检测装置
CN103886315A (zh) 应用于行人姿势分类的3d人体模型
CN109871792B (zh) 行人检测方法和装置
CN103218610A (zh) 狗脸检测器的形成方法和狗脸检测方法
JP2007310805A (ja) 物体認識装置
JP2012221162A (ja) 対象物検出装置及びプログラム
CN111178178B (zh) 结合区域分布的多尺度行人重识别方法、系统、介质及终端
JP4721829B2 (ja) 画像検索方法及び装置
JP6812076B2 (ja) ジェスチャ認識装置およびジェスチャ認識プログラム
JP2018022297A (ja) 向き判別装置、向き判別方法
KR20160081190A (ko) 카메라를 이용한 보행자 인식 방법 및 그 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

LAPS Cancellation because of no payment of annual fees