JP2007257148A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP2007257148A
JP2007257148A JP2006078800A JP2006078800A JP2007257148A JP 2007257148 A JP2007257148 A JP 2007257148A JP 2006078800 A JP2006078800 A JP 2006078800A JP 2006078800 A JP2006078800 A JP 2006078800A JP 2007257148 A JP2007257148 A JP 2007257148A
Authority
JP
Japan
Prior art keywords
discriminant
image
feature
target
candidate region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006078800A
Other languages
English (en)
Inventor
Yasuhito Sano
泰仁 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006078800A priority Critical patent/JP2007257148A/ja
Priority to US11/726,213 priority patent/US20070223785A1/en
Publication of JP2007257148A publication Critical patent/JP2007257148A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Abstract

【課題】計算負荷の軽減を図ることが可能な画像処理装置を提供する。
【解決手段】撮影画像を入力する画像入力手段1と、画像入力手段1が入力した撮影画像の特徴量を算出する画像内特徴量算出手段2と、前記特徴量を用いて、撮影画像のうちの対象候補領域を抽出する対象候補領域抽出手段3と、用意された画像データに基づいて対象の特徴量を算出し、該特徴量に対する複数の判別式を作成する判別式構成手段5と、前記複数の判別式の中から、対象候補領域抽出手段3で抽出した対象候補領域内の特徴量に基づいて、判別式を選択する判別式選択手段6と、前記判別式に基づいて、対象候補領域における対象の有無を検出する検出手段7とを備えた。
【選択図】図1

Description

本発明は、撮影画像の処理時間の短縮化を図った画像処理装置及び画像処理方法に関する。
従来の画像処理装置として、識別器作成部、識別精度特定部、計算量特定部、識別器選択部及び識別条件決定部を備え、識別器作成部は、サンプルデータ群に基づいて、識別処理に用いられ得る複数の特徴量の各々について対応する識別器を作成し、識別精度特定部と計算量特定部は、作成された識別器の各々について識別精度指標値と計算量指標値をそれぞれ特定し、また識別器選択部は、それらの指標値に基づいて総合評価値を導出し、良好な識別器を選択する一方、識別条件決定部は、選択された識別器に基づいて、識別処理に用いる特徴量の種類と識別条件を決定するようにしたものが知られている(例えば、特許文献1参照)。
上記構成の画像処理装置は、特徴量ごとに基本的な判別式を作成しておき、利用可能な計算負荷を考慮しながら最終的な判別式を決定しており、つまり、判別式を決定するのは、学習データからの学習によって行っている。
特開2005−100121号公報
しかしながら、上記従来の技術では、特徴量ごとに基本的な判別式を作成しておき、利用可能な計算負荷を考慮しながら最終的な判別式を決定するよう構成されているので、画像処理装置の計算負荷が増大するという問題がある。
本発明の課題は、計算負荷の軽減を図ることが可能な画像処理装置及び画像処理方法を提供することにある。
上記課題を解決するために、本発明は、撮影画像を入力する画像入力手段と、前記画像入力手段が入力した撮影画像の特徴量を算出する画像内特徴量算出手段と、前記特徴量を用いて、前記撮影画像のうちの対象候補領域を抽出する対象候補領域抽出手段と、用意された画像データに基づいて対象の特徴量を算出し、該特徴量に対する複数の判別式を作成する判別式構成手段と、前記複数の判別式の中から、前記対象候補領域抽出手段で抽出した対象候補領域内の特徴量に基づいて、判別式を選択する判別式選択手段と、前記判別式に基づいて、対象候補領域における対象の有無を検出する検出手段と、を備えたことを特徴としている。
上記構成において、判別式選択手段は、判別式構成手段が作成した複数の判別式の中から、対象候補領域抽出手段で抽出した対象候補領域内の特徴量に基づいて、判別式を選択する。一般的に、何の状態も仮定できない状態で対象を判別しなくてはならない判別式よりも、対象候補領域内の特徴量のように対象をある程度限定した状態で判別を行う判別式のほうが計算時間を短くすることができる。したがって、上記構成によれば、観測された特徴量に対して相応しい判別式を利用することができ、計算時間を短くすることが可能となる。
本発明によれば、対象候補領域内の特徴量に基づいて適切な判別式が選択されるので、計算時間が短くなって、画像処理装置の計算負荷を軽減することができる。
以下、本発明の実施例を図面に従って説明する。
図1は、本発明に係る画像処理装置の全体構成を示している。この画像処理装置は、撮影画像を入力する画像入力手段1と、画像入力手段1が入力した撮影画像の特徴量を算出する画像内特徴量算出手段2と、前記特徴量を用いて、撮影画像のうちの対象候補領域を抽出する対象候補領域抽出手段3と、種々の対象の画像データがあらかじめ蓄積されたデータベース4と、データベース4に蓄積された画像データに基づいて前記対象の特徴量を算出し、該特徴量に対する複数の判別式を作成する判別式構成手段5と、判別式構成手段5が作成した複数の判別式の中から、対象候補領域抽出手段3で抽出した対象候補領域内の特徴量に基づいて、判別式を選択する判別式選択手段6と、判別式選択手段6で選択した判別式に基づいて、対象候補領域における対象の有無を検出する検出手段7とを備えている。なお、画像データはデータベース4以外にもあらかじめ用意しておくことができ、この場合はデータベース4は不要である。
図2は、本発明に係る画像処理装置の動作フローを示している。図2において、まず、ステップS1で画像入力手段1が撮影画像を入力する。このとき、画像入力手段1としては、CCDセンサ、CMOSセンサ、アモルファスセンサなどを含むデジタル画像入力装置や、アナログ信号を入力し、それをデジタルイメージに変換する装置を用いることができる。また、ここで入力する画像は可視光領域に限定されず、赤外線画像など可視領域以外の入力画像を使用してもかまわない。
ステップS2では、ステップS1で入力した撮影画像の特徴量を計算する。ここで特徴量としては、オプティカルフロー、空間周波数、エッジ強度、コントラスト及びアスペクト比がある。例えば、オプティカルフローを使用する場合であれば、時刻“t”に得られた画像Inputtと、時刻t+Δtに得られた画像Inputt+Δtとの差分から画像の変化を観測する勾配法の利用が一般的である。
ステップS3では、ステップS2で得られた特徴量から、対象が写っていると考えられる領域を候補領域pとして抽出する。例えば、画面上に写っている歩行者を対象とする場合は、オプティカルフローを特徴量として、図3のようにオプティカルフローの消失点から湧き出すオプティカルフローとは異なる動きを持つ物体の領域を抽出することが考えられる。
具体的には、画面上のオプティカルフローの交点を求めることで、オプティカルフローが湧き出す元(消失点)を求め、その後、消失点から湧き出す方向とは異なる方向を持つオプティカルフローをピックアップすることで、候補領域pを抽出する。このとき、候補領域pは後で使用する学習データと同じアスペクト比を持つ矩形とし、その大きさや場所は、背景と異なるオプティカルフローが、背景と同じ方向を持つオプティカルフローに対し、ある割合以上で収まるように決定される。
図2において、ステップS4ではステップS3で得られた候補領域pに対して、候補領域内部で観測された特徴量を元に、適切な対象判別式ψkの選択を行う。ここで、判別式ψkとは候補領域pを入力とし、その中に対象が写っているかどうかを判定するためのもので、次の式で表される。
Figure 2007257148
判別式ψk は弱学習器Ciと呼ばれる単純な学習器のN個の組み合わせで成り立っている。この弱学習器Ciは候補領域内部に対象が写っていれば1を、写っていなければ0を返す式である。この判別式ψkを用いた判断方法は、閾値μk を用意し、もし、ψkの出力が閾値μkを上回っていたら、対象が存在し、下回っていたら対象が存在しないと判断する。
このとき、学習時に使用するデータ(学習データ)を想定される特徴量ごとに分類し、分類された学習データごとに判別式を生成する。たとえば、対象を歩行者とした場合、横向きに歩く歩行者に関しては、横向きのオプティカルフローが、カメラに対して前後方向に動く歩行者に対しては、背景と同様にオプティカルフローが観測されると考えられる。したがって、学習データDjを、図4のように、横向き方向に写る歩行者の学習データDHj',max(j’)=Mh <Mと、それ以外の方向で写る歩行者の学習データDVj'',max(j’’)=(M−Mh)<Mに分類し、それぞれに対して判別式を生成する。
このように学習データを条件に従い分類することで、学習データの多様性を制限することになる。ある判別性能を達成する必要があるときに、学習データが多様であるほど、弱学習器が多く必要となる。この点については後述する。そして結果として、一塊の学習データから得られる判別式よりも弱学習器の少ない判別式が生成される。
ここで、特徴量により判別式を個別に用意することにより、計算時間が短くなる原理について説明する。
データを学習し、分類方法を獲得する方法として、最も原始的なのは、学習データを全て暗記する方法である。新しいデータに対して、すべてのデータとのマッチングをとり、最も近い学習データが属するクラスを返すことで分類を行う(k−NN法として知られる)。
この手法はかなり性能がよいことが知られているが、判別を行う際には、大きなデータベースが必要となるため、実際に利用できないことも多い。
これに対して、多くの学習手法は、学習データに対して、クラスを分類するのにふさわしい特徴抽出を行い、判別の際にはその特徴量を用いて判断を行う(Adaboostも、学習データから、対象を含む画像と、含まない画像を効率的に分割するための特徴量を弱学習式を生成する過程において抽出するといえる。)。
学習データ内のクラスごとで、違いが明確である場合は(例えば、明るいか、暗いかという単純な指標で判断できるような場合)は、クラスを判別する式は単純になるが、同一クラス内の情報が多様であり、単純なルールで記述できない場合は、判別するための式が長くなってしまう(Adaboostの例では弱学習式Ciの数Nが大きくなってしまう)。
したがって、学習データを何らかの基準で分割し、個別に学習を行うことで、判別式の長さが短くなり、結果として計算時間が短くなる。
ステップS4では、候補領域内部で観測された特徴量を元に、候補領域に対してふさわしい判別式の選択を行う。上で示した例では、候補領域内部で横向きの速度が多く観測された場合は、横向きの歩行者の学習データDHjに対する判別式ψhを、それ以外の方向の速度が観測された歩行者に対してはそれ以外の歩行者のデータDVjに対する判別式ψvを適用する。また、どちらの判別式が適当か明確でない場合は判別式ψhとψvとの両方を適用する。
ステップS5では、判別式による判定を行い、対象が候補領域内に写っているかどうかの判断を行う。判別式に対して候補領域の画像を入力として与え、出力値を閾値と比較し、出力値が閾値を上回った場合には、その候補領域内に対象が含まれていると判断する。
そして、ステップS6では判断結果を出力し、さらにステップS7では、終了条件を満たすまで上記各処理を繰り返す。
次に、弱学習器の学習について、図5のフローチャートに従い説明する。
まず、図5のステップS11で、学習用のデータDjをM個用意する。ここで学習データとは、画像データIjとその画像内に対象が写っているかどうかを示すデータXj、さらにそれぞれのデータに対して設定されている重みWjにより成り立つ。なお、エッジ強度を算出する場合には、画像入力手段1(図1参照)が入力した撮影画像に対して、ソベルフィルタなどが利用できる。
ステップS12では、弱学習器Ci=1を用意して、学習データに対する誤判別が少なくなるようにCi=1の最適化を行う。ここで弱学習式Ci=1は学習データの画像内のオプティカルフローを入力として、画像内に対象がいるかどうかの判断を行う式である。本実施例では、弱学習器において、新たに入力したオプティカルフローと既に学習したオプティカルフローとの差が所定値以下であれば、対象があると判断するという処理を行う。ここで比較する画素の位置を変数とし、誤り率が最も少なくなるように、ローカルサーチや遺伝的アルゴリズムなどの最適化手法により画像内のオプティカルフローを参照する画素の位置を最適化する。
ステップS13では、学習データの重み付けを更新する。最適化された弱学習器で正確に分類されなかった学習データの重みを上げ、正確に分類された学習データの重みを下げることで、次の学習フェーズにおいて、Ci=1で正確に分類できなかった学習データが重要視された学習を行えるようにすることを目的とする。
ステップS14ではステップS12で得られた判別式の性能を評価し、目標値に達しているかどうかの判断を行う。もし目標性能に達していなければ、ステップS12で新たな弱学習器の最適化を行い、さらにステップS13で重みの更新を行って、ステップS14においてCi=1とCi=2を用いた性能の評価を行うという作業を繰り返す。得られた判別式が目標性能に達していれば、この処理を終了する。
次に、特徴量がオプティカルフローの場合に、候補領域内に対象が写っているかどうかの判断を、上記判別式を用いて行う一例について説明する。
例えば、判別式を次のように定義する。
右方向に移動する歩行者の判別式 ψkR=C1R(p)+C2R(p)+・・・ +CN-1R(p)+CNR(p)
手前に移動する歩行者の判別式 ψkC=C1C(p)+C2C(p)+ ・・・ +CN-1C(p)+CNC(p)
左方向に移動する歩行者の判別式 ψkL=C1L(p)+C2L(p)+ ・・・ +CN-1L(p)+CNL(p)
ここで、
1R(p) :右方向のベクトル(オプティカルフロー)で速度がv1の弱学習器
2R(p) :右方向のベクトル(オプティカルフロー)で速度がv2の弱学習器
N-1R(p):右方向のベクトル(オプティカルフロー)で速度がvN-1の弱学習器
NR(p) :右方向のベクトル(オプティカルフロー)で速度がvNの弱学習器

1C(p) :手前方向のベクトル(オプティカルフロー)で速度がv1の弱学習器
2C(p) :手前方向のベクトル(オプティカルフロー)で速度がv2の弱学習器
N-1C(p):手前方向のベクトル(オプティカルフロー)で速度がvN-1の弱学習器
NC(p) :手前方向のベクトル(オプティカルフロー)で速度がvNの弱学習器

1L(p) :左方向のベクトル(オプティカルフロー)で速度がv1の弱学習器
2L(p) :左方向のベクトル(オプティカルフロー)で速度がv2の弱学習器
N-1L(p):左方向のベクトル(オプティカルフロー)で速度がvN-1の弱学習器
NL(p) :左方向のベクトル(オプティカルフロー)で速度がvNの弱学習器
である。
そして、候補領域pにおけるオプティカルフローのベクトルが右方向で速度がv2であるとすると、候補領域pに対しては判別式ψkRが選択され、その判別式ψkRは、
ψkR=C1R(p)+C2R(p)+ ・・・ +CN-1R(p)+CNR(p)=0+1+ ・・・ +0+0≧μk
となり、候補領域p内に右向きに速度v2で移動する歩行者が存在すると判定される。
実際は、各弱学習器は複数のベクトルに対して設定されている。例えば、右方向に移動する歩行者の場合、あらかじめ定めた分解能に基づいて頭部、胴体、手、足等に応じたオプティカルフロー(ベクトル)が算出され、このベクトルの集合を一つのパターンとして学習する。
本実施例によれば、探索範囲を画面上の一部に絞り込むことができるので、画面すべてを操作する必要がなくなり、計算時間を短縮することができる。
次に、特徴量がエッジ強度の場合に、候補領域内に対象が写っているかどうかの判断を、判別式を用いて行う一例について説明する。
例えば、判別式を次のように定義する。
歩行者の判別式 ψkEW=C1EW(p)+C2EW(p)+ ・・・ +CN-1EW(p)+CNEW(p)
四輪車両の判別式 ψkEV4=C1EV4(p)+C2EV4(p)+ ・・・ +CN-1EV4(p)+CNEV4(p)
二輪車両の判別式 ψkEV2=C1EV2(p)+C2EV2(p)+ ・・・ +CN-1EV2(p)+CNEV2(p)
ここで、
1EW(p) :エッジ強度がEW1(晴天時)の歩行者画像の弱学習器
2EW(p) :エッジ強度がEW2(降雨時)の歩行者画像の弱学習器
N-1EW(p):エッジ強度がEWN-1(薄霧時)の歩行者画像の弱学習器
NEW(p) :エッジ強度がEWN(降雪時)の歩行者画像の弱学習器

1EV4(p) :エッジ強度がEV41(晴天時)の四輪車両の弱学習器
2EV4(p) :エッジ強度がEV42(降雨時)の四輪車両の弱学習器
N-1EV4(p):エッジ強度がEV4N-1(薄霧時)の四輪車両の弱学習器
NEV4(p) :エッジ強度がEV4N(降雪時)の四輪車両の弱学習器

1EV2(p) :エッジ強度がEV21(晴天時)の二輪車両の弱学習器
2EV2(p) :エッジ強度がEV22(降雨時)の二輪車両の弱学習器
N-1EV2(p):エッジ強度がEV2N-1(薄霧時)の二輪車両の弱学習器
NEV2(p) :エッジ強度がEV2N(降雪時)の二輪車両の弱学習器
である。
そして、候補領域pにおけるエッジ強度がEV22であるとすると、候補領域pに対しては判別式ψkEV2が選択され、その判別式ψkEV2 は、
ψkEV2=C1EV2(p)+C2EV2(p)+ ・・・ +CN-1EV2(p)+CNEV2(p)=0+1+ ・・・ +0+0≧μk
となり、候補領域p内に降雨時の二輪車両が存在すると判定される。
次に、特徴量が空間周波数の場合に、候補領域内に対象が写っているかどうかの判断を、判別式を用いて行う一例について説明する。
例えば、判別式を次のように定義する。
歩行者の判別式 ψkH=C1H(p)+C2H(p)+ ・・・ +CN-1H(p)+CNH(p)
犬の判別式 ψkD=C1D(p)+C2D(p)+ ・・・ +CN-1D(p)+CND(p)
静止車両の判別式 ψkV=C1V(p)+C2V(p)+ ・・・ +CN-1V(p)+CNV(p)
ここで、
1H(p) :空間周波数H1(子供)の画像の弱学習器
2H(p) :空間周波数H2(大人)の画像の弱学習器
N-1H(p):空間周波数HN-1(大きい荷物を持った人)の画像の弱学習器
NH(p) :空間周波数HN(傘を差した大人)の画像の弱学習器

1D(p) :空間周波数D1(柴犬)の画像の弱学習器
2D(p) :空間周波数D2(レトリバー)の画像の弱学習器
N-1D(p):空間周波数DN-1(チワワ)の画像の弱学習器
ND(p) :空間周波数DN(ブルドッグ)の画像の弱学習器

1V(p) :空間周波数V1(セダン)の画像の弱学習器
2V(p) :空間周波数V2(ワンボックス)の画像の弱学習器
N-1V(p):空間周波数VN-1(トラック)の画像の弱学習器
NV(p) :空間周波数VN(二輪車)の画像の弱学習器
である。
そして、候補領域pにおける空間周波数がDN-1であるとすると、候補領域pに対しては判別式ψkDが選択され、その判別式ψkD は、
ψkD=C1D(p)+C2D(p)+ ・・・ +CN-1D(p)+CND(p)=0+0+ ・・・ +1+0≧μk
となり、候補領域p内にチワワが存在すると判定される。
次に、特徴量がコントラストの場合に、候補領域内に対象が写っているかどうかの判断を、判別式を用いて行う一例について説明する。
例えば、判別式を次のように定義する。
歩行者の判別式 ψkCW=C1CW(p)+C2CW(p)+ ・・・ +CN-1CW(p)+CNCW(p)
四輪車両の判別式 ψkCV4=C1CV4(p)+C2CV4(p)+ ・・・ +CN-1CV4(p)+CNCV4(p)
二輪車両の判別式 ψkCV2=C1CV2(p)+C2CV2(p)+ ・・・ +CN-1CV2(p)+CNCV2(p)
ここで、
1CW(p) :コントラストがCW1(晴天時)の歩行者画像の弱学習器
2CW(p) :コントラストがCW2(降雨時)の歩行者画像の弱学習器
N-1CW(p):コントラストがCWN-1(薄霧時)の歩行者画像の弱学習器
NCW(p) :コントラストがCWN(降雪時)の歩行者画像の弱学習器

1CV4(p) :コントラストがCV41(晴天時)の四輪車両の弱学習器
2CV4(p) :コントラストがCV42(降雨時)の四輪車両の弱学習器
N-1CV4(p):コントラストがCV4N-1(薄霧時)の四輪車両の弱学習器
NCV4(p) :コントラストがCV4N(降雪時)の四輪車両の弱学習器

1CV2(p) :コントラストがCV21(晴天時)の二輪車両の弱学習器
2CV2(p) :コントラストがCV22(降雨時)の二輪車両の弱学習器
N-1CV2(p):コントラストがCV2N-1(薄霧時)の二輪車両の弱学習器
NCV2(p) :コントラストがCV2N(降雪時)の二輪車両の弱学習器
である。
そして、候補領域pにおけるエッジ強度がCW1であるとすると、候補領域pに対しては判別式ψkCWが選択され、その判別式ψkCWは、
ψkCW=C1CW(p)+C2CW(p)+ ・・・ +CN-1CW(p)+CNCW(p)=1+0+ ・・・ +0+0≧μk
となり、候補領域p内に晴天時の歩行者が存在すると判定される。
次に、特徴量がアスペクト比の場合に、候補領域内に対象が写っているかどうかの判断を、判別式を用いて行う一例について説明する。
例えば、判別式を次のように定義する。
歩行者の判別式 ψkAW=C1AW(p)+C2AW(p)+ ・・・ +CN-1AW(p)+CNAW(p)
四輪車両の判別式 ψkAV4=C1AV4(p)+C2AV4(p)+ ・・・ +CN-1AV4(p)+CNAV4(p)
二輪車両の判別式 ψkAV2=C1AV2(p)+C2AV2(p)+ ・・・ +CN-1AV2(p)+CNAV2(p)
ここで、
1AW(p):対象を囲む四角形のアスペクト比がAW1(子供1)の歩行者画像の弱学習器
2AW(p):対象を囲む四角形のアスペクト比がAW2(子供2)の歩行者画像の弱学習器
N-1AW(p):対象を囲む四角形のアスペクト比がAWN-1(大人N-1)の歩行者画像の弱学習器
NAW(p):対象を囲む四角形のアスペクト比がAWN(大人N)の歩行者画像の弱学習器

1AV4(p):対象を囲む四角形のアスペクト比がAV41(セダン)の四輪車両の弱学習器
2AV4(p):対象を囲む四角形のアスペクト比がAV42(ワンボックス)の四輪車両
の弱学習器
N-1AV4(p):対象を囲む四角形のアスペクト比がAV4N-1(トラック)の弱学習器
NAV4(p):対象を囲む四角形のアスペクト比がAV4N(バス)の弱学習器

1AV2(p):対象を囲む四角形のアスペクト比がAV21(自転車1)の二輪車両の弱学習器
2AV2(p):対象を囲む四角形のアスペクト比がAV22(自転車2)の二輪車両の弱学習器
N-1AV2(p):対象を囲む四角形のアスペクト比がAV2N-1(バイクN-1)の二輪車両
の弱学習器
NAV2(p):対象を囲む四角形のアスペクト比がAV2N(バイクN)の二輪車両の弱学習器
である。
そして、候補領域pにおけるアスペクト比がAV4Nであるとすると、候補領域pに対しては判別式ψkAV4が選択され、その判別式ψkAV4は、
ψkAV4=C1AV4(p)+C2AV4(p)+ ・・・ +CN-1AV4(p)+CNAV4(p)=0+0+ ・・・ +0+1≧μk
となり、候補領域p内にバスが存在すると判定される。
以上、本発明の実施例を図面により詳述してきたが、上記各実施例は本発明の例示にしか過ぎないものであり、本発明は上記各実施例の構成にのみ限定されるものではない。本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。
本発明に係る画像処理装置のブロック図である。 実施例1における動作のフローチャートである。 オプティカルフローによる候補領域の抽出を説明する図である。 学習データの分割を示す図である。 実施例2による動作を示しており、学習アルゴリズムAdaboostの学習方法のフローチャートである。
符号の説明
1 画像入力手段
2 画像内特徴量算出手段
3 対象候補領域抽出手段
4 データベース
5 判別式構成手段
6 判別式選択手段
7 検出手段

Claims (7)

  1. 撮影画像を入力する画像入力手段と、
    前記画像入力手段が入力した撮影画像の特徴量を算出する画像内特徴量算出手段と、
    前記特徴量を用いて、前記撮影画像のうちの対象候補領域を抽出する対象候補領域抽出手段と、
    用意された画像データに基づいて対象の特徴量を算出し、該特徴量に対する複数の判別式を作成する判別式構成手段と、
    前記複数の判別式の中から、前記対象候補領域抽出手段で抽出した対象候補領域内の特徴量に基づいて、判別式を選択する判別式選択手段と、
    前記判別式に基づいて、対象候補領域における対象の有無を検出する検出手段と、を備えたことを特徴とする画像処理装置。
  2. 前記画像内特徴量算出手段は、前記特徴量として、オプティカルフロー、空間周波数、エッジ強度、コントラスト またはアスペクト比のうちひとつ以上の特徴量を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記判別式構成手段は、分類が可能な前記特徴量ごとに判別式を作成することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 対象の画像データがあらかじめ蓄積されたデータベースを備えていることを特徴とする請求項1に記載の画像処理装置。
  5. 撮影画像を入力する第1のステップと、
    前記第1のステップで入力した撮影画像の特徴量を算出する第2のステップと、
    前記特徴量を用いて、前記撮影画像のうちの対象候補領域を抽出する第3のステップと、
    用意された画像データに基づいて、対象の特徴量を算出し、該特徴量に対する複数の判別式を作成する第4のステップと、
    前記複数の判別式の中から、前記第3のステップで抽出した対象候補領域内の特徴量に基づいて、判別式を選択する第5のステップと、
    前記判別式に基づいて、対象候補領域における対象の有無を検出する第6のステップと、を含むことを特徴とする画像処理方法。
  6. 前記第2のステップにおいて、前記特徴量として、オプティカルフロー、空間周波数、エッジ強度、コントラスト またはアスペクト比のうちひとつ以上の特徴量を算出することを特徴とする請求項5に記載の画像処理方法。
  7. 前記第4のステップにおいて、分類が可能な前記特徴量ごとに判別式を作成することを特徴とする請求項5又は6に記載の画像処理方法。

JP2006078800A 2006-03-22 2006-03-22 画像処理装置及び方法 Pending JP2007257148A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006078800A JP2007257148A (ja) 2006-03-22 2006-03-22 画像処理装置及び方法
US11/726,213 US20070223785A1 (en) 2006-03-22 2007-03-21 Image processor and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006078800A JP2007257148A (ja) 2006-03-22 2006-03-22 画像処理装置及び方法

Publications (1)

Publication Number Publication Date
JP2007257148A true JP2007257148A (ja) 2007-10-04

Family

ID=38533491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006078800A Pending JP2007257148A (ja) 2006-03-22 2006-03-22 画像処理装置及び方法

Country Status (2)

Country Link
US (1) US20070223785A1 (ja)
JP (1) JP2007257148A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010038907A (ja) * 2008-07-08 2010-02-18 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
JP2014135039A (ja) * 2012-12-13 2014-07-24 Denso Corp 移動体検出装置
WO2021106945A1 (ja) * 2019-11-28 2021-06-03 国立研究開発法人宇宙航空研究開発機構 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141092A1 (de) * 2008-05-21 2009-11-26 Adc Automotive Distance Control Systems Gmbh Fahrerassistenzsystem zur vermeidung von kollisionen eines fahrzeugs mit fussgängern
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
US8983179B1 (en) * 2010-11-10 2015-03-17 Google Inc. System and method for performing supervised object segmentation on images
WO2013118218A1 (ja) * 2012-02-09 2013-08-15 パナソニック株式会社 画像認識装置、画像認識方法、プログラムおよび集積回路
US10210398B2 (en) * 2017-01-12 2019-02-19 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for predicting flow of crowds from limited observations

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US7006881B1 (en) * 1991-12-23 2006-02-28 Steven Hoffberg Media recording device with remote graphic user interface
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US5991429A (en) * 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
GB2333590A (en) * 1998-01-23 1999-07-28 Sharp Kk Detecting a face-like region

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010038907A (ja) * 2008-07-08 2010-02-18 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
JP2014135039A (ja) * 2012-12-13 2014-07-24 Denso Corp 移動体検出装置
WO2021106945A1 (ja) * 2019-11-28 2021-06-03 国立研究開発法人宇宙航空研究開発機構 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP7382038B2 (ja) 2019-11-28 2023-11-16 国立研究開発法人宇宙航空研究開発機構 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20070223785A1 (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP2007257148A (ja) 画像処理装置及び方法
De Charette et al. Traffic light recognition using image processing compared to learning processes
US8773535B2 (en) Adaptation for clear path detection using reliable local model updating
Cui et al. Vehicle localisation using a single camera
Guo et al. Nighttime vehicle lamp detection and tracking with adaptive mask training
Diaz et al. A survey on traffic light detection
US20120147176A1 (en) Adaptation for clear path detection with additional classifiers
Takahashi et al. Bicycle detection using pedaling movement by spatiotemporal gabor filtering
Niknejad et al. Vision-based vehicle detection for nighttime with discriminately trained mixture of weighted deformable part models
Kim et al. Effective traffic lights recognition method for real time driving assistance systemin the daytime
Aneesh et al. Real-time traffic light detection and recognition based on deep retinanet for self driving cars
Fan et al. Traffic sign detection and classification for Advanced Driver Assistant Systems
JP2012221162A (ja) 対象物検出装置及びプログラム
Dhawan et al. Identification of traffic signs for advanced driving assistance systems in smart cities using deep learning
Radu et al. Car crash detection in videos
CN108256444B (zh) 一种用于车载视觉系统的目标检测方法
Appiah et al. Object detection in adverse weather condition for autonomous vehicles
Sanjeewani et al. A novel evolving classifier with a false alarm class for speed limit sign recognition
Kilicarslan et al. Detecting walking pedestrians from leg motion in driving video
Mathew et al. Real-Time Number Plate and Helmet Detection of Motorcyclists using YOLOv5 and ResNet-50
Sanjeewani et al. Multi-stage deep learning technique for improving traffic sign recognition
Elhagry et al. CEAFFOD: Cross-Ensemble Attention-based Feature Fusion Architecture Towards a Robust and Real-time UAV-based Object Detection in Complex Scenarios
Sabri et al. Detection of Micromobility Vehicles in Urban Traffic Videos
Abari A Novel Pedestrian Detection Method Based on Combination of LBP, HOG, and Haar-Like Features
CN110490116A (zh) 一种选择性搜索与机器学习分类的远红外行人检测方法