JP4740038B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP4740038B2
JP4740038B2 JP2006150317A JP2006150317A JP4740038B2 JP 4740038 B2 JP4740038 B2 JP 4740038B2 JP 2006150317 A JP2006150317 A JP 2006150317A JP 2006150317 A JP2006150317 A JP 2006150317A JP 4740038 B2 JP4740038 B2 JP 4740038B2
Authority
JP
Japan
Prior art keywords
image
unit
self
vector
organizing map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006150317A
Other languages
English (en)
Other versions
JP2007323177A (ja
Inventor
原也 小川
勝之 喜瀬
智晴 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2006150317A priority Critical patent/JP4740038B2/ja
Publication of JP2007323177A publication Critical patent/JP2007323177A/ja
Application granted granted Critical
Publication of JP4740038B2 publication Critical patent/JP4740038B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置に係り、特に、撮像画像中から特定のオブジェクトを抽出可能な画像処理装置に関する。
近年、TVカメラやCCD(Charge Coupled Device)カメラ等の撮像手段で被写体や風景等を撮像し、得られた画像に画像処理を施して、画像中から特定のオブジェクトを抽出するための画像処理装置や画像処理方法の研究が盛んに行われている(例えば、特許文献1〜5等参照)。
このような画像処理装置では、動画像中から特定対象を抽出するために、例えば、水平方向に離間した2台のCCDカメラ等により得られた入力画像に画像処理を施して特定対象の輪郭部分を抽出したり、パターンマッチング処理によりデータベースに登録されているモデルと照合して特定対象を推定したり、或いは画像をオブジェクトごとに領域分割してオブジェクトの種類を識別する等の画像処理方法が採られている。
また、各種画像フィルタを木構造状に組み合わせた処理プログラムに基づいて入力画像に画像処理を施して画像中から特定対象を抽出する自動構築法ACTIT(Automatic Construction of Tree-structural Image Transformations)と呼ばれる画像処理技術が開発されている(非特許文献1参照)。
特開平5−265547号公報 特開平10−11585号公報 特開2002−83297号公報 特開平9−271014号公報 特開2005−63307号公報 青木紳也、外1名、「木構造状画像変換の自動構築法ACTIT」、映像情報メディア学会誌、社団法人映像情報メディア学会、1999年、第53巻、第6号、p.888〜894
これらの従来の画像処理装置や画像処理方法では、画像中である程度の領域を占めるオブジェクトを抽出することは可能である。すなわち、例えば風景を撮像した画像中からオブジェクトとして空や建物、車両、人物等を大まかに抽出することは可能である。しかしながら、オブジェクトのより詳細な特定の属性、すなわち、例えば人物が撮像手段の方を向いているか或いは撮像手段に背を向けているかや、人物が大人か子供か等の属性まで抽出することは必ずしも容易ではない。
特に、撮像手段が乗用車等の車両に搭載される場合、価格の高騰を抑えるために比較的安価な撮像手段が用いられるが、そのような撮像手段は通常、解像度がさほど高くなく、得られる画像データにノイズが含まれることが多いため、前記のようなオブジェクトの特定の属性の抽出はより困難になる。
しかし、前記のようなオブジェクトのより詳細な特定の属性が抽出できれば、例えば、自車両前方の歩行者が自車両に背を向けている場合には自車両が接近していることを認識していない可能性が高いから歩行者が自車両の方を向いている場合よりも警戒度を高め、或いは歩行者が子供であれば大人である場合よりも警戒度を高める等の措置を取ることが可能となり、車両の走行安全性を向上させることが可能となる。
本発明は、このような事情に鑑みてなされたものであり、車載の比較的安価な撮像手段で撮像された画像中からオブジェクトの特定の属性を的確に抽出し識別することが可能な画像処理装置を提供することを目的とする。
前記の問題を解決するために、第1の発明は、
画像処理装置において、
車両に搭載され、自車両進行路を撮像する撮像手段と、
前記撮像手段により撮像された画像から特定のオブジェクトを含む画像領域を抽出するオブジェクト抽出部と、
抽出された前記画像領域に含まれる前記オブジェクトの特定の属性を投票するための複数の自己組織化マップを備える並列処理部と、
前記複数の自己組織化マップによる投票結果を統合して前記オブジェクトの特定の属性を識別する統合部とを備え、
前記自己組織化マップに属する複数のユニットは、予め前記オブジェクトの特定の属性に応じてクラス分けされており、
前記並列処理部は、前記複数の自己組織化マップにそれぞれ1つずつ画像フィルタを対応させ、前記画像フィルタによる前記画像領域に対する前処理により生成されたベクトルを前記自己組織化マップに入力し、それぞれ勝者ユニットを決定し、各勝者ユニットが属するクラスに対応付けられた前記オブジェクトの特定の属性を投票結果として出力させることを特徴とする。
第2の発明は、第1の発明の画像処理装置において、前記並列処理部は、前記勝者ユニットの決定において、入力されるベクトルの成分と、それに対応する自己組織化マップの各ユニットに属する参照ベクトルの成分との差の絶対値が予め設定された値以上となる成分がある場合には、その成分についてはその差の絶対値を前記予め設定された値に圧縮して入力されるベクトルと自己組織化マップ上の参照ベクトルとの距離を計算することを特徴とする。
第3の発明は、第1または第2の発明の画像処理装置において、前記特定のオブジェクトは、人物であり、前記オブジェクトの特定の属性は、人物が自車両の方を向いていることおよび自車両に背を向けていることであることを特徴とする。
第4の発明は、第1から第3のいずれかの発明の画像処理装置において、前記オブジェクト抽出部により抽出された前記画像領域は、その大きさ、前記画像領域に含まれる各画素の輝度の平均および分散を正規化されて前記並列処理部における処理に付されることを特徴とする。
第5の発明は、第1から第4のいずれかの発明の画像処理装置において、前記自己組織化マップの学習を、予め前記オブジェクトの特定の属性のクラスが分かっている画像領域を用いて教師あり学習により行うことを特徴とする。
第6の発明は、第1から第5のいずれかの発明の画像処理装置において、前記自己組織化マップに属する複数のユニットは、サポートベクターマシンによる領域分割の手法またはK最近接近傍法による領域分割の手法による自己組織化マップの前記オブジェクトの特定の属性に応じた領域分割により予めクラス分けされることを特徴とする。
第7の発明は、第1から第6のいずれかの発明の画像処理装置において、前記統合部は、前記並列処理部の各自己組織化マップによる投票結果を多数決により統合し、前記並列処理部の各自己組織化マップによる投票結果を、前記各自己組織化マップの識別能力で重み付けした多数決により統合することを特徴とする。
第8の発明は、第7の発明の画像処理装置において、前記統合部は、前記並列処理部の各自己組織化マップから出力される投票結果の信頼度に応じて重み付けした多数決により統合することを特徴とする。
第9の発明は、第1から第6のいずれかの発明の画像処理装置において、前記統合部は、前記並列処理部の各自己組織化マップによる投票結果を、学習されたニューラルネットワークに入力して統合することを特徴とする。
第1の発明によれば、撮像画像中から抽出された特定のオブジェクトを含む画像領域に対して各種画像フィルタで種々のフィルタ処理を行ってオブジェクトの特定の属性が投票されるため、撮像画像中から抽出された特定のオブジェクトを含む1つの画像領域に対して種々の観点から処理を施してオブジェクトの特定の属性を判断することが可能となる。
また、画像フィルタの処理により生成されたベクトルをそれぞれユニットが適切にクラス分けされた自己組織化マップに入力してオブジェクトの特定の属性を投票するため、それぞれの自己組織化マップがオブジェクトの特定の属性を適切に決定して出力することが可能となる。
さらに、複数の自己組織化マップからそれぞれ出力される投票結果を総合してオブジェクトの特定の属性が決定され識別されるため、各種画像フィルタと自己組織化マップにより種々の観点から適切に決定された結果を総合してオブジェクトの特定の属性を識別することが可能となる。
そのため、車載の比較的安価で解像度がさほど高くない撮像手段を用いても、それを用いて撮像された画像中からオブジェクトの特定の属性、すなわち本実施形態では人物が自車両の方を向いているか或いは自車両に背を向けているかという詳細な属性を的確に抽出して識別することが可能となる。
第2の発明によれば、前記発明の効果に加え、勝者ユニットの決定において、入力されるベクトルと参照ベクトルの差の絶対値が設定値以上となる成分については差の絶対値がその設定値に圧縮された両ベクトル間の距離によって決定するため、画像領域に比較的大きなノイズが入っている場合でもその影響を緩和して距離を計算して勝者ユニットを決定することが可能となる。
また、同時に、勝者ユニットを決定する際の入力されるベクトルと各参照ベクトルとの各距離の比較において、圧縮により、ベクトルと参照ベクトルとの差の絶対値が大きい成分の影響が排除され、ベクトルと参照ベクトルとがどれほど似かよっているかを重視して勝者ユニットを決定することが可能となる。そのため、撮像画像中から人物等の特定のオブジェクトを抽出した場合、抽出された画像領域が比較的小さい領域となり、通常のユークリッド距離等の算出手法ではノイズ等が評価値に大きく影響するような場合でも、前記のように圧縮を行うことで、ノイズ等の影響を排除した上でベクトルと参照ベクトルとがどれだけ似ているかによって勝者ユニットを決定することが可能となり、有効かつ的確にオブジェクトのさらに詳細な特定の属性を抽出することが可能となる。
第3の発明によれば、特定のオブジェクトが人物であると、撮像画像から抽出される画像領域は比較的小さい領域となる場合が多いが、そのような場合でも前記各発明によれば的確にオブジェクトのさらに詳細な特定の属性を抽出することが可能となる。また、車両の走行において大きな注意を払うべき人物の特定の属性を的確に抽出して、例えば歩行者が子供であるという属性を有する場合には大人であるという属性を有する場合よりも警戒度を高める等の適切な措置を取ることが可能となり、車両の走行安全性を向上させることが可能となる。
更に、自車両前方の歩行者が自車両に背を向けているという属性を有する場合には自車両が接近していることを認識していない可能性が高いから、歩行者が自車両の方を向いているという属性を有する場合よりも警戒度を高める等の措置を取ることが可能となり、前記各発明の効果が効果的に発揮されるとともに、車両の走行安全性をより向上させることが可能となる。
第4の発明によれば、前記各発明の効果に加え、画像領域を大きさ、各画素の輝度の平均および分散を正規化して処理することで、例えば撮像されたオブジェクトが曇天や雨天或いは夜間等で撮像された画像の輝度が全体的に暗くて分散も小さいような場合でも、正規化により明るさや輝度の分散の影響を排除して同じ条件で画像処理を行うことが可能となる。そのため、装置の信頼性が向上する。
第5の発明によれば、自己組織化マップの学習を教師なし学習により行うことも可能である。しかし、第4の発明のように、例えば、2つのクラスを予め自己組織化マップの左右に仮に割り当てて教師あり学習を行うと、それぞれのクラスのユニットが自己組織化マップ上でほぼ左右に分かれて分布するようになる。
このように、自己組織化マップのユニットをどのようにクラス分けさせたいかに応じて学習の初期に予め適切に仮のクラス分けを行うことで、クラス分けの目的を明確に指定して学習を行うことが可能となる。そして、そのため前記各発明の効果をより的確に発揮させることが可能となる。
第6の発明によれば、自己組織化マップの学習を適切に行うことで、各自己組織化マップでは同一のクラスに属するユニットが適切に集まった状態となる。そのため、前記各発明の効果に加え、各ユニットをサポートベクターマシンやK最近接近傍法によるクラス分けの手法によりクラス分けすることにより、容易かつ適切にクラス分けを行うことが可能となり、かつ、オブジェクトの特定の属性を適切に投票する自己組織化マップを形成することが可能となる。
第7の発明によれば、画像処理装置は、前記各発明で述べたように、撮像画像中から抽出された特定のオブジェクトを含む画像領域を各種画像フィルタで種々のフィルタ処理し、生成されたベクトルを各ユニットが適切にクラス分けされた自己組織化マップに入力してオブジェクトの特定の属性を投票するものである。そのため、それらの投票結果を単純に多数決して統合することで、十分に良好にオブジェクトの特定の属性を識別することができる。
更に、並列処理部の画像フィルタの種類や自己組織化マップの学習結果等によっては自己組織化マップから出力される投票結果が必ずしも精度が高くない可能性がないわけではない。そのため、自己組織化マップの識別能力、正確には画像フィルタと自己組織化マップとの組の識別能力を、例えば種々の画像領域を入力した際の正解率等で適切に評価して投票結果の統合に反映させることで、画像領域から抽出されたオブジェクトの特定の属性をより精度良く識別することが可能となり、前記各発明の効果がより精度良く発揮される。
第8の発明によれば、第7の発明のように、自己組織化マップ自体の識別能力ではなく、或いはそれと合わせて、自己組織化マップにおける勝者ユニットの決定に用いられた前記距離や、自己組織化マップ上のクラスの境界からの勝者ユニットの距離、或いは勝者ユニットと2番目に評価が高かったユニットとの距離等に基づいて投票結果自体の信頼度に応じて重み付けした多数決により統合する。そのため、投票結果自体の信頼度を投票結果の統合に反映させることで、画像領域から抽出されたオブジェクトの特定の属性をより精度良く識別することが可能となり、前記各発明の効果がより精度良く発揮される。
第9の発明によれば、各自己組織化マップによる投票結果を学習されたニューラルネットワークに入力して統合することで、画像領域から抽出されたオブジェクトの特定の属性をより精度良く識別することが可能となり、前記各発明の効果がより精度良く発揮される。また、ニューラルネットワークの学習は、公知の遺伝的アルゴリズムの手法等を用いて容易に行うことができる。
以下、本発明に係る画像処理装置の実施の形態について、図面を参照して説明する。
本実施形態に係る画像処理装置は、CPUやRAM、ROM、入出力インターフェース等がBUSにより接続されて構成されたコンピュータにより構成されている。車載のECU(Electric Control UnitまたはEngine Control Unit)内に構成することも可能である。
画像処理装置1は、図1に示すように、画像入力部2と、オブジェクト抽出部3と、正規化部4と、並列処理部5と、統合部6と、SOM学習部7と、メモリ8とを備えている。
画像入力部2は、自車両前方の風景を撮像し、撮像した画像を電気信号に変換可能な撮像手段21を備えている。撮像手段21には、例えばカラーCCDセンサが用いられる。
本実施形態では、撮像手段21は、図示しない自動車車両に取り付けられており、通常のテレビ画像と同様に1/30秒ごとに車両前方を撮像するようになっている。なお、本実施形態では、一定の時間間隔ごとに送信されてくる撮像画像の単位を1フレームという。
画像入力部2は、撮像手段21が出力する画像データを図示しないA/Dコンバータでデジタル画像データに変換し、RGB表色系の画像データをHSB表色系やL表色系等の輝度、色相および彩度の画像データに変換してオブジェクト抽出部3に出力するようになっている。なお、本実施形態では、色の3要素のうち明度や明るさ等と呼ばれる要素を輝度と表現し、他の2要素をそれぞれ色相および彩度と表現する。また、画素の輝度は0〜255の256階調で表される。
オブジェクト抽出部3は、画像入力部2から送信されてきた画像データを入力画像としてメモリ8に順次保存するようになっている。
また、オブジェクト抽出部3は、入力画像中から特定のオブジェクトを含む画像領域を抽出するように構成されている。本実施形態では、オブジェクト抽出部3は、予め学習された処理プログラムに基づいて入力画像中から特定のオブジェクトとして歩行者等の人物を含む画像領域を抽出するようになっている。
本実施形態に用いられる処理プログラムは、図2に示すように、各種画像フィルタが木構造状に組み合わされて構成されており、画像フィルタには、図3に例示するような各種画像フィルタが用いられるようになっている。また、本実施形態では、処理プログラムには、現在の時刻tに画像入力部2から入力された入力画像Itと、メモリ8から読み出された過去の入力画像It-1、…、It-sが入力されるようになっている。
本実施形態では、入力画像It、It-1、…、It-sとして、図4(A)に示すように、現在の時刻tの入力画像Itおよびそれ以前の1フレームごとの入力画像It-1、…、It-3が処理プログラムに入力されるようになっている。この他にも、例えば、図4(B)に示すように現在の時刻tの入力画像Itとそれ以前の3フレームごとの入力画像It-1、It-2の計3枚の画像を入力するように構成することも可能である。また、他の選択方法により相異なる複数種類の入力画像を選択して処理プログラムに入力するように構成することも可能である。
オブジェクト抽出部3は、装置の起動時に、図2に示すような各種画像フィルタが木構造状に組み合わされた処理プログラムをメモリ8から読み出すようになっている。また、オブジェクト抽出部3は、現在の時刻tに画像入力部2から入力された入力画像Itと、メモリ8から読み出した入力画像It-1、It-2、It-3とを処理プログラムに入力して出力画像Otを得るようになっている。
なお、このオブジェクト抽出は、本実施形態のように各種画像フィルタを木構造状に組み合わせた処理プログラムに基づいて行う代わりに、例えば、本出願人の出願に係る特開平10−283477号公報に記載のステレオ撮像による車外監視装置における抽出方法に基づいて行ってもよい。また、画像中から特定のオブジェクトを含む画像領域を好適に抽出できる限り、他の装置や方法を用いることも可能である。
オブジェクト抽出部3は、例えば図5に示すような入力画像It等を木構造状の処理プログラムに入力して図6に示すような出力画像Otを得ると、図6に斜線で示される輝度が0より大きい部分すなわち歩行者を抽出した部分を囲むように矩形状の画像領域rtを設定して、図7に示すように入力画像Itから特定のオブジェクトである人物を含む画像領域rtを抽出するようになっている。なお、入力画像It中に人物が複数撮像されている場合には、複数の画像領域rtが抽出される。
オブジェクト抽出部3は、出力画像Otや、抽出した人物を含む画像領域rtの頂点の座標などオブジェクトについての情報をメモリ8に保存するとともに、正規化部4に送信するようになっている。
正規化部4は、送信されてきたオブジェクトについての情報に基づいて入力画像Itからオブジェクトを含む画像領域rtを切り出して正規化するようになっている。
具体的には、正規化部4は、まず、切り出した例えば横方向にm画素、縦方向にn画素の大きさすなわちm×n画素の画像領域rtを、予め設定されたM×N画素の画像領域Rtに正規化し、画像領域の大きさを揃えるようになっている。
正規化部4は、さらに画像の明るさの影響を排除するため、画像領域Rtの各画素の輝度について以下の正規化処理を行うようになっている。
(a)画像領域Rtの各画素の輝度bi(i=1〜M×N)のヒストグラムをとり、平均baveおよび分散σを求める。
輝度biの平均baveおよび分散σは下記(1)、(2)式に従って計算されるようになっている。なお、下記(1)、(2)式中の総和は、M×N画素に変換された画像領域Rt中の全画素について行われる。
Figure 0004740038
(b)平均輝度baveが128になるように各画素の輝度をシフトする。
すなわち、各画素の輝度biをそれぞれ
bishift=bi+(128−bave) …(3)
に従ってbishiftに変換するようになっている。なお、本実施形態では、この処理で変換された画素の輝度bishiftが255を超えてもその値のまま扱う。そのため、各画素の輝度bishiftの分散はσである。
(c)分散σが一定になるように128の輝度を中心に各画素の輝度を変化させる。
この処理では、各画素の輝度bishiftを、さらに128を中心に拡大或いは縮小させて変化後の各画素の輝度の分散が予め設定された分散σrに統一させる。すなわち、各画素の輝度bishiftをそれぞれ
Bi=128+(bishift−128)×(σr/σ)1/2 …(4)
に従って変換して最終的に正規化された輝度Biをそれぞれ算出するようになっている。
なお、本実施形態では、この(c)の処理が終了した段階で、画素の輝度Biが255を超えた場合にはその画素の輝度Biを255にするようになっている。また、画素の色相Hiや彩度Siを正規化するように構成することも可能であり適宜行われる。
正規化部4は、このようにしてM×N画素に変換され輝度等が正規化された抽出した人物を含む画像領域Rtの各画素の3要素すなわち輝度Bi、色相Hiおよび彩度Siをメモリ8に保存するとともに、並列処理部5に送信するようになっている。
並列処理部5は、正規化部4により正規化された画像領域Rtを前処理するための画像フィルタとそれに対応する自己組織化マップとの組を複数備えている。本実施形態では、この画像フィルタと自己組織化マップとの組が奇数組備えられている。
画像フィルタには、図3に例示したような各種画像フィルタのほか、例えば、彩度フィルタ処理や時間差分フィルタ処理等を行う各種画像フィルタの中から適宜選択されて用いられるようになっている。
自己組織化マップSOMは、図8に示すように、本実施形態では100×100個のユニットuj(j=1〜10000)を備えた2次元マップとして構成されており、各ユニットujはそれぞれ参照ベクトルmjを備えている。参照ベクトルmjは、後述する自己組織化マップSOMに入力されるベクトルxと同一次元のベクトルである。
参照ベクトルmjは、図9に示すように、ベクトルxの各成分x、x、x、x、…と自己組織化マップSOM上のユニットujとを結ぶ各結線の荷重mj、mj、mj、mj、…を成分とするベクトルとみることもできる。
本実施形態では、自己組織化マップSOMは、オブジェクトである歩行者等の人物の特定の属性、すなわち本実施形態では人物が自車両の方を向いているか或いは自車両に背を向けているかを判別してその属性を投票するようになっている。
具体的には、自己組織化マップSOMを構成する各ユニットujは、人物が自車両の方を向いているという属性に対応するクラスCfと、人物が自車両に背を向けているという属性に対応するクラスCbとにそれぞれクラス分けされている。本実施形態では、自己組織化マップSOMは後述する学習により予め図8に示すように領域分割されており、それに基づいて各ユニットujがそれぞれのクラスにクラス分けされている。
そして、自己組織化マップSOMは、あるベクトルxが入力されて勝者ベクトルmcが決定されると、その勝者ベクトルmcを有する勝者ユニットucが属するクラスに対応する属性を投票結果Vとして出力するようになっている。
勝者ベクトルmcの決定については、通常の自己組織化マップの手法では、入力されたベクトルxと自己組織化マップSOMの参照ベクトルmjとのユークリッド距離やシティブロック距離等を算出してその距離が最小となる参照ベクトルmjが勝者ベクトルmcとされる。
しかし、本実施形態では、入力されるベクトルxの各成分xとそれに対応する自己組織化マップSOM上の参照ベクトルmjの各成分mjとの差の絶対値が予め設定された値以上となるような成分がある場合には、その成分についてはその差の絶対値を前記設定値に圧縮してベクトルxと自己組織化マップSOM上の参照ベクトルmjとのシティブロック距離を計算する。そして、その距離が最小となる参照ベクトルmjを勝者ベクトルmcとして決定するようになっている。
具体的には、入力されるベクトルx={x}=(x,x,x,x,…)と自己組織化マップSOM上の参照ベクトルmj={mj}=(mj,mj,mj,mj,…)との距離yjを下記(5)式に従って計算されるようになっている。
Figure 0004740038
なお、式中のCは前述した予め設定される値である。また、前記(5)式のただし書きの部分をグラフに表すと、図10のように表される。すなわち、本実施形態では、距離yjの算出に非線形な評価式が用いられる。また、設定値Cを各画素の輝度、色相、彩度についてそれぞれ別々に設けることも可能である。
さらに、本実施形態では、前記のようにシティブロック距離yjを評価値として勝者ベクトルmcを決定する場合について述べたが、同様に、入力ベクトルxと参照ベクトルmjとの差の絶対値が設定値以上となる成分についてその差の絶対値を設定値に圧縮してユークリッド距離を計算することで評価値を算出するように構成することも可能である。
具体的には、例えば下記(6)式に従って評価値yjが計算される。
Figure 0004740038
並列処理部5は、図11に示すように、正規化部4で形成されたM×N画素の人物を含む画像領域Rtを各画像フィルタFkに入力してそのフィルタ特性に従った画像処理を行わせるようになっている。各画像フィルタFkでは、画像領域Rtの各画素の輝度Biや色相Hi、彩度Siがそれぞれ輝度βi、色相ηiおよび彩度σiに変換され、それらを成分とするベクトルxkが生成されるようになっている。この場合、ベクトルxkは3×M×N次元となる。
並列処理部5は、生成されたベクトルxkを対応する自己組織化マップSOMkに入力してそれぞれ勝者ベクトルを決定し、その勝者ベクトルが属する勝者ユニットuckを決定し、勝者ユニットuckが属するクラスに対応するオブジェクトの特定の属性をそれぞれ投票結果Vkとして出力させるようになっている。
本実施形態では、図11の自己組織化マップSOM1、SOM2のように勝者ユニットuckが後向きの属性に対応するクラスCbに属している場合には、それぞれの自己組織化マップSOMkから投票結果Vkとして−1が出力され、同図の自己組織化マップSOM3のように勝者ユニットuckが前向きの属性に対応するクラスCfに属している場合には、それぞれの自己組織化マップSOMkから投票結果Vkとして1が出力されるようになっている。
並列処理部5は、これらの投票結果Vkを統合部6に出力するようになっている。
統合部6は、並列処理部5の各自己組織化マップSOMkによる投票結果Vkを統合してオブジェクトの特定の属性A、すなわち本実施形態では人物が自車両の方を向いているか或いは自車両に背を向けているかを最終的に決定して識別するようになっている。
本実施形態では、統合部6は、並列処理部5の各自己組織化マップSOMkによる投票結果Vkの多数決をとって投票結果Vkを統合するようになっている。具体的には、前述したように、投票結果Vkとして前向きの属性である場合に1、後向きの属性である場合に−1を出力するように構成した場合、統合部6は、下記(7)式に従って並列処理部5の各自己組織化マップSOMkからの各投票結果Vkの総和Pを計算する。
Figure 0004740038
そして、総和Pが正であればオブジェクトの特定の属性Aが前向きの属性すなわち人物が自車両の方を向いていると決定し、総和Pが負であればオブジェクトの特定の属性Aが後向きの属性すなわち人物が自車両に背を向けていると決定して識別するようになっている。
統合部6は、決定し識別したオブジェクトの特定の属性Aを、メモリ8から読み出した入力画像Itや出力画像Ot、抽出した人物を含む画像領域rt等とともに装置外に出力するようになっている。
SOM学習部7は、装置の稼動に先立って、並列処理部5の各自己組織化マップSOMkの学習を行って各自己組織化マップSOMkの領域分割を行い、各自己組織化マップSOMkに属するユニットujのクラス分けを行うようになっている。
SOM学習部7には、各自己組織化マップSOMkの学習のために、予め特定のオブジェクトすなわち本実施形態では人物を含む正規化された所定個数Q個の画像領域Rtが入力されている。この学習段階では、入力されるQ個の画像領域Rtは人物を含むものであればよく、人物が自車両の方を向いているか或いは自車両に背を向けているかのクラス情報Cf、Cbを有するものでなくてよい。
学習において、SOM学習部7は、まず、並列処理部5の各自己組織化マップSOMkの各ユニットujに、ランダムに生成させた値を成分とする参照ベクトルmjをそれぞれ割り当てて、各自己組織化マップSOMkを初期状態にセットするようになっている。なお、この段階では各ユニットujはクラス分けされていない。
そして、SOM学習部7は、それらの画像領域Rtを順次並列処理部5に送信し、前述した並列処理部5における処理の手順と同様に画像領域Rtを各画像フィルタFkで処理させ、それぞれベクトルxkを生成させ、各自己組織化マップSOMkに入力して勝者ベクトルmckを決定する。勝者ベクトルmckは、前記(5)式に従って計算される評価値yjに基づいて決定される。
その際、SOM学習部7は、各自己組織化マップSOMkにおいて、Q個の画像領域Rtのうちq番目の画像領域Rtを入力してそれぞれ勝者ベクトルmckが決定されるごとに、勝者ベクトルmckと、その勝者ベクトルmckを有する勝者ユニットucの近傍のユニットujに属する参照ベクトルmjとを下記(8)式に従って更新するようになっている。
Figure 0004740038
ここで、ベクトルmj(q)はq番目に入力された画像領域Rtから生成されたベクトルxkとの対比に用いられた参照ベクトルmjおよび勝者ベクトルmckを表し、ベクトルmj(q+1)は、次のq+1番目に入力される画像領域Rtから生成されるベクトルxkとの対比に用いられる参照ベクトルmjを表す。
また、α(q)は学習率係数を表し、正の値を取り、qが大きくなるに従ってすなわち学習が進むに従って単調減少する関数とされている。なお、前記勝者ベクトルmcの近傍すなわち勝者ベクトルmcを中心とする一定の範囲は最初は広範囲を設定し、学習が進むに従って範囲を縮小するように構成することも可能である。
なお、予め正規化した画像領域Rtを並列処理部5に順次入力する代わりに、例えば、撮像画像から抽出した人物を含む画像領域rtをSOM学習部7から正規化部4に入力して正規化部4で正規化させてから並列処理部5に入力させるように構成することも可能であり、撮像画像をオブジェクト抽出部3に入力して人物を含む画像領域rtを抽出するところから行わせるように構成することも可能である。
SOM学習部7は、Q個の画像領域Rtをすべて入力して各自己組織化マップSOMkの学習が終了すると、続いて、各自己組織化マップSOMkの領域分割を行うようになっている。なお、この領域分割では、入力された画像領域Rtによる自己組織化マップSOMkの学習すなわち参照ベクトルmjの更新は行われない。
領域分割では、SOM学習部7は、予め入力された前向きまたは後向きのクラスCf、Cbが分かっているG個の画像領域Rtを各自己組織化マップSOMkに入力するようになっている。なお、G個の画像領域Rtは、前向きまたは後向きのクラスCf、Cbが分かっている限り前記Q個の画像領域Rtのすべてを用いてもよく、或いはそれらの中から選ばれたものでもよく、また、まったく新規なものを用いてもよい。
そして、図12に示すようにG個の画像領域Rtに対応する自己組織化マップSOMk上の勝者ユニットuc1〜ucgが特定されると、本実施形態では、SOM学習部7は、勝者ユニットuc1〜ucgの位置およびそれらのクラスCf、Cbに基づいてサポートベクターマシン(support vector machine)による領域分割の手法を用いて図8や図11に示したように自己組織化マップSOMkを領域分割するようになっている。
そして、SOM学習部7は、領域分割された自己組織化マップに属する各ユニットujのクラスを、そのユニットujが位置する領域内にある前記勝者ユニットが属するクラスと同じクラスにクラス分けするようになっている。
なお、適切に自己組織化マップの領域分割を行うことができる手法であれば、前記サポートベクターマシンによる手法に限定されず、例えばK最近接近傍(k-nearest-neighbor)法等の公知の領域分割の手法を用いることも可能である。また、他の特別な領域分割の手法を用いることも可能である。
次に、本実施形態に係る画像処理装置1の作用について説明する。
画像処理装置1の稼動に先立って行われるSOM学習部7による並列処理部5の各自己組織化マップSOMkの学習においては、初期状態では、ランダムに生成された値を成分とする参照ベクトルmjが各ユニットujに割り当てられて自己組織化マップSOMkが作成される。
そして、画像領域Rtが入力され、画像フィルタFkでフィルタ処理を受けて生成されたベクトルxkが入力されて勝者ベクトルmcおよび勝者ユニットucが決定されるごとに、勝者ベクトルmcとその近傍のユニットujの参照ベクトルmjが前記(8)式に従って更新される。
前記(8)式は、勝者ベクトルmcやその近傍の参照ベクトルmjの成分が入力されたベクトルxkの成分に近づくことを意味する。すなわち、各参照ベクトルmjの成分のうち、入力されたベクトルxkの対応する成分との違いが大きい成分は大きく近づく。そのため、前記更新を繰り返すことで、次第に隣接する参照ベクトルmjの成分が互いに近似してくる。
成分が似かよった参照ベクトルmjは、一般に、互いにオブジェクトの同じ特定の属性に対応するから、前記のように隣接する参照ベクトルmjの成分が互いに近似することで、あるユニットujの近傍のユニットujはそのユニットujと同一のクラスに属するようになる。
このようにして多数の画像領域Rtを順次入力して学習することで、各自己組織化マップSOMkは、各ユニットujが独立にそれぞれのクラスに属していた初期状態から、同一のクラスに属するユニットが集まった状態となる。
そして、学習が終了した時点で、各自己組織化マップSOMkはいずれのクラスに属するかが分かっている画像領域Rtから生成されたベクトルxkが入力されて特定された勝者ユニットucに基づいてサポートベクターマシンやK最近接近傍法等の領域分割の手法によって図8や図11に示したように領域分割される。
前記のように、学習により、各自己組織化マップSOMkは同一のクラスに属するユニットが集まった状態となっているから、領域分割によって各領域に属するユニットを同一のクラスにクラス分けすることで、各ユニットが良好にクラス分けされる。
装置の稼動時には、オブジェクト抽出部3で撮像画像中から抽出された特定のオブジェクトを含む画像領域rtが正規化部4で正規化されて画像領域Rtとされ、並列処理部5に送られて複数の画像フィルタFkに入力される。そして、各画像フィルタFkから生成されたベクトルxkが対応する自己組織化マップSOMkにそれぞれ入力されると、自己組織化マップSOMk上で勝者ユニットucが決定され、勝者ユニットucが属するクラスに対応付けられた属性を特定され、その属性が投票結果Vkとして出力される。
統合部6は、複数の自己組織化マップSOMkから出力された投票結果Vkを統合してオブジェクトの特定の属性、すなわち本実施形態では人物が自車両の方を向いているか或いは自車両に背を向けているかを識別して出力する。
一方、学習時および装置の稼動時において、各種画像フィルタFkで生成されたベクトルxkを自己組織化マップSOMkに入力して勝者ベクトルmcや勝者ユニットucを決定する際に、本実施形態では、前記(5)式や(6)式に従ってベクトルxkと自己組織化マップSOMk上の参照ベクトルmjとの距離yjすなわち評価値yjが計算される。
すなわち、図10に示したように、入力されるベクトルxkの各成分xkと自己組織化マップSOM上の参照ベクトルmjの各成分mjとの差の絶対値が設定値C以上となるような成分がある場合には、その成分については、その差の絶対値が設定値Cに圧縮され、評価値yjが計算される。
本実施形態のような圧縮を行わない通常の評価式では、例えば、画像領域rt中に白黒が反転したような比較的大きなノイズが混入している場合、評価値にそのノイズの影響が強く現れる。しかし、本実施形態のような計算手法を用いれば、そのようなノイズの影響が緩和される。
また、このような圧縮を行うことにより、ベクトルxkと参照ベクトルmjとの差が大きい成分についてはその差の絶対値がいくら大きな値となる場合でもすべて設定値Cに圧縮される。そのため、前記(5)式によれば、ベクトルxkと参照ベクトルmjとがまったく異なり各成分の差の絶対値がいくら大きくても、評価値yjはM×N×Cを超えない。また、例えば前記(6)式に従う場合も評価値yjは(M×N)1/2×Cを超えない。
すなわち、勝者ユニットucを決定する際の評価値yjの算出においては、ベクトルxkと参照ベクトルmjとの差の絶対値が大きい成分の影響は排除され、むしろ、その差の絶対値が設定値Cより小さい成分、すなわちベクトルxkと参照ベクトルmjとで似かよった値を持つ成分がどれほど近い値であるかが評価値yjの優劣に大きく影響するようになる。
つまり、本実施形態のようにベクトルxkと参照ベクトルmjの差の絶対値が大きい成分を圧縮して評価値yjの算出を行うと、通常の圧縮を行わない評価値yjの算出に比べて、差の絶対値が大きい成分の影響を排除した状態で、ベクトルxkと参照ベクトルmjがどれだけ似ているかが評価値yjに反映され、その状態で最も似ている参照ベクトルmjを有するユニットujが勝者ユニットucとして決定される。
以上のように、本実施形態に係る画像処理装置1によれば、撮像画像中から抽出された特定のオブジェクトを含む画像領域Rtに対して図3に例示したような各種画像フィルタFkや彩度フィルタ処理や時間差分フィルタ処理等を行う各種画像フィルタFkで種々のフィルタ処理を行って、オブジェクトの特定の属性が投票される。
そのため、撮像画像中から抽出された特定のオブジェクトを含む1つの画像領域rtに対して種々の観点から処理を施してオブジェクトの特定の属性を判断することが可能となる。
また、画像フィルタFkの処理により生成されたベクトルxkを、それぞれユニットujが適切にクラス分けされた自己組織化マップSOMkに入力してオブジェクトの特定の属性を投票する。そのため、それぞれの自己組織化マップSOMkがオブジェクトの特定の属性を適切に決定して出力することが可能となる。
さらに、複数の自己組織化マップSOMkからそれぞれ出力される投票結果Vkを総合してオブジェクトの特定の属性が決定され識別される。そのため、各種画像フィルタFkと自己組織化マップSOMkにより、種々の観点から適切に決定された結果を総合してオブジェクトの特定の属性を識別することが可能となる。
そのため、車載の比較的安価で解像度がさほど高くない撮像手段を用いても、それを用いて撮像された画像中からオブジェクトの特定の属性、すなわち本実施形態では人物が自車両の方を向いているか或いは自車両に背を向けているかという詳細な属性を的確に抽出して識別することが可能となる。
一方、学習時および装置の稼動時において、各種画像フィルタFkで生成されたベクトルxkと自己組織化マップSOMk上の参照ベクトルmjとの距離yjすなわち評価値yjを、前記(5)式等の非線形な評価式に従って、ベクトルxkの各成分xkと参照ベクトルmjの各成分mjとの差の絶対値が設定値C以上となるような成分がある場合には、その成分についてはその差の絶対値を設定値Cに圧縮して計算することが可能である。
このように構成すれば、画像領域rtに比較的大きなノイズが入っている場合でもその影響を緩和して評価値yjを計算することが可能となると同時に、勝者ユニットucを決定する際の各評価値yjの比較において、圧縮により、ベクトルxkと参照ベクトルmjとの差の絶対値が大きい成分の影響が排除され、ベクトルxkと参照ベクトルmjとがどれほど似かよっているかを重視して勝者ユニットucを決定することが可能となる。
そのため、撮像画像中から人物等の特定のオブジェクトを抽出した場合、抽出された画像領域rtが比較的小さい領域となり、通常の評価値yjの算出手法ではノイズ等が評価値yjに大きく影響するような場合でも、本実施形態のように圧縮を行うことで、ノイズ等の影響を排除した上でベクトルxkと参照ベクトルmjとがどれだけ似ているかによって勝者ユニットを決定することが可能となり、有効かつ的確にオブジェクトのさらに詳細な特定の属性を抽出することが可能となる。
また、自己組織化マップSOMkの学習においては、前記のように多数の画像領域Rtを入力して前記(8)式に従って参照ベクトルmjを更新することで、各自己組織化マップSOMkは同一のクラスに属するユニットが適切に集まった状態となる。そのため、更新された参照ベクトルmjが属する各ユニットujをサポートベクターマシンやK最近接近傍法によるクラス分けの手法によりクラス分けすることにより、容易かつ適切にクラス分けを行うことが可能となる。しかも、オブジェクトの特定の属性を適切に投票する自己組織化マップSOMkを形成することが可能となる。
なお、本実施形態では、オブジェクトの特定の属性として、歩行者等の人物が自車両の方を向いているか或いは自車両に背を向けているかの2通りの属性に限定して説明したが、この他にも、例えば自車両前方の道路を横断している人物のように自車両に対して横を向いているという属性を加えて3通りの属性について識別したり、さらに人物の右向きや左向きの属性を加えて識別するように構成することも可能である。また、より多く属性を識別するように構成することも可能である。
また、歩行者等の人物が自車両の方を向いている等の属性以外にも、例えば人物が大人か子供か等の別の属性を識別するように構成することも可能である。また、オブジェクトは人物に限定されない。
さらに、本実施形態では、統合部6で、前記(7)式に従って並列処理部5の各自己組織化マップSOMkから出力された各投票結果Vkの総和Pを計算することで、単純な多数決によって投票結果Vkを統合してオブジェクトの特定の属性を識別する場合について説明した。
しかし、この他にも、例えば各自己組織化マップSOMkからの各投票結果Vkを種々の観点から重み付けして多数決をとるように構成することも可能である。
第1に、下記(9)式に示すように、並列処理部5の各自己組織化マップSOMkによる投票結果Vkを各画像フィルタFkと自己組織化マップSOMkとの組の識別能力Dkで重み付けして総和Pを計算し、総和Pの値が正であるか負であるかによってオブジェクトの特定の属性を識別するように構成することが可能である。すなわち、統合部6は各自己組織化マップSOMkによる投票結果Vkを、各画像フィルタFkと自己組織化マップSOMkとの組の識別能力Dkで重み付けした多数決により統合する。
Figure 0004740038
この場合、各画像フィルタFkと自己組織化マップSOMkとの組の識別能力Dkは、例えば本実施形態の例で言えば、人物が自車両の方を向いているか背を向けているかが分かっている一定数の画像領域を画像フィルタFkに入力し生成されたベクトルxkを学習済みの各自己組織化マップSOMkに入力して正解を出力した割合として決定することができる。
このように、画像フィルタFkと自己組織化マップSOMkとの組の識別能力Dkを適切に評価して投票結果Vkの統合に反映させることで、画像領域から抽出されたオブジェクトの特定の属性をより精度良く識別することが可能となる。
第2に、下記(10)式または(11)式に示すように、並列処理部5の各自己組織化マップSOMkによる投票結果Vkや各画像フィルタFkと自己組織化マップSOMkとの組の識別能力Dkで重み付けされた投票結果Vkを、さらにその投票結果Vkの信頼度Tkで重み付けして総和Pを計算し、総和Pの値が正であるか負であるかによってオブジェクトの特定の属性を識別するように構成することが可能である。
Figure 0004740038
すなわち、統合部6は、各自己組織化マップSOMkによる投票結果Vkや各画像フィルタFkと自己組織化マップSOMkとの組の識別能力Dkで重み付けされた投票結果Vkを、その投票結果Vkの信頼度Tkで重み付けした多数決により統合する。
この場合、投票結果Vkの信頼度Tkは、種々の手法で決定することが可能である。
例えば、自己組織化マップSOMkにおける勝者ベクトルmcや勝者ユニットucを決定する際に用いられる評価値yjは、入力されるベクトルxkと勝者ベクトルmcとの距離が近いほど小さい値をとる。そのため、信頼度Tkをベクトルxkと勝者ベクトルmcとの距離yjに基づいて
Tk=yj−1 …(12)
のように決めることができる。
また、投票結果Xkの信頼度Tkを、自己組織化マップSOMkにおける勝者ユニットucの位置に基づいて決定することができる。例えば、図11に示した自己組織化マップSOMkでは、自己組織化マップSOM1、SOM2における勝者ユニットuc1、uc2と比べて自己組織化マップSOM3における勝者ユニットuc3はクラスCf、Cbの境界に近く信頼性が低い。
そのため、例えば図13に示すように、自己組織化マップSOMk上で、勝者ユニットuckとは別のクラスに属するユニットujの中で最も勝者ユニットucに近いユニットujnearestと勝者ユニットucとのユークリッド距離をその投票結果Vkの信頼度Tkとすることができる。
さらに、勝者ユニットuckの決定の際に、勝者ユニットuckの次に評価値yjが良好だった2番目のユニットujが自己組織化マップSOMk上で勝者ユニットuckの近傍にある場合には、前記評価値yjの分布がいわば単峰性を有する分布或いはそれに準ずる分布であると考えられ、勝者ユニットuckの信頼性は高い。しかし、逆に2番目のユニットujが勝者ユニットuckから遠い位置にある場合には、前記評価値yjの分布がいわば多峰性を有する分布であると考えられ、勝者ユニットuckの信頼性は低い。
そのため、自己組織化マップSOMk上で勝者ユニットuckと2番目に評価値yjが良好だったユニットujとのユークリッド距離を求め、例えばその逆数をその投票結果Vkの信頼度Tkとすることができる。
このように、投票結果Vkや、画像フィルタFkと自己組織化マップSOMkとの組の識別能力Dkで重み付けされた投票結果Vkを、さらにその投票結果Vkの信頼度Tkで重み付けして投票結果Vkの統合に反映させることで、画像領域から抽出されたオブジェクトの特定の属性をより精度良く識別することが可能となる。
一方、前記のように、統合部6で投票結果Vkを単純な多数決或いは重み付けされた多数決によって統合する代わりに、例えば、各自己組織化マップSOMkから出力された投票結果Vkを例えば図14に示すようなニューラルネットワークに入力して統合するように構成することも可能である。
この場合、シグモイド関数等の各ノードの伝達関数に用いられる閾値θやノード間の結合重み係数w等を、例えば遺伝的アルゴリズム等の手法により予め学習するように構成することが可能である。
このように、各自己組織化マップSOMkによる投票結果Vkを学習されたニューラルネットワークに入力して統合することで、画像領域から抽出されたオブジェクトの特定の属性をより精度良く識別することが可能となる。また、ニューラルネットワークの学習は、公知の遺伝的アルゴリズムの手法等を用いて容易に行うことができる。なお、ニューラルネットワークは、図14に示したように入力層や出力層のみからなる構成に限定されず、例えば、中間層を有するように構成してもよい。
また、本実施形態では、SOM学習部7において、クラス情報を持たないQ個の画像領域Rtによって各自己組織化マップSOMkの学習を行う場合について説明した。しかし、自己組織化マップSOMkの学習を、予めオブジェクトの特定の属性のクラス情報を持つ例えばQ個の画像領域Rtを用いて教師あり学習により行うことも可能である。
この場合、学習初期において、並列処理部5の各自己組織化マップSOMkの各ユニットujにランダムに生成させた値を成分とする参照ベクトルmjをそれぞれ割り当てて、各自己組織化マップSOMkを初期状態にセットする点では本実施形態と同様であるが、その際、例えば、各自己組織化マップSOMkの各ユニットujを左右半分に分け、右側の各ユニットujをクラスCfに、左側の各ユニットujをクラスCbに仮にクラス分けしておく。
そして、SOM学習部7は、それらのQ個の画像領域Rtを順次並列処理部5に送信し、前述した並列処理部5における処理の手順と同様に画像領域Rtを各画像フィルタFkで処理させ、それぞれベクトルxkを生成させ、各自己組織化マップSOMkに入力して前記(5)式に従って計算される評価値yjに基づいて勝者ベクトルmckを決定する。
SOM学習部7は、本実施形態と同様に、各自己組織化マップSOMkにおいて、Q個の画像領域Rtのうちq番目の画像領域Rtを入力してそれぞれ勝者ベクトルmckが決定されるごとに、勝者ベクトルmckと、その勝者ベクトルmckを有する勝者ユニットucの近傍のユニットujに属する参照ベクトルmjとを更新する。
しかし、その際、画像領域Rtのクラスと勝者ベクトルmckのクラスとが同じであれば本実施形態における前記(8)式に従って勝者ベクトルmckとその近傍の参照ベクトルmjとを更新するが、画像領域Rtのクラスと勝者ベクトルmckのクラスとが異なる場合には下記(13)式に従ってそれらを更新する。
Figure 0004740038
ここで、β(q)は学習率係数を表し、正の値を取る。前記(8)式におけるα(q)と同一の値とすることも可能である。
前記(8)式および(13)式によれば、画像領域Rtのクラスと勝者ベクトルmckのクラスとが同じであれば勝者ベクトルmckやその近傍の参照ベクトルmjを入力されたxkに近づけるようにその成分を更新し、一方、クラスとが異なる場合には勝者ベクトルmckやその近傍の参照ベクトルmjを入力されたxkから遠ざけるようにその成分を更新する。
このような更新の手法を用いることで、学習の初期状態では、ランダムな成分を持っていた各自己組織化マップSOMkの各参照ベクトルmjが、各自己組織化マップSOMkの右側では、クラスCfすなわち自車両の方を向いている人物を含む画像領域Rtが入力されるとその特徴を保持したベクトルxkに近づくように勝者ベクトルmckやその近傍の参照ベクトルmjの成分が更新される。
また、クラスCbすなわち自車両に背を向けている人物を含む画像領域Rtが入力されるとその特徴を保持したベクトルxkから遠ざかるように勝者ベクトルmckやその近傍の参照ベクトルmjの成分が更新される。
一方、各自己組織化マップSOMkの左側では、クラスCbのベクトルxkが入力されるとそれに近づくように、またクラスCfのベクトルxkが入力されるとそれから遠ざかるように、それぞれ勝者ベクトルmckやその近傍の参照ベクトルmjの成分が更新される。
また、多数の画像領域Rtによる学習が終了した段階で、各自己組織化マップSOMkの右側および左側の各ユニットujの仮のクラス分けを一旦解除する。そして、クラスCf、Cbが分かっているG個の画像領域Rtを各自己組織化マップSOMkに入力して例えばサポートベクターマシンによる領域分割の手法を用いて各自己組織化マップSOMkをそれぞれ領域分割して、各ユニットujのクラス分けを行う。
このようにクラス分けを行うと、仮のクラス分けと似た状態に各自己組織化マップSOMkが領域分割される。すなわち、前記の例ではクラスCfのユニットujが各自己組織化マップSOMkの主に右側に分布し、クラスCbのユニットujが各自己組織化マップSOMkの主に左側に分布するようになる。
このように、自己組織化マップSOMkのユニットujをどのようにクラス分けさせたいかに応じて学習の初期に予め適切に仮のクラス分けを行うことで、クラス分けの目的を明確に指定して学習を行うことが可能となる。
また、このようにクラス分けを行うと、クラスCfに属するかクラスCbに属するかが微妙な画像領域Rtに由来するベクトルxkに対応する参照ベクトルmjを有するユニットujがクラス分けの境界付近に集まるようになる。
そのため、例えば、前述した投票結果Vkの重み付けた多数決において、投票結果Vkの信頼度Tkを自己組織化マップSOMkにおける勝者ユニットucの位置に基づいて決定する場合に、クラス分けの境界に近い勝者ユニットucの信頼性は低く、境界から遠い勝者ユニットucの信頼性が高いと明確に意味付けすることが可能となり、装置の識別の信頼性を向上させることができる。
本実施形態の画像処理装置の構成を示すブロック図である。 本実施形態の処理プログラムの構造を説明する図である。 本実施形態で用いられる画像フィルタの例を示す表である。 処理プログラムに入力される入力画像の選択方法を説明する図である。 入力画像の例を示す図である。 図5の入力画像に基づく出力画像を説明する図である。 図5の入力画像から抽出された人物を含む画像領域を説明する図である。 自己組織化マップの構成および勝者ユニット等を説明する図である。 入力されるベクトルと参照ベクトルとの関係を示す図である。 ベクトルと参照ベクトルとの成分の差の絶対値の圧縮を説明するグラフである。 並列処理部における画像領域の処理を説明する図である。 学習済みの自己組織化マップ上に特定された勝者ユニットを表す図である。 勝者ユニットと別のクラスに属する最も近いユニットを表す図である。 投票結果を統合するためのニューラルネットワークを表す図である。
符号の説明
1 画像処理装置
21 撮像手段
3 オブジェクト抽出部
5 並列処理部
6 統合部
It 画像
rt、Rt 画像領域
F 画像フィルタ
SOM 自己組織化マップ
uj ユニット
uc 勝者ユニット
mj 参照ベクトル
x ベクトル
Cf、Cb クラス
V 投票結果
A オブジェクトの特定の属性
C 設定値
yj 距離
bi 輝度
Dk 自己組織化マップの識別能力
Tk 投票結果の信頼度

Claims (1)

  1. 車両に搭載され、自車両進行路を撮像する撮像手段と、
    前記撮像手段により撮像された画像から特定のオブジェクトを含む画像領域を抽出するオブジェクト抽出部と、
    抽出された前記画像領域に含まれる前記オブジェクトの特定の属性を投票するための複数の自己組織化マップを備える並列処理部と、
    前記複数の自己組織化マップによる投票結果を統合して前記オブジェクトの特定の属性を識別する統合部とを備え、
    前記自己組織化マップに属する複数のユニットは、予め前記オブジェクトの特定の属性に応じてクラス分けされており、
    前記並列処理部は、前記複数の自己組織化マップにそれぞれ1つずつ画像フィルタを対応させ、前記画像フィルタによる前記画像領域に対するフィルタ処理により生成されたベクトルを前記自己組織化マップに入力し、それぞれ勝者ユニットを決定し、各勝者ユニットが属するクラスに対応付けられた前記オブジェクトの特定の属性を投票結果として出力させ
    前記並列処理部は、前記勝者ユニットの決定において、入力されるベクトルの成分と、それに対応する自己組織化マップの各ユニットに属する参照ベクトルの成分との差の絶対値が予め設定された値以上となる成分がある場合には、その成分についてはその差の絶対値を前記予め設定された値に圧縮し、入力されるベクトルと自己組織化マップ上の参照ベクトルとの距離を計算することを特徴とする画像処理装置。
JP2006150317A 2006-05-30 2006-05-30 画像処理装置 Expired - Fee Related JP4740038B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006150317A JP4740038B2 (ja) 2006-05-30 2006-05-30 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006150317A JP4740038B2 (ja) 2006-05-30 2006-05-30 画像処理装置

Publications (2)

Publication Number Publication Date
JP2007323177A JP2007323177A (ja) 2007-12-13
JP4740038B2 true JP4740038B2 (ja) 2011-08-03

Family

ID=38855956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006150317A Expired - Fee Related JP4740038B2 (ja) 2006-05-30 2006-05-30 画像処理装置

Country Status (1)

Country Link
JP (1) JP4740038B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5071900B2 (ja) * 2008-02-28 2012-11-14 学校法人金沢工業大学 画像生成装置およびその方法
JP6277818B2 (ja) * 2014-03-26 2018-02-14 日本電気株式会社 機械学習装置、機械学習方法、及びプログラム
JP6472621B2 (ja) * 2014-08-12 2019-02-20 株式会社Screenホールディングス 分類器構築方法、画像分類方法および画像分類装置
WO2019176420A1 (ja) * 2018-03-13 2019-09-19 ソニー株式会社 情報処理装置、移動装置、および方法、並びにプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2006039658A (ja) * 2004-07-22 2006-02-09 Hitachi Software Eng Co Ltd 画像分類学習処理システム及び画像識別処理システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2006039658A (ja) * 2004-07-22 2006-02-09 Hitachi Software Eng Co Ltd 画像分類学習処理システム及び画像識別処理システム

Also Published As

Publication number Publication date
JP2007323177A (ja) 2007-12-13

Similar Documents

Publication Publication Date Title
CN110956094B (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN110119676B (zh) 一种基于神经网络的驾驶员疲劳检测方法
US6961466B2 (en) Method and apparatus for object recognition
CN107506711B (zh) 基于卷积神经网络的双目视觉障碍物检测系统及方法
CN108875608B (zh) 一种基于深度学习的机动车交通信号识别方法
JP6192271B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN111860274B (zh) 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
CN104809443A (zh) 基于卷积神经网络的车牌检测方法及系统
TWI401473B (zh) 影像式夜間行人偵測系統及方法
CN111160216B (zh) 一种多特征多模型的活体人脸识别方法
US11024042B2 (en) Moving object detection apparatus and moving object detection method
JP7091686B2 (ja) 立体物認識装置、撮像装置および車両
CN109360179B (zh) 一种图像融合方法、装置及可读存储介质
JP2019106193A (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
JP4740038B2 (ja) 画像処理装置
CN111222444A (zh) 一种考虑驾驶员情绪的增强现实抬头显示方法和系统
Chato et al. Image processing and artificial neural network for counting people inside public transport
JP2020123244A (ja) 情報処理装置、情報処理方法、及びプログラム
CN107491714B (zh) 智能机器人及其目标物体识别方法和装置
JP6472504B1 (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
KR101337554B1 (ko) 차량용 블랙박스의 영상인식을 이용한 수배자 및 실종자 추적 장치 및 그 방법
KR20080079443A (ko) 영상으로부터의 객체 검출 방법 및 장치
CN115147450B (zh) 基于运动帧差图像的移动目标检测方法及检测装置
CN111914749A (zh) 基于神经网络的车道线识别方法及其系统
CN115393802A (zh) 一种基于小样本学习的铁路场景不常见入侵目标识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110428

R150 Certificate of patent or registration of utility model

Ref document number: 4740038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees