JP2004363988A - 車両検出方法及び車両検出装置 - Google Patents

車両検出方法及び車両検出装置 Download PDF

Info

Publication number
JP2004363988A
JP2004363988A JP2003160399A JP2003160399A JP2004363988A JP 2004363988 A JP2004363988 A JP 2004363988A JP 2003160399 A JP2003160399 A JP 2003160399A JP 2003160399 A JP2003160399 A JP 2003160399A JP 2004363988 A JP2004363988 A JP 2004363988A
Authority
JP
Japan
Prior art keywords
vehicle
unit
image
recognition
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003160399A
Other languages
English (en)
Inventor
Hitoomi Takizawa
仁臣 滝澤
Kenichi Yamada
憲一 山田
Toshio Ito
敏夫 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2003160399A priority Critical patent/JP2004363988A/ja
Publication of JP2004363988A publication Critical patent/JP2004363988A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】走行環境で撮影された自車前方の撮影画像から、識別辞書を用意等することなく、画像の複雑さに適した画像処理によって精度よく自車前方の車両を検出する。
【解決手段】車両1に搭載された単眼カメラ(画像センサ)2により自車前方を撮影し、その撮影画像の複数個所に配置した相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットにより、それぞれの位置の画像情報に基づく自律検出から、各位置の画像状態を、路面、車両下端を含む複数の基準状態のいずれかに分類して認識し、各ユニット間の相互診断に基づく多数決処理により、各ユニットの認識状態を相互に刺激、抑制することで各ユニットの信頼度を評価し、さらに、誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正し、この修正後の各ユニットの認識状態から車両下端を認識したユニットを特定して自車前方の車両を検出する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
この発明は、車両に搭載した画像センサの自車前方の撮影画像から、自車前方の車両を検出する車両検出方法及び車両検出装置に関する。
【0002】
【従来の技術】
従来、いわゆる高度交通システム(ITS:Intelligent Transport System)を実現するため、高速道路での追従走行機能や操舵アシスト機能といった、より高度で快適な運転支援システムを車両に搭載することが提案され、さらに、その応用システムとして、より低速度域まで適応可能なシステムも開発されつつある。
【0003】
さらに、車両とドライバやオペレータとのユーザーインタフェースや次世代ナビゲーションシステム等々の前記ITSの実用化に向けたシステム開発も種々行われている。
【0004】
そして、前記ITSにおけるキーテクノロジーの1つが走行環境の認識技術であり、この認識技術に用いられる種々のセンサのうちの、とくに画像センサは、複数の事象(車両、道路白線、標識、等々)を認識可能なマルチセンサであり、有用である。
【0005】
この画像センサを走行中の車両に搭載し、その撮影画像の画像処理によって自車両前方の車両を検出する場合、コストや信頼性の制約から、画像センサを2眼カメラで形成して撮影画像のステレオ画像処理で検出するのでなく、画像センサを単眼カメラで形成して検出することが望まれる。
【0006】
しかしながら、画像センサを単眼カメラとした場合、いわゆるテストコースのような整備された道路での撮影画像から、同色同形状(特定色特定形状)の車両を検出することは比較的容易であるが、実際の一般道路で不特定色不特定形状の車両を検出することは、検出対象の特徴の多様性、広い照明ダイナミックレンジ、道路環境の複雑さ等に起因する困難さを伴う。
【0007】
つぎに、単眼カメラの撮影画像から自車両前方の車両を検出する方法として、従来は、大別して、予め典型的な車両画像から主成分分析等によって識別辞書を作成しておき、この辞書の撮影画像に一致する車両画像から検出する方法(appearance−based method)と、車両の普遍的な特徴(形状)をモデル化して検出する方法(model−based method)とがある。
【0008】
そして、識別辞書を作成しておく前者の方法は、辞書として十分な識別力のあるものを作成することが容易でないが、その方法例として、従来、照明錐を考慮したサポートベクターマシーンを利用する方法等が提案されている(例えば、非特許文献1参照。)。
【0009】
また、普遍的な特徴(形状)をモデル化して検出する後者の方法例として、従来、車両を四角形モデルで近似する方法等が提案されている(例えば、非特許文献2参照。)。
【0010】
一方、優れた環境適応能力を発揮するメカニズムとして、近年、生体の免疫機構が注目されている。
【0011】
この免疫機構は未知なる抗原を認識して排除する適応的な機構であり、この機構を模倣した工学モデル(免疫ネットワークモデル)により、文字認識やセンサの故障診断を行うことが提案されている(例えば、非特許文献3,4参照。)。
【0012】
また、免疫機構を模倣した工学モデルとして、石田好輝提案の免疫ネットワークモデル(以下、石田提案モデルという)があり、この石田提案モデルは、連想診断という概念でまとめられ、全体を機械的にエネルギー関数のようなもので評価するのでなく、正しい情報だけの免疫的なネットワークを構成して解釈する(整合診断に収束させる)点に特徴がある(例えば、非特許文献5参照。)。
【0013】
【非特許文献1】
阿部孝弘、「照明変化を伴う物体認識へのサポートベクターマシンの適用」、電子情報通信学会、MIRU2002−II、p.177−186(2002)
【非特許文献2】
ユー・ハンドマン(U.Handman)、「ア フレキシブル アーキテクチャー フォー インテリジェント クルーズ コントロール(A flexible Architecture for Intelligent Cruise Control)」、IEEE、アイティーエスシー(ITSC)p.958−963(1999)
【非特許文献3】
田島浩一、唐政、他、「B細胞の相互作用をもつ免疫的なネットワークによるパターン認識」、電子情報通信学会、(2000)、Vol−J83−D−II−No.2、p.795−804
【非特許文献4】
石田好輝、「分散モデルの自立分散診断アルゴリズム」、電子情報通信学会、(1992)、Vol−J75D−II、p.645−651
【非特許文献5】
石田好輝編、「免疫型システムとその応用−免疫系に学んだ知能システム」、コロナ社、1998年7月8日、p.71−86
【0014】
【発明が解決しようとする課題】
前記の識別辞書を用いる検出手法(appearance−based method)及びモデル化する検出手法(model−based method)のような、予め与えられた固定の知識やモデルの情報と撮影画像(シーン)から抽出した部分画像情報とを比較する非適応的な処理によって、画像センサの撮影画像から自車前方の車両検出を行おうとしても、走行環境下で撮影された画像の複雑さ等に基づき、部分画像情報の抽出処理や照合処理のエラーが生じる場合があり、しかも、それらのエラーが抽出した部分画像情報だけに生じることから、実際には検出が極めて困難である。
【0015】
そして、この種の車両検出においては、走行環境下で撮影された画像の複雑さ等に適応した手法により、その画像から自車前方の車両を検出することは発明されていない。
【0016】
本発明は、走行環境で撮影された自車前方の撮影画像から、識別辞書を用意等することなく、その画像の複雑さに適応した画像処理によって精度よく自車前方の車両を検出することを目的とする。
【0017】
【課題を解決するための手段】
上記した目的を達成するために、本発明の車両検出方法は、車両に搭載された画像センサの自車前方の撮影画像の複数個所に相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットを配置し、前記各ユニットにより、それぞれの位置の画像情報に基づく自律検出から、前記各位置の画像状態を、路面、車両下端を含む複数の基準状態のいずれかに分類して認識し、前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価し、誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正し、該修正後の前記各ユニットの認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出することを特徴としている(請求項1)。
【0018】
また、本発明の車両検出装置は、車両に搭載された画像センサの自車前方の撮影画像の複数個所に各ネットワークノードのユニットを配置した相互結合型ニューラルネットワーク構造の分散診断モデルの画像認識部を備え、前記画像認識部に、前記各ユニットにより、それぞれの位置の画像情報に基づく自律検出から、前記各位置の画像状態を、路面、車両下端を含む複数の基準状態のいずれかに分類して認識する手段と、前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価する手段と、誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正する手段と、該修正後の前記各ユニットの認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出する手段とを設けたことを特徴としている(請求項5)。
【0019】
これらの構成によれば、画像センサの撮影画像の複数個所に配置した各ネットワークノードのユニットにより、それぞれの位置の画像情報(局所画像情報)から、その位置の画像状態が自律検出(自律センシング)されて認識される。
【0020】
さらに、ユニット間の協調作業に基づき、自律検出の結果である各ユニットの認識状態をユニット間で相互評価しあうことにより、認識の信頼度が評価されて誤認識ユニット(エラーユニット)が検出され、しかも、エラーユニットの認識状態が、信頼度の高い周囲ユニットの認識状態にしたがって多数決処理で修正される。
【0021】
この場合、画像情報の抽出処理や照合処理のエラーが生じたとしても、これらのエラーがユニット間の協調作業によって修正されて動的関係ネットワークが構築され、このネットワークの正しい認識状態のユニットから、事前に識別辞書を準備したり、詳細にチューニングされた車両モデルを用意したりすることなく、車両下端のユニットが特定されて撮影画像の車両が検出される。
【0022】
すなわち、相互結合型ニューラルネットワーク構造の分散診断モデルである、前記の免疫ネットワークモデルを応用した手法により、画像センサの自車前方の撮影画像(シーン画像)全体から適応的に診断する動的関係ネットワークが構築され、その診断の解釈や矛盾がチェック・修正られることにより、車両に関する画像知識情報の識別辞書や固定的な特徴モデルを事前に用意して参照することなく、走行環境化における自車前方の車両が、撮影された画像の画像認識から、その画像の複雑さに適応した処理手法で正確に検出される。
【0023】
つぎに、本発明の車両検出方法は、車両に搭載された画像センサが撮影をくり返し、前記画像センサの撮影毎に、前記撮影画像の複数個所に相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットそれぞれを配置し、前記各ユニットにより、それぞれの位置の画像情報に基づく画像状態の自律検出及び検出した画像状態と前回の認識状態との整合条件から、前記各ユニットそれぞれの位置の画像状態を、路面、車両下端の認識状態を含む複数の基準状態のいずれかに分類して認識し、前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価し、誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正し、該修正後の前記各ユニットの認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出することを特徴としている(請求項2)。
【0024】
また、本発明の車両検出装置は、車両に搭載された画像センサがくり返し撮影して得られた撮影毎の前記撮影画像を処理する画像認識部に、最新の撮影画像の複数個所に相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットを配置する手段と、前記各ユニットにより、それぞれの位置の画像情報に基づく画像状態の自律検出及び前記各位置の前回の認識状態から、前記各位置の画像状態を、路面、車両下端の認識状態を含む複数の基準状態のいずれかに分類して認識する手段と、前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価する手段と、誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正する手段と、前記画像センサの撮影毎に、前記修正後の前記各ユニットの最新の認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出する手段とを備えたことを特徴としている(請求項6)。
【0025】
これらの構成によれば、画像センサによる自車前方の撮影がくり返され、その撮影毎に、分散診断モデルの各ユニットにより、前回の画像状態の認識も加味して自己の位置の画像状態がより正確に自律検出される。
【0026】
そして、画像センサの撮影毎に、各ユニットの自律検出の認識状態をユニット間で相互評価しあうことにより、各ユニットの信頼度が評価されて誤認識ユニット(エラーユニット)が精度よく検出され、しかも、そのユニットの認識状態が、信頼度の高い周囲の他のユニットの認識状態にしたがって多数決処理で正確に修正され、車両に関する画像知識情報の識別辞書や固定的な特徴モデルを事前に用意して参照することなく、走行環境化における自車前方の車両が、単眼カメラの撮影毎に、撮影画像の画像認識からより正確に検出される。
【0027】
そして、車両に搭載された画像センサが単眼カメラであることが、実用的であり(請求項3、7)、画像情報が画像エッジの情報を含む輝度に関連した所定の情報であることが、現実的で具体的である(請求項4、9)。
【0028】
さらに、各ユニットが、画像上のユニット中心から複数方向に配置されてそれぞれの位置の画像情報を収集する複数個の受容体センサで構成された認識部と、前記各受容体センサの収集情報に基づいて自律検出した認識状態を書き換え自在に保持する状態部とからなることが、実用的で極めて好ましい(請求項8)。
【0029】
【発明の実施の形態】
この発明の一実施形態について、図1ないし図11を参照して説明する。
【0030】
図1は車両検出装置のブロック図、図2は図1の動作説明用のフローチャート、図3は免疫診断モデルの模式図、図4の(A)、(B)は図1の検出装置が形成する分散診断モデルの各ネットワークノードの各ユニットの構成説明図、配置説明図、図5は撮影画像上のユニット配置例の説明図であり、図6、図7、図8はそれぞれユニット間の相互診断の説明図である。
【0031】
また、図9は単眼カメラの実際の撮影画像の一例の正面図、図10は図9の撮影画像に基づく自律検出結果の説明図、図11は図10の自律検出後の相互診断結果の説明図である。
【0032】
<全体構成の説明>
まず、図1の検出装置の全体構成について説明する。
図1に示すように、車両1に、画像センサとして、例えば、CCDカメラの単眼カメラ2を搭載する。
【0033】
このカメラ2は、例えば車両1のダッシュボード、ボンネット等の車両左右の中央部に、前方路面を撮影するように設けられ、車両1の走行中に、自車前方をくり返し撮影し、例えばモノクロームの各撮影画像のデジタルデータをマイクロコンピュータからなる検出処理用のECU3にリアルタイムに送る。
【0034】
そして、ECU3及びメモリ4によって画像認識部5が形成され、そのマイクロコンピュータが予め設定された図2の車両検出の画像認識処理のプログラムを実行することにより、画像認識部5が相互結合型ニューラルネットワーク構造の分散診断モデルを構築し、このモデルの画像処理によって前記各撮影画像から自車前方の車両を検出する。
【0035】
すなわち、この発明においては、画像知識情報の識別辞書や固定的な特徴モデルを用意して参照することなく、単眼カメラ2の自車前方の撮影画像(シーン画像)全体から適応的に前記の相互結合型ニューラルネットワーク構造の診断モデルを構築し、その自律検出の意味解釈や矛盾性をチェックすることで、走行環境の複雑さに適応して前方の車両(先行車)を正確に検出する。
【0036】
この場合、相互結合型ニューラルネットワークは、優れた環境適応能力を発揮する生態の免疫機構(未知なる抗原を認識して排除する適応的な機構)を応用した免疫工学モデルであることが好ましく、とくに、連想診断という概念でまとめられている前記の石田提案モデルであれば、撮影画像全体から適応的に診断関係を構築し、意味解釈や無矛盾性をチェックしすることで、正しい情報だけの免疫的なネットワークを構成して撮影画像から車両を正確に検出することができ、極めて好ましい。
【0037】
<診断モデルの説明>
A.免疫工学モデル
つぎに、画像処理部5の診断モデルの基礎となる免疫工学モデルについて説明する。
【0038】
まず、基本となる前記の石田提案モデルは、概略、図3に示す免疫工学モデルであり、同図の各ネットワークノードのユニットU1〜U5は、相互結合されて互いに他を独立に診断(テスト)でき、各ユニットU1〜U5をユニットUi、(i=1〜5)とし、そのユニットUiに結合している他のユニットをユニットUj、(j(≠i)=1〜5)とすると、ユニットUiがユニットUjを相互診断したときの評価値Tijは、つぎの表1のように定義される。
【0039】
【表1】
Figure 2004363988
【0040】
なお、図3の各矢印線は評価値Tijのアークであり、1は正常(正)の評価、−1は異常(誤)の評価である。
【0041】
そして、表1の定義によると、ユニットUi が正常な場合、相手を正しく評価できるが、ユニットUi が異常な場合、その評価が正しいかどうか分からず、そのため、各々のユニットU1〜U5によって単純に評価値Tijを集計しただけでは、どのユニットが異常かの判断はできないが、このネットワークに、例えばつぎの数1の(1)式、数2の(2)式のようなダイナミクス(重み付け)を与えることにより、ネットワークが収束し、どのユニットが異常であるか検出できるようになる。
【0042】
【数1】
Figure 2004363988
【0043】
【数2】
Figure 2004363988
【0044】
なお、(1)式、(2)式の式中のRi(k)は時刻kにおけるユニットUiの信頼度、ri(k)はその中間変数、RjはユニットUjの信頼度、Tij(Tji)はユニットUi(Uj) がユニットUj(Ui)をテストするときの評価値、βは診断の厳しさを表す診断調整量(係数)である。
【0045】
そして、式(1)の評価値Tij(Tji)は、ネットワークが収束するまで(更新中)は、変わらず、一定であり、最も整合したときに1、全く整合しないときに−1であり、通常はその間(1と−1の間)で連続的に変化する。(2)式はそのためのシグモイド関数である。
【0046】
前記(1)式、(2)式のダイナミクスは、いわゆるホップフィールド(Hopfield)型ニューラルネットワークのダイナミクスを変形したものであり、このダイナミックスによって、前記したようにネットワークが収束する。
【0047】
そして、前記(1)式中の第2、第3項は、ユニットUiがユニットUjを評価することにより、ユニットUjから反射的に評価されるものを総合している項である。この項は反射効果の項と呼ばれ、ユニットUiが信頼度の高いユニットUjを抑制すると、逆に自分の信頼度が低く評価されることを表す。
【0048】
その結果、例えば図3の各ユニットU1〜U5は、「信頼度Rjの大きなユニットUjから高く評価され、また、信頼度Rjの大きなユニットUjを高く評価できるときにユニットUiの信頼度Riが増す」という自然な診断を行う。
【0049】
そこで、いわゆる故障診断においては、初めに全ユニットU1〜U5が正常と仮定し、つぎの数3の(3)式に示すように、全ユニットU1〜U5の信頼度Ri(k)を1に設定しておき、その後、前記のダイナミクスに基づいた評価をくり返すことにより、ネットワークが収束したときに、最終的に信用度の低下しているユニットを異常(故障)ユニットと判断する。
【0050】
【数3】
Figure 2004363988
【0051】
なお、前記図3の例では、双方向のアークの評価値Tijが同じ値になっているが、それらの評価値Tijは必ずしも同じ値である必要はなく、アークが双方向である必要もない。
【0052】
この石田提案モデルのネットワーク診断は、診断結果が最も整合のあうような状態に遷移してゆくので、前記したように連想診断と呼ばれ、ユニット集合や、診断関係を定義する必要がある点に特徴がある。
【0053】
さらに、この石田提案モデルは、免疫細胞を単体でも命令を遂行可能な自律エージェントの集合として構成されることに特徴があり、これらのエージェントの集団に対し、非自己(環境)および自己の選択によって適応される、エージェント間や、エージェントと環境との間の相互作用に、予め設定された相互作用ルールが仮定される。
【0054】
このとき、各エージェントはつぎの第1〜第4の性質をもつものである。
【0055】
すなわち、第1には、レセプタ(認識部)とエフェクタ(実行部)からなり、エージェント単体でもタスクを実行可能である。第2には、レセプタは特定のパターンだけを特異的に認識する。第3には、エージェントは変異をともなった増殖が可能である。第4には、非自己との親和性が高まるようにレセプタを適応的に変更する。
【0056】
B.画像認識部5の診断モデル
つぎに、上記の免疫工学モデルを応用した画像認識部5の診断モデル(実施形態モデル)の車両検出について、具体的に説明する。
【0057】
実施形態モデルは、前記の石田提案モデルを応用した相互結合型ニューラルネットワークの相互診断モデルであり、単眼カメラ2がくり返し撮影した時系列の各撮影画像から自車前方の車両を検出する。
【0058】
そのため、図1の画像診断部5は、前記図2のプログラムを実行することで、つぎの(1)〜(5)の各手段を備える。
【0059】
(1)単眼カメラ2の各撮影画像それぞれの複数個所に、図3のユニットU1〜U5のような、局所画像状態の検出(観測)と短期的な記憶(書き換え自在の不揮発性記憶)が可能な相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットUn、(n=1、2、…)を配置する手段。
【0060】
(2)各ユニットUnにより、それぞれの位置の画像情報に基づく画像状態(局所画像状態)の自律検出及び、検出した画像状態と各ユニットUnの前回認識した画像状態との整合条件から、各ユニットUnそれぞれの位置の画像状態を、路面、車両下端の認識状態を含む複数の基準状態のいずれかに分類して認識する手段。
【0061】
(3)各ユニットUn間の相互診断に基づく多数決処理により、各ユニットUnの認識状態を相互に刺激、抑制して各ユニットUnの信頼度を評価する手段。
【0062】
(4)各ユニットUnのうちの誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正する手段。
【0063】
(5)単眼カメラ2の撮影毎に、(4)の手段の修正後の各ユニットUnの最新の認識状態から車両下端を認識したユニットUnを特定して自車前方の車両を検出する手段。
【0064】
そして、単眼カメラ2の撮影毎に、画像処理部5の処理が図2のステップS1からステップS2に移行し、カメラ2の撮影画像の画像情報を取り込んでメモリ4に一時的に保持する。
【0065】
このとき、単眼カメラ2の撮影画像はカラー画像であってもよいが、情報量の少量化及び処理負担の軽減、処理の高速化等を図るため、モノクローム画像であることが好ましい。
【0066】
つぎに、ステップS3により、メモリ4に取り込まれた撮影画像の所定の複数個所に同種(同形状・同構造・同機能)のユニットUnを配置する。
【0067】
そして、ステップS4により、各ユニットUnが撮影画像のそれぞれの位置の局部画像に微分処理等を施し、画像エッジ情報等を得て各局部画像の自律検出(自律センシング)を実行し、この自律検出で得られた画像情報、すなわち、画像エッジの情報を含む輝度に関連した所定の情報を生成し、この情報を自律検出結果の画像情報としてメモリ4に保持する。
【0068】
さらに、ステップS5に移行して他のユニットUnとの協調作業を実行する。
【0069】
この協調作業の目的は大きく分けて2つあり、第1には、他のユニットUnの検出結果が自己の検出結果と整合が取れているか、又は、自己と他のユニットUnの検出の類似性がどの程度あるかなどをチェックし、誤ったユニット(誤認識ユニット)を検出することであり、第2には、誤認識ユニットの検出結果(誤認識状態)を、そのユニットを除く周囲の他のユニットUnの多数決処理(投票)で修正することである。
【0070】
そして、前記の協調作業に基づき、ステップS6によって誤認識ユニットを修正すると、ステップS7により、修正されたものを含む正しい認識状態のユニットの中から、車両下端を認識したユニットが検出されて自車前方の車両が検出される。
【0071】
この場合、画像処理部5の分散診断モデルの処理は、各ユニットUnが、自律的に簡単な画像センシングを行い、その結果に基づいて役割を動的に果たすことによってネットワークを構成する適応的な処理であり、このモデル(本形態モデル)の処理と、石田提案モデル(従来モデル)の処理とには、つぎの表2の相違がある。
【0072】
【表2】
Figure 2004363988
【0073】
すなわち、石田提案モデルにおいては、各ユニットの評価値Tijを、予め設計者等の経験に基づき、手動チューニングして設定するのに対して、本形態モデルにおいては、各ユニットUnの認識結果の評価値Tijを、各ユニットUnが環境(それぞれの位置の局部画像)を検出した結果に基づき、自律的に決定する。
【0074】
また、石田提案モデルにおいては、誤認識ユニット(エラーユニット)の検出は行えるが、そのユニットの正しい検出値は分からず、認識結果の評価値Tijを修正できないのに対して、本形態モデルにおいては、誤認識ユニットを検出し、そのユニットの検出値(評価値Tij)を他のユニットが協調して決定して修正する。
【0075】
C.モデル各部の詳細
つぎに、画像認識部5の診断モデルの各ユニットUnの構造・配置、自律検出及び相互診断について、図4、図5を参照して個別に説明する。
【0076】
(I)各ユニットUnの構造・配置
図4の(A)に示すように、各ユニットUnは、例えば、撮影画像(二次元平面)上で、ユニット中心から、自車の前、後方向(図の車両座標系のZ軸の正方向(矢印方向)、負方向)、左、右方向(図のX軸の正方向(矢印方向)、負方向)、上方向(図のY軸の正方向(矢印方向))に配置した計5本の受容体センサF、F、F、F、Fからなる認識部Fnと、前記ユニット中心の1個の状態部Snとにより、同形状・同構造に形成される。
【0077】
このとき、受容体センサF、F、Fは全てのユニットUnで同じ向きになるが、受容体センサFと受容体センサFの向きは、ユニット位置によって異なる。
【0078】
そして、例えば単眼カメラ2の画角が40度の場合、各ユニットUnは、図4の(B)の車両座標系のX−Z平面図に示すように、路面Rの例えば−3<X<3、5<Z<40(単位:メートル(m))の範囲に格子状に適当数配置され、画像上での具体的配置は、例えば図5の撮影画像Pに示すようになる。
【0079】
なお、図4の(B)、(C)の四角枠で囲まれた数字1、2、3、4は、各ユニットUnの番号であり、ユニットUnの大きさ、配置間隔、個数等は、実験等によって設定される。
【0080】
(II)各ユニットUnの自律センシング
つぎに、各受容体センサF〜Fは、それぞれの位置の画像(局部画像)が結合し、結合した画像からその画像エッジの情報を含む輝度に関連した所定の情報、具体的には、結合した画像から計算した輝度の特徴量(平均輝度値、分散、水平/垂直エッジ平均強度)の情報を、それぞれの位置の画像情報として検出して保持する。
【0081】
このとき、各ユニットUnにおいて、受容体センサFの位置に高さのある障害物があれば、それより前方が障害物によってオクルージョンされるので、受容体センサFと受容体センサFの画像情報の特徴は異なる。
【0082】
また、障害物の無い路面であれば、受容体センサF、F、F、Fの画像情報は同じ特徴である場合が多い。
【0083】
さらに、受容体センサF、Fは,Z軸に対して垂直線分で観測される車両下端面(正確には、車両後端下面)の水平線分を検出することが多い。
【0084】
そして、向きが異なる複数の受容体センサF〜Fを配置する目的は、各ユニットUnが占める画像部分(ユニット近辺シーン)の上記のような定性的な特徴の有無を判定し、その判定結果に基づき、各ユニットUnが占める局所画像部分の画像状態を認識して自律検出し、各ユニットUnの画像認識状態を、複数の基準状態のいずれかに分類することにある。
【0085】
そして、撮影画像中の車両を検出するため、 この実施形態においては、実験等に基づき、前記の基準状態を、「路面」、「路面標示/路面影」、「車両下端」、「車両オクルージョン」、「不定」の5状態とする。
【0086】
この場合、各基準状態の特徴はつぎのようになる。
▲1▼「路面」
この状態は、受容体センサF、F、F、Fの検出結果が、同特徴で、かつ、車両の特徴である垂直/水平のエッジ線分を含まず、受容体センサFの検出結果も車両の特徴であるエッジ成分を含まず、しかも、周辺のユニットUnでこれらの条件を満たすユニットUnと特徴が似ている又は同一の状態である。
【0087】
▲2▼「路面標示/路面影」
この状態は、受容体センサF、F、F、Fのいくつかの検出結果が、▲1▼の「道路」における受容体センサF、F、F、Fの検出結果の平均と非常に近く、受容体センサFの検出結果がエッジ成分を含まない状態である。なお、積極的にこの状態に分類することはしない。換言すれば、後述の「不定」を除く、他の確定的な状態への分類が優先する。
【0088】
▲3▼「車両下端」
この状態は、車両下端と路面が接地した画像状態であって、受容体センサFと受容体センサFの検出結果が異なり、受容体センサFと受容体センサFの検出結果も異なり、しかも、受容体センサFの検出結果に水平/垂直のどちらのエッジ成分も含まない状態であって、さらに、つぎの(i)、(ii)、(iii)のいずれか1つの条件だけを満たす状態である。
【0089】
(i)受容体センサF、Fの検出結果に車両の特徴である水平エッジ線分を含み、受容体センサFの検出結果にも水平エッジ成分を含む(車両中央部の下端)。
【0090】
(ii)受容体センサFの検出結果に水平エッジ線分を含み、受容体センサFの検出結果に水平エッジ線分を含まず、かつ、受容体センサFの検出結果に垂直エッジ線分を含む(車両左側の下端)。
【0091】
(iii) 受容体センサFの検出結果に水平エッジ線分を含み、受容体センサFの検出結果に水平エッジ線分を含まず、かつ、受容体センサFの検出結果に垂直エッジ線分を含む(車両右側の下端)。
【0092】
▲4▼「車両オクルージョン」
この状態は、車両によってオクルージョンされ、路面を観測できない状態であって、具体的には、▲1▼の「路面」、▲2▼の「路面標示/路面影」、▲3▼の「車両下端」のいずれにも分類されず、かつ、前回(前フレーム)の撮影画像のその位置のユニットUnの状態部Snが、前回の認識状態として、▲4▼の「車両オクルージョン」を保持している状態である。
【0093】
▲5▼「不定」
この状態は、▲1▼の「路面」、▲2▼の「路面標示/路面影」、▲3▼の「車両下端」、▲4▼の「車両オクルージョン」のいずれにも分類不可能な状態である。
【0094】
そして、各ユニットUnは、単眼カメラ2の撮影毎に、それぞれの受容体センサF〜Fの検出結果及び、認識部Snの前回(前フレーム)の認識結果に基づき、それぞれの位置の画像状態を認識して▲1▼の「路面」、…、▲5▼の「不定」のいずれかに分類する。
【0095】
このとき、▲1▼の「路面」と▲3▼の「車両下端」は、各受容体センサF〜Fの今回の検出結果から直接分類できるが、▲2▼の「路面標示/路面影」と▲4▼の「車両オクルージョン」は、前回の状態を参照して分類するため、前フレームの自己状態が参照できない場合(初めのうち)はあいまいさが残る。
【0096】
なお、▲1▼の「路面」や▲3▼の「車両下端」として状態分類できた場合でも、誤りを含んでいる可能性がある。
【0097】
そして、各ユニットUnは、単眼カメラ2の撮影毎に、▲1▼「路面」→▲3▼「車両下端」→▲2▼「路面標示/路面影」→▲4▼「車両オクルージョン」→▲5▼「不定」の優先順位にしたがって自己状態を決定して分類することをくり返す。
【0098】
この分類のくり返しにより、最初は、▲5▼の「不定」に分類されるユニットUnが多いが、前フレームの自己状態が参照できる2回目以降には、それらのユニットUnのいくつかが▲2▼の「路面標示/路面影」や▲4▼の「車両オクルージョン」に分類され、▲5▼の「不定」のユニットUnは少なくなる。
【0099】
(III)各ユニットUnの相互診断
各ユニットUnは自律検出結果に基づき、ネットワーク上での自己の役割を遂行し、それぞれの状態部Snの認識の正しさをユニットUn間で相互診断して評価し、この評価に基づき、誤認識ユニットをネットワークに動的に不参加にし、また、初めから不定なユニットUnもネットワークに参加させない(静的不参加)ようにする。
【0100】
すなわち、各ユニットUnは、受容体センサF〜F、ユニット位置、ユニットUnと単眼カメラ2を結ぶ光学線上の制約(以下、光学制約線と呼ぶ)等に基づき、つぎのように相互診断する。
【0101】
(a)「路面」の認識状態のユニットUnによる他のユニットUnの診断
まず、前記▲1▼の「路面」の認識状態のユニットUnを注目ユニットU(▲1▼)とし、このユニットU(▲1▼)による他のユニットUnの診断につき、図6の診断模式図を参照して説明する。
【0102】
図6は図4の(B)と同様のZ−X平面であり、座標軸原点Qは単眼カメラ2の位置を示し、丸印U(▲1▼)はカメラ2の前方の注目ユニット、丸印▲1▼、▲2▼、▲3▼、▲4▼は「路面」、「路面標示/路面影」、「車両下端」、「車両オクルージョン」それぞれの認識状態の他のユニットUnを示す。
【0103】
また、図6の座標原点Qを中心とする、実線の扇形が単眼カメラ2の撮影範囲である。
【0104】
そして、ユニットU(▲1▼)は、撮影画像の他の「路面」の認識状態のユニットUnと各々の受容体センサF、F、F、Fを比較し、その類似の度合いに応じて、互いに刺激/抑制しあう。
【0105】
この相互診断の狙いは、多数決処理により、撮影画像の大面積を占める路面領域の特徴に近いユニットUnについては、それらの「路面」の認識が正しいとして認識の信頼度を上昇させ、車両等の影や路面標示を誤って「路面」と認識しているユニットUnの信頼度は低下させることである。
【0106】
このとき、ユニットU(▲1▼)の信頼度が0に低下したときは、このユニットU(▲1▼)の評価が他のユニットUnの信頼度に影響を与えないため、ユニットU(▲1▼)が結果的にネットワークから除外される(動的不参加)。
【0107】
一方、ユニットU(▲1▼)がネットワークに参加しているときは、このユニットU(▲1▼)よりカメラ2寄りには車両が存在しないはずであるから、ユニットU(▲1▼)と単眼カメラ2の位置とを結ぶ前記の光学制約線上に存在するユニットUn、具体的には、図6の破線で挟まれた範囲内の注目ユニットU(▲1▼)よりカメラ2寄りの他のユニットUnにつき、▲1▼の「路面」、▲3▼の「路面標示/路面影」の認識状態であれば、それらのユニットUnを刺激(+1)し、▲2▼の「車両下端」、▲4▼の「車両オクルージョン」の認識状態であれば、それらのユニットUnを抑制(−1)する。
【0108】
(b)「車両下端」の認識状態のユニットUnによる他のユニットUnの診断つぎに、前記▲2▼の「車両下端」の認識状態のユニットUnを注目ユニットU(▲2▼)とし、このユニットU(▲2▼)による他のユニットUnの診断につき、図7の診断模式図を参照して説明する。
【0109】
図7も図6と同様のZ−X平面であり、図中の各符号は図6の各符号と同一のものを示す。
【0110】
注目ユニットU(▲2▼)は、図7に示すように、近傍の▲2▼の「車両下端」の認識状態のユニットUnの各受容体センサF〜Fと自己の各受容体センサF〜Fとを比較し、特徴量が近い場合には刺激し、異なる場合には抑制する。
【0111】
また、光学制約線上の注目ユニットU(▲2▼)よりカメラ2寄りの他のユニットUnについては、▲1▼の「路面」、▲3▼の「路面標示/路面影」の認識状態のユニットUnを刺激(+1)し、▲2▼の「車両下端」、▲4▼の「車両オクルージョン」の認識状態のユニットUnを抑制(−1)する。
【0112】
さらに、光学制約線上で注目ユニットU(▲2▼)より単眼カメラ2から遠い他のユニットUnについては、▲4▼の「車両オクルージョン」の認識状態のユニットUnを刺激(+1)し、▲1▼の「路面」、▲2▼の「車両下端」の認識状態のユニットUn及び▲3▼の「路面標示/路面影」の認識状態のユニットUnを抑制(−1)する。
【0113】
(c)「車両オクルージョン」、「路面標示/路面影」の認識状態のユニットUnによる他のユニットUnの診断
つぎに、前記▲4▼の「車両オクルージョン」の認識状態のユニットUnを注目ユニットU(▲4▼)、前記▲3▼の「路面標示/路面影」の認識状態のユニットUnを注目ユニットU(▲3▼)とし、これらのユニットU(▲4▼)、U(▲3▼)による他のユニットUnの診断につき、図8の診断模式図を参照して説明する。
【0114】
図8も図6、図7と同様のZ−X平面であり、図8の各符号等のうちの図6、図7の各符号等と同一のものは同一のものを示す。
【0115】
そして、「車両オクルージョン」の注目ユニットU(▲4▼)は、図8に示すように、自己より遠方(前方)の「車両オクルージョン」の認識状態の他のユニットUnを刺激(+1)し、それ以外の認識状態のユニットUnを抑制(−1)する。
【0116】
また、「路面標示/路面影」の認識状態のユニットU(▲3▼)は、図8に示すように、カメラ2から自ユニットU(▲3▼)までの間には車両が存在しないはずであるから、自ユニットU(▲3▼)よりカメラ寄りの各ユニットUnにつき、「路面」、「路面標示/路面影」のユニット▲1▼、▲2▼は刺激(+1)し、「車両下端」、「車両オクルージョン」のユニット▲3▼、▲4▼は抑制(−1)する。
【0117】
(d)「不定」のユニットUnによる他のユニットUnの診断
なお、注目ユニットが▲1▼の「路面」〜▲4▼の「車両オクルージョン」に該当しない場合は「不定」と診断され、注目ユニットがこの「不定」の認識状態であれば、その診断結果は他のユニットUnに影響しない。
【0118】
そして、上記の相互診断の目的は、すべてのユニットUnをいずれかの認識状態に正しく分類することではなく、「車両下端」の認識状態のユニットUnを正しく検出して特定し、この特定に基づいて自車前方の車両を検出することである。
【0119】
そのため、ネットワークの収束途中に各ユニットUnの信頼度が変化しても、それらの認識状態は変化させないで固定しておく。
【0120】
そして、前記(1)式、(2)式のダイナミクスにしたがってネットワークが収束したときに、前記の相互診断の結果として、信頼度が0のユニットUnの認識状態は▲5▼の「不定」にする。
【0121】
(IV)誤認識ユニットの修正
つぎに、ネットワークの収束後、信頼度の高いユニットUnは光学制約線上の「不定」のユニットUnに対して、認識状態の修正投票をする権利を持つ。
【0122】
具体的には、信頼度の高い「車両下端」のユニットUn(図7の注目ユニットU(▲2▼))は、光学制約線上の自ユニットU(▲2▼)よりカメラ2に近い▲5▼の「不定」のユニットUnに対しては、▲3▼の「路面標示/路面影」への認識状態修正に投票し、自ユニットU(▲2▼)よりもカメラ2から遠い▲5▼の「不定」のユニットUnに対しては、▲4▼の「車両オクルージョン」への認識状態修正に投票する。
【0123】
また,信頼度の高い「路面」のユニットUn(図6の注目ユニットU(▲1▼)は、光学制約線上の自ユニットU(▲1▼)よりカメラ2に近い▲5▼の「不定」のユニットUnに対して、▲3▼の「路面標示/路面影」への認識状態修正に投票する。
【0124】
そして、投票権を有するすべてのユニットUnの投票が完了した後、「不定」のユニットUnについては、その認識状態を、最も投票値の高い認識状態に修正し、▲4▼の「車両オクルージョン」、▲3▼の「路面標示/路面影」を自律検出できなかったユニットUnについては、その認識状態を、周囲の信頼されている(信頼度の高い)正しい認識状態のユニットUnの協調作業でそれぞれの状態に決定して修正するする。
【0125】
(V)車両検出
そして、前記の修正後、各ユニットUnの認識部Snに保持された最新の認識状態に基づき、▲2▼の「車両下端」の認識状態のユニットUnの集団が生じた位置から、自車前方の車両を検出して特定する。
【0126】
<実測結果について>
つぎに、実測結果について、図9〜図11を参照して説明する。
【0127】
まず、図9は車両1の走行中の単眼カメラ2の撮影画像P´であり、この撮影画像P´には2台の車両6a、6bが写っている。
そして、撮影画像P´上において、例えば、車両座標系の前記Z−X平面の−3<X<3、5<Z<40、(単位(m))の範囲に、ユニットUnを多数個配置して診断したところ、図10、図11の結果が得られた。
【0128】
図10は自律検出に基づく各ユニットUnの認識状態のマップ、図11は相互診断後の認識状態のマップである。
【0129】
ここで、図10、図11の図中の各黒点は「車両下端」の認識状態のユニットUnを示し、白色部分は「不定」のユニットUnの部分であり、両図の黒色部分a、bは先行車6a、6bの下端に相当する部分である。
【0130】
そして、図10の場合、各ユニットUnの自律検出のみであることから、2台の先行車6a、6bの下端部分は黒色部分a、bとして検出されているが、図中の破線で囲まれたエラー部分e1、e2、e3等の先行車6a、6bの下端部分以外の場所(部分)のユニットUnのなかには、誤って「車両下端」と判定したユニットUnが含まれる。
【0131】
また、図10では、道路標示近辺の位置や、車両によりオクルージョンされている位置に配置したユニットUnの多くは、「不定」の認識状態となっている。
【0132】
つぎに、前記の自律検出後にユニットUn間で相互診断して誤認識の修正が施された図11の場合は、「不定」の認識状態のユニットUnはいくつか残っているが、「車両下端」の誤認識ユニットは修正されて無くなっている。
【0133】
また、カメラ2から先行車両6a、6bまでの図10では「不定」になっていた多数のユニットUnは、図11では「路面標示/路面影」の認識状態に修正され、黒色部分a、bより前方(カメラ2から見て、先行車6a、6bの車両下端後方)の遮蔽部分cの各ユニットUnは、「不定」から「車両オクルージョン」の認識状態に修正された。さらに、図10では自律検出によって「車両下端」と誤認識したユニット(車両誤検出)が、図11では周囲ユニットとの相互診断によって、整合のあう「路面標示/路面影」へと修正されている。
【0134】
そして、図11の黒色部分a、bに基づき、自車前方の先行車6a、6bを正確に検出できることが確かめられた。
【0135】
なお、「路面」の認識状態のユニットUn間の診断値は、この実験では、+1〜−1の間で連続変化する値としないで、つぎの(4)式に示すように設定した。
【0136】
【数4】
Figure 2004363988
【0137】
式中の変数numは、「路面」認識状態のユニットUn間の受容体センサF、F、F、Fの特徴が近かった組み合わせ数であり、最大値は16(=4×4)である。
【0138】
したがって、この実施形態によると、単眼カメラ2の撮影画像上に配設した分散診断モデルの各ネットワークノードのユニットUnが、それぞれの位置の所局所画像情報から、それぞれの位置の画像状態を、自律検出して路面、車両下端を含むいくつかの基準画像状態のいずれかに分類し、その後、各ユニットUnが自己の認識状態の自律検出結果からネットワーク上での役割を自ら決定し、各ユニットUn間の協調作業により、各ユニットUnがそれぞれの検出結果を他のユニットUnと相互評価しあって、誤認識状態のユニットUnを検出(抽出)し、その認識状態を修正することにより、既存のネットワーク診断モデルのように識別辞書や詳細にチューニングされた車両モデルを事前に用意することなく、複雑な走行環境化にかかわらず、車両下端を認識したユニットUnを特定して自車前方の車両を正確に検出することができ、免疫ネットワークモデルを応用した画像処理により、走行中の車両1によって自車前方の車両を検出する画期的な車両検出方法及び装置を提供することができ、この検出結果に基づき自車前方の車両との車間距離、自車前方の車両の車速を検出して追従走行の制御を初めとするITSの実現に著し効果を奏する。
【0139】
そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能であり、例えば、画像センサは単眼カメラ2に限られるものでなく、モノクローム、カラーの種々のカメラであってよい。
【0140】
また、各ユニットUnの配置個数や各ユニットUnそれぞれの受容体センサの数、形状等は、実施形態のものに限られるものではなく、例えば、図4の(A)の受容体センサFを省いて二次元センサに形成したり、受容体センサFをより高くしてY軸方向(高さ方向)の検出範囲を広くしたりしてもよい。
【0141】
つぎに、画像処理部5の分散診断モデルは、実施形態のものに限られるものではなくなく、例えば、前回の認識状態を参照しないときは、画像処理部5に、前記(1)〜(5)の手段に代えて、つぎの(1)´〜(5)´の各手段を備えればよい。
【0142】
すなわち、(1)´単眼センサ(画像センサ)2の撮影画像の複数個所に、相互結合型ニューラルネットワーク構造の分散診断モデルのネットワークノードのユニットUnを配置する手段、(2)´各ユニットUnにより、それぞれの位置の画像情報に基づく自律検出から、前記各位置の画像状態を、路面、車両下端を含む複数の基準状態のいずれかに分類して認識する手段、(3)´各ユニットUn間の相互診断に基づく多数決処理により、各ユニットUnの認識状態を相互に刺激、抑制して前記各ユニットUnの信頼度を評価する手段、(4)´誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正する手段、(5)´該修正後の各ユニットUnの認識状態から車両下端を認識したユニットUnを特定して前記自車前方の車両を検出する手段、を備えればよい。
【0143】
この場合、単眼カメラ2の撮影画像の複数個所に配置した各ユニットUnにより、それぞれの位置の画像情報に基づく自律検出から、前記各位置の画像状態を、路面、車両下端を含む複数の基準状態のいずれかに分類して認識し、各ユニットUn間の相互診断に基づく多数決処理により、各ユニットUnの認識状態を相互に刺激、抑制して各ユニットUnの信頼度を評価し、誤認識ユニットUnの認識状態を、信頼度の高い周囲ユニットからの投票により修正し、該修正後の前記各ユニットUnの認識状態から前記車両下端を認識したユニットUnを特定して自車前方の車両を検出する。
【0144】
【発明の効果】
以上のように、請求項1、5の発明によれば、画像センサの撮影画像の複数個所に配置した各ネットワークノードのユニットにより、それぞれの位置の画像情報(局所画像情報)から、その位置の画像状態を自律検出(自律センシング)して認識することができ、さらに、ユニット間の協調作業に基づき、自律検出の結果である各ユニットの認識状態をユニット間で相互評価しあうことにより、認識の信頼度が評価されて誤認識ユニット(エラーユニット)を検出し、エラーユニットの認識状態を、信頼度の高い周囲ユニットの認識状態にしたがって多数決処理で修正することができる。
【0145】
そのため、画像情報の抽出処理や照合処理のエラーが生じたとしても、これらのエラーがユニット間の協調作業によって修正されて動的関係ネットワークが構築され、このネットワークの正しい認識状態の各ユニットに基づき、事前に識別辞書を準備したり、詳細にチューニングされた車両モデルを用意したりすることなく、走行環境化の複雑な撮影画像から車両下端のユニットを特定して自車前方の車両を正確に検出することができる。
【0146】
換言すれば、相互結合型ニューラルネットワーク構造の分散診断モデルである、前記の免疫ネットワークモデルを応用した手法により、画像センサの自車前方の撮影画像(シーン画像)全体から適応的に診断する動的関係ネットワークが構築され、その診断の解釈や矛盾がチェック・修正されることにより、車両に関する画像知識情報の識別辞書や固定的な特徴モデルを事前に用意して参照することなく、走行環境化における自車前方の車両を、撮影された画像の画像認識から、その画像の複雑さに適応した処理手法で正確に検出することができる。
【0147】
つぎに、請求項2、6の発明によれば、画像センサによる自車前方の撮影がくり返され、その撮影毎に、分散診断モデルの各ユニットにより、前回の画像状態の認識も加味して自己の位置の画像状態をより正確に自律検出することができる。
【0148】
そして、画像センサの撮影毎に、各ユニットの自律検出の認識状態をユニット間で相互評価しあうことにより、各ユニットの信頼度を評価しあって誤認識ユニット(エラーユニット)を精度よく検出することができ、しかも、そのユニットの認識状態を、信頼度の高い周囲の他のユニットの認識状態にしたがって多数決処理で正確に修正し、車両に関する画像知識情報の識別辞書や固定的な特徴モデルを事前に用意して参照することなく、走行環境化における自車前方の車両を、単眼カメラの撮影毎に、撮影画像の画像認識からより正確に検出することができる。
【0149】
つぎに、請求項3、7に記載の発明によれば、車両に搭載された画像センサが単眼カメラからなるため、画像センサが安価であり、実用的な構成で形成することができる。
【0150】
つぎに、請求項4、9に記載の発明によれば、画像情報が画像エッジの情報を含む輝度に関連した所定の情報であるため、現実的で具体的な情報に基づいて車両を検出することができる。
【0151】
つぎに、請求項8の発明によれば、分散診断モデルの各ネットワークノードのユニットが、画像上のユニット中心から複数方向に配置されてそれぞれの位置の画像情報を収集する複数個の受容体センサで構成された認識部と、前記各受容体センサの収集情報に基づいて自律検出した認識状態を書き換え自在に保持する状態部とからなため、分散診断モデルの各ユニットの具体的な構造を提供することができ、実用的で極めて好ましい構成の車両検出装置を提供することができる。
【図面の簡単な説明】
【図1】この発明の一実施形態のブロック図である。
【図2】図1の動作説明用のフローチャートである。
【図3】免疫工学モデルの模式図である。
【図4】(A)、(B)は図1の画像処理部が構築する分散診断モデルの各ユニットの構成説明図、路面上の配置説明図である。
【図5】図1の画像処理部が構築する分散診断モデルの各ユニットの撮影画像上の配置例の説明図である。
【図6】図1の画像処理部の所定認識状態のユニットによる周辺ユニットの診断説明図である。
【図7】図1の画像処理部の他の認識状態のユニットによる周辺ユニットの診断説明図である。
【図8】図1の画像処理部のさらに他の認識状態のユニットによる周辺ユニットの診断説明図である。
【図9】図1の単眼カメラの撮影画像の一例の正面図である。
【図10】図9の撮影画像に基づく各ユニットの自律検出結果の認識状態図である。
【図11】図10の自律検出後のユニット間相互診断結果の認識状態図である。
【符号の説明】
1 車両(自車)
2 単眼カメラ
5 画像処理部
6a、6b 車両(前方の車両)
Un ユニット
Fn 認識部
〜F 受容体センサ
Sn 状態部
P、P´ 撮影画像

Claims (9)

  1. 車両に搭載された画像センサにより自車前方を撮影し、前記画像センサの撮影画像の画像認識により、前記自車前方の車両を検出する車両検出方法において、
    前記撮影画像の複数個所に相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットを配置し、
    前記各ユニットにより、それぞれの位置の画像情報に基づく自律検出から、前記各位置の画像状態を、路面、車両下端を含む複数の基準状態のいずれかに分類して認識し、
    前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価し、
    誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正し、
    該修正後の前記各ユニットの認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出することを特徴とする車両検出方法。
  2. 車両に搭載された画像センサにより自車前方を撮影し、前記画像センサの撮影画像の画像認識により、前記自車前方の車両を検出する車両検出方法において、
    前記画像センサが撮影をくり返し、
    前記画像センサの撮影毎に、
    前記撮影画像の複数個所に相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットそれぞれを配置し、
    前記各ユニットにより、それぞれの位置の画像情報に基づく画像状態の自律検出及び前記各位置の前回の認識状態から、前記各位置の画像状態を、路面、車両下端の認識状態を含む複数の基準状態のいずれかに分類して認識し、
    前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価し、
    誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正し、
    該修正後の前記各ユニットの最新の認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出することを特徴とする車両検出方法。
  3. 車両に搭載された画像センサが単眼カメラであることを特徴とする請求項1または2に記載の車両検出方法。
  4. 画像情報が画像エッジの情報を含む輝度に関連した所定の情報であることを特徴とする請求項1ないし3のいずれかに記載の車両検出方法。
  5. 車両に搭載された画像センサの自車前方の撮影画像の画像認識処理により、前記自車前方の車両を検出する車両検出装置において、
    前記撮影画像を処理する画像認識部に、
    前記撮影画像の複数個所に、相互結合型ニューラルネットワーク構造の分散診断モデルのネットワークノードのユニットを配置する手段と、
    前記各ユニットにより、それぞれの位置の画像情報に基づく自律検出から、前記各位置の画像状態を、路面、車両下端を含む複数の基準状態のいずれかに分類して認識する手段と、
    前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価する手段と、
    誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正する手段と、
    該修正後の前記各ユニットの認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出する手段とを備えたことを特徴とする車両検出装置。
  6. 車両に搭載された画像センサの自車前方の撮影画像の画像認識処理により、自車前方の車両を検出する車両検出装置において、
    前記画像センサがくり返し撮影して得られた撮影毎の前記撮影画像を処理する画像認識部に、
    最新の撮影画像の複数個所に相互結合型ニューラルネットワーク構造の分散診断モデルの各ネットワークノードのユニットを配置する手段と、
    前記各ユニットにより、それぞれの位置の画像情報に基づく画像状態の自律検出及び前記各位置の前回の認識状態から、前記各位置の画像状態を、路面、車両下端の認識状態を含む複数の基準状態のいずれかに分類して認識する手段と、
    前記各ユニット間の相互診断に基づく多数決処理により、前記各ユニットの認識状態を相互に刺激、抑制して前記各ユニットの信頼度を評価する手段と、
    誤認識ユニットの認識状態を、信頼度の高い周囲ユニットからの投票により修正する手段と、
    前記画像センサの撮影毎に、前記修正後の前記各ユニットの最新の認識状態から前記車両下端を認識したユニットを特定して前記自車前方の車両を検出する手段とを備えたことを特徴とする車両検出装置。
  7. 車両に搭載された画像センサが単眼カメラであることを特徴とする請求項5または6に記載の車両検出装置。
  8. 各ユニットが、画像上のユニット中心から複数方向に配置されてそれぞれの位置の画像情報を収集する複数個の受容体センサで構成された認識部と、前記各受容体センサの収集情報に基づいて自律検出した認識状態を書き換え自在に保持する状態部とからなることを特徴とする請求項5ないし7のいずれかに記載の車両検出装置。
  9. 画像情報が画像エッジの情報を含む輝度に関連した所定の情報であることを特徴とする請求項5ないし8のいずれかに記載の車両検出装置。
JP2003160399A 2003-06-05 2003-06-05 車両検出方法及び車両検出装置 Withdrawn JP2004363988A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003160399A JP2004363988A (ja) 2003-06-05 2003-06-05 車両検出方法及び車両検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003160399A JP2004363988A (ja) 2003-06-05 2003-06-05 車両検出方法及び車両検出装置

Publications (1)

Publication Number Publication Date
JP2004363988A true JP2004363988A (ja) 2004-12-24

Family

ID=34053191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003160399A Withdrawn JP2004363988A (ja) 2003-06-05 2003-06-05 車両検出方法及び車両検出装置

Country Status (1)

Country Link
JP (1) JP2004363988A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007261553A (ja) * 2006-03-30 2007-10-11 Denso It Laboratory Inc 物体撮像装置及び物体撮像方法
JP2010224930A (ja) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd 道路認識装置
US9349055B1 (en) 2013-06-26 2016-05-24 Google Inc. Real-time image-based vehicle detection based on a multi-stage classification
CN106932482A (zh) * 2017-03-30 2017-07-07 上海量明科技发展有限公司 车辆的性能评测方法、机器人及系统
WO2022107595A1 (ja) * 2020-11-17 2022-05-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007261553A (ja) * 2006-03-30 2007-10-11 Denso It Laboratory Inc 物体撮像装置及び物体撮像方法
JP4701116B2 (ja) * 2006-03-30 2011-06-15 株式会社デンソーアイティーラボラトリ 物体撮像装置及び物体撮像方法
JP2010224930A (ja) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd 道路認識装置
US9349055B1 (en) 2013-06-26 2016-05-24 Google Inc. Real-time image-based vehicle detection based on a multi-stage classification
US10203697B2 (en) 2013-06-26 2019-02-12 Waymo Llc Real-time image-based vehicle detection based on a multi-stage classification
CN106932482A (zh) * 2017-03-30 2017-07-07 上海量明科技发展有限公司 车辆的性能评测方法、机器人及系统
CN106932482B (zh) * 2017-03-30 2023-09-29 上海量明科技发展有限公司 车辆的性能评测方法、机器人及系统
WO2022107595A1 (ja) * 2020-11-17 2022-05-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Similar Documents

Publication Publication Date Title
CN107230218B (zh) 用于生成对从安装在运载工具上的摄像机捕捉的图像导出的估计的置信度测量的方法和设备
US20180107901A1 (en) Image processing device, object detection device, image processing method
Rahman et al. Run-time monitoring of machine learning for robotic perception: A survey of emerging trends
JP7149707B2 (ja) 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム
CN106257489A (zh) 表情识别方法及系统
CN104751110A (zh) 一种活体检测方法和装置
JP5229912B2 (ja) 物体認識装置および物体認識方法
US20220004824A1 (en) System and method to alter an image
US11703596B2 (en) Method and system for automatically processing point cloud based on reinforcement learning
CN111274862A (zh) 用于产生车辆的周围环境的标签对象的设备和方法
JP2021096854A (ja) 敵対的攻撃を検出するためのシステム及び方法
US20230230484A1 (en) Methods for spatio-temporal scene-graph embedding for autonomous vehicle applications
Gupta et al. Online monitoring for neural network based monocular pedestrian pose estimation
JP2004363988A (ja) 車両検出方法及び車両検出装置
Mumbelli et al. An application of Generative Adversarial Networks to improve automatic inspection in automotive manufacturing
US9398208B2 (en) Imaging apparatus and imaging condition setting method and program
CN113095351A (zh) 借助于初始标记的改善生成经标记的数据的方法
US8005261B2 (en) Model-based object classification and target recognition
CN116109047A (zh) 一种基于三维智能检测的智能调度方法
WO2022107548A1 (ja) 3次元骨格検出方法及び3次元骨格検出装置
Sagar AA3DNET: attention augmented real time 3D object detection
CN108875453A (zh) 人脸图片底库注册的方法、装置及计算机存储介质
CN108764110B (zh) 基于hog特征行人检测器的递归错检校验方法、系统及设备
JP3808727B2 (ja) 物体検出装置及びその方法
CN108921015B (zh) 基于递归结构车载单目摄像头下行人目标校验算法及系统

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905