JPH0935059A - 移動体上照度識別装置 - Google Patents

移動体上照度識別装置

Info

Publication number
JPH0935059A
JPH0935059A JP7178985A JP17898595A JPH0935059A JP H0935059 A JPH0935059 A JP H0935059A JP 7178985 A JP7178985 A JP 7178985A JP 17898595 A JP17898595 A JP 17898595A JP H0935059 A JPH0935059 A JP H0935059A
Authority
JP
Japan
Prior art keywords
illuminance
identification result
vehicle
small areas
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7178985A
Other languages
English (en)
Inventor
Toshiaki Kakinami
並 俊 明 柿
Mitsuyoshi Saiki
木 充 義 斉
Kunihiko Soshi
雌 邦 彦 曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP7178985A priority Critical patent/JPH0935059A/ja
Publication of JPH0935059A publication Critical patent/JPH0935059A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 先行車認識アルゴリズムを切換えるために、
自動車上において、昼間と夜間とを自動的に識別する。
識別の信頼性を高める。 【解決手段】 空の領域RGS中の位置に、多数の小領
域A1〜A16を定め、小領域毎に平均階調を計算す
る。小領域毎に、平均階調を2値的に識別して、夜の候
補か否かを識別する。夜の候補の小領域数に応じて、最
終的に夜間/昼間を識別する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、移動体上照度識別
装置に関し、例えば、自動車上で車外の景色を撮影して
得られる画像を認識する際に、昼と夜との違いに応じ
て、2種類のアルゴリズムから適切なものを自動的に選
択するために利用しうる。
【0002】
【従来の技術】例えば、車輌上において、車輌前方の路
面を含む景色を撮影し、得られた画像情報の処理によっ
て、画像中の先行車輌や前方障害物を認識し、先行車輌
等と自車輌との距離などを検出する装置が、例えば特開
昭64−15605号公報や、特開昭59−19648
8号公報に開示されている。
【0003】ところで、可視光の画像を撮影する一般的
なカメラを用いる場合には、撮影される画像が被写体の
照度に応じて大きく変化する。特に、昼間と夜間では全
く異なる。例えば、昼間は先行車輌の全体が画像に映る
のに対して、夜間は先行車輌の点灯したテ−ルランプや
対向車のヘッドライト以外は、ほとんど画像に映らな
い。また、昼間の画像から先行車輌のテ−ルランプを認
識するのは難しい。
【0004】従って、従来の装置では、昼間に撮影され
た画像を良好に認識できたとしても、夜間に撮影された
画像は認識が不可能であり、逆に夜間に撮影された画像
を良好に認識できたとしても、昼間に撮影された画像は
認識が不可能である。特開昭64−15605号公報
は、昼間に撮影された画像を認識するのに適する技術で
あり、一方特開昭59−196488号公報は、夜間に
撮影された画像を認識するのに適する技術である。
【0005】
【発明が解決しようとする課題】例えば自動車は昼/夜
の区別なく走行するので、自動車に搭載される装置につ
いては昼間に撮影される画像と夜間に撮影される画像の
両方について、先行車輌等を認識できることが望まれ
る。昼間と夜間とで、画像認識等の処理のアルゴリズム
を切換えるようにすれば、昼間に撮影される画像と夜間
に撮影される画像の両方について、先行車輌等の認識が
可能である。しかし、昼間に適するアルゴリズムと夜間
に適するアルゴリズムのいずれを選択するかは、重要な
問題である。仮にマニュアルスイッチを設けて、運転者
の判断でスイッチを切換えるようにしたとしても、運転
者の判断やスイッチ操作に誤りが生じないとは限らな
い。適切なアルゴリズムを選択しないと、例えば自車輌
と先行車輌との車間距離の計算に大きな誤りが生じる可
能性がある。
【0006】そこで本発明は、昼/夜などの自動識別に
おいて高い信頼性が得られる移動体上照度識別装置を提
供することを課題とする。
【0007】
【課題を解決するための手段】上記課題を解決するため
に、請求項1では、移動体上に搭載され、少なくとも該
移動体の外部の空を含む景色の2次元画像を撮像し、該
画像の各部の明るさを示す信号を出力する、2次元撮像
手段(6b)を含み、該2次元撮像手段が撮像した2次
元画像の信号に基づいて、移動体の外部環境の明るさを
少なくとも2種類に識別する移動体上照度識別装置にお
いて:前記2次元撮像手段が撮像した2次元画像のう
ち、空の領域に相当すると予想される特定の領域(RG
S)内に、複数の小領域(A1,A2,A3,・・・)
を定める、小領域決定手段(S1);該小領域決定手段
が定めた前記複数の小領域のそれぞれについて、該小領
域の実質上平均的な明るさを2種類以上に識別する、1
次照度識別手段(S2,S3);及び前記複数の小領域
のそれぞれに対する前記1次照度識別手段の識別結果の
全てに基づいて、前記移動体の外部環境の明るさを少な
くとも2種類に識別する2次照度識別手段(S4);を
設ける。
【0008】また、請求項2では、前記小領域決定手段
は、互いに隣接する小領域同士の間に、前記1次照度識
別手段の処理対象から外れた、非参照領域(AG0)を
設けるように各小領域(A1,A2,A3,・・・)の
位置を決定する。
【0009】請求項3では、前記小領域決定手段は、少
なくとも一部分の複数の小領域をそれらの位置が互いに
部分的に重複する状態で位置決めするとともに、各小領
域とその重複部分との面積の比率が2種類以上になるよ
うに、各小領域(A1,A2,A3,・・・)の位置を
決定する。
【0010】請求項4では、前記1次照度識別手段は、
小領域決定手段が定めた前記複数の小領域のそれぞれに
ついて、該小領域を構成する画素群のうち、特定の走査
線の画素を処理対象から除外し、残りの画素群のみにつ
いて、その情報を入力し、それらの実質上平均的な明る
さを2種類以上に識別する。
【0011】請求項5では、前記1次照度識別手段は、
小領域決定手段が定めた前記複数の小領域のそれぞれに
対応付けられた複数の平均値記憶手段(S_av(n
o))を含み、前記複数の小領域のそれぞれについて、
順番に各々の小領域の明るさの平均値を求めてその結果
を対応する平均値記憶手段に記憶し(S2_12)、全ての
小領域についてそれらの明るさの平均値を求めるのに要
する時間よりも短い周期で、全ての小領域について、そ
れらの明るさを平均値記憶手段に記憶された値に基づい
て識別する。
【0012】請求項6では、前記1次照度識別手段は、
小領域決定手段が定めた前記複数の小領域のそれぞれに
対応付けられた複数の1次識別結果記憶手段(S_flag
(i))を含み、前記複数の小領域のそれぞれについての
明るさの識別結果を対応する1次識別結果記憶手段に保
持するとともに、前記1次識別結果記憶手段に保持され
た過去の識別結果に応じて、現在の各小領域の明るさを
識別するために参照するしきい値を2種類以上の値(T
Ha,THb)の中から自動的に選択する。
【0013】請求項7では、前記1次照度識別手段は、
小領域決定手段が定めた前記複数の小領域のそれぞれに
対応付けられた複数の1次識別結果記憶手段(S_flag_
O(i))、および前記複数の小領域のそれぞれに対応付け
られた複数の一致回数カウンタ手段(S_cnt(i))を含
み、前記複数の小領域のそれぞれについての明るさの識
別結果を対応する1次識別結果記憶手段に保持し、前記
1次識別結果記憶手段に保持された過去の識別結果と、
現在の各小領域の明るさの平均値との両者の一致の有無
の時間的な連続性の情報を前記一致回数カウンタ手段に
保持し(S3_17,S3_19)、該一致回数カウンタ手段
の内容に応じて、各小領域の明るさを識別する(S3_2
1,S3_23)。
【0014】請求項8では、前記1次照度識別手段は、
前記1次識別結果記憶手段に保持された過去の識別結果
に応じて、現在の各小領域の明るさを識別するために参
照するしきい値を2種類以上の値の中から自動的に選択
する。
【0015】請求項9では、前記2次照度識別手段は、
前記1次照度識別手段の識別結果として特定の値が得ら
れた小領域の数を計数する照度カウンタ手段(cnt)
を含み、識別対象の前記複数の小領域の総数に応じたし
きい値(THN)と、前記照度カウンタ手段の内容とを
比較し、その結果を2次識別結果(S_night)として出
力する(S4_8,S4_9,S4_10)。
【0016】請求項10では、前記2次照度識別手段
は、前記複数の小領域のそれぞれに対応付けられた複数
の2次識別結果記憶手段(S_night_O(i))、および前
記複数の小領域のそれぞれに対応付けられた複数の2次
一致回数カウンタ手段(S_cnt_n)を含み、前記複数の
小領域のそれぞれについての前記2次識別結果を前記2
次識別結果記憶手段に保持し、前記2次識別結果記憶手
段に保持された過去の2次識別結果と、現在の各小領域
に関する2次識別結果との両者の一致の有無の時間的な
連続性の情報を前記2次一致回数カウンタ手段に保持し
(S4_16)、該2次一致回数カウンタ手段の内容に応じ
て、最終識別結果(S_night(i))を出力する(S4_1
8,S4_20)。
【0017】請求項11では、前記2次照度識別手段
は、前記複数の小領域のそれぞれに対応付けられた複数
の重み係数を保持する重み係数保持手段(S_k(i)),
識別対象の前記複数の小領域の重み係数を積算する係数
積算手段(THN),および前記1次照度識別手段の識
別結果として特定の値が得られた小領域の数を計数する
照度カウンタ手段(cnt)を含み、前記係数積算手段
によって求められた係数と、前記照度カウンタ手段の内
容とに基づいて、2次識別結果(S_night)を求める。
【0018】請求項12では、前記2次照度識別手段
は、前記複数の小領域のそれぞれに対応付けられた複数
の2次識別結果記憶手段(S_night_O(i))、および前
記複数の小領域のそれぞれに対応付けられた複数の2次
一致回数カウンタ手段(S_cnt_n)を含み、前記複数の
小領域のそれぞれについての前記2次識別結果を前記2
次識別結果記憶手段に保持し、前記2次識別結果記憶手
段に保持された過去の2次識別結果と、現在の各小領域
に関する2次識別結果との両者の一致の有無の時間的な
連続性の情報を前記2次一致回数カウンタ手段に保持し
(S4_16)、該2次一致回数カウンタ手段の内容に応じ
て、最終識別結果(S_night(i))を出力する(S4_1
8,S4_20)。
【0019】なお上記括弧内に示した記号は、後述する
実施例中の対応する要素の符号を参考までに示したもの
であるが、本発明の各構成要素は実施例中の具体的な要
素のみに限定されるものではない。
【0020】
【作用】移動体上に搭載した2次元撮像手段(6b)に
より空を含む例えば前方の景色を2次元画像として撮影
し、得られた画像情報に基づいて、昼間と夜間との照度
の違いを識別することが可能である。特に、画像中の空
の部分の明るさは、昼間と夜間とで大きく異なるので、
空の部分の明るさを識別することにより、昼間と夜間と
を識別しうる。
【0021】しかしながら、移動体が走行するので、2
次元撮像手段を移動体上に固定したとしても、得られる
画像内の空の位置は一定ではない。また、画像内の通常
は空が映る領域、例えば画像内の上側1/3の領域を空
に対応付けたとしても、誤った識別結果が得られる可能
性がある。
【0022】例えば、自動車が夜間に道路を走行してい
る時には、2次元撮像手段によって得られる2次元画像
の空の領域の明るさは、通常は非常に暗いが、街灯の明
かりなどが画像内に入ると、空の一部分が昼間と同等の
明るさになる。その位置は画像上で一定ではないので、
特定の位置に注目して明るさを識別すると、誤った識別
結果が得られる可能性がある。
【0023】本発明においては、小領域決定手段(S
1)が、2次元撮像手段が撮像した2次元画像のうち、
空の領域に相当すると予想される特定の領域(RGS)
内に、複数の小領域(A1,A2,A3,・・・)を定
める。1次照度識別手段(S2,S3)は、前記複数の
小領域のそれぞれについて、該小領域の実質上平均的な
明るさを2種類以上に識別する。また、2次照度識別手
段(S4)は、前記複数の小領域のそれぞれに対する前
記1次照度識別手段の識別結果の全てに基づいて、前記
移動体の外部環境の明るさを少なくとも2種類に識別す
る。従って、例えば街灯のようなノイズ画像の影響によ
って、複数の小領域の一部分について、1次照度識別手
段の識別結果に誤り(夜間なのに空が明るい)が生じた
場合であっても、他の小領域に関する1次照度識別手段
の正しい識別結果に基づいて、2次照度識別手段(S
4)は、正しい識別結果を出力することができる。
【0024】また、請求項2では、互いに隣接する小領
域同士の間に、前記1次照度識別手段の処理対象から外
れた、非参照領域(AG0)を設けるように各小領域
(A1,A2,A3,・・・)の位置が決定される。つ
まり、空の領域(RGS)の全体を参照するのではな
く、一部の小領域として割り当てた箇所のみを参照して
明るさを識別する。これにより、画像中の参照すべき画
素数が減るので、1次照度識別手段の処理に要する時間
を短縮することができる。
【0025】また、請求項3では、各小領域(A1,A
2,A3,・・・)の配置については、少なくとも一部
分の複数の小領域の位置が互いに部分的に重複する状態
に定めるとともに、各小領域とその重複部分との面積の
比率が2種類以上になるように各小領域を配置する。こ
のようにすると、1次照度識別手段が出力する各小領域
の識別結果に、画像中の位置に応じた重み付けを持たせ
ることができる。例えば、各小領域の位置が上になるほ
ど、重複部分の面積の比率を大きくするように各小領域
の位置を定めると、ノイズ画像が現われにくい画像上方
の領域の重みを大きくして、より信頼性の高い識別結果
を得られる。
【0026】また請求項4では、前記複数の小領域のそ
れぞれについて、それを構成する画素群のうち、特定の
走査線の画素を処理対象から除外し、残りの画素群のみ
について、その情報を入力し、それらの実質上平均的な
明るさを2種類以上に識別するように、1次照度識別手
段を構成する。このようにすれば、小領域内の全ての画
素を処理する必要がないので、1次照度識別手段の処理
に要する時間が短縮される。
【0027】また請求項5では、前記複数の小領域のそ
れぞれについて、順番に各々の小領域の明るさの平均値
を求めてその結果を対応する平均値記憶手段に記憶する
とともに、全ての小領域についてそれらの明るさの平均
値を求めるのに要する時間よりも短い周期で、全ての小
領域について、それらの明るさを平均値記憶手段(S_
av(no))に記憶された値に基づいて識別するように
1次照度識別手段を構成する。このようにすると、参照
すべき全小領域の総画素数が多い場合であっても、全小
領域の明るさの平均値を計算する前に、識別結果を出力
することができるので、短い周期で識別結果を得ること
ができる。
【0028】また請求項6では、前記複数の小領域のそ
れぞれについての明るさの識別結果を対応する1次識別
結果記憶手段(S_flag(i))に保持するとともに、前記
1次識別結果記憶手段に保持された過去の識別結果に応
じて、現在の各小領域の明るさを識別するために参照す
るしきい値を2種類以上の値(THa,THb)の中か
ら自動的に選択するように1次照度識別手段を構成す
る。このようにすると、例えば第1の状態と第2の状態
を2値的に識別する場合に、第1の状態から第2の状態
に移る場合と、第2の状態から第1の状態に移る場合と
でしきい値を変えることができるので、ヒステリシス特
性を有する識別結果が得られる。
【0029】また請求項7では、前記複数の小領域のそ
れぞれについての明るさの識別結果を対応する1次識別
結果記憶手段(S_flag_O(i))に保持し、該1次識別結
果記憶手段に保持された過去の識別結果と、現在の各小
領域の明るさの平均値との両者の一致の有無の時間的な
連続性の情報を一致回数カウンタ手段(S_cnt(i))に
保持し、該一致回数カウンタ手段の内容に応じて、各小
領域の明るさを識別するように、1次照度識別手段を構
成する。これによれば、一時的な明るさの変化に反応す
るのを抑制する効果があるので、例えば夜間の街灯の光
や対向車のヘッドライトの光などの影響によって、画像
中の空の領域にノイズ画像、即ち一時的な明るさの変化
が生じたとしても、その影響を受けることなく、正確な
識別結果を出力することができる。
【0030】また請求項8では、1次識別結果記憶手段
に保持された過去の識別結果に応じて、現在の各小領域
の明るさを識別するために参照するしきい値を2種類以
上の値の中から自動的に選択するように、1次照度識別
手段を構成する。これによれば、例えば第1の状態と第
2の状態を2値的に識別する場合に、第1の状態から第
2の状態に移る場合と、第2の状態から第1の状態に移
る場合とでしきい値を変えることができるので、ヒステ
リシス特性を有する識別結果が得られる。
【0031】また請求項9では、前記1次照度識別手段
の識別結果として特定の値が得られた小領域の数が照度
カウンタ手段(cnt)により計数され、識別対象の前
記複数の小領域の総数に応じたしきい値(THN)と、
前記照度カウンタ手段の内容とが比較され、その結果が
2次識別結果(S_night)として出力される。
【0032】また請求項10では、前記複数の小領域の
それぞれについての前記2次識別結果が2次識別結果記
憶手段(S_night_O(i))に保持され、該2次識別結果
記憶手段に保持された過去の2次識別結果と、現在の各
小領域に関する2次識別結果との両者の一致の有無の時
間的な連続性の情報が2次一致回数カウンタ手段(S_c
nt_n)に保持され、該2次一致回数カウンタ手段の内容
に応じた最終識別結果(S_night(i))が出力される。
これによれば、一時的な明るさの変化に反応するのを抑
制する効果があるので、例えば夜間の街灯の光や対向車
のヘッドライトの光などの影響によって、画像中の空の
領域にノイズ画像、即ち一時的な明るさの変化が生じた
としても、その影響を受けることなく、正確な識別結果
を出力することができる。
【0033】また請求項11では、前記複数の小領域の
それぞれに重み係数を対応付けておき、係数積算手段
(THN)により識別対象の前記複数の小領域の重み係
数を積算し、照度カウンタ手段(cnt)により前記1
次照度識別手段の識別結果として特定の値が得られた小
領域の数を計数し、前記係数積算手段によって求められ
た係数と、前記照度カウンタ手段の内容とに基づいて、
2次識別結果(S_night)を求める。これによれば、各
小領域の画像中の位置に応じた重み付けをしたうえで最
終的な明るさが識別されるので、より信頼性の高い識別
結果を得ることが可能である。例えば、画像中の位置が
上になるほど、ノイズ画像が現われにくいので、各小領
域の位置が上になるほど、重み係数を大きくすればより
信頼性の高い識別結果を得られる。
【0034】また請求項12では、前記複数の小領域の
それぞれについての前記2次識別結果が2次識別結果記
憶手段(S_night_O(i))に保持され、該2次識別結果
記憶手段に保持された過去の2次識別結果と、現在の各
小領域に関する2次識別結果との両者の一致の有無の時
間的な連続性の情報が2次一致回数カウンタ手段(S_c
nt_n)に保持され、該2次一致回数カウンタ手段の内容
に応じた最終識別結果(S_night(i))が出力される。
これによれば、一時的な明るさの変化に反応するのを抑
制する効果が得られる。
【0035】
【発明の実施の形態】図1に本発明の第1実施例の構成
を示す。このシステムはマイクロコンピュ−タ(以下C
PUという)1を中心に構成されており、そのバスライ
ンには、制御プログラムが格納された読み出し専用メモ
リ(ROM)2,処理中のパラメ−タが格納される読み
書きメモリ(RAM)3、および、各種構成要素が接続
された入出力ポ−ト(I/O)4,5,6等が接続され
ている。
【0036】テレビカメラ6bは、図2に示すように、
車内のフロントウィンドウの中央上部付近に設置されて
おり、前方のシ−ン、即ち自動車が走行する路面,空,
周囲の物体など含む像を2次元画像として撮影してアナ
ログ映像信号を出力する。このアナログ映像信号は、A
/Dコンバ−タ6cおよびCRTドライバ4aに与えら
れる。A/Dコンバ−タ6cにおいては、テレビカメラ
6bよりのアナログ映像信号を、画像を構成する所定の
画素毎のタイミングで、それぞれサンプリングし、各画
素の信号レベルを256階調(階調0が黒レベル、階調
255が白レベル)のデジタルデ−タ(8ビットの階調
デ−タ)に変換してイメ−ジメモリ5aに与える。この
実施例においては、画像の各フレ−ムは、512×51
2画素で構成される。なお、イメ−ジメモリ5aは、一
画面(512×512画素)の階調デ−タを記憶する領
域を一頁とするとその数頁分の階調デ−タ記憶領域と、
1ビット情報(2値デ−タ)を数画面分記憶する2値デ
−タ記憶領域を有する。
【0037】CPU1は、テレビカメラコントロ−ラ6
aを介してテレビカメラ6bの絞り等を制御し、A/D
コンバ−タ6cの入出力およびイメ−ジメモリ5aの書
込み処理等を同期制御する。テレビカメラ6bは、AG
C(オ−トゲインコントロ−ル)回路を内蔵しているの
で、A/Dコンバ−タ6cに入力されるアナログ映像信
号のレベル(電圧)は、画像中の最も明るい画素が現わ
れるタイミングで、予め定めた最大レベル、即ち図66
に示すVfになるように自動的に調整される。また、A
/Dコンバ−タ6cにおいては、入力信号の最大レベル
Vfがデジタルデ−タの最大の階調255になるよう
に、予めフルスケ−ルレベルが調整されている。
【0038】CRTドライバ4aは、テレビカメラ6b
より与えられたアナログ映像信号が表わす画像(例えば
図16)に、CPU1の制御のもとに与えられるデジタ
ル画像(デジタル出力画像;例えば自車走行レ−ンの
左,右端の白線を近似した直線ならびに前方走行車両と
の車間距離を示す文字,数字情報)を合成した画像を、
車両上のインナ−パネルの中央付近に設置されたモニタ
テレビCRT4bに表示する。
【0039】図3に、CPU1の処理動作の概要を示
す。大略でCPU1は、それ自身に電源が投入されると
入出力ポ−トの初期化,内部レジスタ,内部カウンタの
初期化等(初期化A)を行なった後、一画面のアナログ
画信号を所定周期でデジタル変換してイメ−ジメモリ5
aの入力デ−タメモリ領域に書込む(画像入力B)。こ
れを行なう毎にCPU1は、「画面の校正」C,「昼夜
の判定」Sおよび「ウィンドウ2−1内の車両検出」D
ET1を実行し、このDET1で自車走行レ−ン上に先
行車両を検出しなかった場合にはDET1に加えて「ウ
ィンドウ2−2内の車両検出」DET2を実行する。こ
のDET2でも自車走行レ−ン上に先行車両を検出しな
かった場合には、DET2に加えて更に「ウィンドウ2
−3内の車両検出」DET3を実行する。DET1で
は、「自車レ−ン検出」Dおよび自車レ−ン検出の成否
チェックE、ならびに、自車レ−ン検出が成立(成功)
した場合は「隣接レ−ンの推定」F,「自車レ−ン先行
車認識及び測距」H,「右隣接レ−ン車両認識及び測
距」I,「左隣接レ−ン車両認識及び測距」Jおよび
「出力」Kを、この記載順に実行する。DET2および
DET3でもこれらを同様に実行する。ただし、画像デ
−タが表わす画面上の処理対象領域は異なる。
【0040】そして「出力」Kでは、自車レ−ン端部の
白線を表わす直線,自車レ−ン先行車の検出有無を示す
文字情報,該先行車を囲む4角マ−クおよび該先行車と
の車間距離、右隣接レ−ン車両の検出有無を示す文字情
報,該先行車を囲む4角マ−クおよび該先行車との車間
距離、ならびに、左隣接レ−ン車両の検出有無を示す文
字情報,該先行車を囲む4角マ−クおよび該先行車との
車間距離、を撮影画像に合成してCRT4bに更新表示
すると共に、自車レ−ン端部の白線を表わす直線を示す
デ−タならびに各車間距離を表わすデ−タを、通信コン
トロ−ラ7(図1)を介してホストCPU8に転送す
る。ホストCPU8は、これらの情報を、車間距離制御
(車間距離対応のアクセル制御,オ−バドライブ遮断制
御および又は車輪ブレ−キ圧制御),障害物検知&車輪
ブレ−キ圧制御,レ−ン逸脱警報制御,レ−ン倣い走行
制御(ステアリング制御および又は各輪毎の車輪ブレ−
キ圧制御)等の、走行自動制御に使用する。以下、図3
に示す「画面の校正」C以下「左隣接レ−ン車両認識及
び測距」Jの各項目の内容を詳細に説明する。
【0041】C.「画面の校正」C(図4) この処理の内容を図4に示す。まず「特徴点検出ウィン
ドウセット」C1を実行する。
【0042】C1.「特徴点検出ウィンドウ1セット」
C1(図5) この内容を図5の(a)に示す。図5の(b)に示すよ
うに、テレビカメラ6bの撮影画面(画像デ−タは入力
デ−タメモリにある階調デ−タ)の左上を原点(0,
0)に定めて、一点(0,350)ともう一点(51
1,511)を対角コ−ナとする画像領域を特徴点検出
用の領域(ウィンドウ1)に定める。すなわち、定めよ
うとする領域の左上コ−ナのX座標値0をレジスタXU
Lに、Y座標値511をレジスタYULに、該領域の右
下コ−ナのX座標値511をレジスタXLRに、Y座標
値350をレジスタYLRに書込む(図5の(a)のス
テップ1;以下カッコ内ではステップという語は省略
し、ステップNo.のみを記す)。これらのレジスタの
それぞれのデ−タが示す値を以下、レジスタ記号そのも
ので表わす。
【0043】次に説明する「特徴点検出(UP)」C2
の処理(図6)に対して、上述の「特徴点検出ウィンド
ウセット」C1により、図5の(b)に示すように、2
点鎖線で示すブロック(特徴点検出ウィンドウ1)が、
処理対象領域に指定されたことになる。この領域は、図
5の(b)に示すように、車両のボンネットの先端エッ
ジ像を十分に含むものである。
【0044】次に「特徴点検出(UP)」C2を実行す
る。この内容を図6に示す。
【0045】C2.「特徴点検出(UP)」C2(図
6) ここでは、特徴点検出ウィンドウ1の左下コ−ナ(0,
511)よりY方向2画素上方の画素(0,509)か
ら、Y方向座標値を350まで順次小さくするY方向の
下から上への走査により、該方向(X=0の直線上)に
分布する画素を順次に注目画素に指定して(図6のaの
2〜11)、各注目画素(xs,ys)に関して、それ
より1画素下側の画素(xs,ys+1)と2画素下側
の画素(xs,ys+2)の階調デ−タが表わす輝度の
和と、注目画素(xs,ys)より1画素上側の画素
(xs,ys−1)と2画素上側の画素(xs,ys−
2)の、入力デ−タメモリにある階調デ−タが表わす輝
度の和、の差の絶対値すなわち上下方向(Y方向)の階
調微分値の絶対値を算出する(8)。これを注目画素点
(xs,ys)の階調微分値D(xs,ys)とする。
この階調微分値D(xs,ys)は、図6の(b)に示
すように、注目点(xs,ys)の上側2画素の画像濃
度和と下側2画素の画像濃度和との差の絶対値であるの
で、注目点を境にした上下方向の濃度変化を表わし、画
面上の各像の、水平方向に延びる輪郭線のところで大き
い値となる。この階調微分値D(xs,ys)がしきい
値Th1(設定値)以上であるかをチェックして
(9)、Th1以上であると、イメ−ジメモリ5aのあ
る領域に割り当てている2値デ−タテ−ブルの、注目画
素点(xs,ys)対応アドレスE(xs,ys)に、
「1」を書込む(10)。この情報「1」は、像の水平
方向に延びる輪郭線であることを意味する。Y方向にこ
のような処理を一ライン分(X=0,Y=509〜35
0)行なうと、走査線を右方向に移して(6)、次の一
ライン分(X=1,Y=509〜350)につき同様な
処理を行なう。以下同様に、最後のライン(X=51
1,Y=509〜350)まで同様な処理を行なう。
【0046】以上の処理により、イメ−ジメモリ5aの
2値デ−タテ−ブルE(xs,ys),xs=0〜51
1,ys=509〜350)に、特徴点検出ウィンドウ
1(図5のb)内の像の水平方向に延びる輪郭線を示す
情報が書込まれたことになる。特徴点検出ウィンドウ1
は、ボンネットの先端エッジ像を含む領域に設定されて
いるので、2値デ−タテ−ブルE(xs,ys)にはボ
ンネットの先端エッジを表わす情報が含まれている。こ
の実施例では、ボンネットの先端エッジを直線と見なし
て、次の「ボンネット検出」C3で該直線を検出する。
この内容を図7に示す。
【0047】C3.「ボンネット検出」C3(図7) まず大要を説明するとここでは、公知の「ハフ(Houg
h)変換」を用いて直線を検出する。ハフ変換は、直交
座標系(X−Y座標系;例えば特徴点検出ウィンドウ1
内の画素分布)で表現されている情報(例えば前記2値
デ−タテ−ブルE(xs,ys))を、極座標系(ρ−
θ座標系)で表現する手法であり、 ρ=Xcos(θ)+Ysin(θ) の変換を行なう。X−Y座標系におけるある一点(画
素)はρ−θ極座標系(ρとθを直交2軸の一方と他方
に割り当てる直交座標平面)ではある曲線となり、X−
Y座標系において直線上に乗っている各点をρ−θ座標
系で各曲線で表わすと、これらの曲線は一点で交わる。
この交点をX−Y座標系への変換式に代入することによ
り、X−Y座標系での直線式が得られる。
【0048】したがって、前記2値デ−タテ−ブルE
(xs,ys)上の特徴点情報「1」を有する座標をρ
−θ極座標値に変換し、ρ−θ極座標系において曲線の
交点を求め、この交点をX−Y座標系への変換式に代入
することにより、特徴点を結ぶ直線を求めることができ
る。しかし、単に2点を結ぶ直線はX−Y座標系で直接
に求めることができ、ρ−θ極座標系への変換を行なう
意味はない。ところが、画面上のボンネット輪郭線は、
実際のボンネットの先端輪郭線がカ−ブしているとか、
ボンネットへの光の当り具合などにより画面上カ−ブし
ているとかあるいは粗れており、ボンネット輪郭線を直
線で近似する場合、単に2値デ−タテ−ブルE(xs,
ys)上の特徴点情報「1」がある2点を結ぶ直線を求
めたのでは、近似誤差が大き過ぎるし、ボンネットでな
いものの輪郭線を摘出してしまうこともあり得る。図5
の(b)および図16に示すように、ボンネット輪郭線
は広い領域に分布しているので、2値デ−タテ−ブルE
(xs,ys)上には特徴点情報「1」が多く存在す
る。したがって、該「1」がある2点(画素)を結ぶ直
線は多数得られる。多数得た直線群を代表する右下りの
一直線を確定すると、それはボンネットの先端輪郭線の
右半分を最も良く近似するものである(図7のb)。同
様に、多数得た直線群を代表する左下りの一直線を確定
すると、それはボンネットの先端輪郭線の左半分を最も
良く近似するものである(図7のb)。しかしながらこ
のような統計的処理をX−Y座標系で行なうと処理がき
わめて複雑となる。ところがハフ変換を用いて、2値デ
−タテ−ブルE(xs,ys)上の特徴点情報「1」が
ある座標(特徴点)をρ−θ極座標系へ変換すると、各
特徴点を表わす曲線の交点が2点(ボンネットの右半分
輪郭線と左半分輪郭線に対応)に集中する。したがって
2値デ−タテ−ブルE(xs,ys)の特徴点をハフ変
換し、ρ−θ極座標系上の各点で、曲線が通る度数(一
点を通る曲線の数)をカウントし、度数が最大の点と次
に大きい点の二点を選択して、選択した各点をX−Y座
標系への変換式に代入することによりボンネットの輪郭
線の右半分,左半分を表わす直線式が得られる。この実
施例ではこのような論理に従って、すなわちハフ変換と
ρ−θ極座標系上各点を曲線が通る度数のカウントによ
り、ボンネットの先端輪郭線を検出する。
【0049】ところで、ρ−θ極座標系上各点での曲線
交鎖度数のカウントを、2値デ−タテ−ブルE(xs,
ys)のサイズ対応の大きさのρ−θ極座標系全領域の
各点で行なうと、曲線が通る度数のカウント処理が膨大
となり、直線検出処理に長い時間がかかる。そこでこの
実施例では、2値デ−タテ−ブルE(xs,ys)の最
下端の左右中間点(X=255,Y=511)をρ−θ
極座標系の原点(0,0)に定め、かつ、2値デ−タテ
−ブルE(xs,ys)を左右に2分して、右半分につ
いて、第1ハフ変換で、2値デ−タテ−ブルE(xs,
ys)の特徴点を、低密度(サンプリングピッチが大き
い)ρ−θ極座標系に変換して該極座標系の各点を曲線
が通る度数(一点を通る曲線の数)をカウントし、度数
が最大の点(第1予測点)を求める。次に第2ハフ変換
で、第1予測点を中心とする小範囲のρ−θ領域を設定
し、該領域の大きさの中密度ρ−θ極座標系に2値デ−
タテ−ブルE(xs,ys)の特徴点を変換してこのρ
−θ極座標系の各点を曲線が通る度数をカウントし、度
数が最大の点(第2予測点)を求める。そして第3ハフ
変換で、第2予測点を中心とする更に小範囲のρ−θ領
域を設定し、該領域の大きさの高密度ρ−θ極座標系に
2値デ−タテ−ブルE(xs,ys)の特徴点を変換し
てこのρ−θ極座標系の各点を曲線が通る度数をカウン
トし、度数が最大の点(第3予測点)を求める。そして
この第3予測点で表わされる直線をボンネットの先端輪
郭線の右半分と決定する(図7の12R〜14R)。2
値デ−タテ−ブルE(xs,ys)の左半分について
も、同様に第1ハフ変換,第2ハフ変換および第3ハフ
変換を行って、ボンネットの先端輪郭線の左半分を表わ
す直線を決定する(図7の12L〜14L)。
【0050】次に図7の(a)を参照して、「ボンネッ
ト検出」C3の内容を詳細に説明する。まずボンネット
の先端輪郭線の右半分を近似する直線を検出するための
パラメ−タを設定する(12R)。そして該近似する直
線対応の点(Rm3,Tm3)を検出する(13R)。Rm3
はρ−θ極座標系のρ値、Tm3はθ値である。求めた点
の座標値をレジスタRmR,TmRに格納する(14R)。
同様な処理をボンネットの先端輪郭線の左半分を近似す
る直線を検出するために行なう(12L〜14L)。ハ
フ変換により直線を検出する「直線当てはめ」13R,
13Lの内容は、図17〜図21に示す「直線当ては
め」63の内容と同様であるので、ここでの詳細な説明
は省略する。なお、「直線当てはめ」63は、特徴点検
出ウィンドウ1に接して上側の特徴点検出ウィンドウ2
−1(図16)の領域にある路上の白線像の近似直線を
検出するものであるが、「直線当てはめ」13Rはウィ
ンドウ1の右半分の領域の直線を検出するものであるの
で、処理対象のX−Y座標領域(始点座標値および終点
座標値)は異なる。「直線当てはめ」13Lでも同様に
処理対象のX−Y座標領域が「直線当てはめ」63とは
異なる。また「直線当てはめ」63では、ウィンドウ2
−1の全領域を処理対象領域とし、その内に右端白線と
左端白線が存在するので、度数が最大の点と次に大きい
点の二点(2直線)を求めるが、「直線当てはめ」13
Rと「直線当てはめ」13Lは左,右半分の領域である
ので、それぞれ、度数が最大の点のみを求める。他の処
理は同様である。
【0051】「直線当てはめ」13Rおよび13Lで求
めた直線それぞれは、極座標系の点(RmR,TmR)およ
び(RmL,TmL)で表わされ、これらの直線をX−Y座
標系で表わすと、 RmR=Xcos(TmR)+Ysin(TmR) および RmL=Xcos(TmL)+Ysin(TmL) となる。これらの直線は、図7の(b)に示す如きもの
である。
【0052】C4.「直線交点計算」C4(図4) 図4を再度参照するとCPU1は、上述の「ボンネット
検出」C3を終了すると、「直線交点計算」C4のブロ
ックに接したブロック中に示す計算で、これらの直線の
交点(xc,yc)を算出する。この計算において、X
chは2値デ−タテ−ブルE(xs,ys)の領域のX
方向中央位置(Xch=255)、Ychは最下端位置
(Ych=509)であり、点(Xch,Ych)は前
述の直線検出で極座標原点に定めたものである。
【0053】C5.「ロ−ル角,パン移動量計算」C5
(図8) ここでロ−ル角とは、図8の(a)に示すように、前記
検出した2直線の交わる角を2等分する直線(車両の縦
軸線)と撮影画面のY軸線とのなす角θrであり、テレ
ビカメラ6bの視野中心線と車両の縦軸線が、それらを
水平面に投影した場合になす角度、すなわちテレビカメ
ラ6bの視野中心線の、車両の縦軸線に対するロ−ル方
向のずれ角である。パン移動量Xpは、撮影画面上で
の、該画面を左右に2等分する縦軸線に対する、ボンネ
ット先端中央(前記2直線の交点)の横方向ずれ量であ
る。自車から進行方向前方の車両(先行車両)を見てこ
の車両との車間距離を算出する場合、ロ−ル角θrある
いはパン移動量Xpが大きいと、自車の進行方向から外
れた方向にある車両や物体を自車レ−ン(自車が走行し
ているレ−ン)上の車両等と誤認する確率が高くなる。
この確率を下げるためにはロ−ル角θrおよびパン移動
量Xpが共に零となるように、カメラ6bの取付角を調
整すればよいが、この調整はむつかしくわずらわしい。
したがってある程度のロ−ル角θrおよびパン移動量X
pは避けられない。そこでこの実施例では、「画面の校
正」Cにより、画面上でロ−ル角θrおよびパン移動量
Xpを零に調整するが、この調整代の算出のために、前
述のC1〜C4の処理を行ない、かつここで説明する
「ロ−ル角,パン移動量計算」C5を行なう。ロ−ル角
θrおよびパン移動量Xpの計算式を、図4のブロック
C5に接するブロックに示す。算出したロ−ル角θrは
ロ−ル角レジスタθrに、算出したパン移動量Xpはパ
ン移動量レジスタXpに格納する。
【0054】C6〜8.「画像補正」C6〜8(図4) そして、次の、「補正画像メモリイニシャライズ」C
6,「画像回転平行移動」C7および「補間」C8を含
む「画像補正」により、イメ−ジメモリ5aの、入力デ
−タメモリ(1画面分の階調デ−タ記憶領域)の各画素
の階調デ−タのアドレス(図8の(b)のx,y)を、
ロ−ル角θrおよびパン移動量Xpに対応する回転およ
び平行移動を行なったアドレス(θr=0,Xp=0で
撮影画像を表わす画面座標系のアドレス;図8の(b)
のx’,y’)に変換して、入力デ−タメモリ対応の補
正画像メモリ(イメ−ジメモリ5aの、1画面分の階調
デ−タ記憶領域)に書込む(C6,C7)。
【0055】C6.「補正画像メモリイニシャライズ」
C6(図9) このような回転および平行移動を行なうと、補正した画
面に階調デ−タが存在しない画素が生ずる。このような
画素を後に認識しうるように、「補正画像メモリイニシ
ャライズ」C6では、補正画像メモリの全アドレスに、
撮影画像デ−タ(階調デ−タ)には存在しない「−1」
を表わすデ−タを書込む。その処理の詳細を図9に示
す。
【0056】C7.「画像回転平行移動」C7(図1
0) この処理内容を図10に示す。これにおいては、入力デ
−タメモリのアドレス(x,y);x=0〜511,y
=0〜511、のそれぞれを、撮影画像を表わす画面座
標系(補正画像メモリ)のアドレス(xn,yn);xn=
0〜511,yn=0〜511、に変換して(22〜2
8,30〜33)、入力デ−タメモリのアドレス(x,
y)の階調デ−タを、補正画像メモリの、該アドレス
(x,y)を変換したアドレス(x',y')に書込む
(29)。これにより、補正画像メモリの階調デ−タを
CRT4bに表示すると、図8の(a)に示すロ−ル角
θrおよびパン移動量Xp共に実質上零の、図16に示
す如き画像が表示される。ただし、この「画像回転平行
移動」により、補正画像メモリ上には、階調デ−タが存
在しないアドレス(画素=空白画素)が生じることがあ
り、その場合そこには、上述の「補正画像メモリイニシ
ャライズ」C6により、「−1」を示すデ−タが残存し
ていることになる。
【0057】C8.「補間」C8(図11の(a)&図1
2) 「補間」C8では、階調デ−タが存在しない画素に、そ
の周りの4画素の階調デ−タの平均値を割り当てる。周
り4画素のいずれかが空白画素であると、この割り当て
はしない。この「補間」C8の内容を図11の(a)お
よび図12に示す。これにおいては、補正画像メモリの
アドレス(画素)を順次に指定して、指定した画素(注
目画素)が空白画素(メモリデ−タが「−1」を示すも
の)であるかをチェックして(36)、注目画素が空白
画素であると、図11の(b)に示すように、その左隣
りの画素ロ,右隣りの画素ハ,上側の画素イおよび下側
の画素ニに階調デ−タがあるかをこの順にチェックし、
これら4個の画素の1つでも空白画素であるとそこで、
該注目画素に対する処理は終了(空白画素のまま放置)
し、注目画素を次に移す(39−42,42−46,4
6−50,50−54)。前記4画素を1つづつ階調デ
−タがあるかチェックしたとき、階調デ−タがあるとそ
れを累算レジスタIsの内容に加算し、得た和を累算レ
ジスタIsに更新メモリし(40,44,48,5
2)、回数レジスタNsの内容を1インクレメントする
(41,45,49,53)。前記4個の画素のすべて
についてこれを終了すると、これらの画素の階調デ−タ
の平均値Ic(x,y)を算出して、注目画素にメモリ
する(54,55)。
【0058】以上で、「画面の校正」C(図3)を終了
し、CPU1は次に「昼夜の判定」Sを実行する。この
処理Sは、簡単に言うと、イメ−ジメモリ5a上に存在
する画像デ−タを処理して周囲の明るさを調べ、昼と夜
とを自動的に識別するものであり、その識別結果はフラ
グS_night に反映される。この処理は多少複雑である
ので、便宜上、その詳細な説明は後まわしにする。
【0059】「昼夜の判定」Sに続いて、CPU1は
「ウィンドウ2−1内の車両検出」DET1を実行す
る。このDET1ではまず「自車レ−ン検出」Dを実行
する。
【0060】D.「自車レ−ン検出」D(図13) この内容を図13に示す。まず「特徴点検出ウィンドウ
2−1セット」D1を実行する。
【0061】D1.「特徴点検出ウィンドウ2−1セッ
ト」D1(図14) この内容は、前述の「特徴点検出ウィンドウ1セット」
C1(図5)と類似であるが、ウィンドウ2−1のサイ
ズと位置がウィンドウ1とは異なり、しかも、ウィンド
ウ2−1を適用するメモリは補正画像メモリである。図
14および図16に示すように、ウィンドウ2−1は、
ウィンドウ1の上側に設定される。
【0062】D2.「特徴点検出(UP)」D2 ウィンドウ2−1を設定すると、補正画像メモリ上の該
ウィンドウ2−1内の特徴点を検出する。この内容は前
述の「特徴点検出(UP)」C2と同様であり、「特徴
点検出(UP)」D2でも特徴点を表わす「1」情報
は、2値デ−タテ−ブルE(xs,ys)に書込む。た
だし、検出領域がウィンドウ2−1である点、および、
処理対象デ−タが補正画像メモリ上のデ−タである点、
が異なる。 D3.「左右白線検出」D3(図15) ここでも前述の「ボンネット検出」C3と類似の処理
で、自車レ−ンの右端白線を近似する直線および左端白
線を近似する直線を検出する。ただし、ウィンドウ2−
1がウィンドウ1とサイズおよび位置が異なるので、極
座標原点が異なる(図16)。また、ウィンドウ2−1
は左,右に2分割しないので、左,右端白線の粗検出を
行なう第1回のハフ変換67で、度数最大点と次に大き
い点の2点を検出する点が異なる。先の「ボンネット検
出」C3では、「直線当てはめ」13R,13Lの内容
の詳細な説明を省略しているので、ここで、「直線当て
はめ」63の内容を、詳細に説明する。
【0063】63.「直線当てはめ」63(図17&図
18) この内容を図17および図18に示す。なお、「直線当
てはめ」63は、ウィンドウ2−1の全体に対して適用
される点に注意されたい。ここではまず、2値デ−タテ
−ブルE(xs,ys)上の特徴点をρ−θ極座標系に
変換してこの座標系の各点(r,t)の曲線が通る度数
カウント値を書込む、イメ−ジメモリ5aのある領域に
割り当てたデ−タテ−ブルHGn(r,t)、ここでは
n=1、のデ−タをクリアする(図17の65;詳細は
図19)。次にハフ変換パラメ−タ(変換領域およびハ
フ変換密度)を設定し(図17の66)、第1回のハフ
変換(HG1)を行なう(図17の67;詳細は図2
0)。
【0064】「ハフ変換(HG1)」67(図20) 図20を参照する。これにおいては、2値デ−タテ−ブ
ルE(xs,ys)の、補正画像メモリ対応の一画面の
中のウィンドウ2−1対応領域、すなわち始点が(51
1,350)、終点が(0,250)の領域、に特徴点
(「1」情報)があるかをチェックする(87〜89,
95〜98)。特徴点がある毎に、該点を、X−Y座標
上で原点が(Xch=255,Ych=350)、θが
0〜πの範囲、かつ、θの単位が(π/2)×(1/3
2)の極座標ρ−θ上の位置(r,t)、t=0〜3
1、rは図20のステップ91のブロック中に示す演算
式で算出される値、に変換し、データテーブルHGn
(ここではn=1)の、位置(r,t)対応のアドレス
のデータを1インクレメントする(90〜94)。前に
説明したように、X−Y座標上の一点は極座標ρ−θに
変換すると極座標ρ−θ上では曲線となるので、前記変
換された位置(r,t)は、t=0〜31のそれぞれに
対応する32個(それらの連なりが曲線)となる。デー
タテーブルHGnの、これらの位置(r,t)に割り当
てたアドレスのデータが1インクレメントされるので、
各アドレスのデータは、X−Y座標上の特徴点それぞれ
の、ρ−θ座標上の曲線が通る度数を表わすことにな
る。
【0065】図20のステップ91は、 r={(xs−Xch)・cos〔(t・(Te−Ts)/Td)+Ts〕+ (Ych−ys)・sin〔(t・(Te−Ts)/Td)+Ts〕−Rs}×Rd/(Re−Rs)・・・(1) を算出して、算出値rをレジスタrに格納することを意
味する。この(1)式を変形すると次の(1a)式となる。
【0066】 r/Rd/(Re−Rs)+Rs= (xs−Xch)・cos〔(t・(Te−Ts)/Td)+Ts〕 +(Ych−ys)・sin〔(t・(Te−Ts)/Td)+Ts〕 ・・・(1a) これは次の(1b)式で表わすことができる。
【0067】 r/d+c= (xs−Xch)・cos(a・t+b) +(Ych−ys)・sin(a・t+b) ・・・(1b) ここで、a=(Te−Ts)/Td,b=Ts,c=Rs,d=Rd/
(Re−Rs)である。
【0068】この(1)式において、(Xch,Ych)は、極座標
原点のX−Y座標上の位置であり、ここでは Xch=255、Ych=350 である。xsは特徴点の、X−Y座標上のX座標値、y
sはY座標値である。
【0069】ここで、 θ=〔(t・(Te−Ts)/Td)+Ts〕 と表わすと、図15のステップ62と図17のステップ
66での設定により、 (Te−Ts)/Td=π/32、 Ts=0 であるので、 θ=t・π/32 =(π/32)t a=π/32,b=0,c=0,d=1/8 であり、t=0〜31であるので、θ=0,θ=π/3
2,θ=2π/32,θ=3π/32,・・・,31π
/32と、π/32を最小単位として32点のρ値rが
算出される。すなわちこの第1ハフ変換では、ウィンド
ウ2−1の領域の特徴点各点が、θがπ/32を最小単
位とし、かつ0以上π未満の範囲の極座標平面上の位置
(r,t)に変換される。
【0070】上記(1)式の、Rd/(Re−Rs)は、図15のス
テップ62と図17のステップ66での設定により、 Rd/(Re−Rs)=32/256 である。これは、θ=π/32をtの1単位としている
ので、すなわち、πを32分割しているので、これに対
応してρの範囲0〜256も同様に32分割するもので
ある。すなわちrの一単位は256/32である。
【0071】要約すると、「ハフ変換(HG1)」67
では、(1)式は具体的には次の(1-1)式である。
【0072】 r={(xs−255)・cos〔(t・(π/32)〕+(350−ys)・sin〔(t・(π/32)〕}×1/ 8 ・・・(1-1) これを(1b)式の形に変形して、 r/d1+c1= (xs−Xch)・cos(a1・t+b1) +(Ych−ys)・sin(a1・t+b1) ・・・(1-1b) で表わすと、a1=π/32,b1=0,c1=0,d1
1/8 である。
【0073】このように第1ハフ変換では、ρ−θ極座
標のθの単位をπ/32と粗いものとし、しかもρの単
位を256/32と粗いものとしているので、1つの特
徴点(xs,ys)をρ−θ極座標に変換する演算回数
(tの切換回数32すなわち(1)式の演算を行なう回数)
が極く少く、rデータビット数が少く、特徴点各点をρ
−θ極座標へ変換する速度が速く、かつ、度数カウント
処理速度が速い。
【0074】図17を再度参照すると、CPU1は、第
1回のハフ変換である「ハフ変換(HG1)」67を終
了すると、「最大点探索(HG1)」68を実行する。
その内容を図21に示す。
【0075】「最大点探索(HG1)」68(図21) 前述のデータテーブルHGn(ここではn=1)の各ア
ドレス(r,t)のデータ(度数)を順次に読出して
(図21の99,100,105〜108)、読出した
データをレジスタGmのデータと比較して、読出しデー
タの方が大きいと読出しデータをレジスタGmに更新メ
モリし、かつこの時読出しデータのアドレス(r,t)
のrはレジスタrm11に、tはレジスタtm11に更新メモ
リする(101〜104)。読出しデ−タがGmより小
さいと、読出しデ−タをレジスタGmnのデ-タと比較し
て、読出しデータの方が大きいと読出しデータをレジス
タGmnに更新メモリし、かつこの時読出しデータのアド
レス(r,t)のrはレジスタrm12に、tはレジスタ
tm12に更新メモリする(102A〜102C)。デー
タテーブルHGnのすべてのアドレスに対してこのよう
な処理を終了すると、レジスタGmにはデータテーブル
HGnにある度数の最大値が、レジスタrm11,tm11に
は該最大値があるアドレス(rm11,tm11)が格納され
ていることになる。レジスタGmnにはデータテーブルH
Gnにある度数の最大値の次に大きい値が、レジスタr
m12,tm12には該最大値があるアドレス(rm12,tm1
2)が格納されていることになる。
【0076】図17を再度参照すると、CPU1は、
「最大点探索(HG1)」68を終了すると、r−t極
座標系で表現された前記アドレス(rm11,tm11)を、
X−Y座標系画面に対応するρ−θ極座標系アドレス
(Rm11,Tm11)に変換する(69R)。ここでは、 Rm11=rm11・(Re1−Rs1)/Rd1 ・・・(2) Tm11=tm11・(Te1−Ts1)/Td1 ・・・(3) を算出して、算出したRm11をレジスタRm11に、算出し
たTm11をレジスタTm11に格納する。同様に、アドレス
(rm12,tm12)を、X−Y座標系画面に対応するρ−
θ極座標系アドレス(Rm12,Tm12)に変換する(69
L)。図15のステップ62および図17のステップ6
6での設定により、ここでは、 (Re1−Rs1)=256 Rd1=32 (Te1−Ts1)=π Td1=32 であり、(2)式は、Rm11=8・rm11 を意味し、(3)式
は、Tm11=(π/32)・tm11を意味する。アドレス(Rm
11,Tm11),(Rm12,Tm12)をX−Y座標系への変
換式に代入すると、補正画像メモリの画像データを表示
する画面上の、ウィンドウ2−1の領域にある、2直線
(低密度ハフ変換67により検出した直線:以下第1回
検出の直線と称す)を示す式が得られる。
【0077】次にCPU1は、イメージメモリ5aのあ
る領域に割り当てたデータテーブルHGn(r,t)、
ここではn=2、のデータをクリアする(図17の70
R)。次に第2回のハフ変換である「ハフ変換(HG
2)」72Rの変換パラメータを設定する(図17の7
1R)。前述の第1回のハフ変換ではθの範囲Ts〜T
eを0〜π、単位(Te−Ts)/Tdをπ/32と
し、ρの範囲Rs〜Reは0〜256、単位Rd/(R
e−Rs)を1/8としたが、ここでは、θおよびρの
範囲を、前記(Rm11,Tm11)を中心とする小範囲に設
定し、θおよびρの単位も小さく設定する。具体的に
は、 Rs=8(rm11−2) Re=8(rm11+2) Rd=32 Ts=(π/32)(tm11−2) Te=(π/32)(tm11+2) Td=32 を設定する。なお、rm11=Rm11/8,tm1=Tm11/
(π/32)である。そして「ハフ変換(HG2)」72R
を行なう。
【0078】「ハフ変換(HG2)」72R この「ハフ変換(HG2)」72Rの内容は、図20を
参照して説明した「ハフ変換(HG1)」67と同様で
あるが、図20中で、n=2である点と、ブロック91
内の演算式(前述の(1)式)の内容が異なる。ステップ7
1Rで設定したパラメータに基づいた、図20のステッ
プ91の演算式すなわち前記(1)式は具体的には次の(1-
2)式となる。
【0079】 r={(xs−255)・cos〔t・(π/256)+π(tm11−2)/32〕+ (350−ys)・sin〔t・(π/256)+π(tm11−2)/32〕−8(rm11−2)}×(1/1 ) ・・・(1-2) これを(1b)式の形に変形して、 r/d2+c2= (xs−Xch)・cos(a2・t+b2) +(Ych−ys)・sin(a2・t+b2) ・・・(1-2b) で表わすと、前述の第1回の変換で、 a1=(π/32), b1=0, c1=0,
1=1/8 に対して、 a2=(π/256),b2=π(tm11−2)/32,c2=8(rm11
−2),d2=1 となる。
【0080】t=0〜31であるので、 θ= π(tm11−2)/32, θ= (π/256)+π(tm11−2)/32, θ= 2(π/256)+π(tm11−2)/32, θ= 3(π/256)+π(tm11−2)/32, ・・ ・ θ=31(π/256)+π(tm11−2)/32, と、(π/256)を最小単位として32点のθに対応するρ
値rが算出される。すなわちこの第2ハフ変換では、ウ
ィンドウ2−1の領域の特徴点各点が、θが(π/256)を
最小単位(tの1単位がπ/256)とし、かつθ=π(tm
11−2)/32 以上θ=31(π/256)+π(tm11−2)/32 以下
の範囲の極座標平面上の位置(r,t)に変換される。
ρの範囲は8(rm11−2)以上8(rm11+2)以下
で、ρの単位はこの範囲を32分割するものである。す
なわちrの1単位は32/32=(1/1)=1である。し
たがって、第2ハフ変換(72R)はウィンドウ2−1
の特徴点を、第1ハフ変換(67)よりも、狭い範囲か
つ高い密度の極座標に変換するものである。特徴点の1
つの極座標変換では、この第2ハフ変換(72R)でも
t=0〜31、すなわち32回の演算を行なうので、第
1ハフ変換(67)と処理時間は同程度である。1つの
特徴点(xs,ys)をρ−θ極座標に変換する演算回
数が極く少く、rデータビット数が少く、特徴点各点を
ρ−θ極座標へ変換する速度が速く、かつ、度数カウン
ト処理速度が速い。
【0081】図17を再度参照すると、CPU1は、第
2回のハフ変換である「ハフ変換(HG2)」72Rを
終了すると、「最大点探索(HG2)」73Rを実行す
る。その内容は前述の、「最大点探索(HG1)」68
と同様である。ただしn=2である。この処理を終了す
ると、レジスタGmにはデータテーブルHGnにある度
数の最大値が、レジスタrm2,tm2には該最大値がある
アドレス(rm2,tm2)が格納されていることになる。
【0082】図17を再度参照すると、CPU1は、
「最大点探索(HG2)」73Rを終了すると、r−t
極座標系で表現された前記アドレス(rm2,tm2)を、
X−Y座標系画面に対応するρ−θ極座標系アドレス
(Rm2,Tm2)に変換する(74R)。演算式は、 Rm2=rm2・(Re2−Rs2)/Rd2+Rs2 ・・・(4) Tm2=tm2・(Te2−Ts2)/Td2+Ts2 ・・・(5) である。算出したRm2をレジスタRm2に、算出したTm2
をレジスタTm2に格納する(74R)。図17のステッ
プ71Rでの設定により、ここでは、 (Re2−Rs2)=32 Rd2=32 (Te2−Ts2)=π/8 Td2=32 であり、(4)式は、具体的には、 Rm2=rm2+8rm11−16 ・・・(4-1) であり、(5)式は、具体的には、 Tm2=tm2・(π/256)+(π/32)・(tm11−2) ・・・(5-1) を意味する。アドレス(Rm2,Tm2)をX−Y座標系へ
の変換式に代入すると、補正画像メモリの画像データを
表示する画面上の、ウィンドウ2の領域にある、1つの
直線(中密度ハフ変換72Rにより検出した直線:以下
第2回検出の直線と称す)を示す式が得られる。
【0083】次にCPU1は、イメージメモリ5aのあ
る領域に割り当てたデータテーブルHGn(r,t)、
ここではn=3、のデータをクリアする(図17の75
R)。次に第3回のハフ変換である「ハフ変換(HG
3)」77Rの変換パラメータを設定する(図18の7
6R)。ここでは、θおよびρの範囲を、前記「ハフ変
換(HG2)」72Rの場合よりも、前記(Rm2,Tm
2)を中心とする更に小さい範囲に設定し、θおよびρ
の単位も小さく設定する(76R)。具体的には、 Rs=rm2+8rm11−18 Re=rm2+8rm11−14 Rd=32 Ts=(π/256)tm2+(π/32)tm1−9π/128 Te=(π/256)tm2+(π/32)tm1−7π/128 Td=32 を設定する。なお、rm2,tm2は、Rm2,Tm2に対して
上記(4-1)式,(5-1)式で規定されるものである。そして
「ハフ変換(HG3)」77Rを行なう。
【0084】「ハフ変換(HG3)」77R この「ハフ変換(HG3)」77Rの内容は、前述の
「ハフ変換(HG2)」72Rと同様であるが、図20
中に示すハフ変換処理で、n=3である点と、図20中
のブロック91内の演算式(前述の(1)式)の内容が異な
る。ステップ76Rで設定したパラメータに基づいた、
図20のステップ91の演算式すなわち前記(1)式は、
この「ハフ変換(HG3)」77Rでは、具体的には次
の(1-3)式となる。
【0085】 r={(xs−255)・cos〔t・(π/2048)+(π/256)tm2+(π/32)tm11−9π/128 〕 +(350−ys)・sin〔t・(π/2048)+(π/256)tm2+(π/32)tm11−9π/128 〕 −rm2−8rm11+18}×8 ・・・(1−3) これを(1b)式の形に変形して、 r/d3+c3= (xs−Xch)・cos(a3・t+b3) +(Ych−ys)・sin(a3・t+b3) ・・・(1-3b) で表わすと、前述の第1回および第2回の変換で、 a1=(π/32), b1=0, c1=0,
1=1/8 a2=(π/256),b2=π(tm11−2)/32,c2=8(rm11
−2),d2=1 に対して、 a3=(π/2048),b3=(π/256)tm2+(π/32)tm11−9
π/128,c3=rm2+8rm11−18,d3=8 となる。
【0086】t=0〜31であるので、 θ= (π/256)tm2+(π/32)tm11−9π/128, θ= (π/2048)+(π/256)tm2+(π/32)tm11−9π/128, θ= 2(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, θ= 3(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, ・ ・ ・ θ=31(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, と、(π/2048)を最小単位として32点のθ(t=0〜
31)に対応するρ値rが算出される。すなわちこの第
3ハフ変換では、ウィンドウ2−1の特徴点各点が、θ
が(π/2048)を最小単位(tの1単位がπ/2048)とし、
かつθ=(π/256)tm2+(π/32)tm11−9π/128以上 θ
=31(π/2048)+(π/256)tm2+(π/32)tm11−9π/128
以下 の範囲の極座標平面上の位置(r,t)に変換さ
れる。ρの範囲はRs=rm2+8rm11−18 以上 Re=r
m2+8rm11−14 以下で、ρの単位はこの範囲を32分
割するものである。すなわちrの1単位は4/32=(1
/8)である。したがって、第3ハフ変換(77R)はウ
ィンドウ2−1の特徴点を、第2ハフ変換(72R)よ
りも、更に狭い範囲かつ高い密度の極座標に変換するも
のである。特徴点の1つの極座標変換では、この第3ハ
フ変換(77R)でもt=0〜31であるので、32回
の演算を行なうので、第2ハフ変換(72R)と処理時
間は同程度である。1つの特徴点(xs,ys)をρ−
θ極座標に変換する演算回数が極く少く、rデータビッ
ト数が少く、特徴点各点をρ−θ極座標へ変換する速度
が速く、かつ、度数カウント処理速度が速い。
【0087】図18を参照すると、CPU1は、第3回
のハフ変換である「ハフ変換(HG3)」77Rを終了
すると、「最大点探索(HG3)」78Rを実行する。
その内容は前述の、「最大点探索(HG1)」68と同
様である。ただしn=3である。この処理を終了する
と、レジスタGmにはデータテーブルHGnにある度数
の最大値が、レジスタrm3,tm3には該最大値があるア
ドレス(rm3,tm3)が格納されていることになる。
【0088】図18を参照すると、CPU1は、「最大
点探索(HG3)」78Rを終了すると、r−t極座標
系で表現された前記アドレス(rm3,tm3)を、X−Y
座標系画面に対応するρ−θ極座標系アドレス(Rm3
1,Tm31)に変換する(79R)。演算式は、 Rm31=rm3・(Re3−Rs3)/Rd3+Rs3・・・(6) Tm31=Tm3・(Te3−Ts3)/Td3+Ts3・・・(7) である。算出したRm31をレジスタRm31に、算出したT
m31をレジスタTm31に格納する(79R)。図18のス
テップ76Rの設定により、ここでは、 (Re3−Rs3)=4 Rd3=32 (Te3−Ts3)=π/64 Td3=32 であり、(6)式は、具体的には、 Rm31=(1/8)・rm3+rm2+8rm11−18 ・・・(6-1) であり、(7)式は、具体的には、 Tm31=(π/64)・tm3+(π/256)tm2+(π/32)tm11−9π/128 ・・・(7-1) を意味する。アドレス(Rm31,Tm31)をX−Y座標系
への変換式に代入すると、補正画像メモリの画像データ
を表示する画面上の、ウィンドウ2-1の、1つの直線
(高密度ハフ変換77Rにより検出した直線:以下第3
回検出の直線と称す)を示す式が得られる。
【0089】以上でウィンドウ2−1内の、粗いハフ変
換(67)で検出した2直線(rm11,tm11)および(rm12,T
m12)の、第1直線(rm11,tm11)を検出したことになり、
この直線は、右端白線又は左端白線である。上述のステ
ップ70R〜79Lの処理を同様に第2直線(rm12,Tm1
2)に適用して、第2直線を精細に検出する(図18の7
0L〜79L)。
【0090】以上で図15に示す「直線当てはめ」63
(内容は図17&図18)を終了したことになり、ウィ
ンドウ2−1領域にある画像中の2直線(最も代表的な
直線と、次に代表的な直線)を表わす直線式を得たこと
になる。ウィンドウ2−1は、自車レーンの、自車直近
領域の左,右端の白線を検出するに最も適した領域に設
定されており、ウィンドウ2−1領域に右端白線および
左端白線の像があると、第3回検出の直線はこの白線を
近似する直線である確率が高い。したがって、「直線当
てはめ」63は、自車レーンの左,右端白線の検出であ
る。
【0091】図15を再度参照すると、CPU1は、次
に、検出した2直線を表わすデータ(Rm31,Tm31),
(Rm32,Tm32)の傾斜角を比較して(64A)、左上
りの直線を右直線レジスタ(RmR,TmR)に、右左上り
の直線を左直線レジスタ(RmL,TmL)に格納する(6
4B,64C)。以上で「左右白線検出」D3を終了す
る。CPU1は次に、「無限遠点計算」D4を行なう。
この内容を図22に示す。
【0092】D4.「無限遠点計算」D4(図22) ここではまず、「直線交点計算」109で、レジスタR
mR,TmRのデータが表わす直線(自車レーン右端白線と
推定した)と、レジスタRmL,TmLのデータが表わす直
線(自車レーン左端白線と推定した)との交点(xc,
yc)を算出する。次に、算出した交点(xc,yc)
が、過去に算出した交点データを時系列で重み付け平滑
化(平均化)して得ている無限遠点(Xv,Yv)を中
心とする横60画素×縦60画素の領域内に存在するか
をチェックする(110,111)。この領域内である
と、今回求めた交点(xc,yc)が無限遠点である信
頼性が高いので、無限遠点データ(Xv,Yv)を、今
回求めた交点(xc,yc)に1/8の重み付けをし、
これまでの無限遠点データ(Xv,Yv)に7/8の重
み付けをして加算した値に更新する(112)。そし
て、無限遠点追跡に失敗した回数をカウントするための
レジスタNveをクリアする(113)。
【0093】今回算出した交点(xc,yc)が、前記
横60画素×縦60画素の領域内にないときには、無限
遠点追跡が失敗(今回の交点算出がエラー又はこれまで
の無限遠点データ(Xv,Yv)がエラー)であるとし
て、レジスタNveの内容を1インクレメントし(11
4)、レジスタNveの内容が5になったかをチェックす
る(115)。5になっていると、今回と過去4回の計
5回連続して交点算出がエラーであったことになり、こ
れは現在保待している無限遠点データ(Xv,Yv)が
エラーであると見なして、無限遠点データ(Xv,Y
v)を今回算出した交点(xc,yc)に更新する(1
16)。
【0094】D5.「左右白線間隔(WL)計算」D5
(図13&図23) 再度図13を参照すると、CPU1は次に、自車レーン
の右白線と左白線との間隔(レーン幅)WLを算出する
(D5)。これにおいては、カメラ6bの視野中心線
(図23の2点鎖線)が路面と交わる位置(画面上では
画面の中心点)での、画面上の右端白線(RmR,TmR)
のX位置を路面上位置XRに変換し、画面上の左端白線
(RmL,TmL)のX位置を路面上位置XLに変換して、
間隔WL=XR−XLを算出する。なお、図13の演算ブ
ロックD5内の、SxおよびSyはそれぞれカメラ6b
の横方向および縦方向のスケールファクタであり、Hc
は図23に示すように、カメラ6bのレンズ9の中心
の、路面からの高さである。
【0095】CPU1は次に、算出した、路面上のレー
ン間隔WLが正しい(自車レーン検出成功)かをチェック
する(D6)。すなわち、基準値WL3Dに対するWLの偏
差が、許容範囲DWL内であるかをチェックする。この実
施例では、日本の高速道路のレーン幅が3.5±0.2
mであるので、基準値WL3D=3.5mに、許容値DWL
=0.3mに定めている。
【0096】基準値WL3Dに対するWLの偏差が許容範囲
DWL内にあると、自車レーン検出に成功しているとし
て、これを表わす情報「1」をレジスタFLに書込み
(61)、基準値WL3Dに対するWLの偏差が許容範囲D
WLを外れていると、自車レーン検出に失敗しているとし
て、これを表わす情報「0」をレジスタFLに書込む
(62)。以上で、図3に示す「自車レーン検出」Dを
終了したことになり、自車レーン検出が成功している
と、レジスタFLのデータは「1」である。
【0097】再度図3を参照する。「自車レーン検出」
Dを終了するとCPU1は、レジスタFLのデータをチ
ェックしてそれが「1」であると、「隣接レーン推定」
Fを実行する。この内容を図24に示す。
【0098】F.「隣接レーン推定」F(図24&図2
5) 図24を参照すると、ここではまずカメラ6bの下向き
角αを算出する(117)。ステップ117の計算式中
のYoは画面中心のY座標値、Ychは「画面の校正」
Cの「直線交点計算」C4で定めた画面下端のY座標値
である。次に、車両の進行方向に対する自車レーンの右
端白線のなす角φRおよび左端白線のなす角φLを算出し
て、それらの平均値φを算出する。「画面の校正」Cを
終えた画面(補正画像メモリの画像)では、先の「画面
の校正」Cで、車両進行方向が画面を左右に2等分する
中央線(Y=255)に合致しているので、φRはこの
線に対して右端白線が交鎖する角度、φLは左端白線が
交鎖する角度である。図25に示すように、それらの平
均値φの角度の直線が、自車レ−ンの中央線である。次
のステップ119には、カメラ6bの視野中心線が路面
と交わる点に対する右端白線の距離XRおよび左端白線
の距離XLを算出する式を示すが、これらXRおよびXL
は、「左右白線間隔(WL)計算」D5で算出している
ので、そこでの算出値を用いる。次に、自車レ−ン右端
白線の右側のレ−ン(右隣接レ−ン)の右端白線の有無
にかかわらず、これが存在すると仮定して、XRの点を
水平方向右側にレ−ン幅WL(D5で算出済)をとった
点と、無限遠点とを結ぶ直線が、右レ−ンの右端白線で
あるとして、その直線を表わす式Y=AX+Bの比例項
係数Aの値Aex1(水平線(X軸)となす角TmRRのta
n値)を算出し、定数項Bの値Bex1を算出する(12
0)。同様にして、左レ−ンの左端白線を表わす値Aex
2およびBex2を算出する(121)。そしてこれらの値
Aex1,Bex1およびAex2,Bex2を、それぞれρ−θ極
座標に変換する(122,123)。以上で、自車走行
レ−ンの両端白線(2直線)に加えて、左隣接レ−ンお
よび右隣接レ−ンを規定する2直線を更に追加決定した
ことになる。
【0099】再度図3を参照する。「隣接レ−ン推定」
Fを終了するとCPU1は、CPU1は、「自車レ−ン
先行車両認識及び測距」Hを実行する。この内容を図2
8に示す。
【0100】H.「自車レ−ン先行車両認識及び測距」
H(図28&図29〜46) ここではまず「車両候補位置の検出1」H1を実行す
る。この内容を図29に示す。
【0101】H1.「車両候補位置の検出1」H1(図
29) まず「特徴点メモリクリア」131で、補正画像メモリ
の画素(アドレス)数と対応する画素数の、多階調デ−
タメモリD(x,y)および2値デ−タメモリE(x,
y)をクリアする。その処理の詳細を図30に示す。次
に「水平特徴点の検出1」132を実行する。この内容
を図31に示す。
【0102】「水平特徴点の検出1」132 図31および図26を参照するとここでは、図26に示
される画面上の、Y=350の横線(Y=350を通るX
軸平行線)を低辺とし、自車レ−ンの左,右端白線がY
=230(ウィンドウ2−2内:図26参照)と交わる
2点を結ぶ横線を頂辺とする台形のウィンドウ領域(図
26に縦線で塗りつぶして示す領域=自車レ−ン領域)
の、X=XvcなるY軸平行線で区分される左半分領域を
規定して、該左半分領域の内部を、下から上へY方向走
査し、X位置を更新しつつこの走査を繰返して(図31
の146L〜150L,152L〜153L)、補正画
像メモリ上の画像デ−タのY方向微分値を算出し、微分
値がしきい値以上の点を特徴点と検出する(151
L)。すなわち「1ライン水平特徴点検出」151Lを
実行する。この内容を図32に示す。この処理151L
は、図6に示す「特徴点検出(UP)」C2と良く似て
いるが、特別な処理としてステップ154Aおよび15
4Bが追加されている。
【0103】ステップ154Aでは、フラグS_night
を参照することにより、昼か夜かを識別し、S_night
=1であれば、夜間であるので次のステップ154Bを
実行する。ステップ154Bは昼間は実行されない。ス
テップ154Bでは、y座標を示すパラメ−タys及び
yeの各々の補正により、参照するウィンドウ(台形領
域)の位置をy方向にずらす。実際には、計算を含む次
の処理を実行する。
【0104】 ys ← ys−(ys−YV)TL/Hc ・・・・・(8-1) ye ← ye−(ye−YV)TL/Hc ・・・・・(8-2) 但し、YV :無限遠点のy座標 TL:高さ補正量(45cm:テ−ルランプの地上高に
相当) Hc:テレビカメラ6b設置位置の地上高 矢印はその方向へ計算結果の代入を意味する 昼間は、図16に示すように、ウィンドウ2−1内に車
両(先行車両)の少くとも一部があると、先行車両の後
部像がウィンドウ2−1内に現われ、後部像の下部の路
面上に黒い影が現われる。従って昼間は、まず路面上の
先行車の影を検出する。一方、夜間は、例えば図63に
示すように、先行車の車体の輪郭は画像中に現われず、
テ−ルランプのように発光している部分だけが検出でき
る。そこで夜間は、まず先行車のテ−ルランプ等の位置
を検出対象とする。後述するように、昼間に現われる路
面上の先行車の影、及び、夜間に現われる先行車のテ−
ルランプ等の対象物は、良く似たアルゴリズムで検出す
ることができる。しかし、対象物の位置(高さ)は、昼
間と夜間とで違うので、その対象物の画像中の位置も変
化する(図23参照)。そこで、この実施例ではステッ
プ154Aおよび154Bの処理により、処理対象とす
るウィンドゥの高さ方向の位置を、昼間と夜間とで切換
えるようにしている。
【0105】図31に示す処理では、次に、前記自車レ
−ン領域の、X=XvcなるY軸平行線で区分される右半
分領域を規定して、該右半分領域の内部(X=Xvcは含
む)を、下から上へY方向走査し、X位置を更新しつつ
この走査を繰返して(ステップ146R〜150R,1
52R〜153R)、補正画像メモリ上の画像デ−タの
階調のY方向微分値を算出し、微分値がしきい値以上の
点を特徴点として検出する(151R)。
【0106】以上により、前記自車レ−ン領域の特徴点
検出を行なったことになり、2値デ−タメモリE(x,
y)の、特徴点に対応するアドレスに、そこが特徴点で
あることを示す「1」が書込まれている。なお、前述の
「特徴点メモリクリア」131で、2値デ−タメモリE
(x,y)を予めクリアしている(全アドレスに「0」
書込み)ので、2値デ−タメモリE(x,y)上では、
自車レ−ン領域内の特徴点に対応するアドレスのみに
「1」(特徴点である)が書込まれていることになる。
【0107】次にCPU1は、ヒストグラムメモリをク
リアする(図29の133)。この内容は図33に示
す。CPU1は次に、「y方向ヒストグラム作成」13
4を行なう。この内容を図34に示す。
【0108】「y方向ヒストグラム作成」134(図3
4) ここでは、2値デ−タメモリE(x,y)上の、Y=0
〜Y=511のX軸平行線(X走査線;X方向の画素の
連なり)のそれぞれにつき、線上にある「1」(特徴
点)の数を、カウントして、ヒストグラムメモリH
(y)に走査線(Yアドレス)対応でカウント値を書込
む。
【0109】「y方向極大点検出」135(図35) ヒストグラムメモリH(y)のY=511のアドレス
(Y=511のX軸走査線)から順次にY=1まで、各
アドレスを注目線(y)に定めて、注目線(y)の特徴
点カウント値H(y),それよりY座標値が1つ小さい
走査線(y−1)の特徴点カウント値H(y−1)、お
よび、注目線(y)よりY座標値が1つ大きい走査線
(y+1)の特徴点カウント値H(y+1)を比較して
(図35の174,175)、H(y)がH(y−1)
およびH(y+1)のいずれよりも大きいと、すなわち
注目線(y)が特徴点数のピ−ク位置であると、注目線
(y)の位置(Yアドレス)での自車レ−ン左端点(X
1)と右端点(X2)を算出する(176,177;計算
式は図36に示す)。そして、しきい値Th2を(X2
−X1)/8に設定して(178)、注目線(y)の特
徴点カウント値H(y)がしきい値Th2以上である
と、注目線(y)上に横方向に延びる像輪郭線があると
見なして、注目線(y)のアドレス(Y座標値)をメモ
リMy(N)のアドレスNに書込む(180)。そして
レジスタNを1インクレメントする。レジスタNの値が
5以上(異なった6走査線で像輪郭線を検出した)にな
ると、あるいは最後の走査線Y=1を注目線とする上記
処理を終了すると、そこで、「y方向極大点検出」13
5を終了する。
【0110】昼間は、図16に示すように、ウィンドウ
2−1内にに車両(先行車両)の少くとも一部がある
と、先行車両の後部像がウィンドウ2−1内に現われ、
後部像の下部の路面上に影(黒)が現われ、先行車両の
後部像には、バンパ−(その下縁が特に高いコントラス
トの横線として現われる),ナンバ−プレ−ト,ブレ−
キランプパネル,後部窓,ル−フ等々の、横(X)方向
に延びる像輪郭線が多数あるので、メモリMy(N)の
アドレス0〜5に、自車に近い(Y座標値が大きい)6
個の像輪郭線の位置(Y座標)が書込まれていることに
なる。また夜間にウインドウ内に先行車あるいは対向車
が存在すると、点灯しているテ−ルランプ、あるいはヘ
ッドランプの部分の像輪郭線が検出され、その位置のY
座標がメモリMy(N)に書込まれる。
【0111】なお、ステップ178で、しきい値Th2
を(X2−X1)/8に設定するのは、カメラ6bに近い
ほど像輪郭線のコントラストが高く、特徴点が多く摘出
されるが、遠くの像輪郭線のコントラストは低く、特徴
点の摘出が少なくなるので、(X2−X1)により注目線
(y)上にある像輪郭の、カメラ6bからの距離を推定
し、距離に応じてしきい値を変更するためである。
【0112】「X方向重心計算」136(図37) 次に、メモリMy(N)に書込んだ、像輪郭線の位置
(Y座標値)のそれぞれにつき、該位置よりW1(設定
値)小さくW2(設定値)大きい領域内の、2値デ−タ
メモリE(x,y)上の特徴点(図27に縦線で塗りつ
ぶした自車レ−ン領域内の特徴点)のX座標値を累算レ
ジスタSumxに加算し、加算回数をレジスタNxでカウ
ントして(187〜197)、重心X座標値(平均座標
値)を算出してメモリMx(N)に書込む(198)。
これにより、「y方向極大点検出」135で検出した、
横方向に延びる像輪郭線それぞれのX方向重心位置(X
座標値)がメモリMx(N)に存在することになる。な
お、Y方向重心位置はメモリMy(N)に存在する。
【0113】以上で、図28(詳細は図29)に示す
「車両候補位置の検出」H1を終了し、CPU1は次
に、後に使用するレジスタNRをクリアして(H2)、
「車両左右端の検出」H3を実行する。この内容を図3
8に示す。
【0114】H3.「車両左右端の検出」H3(図3
8) ここではまず「車両左右端位置推定」201を実行す
る。その内容を図39に示す。
【0115】「車両左右端位置推定」201(図39) まず、ステップ208AでフラグS_night を参照して
昼/夜を識別し、その結果に応じて、昼間はステップ2
08Bを実行し、夜間はステップ208Cを実行する。
ステップ208B又は208Cでは、メモリMy(N)
にある、像輪郭線のY座標値の最も大きい値のものMy
(NR)(N=NR=0のアドレスのデ−タ)、すなわち
自車に最も近い前方物体の像輪郭線(横線)のY位置、
を読出して、カメラ6bからそこまでの水平距離(路面
上の距離)L1を次式により算出する。
【0116】 昼間: L1=Sy・Hc/(My(NR)−YV) ・・・・・(9−
1) 夜間: L1=Sy・(Hc−TL)/(My(NR)−YV) ・・・・・(9-2) 但し、Sy:テレビカメラの焦点距離 Hc:テレビカメラの地上高 TL:テ−ルライトの地上高(45cm) YV :無限遠点のy座標 My(NR):水平輪郭線のy座標 この実施例では、テレビカメラ6bの設置状態およびそ
の結像面10は、図23に示す位置関係にある。従っ
て、昼間に、先行車の下方に現われる影を検出すること
は、図23に示す点Pの位置を検出することに相当し、
点Pに相当する水平輪郭線のy座標が、メモリMy(NR)
に保持されている。図23に示すように、テレビカメラ
6bの光軸の中心が、水平線に対して角度αだけ傾斜
し、該光軸中心と、点Pに向かう軸との傾きがθである
と仮定すると、次の関係が成立する。 tan(α−θ)=Hc/L1 ・・・・・(9-3) tan(θ)=(256−My(NR))/Sy ・・・・・(9-4) 従って、(9-3),(9-4)式より、 L1=Hc・(Sy+B・tan(α))/(Sy・tan(α)−B)・・・(9-5) 但し、B:(256−My(NR)) tan(α)=(256−YV)/Sy ・・・(9-6) ここで、α−θ及びθは非常に小さいので、近似的に次
の関係が成立する。
【0117】 α−θ=Hc/L1 ・・・(9-7) θ=(256−My(NR))/Sy ・・・(9-8) α=(256−YV)/Sy ・・・(9-9) 従って、昼間は前記(9-1)式により距離L1を求めるこ
とができる。また、検出対象物がテ−ルランプ部の場合
(夜間)には、テ−ルランプ部の地上高をTLとする
と、前記(9-1)式のHcをHc−TLで置き換えること
により、前述の場合と同様の関係式が成立するので、夜
間は前記(9-2)式を用いて距離L1を求めることができ
る。
【0118】図39に示す処理においては、次に、前方
物体が車両であると仮定(この仮定の正誤は後述する
「車両の検定」H4で検証する)して、画面上の車幅W
V2Dpおよび車高HV2Dpを算出する(209)。この算出
に使用するWV3Dは、車幅学習値を格納したレジスタWV
3D(図46を参照して後述)のデ−タ(先行車両を過去
に検出していない場合には定数:最も代表的な実物車両
の車幅1.7m)であり、HV3Dは、ミニカ−もカバ−
する車高1.2mである。次に、画面上の車幅WV2Dp
と、メモリMx(N)にある像輪郭線の重心位置Mx
(NR)から、前方物体の画面上の左右端位置XVLP,X
VRPを推定演算する(210)。そして画面上の上下端
yVHP,yVLPを推定演算する(211)。
【0119】次に多階調デ−タメモリD(x,y)およ
び2値デ−タメモリE(x,y)をクリアして(202
L)、「左端垂直特徴点検出」203Lを実行する。こ
の内容を図40に示す。
【0120】「左端垂直特徴点検出」203L(図4
0) 前記画面上の上下端yVHP,yVLPの間の、前記画面上の
左端位置XVLPを中心とし−WV2Dp/4から+WV2Dp/
4までの範囲の矩形のウィンドゥ領域の、補正画像メモ
リ上の画像デ−タのX方向微分値を算出して多階調デ−
タメモリD(x,y)に書込み、かつ、多階調デ−タを
しきい値Th3と比較して、Th3以上であると、2値デ−
タメモリE(x,y)に「1」を書込む。この特徴点検
出処理は、すでに説明した「特徴点検出(UP)」C2
の処理と同様である。次にCPU1はヒストグラムメモ
リ(先に使用したH(y))をクリアして(204
L)、「x方向ヒストグラム作成」205Lを実行す
る。この内容を図41に示す。
【0121】「x方向ヒストグラム作成」205L(図
41) 前記「左端垂直特徴点検出」203Lで特徴点を検出し
た領域内の、X軸平行線(画素の連なり)上の特徴点
を、線単位でカウントして、線アドレス(X座標値)対
応でヒストグラムメモリ(ここではH(x)と表記す
る)に書込む。そして「x方向最大点検出」206Lを
実行する。その内容を図42に示す。
【0122】「x方向最大点検出」206L(図42) この処理は大要では、先に説明した「y方向極大点検
出」135と同様な処理を、Y軸をX軸に置き換えて、
「左端垂直特徴点検出」203Lで特徴点を検出した領
域内で行なうものである。但し、検出対象の領域の大き
さが違うので、極大点摘出のためのしきい値Th4は次
のように定められる。昼間、即ちフラグS_night が0
の場合には、HV2Dp/4なる定数がしきい値Th4として
利用され、夜間、即ちS_night が1の場合には、HV2D
p/24なる定数がしきい値Th4として利用される。つま
り、昼間は、先行車の車体全体が画像中に現われるの
で、垂直方向(鉛直方向)の車体の輪郭線の特徴量とし
て比較的大きな値が得られるのに対して、夜間は、先行
車の点灯しているテ−ルランプ部、あるいはヘッドラン
プ部の垂直方向輪郭線のみが検出されるので、しきい値
Th4としては、昼間は比較的大きく、夜間はそれより小
さい値が使用される。
【0123】また、極大点の検出ごとに、極大点の特徴
点カウント数を極大値メモリHmのデ−タと比較して、
今回検出の極大点の方が大きいとこれを極大値メモリH
mに更新書込みし、そのX座標値を極大点レジスタXm
に書込む。前記領域内すべてのこの処理を終えると、前
記領域の中で、特徴点が最も多く存在するY軸平行線
(先行車両の左エッジ)のX座標値がレジスタXmに格
納されていることになる。このX座標値を車両左端位置
レジスタXVLに書込む(207L)。
【0124】以上の「特徴点メモリクリア」202L〜
「x方向最大点検出」206Lと同様な処理を、画面上
の上下端yVHP,yVLPの間の、右端位置XVRPを中心と
し、−WV2Dp/4から+WV2Dp/4までの範囲の矩形の
ウィンドゥ領域について行って(図38の202R〜2
06R)、該領域内で特徴点が最も多く存在するX軸平
行線(先行車両の右エッジ)のX座標値を車両右端位置
レジスタXVRに書込む(207R)。「右端垂直特徴点
の検出」203Rの内容を図43に示す。
【0125】以上で、「車両左右端の検出」H3を終了
する。CPU1は次に「車両の検定」H3を実行する。
その内容を図44に示す。
【0126】H4.「車両の検定」H4(図44) ここでは、車幅学習値を格納したレジスタWV3D(図4
6を参照して後述)が保持する先行車両の車幅WV3D
を、「車両左右端位置推定」201で算出した前方物体
の自車からの距離L1とカメラ6bのスケ−ルファクタ
Sxを用いて画面上の車幅WV2Dに変換し(247)、
前述の車両左,右端位置XVL,XVRより画面上の車幅W
Vを算出して(248)、両者の差WV−WV2Dが、±WV
2D/4の範囲内にあるかをチェックする(249)。す
なわち、画面上の車幅計算値WVが、車幅学習値を格納
したレジスタWV3Dの車幅(実物幅)の画面上の幅WV2D
と実質上合致するかをチェックする。実質上合致する
と、先行車両検出/非検出を表わす情報「1」/「0」
を格納するレジスタFVMに「1」を書込む(250
a)。合致しないとレジスタFVMをクリアする(250
b)。即ち、先行車両が認識できた場合に、レジスタF
VMに「1」がセットされる。
【0127】次にCPU1は、レジスタFVMに「1」を
書込んだときには後述する「車間距離計算」H6に進む
が、レジスタFVMに「0」を書込んだときには、レジス
タNRを1インクレメントして(H5−H8−H9)ま
た「車両左右端の検出」H3を実行する。「車両左右端
の検出」H3は、まずNR=0(自車両に最も近い)の
横方向輪郭線からこれを実行するので、2回目以降の
「車両左右端の検出」H3では、NR=1,2,・・と
なるので、2番目,3番目,・・・と、対象とする横方
向輪郭線を順次に自車両から遠いものに変更することに
なる。NRの最大値は5である(図35のN=0〜4で
5本の横方向輪郭線しか検出していない)ので、最大で
5回の「車両左右端の検出」H3を実行しそれでもFVM
=「1」にならないと後述の「車幅学習計算」H7に進
み、次に説明する「車間距離計算」H6は実行しない。
【0128】H6.「車間距離計算」H6(図45) レジスタFVMに「1」を書込んだときには、車間距離L
2(0)を算出する(251)。車幅学習値を格納した
レジスタWV3Dの車幅(実物幅)WV3D,画面上の車幅計
算値WV,「車両左右端位置推定」201で算出した前
方物体の自車からの水平距離L1(路上実物距離)、お
よび、カメラ6bのスケ−ルファクタSxを用いて、車
間距離L2(0)を算出する(251)。今回算出値L2
(0)と、前回算出値L2(1),前々回算出値L2
(2)および前々々回算出値L2(3)の平均値を算出
してレジスタL3に書込み(252)、前回算出値L2
(1),前々回算出値L2(2)および前々々回算出値
L2(3)を更新する(253)。以上により、レジス
タL3には、自車レ−ンの先行車との車間距離(最近の
時系列平均値)を格納したことになる。
【0129】図39のステップ208B又は208Cの
計算では、テレビカメラによって撮影した先行車両に相
当する対象物の縦方向の位置の違いだけに基づいて、車
間距離L1を求めているので、ここで求められた車間距
離L1は、比較的大きな誤差を含んでいる可能性があ
る。例えば、実際の車間距離が一定であっても、自車両
にピッチングの姿勢変化が生じると、求められる車間距
離L1が変化する可能性がある。検出される車間距離の
測定精度を上げるために、「車間距離計算」H6では、
検出した先行車の車幅に基づいて、車間距離L2を求め
ている。また、車間距離L2の信頼性を高めるために、
次に説明する「車幅学習計算」H7を実施している。
【0130】H7.「車幅学習計算」H7(図46) レジスタL3の車間距離を前述のように更新するとCP
U1は、画面上の車幅WVを実物車幅Wvaに変換し、レ
ジスタWV3Dのデ−タ(時間軸上で、今回の車間距離計
算までに保持する車幅学習値WV3D)と今回の車幅計算
値Wvaを、47対1の重み付けで加算し、和を48で割
った値、すなわち重み付け平均値、をレジスタWV3Dに
更新メモリする(254,255a,255b)。自車
レ−ン先行車両を検出しない(FVM=「0」)でこの
「車幅学習計算」H7に進んだときには、レジスタWV3
Dに、この実施例では、最も代表的な車両(乗用車)の
車幅値1.7mを書込む(254,256)。
【0131】以上で「自車レ−ン先行車両認識及び測
距」Hを終了する。次にCPU1は、「右隣接レ−ン先
行車両認識及び測距」Iを実行する。この内容を図47
に示す。なお、先に説明した「左右白線検出」D3で自
車レ−ン右端白線を表わすデ−タ(TmR,RmR)および
左端白線を表わすデ−タ(TmL,RmL)をレジスタに格
納し、しかも、「隣接レ−ン推定」Fで、右隣接レ−ン
の右端白線(推定)を表わすデ−タ(TmRR,RmRR)お
よび左隣接レ−ンの左端白線(推定)を表わすデ−タ
(TmLL,RmLL)をレジスタに格納している点に注意さ
れたい。
【0132】I.「右隣接レ−ン先行車両認識及び測
距」I(図47,図48,図49) ここでは、ウィンドウ2の下辺(Y=350),自車レ
−ン右端白線(TmR,RmR)ならびに右隣接レ−ンの右
端白線(TmRR,RmRR)で囲まれる領域(右隣接レ−ン
領域)に、前述の「自車レ−ン先行車両認識及び測距」
Hの処理を同様に適用して、右隣接レ−ン領域の、自車
から見て前方の物体を検出し、自車からの距離を算出す
る。また、「自車レ−ン先行車両認識及び測距」Hと同
様に、参照するウィンドウ2のy方向位置は、昼と夜と
で自動的に切換えられる。
【0133】J.「左隣接レ−ン先行車両認識及び測
距」J(図50,図51,図52) これにおいても、ウィンドウ2の下辺(Y=350),
自車レ−ン左端白線(TmL,RmL)ならびに左隣接レ−
ンの左端白線(TmLL,RmLL)で囲まれる領域(左隣接
レ−ン領域)に、前述の「自車レ−ン先行車両認識及び
測距」Hの処理を同様に適用して、左隣接レ−ン領域
の、自車から見て前方の物体を検出し、自車からの距離
を算出する。また、前述の「自車レ−ン先行車両認識及
び測距」Hと同様に、参照するウィンドウ2のy方向位
置は、昼と夜とで自動的に切換えられる。
【0134】以上で、図3に示す「ウィンドウ2−1内
の車両検出」DET1を終了する。このDET1ではウ
ィンドウ2−1(図14,図16,図26)内の自車レ
−ン左,右端白線の検出,これに基づいた右隣接レ−ン
の右端白線の検出,左隣接レ−ンの左端白線の検出,ウ
ィンドウ2−1を中心にして、ウィンドウ2−2の略中
央部まで延びる領域内の自車レ−ン内(図26の縦線塗
りつぶし領域)の車両検出と距離算出,該領域内の右隣
接レ−ン内(図26の右側横線塗りつぶし領域)の車両
検出と距離算出、および、該領域内の左隣接レ−ン内
(図26の左側横線塗りつぶし領域)の車両検出と距離
算出を行なったことになる。これにおいて自車レ−ン内
の先行車両を検出しているとレジスタFVMには「1」が
書込まれている。右隣接レ-ンの車両を検出していると
レジスタFVRには「1」が書込まれている。また、左隣
接レ-ンの車両を検出しているとレジスタFVLには「1」
が書込まれている。
【0135】CPU1は、次に、レジスタFVMの内容が
「1」(自車レ−ンに先行車両あり)であるかをチェッ
クして、「1」であると「出力」Kに進み、画像認識結
果を出力する。そしてまた「画像入力」Bを実行し、同
様な処理を行なう。すなわち、実質上ウィンドウ2−1
を対象とする処理で、自車レ−ン上に先行車両を検出し
ている間は、先行車両との車間距離が比較的に短いの
で、図3に示す「画像入力」B〜「出力」Kを繰返し実
行し、後述するウィンドウ2−2および2−2を対象と
する処理DET2およびDET2は実行しない。
【0136】DET1で、自車レ−ン上に先行車両を検
出しなかったとき(FVM=0)には、CPU1はDET
1に続いて「ウィンドウ2−2内の車両検出」DET2
を実行する。DET2の処理は、図14,図16に示す
ウィンドウ2−2領域で、前述のDET1の処理と同様
な処理を実行するものであり、図27の(a)に示す自
車レ−ン領域(縦線の塗りつぶし領域),右隣接レ−ン
領域(右側の横線領域)および左隣接レ−ン領域(左側
の横線領域)の先行車両検出処理を行なう。自車レ−ン
領域で先行車両(路上物体)を検出するとレジスタFVM
に「1」を書込み、右隣接レ-ン領域で車両を検出するとレ
ジスタFVRに「1」を書込み、また、左隣接レ-ン領域で車
両を検出するとレジスタFVLに「1」を書込む。そして、
レジスタFVMに「1」を書込むと、「出力」Kに進み、D
ET3は実行しない。
【0137】DET2で、自車レ−ン上に先行車両を検
出しなかったとき(FVM=0)には、CPU1はDET
2に続いて「ウィンドウ2−3内の車両検出」DET3
を実行する。DET3の処理は、図14,図16に示す
ウィンドウ2−3領域で、前述のDET1の処理と同様
な処理を実行するものであり、図27の(b)に示す自
車レ−ン領域(縦線の塗りつぶし領域),右隣接レ−ン
領域(右側の横線領域)および左隣接レ−ン領域(左側
の横線領域)の先行車両検出処理を行なう。なお、この
ウィンドウ2−3は、前方路上の物体検出領域の最後
(最遠)のものであるので、路面領域の最遠点は、検出
した2直線(図27のLR3,LL3)の交点(無限遠
点)又は、この交点が画面を外れるときには、画面端
(Y=0)として、路面領域を規定する。自車レ−ン領
域で先行車両(路上物体)を検出するとレジスタFVMに
「1」を書込み、右隣接レ-ン領域で車両を検出するとレジ
スタFVRに「1」を書込み、また、左隣接レ-ン領域で車両
を検出するとレジスタFVLに「1」を書込む。そして、
「出力」Kに進む。
【0138】ここで、図3に示した「昼夜の判定」Sに
ついて説明する。この処理は、大きく分けると図54に
示すステップS1,S2,S3及びS4の4つで構成さ
れている。TVカメラによって撮影される映像は、例え
ば図64に示すような2次元画像であり、この画像に
は、通常、空の領域,路面の領域およびその他の領域が
含まれる。そこでこの実施例では、図55に示すよう
に、無限遠点の座標(Xv,Yv)を基準にして、画像中
の領域を、空の領域RGS,路面の領域およびその他の
領域に区分している。そして、昼夜の判定を実施するた
めに、この実施例では、空の領域RGSの画像情報のみ
を参照している。即ち、空の領域RGSでは、昼夜の明
るさの変化が充分に大きく、ノイズ画像が現われる機会
も比較的少ないので、空の領域RGSの明るさの識別に
より、昼夜を判定しうる。
【0139】例えば、夜間に撮影して得られた画像であ
る図63,昼間に撮影して得られた画像である図64,
及び夕方に撮影して得られた画像である図65のそれぞ
れについて、空の領域に相当する1つの走査線SLの映
像信号を抽出すると、それぞれ、図66に示す(a),
(b)及び(c)になる。図66の(a)と(b)とで
は、明らかに信号レベルに差が認められるので、この映
像信号レベルに基づいて、昼夜の識別が可能である。
【0140】しかし、空の領域RGSであっても、例え
ば街灯,広告灯などの影響により、昼夜の判定に悪影響
を及ぼすノイズ画像が画像中の参照領域に現われる場合
が度々ある。そこでこの実施例では、空の領域RGS中
に、多数の小領域を定め、各々の小領域について、その
平均的な明るさから昼夜を識別し、複数の小領域の識別
結果に基づいて、最終的に昼夜を識別している。
【0141】簡単に説明すると、図54のステップS1
では、空の領域RGS中に多数の小領域を定めるための
処理を実行し、ステップS2では、小領域の各々につい
て、その平均濃度(明るさ)を計算し、ステップS3で
は、小領域の各々について、その平均濃度を2値的に
(昼/夜に)識別し、最後のステップS4では、複数の
小領域の識別結果に基づいて、最終的な昼/夜を識別す
る。最終的な識別結果として、フラグS_night がセッ
トされる。
【0142】以下、各処理の詳細について説明する。な
お、図56以降に示すフロ−チャ−ト中の矩形の枠で示
す各処理中に現われる等号(=)は、式の右辺の内容又
は計算結果を左辺のメモリ(あるいはレジスタ,フラ
グ)に代入(即ちストア)することを意味している。
【0143】図54のステップS1の詳細を図56に示
す。この処理では、空の領域RGS中に、図57に示す
ように16個の小領域A1,A2,A3,・・・A16
を定める。なお、図57中の数値は、画素数単位の座標
又は大きさを示している。
【0144】図56を参照して説明する。この処理を初
めて実行する時には、初期化フラグS_init が0である
ので、ステップS1_1の次にS1_2に進み、ステップS1_
2で初期化フラグS_init をセットする。
【0145】次のステップS1_3では、フラグS_night
をクリアして、レジスタNo_maxに定数16をストアす
る。続くステップS1_4では、カウンタi,j及びkを
それぞれクリアする。次のステップS1_5からS1_12ま
での処理は、j<No_maxである間、ル−プ処理として
繰り返し実行される。
【0146】ステップS1_5ではメモリS_xs(j+1),S_
ys(j+1),S_av(j+1)及びS_k(j+1)に、それぞれ(32
×j+16),20,255及び1.0をストアし、ス
テップS1_6ではカウンタjをインクリメント(+1)
し、ステップS1_7ではメモリS_pos(i,k)にjの値をス
トアし、ステップS1_8ではカウンタkをインクリメン
トする。また、カウンタkが4になる毎に、ステップS
1_9からS1_10に進み、メモリS_pos(i,k)をクリアし、
次のステップS1_11でカウンタkをクリアしてカウンタ
iをインクリメントする。
【0147】なお、例えばメモリS_xs(j+1)は、予め定
めたメモリ配列S_xs(0又は1)〜S_xs(最大値)の中の
一部分であり、括弧内のパラメ−タの値によって特定さ
れるメモリである。他のメモリについても同様の表記の
ものは、全て同様のメモリ配列の一部分を示している。
また、フロ−チャ−ト中のアスタリスク(*)は乗算を
意味している。
【0148】図56に示す処理を実行することによっ
て、メモリS_xs(1),S_xs(2),S_xs(3),S_xs(4),
・・・・,S_xs(16)に、それぞれ16,16+32,16+32
×2,16+32×3,・・・・,16+32×15がストアされる。
つまり、図57に示す小領域A1,A2,A3,A4,
・・・・A16のそれぞれの左端のx座標が、それぞれ
メモリS_xs(1),S_xs(2),S_xs(3),S_xs(4),・・
・・,S_xs(16)に保持される。また、小領域A1,A
2,A3,A4,・・・・A16のそれぞれの上端のy
座標(全て20)が、それぞれメモリS_ys(1),S_ys
(2),S_ys(3),S_ys(4),・・・・,S_ys(16)に保持
される。更に、メモリS_av(1)〜S_av(16)の内容は全
て最大値である255に初期化され、メモリS_k(1)〜
S_k(16)の内容は全て1.0に初期化される。また、2
次元配列メモリであるS_pos(0,0)〜S_pos(3,3)には、
図60の(a)に示すようにそれぞれ値がストアされ
る。
【0149】図54のステップS2の詳細を図58に示
す。図58を参照して説明する。この処理においては、
基本的に図57に示す小領域A1〜A16のそれぞれに
おける画像情報の平均的な階調を計算する。但し、図5
8の処理を1回実行するだけでは16個の領域A1〜A
16のうち4領域だけの階調を計算し、図58の処理を
4回実行することによって、16個の全ての領域の平均
階調が計算される。16個の領域A1〜A16のうちの
いずれを処理対象とするかが、図60に(a)として示
した2次元配列メモリS_pos(S_cy,j)の内容を参照す
ることにより決定される。例えば、カウンタS_cyが1
で、カウンタjが2であれば、メモリS_pos(S_cy,j)
の内容が7であるので、領域A7の平均階調を求める。
【0150】最初のステップS2_1ではカウンタjをク
リアし、次のステップS2_2では、カウンタS_cy,jに
よって特定されるメモリS_pos(S_cy,j)の内容を参照
し、その内容を領域番号レジスタnoにストアする。n
oの値が0でなければ、ステップS2_3を通ってS2_4に
進む。
【0151】ステップS2_4では、メモリS_av(no)をク
リアし、カウンタcntをクリアし、レジスタnoの値
で示される小領域のx座標をメモリS_xs(no)から得
て、レジスタxs及びxにストアし、レジスタnoの値
で示される小領域のy座標をメモリS_ys(no)から得
て、レジスタys及びyにストアする。
【0152】ステップS2_7では、画像デ−タ中のレジ
スタx,yが示す座標に存在する画素の階調情報I(x,
y)をメモリS_av(no)に加算(累算)し、カウンタxお
よびcntをそれぞれインクリメントする。x<(xs
+16)であれば、次のステップS2_9からS2_7に戻
る。従って、x=(xs+16)になるまで、ステップS
2_7が繰り返される。これによって、座標(xs,y)から(xs
+15,y)までの16画素について、それらの階調情報I
(x,y)の累算値がメモリS_av(no)に保持される。
【0153】ステップS2_10では、カウンタxにxsの
値(小領域の左端位置)をプリセットし、カウンタyに
3を加算する。続くステップS2_11では、yと(ys+
24)を比較する。そして、y<(ys+24)である
と、再びステップS2_7に戻る。従って、走査線の3ラ
インおきに、即ち、y座標がys,ys+3,ys+
6,ys+9,・・・,ys+21の各々の走査線に対
して、ステップS2_7,S2_9が実行される。つまり、y
=(ys+24)になり、ステップS2_11からS2_12に
進む場合には、16×24画素で構成される1つの小領
域の中で、図59にハッチングで示した全ての画素の階
調の累算値が、メモリS_av(no)に保持される。また、
カウンタcntには、当該小領域内で参照した画素の
数、即ち図59にハッチングで示した画素の数が保持さ
れる。ステップS2_12では、メモリS_av(no)の内容を
カウンタcntの値で割った結果をメモリS_av(no)に
ストアする。これによって、当該小領域内で参照した全
画素の平均階調が求められ、メモリS_av(no)に保持さ
れる。また、カウンタjがインクリメントされる。
【0154】ステップS2_12からS2_2に戻り、上記処
理を繰り返す。例えば、パラメ−タS_cyが0の場合に
は、メモリS_pos(S_cy,j)から読み出されてレジス
タnoにストアされる値が、カウンタjの値に応じて、
1,2,3,4,0と順に変化する(図60参照)の
で、1回目,2回目,3回目および4回目の処理で、そ
れぞれ小領域A1,A2,A3およびA4に関する平均
階調が求められ、その結果がそれぞれメモリS_av(no)
にストアされる。そして、メモリS_pos(S_cy,j)か
ら読み出された値が0になると、即ち4つの小領域の処
理が完了すると、ステップS2_3からS2_5に進む。
【0155】ステップS2_5ではカウンタS_cyをインク
リメントする。また、その結果、カウンタS_cyの値が
4になった場合には、ステップS2_6からS2_8に進み、
カウンタS_cyをクリアする。ステップS2_5を実行する
とカウンタS_cyが更新されるので、次回に図58の処
理を実行する場合には、メモリS_pos(S_cy,j)から
読み出される値、即ち処理対象の小領域は、今回とは違
うものになる。そして、図58の処理を4回繰り返し実
行すると、16個の小領域A1〜A16の全ての処理が
完了する。
【0156】但し、図58の処理は、画像を入力する毎
に繰り返し実行され、処理の結果はそれが更新されるま
でメモリS_av(S_cy,j)に保持されているので、図5
8の処理を4回繰り返さなくても、16個の小領域の全
てについて平均階調を得ることができる。これによっ
て、昼/夜を識別する周期を短くすることができる。ま
た、この実施例では、小領域内の全ての画素を参照せず
に、水平走査線の3ラインに1ラインの割合いで各画素
を参照する、走査線の間引きを実施しているので、図5
8に示す処理の実行に要する時間を短縮することができ
る。
【0157】図54のステップS3の詳細な内容を図6
1に示す。図61を参照して説明する。ステップS3_1
ではカウンタiに1をプリセットする。次のステップS
3_2では、カウンタiの値で特定されるメモリS_av(i)
に保持されている1つの小領域の平均階調値を予め定め
たしきい値THaと比較する。そして、S_av(i)<TH
aであれば、次のステップS3_4で、カウンタiの値で
特定されるフラグS_flag(i)をセットし、S_av(i)≧T
HaならステップS3_3で、カウンタiの値で特定され
るフラグS_flag(i)をクリアする。つまり、各小領域の
平均階調がしきい値より小さい(暗い)場合には、その
小領域を「夜」の候補とみなし、平均階調がしきい値以
上の(明るい)場合には、その小領域を「昼」の候補と
みなす。
【0158】次のステップS3_5でカウンタiをインク
リメントし、続くステップS3_6ではカウンタiの値を
小領域の最大数No_maxと比較する。i≦No_maxであ
れば、ステップS3_2に戻って上記処理を繰り返す。つ
まり、16個の小領域のそれぞれについて、メモリS_a
v(i)に保持されている各平均階調値をしきい値THaに
よって2値的に識別し、その結果をフラグS_flag(i)に
保存する。従って、フラグS_flag(i)を参照することに
より、i番目の小領域が「夜」の候補か「昼」の候補か
を識別することができる。
【0159】図54のステップS4の詳細な内容を図6
2に示す。図62を参照して説明する。最初のステップ
S4_1では、カウンタiに1をプリセットし、カウンタ
cntおよびTHNをそれぞれクリアする。次のステッ
プS4_2では、カウンタTHNをインクリメントする。
続くステップS4_3では、カウンタiの値で特定される
フラグS_flag(i)を参照する。そして、S_flag(i)=1
なら、即ちi番目の小領域が「夜」の候補であると、次
のステップS4_4でカウンタcntをインクリメントす
る。S_flag(i)=0なら、即ちi番目の小領域が「昼」
の候補なら、カウンタcntは更新しない。
【0160】ステップS4_6では、カウンタiを小領域
の最大数No_maxと比較する。そして、i≦No_maxで
あれば、ステップS4_2に戻って上記処理を繰り返す。
これによって、フラグS_flag(1)〜S_flag(16)の全て
がステップS4_3でチェックされる。ステップS4_6から
S4_7に進む場合には、16個の小領域A1〜A16の
うち、「夜」の候補であった小領域の数が、カウンタc
ntに保持される。処理対象とした全ての小領域の数
(実際にはNo_max)がカウンタTHNに保持される。
【0161】ステップS4_7では、THN×(3/4)
を計算し、その結果がTHNにストアされる。そして次
のステップS4_8では、カウンタcntの値とTHNの
値とを比較する。つまり、「夜」の候補であった小領域
の数を、処理対象とした全ての小領域の数(この場合は
16)を基準にして定めたしきい値(THNの内容)と
比較する。そして、cnt≧THNであると、次のステ
ップS4_10で昼夜識別フラグS_nightをセットし、cn
t<THNであると、ステップS4_9でフラグS_night
をクリアする。従って、「夜」の候補の小領域の数が全
小領域の3/4以上である場合に最終的に「夜」と識別
され、それ以外の場合には「昼」と識別される。
【0162】以上に説明した第1実施例では、自車両に
最も近いウィンドウ2−1の領域内で自車レ−ン左,右
端白線LR1,LL1(図26)を検出して、これに基
づいて、ウィンドウ2−1内の左,右隣接レ−ンの左
端,右端白線を推定し、ウィンドウ2−1からウィンド
ウ2−2の中程までの、LR1,LL1間領域(図26
の縦線塗りつぶし領域)に物体が存在するか否かを検出
し、かつ同様に左,右隣接レ−ン領域(図26の横線塗
りつぶし領域)を定めてそこに物体が存在するか否かを
検出して、物体を検出すると自車から該物体までの距離
を算出する。自車レ−ン上のこの領域で物体を検出する
とウィンドウ2−2および2−3に関する処理は実行し
ない。該物体を検出しなかったときにウィンドウ2−2
に関しても同様な処理(図27のa)を実行し、ここで
自車レ−ン領域の物体を検出しないとウィンドウ2−3
に関しても同様な処理(図27のb)を実行する。
【0163】また、夜間には、処理するウィンドゥのy
方向の位置について、先行車両のテ−ルランプ部の高さ
(TL)に応じた補正が加えられる(図32の154
B)。このように、昼/夜の違いに応じて、処理するウ
ィンドゥの位置を補正し、更に図39のステップ208
B,208Cのように距離を求めるための計算式を切換
え(又は補正し)、また図42のステップ229B,2
29Cのように判別のためのしきい値を切換えることに
より、先行車両の認識のための処理のほとんどを、昼間
と夜間とが共通に利用することができる。そのため、ハ
−ドウェアの構成を複雑化することなく、昼間も夜間も
先行車両を認識しうる。
【0164】次に、第2実施例について説明する。
【0165】この実施例では、CPU1は図53に示す
処理を実行する。すなわち、「昼夜の判定」Sの次に、
「自車レ−ン検出(2−1)」D1(前述のDの内容に
同じ)で、ウィンドウ2−1内の2直線LR1,LL1(図
14のc)を検出し、検出した直線に基づいて「隣接レ
−ン推定(2−1)」F1(前述のFの内容に同じ)
で、右隣接レ−ンの右端白線LRR1および左隣接レ−ン
の左端白線LLL1を推定する。そしてウィンドウを2−
2に切換えて、「自車レ−ン検出(2−2)」D2およ
び「隣接レ−ン推定(2−2)」F2で、同様な直線検
出および直線推定を実行して、ウィンドウ2−2内の自
車レ−ン端を表わす2直線LR2,LL2(図14のc)な
らびに右隣接レ−ンの右端白線LRR2および左隣接レ−
ンの左端白線LLL2を推定する。更に、ウィンドウを2
−3に切換えて、「自車レ−ン検出(2−3)」D3お
よび「隣接レ−ン推定(2−3)」F3で、同様な直線
検出および直線推定を実行して、ウィンドウ2−3内の
自車レ−ン端を表わす2直線LR3,LL3(図14のc)
ならびに右隣接レ−ンの右端白線LRR3および左隣接レ
−ンの左端白線LLL3を推定する。ここで処理するウィ
ンドウのy方向の位置についても、前記実施例と同様
に、夜間は、先行車両のテ−ルランプ部の高さ(TL)
に応じた補正が加えられる。
【0166】以上により、自車レ−ンの右端白線を表わ
す3本の直線LR1〜LR3,左端白線を表わす3本の直線
LL1〜LL3(図14のc)、ならびに、それらの外側
の、右隣接レ−ンの右端白線(推定)を表わす3本の直
線LRR1〜LRR3および左隣接レ−ンの左端白線(推定)
を表わす3本の直線LLL1〜LLL3が求められたことにな
る。
【0167】CPU1は次に、「自車レ−ン領域設定」
hで、直線LR1とウィンドウ2−2の右辺又は下辺(X=5
11の縦線又はY=350の横線)との交点,直線LR1とLR2の
交点(図14のcの丸印),LR2とLR3の交点,直線LL1
とウィンドウ2−1の左辺又は下辺(X=0の縦線又はY=35
0の横線)との交点,直線LL1とLL2の交点,LL2とLL3
の交点、ならびに、直線LR3とLL3との交点を算出し、
これらの交点のY方向で隣り合う2点を結ぶ直線とウィ
ンドウ2−1の下辺で囲まれる領域を自車走行レ−ン領
域と設定する。そして次の「自車レ−ン先行車両認識及
び測距」Hで、前述の第1実施例における物体検出と距
離算出(H)と同様な処理により、設定した領域内での
物体検出と距離算出を行なう。ここで処理するウィンド
ウのy方向の位置についても、前記実施例と同様に、夜
間は、先行車両のテ−ルランプ部の高さ(TL)に応じ
た補正が加えられる。
【0168】CPU1は次に、「右隣接レ−ン領域設
定」iで、直線LR1とウィンドウ2−1の右辺又は下辺
(X=511の縦線又はY=350の横線)との交点,直線LR1とL
R2の交点,LR2とLR3の交点,直線LRR1とウィンドウ2
−1の右辺又は下辺(X=511の縦線又はY=350の横線)との
交点,直線LRR1とLRR2の交点,LRR2とLRR3の交点、
ならびに、直線LR3とLRR3との交点を算出し、これら
の交点のY方向で隣り合う2点を結ぶ直線とウィンドウ
2−1の下辺で囲まれる領域を右隣接レ−ン領域と設定
する。そして次の「右隣接レ−ン先行車両認識及び測
距」Iで、前述の第1実施例における右隣接レ−ンにお
ける物体検出と距離算出(I)と同様な処理により、設
定した領域内での物体検出と距離算出を行なう。ここで
処理するウィンドウのy方向の位置についても、前記実
施例と同様に、夜間は、先行車両のテ−ルランプ部の高
さ(TL)に応じた補正が加えられる。
【0169】CPU1は次に、「左隣接レ−ン領域設
定」jで、直線LL1とウィンドウ2−1の左辺又は下辺
(X=0の縦線又はY=350の横線)との交点,直線LL1とLL2
の交点,LL2とLL3の交点,直線LLL1とウィンドウ2−
1の左辺又は下辺(X=0の縦線又はY=350の横線)との交
点,直線LLL1とLLL2の交点,LLL2とLLL3の交点、な
らびに、直線LL3とLLL3との交点を算出し、これらの
交点のY方向で隣り合う2点を結ぶ直線とウィンドウ2
−1の下辺で囲まれる領域を左隣接レ−ン領域と設定す
る。そして次の「左隣接レ−ン先行車両認識及び測距」
Jで、前述の第1実施例における左隣接レ−ンにおける
物体検出と距離算出(J)と同様な処理により、設定し
た領域内での物体検出と距離算出を行なう。ここで処理
するウィンドウのy方向の位置についても、前記実施例
と同様に、夜間は、先行車両のテ−ルランプ部の高さ
(TL)に応じた補正が加えられる。
【0170】この第2実施例によっても、自車直前か
ら、自車レ−ンの左,右端白線が交わって見える遠方点
までの路面領域の全面(自車レ−ン,右隣接レ−ンおよ
び左隣接レ−ン)について、物体探索と検出した物体の
距離の算出が行なわれる。
【0171】前述の第1実施例および第2実施例のいず
れにおいても、ウィンドウ2−1,2−2および2−3
と、自車直近から次第に遠方へ探索領域が設定されて各
領域でレ−ンを区切る白線の検出が行なわれて、検出し
た白線に基づいて探索領域が設定されるので、道路がカ
−ブしていても、探索領域が遠方で路面から外れる確率
が低く、路上物体の検出、特に遠方の路上物体の検出、
がより確実となる。
【0172】前述の「昼夜の判定」(図3のステップ
S)について、以下に、様々な変形例を説明する。
【0173】まず、画像中の空の領域RGS内に位置決
めされる多数の小領域の形状及び配置に関する様々な変
形例を、図67,図68及び図69に示す。まず図67
を参照する。
【0174】(a)小領域をそれぞれ1本の水平線と
し、この小領域を空の領域RGS内に縦方向に連続的に
並べてある。
【0175】(b)小領域をそれぞれ1本の水平線と
し、この小領域を空の領域RGS内に縦方向に互いに間
隔をあけて並べてある。
【0176】(c)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に連続的に
並べてある。
【0177】(d)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に互いに間
隔をあけて並べてある。
【0178】(e)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に並べ、か
つ縦方向に隣接するもの同士が互いに一部分重なるよう
に並べてある。
【0179】(f)小領域を水平方向に細長い矩形と
し、この小領域を空の領域RGS内に縦方向に並べ、一
部分の隣接する小領域が互いに一部分重なるように並べ
てある。特に、上側の小領域は重なるように配置し、無
限遠点に近い下側の小領域は重ならないように配置して
ある。このようにすると、各々の小領域に、位置に応じ
た重み付けがされる。
【0180】図67に示した例では、各小領域の形状を
水平方向に長いものにしたが、図68に示す例は、いず
れも各小領域の形状を垂直方向に長いものに変更してあ
る。一般のテレビカメラにおいては、水平方向に対して
主走査を実施し、垂直方向(鉛直方向)に対して副走査
を実施するので、主走査方向と一致する水平方向が長く
なるように小領域を配置すると、小領域内の情報を短時
間で参照することができる。従って通常は、図67に示
す配置にする方が好ましい。しかし、例えばテレビカメ
ラを90度傾けて、水平方向と垂直方向が逆になるよう
に取付ける場合には、図の縦方向が主走査方向になり、
横方向が副走査方向になるので、図68に示すように小
領域を配置した方が、画像情報を短時間で参照すること
ができる。
【0181】次に図69を参照して説明する。
【0182】(a)全ての小領域を同一形状の矩形(正
方形)とし、この小領域を空の領域RGS内の全体に渡
って連続的に配置してある。
【0183】(b)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内の水平方向には小
領域を連続的に配置し、縦方向には互いに間隔をあけて
配置してある。
【0184】(c)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内の縦方向には小領
域を連続的に配置し、水平方向には互いに間隔をあけて
配置してある。
【0185】(d)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内に小領域を縦方向
及び水平方向に、それぞれ互いに間隔をあけて整然と並
べて配置してある。
【0186】(e)全ての小領域を同一形状の矩形(正
方形)にしてある。空の領域RGS内に小領域を縦方向
及び水平方向に、それぞれ互いに間隔をあけて配置して
ある。また、水平方向には小領域を整然と並べてある
が、縦方向には千鳥状に並べて配置してある。
【0187】(f)正方形状の小領域と、各々1本の水
平線でなる小領域とを組合せて配置してある。前者の小
領域は上方に配置し、後者の小領域は下方(無限遠点に
近い方)に配置してある。
【0188】なお前述の実施例においては、図56の処
理において、メモリ配列S_pos(i,k)の各要素に、図6
0の(a)に示す値をそれぞれストアしているが、例え
ば図60の(b)のように値の配置を変更してもよい。
このようにすれば、A1,A5,A9,A13,A2,
A6,・・・の順で各小領域を処理するように、順番を
変更することができる。また、メモリ配列S_pos(i,k)
の要素数(パラメ−タi,kの最大数)を変更してもよ
い。
【0189】次に、図61に示した処理(図54のS
3)の変形例について説明する。1つの変形例を図70
に示す。図61の中の処理S3xを変更したものが図7
0の処理である。図70を参照して、変更された部分を
説明する。この実施例では、各小領域の平均階調値を保
持するメモリS_av(i)の内容を2値的に識別するための
しきい値として、THaとTHbの2つを用いている。
この例では、THaの値は60、THbの値は80であ
る。そして、各小領域の平均階調値を2値化する前に、
フラグS_flag(i)に保持されている以前の識別結果をス
テップS3_7で参照し、S_flag(i)=1(夜の候補)で
あればステップS3_8を、そうでなければステップS3_9
に進む。ステップS3_8では、メモリS_av(i)の内容を
しきい値THaと比較し、その結果に応じてフラグS_f
lag(i)の状態を更新する。またステップS3_9では、メ
モリS_av(i)の内容をしきい値THbと比較し、その結
果に応じてフラグS_flag(i)の状態を更新する。これに
よって、各小領域の平均階調の2値化にヒステリシス特
性を持たせることができる。従って例えば、夕方の画像
のように平均階調値がしきい値に近い場合であっても、
識別結果の「夜/昼」が頻繁に切換わるのを防止するこ
とができる。
【0190】もう1つの変形例を図71に示す。図61
の処理S3xを変形したものが図71である。この実施
例では、各小領域の平均階調を2値的に識別する処理に
おいて、同一の状態が数回連続的に維持される場合に、
識別結果を切換えるようにしている。
【0191】図71を参照して説明する。ステップS3_
14では、各小領域の平均階調値を保持するメモリS_av
(i)の内容をしきい値THaと比較し、その結果に応じ
てステップS3_15又はS3_16に進む。ステップS3_15及
びS3_16では、i番目の小領域に割当てられたフラグS
_flag_N(i)の状態を更新する。次のステップS3_17で
は、最新の識別結果を保持するフラグS_flag_N(i)の状
態と、過去の識別結果を保持するフラグS_flag_O(i)と
を比較し、両者が一致する状合には次にステップS3_19
に進み、一致しないとステップS3_18に進む。
【0192】ステップS3_18では、i番目の小領域に割
当てられたカウンタS_cnt(i)をクリアし、次のステッ
プS3_20では、フラグS_flag_N(i)の状態をフラグS_f
lag_O(i)に保存する。
【0193】ステップS3_19では、i番目の小領域に割
当てられたカウンタS_cnt(i)をインクリメントする。
なお、記号「+=」は、左辺の内容に右辺の内容を加算
してその結果を左辺のメモリにストアすることを意味し
ている(例えば、プログラミング言語“C”において一
般的に規定されている)。次のステップS3_21では、カ
ウンタS_cnt(i)の値をしきい値である3と比較する。
カウンタS_cnt(i)の値が0,1又は2であるとステッ
プS3_21からS3_5に進むが、S_cnt(i)の値が3以上な
ら、次にステップS3_22に進む。
【0194】ステップS3_22では、カウンタS_cnt(i)
に3をストアする。次のステップS3_23では、最新の識
別結果を保持するフラグS_flag_N(i)の状態に応じてフ
ラグS_flag(i)を更新する。従ってこの例では、ステッ
プS3_14の結果が3回連続的に同一である場合に限り、
フラグS_flag(i)の内容が変更される。従って例えば、
夕方の画像のように平均階調値がしきい値THaに近い
場合であっても、識別結果の「夜/昼」が頻繁に切換わ
るのを防止することができる。
【0195】前述の図70の処理と図71の処理とを組
合せることもできる。例えば、図71に示す処理S3y
を、図72に示す処理に置き換えればよい。
【0196】次に、図62に示した処理(図54のS
4)の変形例について説明する。1つの変形例を図73
に示す。図62の中の処理S4xを変更したものが図7
3の処理である。図73を参照して、変更された部分を
説明する。この実施例では、最終的に「夜/昼」を識別
する処理において、同一の状態が数回連続的に維持され
る場合に、識別結果を切換えるようにしている。
【0197】ステップS4_11では、「夜の候補」の小領
域数を保持するカウンタcntの内容をしきい値を保持
するカウンタTHNの値と比較し、その結果に応じてス
テップS4_12又はS4_13に進む。ステップS4_12及びS
4_13では、フラグS_night_Nの状態を更新する。次のス
テップS4_14では、最新の状態を保持するフラグS_nig
ht_Nと、過去の状態を保持するフラグS_night_Oとを比
較し、その結果に応じてステップS4_15又はS4_16に進
む。ステップS4_15では、カウンタS_cnt_nをクリア
し、次のステップS4_17では、フラグS_night_Nの状態
をフラグS_night_Oに保存する。ステップS4_16では、
カウンタS_cnt_nをインクリメントし、次のステップS
4_18では、カウンタS_cnt_nの値をしきい値である10
と比較する。そして、S_cnt_nが10以上の場合にの
み、次のステップS4_19,S4_20を実行する。ステップ
S4_19ではカウンタS_cnt_nに10をストアし、ステッ
プS4_20では、最新の状態を保持するフラグS_night_N
に応じて、最終的な識別結果であるフラグS_nightの状
態を更新する。従ってこの例では、フラグS_night_Nと
フラグS_night_Oとが一致する状態が10回連続的に生
じた場合にのみ、フラグS_nightの状態が変わる。これ
により、夕方の画像のように各小領域の平均階調値がし
きい値(THa)に近い場合であっても、最終識別結果
(S_night)が頻繁に切換わるのを防止することができ
る。
【0198】もう1つの変形例を図74に示す。図62
のステップS4_2〜S4_4の部分を変更したものが図74
の処理である。図74を参照して変更された部分を説明
する。この実施例では、予め小領域毎にそれぞれ独立し
た重み係数を割り当ててある。これらの重み係数が、メ
モリ配列S_k()に保持されており、i番目の小領域の重
み係数は、パラメ−タiで特定されるメモリS_k(i)か
ら得ることができる。ステップS4_22では、メモリS_k
(i)からi番目の小領域の重み係数を読み込み、レジス
タnにストアする。次のステップS4_23では、レジスタ
THNの内容にレジスタnの内容(重み係数)を加算し
てその結果をレジスタTHNに保存する。次のステップ
S4_24では、i番目の小領域のフラグS_flag(i)を参照
する。そして、S_flag(i)=1の場合には、次のステッ
プS4_25で、カウンタcntにレジスタnの内容を加算
して、その結果をカウンタcntに保存する。従って、
全小領域の処理が終了してステップS4_7に進む場合に
は、レジスタTHNの内容は、全小領域の重み係数の総
和であり、カウンタcntの内容は、全小領域のうち、
「夜の候補」とみなされた小領域の重み係数の総和であ
る。従って、ステップS4_7ではレジスタTHNの内容
に基づいてしきい値を決定し、ステップS4_8ではカウ
ンタcntの内容をしきい値(THNの値)と比較する
ことによって、最終的に夜か昼かを識別している。
【0199】テレビカメラによって撮影される画像(例
えば図64)においては、通常は空の領域RGSであっ
ても、その部分に樹木,街路灯など他の画像(即ちノイ
ズ)が含まれる場合がある。また、ノイズが現われる頻
度は、画像上の位置に応じて異なり、一般に、画面の上
に近づくに従って、頻度が小さくなる。従って、例えば
図69の(a)のように空の領域RGS内に多数の小領
域を配置する場合には、小領域の配置される画面中の位
置が上になるに従って、大きな重み係数を割り当てるこ
とにより、ノイズの影響を軽減することができる。
【0200】もう1つの変形例を図75に示す。図75
の処理は、既に説明した図73と図74の処理を組合せ
たものであり、同一の処理ステップには同一の番号を付
して示してある。
【0201】なお上記実施例においては、画像中の空の
領域の明るさに基づいて、夜と昼とを2値的に識別して
いるが、しきい値の種類を増やすことにより、例えば夜
/夕方/昼のような3種類以上の明るさの識別も可能で
ある。先行車を認識するためのアルゴリズムとして、仮
に3種類以上のものを有するのであれば、夜/夕方/昼
のように3種類以上の明るさを識別し、最も好ましいア
ルゴリズムを選択するのが望ましい。
【0202】なお上記実施例においては、先行車など、
自車の前方に存在する被写体の画像を撮影して、先行車
や対向車を認識しているが、テレビカメラの光軸を後方
に向ければ、同一のアルゴリズムで後続車両を認識する
ことができる。
【0203】
【発明の効果】本発明の全ての請求項によれば、例えば
街灯のようなノイズ画像の影響によって、複数の小領域
の一部分について、1次照度識別手段の識別結果に誤り
(例えば、夜間なのに空が明るい)が生じた場合であっ
ても、他の小領域に関する1次照度識別手段の正しい識
別結果に基づいて、2次照度識別手段は、正しい識別結
果を出力することができる。
【0204】また、請求項2では、画像中の参照すべき
画素数が減るので、1次照度識別手段の処理に要する時
間を短縮することができる。
【0205】また、請求項3では、1次照度識別手段が
出力する各小領域の識別結果に、画像中の位置に応じた
重み付けを持たせることができる。例えば、各小領域の
位置が上になるほど、重複部分の面積の比率を大きくす
るように各小領域の位置を定めると、ノイズ画像が現わ
れにくい画像上方の領域の重みを大きくして、より信頼
性の高い識別結果を得られる。
【0206】また請求項4では、各小領域内の全ての画
素を処理する必要がないので、1次照度識別手段の処理
に要する時間が短縮される。
【0207】また請求項5では、参照すべき全小領域の
総画素数が多い場合であっても、全小領域の明るさの平
均値を計算する前に、識別結果を出力することができる
ので、短い周期で識別結果を得ることができる。
【0208】また請求項6では、例えば第1の状態(夜
の候補)と第2の状態(昼の候補)を2値的に識別する
場合に、第1の状態から第2の状態に移る場合と、第2
の状態から第1の状態に移る場合とでしきい値を変える
ことができるので、ヒステリシス特性を有する識別が可
能になる。
【0209】また請求項7では、一時的な明るさの変化
に反応するのを抑制する効果があるので、例えば夜間の
街灯の光や対向車のヘッドライトの光などの影響によっ
て、画像中の空の領域にノイズ画像、即ち一時的な明る
さの変化が生じたとしても、その影響を受けることな
く、正確な識別結果を出力することができる。
【0210】また請求項8では、例えば第1の状態と第
2の状態を2値的に識別する場合に、第1の状態から第
2の状態に移る場合と、第2の状態から第1の状態に移
る場合とでしきい値を変えることができるので、ヒステ
リシス特性を有する識別が可能になる。
【0211】また請求項9では、前記1次照度識別手段
の識別結果として特定の値が得られた小領域の数に応じ
た2次識別結果(S_night)を得ることができる。
【0212】また請求項10では、一時的な明るさの変
化に反応するのを抑制する効果があるので、例えば夜間
の街灯の光や対向車のヘッドライトの光などの影響によ
って、画像中の空の領域にノイズ画像、即ち一時的な明
るさの変化が生じたとしても、その影響を受けることな
く、正確な識別結果を出力することができる。
【0213】また請求項11では、各小領域の画像中の
位置に応じた重み付けをしたうえで最終的な明るさが識
別されるので、より信頼性の高い識別結果を得ることが
可能である。例えば、画像中の位置が上になるほど、ノ
イズ画像が現われにくいので、各小領域の位置が上にな
るほど、重み係数を大きくすればより信頼性の高い識別
結果を得られる。
【0214】また請求項12では、一時的な明るさの変
化に反応するのを抑制する効果が得られる。
【図面の簡単な説明】
【図1】 本発明を一態様で実施する、車両上の、前方
車両認識システムを示すブロック図である。
【図2】 図1に示すテレビカメラ6bの、車両上の配
置位置を示す側面概要図である。
【図3】 テレビカメラ6bの撮影画像デ−タに基づい
た、図1に示すマイクロプロセッサ1の、第1実施例に
おける、自車両前方の路面上白線および先行車両を検出
する処理の概要を示すメインル−チンのフロ−チャ−ト
である。
【図4】 図3の「画面の校正」Cの内容を示すフロ−
チャ−トである。
【図5】 (a)は図4に示す「特徴点検出ウィンドウ
1セット」C1の内容を示すフロ−チヤ−ト、(b)は
図1に示すテレビカメラ6bの撮影画面を示す平面図で
ある。
【図6】 (a)は図4に示す「特徴点検出(UP)」
C2の内容を示すフロ−チャ−ト、(b)は撮影画面の
Y方向の画像デ−タの微分値を算出するときの、注目点
(算出点画素:×印)と、参照点(参照画素:白四角)
を示す平面図である。
【図7】 (a)は図4に示す「ボンネット検出」C3
の内容を示すフロ−チャ−ト、(b)は撮影画面上のボ
ンネットエッジを近似する直線を示す平面図である。
【図8】 (a)は図4に示す「ロ−ル角,パン移動量
計算」C5で算出するロ−ル角とパン移動量を撮影画面
上に示す平面図、(b)は図4に示す「画像回転平行移
動」C7で撮影画面上の画素アドレスを、ロ−ル角分回
転しパン移動量分平行移動した補正画面上の画素アドレ
スに、変換する変換式を示す平面図である。
【図9】 図4の「補正画像メモリイニシャライズ」C
6の内容を示すフロ−チャ−トである。
【図10】 図4の「画像回転平行移動」C7の内容を
示すフロ−チャ−トである。
【図11】 図4の「補間」C8の一部を示すフロ−チ
ャ−トである。
【図12】 図4の「補間」C8の残り部分を示すフロ
−チャ−トである。
【図13】 図3の「自車レ−ン検出」Dを示すフロ−
チャ−トである。
【図14】 (a)は図13に示す「特徴点検出ウィン
ドウ2−1セット」D1の内容を示すフロ−チヤ−ト、
(b)は前記補正画面上に設定するウィンドウ2の領域
を示す平面図である。
【図15】 図13の「左右白線検出」D3を示すフロ
−チャ−トである。
【図16】 前記補正画面の画像とウィンドウ2を示す
平面図である。
【図17】 図15に示す「直線当てはめ」63の内容
の一部を示すフロ−チャ−トである。
【図18】 図15に示す「直線当てはめ」63の内容
の残りの部分を示すフロ−チャ−トである。
【図19】 図17および図18に示す「ハフグリッド
クリア(HG1)」65,「ハフグリッドクリア(HG
2)」70R,70Lおよび「ハフグリッドクリア(H
G3)」75R,75Lの内容を、汎用形式で示すフロ
−チャ−トであり、図19中のnは、1,2又は3であ
る。
【図20】 図17および図18に示す「ハフ変換(H
G1)」67,「ハフ変換(HG2)」72R,72L
および「ハフ変換(HG3)」77R,77Lの内容
を、汎用形式で示すフロ−チャ−トであり、図20中の
nは、1,2又は3である。
【図21】 図17および図18に示す「最大点探索
(HG1)」68,「最大点探索(HG2)」73R,
73Lおよび「最大点探索(HG3)」78R,78L
の内容を、汎用形式で示すフロ−チャ−トであり、図2
1中のnは、1,2又は3である。
【図22】 図13の「無限遠点計算」D4を示すフロ
−チャ−トである。
【図23】 図1に示すテレビカメラ6b内のレンズお
よび撮像素子と車両前方の先行車両との幾何学的関係を
示す側面概要図である。
【図24】 図3の「隣接レ−ン推定」Fを示すフロ−
チャ−トである。
【図25】 前記補正画面上の、前記「隣接レ−ン推
定」Fで推定した隣接レ−ンを斜線で塗りつぶして示す
平面図である。
【図26】 図3に示す「ウィンドウ2−1内の車両検
出」DET1の中の、図28,図47および図50に示
す車両認識および測距H,IおよびJで物体検出を行な
う探索領域を縦線および横線の塗りつぶしで示す平面図
である。
【図27】 (a)は図3に示す「ウィンドウ2−2内
の車両検出」DET2で物体検出を行なう探索領域を縦
線および横線の塗りつぶしで示す平面図、(b)は図3
に示す「ウィンドウ2−2内の車両検出」DET3で物
体検出を行なう探索領域を縦線および横線の塗りつぶし
で示す平面図である。
【図28】 図3に示す「自車レ−ン先行車両認識及び
測距」Hの内容を示すフロ−チャ−トである。
【図29】 図28に示す「車両候補位置の検出1」H
1の内容を示すフロ−チャ−トである。
【図30】 図29に示す「特徴点メモリクリア」13
1の内容を示すフロ−チャ−トである。
【図31】 図29に示す「水平特徴点の検出1」13
2の内容を示すフロ−チャ−トである。
【図32】 (a)は図31に示す「1ライン水平特徴
点の検出」151Lの内容を示すフロ−チャ−ト、
(b)は水平特徴点の検出のため前記補正画面のY方向
の画像デ−タの微分値を算出するときの、注目点(算出
点画素:×印)と、参照点(参照画素:白四角)を示す
平面図である。
【図33】 図29の「ヒストグラムメモリクリア」1
33を示すフロ−チャ−トである。
【図34】 図29の「y方向ヒストグラム作成」13
4を示すフロ−チャ−トである。
【図35】 図29の「y方向極大点検出」135を示
すフロ−チャ−トである。
【図36】 図35の「レ−ン左端点計算」176およ
び「レ−ン右端点計算」177を示すフロ−チャ−トで
ある。
【図37】 図29の「x方向重心計算」136を示す
フロ−チャ−トである。
【図38】 図28の「車両左右端の検出」H3を示す
フロ−チャ−トである。
【図39】 図38の「車両左右端位置推定」201を
示すフロ−チャ−トである。
【図40】 図38の「左端垂直特徴点検出」203L
を示すフロ−チャ−トである。
【図41】 図38の「x方向ヒストグラム作成」20
5Lを示すフロ−チャ−トである。
【図42】 図38の「x方向最大点検出」206Lを
示すフロ−チャ−トである。
【図43】 図38の「右端垂直特徴点検出」203R
を示すフロ−チャ−トである。
【図44】 図28の「車両の検定」H4を示すフロ−
チャ−トである。
【図45】 図28の「車間距離計算」H6を示すフロ
−チャ−トである。
【図46】 図28の「車幅学習計算」H7を示すフロ
−チャ−トである。
【図47】 図3の「右隣接レ−ン車両認識及び測距」
Iを示すフロ−チャ−トである。
【図48】 図47の「車両候補の位置の検出2」I1
を示すフロ−チャ−トである。
【図49】 図48の「水平特徴点の検出2」258を
示すフロ−チャ−トである。
【図50】 図3の「左隣接レ−ン車両認識及び測距」
Jを示すフロ−チャ−トである。
【図51】 図50の「車両候補の位置の検出3」J1
を示すフロ−チャ−トである。
【図52】 図51の「水平特徴点の検出3」277を
示すフロ−チャ−トである。
【図53】 テレビカメラ6bの撮影画像デ−タに基づ
いた、図1に示すマイクロプロセッサ1の、第2実施例
における、自車両前方の路面上白線および先行車両を検
出する処理の概要を示すフロ−チャ−トである。
【図54】 図3の「昼夜の判定」Sを示すフロ−チャ
−トである。
【図55】 撮影して得られた2次元画像中の各領域の
位置関係を示す平面図である。
【図56】 図54のステップS1の詳細を示すフロ−
チャ−トである。
【図57】 領域RGS中に定めた小領域A1〜A16
の位置関係を示す平面図である。
【図58】 図54のステップS2の詳細を示すフロ−
チャ−トである。
【図59】 1つの小領域の画素構成を示す平面図であ
る。
【図60】 2次元メモリ配列S_pos(S_cy,j)上の各
要素に割当てた数値を示すメモリマップである。
【図61】 図54のステップS3の詳細を示すフロ−
チャ−トである。
【図62】 図54のステップS4の詳細を示すフロ−
チャ−トである。
【図63】 夜間に撮影される画像の一例を示す平面図
である。
【図64】 昼間に撮影される画像の一例を示す平面図
である。
【図65】 夕方に撮影される画像の一例を示す平面図
である。
【図66】 1つの水平走査線SLの期間における映像
信号の波形図であり、(a),(b)及び(c)はそれ
ぞれ夜間,昼間及び夕方の信号に対応する。
【図67】 空の領域RGS上の小領域群の配置の6種
類の変形例を示す平面図である。
【図68】 空の領域RGS上の小領域群の配置の6種
類の変形例を示す平面図である。
【図69】 空の領域RGS上の小領域群の配置の6種
類の変形例を示す平面図である。
【図70】 図61に示す処理の変形例を示すフロ−チ
ャ−トである。
【図71】 図61に示す処理のもう1つの変形例を示
すフロ−チャ−トである。
【図72】 図61に示す処理のもう1つの変形例の処
理の一部を示すフロ−チャ−トである。
【図73】 図62に示す処理の変形例を示すフロ−チ
ャ−トである。
【図74】 図62に示す処理のもう1つの変形例を示
すフロ−チャ−トである。
【図75】 図62に示す処理のもう1つの変形例を示
すフロ−チャ−トである。
【符号の説明】
1:マイクロプロセッサ(CPU) 2:ROM 3:RAM 4〜6:入出力ポ−
ト 4a:CRTドライバ 4b:CRT 5a:イメ−ジメモリ 6a:カメラコン
トロ−ラ 6b:テレビカメラ 6c:A/Dコン
バ−タ 7:通信コントロ−ラ 8:ホストマイクロ
プロセッサ(CPU)

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 移動体上に搭載され、少なくとも該移動
    体の外部の空を含む景色の2次元画像を撮像し、該画像
    の各部の明るさを示す信号を出力する、2次元撮像手段
    を含み、該2次元撮像手段が撮像した2次元画像の信号
    に基づいて、移動体の外部環境の明るさを少なくとも2
    種類に識別する移動体上照度識別装置において:前記2
    次元撮像手段が撮像した2次元画像のうち、空の領域に
    相当すると予想される特定の領域内に、複数の小領域を
    定める、小領域決定手段;該小領域決定手段が定めた前
    記複数の小領域のそれぞれについて、該小領域の実質上
    平均的な明るさを2種類以上に識別する、1次照度識別
    手段;及び前記複数の小領域のそれぞれに対する前記1
    次照度識別手段の識別結果の全てに基づいて、前記移動
    体の外部環境の明るさを少なくとも2種類に識別する2
    次照度識別手段;を設けたことを特徴とする、移動体上
    照度識別装置。
  2. 【請求項2】 前記小領域決定手段は、互いに隣接する
    小領域同士の間に、前記1次照度識別手段の処理対象か
    ら外れた、非参照領域を設けるように各小領域の位置を
    決定する、前記請求項1記載の移動体上照度識別装置。
  3. 【請求項3】 前記小領域決定手段は、少なくとも一部
    分の複数の小領域をそれらの位置が互いに部分的に重複
    する状態で位置決めするとともに、各小領域とその重複
    部分との面積の比率が2種類以上になるように、各小領
    域の位置を決定する、前記請求項1記載の移動体上照度
    識別装置。
  4. 【請求項4】 前記1次照度識別手段は、小領域決定手
    段が定めた前記複数の小領域のそれぞれについて、該小
    領域を構成する画素群のうち、特定の走査線の画素を処
    理対象から除外し、残りの画素群のみについて、その情
    報を入力し、それらの実質上平均的な明るさを2種類以
    上に識別する、前記請求項1記載の移動体上照度識別装
    置。
  5. 【請求項5】 前記1次照度識別手段は、小領域決定手
    段が定めた前記複数の小領域のそれぞれに対応付けられ
    た複数の平均値記憶手段を含み、前記複数の小領域のそ
    れぞれについて、順番に各々の小領域の明るさの平均値
    を求めてその結果を対応する平均値記憶手段に記憶し、
    全ての小領域についてそれらの明るさの平均値を求める
    のに要する時間よりも短い周期で、全ての小領域につい
    て、それらの明るさを平均値記憶手段に記憶された値に
    基づいて識別する、前記請求項1記載の移動体上照度識
    別装置。
  6. 【請求項6】 前記1次照度識別手段は、小領域決定手
    段が定めた前記複数の小領域のそれぞれに対応付けられ
    た複数の1次識別結果記憶手段を含み、前記複数の小領
    域のそれぞれについての明るさの識別結果を対応する1
    次識別結果記憶手段に保持するとともに、前記1次識別
    結果記憶手段に保持された過去の識別結果に応じて、現
    在の各小領域の明るさを識別するために参照するしきい
    値を2種類以上の値の中から自動的に選択する、前記請
    求項1記載の移動体上照度識別装置。
  7. 【請求項7】 前記1次照度識別手段は、小領域決定手
    段が定めた前記複数の小領域のそれぞれに対応付けられ
    た複数の1次識別結果記憶手段、および前記複数の小領
    域のそれぞれに対応付けられた複数の一致回数カウンタ
    手段を含み、前記複数の小領域のそれぞれについての明
    るさの識別結果を対応する1次識別結果記憶手段に保持
    し、前記1次識別結果記憶手段に保持された過去の識別
    結果と、現在の各小領域の明るさの平均値との両者の一
    致の有無の時間的な連続性の情報を前記一致回数カウン
    タ手段に保持し、該一致回数カウンタ手段の内容に応じ
    て、各小領域の明るさを識別する、前記請求項1記載の
    移動体上照度識別装置。
  8. 【請求項8】 前記1次照度識別手段は、前記1次識別
    結果記憶手段に保持された過去の識別結果に応じて、現
    在の各小領域の明るさを識別するために参照するしきい
    値を2種類以上の値の中から自動的に選択する、前記請
    求項7記載の移動体上照度識別装置。
  9. 【請求項9】 前記2次照度識別手段は、前記1次照度
    識別手段の識別結果として特定の値が得られた小領域の
    数を計数する照度カウンタ手段を含み、識別対象の前記
    複数の小領域の総数に応じたしきい値と、前記照度カウ
    ンタ手段の内容とを比較し、その結果を2次識別結果と
    して出力する、前記請求項1記載の移動体上照度識別装
    置。
  10. 【請求項10】 前記2次照度識別手段は、前記複数の
    小領域のそれぞれに対応付けられた複数の2次識別結果
    記憶手段、および前記複数の小領域のそれぞれに対応付
    けられた複数の2次一致回数カウンタ手段を含み、前記
    複数の小領域のそれぞれについての前記2次識別結果を
    前記2次識別結果記憶手段に保持し、前記2次識別結果
    記憶手段に保持された過去の2次識別結果と、現在の各
    小領域に関する2次識別結果との両者の一致の有無の時
    間的な連続性の情報を前記2次一致回数カウンタ手段に
    保持し、該2次一致回数カウンタ手段の内容に応じて、
    最終識別結果を出力する、前記請求項9記載の移動体上
    照度識別装置。
  11. 【請求項11】 前記2次照度識別手段は、前記複数の
    小領域のそれぞれに対応付けられた複数の重み係数を保
    持する重み係数保持手段,識別対象の前記複数の小領域
    の重み係数を積算する係数積算手段,及び前記1次照度
    識別手段の識別結果として特定の値が得られた小領域の
    数を計数する照度カウンタ手段を含み、前記係数積算手
    段によって求められた係数と、前記照度カウンタ手段の
    内容とに基づいて、2次識別結果を求める、前記請求項
    1記載の移動体上照度識別装置。
  12. 【請求項12】 前記2次照度識別手段は、前記複数の
    小領域のそれぞれに対応付けられた複数の2次識別結果
    記憶手段、および前記複数の小領域のそれぞれに対応付
    けられた複数の2次一致回数カウンタ手段を含み、前記
    複数の小領域のそれぞれについての前記2次識別結果を
    前記2次識別結果記憶手段に保持し、前記2次識別結果
    記憶手段に保持された過去の2次識別結果と、現在の各
    小領域に関する2次識別結果との両者の一致の有無の時
    間的な連続性の情報を前記2次一致回数カウンタ手段に
    保持し、該2次一致回数カウンタ手段の内容に応じて、
    最終識別結果を出力する、前記請求項11記載の移動体
    上照度識別装置。
JP7178985A 1995-07-14 1995-07-14 移動体上照度識別装置 Pending JPH0935059A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7178985A JPH0935059A (ja) 1995-07-14 1995-07-14 移動体上照度識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7178985A JPH0935059A (ja) 1995-07-14 1995-07-14 移動体上照度識別装置

Publications (1)

Publication Number Publication Date
JPH0935059A true JPH0935059A (ja) 1997-02-07

Family

ID=16058104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7178985A Pending JPH0935059A (ja) 1995-07-14 1995-07-14 移動体上照度識別装置

Country Status (1)

Country Link
JP (1) JPH0935059A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028957A (ja) * 2006-07-25 2008-02-07 Denso Corp 車両用画像処理装置
JP2008054171A (ja) * 2006-08-28 2008-03-06 Daihatsu Motor Co Ltd 車載画像処理装置
JP2008165743A (ja) * 2006-12-29 2008-07-17 Alpine Electronics Inc 昼夜画像識別方法及び装置
JP2010169583A (ja) * 2009-01-23 2010-08-05 Toyota Central R&D Labs Inc 照明環境判定装置及びプログラム
WO2011036936A1 (ja) * 2009-09-24 2011-03-31 日立オートモティブシステムズ株式会社 障害物検知装置
KR101134857B1 (ko) * 2006-07-06 2012-04-13 포항공과대학교 산학협력단 주간 및 야간 주행 차량을 조도상황에 따라 검출하는 방법및 장치
JP2017505946A (ja) * 2014-01-17 2017-02-23 ケーピーアイティ テクノロジーズ リミテッド 車両検出システムおよびその方法
CN112020461A (zh) * 2018-04-27 2020-12-01 图森有限公司 用于确定汽车到车道距离的系统和方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101134857B1 (ko) * 2006-07-06 2012-04-13 포항공과대학교 산학협력단 주간 및 야간 주행 차량을 조도상황에 따라 검출하는 방법및 장치
JP2008028957A (ja) * 2006-07-25 2008-02-07 Denso Corp 車両用画像処理装置
JP2008054171A (ja) * 2006-08-28 2008-03-06 Daihatsu Motor Co Ltd 車載画像処理装置
JP2008165743A (ja) * 2006-12-29 2008-07-17 Alpine Electronics Inc 昼夜画像識別方法及び装置
JP2010169583A (ja) * 2009-01-23 2010-08-05 Toyota Central R&D Labs Inc 照明環境判定装置及びプログラム
WO2011036936A1 (ja) * 2009-09-24 2011-03-31 日立オートモティブシステムズ株式会社 障害物検知装置
JP2011069626A (ja) * 2009-09-24 2011-04-07 Hitachi Automotive Systems Ltd 障害物検知装置
US8705796B2 (en) 2009-09-24 2014-04-22 Hitachi Automotive Systems, Ltd. Obstacle detection device
JP2017505946A (ja) * 2014-01-17 2017-02-23 ケーピーアイティ テクノロジーズ リミテッド 車両検出システムおよびその方法
CN112020461A (zh) * 2018-04-27 2020-12-01 图森有限公司 用于确定汽车到车道距离的系统和方法
CN112020461B (zh) * 2018-04-27 2024-02-27 图森有限公司 用于确定汽车到车道距离的系统和方法

Similar Documents

Publication Publication Date Title
JPH06213660A (ja) 像の近似直線の検出方法
CN104956400B (zh) 移动对象识别器、车辆及识别移动对象的方法
US5910817A (en) Object observing method and device
JP5809785B2 (ja) 車両用外界認識装置およびそれを用いた配光制御システム
US6963661B1 (en) Obstacle detection system and method therefor
US5535144A (en) Distance detection method and system using a stereoscopical imaging apparatus
JP2535927B2 (ja) 車上距離検出装置
US20030227378A1 (en) Obstacle detecting apparatus and method
JP4425642B2 (ja) 歩行者抽出装置
JP2002359838A (ja) 運転支援装置
JP4872769B2 (ja) 路面判別装置および路面判別方法
JP3268325B2 (ja) 車上認識対象画像デ−タの前処理方法
TWI401473B (zh) 影像式夜間行人偵測系統及方法
JPH0935197A (ja) 車輌認識方法
US20150154459A1 (en) Lane departure warning system and method of controlling the same
JP2007179386A (ja) 白線認識方法及び白線認識装置
US20190213427A1 (en) Detection and Validation of Objects from Sequential Images of a Camera
KR101134857B1 (ko) 주간 및 야간 주행 차량을 조도상황에 따라 검출하는 방법및 장치
JPH0935059A (ja) 移動体上照度識別装置
JP3143814B2 (ja) 車両前方の物体の距離検出方法
JP2007018451A (ja) 道路区画線検出装置
CN111881878A (zh) 一种环视复用的车道线识别方法
JP3146427B2 (ja) 車両前方の物体検出方法
JPH06215290A (ja) 車両前方の物体検出方法
CN110688876A (zh) 一种基于视觉的车道线检测方法及装置