JP2006119026A - 前方物体検出装置及び前方物体検出方法 - Google Patents

前方物体検出装置及び前方物体検出方法 Download PDF

Info

Publication number
JP2006119026A
JP2006119026A JP2004308168A JP2004308168A JP2006119026A JP 2006119026 A JP2006119026 A JP 2006119026A JP 2004308168 A JP2004308168 A JP 2004308168A JP 2004308168 A JP2004308168 A JP 2004308168A JP 2006119026 A JP2006119026 A JP 2006119026A
Authority
JP
Japan
Prior art keywords
detection
road
road structure
point
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004308168A
Other languages
English (en)
Other versions
JP5055691B2 (ja
Inventor
Kazumi Fujimoto
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004308168A priority Critical patent/JP5055691B2/ja
Publication of JP2006119026A publication Critical patent/JP2006119026A/ja
Application granted granted Critical
Publication of JP5055691B2 publication Critical patent/JP5055691B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】道路構造物及び道路構造物以外の物体を正確に検出する前方物体検出装置又は前方物体検出方法を提供する。
【解決手段】
自車両の前方に出射された走査波の反射波に基づいて検出された前記物体の検出ポイントの情報を含む検出情報を取得する検出情報取得手段20と、自車両の現在位置を取得するとともに、地図データベースにアクセスして自車両前方の道路形状情報を取得し、当該道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する道路形状モデル算出手段10と、取得された検出情報と算出された道路形状モデルとに基づいて道路構造物モデルを算出し、算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物として検出する道路構造物検出手段30とを有する。
【選択図】 図2

Description

本発明は、車両前方の物体を検出する前方物体検出装置及び前方物体検出方法に関し、特に道路構造物を検出し、さらに道路構造物以外の物体を検出する装置及び方法に関する。
車両前方の道路形状を計測する装置として、例えば、特開平07−027541号公報(特許文献1参照)に記載されたものが知られている。この計測装置によれば、車両に搭載された撮像手段が撮像した画像から前方の道路形状を抽出し、道路の3次元形状を含む地図情報と車両位置パラメータから3次元の道路モデルを演算し、画像から得られた道路形状と演算した道路モデルとを比較して両者間の位置のズレ量を算出し、算出したズレ量を考慮した自車両位置を推定することにより、道路形状を正確に計測することができる。
しかしながら、従来の道路形状の計測処理では、撮像手段により撮像された画像を用いるため、撮像距離に応じた画像精度の低下に伴い、撮像手段から離隔した遠方の道路形状を正確に抽出することが困難であるという問題があった。すなわち、撮像された画像から抽出された道路形状と地図情報から演算された道路形状とのズレ量を正確に算出することが困難であるという問題があった。
特開平7−27541号公報
本発明は、このような従来の課題を解決するためになされたものであり、道路形状を示す道路構造物を含む前方物体を正確に検出することを目的とする。
本発明によれば、自車両の前方に出射された走査波の反射波に基づいて検出された前記物体の検出ポイントを含む検出情報を取得し、地図データベースにアクセスして自車両の現在位置における前方の道路形状情報を取得し、この道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出し、取得された検出情報と算出された道路形状モデルとに基づいて道路構造物モデルを算出し、算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、グルーピングされた検出ポイントに対応する物体を道路構造物として検出するステップとを有する前方物体検出装置及び前方物体検出方法が提供される。
これにより、道路構造物等を含む前方物体を正確に検出することができる。
本発明の前方物体検出装置100は、ユーザが搭乗する車両に搭載され、自車両前方に存在する道路構造物、又は他車両、設置物その他の可動物(道路構造物以外の物)を検出する。特に、前方物体の所在点を示す検出ポイントについて所定のグルーピング処理を行うことにより、道路構造物を正確に検出する。
以下、図面に基づいて、本発明に係る2つの実施形態の前方物体検出装置100を説明する。第1の実施形態は道路構造物を少なくとも検出する第1検出手段(道路構造物検出手段)30を有し、第2の実施形態は道路構造物を検出するとともに、第1検出手段30によって判断された道路構造物以外の物体、例えば他車両、施設、設備その他の可動物を検出する第2検出手段(可動物検出手段)40を有する。
<第1実施形態>
図1に第1実施形態の前方物体検出装置100を含む車載システムの構成の概要を示した。図1に示すように、本実施形態の前方物体検出装置100は、他の車載装置1000と有線又は無線の車載LAN等により通信可能に接続され、各種情報の授受を行うことができる。
前方物体検出装置100は、道路形状モデル算出手段10と、検出情報取得手段20と、第1検出手段30とを有する。道路形状モデル算出手段10は、外部のナビゲーション装置400と情報の授受が可能なように接続され、現在位置検出機能410から現在位置を取得するとともに、地図データベース420にアクセスして自車両前方の道路形状情報を取得し、道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する。検出情報取得手段20は、外部のレーザレーダ200、車両挙動検出装置300と情報の授受が可能なように接続され、自車両の前方に出射された走査波の反射波の基づいて検出された物体の検出ポイントの情報を含む検出情報を取得する。第1検出手段30、取得した検出情報と算出された道路形状モデルとに基づいて道路構造物モデルを算出し、この道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、グルーピングした検出ポイントに対応する物体を道路構造物として検出する。
本実施形態の前方物体検出装置100は、検出情報と地図データベースの道路形状情報から求めた道路形状モデルとから道路構造物モデルを算出するため、実際の道路構造物とズレ量の少ない道路構造物モデルを導出することができ、この算出した道路構造物に基づいて前方の物体を検出することから、前方物体を正確に検出することができる。また、本実施形態では距離が遠くなるほど精度が低下する撮像画像を用いることなく物体を検出するため、自車両の広い範囲(自車両から離れた範囲)で物体を正確に検出することができる。また、本実施形態では、検出ポイントの相対速度を参照することなく道路構造物を検出するので、検出ポイントが密集した状態が検出され、検出ポイント同士の時間的な対応づけが容易ではなく、検出ポイントの相対速度を算出することが容易でない場合であっても道路構造物を正確に検出することができる。
次に、車載システムを構成する外部装置について先に説明し、その後に本実施形態の前方物体検出装置100の具体的構成について説明する。
車載装置1000は、前方物体検出機能を備えたレーザレーダ200と、走行時の車両の挙動を検出する機能を備えた車両挙動検出装置300と、自車両の現在位置及び走行道路及び走行道路の形状を認識する機能を備えたナビゲーション装置400と、検出した前方物体についての情報をユーザに提示する機能を備えたディスプレイ、スピーカその他の出力装置500とを有している。
図2にレーザレーダ200の設置位置を示した。図2(A)は車両600を側面から見た図、図2(B)は車両600を上面から見た図である。本実施形態では、距離センサとしてスキャニングレーザレーダ(以下、「レーザレーダ」という)を利用して検出情報を取得する場合を例にして説明するが、自車両前方に出射された走査波の反射波に基づいて検出された物体の検出ポイント(検出された物体が存在する相対的位置)を含む検出情報を検出できれば特に限定されない。
図2(A)(B)に示すように、レーザレーダ200は、自車両600の前部に設置される。また、レーザレーダ200は、スキャニング面において所定の角度で光軸を変更し、所定のスキャン範囲でレーザ光(走査光)Lを走査させ、スキャン範囲に存在する物体に向けてレーザ光を照射する。レーザレーダ200は、出射したレーザ光が前方に存在する物体に照射されて反射された反射レーザ光(反射波)を検出することにより、反射レーザ光(反射波)の光強度に基づいた反射信号を取得する。そして、レーザレーダ200は、取得した反射信号に基づいた距離計測処理を行うことにより、距離計測情報等を含む検出情報を生成し、これらの検出情報を前方物体検出装置100の検出情報取得手段20に向けて出力する。
車両挙動検出装置300は、自車両600の自車位置を取得するGPS(Global Positioning System)受信センサと、シフトポジションを検出するシフトポジションセンサと、自車両左右後輪の車輪速を検出する車輪速センサと、自車両600の操舵角を検出する操舵角センサとを備える。車両挙動検出装置300は、GPS受信センサからのセンサ信号、シフトポジションセンサからのセンサ信号、車輪速センサからのセンサ信号、操舵角センサからのセンサ信号を用いて、自車位置、自車両進行方向、自車両600の向き、及び移動距離を算出する。GPS受信センサはナビゲーション装置400が備えるものを利用し、ナビゲーション装置400から受信センサ等を取得してもよい。また、車両挙動検出装置300は、ナビゲーション装置400が有する地図データベース420にアクセス可能であり、算出した自車位置(現在位置)、自車両進行方向、自車両の向き及び移動距離を、車両走行情報として前方物体検出装置100へ向けて出力する。
ナビゲーション装置400は、GPS機能(Global Positioning System)、および自律航法を利用して、自車両の現在位置を検出するとともに目的地に至る経路を案内する一般のナビゲーション機能を有する。ナビゲーション装置400は、電子的な処理が可能な地図データベース420を有する。本実施形態の地図データベース420は、各道路の形状に関する道路形状データを含み、道路形状データは位置情報と対応づけられている。つまり、現在位置を特定する情報を検出できればその現在位置を含む走行道路の道路形状データを取得することができる。さらに、自車両の走行方向が検出できれば、現在位置を含む走行道路における自車両の走行方向(自車両の前方)の道路形状データを取得することができる。
出力装置500は、前方物体検出装置100により検出された前方物体に関する情報をユーザに向けて提示可能なディスプレイ装置、スピーカ装置その他の提示装置である。
次に、本実施形態の前方物体検出装置100の構成を具体的に説明する。
図3に前方物体検出装置100の演算装置にかかる具体的なブロック構成を示した。図3に示すように、前方物体検出装置100の演算装置は、道路形状モデル算出手段10と、検出情報取得手段20と、第1検出手段30(以下「道路構造物検出手段30」という)とを少なくとも有し、自車両の車載装置に搭載されたCPU(Central Processing Unit)、 RAM(Random Access Memory)、 ROM(Read Only Memory)、 入出力I/F等からなるマイクロコンピュータで構成されている。具体的には、少なくとも、道路形状モデルを算出するプログラム、道路構造物モデルを算出するプログラム、及び道路構造物を検出するプログラムを格納したROM(Read Only Memory)等と、このROM等に格納されたプログラムを実行することで、道路形状モデル算出手段10と、第1検出手段30として機能するCPU(Central Processing Unit)等と、アクセス可能な記憶手段として機能するRAM(Random Access Memory)等(メモリ50)とを備えている。また、本実施形態は、各手段の演算処理の過程又は演算処理の結果を記憶するメモリ50を備えているが、メモリ50は各手段又は各手段のいずれかに内蔵させてもよい。以下、各構成について説明する。
「道路形状モデル算出手段10」は、自車両の現在位置を取得するとともに、地図データベース420にアクセスして自車両前方の道路形状情報を取得し、取得した道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する。具体的に、道路形状モデル算出手段10は、少なくとも道路形状情報取得部11を有する。道路形状情報取得部11は、自車両の現在位置を取得し、車載装置1000側の地図データベース420にアクセスして現在位置における自車両前方の道路形状情報を取得する。取得する自車両の現在位置は、ナビゲーション装置400の現在位置検出機能410により検出された情報である。地図データベース420は、位置情報と、道路の方向(車両の進行方向)と道路形状情報とを対応づけて記憶しているため、道路形状情報取得部11は現在位置における車両前方側の道路形状を取得することができる。なお、車両の進行方向は、ナビゲーション装置400から取得してもよいし、車両挙動検出装置300から取得してもよい。道路形状モデル算出手段10は、地図データベース420から取得した道路形状情報に基づいて、自車両前方の走行道路の道路形状モデルを算出する。本例の道路形状モデル算出手段10は二次元で表現された道路形状モデルを算出する。
本実施形態の道路形状モデル算出手段10は、特に限定されないが、取得範囲決定部12と、データ変換部13とを有する。取得範囲決定部12は、検出情報取得手段20により取得される検出情報の検出領域よりも広い領域を、道路形状情報を取得する範囲として決定する。検出情報に対応する検出領域の情報は予めレーザレーダ200から取得してメモリ50に記憶しておくことが好ましく、取得する所定領域は、レーザレーダ200の検出領域を基準として定義しておくことが好ましい。道路形状情報取得部11は、取得範囲決定部12の決定に従い所定領域の道路形状情報を取得する。データ変換部13は、取得したレーザレーダ200の検出領域よりも広い所定領域の道路形状情報をレーザレーダ200の検出領域内に入るようにデータ変換する。このように、検出情報が取得される領域よりも広い領域の道路形状情報を取得し、自車両センサ(レーザレーダ200、車両挙動検出装置300)の検出領域に入るようにデータ変換を行うことにより、地図データベース420から得られる道路形状モデルと、実際に検出される検出情報に基づいて算出される道路構造物モデルとのズレを小さくすることができる。実際の道路構造モデルとのズレ量が小さい道路形状モデルに基づいて、道路構造物モデルの算出、検出ポイントのグルーピングを行うことにより、道路構造物を正確かつ効率的に検出することができる。
「検出情報取得手段20」は、レーザレーダ200の検出情報及び/又は車両挙動検出装置300の検出情報を取得する。取得する検出情報には、自車両の前方に出射された走査波の反射波に基づいて検出された物体の検出ポイントの情報が少なくとも含まれる。
「道路構造物検出手段(第1検出手段)30」は、検出情報取得手段20により取得された検出情報と、道路形状モデル算出手段10により算出された道路形状モデルとに基づいて道路構造物モデルを算出し、算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、このグルーピングされた検出ポイントに対応する物体を道路構造物として検出する。本実施形態において、「道路構造物モデル」は、道路(車道、歩道、自転車道等の道路の部分を含む。以下同じ)の構造及び道路を車道、歩道、自転車道等の道路の部分に区画する縁石線、さく、中央帯、路肩、側帯又は停車帯その他これに類する工作物の構造の所在を示すモデルである。道路構造物モデルは、車両に搭乗するドライバの視認領域面において表現されることが好ましい。
GPS機能により検出された現在位置及び車両の走行情報(進行方向を含む)に基づいて地図データベース420から取得した道路形状情報は、自車前方の道路形状を示すことは確かであることから、この道路形状情報を基準として算出した道路形状モデルに基づいて道路構造物モデルを算出することにより、本実施形態では正確な道路形状の算出を行うことが可能となる。特に、道路形状モデル算出手段10がレーザレーダ200の検出領域よりも広い領域の道路形状情報を取得して、検出情報の検出領域に入るようにデータ変換を行うことにより、自車両が移動中であっても道路構造物を正確に検出することができる。
図3に基づいて、本実施形態の道路構造物検出手段30の具体的な構成を説明する。特に限定されないが、本実施形態の道路構造物検出手段30は、検出領域設定部31と、起点抽出部32と、線分検出部33と、モデル算出部34と、判定部35と、検出結果出力部36とを有している。
「検出領域設定部31」は、道路形状モデル算出手段10により算出された道路形状モデルを基準とした、先のタイミングにおける道路構造物の検出位置に応じて、現タイミングにおける道路構造物の検出領域を設定する。検出領域の設定基準は任意に定義することができる。特に限定されないが、自車両が走行する道路の道路形状モデルを基準とした右側の検出領域及び左側の検出領域、又は道路形状モデルを基準とした近傍(道路形状モデルに対して所定距離未満)及び遠方(道路形状モデルに対して所定距離以上)の検出領域を設定することができる。本実施形態では、自車両が走行する道路の道路形状モデルに対して近傍右側、近傍左側、遠方右側、遠方左側の4つの検出領域を設定した。
「起点抽出部32」は、検出領域設定部31により設定された検出領域ごとに道路構造物モデルの起点となる検出ポイントを抽出する。検出ポイントの抽出手法は、後に制御手順とともに具体的に説明する。
「線分検出部33」は、起点抽出部32により抽出された起点と、その起点と所定の位置関係にある検出ポイントを順次連結して1又は2以上の線分を検出する。
特に限定されないが、本実施形態の線分検出部33は、第1線分検出部331と第2線分検出部332とを有している。第1線分検出部331は、起点抽出部32により検出された起点と所定の位置関係にある検出ポイントであって、道路形状モデル算出手段10により算出された道路形状モデルに対する距離が所定値以上の検出ポイントを順次連結して1又は2以上の線分を検出する。また、第2線分検出部332は、起点抽出部32により抽出された起点と所定の位置関係にある検出ポイントであって、道路形状モデル算出手段1により算出された道路形状モデルに対する距離が所定値未満の検出ポイントを順次連結して1又は2以上の線分を検出する。つまり、本実施形態の線分検出部33は、算出された道路形状モデルに沿った線分と、道路形状モデルに沿わない(道路形状に依存しない)線分との2種類の線分を検出する。検出された線分は、後の処理において道路構造モデル算出に供されるが、走行する道路形状モデルに沿った線分と沿わない線分とを区別して検出できるため、走行中の道路の前方に分岐があるような複雑な構造を有する道路環境であっても、その構造に応じた線分を検出することができ、道路構造物の所在を正確に検出することができる。
「モデル算出部34」は、線分検出部33により検出された線分に基づいて、道路構造物の形状を近似する道路構造物モデルを算出する。道路構造物モデルの算出手法は、後に制御手順とともに具体的に説明する。
「判定部35」は、モデル算出部34により算出された道路構造物モデルと所定の位置関係にある検出ポイントをグルーピングし、このグルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定する。
本実施形態の判定部35は、モデル算出部34により算出された道路構造モデルと、現在、所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体と、先のタイミングにおいてモデル算出部34により算出され道路構造物モデルとの位置関係に基づいて、現在のタイミングにおいてグルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定する。つまり、今回判定の対象となる物体(グルーピングされた検出ポイント)が、前回判定された道路構造物と所定の位置関係(所定の距離以下、検出された線分の延長線上にあるなど)である場合は、判定の対象となる物体は道路構造物であると判定する。さらに、判定部35は、現在のタイミングにおいてグルーピングされた検出ポイントに対応する物体の位置と、先のタイミングにおいてモデル算出部34により算出された道路構造物モデルの位置とを対比し、その位置の変化が自車両の移動によるものであると判断できる場合、すなわち、相対的位置の変化量が自車両の走行速度と経過時間とを乗じた値に近似している場合は、現在のタイミングにおいてグルーピングされた検出ポイントに対応する物体を道路構造物であると判定する。つまり、先に行った道路構造物の判定結果を利用して、最近のタイミングにおいてグルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定することができる。もちろん、最も単純な判断手法であるが、判定部35は、モデル算出部34により算出された道路構造モデルと所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物であると判定してもよい。
また、本実施形態の判定部35は、グルーピングされた検出ポイントに対応する物体が道路構造物であるか否かを判定する判定基準となる「位置関係」を、所定の条件に応じて更新する判定基準更新部351を有する。判定基準変更部351は、道路構造物に対応する検出ポイント以外の検出ポイントが、道路形状モデルに対して右側又は左側のいずれかの側にあるかを判断し、その判断結果に応じて検出ポイントがグルーピングの対象となるか否かの判断基準となる所定の位置関係を変更する。具体的に、道路構造モデルと所定距離以内にある検出ポイントをグルーピングする場合、道路構造物以外の物体(可動物体)が所在している側の「所定距離(判断基準となる位置関係)」を小さくする。つまり、可動物体が右側にあると判断した場合、右側の判断基準を厳しくする。これにより、他車両などの可動物体が存在する側の道路構造物を、より厳密な条件の下に正確に判定することができる。
本実施形態の制御手順を図4〜図7に基づいて説明する。
図4は、本実施形態の前方物体検出装置100の制御手順を示すフローチャートである。図5〜図7は、レーザレーダ200により自車両前方に出射された走査波の反射波に基づいて検出された物体の検出位置等を示す検出ポイントを示す説明図である。
本実施形態の前方物体検出装置100は、自車両600が走行している場合において、レーザレーダ200を用いて自車両600の前方に存在する物体の距離計測処理を行う。ここでは、図5に示すように、自車両600の前方方向のスキャン範囲内に物体A〜Eが存在する場合を例にして、制御手順を説明する。
自車両に搭載されたレーザレーダ200は、スキャン範囲内(図中矢印で示す範囲)にレーザ光(走査波)を走査し、各物体からの反射波に基づいて距離計測処理をすることで、自車両600からスキャン範囲に含まれる各物体までの距離情報(位置情報)を取得し、この得られた距離情報に基づいて、自車両600に対する物体の位置を示す検出ポイントを検出する。検出情報取得手段20は、レーザレーダ200により生成された距離計測情報をメモリ50に記憶する(S1)。
本例では、図5に示すように、本例のレーザレーダ200(図中、LRで表記)は、自車両600の前方にある物体A〜Eの位置情報を示す検出ポイントa〜mを検出し、検出情報取得手段20は検出ポイントa〜mを含む検出情報を取得する。図5は、物体A〜Eに関する検出ポイントa〜mを、計測された距離に従いプロットした図である。
自車両に搭載された車両挙動検出装置300は、自車位置、自車両進行方向、自車両600の向き、及び移動距離を算出し、検出情報取得手段20へ送出する。検出情報取得手段20は、取得した検出情報をメモリ50に記憶する(同じくS1)。
道路形状モデル算出手段10の道路形状情報取得部11は、レーザレーダ200の検出領域に応じた範囲で、道路形状情報をアクセス可能な地図データベース420から取得する。本例の道路形状情報取得部11は、レーザレーダ200から取得する検出情報の検出領域よりも広い所定領域の道路形状情報を取得する(S2)。具体的に、道路形状モデル算出手段10の取得範囲決定部12は、車両搭載の現在位置検出機能410(GPS機能)から得られた自車位置に基づいて地図データベース420を参照し、レーザレーダ200の検出領域よりも広い範囲、例えば、レーザレーダ200の検出領域が前方200mであるのに対して前方300m、レーザレーダ200の検出領域が左右100mであるのに対して左右150mの道路形状を示す座標情報(道路形状情報)を取得し、少なくとも一時的にメモリ50に記憶する。検出領域の広さと道路形状情報の取得領域の広さとの関係は、特に限定されず、レーザレーダの検出精度、演算処理容量、車両の走行速度などの要因に応じて適宜設定することができる。
道路形状モデル算出手段10のデータ変換部13は、取得した広域の道路形状情報を、レーザレーダ200の検出領域内に入るようにデータを圧縮する(S3)。データ変換部13は、メモリ50から前方の道路形状を示す座標情報(道路形状情報)を取得し、Z方向、X方向の座標値を、それぞれ予め任意に設定した所定値、Z方向を例えば7(所定値)、X方向を例えば2(所定値)で除してデータ圧縮を行い、広範囲の道路形状情報がレーザレーダ200の検出領域に入るように座標変換し、変換後の道路形状情報をメモリ50に記憶する。なお、道路形状情報のデータ変換方法は、広範囲のデータが所定の狭範囲に入るような手法(例えば、内挿処理等)であれば、特に限定されない。
道路形状モデル算出手段10は、メモリ50からデータ変換された道路形状情報を取得し、多次元の道路形状モデルを算出し、メモリ50に記憶する(S4)。このように、地図データベース420からレーザレーダ200の検出領域よりも広範囲の道路形状情報を取得し、レーザレーダ200の検出領域に入るように座標変換を行った後、前方の道路形状モデルを算出するため、地図ベータベース420を基準として算出された道路形状モデルと自車両センサ(レーザレーダ200、車両挙動検出装置300)から得られる検出情報の位置とのズレ量を小さくすることができる。その結果、地図データベース420に基づく道路形状モデルと、検出情報に基づいて算出される道路構造物モデル情報とのズレ量を小さくすることが可能となり、正確な道路形状モデルを求めることができ、道路構造物を正確に検出することができる。このように、ずれ量の小さいデータに基づいて道路構造物の検出を行うため、処理効率を向上させることができる。
ちなみに、本実施形態の検出情報及び道路形状モデルは、処理タイミングが特定できるように処理タイミングの識別子が付加された状態でメモリ50に記憶される。処理タイミングの識別子は、処理カウントであってもよいし、処理タイミングの時刻であってもよいし、自車両の現在位置情報であってもよい。第1検出手段の道路構造物検出手段30は、最近処理された(最新の)道路形状モデル又は検出情報、過去に処理された(第nタイミングに処理された)道路形状モデル又は検出情報を取得することができる。
同様に、道路構造物検出手段30の検出結果、及び検出結果に至るまでの中途処理結果についても、処理タイミングの識別子が付加された状態でメモリ50に記憶される。このように本実施形態では、処理履歴をメモリ50に逐次記憶することにより、現在の時点における道路構造物検出処理において過去の検出結果又は中途処理結果を参照することができる。
次に、S5〜S14までに係る道路構造物検出手段30の処理を説明する。
S5において、道路構造物検出手段30の検出領域設定部31は、道路形状モデル算出手段10により算出された道路形状モデルと、先のタイミングにおける前記道路構造物の検出位置とに基づいて、現タイミングにおける自車両前方の道路構造物を検出する検出領域を設定する(S5)。具体的に、検出領域設定部31は、メモリ50から道路形状モデル情報と過去の複数道路構造物モデル情報を取得し、道路形状モデルを基準として、近傍左側領域(領域2)、遠方右側領域(領域3、近傍右側領域の外側の領域)、遠方左側領域(領域4、近傍左側の外側の領域)の4つの検出領域を設定する。各検出領域は、固定的に設定するのではなく、先のタイミングにおける道路構造物の検出結果に応じて設定する。
ここでは、各検出領域の設定手法について例を挙げて説明する。
まず、近傍左右領域(領域1、領域2)の設定方法について説明する。近傍左右領域は、先のタイミングにおいて、道路形状モデルに対して右側(又は左側)の近傍及び右側(又は左側)の遠方に道路構造物のモデルが算出されたか否か(道路構造物が存在する可能性があったか否か)に応じて設定する。もちろん、道路形状モデルに対して右側(又は左側)の近傍及び右側(又は左側)の遠方に道路構造物が存在すると判定されたか否かに応じて近傍左右の検出領域を設定してもよい。先述したが、道路構造物のモデルが算出されたか否か、又は道路構造物として判定された物体の位置については、各処理履歴を記憶するメモリ50を参照することにより取得することができる。
以下に、設定条件(1)〜(3)の3つの場合における近傍右側の検出領域の設定手法を説明する。
(1)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが非検出の場合は、道路形状モデル上から右側7mまでの領域を近傍右側領域(領域1)として設定する。この条件(1)に基づいて設定された近傍右側領域(領域1)を図6に示した。
(2)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左側3mから道路形状モデル上までの領域を近傍右側領域(領域1)として設定する。
(3)先のタイミングにおいて、道路モデルの右側の近傍に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左右3mの領域を近傍右側領域(領域1)として設定する。
以下に、設定条件(4)〜(6)の3つの場合における近傍左側の検出領域の設定手法を説明する。
(4)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの左側の遠方に道路構造物モデルが非検出であった場合は、道路形状モデル上から左側7mまでの領域を近傍左側領域(領域2)として設定する。
(5)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの左側の遠方に道路構造物モデルが非検出であった場合は、検出された道路構造物モデルの右側3mから道路形状モデル上までの領域を近傍左側領域(領域2)として設定する。
(6)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左右3mの領域を近傍左側領域(領域2)として設定する。この条件(6)に基づいて設定された近傍左側領域(領域2)を図6に示した。
次に、遠方左右領域(領域3、領域4)の設定方法について説明する。遠方左右領域は、先のタイミングにおいて、道路形状モデルに対して右側(又は左側)の近傍及び右側(左側)の遠方に道路構造物のモデルが算出されたか否か(道路構造物が存在する可能性があったか否か)に応じて設定する。もちろん、道路形状モデルに対して右(又は左)近傍及び右(又は左)遠方に道路構造物が存在すると判定されたか否かに応じて遠方左右の検出領域を設定してもよい。先述したが、道路構造物のモデルが算出されたか否か、又は道路構造物として判定された物体の位置については、各処理履歴を記憶するメモリ50を参照することにより取得することができる。
以下に、設定条件(7)〜(9)の3つの場合における遠方右側の検出領域の設定手法を説明する。
(7)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが非検出であり、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが非検出であった場合、道路形状モデルから右側に9m以上離隔している領域を遠方右側領域(領域3)として設定する。この条件(7)に基づいて設定された遠方右側領域(領域3)を図6に示した。
だたし、後述する起点抽出部において、道路形状モデルの近傍右側の検出領域で起点が抽出された場合は、道路形状モデルから起点までの距離に3m付加した加算距離を算出し、道路形状モデルから加算距離以上離隔している領域を優先的に遠方右側領域(領域3)とする。
(8)先のタイミングにおいて、道路形状モデルの右側の近傍に道路構造物モデルが検出され、先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデル非検出である場合、検出された道路構造物モデルから右側に3m以上離隔している領域を遠方右側領域(領域3)として設定する。
(9)先のタイミングにおいて、道路形状モデルの右側の遠方に道路構造物モデルが検出された場合は、検出された道路構造物モデルの左側3mから検出された道路構造物モデルの右側5mまでの領域を遠方右側領域(領域3)として設定する。
以下に、設定条件(10)〜(12)の3つの場合における遠方左側の検出領域の設定手法を説明する。
(10)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが非検出であって、道路形状モデルの左側の遠方に道路構造物モデルが非検出である場合は、検出された道路形状モデルから左側に9m以上離隔している領域を遠方左側領域(領域4)として設定する。だたし、後述する起点抽出部32において、道路形状モデルの近傍の左側領域で起点が抽出された場合は、道路形状モデルから起点までの距離に3mを付加した加算距離を算出し、道路形状モデルから加算距離以上離隔している領域を優先的に遠方左側領域(領域4)とする。
(11)先のタイミングにおいて、道路形状モデルの左側の近傍に道路構造物モデルが検出され、道路形状モデルの左側の遠方に道路構造物モデルが非検出である場合、検出された道路構造物モデルから左側に3m以上離隔している左側の領域を遠方左側領域(領域4)として設定する。この条件(11)に基づいて設定された遠方左側領域(領域4)を図6に示した。
(12)先のタイミングにおいて、道路形状モデルの左側の遠方に道路構造物モデルが検出された場合は、検出された道路構造物モデルから左側3mから左側5mまでの領域を遠方左側領域(領域4)として設定する。
次にS6へ進む。道路構造物検出手段30の起点抽出部32は、検出領域設定部31により設定された検出領域ごとに道路構造物モデルの起点となる検出ポイントを抽出する(S6)。検出領域は、図6に基づいて説明した、近傍右側領域(領域1)、近傍左側領域(領域2)、遠方右側領域(領域3)、遠方左側領域(領域4)の4つの領域である。本例の起点抽出部32は、1の検出領域に起点となる1の検出ポイントを抽出する。起点抽出部32は、上記4つの各検出領域に含まれる検出ポイントのうち、Z方向の距離差が小さく(距離差が所定値以下)、かつX方向に隣接する(距離が所定値以下の)他の検出ポイントが存在しない検出ポイントであって、自車両に最も近い検出ポイントを、道路構造物モデルに対応する線分を検出する開始点(以下起点とする)として抽出し、メモリ50に記憶する。Z方向の距離差が少ない検出ポイントを起点とすることにより、自車両に近い道路構造物の存在を検出することができる。また、X方向に沿って分布する検出ポイントを起点としないことにより、進行方向に延在する道路構造物を適切に検出することができる。
本例において抽出した起点を図7に示した。起点抽出部32は、近傍右側領域(領域1)に含まれる検出ポイントから検出ポイントdを起点1として抽出する。検出ポイントe,fは、検出ポイントdよりもレーザレーダ200に近いが、X方向に隣接する(距離が所定値以下)検出ポイントが存在するため、起点として抽出されない。起点抽出部32は、近傍左側領域(領域2)に含まれる検出ポイントから検出ポイントmを起点2として抽出する。検出ポイントg,iは、検出ポイントmよりもレーザレーダ200に近いが、X方向に隣接する(距離が所定値以下)検出ポイントが存在するため、起点として抽出されない。遠方右側領域(領域3)には検出ポイントが含まれないため、この領域において起点は抽出しない。起点抽出部32は、遠方左側領域(領域4)に含まれる検出ポイントから検出ポイントlを起点として抽出する。
次に、線分検出部33は、起点抽出部32により抽出された起点と、その起点と所定の位置関係にある検出ポイントとを順次連結して、1又は2以上の線分を検出する(S7,S8)。起点は各検出領域に1つづつ抽出されるため、起点から連結される線分も各検出領域に1線分づつ検出される。
本実施形態では、道路形状モデルに対する相対的位置に応じた2つの線分を検出する。
第1線分検出部331は、メモリ50から近傍左右領域(領域1及び2)の各起点及び道路形状モデルに対する距離のしきい値T1(所定値)を取得する。そして、線分検出部33の第1線分検出部331は、抽出された起点と所定の位置関係にある検出ポイントであって、道路形状モデルに対する距離が所定値未満の検出ポイントを、起点となる検出ポイントから順次連結した第1線分(道路構造物線分1)を検出する(S7)。
道路形状モデルに対して右側近傍領域における第1線分の検出処理を例にして説明する。自車両600から100m離れた道路形状モデル上の地点の横位置(X方向の座標値)が、自車両600に対して右側にずれている場合(道路形状モデルに対応する道路が進行方向右側に曲がっている場合)は、起点から遠方右側に存在し、道路形状モデルまでのX方向の距離(以下、X1とする)がしきい値T1未満の検出ポイント同士を比較して、道路形状モデルに沿う略直線上に位置する検出ポイントからなる線分を検出する。ここで、「検出ポイントが略直線上に位置する」とは、2点の傾きが所定範囲内である場合、少なくとも傾きが略同一である場合、求められた回帰直線から各検出ポイントまでの鉛直ずれ量が所定値以下である場合など、対象となる検出ポイントに基づいて直線が導ければよく、厳密に限定されない。
具体的に、まず、X1がT1以未満で、起点から走行方向に向かって離隔し、かつ起点に近接する(最も距離が小さい)検出ポイントを第1連結可能点として抽出する。さらに、X1がT1未満で、第1連結可能点の右側に近接する検出ポイントを第2連結ポイントとして抽出する。このように抽出した起点、第1連結ポイント、第2連結ポイントの相対的位置関係を導き、これら3点が所定の略直線上に位置するという所定の位置関係にある場合、これらの検出ポイントを起点から順次連結して1又は2以上の線分を検出する。
他方、3点が略直線上に位置していないと判断された場合、起点から走行方向に離隔し、X1がT1未満であって、第2連結可能点の走行方向右側に近接する検出ポイントを第3連結可能点として抽出する。そして、起点と第1、第2、第3連結可能点のうち2点が略直線上に並んでいれば、それを線分として検出する。ここでも、所定の略直線上に並ぶ検出ポイントが存在しなければ、第1〜第3連結可能点のうち、自車両に近い2点を第1、第2連結可能点として残し、起点よりも走行方向に離隔し、X1がT1未満で、さらに右側に検出された検出ポイントを新たな第3連結可能点として抽出し、再度、起点、第1、第2、第3連結可能点のうち2点が所定の略直線上に位置するか否かを判断する。このような処理を、線分を構成する可能性がある検出ポイントが存在しなくなるまで、繰り返す。
起点より遠方にあり,X1がT1以下の全ての検出ポイントに対してこの処理を行い、線分を検出し、直線を構成する検出ポイント数、自車両から最も遠い検出ポイント(以下終点という)、直線の傾きをメモリ50に記憶する。ここで、所定の略直線上に位置する3つの検出ポイントが存在しなければ、起点と、起点に近接する(距離が最小の)連結可能点を結ぶ線分を検出し、直線を構成する検出点数、終点、直線の傾きをメモリ50に記憶する。
また、自車両から道路形状モデル上の100m地点の横位置が自車両600に対して左側にずれている場合についても、起点から走行方向に離隔し、X1がT1未満で、起点の走行方向左側に存在する検出ポイントを対象として、先述した道路形状モデルが右側にずれている場合と同様の手法で、連結可能点を抽出して線分を検出する。そして、検出した直線を構成する検出ポイント数,終点、直線の傾きをメモリ50に記憶する。
次に、第2線分検出部332は、メモリ50から遠方左右領域(領域3及び4)の各起点及び道路形状モデルに対する距離のしきい値T2(所定値)を取得する。そして、線分検出部33の第2線分検出部332は、抽出された起点と所定の位置関係にある検出ポイントであって、道路形状モデルに対する距離が所定値未満の検出ポイントを、起点となる検出ポイントから順次連結した第2線分(道路構造物線分2)を検出する(S8)。
ここでは、道路形状モデルに対して右側遠方領域(領域3)における第2線分の検出処理を例にして説明する。遠方左右領域は、道路形状に依存しないため、起点から遠方右側に存在し、X1がT2以上の検出ポイントを比較し、検分を検出する。
まず,X1がT2以上で、起点から走行方向に離隔し、走行方向右側に近接する検出ポイントを第1連結可能点として抽出する。次に、起点から走行方向に離隔し、X1がT2以上であって、第1連結可能点の右側に近接する検出ポイントを第2連結可能点として抽出する。そして、起点、第1連結可能点、第2連結可能点が所定の略直線上に位置する場合は、これを線分として検出する。
また、検出した3点が所定の略直線上に並んでいなければ、起点より走行方向に向かって離隔し、X1がT2以上であって、第2連結可能点の右側に近接する検出ポイントを第3連結可能点として抽出する。これら起点と第1,第2,第3連結可能点のうち2点が所定の略直線上に並んでいれば、これを線分として検出する。他方、所定の略直線上に位置する検出ポイントが存在しなければ、第1〜第3連結可能点のうち、自車両に近い2点を第1,第2連結可能点とし、起点から走行方向に離隔し、X1がT2以上であって、さらに右側に近接する検出ポイントを新たな第3連結可能点として抽出する。そして、再度起点と第1,第2,第3連結可能点のうち2点が所定の略直線上に位置するか否かを判断する。
このような処理を、線分を構成する可能性のある検出ポイントが存在しなくなるまで繰り返す。起点より遠方にあり,X1がT2以上の全ての検出点に対して行い,線分を検出する。検出した線分について、検出ポイント数、終点、線分の傾きをメモリ50に記憶する。
道路形状モデルに対して左側遠方領域(領域4)における第2線分の検出処理についても、右側遠方領域と同様に行う。すなわち、起点から走行方向に向かって離隔し、起点に対して左側に存在するとともに、X1がT2以上の検出ポイント同士を比較し、起点から遠方右側に存在する場合と同様な手法で連結可能点を順次抽出し、線分を検出する。線分を構成する検出ポイントが最も多い線分を該当領域の線分として検出し、検出ポイント数、終点。線分の傾きをメモリ50に記憶する。
上記のような制御手順で検出処理を行うことにより、本例では、図7に示すように、右側近傍領域において抽出された起点1(検出ポイントd)に基づいて、検出ポイントcを第1連結可能点として、検出ポイントbを第2連結可能点として、検出ポイントaを第3連結ポイントとして抽出し、このうち略直線上に位置する3点a,b,dにより導かれた直線を第1線分10として検出する。
また、左側近傍領域において抽出された起点2(検出ポイントm)に基づいて、検出ポイントjを第1連結可能点として、検出ポイントhを第2連結可能点として抽出し、これら3点h,j,mにより導かれた直線を第1線分11として検出する。第1線分10及び第1線分11は、道路形状モデルに依存する線分である。
さらに、左側遠方領域において抽出された起点4(検出ポイントl)に基づいて、検出ポイントkを第1連結可能点として抽出し、これら2点k,lにより導かれた直線を第2線分12として検出する。第2線分12は、道路形状モデルに依存しない線分である。なお、検出ポイントe,f,g,i及びcは、線分を構成しないと判断される。
このように、地図データベース420から求めた道路形状モデルを基準として設定した各領域おいて起点をそれぞれ抽出し、起点から延びる線分を検出することにより、自車両600の走行道路の道路形状に沿った(道路形状に依存する)線分が検出される領域と、道路形状に依存しない線分を検出する領域を設定し、それぞれの領域に応じた線分を検出することができる。特に、前方に分岐があるような複雑な構造を有する場合であっても正確に道路構造物を検出することができる。このように検出された線分に基づいて、道路構造物モデルを算出することにより、道路構造物を正確に検出することができる。
続いて、モデル算出部34は、線分検出部33により検出された線分に基づいて、道路構造物の形状を近似する道路構造物モデルを算出する(S9)。具体的に、モデル算出部34は、メモリ50から検出された線分に関する情報及びしきい値T3を取得し、取得した線分情報に基づいて、自車両600の走行方向前方の道路形状を示す近似線Lを算出する。
検出された各線分の傾きの絶対値が、しきい値T3以上である場合、道路構造物は直線状に並んでいると判断し、線分を構成する検出ポイント(線分情報に含まれる)を回帰分析し、式(1)で示す近似曲線Lを算出する。
近似曲線L: X=a1+b1*Z …(1)
また、線分の傾きの絶対値が、しきい値T3未満である場合、道路構造物は曲線状に並んでいると判断し、線分を構成する検出ポイントを重回帰分析し、式(2)で示される近似曲線Lを算出する。
近似曲線L: X=a1+b1*Z+c1*Z …(2)
算出した近似曲線Lに関する近似曲線情報をメモリ50に記憶する。
次に、判定部35は、この算出された近似曲線Lで表現された道路構造物モデルと検出ポイントに基づいて、道路構造物を判定する。つまり、判定部35は、道路構造物モデルと所定の位置関係にある検出ポイントをグルーピングし、このグルーピングされた検出ポイントを道路構造物として判定する。
本実施形態では、道路構造物モデルであるか否かを判定するに先立って、その判定基準の変更を行う(S10)。判定基準変更部351は、メモリ50から前回の道路構造物モデル情報と、前回の道路構造物以外の物体(以下、説明の便宜のため「可動物体」と称することもある)に対応する検出ポイントに関する情報及びしきい値T4l、T4rを取得する。ここで「前回の道路構造物以外の物体に対応する検出ポイント」とは、先に判定部35により道路構造物であると判定された物体以外の物体、例えば先行車両、走行道路に駐停車中の車両などに対応する検出ポイントである。道路構造物以外の物体に対応する検出ポイントの情報は、先の道路構造物判定処理にあたって判定部35によりメモリ50に記憶された情報であってもよいし、レーザレーダ200により移動障害物として検出された検出ポイントの情報であってもよい。また、第2実施形態に詳細に説明する第2検出手段(可動物体検出手段)40の第2グルーピング部42により、先の処理において求められた第2グルーピング情報であってもよい。
判定基準変更部351は、可動物体が、算出された道路構造物モデルの右側又は左側のいずれの側に存在するかを判断し、可動物体が存在する側のしきい値(道路構造物モデルからの距離)を可動物体が存在しない側のしきい値よりも狭い範囲とする。このように、道路構造物モデルの近傍領域に車両等の可動物体が存在する場合には、可動物体が存在する側に検出された検出ポイントの判定を行うときに用いられるしきい値を厳しく設定することにより、道路構造物と車両等の可動物体が近接する場合、可動物体に対応する検出ポイントを道路構造物に対応する検出ポイントと誤って判定することを防止することができる。
判定部35は、モデル算出部34により算出された近似曲線L(道路モデル)から各検出ポイントまでの距離D1をそれぞれ算出する。そして、検出ポイントが道路構造物モデルの左側に存在する場合には、当該算出された距離D1としきい値T4lとを比較し、距離D1がしきい値T4l未満である検出ポイントを道路構造物データ(道路構造物を構成する検出ポイント)と判定する(S11)。また、検出ポイントが道路構造物モデルの右側に存在する場合には、当該算出された距離D1としきい値T4rとを比較し、距離D1がしきい値T4r未満である検出ポイントを道路構造物データと判定する(S11)。ここで、しきい値T4l、T4rは、近似曲線Lの次数が1次の場合には、レーザレーダ200の測定精度よりも若干大きい値に設定し、2次の場合は、1次よりも大きい値に設定することが好ましい。
図8に基づいて、本例の処理を説明する。判定部35は、メモリ50から検出情報(検出ポイントの距離計測情報)、道路形状モデル(近似曲線情報)、及びしきい値T4l、T4rを取得し、当該取得された情報に基づいて、以下の処理を行う。なお、図8に示すように、本実施形態では、道路構造物モデルに対して左側に可動物体(道路構造物以外の物体)が存在するため、道路構造物モデルの左側の検出ポイントが道路構造物データであるか否かを判断するしきい値(所定値T4l)は、道路構造物モデルの右側の検出ポイントが道路構造物データであるか否かを判断するしきい値(所定値T4r)よりも小さい。
判定部35は、検出ポイントが道路構造物モデルから所定の距離範囲にあるか否かによって、検出ポイントが道路構造物データであるか否かを判断する(S12)。
道路構造物データと判断された検出ポイント同士はグルーピングされ(図8のA,D,E)、グルーピングされた検出ポイントに対応する物体は道路構造物と判定される(S13)。検出結果出力部36は、判定された道路構造物に関する検出結果を外部へ向けて出力する(S14)。道路構造物の存在、位置等の検出結果は、出力装置500に向けて出力され、ディスプレイ等の提示装置によりユーザに提示される。また、これらの検出結果は、運転支援システム等に向けて出力され、さらに運転支援用のデータに加工されてもよい。
なお、判定部35は、道路構造物データと判定された検出ポイントを回帰分析して、近似曲線Lを再度算出してもよい。次いで、道路構造物として検出された検出ポイント及び算出された近似曲線Lに関する道路構造物情報を生成し、メモリ50に記憶する。
本例では、図8に示すように、近似曲線Lから各検出点a〜mまでの距離D1をそれぞれ算出し、当該算出された距離D1としきい値T4lまたはT4rと比較する。この結果、図8に示すように、検出ポイントa、b、d、h、j、m、k、lを道路構造物データと判定し、道路構造物モデル(近似曲線1)から所定の距離範囲内にある検出ポイントa、b、dはグルーピングされて、道路構造物Aとして判定される。道路構造物モデル(近似曲線2)から所定の距離範囲内にある検出ポイントh、j、mはグルーピングされて、道路構造物Dとして判定される。さらに、道路構造物モデル(近似曲線3)から所定の距離範囲内にある検出ポイントk、lはグルーピングされて、道路構造物Eとして判定される。この場合、検出結果出力部36は、図5に示す物体A,D,Eのように道路構造物形状の物体の検出結果を出力することが好ましい。
判定部35により道路構造物ではないと判定された検出ポイントは、道路構造物以外の物体、例えば先行車両、前方に駐停車されている車両等として判断してもよい。本実施形態では、道路構造物ではないと判断された検出ポイントをさらに詳細に観察し、その他の物体として判定する処理を行う(S15)。S15におけるその他の物体判定処理は、第2実施形態において詳細に説明する。
本実施形態によれば、道路形状モデルと検出情報とに基づいて道路構造物モデルを算出し、算出した道路構造物モデルとの位置関係に基づいて検出ポイントが道路構造物であるか否かを判断するため、道路構造物を正確に判断することができる。特に、遠方になるにつれて精度が低下する画像を用いることなく道路構造物を判断するため、自車両から遠方までの従来よりも広い範囲において道路構造物を正確に検出することができる。
さらに、順次検出される検出ポイントの相対速度を参照することなく道路構造物を検出するので、検出ポイントが密集して検出された場合等のように、検出ポイント同士の時間的な対応付けができず、検出ポイントの相対速度を算出することが困難な場合であっても、道路構造物を正確に検出することができる。
<第2実施形態>
次に第2実施形態について説明する。第2実施形態は、道路構造物以外の物体を検出する第2検出手段(可動物体検手段)40を備えることを特徴とする。図9に第2実施形態の前方物体検出装置900のブロック構成の概要を示した。さらに、図10に本実施形態の前方物体検出装置900のブロック構成を示した。
図9及び図10に示すように、本実施形態の前方物体検出装置900は、第2検出手段(可動物体検手段)40を備える以外の点は第1実施形態の前方物体検出装置100と共通する。ここでは、共通する部分の説明は避け、異なる点を中心に説明する。
本実施形態の第2検出手段(可動物体検出手段)40は、第1検出手段(道路構造物検出手段)30により道路構造物に対応すると判断された検出ポイント以外の検出ポイントの検出情報に基づいて、道路構造物以外の物体を検出する。特に限定されないが、本実施形態の可動物体検出手段40は、道路構造物検出手段30により検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、自車両と所定の位置関係を有する検出ポイントをグルーピングし、このグルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する。所定の位置関係は、検出処理のタイミングにおける自車両と検出ポイントとの位置関係のみならず、継続的に行われる検出処理において、先の検出処理のタイミングにおける自車両と検出ポイントとの相対的位置関係の継時的変化を含む。つまり、本実施形態の可動物体検出手段40は、自車両と検出ポイントとの相対的位置関係の観点から可動物体を検出する手法、及び/又は自車両と検出ポイントとの相対的位置関係の継時的変化の観点から可動物体を検出する手法を用いることができる。
本実施形態の可動物体検出手段40は、第1グルーピング部41及び/又は第2グルーピング部42を備え、第1検出手段(道路構造物検出手段)30により道路構造物に対応すると判断された検出ポイント以外の検出ポイントであって、自車両と第1の位置関係を有する検出ポイントをグルーピングした第1グループと、第1の位置関係とは異なる第2の位置関係を有する検出ポイントをグルーピングした第2グループとを比較し、第1グループと第2グループとが所定の位置関係にある場合、グルーピングされた第1グループ又は第2グループの検出ポイントに対応する物体を道路構造物以外の物体として検出する。具体的には、本実施形態の可動物体検出手段40は、Z方向の距離を基準として第1グループデータを生成するとともに、X方向の幅を基準として第2グループデータを生成し、今回生成された第1グループデータが、前回の第2グループデータと所定の位置関係にある場合には、今回グルーピングされた第1グループデータに対応する物体を道路構造物以外の物体として検出する。
さらに、本実施形態の可動物体検出手段40は、自車両と検出ポイントとの相対的位置関係の継時的変化に基づいて可動物体を検出する観点から、先のタイミングにおいてグルーピングした検出ポイントのグループと、その後のタイミングにおいてグルーピングした検出ポイントのグループとの相対的位置関係に基づいて、後のタイミングにおける検出ポイントのグループに対応する物体を道路構造物以外の物体として検出する。このように、道路構造物に対応する検出ポイントのように時間的な対応づけが困難な検出ポイントを除き、残りの検出ポイントをグルーピングして、道路構造物以外の物体を検出するので、自車両前方に存在する物体を正確に検出することができる。また、道路構造物以外の物体について、物体の区別を正確に行うことができる。
第1グルーピング部41は、メモリ50から距離計測情報、道路構造物情報、及びしきい値Zt1、Zt2、Zt3、Xt1、Wt1の各種情報を取得する。そして、これらの取得した情報に基づき、道路構造物に対応する検出ポイント以外の検出ポイントについて、走査開始位置から走査方向へ、互いに隣接する(所定距離以内に検出された)検出ポイント同士のZ方向(レーダの光軸に沿った方向、図11参照)の距離DZを演算し、その絶対値をしきい値Zt1とを比較する。ここで、しきい値Zt1は、レーザレーダ200の測定精度を考慮し、測定精度よりも少し大きめの値で、且つ、T4l、T4r<Zt1(近似曲線が1次の場合),Zt1<T4l、T4r(近似曲線が2次の場合)となるように設定される。
第1グルーピング部41は、Z方向の距離DZの絶対値がしきい値Zt1未満であると判定した場合、距離DZをなす2つの検出ポイントは同一物体から反射した反射レーザ光(反射波)によるものと判定し、これらを1のグループのグルーピング対象とする。一方、第1グルーピング部41は、Z方向の距離DZの絶対値がしきい値Zt1以上である場合、又は、検出ポイント同士が離隔し、隣接する(所定距離以内に検出された)検出ポイントが存在しない孤立した検出ポイントである場合、1つの検出ポイントのみで1のグループを構成するようにグルーピング処理を行う。
第1グルーピング部41は、上述した処理を各検出ポイントについて繰り返し、1又は2以上の第1グループデータを生成する。これら第1グループデータのそれぞれについて、自車両600までのZ方向の距離を算出する。具体的には、第1グループデータに含まれる各検出ポイントと自車両600までのZ方向距離を平均し、これを第1グループデータのZ方向距離とする。また、第1グループデータのそれぞれについて、X方向(Z方向に対して水平面において直行する車両横方向)の幅を算出する。具体的に、第1グループデータのX方向における中心点を算出し、第1グループデータの右端検出ポイントと左端検出ポイントとの位置差にレーザレーダ200の単位スキャン幅を加算して第1グループデータのX方向幅(物体幅)を算出する。そして、これらの算出結果を第1グループデータの識別子に対応づけてメモリ50に記憶する。
図11に基づいて、第1グルーピング部41によるグルーピング処理を詳細に説明する。図11に示す検出情報は、先に説明した図2に示す状況において検出されたものである。
第1グルーピング部41は、道路構造物検出手段30により道路構造物として検出された、検出ポイント以外のポイントについて、第1グループ処理を行う。第1グループ処理は所定間隔で行われる。各第1グループ処理の結果となる第1グループデータはメモリ50に記憶されるため、処理タイミングの異なる任意の第1グループデータをメモリ50から取得することができる。第1グルーピング部41は、検出ポイントe、fを第1グループデータR(1、t)として認識し、検出ポイントg、i、を第1グループデータR(2、t)として認識する。また、検出ポイントcをグルーピング対象とできない第1グループデータR(3、t)として認識する。
また、第1グルーピング部41は、自車両600が走行している場合において、第1グルーピング処理により得た時間的に前後する第1グループデータを比較し、時間的に前後するこれらの第1グループデータが同一の第1グループデータであるか否かを確認する。そして、同一のグループデータであると判断された第1グループデータについて、さらに、自車両600に対する相対速度を測定し、自車両と検出ポイントとの相対的位置関係の継時的変化の観点からグループデータの同一性を判断する。同一でないと判断された第1グループデータは、後の処理に備えてメモリ50に記憶する。以下、相対速度を用いた相対的位置関係の観点からグループデータの同一性を判断する処理について説明する。
本実施形態の第1グルーピング部41は、自車両に対する第1グループデータの相対速度に基づいて、時間的に前後するこれらの第1グループデータが同一の第1グループデータであるか否かを確認する。具体的に、第1グルーピング部は、同一の第1グループと確認された時間的に前後する第1グループデータのそれぞれの自車両600に対する相対速度を算出し、算出された相対速度、又は相対速度と測定時点(過去)の位置から予測される現在位置とを比較し、比較の結果に基づいて時間的に前後するこれらの第1グループデータが同一の第1グループデータであるか否かを確認する。
特に限定されないが、第1グルーピング部41は、先のタイミングで検出された第1グループデータと、現在の処理対象である第1グループデータとが、以下に示す(a1)、(a2)の、2つの条件を満たす場合には、これらは、同一の第1グループデータ、つまり同一の物体に対応すると判定する。
(a1)時間的に前に検出された第1グループデータの相対速度から推定された当該第1グループデータの現在位置と、今回測定された第1グループデータの現在位置とのZ方向(光軸方向)の距離の絶対値がしきい値Zt2以下である。
(a2)時間的に前に検出された第1グループデータのX方向(自車両横方向)の中心点から、今回測定された第1グループデータのX方向の中心点までのX方向の距離の絶対値がしきい値Xt1以下である。
ここで、しきい値Zt2、Xt1は、正確な相対速度を算出するために、レーザレーダ200の測定精度と同等な小さい値に設定されることが好ましい。
上述した条件(a1)〜(a2)を満たさない第1グループデータについては、時間的に前に検出され、相対速度が算出されていない第1グループデータと比較し、その同一性を判断する。相対速度は、時間的に前後するグループデータが同一のグループデータであると確認された場合に測定されるため、相対速度が算出されなかったグループデータもあるからである。つまり、相対速度に基づく条件(a1)〜(a2)からは同一性が判断できなかった第1グループデータについては、以下に示す条件(b1)〜(b3)に基づいてその同一性を判断する。本例では条件(b1)〜(b3)の3つの条件を満たす場合は、時間的に前後する第1グループデータが同一物体によるものであると判定する。
第1グルーピング部41は、時間的に前に検出された第1グループデータと、今回の処理対象となる第1グループデータについて、
(b1)時間的に前に検出された第1グループデータから、実測した今回の第1グループデータまでのZ方向距離の絶対値がしきい値Zt3以下である。
(b2)時間的に前に検出された第1グループデータのX方向における中心点から、今回の第1グループデータのX方向における中心点までのX方向距離の絶対値がしきい値Xt1以下である。
(b3)時間的に前に検出された第1グループデータの物体幅と、実測した今回の第1グループデータの物体幅との差の絶対値がしきい値Wt1以下である。
第1グルーピング部41は、時間的に前の第1グループデータと同一物体によるものと認識された今回の第1グループデータについて、自車両600に対する相対速度をそれぞれ算出し、第1グループデータに含めてメモリ50に記憶する。
次に、第2グルーピング部42の第2グルーピング処理について説明する。
第2グルーピング部42は、上述の第1グルーピング処理後に、第2グルーピング処理を行う。第2グルーピング処理では、時間的に前に検出された第2グループデータと、今回検出され、相対速度が計算された第1グループデータとの比較を行うことにより、道路構造物以外の物体(可動物体)を検出する。
第2グルーピング部42は、直前の検索タイミングにおいて検出された第2グループデータにおけるX方向の中心位置から左右1/2車線幅(例えば1.75m)をグルーピング範囲として決定し、この範囲内に存在する複数の検出ポイントを第2グループとしてグルーピングする。
第2グルーピング部42は、先に検出された第2グループデータと、今回の相対速度が計算され、上述のグルーピング範囲にX方向の中心位置が存在する第1グループデータと、しきい値Zt4、Zt5、Vt1、Wt2、Vt2、Wt3をメモリ39から取得する。
そして、前回の第2グループデータと、今回の相対速度が計算され、上述のグルーピング範囲にX方向の中心位置が存在する第1グループデータについて、以下に示す(c1)〜(c4)の4つの判定条件を全て満たす場合に、前回の第2グループデータと今回の第1グループデータとが同一物体に対応すると判断する。さらに、同一物体に対応すると判断された第1グループデータ同士を第2グループデータとしてグルーピングする。
(c1)前回の第2グループデータの相対速度から推測された当該第2グループデータの現在位置から、今回の第1グループデータまでのZ方向距離の絶対値がしきい値Zt4以下である。
(c2)前回の第2グループデータの相対速度と今回の第1グループデータの相対速度比が0より大きい。ただし、前回の第2グループデータの相対速度の絶対値が所定値(例えば5m/s程度)の場合は、本条件を適用しない。
(c3)前回の第2グループデータの相対速度と、今回の第1グループデータの相対速度との差がしきい値Vt1以下である。
(c4)グルーピング後の第2グループデータの物体幅がしきい値Wt2以下である。
ここで、しきい値Zt4、Vt1、Wt2は、上述した距離差が車両1台分に収まれば、第1グループデータと第2グループデータを同一物体と判断できるという観点から、設定されることが好ましい。
また、条件(c2)は、前回の第2グループデータと今回の第1グループデータとが同一方向に移動しているかどうかを判断するための条件である。また、同条件の但し書き部分は、相対速度が小さいグループデータを、同一物体かどうかの判定から除外することを意味する。相対速度が小さいグループデータは、測定誤差が含まれる可能性があり、各グループデータがどちらの方向に移動しているかを正確に判断することが難しいからである。
更に、上記の判定条件を満たさず、前回の第2グループデータと今回の第1グループデータとが同一物体に対応しないと判断された場合、第1グループデータ間でグルーピングを行い、以下に示す(d1)〜(d3)に示す3つの条件を満たす場合に、新規の第2グループデータとしてグルーピングする。
(d1) 今回の第1グループデータ同士のZ方向の距離差の絶対値が、Zt5以下である。
(d2)今回の第1グループデータ同士の相対速度差の絶対値がVt2以下である。
(d3)グルーピング後の第2グループデータの物体幅がしきい値Wt3以下である。
ここで、しきい値Zt5、Vt2、Wt3は、上述したZ方向距離差が車両1.5台分に収まれば、第1グループデータ同士を同一物体として判断しても良いという観点から設定されることが好ましい。即ち、本条件(d1)〜(d3)に基づく判断は、先の条件(c1)〜(c4)を満たさない第1グループデータについて、条件を緩和して再度判断するものである。
また、第2グルーピング部42は、第1グループデータが上述した条件(c1)〜(c4)、(d1)〜(d3)の何れの判定条件を満たさない場合には、当該第1グループデータのみで新規に第2グループデータとする。つまり、第2グルーピング部42は、自車両600の前方に存在する物体に含まれる検出ポイントから構成される第2グループデータを生成する。
さらに、生成された第2グループデータに含まれる第1グループデータからZ方向距離、X方向における中心点、物体の左右端点、相対速度のそれぞれについて平均値を算出し、当該算出された平均値を、当該第2グループデータのZ方向距離、X方向における中心点、物体幅、相対速度とする。さらに当該第2グループデータに対応する過去の第2グループデータが存在する場合には、その(同一物体によると判断された)第2グループデータの検出回数の値を更新する。
第2グルーピング部42は、生成された第2グループデータを自車両600の前方に存在する物体に対応するものであると判断し、自車両600の前方に存在する物体を検出する。図11に示した例では、第2グループデータとして判断されたR(3,t)、R(1,t)を、道路構造物以外の物体(可動物体)B、Cを検出する。
さらに、これら第2グループデータの相対速度情報に基づいて、当該物体が移動物体であるかどうかを判定し、当該判定の結果を第2グループデータに含めるメモリ50に記憶する。
検出結果出力部43は、判定された道路構造物以外に物体(可動物体)に関する検出結果を外部へ向けて出力する。判定された道路構造物の存在、位置等の検出結果は、出力装置500に向けて出力され、ディスプレイ等の提示装置によりユーザに提示される。また、これらの検出結果は、運転支援システム等に向けて出力され、さらに運転支援用のデータに加工されてもよい。
続いて、第2実施形態の前方物体検出装置900の制御手順を図12に基づいて説明する。第2実施形態の前方物体検出装置900の基本的な制御手順は、第1実施形態の前方物体検出装置100のそれと共通する。第1実施形態に関して説明した図4に示すS1〜S15までの処理は共通するので説明を省略し、ここでは、第2実施形態の特徴の一つである可動物体検出手段40の処理を中心に説明する。
図12は、図4に示したS1〜S15に続く、その他の物体判定処理を示すフローチャート図である。
ステップ15の後、ステップS21において、第1のグルーピング部37は、メモリ39から距離計測情報、道路構造物情報、及びしきい値Zt1、Zt2、Zt3、Xt1、Wt1のデータを取得する。
次いで、第1グルーピング部41は、当該情報に基づいて、図4に示したステップS12において道路構造物データと判定されなかった検出ポイントに対して、上述した第1グルーピング処理を行う(S1)。
第1グルーピング部41は、例えば走査範囲において自車両600の走行方向右側の端部から隣接する検出ポイント間のZ方向(光軸方向)距離を演算し、演算して得たZ方向距離の絶対値がしきい値Zt1以下である場合、当該検出点ポイント同士をグルーピングして第1グループデータとする。第1グルーピング部41は、Z方向距離の絶対値がしきい値Zt1を超える領域の範囲、隣接する検出ポイントが存在しない範囲まで検出ポイントの比較をして第1グループデータを更新する。
次いで、各第1グループデータの自車両に対する距離を算出する。具体的には、第1グループデータに含まれる各検出ポイントから自車両11までのZ方向距離を平均し、その平均値を第1グループデータのZ方向距離とする。さらに、第1グループデータのX方向の中心点を算出し、第1グループデータの右端点と左端点との位置差にレーザレーダ200による単位スキャン幅を加算して物体幅を算出する。これらの算出結果を第1グループデータに含めてメモリ50に記憶し、ステップS22に進む。
ステップS22において、第1グルーピング部41は、上述した時間的に前後する第1グループデータの比較を行う。具体的には、第1グルーピング部41は、今回生成された第1グループデータと、前回生成された第1グループデータのうち、相対速度が計算されている第1グループデータとをメモリ50から取得する。
第1グルーピング部41は、今回の第1グループデータと、前回生成された第1グループデータとを比較し、上述した判定条件(a1)〜(a2)を満たすか否かを判断し、条件を満たす場合には今回の第1グループデータと前回の第1グループデータとは同じ物体に基づくものであると判断する。第1グルーピング部41は、判定条件(a1)〜(a2)を満たす第1グループデータについては、後のステップで相対速度を計算するために、当該第1グループデータに過去2点の距離情報(Z方向距離、及びX方向中心点の情報)を追加して、ステップS24以降の処理を行う。
また、第1グルーピング部41は、判定条件(a1)〜(a2)を満たさない今回の第1グループデータについては、相対速度が検出されている前々回の第1グループデータをメモリ50から取得し、当該前々回の第1グループデータとの関係において判定条件(a1)〜(a2)を満たすか否かを判定する。今回の第1グループデータが前々回の第1のグループデータとの間で判定条件(a1)〜(a2)を満たさない場合には、前々回の第1グループデータを削除する。一方、判定条件(a1)〜(a2)を満たす場合には、今回の第1グループデータと、前々回の第1グループデータとを同一物体と判断し、今回の第1グループデータについては、過去2点の距離情報を追加して、ステップS24以降の処理を行う。
第1グルーピング部41は、相対速度が検出されている前回、前々回の第1グループデータとの間で判定条件(a1)〜(a2)を満たさない今回の第1グループデータについては、相対速度が計算されていない前回の第1グループデータをメモリ39から取得し、当該前回の第1グループデータと判定条件(f1)〜(f3)を満たすか否かを判定する。
この結果、判定条件(b1)〜(b3)を満たさない今回の第1グループデータについては、ステップS27以降の処理を行う。一方、判定条件(b1)〜(b3)を満たす場合には、今回の第1グループデータと、前回の第1グループデータとを同一物体とし、当該第1グループデータについては、過去2点の距離情報を追加して、ステップS23以降の処理を行う。
ステップS27において、第1グルーピング部41は、ステップS22において、過去の第1グループデータと同一物体ではないと判定された今回の第1グループデータのZ方向距離、X方向における中心点、物体幅をメモリ50に記憶して、ステップS1に戻る。なお、この場合記憶した各種情報は、次回以降のステップS22の時系列判断で使用する。
ステップS23において、第1グルーピング部41は、過去の第1グループデータとの間で時系列判断をするための判定条件を満たした第1グループデータについて、今回、前回及び前々回の距離情報を用いて相対速度を計算する。次いで、計算した相対速度情報を今回の第1グループデータに追加して、メモリ50に記憶する。
第1グルーピング部41は、上述のステップS22〜ステップS23までの処理を、ステップS21にて検出した全ての第1グループデータについて行い、ステップS24以降の処理に移行する。
ステップS24において、第2グルーピング部42は、メモリ50から、ステップS22で相対速度が計算された第1グループデータと、過去の第2グループデータと、しきい値Zt4、Zt5、Vt1、Wt2、Vt2、Wt3のデータを取得する。
次いで、当該情報等に基づいて、当該第1グループデータと第2グループデータとを比較して、同一物体と判定するための判定条件(c1)〜(c4)を満たす第1グループデータが存在するか否かを判定する。判定条件(c1)〜(c4)を満たすと判定された第1グループデータについては、ステップS25以降の処理を行い、満たさないと判定された第1グループデータについては、ステップS28以降の処理を行う。ステップS28にて、第2グルーピング部42は、ステップS24にて過去の第2グループデータとの間で判定条件を満たない第1グループデータどうしを比較し、同一物体か否かを判断するための判定条件(d1)〜(d3)を満たす場合にはグルーピングを行い、新規に第2グループデータを生成する。一方、判定条件(d1)〜(d3)を満たさない場合には1つの第1グループデータで新規に第2グループデータを生成してメモリ50に記憶し、ステップS26に処理を進める。
ステップS25において、第2グルーピング部42は、第2グループデータに含まれる第1グループデータからZ方向距離、X方向における中心点、物体の左右端点、相対速度のそれぞれについて平均値を算出する。算出された平均値を、当該第2グループデータのZ方向距離、X方向における中心点、物体幅、相対速度として当該第2グループデータに含め、メモリ50に記憶する。
次いで、当該第2グループデータに対応する過去の第2グループデータが存在する場合には、当該第2グループデータの検出回数の値を更新する。当該第2グループデータを、自車両600の前方に存在する物体によるものと判断することで、自車両600の前方に存在する物体を検出する。さらに、第2グループデータに含まれる相対速度情報に基づいて、当該物体が移動物体であるかどうかを判定し、当該判定の結果を第2グループデータに含める。
このようなステップS24〜ステップS26、28までの処理を、ステップS23で相対速度が計算された全ての第1グループデータに対して行い、ステップS26の処理に移行する。
ステップS26において、検出結果出力部43は、ステップS24〜ステップS25の処理で得た第2グループデータを、自車両600の乗員等が認識できるような形態にして出力装置500の提示装置により提示する。
このように、可動物体検出手段40は、道路構造物として検出されなかった検出点のうち、互いに隣接する検出ポイントを所定の条件でグルーピングして第1グループデータを生成し、この第1グループデータを他の観点から検証することにより、自車両600の前方にある物体を検出する。これにより、道路構造物以外の物体を正確に検出することができる。移動しない道路構造物と、例えば他車両等の可動物体等とは、その挙動が異なるため、得られる検出情報の特性が異なる。本実施形態では、道路構造物とそれ以外の物体とを分けて検出することにより、道路構造物とそれ以外の物体とを誤認することなく正確に検出することができる。
また、Z方向の距離を基準として第1グループデータを生成するとともに、X方向の幅を基準として第2グループデータを生成して、レーザレーダ200によって検出される検出ポイントの位置について異なる観点からその共通性を求めることにより、道路構造物以外の物体を正確に検出することができる。
さらに、今回生成された第1グループデータが、前回の第2グループデータと所定の共通関係にある場合、今回生成された第1グループデータを第2グループデータと定義し、この第2グループデータに基づいて自車両前方の物体を検出して、異なるタイミングにおいて検出された検出ポイントの継時的変化の観点からその共通性を求めることにより、道路構造物以外の物体を正確に検出することができる。特に、先行車両等の動く物体については、継時的な変化の観点を加えることにより、物体を正確に検出することができる。
本実施形態では、前方物体検出装置100及び900について説明したが、前方物体検出方法を使用した場合も、同様に作用し、同様の効果を奏する。
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
第1実施形態の前方物体検出装置のブロック構成概要を示す図である。 (A)(B)は、レーザレーダの配置を説明する図である。 第1実施形態の前方物体検出装置のブロック構成図である。 第1実施形態に係る前方物体検出装置の制御手順を示すフローチャート図である。 レーザレーダにより検出ポイントを説明するための図である。 検出領域設定処理を説明するための図である。 線分検出処理を説明するための図である。 モデル算出処を説明するための図である。 第2実施形態の前方物体検出装置のブロック構成概要を示す図である。 第2実施形態の前方物体検出装置のブロック構成図である。 可動物体の検出処理を説明するための図である。 第2実施形態に係る前方物体検出装置の制御手順を示すフローチャート図である。
符号の説明
100,900…前方物体検出装置
10…道路形状モデル算出手段
11…道路形状情報取得部
12…取得範囲決定部
13…データ変換部
20…検出情報取得手段
30…第1検出手段,道路構造物検出手段
31…検出領域設定部
32…起点抽出部
33…線分検出部
34…モデル算出部
35…判定部
36…検出結果出力部
40…第2検出手段,可動物体検出手段
41…第1グルーピング部
42…第2グルーピング部
43…検出結果出力部

Claims (18)

  1. 自車両に搭載され、自車両前方に存在する物体を検出する前方物体検出装置であって、
    前記自車両の前方に出射された走査波の反射波に基づいて検出された前記物体の検出ポイントの情報を含む検出情報を取得する検出情報取得手段と、
    前記自車両の現在位置を取得するとともに、地図データベースにアクセスして前記自車両前方の道路形状情報を取得し、当該道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する道路形状モデル算出手段と、
    前記検出情報取得手段により取得された検出情報と前記道路形状モデル算出手段により算出された道路形状モデルとに基づいて道路構造物モデルを算出し、当該算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物として検出する道路構造物検出手段と、を有する前方物体検出装置。
  2. 前記道路形状モデル算出手段は、地図データベースにアクセスして、前記検出情報取得手段により取得される検出情報の検出領域よりも広い所定領域の前記道路形状情報を取得し、取得した道路形状情報を前記検出情報の検出領域内に入るようにデータ変換し、当該変換後の道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する請求項1に記載の前方物体検出装置。
  3. 前記道路構造物検出手段は、
    前記道路形状モデル算出手段により算出された道路形状モデルと、先のタイミングにおける前記道路構造物の検出位置とに基づいて、現タイミングにおける自車両前方の道路構造物を検出する検出領域を設定する検出領域設定部と、
    前記検出領域設定部により設定された検出領域ごとに前記道路構造物モデルの起点となる検出ポイントを抽出する起点抽出部と、
    前記起点抽出部により抽出された起点と、当該起点と所定の位置関係にある検出ポイントとを順次連結して1又は2以上の線分を検出する線分検出部と、
    前記線分検出部により検出された線分に基づいて、前記道路構造物の形状を近似する道路構造物モデルを算出するモデル算出部と、
    前記モデル算出部により算出された道路構造モデルと所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物として判定する判定部とを有する請求項1又は2に記載の前方物体検出装置。
  4. 前記線分検出部は、
    前記起点抽出部により抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ前記道路形状モデル算出手段により現のタイミングにおいて算出された道路形状モデルに対する距離が所定値未満の検出ポイントを、順次連結して1又は2以上の線分を検出する第1線分検出部と、
    前記起点抽出部により抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ前記道路形状モデル算出手段により現のタイミングにおいて算出された道路形状モデルに対する距離が所定値以上の検出ポイントを、順次連結して1又は2以上の線分を検出する第2線分検出部とを有する請求項3に記載の前方物体検出装置。
  5. 前記判定部は、前記道路構造物に対応する検出ポイント以外の検出ポイントが前記道路形状モデルに対して左側又は右側のいずれの側にあるかを判断し、その判断結果に応じて当該検出ポイントが前記グルーピングの対象となるか否かの判断基準となる所定の位置関係を変更する判定基準変更部を有する請求項3又は4に記載の前方物体検出装置。
  6. 前記道路構造物検出手段により検出された道路構造物に対応する検出ポイント以外の検出ポイントの検出情報に基づいて、道路構造物以外の物体を検出する可動物体検出手段をさらに有する請求項1〜5のいずれかに記載の前方物体検出装置。
  7. 前記可動物体検出手段は、前記道路構造物検出手段により検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項6に記載の前方物体検出装置。
  8. 前記可動物体検出手段は、前記道路構造物検出手段により検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と第1の位置関係を有する検出ポイントをグルーピングした第1グループと、第2の位置関係を有する検出ポイントをグルーピングした第2グループとを比較し、第1グループと第2グループとが所定の位置関係にある場合に、前記第1グループ又は前記第2グループとしてグルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項6に記載の前方物体検出装置。
  9. 前記可動物体検出手段は、先のタイミングにおいてグルーピングした検出ポイントのグループと、その後のタイミングにおいてグルーピングした検出ポイントのグループとの位置関係に基づいて、前記後のタイミングにおける検出ポイントグループに対応する物体を道路構造物以外の物体として検出する請求項6又は7に記載の前方物体検出装置。
  10. 自車両に搭載され、自車両前方に存在する物体を検出する前方物体検出方法であって、
    前記自車両の前方に出射された走査波の反射波に基づいて検出された前記物体の検出ポイントの情報を含む検出情報を取得するステップと、
    前記自車両の現在位置を取得するとともに、地図データベースにアクセスして前記自車両前方の道路形状情報を取得し、当該道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出するステップと、
    前記取得された検出情報と前記算出された道路形状モデルとに基づいて道路構造物モデルを算出し、当該算出された道路構造物モデルと所定の位置関係を有する検出ポイントをグルーピングするステップと、
    当該グルーピングされた検出ポイントに対応する物体を道路構造物として検出するステップとを有する前方物体検出方法。
  11. 前記走行道路形状モデルを算出するステップは、地図データベースにアクセスして、前記取得される検出情報の検出領域よりも広い所定領域の前記道路形状情報を取得し、取得した道路形状情報を前記検出情報の検出領域内に入るようにデータ変換し、当該変換後の道路形状情報に基づいて自車両前方の走行道路の道路形状モデルを算出する請求項10に記載の前方物体検出方法。
  12. 前記道路構造物を検出するステップは、
    前記算出された道路形状モデルと、先のタイミングにおける前記道路構造物の検出位置とに基づいて、現タイミングにおける自車両前方の道路構造物を検出する検出領域を設定するステップと、
    前記設定された検出領域ごとに前記道路構造物モデルの起点となる検出ポイントを抽出するステップと、
    前記抽出された起点と、当該起点と所定の位置関係にある検出ポイントとを順次連結して1又は2以上の線分を検出するステップと、
    前記検出された線分に基づいて、前記道路構造物の形状を近似する道路構造物モデルを算出するステップと、
    前記算出された道路構造モデルと所定の位置関係にある検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物として判定するステップとを有する請求項10又は11に記載の前方物体検出方法。
  13. 前記線分を検出するステップは、
    前記起点を抽出するステップにより抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ現のタイミングにおいて算出された前記道路形状モデルに対する距離が所定値未満の検出ポイントを、順次連結して1又は2以上の第1線分を検出するステップと、
    前記抽出された起点と、当該起点と所定の位置関係にある検出ポイントであって、かつ現のタイミングにおいて算出された前記道路形状モデルに対する距離が所定値以上の検出ポイントを、順次連結して1又は2以上の第2線分を検出するステップとを有する請求項12に記載の前方物体方法。
  14. 前記判定するステップは、前記道路構造物に対応する検出ポイント以外の検出ポイントが前記道路形状モデルに対して左側又は右側のいずれの側にあるかを判断し、その判断結果に応じて当該検出ポイントが前記グルーピングの対象となるか否かの判断基準となる所定の位置関係を変更するステップを有する請求項12又は13に記載の前方物体検出方法。
  15. 前記道路構造物を検出するステップにより検出された道路構造物に対応する検出ポイント以外の検出ポイントの検出情報に基づいて、道路構造物以外の物体を検出するステップをさらに有する請求項10〜14のいずれかに記載の前方物体検出方法。
  16. 前記道路構造物以外の物体を検出するステップは、前記検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と所定の位置関係を有する検出ポイントをグルーピングし、当該グルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項15に記載の前方物体検出方法。
  17. 前記道路構造物以外の物体を検出するステップは、前記検出された道路構造物に対応する検出ポイント以外の検出ポイントであって、前記自車両と第1の位置関係を有する検出ポイントをグルーピングした第1グループと、第2の位置関係を有する検出ポイントをグルーピングした第2グループとを比較し、第1グループと第2グループとが所定の位置関係にある場合に、前記第1グループ又は前記第2グループとしてグルーピングされた検出ポイントに対応する物体を道路構造物以外の物体として検出する請求項15に記載の前方物体検出方法。
  18. 前記道路構造物以外の物体を検出するステップは、先のタイミングにおいてグルーピングした検出ポイントのグループと、その後のタイミングにおいてグルーピングした検出ポイントのグループとの関係に基づいて、前記後のタイミングにおける検出ポイントグループに対応する物体を道路構造物以外の物体として検出する請求項16又は17に記載の前方物体検出方法。

JP2004308168A 2004-10-22 2004-10-22 前方物体検出装置及び前方物体検出方法 Expired - Fee Related JP5055691B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004308168A JP5055691B2 (ja) 2004-10-22 2004-10-22 前方物体検出装置及び前方物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004308168A JP5055691B2 (ja) 2004-10-22 2004-10-22 前方物体検出装置及び前方物体検出方法

Publications (2)

Publication Number Publication Date
JP2006119026A true JP2006119026A (ja) 2006-05-11
JP5055691B2 JP5055691B2 (ja) 2012-10-24

Family

ID=36537045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004308168A Expired - Fee Related JP5055691B2 (ja) 2004-10-22 2004-10-22 前方物体検出装置及び前方物体検出方法

Country Status (1)

Country Link
JP (1) JP5055691B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310585A (ja) * 2007-06-14 2008-12-25 Toyota Motor Corp 車両周辺監視装置
JP2009210401A (ja) * 2008-03-04 2009-09-17 Toyota Motor Corp 車両用背景画像収集装置
JP2010250743A (ja) * 2009-04-20 2010-11-04 Mitsubishi Heavy Ind Ltd 自動走行車両及び道路形状認識装置
JP2012242937A (ja) * 2011-05-17 2012-12-10 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
CN103348393A (zh) * 2010-11-04 2013-10-09 丰田自动车株式会社 道路形状推定装置
KR101734234B1 (ko) * 2015-12-11 2017-05-11 현대자동차 주식회사 레이더와 지도를 활용한 차량 위치 및 주행 차로 검출 장치 및 방법
KR101808413B1 (ko) * 2016-04-04 2017-12-14 경희대학교 산학협력단 도로의 특성 정보를 이용한 도로 유형 정보 제공 시스템 및 방법
JP2019152667A (ja) * 2018-03-01 2019-09-12 日産自動車株式会社 周囲環境情報生成方法及び周囲環境情報生成装置
JP2020126122A (ja) * 2019-02-04 2020-08-20 日産自動車株式会社 周囲環境情報生成方法及び周囲環境情報生成装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0216484A (ja) * 1988-07-04 1990-01-19 Nissan Motor Co Ltd 車両用レーダ装置
JPH05264730A (ja) * 1992-03-17 1993-10-12 Nissan Motor Co Ltd 車両用レーダ装置
JPH07270536A (ja) * 1994-03-31 1995-10-20 Omron Corp 対象判別装置および方法,ならびに対象判別装置を搭載した車両
JPH10300493A (ja) * 1997-04-28 1998-11-13 Honda Motor Co Ltd 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法
JP2000030198A (ja) * 1998-07-14 2000-01-28 Mitsubishi Motors Corp 車両用道路形状認識装置
JP2003255047A (ja) * 2001-12-27 2003-09-10 Nissan Motor Co Ltd 前方物体検出装置及び前方物体検出方法
JP2003296899A (ja) * 2002-03-29 2003-10-17 Toyota Central Res & Dev Lab Inc 先行車両判定装置
JP2004271513A (ja) * 2003-02-20 2004-09-30 Nissan Motor Co Ltd 前方物体検出装置及び前方物体検出方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0216484A (ja) * 1988-07-04 1990-01-19 Nissan Motor Co Ltd 車両用レーダ装置
JPH05264730A (ja) * 1992-03-17 1993-10-12 Nissan Motor Co Ltd 車両用レーダ装置
JPH07270536A (ja) * 1994-03-31 1995-10-20 Omron Corp 対象判別装置および方法,ならびに対象判別装置を搭載した車両
JPH10300493A (ja) * 1997-04-28 1998-11-13 Honda Motor Co Ltd 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法
JP2000030198A (ja) * 1998-07-14 2000-01-28 Mitsubishi Motors Corp 車両用道路形状認識装置
JP2003255047A (ja) * 2001-12-27 2003-09-10 Nissan Motor Co Ltd 前方物体検出装置及び前方物体検出方法
JP2003296899A (ja) * 2002-03-29 2003-10-17 Toyota Central Res & Dev Lab Inc 先行車両判定装置
JP2004271513A (ja) * 2003-02-20 2004-09-30 Nissan Motor Co Ltd 前方物体検出装置及び前方物体検出方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310585A (ja) * 2007-06-14 2008-12-25 Toyota Motor Corp 車両周辺監視装置
JP2009210401A (ja) * 2008-03-04 2009-09-17 Toyota Motor Corp 車両用背景画像収集装置
JP2010250743A (ja) * 2009-04-20 2010-11-04 Mitsubishi Heavy Ind Ltd 自動走行車両及び道路形状認識装置
CN103348393B (zh) * 2010-11-04 2015-08-19 丰田自动车株式会社 道路形状推定装置及其推定方法
CN103348393A (zh) * 2010-11-04 2013-10-09 丰田自动车株式会社 道路形状推定装置
JPWO2012059955A1 (ja) * 2010-11-04 2014-05-12 トヨタ自動車株式会社 道路形状推定装置
JP5569591B2 (ja) * 2010-11-04 2014-08-13 トヨタ自動車株式会社 道路形状推定装置及び道路形状推定方法
US9002630B2 (en) 2010-11-04 2015-04-07 Toyota Jidosha Kabushiki Kaisha Road shape estimation apparatus
JP2012242937A (ja) * 2011-05-17 2012-12-10 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
KR101734234B1 (ko) * 2015-12-11 2017-05-11 현대자동차 주식회사 레이더와 지도를 활용한 차량 위치 및 주행 차로 검출 장치 및 방법
KR101808413B1 (ko) * 2016-04-04 2017-12-14 경희대학교 산학협력단 도로의 특성 정보를 이용한 도로 유형 정보 제공 시스템 및 방법
JP2019152667A (ja) * 2018-03-01 2019-09-12 日産自動車株式会社 周囲環境情報生成方法及び周囲環境情報生成装置
JP7198687B2 (ja) 2018-03-01 2023-01-04 日産自動車株式会社 周囲環境情報生成方法及び周囲環境情報生成装置
JP2020126122A (ja) * 2019-02-04 2020-08-20 日産自動車株式会社 周囲環境情報生成方法及び周囲環境情報生成装置
JP7257158B2 (ja) 2019-02-04 2023-04-13 日産自動車株式会社 周囲環境情報生成方法及び周囲環境情報生成装置

Also Published As

Publication number Publication date
JP5055691B2 (ja) 2012-10-24

Similar Documents

Publication Publication Date Title
CN104793202B (zh) 多雷达成像传感器的对象融合系统
JP5441549B2 (ja) 道路形状認識装置
JP7059888B2 (ja) 支援制御システム
RU2668459C1 (ru) Устройство оценки положения и способ оценки положения
US11124163B2 (en) Method for controlling travel of vehicle, and device for controlling travel of vehicle
JP3822770B2 (ja) 車両用前方監視装置
JP6399100B2 (ja) 走行経路演算装置
TW201704067A (zh) 防撞方法、實現該防撞方法之電腦程式產品及防撞系統
JP2004531424A (ja) 車用の感知装置
JP3727400B2 (ja) 横断者の検出装置
WO2020145053A1 (ja) 走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体
KR102614157B1 (ko) 자율 주행 차량의 위치 인식방법 및 시스템
JP3666332B2 (ja) 歩行者検知装置
US11420632B2 (en) Output device, control method, program and storage medium
JP2018048949A (ja) 物体識別装置
JP5055691B2 (ja) 前方物体検出装置及び前方物体検出方法
JP6263453B2 (ja) 運動量推定装置及びプログラム
JP2002334330A (ja) 車両認識装置
JP6232883B2 (ja) 自車位置認識装置
JP2012113431A (ja) 車両の前方障害物検出装置
JP2018036075A (ja) 自車位置特定装置、自車位置特定方法
JP6986557B2 (ja) 測定装置、測定方法およびプログラム
JP6604052B2 (ja) 走路境界推定装置及び走路境界推定方法
JP2005173917A (ja) 分岐路検出装置及び分岐路検出方法
JP6923750B2 (ja) 自己位置推定装置、自己位置推定方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110120

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5055691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees