JP7433146B2 - 物体検出方法及び物体検出装置 - Google Patents

物体検出方法及び物体検出装置 Download PDF

Info

Publication number
JP7433146B2
JP7433146B2 JP2020109356A JP2020109356A JP7433146B2 JP 7433146 B2 JP7433146 B2 JP 7433146B2 JP 2020109356 A JP2020109356 A JP 2020109356A JP 2020109356 A JP2020109356 A JP 2020109356A JP 7433146 B2 JP7433146 B2 JP 7433146B2
Authority
JP
Japan
Prior art keywords
vehicle
angle camera
distance
exposure time
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020109356A
Other languages
English (en)
Other versions
JP2022006844A (ja
Inventor
俊彦 西村
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2020109356A priority Critical patent/JP7433146B2/ja
Publication of JP2022006844A publication Critical patent/JP2022006844A/ja
Application granted granted Critical
Publication of JP7433146B2 publication Critical patent/JP7433146B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、自車両の周囲に存在する物体を検出する物体検出方法及び物体検出装置に関する。
従来、車輪速センサで検出される車速およびヨーレートセンサによって検出される車両の直進状態若しくは旋回状態に応じて、シャッター速度を制御するカメラ制御部を有する車載用撮像装置が知られている(例えば、特許文献1参照)。
特開2010-250503号公報
特許文献1に開示された先行技術では、車両が旋回中であることを検知した場合にカメラのシャッター速度を高速に切り替えるが、カメラのシャッター速度を調整するだけでは信号機の現示情報を認識することが困難である。
本開示は、上記課題に着目してなされたもので、車両挙動の変化を伴う走行中の物体検出シーンにおいて、像ぶれを抑制した撮像結果を得ることで、物体認識性能の向上を達成することを目的とする。
上記目的を達成するため、本開示は、車載カメラとして狭角カメラと広角カメラを有する撮像部と、撮像部で撮像された画像に基づいて自車両の周囲に存在する検出対象物体を検出する周囲物体検出部と、を備える物体検出方法である。周囲物体検出部は、以下の手順を有する。自車両と検出対象物体の間の距離の情報を取得する。距離が狭角カメラで検出対象物体を検出可能な距離領域になると、狭角カメラからの画像を選択する。狭角カメラからの画像選択中、自車両に発生する車両挙動の大きさをあらわす車両挙動指標値の情報を取得する。車両挙動指標値が所定値よりも大きく、かつ、距離が広角カメラで検出対象物体を検出可能な距離領域であると、広角カメラからの画像選択に切り替える。広角カメラからの画像選択に切り替えると、広角カメラの露光時間を、車両挙動指標値が所定値以下のときの第1露光時間よりも短い第2露光時間に設定する。第2露光時間に設定された広角カメラで撮像された画像に基づいて検出対象物体を検出する。車両挙動指標値の所定値は、車両挙動の大きさを異ならせた走行を行うとき、狭角カメラからの像ぶれした画像データを取得し、物体認識性が低くなる像ぶれが発生したときの車両挙動指標値に基づいて予め設定する。
上記課題解決手段を採用したため、車両挙動の変化を伴う走行中の物体検出シーンにおいて、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果を広角カメラから得ることで、物体認識性能の向上を達成することができる。
実施例1の物体検出方法及び物体検出装置が適用された自動運転車両のシステム構成を示す全体システム構成図である。 自動運転コントローラ及び車両運動コントローラの制御ブロック構成を示すブロック構成図である。 自動運転コントローラの周囲物体検出部の構成を示すブロック構成図である。 自車両が検出対象物体から遠い位置のときに狭角カメラと広角カメラによって撮像される画像を示す画像説明図である。 図4Aよりも自車両が検出対象物体へ向かって前進した位置のときに狭角カメラと広角カメラによって撮像される画像を示す画像説明図である。 図4Bよりも自車両が検出対象物体へ向かってさらに前進した位置のときに狭角カメラと広角カメラによって撮像される画像を示す画像説明図である。 狭角カメラおよび広角カメラにより検出対象物体を検出可能な領域と距離を示す説明図である。 自車両と検出対象物体との距離に応じたカメラ画像の切り替え位置を示す説明図である。 ヨーレート値及び検出対象物体との距離に応じたカメラ画像の切り替え位置を示す説明図である。 自車両が旋回しながら交差点に接近するときの走行シーンの一例を示す作用説明図である。 狭角レンズから広角レンズに切り替えてシャッター速度を上げたときのFナンバー(F値)・シャッター速度・露出量の関係を示す相関図である。 自車両が旋回しながら交差点に接近するときに露光時間を短くした狭角カメラからの画像例(a)とカメラを切替えると共に露光時間を短くした広角カメラからの画像例(b)を示す比較画像図である。 自動運転コントローラの周囲物体検出部にて実行される物体検出処理の流れを示すフローチャートである。 ヨーレート取得ステップでのヨーレートセンサからヨーレートを取得する処理の流れを示すフローチャートである。 ヨーレート取得ステップでの地図から曲率半径と制限速度を取得してヨーレート推定値を計算する計算処理の流れを示すフローチャートである。 ヨーレート取得ステップでの走行履歴レコードからの過去のヨーレート値を参照することによりヨーレート推定値を得る処理の流れを示すフローチャートである。 検出対象物体が交流電源による光源を有しない場合の露光時間設定ステップでの露光時間設定処理の流れを示すフローチャートである。 検出対象物体が交流電源による光源を有する場合の露光時間設定ステップでの露光時間設定処理の流れを示すフローチャートである。
以下、本開示による物体検出方法及び物体検出装置を実施するための形態を、図面に示す実施例1に基づいて説明する。
実施例1における物体検出方法及び物体検出装置は、自動運転モードを選択すると目標軌跡が生成され、生成された目標軌跡に沿って走行するように速度及び舵角による車両運動が制御される自動運転車両(走行支援車両の一例)に適用したものである。以下、実施例1の構成を、「全体システム構成」、「自動運転コントローラの制御ブロック構成」、「周囲物体検出部の詳細構成」に分けて説明する。
[全体システム構成(図1)]
自動運転車両ADは、図1に示すように、車載センサ1と、ナビゲーション装置2と、車載制御ユニット3と、アクチュエータ4と、HMIモジュール5と、を備えている。なお、「HMI」は「Human Machine Interface」の略称である。
車載センサ1は、自車両周辺物体や走行路形状などの周辺環境、自車両位置や自車両状態などを認識するために自車両に搭載された各種のセンサである。この車載センサ1は、外部センサ11、通信機12、内部センサ13を有する。
外部センサ11は、自車両周辺に向けて設けられ、自車両周辺の静止物体や移動物体や走行路形状などを検出するセンサである。外部センサ11としては、例えば、車載カメラ、測距センサなどが用いられる。ここで、「車載カメラ」は、取得した画像データに基づいて、自車両の周囲状況を監視する機能や自車両の周辺に存在する物体を認識する機能を有する。「測距センサ」は、光をスキャニングしながら検出対象物体までの距離を測定する二次元走査型の光距離センサであり、レーザスキャナ、LRF(「Laser rangefinder」の略)、LiDAR(「Light Detection and Ranging」の略)などと呼ばれる。なお、外部センサ11においては、例えば、車載カメラと測距センサを組み合わせ、検出情報を融合させることによって車両制御に必要な情報を取得するセンサフュージョンを行っても良い。このセンサフュージョンによって、検出対象物体の認識、検出対象物体までの距離、検出対象物体の方向などの必要情報を取得する。
通信機12は、アンテナ12aを有し、外部データ通信器との間で無線通信を行うことで、必要な情報を外部から取得する。即ち、外部データ通信器が、例えば、他車に搭載されたデータ通信器の場合、自車両と他車の間で車車間通信を行う。この車車間通信により、他車が保有する様々な情報から必要な情報を取得することができる。また、外部データ通信器が、例えば、インフラ設備に設けられたデータ通信器の場合、自車両とインフラ設備の間でインフラ通信(路車間通信)を行う。このインフラ通信により、インフラ設備が保有する情報の中から必要な情報を取得することができる。
なお、通信機12には、GNSSアンテナにより3個以上のGPS衛星からの信号を受信して、自己位置を示す位置データ(緯度及び経度)を取得するGPS受信機を含む。ここで、「GNSS」は「Global Navigation Satellite System」の略称であり、「GPS」は「Global Positioning System」の略称である。
内部センサ13は、自車両の速度・加速度・姿勢データなどによる自車両情報を検出する検出機器である。内部センサ13には、自車両の重心点を通る鉛直軸回りの回転角速度であるヨーレートを検出するヨーレートセンサ131を有する。ヨーレートセンサ131以外に、車輪速センサ、アクセル操作量センサなど、自車両に搭載され、制御必要情報を取得するためのセンサを含むことができる。なお、内部センサ13として、6軸慣性センサ(IMU:Inertial Measurement Unit)を有しても良い。3軸加速度センサと3軸ジャイロセンサから構成された6軸慣性センサを有する場合は、鉛直軸回りのヨーイング回転挙動(ヨーレートを含む)、左右軸回りのピッチング回転挙動、前後軸回りのローリング回転挙動を検出することができる。
ナビゲーション装置2は、施設情報データを内蔵し、目的地までの自車両が走行する経路を案内する装置であり、目的地が入力されると、自車両の現在地(或いは任意に設定された出発地)から目的地までの案内経路が生成される。なお、目的地の入力は、自車両の乗員入力であっても、携帯端末(例えば、スマートフォンなど)により自車両の外部に存在するユーザーからの無線入力であっても良い。
車載制御ユニット3は、CPUやメモリを備えており、車載センサ1によって検出された各種の検出情報、ナビゲーション装置2によって生成された案内経路情報、必要に応じて適宜入力されるドライバ入力情報を統合処理する。そして、この車載制御ユニット3には、目標軌跡及び目標速度プロファイルを生成する自動運転コントローラ31と、生成された目標軌跡及び目標速度プロファイルに基づいて車両運動を制御するための指令値を演算する車両運動コントローラ32と、を有している。
自動運転コントローラ31では、車載センサ1やナビゲーション装置2からの入力情報や高精度地図データなどに基づき、目標軌跡及び目標速度プロファイルを階層処理により生成する。ここで、「目標軌跡」とは、自車両を自動運転走行させる際に目標とする走行軌跡であり、例えば、自車両が車線幅内で走行する軌跡、自車両周囲の走行可能領域内で走行する軌跡、障害物を回避する軌跡などを含む。生成された目標軌跡及び目標速度プロファイルの情報は車両運動コントローラ32に出力される。また、生成された目標軌跡の情報は、高精度地図データと合成されてHMIモジュール5のディスプレイに表示する。
車両運動コントローラ32では、自動運転コントローラ31からの目標軌跡及び目標速度プロファイルの情報、又は、ドライバ操作によるマニュアル操作情報に基づいて自車両を走行させるための制御指令値を演算する。演算された制御指令値はアクチュエータ4に出力される。なお、車両運動コントローラ32は、マニュアル操作入力の有無によって走行モードを調停し、調停結果(自動運転走行モード、又は、マニュアル運転走行モード)に応じた制御指令値を演算する。
アクチュエータ4は、自車両の直進走行/旋回走行/停止させるための制御アクチュエータであり、速度制御アクチュエータ41、操舵制御アクチュエータ42を有する。速度制御アクチュエータ41は、車載制御ユニット3から入力された速度制御指令値に基づいて駆動輪へ出力する駆動トルク又は制動トルクを制御する。操舵制御アクチュエータ42は、車載制御ユニット3から入力された操舵制御指令値に基づいて操舵輪の転舵角を制御する。なお、本実施例においては自動運転コントローラ31が目標軌跡及び目標速度プロファイルを生成し、目標軌跡及び目標速度プロファイルに基づいて駆動輪へ出力する駆動トルク又は制動トルク、及び操舵輪の転舵角を制御する例を説明するが、これに限らず、例えば自動運転コントローラ31が目標軌跡のみを生成して、目標軌跡に基づいて操舵輪の転舵角のみを制御してもよい。
HMIモジュール5は、自車両の乗員を含むドライバと車載制御ユニット3などによるシステムとの間で互いの意思や情報を伝達するためのインターフェイスである。HMIモジュール5は、例えば、乗員に自動運転制御状況などによる画像情報を表示するヘッドアップディスプレイ、メータディスプレイ、アナウンス音声を出力するスピーカ、点灯や点滅により警告するランプ、ドライバが入力操作を行う操作ボタン、タッチパネルなどから構成される。
[自動運転コントローラの制御ブロック構成(図2)]
自動運転コントローラ31は、図2に示すように、目標軌跡の生成に必要な情報の取得処理部として、地図情報記憶部311、自己位置推定部312、走行環境認識部313、周囲物体検出部314、走行履歴記憶部319を備えている。そして、目標軌跡(目標速度プロファイル)を生成する階層処理部として、走行車線計画部315、動作決定部316、走行領域設定部317、目標軌跡生成部318を備えている。
地図情報記憶部311は、車外に存在する静止物体の三次元の位置情報(経度、緯度、高さ)が設定された高精度三次元地図(以下、単に「地図」という。)のデータが格納された車載メモリである。地図データの静止物体には、例えば、横断歩道、停止線、各種標識、分岐点、走行路標示、信号機、電柱、建物、看板、車道やレーンの中心線、区画線、路肩線、走行路と走行路のつながり、などの様々な要素が含まれる。
自己位置推定部312は、車載センサ1からのセンサ情報、地図情報記憶部311からの地図情報を入力し、入力されたセンサ情報と地図情報、或いは、GPS衛星からの信号受信に基づいて自車両の自己位置を推定し、自己位置情報を出力する。
走行環境認識部313は、車載センサ1からのセンサ情報、ナビゲーション装置2からの案内経路情報、地図情報記憶部311からの地図情報、自己位置推定部312からの自己位置情報、周囲物体検出部314からの周囲物体認識情報を入力する。そして、これらの入力情報と自車両走行環境の刻々と変化する動的な情報を統合し、自車両の走行環境を認識し、走行環境認識情報を出力する。
周囲物体検出部314は、車載センサ1からのセンサ情報を入力し、自車両の周囲に存在する物体の位置、属性、挙動の検出又は予測によって自車両の周囲物体を認識し、周囲物体認識情報を出力する。周囲物体検出部314の詳しい構成については後述する。
走行履歴記憶部319は、自車両が過去に検出対象物体に接近する走行をした際の自車両の自己位置に対応したヨーレート検出値などのデータが格納された車載メモリである。この走行履歴記憶部319は、周囲物体検出部314からリクエストを入力すると、リクエストに応じて記憶されている自車両の自己位置に対応したヨーレート検出値などの情報を周囲物体検出部314へ出力する。
走行車線計画部315は、ナビゲーション装置2からの案内経路情報、地図情報記憶部311からの地図情報を入力する。そして、目的地までの案内経路上において、自車両が走行すべき走行車線(以下、「目標車線」という)を計画し、目標車線情報を出力する。
動作決定部316は、走行環境認識部313からの走行環境認識情報、走行車線計画部315からの目標車線情報を入力する。そして、目標車線に沿って走行したとき、自車両が遭遇する事象を抽出し、それら事象に対する自車両の動作を決定し、自車両動作決定情報を出力する。ここで、「自車両の動作」とは、発進、停止、加速、減速、右左折などの目標車線に沿って走行するために必要となる自車両の動きをいう。
走行領域設定部317は、地図情報記憶部311からの地図情報、動作決定部316からの自車両動作決定情報、周囲物体検出部314からの周囲物体認識情報を入力する。そして、自車両の動作情報と周囲物体認識情報を照合し、目標車線に沿って自車両が走行可能な走行可能領域を設定し、走行可能領域情報を出力する。ここで、「走行可能領域」とは、例えば、自車両周辺に駐車車列、工事区間などが存在するとき、当該領域との干渉や接触を回避するように設定される領域をいう。
目標軌跡生成部318は、走行領域設定部317からの走行可能領域情報を入力し、現在の自車両位置から任意に設定される目標位置まで、走行可能領域内を走行することを拘束条件として自車両を走行させる目標軌跡を生成する。この目標軌跡生成部318では、目標軌跡の生成と併せ、自車両の目標軌跡に沿う経時的な速度計画である目標速度プロファイルを生成する。そして、目標軌跡生成部318から車両運動コントローラ32に対して、目標軌跡情報と目標速度プロファイル情報を出力する。
[周囲物体検出部の詳細構成(図3~図7)]
周囲物体検出部314は、車載カメラとして、狭角カメラ111と広角カメラ112を有する撮像部110を備え、狭角カメラ111で撮像された画像、或いは、広角カメラ112で撮像された画像に基づいて、自車両の周囲に存在する検出対象物体を検出する。即ち、周囲物体検出部314は、本開示の物体検出装置に相当し、周囲物体検出部314で実行される物体検出手法は本開示の物体検出方法に相当する。
撮像部110は、検出対象物体を第1画角と第1焦点距離により撮像可能な狭角カメラ111と、同じ検出対象物体を第1画角よりも広い第2画角と第1焦点距離よりも短い第2焦点距離により撮像可能な広角カメラ112とを有する。狭角カメラ111と広角カメラ112による2台の車載カメラは、同じ検出対象物体をそれぞれの撮像素子(CCD、CMOSなど)により捉えて検出対象物体の画像データを取得できるように、自車両のフロントウインドウの上部内側位置などにレンズ光軸を自車両の前方に向けて設けられる。
ここで、「狭角カメラ111」とは、検出対象物体を第1画角(例えば、18°前後領域の角度)と第1焦点距離(例えば、135mm前後領域の距離)により撮像可能な望遠レンズを備えるカメラ(望遠カメラ)をいう。「広角カメラ112」とは、検出対象物体を第2画角(第1画角よりも広い画角で、例えば、34°前後領域の角度)と第2焦点距離(第1焦点距離よりも短い焦点距離で、例えば、70mm前後領域の距離)により撮像可能な標準レンズを備えるカメラ(標準カメラ)をいう。
図4A~図4Cは、実施例1において自車両から前進方向に検出対象物体を捉えた狭角カメラ111及び広角カメラ112によって取得される画像を示した図である。図4A~図4Cにつれて自車両が検出対象物体(信号機、標識など)に近づいている様子を表している。図4Aは狭角カメラ111でのみ検出対象物体を検出することができる場合を表している。この場合、広角カメラ112で検出するために必要な画素数が得られないため、広角カメラ112からの画像では物体を検出することができない。図4Bは狭角カメラ111及び広角カメラ112のどちらでも検出対象物体を物体として検出できる場合を表している。図4Cは狭角カメラ111からの画像では検出対象物体を画角範囲内に捉えることができず、広角カメラ112でのみ検出対象物体を物体として検出できる場合を表している。
周囲物体検出部314は、図3に示すように、距離情報取得部314a、ヨーレート情報取得部314b(車両挙動指標値情報取得部の一例)、画像選択部314c、露光時間設定部314d、物体検出部314e、出力部314fを有する。以下、各構成要素について説明する。
距離情報取得部314aは、検出対象物体と自車両の間の距離Dの情報を取得する。検出対象物体が地図に登録されている物体であれば、GPS衛星からの信号受信に基づく自車の自己位置情報を用いて地図上で計算した結果により、検出対象物体と自車両の間の距離Dの情報を取得する。また、検出対象物体までの距離が車載センサにより検出可能であれば、車載されているRadarやLiDARのような測距センサからの実空間上での計測結果により、検出対象物体と自車両の間の距離Dの情報を取得する。
ヨーレート情報取得部314bは、検出対象物体へ接近するときに自車両に発生する車両挙動の大きさをあらわす車両挙動指標値の一例であるヨーレート値Y(自車両の重心点を通る鉛直軸回りの回転角速度)の情報を取得する。ここで、ヨーレート値Yの具体的な取得手法としては、「センサからの取得手法(a)」、「地図からの取得手法(b)」、「走行履歴からの取得手法(c)」があり、何れか一つの取得手法を選択しても良いし、複数の取得手法を選択しても良い。以下、ヨーレート値Yの情報を取得する取得手法(a),(b),(c)を説明する。
(a) 自車両にヨーレートセンサ131を設け、自車両に発生するヨーレート値Yの情報として、ヨーレートセンサ131からのヨーレートセンサ値Y(sen)を取得する。
(b) 自車両が検出対象物体に接近するときの道路地図と道路関連情報を有する地図情報記憶部311を備える。そして、地図情報記憶部311から自車両が検出対象物体に接近するときに走行する道路の曲率半径Rと道路の制限速度Vの情報を取得し、曲率半径Rと制限速度Vを用いた算出処理によりヨーレート推定値Y(pre)を取得する。なお、ヨーレート推定値Y(pre)は、Y(pre)=V/Rの式により計算できる。
(c) 自車両が過去に検出対象物体に接近する走行をした際の自車両の自己位置に対応したヨーレート検出値を記憶する走行履歴記憶部319を備える。そして、走行履歴記憶部319に記憶されているヨーレート記憶情報を自車両の自己位置推定に基づいて読み込み、ヨーレート記憶情報を参照してヨーレート推定値Y(memo)を取得する。このとき、自車両が検出対象物体に接近するまでの区間におけるヨーレート記憶情報を一気に読み込み、ヨーレート記憶情報の最大値をヨーレート推定値Y(memo)としても良い。
画像選択部314cは、距離情報取得部314aからの距離Dの情報とヨーレート情報取得部314bからのヨーレート値Yの情報に基づいて、狭角カメラ111からの画像選択を広角カメラ112からの画像選択に切り替える。つまり、狭角カメラ111からの画像選択中、ヨーレート値Yが所定値Y_THよりも大きく、かつ、距離Dが広角カメラ112で検出対象物体を検出可能な距離領域であると、広角カメラ112からの画像選択に切り替える。
ここで、狭角カメラ111でのみ検出対象物体の検出開始が可能な位置までの距離を第1距離D1という。広角カメラ112で検出対象物体の検出開始が可能な位置までの距離を第2距離D2という。広角カメラ112でのみ検出対象物体の検出開始が可能な位置までの距離を第3距離D3という。2距離D2と第3距離D3の間に予め設定した画像切り替え位置までの距離を距離閾値D_THという(図5~図7を参照)。
図5は実施例1において狭角カメラ111及び広角カメラ112により検出対象物体を検出可能な領域と距離について示した図である。自車両Aから検出対象物体(以下、「信号機TS」とする。)までを距離Dとしたときに、D1≧D≧D2の範囲は、狭角カメラ111でのみ検出可能な範囲を表している。次に、D2≧D≧D3の範囲は、広角カメラ112であっても狭角カメラ111であっても検出可能な範囲を表している。次に、D3≧D≧0の範囲は、広角カメラ112でのみ検出可能な範囲を表している。なお、狭角カメラ111で検出できる範囲TELE1は、D1≧D≧D3の範囲であり、広角カメラ112で検出できる範囲WIDE1は、D2≧D≧0の範囲である。
図6は実施例1においてヨーレート情報取得部314bが取得したヨーレート値Yが所定値Y_TH以下を維持した場合、距離Dに応じて画像選択部314cがカメラ選択を切り替えた様子を表している。自車両Aは距離情報取得部314aによって信号機TSとの距離Dを取得する。この距離Dが距離閾値D_THよりも近づいた場合、つまり、狭角カメラ111からの画像選択中、D<D_THとなった場合、距離Dのみに依存して広角カメラ112からの画像選択に切り替える。ここで、「距離閾値D_TH」は、例えば、直進平坦路を走行しているとき、D2≧D≧D_THの範囲において狭角カメラ111から広角カメラ112への切り替え位置を変える実験を行い、物体認識性が高くなる切り替え位置の実験結果に基づいて予め設定する。
図7は実施例1においてヨーレート情報取得部314bが取得したヨーレート値Yが所定値Y_THよりも大きい場合、画像選択部314cが広角カメラ112を距離Dに対して優先的に選択する様子を表している。ヨーレート値Yが所定値Y_TH以下を維持した場合は、自車両Aが距離閾値D_THよりも信号機TSに近づかないと広角カメラ112に切り替わらない。しかし、ヨーレート値Yが所定値Y_THよりも大きい場合は、広角カメラ112が検出を開始できる第2距離D2よりも近いと、自車両Aが距離閾値D_THよりも信号機TSから遠い場合でも狭角カメラ111からの画像選択を広角カメラ112からの画像選択に切り替える。つまり、狭角カメラ111からの画像選択中、D2≧D≧D_THの範囲であれば、ヨーレート値Yが所定値Y_THよりも大きいと判断されたタイミングにて広角カメラ112からの画像選択に切り替える。ここで、「所定値Y_TH」は、例えば、車速を異ならせてカーブ路走行を行うとき、狭角カメラ111からの像ぶれした画像データを取得する実験を行い、物体認識性が低くなる像ぶれが発生したときのヨーレート値実験結果に基づいて予め設定する。
露光時間設定部314dは、撮像部110に有する狭角カメラ111と広角カメラ112の露光時間を設定する。ここで、検出対象物体が、交流電源による光源を用いない静止物体(例えば、道路標識など)や移動物体(例えば、横断歩道を横切る歩行者など)であるとする。この場合、ヨーレート値Yが所定値Y_THよりも大きいと、ヨーレート値Yが所定値Y_TH以下のときの第1露光時間SS1よりも短い第2露光時間SS2に露光時間を設定する。なお、「露光時間」とは、カメラの撮像素子がレンズを通した光にさらされる(露出する)時間のことをいう。この露光時間をシャッター速度で表現すると、露光時間が短いほどシャッター速度が速く、露光時間が長いほどシャッター速度が遅くなる。
一方、検出対象物体が、交流電源による光源を用いて交通情報を表示する光情報表示物体(例えば、LED光源を用いた信号機、道路情報表示板など)であるとする。この場合、広角カメラ112の露光時間を第2露光時間SS2に設定したとき、第2露光時間SS2が、フリッカー周期による露光時間下限値SS_Fより短いか否かを判断する。そして、第2露光時間SS2が露光時間下限値SS_Fより短いと判断されると、露光時間下限値SS_F以上の時間を、露光時間として設定する。ここで、「フリッカー」とは、カメラ画像を映像として見たときに光源が点灯状態と消灯状態を繰り返すことで、ちらついて見える映像になる現象をいう。「フリッカー周期」とは、光源が点灯状態と消灯状態を繰り返すときの周期であり、交流電源の周波数に関連して決まる。フリッカー周期は、交流電源の周波数の2倍の周期(例えば、東日本:50Hz×2=100Hz、西日本:60Hz×2=120Hz)となり、これは1周期中に2回ピークがくることによる。
物体検出部314eは、そのときに選択されている狭角カメラ111又は広角カメラ112で撮像された画像に基づいて、自車両の周囲に存在する検出対象物体を検出すると共に、検出対象物体から認識情報を抽出する。ここで、検出対象物体を検出する手段としては、予め登録されているテンプレートに基づくパターンマッチングによる方法を用いても良い。また、Haar-like、LBP(Local Binary Pattern)、HOG(Histograms of Oriented Gradients)のような画像特徴量に基づいてAdaBoostやSVM(Support Vector Machine)のような機械学習を用いて学習した検出器によって検出する方法を用いても良い。さらに、これ以外の方法を用いて検出対象物体の画像から制御上必要とされる認識情報を抽出するようにしても良い。
出力部314fは、物体検出部314eにより検出された検出対象物体の認識情報を走行環境認識部313や走行領域設定部317へ出力する。例えば、検出対象物体が信号機TSの場合には、信号機TSの点灯表示による現示情報(赤、青、黄)、信号機TSの矢印表示による直進許可情報、右折許可情報、左折許可情報を認識情報とする。そして、精度良く取得した検出対象物体の認識情報を、走行環境認識部313及び走行領域設定部317へ出力することで、走行環境認識、走行領域の設定を適切に行うことができる。
次に、周囲物体検出技術について説明する。そして、実施例1の作用を、「周囲物体検出処理作用」、「ヨーレート情報取得処理作用」、「露光時間設定処理作用」に分けて説明する。
[周囲物体検出技術について(図8~図10)]
自動運転システムは、自車両の周辺に存在する物体の認識による状況把握を行い、適切な目標軌道を生成し、その目標軌道に沿って走行するように車両の動作制御を行う。このとき、自車両の周辺に存在する物体の認識精度が低いと、目標軌道や目標速度プロファイルの生成が適切とならない可能性が高くなるため、自動運転システムにおいて、自車両の周辺に存在する物体を精度良く認識することが重要な要素の一つとなっている。
例えば、検出対象物体が信号機である場合、自車両が旋回しながら信号機が設置された交差点に接近すると、自車両はカーブ路に沿って進行方向を変えることで、重心を通る鉛直軸回りのヨーレート値が大きくなるヨー挙動変化を示す。自車両のヨーレート値が大きくなるヨー挙動変化を示すと、車載カメラは自車両のヨー挙動変化に応じて振れ、車載カメラからの画像に像ぶれが生じることになる。カメラ画像に像ぶれが生じると、像ぶれ幅により物体形状や表示形状の輪郭が曖昧となり、検出対象物体である信号機の現示が何であるかを認識する認識精度が低くなる。具体的には、例えば信号機の現示が矢印である場合には矢印の表示形状の輪郭が曖昧となり、認識精度が低くなる。
これに対し、車輪速センサで検出される車速およびヨーレートセンサによって検出される車両の直進状態若しくは旋回状態に応じて、シャッター速度を制御するカメラ制御部を有する。そして、カメラ制御部は、車両が旋回中であることを検知した場合、直進走行中の場合に比べて車載カメラのシャッター速度を高速に切り替える車載用撮像装置が提案されている(例えば、特開2010-250503号公報を参照)。
上記提案された背景技術においては、自車両が旋回中であることを検知した場合に車載カメラのシャッター速度を高速に切り替えることになる。車載カメラのシャッター速度を高速に切り替えることは、車両旋回時に発生する検出対象物体の像ぶれの影響の抑制することには有効である。しかし、シャッター速度を高速に切り替えると、シャッター速度が高速であるほどカメラレンズから入ってくる光量が少なくなるため、撮像素子に結像された画像全体が暗くなってしまい、検出対象物体を検出することができなくなるおそれがある、という課題がある。なお、低光量の場合には、車載カメラのISO感度を上げることも考えられるが、この場合は高感度ノイズが原因で検出対象物体の検出ができなくなるおそれがある。
特に、検出対象物体が信号機の場合であって点灯状態の現示情報を認識したいとき、画像全体が暗くなってしまうと、信号機であるという物体検出ができても信号機の現示情報が何であるかを認識することが困難になる。さらに、信号機の場合には交流電源による光源を有するため、シャッター速度を高速に切り替えたことでフリッカー周期より短い露光時間になると、光源が消灯状態の画像が含まれることになり、信号機からの現示情報の認識がより困難になる。
上記背景技術や課題に対し、その解決手法を検証した結果、
(A) 車載カメラの像ぶれ量は、焦点距離と露光時間に比例し、焦点距離と露光時間を共に短くすると、露光時間のみを短くする場合よりも像ぶれ量を軽減できる。
(B) レンズの明るさは焦点距離とレンズ口径で決まり、焦点距離の短いレンズを有する広角カメラを選択すると、露光時間を短くしても、物体検出に必要な明るさを確保できる。
という点に着目した。
上記着目点に基づいて本開示は、車載カメラとして狭角カメラ111と広角カメラ112を有する撮像部110と、撮像部110で撮像された画像に基づいて自車両Aの周囲に存在する検出対象物体を検出する周囲物体検出部314と、を備える物体検出方法である。周囲物体検出部314は、以下の手順を有する。自車両Aと検出対象物体の間の距離Dの情報を取得する。距離Dが狭角カメラ111で検出対象物体を検出可能な距離領域になると、狭角カメラ111からの画像を選択する。狭角カメラ111からの画像選択中、自車両Aに発生する車両挙動の大きさをあらわす車両挙動指標値の情報を取得する。車両挙動指標値が所定値よりも大きく、かつ、距離Dが広角カメラ112で検出対象物体を検出可能な距離領域であると、狭角カメラ111からの画像選択を広角カメラ112からの画像選択に切り替える。広角カメラ112からの画像選択に切り替えると、広角カメラ112の露光時間を、車両挙動指標値が所定値以下のときの第1露光時間SS1よりも短い第2露光時間SS2に設定する。第2露光時間SS2に設定された広角カメラ112で撮像された画像に基づいて検出対象物体を検出する、という物体検出方法を採用した。
例えば、図8に示すように、検出対象物体が信号機TSであり、自車両Aがカーブ路を旋回しながら信号機TSが設置された交差点に向かって接近する場合について説明する。このとき、自車両Aは、図8の矢印Bの枠内に示すカーブ路に沿って進行方向を変えることで、重心を通る鉛直軸回りのヨーレート値Yが大きくなるヨー挙動変化を示す(図8の下部の矢印Bの枠内に示すヨーレート値特性)。このため、ヨーレート値Yが所定値Y_THよりも大きくなり、自車両Aのヨー挙動変化によって撮像結果に像ぶれが発生することが予見できる。
よって、狭角カメラ111からの画像選択中、像ぶれによる物体認識性能の劣化が予見され、かつ、距離Dが広角カメラ112で検出対象物体を検出可能な距離領域であると、広角カメラ112からの画像選択に切り替えられる。つまり、像ぶれによる物体認識性能の劣化が予見される場合、通常は狭角カメラ111を選択する領域であっても優先的に広角カメラ112からの画像選択に切り替えられる。そして、広角カメラ112に切り替えることによって狭角カメラ111の場合よりも明るい画像を得ることができるので、露光時間の調整によって車両挙動指標値が所定値以下である場合の第1露光時間SS1よりも短い第2露光時間SS2に設定することができる。このように、自車両Aが旋回などによって大きな挙動変化をしながら検出対象物体に接近する場合、通常より早期に狭角カメラ111から広角カメラ112への切り替え操作及び広角カメラ112の露光時間を短く設定する操作が行われる。この結果、車両挙動の変化を伴う走行中の物体検出シーンにおいて、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果を広角カメラ112から得ることで、物体認識性能の向上を達成することができることになる。
ここで、広角カメラ112への切り替え操作、及び、広角カメラ112の露光時間を短く設定する操作を行うことで、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果が広角カメラ112から得られる理由を説明する。
まず、焦点距離をf[mm]とし、自車両の振れ角速度をγ[rad/sec]とし、露光時間をΔTとすると、像ぶれ量d[mm/sec]は、
d=f×γ×ΔT …(1)
の式で近似できる。また、焦点距離をf[mm]とし、レンズ口径をDlens[mm]とすると、レンズ明るさの指標であってレンズから取り込む光の量を数値化したF値は、
F値=f/Dlens …(2)
の式であらわされる。よって、以下の作用1,2,3を示す。
(作用1)狭角カメラ111から広角カメラ112への切り替え操作を行うと、焦点距離fが短くなる。よって、上記式(1)により自車両の振れ角速度γと露光時間ΔTが同じであると仮定しても像ぶれ量dを軽減できる。また、上記式(2)によりレンズ口径Dlensが同じであると仮定したとき、レンズ明るさの指標であるF値は小さくなる(=レンズ光量が増加する)。
(作用2)広角カメラ112の露光時間を短く設定する操作を行うと、上記式(1)により焦点距離fと自車両の振れ角速度γとが同じであると仮定しても像ぶれ量dを軽減できる。
(作用3)広角カメラ112への切り替え操作、及び、広角カメラ112の露光時間を短く設定する操作を行うことで、焦点距離fが短くなるのに加えて露光時間ΔTが短くなるという2つの相乗効果により像ぶれ量dを軽減できる。さらに、焦点距離fが短くなることによりレンズ明るさの指標であるF値が小さくなって、レンズ光量が増加する。よって、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果が広角カメラ112から得られることになる。
具体例として、狭角カメラ111の第1焦点距離を160mm、第1画角を約15deg、広角カメラ112の第2焦点距離を80mm、第2画角を約30degとする。なお、何れも35mmフィルムに換算した値である。この場合、狭角カメラ111と広角カメラ112とで同じレンズ口径Dlensのレンズを使用した場合、広角カメラ112のレンズ明るさの指標であるF値は、狭角カメラ111のレンズ明るさ指標であるF値の1/2となる(F値は小さいほどレンズは明るく、レンズを通る光量が多くなる)。例えば、狭角カメラ111を選択した場合、図9に特性Nに示すように、シャッター速度を1段速くすると、露出量が大きくなり画像が暗くなる。これに対し、広角カメラ112を選択した場合、図9に特性Wに示すように、狭角カメラ111の特性Nに比べF値が上昇する(図9のFナンバー座標軸に沿う上向き矢印)。加えて、広角カメラ112を選択した場合、図9に特性Wに示すように、シャッター速度を1段速くしても、狭角カメラ111の特性Nに比べて4倍明るくなる露出量が得られる(図9の露出量座標軸に沿う斜め上向き矢印)。なお、露出量は対数スケールである。
このため、検出対象物体を信号機TSとしたときであって狭角カメラ111の選択を維持した場合には、シャッター速度を1段速くしても、図10(a)に示すように、露光時間ΔTのみが短くなるため、像ぶれ量dを僅かに軽減できるだけで、画像全体が暗くなる。よって、信号機TSにおいて点灯している上向き矢印による直進表示や横向き矢印による左折表示の輪郭形状がぶれて表示内容認識性が低下する。露光時間ΔTのみを短くして像ぶれ量dを軽減するには、シャッター速度を数段速くする必要があり、この場合は、画像全体の暗さがより増して信号機TSの直進表示や左折表示を認識できない。
これに対し、検出対象物体を信号機TSとしたときであって広角カメラ112からの画像選択に切り替えた場合、シャッター速度を1段速くするだけで、図10(b)に示すように、焦点距離fと露光時間ΔTが短くなるという2つの理由により、像ぶれ量dを有効に軽減できるだけでなく画像全体の明るさが保たれる。よって、信号機TSの点灯している上向き矢印による直進表示や横向き矢印による左折表示の輪郭形状を画像から認識する認識性が、狭角カメラ111を選択した場合に比べて向上する。
[周囲物体検出処理作用(図11)]
以下、図11に示すフローチャートに基づいて、周囲物体検出部314において実行される周囲物体検出処理作用を説明する。検出対象物体と自車両Aとの間の距離Dが取得されると(S1)、距離Dが狭角カメラ111でのみ検出対象物体の検出開始が可能な位置までの第1距離D1未満であるか否かが判断される(S2)。D≧D1と判断されている間は、S1→S2へと進む流れが繰り返される。そして、自車両Aが検出対象物体へ近づくことでD<D1と判断されると、S2からS3→S4へと進み、検出対象物体を認識する画像として狭角カメラ111からの画像が選択され(S3)、距離Dが第2距離D2と第3距離D3の間に設定した画像切り替え位置までの距離閾値D_TH未満であるか否かが判断される(S4)。
D<D_THと判断されている間は、S4からS5→S6へと進み、ヨーレート値Yを取得し(S5)、ヨーレート値Yが所定値Y_THよりも大きいか否かが判断される(S6)。Y≦Y_THと判断されている間は、S6→S1→S2→S3→S4→S5へと進む流れが繰り返され、狭角カメラ111の画像選択が維持される(S3)。そして、Y≦Y_THと判断されたままで自車両Aが検出対象物体へ近づくことでD≧D_THになると、S4からS9へと進み、検出対象物体を認識する画像として狭角カメラ111からの画像選択が広角カメラ112からの画像選択に切り替えられる(S9)。
一方、Y>Y_THと判断されると、S6からS7へと進み、距離Dが広角カメラ112で検出対象物体の検出開始が可能な位置までの第2距離D2未満であるか否かが判断される(S7)。D≧D2と判断されている間は、S7→S1→S2→S3→S4→S5→S6へと進む流れが繰り返され、狭角カメラ111の画像選択が維持される(S3)。しかし、D<D2と判断されると、S7からS8→S9へと進み、撮像部110に有する広角カメラ112の露光時間が、狭角カメラ111の画像選択中の第1露光時間SS1よりも短い第2露光時間SS2に設定される(S8)。そして、検出対象物体を認識する画像として狭角カメラ111からの画像選択が広角カメラ112からの画像選択に切り替えられる(S9)。
検出対象物体を認識する画像として広角カメラ112からの画像選択に切り替えられると、S9→S10→S11へと進む流れが、S11にて交差点を通過したと判断されるまで繰り返される。S10では、広角カメラ112からの画像に基づいて検出対象物体が検出(認識)される。
このように、狭角カメラ111からの画像選択中、ヨーレート値Yが所定値Y_THよりも大きく、かつ、距離Dが第2距離D2から距離閾値D_THまでの距離領域であると、広角カメラ112からの画像選択に切り替えている。例えば、自車両Aが検出対象物体へ近づくアプローチ経路がカーブ路などのように、ヨーレート値Yが所定値Y_THよりも大きくなる走行シーンにおいては、車両挙動指標値に基づく画像切り替えが、距離情報に基づく画像切り替えに優先される。よって、車両挙動によって撮像結果に像ぶれが発生する場合、距離Dが距離閾値D_THに到達する前の早期タイミングにて物体認識性能が向上する広角カメラ112からの画像に切り替えることができる。
また、狭角カメラ111からの画像選択中、ヨーレート値Yが所定値Y_TH以下であると、狭角カメラ111からの画像選択を維持する。そして、狭角カメラ111からの画像選択を維持したままで、距離Dが距離閾値D_TH未満になると、広角カメラ112からの画像選択に切り替えている。例えば、自車両Aが検出対象物体へ近づくアプローチ経路が直進平坦路などのように、ヨーレート値Yが所定値Y_TH以下を維持する走行シーンにおいては、距離情報に基づく画像切り替えが、車両挙動指標値に基づく画像切り替えに優先される。よって、車両挙動によって撮像結果に像ぶれが発生しない場合、距離Dが距離閾値D_THに到達すると、狭角カメラ111からの画像よりも物体認識性能が向上する広角カメラ112からの画像に切り替えることができる。
[ヨーレート情報取得処理作用(図12)]
以下、図12A、図12B、図12Cに示すフローチャートに基づいて、ヨーレート情報取得部314b(図11のヨーレート値取得ステップS5)において実行されるヨーレート情報取得処理作用を説明する。ここで、ヨーレート値Yの情報を取得する具体的な取得手法としては、「センサからの取得手法:図12A」、「地図からの取得手法:図12B」、「走行履歴からの取得手法:図12C」がある。
センサからの取得手法(図12A)は、自車両Aのヨーレートを検出するヨーレートセンサ131を設け、自車両Aに発生するヨーレート値Yの情報として、ヨーレートセンサ131からのヨーレートセンサ値Y(sen)を取得する(S51)。この場合、自車両Aが検出対象物体に接近する走行区間に沿って時々刻々変化するヨーレート値Yの情報が取得される。よって、カーブ路の入口域でヨーレートセンサ値Y(sen)が所定値Y_THよりも大きくなると、Y(sen)>Y_THとなった以降の走行区間で広角カメラ112からの画像を選択することができる。
地図からの取得手法(図12B)は、自車両Aが検出対象物体に接近するときの道路地図と道路関連情報を有する地図情報記憶部311を備える。そして、地図情報記憶部311から自車両Aが検出対象物体に接近するときに走行する道路の曲率半径Rを取得し(S52)、道路の制限速度Vを取得し(S53)、制限速度Vと曲率半径Rを用いた算出処理によりヨーレート推定値Y(pre)(=V/R)を取得する(S54)。この場合、制限速度Vにてカーブ路を自車両Aが走行したと仮定したときのヨーレート値Yが、自車両Aが検出対象物体に接近する前に予測推定される。よって、自車両Aが検出対象物体に接近するときの経路が地図情報記憶部311に含まれている経路であれば、自車両Aに発生するヨーレート推定値Y(pre)を事前に取得することが可能となる。この結果、実際のヨーレート値Yが上昇する前のタイミングにて広角カメラ112からの画像を選択することで、撮像結果が像ぶれになることが未然に防止される。
走行履歴からの取得手法(図12C)は、自車両Aが過去に検出対象物体に接近する走行をした際の自車両Aの自己位置に対応したヨーレート検出値を記憶する走行履歴記憶部319を備える。そして、走行履歴記憶部319に記憶されている走行履歴レコードのうちヨーレート記憶情報を自車両Aの自己位置推定に基づいて読み込み、ヨーレート記憶情報を参照してヨーレート推定値Y(memo)を取得する(S55)。この場合、自車両が検出対象物体に接近するまでの区間において過去と同様の車速にて走行すると仮定したときのヨーレート値Yが、自車両Aが検出対象物体に接近する前に予測推定される。よって、走行履歴記憶部319に登録済みの経路であれば、自車両Aに発生するヨーレート推定値Y(memo)を事前に取得することが可能となる。この結果、実際のヨーレート値Yが上昇する前のタイミングにて広角カメラ112からの画像を選択することで、撮像結果が像ぶれになることが未然に防止される。
[露光時間設定処理作用(図13)]
以下、図13A、図13Bに示すフローチャートに基づいて、露光時間設定部314d(図11の露光時間設定ステップS8)において実行される露光時間設定処理作用を説明する。
検出対象物体が交流電源による光源を用いない物体とする。この場合、図13Aに示すように、第1露光時間SS1を露光時間として設定し(S81)、ヨーレート値Yが所定値Y_THよりも大きいか否かが判断される(S82)。Y≦Y_THと判断された場合、S81→S82→エンドへと進み、第1露光時間SS1が露光時間として設定される。一方、Y>Y_THと判断された場合、S81→S82→S83→エンドへと進み、S83では、第1露光時間SS1よりも短い第2露光時間SS2が露光時間として設定される。
このように、検出対象物体が交流電源による光源を用いない物体の場合は、像ぶれ抑制を考慮して予め設定された第2露光時間SS2が、そのまま露光時間として設定されることになる。よって、例えば、道路標識などの静止物体、横断歩道を横切る歩行者などの移動物体を検出対象物体とするとき、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果を広角カメラ112から得ることができる。
検出対象物体が交流電源による光源を用いる物体とする。この場合、図13Bに示すように、第1露光時間SS1を露光時間として設定し(S84)、ヨーレート値Yが所定値Y_THよりも大きいか否かが判断される(S85)。Y≦Y_THと判断された場合、S84→S85→エンドへと進み、第1露光時間SS1が露光時間として設定される。一方、Y>Y_THと判断された場合、S84→S85→S86→S87へと進み、S86では、第1露光時間SS1よりも短い第2露光時間SS2が露光時間として設定される。次のS87では、広角カメラ112の露光時間を第2露光時間SS2に設定したとき、第2露光時間SS2がフリッカー周期による露光時間下限値SS_Fより短いか否かが判断される。
S87においてSS2≧SS_Fと判断されると、S87からエンドへ進み、広角カメラ112の露光時間が第2露光時間SS2に設定される。しかし、S87においてSS2<SS_Fと判断されると、S87からS88→エンドへと進む。S88では、露光時間下限値SS_Fが露光時間として設定される。なお、S88では、露光時間下限値SS_F以上の時間を露光時間として設定しても良い。
このように、検出対象物体が交流電源による光源を用いる物体の場合、フリッカーによる画像に消灯状態が生じる影響を排除するには、「露光時間を長くすること(=シャッター速度を遅くすること)」が有効な対策となる。このため、第2露光時間SS2が露光時間下限値SS_F未満であることで、フリッカーにより画像に消灯状態が生じると判断されると、フリッカー周期により画像に消灯状態が生じない露光時間の下限を示す値である露光時間下限値SS_Fが露光時間として設定されることになる。よって、例えば、LED光源を用いた信号機TS、道路情報表示板などのように、交流電源による光源を用いて交通情報を表示する光情報表示物体の場合、検出対象の信号機TSなどの光源が消灯状態として撮像されることを防止でき、光源を用いた物体の認識性能を向上させることができる。なお、露光時間下限値SS_F以上の露光時間とすると、フリッカー周期による影響を排除できるが、露光時間を長くするほど像ぶれ抑制作用は低くなる。このため、露光時間下限値SS_F付近の時間を露光時間として設定することで、フリッカー周期による影響排除と像ぶれ抑制との両立を図ることができる。
以上説明したように、実施例1の自動運転車両ADにおける物体検出方法及び物体検出装置にあっては、下記に列挙する効果を奏する。
(1) 車載カメラとして、検出対象物体を第1画角と第1焦点距離により撮像可能な狭角カメラ111と、検出対象物体を第1画角よりも広い第2画角と第1焦点距離よりも短い第2焦点距離により撮像可能な広角カメラ112とを有する撮像部110と、
撮像部110で撮像された画像に基づいて自車両Aの周囲に存在する検出対象物体を検出する周囲物体検出部314と、を備える物体検出方法であって、
周囲物体検出部314は、
自車両Aと検出対象物体の間の距離Dの情報を取得し、
距離Dが狭角カメラ111で検出対象物体を検出可能な距離領域になると、狭角カメラ111からの画像を選択し、
狭角カメラ111からの画像選択中、自車両Aに発生する車両挙動の大きさをあらわす車両挙動指標値(ヨーレート値Y)の情報を取得し、
車両挙動指標値(ヨーレート値Y)が所定値よりも大きく、かつ、距離Dが広角カメラ112で検出対象物体を検出可能な距離領域であると、広角カメラ112からの画像選択に切り替え、
広角カメラ112からの画像選択に切り替えると、広角カメラ112の露光時間を、車両挙動指標値(ヨーレート値Y)が所定値以下のときの第1露光時間SS1よりも短い第2露光時間SS2に設定し、
第2露光時間SS2に設定された広角カメラ112で撮像された画像に基づいて検出対象物体を検出する(図11)。
このため、車両挙動の変化を伴う走行中の物体検出シーンにおいて、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果を広角カメラ112から得ることで、物体認識性能の向上を達成する物体検出方法を提供することができる。
(2) 狭角カメラ111からの画像選択中、車両挙動指標値(ヨーレート値Y)が所定値よりも大きく、かつ、距離Dが第2距離D2から距離閾値D_THまでの距離領域であると、広角カメラ112からの画像選択に切り替える(図11のS3→S4→S5→S6→S7→S8→S9)。
このため、車両挙動によって撮像結果に像ぶれが発生する場合、距離Dが距離閾値D_THに到達する前の早期タイミングにて物体認識性能が向上する広角カメラ112からの画像に切り替えることができる。
(3) 狭角カメラ111からの画像選択中、車両挙動指標値(ヨーレート値Y)が所定値以下であると、狭角カメラ111からの画像選択を維持し、
狭角カメラ111からの画像選択を維持したままで、距離Dが距離閾値D_TH未満になると、広角カメラ112からの画像選択に切り替える(図11のS3→S4→S9)。
このため、車両挙動によって撮像結果に像ぶれが発生しない場合、距離Dが距離閾値D_THに到達すると、狭角カメラ111からの画像よりも物体認識性能が向上する広角カメラ112からの画像に切り替えることができる。
(4) 自車両Aに発生する車両挙動指標値の情報は、自車両Aの重心点を通る鉛直軸回りの回転角速度をあらわすヨーレート値Yの情報である(図8)。
このため、ヨーレート値Yが上昇するカーブ路を経由して自車両Aが検出対象物体に接近する走行シーンのとき、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果を広角カメラ112から得ることができる。
(5) 自車両Aのヨーレートを検出するヨーレートセンサ131を設け、
自車両Aに発生するヨーレート値Yの情報として、ヨーレートセンサ131からのヨーレートセンサ値Y(sen)を取得する(図12A)。
このため、カーブ路の入口域でヨーレートセンサ値Y(sen)が所定値Y_THよりも大きくなると、Y(sen)>Y_THとなった以降の走行区間で広角カメラ112からの画像を選択することができる。
(6) 自車両Aが検出対象物体に接近するときの道路地図と道路関連情報を有する地図情報記憶部311を備え、
地図情報記憶部311から自車両Aが検出対象物体に接近するときに走行する道路の曲率半径Rと道路の制限速度Vの情報を取得し、制限速度Vと曲率半径Rを用いた算出処理によりヨーレート推定値Y(pre)を取得する(図12B)。
このため、自車両Aに発生するであろうヨーレート推定値Y(pre)を事前に取得することが可能となり、実際のヨーレート値Yが上昇する前に広角カメラ112からの画像を選択することで、撮像結果が像ぶれになるのを未然に防止することができる。
(7) 自車両Aが過去に検出対象物体に接近する走行をした際の自車両Aの自己位置に対応したヨーレート検出値を記憶する走行履歴記憶部319を備え、
走行履歴記憶部319に記憶されているヨーレート記憶情報を自車両Aの自己位置推定に基づいて読み込み、ヨーレート記憶情報を参照してヨーレート推定値Y(memo)を取得する(図12C)。
このため、自車両Aに発生するであろうヨーレート推定値Y(memo)を事前に取得することが可能となり、実際のヨーレート値Yが上昇する前に広角カメラ112からの画像を選択することで、撮像結果が像ぶれになるのを未然に防止することができる。
(8) 検出対象物体は、交流電源による光源を用いて交通情報を表示する光情報表示物体(信号機TSなど)であり、
光情報表示物体を検出する場合、広角カメラ112の露光時間を第2露光時間SS2に設定したとき、第2露光時間SS2が、フリッカー周期による露光時間下限値SS_Fより短いか否かを判断し、
第2露光時間SS2が露光時間下限値SS_Fより短いと判断されると、露光時間下限値SS_F以上の時間を露光時間として設定する(図13B)。
このため、交流電源による光源を用いて交通情報を表示する光情報表示物体(信号機TSなど)の場合、光源が消灯状態として撮像されることを防止でき、光源を用いた光情報表示物体(信号機TSなど)の認識性能を向上させることができる。
(9) 車載カメラとして、検出対象物体を第1画角と第1焦点距離により撮像可能な狭角カメラ111と、検出対象物体を第1画角よりも広い第2画角と第1焦点距離よりも短い第2焦点距離により撮像可能な広角カメラ112とを有する撮像部110と、
撮像部110で撮像された画像に基づいて自車両Aの周囲に存在する検出対象物体を検出する周囲物体検出部314と、を備える物体検出装置において、
周囲物体検出部314は、
検出対象物体と自車両Aの間の距離Dの情報を取得する距離情報取得部314aと、
検出対象物体へ接近するときに自車両Aに発生する車両挙動の大きさをあらわす車両挙動指標値(ヨーレート値Y)の情報を取得する車両挙動指標値情報取得部(ヨーレート情報取得部314b)と、
距離の情報と車両挙動指標値(ヨーレート値Y)の情報に基づいて、狭角カメラ111からの画像選択を広角カメラ112からの画像選択に切り替える画像選択部314cと、
撮像部110の露光時間を設定する露光時間設定部314dと、を備え、
画像選択部314cは、狭角カメラ111からの画像選択中、車両挙動指標値(ヨーレート値Y)が所定値よりも大きく、かつ、距離Dが広角カメラ112で検出対象物体を検出可能な距離領域であると、広角カメラ112からの画像選択に切り替え、
露光時間設定部314dは、車両挙動指標値(ヨーレート値Y)が所定値よりも大きいと、露光時間を、車両挙動指標値(ヨーレート値Y)が所定値以下のときの第1露光時間SS1よりも短い第2露光時間SS2に設定する(図3)。
このため、車両挙動の変化を伴う走行中の物体検出シーンにおいて、画像全体の明るさを保ちながら像ぶれを抑制した撮像結果を広角カメラ112から得ることで、物体認識性能の向上を達成する物体検出装置を提供することができる。
以上、本開示の物体検出方法及び物体検出装置を、実施例1に基づき説明してきた。しかし、具体的な構成については、この実施例1に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加などは許容される。
実施例1では、像ぶれの予見情報として、自車両Aの重心点を通る鉛直軸回りの回転角速度をあらわすヨーレート値Yを用いる例を示した。しかし、像ぶれの予見情報としては、ヨーレート値によるヨーイング回転挙動に限られるものではなく、像ぶれを招く原因になる自車両の様々な車両挙動指標値が含まれる。例えば、ヨーレート以外のヨーイング回転挙動を表す指標値、車両左右軸回りのピッチング回転挙動を表す指標値、車両前後軸回りのローリング回転挙動を表す指標値、ヨー/ピッチ/ロールの複合的な車両挙動を表す指標値であっても良い。
実施例1では、車載カメラとして、狭角カメラ111と広角カメラ112による2台のカメラを用いる例を示した。しかし、撮像部に有する車載カメラとしては、ズームレンズを備える1台のズームレンズカメラであっても良い。ズームレンズカメラを用いた場合、1台のカメラでありながら、狭角モードの選択による狭角カメラと、広角モードの選択による広角カメラを兼用することになる。
実施例1では、検出対象物体の代表例として、信号機TSと標識の例を示した。しかし、検出対象物体としては、信号機、標識以外の様々な静止物体であっても良いし、又、静止物体に限らず、人物、自転車、他車両などの移動物体も含まれる。さらに、信号機のように自車両の前方に向けて設置した車載カメラにより捉えられる物体に限られず、例えば、自車両の側方に設置した車載カメラにより捉えられ、斜め前方から物体へ接近して側方へ抜けるような物体も含まれる。
実施例1では、本開示の物体検出方法及び物体検出装置を、目標軌跡に沿って走行するように車両運動が制御される自動運転車両ADに適用する例を示した。しかし、本開示の物体検出方法及び物体検出装置は、自動運転車両に限らず、オートクルーズ機能やレーンキープ機能などを備え、少なくともステアリング操作/アクセル操作/ブレーキ操作の何れか一つの運転操作を支援する運転支援車両に対しても適用することができる。また、本開示の物体検出方法及び物体検出装置を適用する車両としては、エンジン車、ハイブリッド車、電気自動車、などのあらゆる駆動方式の車両に適用することができる。
AD 自動運転車両
1 車載センサ
110 撮像部
111 狭角カメラ
112 広角カメラ
2 ナビゲーション装置
3 車載制御ユニット
31 自動運転コントローラ
311 地図情報記憶部
312 自己位置推定部
313 走行環境認識部
314 周囲物体検出部
314a 距離情報取得部
314b ヨーレート情報取得部(車両挙動指標値情報取得部)
314c 画像選択部
314d 露光時間設定部
314e 物体検出部
314f 出力部
319 走行履歴記憶部
32 車両運動コントローラ
4 アクチュエータ
5 HMIモジュール

Claims (9)

  1. 車載カメラとして、検出対象物体を第1画角と第1焦点距離により撮像可能な狭角カメラと、前記検出対象物体を前記第1画角よりも広い第2画角と前記第1焦点距離よりも短い第2焦点距離により撮像可能な広角カメラとを有する撮像部と、
    前記撮像部で撮像された画像に基づいて自車両の周囲に存在する前記検出対象物体を検出する周囲物体検出部と、を備える物体検出方法であって、
    前記周囲物体検出部は、
    前記自車両と前記検出対象物体の間の距離の情報を取得し、
    前記距離が前記狭角カメラで前記検出対象物体を検出可能な距離領域になると、前記狭角カメラからの画像を選択し、
    前記狭角カメラからの画像選択中、前記自車両に発生する車両挙動の大きさをあらわす車両挙動指標値の情報を取得し、
    前記車両挙動指標値が所定値よりも大きく、かつ、前記距離が前記広角カメラで前記検出対象物体を検出可能な距離領域であると、前記広角カメラからの画像選択に切り替え、
    前記広角カメラからの画像選択に切り替えると、前記広角カメラの露光時間を、前記車両挙動指標値が所定値以下のときの第1露光時間よりも短い第2露光時間に設定し、
    前記第2露光時間に設定された前記広角カメラで撮像された画像に基づいて前記検出対象物体を検出し、
    前記車両挙動指標値の所定値は、車両挙動の大きさを異ならせた走行を行うとき、前記狭角カメラからの像ぶれした画像データを取得し、物体認識性が低くなる像ぶれが発生したときの車両挙動指標値に基づいて予め設定する
    ことを特徴とする物体検出方法。
  2. 請求項1に記載された物体検出方法において、
    前記狭角カメラでのみ前記検出対象物体の検出開始が可能な位置までの距離を第1距離、前記広角カメラで前記検出対象物体の検出開始が可能な位置までの距離を第2距離、前記広角カメラでのみ前記検出対象物体の検出開始が可能な位置までの距離を第3距離、前記第2距離と前記第3距離の間に予め設定した画像切り替え位置までの距離を距離閾値というとき、
    前記狭角カメラからの画像選択中、前記車両挙動指標値が所定値よりも大きく、かつ、前記距離が前記第2距離から前記距離閾値までの距離領域であると、前記広角カメラからの画像選択に切り替える
    ことを特徴とする物体検出方法。
  3. 請求項2に記載された物体検出方法において、
    前記狭角カメラからの画像選択中、前記車両挙動指標値が所定値以下であると、前記狭角カメラからの画像選択を維持し、
    前記狭角カメラからの画像選択を維持したままで、前記距離が前記距離閾値未満になると、前記広角カメラからの画像選択に切り替える
    ことを特徴とする物体検出方法。
  4. 請求項1から3までの何れか一項に記載された物体検出方法において、
    前記自車両に発生する車両挙動指標値の情報は、前記自車両の重心点を通る鉛直軸回りの回転角速度をあらわすヨーレート値の情報である
    ことを特徴とする物体検出方法。
  5. 請求項4に記載された物体検出方法において、
    前記自車両のヨーレートを検出するヨーレートセンサを設け、
    前記自車両に発生するヨーレート値の情報として、前記ヨーレートセンサからのヨーレートセンサ値を取得する
    ことを特徴とする物体検出方法。
  6. 請求項4に記載された物体検出方法において、
    前記自車両が前記検出対象物体に接近するときの道路地図と道路関連情報を有する地図情報記憶部を備え、
    前記地図情報記憶部から前記自車両が前記検出対象物体に接近するときに走行する道路の曲率半径と道路の制限速度の情報を取得し、前記制限速度と前記曲率半径を用いた算出処理によりヨーレート推定値を取得する
    ことを特徴とする物体検出方法。
  7. 請求項4に記載された物体検出方法において、
    前記自車両が過去に前記検出対象物体に接近する走行をした際の前記自車両の自己位置に対応したヨーレート検出値を記憶する走行履歴記憶部を備え、
    前記走行履歴記憶部に記憶されているヨーレート記憶情報を前記自車両の自己位置推定に基づいて読み込み、前記ヨーレート記憶情報を参照してヨーレート推定値を取得する
    ことを特徴とする物体検出方法。
  8. 請求項1から7までの何れか一項に記載された物体検出方法において、
    前記検出対象物体は、交流電源による光源を用いて交通情報を表示する光情報表示物体であり、
    前記光情報表示物体を検出する場合、前記広角カメラの露光時間を前記第2露光時間に設定したとき、前記第2露光時間が、フリッカー周期による露光時間下限値より短いか否かを判断し、
    前記第2露光時間が前記露光時間下限値より短いと判断されると、前記露光時間下限値以上の時間を前記露光時間として設定する
    ことを特徴とする物体検出方法。
  9. 車載カメラとして、検出対象物体を第1画角と第1焦点距離により撮像可能な狭角カメラと、前記検出対象物体を前記第1画角よりも広い第2画角と前記第1焦点距離よりも短い第2焦点距離により撮像可能な広角カメラとを有する撮像部と、
    前記撮像部で撮像された画像に基づいて自車両の周囲に存在する前記検出対象物体を検出する周囲物体検出部と、を備える物体検出装置において、
    前記周囲物体検出部は、
    前記検出対象物体と前記自車両の間の距離の情報を取得する距離情報取得部と、
    前記検出対象物体へ接近するときに前記自車両に発生する車両挙動の大きさをあらわす車両挙動指標値の情報を取得する車両挙動指標値情報取得部と、
    前記距離の情報と前記車両挙動指標値の情報に基づいて、前記狭角カメラからの画像選択を前記広角カメラからの画像選択に切り替える画像選択部と、
    前記撮像部の露光時間を設定する露光時間設定部と、を備え、
    前記画像選択部は、前記狭角カメラからの画像選択中、前記車両挙動指標値が所定値よりも大きく、かつ、前記距離が前記広角カメラで前記検出対象物体を検出可能な距離領域であると、前記広角カメラからの画像選択に切り替え、
    前記露光時間設定部は、前記車両挙動指標値が所定値よりも大きいと、前記露光時間を、前記車両挙動指標値が所定値以下のときの第1露光時間よりも短い第2露光時間に設定し、
    前記車両挙動指標値の所定値は、車両挙動の大きさを異ならせた走行を行うとき、前記狭角カメラからの像ぶれした画像データを取得し、物体認識性が低くなる像ぶれが発生したときの車両挙動指標値に基づいて予め設定する
    ことを特徴とする物体検出装置。
JP2020109356A 2020-06-25 2020-06-25 物体検出方法及び物体検出装置 Active JP7433146B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020109356A JP7433146B2 (ja) 2020-06-25 2020-06-25 物体検出方法及び物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020109356A JP7433146B2 (ja) 2020-06-25 2020-06-25 物体検出方法及び物体検出装置

Publications (2)

Publication Number Publication Date
JP2022006844A JP2022006844A (ja) 2022-01-13
JP7433146B2 true JP7433146B2 (ja) 2024-02-19

Family

ID=80110925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020109356A Active JP7433146B2 (ja) 2020-06-25 2020-06-25 物体検出方法及び物体検出装置

Country Status (1)

Country Link
JP (1) JP7433146B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7392754B2 (ja) 2022-03-23 2023-12-06 いすゞ自動車株式会社 車両の後方監視システム及び車両の後方監視方法
CN117177062A (zh) * 2022-05-30 2023-12-05 荣耀终端有限公司 一种摄像头切换方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288444A (ja) 2006-04-14 2007-11-01 Toyota Motor Corp 車載カメラ制御装置および車載カメラ制御方法。
WO2018179523A1 (ja) 2017-03-31 2018-10-04 株式会社ニコン 電子機器およびプログラム
JP2019140990A (ja) 2018-02-21 2019-08-29 日本無線株式会社 目標追尾装置及び目標追尾システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288444A (ja) 2006-04-14 2007-11-01 Toyota Motor Corp 車載カメラ制御装置および車載カメラ制御方法。
WO2018179523A1 (ja) 2017-03-31 2018-10-04 株式会社ニコン 電子機器およびプログラム
JP2019140990A (ja) 2018-02-21 2019-08-29 日本無線株式会社 目標追尾装置及び目標追尾システム

Also Published As

Publication number Publication date
JP2022006844A (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
US11117597B2 (en) Pedestrian interaction system for low speed scenes for autonomous vehicles
CN106205175B (zh) 用于车辆的显示设备和车辆
EP3088268B1 (en) Vehicle driving aid device and vehicle having same
EP3112810B1 (en) Advanced driver assistance apparatus, display apparatus for vehicle and vehicle
JP7188394B2 (ja) 画像処理装置及び画像処理方法
US20230237799A1 (en) Information processing apparatus, information processing method, program, and moving body
US20200026282A1 (en) Lane/object detection and tracking perception system for autonomous vehicles
US9507345B2 (en) Vehicle control system and method
CN111328411A (zh) 用于自动驾驶车辆的行人概率预测系统
KR101632179B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
US11328602B2 (en) System and method for navigation with external display
JP2016218873A (ja) 車両用歩行者画像取得装置
JPWO2020009060A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
JP7433146B2 (ja) 物体検出方法及び物体検出装置
KR20150069741A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
CN112825127A (zh) 生成用于自动驾驶标记的紧密2d边界框的新方法
KR101641491B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20170140284A (ko) 차량 운전 보조 장치 및 차량
KR20150070832A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
CN113642372A (zh) 在自主驾驶车辆的操作中基于灰度图像识别对象的方法和系统
US20220027643A1 (en) Information processing apparatus, information processing method, and program
JP2024518934A (ja) 車両ナビゲーション中の光干渉検出
WO2020036044A1 (ja) 画像処理装置と画像処理方法およびプログラム
JP2022154933A (ja) 車両制御装置、車両制御用コンピュータプログラム及び車両制御方法
CN114868381A (zh) 图像处理装置、图像处理方法以及程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240206

R150 Certificate of patent or registration of utility model

Ref document number: 7433146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150