JP2023057675A - 車両制御装置、車両制御方法、およびプログラム - Google Patents
車両制御装置、車両制御方法、およびプログラム Download PDFInfo
- Publication number
- JP2023057675A JP2023057675A JP2021167278A JP2021167278A JP2023057675A JP 2023057675 A JP2023057675 A JP 2023057675A JP 2021167278 A JP2021167278 A JP 2021167278A JP 2021167278 A JP2021167278 A JP 2021167278A JP 2023057675 A JP2023057675 A JP 2023057675A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- lane
- unit
- dimensional image
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000003384 imaging method Methods 0.000 claims abstract description 32
- 238000005192 partition Methods 0.000 claims description 7
- 230000002093 peripheral effect Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 37
- 238000000605 extraction Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 31
- 239000000284 extract Substances 0.000 description 21
- 230000008569 process Effects 0.000 description 14
- 230000011218 segmentation Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 6
- 238000007499 fusion processing Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 238000002485 combustion reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003359 percent control normalization Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像に含まれる物体の位置をより正確に認識して自車両の運転制御を行って、交通の安全性をより向上させること。【解決手段】実施形態の車両制御装置は、自車両の周辺を撮像する撮像部と、前記自車両の周辺状況を認識する認識部と、前記認識部の認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御部と、前記撮像部の撮像内容に基づいて前記運転制御部を制御する制御部と、を備え、前記制御部は、前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする。【選択図】図1
Description
本発明は、車両制御装置、車両制御方法、およびプログラムに関する。
近年、交通の安全性や利便性の改善による持続可能な輸送システムを提供することを目的として、周辺状況の認識結果に基づいて乗員を輸送する車両の走行を自動的に制御することについての研究が進められている。これに関連して、車両の周辺認識の分野において、画像から移動物体を構成する複数の特徴点を抽出してベクトルの分散を算出し、ベクトルの道路幅方向における成分の分散が閾値以上である場合に、移動物体が自車線に割り込む可能性があると判定する技術が知られている(例えば、特許文献1参照)。
しかしながら、従来の技術では、分散の算出等の処理負荷が大きく、割込み判定処理が煩雑になる可能性があった。また、運転制御の分野においては、周辺状況に応じたリアルタイムな制御が要求されるが、処理負荷を軽減するために分散の算出を簡略化させてしまうと車両の位置精度が低下し、交通の安全性が担保できない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、画像に含まれる物体の位置をより正確に認識して自車両の運転制御を行うことができ、交通の安全性をより向上させることができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係る車両制御装置、車両制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る車両制御装置は、自車両の周辺を撮像する撮像部と、
前記自車両の周辺状況を認識する認識部と、前記認識部の認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御部と、前記撮像部の撮像内容に基づいて前記運転制御部を制御する制御部と、を備え、前記制御部は、前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、車両制御装置である。
(1):この発明の一態様に係る車両制御装置は、自車両の周辺を撮像する撮像部と、
前記自車両の周辺状況を認識する認識部と、前記認識部の認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御部と、前記撮像部の撮像内容に基づいて前記運転制御部を制御する制御部と、を備え、前記制御部は、前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、車両制御装置である。
(2):上記(1)の態様において、前記制御部は、前記二次元画像上の物体の囲う矩形領域を設定し、設定した矩形領域ごとに、前記矩形領域の左右の下端から上側に向かって所定角度となる角度でスキャンを行い、前記物体の左右の接地箇所を取得するものである。
(3):上記(2)の態様において、前記所定角度は、前記撮像部により撮像された二次元画像の下端と、前記二次元画像に含まれる区画線とが成す角度である。
(4):上記(3)の態様において、前記所定角度は、前記矩形領域の下端を前記二次元画像の横方向に延伸させたときに接する前記区画線の位置を基準とした所定領域の区画線を前記二次元画像の左右方向からみたときの角度である。
(5):上記(4)の態様において、前記制御部は、前記二次元画像の左右方向に対する前記区画線の角度が閾値を越える場合に、前記所定角度を固定値とするものである。
(6):上記(5)の態様において、前記固定値は、45度である。
(7):上記(1)~(6)のうち何れか一つの態様において、前記制御部は、前記物体の接地箇所に基づいて前記認識部により認識された前記物体の位置を補正し、補正した前記物体の位置に基づいて前記運転制御部を制御するものである。
(8):この発明の一態様に係る車両制御方法は、コンピュータが、撮像部により自車両の周辺を撮像し、前記自車両の周辺状況を認識し、認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御を実行し、前記撮像部の撮像内容に基づいて前記運転制御を制御し、前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、車両制御方法である。
(9):この発明の一態様に係るプログラムは、コンピュータに、撮像部により自車両の周辺を撮像させ、前記自車両の周辺状況を認識させ、認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御を実行させ、前記撮像部の撮像内容に基づいて前記運転制御を制御させ、前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、プログラムである。
上記(1)~(9)の態様によれば、画像に含まれる物体の位置をより正確に認識して自車両の運転制御を行うことができ、交通の安全性をより向上させることができる。
以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。なお、実施形態の車両制御装置は、車両に搭載されているものとする。車両は、例えば、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[全体構成]
図1は、実施形態に係る車両制御装置が搭載された車両システム1の構成の一例を示す図である。図1に示す車両システム1は、例えば、第1カメラ10と、レーダ装置12と、第2カメラ20と、HMI(Human Machine Interface)30と、車両センサ40と、運転操作子80と、走行駆動力出力装置92と、ブレーキ装置94と、ステアリング装置96と、運転制御装置100とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に、別の構成が追加されてもよい。第2カメラ20は、「撮像部」の一例である。また、撮像部には、第1カメラ10が含まれていてもよい。第2カメラ20および運転制御装置100は、「車両制御装置」の一例である。
図1は、実施形態に係る車両制御装置が搭載された車両システム1の構成の一例を示す図である。図1に示す車両システム1は、例えば、第1カメラ10と、レーダ装置12と、第2カメラ20と、HMI(Human Machine Interface)30と、車両センサ40と、運転操作子80と、走行駆動力出力装置92と、ブレーキ装置94と、ステアリング装置96と、運転制御装置100とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に、別の構成が追加されてもよい。第2カメラ20は、「撮像部」の一例である。また、撮像部には、第1カメラ10が含まれていてもよい。第2カメラ20および運転制御装置100は、「車両制御装置」の一例である。
第1カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。第1カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に一つまたは複数が取り付けられる。例えば、自車両Mの前方を撮像する場合、第1カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。自車両Mの後方を撮像する場合、第1カメラ10は、リアウインドシールド上部やバックドア等に取り付けられる。また、自車両Mの側方および後側方を撮像する場合、第1カメラ10は、ドアミラー等に取り付けられる。第1カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。第1カメラ10は、ステレオカメラであってもよい。
第1カメラ10は、さらに、自車両Mの周辺を広角に(例えば360度で)撮像可能な魚眼カメラを含む。魚眼カメラは、例えば、自車両Mの上部に取り付けられ、移動体Mの周辺を水平方向に関して広角に撮像する。魚眼カメラは、複数のカメラ(水平方向に関して120度の範囲や60度の範囲を撮像する複数のカメラ)を組み合わせて実現されてもよい。
レーダ装置12は、自車両Mの周辺にミリ波等の電波を放射すると共に、周辺の物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって周辺の物体の位置および速度を検出してもよい。
第2カメラ20は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。第2カメラ20は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。第2カメラ20は、第1カメラ10と同様の位置に設けられてもよく、第1カメラ10の設置位置の一部(例えば、自車両Mの前方を撮像する位置)に設けられてもよい。第2カメラ20は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。第2カメラ20は、ステレオカメラであってもよい。
HMI30は、自車両Mのユーザに対して各種情報を提示すると共に、ユーザによる入力操作を受け付ける。ユーザには、例えば、自車両Mを運転する運転者や同乗者等の乗員が含まれる。以下では、特に区別する場合を除き「乗員」と称して説明する。HMI30は、例えば、各種情報を提示する出力部として表示部とスピーカとを備える。表示部は、後述するHMI制御部170による制御によって画像を表示し、スピーカはHMI制御部170による制御によって音声を出力する。また、HMI30には、乗員からの入力を受け付ける入力部としてタッチパネル、スイッチ、キー、マイク等を備える。入力部によって受け付けられた情報は、HMI制御部170に出力される。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ(3軸Gセンサ)、ヨーレート(例えば、自車両Mの重心点を通る鉛直軸回りの回転角速度)を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。また、車両センサ40は、自車両Mの位置を検出する位置センサを備えていてもよい。位置センサは、例えば、GPS(Global Positioning System)装置から位置情報(経度・緯度情報)を取得するセンサである。また、位置センサは、例えば、GNSS(Global Navigation Satellite System)受信機を用いて位置情報を取得するセンサであってもよい。GNSS受信機は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、他のセンサの出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。車両センサ40により検出した結果は、運転制御装置100に出力される。
運転操作子80は、例えば、運転者が操舵操作を行うステアリングホイールや、アクセルペダル、ブレーキペダル、シフトレバー等の各種操作子を含む。運転操作子80の各操作子には、例えば、運転者による操作の操作量を検出する操作検出部が取り付けられている。操作検出部は、アクセルペダルやブレーキペダルの踏込量、シフトレバーの位置、ステアリングホイールの操舵角や操舵トルク等を検出する。そして、操作検出部は、検出結果を示す検出信号を運転制御装置100、もしくは、走行駆動力出力装置92、ブレーキ装置94、およびステアリング装置96のうち一方または双方に出力する。
走行駆動力出力装置92は、自車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置92は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するパワーECU(Electronic Control Unit)とを備える。パワーECUは、運転制御装置100から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置94は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、運転制御装置100から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置94は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置94は、上記説明した構成に限らず、運転制御装置100から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置96は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、運転制御装置100から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[運転制御装置100の構成]
運転制御装置100は、例えば、認識部120と、制御部140と、運転制御部160と、HMI制御部170と、記憶部180とを備える。認識部120と、制御部140と、運転制御部160と、HMI制御部170とは、それぞれ、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。上述のプログラムは、予め運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM、メモリカード等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置やカードスロット等に装着されることで運転制御装置100の記憶装置にインストールされてもよい。
運転制御装置100は、例えば、認識部120と、制御部140と、運転制御部160と、HMI制御部170と、記憶部180とを備える。認識部120と、制御部140と、運転制御部160と、HMI制御部170とは、それぞれ、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。上述のプログラムは、予め運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM、メモリカード等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置やカードスロット等に装着されることで運転制御装置100の記憶装置にインストールされてもよい。
記憶部180は、上記の各種記憶装置、或いはEEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現されてもよい。記憶部180には、例えば、実施形態における各種制御を実行するために必要な情報、プログラム、その他の各種情報等が格納される。
[認識部]
認識部120は、例えば、周辺認識部122を備える。周辺認識部122は、例えば、周辺認識部122は、第1カメラ10またはレーダ装置12のうち一方または双方による検出結果に対してセンサフュージョン処理等を行って、自車両Mの周辺状況を認識する。この場合、周辺認識部122は、第1カメラ10から得られた画像を俯瞰図座標系に座標変換し、変換した座標系に基づいて周知の手法(二値化処理、輪郭抽出処理、画像強調処理、特徴量抽出処理、パターンマッチング処理等)で画像認識処理を行って、自車両Mの周辺状況を認識する。また、周辺認識部122は、自車両Mの周辺の物体の位置、種類、速度等を認識してもよい。物体とは、例えば、他車両(例えば、自車両Mから所定距離以内に存在する周辺車両)である。また、物体には、歩行者、自転車、道路構造物等が含まれてもよい。道路構造物には、例えば、道路標識や交通信号機、縁石、中央分離帯、ガードレール、フェンス、壁、踏切等が含まれる。また、物体には、自車両Mの走行の障害となる障害物が含まれてもよい。
認識部120は、例えば、周辺認識部122を備える。周辺認識部122は、例えば、周辺認識部122は、第1カメラ10またはレーダ装置12のうち一方または双方による検出結果に対してセンサフュージョン処理等を行って、自車両Mの周辺状況を認識する。この場合、周辺認識部122は、第1カメラ10から得られた画像を俯瞰図座標系に座標変換し、変換した座標系に基づいて周知の手法(二値化処理、輪郭抽出処理、画像強調処理、特徴量抽出処理、パターンマッチング処理等)で画像認識処理を行って、自車両Mの周辺状況を認識する。また、周辺認識部122は、自車両Mの周辺の物体の位置、種類、速度等を認識してもよい。物体とは、例えば、他車両(例えば、自車両Mから所定距離以内に存在する周辺車両)である。また、物体には、歩行者、自転車、道路構造物等が含まれてもよい。道路構造物には、例えば、道路標識や交通信号機、縁石、中央分離帯、ガードレール、フェンス、壁、踏切等が含まれる。また、物体には、自車両Mの走行の障害となる障害物が含まれてもよい。
また、周辺認識部122は、自車両M、および自車両Mの周辺に存在する物体の位置(相対位置)、速度、加速度等の状態を認識する。物体の位置は、例えば、車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標系(以下、車両座標系)の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー、進行方向の先端部等の代表点で表されてもよいし、表現された領域で表されてもよい。速度には、例えば、走行する車線の進行方向(縦方向)に対する自車両Mおよび他車両の速度(以下、縦速度と称する)と、車線の横方向に対する自車両Mおよび他車両の速度(以下、横速度)とが含まれる。物体の「状態」とは、例えば、物体が他車両等の移動体である場合に、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、周辺認識部122は、自車両Mの周辺に存在する道路区画線(以下、区画線を称する)を認識する。例えば、周辺認識部122は、自車両Mが走行する車線(以下、自車線と称する)を区画する左右の区画線を認識する。また、周辺認識部122は、左右の区画線に基づいて、自車線の左側の隣接車線(以下、左車線と称する)と、自車線の右側の隣接車線(以下、右車線と称する)とを区別して認識する。
[制御部]
制御部140は、運転制御装置100の全体を制御する。制御部140は、例えば、輪郭抽出部142と、区画線抽出部144と、端部取得部146と、所属車線判定部148と、ターゲット捕捉部150とを備える。
制御部140は、運転制御装置100の全体を制御する。制御部140は、例えば、輪郭抽出部142と、区画線抽出部144と、端部取得部146と、所属車線判定部148と、ターゲット捕捉部150とを備える。
輪郭抽出部142は、第2カメラ20により撮像された二次元画像に対して、既存の画像解析処理によりエッジ点を抽出し、抽出したエッジ点列から二次元画像上における物体の輪郭を抽出する。二次元画像とは、第2カメラ20により撮像された画像をそのまま縦方向(X軸)と横方向(Y軸)の二次元の座標系で表した画像である。例えば、輪郭抽出部142は、所定距離以内に存在するエッジ点間を連結して輪郭を抽出する。また、輪郭抽出部142は、二次元画像の画像解析処理によりエッジ点ごとの色情報を取得し、取得した色が類似するエッジ点間を連結して輪郭を抽出してもよい。また、輪郭抽出部142は、輪郭の形状、大きさ、位置等に基づいて他車両(対象物体の一例)の輪郭のみを抽出してもよい。また、輪郭抽出部142は、二次元画像に複数の物体が存在する場合に、それぞれの物体を分離して抽出する。
区画線抽出部144は、第2カメラ20により撮像された二次元画像に含まれる区画線を抽出する。また、区画線抽出部144は、自車線の左右の区画線を区別して抽出してもよい。区画線抽出部144は、抽出された区画線の二次元画像上での位置情報(座標情報)を取得する。
端部取得部146は、第2カメラ20により撮像された二次元画像に含まれる対象物体の端部の位置(二次元画像上での位置情報)を取得する。対象物体の端部とは、例えば、二次元画像上の左右の端部である。ここで、対象物体が他車両である場合、他車両の端部とは、例えば、二次元画像における他車両の左右の接地箇所(他車両が道路と接する箇所)である。以降、対象物体の一例として他車両を用いて説明を続ける。
所属車線判定部148は、区画線抽出部144により抽出された区画線の位置情報と、端部取得部146により取得された他車両の端部の位置情報とに基づいて、他車両が所属する車線(他車両の存在確定車線)を判定する。また、所属車線判定部148は、他車両が所属する車線に代えて(または加えて)、他車両が所属しない車線(他車両の不在確定車線)を判定してもよい。
ターゲット捕捉部150は、認識部120による認識結果や、所属車線判定部148による他車両の所属車線の判定結果(自車両Mからみた他車両の相対横位置情報)に基づいて、自車両Mが運転制御部160による運転制御を行うターゲット車両を捕捉する。ターゲット車両とは、例えば、自車両Mが運転制御部160によるACC(Adaptive Cruise Control)等の運転制御により、前方車両を所定の車間距離で追従する場合の前方車両である。また、ターゲット捕捉部150は、自車両Mの周辺に存在する他車両のうち、自車両Mの走行に干渉する他車両を抽出してもよい。自車両Mの走行に干渉する他車両とは、例えば、自車両Mが前方車両に追従している場合に前走車両と自車両Mとの間に車線変更することで、自車両Mの運転制御(速度制御、操舵制御)の変更が必要となる他車両や、自車両Mと接触する可能性があり回避する運転制御が必要となる他車両等である。上述した輪郭抽出部142、区画線抽出部144、端部取得部146、所属車線判定部148、およびターゲット捕捉部150の機能の詳細については後述する。
運転制御部160は、認識部120の認識結果や制御部140からの情報に基づいて自車両Mの速度または操舵のうち一方または双方を制御する。例えば、運転制御部160は、所定の運転制御を実行する場合に、自車両Mにその運転制御の内容に応じた走行をさせるために、認識部120の認識結果や制御部140からの情報に基づいて自車両Mが将来走行する予定軌道(目標軌道)を生成する。予定軌道は、例えば、速度要素を含んでいる。そして運転制御部160は、生成した予定軌道に沿って自車両Mが走行するように、自車両Mの速度や操舵を制御する。運転制御部160は、例えば、速度制御部162と、操舵制御部164とを備える。速度制御部162は、例えば、乗員によるHMI30の操作によりACCの実行を受け付けた場合に、予定軌道に基づいて自車線を走行する前走車両と所定の車間距離を維持しながら走行するように走行駆動力出力装置92またはブレーキ装置94を制御して、加速または減速等の速度制御を行う。また、速度制御部162は、例えば、他車両の自車両Mへの接近状況に基づいて自車両Mと他車両とが接触しないように走行駆動力出力装置92またはブレーキ装置94を制御して、加速または減速等の速度制御を行う。
操舵制御部164は、例えば、乗員によるHMI30の操作によりACCやLKAS(Lane Keeping Assistance System)等の運転制御を行う場合に、予定軌道に基づいて自車線上の走行を維持するために、自車線の認識結果および自車両Mの位置に基づいてステアリング装置96を制御する。また、操舵制御部164は、例えば、乗員によるHMI30の操作によりALC(Auto Lane Changing)を実行する場合に、認識部120による認識結果に基づいて予定軌道に沿って目的の隣接車線に車線変更を行うためにステアリング装置96を制御する。
速度制御部162および操舵制御部164の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部164は、車両Mの前方の道路の曲率に応じたフィードフォワード制御と、予定軌道(目標軌道)からの乖離に基づくフィードバック制御とを組み合わせて実行する。
HMI制御部170は、HMI30により乗員に所定の情報を提示する。所定の情報には、例えば、自車両Mの状態に関する情報や運転制御に関する情報等が含まれる。車両Mの状態に関する情報には、例えば、車両Mの速度、エンジン回転数、シフト位置等が含まれる。また、運転制御に関する情報には、例えば、制御部140により制御された情報、ACCやALC等の運転制御や手動運転を行うか否かの情報、実行中の運転制御の状況に関する情報等が含まれる。また、また、所定の情報には、テレビ番組、DVD等の記憶媒体に記憶されたコンテンツ(例えば、映画)等の車両Mの走行制御に関連しない情報が含まれてもよい。
例えば、HMI制御部170は、上述した所定の情報を含む画像を生成し、生成した画像をHMI30の表示部に表示させてもよく、所定の情報を示す音声を生成し、生成した音声をHMI30のスピーカから出力させてもよい。また、HMI制御部170は、HMI30により受け付けられた情報を制御部140や運転制御部160等に出力してもよい。
[車両制御装置による制御]
以下、運転制御装置100によって実行される制御の詳細について説明する。図2は、運転制御装置100によって実行される制御の一例を示す図である。運転制御装置100は、第1カメラ10およびレーダ装置12により出力された情報を用いたセンサフュージョン処理による自車両Mの周辺の認識結果を補正する前に、第2カメラ20により撮像された自車両Mの周辺(特に進行方向)の二次元画像を用いて他車両が所属する車線の判定や、区画線と他車両の相対位置関係の取得等を行う。
以下、運転制御装置100によって実行される制御の詳細について説明する。図2は、運転制御装置100によって実行される制御の一例を示す図である。運転制御装置100は、第1カメラ10およびレーダ装置12により出力された情報を用いたセンサフュージョン処理による自車両Mの周辺の認識結果を補正する前に、第2カメラ20により撮像された自車両Mの周辺(特に進行方向)の二次元画像を用いて他車両が所属する車線の判定や、区画線と他車両の相対位置関係の取得等を行う。
そして、運転制御装置100は、他車両の所属車線の判定結果や、区画線と他車両との相対位置関係、センサフュージョン処理による物体認識結果等に基づいて、例えば、ACC等の運転制御の実行中に、自車両Mが追従する対象となる他車両(以下、ターゲット車両)を捕捉し、捕捉したターゲット車両に関する情報(例えば、ターゲット車両の位置、相対距離、相対速度、目標車間、進行方向)等に基づいて、自車両Mの速度等を生成し、生成した速度で自車両Mを走行させることができる。このように、実施形態では、第2カメラ20により撮像された二次元画像を用いて、俯瞰画像にするための三次元座標変換等を行わずに二次元画像の座標系のままで所属車線の特定や相対位置関係を取得することで、他車両と自車線との相対位置に誤差や矛盾が生じることを抑制することができ、より正確な相対位置に基づいて運転制御を行うためのターゲット車両を捕捉することができる。なお、運転制御装置100は、速度制御に代えて(または加えて)、操舵制御を行ってもよい。
[処理フロー]
次に、実施形態に係る運転制御装置100により実行される処理の流れについて説明する。図3は、運転制御装置100により実行される処理の流れの一例を示すフローチャートである。なお、以下の説明では、運転制御装置100が実行する処理のうち、主に自車両MがACCの運転制御を実行する場合の処理を中心として説明する。また、図3に示す処理は、上記運転制御が実行されている間で繰り返し実行されてよい。
次に、実施形態に係る運転制御装置100により実行される処理の流れについて説明する。図3は、運転制御装置100により実行される処理の流れの一例を示すフローチャートである。なお、以下の説明では、運転制御装置100が実行する処理のうち、主に自車両MがACCの運転制御を実行する場合の処理を中心として説明する。また、図3に示す処理は、上記運転制御が実行されている間で繰り返し実行されてよい。
図3の例において、まず認識部120は、第1カメラ10およびレーダ装置12からの出力を用いたセンサフュージョン処理によって、自車両Mの前方を含む周辺状況を認識する(ステップS100)。認識部120は、自車両Mの周辺に他車両が存在するか否かを判定する(ステップS120)。他車両は、対象物体の一例であり、より具体的には自車両Mの前方を走行する他車両である。自車両Mの前方とは、自車線上の前方だけでなく、左車線上および右車線上の前方も含まれる。
図4は、自車両Mの周辺状況の一例を示す図である。図4の例では、車線L1と、車線L1の左車線L2と、右車線L3とからなる三車線の道路を示している。また、図4において自車両M(不図示)は、車線L1を走行しているものとする(以下、自車線L1と称する)。図4に示す周辺状況において、認識部120は、自車両Mの前方に存在する対象物体として、自車両Mの前方であって、且つ、自車線L1を走行する他車両m1と、左車線L2を走行する他車両m2およびm3を認識する。
制御部140は、認識部120により認識された他車両m1~m3ごとに、ステップS142~S154の処理を繰り返し(ループして)実行する(ステップS140)。輪郭抽出部142は、第2カメラ20により撮像された二次元画像に含まれる他車両の輪郭を抽出する(ステップS142)。次に、輪郭抽出部142は、他車両の輪郭を囲う領域を設定する(ステップS144)。
図5は、二次元画像に含まれる他車両の輪郭を囲う領域について説明するための図である。図5の例では、図4に相当する自車両Mの周辺状況において、第2カメラ20により撮像された画像IM10を示している。画像IM10は、撮像画像がそのまま(三次元座標変換せずに)画像座標系で表される二次元画像である。また、図5に示す画像IM10は、輪郭抽出部142により他車両m1~m3の輪郭が抽出されているものとする。図5の例において、輪郭抽出部142は、抽出された他車両m1~m3の輪郭をそれぞれ囲う3つの領域(以下、バウンディングボックスと称する)BB1~BB3を生成する(ステップS144)。バウンディングボックスBB1~BB3は、例えば、画像IM10のX軸(縦方向)およびY軸(横方向)に沿って形成される矩形領域である。また、輪郭抽出部142は、画像IM10の二次元座標における各バウンディングボックスBB1~BB3の四隅の座標(XY座標)を抽出する。
次に、区画線抽出部144は、第2カメラ20により撮像された二次元画像から自車線L1を区画する区画線の点列を抽出する(ステップS146)。図6は、区画線を抽出することについて説明するための図である。なお、図6の例では、第2カメラ20により撮像された画像IM10のうち、車線L1およびL2と車線L2を走行する他車両m2の部分を拡大して示している。区画線抽出部144は、例えば、他車両m2のバウンディングボックスBB2の下端を画像IM10の横方向(左右方向、Y軸方向)にスキャンさせ、自車線L1を区画する左右の区画線LL、LRと接触したときの区画線LL、LR上の位置(XY座標位置)を取得する。更に、区画線抽出部144は、バウンディングボックスBB2の下端のラインを基準として、上下方向(X軸方向、縦方向)に所定ピクセル(例えば、1ピクセル)ずつずらして同様にスキャンを行い、例えば上下方向が2n+1ピクセルとなる所定範囲(以下、特定領域SPと称する)内における二次元画像上での区画線LL、LRの領域を抽出する。nは、例えば、約10~30であり、20が好ましいが、二次元画像の解像度や自車両Mの周辺環境等に応じて適宜変更されてよい。また、特定領域SPの横幅(左右方向の範囲)は、画像IM10の横幅に相当する。区画線抽出部144は、上述した特定領域SPから得られた座標の点列を連結して区画線LL、LRを抽出する。
図3に戻り、次に区画線抽出部144は、特定領域SP内で抽出された区画線LL、LRのノイズ除去を行う(ステップS148)。図7は、区画線のノイズ除去について説明するための図である。例えば、区画線抽出部144は、画像IM10の特定領域SP内において、区画線として抽出した画素をY軸上に射影したときの画素数をカウントしたヒストグラムを生成する。なお、ヒストグラムは、例えば、Y軸方向の所定幅ごとにまとめた画素数をカウントしたものであってもよい。そして、区画線抽出部144は、生成したヒストグラムのうち、Y軸方向(横方向)に連続する区間が所定長以上の区間または画素数が閾値以上である区間を区画線が存在する区間として抽出する。これにより、例えば、図7に示すように、画像上に含まれるゴミ等のノイズNS1、NS2が区画線として認識されることを防止することができ、より正確に区画線を抽出することができる。
図3に戻り、次に区画線抽出部144は、区画線の傾きを抽出する(ステップS150)。区画線の傾きとは、例えば、第2カメラ20により撮像された二次元画像の下端と、二次元画像に含まれる区画線とが成す角度である。例えば、区画線抽出部144は、特定領域SPにおける区画線LL、LRの主成分分析処理により第1主成分を導出する。図8は、区画線の傾きを抽出することについて説明するための図である。図8の例では、他車両m2に対する特定領域SPから抽出された区画線LLを拡大して示したものである。図8の例では、区画線LLとして抽出された画素群(ピクセルのデータの集まり)が示されている。
区画線抽出部144は、例えば、区画線LLとして抽出された画素群に対して既存の主成分分析処理を行い、例えば主成分スコアの分散が最も大きくなる方向を第1主成分の軸C1として抽出する。例えば、区画線抽出部144は、図8に示すような特定領域SP等の所定の画像領域内において区画線LLに相当するピクセルが存在する座標に対して共分散行列を求め、求めた共分散行列の固有ベクトルを導出し、導出した固有ベクトルから分散(固有値)が最も大きくなる方向を第1主成分の軸C1として抽出する。
また、区画線抽出部144は、第1主成分の軸C1に直交する軸を第2主成分の軸C2として抽出してもよい。そして、区画線抽出部144は、Y軸に対する第1主成分の軸C1を、区画線LLの傾きとして抽出する。傾きは、例えば、Y軸と第1主成分の軸C1とがなす角θ1で表される。区画線抽出部144は、自車線L1を区画するもう一方の区画線LRについても同様に主成分分析から、Y軸(より具体的には-Y軸)と、区画線LRの第1主成分の軸C1#(不図示)とがなす角θ2(不図示)を区画線LRの傾きとして抽出する。上述したように、区画線抽出部144は、バウンディングボックスBB2の下端を二次元画像の横方向に延伸させたときに接する区画線の位置を基準とした特定領域SP(所定領域の一例)の区画線を二次元画像の左右方向(Y軸方向、横方向)からみたときの角度を、区画線LL、LRの傾きとして取得する。
図3に戻り、次に端部取得部146は、二次元画像に存在する他車両の左右の端部の位置を取得する(ステップS152)。次に、所属車線判定部148は、端部取得部146により取得された左右の端部と区画線との位置関係に基づいて、他車両が走行する車線(他車両の所属レーン)を判定する(ステップS154)。次に、ターゲット捕捉部150は、自車両Mが実行する運転制御の対象になる他車両(ターゲット車両)の捕捉を行う(ステップS160)。上述したステップS152~S154、S160の処理の詳細については後述する。
次に、運転制御部160は、周辺状況および捕捉されたターゲット車両の挙動に基づく自車両Mの運転制御(速度制御または操舵制御のうち一方または双方)を実行する(ステップS170)。また、ステップS120の処理において、自車両Mの周辺に他車両が存在しない場合、運転制御部160は、周辺状況に基づく自車両Mの運転制御を実行する(ステップS172)。これにより、本フローチャートの処理は終了する。
[他車両の左右の端部の取得(ステップS152)]
次に、ステップS152の処理について具体的に説明する。図9は、他車両の左右の端部を取得することについて説明するための図である。図9の例では、他車両m2における左右の端部を取得することについて説明するが、二次元画像に含まれる他の車両(他車両m1、m3)についても同様の処理が実行される。
次に、ステップS152の処理について具体的に説明する。図9は、他車両の左右の端部を取得することについて説明するための図である。図9の例では、他車両m2における左右の端部を取得することについて説明するが、二次元画像に含まれる他の車両(他車両m1、m3)についても同様の処理が実行される。
端部取得部146は、例えば、第2カメラ20により撮像された画像IM10の左右それぞれの下端から画像IM10の内側を中心として上側に向かって所定角度となる角度で斜め方向にスキャンを行い、他車両m2の輪郭と接する位置を他車両m2の端部として取得する。なお、端部取得部146は、画像IM10全体の左右それぞれの下端からではなく、他車両m2の輪郭を囲うバウンディングボックスBB2中の左右の下端から、他車両m2に相当する画素(例えば他車両m2の輪郭画素)がある位置まで、上述した斜め方向にスキャンを行い、他車両m2の輪郭と接する位置を他車両の端部として取得してもよい。バウンディングボックスBB2内でスキャンを行うことで、画像IM10全体からスキャンを行うよりも処理負荷を低減させることができる。
ここで、スキャンを行う所定角度(スキャンアングル)として、例えば、第2カメラ20により撮像された画像IM10の下端と、画像IMに含まれる区画線とが成す角度である区画線LR、LLの傾きθ1、θ2を用いる。例えば、端部取得部146は、図9に示すように、バウンディングボックスBB2の右下端からスキャンを行う場合にはバウンディングボックスBB2の下端から内側を中心として上側に向かって区画線LLの傾きθ1となる角度でスキャンを行い、バウンディングボックスBB2の左下端からスキャンを行う場合にはバウンディングボックスBB2の下端から内側を中心として上側に向かって区画線LRの傾きθ2となる角度でスキャンを行う。また、端部取得部146は、同一の角度で左右の下端から離れる方向にずらしながらスキャンを行い、他車両m2の画像と接するそれぞれの位置を左端部Le、右端部Reとして取得する。なお、スキャンは、例えば、図9に示すように端部ごとに同一方向でスキャンしてもよく、下端から離れる方向にずらしながら同一方向と逆方向とが交互になるようにスキャンしてもよく、同一角度を基準としてジグザグにスキャンしてもよい。例えば、左端部Leは、他車両m2を上からみたときの一番左にある点であり、右端部Reは、他車両m2を上からみたときの一番右にある点である。
通常、他車両は、走行車線を区画する区画線の延伸方向に沿って走行する。そのため、自車両Mからみた他車両の傾きは走行車線の区画線の傾きに依存する可能性が高い。したがって、隣接車線を走行する他車両の走行車線の区画線(つまりは、自車線の区画線)の傾きを基準にしたスキャン角度でスキャンすることで、二次元画像における車線に沿った他車両の傾きに対する左右の端部(接地箇所)を、より正確に取得することができる。特に、隣接車線から自車線に車線変更する他車両は、車体が自車線側に向くため、他車両の前輪の接地箇所が捉えやすくなる。
また、端部取得部146は、所定角度となる角度を基準にスキャンを行う場合に、バウンディングボックスBB2の矩形領域を更に分割したセグメンテーション領域を生成し、生成したセグメンテーション領域を所定の順序で参照することで左右の端部を取得してもよい。セグメンテーション領域は、1以上の画素を含む矩形領域である。
図10は、セグメンテーション領域を用いて他車両の端部の取得について説明するための図である。図10の例では、他車両m2に対応したバウンディングボックスBB2の右下端からのスキャンの様子を示しているが、左下端からのスキャンについても同様の処理が実行される。端部取得部146は、バウンディングボックスBB2内にセグメンテーション領域SAを設定し、設定した領域内の画像を右下端から上述した所定角度θ1の斜め方向を基準としてジグザグにスキャンする。図10の例において、セグメンテーション領域SA内の数字は、区画線LLの傾き方向C1に基づいて設定されるスキャン順序を示している。そして、端部取得部146は、セグメンテーション領域ごとに他車両Mの画像が含まれるか否かを判定し、最初に他車両の画像が含まれるセグメンテーション領域の座標(例えば、領域の中心の座標)を他車両Mの右端部の座標として取得する。図10の例では、スキャンを開始してから14番目に他車両Mの端部が検出されたことを示している。
なお、端部取得部146は、セグメンテーション領域ごとに他車両Mの画像が含まれるか否かを判定する場合、元の画像のまま判定するのではなく、必要な情報のみ含めた画像を用いて判定してもよい。例えば、判定時には、フルカラーではなく、8ビット等のビット数を抑えた画像情報を用いる。これにより、判定処理に用いるデータ量を削減することができるため、処理負荷を低減させることができる。
なお、端部取得部146は、スキャンする角度θ1、θ2(画像IM10の左右方向(Y軸方向、横方向)に対する区画線の角度)が閾値角度θthを越える場合には、所定角度を固定値とする。この場合の所定角度とは、例えば、約40~50度であり、より好ましくは45度である。このように、スキャン角度の上限値を設定しておくことで、例えば、他車両がカーブ路を走行する場合であっても、他車両の姿勢に対して左右の端部(接地箇所)を正しく取得することができる。
[他車両の所属車線の判定(ステップS154)]
次に、ステップS154の処理について具体的に説明する。所属車線判定部148は、例えば、第2カメラ20により撮像された二次元画像に含まれる自車線L1の区画線LL、LRの位置と、他車両の左右の接地箇所とに基づいて、区画線LL、LRからみた左右の接地箇所の相対位置を比較して、他車両がどの車線に属しているか(またはどの車線に属していないか)を判定する。また、所属車線判定部148は、他車両が自車線に進入しているか否かを判定してもよい。「他車両が自車線に進入している」とは、例えば、他車両の左右の二つの端部(接地箇所)のうち少なくともが一方が、自車線内に存在する場合である。
次に、ステップS154の処理について具体的に説明する。所属車線判定部148は、例えば、第2カメラ20により撮像された二次元画像に含まれる自車線L1の区画線LL、LRの位置と、他車両の左右の接地箇所とに基づいて、区画線LL、LRからみた左右の接地箇所の相対位置を比較して、他車両がどの車線に属しているか(またはどの車線に属していないか)を判定する。また、所属車線判定部148は、他車両が自車線に進入しているか否かを判定してもよい。「他車両が自車線に進入している」とは、例えば、他車両の左右の二つの端部(接地箇所)のうち少なくともが一方が、自車線内に存在する場合である。
図11は、他車両の所属車線を判定することについて説明するための図である。図11の例では、他車両m2の所属車線を判定する場面について説明するが、他の周辺車両(図4に示す他車両m1、m3)についても同様の処理が実施される。また、図11の例では、端部取得部146により他車両m2に対する左右の接地箇所(左接地箇所Le、右接地箇所Re)が取得されているものとする。
所属車線判定部148は、二次元画像上において、自車線L1を区画する左右の区画線LL、LRからみた右接地箇所Reの相対位置LD1、RD1を取得する。また、所属車線判定部148は、区画線LL、LRから見た左接地箇所Leの相対位置LD2、RD2を取得する。なお、区画線LL、LRの基準となる位置については、例えば、左右の接地箇所Le、Reのそれぞれの位置を基準とした特定領域SP(端部と同じ高さを基準とした上下方向にnピクセルずらした(2n+1)行分の領域)に含まれる区画線LL、LRの領域から接地箇所Le、Reと最短距離となる区画線の位置を取得する。
また、所属車線判定部148は、他車両m2が区画線上に存在することで、区画線の一部が認識できない場合に、車線L1の延伸方向に対して区画線が認識できない部分の前後(手前および奥)で認識できている区画線を道路形状または認識できている他方の区画線の形状に応じて線形または非線形に連結させた仮想区画線を用いて、上述した接地箇所と最短距離となる区画線の基準位置を取得してもよい。
また、所属車線判定部148は、区画線LL、LRのそれぞれから接地箇所Le、Reをみたときの相対位置が正であるか負であるかを判定する。相対位置は、例えば、第2カメラ20により撮像された二次元画像に対し、ある基準点RPから右方向を正とし、左方向を負とする。なお、所属車線判定部148は、左右の方向に対して正負を逆にしてもよい。また、所属車線判定部148は、接地箇所Le、Reからみたときの区画線LL、LRの相対位置に基づいて正負の判定を行ってもよい。図11の例では、右方向を正、左方向を負とした場合、区画線LLからみた右接地箇所Reの相対位置は正(+)、左接地箇所Leの相対位置が負(-)であり、区画線LRからみた左右の接地箇所Le、Reの相対位置は何れも負(-)となる。なお、所属車線判定部148は、相対位置LD1、RD1、LD2、RD2の大きさ(例えば長さ)が所定長以上である場合に、区画線からみた接地箇所の相対位置を判定してもよい。これにより、他車両の接地箇所が区画線付近にある状態で他車両が走行している場合に、正負の符号が頻繁に変わることを抑制することができる。
次に、所属車線判定部148は、左右の接地箇所Le、Reと左右の区画線LL、LRとの位置関係(相対位置)に基づいて他車両m2の所属車線を判定する。図12は、所属車線の判定処理の流れの一例を示すフローチャートである。図12の例において、まず、所属車線判定部148は、左区画線LLからみた右接地箇所Reの相対位置が負であるか否かを判定する(ステップS200)。左区画線LLからみた右接地箇所Reの相対位置が負であると判定した場合、他車両m2が左車線に存在すると判定する(ステップS202)。また、左区画線LLからみた右接地箇所Reの相対位置が負ではないと判定した場合、所属車線判定部148は、右区画線LRからみた左接地箇所Leの相対位置が正であるか否かを判定する(ステップS204)。右区画線LRからみた左接地箇所Leの相対位置が正であると判定した場合、所属車線判定部148は、他車両m2が右車線に存在すると特定する(ステップS206)。
また、右区画線LRからみた左接地箇所Leの相対位置が正ではないと判定した場合、所属車線判定部148は、左右の接地箇所Le、Reと左右の区画線LL、LRとを用いて、他車両が所属車線の条件判定処理を実行する(ステップS208)。ステップS208の条件判定処理において、所属車線判定部148は、予め設定された複数の判定条件のそれぞれについて条件を満たすか否かを判定し、条件を満たす場合に、各条件に応じた車線に他車両m2が所属している判定する。図13は、複数の判定条件について説明するための図である。図13の例では、条件種別1~8に、条件内容と条件を満たす場合の所属車線とが対応付けられている。条件種別の種類および内容についてはこれに限定されない。
図13の例において、所属車線判定部148は、左区画線LLからみた左接地箇所Leの相対位置が正であり、且つ、右区画線LRからみた左接地箇所Leの相対位置が負である場合(条件種別1の条件を満たす場合)、他車両m2が自車線に所属すると判定する。また、所属車線判定部148は、左区画線LLからみた右接地箇所Reの相対位置が正であり、且つ、右区画線LRからみた右接地箇所Reの相対位置が負である場合(条件種別2の条件を満たす場合)、他車両m2が自車線に所属すると判定する。また、所属車線判定部148は、左区画線LLからみた左接地箇所Leの相対位置が負である場合(条件種別3の条件を満たす条件)、他車両m2が左車線に所属すると判定する。また、所属車線判定部148は、右区画線LRからみた右接地箇所Reの相対位置が正である場合(条件種別4条件を満たす条件)、他車両m2が右車線に所属すると判定する。
また、所属車線判定部148は、左区画線LLからみた左接地箇所Leの相対位置が負であり、且つ、左区画線LLからみた右接地箇所Reの相対位置が正である場合(条件種別5の条件を満たす場合)、他車両m2が左車線および自車線に所属すると判定する。また、所属車線判定部148は、右区画線LRからみた左接地箇所Leの相対位置が負であり、且つ、右区画線LRからみた右接地箇所Reの相対位置が正である場合(条件種別6の条件を満たす場合)、他車両m2が右車線および自車線に所属すると判定する。また、所属車線判定部148は、左区画線LLからみた左接地箇所Leの相対位置が正であり、且つ、右区画線LRからみた右接地箇所Reの相対位置が負である場合(条件種別7の条件を満たす場合)、他車両m2が自車線に所属すると判定する。また、所属車線判定部148は、左区画線LLからみた右接地箇所Leの相対位置が正であり、且つ、右区画線LRからみた左接地箇所Leの相対位置が正である場合(条件種別8の条件を満たす場合)、他車両m2が自車線に所属すると判定する。
ステップS208の処理が終了後、所属車線判定部148は、それぞれの条件に基づく判定結果をマージ(OR処理、論理和演算)し(ステップS210)、マージ結果として、他車両m2が右車線と左車線の両方に所属するか否かを判定する(ステップS212)。両方に所属すると判定した場合、所属車線判定部148は、他車両m2が左車線、自車線、および右車線に所属すると判定する(ステップS214)。これにより、本フローチャートを終了する。
図14は、ステップS212~S214の処理の内容について説明するための図である。図14の例では、条件種別3および条件種別4のそれぞれの条件を満たした場合であって、所属すると判定された車線に存在確定フラグ「1」が設定されている。例えば、1台の他車両に対して、条件種別3および条件種別4の条件判定によって、左右の何れの車線にも存在確定フラグが設定された場合、所属車線判定部148は、他車両が自車線にも存在するものとして、自車線の存在確定フラグに「1」を設定する。これにより、所属車線判定部148は、他車両が自車線および左右の車線に所属している(存在している)と認識することができる。なお、フラグについては、「1」のフラグに代えて「YES」や「〇」等の文字やマーク等のフラグを設定してもよい。
なお、所属車線判定部148は、他車両m2に対して所属する車線(存在確定車線)を判定したが、これに代えて(または加えて)、所属しない車線(不在確定車線)を判定してもよい。この場合、所属車線判定部148は、予め決められた不在確定車線を特定するための判定条件に基づいて判定を行う。図15は、不在確定車線を判定する処理について説明するための図である。図15の例では、不在確定車線を特定するための条件種別A~Dに、条件内容と不在車線とが対応付けられている。条件種別の種類および内容についてはこれに限定されない。
図15の例において、所属車線判定部148は、左区画線LLからみた右接地箇所Reの相対位置が負である場合(条件種別Aの条件を満たす場合)、他車両m2が自車線および右車線に不在である(所属していない)と判定する。また、所属車線判定部148は、右区画線LRからみた左接地箇所Leの相対位置が正である場合(条件種別Bの条件を満たす場合)、他車両m2が自車線および左車線に不在であると判定する。また、所属車線判定部148は、左区画線LLからみた左接地箇所Leの相対位置が正である場合(条件種別Cの条件を満たす場合)、他車両m2が左車線に不在であると判定する。また、所属車線判定部148は、右区画線LRからみた右接地箇所Reの相対位置が負である場合(条件Dを満たす条件)、他車両m2が右車線に不在であると判定する。また、所属車線判定部148は、条件A~Dに基づくそれぞれの判定結果をマージして、他車両がどの車線に不在であるかを判定する。
また、所属車線判定部148は、他車両m2に対する所属車線の判定結果に基づいて、自車線、左車線、右車線に対して、他車両ごとに、存在確定車線と、不在確定車線(不在車線)とを示すフラグを設定した情報を生成してもよい。図16は、フラグが設定された情報の一例を示す図である。図16に示す情報は、自車両Mからみた他車両の相対横位置情報の一例であり、他車両と自車両Mとの相対位置情報の一例である。
図16の例では、他車両m2と自車線を区画する区画線LL、LRとの二次元画像(平面画像上)での位置関係が図11に示す関係である場合において、設定されるフラグの一例を示している。図16の例では、左車線と、自車線と、右車線のそれぞれについて、他車両m2の存在が確定した車線および不在が確定した車線にフラグ「1」が設定されている。図16の例によれば、所属車線判定部148の処理によって、他車両m2が左車線および自車線に存在し、右車線には存在しないことを特定することができる。例えば、不在確定車線として、自車線に存在しないことが分かるだけでも、その後の追従制御等の運転制御において、ターゲット車両の選定や速度制御等の処理に用いることができる。なお、図16の例において、存在確定フラグと、不在確定フラグとで異なるフラグを設定してもよい。
また、所属車線判定部148は、例えば、第2カメラ20により撮像された二次元画像から自車線を区画する左右の区画線LL、LRの一方または一部が認識できない場合であっても、他車両が所属する車線(存在確定車線)または所属しない車線(不在確定車線)のうち一方または双方を判定することができる。区画線が認識できないとは、例えば、二次元画像により区画線のエッジ抽出ができない場合である。以下に、区画線が認識できない状況での幾つかの所属車線の判定パターンについて説明する。
<第1の判定パターン>
図17は、第1の判定パターンについて説明するため図である。第1の判定パターンは、自車線L1を区画する左右の区画線LL、LRのうち右区画線LRが認識できない場合における他車両m2の存在確定車線(所属車線)を判定するものである。第1の判定パターンにおいて、所属車線判定部148は、左区画線LLからみた右接地箇所Reおよび左接地箇所Leのそれぞれの相対位置に基づいて、他車両m2の存在確定車線を判定する。図17の例では、左区画線LLからみた右接地箇所Reの相対位置が正であり、左区画線LLからみた左接地箇所Leの相対位置の位置が負であるため、接地箇所Re、Leが、区画線LLを跨ぐように存在する(左区画線LLの左右それぞれに接地箇所(端部)が存在する)ことがわかる。そのため、第1の判定パターンにおいて、所属車線判定部148は、他車両m2が右車線に所属するか否かまでは認識できないが、少なくとも自車線L1に所属する(より具体的には自車線L1および左車線に所属する)と判定する。
図17は、第1の判定パターンについて説明するため図である。第1の判定パターンは、自車線L1を区画する左右の区画線LL、LRのうち右区画線LRが認識できない場合における他車両m2の存在確定車線(所属車線)を判定するものである。第1の判定パターンにおいて、所属車線判定部148は、左区画線LLからみた右接地箇所Reおよび左接地箇所Leのそれぞれの相対位置に基づいて、他車両m2の存在確定車線を判定する。図17の例では、左区画線LLからみた右接地箇所Reの相対位置が正であり、左区画線LLからみた左接地箇所Leの相対位置の位置が負であるため、接地箇所Re、Leが、区画線LLを跨ぐように存在する(左区画線LLの左右それぞれに接地箇所(端部)が存在する)ことがわかる。そのため、第1の判定パターンにおいて、所属車線判定部148は、他車両m2が右車線に所属するか否かまでは認識できないが、少なくとも自車線L1に所属する(より具体的には自車線L1および左車線に所属する)と判定する。
<第2の判定パターン>
図18は、第2の判定パターンについて説明するため図である。第2の判定パターンは、自車線L1を区画する区画線LL、LRのうち左区画線LLが認識できない場合における他車両m2の不在確定車線を判定するものである。第2の判定パターンにおいて、所属車線判定部148は、右区画線LRからみた右接地箇所Reおよび左接地箇所Leのそれぞれの相対位置に基づいて、不在確定車線を判定する。図18の例では、右区画線LRからみた右接地箇所Reおよび左接地箇所Leの相対位置はいずれも負である。そのため、第2の判定パターンにおいて、所属車線判定部148は、他車両m2は、他車両m2が右車線に所属してしない(右車線が不在確定車線である)と判定する。
図18は、第2の判定パターンについて説明するため図である。第2の判定パターンは、自車線L1を区画する区画線LL、LRのうち左区画線LLが認識できない場合における他車両m2の不在確定車線を判定するものである。第2の判定パターンにおいて、所属車線判定部148は、右区画線LRからみた右接地箇所Reおよび左接地箇所Leのそれぞれの相対位置に基づいて、不在確定車線を判定する。図18の例では、右区画線LRからみた右接地箇所Reおよび左接地箇所Leの相対位置はいずれも負である。そのため、第2の判定パターンにおいて、所属車線判定部148は、他車両m2は、他車両m2が右車線に所属してしない(右車線が不在確定車線である)と判定する。
<第3の判定パターン>
図19は、第3の判定パターンについて説明するため図である。第3の判定パターンは、区画線の一方の全ておよび他方の一部が認識できていない場合における他車両m2の存在確定車線または不在確定車線のうち一方または双方を判定するものである。図19の例では、右区画線LRを認識していないことに加えて、左区画線LLの一部も認識していない(一部のみ認識している)場面を示している。また、左区画線LLは、右接地箇所Reの水平方向(画像の横方向)を基準とした特定領域に含まれる区画線LLは認識しているが、左接地箇所Leの水平方向を基準とした特定領域に含まれる区画線LLは認識していない。したがって、区画線LLと左接地箇所Leとの相対位置を取得することができない。この場合、所属車線判定部148は、区画線LLからみた右接地箇所Reの相対位置のみに基づいて他車両m2の所属車線を判定する。
図19は、第3の判定パターンについて説明するため図である。第3の判定パターンは、区画線の一方の全ておよび他方の一部が認識できていない場合における他車両m2の存在確定車線または不在確定車線のうち一方または双方を判定するものである。図19の例では、右区画線LRを認識していないことに加えて、左区画線LLの一部も認識していない(一部のみ認識している)場面を示している。また、左区画線LLは、右接地箇所Reの水平方向(画像の横方向)を基準とした特定領域に含まれる区画線LLは認識しているが、左接地箇所Leの水平方向を基準とした特定領域に含まれる区画線LLは認識していない。したがって、区画線LLと左接地箇所Leとの相対位置を取得することができない。この場合、所属車線判定部148は、区画線LLからみた右接地箇所Reの相対位置のみに基づいて他車両m2の所属車線を判定する。
図19の例において、区画線LLからみた他車両m2の右接地箇所Reの相対位置は負である。そのため、所属車線判定部148は、他車両m2が左車線に所属する(左車線が他車両m2の存在確定車線である)と判定することができる。また、所属車線判定部148は、他車両m2が自車線L1および右車線に所属していない(自車線L1および右車線が他車両m2の不在確定車線である)と判定することもできる。
<第4の特定パターン>
図20は、第4の判定パターンについて説明するため図である。第4の判定パターンは、両方の区画線LL、LRの一部が認識できていない第1の場面における他車両m2の存在確定車線を判定するものである。図20の例において、区画線LL、LRのうち、自車両Mの右接地箇所ReのY軸方向(二次元画像の左右方向)において右区画線LRが認識できており、左接地箇所LeのY軸方向では左区画線LLのみが認識できているものとする。この場合、所属車線判定部148は、左右の接地箇所Le、Reに自車両Mの本体部(ボディ)が存在するため、図20に示すような第1の場面において、他車両m2が自車線L1に所属する(自車線L1が他車両m2の存在確定車線である)と判定する。
図20は、第4の判定パターンについて説明するため図である。第4の判定パターンは、両方の区画線LL、LRの一部が認識できていない第1の場面における他車両m2の存在確定車線を判定するものである。図20の例において、区画線LL、LRのうち、自車両Mの右接地箇所ReのY軸方向(二次元画像の左右方向)において右区画線LRが認識できており、左接地箇所LeのY軸方向では左区画線LLのみが認識できているものとする。この場合、所属車線判定部148は、左右の接地箇所Le、Reに自車両Mの本体部(ボディ)が存在するため、図20に示すような第1の場面において、他車両m2が自車線L1に所属する(自車線L1が他車両m2の存在確定車線である)と判定する。
図21は、両方の区画線の一部が認識できていない第2の場面について説明するための図である。第4の判定パターンの第2の場面では、区画線LL、LRのうち、自車両Mの右接地箇所ReのY軸方向では区画線LLのみが認識できており、左接地箇所LeのY軸方向では区画線LRのみが認識できている場面である。この場合、所属車線判定部148は、左右の接地箇所Le、Reに自車両Mの本体部(ボディ)が存在するため、図21に示すような場面においても、他車両m2が自車線L1に所属すると判定することができる。上述した第4の判定パターンのように、車線の一部が認識していないような状態であっても、認識できている部分を用いた相対位置による判定により、他車両の存在確定車線や不在確定車線を把握することができる。
上述した第1~第4の判定パターンに基づいて判定を行うことで、例えば、悪天候等により区画線の一方または一部が認識できない(エッジ抽出できない)場合であっても他車両が所属する車線(存在確定車線)または所属しない車線(不在確定車線)のうち一方または双方を判定することができる。上述した所属車線の判定処理により、他車両の所属車線の判定精度をより向上させることができる。
[ターゲット捕捉(ステップS160)]
次に、ターゲット捕捉処理の詳細について説明する。図22は、ターゲット捕捉部150の機能について説明するための図である。ターゲット捕捉部150は、例えば、物体フィルタ152と、制御対象ターゲット捕捉部154と、干渉可能性ターゲット抽出部156と、検定部158とを備える。
次に、ターゲット捕捉処理の詳細について説明する。図22は、ターゲット捕捉部150の機能について説明するための図である。ターゲット捕捉部150は、例えば、物体フィルタ152と、制御対象ターゲット捕捉部154と、干渉可能性ターゲット抽出部156と、検定部158とを備える。
物体フィルタ152は、例えば、認識部120のセンサフュージョン処理によって得られる自車両Mの周辺の物体情報に基づいて、自車両Mの周辺に存在する物体のうち自車線と、左車線と、右車線とからなる三車線に存在する他車両(対象物体の一例)を抽出する。例えば、物体フィルタ152は、例えば、第1カメラ10により撮像された画像を俯瞰座標系に変換(三次元座標変換)し、画像上の物体の位置および形状等に基づいて、三車線に存在する他車両を抽出する。
制御対象ターゲット捕捉部154は、自車両MがACC等の運転制御を実行する場合に、物体フィルタ152によって抽出された他車両のうち、自車両Mが追従する他車両をターゲット車両(追従対象車両)として捕捉する。追従する他車両とは、例えば、自車両Mが走行する予定軌道上に存在する、または将来存在する可能性がある前走車両である。また、制御対象ターゲット捕捉部154は、例えば、自車両Mの車線変更時に、車線変更先の車線に存在する前走車両を新たなターゲット車両として捕捉する。
また、制御対象ターゲット捕捉部154は、車線変更によってターゲット車両が切り替わる場合に、ターゲット車両の切り替わり期間における制御遷移比率を設定する。図23は、ターゲット車両の切り替わり期間における制御遷移比率の設定について説明するための図である。図23の例では、同一方向に進行可能な三車線L1~L3からなる道路のうち、自車両Mが真ん中の車線L1を速度VMで走行しており、自車両Mの前方には、他車両m1が速度Vm1で走行し、自車線L1の左側の車線L2には、他車両m2が速度Vm2で自車両Mの前方を走行しているものとする。また、図23の例において、自車両Mは、ACC等の運転制御によって、他車両m1に追従して走行しているものとする。
この状況において、更に自車両Mが車線L1から車線L2に車線変更(例えば、ALC)を行う場合、制御対象ターゲット捕捉部154は、追従対象車両(ターゲット車両)を、他車両m1から他車両m2に切り替える。例えば、制御対象ターゲット捕捉部154は、自車両Mが車線L1から車線L2に車線変更するまでの予定軌道K1上の各位置において、追従する他車両m1、m2のそれぞれの相対位置や速度等に基づいて制御遷移比率を設定する。これにより、例えば、他車両m1の挙動に対する制御を7割、他車両m2の挙動に対する制御を3割といったように比率によって、速度や操舵等の制御内容の調整(補正)を行うことで、車線変更時に滑らかな挙動となる運転制御を実行することができる。
なお、上述した制御遷移比率の設定は、例えば、自車両Mが他車両m1に追従して走行している状態で、他車両m2が車線変更によって自車両Mと他車両との間に進入してきた場合にも、自車両Mのターゲット車両が他車両m1から他車両m2に切り替わるため、切り替わり期間において上述の制御遷移比率を設定し、設定された比率に基づく運転制御が実行される。
干渉可能性ターゲット抽出部156は、例えば、自車線とその左右の車線を含み、自車両Mの基準位置(例えば、先端部または重心)から進行方向に向かって所定距離以内の領域を干渉可能性エリアとして設定し、そのエリア内に存在する他車両を干渉可能性があるターゲット車両として抽出する。所定距離は、固定距離でもよく、道路形状や道路種別、自車両の速度等に基づいて可変に設定されてもよい。また、干渉可能性ターゲット抽出部156は、左車線、自車線、右車線のそれぞれの車線から所定数の他車両を抽出してもよく、三車線における他車両の合計値が閾値を越える場合に自車両から近い方から所定数の他車両を抽出してもよい。更に、干渉可能性ターゲット抽出部156は、運転制御部160によりACC(自車両Mが前走車両に追従する追従走行)が実行されている場合に、前走車両と自車両Mとの間に隣接車線から自車線に進入してきた(割り込んできた)割込み車両(他車両)を、自車両Mと干渉する可能性があるターゲット車両として抽出する。干渉する可能性があるターゲット車両を抽出することで、例えば、そのターゲット車両と接触しないように運転制御部160において速度や操舵等の制御内容を調整(補正)しながら、より適切な運転制御を実行することができる。
検定部158は、制御対象ターゲット捕捉部154により捕捉されたターゲット車両および干渉可能性ターゲット抽出部156により抽出されたターゲット車両と、所属車線判定部148により判定された他車両の所属車線の判定結果とに基づいて、ターゲット車両が自車両Mの運転制御(速度制御、運転制御)の対象として正しいか否かの検定を行う。なお、ターゲット車両のそれぞれ(例えば、他車両m1~m3)と、所属車線判定部148により所属車線が判定される他車両のそれぞれ(例えば、他車両m1~m3)とは、例えば、自車両Mからの相対位置、形状、大きさ等により対応付けられている。
例えば、検定部158は、制御対象ターゲットまたは干渉可能性ターゲットとして抽出された自車線L1に存在すると認識されたターゲット車両(他車両)が、所属車線判定部148により自車線L1に所属していない(または他の自車線以外の車線に存在する)と判定されている場合、運転制御の対象として正しくないものとして、認識部120による認識結果を補正する。具体的には、検定部158は、認識部120による認識結果に基づいてターゲット車両として抽出された他車両のうち、自車線L1に所属していない(または他の自車線以外の車線に存在する)他車両を、ターゲット車両(運転制御の対象となる車両)から除外する。このように、二次元画像は、三次元画像変換等を用いながら物体を認識する認識部120と比較して対象物体の位置の誤差が少ないため、二次元画像に基づく他車両の所属車線の判定結果(他車両の相対横位置情報)を用いて、運転制御に不要なターゲット車両を除外することで、誤認識のよる過剰な速度制御等を行うことを抑制することができる。なお、検定部158は、運転制御に不要なターゲット車両を除外することに代えて、所属車線判定部148により判定された所属車線と合致するように除外対象のターゲット車両の位置を補正してもよい。
また、検定部158は、自車線L1に存在する認識されたターゲット車両(他車両)が、所属車線判定部148により自車線L1に所属する(存在する)と判定されている場合、運転制御の対象として正しいものとして、ターゲット対象である他車両に関する情報(ターゲット情報)を出力する。
速度制御部162は、検定部158により出力されたターゲット情報に基づいて、自車両Mの速度制御を行う。例えば、速度制御部162は、例えば、ターゲット情報に含まれるターゲット車両の状態量(ターゲット車両との相対距離、相対速度、目標車間)等に基づいて、追従対象ターゲットに対して、適切な車間距離で追従するための追従目標制御量を算出する。また、速度制御部162は、ターゲット情報に含まれる干渉可能性ターゲットとの干渉状態に基づいて、自車両Mの加減速によって予め決められたGリミット(車両センサ40から得られる自車両Mの前後Gの限界値)を超えないように制御量を調整する。また、速度制御部162は、自車線L1に車線変更する他車両や車両の一部が自車線に進入した状態で走行する他車両(干渉可能性ターゲットの一例)に関しては、干渉可能性ターゲットの挙動(位置や速度)などの情報に基づいて追従制御量を調整する。なお、速度制御部162は、制御対象ターゲットとして捕捉できていない干渉可能性ターゲットが存在する場合は、干渉可能性ターゲットの挙動等の状態に応じて調整を行ってもよい。そして、速度制御部162は、調整等によって得られた追従制御量と、現在の自車両Mの速度制御量とに基づいて、自車両Mを走行させるための速度プロファイルを生成し、生成した速度プロファイルに基づいて自車両Mの速度制御を実行する。
また、操舵制御部164についても上述したターゲット情報に基づいて、他車両と接触しないようにALCやLKAS等の運転制御が実行される。
これにより、例えばカメラ画像に対する三次元画像変換や複数のセンサの出力に基づいて認識された物体の認識誤差による対象車両の位置ずれに対して適切な補正を行うことができる。また、追従対象車両や割込み車両の認識精度を向上させることができる。また、所属車線判定部148により自車線に存在しないと判定された場合に、追従対象車両や割込み車両から除外して、過剰な減速度をしないよう抑制することができる。これにより、乗員の違和感が少ない車両制御が可能となる。
なお、HMI制御部170は、ターゲット車両として認識されている他車両と、ターゲット車両から除外された他車両とを区別可能な画像を生成し、生成した画像をHMI30の表示部に表示させてもよい。これにより、運転制御の対象車両をより正確に乗員に通知することができる。
以上の通り、本実施形態によれば、車両制御装置において、自車両Mの周辺を撮像する第2カメラ(撮像部の一例)20と、自車両Mの周辺状況を認識する認識部120と、認識部120の認識結果に基づいて自車両Mの速度または操舵のうち一方または双方を制御する運転制御部160と、第2カメラ20の撮像内容に基づいて運転制御部160を制御する制御部140と、を備え、制御部140は、第2カメラ20により撮像された二次元画像上における自車両Mの周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、物体に最初に接した箇所を物体の接地箇所とすることにより、画像に含まれる物体の位置をより正確に認識して自車両の運転制御を行うことができる。したがって、交通の安全性をより向上させることができる。
具体的には実施形態によれば、第2カメラ20により撮像された二次元画像上で区画線と対象物体の端部との位置関係によって所属車線を判定することで、認識部120による三次元変換した画像(俯瞰画像)や複数のセンサの出力を元に推定した場合に発生する物体の位置ずれ(所属車線のずれ)を抑制することができる。また、実施形態によれば、対象物体が他車両である場合に端部を接地箇所とすることで、他車両の所属車線の判定精度を向上させることができる。また、実施形態によれば、バウンディングボックスの矩形情報から、セグメンテーション画像を参照して、左右端部である接地箇所を取得することで、画像上でサーチする範囲を限定し、処理コストを低減させることができる。また、実施形態によれば、他車両が車線を跨いでいる場合であっても所属車線を高精度に認識することができる。
また、実施形態によれば、セグメンテーション画像の左右下端からそれぞれ斜め方向にスキャンして、物体に最初に接した部分を物体の接地箇所とすることで、従来技術のような煩雑な判定処理が不要となり処理負荷を軽減することができる。また、実施形態によれば、スキャン角度を、区画線と同じ角度にしたり、バウンディングボックスの矩形下端の水平方向に存在する区画線の角度にしたり、スキャン角度が所定値以上となる場合は固定角度(例えば、45度)とすることで、対象物体の接地箇所の検出精度を向上させることができる。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
撮像部により自車両の周辺を撮像し、
前記自車両の周辺状況を認識し、
認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御を実行し、
前記撮像部の撮像内容に基づいて前記運転制御を制御し、
前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、
ように構成されている、車両制御装置。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
撮像部により自車両の周辺を撮像し、
前記自車両の周辺状況を認識し、
認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御を実行し、
前記撮像部の撮像内容に基づいて前記運転制御を制御し、
前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、
ように構成されている、車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、10…第1カメラ、12…レーダ装置、20…第2カメラ、30…HMI、40…車両センサ、80…運転操作子、92…走行駆動力出力装置、94…ブレーキ装置、96…ステアリング装置、100…運転制御装置、120…認識部、122…周辺認識部、140…制御部、142…輪郭抽出部、144…区画線抽出部、146…端部取得部、148…所属車線判定部、150…ターゲット捕捉部、152…物体フィルタ、154…制御対象ターゲット捕捉部、156…干渉可能性ターゲット抽出部、158…検定部、160…運転制御部、162…速度制御部、164…操舵制御部
Claims (9)
- 自車両の周辺を撮像する撮像部と、
前記自車両の周辺状況を認識する認識部と、
前記認識部の認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御部と、
前記撮像部の撮像内容に基づいて前記運転制御部を制御する制御部と、を備え、
前記制御部は、前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、
車両制御装置。 - 前記制御部は、前記二次元画像上の物体の囲う矩形領域を設定し、設定した矩形領域ごとに、前記矩形領域の左右の下端から上側に向かって所定角度となる角度でスキャンを行い、前記物体の左右の接地箇所を取得する、
請求項1に記載の車両制御装置。 - 前記所定角度は、前記撮像部により撮像された二次元画像の下端と、前記二次元画像に含まれる区画線とが成す角度である、
請求項2に記載の車両制御装置。 - 前記所定角度は、前記矩形領域の下端を前記二次元画像の横方向に延伸させたときに接する前記区画線の位置を基準とした所定領域の区画線を前記二次元画像の左右方向からみたときの角度である、
請求項3に記載の車両制御装置。 - 前記制御部は、前記二次元画像の左右方向に対する前記区画線の角度が閾値を越える場合に、前記所定角度を固定値とする、
請求項4に記載の車両制御装置。 - 前記固定値は、45度である、
請求項5に記載の車両制御装置。 - 前記制御部は、前記物体の接地箇所に基づいて前記認識部により認識された前記物体の位置を補正し、補正した前記物体の位置に基づいて前記運転制御部を制御する、
請求項1から6のうち何れか1項に記載の車両制御装置。 - コンピュータが、
撮像部により自車両の周辺を撮像し、
前記自車両の周辺状況を認識し、
認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御を実行し、
前記撮像部の撮像内容に基づいて前記運転制御を制御し、
前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、
車両制御方法。 - コンピュータに、
撮像部により自車両の周辺を撮像させ、
前記自車両の周辺状況を認識させ、
認識結果に基づいて前記自車両の速度または操舵のうち一方または双方を制御する運転制御を実行させ、
前記撮像部の撮像内容に基づいて前記運転制御を制御させ、
前記撮像部により撮像された二次元画像上における前記自車両の周辺に存在する物体に対して、二次元画像上の左右の下端から上側に所定角度となる角度でスキャンを行い、前記物体に最初に接した箇所を前記物体の接地箇所とする、
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021167278A JP7324819B2 (ja) | 2021-10-12 | 2021-10-12 | 車両制御装置、車両制御方法、およびプログラム |
US17/960,838 US20230115593A1 (en) | 2021-10-12 | 2022-10-06 | Vehicle control device, vehicle control method, and storage medium |
CN202211231154.2A CN115959110A (zh) | 2021-10-12 | 2022-10-09 | 车辆控制装置、车辆控制方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021167278A JP7324819B2 (ja) | 2021-10-12 | 2021-10-12 | 車両制御装置、車両制御方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023057675A true JP2023057675A (ja) | 2023-04-24 |
JP7324819B2 JP7324819B2 (ja) | 2023-08-10 |
Family
ID=85798304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021167278A Active JP7324819B2 (ja) | 2021-10-12 | 2021-10-12 | 車両制御装置、車両制御方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230115593A1 (ja) |
JP (1) | JP7324819B2 (ja) |
CN (1) | CN115959110A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000048183A (ja) * | 1998-07-31 | 2000-02-18 | Toyota Central Res & Dev Lab Inc | 走行路認識装置 |
JP2002029348A (ja) * | 2000-07-17 | 2002-01-29 | Honda Motor Co Ltd | 車両用外界認識装置 |
JP2003308599A (ja) * | 2002-04-17 | 2003-10-31 | Nissan Motor Co Ltd | 走行路環境検出装置 |
JP2015219773A (ja) * | 2014-05-19 | 2015-12-07 | 本田技研工業株式会社 | 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム |
JP2015225546A (ja) * | 2014-05-28 | 2015-12-14 | 本田技研工業株式会社 | 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム |
-
2021
- 2021-10-12 JP JP2021167278A patent/JP7324819B2/ja active Active
-
2022
- 2022-10-06 US US17/960,838 patent/US20230115593A1/en active Pending
- 2022-10-09 CN CN202211231154.2A patent/CN115959110A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000048183A (ja) * | 1998-07-31 | 2000-02-18 | Toyota Central Res & Dev Lab Inc | 走行路認識装置 |
JP2002029348A (ja) * | 2000-07-17 | 2002-01-29 | Honda Motor Co Ltd | 車両用外界認識装置 |
JP2003308599A (ja) * | 2002-04-17 | 2003-10-31 | Nissan Motor Co Ltd | 走行路環境検出装置 |
JP2015219773A (ja) * | 2014-05-19 | 2015-12-07 | 本田技研工業株式会社 | 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム |
JP2015225546A (ja) * | 2014-05-28 | 2015-12-14 | 本田技研工業株式会社 | 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230115593A1 (en) | 2023-04-13 |
JP7324819B2 (ja) | 2023-08-10 |
CN115959110A (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6627153B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
US11091152B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11370420B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190286147A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US10854083B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7194640B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
US11634139B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11572052B2 (en) | Vehicle control for facilitating control of a vehicle passing a prececeding vehicle | |
US11701967B2 (en) | Display control device, display control method, and storage medium | |
US20230114781A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20230112878A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20230115845A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7324819B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
US11932283B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US12024171B2 (en) | Moving object control device, moving object control method, and storage medium | |
US20210284165A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN115704907A (zh) | 物体识别装置、物体识别方法以及记录介质 | |
JP7028838B2 (ja) | 周辺認識装置、周辺認識方法、およびプログラム | |
JP2022138808A (ja) | 移動体の制御装置、移動体の制御方法、およびプログラム | |
US11495029B2 (en) | Estimation device, estimation method, and storage medium | |
JP7160730B2 (ja) | 車両システム、車両システムの制御方法、およびプログラム | |
US12087065B2 (en) | Mobile object control method, mobile object control device, and storage medium | |
US11801838B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20240182024A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20240051532A1 (en) | Vehicle control device, vehicle control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7324819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |