JP7152848B2 - External environment recognition device - Google Patents
External environment recognition device Download PDFInfo
- Publication number
- JP7152848B2 JP7152848B2 JP2017195283A JP2017195283A JP7152848B2 JP 7152848 B2 JP7152848 B2 JP 7152848B2 JP 2017195283 A JP2017195283 A JP 2017195283A JP 2017195283 A JP2017195283 A JP 2017195283A JP 7152848 B2 JP7152848 B2 JP 7152848B2
- Authority
- JP
- Japan
- Prior art keywords
- radar
- reflection
- area
- vehicle
- scanning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、レーダを用いて自車両周辺の車両等の認識を行う車外環境認識装置に関する。 The present invention relates to an external environment recognition device that uses radar to recognize vehicles and the like around the vehicle.
近年、車両においては、走行環境を認識し、自車両の走行情報を検出して操舵制御や加減速制御を協調して実行し、自動運転を行えるようにした、車両の走行制御蔵置についての様々な技術が提案され実用化されている。 In recent years, in vehicles, various driving control devices have been developed that enable autonomous driving by recognizing the driving environment, detecting the driving information of the own vehicle, and executing steering control and acceleration/deceleration control in cooperation with each other. techniques have been proposed and put into practical use.
このような走行制御装置に用いられる車外環境認識装置においては、複数のレーダにより、先行車、並走車、及び、後続車等を含む各種物体(立体物)を検出するための技術が知られている。このような複数のレーダを用いた物体検出において、2つのレーダの走査領域が重なり合う重畳領域での同一物体判定や位置情報等の取得精度を向上させるための技術として、例えば、特許文献1には、走査領域の一部が重なり合う2つのレーダのうちの一方のレーダで検出した物体の位置(物体の代表点の位置)に基づいて当該物体の進路に範囲を設定し、該範囲内に他方のレーダで検出した物体位置が含まれる場合に、一方のレーダで検出した物体と他方のレーダで検出した物体とが同一物体であると判定する技術が開示されている。
In the vehicle external environment recognition device used in such a travel control device, a technique for detecting various objects (three-dimensional objects) including a preceding vehicle, a parallel running vehicle, and a following vehicle using a plurality of radars is known. ing. In such object detection using a plurality of radars, for example,
しかしながら、レーダの走査領域内における走査方向の端部領域では、物体からの反射点の検出位置にバラツキが生じやすい傾向にある。従って、上述の特許文献1に開示された技術のように、各レーダで検出した反射点をそのまま用いて物体検出を行った場合、2つのレーダの端部領域が重なり合う重畳領域に存在する立体物を精度良く検出することが困難な場合がある。
However, in end regions in the scanning direction within the scanning region of the radar, the detection positions of the reflection points from the object tend to vary. Therefore, when object detection is performed using the reflection points detected by each radar as is, as in the technique disclosed in the above-mentioned
本発明は上記事情に鑑みてなされたもので、2つのレーダの走査領域が重なる領域に存在する立体物についても精度良く検出することができる車外環境認識装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an external environment recognition system capable of accurately detecting three-dimensional objects existing in an area where two radar scanning areas overlap.
本発明の一態様による車外環境認識装置は、予め設定された第1の走査領域内において第1のレーダ波を水平方向に走査させ、前記第1のレーダ波が立体物で反射した第1の反射波を受信して前記立体物上の複数の第1の反射点を検出する第1のレーダ手段と、前記第1の走査領域の一端側の一部領域に対して他端側の一部領域が重畳するよう予め設定された第2の走査領域内において第2のレーダ波を水平方向に走査させ、前記第2のレーダ波が立体物で反射した第2の反射波を受信して前記立体物上の複数の第2の反射点を検出する第2のレーダ手段と、前記第1の走査領域と前記第2の走査領域とが重畳する重畳領域内において、前記第1のレーダ手段による前記第1の走査領域のうち前記第1の反射点の検出精度が他の領域よりも低下する前記第1のレーダ波の走査方向の端部領域であって、且つ、前記第1の走査領域の前記一端側に設定された第1の除外領域内に存在する前記第1の反射点を除外する第1の反射点除外手段と、前記重畳領域内において、前記第2のレーダ手段による前記第2の走査領域のうち前記第2の反射点の検出精度が他の領域よりも低下する前記第2のレーダ波の走査方向の端部領域であって、且つ、前記第2の走査領域の前記他端側に設定された第2の除外領域内に存在する前記第2の反射点を除外する第2の反射点除外手段と、除外されていない複数の前記第1の反射点及び複数の前記第2の反射点に基づき、互いに近接する反射点列からなる反射点群を形成し、前記反射点群毎に前記立体物の代表点を算出する代表点算出手段と、を備えたものである。 A vehicle exterior environment recognition apparatus according to an aspect of the present invention scans a preset first scanning region in a horizontal direction with a first radar wave, and the first radar wave reflects off a three-dimensional object. first radar means for receiving reflected waves and detecting a plurality of first reflection points on the three-dimensional object; A second radar wave is horizontally scanned within a second scanning region preset so that the regions overlap each other, and the second radar wave receives a second reflected wave reflected by a three-dimensional object to receive the second radar means for detecting a plurality of second reflection points on a three-dimensional object, and in an overlapping area where the first scanning area and the second scanning area overlap, the first radar means An edge area in the scanning direction of the first radar wave in which detection accuracy of the first reflection point is lower than that of other areas in the first scanning area, and the first scanning area. a first reflection point exclusion means for excluding the first reflection points existing in a first exclusion area set on the one end side of the second radar means in the overlapping area; 2 scanning regions, the second scanning region is an end region in the scanning direction of the second radar wave in which the detection accuracy of the second reflection point is lower than that of the other regions , and second reflection point exclusion means for excluding the second reflection points existing in a second exclusion area set on the other end side; a plurality of the first reflection points not excluded and a plurality of the reflection points and representative point calculation means for forming a reflection point group consisting of a series of reflection points adjacent to each other based on the second reflection points, and calculating a representative point of the three-dimensional object for each reflection point group. is.
本発明の車外環境認識装置によれば、2つのレーダの走査領域が重なる領域に存在する立体物についても精度良く検出することができる。 According to the vehicle exterior environment recognition device of the present invention, it is possible to accurately detect a three-dimensional object existing in an area where the scanning areas of two radars overlap.
以下、図面を参照して本発明の形態を説明する。図面は本発明の一実施形態に係り、図1は車両用運転支援装置の構成図、図2は車載カメラ及び各レーダの走査領域を示す説明図、図3は右前側方レーダの走査領域内において検出された反射点を示す説明図、図4は右後側方レーダの走査領域内において検出された反射点を示す説明図、図5,6は2つのレーダを用いた立体物認識ルーチンを示すフローチャート、図7は重複領域において検出された乗用車の反射点を示す説明図、図8は重畳領域の反射点を選定した後の乗用車の反射点群を示す説明図、図9は重畳領域を含む2つのレーダの走査領域において検出された大型トレーラの反射点を示す説明図、図10は重畳領域の反射点を選定した後の大型トレーラの反射点群を示す説明図、図11はキャリアカーの側面図、図12は重畳領域を含む2つのレーダの走査領域において検出されたキャリアカーの反射点を示す説明図、図13は重畳領域の反射点を選定した後のキャリアカーの反射点群を示す説明図である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings relate to one embodiment of the present invention, FIG. 1 is a configuration diagram of a vehicle driving support system, FIG. 2 is an explanatory diagram showing the scanning area of an on-vehicle camera and each radar, and FIG. Fig. 4 is an explanatory diagram showing reflection points detected in the scanning area of the right rear side radar, Figs. 5 and 6 show a three-dimensional object recognition routine using two radars 7 is an explanatory diagram showing the reflection points of the passenger car detected in the overlapping area, FIG. 8 is an explanatory diagram showing the group of reflection points of the passenger car after selecting the reflection points in the overlapping area, and FIG. FIG. 10 is an explanatory diagram showing the reflection points of the large trailer detected in the two radar scanning areas, FIG. 12 is an explanatory diagram showing the reflection points of the carrier car detected in the two radar scanning areas including the overlapping area, and FIG. 13 is the reflection point group of the carrier car after selecting the reflection points in the overlapping area. It is an explanatory view showing .
図1に示す車両用運転支援装置2は、自動車等の車両(自車両)1(図2参照)に搭載されている。この車両用運転支援装置2は、運転支援制御ユニット11、エンジン制御ユニット(以下「E/G_ECU」と称す)12、パワーステアリング制御ユニット(以下「PS_ECU」と称する)13、ブレーキ制御ユニット(以下「BK_ECU」と称する)14等の各制御ユニットを備え、これら各制御ユニット11~14が、CAN(Controller Area Network)等の車内通信回線15を通じて接続されている。尚、各ユニット11~14はCPU、ROM、RAMなどを備えたマイクロコンピュータにより構成されており、ROMにはシステム毎に設定されている動作を実現するための制御プログラムが記憶されている。
A vehicle
運転支援制御ユニット11の入力側には、後述する車外環境認識装置30の演算ユニット31が接続されている。演算ユニット31は、車外環境に関する情報として、例えば、自車両1が走行する車線(走行車線)、走行車線に隣接する車線(隣接車線)、及び、走行車線を走行する先行車や隣接車線を走行する並走車等に関する情報を含む各種情報を認識し、これらの認識情報を運転支援制御ユニット11に出力する。
An input side of the driving
また、運転支援制御ユニット11の入力側には、自車両1の車速(自車速)Vを検出する車速センサ35、自車両1に作用するヨーレートγを検出するヨーレートセンサ36、及び、自動運転スイッチ21等の各種センサ・スイッチ類が接続されている。さらに、運転支援制御ユニット11の出力側には、報知手段22が接続されている。
Further, on the input side of the driving
自動運転スイッチ21は、インストルメントパネルやステアリングハンドル等、運転者の操作可能な位置に設けられており、通常運転(スイッチOFF)と自動運転(スイッチON)とを任意に選択するとともに、ACC運転時のセット車速の設定、及び、自動運転時における運転モードを追従制御モード或いは追越制御モードの何れかに設定することができる。
The
そして、自動運転における運転モードとして追従制御モードが選択されると、運転支援制御ユニット11は、E/G_ECU12、PS_ECU13、及び、BK_ECU14の制御を通じて、追従制御を行う。すなわち、走行車線の前方に先行車が存在しない場合には、運転支援制御ユニット11は、自車速Vをセット車速に維持して走行車線を走行させる定速制御を行う。また、走行車線の前方に先行車が存在する場合、運転支援制御ユニット11は、車間距離を所定に維持して先行車に追従させる追従制御を行う。この場合において、先行車の車速が自車両1のセット車速以下の場合であっても、運転支援制御ユニット11は、先行車を追い越すことなく追従制御を継続する。
Then, when the follow-up control mode is selected as the operation mode in automatic driving, the driving
一方、追越制御モードが選択された場合、運転支援制御ユニット11は、基本的には上述の定速制御或いは追従制御を行い、先行車の車速が自車両1のセット車速よりも所定に遅い場合に、自車両1のセット車速を維持すべく、追越制御を実行する。
On the other hand, when the overtaking control mode is selected, the driving
但し、先行車の車速が自車両1のセット車速よりも所定に遅い場合であっても、隣接車線に並走車等が存在する場合、或いは、隣接車線にさらに隣接する車線から隣接車線に車線変更する車両等が存在する場合、運転支援制御ユニット11は追越制御をキャンセルする。或いは、先行車の車速が自車両1のセット車速よりも所定に遅い場合であって、隣接車線に並走車等が存在する場合、或いは、隣接車線にさらに隣接する車線から隣接車線に車線変更する車両等が存在する場合、運転支援制御ユニット11は、自車速を一時的に減速させ、並走車等が所定距離前方まで移動するのを待って、追越制御を実行する。
However, even if the vehicle speed of the preceding vehicle is slower than the set vehicle speed of the
報知手段22は、運転者に自動運転の開始、中断などを点滅表示、文字表示、音声等で報知するもので、表示ランプ、表示器、スピーカ等で構成されている。 The notification means 22 notifies the driver of the start or suspension of automatic driving by flashing display, character display, sound, etc., and is composed of a display lamp, a display, a speaker, and the like.
E/G_ECU12の出力側には、スロットルアクチュエータ17が接続されている。このスロットルアクチュエータ17は、エンジンのスロットルボディに設けられている電子制御スロットルのスロットル弁を開閉動作させるものであり、E/G_ECU12からの駆動信号によりスロットル弁を開閉動作させて吸入空気流量を調整することで、所望のエンジン出力を発生させる。
A
PS_ECU13の出力側には、電動パワステモータ18が接続されている。この電動パワステモータ18はステアリング機構にモータの回転力で操舵トルクを付与するものであり、自動運転では、PS_ECU13からの駆動信号により電動パワステモータ18を制御動作させることで、現在の走行車線の走行を維持させる車線維持制御、及び自車両1を隣接車線へ移動させる車線変更制御(追越制御等のための車線変更制御)が実行される。
An electric
BK_ECU14の出力側には、ブレーキアクチュエータ19が接続されている。このブレーキアクチュエータ19は、各車輪に設けられているブレーキホイールシリンダに対して供給するブレーキ油圧を調整するもので、BK_ECU14からの駆動信号によりブレーキアクチュエータ19が駆動されると、ブレーキホイールシリンダにより各車輪に対してブレーキ力が発生し、強制的に減速される。
A
次に、車外環境認識装置30の構成について、具体的に説明する。
Next, the configuration of the vehicle exterior
車外環境認識装置30は、演算ユニット31の入力側に、車載カメラ32と、ナビゲーション装置33と、レーダ手段としての複数のレーダ34(左前側方レーダ34lf、右前側方レーダ34rf、左後側方レーダ34lr、及び、右後側方レーダ34rr)と、車速センサ35と、ヨーレートセンサ36と、が接続されて要部が構成されている。
The external
車載カメラ32は、例えば、メインカメラ32aとサブカメラ32bとを有するステレオカメラである。これらメインカメラ32aとサブカメラ32bは、例えば、自車両1のキャビン前部において車幅方向(左右方向)に所定の間隔を隔てて固定され、走行方向前方の所定領域A1(図2参照)を左右の異なる視点からステレオ撮像することが可能となっている。
The vehicle-mounted
この車載カメラ32において撮像された左右の画像データの処理は、例えば、以下のように行われる。すなわち、演算ユニット31は、先ず、メインカメラ32aとサブカメラ32bで撮像した自車両の進行方向の1組の画像対に対し、対応する位置のずれ量から距離情報を求め、距離画像を生成する。そして、演算ユニット31は、生成した距離画像等に基づいて、白線、道路に沿って存在するガードレール、縁石等の側壁、及び、立体物(種別、距離、速度、自車両との相対速度、先行車情報等)等の認識を行い、これらの認識データを運転支援制御ユニット11に出力する。
The left and right image data captured by the in-
白線の認識において、演算ユニット31は、白線は道路面と比較して高輝度であるという知得に基づき、道路の幅方向の画素の輝度変化を評価して、画像平面における左右の白線候補点の位置を画像平面上で特定する。この白線候補点の実空間上の位置(x,y,z)は、画像平面上の位置(i,j)とこの位置に関して算出された視差(すなわち、距離情報)とに基づいて、周知の座標変換式により算出される。自車両の位置を基準に設定された実空間の座標系は、例えば、メインカメラ32aの中央真下の道路面を原点Oとし、車幅方向をX軸、車高方向をY軸、車長方向をZ軸として定義される。そして、実空間の座標系に変換された各白線候補点は、例えば、互いに近接する点列毎にグループ化され、最小自乗法等を用いて二次曲線(白線近似線)に近似される。ここで、本実施形態において、演算ユニット31は、自車両1の走行車線に隣接する隣接車線、隣接車線にさらに隣接する車線、及び、対向車線等(以下、隣接車線等という)が存在する場合には、当該隣接車線等を区画する白線についても認識する。すなわち、本実施形態の左右白線認識では、自車の走行車線を区画する白線のみならず、隣接車線等を区画する白線についても別途認識が行われる。
In recognizing a white line, the
また、側壁や立体物の認識において、演算ユニット31は、距離画像上のデータと、予め記憶しておいた3次元的な側壁データ、立体物データ等の枠(ウインドウ)とを比較し、道路に沿って延在するガードレール、縁石等の側壁データを抽出するとともに、立体物を、自動車、二輪車、歩行者、電柱等その他の立体物に分類して抽出する。立体物データの抽出において、演算ユニット31は、それぞれの自車両との距離(相対距離)の時間的変化の割合から自車両との相対速度を演算し、この相対速度と自車速Vとを加算することにより各々の立体物の速度を算出する。この際、特に、車両として分類された立体物は、その速度から、自車両の前方方向を正として、速度が略0の車両は停止車両、速度が正(自車両と同じ方向に進む車両)で自車両に最も近い車両は先行車、速度が負の車両(自車両に向かってくる車両)は対向車として分類して認識される。
In recognizing side walls and three-dimensional objects, the
ナビゲーション装置33は、地図情報(サプライヤデータ、及び、所定に更新されたデータ)を記憶する地図データベースと、ナビゲーション機能を実現するための経路情報を生成するナビECUと、を備えて構成されている(何れも図示せず)。
The
地図データベースには、ノードデータ、施設データ等の道路地図を構成するのに必要な情報が記憶されている。ノードデータは、地図画像を構成する道路の位置及び形状に関するものであり、例えば道路(車線)の幅方向中心点、道路の分岐点(交差点)を含む道路上の点(ノード点)の座標(緯度、経度)、当該ノード点が含まれる道路の方向、種別(例えば、高速道路、幹線道路、市道といった情報)、当該ノード点における道路のタイプ(直線区間、円弧区間(円弧曲線部)、クロソイド曲線区間(緩和曲線部))及びカーブ曲率(或いは、半径)のデータが含まれている。 The map database stores information necessary for constructing a road map, such as node data and facility data. The node data relates to the position and shape of the roads that make up the map image. latitude, longitude), the direction and type of the road that includes the node point (for example, information such as highway, arterial road, city road), the type of road at the node point (straight section, arc section (arc curve section), Clothoid curve section (segmentation curve portion)) and curve curvature (or radius) data are included.
そして、ナビEUCは、例えば、GPS(Global Positioning System)衛星からの電波信号を受信して取得した自車両1の位置情報(緯度、経度)、車速センサ35から取得した自車速V、及び、地磁気センサ或いはジャイロセンサ等から取得した自車両1の移動方向情報等に基づいて地図データ上における自車位置等を特定し、自車両1の走行車線、及び、隣接車線等の各種情報を認識することが可能となっている。
Then, the navigation ECU, for example, receives radio signals from GPS (Global Positioning System) satellites and acquires the position information (latitude and longitude) of the
左前側方レーダ34lf及び右前側方レーダ34rfは、例えば、ミリ波レーダであり、フロントバンパの左右側部に各々配設されている。これら左前側方レーダ34lf及び右前側方レーダ34rfは、上述した車載カメラ32からの画像では認識することの困難な自車両1の左右斜め前方及び側方の領域(走査領域Alf,Arf(図2参照))を監視する。 The left front side radar 34lf and the right front side radar 34rf are millimeter wave radars, for example, and are arranged on the left and right sides of the front bumper, respectively. The front left side radar 34lf and the front right side radar 34rf scan areas (scanning areas Alf, Arf (see FIG. 2 ))).
左後側方レーダ34lr及び右後側方レーダ34rrは、例えば、ミリ波レーダであり、リヤバンパの左右側部に各々配設されている。これら左後側方レーダ34lr及び右後側方レーダ34rrは、上述した左前側方レーダ34lf及び右前側方レーダ34rfでは監視することのできない自車両1の側方から後方にかけての領域(走査領域Alr,Arr(図2参照))を監視する。 The left rear side radar 34lr and the right rear side radar 34rr are millimeter wave radars, for example, and are arranged on the left and right sides of the rear bumper, respectively. These left rear side radar 34lr and right rear side radar 34rr scan an area (scanning area Alr , Arr (see FIG. 2)).
すなわち、各レーダ3434lf,34rf,34lr,34rrは、それぞれ、レーダ波を水平方向に走査させ、当該レーダ波が物体で反射した反射波を受信することにより、並走車や後続車等の立体物をレーダオブジェクト(レーダOBJ)として検出するための複数の反射点Rlf,Rrf,Rlr,Rrr(より具体的には、自車両1と反射点との相対位置情報)を検出する。 That is, each of the radars 3434lf, 34rf, 34lr, and 34rr scans the radar wave in the horizontal direction, and receives the reflected wave of the radar wave reflected by the object, thereby detecting a three-dimensional object such as a parallel running vehicle or a following vehicle. is detected as a radar object (radar OBJ).
この場合において、例えば、並走車等の立体物の反射点Rを途切れなく検出するため、左後側方レーダ34lrと左前側方レーダ34lfとは、走査領域Alrの一端側(先端側)の一部領域と走査領域Alfの他端側(後端側)の一部領域とが互いに重なり合う重畳領域Aslを形成するように設定されている。同様に、右後側方レーダ34rrと右前側方レーダ34rfとは、走査領域Arrの一端側(先端側)の一部領域と走査領域Arfの他端側(後端側)の一部領域とが互いに重なり合う重畳領域Asrを形成するように設定されている。 In this case, for example, in order to continuously detect the reflection point R of a three-dimensional object such as a parallel running vehicle, the left rear side radar 34lr and the left front side radar 34lf are positioned at one end side (tip side) of the scanning area Alr. The partial area and the partial area on the other end side (rear end side) of the scanning area Alf are set to overlap each other to form an overlapping area Asl. Similarly, the right rear side radar 34rr and the right front side radar 34rf are divided into a partial area on one end side (front end side) of the scanning area Arr and a partial area on the other end side (rear end side) of the scanning area Arf. are set so as to form an overlapping region Asr in which are overlapped with each other.
これらの各レーダ34によってそれぞれ検出された複数の反射点Rが入力されると、演算ユニット31は、反射点Rの分布を、予め設定された条件に基づき、同一の立体物からの反射された可能性が高い反射点R毎にグループ化する。すなわち、演算ユニット31は、互いに近接する反射点Rの点列を、それぞれ反射点群としてグループ化する。そして、演算ユニット31は、グループ化された反射点群毎にレーダOBJを検出し、検出したレーダOBJの代表点(立体物の代表点)Pを算出するとともに、自車両1と代表点Pとの相対速度、代表点Pの移動量(対地位置の変化量)、及び、代表点Pの加速度等の各種情報を並走車両や後続車両等の立体物情報として演算する。
When a plurality of reflection points R detected by each
この場合において、例えば、図3,4に示すように、各レーダ34で検出される複数の反射点Rは、基本的には、車体面等の立体物面に沿って検出されるものであるが、走査領域A内における走査方向の端部領域においては検出位置にバラツキが生じ易く、実際の立体物面とは異なる位置に反射点Rが検出されやすい傾向にある。そこで、演算ユニット31は、このような端部領域が含まれる重畳領域As内において、各レーダ34の端部領域にて検出された反射点Rを除外した上で、立体物の代表点Pを算出する。
In this case, for example, as shown in FIGS. 3 and 4, the plurality of reflection points R detected by each
以下、右後側方レーダ34rrを第1のレーダ手段、右前側方レーダ34rfを第2のレーダ手段とし、さらに、右後側方レーダ34rrの走査領域Arrを第1の走査領域、右前側方レーダ34rfの走査領域Arfを第2の走査領域とした場合を例に説明する。 Hereinafter, the right rear side radar 34rr will be referred to as the first radar means, the right front side radar 34rf will be referred to as the second radar means, and the scanning area Arr of the right rear side radar 34rr will be referred to as the first scanning area. A case where the scanning area Arf of the radar 34rf is set as the second scanning area will be described as an example.
この場合、例えば、右後側方レーダ34rrの走査領域Arrと右前側方レーダ34rfとの重畳領域Asrには、その先端側(一端側)の一部領域が右後側方レーダ34rrにより検出された反射点R(反射点Rrr)を除外するための第1の除外領域Ae1として設定され、その基端側(他端側)の一部領域が右前側方レーダ34rfにより検出された反射点R(反射点Rrf)を除外するための第2の除外領域Ae2として設定されている。そして、演算ユニット31は、第1の除外領域Ae1内に存在する反射点Rrrを除外するとともに、第2の除外領域Ae2内に存在する反射点Rrfを除外し、除外されていない反射点Rrr及び反射点Rrfに基づいて立体物(レーダOBJ)の代表点Pを算出する。
In this case, for example, in the overlapping region Asr of the scanning region Arr of the right rear side radar 34rr and the right front side radar 34rf, a partial region on the tip side (one end side) is detected by the right rear side radar 34rr. The reflection point R (reflection point Rrr) is set as a first exclusion area Ae1 for excluding the reflection point R (reflection point Rrr) detected by the right front side radar 34rf. It is set as a second exclusion area Ae2 for excluding (reflection point Rrf). Then, the
さらに、演算ユニット31は、離れた位置において検出された2つのレーダOBJの代表点Pの挙動が一致する場合には、これらレーダOBJが同一の立体物を表すものであると判断して代表点Pを統合することにより、最終的なレーダOBJの代表点Pを設定する。
Furthermore, when the behavior of the representative points P of two radar OBJs detected at distant positions matches, the
ここで、右後側方レーダ34rr及び右前側方レーダ34rfの取付位置や走査角度等を調整することにより、第1の除外領域Ae1と第2の除外領域Ae2は、重畳領域Asrを略等分割するように設定されていることが望ましい。 Here, by adjusting the mounting positions and scanning angles of the right rear side radar 34rr and the right front side radar 34rf, the first exclusion area Ae1 and the second exclusion area Ae2 divide the overlapping area Asr substantially equally. It should be set so that
このように、本実施形態において、演算ユニット31は、第1の反射点除外手段、第2の反射点除外手段、及び、代表点算出手段としての各機能を実現する。
Thus, in this embodiment, the
次に、右後側方レーダ34rr及び右前側方レーダ34rfによって検出された反射点Rrr,Rrfに基づく立体物認識処理について、図5,6に示す立体物認識ルーチンのフローチャートに従って説明する。 Next, three-dimensional object recognition processing based on the reflection points Rrr and Rrf detected by the right rear side radar 34rr and the right front side radar 34rf will be described with reference to the flowchart of the three-dimensional object recognition routine shown in FIGS.
このルーチンは演算ユニット31において設定時間毎に繰り返し実行されるものであり、ルーチンがスタートすると、演算ユニット31は、先ず、ステップS101において、右後側方レーダ34rr及び右前側方レーダ34rfによって検出された反射点R(反射点Rrr,Rrf)のうち、互いに近接する反射点Rの点列を、それぞれ反射点群としてグループ化する。これにより、例えば、図7に示す例では、重複領域Asr内に存在する立体物(車両)については反射点Rrrと反射点Rrfとが混在する反射点群が形成され、走査領域Arr内のみに存在する立体物(車両)については反射点Rrrのみからなる反射点群が形成される。
This routine is repeatedly executed in the
ステップS101からステップS102に進むと、演算ユニット31は、ステップS101においてグループ化した反射点群のうち、代表点Pの算出処理が行われていない未処理の反射点群が存在するか否かを調べる。
When the process proceeds from step S101 to step S102, the
そして、ステップS102において、未処理の反射点群が存在しないと判定した場合、演算ユニット31は、ステップS110に進む。
Then, when it is determined in step S102 that there is no unprocessed reflection point group, the
一方、ステップS102において、未処理の反射点群が存在すると判定した場合、演算ユニット31は、ステップS103に進み、未処理の反射点群の中から新たな1つの反射点群を抽出した後、ステップS104に進む。
On the other hand, if it is determined in step S102 that there is an unprocessed reflection point group, the
ステップS103からステップS104に進むと、演算ユニット31は、現在抽出されている反射点群が重複領域Asrを含む領域に存在しているか否かを調べる。
When proceeding from step S103 to step S104, the
そして、ステップS104において、反射点群が重複領域Asrを含む領域に存在していないと判定した場合、演算ユニット31は、ステップS106に進む。
Then, when it is determined in step S104 that the reflection point group does not exist in the region including the overlapping region Asr, the
一方、ステップS104において、反射点群が重複領域Asrを含む領域に存在していると判定した場合、演算ユニット31は、ステップS105に進み、反射点Rの除外処理を行う。
On the other hand, if it is determined in step S104 that the group of reflection points exists in the region including the overlapping region Asr, the
すなわち、演算ユニット31は、第1の除外領域Ae1内に反射点Rrrが存在する場合、当該反射点Rrrは検出精度の低い反射点であるとして反射点群から除外する。また、演算ユニット31は、第2の除外領域Ae2内に反射点Rrfが存在する場合、当該反射点Rrfは検出精度の低い反射点であるとして反射点群から除外する。
That is, when the reflection point Rrr exists in the first exclusion area Ae1, the
これにより、右後側方レーダ34rrの走査領域Arr内における一端側の端部領域において検出された反射点Rrrが除外されると共に、右前側方レーダ34rfの走査領域Arf内における他端側の端部領域において検出された反射点Rrfが除外される。 As a result, the reflection point Rrr detected in the end region on the one end side in the scanning region Arr of the right rear lateral radar 34rr is excluded, and the other end in the scanning region Arf of the right front lateral radar 34rf is excluded. Reflection points Rrf detected in partial regions are excluded.
なお、このように第1の除外領域Ae1内の反射点Rrrを除外した場合であっても、当該第1の除外領域Ae1内に立体物が存在する場合には、右前側方レーダ34rfによって同一立体物の反射点Rrfが精度良く検出されているため、当該領域内において反射点Rの連続性が途切れることはない。同様に、第2の除外領域Ae2内の反射点Rrfを除外した場合であっても、当該第2の除外領域Ae2内に立体物が存在する場合には、右後側方レーダ34rrによって同一立体物の反射点Rrrが精度良く検出されているため、当該領域内において反射点Rの連続性が途切れることはない。 Even when the reflection point Rrr in the first exclusion area Ae1 is excluded in this way, if a three-dimensional object exists in the first exclusion area Ae1, the right front side radar 34rf detects the same Since the reflection point Rrf of the three-dimensional object is detected with high accuracy, the continuity of the reflection point R is not interrupted within the region. Similarly, even if the reflection point Rrf within the second exclusion area Ae2 is excluded, if a three-dimensional object exists within the second exclusion area Ae2, the right rear side radar 34rr detects the same three-dimensional object. Since the reflection point Rrr of the object is detected with high accuracy, the continuity of the reflection point R is not interrupted within the region.
ステップS104或いはステップS105からステップS106に進むと、演算ユニット31は、現在選択されている反射点群を直線近似する。すなわち、演算ユニット31は、反射点群に対して周知のハフ変換等を行うことにより、立体物の反射面を近似する直線を求める。
When proceeding from step S104 or step S105 to step S106, the
ステップS106からステップS107に進むと、演算ユニット31は、直線近似した立体物の反射面の代表点Pを算出する。この場合、演算ユニット31は、例えば、自車両1に設定された原点O(メインカメラ32aの中央真下の道路面)をから最も近い近似直線上の点を代表点Pとして設定する(図8参照)。
When proceeding from step S106 to step S107, the
ステップS107からステップS108に進むと、演算ユニット31は、今回算出した代表点Pに対応する代表点が前回の処理においても算出されているか否か、すなわち、今回検出されたレーダOBJと同じレーダOBJが前回も検出されている否かを調べる。
When the process proceeds from step S107 to step S108, the
そして、ステップS108において、今回算出した代表点Pに対応する代表点が前回算出されていないと判定した場合、演算ユニット31は、ステップS102に戻る。
Then, when it is determined in step S108 that the representative point corresponding to the representative point P calculated this time has not been calculated last time, the
一方、ステップS108において、今回算出した代表点Pに対応する代表点が前回算出されていると判定した場合、演算ユニット31は、ステップS109に進み、自車両1の移動量及び代表点Pの変化量等に基づき、自車両1と立体物(代表点P)との相対速度、立体物(代表点P)の対地移動量、立体物(代表点P)の加速度等を演算した後、ステップS102に戻る。
On the other hand, if it is determined in step S108 that the representative point corresponding to the representative point P calculated this time has been calculated last time, the
ステップS102からステップS110に進むと、演算ユニット31は、今回、複数の代表点Pが算出されているか否かを調べる。
When proceeding from step S102 to step S110, the
そして、ステップS110において、複数の代表点Pが算出されていないと判定した場合、演算ユニット31は、そのままルーチンを抜ける。
Then, when it is determined in step S110 that a plurality of representative points P have not been calculated, the
一方、ステップS110において、複数の代表点Pが算出されていると判定した場合、演算ユニット31は、ステップS111に進み、今回検出されている各代表点Pをペアとする代表点組のパターンのうち、後述する一致判定を行っていない未処理の代表点組があるか否かを調べる。
On the other hand, if it is determined in step S110 that a plurality of representative points P have been calculated, the
そして、ステップS111において、未処理の代表点組がないと判定した場合、演算ユニット31は、そのままルーチンを抜ける。
Then, if it is determined in step S111 that there is no unprocessed representative point set, the
一方、ステップS111において、未処理の代表点組があると判定した場合、演算ユニット31は、未処理の代表点組の中から新たな1組の代表点組を抽出した後、ステップS113に進む。
On the other hand, if it is determined in step S111 that there is an unprocessed representative point set, the
ステップS112からステップS113に進むと、演算ユニット31は、代表点組を構成する2つの代表点Pの自車両1に対する各相対速度が一致するか否かを調べる。
When proceeding from step S112 to step S113, the
そして、ステップS113において、2つの代表点Pの各相対速度が一致しないと判定した場合、演算ユニット31は、2つの代表点Pに係る各立体物は異なる立体物である可能性が高いと判断して、ステップS111に戻る。
If it is determined in step S113 that the relative velocities of the two representative points P do not match, the
一方、ステップS113において、2つの代表点Pの各相対速度が一致すると判定した場合、演算ユニット31は、ステップS114に進み、2つの代表点Pの各移動量が一致するか否かを調べる。
On the other hand, if it is determined in step S113 that the relative velocities of the two representative points P match, the
そして、ステップS114において、2つの代表点Pの各移動量が一致しないと判定した場合、演算ユニット31は、2つの代表点Pに係る各立体物は異なる立体物である可能性が高いと判断して、ステップS111に戻る。
If it is determined in step S114 that the movement amounts of the two representative points P do not match, the
一方、ステップS114において、2つの代表点Pの各移動量が一致すると判定した場合、演算ユニット31は、ステップS115に進み、2つの代表点の加速度が一致するか否かを調べる。
On the other hand, if it is determined in step S114 that the movement amounts of the two representative points P match, the
そして、ステップS115において、2つの代表点Pの各加速度が一致しないと判定した場合、演算ユニット31は、2つの代表点に係る各立体物(レーダOBJ)は異なる立体物である可能性が高いと判断して、ステップS111に戻る。
Then, when it is determined in step S115 that the accelerations of the two representative points P do not match, the
一方、ステップS115において、2つの代表点Pの各加速度が一致すると判定した場合、演算ユニット31は、2つの代表点に係る各立体物は同一の立体物であると判断してステップS116に進み、2つの代表点Pを新たな代表点Pとして統合した後、ステップS111に戻る。
On the other hand, if it is determined in step S115 that the accelerations of the two representative points P match, the
なお、具体的な説明は省略するが、左後側方レーダ34lrを第1のレーダ手段、左前側方レーダ34lfを第2のレーダ手段とし、さらに、左後側方レーダ34lrの走査領域Alrを第1の走査領域、左前側方レーダ34lfの走査領域Alfを第2の走査領域とした場合等についても同様の処理を行うことが可能である。 Although a detailed description is omitted, the left rear side radar 34lr is the first radar means, the left front side radar 34lf is the second radar means, and the scanning area Alr of the left rear side radar 34lr is The same processing can be performed when the first scanning area and the scanning area Alf of the left front side radar 34lf are used as the second scanning area.
このような実施形態によれば、右後側方レーダ34rrの走査領域Arrと右前側方レーダ34rfの走査領域Arfとが重畳する重畳領域Asr内の一端側(先端側)に設定された第1の除外領域Ae1内に存在する反射点Rrrを除外すると共に、重畳領域Asr内の他端側(基端側)に設定された第2の除外領域Ae2内に存在する反射点Rrfを除外し、除外されていない反射点Rrr及び反射点Rrfに基づいて立体物(レーダオブジェクト)の代表点Pを算出することにより、2つのレーダの走査領域が重なる領域に存在する立体物についても精度良く検出することができる。 According to this embodiment, the first radar set on one end side (front end side) in the overlapping region Asr where the scanning region Arr of the right rear lateral radar 34rr and the scanning region Arf of the right front lateral radar 34rf overlap each other while excluding the reflection point Rrr existing within the exclusion area Ae1 of and excluding the reflection point Rrf existing within the second exclusion area Ae2 set on the other end side (base end side) of the overlapping area Asr, By calculating the representative point P of the three-dimensional object (radar object) based on the non-excluded reflection point Rrr and reflection point Rrf, the three-dimensional object present in the area where the two radar scanning areas overlap can also be accurately detected. be able to.
すなわち、走査領域Arrの端部領域に対応する第1の除外領域Ae1及び走査領域Arfの端部領域に対応する第2の除外領域Ae2が互いに重畳しない状態にて重畳領域Asr内に配置されるよう右後側方レーダ34rr及び右前側方レーダ34rfのセッティングを行い、第1の除外領域Ae1内の反射点Rrrを除外すると共に第2の除外領域Ae2内の反射点Rrfを除外することにより、重畳領域Asr内に立体物が存在する場合にも、反射点R(反射点Rrr及び反射点Rrf)の連続性を損なうことなく、信頼性の低い反射点Rを的確に除外することができる。従って、右後側方レーダ34rr及び右前側方レーダ34rfの走査領域Arr及び走査領域Arfの重畳領域Asr内に存在する立体物についても精度良く検出することができる。 That is, the first exclusion area Ae1 corresponding to the edge area of the scanning area Arr and the second exclusion area Ae2 corresponding to the edge area of the scanning area Arf are arranged in the overlapping area Asr without overlapping each other. By setting the right rear side radar 34rr and the right front side radar 34rf as follows to exclude the reflection point Rrr in the first exclusion area Ae1 and the reflection point Rrf in the second exclusion area Ae2, Even when a three-dimensional object exists within the superimposed region Asr, the reflection points R with low reliability can be accurately excluded without impairing the continuity of the reflection points R (reflection points Rrr and Rrf). Therefore, it is possible to accurately detect a three-dimensional object existing within the scanning area Arr of the right rear side radar 34rr and the right front side radar 34rf and the overlapping area Asr of the scanning area Arf.
この場合において、例えば、図7,8に示す乗用車等の立体物のみならず、図9,10に示す大型トレーラ等のように重畳領域Asrを横切る大型の立体物についても、反射点Rを連続的に精度良く検出することができるため、的確な認識を行うことができる。 In this case, for example, not only a three-dimensional object such as a passenger car shown in FIGS. 7 and 8 but also a large three-dimensional object such as a large trailer shown in FIGS. Therefore, accurate recognition can be performed.
一方、例えば、図11に示すようにキャリアカー等においては、荷台における骨格部分ではレーダを反射しづらく、反射可能範囲が車体の前後に分かれて存在するため、反射点群が分かれて形成される場合があるが(図12参照)、このような場合にも、個別に算出した立体物の代表点Pを統合することにより(統合後の代表点を図13中に「P’」として図示)、1つの立体物として的確な認識を行うことができる。 On the other hand, for example, as shown in FIG. 11, in a carrier car or the like, it is difficult for the frame portion of the carrier to reflect the radar, and since the reflective range exists separately in the front and rear of the vehicle body, the reflection point groups are formed separately. Although there are cases (see FIG. 12), even in such a case, by integrating the representative points P of the three-dimensional objects calculated individually (the representative points after integration are shown as “P′” in FIG. 13) , can be accurately recognized as one three-dimensional object.
この場合において、例えば、隣接車線等において、2台の車両のうちの後続車がオートクルーズ走行等によって先行車に追従走行している場合、自車両1と各代表点Pとの相対速度の比較、及び、各代表点Pの対地移動量の比較のみによる一致判定では、2つの代表点Pに係る立体物が同一の立体物であるか否かの判断が困難な場合があるが、各代表点Pの加速度の比較による一致判定を加えることにより、2つの代表点Pに係る立体物が同一の立体物であるか否かを的確に判断することができる。すなわち、後続車が先行車に追従走行している場合にも、後続車は先行車の挙動を待って応答するため、先行車と後続車とでは必ず加速度が変化するタイミング等にズレが生じることに着目し、各代表点Pの加速度の比較による一致判定を加えることにより、2つの代表点Pに係る立体物が同一の立体物であるか否かを的確に判断することができる。
In this case, for example, when the following vehicle of the two vehicles is following the preceding vehicle by auto-cruising or the like in an adjacent lane, the relative speeds of the
なお、本発明は、以上説明した各実施形態に限定されることなく、種々の変形や変更が可能であり、それらも本発明の技術的範囲内である。 The present invention is not limited to the embodiments described above, and various modifications and changes are possible, which are also within the technical scope of the present invention.
例えば、上述の実施形態においては、第1の除外領域と第2の除外領域が重畳領域を等分割するように各レーダの取付位置や走査角度等を設定した構成の一例について説明したが、本発明はこれに限定されるものではなく、例えば、用いるレーダの種類や車両状況、検知する対象等に応じて、重複領域内において第1,第2の除外領域が占める割合を不等に設定することも可能である。 For example, in the above-described embodiment, an example of a configuration in which the mounting positions and scanning angles of the respective radars are set so that the first exclusion area and the second exclusion area equally divide the overlapping area has been described. The invention is not limited to this. For example, the proportions of the first and second exclusion areas within the overlapping area are set unequal according to the type of radar used, vehicle conditions, objects to be detected, etc. is also possible.
1 … 車両(自車両)
2 … 車両用運転支援装置
11 … 運転支援制御ユニット
12 … エンジン制御ユニット
13 … パワーステアリング制御ユニット
14 … ブレーキ制御ユニット
15 … 車内通信回線
17 … スロットルアクチュエータ
18 … 電動パワステモータ
19 … ブレーキアクチュエータ
21 … 自動運転スイッチ
22 … 報知手段
30 … 車外環境認識装置
31 … 演算ユニット(第1の反射点除外手段、第2の反射点除外手段、代表点算出手段)
32 … 車載カメラ
32a … メインカメラ
32b … サブカメラ
33 … ナビゲーション装置
34lf … 左前側方レーダ
34lr … 左後側方レーダ
34rf … 右前側方レーダ(第2のレーダ手段)
34rr … 右後側方レーダ(第1のレーダ手段)
35 … 車速センサ
36 … ヨーレートセンサ
Ae1 … 第1の除外領域
Ae2 … 第2の除外領域
Alf … 走査領域
Alr … 走査領域
Arf … 走査領域
Arr … 走査領域
As(Asl,Asr) … 重畳領域
P … 代表点
R(Rlf,Rrf,Rlr,Rrr) … 反射点
1 … vehicle (own vehicle)
2 ... vehicle driving
32... In-
34rr ... right rear side radar (first radar means)
35...
Claims (2)
前記第1の走査領域の一端側の一部領域に対して他端側の一部領域が重畳するよう予め設定された第2の走査領域内において第2のレーダ波を水平方向に走査させ、前記第2のレーダ波が立体物で反射した第2の反射波を受信して前記立体物上の複数の第2の反射点を検出する第2のレーダ手段と、
前記第1の走査領域と前記第2の走査領域とが重畳する重畳領域内において、前記第1のレーダ手段による前記第1の走査領域のうち前記第1の反射点の検出精度が他の領域よりも低下する前記第1のレーダ波の走査方向の端部領域であって、且つ、前記第1の走査領域の前記一端側に設定された第1の除外領域内に存在する前記第1の反射点を除外する第1の反射点除外手段と、
前記重畳領域内において、前記第2のレーダ手段による前記第2の走査領域のうち前記第2の反射点の検出精度が他の領域よりも低下する前記第2のレーダ波の走査方向の端部領域であって、且つ、前記第2の走査領域の前記他端側に設定された第2の除外領域内に存在する前記第2の反射点を除外する第2の反射点除外手段と、
除外されていない複数の前記第1の反射点及び複数の前記第2の反射点に基づき、互いに近接する反射点列からなる反射点群を形成し、前記反射点群毎に前記立体物の代表点を算出する代表点算出手段と、を備えたことを特徴とする車外環境認識装置。 A preset first scanning area is horizontally scanned with a first radar wave, and a first reflected wave reflected by the three-dimensional object is received by the first radar wave. first radar means for detecting a first reflection point of
horizontally scanning a second radar wave in a second scanning region preset so that a partial region on the other end side overlaps a partial region on the one end side of the first scanning region; second radar means for receiving a second reflected wave of the second radar wave reflected by a three-dimensional object and detecting a plurality of second reflection points on the three-dimensional object;
In an overlapping area where the first scanning area and the second scanning area overlap, the detection accuracy of the first reflection point in the first scanning area by the first radar means is a different area. The first edge region in the scanning direction of the first radar wave that is lower than the a first reflection point exclusion means for excluding reflection points;
Within the superimposed area, an end portion in the scanning direction of the second radar wave where detection accuracy of the second reflection point in the second scanning area by the second radar means is lower than in other areas . a second reflection point exclusion means for excluding the second reflection points existing within a second exclusion area set on the other end side of the second scanning area;
Based on the plurality of the first reflection points and the plurality of the second reflection points that are not excluded , a reflection point group composed of a series of reflection points that are adjacent to each other is formed, and the three-dimensional object is formed for each of the reflection point groups . and a representative point calculation means for calculating a representative point of the vehicle exterior environment recognition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017195283A JP7152848B2 (en) | 2017-10-05 | 2017-10-05 | External environment recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017195283A JP7152848B2 (en) | 2017-10-05 | 2017-10-05 | External environment recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019066447A JP2019066447A (en) | 2019-04-25 |
JP7152848B2 true JP7152848B2 (en) | 2022-10-13 |
Family
ID=66340613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017195283A Active JP7152848B2 (en) | 2017-10-05 | 2017-10-05 | External environment recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7152848B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022057334A (en) | 2020-09-30 | 2022-04-11 | 株式会社Subaru | Moving object detection device for vehicle |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005257510A (en) | 2004-03-12 | 2005-09-22 | Alpine Electronics Inc | Another car detection device and method |
JP2005300353A (en) | 2004-04-12 | 2005-10-27 | Mitsubishi Electric Corp | Radar system |
JP2006058230A (en) | 2004-08-23 | 2006-03-02 | Mitsubishi Electric Corp | Radar system |
JP2015078925A (en) | 2013-10-17 | 2015-04-23 | 株式会社デンソー | Periphery monitoring device and periphery monitoring system |
JP2016114581A (en) | 2014-12-18 | 2016-06-23 | 株式会社東芝 | Radar system |
-
2017
- 2017-10-05 JP JP2017195283A patent/JP7152848B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005257510A (en) | 2004-03-12 | 2005-09-22 | Alpine Electronics Inc | Another car detection device and method |
JP2005300353A (en) | 2004-04-12 | 2005-10-27 | Mitsubishi Electric Corp | Radar system |
JP2006058230A (en) | 2004-08-23 | 2006-03-02 | Mitsubishi Electric Corp | Radar system |
JP2015078925A (en) | 2013-10-17 | 2015-04-23 | 株式会社デンソー | Periphery monitoring device and periphery monitoring system |
JP2016114581A (en) | 2014-12-18 | 2016-06-23 | 株式会社東芝 | Radar system |
Also Published As
Publication number | Publication date |
---|---|
JP2019066447A (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9074906B2 (en) | Road shape recognition device | |
CN108706009B (en) | Vehicle travel control system | |
JP6627153B2 (en) | Vehicle control device, vehicle control method, and program | |
JP5094658B2 (en) | Driving environment recognition device | |
US10643474B2 (en) | Vehicle control device, vehicle control method, and recording medium | |
US11634150B2 (en) | Display device | |
US20190146519A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN109466542B (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190283754A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6485915B2 (en) | Road lane marking recognition device, vehicle control device, road lane marking recognition method, and road lane marking recognition program | |
US20190283802A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11505193B2 (en) | Vehicle control apparatus, vehicle control method, and storage medium | |
US11009589B2 (en) | Vehicle exterior environment recognition apparatus | |
US11433888B2 (en) | Driving support system | |
JP2019096161A (en) | Vehicle controller, vehicle control method, and program | |
JP7152848B2 (en) | External environment recognition device | |
US20220309804A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11932283B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11760345B2 (en) | Vehicle traveling control apparatus | |
JP2020051943A (en) | Stereo camera device for vehicles | |
US11993202B2 (en) | Vehicle light distribution control apparatus | |
US11801838B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20240017662A1 (en) | Vehicle light distribution control apparatus | |
WO2023054655A1 (en) | Preceding vehicle determination system | |
US20220306150A1 (en) | Control device, control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200928 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7152848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |