JP7236279B2 - Driving support method and driving support device - Google Patents

Driving support method and driving support device Download PDF

Info

Publication number
JP7236279B2
JP7236279B2 JP2019013830A JP2019013830A JP7236279B2 JP 7236279 B2 JP7236279 B2 JP 7236279B2 JP 2019013830 A JP2019013830 A JP 2019013830A JP 2019013830 A JP2019013830 A JP 2019013830A JP 7236279 B2 JP7236279 B2 JP 7236279B2
Authority
JP
Japan
Prior art keywords
vehicle
sensor
obstacle
line segment
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019013830A
Other languages
Japanese (ja)
Other versions
JP2020121614A (en
Inventor
祐輝 田中
孝志 福重
智 田家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019013830A priority Critical patent/JP7236279B2/en
Publication of JP2020121614A publication Critical patent/JP2020121614A/en
Application granted granted Critical
Publication of JP7236279B2 publication Critical patent/JP7236279B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、走行支援方法及び走行支援装置に関する。 The present invention relates to a driving assistance method and a driving assistance device.

自車両の前方に障害物が存在する場合、自車両が走行路を走行できるか否かを判定する方法が知られている(特許文献1)。特許文献1に記載された発明は、走行路の境界を表わす検出点と障害物を表わす検出点とから、想定経路の形状を特徴付ける特徴点を抽出し、特徴点と想定経路との距離を算出し、算出した距離に基づいて自車両が走行路を走行できるか否かを判定する。 A method of determining whether or not a vehicle can travel on a road when an obstacle exists in front of the vehicle is known (Patent Document 1). The invention described in Patent Document 1 extracts feature points that characterize the shape of an assumed route from detection points representing boundaries of a travel path and detection points representing obstacles, and calculates the distance between the feature points and the assumed route. Then, based on the calculated distance, it is determined whether or not the vehicle can travel on the travel road.

特開2015-36842号公報JP 2015-36842 A

複数の想定経路が生成される場合、特許文献1に記載された発明は、想定経路と特徴点との距離を比較し、距離が最大となる想定経路を選択する。しかしながら、距離が最大となる想定経路が必ずしも効率のよい経路とはいえない。 When a plurality of assumed routes are generated, the invention described in Patent Literature 1 compares the distances between the assumed routes and feature points, and selects the assumed route with the maximum distance. However, the assumed route with the maximum distance is not necessarily the most efficient route.

本発明は、上記問題に鑑みて成されたものであり、その目的は、自車両の前方に障害物が存在する場合において、効率のよい経路を生成することができる走行支援方法及び走行支援装置を提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a driving assistance method and a driving assistance device capable of generating an efficient route when an obstacle exists in front of the own vehicle. is to provide

本発明の一態様に係る走行支援方法は、障害物を検出し、障害物を除いた走行可能領域を走路内に設定し、センサと走行可能領域の境界線上の点を結ぶ複数の線分を設定し、設定した複数の線分の中から、最も長い線分を選択し、選択した最も長い線分に対し、障害物がセンサから見て車両幅方向で左右のどちらに居るか分類し、分類した結果に基づいて、走行可能領域を再設定し、再設定された走行可能領域内に、車両の走行経路を生成する。 A driving support method according to an aspect of the present invention detects obstacles, sets a travelable area within a roadway excluding the obstacles, and creates a plurality of line segments connecting points on the borderline of the sensor and the travelable area. set, select the longest line segment from the set multiple line segments, classify whether the obstacle is on the left or right side of the selected longest line segment in the vehicle width direction as seen from the sensor, Based on the result of classification, the drivable area is reset, and a travel route for the vehicle is generated within the reset drivable area.

本発明によれば、自車両の前方に障害物が存在する場合において、効率のよい経路を生成することができる。 According to the present invention, an efficient route can be generated when an obstacle exists in front of the own vehicle.

図1は、本発明の実施形態に係る走行支援装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a driving support device according to an embodiment of the present invention. 図2は、本発明の実施形態に係る走行可能領域の一例を説明する図である。FIG. 2 is a diagram illustrating an example of a travelable area according to the embodiment of the invention. 図3は、本発明の実施形態に係る走行シーンの一例を説明する図である。FIG. 3 is a diagram illustrating an example of a driving scene according to the embodiment of the invention. 図4は、本発明の実施形態に係る障害物の分類方法の一例を説明する図である。FIG. 4 is a diagram illustrating an example of an obstacle classification method according to the embodiment of the present invention. 図5は、本発明の実施形態に係る障害物の分類方法の一例を説明する図である。FIG. 5 is a diagram illustrating an example of an obstacle classification method according to the embodiment of the present invention. 図6は、本発明の実施形態に係る走行可能領域の再設定方法の一例を説明する図である。FIG. 6 is a diagram illustrating an example of a method for resetting the travelable area according to the embodiment of the present invention. 図7は、本発明の実施形態に係る走行支援装置の一動作例を説明するフローチャートである。FIG. 7 is a flow chart illustrating an operation example of the driving support device according to the embodiment of the present invention. 図8は、本発明の他の実施形態に係る走行シーンの一例を説明する図である。FIG. 8 is a diagram illustrating an example of a driving scene according to another embodiment of the invention. 図9は、本発明の他の実施形態に係る走行可能領域の再設定方法の一例を説明する図である。FIG. 9 is a diagram illustrating an example of a method for resetting the travelable area according to another embodiment of the present invention. 図10は、本発明の実施形態に係る検出点の格納方法の一例を説明する図である。FIG. 10 is a diagram illustrating an example of a detection point storage method according to the embodiment of the present invention. 図11は、本発明の他の実施形態に係る走行シーンの一例を説明する図である。FIG. 11 is a diagram illustrating an example of a driving scene according to another embodiment of the invention. 図12は、本発明の他の実施形態に係る障害物の分類方法の一例を説明する図である。FIG. 12 is a diagram illustrating an example of an obstacle classification method according to another embodiment of the present invention. 図13は、本発明の他の実施形態に係る走行可能領域の再設定方法の一例を説明する図である。FIG. 13 is a diagram illustrating an example of a method for resetting the travelable area according to another embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.

(走行支援装置1の構成例)
図1を参照して、走行支援装置1の構成例を説明する。図1に示すように、走行支援装置1は、センサ10と、カメラ11と、GPS受信機12と、地図データベース13と、コントローラ20と、を備える。
(Configuration example of driving support device 1)
A configuration example of the driving support device 1 will be described with reference to FIG. 1 . As shown in FIG. 1, the driving support device 1 includes a sensor 10, a camera 11, a GPS receiver 12, a map database 13, and a controller 20.

走行支援装置1は、自動運転機能を有する車両に搭載されてもよく、自動運転機能を有しない車両に搭載されてもよい。また、走行支援装置1は、自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも何れかのアクチュエータが乗員の操作なしに制御されている状態を指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態を指す。 The driving support device 1 may be mounted in a vehicle having an automatic driving function, or may be mounted in a vehicle without an automatic driving function. Further, the driving support device 1 may be installed in a vehicle capable of switching between automatic driving and manual driving. Note that automatic driving in this embodiment refers to, for example, a state in which at least one of actuators such as a brake, an accelerator, and a steering is controlled without being operated by a passenger. Therefore, other actuators may be operated by the passenger's operation. Further, automatic operation may be a state in which any control such as acceleration/deceleration control or lateral position control is being executed. Further, manual driving in this embodiment refers to a state in which the driver is operating the brake, accelerator, and steering, for example.

センサ10は、自車両に搭載され、自車両の周囲の物体を検出する装置である。センサ10は、レーザレーダ、ミリ波レーダ、レーザレンジファインダ、ソナーなどを含む。センサ10は、自車両の周囲の物体として、他車両、バイク、自転車、歩行者を含む移動物体、及び、障害物、落下物、駐車車両を含む静止物体を検出する。また、センサ10は、移動物体及び静止物体の自車両に対する位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレートを検出する。また、センサ10は、車輪速センサ、操舵角センサ、及びジャイロセンサなどを含んでもよい。センサ10は、検出した情報をコントローラ20に出力する。 The sensor 10 is a device that is mounted on the own vehicle and detects objects around the own vehicle. The sensor 10 includes laser radar, millimeter wave radar, laser range finder, sonar, and the like. The sensor 10 detects moving objects including other vehicles, motorcycles, bicycles and pedestrians, and stationary objects including obstacles, falling objects and parked vehicles as objects around the own vehicle. The sensor 10 also detects the position, orientation (yaw angle), size, speed, acceleration, deceleration, and yaw rate of the moving and stationary objects with respect to the host vehicle. Also, the sensor 10 may include a wheel speed sensor, a steering angle sensor, a gyro sensor, and the like. The sensor 10 outputs detected information to the controller 20 .

カメラ11は、自車両に搭載され、自車両の周囲を撮影する。カメラ11は、CCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ11は、画像処理機能を有しており、撮像した画像(カメラ画像)から白線、道路境界線、道路端、物標などを検出する。物標とは、道路、歩道に設けられる物体であり、例えば信号機、電柱、交通標識などである。カメラ11は、撮像した画像、画像の解析結果などをコントローラ20に出力する。なお、カメラ11もセンサ10と同様に、自車両の周囲の障害物を検出できる。以下では、カメラ11は、センサ10に含まれるものとして説明する。 The camera 11 is mounted on the own vehicle and photographs the surroundings of the own vehicle. The camera 11 has an imaging device such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor). The camera 11 has an image processing function, and detects white lines, road boundaries, road edges, targets, etc. from captured images (camera images). A target is an object provided on a road or sidewalk, such as a traffic light, a utility pole, or a traffic sign. The camera 11 outputs captured images, image analysis results, and the like to the controller 20 . Note that the camera 11 can also detect obstacles around the own vehicle in the same manner as the sensor 10 . The camera 11 will be described below as being included in the sensor 10 .

GPS受信機12は、人工衛星からの電波を受信することにより、地上における自車両の位置(以下、自己位置と称する場合がある)を検出する。GPS受信機12は、検出した自車両の位置情報をコントローラ20に出力する。 The GPS receiver 12 detects the position of the vehicle on the ground (hereinafter sometimes referred to as self-position) by receiving radio waves from satellites. The GPS receiver 12 outputs the detected position information of the own vehicle to the controller 20 .

地図データベース13は、カーナビゲーション装置などに記憶されているデータベースであって、道路情報、施設情報など経路案内に必要となる各種データが記憶されている。また、地図データベース13には、道路の車線数、道路境界線、物標などの情報が記憶されている。地図データベース13は、コントローラ20の要求に応じて地図情報をコントローラ20に出力する。なお、道路情報、物標情報などの各種データは必ずしも地図データベース13から取得されるものに限定されず、センサ10により取得されてもよく、また車車間通信、路車間通信を用いて取得されてもよい。また、道路情報、物標情報などの各種データが外部に設置されたサーバに記憶されている場合、コントローラ20は、通信により随時これらのデータをサーバから取得してもよい。また、コントローラ20は、外部に設置されたサーバから定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。 The map database 13 is a database stored in a car navigation device or the like, and stores various data necessary for route guidance such as road information and facility information. The map database 13 also stores information such as the number of road lanes, road boundaries, and targets. The map database 13 outputs map information to the controller 20 in response to requests from the controller 20 . Various types of data such as road information and target information are not necessarily acquired from the map database 13, but may be acquired by the sensor 10, or may be acquired using vehicle-to-vehicle communication or road-to-vehicle communication. good too. In addition, when various data such as road information and target information are stored in a server installed outside, the controller 20 may acquire these data from the server at any time through communication. Further, the controller 20 may periodically acquire the latest map information from an externally installed server and update the map information it holds.

コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、走行支援装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、走行支援装置1が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって走行支援装置1が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路が個別のハードウェアにより構成されてもよい。コントローラ20は、複数の情報処理回路として、静止物体認識部21と、自己位置推定部22と、道路境界線取得部23と、走行可能領域設定部24と、遠方点設定部25と、左右分類部26と、走行可能領域再設定部27と、目標経路生成部28と、車両制御部29と、を備える。 The controller 20 is a general-purpose microcomputer having a CPU (Central Processing Unit), memory, and an input/output unit. A computer program is installed in the microcomputer to function as the driving support device 1 . By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in the driving assistance device 1 . Here, an example of realizing a plurality of information processing circuits provided in the driving support device 1 by software will be shown. It is also possible to construct a circuit. Also, a plurality of information processing circuits may be configured by individual hardware. The controller 20 includes a plurality of information processing circuits including a stationary object recognition unit 21, a self-position estimation unit 22, a road boundary line acquisition unit 23, a travelable area setting unit 24, a far point setting unit 25, and a left/right classification unit. , a travelable area resetting unit 27 , a target route generating unit 28 , and a vehicle control unit 29 .

静止物体認識部21は、センサ10から取得した情報に基づいて、車両周囲の物体を認識する。ここでいう物体とは、静止している物体(以下単に静止物体という)である。静止物体には、駐車車両、電柱、落下物などが含まれる。また、静止物体には、工事現場が含まれてもよい。 The stationary object recognition unit 21 recognizes objects around the vehicle based on information acquired from the sensor 10 . The object here is a stationary object (hereinafter simply referred to as a stationary object). Stationary objects include parked vehicles, utility poles, falling objects, and the like. Stationary objects may also include construction sites.

自己位置推定部22は、GPS受信機12から取得した情報に基づいて、地図上における自己位置を推定する。道路境界線取得部23は、地図データベース13、またはセンサ10から道路境界線を取得する。道路境界線とは、車道を区分する走行区分線であり、主に白線である。 The self-position estimation unit 22 estimates the self-position on the map based on the information acquired from the GPS receiver 12 . The road boundary acquisition unit 23 acquires road boundaries from the map database 13 or the sensor 10 . A road boundary line is a traffic division line that divides a roadway, and is mainly a white line.

走行可能領域設定部24は、車両が走行可能な走行可能領域を設定する。走行可能領域の詳細は後述する。遠方点設定部25は、走行可能領域内において、センサ10からの距離が最も遠い空間に仮想点を設定する。左右分類部26は、自車両の前方の障害物がセンサ10から見て左右のどちらに居るか分類する。 The travelable area setting unit 24 sets a travelable area in which the vehicle can travel. Details of the travelable area will be described later. The far point setting unit 25 sets a virtual point in a space that is farthest from the sensor 10 within the travelable area. The left/right classification unit 26 classifies whether the obstacle in front of the vehicle is on the left or right side as viewed from the sensor 10 .

走行可能領域再設定部27は、左右分類部26によって分類された結果に基づいて、走行可能領域を再設定する。目標経路生成部28は、走行可能領域再設定部27によって再設定された走行可能領域において、自車両の経路を生成する。車両制御部29は、目標経路生成部28によって設定された経路を通過するようにアクチュエータ40を制御する。なお、アクチュエータ40には、ブレーキアクチュエータ、アクセルアクチュエータ、ステアリングアクチュエータなどが含まれる。 The travelable area resetting unit 27 resets the travelable area based on the result of the classification by the left/right classifying unit 26 . The target route generator 28 generates a route for the host vehicle in the drivable area reset by the drivable area resetter 27 . The vehicle control unit 29 controls the actuator 40 so that the route set by the target route generation unit 28 is passed. The actuator 40 includes a brake actuator, an accelerator actuator, a steering actuator, and the like.

次に、図2を参照して、本実施形態における走行可能領域について説明する。図2に示すように、本実施形態における走行可能領域Rは、例えば車道上などの車両が走行可能な走路上の領域であって、自車両50を中心とした、所定の領域である。なお、走路とは車道や駐車場の走行路等の車両が走行可能な通路を意味するが、以下では車道を例に挙げて説明する。所定の領域は、センサ10の性能(分解能)によって、設定されてもよく、初期値が設定されていてもよい。本実施形態では、走行可能領域Rは、センサ10の性能によって設定されるものとして説明する。例えば、センサ10の検出距離が、200mである場合、自車両50を中心とした半径200mの円に含まれる車道が、走行可能領域Rとなる。なお、走行可能領域Rは円形に限定されず、自車両50を中心とした方形状でもよく、多角形状でもよい。図2に示す60は、走行可能領域Rを形成する境界線である。 Next, referring to FIG. 2, the travelable area in this embodiment will be described. As shown in FIG. 2, the drivable area R in this embodiment is an area on a road, such as a roadway, on which the vehicle can travel, and is a predetermined area centered on the vehicle 50 . The road means a passage on which a vehicle can travel, such as a roadway or a roadway in a parking lot. The predetermined area may be set according to the performance (resolution) of the sensor 10, or an initial value may be set. In this embodiment, it is assumed that the travelable region R is set according to the performance of the sensor 10 . For example, when the detection distance of the sensor 10 is 200 m, the roadway included in a circle with a radius of 200 m centered on the vehicle 50 is the travelable area R. Note that the travelable area R is not limited to a circular shape, and may be a square shape centered on the vehicle 50 or a polygonal shape. 60 shown in FIG. 2 is a boundary line forming the travelable area R. As shown in FIG.

次に、図3を参照して、本実施形態の走行シーンの一例について説明する。 Next, an example of a driving scene according to this embodiment will be described with reference to FIG.

図3に示すように、自車両50の前方に2つの障害物70、71が存在する。障害物には、落下物、駐車車両などが含まれる。本実施形態では障害物70は落下物であり、障害物71は駐車車両である。また、障害物70、71は、自車両50が走行する車道上にある物体である。 As shown in FIG. 3, two obstacles 70 and 71 exist in front of the host vehicle 50 . Obstacles include falling objects, parked vehicles, and the like. In this embodiment, the obstacle 70 is a falling object, and the obstacle 71 is a parked vehicle. Obstacles 70 and 71 are objects on the roadway on which the vehicle 50 travels.

図3に示すように障害物70は、車道の中央付近に存在し、障害物71は、車道端に存在する。より詳しくは、障害物70は、車道の中央に対し少し左側に存在する。換言すれば、障害物70から道路境界線90までの距離L1は、障害物70から道路境界線91までの距離L2より短い。また、距離L1、L2は、自車両50の車幅より長い。なお、図3における左右は、自車両50の進行方向を前方とした場合の左右と定義される。なお、以下の説明では左右とは、進行方向を前方とした場合の左右方向を意味する。 As shown in FIG. 3, an obstacle 70 exists near the center of the roadway, and an obstacle 71 exists at the edge of the roadway. More specifically, the obstacle 70 exists slightly to the left of the center of the roadway. In other words, the distance L1 from the obstacle 70 to the road boundary line 90 is shorter than the distance L2 from the obstacle 70 to the road boundary line 91 . Also, the distances L1 and L2 are longer than the vehicle width of the own vehicle 50 . Note that left and right in FIG. 3 are defined as left and right when the traveling direction of the own vehicle 50 is forward. In the following description, left and right mean left and right directions when the traveling direction is forward.

図3に示す走行シーンにおいて、自車両50が走行可能な経路は、2つある。一つは、障害物70の左側を通過する経路80である。もう一つは、障害物70の右側を通過し、その後、障害物70と障害物71との間を通過する経路81である。 In the driving scene shown in FIG. 3, there are two routes on which the vehicle 50 can travel. One is a route 80 that passes through the left side of the obstacle 70 . The other is path 81 that passes on the right side of obstacle 70 and then passes between obstacles 70 and 71 .

経路81は、経路80と比較して、走行距離が長く、かつステアリング操作量も多いため、効率が悪い。そこで、本実施形態に係る走行支援装置1は、障害物70、71が、最も長い線分(後述)に対し、センサ10から見て最も長い線分100に対して左右どちらに居るか分類し、効率の良い経路を生成する。詳細について、図4~図6を参照して説明する。 Route 81 is less efficient than route 80 because it has a longer travel distance and a larger amount of steering operation. Therefore, the driving support device 1 according to the present embodiment classifies whether the obstacles 70 and 71 are on the left or right side of the longest line segment 100 as seen from the sensor 10 with respect to the longest line segment (described later). , to generate efficient routes. Details will be described with reference to FIGS. 4 to 6. FIG.

なお、図4以降において、センサ10は、自車両50のフロント部分に搭載される。また、センサ10は、車両進行方向前方に向けて放射状に電波を射出して物体からの反射波を用いて物体の位置を検出する装置として説明する。 4 and subsequent drawings, the sensor 10 is mounted on the front portion of the own vehicle 50. FIG. Further, the sensor 10 will be described as a device that emits radio waves radially forward in the direction of travel of the vehicle and detects the position of an object using reflected waves from the object.

まず図4を参照して、最も長い線分の一例について説明する。図4に示すように、遠方点設定部25は、センサ10から走行可能領域Rの境界線60に向けて放射状に延びる複数の線分200を設定し、設定した複数の線分の中から、最も長い線分100を選択する。図4に示すように、複数の線分200には、障害物70の複数の検出点120~121とセンサ10とを結ぶ線分が含まれる。また、複数の線分200には、障害物71の複数の検出点122~125とセンサ10とを結ぶ線分が含まれる。また、図4に示すように、最も長い線分100とは、例えば、走行可能領域R内においてセンサ10から最も遠い最遠点110と、センサ10とを結ぶ線分である。最遠点110とは、物体の位置を示すものではなく、空間上に設定される仮想点である。遠方点設定部25は、走行可能領域R内において、センサ10からの距離が最も遠い空間に最遠点110を設定する。また、最も長い線分100は、障害物70、71に遮られない線分である。本実施形態においては、走行可能領域Rがセンサ10の検出距離に基づいて設定されているため、最も長い線分100の長さはセンサ10の検出距離と同一距離となる。なお、図4に示す例においては障害物71の左方の領域において走行可能領域R内に他の障害物が存在しないため、最遠点110はセンサ10からの距離が最も遠い空間に設定した点となっているが、最遠点110は障害物の検出点で有っても良い。すなわち、図4に示す例において、障害物71の左方の領域で且つ障害物71よりも遠方に他の障害物が存在する場合には、他の障害物の検出点が最遠点となる。なお、図4において、走行可能領域Rは、障害物70、71を除いた領域である。 First, an example of the longest line segment will be described with reference to FIG. As shown in FIG. 4, the far point setting unit 25 sets a plurality of line segments 200 radially extending from the sensor 10 toward the boundary line 60 of the travelable area R, and out of the set line segments, Select the longest line segment 100. As shown in FIG. 4 , the plurality of line segments 200 includes line segments connecting the plurality of detection points 120 to 121 of the obstacle 70 and the sensor 10 . The plurality of line segments 200 also include line segments connecting the plurality of detection points 122 to 125 of the obstacle 71 and the sensor 10 . Further, as shown in FIG. 4 , the longest line segment 100 is, for example, a line segment connecting the farthest point 110 farthest from the sensor 10 in the travelable region R and the sensor 10 . The farthest point 110 does not indicate the position of an object, but is a virtual point set in space. The far point setting unit 25 sets the farthest point 110 to a space that is farthest from the sensor 10 in the travelable area R. Also, the longest line segment 100 is a line segment that is not blocked by the obstacles 70 and 71 . In this embodiment, the travelable region R is set based on the detection distance of the sensor 10, so the length of the longest line segment 100 is the same distance as the detection distance of the sensor 10. FIG. In the example shown in FIG. 4, since there are no other obstacles within the travelable area R in the area to the left of the obstacle 71, the farthest point 110 is set in the space where the distance from the sensor 10 is the furthest. Although it is a point, the farthest point 110 may be an obstacle detection point. That is, in the example shown in FIG. 4, if another obstacle exists in the area to the left of the obstacle 71 and farther than the obstacle 71, the detected point of the other obstacle becomes the farthest point. . In addition, in FIG. 4, the travelable area R is an area excluding the obstacles 70 and 71 .

次に図5を参照して、障害物70、71の分類方法の一例について説明する。 Next, with reference to FIG. 5, an example method of classifying obstacles 70 and 71 will be described.

左右分類部26は、センサ10と障害物(検出点120~125)とを結んだ線分と、最も長い線分100とがなす角度の正負に基づいて、障害物がセンサ10から見て最も長い線分100に対して左右のどちらに居るか分類する。 The left/right classification unit 26 determines whether the obstacle is the closest to the sensor 10 based on the sign of the angle formed by the line segment connecting the sensor 10 and the obstacle (detection points 120 to 125) and the longest line segment 100. It is classified whether it is on the left or right with respect to the long line segment 100 .

最も長い線分100を基準として、時計回り方向の角度を正、反時計回り方向の角度を負と仮定する。そして、角度が正の場合、検出点はセンサ10から見て最も長い線分100に対して右に居ると仮定し、角度が負の場合、検出点はセンサ10から見て最も長い線分100に対して左に居ると仮定する。図5に示すように、センサ10と障害物70の検出点120を結んだ線分と、最も長い線分100とがなす角度θ1は、正である。また、センサ10と障害物70の検出点121を結んだ線分と、最も長い線分100とがなす角度θ3も、正である。この結果に基づいて、左右分類部26は、障害物70がセンサ10から見て最も長い線分100に対して右に居ると分類する。 With the longest line segment 100 as a reference, it is assumed that clockwise angles are positive and counterclockwise angles are negative. If the angle is positive, the detection point is assumed to be on the right of the longest line segment 100 as seen from the sensor 10. If the angle is negative, the detection point is assumed to be on the longest line segment 100 as seen from the sensor 10. Suppose you are on the left with respect to As shown in FIG. 5, the angle θ1 formed by the longest line segment 100 and the line segment connecting the sensor 10 and the detection point 120 of the obstacle 70 is positive. The angle θ3 formed by the longest line segment 100 and the line segment connecting the sensor 10 and the detection point 121 of the obstacle 70 is also positive. Based on this result, the left/right classification unit 26 classifies the obstacle 70 as being on the right side of the longest line segment 100 as viewed from the sensor 10 .

また、図5に示すように、センサ10と障害物71の検出点122を結んだ線分と、最も長い線分100とがなす角度θ2は、正である。また、センサ10と障害物71の検出点123を結んだ線分と、最も長い線分100とがなす角度θ4も、正である。同様に、センサ10と障害物71の検出点124を結んだ線分と、最も長い線分100とがなす角度θ5も、正である。同様に、センサ10と障害物71の検出点125を結んだ線分と、最も長い線分100とがなす角度θ6も、正である。この結果に基づいて、左右分類部26は、障害物70がセンサ10から見て最も長い線分100に対して右に居ると分類する。 Also, as shown in FIG. 5, the angle θ2 formed by the longest line segment 100 and the line segment connecting the sensor 10 and the detection point 122 of the obstacle 71 is positive. The angle θ4 formed by the longest line segment 100 and the line segment connecting the sensor 10 and the detection point 123 of the obstacle 71 is also positive. Similarly, the angle θ5 formed by the longest line segment 100 and the line segment connecting the sensor 10 and the detection point 124 of the obstacle 71 is also positive. Similarly, the angle θ6 formed by the longest line segment 100 and the line segment connecting the sensor 10 and the detection point 125 of the obstacle 71 is also positive. Based on this result, the left/right classification unit 26 classifies the obstacle 70 as being on the right side of the longest line segment 100 as viewed from the sensor 10 .

次に図6を参照して、左右に分類された障害物70、71を用いた走行可能領域の再設定方法の一例を説明する。障害物70、71は、センサ10から見て最も長い線分100に対して右に居ると分類されているため、障害物70、71を含む右側の領域を除いて走行可能領域が再設定される。すなわち、障害物70、71及び障害物70、71から右側は走行可能領域ではないと判定して、障害物70、71の左側に走行可能領域を設定する。 Next, with reference to FIG. 6, an example of a method of resetting the travelable area using obstacles 70 and 71 classified into left and right will be described. Since the obstacles 70 and 71 are classified as being on the right side of the longest line segment 100 as seen from the sensor 10, the travelable area is reset except for the area on the right side including the obstacles 70 and 71. be. That is, it is determined that the obstacles 70 and 71 and the right side of the obstacles 70 and 71 are not the travelable area, and the left side of the obstacles 70 and 71 is set as the travelable area.

図6に示すように走行可能領域再設定部27は、障害物70の検出点のうち、最も長い線分100との距離が最も短い検出点120と、車道を形成する道路境界線91とを結び、走行可能領域を再設定する。図6に示すR2は、再設定後の走行可能領域である。なお、図6に示す例では、走行可能領域再設定部27は、検出点120と検出点122も結んでいる。 As shown in FIG. 6, the travelable area resetting unit 27 selects a detection point 120 having the shortest distance from the longest line segment 100 among the detection points of the obstacle 70, and the road boundary line 91 forming the roadway. Tie and reset the drivable area. R2 shown in FIG. 6 is the travelable area after resetting. Note that in the example shown in FIG. 6 , the travelable area resetting unit 27 also connects the detection point 120 and the detection point 122 .

そして、図6に示すように、目標経路生成部28は、再設定された走行可能領域R2内に、自車両50の走行経路(経路80)を生成する。これにより、図3に示す経路81は生成されないため、効率の良い経路80のみが生成される。 Then, as shown in FIG. 6, the target route generator 28 generates a travel route (route 80) for the host vehicle 50 within the reset travelable region R2. As a result, since the route 81 shown in FIG. 3 is not generated, only the efficient route 80 is generated.

次に、図7のフローチャートを参照して、走行支援装置1の一動作例を説明する。 Next, an operation example of the driving support device 1 will be described with reference to the flowchart of FIG.

ステップS101において、自己位置推定部22は、GPS受信機12から取得した情報に基づいて、地図上における自己位置を推定する。処理はステップS103に進み、地図データベース13は、自車両50が走行する道路の構造を示す地図情報を取得する。道路境界線取得部23は、地図情報に基づいて道路境界線を取得する。なお、道路境界線は、センサ10によって取得されてもよい。 In step S<b>101 , the self-position estimation unit 22 estimates the self-position on the map based on the information acquired from the GPS receiver 12 . The process proceeds to step S103, and the map database 13 acquires map information indicating the structure of the road on which the vehicle 50 travels. The road boundary acquisition unit 23 acquires road boundaries based on the map information. Note that the road boundary line may be acquired by the sensor 10 .

処理はステップS105に進み、走行可能領域設定部24は、走行可能領域Rを設定する(図2参照)。処理はステップS107に進み、センサ10は、自車両50の前方の障害物70、71を検出する(図4参照)。 The process proceeds to step S105, and the travelable area setting unit 24 sets the travelable area R (see FIG. 2). The process proceeds to step S107, and the sensor 10 detects obstacles 70 and 71 in front of the host vehicle 50 (see FIG. 4).

処理はステップS109に進み、遠方点設定部25は、走行可能領域R内において、センサ10からの距離が最も遠い空間に最遠点110を設定する。また、遠方点設定部25は、センサ10から走行可能領域Rの境界線60に向けて放射状に延びる複数の線分200を設定し、設定した複数の線分の中から、最も長い線分100を選択する。最も長い線分100とは、最遠点110と、センサ10とを結ぶ線分である。処理は、ステップS111に進み、左右分類部26は、センサ10と障害物(検出点120~125)とを結んだ線分と、最も長い線分100とがなす角度の正負に基づいて、障害物がセンサ10から見て最も長い線分100に対して左右のどちらに居るか分類する(図5参照)。 The process proceeds to step S<b>109 , and the far point setting unit 25 sets the farthest point 110 in the space at which the distance from the sensor 10 is the furthest in the travelable area R. Further, the far point setting unit 25 sets a plurality of line segments 200 radially extending from the sensor 10 toward the boundary line 60 of the travelable area R, and selects the longest line segment 100 from among the plurality of set line segments. to select. The longest line segment 100 is a line segment connecting the farthest point 110 and the sensor 10 . The process proceeds to step S111, and the left/right classification unit 26 determines whether the angle between the line segment connecting the sensor 10 and the obstacle (detection points 120 to 125) and the longest line segment 100 is positive or negative. It is classified whether the object is on the left or right with respect to the longest line segment 100 as viewed from the sensor 10 (see FIG. 5).

処理はステップS113に進み、走行可能領域再設定部27は、障害物70の検出点のうち、最も長い線分100との距離が最も短い検出点120と、車道を形成する道路境界線91とを結び、走行可能領域を再設定する(図6参照)。処理はステップS115に進み、目標経路生成部28は、再設定された走行可能領域R2内に、自車両50の経路80を生成する(図6参照)。処理はステップS117に進み、車両制御部29は、目標経路生成部28によって設定された経路80を通過するようにアクチュエータ40を制御する。 The process proceeds to step S113, and the travelable area resetting unit 27 determines the detection point 120 having the shortest distance from the longest line segment 100 among the detection points of the obstacle 70, and the road boundary line 91 forming the roadway. to reset the travelable area (see FIG. 6). The process proceeds to step S115, and the target route generator 28 generates a route 80 for the own vehicle 50 within the reset travelable region R2 (see FIG. 6). The process proceeds to step S117, and the vehicle control unit 29 controls the actuator 40 so that the route 80 set by the target route generation unit 28 is passed.

以上説明したように、本実施形態に係る走行支援装置1によれば、以下の作用効果が得られる。 As described above, according to the driving support device 1 according to the present embodiment, the following effects are obtained.

自車両50が走行する走路上において、自車両50の前方に障害物(障害物70)が検出された場合、走行支援装置1は、センサ10と走行可能領域Rの境界線60上の点を結ぶ複数の線分200を設定し、設定した複数の線分の中から、最も長い線分100を選択する。走行支援装置1は、選択した最も長い線分100に対し、障害物がセンサ10から見て車両幅方向で最も長い線分100に対して左右のどちらに居るか分類し、分類した結果に基づいて、走行可能領域を再設定する。そして、走行支援装置1は、再設定した走行可能領域R2内に、自車両50の走行経路(経路80)を生成する。これにより、図3に示す経路81は生成されないため、効率の良い経路80のみが生成される。 When an obstacle (obstacle 70) is detected in front of the vehicle 50 on the road on which the vehicle 50 travels, the driving support device 1 detects a point on the boundary line 60 between the sensor 10 and the travelable area R. A plurality of connecting line segments 200 are set, and the longest line segment 100 is selected from among the set plurality of line segments. The driving support device 1 classifies the selected longest line segment 100 as to whether the obstacle is on the left or right side of the longest line segment 100 in the vehicle width direction as viewed from the sensor 10, and based on the classification result. to reset the drivable area. Then, the driving support device 1 generates a driving route (route 80) for the own vehicle 50 within the reset driving range R2. As a result, since the route 81 shown in FIG. 3 is not generated, only the efficient route 80 is generated.

また、走行支援装置1は、障害物の検出点のうち、最も長い線分100との距離が最も短い検出点(検出点120)と、車道を形成する道路境界線91とを結び、走行可能領域を再設定する。これにより、図6に示すように、障害物70を含む右側の領域を除いて走行可能領域が再設定される。 In addition, the driving support device 1 connects a detection point (detection point 120) having the shortest distance from the longest line segment 100 among the obstacle detection points to the road boundary line 91 forming the roadway, so that the vehicle can travel. Reconfigure the region. As a result, as shown in FIG. 6, the travelable area is reset except for the area on the right side including the obstacle 70 .

また、走行支援装置1は、センサ10と障害物(検出点120~125)とを結んだ線分と、最も長い線分100とがなす角度の正負に基づいて、障害物がセンサ10から見て最も長い線分100に対して左右のどちらに居るか分類する。これにより、2次元で表現される左右の位置が1次元の情報で分類されるため、左右を分類する時の処理負荷は低減する。 Further, the driving support device 1 determines whether the obstacle is visible from the sensor 10 based on the sign of the angle formed by the line segment connecting the sensor 10 and the obstacle (detection points 120 to 125) and the longest line segment 100. to classify whether it is on the left or right with respect to the longest line segment 100. As a result, the left and right positions expressed two-dimensionally are classified by one-dimensional information, so that the processing load when classifying the left and right is reduced.

上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。また、走行支援装置1は、コンピュータの機能を改善しうる。 Each function described in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processing devices, such as processing devices that include electrical circuitry. Processing circuitry also includes devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions. Also, the driving support device 1 can improve the function of the computer.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

本発明は、直線道路だけでなく、カーブに適用されてもよい。例えば、図8~9に示すように、1つの障害物70がカーブ上に存在する場合、自車両50が走行可能な経路は、2つある。一つは、障害物70の左側を通過する経路80である。もう一つは、障害物70の右側を通過する経路81である。経路81は、経路80と比較して、走行距離が長く、かつステアリング操作量も多いため、効率が悪い。そこで、走行支援装置1は、図4~6で説明した方法と同様の方法を用いて、図9に示すように、経路80のみを生成する。これにより、図8に示す経路81は生成されないため、効率の良い経路80のみが生成される。このように、本発明は、自車両50の前方に1つの障害物のみが存在する場合にも適用される。もちろん、図4~6で説明したように、本発明は、自車両50の前方に複数の障害物が存在する場合にも適用される。 The present invention may be applied to curves as well as straight roads. For example, as shown in FIGS. 8 and 9, when one obstacle 70 exists on a curve, there are two routes that the vehicle 50 can travel. One is a route 80 that passes through the left side of the obstacle 70 . The other is a path 81 passing through the right side of the obstacle 70 . Route 81 is less efficient than route 80 because it has a longer travel distance and a larger amount of steering operation. Therefore, the driving support device 1 generates only the route 80 as shown in FIG. 9 using a method similar to the method described with reference to FIGS. As a result, since the route 81 shown in FIG. 8 is not generated, only the efficient route 80 is generated. Thus, the present invention is applicable even when there is only one obstacle in front of the vehicle 50. FIG. Of course, as explained with reference to FIGS. 4 to 6, the present invention can also be applied when there are multiple obstacles in front of the vehicle 50. FIG.

上述したように、センサ10は、放射状に電波を射出して物体からの反射波を用いて物体の位置を検出する。図10に示すように、センサ10が複数の障害物を検出した場合、障害物の検出点の位置は、障害物の検出点が検出された順に記憶装置に格納されてもよい。図10に示すn+1番目に検出された障害物の検出点が、n番目に検出された検出点から見て右に居ると分類された場合、n+2番目に検出された障害物の検出点、n+3番目に検出された障害物の検出点、及びn+4番目に検出された障害物の検出点も自動的にn番目に検出された検出点から見て右に居ると分類される。なお、n+2番目に検出された障害物の検出点、n+3番目に検出された障害物の検出点、及びn+4番目に検出された障害物の検出点は、残りの障害物の検出点に相当する。このように検出点が検出された順番に対応して記憶装置に格納されることにより、障害物の位置が一括して分類されるため、左右を分類する時の処理負荷は低減する。すなわち、検出点が検出された順番を記憶装置に格納しておけば、最も長い線分100が決定された順番以降の順番で記憶された検出点は、自ずと最も長い線分100よりも右側に存在する検出点であると判定することかでき、左右を分類する時の処理負荷は低減する。 As described above, the sensor 10 radially emits radio waves and detects the position of the object using the reflected waves from the object. As shown in FIG. 10, when the sensor 10 detects a plurality of obstacles, the positions of the obstacle detection points may be stored in the storage device in the order in which the obstacle detection points are detected. If the detection point of the n+1th detected obstacle shown in FIG. The detection point of the th detected obstacle and the detection point of the (n+4)th detected obstacle are automatically classified as being on the right side of the nth detected detection point. The n+2th detected obstacle detection point, the n+3th detected obstacle detection point, and the n+4th detected obstacle detection point correspond to the remaining obstacle detection points. . By storing the detection points in the storage device in accordance with the order in which they are detected, the positions of the obstacles are collectively classified, thereby reducing the processing load when classifying the left and right. That is, if the order in which the detection points are detected is stored in the storage device, the detection points stored in the order after the order in which the longest line segment 100 was determined will naturally be to the right of the longest line segment 100. It can be determined that it is a detection point that exists, and the processing load when classifying left and right is reduced.

なお、障害物が左右に分類された結果、自車両50が通過できない経路が生成される可能性がある。例えば、図11に示す例では、自車両50の経路は、複数存在すると考えられる。一つは、障害物70の左側を通過する経路80である。もう一つは、障害物70の右側を通過する経路81である。図4~6で説明した方法によれば、図11に示す障害物70、71は、センサ10から見て最も長い線分100に対して右に居ると分類される。その結果、経路80が生成される。しかし、図11に示す距離L3が、自車両50の車幅より短い場合、自車両50は障害物70の左側を通過できない。このように分類した結果に基づく経路80が自車両50の車幅より短く、自車両50が通過不可である場合、走行支援装置1は、図12に示すように走行可能領域Rを小さくしてもよい。そして、走行支援装置1は、小さくした後の走行可能領域Rにおいて、図4~6で説明した方法を用いて再度、障害物70がセンサ10から見て最も長い線分100に対して左右どちらに居るか分類する。図12に示す例では、障害物70はセンサ10から見て、最も長い線分100に対して左に居ると分類される。この結果に基づいて、図13に示すように、走行支援装置1は、走行可能領域を再設定する。図13に示すR2は、再設定後の走行可能領域である。そして、図13に示すように、走行支援装置1は、再設定された走行可能領域R2内に、自車両50の走行経路(経路81)を設定する。これにより、自車両50が通過可能な経路が生成される。 As a result of the obstacles being classified into left and right, there is a possibility that a route through which the own vehicle 50 cannot pass is generated. For example, in the example shown in FIG. 11, it is considered that there are multiple routes for the own vehicle 50 . One is a route 80 that passes through the left side of the obstacle 70 . The other is a path 81 passing through the right side of the obstacle 70 . 4-6, the obstacles 70, 71 shown in FIG. 11 are classified as being to the right of the longest line segment 100 as seen from the sensor 10. In FIG. As a result, path 80 is generated. However, if distance L3 shown in FIG. If the route 80 based on the classification result is shorter than the vehicle width of the vehicle 50 and the vehicle 50 cannot pass through it, the driving support device 1 reduces the travelable area R as shown in FIG. good too. Then, in the reduced travelable region R, the driving support device 1 again uses the method described with reference to FIGS. classified as being in In the example shown in FIG. 12, the obstacle 70 is classified as being to the left of the longest line segment 100 as seen from the sensor 10 . Based on this result, as shown in FIG. 13, the driving support device 1 resets the travelable area. R2 shown in FIG. 13 is the travelable area after resetting. Then, as shown in FIG. 13, the driving support device 1 sets the driving route (route 81) for the own vehicle 50 within the reset possible driving region R2. Thereby, a route through which the own vehicle 50 can pass is generated.

1 走行支援装置
10 センサ
11 カメラ
12 受信機
13 地図データベース
20 コントローラ
21 静止物体認識部
22 自己位置推定部
23 道路境界線取得部
24 走行可能領域設定部
25 遠方点設定部
26 左右分類部
27 走行可能領域再設定部
28 目標経路生成部
29 車両制御部
40 アクチュエータ
1 Driving support device 10 Sensor 11 Camera 12 Receiver 13 Map database 20 Controller 21 Stationary object recognition unit 22 Self-position estimation unit 23 Road boundary line acquisition unit 24 Travelable area setting unit 25 Far point setting unit 26 Left/right classification unit 27 Travelable Region resetting unit 28 Target route generating unit 29 Vehicle control unit 40 Actuator

Claims (6)

車両に搭載され、前記車両の前方にある物体の位置を検出するセンサと、前記センサにより検出された物体の位置に基づいて前記車両の走行経路を設定するコントローラとを備える走行支援装置の走行支援方法であって、
前記センサを用いて検出した物体の位置から、前記車両が走行する走路上にある障害物を検出し、
前記障害物の位置に基づいて、前記車両が走行可能な、前記障害物を除いた走行可能領域を走路内に設定し、
前記センサと前記走行可能領域の境界線上の点を結ぶ複数の線分を設定し、設定した複数の線分の中から、最も長い線分を選択し、
選択した最も長い線分に対し、前記障害物が前記センサから見て車両幅方向で左右のどちらに居るか分類し、
分類した結果に基づいて、前記走行可能領域を再設定し、
再設定された走行可能領域内に、前記車両の走行経路を生成する
ことを特徴とする走行支援方法。
Driving assistance by a driving assistance device that is mounted on a vehicle and includes a sensor that detects the position of an object in front of the vehicle and a controller that sets a driving route for the vehicle based on the position of the object detected by the sensor. a method,
Detecting an obstacle on the track on which the vehicle travels from the position of the object detected using the sensor,
Based on the position of the obstacle, a drivable area in which the vehicle can travel, excluding the obstacle, is set within the track;
setting a plurality of line segments connecting points on the boundary line of the sensor and the travelable area, selecting the longest line segment from among the plurality of set line segments,
Classifying whether the obstacle is on the left or right in the vehicle width direction as viewed from the sensor with respect to the selected longest line segment,
resetting the drivable area based on the classified result;
A travel support method, comprising generating a travel route for the vehicle within the reset travelable area.
前記障害物の検出点のうち、前記最も長い線分との距離が最も短い検出点と、前記走路を形成する道路境界線とを結び、前記走行可能領域を再設定する
ことを特徴とする請求項1に記載の走行支援方法。
Among the detection points of the obstacle, a detection point having the shortest distance from the longest line segment is connected to a road boundary line forming the running path to reset the travelable area. Item 1. The driving support method according to item 1.
前記センサと前記障害物とを結んだ線分と、前記最も長い線分とがなす角度の正負に基づいて、前記障害物が前記センサから見て左右のどちらに居るか分類する
ことを特徴とする請求項1または2に記載の走行支援方法。
Based on the sign of the angle formed by the line segment connecting the sensor and the obstacle and the longest line segment, it is classified whether the obstacle is on the left or right side as viewed from the sensor. The driving support method according to claim 1 or 2.
前記センサは、放射状に電波を射出して物体からの反射波を用いて前記物体の位置を検出する装置であり、
前記センサが複数の障害物を検出した場合、前記障害物の位置を前記障害物を検出した順に格納し、
一つの障害物が前記センサから見て左右のどちらに居るか分類された結果に基づいて、残りの障害物を分類する
ことを特徴とする請求項1~3のいずれか1項に記載の走行支援方法。
The sensor is a device that emits radio waves radially and detects the position of the object using reflected waves from the object,
when the sensor detects a plurality of obstacles, storing the positions of the obstacles in the order in which the obstacles are detected;
The traveling according to any one of claims 1 to 3, characterized in that the remaining obstacles are classified based on the result of classification as to whether one obstacle is on the left or right side as viewed from the sensor. how to help.
前記走行可能領域内において、前記車両の走行経路が複数存在し、かつ前記分類した結果に基づく走行経路が前記車両の車幅より短く、前記車両が通過不可である場合、前記走行可能領域を小さくし、
小さくした後の走行可能領域において、再度、前記障害物が前記センサから見て左右のどちらに居るか分類し、
分類した結果に基づいて、前記障害物が含まれない走行可能領域を再設定し、
再設定された走行可能領域内に、前記車両の走行経路を設定する
ことを特徴とする請求項1~4のいずれか1項に記載の走行支援方法。
In the drivable area, if there are a plurality of drivable routes for the vehicle, and if the drivable route based on the result of the classification is shorter than the vehicle width of the vehicle and the vehicle cannot pass, the drivable region is reduced. death,
Classify again whether the obstacle is on the left or right side as viewed from the sensor in the travelable area after the reduction,
resetting a travelable area that does not include the obstacle based on the classification result;
The driving support method according to any one of claims 1 to 4, wherein the driving route of the vehicle is set within the reset driving range.
車両に搭載され、前記車両の前方にある物体の位置を検出するセンサと、
前記センサにより検出された物体の位置に基づいて前記車両の走行経路を設定するコントローラとを備え、
前記コントローラは、
前記センサを用いて検出した物体の位置から、前記車両が走行する走路上にある障害物を検出し、
前記障害物の位置に基づいて、前記車両が走行可能な、前記障害物を除いた走行可能領域を走路内に設定し、
前記センサと前記走行可能領域の境界線上の点を結ぶ複数の線分を設定し、設定した複数の線分の中から、最も長い線分を選択し、
選択した最も長い線分に対し、前記障害物が前記センサから見て車両幅方向で左右のどちらに居るか分類し、
分類した結果に基づいて、前記走行可能領域を再設定し、
再設定された走行可能領域内に、前記車両の走行経路を生成する
ことを特徴とする走行支援装置。
a sensor mounted on a vehicle for detecting the position of an object in front of the vehicle;
a controller that sets a travel route of the vehicle based on the position of the object detected by the sensor;
The controller is
Detecting an obstacle on the track on which the vehicle travels from the position of the object detected using the sensor,
Based on the position of the obstacle, a drivable area in which the vehicle can travel, excluding the obstacle, is set within the track;
setting a plurality of line segments connecting points on the boundary line of the sensor and the travelable area, selecting the longest line segment from among the plurality of set line segments,
Classifying whether the obstacle is on the left or right in the vehicle width direction as viewed from the sensor with respect to the selected longest line segment,
resetting the drivable area based on the classified result;
A travel support device, wherein a travel route for the vehicle is generated within the reset travelable area.
JP2019013830A 2019-01-30 2019-01-30 Driving support method and driving support device Active JP7236279B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019013830A JP7236279B2 (en) 2019-01-30 2019-01-30 Driving support method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019013830A JP7236279B2 (en) 2019-01-30 2019-01-30 Driving support method and driving support device

Publications (2)

Publication Number Publication Date
JP2020121614A JP2020121614A (en) 2020-08-13
JP7236279B2 true JP7236279B2 (en) 2023-03-09

Family

ID=71991938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013830A Active JP7236279B2 (en) 2019-01-30 2019-01-30 Driving support method and driving support device

Country Status (1)

Country Link
JP (1) JP7236279B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118909A (en) 2010-12-03 2012-06-21 Nissan Motor Co Ltd Travel support device
WO2013051081A1 (en) 2011-10-03 2013-04-11 トヨタ自動車株式会社 Vehicle driving support system
JP2013186767A (en) 2012-03-09 2013-09-19 Hitachi Ltd Warning device for vehicle
JP2015036842A (en) 2013-08-12 2015-02-23 株式会社日本自動車部品総合研究所 Traveling propriety determination device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101417659B1 (en) * 2013-07-11 2014-07-09 현대자동차주식회사 Apparatus for detecting narrow road on the front of vehicle and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118909A (en) 2010-12-03 2012-06-21 Nissan Motor Co Ltd Travel support device
WO2013051081A1 (en) 2011-10-03 2013-04-11 トヨタ自動車株式会社 Vehicle driving support system
JP2013186767A (en) 2012-03-09 2013-09-19 Hitachi Ltd Warning device for vehicle
JP2015036842A (en) 2013-08-12 2015-02-23 株式会社日本自動車部品総合研究所 Traveling propriety determination device

Also Published As

Publication number Publication date
JP2020121614A (en) 2020-08-13

Similar Documents

Publication Publication Date Title
US9990548B2 (en) Traffic signal analysis system
KR102137933B1 (en) Method for controlling cornering of vehicle and apparatus thereof
CN109426263B (en) Vehicle control device, vehicle control method, and storage medium
US11247692B2 (en) Prediction device, prediction method, and storage medium
JP6269552B2 (en) Vehicle travel control device
JP6676196B2 (en) Vehicle control system, vehicle control method, and vehicle control program
WO2021070451A1 (en) Vehicle control device, vehicle control method, autonomous driving device, and autonomous driving method
JPWO2018235159A1 (en) Route prediction apparatus and route prediction method
JP7059786B2 (en) Out-of-vehicle notification device
US10803307B2 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
JP6669640B2 (en) Trajectory evaluation device, trajectory evaluation method, and trajectory evaluation program
JP7334795B2 (en) Vehicle control method and vehicle control device
CN112513955A (en) Travel track generation method and travel track generation device
CN113247017B (en) Double buffer system for ensuring stable detour of an autonomous vehicle
EP3912877B1 (en) Driving assistance method and driving assistance device
JPWO2018211645A1 (en) Driving support method and driving support device
JP6721054B2 (en) Vehicle protrusion determination method and vehicle protrusion determination device
EP4140848A2 (en) Planning under prediction with confidence region for an autonomous driving vehicle
WO2016170683A1 (en) Travel control device and data structure
JP2020129331A (en) Reverse run determination system, reverse run determination method, and reverse run determination program
JP7236279B2 (en) Driving support method and driving support device
JP7334107B2 (en) Vehicle control method and vehicle control device
JP2019045985A (en) Vehicle control device, vehicle, vehicle control method, and program
JP7336861B2 (en) Behavior prediction method and behavior prediction device
JP7458743B2 (en) Vehicle control method and vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150