JP2018084987A - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP2018084987A
JP2018084987A JP2016228088A JP2016228088A JP2018084987A JP 2018084987 A JP2018084987 A JP 2018084987A JP 2016228088 A JP2016228088 A JP 2016228088A JP 2016228088 A JP2016228088 A JP 2016228088A JP 2018084987 A JP2018084987 A JP 2018084987A
Authority
JP
Japan
Prior art keywords
lane
area
effective
road
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016228088A
Other languages
Japanese (ja)
Other versions
JP6690510B2 (en
Inventor
雅道 大杉
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016228088A priority Critical patent/JP6690510B2/en
Publication of JP2018084987A publication Critical patent/JP2018084987A/en
Application granted granted Critical
Publication of JP6690510B2 publication Critical patent/JP6690510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device capable of inhibiting a target of roadside object from being misdetected as a target in a lane such as a preceding vehicle.SOLUTION: An object recognition device is configured to: obtain target information on objects existing in the vicinity of an own vehicle, lane boundary line information on the position and shape of the lane boundary line of the road on which the own vehicle travels, and road shoulder information on the width of the road shoulder area in which the own vehicle travels; set an effective lane area inside the road shoulder side lane boundary line separating an adjacent lane adjacent to the road shoulder area from the road shoulder area on the basis of the lane boundary line information and the road shoulder information; determine whether or not an object specified in a target frame is an object located within the adjacent lane on the basis of the overlapping degree of the target frame included in the target information and the effective lane area; and set the effective lane area such that a margin from the road shoulder side lane boundary line to the effective lane area is narrowed as the width of the road shoulder area increases, and that the margin from the road shoulder side lane boundary line to the effective lane area is widen as the width of the road shoulder area decreases.SELECTED DRAWING: Figure 8

Description

本発明は、自動運転システムに用いて好適な物体認識装置に関する。   The present invention relates to an object recognition apparatus suitable for use in an automatic driving system.

特許文献1には、自車両の進行路を車速及びヨーレートより推定し、推定した進行路上に先行車が存在している場合に、当該先行車は自車両と同じ車線を走行していると判断する方法が開示されている。   In Patent Document 1, when the traveling path of the host vehicle is estimated from the vehicle speed and the yaw rate, and a preceding vehicle exists on the estimated traveling path, it is determined that the preceding vehicle is traveling in the same lane as the host vehicle. A method is disclosed.

特開2008−176400号公報JP 2008-176400 A

路肩幅の狭い道路では、道路外の路側物を物標化したときの物標が車線内にはみ出す場合がある。このような場合、上記公報に記載技術では、路側物の物標を先行車等の車線内物標として誤検出するおそれがある。   On roads with a narrow shoulder width, there is a case where a target when a roadside object outside the road is converted into the lane. In such a case, in the technique described in the above publication, there is a possibility that a roadside target is erroneously detected as a lane target such as a preceding vehicle.

本発明は、上述のような課題に鑑みてなされたものであり、路側物の物標を先行車等の車線内物標として誤検出することを低減することができる物体認識装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an object recognition device capable of reducing erroneous detection of a roadside target as a lane target such as a preceding vehicle. With the goal.

上記の目的を達成するため、本発明に係る物体認識装置は、
自車両の周辺に存在する物体に関する物標情報を取得する物標情報取得手段と、
前記自車両が走行する道路の車線境界線の位置と形状とに関する車線境界線情報を取得する車線境界線情報取得手段と、
前記自車両が走行する道路の路肩領域の幅に関する路肩情報を取得する路肩情報取得手段と、
前記車線境界線情報と前記路肩情報とに基づいて、前記路肩領域に隣接する隣接車線と前記路肩領域とを区画する路肩側車線境界線の内側に、有効車線領域を設定する有効車線領域設定手段と、
前記物標情報に含まれる物標枠と前記有効車線領域との重なり具合に基づいて、前記物標枠で特定される物体が前記隣接車線内に位置する物体か或いは前記隣接車線外に位置する物体か判断する判断手段とを備え、
前記有効車線領域設定手段は、前記路肩領域の幅が広いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を小さくし、前記路肩領域の幅が狭いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を大きくするように前記有効車線領域を設定することを特徴とする。
In order to achieve the above object, an object recognition apparatus according to the present invention includes:
Target information acquisition means for acquiring target information related to an object existing around the host vehicle;
Lane boundary information acquisition means for acquiring lane boundary information regarding the position and shape of the lane boundary of the road on which the host vehicle travels;
Shoulder information acquisition means for acquiring shoulder information related to the width of the shoulder region of the road on which the host vehicle travels;
Based on the lane boundary information and the road shoulder information, effective lane area setting means for setting an effective lane area inside a roadside lane boundary line that divides the adjacent lane adjacent to the road shoulder area and the road shoulder area. When,
Based on the degree of overlap between the target frame included in the target information and the effective lane area, the object specified by the target frame is an object located in the adjacent lane or located outside the adjacent lane. A determination means for determining whether the object is an object,
The effective lane area setting means reduces the margin from the roadside lane boundary line to the effective lane area as the width of the roadside area increases, and decreases from the roadside lane boundary line as the width of the roadside area decreases. The effective lane region is set so as to increase a margin to the effective lane region.

本発明に係る物体認識装置によれば、路肩領域に隣接する隣接車線と路肩領域とを区画する路肩側車線境界線の内側に設定され路肩幅に応じて範囲を変更される有効車線領域と物標枠との重なり具合から、物標枠で特定される物体が隣接車線内の物体かどうかを判断するので、路肩幅の狭い道路において道路外の路側物を物標化したときの物標枠が車線内にはみ出したとしても、それを車線内のものとして誤検出することは抑えられる。   According to the object recognition device of the present invention, the effective lane region and the object that are set inside the roadside lane boundary line that divides the roadside region and the adjacent lane adjacent to the roadside region and whose range is changed according to the roadside width. Since it is judged whether the object specified in the target frame is an object in the adjacent lane from the overlap with the target frame, the target frame when the roadside object outside the road is targeted on a road with a narrow shoulder width Even if it protrudes into the lane, it can be prevented from erroneously detecting it as being in the lane.

実施の形態に係る自動運転システムの構成を示すブロック図である。1 is a block diagram showing a configuration of an automatic driving system according to an embodiment. 車線境界線情報取得部の機能について説明する図である。It is a figure explaining the function of a lane boundary line information acquisition part. 路肩情報取得部の機能について説明する図である。It is a figure explaining the function of a road shoulder information acquisition part. 有効車線領域設定部の機能について説明する図である。It is a figure explaining the function of an effective lane area setting part. 有効車線領域設定部の機能について説明する図である。It is a figure explaining the function of an effective lane area setting part. 車線内外判断部の機能について説明する図である。It is a figure explaining the function of a lane inside / outside determination part. 車線内外判断部の機能について説明する図である。It is a figure explaining the function of a lane inside / outside determination part. 実施の形態に係る物体認識処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object recognition process which concerns on embodiment. 従来の物体認識処理による認識結果を示す図である。It is a figure which shows the recognition result by the conventional object recognition process. 実施の形態に係る物体認識処理による認識結果を示す図である。It is a figure which shows the recognition result by the object recognition process which concerns on embodiment.

以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。   Embodiments of the present invention will be described below with reference to the drawings. However, in the embodiment shown below, when referring to the number of each element, quantity, quantity, range, etc., unless otherwise specified or clearly specified in principle, the reference However, the present invention is not limited to these numbers. Further, the structures described in the embodiments described below are not necessarily essential to the present invention unless otherwise specified or clearly specified in principle.

図1は、実施の形態に係る自動運転システムの構成を示す図である。自動運転システムは、それが搭載される車両の自動運転を実行する。自動運転システム1は、物体認識装置として機能する制御装置10と、自律認識センサであるライダー(LIDAR:Laser Imaging Detection and Ranging)2、レーダー3及びステレオカメラ4を備える。これらの自律認識センサは、直接、或いは、車両内に構築されたCAN(Controller Area Network)等の通信ネットワークを介して制御装置10に接続されている。制御装置10は、自律認識センサで得られた物体情報より、車両の略全周囲の状況を把握することができる。   FIG. 1 is a diagram illustrating a configuration of an automatic driving system according to an embodiment. The automatic driving system performs automatic driving of a vehicle on which the automatic driving system is mounted. The automatic driving system 1 includes a control device 10 that functions as an object recognition device, a lidar (LIDAR: Laser Imaging Detection and Ranging) 2 that is an autonomous recognition sensor, a radar 3, and a stereo camera 4. These autonomous recognition sensors are connected to the control device 10 directly or via a communication network such as a CAN (Controller Area Network) built in the vehicle. The control device 10 can grasp the situation of substantially the entire periphery of the vehicle from the object information obtained by the autonomous recognition sensor.

自動運転システム1は、さらに、GPS(Global Positioning System)受信機5、地図データベース6、ナビゲーションシステム7、HMI(Human Machine Interface)8及びアクチュエータ9を備える。GPS受信機5は、GPS衛星が発信する信号に基づいて自車両の位置を示す位置情報を取得する手段である。地図データベース6は、例えば、車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース6が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。ナビゲーションシステム7は、GPS受信機5によって測定された自車両の位置情報と地図データベース6の地図情報とに基づいて、自車両の走行するルートを算出し、算出したルートの情報をHMI8を介して運転者に伝達するとともに、制御装置10へ出力する。HMI8は、乗員と制御装置10との間で情報の出力及び入力をするためのインターフェイスである。アクチュエータ9は、制御装置10からの操作信号に応じて動作し、その動作によって車両の走行状態を変化させる装置である。アクチュエータ9は、例えば、駆動系、制動系、操舵系のそれぞれに設けられている。これら以外にも、例えば、車速センサや加速度センサ等の自車両の走行状態に関する情報を得るための内部センサが自動運転システム1には備えられる。   The automatic driving system 1 further includes a GPS (Global Positioning System) receiver 5, a map database 6, a navigation system 7, an HMI (Human Machine Interface) 8, and an actuator 9. The GPS receiver 5 is means for acquiring position information indicating the position of the host vehicle based on a signal transmitted from a GPS satellite. The map database 6 is formed in a storage such as an HDD or an SSD mounted on the vehicle, for example. The map information included in the map database 6 includes road position information, road shape information, intersection and branch point position information, road lane information, and the like. The navigation system 7 calculates the route traveled by the host vehicle based on the position information of the host vehicle measured by the GPS receiver 5 and the map information in the map database 6, and the calculated route information is transmitted via the HMI 8. While transmitting to a driver | operator, it outputs to the control apparatus 10. The HMI 8 is an interface for outputting and inputting information between the occupant and the control device 10. The actuator 9 is a device that operates according to an operation signal from the control device 10 and changes the traveling state of the vehicle by the operation. The actuator 9 is provided in each of a drive system, a braking system, and a steering system, for example. In addition to these, the automatic driving system 1 is provided with an internal sensor for obtaining information on the traveling state of the host vehicle, such as a vehicle speed sensor and an acceleration sensor.

制御装置10は、少なくとも1つのCPU、少なくとも1つのROM、少なくとも1つのRAMを有するECU(Electronic Control Unit)である。ROMには、自動運転のための各種のプログラムやマップを含む各種のデータが記憶されている。ROMに記憶されているプログラムがRAMにロードされ、CPUで実行されることで、制御装置10には様々な機能が実現される。なお、制御装置10は、複数のECUから構成されていてもよい。   The control device 10 is an ECU (Electronic Control Unit) having at least one CPU, at least one ROM, and at least one RAM. The ROM stores various types of data including various programs and maps for automatic operation. Various functions are realized in the control device 10 by loading a program stored in the ROM into the RAM and executing it by the CPU. In addition, the control apparatus 10 may be comprised from several ECU.

図1には、制御装置10が有する自動運転のための機能のうち、特に、物体認識に関係する機能がブロックで表現されている。制御装置10が有する自動運転のためのその他の機能についての図示は省略されている。   In FIG. 1, among the functions for automatic driving that the control device 10 has, in particular, functions related to object recognition are represented by blocks. The illustration of other functions for automatic operation of the control device 10 is omitted.

制御装置10は、自車両の周辺に存在する物体を認識し、車線内に位置する物体と車線外に位置する物体とを判別する機能を有する。この機能は、制御装置10が備える物標情報取得部11、車線境界線情報取得部12、路肩情報取得部13、有効車線領域設定部14、及び車線内外判断部15により実現される。ただし、これらの部11,12,13,14、15は、制御装置10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。   The control device 10 has a function of recognizing an object existing in the vicinity of the host vehicle and discriminating between an object located in the lane and an object located outside the lane. This function is realized by the target information acquisition unit 11, the lane boundary information acquisition unit 12, the road shoulder information acquisition unit 13, the effective lane area setting unit 14, and the lane inside / outside determination unit 15 included in the control device 10. However, these units 11, 12, 13, 14, and 15 do not exist as hardware in the control device 10, but are realized by software when a program stored in the ROM is executed by the CPU. .

物標情報取得部11は、自車両の周辺に存在する各立体物について、その位置と範囲に関する情報を取得する。詳しくは、物標情報取得部11は、まず、自車両周辺の立体物の測距データを自律認識センサより取得する。測距データには、測距点までの距離に関する情報、測距点の高さに関する情報、及び測距点の方向に関する情報が含まれる。物標情報取得部11は、ライダー2で得た情報を用いること、レーダー3で得た情報を用いること、ステレオカメラ4で得た情報を用いること、センサフュージョンによって複数種類の自律認識センサの情報を組み合わせて用いること、のうち少なくとも1つの方法による測距データの取得が可能である。   The target information acquisition unit 11 acquires information on the position and range of each three-dimensional object existing around the host vehicle. Specifically, the target information acquisition unit 11 first acquires distance measurement data of a three-dimensional object around the host vehicle from an autonomous recognition sensor. The distance measurement data includes information regarding the distance to the distance measurement point, information regarding the height of the distance measurement point, and information regarding the direction of the distance measurement point. The target information acquisition unit 11 uses information obtained by the rider 2, uses information obtained by the radar 3, uses information obtained by the stereo camera 4, and information on a plurality of types of autonomous recognition sensors by sensor fusion. The distance measurement data can be acquired by at least one of the above methods.

物標情報取得部11は、取得した測距データに基づき、各測距点の走行面内での位置を特定する。測距データを表現する座標系としては、自車両に座標系原点が置かれる直交座標系であるならば、任意の直交座標系が利用可能である。例えば、各時刻の自車両の後輪軸中心を座標系原点とし、自車両の後方向にX軸(縦軸)かつ前方を正、自車両の左右方向にY軸(横軸)かつ右方を正とする座標系を利用することができる。或いは、自車両の前端の左右中心を座標系原点とすることもできる。以下、測距データが表現される直交座標系を基準座標系という。   The target information acquisition unit 11 specifies the position of each ranging point in the traveling plane based on the acquired ranging data. As a coordinate system for expressing the distance measurement data, any orthogonal coordinate system can be used as long as it is an orthogonal coordinate system in which the origin of the coordinate system is placed on the host vehicle. For example, the center of the rear wheel axis of the vehicle at each time is the origin of the coordinate system, the X axis (vertical axis) and forward in the rear direction of the host vehicle, the Y axis (horizontal axis) and the right side in the left and right direction A positive coordinate system can be used. Alternatively, the left and right center of the front end of the host vehicle can be used as the coordinate system origin. Hereinafter, an orthogonal coordinate system in which ranging data is expressed is referred to as a reference coordinate system.

物標情報取得部11は、次に、取得した測距データをクラスタリングする。クラスタリングは、各測距点の位置と高さとに基づいて行われる。また、前回フレームでのクラスタリングの結果との連続性を保つように行われる。クラスタリングの具体的な方法には特に限定はなく、公知のクラスタリング方法を用いることができる。クラスタリングされた測距点群は、基準座標系において物標ごとに長方形の物標枠で囲まれる。基準座標系における物標枠の位置は物標の自車両に対する位置を示し、物標枠の範囲は自車両が位置する平面上での物標の範囲を示している。   The target information acquisition unit 11 then clusters the acquired distance measurement data. Clustering is performed based on the position and height of each ranging point. Further, it is performed so as to maintain continuity with the result of clustering in the previous frame. The specific method of clustering is not particularly limited, and a known clustering method can be used. The clustered distance measuring point group is surrounded by a rectangular target frame for each target in the reference coordinate system. The position of the target frame in the reference coordinate system indicates the position of the target relative to the host vehicle, and the range of the target frame indicates the range of the target on the plane where the host vehicle is located.

車線境界線情報取得部12は、自車両が走行する道路の車線境界線の位置と形状とに関する車線境界線情報を取得する。例えば、GPS受信機5の出力より推定した自車両の位置及び姿勢に基づいて、自車両の周辺の地図データが地図データベース6から検索される。地図データには、車線境界線を構成する点列の位置がGPS座標系で登録されている。車線境界線情報取得部12は、地図データから車線境界線を構成する点列の位置データを読み出し、読み出した位置データをGPS座標系から基準座標系へ座標変換する。図2に示すように、車線境界線を構成する点列が基準座標系で表現されることにより、自車両に対する各車線境界線の位置と各車線境界線の形状とが特定される。   The lane boundary information acquisition unit 12 acquires lane boundary information regarding the position and shape of the lane boundary of the road on which the host vehicle is traveling. For example, map data around the host vehicle is retrieved from the map database 6 based on the position and posture of the host vehicle estimated from the output of the GPS receiver 5. In the map data, the position of the point sequence constituting the lane boundary line is registered in the GPS coordinate system. The lane boundary information acquisition unit 12 reads the position data of the point sequence that constitutes the lane boundary from the map data, and performs coordinate conversion of the read position data from the GPS coordinate system to the reference coordinate system. As shown in FIG. 2, the position of each lane boundary line with respect to the host vehicle and the shape of each lane boundary line are specified by expressing the point sequence constituting the lane boundary line in the reference coordinate system.

路肩情報取得部13は、自車両が走行する道路の路肩領域の幅に関する路肩情報を取得する。路肩領域とは、車両が走行可能な道路領域の内と外とを区画する道路境界線と、道路境界線に最も近い路肩側車線境界線との間の領域を意味する。道路境界線は、左右2本存在する。図3に示す例では4本の線が描かれているが、最も左側の線が道路境界線であり、右側の3本の線は車線境界線である。車線境界線の一つ一つによって車線が区画されるので、図3では車線境界線は区画線と表記されている。隣接する2本の区画線で区画される帯状の領域が一つの車線である。路肩情報取得部13は、道路境界線の位置及び形状に関する情報と、道路境界線と対になる区画線、つまり、道路境界線に最も近い区間線(以下、路肩側区画線という)の位置及び形状に関する情報とを地図データベース6から取得する。路肩情報取得部13は、基準座標系の各縦位置において、道路境界線と路肩側区画線との横位置の差を算出する。この差が、その縦位置における路肩領域の幅、すなわち、路肩幅である。なお、図3には道路の左側にある路肩領域のみ描かれているが、路肩情報取得部13による路肩情報の取得は左右の路肩領域について行われる。   The shoulder information acquisition unit 13 acquires the shoulder information related to the width of the shoulder area of the road on which the host vehicle travels. The road shoulder region means a region between a road boundary line that divides the inside and outside of a road region where the vehicle can travel, and a road shoulder side lane boundary line that is closest to the road boundary line. There are two road boundaries on the left and right. In the example shown in FIG. 3, four lines are drawn, but the leftmost line is a road boundary line, and the right three lines are lane boundary lines. Since the lane is divided by each lane boundary line, the lane boundary line is indicated as a lane line in FIG. A belt-like area defined by two adjacent lane markings is one lane. The shoulder information acquisition unit 13 includes information on the position and shape of the road boundary line, the lane line that is paired with the road boundary line, that is, the position of the section line closest to the road boundary line (hereinafter referred to as the road shoulder side lane line) and Information on the shape is acquired from the map database 6. The shoulder information acquisition unit 13 calculates the difference in lateral position between the road boundary line and the roadside dividing line at each vertical position in the reference coordinate system. This difference is the width of the shoulder region in the vertical position, that is, the shoulder width. Although only the shoulder area on the left side of the road is illustrated in FIG. 3, the acquisition of the shoulder information by the shoulder information acquisition unit 13 is performed for the left and right shoulder areas.

有効車線領域設定部14には、車線境界線情報取得部12により取得された車線境界線情報と、路肩情報取得部13により取得された路肩情報とが入力される。有効車線領域設定部14は、車線境界線情報と路肩情報とに基づいて、路肩側区画線の内側に有効車線領域を設定する。有効車線領域とは、物標枠がその中に入っていれば、その物標枠に対応する物体は車線内に位置していると判断することができる領域である。有効車線領域の具体的な内容と、有効車線領域設定部14によるその設定方法については、図4を用いて説明することができる。   The lane boundary information acquired by the lane boundary information acquisition unit 12 and the road shoulder information acquired by the road shoulder information acquisition unit 13 are input to the effective lane area setting unit 14. The effective lane area setting unit 14 sets the effective lane area inside the roadside lane marking based on the lane boundary information and the roadside information. The effective lane region is a region where it can be determined that an object corresponding to the target frame is located in the lane if the target frame is included therein. The specific contents of the effective lane area and the setting method by the effective lane area setting unit 14 can be described with reference to FIG.

図4には、車線を構成する左区画線と右区画線の2本の区画線が描かれている。左右の区画線の位置と形状は車線境界線情報に含まれている。左区画線の外側には、道路に沿って路側物が設置されている。路側物は、具体的には壁やガードレールであり、その内側の面が道路境界線となる。ゆえに、左区画線から道路境界線である路側物までの領域が路肩領域である。路肩側区画線である左区画線から路側物までの距離、すなわち、路肩幅は路肩情報に含まれている。   In FIG. 4, two lane markings, that is, a left lane marking and a right lane marking that constitute a lane, are drawn. The positions and shapes of the left and right lane markings are included in the lane boundary information. Outside the left lane line, roadside objects are installed along the road. The roadside object is specifically a wall or a guardrail, and its inner surface serves as a road boundary line. Therefore, the area from the left lane marking to the roadside that is the road boundary is the road shoulder area. The distance from the left lane line, which is the roadside line, to the roadside object, that is, the road width is included in the roadside information.

有効車線領域設定部14は、左区画線と右区画線の位置と形状とに基づいて、車線中心線の位置と形状とを計算する。そして、車線中心線より左区画線に向かって左側有効車線幅を設定し、車線中心線より右区画線に向かって右側有効車線幅を設定する。左側有効車線幅と右側有効車線幅は、基準座標系の縦位置ごとに設定される。また、左側有効車線幅と右側有効車線幅とで個別に設定が行われる。左側有効車線幅と右側有効車線幅とに収まる領域が、上述の有効車線領域である。   The effective lane area setting unit 14 calculates the position and shape of the lane center line based on the position and shape of the left lane line and the right lane line. Then, the left effective lane width is set from the lane center line toward the left lane line, and the right effective lane width is set from the lane center line toward the right lane line. The left effective lane width and the right effective lane width are set for each vertical position of the reference coordinate system. The left effective lane width and the right effective lane width are individually set. The region that falls within the left effective lane width and the right effective lane width is the above-described effective lane region.

有効車線領域設定部14は、左区画線に路肩領域が接する場合、基準座標系の縦位置ごとの路肩領域の路肩幅を路肩情報から取得し、縦位置ごとに路肩幅に応じて左側有効車線幅の設定値を決定する。詳しくは、左区画線に路肩領域が接する場合、路肩幅が広い位置では、左側有効車線幅の設定値を大きくし、路肩幅が狭い位置では、左側有効車線幅の設定値を小さくする。また、有効車線領域設定部14は、右区画線に路肩領域が接する場合、基準座標系の縦位置ごとの路肩領域の路肩幅を路肩情報から取得し、縦位置ごとに路肩幅に応じて右側有効車線幅の設定値を決定する。詳しくは、右区画線に路肩領域が接する場合、路肩幅が広い位置では、右側有効車線幅の設定値を大きくし、路肩幅が狭い位置では、右側有効車線幅の設定値を小さくする。なお、左側有効車線幅と右側有効車線幅のそれぞれの最大値は、左区画線から右区画線までの距離、すなわち、車線幅の半分である。   The effective lane area setting unit 14 obtains the shoulder width of the shoulder area for each vertical position of the reference coordinate system from the road shoulder information when the road area touches the left lane line, and the left effective lane according to the shoulder width for each vertical position. Determine the width setting. Specifically, when the road shoulder region is in contact with the left lane, the left effective lane width setting value is increased at a position where the shoulder width is wide, and the left effective lane width setting value is decreased at a position where the road shoulder width is narrow. The effective lane region setting unit 14 obtains the shoulder width of the shoulder region for each vertical position of the reference coordinate system from the road shoulder information when the road shoulder region is in contact with the right lane marking, and the right lane region according to the shoulder width for each vertical position. Determine the effective lane width setting. Specifically, when the road shoulder region is in contact with the right lane, the right effective lane width setting value is increased at a position where the shoulder width is wide, and the right effective lane width setting value is decreased at a position where the road shoulder width is narrow. The maximum value of the left effective lane width and the right effective lane width is the distance from the left lane line to the right lane line, that is, half the lane width.

図4に示す例では、左区画線には路肩領域が接しているが、右区画線には路肩領域が接していない(つまり、左区画線と右区画線とで区画される車線は、左側の路肩領域に隣接する隣接車線であるが、右側の路肩領域(図示しない)に隣接する隣接車線ではない。)このような場合、右側有効車線幅は最大値である車線幅の半分に固定される一方、左側有効車線幅のみ路肩幅に応じた幅に変更される。つまり、路肩幅が広いほど左区画線から有効車線領域までの余裕代を小さくし、路肩幅が狭いほど左区画線から有効車線領域までの余裕代を大きくすることが行われる。この余裕代は、路側物を物標化した場合に、路側物に対応する物標枠が車線内にはみ出すことを想定して設けられたものである。路肩領域に接する区画線(路肩側車線境界線)と有効車線領域との間に余裕代を設けることで、路側物に対応する物標枠が区画線を超えて車線の中に入ってきたとしても、その物標枠を車線内に位置する物体のものと誤判断してしまうことを防ぐことができる。   In the example shown in FIG. 4, the road area is in contact with the left lane line, but the road area is not in contact with the right lane line (that is, the lane divided by the left lane line and the right lane line is on the left side) (In this case, it is not an adjacent lane adjacent to the right shoulder area (not shown).) In such a case, the right effective lane width is fixed to half of the maximum lane width. On the other hand, only the left side effective lane width is changed to a width according to the shoulder width. That is, the allowance from the left lane line to the effective lane region is reduced as the road width is wide, and the allowance from the left lane line to the effective lane region is increased as the road width is narrow. This margin is provided on the assumption that when a roadside object is converted into a target, the target frame corresponding to the roadside object protrudes into the lane. By providing a margin between the lane line (shoulder-side lane boundary line) in contact with the shoulder area and the effective lane area, the target frame corresponding to the roadside object has entered the lane beyond the lane line. However, it is possible to prevent the target frame from being erroneously determined as that of an object located in the lane.

路側物に対応する物標枠が区画線を超えて車線の中に入ってくる侵入量は、路側物と車線との距離、すなわち、路肩幅が狭いほど大きくなる。逆に、路肩幅が広く路側物が車線から大きく離れていれば、路側物に対応する物標枠が区画線を超えて車線内に侵入する可能性は低い。ゆえに、有効車線領域設定部14は、路肩幅が広いほど有効車線幅の設定値を大きくすることで余裕代を小さくし、路肩幅が狭いほど有効車線幅の設定値を小さくすることで余裕代を大きくしている。なお、余裕代の最小値はゼロであり、最大値は車両半台分から車両1台分の幅である。余裕代の最大値をこのように限定している理由は、車両が路肩の近くを走行している場合に、その車両を車線外に位置する物体と誤判断することを防ぐためである。   The amount of intrusion that the target frame corresponding to the roadside object enters the lane beyond the lane line increases as the distance between the roadside object and the lane, that is, the shoulder width becomes narrower. Conversely, if the roadside width is wide and the roadside object is far away from the lane, the target frame corresponding to the roadside object is unlikely to enter the lane beyond the lane line. Therefore, the effective lane area setting unit 14 reduces the margin by increasing the setting value of the effective lane width as the shoulder width increases, and reduces the margin by decreasing the setting value of the effective lane width as the shoulder width decreases. Has increased. Note that the minimum value of the margin is zero, and the maximum value is the width of one vehicle to one vehicle. The reason that the maximum value of the margin is limited in this way is to prevent the vehicle from being erroneously determined as an object located outside the lane when the vehicle is traveling near the shoulder.

有効車線領域設定部14による有効車線幅の設定値の具体的な計算方法には限定はない。例えば、隣接する路肩領域の路肩幅が狭くなるにつれて有効車線幅の設定値も線型的に小さくなるように、路肩情報より得られる路肩幅から有効車線幅の設定値を一次式で計算してもよい。また、隣接する路肩領域の路肩幅が同じでも、道路の曲率が大きい(つまり、道路半径が小さい)ほど、路側物の物標枠は車線内にはみ出しやすい。例えば、図5に示す例では、直線部にある路側物1の物標枠1は車線内にはみ出していないが、湾曲部にある路側物2の物標枠2は車線内にはみ出している。よって、路肩幅が小さいほど、且つ、曲率が大きいほど、有効車線幅の設定値を小さくしてもよい。   There is no limitation in the specific calculation method of the setting value of the effective lane width by the effective lane area setting unit 14. For example, even if the setting value of the effective lane width is calculated by a linear expression from the shoulder width obtained from the shoulder information so that the setting value of the effective lane width also decreases linearly as the shoulder width of the adjacent shoulder area decreases. Good. In addition, even if the shoulder width of the adjacent shoulder region is the same, the target frame of the roadside object tends to protrude into the lane as the road curvature increases (that is, the road radius decreases). For example, in the example shown in FIG. 5, the target frame 1 of the roadside object 1 in the straight portion does not protrude into the lane, but the target frame 2 of the roadside object 2 in the curved portion protrudes into the lane. Therefore, the set value of the effective lane width may be decreased as the road shoulder width is smaller and the curvature is larger.

車線内外判断部15には、物標情報取得部11で取得された物標情報と、有効車線領域設定部14で設定された有効車線領域に関する情報とが入力される。車線内外判断部15は、物標情報に含まれる物標枠と有効車線領域との重なり具合に基づいて、物標枠で特定される物体が車線内に位置する物体か或いは車線外に位置する物体か判断する。その具体的な判断方法については、図6及び図7を用いて説明することができる。   The target information acquired by the target information acquisition unit 11 and the information related to the effective lane region set by the effective lane region setting unit 14 are input to the lane inside / outside determination unit 15. The lane inside / outside determination unit 15 is based on the degree of overlap between the target frame included in the target information and the effective lane area, and the object specified by the target frame is an object located in the lane or located outside the lane. Determine if it is an object. The specific determination method can be described with reference to FIGS.

図6には、有効車線領域を示す左側有効車線幅及び右側有効車線幅と、先行する他車両の物標枠とが基準座標系で描かれている。図6に描かれている4つの黒丸は、物標枠の四隅を示す点である。また、図6に描かれている4つの白丸は、車線中心線を構成する点列の一部を示している。車線内外判断部15は、物標枠に対応する物体が車線内に位置するか車線外に位置するかを次の手順で判断する。
(1)物標枠の4つの隅点のそれぞれについて、それらを挟み込む車線中心線上の点対を隅点のX座標に基づいて特定する。
(2)特定した車線中心線上の点対の縦位置に対応する左右の有効車線幅を読み出す。
(3)物標枠の4つの隅点のそれぞれについて、対応する車線中心線上の点対を結ぶ線分との垂直距離を計算する。垂直距離とは、詳しくは、図7に例示する垂線の長さである。
(4)物標枠の4つの隅点のそれぞれについて、垂直距離が有効車線幅(図7に示す例では左側有効車線幅)よりも小さいという条件が満たされるかどうか判定する。この条件が満たされるならば、その隅点は車線内に位置していると判定する。
(5)物標枠の4つの隅点の少なくとも1つが車線内に位置していると判定された場合、当該物標枠に対応する物体は車線内に位置する物体であると判断する。
In FIG. 6, the left effective lane width and the right effective lane width indicating the effective lane area, and the target frame of the preceding other vehicle are drawn in the reference coordinate system. The four black circles drawn in FIG. 6 are points indicating the four corners of the target frame. Moreover, the four white circles drawn in FIG. 6 have shown a part of point sequence which comprises a lane centerline. The lane inside / outside determination unit 15 determines whether the object corresponding to the target frame is located in the lane or outside the lane according to the following procedure.
(1) For each of the four corner points of the target frame, a point pair on the lane center line sandwiching them is specified based on the X coordinate of the corner point.
(2) The left and right effective lane widths corresponding to the vertical positions of the point pairs on the specified lane center line are read.
(3) The vertical distance between each of the four corner points of the target frame and the line segment connecting the pair of points on the corresponding lane center line is calculated. Specifically, the vertical distance is the length of the perpendicular illustrated in FIG.
(4) For each of the four corner points of the target frame, it is determined whether or not the condition that the vertical distance is smaller than the effective lane width (left effective lane width in the example shown in FIG. 7) is satisfied. If this condition is satisfied, it is determined that the corner point is located in the lane.
(5) When it is determined that at least one of the four corner points of the target frame is located in the lane, it is determined that the object corresponding to the target frame is an object located in the lane.

自車両の周辺で検出された物標枠が複数ある場合、車線内外判断部15は、それぞれの物標枠に対して上記の手順で判断処理を行う。なお、上記の手順は次のように変更してもよい。例えば、第1の変更例として、物標枠の4つの隅点のうち、所定値以上の個数の隅点、或いは、所定割合以上の隅点が車線内に位置していると判定された場合、当該物標枠に対応する物体は車線内に位置する物体であると判断してもよい。第2の変更例として、4つの隅点以外にも物標枠上の点を複数点とり、それら各点について車線内に位置しているかどうか判定し、所定値以上の個数の点、或いは、所定割合以上の点が車線内に位置していると判定された場合、当該物標枠に対応する物体は車線内に位置する物体であると判断してもよい。   When there are a plurality of target frames detected in the vicinity of the host vehicle, the lane inside / outside determination unit 15 performs the determination process on each target frame according to the above procedure. In addition, you may change said procedure as follows. For example, as a first modified example, when it is determined that, among the four corner points of the target frame, a number of corner points greater than or equal to a predetermined value, or a corner point greater than or equal to a predetermined ratio is located in the lane The object corresponding to the target frame may be determined to be an object located in the lane. As a second modification, in addition to the four corner points, a plurality of points on the target frame are taken, and it is determined whether or not each point is located in the lane, and a number of points greater than or equal to a predetermined value, or When it is determined that a point greater than or equal to a predetermined ratio is located in the lane, the object corresponding to the target frame may be determined to be an object located in the lane.

上記の各部11,12,13,14、15の機能により、制御装置10は物体認識装置として機能する。図8は、本実施の形態に係る物体認識処理の流れを示すフローチャートである。物体認識装置としての制御装置10は、このフローチャートに示す処理を所定の周期で繰り返し実施している。   The control device 10 functions as an object recognition device due to the functions of the above-described units 11, 12, 13, 14, and 15. FIG. 8 is a flowchart showing the flow of object recognition processing according to the present embodiment. The control device 10 as the object recognition device repeatedly performs the processing shown in this flowchart at a predetermined cycle.

まず、ステップS1では、制御装置10は、GPS信号により自車両の位置と姿勢とを推定し、自車両の周辺の車線境界線の位置と形状とが基準座標系で表現された車線境界線情報を地図データベース6から取得する。   First, in step S1, the control device 10 estimates the position and orientation of the host vehicle from the GPS signal, and the lane boundary information in which the position and shape of the lane boundary around the host vehicle are expressed in the reference coordinate system. Is obtained from the map database 6.

ステップS2では、制御装置10は、自車両の周辺の路肩領域に関する情報を地図データベース6から取得し、基準座標系の各縦位置における路肩幅を計算により取得する。   In step S <b> 2, the control device 10 acquires information about a road shoulder region around the host vehicle from the map database 6, and acquires a road shoulder width at each vertical position in the reference coordinate system by calculation.

ステップS3では、制御装置10は、ステップS1で取得した車線境界線情報に基づいて、各車線の車線中心線の位置と形状とを基準座標系で計算する。また、制御装置10は、ステップS2で取得した基準座標系の各縦位置における路肩幅と、路肩領域と各車線との位置関係とに基づいて、車線中心線に対して左側の有効車線幅と右側の有効車線幅とをそれぞれ基準座標系の縦位置ごとに計算する。   In step S3, the control device 10 calculates the position and shape of the lane center line of each lane in the reference coordinate system based on the lane boundary information acquired in step S1. Further, the control device 10 determines the effective lane width on the left side with respect to the lane center line based on the road shoulder width in each vertical position of the reference coordinate system acquired in step S2 and the positional relationship between the road shoulder region and each lane. The effective lane width on the right side is calculated for each vertical position of the reference coordinate system.

ステップS4では、制御装置10は、自車両周辺の各物体の測距データを自律認識センサより取得し、測距データをクラスタリングすることによって各物体に対応する物標を得る。   In step S4, the control device 10 acquires distance measurement data of each object around the host vehicle from the autonomous recognition sensor, and obtains a target corresponding to each object by clustering the distance measurement data.

ステップS5では、制御装置10は、ステップS4で取得した物標の物標枠と、ステップS3で計算した左右の有効車線幅で定義される有効車線領域との重なり具合に基づいて、物標枠で特定される物体が車線内に位置する物体か或いは車線外に位置する物体か判断する。その具体的な判断方法は上述の通りである。   In step S5, the control device 10 determines the target frame based on the overlap between the target frame of the target acquired in step S4 and the effective lane area defined by the left and right effective lane widths calculated in step S3. It is determined whether the object specified in is an object located in the lane or an object located outside the lane. The specific determination method is as described above.

以上の手順で行われる物体認識処理によれば、路肩幅に応じて範囲を変更される有効車線領域と物標枠との重なり具合から、物標枠で特定される物体が車線内にある物体かどうかが判断されるので、路肩幅の狭い道路において道路外の路側物を物標化したときの物標枠が車線内にはみ出したとしても、それを車線内の物標として誤検出することは抑えられる。この効果について図を用いて説明する。   According to the object recognition processing performed in the above procedure, the object specified by the target frame is in the lane based on the overlap between the effective lane area whose range is changed according to the shoulder width and the target frame. Therefore, even if the roadside object outside the road on the road with a narrow shoulder width is outside the road, the target frame may be misdetected as a target in the lane. Is suppressed. This effect will be described with reference to the drawings.

図9は、従来の物体認識処理による認識結果を示す図である。ここでは、車線から離れた位置に路側物1があり、車線に近い位置に路側物2がある場合を例に取って説明する。自律認識センサにより得た測距データに基づいてそれぞれの路側物1,2を物標化した場合、図9に示すように、実際の路側物1,2に対して物標枠1,2が傾くことがある。このとき、路側物1を示す物標枠1は、その位置における路肩幅が広いので車線内までは届かない。しかし、路側物2を示す物標枠2は、その位置における路肩幅が狭いために傾きによって車線内にはみ出してしまう。従来の物体認識処理によると、車線と物標枠とが重なっている場合、その物標枠で特定される物体は車線内の物体として検出される。このため、物標枠2が車線内にはみ出すことで、あたかもそこに物体が存在しているかのように認識されてしまう。その結果、その物体との衝突を回避するように、自動運転システムによって、予期しない急制動や車線変更等が行われる可能性がある。   FIG. 9 is a diagram illustrating a recognition result obtained by a conventional object recognition process. Here, the case where the roadside object 1 is located at a position away from the lane and the roadside object 2 is located near the lane will be described as an example. As shown in FIG. 9, when the roadside objects 1 and 2 are converted into targets based on the distance measurement data obtained by the autonomous recognition sensor, May tilt. At this time, the target frame 1 indicating the roadside object 1 does not reach the lane because the shoulder width at the position is wide. However, the target frame 2 indicating the roadside object 2 protrudes into the lane due to inclination because the shoulder width at that position is narrow. According to the conventional object recognition processing, when a lane and a target frame overlap, an object specified by the target frame is detected as an object in the lane. For this reason, if the target frame 2 protrudes into the lane, it will be recognized as if an object exists there. As a result, unexpected sudden braking, lane change, and the like may be performed by the automatic driving system so as to avoid collision with the object.

図10は、上述の手順で行われる物体認識処理による認識結果を示す図である。路側物2の位置における路肩幅は狭いため、その位置では区間線(路肩側車線境界線)から有効車線領域までの余裕代が大きく取られる。ゆえに、路側物2を示す物標枠2に傾きがあり車線内に物標枠2がはみ出したとしても、余裕代があるために有効車線領域には侵入しない。よって、上述の手順で行われる物体認識処理によれば、物標枠2で特定される物体、つまり、路側物2が車線内の物体として誤検出されることは防止される。路側物が車線内の物体として誤検出されることが低減されれば、自動運転システムによる予期しない制御も低減される。   FIG. 10 is a diagram illustrating a recognition result by the object recognition process performed in the above-described procedure. Since the shoulder width at the position of the roadside object 2 is narrow, a large allowance from the section line (roadside lane boundary line) to the effective lane region is taken at that position. Therefore, even if the target frame 2 indicating the roadside object 2 is inclined and the target frame 2 protrudes in the lane, there is a margin, so that it does not enter the effective lane region. Therefore, according to the object recognition process performed in the above-described procedure, it is possible to prevent the object specified by the target frame 2, that is, the roadside object 2 from being erroneously detected as an object in the lane. If it is reduced that roadside objects are erroneously detected as objects in the lane, unexpected control by the automatic driving system is also reduced.

以上、本発明の実施の形態について説明したが、先にも述べた通り、本発明はこの実施の形態に限定されるものではない。例えば、図2では車線境界線は点列で表現されているが、地図データに登録される車線境界線は線分の集合でもよいし、曲線の集合でもよい。   Although the embodiment of the present invention has been described above, as described above, the present invention is not limited to this embodiment. For example, in FIG. 2, the lane boundary line is represented by a point sequence, but the lane boundary line registered in the map data may be a set of line segments or a set of curves.

自車両の位置及び姿勢を推定する手段は、GPS信号には限定されない。例えば、ライダー2やステレオカメラ4の出力から得られた特徴点と、地図上に登録してある看板や白線等の特徴点とを対応付けることによって自車両の位置及び姿勢を推定してもよい。   Means for estimating the position and orientation of the host vehicle are not limited to GPS signals. For example, the position and orientation of the host vehicle may be estimated by associating feature points obtained from the output of the rider 2 or the stereo camera 4 with feature points such as signs and white lines registered on the map.

車線境界線情報の取得は、地図データベース6からの取得には限定されない。例えば、ステレオカメラ4により自車両の前方を撮影し、得られた撮影画像に対する白線認識処理によって車線境界線情報を取得してもよい。   Acquisition of lane boundary information is not limited to acquisition from the map database 6. For example, the front of the host vehicle may be photographed by the stereo camera 4 and the lane boundary information may be acquired by white line recognition processing for the obtained photographed image.

1 自動運転システム
2 ライダー
3 レーダー
4 ステレオカメラ
5 GPS受信機
6 地図データベース
7 ナビゲーションシステム
8 HMI
9 アクチュエータ
10 制御装置(物体認識装置)
11 物標情報取得部(物標情報取得手段)
12 車線境界線情報取得部(車線境界線情報取得手段)
13 路肩情報取得部(路肩情報取得手段)
14 有効車線領域設定部(有効車線領域設定手段)
15 車線内外判断部(判断手段)
1 Autonomous Driving System 2 Rider 3 Radar 4 Stereo Camera 5 GPS Receiver 6 Map Database 7 Navigation System 8 HMI
9 Actuator 10 Control device (object recognition device)
11 Target information acquisition unit (target information acquisition means)
12 Lane boundary information acquisition unit (lane boundary information acquisition means)
13 Road shoulder information acquisition unit (road shoulder information acquisition means)
14 Effective lane area setting part (Effective lane area setting means)
15 Lane inside / outside judgment part (judgment means)

Claims (1)

自車両の周辺に存在する物体に関する物標情報を取得する物標情報取得手段と、
前記自車両が走行する道路の車線境界線の位置と形状とに関する車線境界線情報を取得する車線境界線情報取得手段と、
前記自車両が走行する道路の路肩領域の幅に関する路肩情報を取得する路肩情報取得手段と、
前記車線境界線情報と前記路肩情報とに基づいて、前記路肩領域に隣接する隣接車線と前記路肩領域とを区画する路肩側車線境界線の内側に、有効車線領域を設定する有効車線領域設定手段と、
前記物標情報に含まれる物標枠と前記有効車線領域との重なり具合に基づいて、前記物標枠で特定される物体が前記隣接車線内に位置する物体か或いは前記隣接車線外に位置する物体か判断する判断手段とを備え、
前記有効車線領域設定手段は、前記路肩領域の幅が広いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を小さくし、前記路肩領域の幅が狭いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を大きくするように前記有効車線領域を設定することを特徴とする物体認識装置。
Target information acquisition means for acquiring target information related to an object existing around the host vehicle;
Lane boundary information acquisition means for acquiring lane boundary information regarding the position and shape of the lane boundary of the road on which the host vehicle travels;
Shoulder information acquisition means for acquiring shoulder information related to the width of the shoulder region of the road on which the host vehicle travels;
Based on the lane boundary information and the road shoulder information, effective lane area setting means for setting an effective lane area inside a roadside lane boundary line that divides the adjacent lane adjacent to the road shoulder area and the road shoulder area. When,
Based on the degree of overlap between the target frame included in the target information and the effective lane area, the object specified by the target frame is an object located in the adjacent lane or located outside the adjacent lane. A determination means for determining whether the object is an object,
The effective lane area setting means reduces the margin from the roadside lane boundary line to the effective lane area as the width of the roadside area increases, and decreases from the roadside lane boundary line as the width of the roadside area decreases. The object recognition apparatus, wherein the effective lane region is set so as to increase a margin to the effective lane region.
JP2016228088A 2016-11-24 2016-11-24 Object recognition device Active JP6690510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016228088A JP6690510B2 (en) 2016-11-24 2016-11-24 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016228088A JP6690510B2 (en) 2016-11-24 2016-11-24 Object recognition device

Publications (2)

Publication Number Publication Date
JP2018084987A true JP2018084987A (en) 2018-05-31
JP6690510B2 JP6690510B2 (en) 2020-04-28

Family

ID=62238439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016228088A Active JP6690510B2 (en) 2016-11-24 2016-11-24 Object recognition device

Country Status (1)

Country Link
JP (1) JP6690510B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112455448A (en) * 2019-09-09 2021-03-09 大陆泰密克汽车系统(上海)有限公司 Automatic control method of vehicle and vehicle
CN112673230A (en) * 2018-07-04 2021-04-16 日产自动车株式会社 Driving assistance method and driving assistance device
CN113487901A (en) * 2021-07-30 2021-10-08 重庆长安汽车股份有限公司 Lane width checking method and system based on camera perception

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157935A (en) * 2002-11-08 2004-06-03 Komatsu Ltd Travel controller for vehicle
JP2010096584A (en) * 2008-10-15 2010-04-30 Kajima Corp Obstacle detector and obstacle detection method
JP2012014520A (en) * 2010-07-01 2012-01-19 Toyota Motor Corp Obstacle detection device
JP2013210905A (en) * 2012-03-30 2013-10-10 Aisin Aw Co Ltd Probe information statistical system, probe information statistical method and probe information statistical program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157935A (en) * 2002-11-08 2004-06-03 Komatsu Ltd Travel controller for vehicle
JP2010096584A (en) * 2008-10-15 2010-04-30 Kajima Corp Obstacle detector and obstacle detection method
JP2012014520A (en) * 2010-07-01 2012-01-19 Toyota Motor Corp Obstacle detection device
JP2013210905A (en) * 2012-03-30 2013-10-10 Aisin Aw Co Ltd Probe information statistical system, probe information statistical method and probe information statistical program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112673230A (en) * 2018-07-04 2021-04-16 日产自动车株式会社 Driving assistance method and driving assistance device
CN112455448A (en) * 2019-09-09 2021-03-09 大陆泰密克汽车系统(上海)有限公司 Automatic control method of vehicle and vehicle
CN113487901A (en) * 2021-07-30 2021-10-08 重庆长安汽车股份有限公司 Lane width checking method and system based on camera perception

Also Published As

Publication number Publication date
JP6690510B2 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
CN109669451B (en) Autonomous driving support apparatus and method
EP3285485B1 (en) Stereo camera-based autonomous driving method and apparatus
KR102558055B1 (en) Suboptimal estimation method
CN105984464B (en) Controller of vehicle
JP6747269B2 (en) Object recognition device
US8363104B2 (en) Lane determining device and navigation system
CN107251127B (en) Vehicle travel control device and travel control method
US9796378B2 (en) Vehicle travel path generating apparatus
JP2019108116A (en) Device and method for controlling speed of vehicle in longitudinal direction
JP6654923B2 (en) Map information output device
JP6911312B2 (en) Object identification device
KR20190045308A (en) A vehicle judging method, a traveling path correcting method, a vehicle judging device, and a traveling path correcting device
KR20160038645A (en) Cruise control system and cruise control method thereof
JP7229052B2 (en) vehicle control device, vehicle control system
JP6941178B2 (en) Automatic operation control device and method
JP2021197009A (en) Risk determination system and risk determination program
JP6690510B2 (en) Object recognition device
CN114728657A (en) Vehicle control method and vehicle control device
JP7043765B2 (en) Vehicle driving control method and equipment
KR101588787B1 (en) Method for determining lateral distance of forward vehicle and head up display system using the same
JP6115429B2 (en) Own vehicle position recognition device
JP5974923B2 (en) Road edge detection system, method and program
KR101980509B1 (en) Inter-vehicle distance estimation method and inter-vehicle distance estimation device
JP2019027995A (en) Information processing device, program, and method for estimating vehicle position
JP3864729B2 (en) Departure determination device for vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R151 Written notification of patent or utility model registration

Ref document number: 6690510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151