JP7452069B2 - Road gradient estimation device, road gradient estimation system, and road gradient estimation method - Google Patents

Road gradient estimation device, road gradient estimation system, and road gradient estimation method Download PDF

Info

Publication number
JP7452069B2
JP7452069B2 JP2020024306A JP2020024306A JP7452069B2 JP 7452069 B2 JP7452069 B2 JP 7452069B2 JP 2020024306 A JP2020024306 A JP 2020024306A JP 2020024306 A JP2020024306 A JP 2020024306A JP 7452069 B2 JP7452069 B2 JP 7452069B2
Authority
JP
Japan
Prior art keywords
road
detection point
interest
point group
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020024306A
Other languages
Japanese (ja)
Other versions
JP2021127075A (en
Inventor
啓子 秋山
謙一 柳井
宏之 若林
浩二 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020024306A priority Critical patent/JP7452069B2/en
Publication of JP2021127075A publication Critical patent/JP2021127075A/en
Application granted granted Critical
Publication of JP7452069B2 publication Critical patent/JP7452069B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は車両において用いられる道路勾配を推定するための技術に関する。 The present disclosure relates to techniques for estimating road slope used in vehicles.

カメラまたはライダーを用いて白線の3次元車両座標軸または3次元測距データを取得し、道路の相対的勾配を算出し、さらに車両が備えるスロットル開度等を検出する移動体センサからの検出データを用いて絶対的な道路勾配を予測する技術が知られている(例えば、特許文献1)。 Acquire the 3D vehicle coordinate axes or 3D distance measurement data of the white line using a camera or lidar, calculate the relative slope of the road, and further collect detection data from a moving body sensor equipped with the vehicle that detects throttle opening, etc. A technique for predicting the absolute road slope using the above-mentioned method is known (for example, Patent Document 1).

特開2016-200499号公報JP 2016-200499 Publication

しかしながら、従来の道路勾配予測技術では、カメラおよびライダーによる検出データ、すなわち、撮像画像データおよび検出点データを用いて道路の勾配を高精度で予測することは考慮されていない。また、カメラまたはライダーのいずれか一方が用いられており、カメラまたはライダーに不具合が発生した場合やカメラまたはライダーの検出性能が低い場合には道路勾配を予測できないという問題もある。 However, the conventional road slope prediction technology does not take into account the prediction of the road slope with high accuracy using detection data from cameras and lidar, that is, captured image data and detection point data. Furthermore, since either a camera or a lidar is used, there is also the problem that the road slope cannot be predicted if a problem occurs in the camera or lidar, or if the detection performance of the camera or lidar is low.

したがって、撮像画像および検出点を用いて道路勾配の推定精度を向上させることが求められている。 Therefore, there is a need to improve the accuracy of estimating road gradients using captured images and detection points.

本開示は、以下の態様として実現することが可能である。 The present disclosure can be implemented as the following aspects.

第1の態様は、車両に用いられる道路勾配推定装置を提供する。第1の態様に係る道路勾配推定装置は、撮像装置またはライダー(Lidar)から取得される撮像画像または環境光画像を用いて道路上における注目領域を決定する注目領域決定部と、ライダーを制御して検出点群を取得する検出点群取得部であって、前記注目領域における検出点群の分解能または信号強度を増大させて注目検出点群を取得可能であり、前記ライダーの垂直方向または水平方向の分解能を増大させて前記注目検出点群として高分解能検出点群を取得する検出点群取得部と、前記注目検出点群を用いて道路勾配を推定する勾配推定部と、を備え、前記ライダーは複数の受光素子(220)により構成される受光素子アレイ(22)を有し、前記検出点群取得部は、予め定められた数の前記複数の受光素子を受光単位として前記検出点群を取得し、前記検出点群取得部は、前記受光単位を構成する前記受光素子の数を減少させて前記受光単位の数を増大させることにより、垂直方向または水平方向の分解能を増大させる A first aspect provides a road gradient estimation device for use in a vehicle. The road slope estimating device according to the first aspect includes an attention area determination unit that determines an attention area on a road using a captured image or an environmental light image acquired from an imaging device or a lidar, and a lidar control unit. a detection point group acquisition unit that acquires a detection point group by increasing the resolution or signal strength of the detection point group in the region of interest, and is capable of acquiring a detection point group of interest by increasing the resolution or signal strength of the detection point group in the region of interest, and a detection point group acquisition unit that increases the resolution of the target detection point group to obtain a high-resolution detection point group as the target detection point group, and a gradient estimation unit that estimates a road slope using the target detection point group , has a light-receiving element array (22) constituted by a plurality of light-receiving elements (220), and the detection point group acquisition unit acquires the detection point group using a predetermined number of the plurality of light-receiving elements as a light reception unit. The detection point group acquisition unit increases the resolution in the vertical or horizontal direction by decreasing the number of the light receiving elements constituting the light receiving unit and increasing the number of the light receiving units.

第1の態様に係る車両における道路勾配推定装置によれば、撮像画像および検出点を用いて道路勾配の推定精度を向上させることができる。 According to the road slope estimating device for a vehicle according to the first aspect, it is possible to improve the accuracy of estimating the road slope using the captured image and the detection points.

第2の態様は、車両における道路勾配推定方法を提供する。第2の態様に係る道路勾配推定方法は、撮像装置から取得される撮像画像またはライダー(Lidar)から取得される環境光画像を用いて道路上における注目領域を決定し、前記ライダーは複数の受光素子により構成される受光素子アレイを有し、受光単位を構成する予め定められた数の前記受光素子の数を減少させて前記受光単位の数を増大させることにより、前記ライダーの垂直方向または水平方向の分解能を増大させて前記注目領域における検出点群の分解能を増大させ注目検出点群として高分解能検出点群を取得し、前記注目検出点群を用いて道路勾配を推定すること、を備える。 A second aspect provides a method for estimating road slope in a vehicle. A road gradient estimation method according to a second aspect determines an area of interest on a road using a captured image obtained from an imaging device or an environmental light image obtained from a lidar, and the lidar detects a plurality of light receiving areas. The lidar has a light-receiving element array composed of elements, and by decreasing the predetermined number of the light-receiving elements constituting the light-receiving unit and increasing the number of the light-receiving units, the lidar can be adjusted vertically or horizontally. obtaining a high-resolution detection point group as a group of detection points of interest in which the resolution of the group of detection points in the region of interest is increased by increasing the resolution of the direction , and estimating a road slope using the group of detection points of interest; Equipped with

第2の態様に係る車両における道路勾配推定方法によれば、撮像画像および検出点を用いて道路勾配の推定精度を向上させることができる。なお、本開示は、車両における道路勾配推定プログラムまたは当該プログラムを記録するコンピュータ読み取り可能記録媒体としても実現可能である。 According to the road gradient estimation method for a vehicle according to the second aspect, it is possible to improve the estimation accuracy of the road gradient using the captured image and the detection points. Note that the present disclosure can also be realized as a road gradient estimation program for a vehicle or a computer-readable recording medium that records the program.

第1の実施形態に係る道路勾配推定装置が搭載された車両の一例を示す説明図。FIG. 1 is an explanatory diagram showing an example of a vehicle equipped with a road slope estimating device according to a first embodiment. 第1の実施形態において用いられるライダーの概略構成を示す説明図。FIG. 1 is an explanatory diagram showing a schematic configuration of a rider used in the first embodiment. 第1の実施形態において用いられる受光素子アレイを模式的に示す説明図。FIG. 2 is an explanatory diagram schematically showing a light receiving element array used in the first embodiment. 第1の実施形態に係る道路勾配推定装置の機能的構成を示すブロック図。FIG. 1 is a block diagram showing the functional configuration of a road slope estimating device according to a first embodiment. 第1の実施形態に係る道路勾配推定装置によって実行される勾配推定処理の処理フローを示すフローチャート。5 is a flowchart showing a process flow of gradient estimation processing executed by the road gradient estimation device according to the first embodiment. 撮像画像における注目領域の決定を説明するための説明図。FIG. 3 is an explanatory diagram for explaining determination of a region of interest in a captured image. 高分解能処理時における検出点群の一例を示す説明図。FIG. 3 is an explanatory diagram showing an example of a detection point group during high-resolution processing. 環境光画像の一例を示す説明図。An explanatory diagram showing an example of an environmental light image. 検出点群により規定される道路を環境光画像によって外挿する様子を示す説明図。FIG. 3 is an explanatory diagram showing how a road defined by a group of detection points is extrapolated using an environmental light image. 前注目領域を示す説明図。An explanatory diagram showing a front region of interest. 前注目領域を用いて現在注目領域を決定する様子を示す説明図。FIG. 7 is an explanatory diagram showing how a current region of interest is determined using a previous region of interest. 過去に検出された対象物を用いて現在の対象物を検出する際に実行される処理フローを示すフローチャート。5 is a flowchart showing a processing flow executed when detecting a current target object using a target object detected in the past. 従来におけるライダーの垂直方向における分解能を例示する説明図。FIG. 2 is an explanatory diagram illustrating the resolution of a conventional lidar in the vertical direction. 第5の実施形態におけるライダーの垂直方向における分解能を例示する説明図。FIG. 7 is an explanatory diagram illustrating the resolution of the lidar in the vertical direction in the fifth embodiment. 車両から離間するにつれてライダーの垂直方向における分解能を増大させるための受光素子アレイにおける受光単位を示す説明図。FIG. 3 is an explanatory diagram showing light receiving units in a light receiving element array for increasing the resolution of the lidar in the vertical direction as the distance from the vehicle increases.

本開示に係る車両における道路勾配推定装置、道路勾配推定システムおよび道路勾配推定方法について、いくつかの実施形態に基づいて以下説明する。 A road gradient estimation device, a road gradient estimation system, and a road gradient estimation method for a vehicle according to the present disclosure will be described below based on several embodiments.

第1の実施形態:
図1に示すように、第1の実施形態に係る車両における道路勾配推定装置100は、車両50に搭載されて用いられる。道路勾配推定装置100は、ライダー(Lidar:Light Detection and Ranging)20およびカメラ30から車両50の周囲情報を取得する。道路勾配推定システム10は、少なくとも、道路勾配推定装置100、ライダー20およびカメラ30を備える。なお、車両50は、この他に。車輪速度センサ、ヨーレートセンサ、運転支援を実行するために運転支援制御装置を備えていても良い。ライダー20は、前方検知を目的とする場合、例えば、車両50の前部に配置され、カメラ30は、例えば、車両50のフロントガラスの上部に配置されている。本明細書における道路勾配とは、より具体的には、相対的な道路勾配、すなわち、道路勾配変化を意味するが、記載を簡潔にするために、以下では「道路勾配」の用語を用いる。
First embodiment:
As shown in FIG. 1, a road gradient estimating device 100 for a vehicle according to the first embodiment is mounted on a vehicle 50 and used. The road gradient estimating device 100 acquires surrounding information of the vehicle 50 from a lidar (Light Detection and Ranging) 20 and a camera 30. The road gradient estimation system 10 includes at least a road gradient estimation device 100, a lidar 20, and a camera 30. In addition, the vehicle 50 is other than this. A wheel speed sensor, a yaw rate sensor, and a driving support control device may be provided to perform driving support. When the purpose is forward detection, the lidar 20 is placed, for example, at the front of the vehicle 50, and the camera 30 is placed, for example, at the top of the windshield of the vehicle 50. The term "road gradient" as used herein more specifically refers to a relative road gradient, ie, a change in road gradient; however, in order to simplify the description, the term "road gradient" will be used below.

図2に示すように、測距装置であるライダー20は、受光部21、発光部24、走査鏡26、電動機40および回転角センサ41を備えている。ライダー20は、例えば水平方向に走査する場合、水平方向に予め定められた走査角範囲NRを有しており、走査角範囲NRを複数の角度に分割した単位走査角を単位として発光部24による検出光の照射および受光部21による反射光の受光を実行することによって走査角範囲NRの全体にわたる検出点の取得が実行され、測距が実現される。単位走査角は、ライダー20の分解能またはライダー20により得られる測距結果の解像度を規定し、単位走査角が小さくなるに連れて、すなわち検出点数が多くなるに連れて水平方向HDにおける分解能および解像度は高くなる。ライダー20における検出点の取得、すなわち、発光および受光処理は、走査角範囲NRを一方向へ往走査する際、あるいは、走査角範囲NRを双方向へ往復走査する際に実行される。 As shown in FIG. 2, the lidar 20, which is a distance measuring device, includes a light receiving section 21, a light emitting section 24, a scanning mirror 26, an electric motor 40, and a rotation angle sensor 41. For example, when scanning in the horizontal direction, the lidar 20 has a predetermined scanning angle range NR in the horizontal direction, and the light emitting unit 24 uses a unit scanning angle obtained by dividing the scanning angle range NR into a plurality of angles as a unit. By irradiating the detection light and receiving the reflected light by the light receiving section 21, detection points are acquired over the entire scanning angle range NR, and distance measurement is realized. The unit scan angle defines the resolution of the lidar 20 or the resolution of the distance measurement results obtained by the lidar 20, and as the unit scan angle becomes smaller, that is, as the number of detection points increases, the resolution in the horizontal direction HD and the resolution decrease. becomes higher. Acquisition of detection points in the lidar 20, that is, light emission and light reception processing, is performed when scanning the scan angle range NR forward in one direction or when scanning the scan angle range NR back and forth in both directions.

受光部21は、受光素子アレイ22および受光制御部23、並びに図示しない受光レンズを備え、発光部24から照射される検出光の反射光の受光に応じて、検出点を示す検出信号を出力する受光処理を実行する。受光素子アレイ22は、図3に示すように、複数の受光素子220が縦横方向、すなわち二次元に配列されている平板状の光センサであり、例えば、SPAD(Single Photon Avalanche Diode)、その他のフォトダイオードが各受光素子を構成する。なお、受光処理の最小単位、すなわち検出点に対応する受光単位として受光画素の用語が用いられることがあり、受光単位は、単一の受光素子によって構成される受光画素221、または、複数の受光素子によって構成される受光画素222のいずれかを意味する。受光素子アレイ22において、受光画素、すなわち、受光単位を構成する受光素子数を減少させるにつれて、受光単位、すなわち、検出点数は増大する。本実施形態においては、例えば、8個の受光素子220から構成される受光画素222を受光単位として、基準分解能による基準受光処理が実行される。本実施形態において、垂直方向VDの分解能を増大させる際には、道路勾配推定装置100からの指示を受けた受光制御部23は、1個の受光素子220から構成される受光画素221を受光単位として受光処理を実行し、基準受光処理よりも分解能が高い高分解能受光処理が実現される。なお、受光画素221、222に含まれる受光素子220の数は例示に過ぎず、それぞれ2個以上および9個以上であっても良く、また、受光画素221に含まれる受光素子220の数が受光画素222に含まれる受光素子220よりも少なければ良い。また、受光素子アレイ22は、複数の受光素子220が縦方向または横方向に一次元に配列されている光センサであっても良い。 The light receiving section 21 includes a light receiving element array 22, a light receiving control section 23, and a light receiving lens (not shown), and outputs a detection signal indicating a detection point in response to reception of the reflected light of the detection light emitted from the light emitting section 24. Execute light reception processing. As shown in FIG. 3, the light-receiving element array 22 is a flat optical sensor in which a plurality of light-receiving elements 220 are arranged vertically and horizontally, that is, two-dimensionally. A photodiode constitutes each light receiving element. Note that the term "light-receiving pixel" is sometimes used as the minimum unit of light-receiving processing, that is, the light-receiving unit corresponding to a detection point. It means any of the light-receiving pixels 222 configured by the element. In the light-receiving element array 22, as the number of light-receiving pixels, that is, the number of light-receiving elements constituting a light-receiving unit, is decreased, the number of light-receiving units, that is, the number of detection points increases. In the present embodiment, for example, standard light reception processing is performed using a standard resolution using a light receiving pixel 222 constituted by eight light receiving elements 220 as a light receiving unit. In the present embodiment, when increasing the resolution of the vertical direction VD, the light reception control unit 23 receives an instruction from the road slope estimating device 100, and selects a light receiving pixel 221 composed of one light receiving element 220 as a light receiving unit. The light reception process is executed as follows, and high-resolution light reception processing with higher resolution than the standard light reception process is realized. Note that the number of light-receiving elements 220 included in the light-receiving pixels 221 and 222 is merely an example, and may be two or more and nine or more, respectively. It is sufficient that the number of light receiving elements is smaller than the number of light receiving elements 220 included in the pixel 222. Further, the light receiving element array 22 may be an optical sensor in which a plurality of light receiving elements 220 are arranged one-dimensionally in the vertical or horizontal direction.

受光制御部23は、発光部24によって発光が実行される単位走査角を単位として、各受光画素に入射された入射光量または入射光強度に応じた入射光強度信号を出力する受光処理を実行する。具体的には、受光制御部23は、受光画素221、222を単位として、単位走査角毎に、各受光画素221、222を構成する受光素子が入射光量に応じて発生させる電流、または、電流から変換された電圧を取り出して入射光強度信号として道路勾配推定装置100へ出力する。あるいは、各受光画素を構成する受光素子が受光する光子の合計個数に応じた入射光強度信号が道路勾配推定装置100へ出力されるということができる。したがって、繰り返しの走査により受光回数が増大するにつれて信号強度は高くなる。なお、一般的にSPADでは、1つの受光素子220によって得られる入射光量は少ないので、受光画素222のように8個の受光素子220からの入射強度信号を図示しない加算器により加算してS/Nの向上が図られる。したがって、垂直方向VDにおける分解能を高めるために、1個の受光素子により構成される受光画素221が用いられる高分解能受光処理時には、8個の受光素子により構成される受光画素222が用いられる基準受光処理時よりも、信号強度の低下、すなわち、S低下が発生する。この信号強度の低下は、後述するように、水平方向HDにおける特定の走査範囲における検出点群の取得回数、すなわち、単位走査角における発光および受光処理回数を増大させることによる入射光強度信号の増大により補填または低減される。 The light reception control unit 23 executes a light reception process that outputs an incident light intensity signal according to the amount or intensity of incident light incident on each light receiving pixel in units of unit scan angles at which light emission is performed by the light emitting unit 24. . Specifically, the light reception control unit 23 uses the light reception pixels 221 and 222 as a unit, and controls the current generated by the light reception elements constituting each of the light reception pixels 221 and 222 according to the amount of incident light, or the current for each unit scanning angle. The converted voltage is taken out and outputted to the road slope estimating device 100 as an incident light intensity signal. Alternatively, it can be said that an incident light intensity signal corresponding to the total number of photons received by the light receiving elements constituting each light receiving pixel is output to the road slope estimating device 100. Therefore, as the number of times of light reception increases due to repeated scanning, the signal strength increases. In general, in SPAD, since the amount of incident light obtained by one light receiving element 220 is small, the incident intensity signals from eight light receiving elements 220, such as the light receiving pixel 222, are added by an adder (not shown) and S/ N can be improved. Therefore, in order to increase the resolution in the vertical direction VD, during high-resolution light reception processing in which the light receiving pixel 221 made up of one light receiving element is used, the reference light receiving process in which the light receiving pixel 222 made up of eight light receiving elements is used. A decrease in signal strength, ie, a decrease in S, occurs compared to during processing. As will be described later, this decrease in signal intensity is caused by an increase in the incident light intensity signal due to an increase in the number of acquisitions of a group of detection points in a specific scanning range in the horizontal HD, that is, an increase in the number of times of light emission and light reception processing per unit scanning angle. compensated or reduced by

発光部24は、図示しない発光制御部、発光素子およびコリメータレンズを備え、単位走査角単位で検出光を照射する。発光素子は、例えば、例えば、1または複数の赤外レーザダイオードであり、検出光として赤外レーザ光を出射する。発光部24は垂直方向に単一の発光素子を備えていても良く、複数の発光素子を備えていても良い。複数の発光素子が備えられる場合には走査タイミングに応じて発光する発光素子が切り換えられ得る。発光制御部は、道路勾配推定装置100から単位走査角毎に入力される発光素子の発光を指示する発光制御信号に応じて、パルス駆動波形の駆動信号によって発光素子を駆動して赤外レーザ光の発光を実行する。発光部24は、高分解能受光処理の実行時には、特定の走査範囲に対して繰り返して検出光を出射する。発光部24から照射される赤外レーザ光は、走査鏡26によって反射され、ライダー20の外部、すなわち、対象物の検出が所望される範囲に向けて射出される。 The light emitting unit 24 includes a light emission control unit (not shown), a light emitting element, and a collimator lens, and emits detection light in units of scanning angles. The light emitting element is, for example, one or more infrared laser diodes, and emits infrared laser light as detection light. The light emitting section 24 may include a single light emitting element or a plurality of light emitting elements in the vertical direction. When a plurality of light emitting elements are provided, the light emitting elements that emit light can be switched depending on the scanning timing. The light emission control unit drives the light emitting element with a drive signal having a pulse drive waveform and generates infrared laser light in accordance with a light emission control signal that instructs the light emitting element to emit light, which is inputted from the road gradient estimating device 100 for each unit scanning angle. Executes light emission. The light emitting unit 24 repeatedly emits detection light to a specific scanning range when performing high-resolution light reception processing. The infrared laser beam emitted from the light emitting unit 24 is reflected by the scanning mirror 26 and is emitted toward the outside of the lidar 20, that is, the range where detection of the target object is desired.

電動機40は、図示しない電動機ドライバを備える。電動機40には、電動機40の回転角度を検出するための回転角センサ41が配置されている。電動機ドライバは、回転角センサ41から回転角信号の入力を受けて道路勾配推定装置100によって出力される回転角度指示信号を受けて電動機40に対する印加電圧を変更して電動機40の回転角度を制御する。電動機40は、例えば、超音波モータ、ブラシレスモータ、ブラシモータ、ボイスコイルモータであり、走査角範囲NRにおいて往復動を行うための周知の機構を備えている。電動機40の出力軸の先端部には、走査鏡26が取り付けられている。走査鏡26は、発光部24から出射された検出光を水平方向HDに走査させる反射体、すなわち、鏡体であり、電動機40によって往復駆動されることによって水平方向HDにおける走査角範囲NRの走査が実現される。走査鏡26は、例えば、120度、180度といった走査角範囲で検出光の走査および反射光の受光を実現する。ライダー20により重点的あるいは集中的に検出点を取得すべき注目領域FAにおいて、走査角範囲NRの他の領域における検出回数よりも高い検出回数で取得される検出点群は注目検出点群として他の検出点群とは区別され、走査角範囲NRの他の領域を対象とする走査時と比較して高い信号強度を有する高信号強度検出点群と呼ぶことができる。注目検出点群をなす各検出点の信号強度が増大される結果、高分解能受光処理により低下する入射光強度信号の信号強度、すなわち、S低下を補うことができる。走査鏡26はさらに、単一の発光素子が備えられている場合や垂直方向VDの全域に検出光を射出できない場合には、水平方向HDに加えて垂直方向VDへの走査、すなわち垂直方向VDにおける走査位置の変更を実現しても良い。水平方向HDおよび垂直方向VDへの走査を実現するために、走査鏡26は、多面鏡体、例えば、ポリゴンミラーであっても良く、あるいは、垂直方向VDへ揺動される機構を備える単面鏡体、あるいは、垂直方向VDへ揺動される別の単面鏡体を備えていても良い。なお、走査鏡26は、電動機40により回転駆動されて回転走査を実行しても良く、この場合には、走査角範囲NRに対応して発光部24および受光部21による発光・受光処理が実行されれば良い。特定走査角範囲CRにおける走査の速度を他の走査角範囲NRにおける走査の速度よりも遅くさせることによって、水平方向HDにおける分解能が高められ得る。本実施形態においては、垂直方向VDにおける分解能を増大させる例について説明するが、垂直方向VDに代えて水平方向HDの分解能のみが増大されても良く、あるいは、垂直方向VDおよび水平方向HDの双方における分解能が増大されても良い。水平方向HDに対する分解能の増大は、走査鏡26による単位走査角を小さくまたは単位走査速度を遅くすることによって実現され得る。 The electric motor 40 includes an electric motor driver (not shown). A rotation angle sensor 41 for detecting the rotation angle of the electric motor 40 is arranged on the electric motor 40 . The motor driver controls the rotation angle of the motor 40 by changing the voltage applied to the motor 40 in response to the rotation angle signal input from the rotation angle sensor 41 and the rotation angle instruction signal output from the road slope estimating device 100. . The electric motor 40 is, for example, an ultrasonic motor, a brushless motor, a brush motor, or a voice coil motor, and includes a known mechanism for reciprocating in the scanning angle range NR. A scanning mirror 26 is attached to the tip of the output shaft of the electric motor 40. The scanning mirror 26 is a reflector, that is, a mirror body, that scans the detection light emitted from the light emitting unit 24 in the horizontal direction HD, and is reciprocated by the electric motor 40 to scan the scanning angle range NR in the horizontal direction HD. is realized. The scanning mirror 26 realizes scanning of detection light and reception of reflected light in a scanning angle range of 120 degrees and 180 degrees, for example. In the area of interest FA where detection points are to be acquired intensively or intensively by the lidar 20, a group of detection points that are acquired with a higher number of detections than the number of detections in other areas in the scanning angle range NR are other than the group of detection points of interest. This detection point group can be called a high signal strength detection point group which has a higher signal strength than when scanning other areas in the scanning angle range NR. As a result of increasing the signal strength of each detection point forming the target detection point group, it is possible to compensate for the signal strength of the incident light intensity signal, that is, the decrease in S, which decreases due to high-resolution light reception processing. In addition to the horizontal direction HD, the scanning mirror 26 scans in the vertical direction VD in addition to the horizontal direction HD, when a single light emitting element is provided or when the detection light cannot be emitted over the entire vertical direction VD, that is, in the vertical direction VD. It is also possible to change the scanning position in . In order to realize scanning in the horizontal direction HD and the vertical direction VD, the scanning mirror 26 may be a polygon mirror, for example a polygon mirror, or a single surface with a mechanism to be swung in the vertical direction VD. It may also include a mirror body or another single mirror body that is swung in the vertical direction VD. Note that the scanning mirror 26 may be rotationally driven by the electric motor 40 to perform rotational scanning, and in this case, the light emitting unit 24 and the light receiving unit 21 perform light emission and light reception processing in accordance with the scanning angle range NR. It would be good if it were done. By making the scanning speed in the specific scanning angle range CR slower than the scanning speed in the other scanning angle ranges NR, resolution in the horizontal direction HD can be increased. In this embodiment, an example in which the resolution in the vertical direction VD is increased will be described, but instead of the vertical direction VD, only the resolution in the horizontal direction HD may be increased, or both the vertical direction VD and the horizontal direction HD may be increased. The resolution in may be increased. An increase in the resolution in the horizontal direction HD can be achieved by reducing the unit scanning angle or slowing the unit scanning speed of the scanning mirror 26.

発光部24から照射された検出光は、走査鏡26によって反射され、単位走査角SAを単位として水平方向の走査角範囲NRにわたり走査される。検出光が物標によって反射された反射光は、走査鏡26によって、受光部21へと反射され、単位走査角SA毎に受光部21に入射される。受光処理が実行される単位走査角SAは、順次インクリメントされ、この結果、所望の走査角範囲NRにわたる受光処理のための走査が可能となる。なお、垂直方向VDの全域に検出光を照射できない場合には、水平方向HDへの各走査時に垂直方向VDにおける照射位置が変更されて複数回の水平方向HDへの走査が実行される。発光部24および受光部21は走査鏡26と共に電動機40によって回転されても良く、走査鏡26とは別体であり、電動機40によって回転されなくても良い。さらに、走査鏡26が備えられることなく、アレイ状に配置された複数の発光素子および受光素子アレイ22とを備え、レーザ光を順次外界に対して直接照射し、反射光を直接受光する構成を備えていても良い。 The detection light emitted from the light emitting section 24 is reflected by the scanning mirror 26 and scanned over the horizontal scanning angle range NR with unit scanning angle SA as a unit. The reflected light, which is the detection light reflected by the target object, is reflected by the scanning mirror 26 to the light receiving section 21, and is incident on the light receiving section 21 at every unit scanning angle SA. The unit scan angle SA at which the light reception process is performed is sequentially incremented, and as a result, scanning for the light reception process over a desired scan angle range NR becomes possible. Note that if the entire area in the vertical direction VD cannot be irradiated with the detection light, the irradiation position in the vertical direction VD is changed during each scan in the horizontal direction HD, and multiple scans in the horizontal direction HD are performed. The light emitting section 24 and the light receiving section 21 may be rotated by the electric motor 40 together with the scanning mirror 26, or they may be separate from the scanning mirror 26 and do not need to be rotated by the electric motor 40. Furthermore, a configuration is provided in which the scanning mirror 26 is not provided, but a plurality of light emitting elements and light receiving element arrays 22 arranged in an array are provided, and the laser beam is sequentially irradiated directly to the outside world and the reflected light is directly received. It's good to be prepared.

道路勾配推定装置100は、演算部としての中央処理装置(CPU)101、記憶部としてのメモリ102、入出力部としての入出力インタフェース103および図示しないクロック発生器を備えている。CPU101、メモリ102、入出力インタフェース103およびクロック発生器は内部バス104を介して双方向に通信可能に接続されている。メモリ102は、カメラ30またはライダー20から取得される撮像画像または環境光画像を用いて道路上における注目領域を決定する処理、ライダー20を制御して注目領域における注目検出点群を取得する処理、より具体的には、注目領域FAにおいてライダー20による検出点群の取得回数、すなわち発光・受光処理の回数を増大させて注目領域FAにおける検出点群の入射光強度信号を増大させる処理、注目領域FAにおける検出点群の分解能を増大させて注目検出点群として高分解能検出点群を取得する処理、高分解能検出点群を用いて道路勾配を推定する勾配推定処理を実行するための勾配推定プログラムPr1を不揮発的且つ読み出し専用に格納するメモリ、例えばROMと、CPU101による読み書きが可能なメモリ、例えばRAMとを含んでいる。メモリ102のうち読み書き可能な領域102aには、検出済みの対象物に関する情報、例えば、座標位置情報、形状情報といった情報が対象物履歴ORとして格納されている。CPU101、すなわち、道路勾配推定装置100は、メモリ102に格納されている勾配推定プログラムPr1を読み書き可能なメモリに展開して実行することによって、注目領域決定部、検出点群取得部、勾配推定部として機能する。なお、CPU101は、単体のCPUであっても良く、各プログラムを実行する複数のCPUであっても良く、あるいは、複数のプログラムを同時実行可能なマルチタスクタイプのCPUであっても良い。 The road slope estimating device 100 includes a central processing unit (CPU) 101 as an arithmetic unit, a memory 102 as a storage unit, an input/output interface 103 as an input/output unit, and a clock generator (not shown). The CPU 101, memory 102, input/output interface 103, and clock generator are connected via an internal bus 104 so that they can communicate in both directions. The memory 102 performs a process of determining an area of interest on a road using a captured image or an ambient light image obtained from the camera 30 or the lidar 20, a process of controlling the lidar 20 to obtain a group of detection points of interest in the area of interest, More specifically, the process of increasing the number of times the LIDAR 20 acquires a group of detection points in the area of interest FA, that is, the number of times of light emission/light reception processing, and increasing the incident light intensity signal of the group of detection points in the area of interest FA, the area of interest. A slope estimation program for executing a process of increasing the resolution of a detection point group in FA to obtain a high-resolution detection point group as a target detection point group, and a slope estimation process of estimating a road slope using a high-resolution detection point group. It includes a memory that stores Pr1 in a nonvolatile and read-only manner, such as a ROM, and a memory that can be read and written by the CPU 101, such as a RAM. In the read/write area 102a of the memory 102, information regarding detected objects, such as coordinate position information and shape information, is stored as object history OR. The CPU 101, that is, the road gradient estimating device 100, expands the gradient estimation program Pr1 stored in the memory 102 into a readable/writable memory and executes the program. functions as Note that the CPU 101 may be a single CPU, a plurality of CPUs that execute each program, or a multitasking type CPU that can execute a plurality of programs simultaneously.

入出力インタフェース103には、受光部21、発光部24、カメラ30、電動機40および回転角センサ41がそれぞれ制御信号線を介して接続されている。発光部24に対しては発光制御信号が送信され、受光部21からは入射光強度信号が受信され、電動機40に対しては回転角度指示信号が送信され、回転角センサ41からは回転角信号が受信される。本実施形態においては、さらに、高分解能受光処理の実行時に、受光部21から受光制御部23に対して受光単位を変更する受光単位変更信号が送信される。 A light receiving section 21, a light emitting section 24, a camera 30, an electric motor 40, and a rotation angle sensor 41 are connected to the input/output interface 103 via control signal lines, respectively. A light emission control signal is transmitted to the light emitting unit 24, an incident light intensity signal is received from the light receiving unit 21, a rotation angle instruction signal is transmitted to the electric motor 40, and a rotation angle signal is transmitted from the rotation angle sensor 41. is received. In this embodiment, furthermore, when performing high-resolution light reception processing, the light reception unit 21 transmits a light reception unit change signal to change the light reception unit to the light reception control unit 23.

カメラ30は、CCD等の撮像素子または撮像素子アレイを1つ備える撮像装置であり、可視光を受光することによって対象物の外形情報または形状情報を検出結果である画像データとして出力するセンサである。カメラ30は、図示しない画像処理部を備えており、画像データに対して、例えば、セマンティック・セグメンテーションを用いた対象物の分類処理を実行し、同一の対象物を示す画素を結合することで各対象物を示す画像領域を抽出する。本実施形態においては、カメラ30は、一般的に白線と呼ばれる区画線や道路境界線を抽出し、あるいは、道路上における立体物、例えば、中央分離帯、ガードレール、縁石、チャッターバー、キャッツアイ、先行車両を抽出する。カメラ30から出力される画像データはモノクロであっても良い。この場合には、セグメンテーションに際して輝度値が用いられる。カメラ30は、1つであっても2つ以上であっても良い。 The camera 30 is an imaging device equipped with one imaging device such as a CCD or an imaging device array, and is a sensor that receives visible light and outputs external shape information or shape information of an object as image data as a detection result. . The camera 30 includes an image processing unit (not shown), and performs object classification processing on the image data using, for example, semantic segmentation, and combines pixels indicating the same object to classify each object. Extract the image region showing the object. In this embodiment, the camera 30 extracts partition lines and road boundary lines generally called white lines, or extracts three-dimensional objects on the road, such as median strips, guardrails, curbs, chatter bars, cat's eyes, etc. Extract the preceding vehicle. The image data output from the camera 30 may be monochrome. In this case, brightness values are used during segmentation. The number of cameras 30 may be one or two or more.

第1の実施形態に係る道路勾配推定装置100により実行される勾配推定処理について説明する。図5に示す処理ルーチンは、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで、所定の時間間隔、例えば、数100msec単位にて繰り返して実行される。CPU101が勾配推定プログラムPr1を実行することによって図5に示す勾配推定処理が実行される。 A gradient estimation process executed by the road gradient estimation device 100 according to the first embodiment will be described. The processing routine shown in FIG. 5 is executed at predetermined time intervals, for example, in units of several hundred milliseconds, from the time the vehicle control system is started to the time it is stopped, or from the time the start switch is turned on until the start switch is turned off. is executed repeatedly. The gradient estimation process shown in FIG. 5 is executed by the CPU 101 executing the gradient estimation program Pr1.

CPU101は、入出力インタフェース103を介して、カメラ30によって撮像された撮像画像を取得する(ステップS100)。CPU101は、撮像画像から道路上における注目領域を判別可能であるか否かを判定する(ステップS102)。道路上とは自車両の前方の路面上、あるいは、自車両の前方の路面端や路肩といった自車両の予定走路を規定可能な前方領域を意味する。注目領域は、道路勾配の推定に有用な道路上または道路端における対象物に対応する領域であり、ライダー20による検出点の取得を集中的、すなわち、検出点の取得回数を増大させる対象となる領域である。対象物には、例えば、一般的に白線と呼ばれる区画線や道路境界線、中央分離帯、ガードレール、縁石、チャッターバー、キャッツアイ、アスファルト、先行車両が含まれる。なお、本実施形態においては、以下、区画線や道路境界線を白線と呼ぶ。CPU101は、撮像画像からこれら対象物が抽出できる場合には、注目領域を判別可能であると判定し、抽出できない場合には注目領域を判別できないと判定する。なお、撮像画像からのこれら対象物の抽出は、上述の通りカメラ30が供える画像処理部によって実行され、CPU101に対して、対象物の抽出の可否が通知されても良く、あるいは、カメラ30から未処理の画像データがCPU101に送信され、CPU101において実行されても良い。また、注目領域FAは、ライダー20によって取得される環境光画像を用いて決定されても良い。具体的な処理手順は撮像画像と同様である。なお、環境光画像は、発光部24からの検出光に依存しない検出結果画像であり、後に詳述する。 The CPU 101 acquires an image captured by the camera 30 via the input/output interface 103 (step S100). The CPU 101 determines whether the area of interest on the road can be determined from the captured image (step S102). On the road means the road surface in front of the host vehicle, or the front area where the planned route of the host vehicle can be defined, such as the edge of the road surface or the road shoulder in front of the host vehicle. The region of interest is a region corresponding to an object on the road or at the edge of the road that is useful for estimating the road gradient, and is a target for intensively acquiring detection points by the lidar 20, that is, increasing the number of times detection points are acquired. It is an area. Target objects include, for example, lot lines commonly called white lines, road boundary lines, median strips, guardrails, curbs, chatter bars, cat's eyes, asphalt, and preceding vehicles. Note that, in this embodiment, the partition lines and road boundary lines are hereinafter referred to as white lines. If these objects can be extracted from the captured image, the CPU 101 determines that the region of interest can be determined, and if the objects cannot be extracted, the CPU 101 determines that the region of interest cannot be determined. Note that the extraction of these objects from the captured image may be executed by the image processing unit included in the camera 30 as described above, and the CPU 101 may be notified of whether or not the object can be extracted. Unprocessed image data may be sent to the CPU 101 and executed there. Further, the attention area FA may be determined using an environmental light image acquired by the lidar 20. The specific processing procedure is the same as for the captured image. Note that the environmental light image is a detection result image that does not depend on the detection light from the light emitting unit 24, and will be described in detail later.

CPU101は、撮像画像から注目領域を判別可能でないと判定すると(ステップS102:No)、ステップS110に移行する。注目領域を判別可能でない場合には、高分解能処理の実行対象領域を特定できないからである。注目領域を判別可能でない場合には、例えば、撮像画像に対象物が含まれていない場合、撮像画像のSNが低く画素値を用いた対象物の判別ができない場合が含まれる。CPU101は、撮像画像から注目領域を判別可能であると判定すると(ステップS102:Yes)、図6に示すように、撮像画像CF中における注目領域FAを決定する(ステップS104)。注目領域FAの決定は、撮像画像CFにおいて抽出された対象物を囲む注目領域としての領域の決定であり、例えば、領域を規定可能な位置座標の決定であり、特定走査角範囲CRを決定するための処理である。より具体的には、対象物の輪郭範囲を特定するための領域の複数点の位置座標であっても良く、画像上における対象物の面積に応じて予め用意されている対象物を囲む矩形領域の四隅の位置座標であっても良い。図6の例では、対象物として白線BLが抽出され、白線BLを囲む予め用意された略矩形枠によって注目領域FAが規定されている。 If the CPU 101 determines that the region of interest cannot be determined from the captured image (step S102: No), the process proceeds to step S110. This is because if the region of interest cannot be determined, the region to be subjected to high-resolution processing cannot be specified. Cases in which the region of interest cannot be determined include, for example, cases in which the captured image does not include an object, or cases in which the SN of the captured image is so low that the object cannot be determined using pixel values. If the CPU 101 determines that the attention area can be determined from the captured image (step S102: Yes), as shown in FIG. 6, the CPU 101 determines the attention area FA in the captured image CF (step S104). The determination of the attention area FA is the determination of an area as the attention area surrounding the object extracted in the captured image CF, for example, the determination of positional coordinates that can define the area, and the determination of a specific scanning angle range CR. This is a process for More specifically, it may be the position coordinates of multiple points in an area for specifying the contour range of the object, and a rectangular area surrounding the object prepared in advance according to the area of the object on the image. It may also be the position coordinates of the four corners of . In the example of FIG. 6, the white line BL is extracted as the target object, and the attention area FA is defined by a substantially rectangular frame prepared in advance that surrounds the white line BL.

CPU101は、ライダー20によって取得された検出点群データを取得し、決定された注目領域に対する高分解能処理が必要であるか否かを判定する(ステップS106)。高分解能処理が必要であるか否かは、例えば、ライダー20によって取得された検出点群データの検出率DRが予め定められた基準検出率に対応する判定しきい値DRr以下であるか否かによって決定される。検出率DRとしては、例えば、過去の検出点群データがメモリ102に格納されている場合には、過去の検出点群データに対する今回の検出点群データの、最大検出距離の比、および路面上における検出点数の比が用いられ、過去の検出点群データがメモリ102に格納されていない場合には、予め定められた標準の検出点群データに対する今回の検出点群データの、最大検出距離の比、および路面上における検出点数の比が用いられる。なお、標準の検出点群データを用いて求められた検出率DRは、過去の検出点群データとしてメモリ102に格納される。さらに、過去の履歴を考慮する検出率に加えて、あるいは、過去の履歴を考慮する検出率とは別に、天候情報を用いて検出率が決定されていても良い。CPU101は、外部との通信により得られた環境情報としての天気予報情報、あるいは、自車両におけるワイパースイッチのオン情報を用いて、例えば、天候が雨や雪の場合には、検出率DRは判定しきい値DRr以下であると判定し、天候が雨や雪以外の場合には、検出率DRは判定しきい値DRrより大きいと判定しても良い。なお、天候情報としては、濃霧情報や太陽の高度情報といった、ライダー20の検出精度に影響を与える可能性のある情報が用いられても良い。 The CPU 101 acquires the detected point group data acquired by the lidar 20, and determines whether high-resolution processing is necessary for the determined region of interest (step S106). Whether or not high-resolution processing is necessary is determined by, for example, whether the detection rate DR of the detection point group data acquired by the lidar 20 is less than or equal to the determination threshold value DRr corresponding to a predetermined reference detection rate. determined by For example, when past detection point cloud data is stored in the memory 102, the detection rate DR is the ratio of the maximum detection distance of the current detection point cloud data to the past detection point cloud data, and the ratio of the maximum detection distance on the road surface. If the past detection point cloud data is not stored in the memory 102, the ratio of the maximum detection distance of the current detection point cloud data to the predetermined standard detection point cloud data is used. The ratio and the ratio of the number of detection points on the road surface are used. Note that the detection rate DR obtained using the standard detection point group data is stored in the memory 102 as past detection point group data. Furthermore, the detection rate may be determined using weather information in addition to or separately from the detection rate that takes past history into account. For example, if the weather is rain or snow, the CPU 101 determines the detection rate DR using weather forecast information as environmental information obtained through communication with the outside, or information on the wiper switch on of the own vehicle. If the detection rate DR is determined to be equal to or less than the threshold value DRr, and the weather is other than rain or snow, the detection rate DR may be determined to be greater than the determination threshold value DRr. Note that as the weather information, information that may affect the detection accuracy of the lidar 20, such as dense fog information or sun altitude information, may be used.

CPU101は、検出率DRが判定しきい値DRr以下である、すなわち、DR≦DRrであると判定すると、高分解能処理が必要であると判定し(ステップS106:Yes)、高分解能処理を実行する(ステップS108)。高分解能処理においては、CPU101は、発光部24、すなわち、発光制御部に対して基準回数よりも高い回数、基準間隔よりも短い間隔、あるいは基準回数よりも多い回数で、発光制御信号を出力する。CPU101はまた、受光制御部23に対して、8個の受光素子220から構成される受光画素222を用いる基準受光処理に代えて、1個の受光素子220から構成される受光画素221を用いる高分解能受光処理を実行させる受光制御信号を出力する。この結果、注目領域FAに対して、図7のライダー20による検出フレームLFに示されるように、通常処理時における検出点Dnpの数よりも、水平方向HDおよび垂直方向VDにおいて検出点Dhpの数を増大させる高分解能処理が実現される。この結果、図7に示すように、注目領域FAにおける検出点Dhpが増大され、分解能が高められて白線BLの検出精度が向上される。なお、既述のように、垂直方向VDにおける検出点の数を増大させるために1個の受光素子220から構成される受光画素221を用いることによりSレベルは低下するが、特定走査角範囲CRにおける検出群の取得回数を増大させることによって、一定の走査周期を維持しつつ、各受光画素221の受光回数並びに受光処理回数が増大するので入射光強度信号のSレベルは増大し、結果として、通常処理時におけるSNと同等のSNが実現され得る。 When the CPU 101 determines that the detection rate DR is less than or equal to the determination threshold value DRr, that is, DR≦DRr, the CPU 101 determines that high-resolution processing is necessary (step S106: Yes) and executes the high-resolution processing. (Step S108). In high-resolution processing, the CPU 101 outputs a light emission control signal to the light emission unit 24, that is, the light emission control unit, at a frequency higher than the reference number of times, at an interval shorter than the reference interval, or at a number of times greater than the reference number. . The CPU 101 also instructs the light reception control unit 23 to perform high-level light reception processing using the light reception pixel 221 composed of one light reception element 220 instead of the standard light reception processing using the light reception pixel 222 composed of eight light reception elements 220. Outputs a light reception control signal that executes resolution light reception processing. As a result, for the attention area FA, as shown in the detection frame LF by the lidar 20 in FIG. 7, the number of detection points Dhp in the horizontal direction HD and vertical direction VD is greater than the number of detection points Dnp during normal processing. High-resolution processing that increases the As a result, as shown in FIG. 7, the number of detection points Dhp in the attention area FA is increased, the resolution is increased, and the detection accuracy of the white line BL is improved. As described above, the S level is lowered by using the light receiving pixel 221 composed of one light receiving element 220 in order to increase the number of detection points in the vertical direction VD, but the specific scanning angle range CR By increasing the number of acquisitions of the detection group in , the number of times each light receiving pixel 221 receives light and the number of times it processes light increases while maintaining a constant scanning cycle, so the S level of the incident light intensity signal increases, and as a result, An SN equivalent to the SN during normal processing can be achieved.

CPU101は、検出率DRが判定しきい値DRrより大きい、すなわち、DR>DRrであると判定すると、高分解能処理は不要であると判定し(ステップS106:No)、通常処理を実行する(ステップS110)。通常処理においては、CPU101は、発光部24に対して基準回数で発光制御信号を出力し、受光制御部23に対して、8個の受光素子220から構成される受光画素222を用いる基準受光処理を実行させる受光制御信号を出力する。この結果、図7に示される検出点Dnpが得られる通常処理が実現される。なお、通常処理は基準受光処理または基準分解能処理と言うこともできる。 If the CPU 101 determines that the detection rate DR is larger than the determination threshold DRr, that is, DR>DRr, the CPU 101 determines that high-resolution processing is unnecessary (step S106: No) and executes normal processing (step S110). In normal processing, the CPU 101 outputs a light emission control signal to the light emitting unit 24 at a standard number of times, and to the light receiving control unit 23, a standard light receiving process using the light receiving pixels 222 composed of eight light receiving elements 220 is performed. Outputs a light reception control signal to execute. As a result, normal processing is realized in which the detection point Dnp shown in FIG. 7 is obtained. Note that the normal processing can also be referred to as reference light reception processing or reference resolution processing.

CPU101は、高分解能処理または通常処理によって得られた検出点群を用いて勾配推定処理を実行して(ステップS112)、本処理ルーチンを終了する。図7の例では、注目領域FAは右側の白線を例にとって示されているが、左側の白線についても同様に注目領域FAが決定され、高分解能処理が実行されても良い。勾配推定処理は、自車両の進行方向における道路の勾配の推定を行う処理である。したがって、自車両の進行方向に対して左右に位置する道路端あるいは白線は略平行であり、道幅も略一定であるという前提の下、道路端あるいは道路境界を示す少なくとも一本の線分が特定されれば、道路の領域が規定され、さらに二本以上の線分が特定されれば道路の領域の規定精度が向上される。具体的には、特定された道路の領域に含まれる検出点群を用いて平面を規定し、規定された平面を用いて勾配が推定される。検出点群を用いる勾配推定は、既知の手法、例えば、RANSAC(Random Sample Consensus)法、最小二乗法を用いることにより実行される。平面は、ax+by+cz+d=0(式1)によって規定される。この条件下において、RANSACを用いて、式2の係数、a、b、c、dを算出して前方路面を三次元座標上において規定する。得られた係数により規定される平面の法線を求め、予め規定されている基準平面の基準法線に対して算出された法線がなす角度を求める。これによって、前方路面の勾配が推定される。なお、基準平面は、自車両が載る水平面であり、自車両が現在載っている現在路面の勾配については、基準平面と現在路面の勾配が一致している状態からの勾配変化、すなわち、勾配差を履歴としてメモリ102に格納しておくことによって補正することができる。さらに、自車両の左右における道路端または白線に対応する2つの線分について勾配が求められることによって、勾配の推定精度はさらに向上する。また、左右の線分を構成する各検出点の座標位置情報を用いることによって、道路の左右方向への傾斜を推定することもできる。 The CPU 101 executes gradient estimation processing using the detection point group obtained by high-resolution processing or normal processing (step S112), and ends this processing routine. In the example of FIG. 7, the attention area FA is shown taking the white line on the right as an example, but the attention area FA may be similarly determined for the white line on the left, and high-resolution processing may be performed. The slope estimation process is a process for estimating the slope of the road in the traveling direction of the own vehicle. Therefore, on the assumption that the road edges or white lines located on the left and right sides of the vehicle's traveling direction are approximately parallel and the road width is approximately constant, at least one line segment indicating the road edge or road boundary is identified. If the road area is specified, the road area is defined, and if two or more line segments are specified, the accuracy of the road area definition is improved. Specifically, a plane is defined using a group of detection points included in the specified road area, and the gradient is estimated using the defined plane. Gradient estimation using a group of detection points is performed by using a known method, for example, the RANSAC (Random Sample Consensus) method or the least squares method. The plane is defined by ax+by+cz+d=0 (Equation 1). Under this condition, the coefficients a, b, c, and d of Equation 2 are calculated using RANSAC to define the road surface ahead on the three-dimensional coordinates. The normal to the plane defined by the obtained coefficient is determined, and the angle formed by the calculated normal with respect to the reference normal of the predefined reference plane is determined. This allows the slope of the road ahead to be estimated. The reference plane is a horizontal plane on which the vehicle is currently riding, and the gradient of the current road surface on which the vehicle is currently riding is the change in gradient from the state where the gradient of the reference plane and the current road surface are the same, that is, the difference in gradient. This can be corrected by storing it in the memory 102 as a history. Furthermore, the slope estimation accuracy is further improved by determining the slopes of two line segments corresponding to the road edges or white lines on the left and right of the own vehicle. Furthermore, by using the coordinate position information of each detection point forming the left and right line segments, it is also possible to estimate the inclination of the road in the left and right direction.

以上説明した第1の実施形態に係る道路勾配推定装置100によれば、カメラ30を用いて道路上における注目領域FAを決定し、決定された注目領域FAにおける検出点群の分解能を増大させて高分解能検出点群が取得される。したがって、白線の有無や白線の明瞭度に左右されることなく、自車両の前方における道路の勾配を推定するために用いられる対象物を特定し、特定した対象物から得られる検出点の分解能が向上され、路面の勾配の推定精度を向上させることができる。より具体的には、受光部21における受光画素の数、すなわち、受光単位を増大させることによって、垂直方向VDにおける検出点群数が増大され、注目領域FAにおける垂直方向VDの分解能が増大される。この分解能の増大により注目検出点群、特には、高信号強度検出点群が取得可能となる。また、カメラ30の撮像画像を用いて道路上、すなわち、自車両の前方領域における注目領域FAを決定することによって、自車両の前方における路面の規定に有用な走査領域を特定することが可能となり、注目領域FAに対応する特定走査角範囲CRにおける検出点群の取得回数を増大させることができる。特定走査角範囲CRにおける検出点群の取得回数が増大されることによって、予め定められている走査間隔を延ばすことなく、検出点群の入射光強度信号の信号強度を高めて、垂直方向VDへの分解能の増大に伴う各検出点の入射光強度信号の強度低下を補填し、高分解能で十分な信号強度の特定検出点群を得ることができる。この結果、垂直方向VDにおける高密度の検出点群を用いて平面、すなわち、路面の抽出精度を向上させることが可能となり、道路の勾配の推定精度を向上させることができる。また、道路勾配が変化する場合における勾配の推定精度を向上させることができる。なお、垂直方向VDにおける分解能の増大は、受光単位の増大の他に、垂直方向VDへの走査を実行することによって、検出点数を増大させることによって実現されても良い。道路の勾配の推定精度が増大することにより、白線が片側にのみ存在する道路についても道路勾配を推定することが可能となり、白線の曲率の算出精度を向上させることができる。また、道路勾配に合わせて、車両における原動機の制御を適確化することができる。例えば、内燃機関と電動機とを備える、いわゆるハイブリッド車両において内燃機関および電動機による動力分配を適切に制御することができる。 According to the road slope estimating device 100 according to the first embodiment described above, the attention area FA on the road is determined using the camera 30, and the resolution of the detection point group in the determined attention area FA is increased. A high resolution detection point cloud is acquired. Therefore, the resolution of the detection point obtained from the identified object can be determined by identifying the object used to estimate the slope of the road in front of the vehicle, regardless of the presence or absence of a white line or the clarity of the white line. It is possible to improve the estimation accuracy of the road surface slope. More specifically, by increasing the number of light receiving pixels in the light receiving section 21, that is, increasing the light receiving unit, the number of detection point groups in the vertical direction VD is increased, and the resolution of the vertical direction VD in the attention area FA is increased. . This increase in resolution makes it possible to obtain a group of detection points of interest, particularly a group of detection points with high signal strength. Furthermore, by determining the area of interest FA on the road, that is, in the area in front of the host vehicle using the captured image of the camera 30, it becomes possible to specify a scanning area useful for defining the road surface in front of the host vehicle. , it is possible to increase the number of times a group of detection points is acquired in the specific scanning angle range CR corresponding to the area of interest FA. By increasing the number of acquisitions of the detection point group in the specific scanning angle range CR, the signal strength of the incident light intensity signal of the detection point group is increased without extending the predetermined scanning interval, and the signal strength is increased in the vertical direction VD. It is possible to compensate for the decrease in the intensity of the incident light intensity signal at each detection point due to the increase in resolution, and obtain a specific detection point group with high resolution and sufficient signal intensity. As a result, it is possible to improve the accuracy of extracting a plane, that is, the road surface, by using a high-density detection point group in the vertical direction VD, and it is possible to improve the accuracy of estimating the slope of the road. Furthermore, it is possible to improve the accuracy of estimating the gradient when the road gradient changes. Note that the resolution in the vertical direction VD may be increased by increasing the number of detection points by performing scanning in the vertical direction VD, in addition to increasing the number of light receiving units. By increasing the accuracy of estimating the road slope, it becomes possible to estimate the road slope even for a road where a white line exists only on one side, and it is possible to improve the accuracy of calculating the curvature of the white line. Further, it is possible to appropriately control the prime mover in the vehicle according to the road gradient. For example, in a so-called hybrid vehicle that includes an internal combustion engine and an electric motor, power distribution between the internal combustion engine and the electric motor can be appropriately controlled.

第1の実施形態に係る道路勾配推定装置100においては、垂直方向VDにおける分解能の増大に加えて、水平方向HDにおける検出点群の分解能が増大されてもよい。この結果、垂直方向VDおよび水平方向HDにおける高密度の検出点群を用いて平面、すなわち、路面の抽出精度をさらに向上させることが可能となり、道路の勾配の推定精度をさらに向上させることができる。また、道路勾配が変化する場合における勾配の推定精度をさらに向上させることができる。水平方向HDにおける検出点群の分解能の増大は、例えば、電動機ドライバに対する回転角度指示信号の送信回数を通常処理時よりも多くする、すなわち、単位走査角を小さくすることにより実行され得る。さらに、第1の実施形態における垂直方向と水平方向とを入れ替えて上述の処理が実行されても良い。すなわち、ライダー20が縦横90°回転された状態で配置され、すなわち、図3に示す受光素子アレイ22が90°回転された状態で配置され、上記説明における垂直方向を水平方向と読み替え、水平方向を垂直方向と読み替えて、道路勾配推定装置100が実現されても良い。 In the road slope estimating device 100 according to the first embodiment, in addition to increasing the resolution in the vertical direction VD, the resolution of the detection point group in the horizontal direction HD may be increased. As a result, it is possible to further improve the accuracy of extracting a plane, that is, the road surface, by using a high-density detection point group in the vertical direction VD and horizontal direction HD, and it is possible to further improve the estimation accuracy of the road slope. . Furthermore, it is possible to further improve the accuracy of estimating the gradient when the road gradient changes. The resolution of the detection point group in the horizontal direction HD can be increased, for example, by transmitting the rotation angle instruction signal to the motor driver more times than during normal processing, that is, by reducing the unit scan angle. Furthermore, the above-described process may be performed by replacing the vertical direction and the horizontal direction in the first embodiment. That is, the lidar 20 is arranged in a state rotated by 90 degrees vertically and horizontally, that is, the light receiving element array 22 shown in FIG. 3 is arranged in a state rotated by 90 degrees. The road gradient estimating device 100 may be implemented by reading the term "vertical direction" as the vertical direction.

上記の勾配推定処理においては、平面を用いて勾配が推定された。これに対して、線分を用いて勾配が推定されても良い。本実施形態においては、白線に対応する線分を検出するための分解能が高められているので、線分を精度良く規定することが可能となり、一本の線分が用いられる場合であっても勾配の推定精度が向上される。具体的には、特定された線分を構成する各検出点の3次元の座標情報(x、y、z)を用い、自車両の座標系においてz軸が垂直方向VDの座標軸である場合、各検出点のz座標の増分または減分を用いて線分の勾配を求めることができる。点群から直線を求めるためには、既述のRANSAC法、最小二乗法、が用いられる。線分は、ax+by+c=0(式1)によって規定される。この条件下において、RANSACを用いて、式1の係数、a、b、cを算出して前方路面の道路端または白線を示す線分が規定される。予め規定されている基準平面に対して規定された線分がなす角度を求めることにより、前方路面の勾配が推定される。 In the gradient estimation process described above, the gradient was estimated using a plane. On the other hand, the gradient may be estimated using line segments. In this embodiment, since the resolution for detecting the line segment corresponding to the white line is increased, it is possible to define the line segment with high precision, even when a single line segment is used. Gradient estimation accuracy is improved. Specifically, using the three-dimensional coordinate information (x, y, z) of each detection point constituting the identified line segment, if the z-axis is the coordinate axis in the vertical direction VD in the coordinate system of the own vehicle, The increment or decrement of the z-coordinate of each detection point can be used to determine the slope of the line segment. In order to find a straight line from a group of points, the RANSAC method and the least squares method described above are used. A line segment is defined by ax+by+c=0 (Equation 1). Under this condition, RANSAC is used to calculate the coefficients a, b, and c of Equation 1, and a line segment indicating the road edge or white line on the road ahead is defined. The gradient of the road surface ahead is estimated by determining the angle formed by the defined line segment with respect to a predefined reference plane.

第1の実施形態に係る道路勾配推定装置100によれば、カメラ30およびライダー20の双方を用いて道路勾配が推定されるので、一方に不具合が発生した場合であっても、道路の勾配推定を継続することができる。 According to the road gradient estimating device 100 according to the first embodiment, the road gradient is estimated using both the camera 30 and the lidar 20, so even if a problem occurs in one, the road gradient can still be estimated. can be continued.

上記の説明においては、特定検出点群として、垂直方向VDにおける分解能を増大し、注目領域FAに対応する特定走査角範囲CRにおいてライダー20により検出点群の取得回数を増大させて分解能の増大に伴う入射光強度の低下を補填して高分解能検出点群を取得し、道路勾配が推定された。これに対して、注目領域における分解能を増大させることなく、注目領域に対応する特定走査角範囲CRにおいてライダー20による検出点群の取得回数を増大させることにより、入射光強度信号の信号強度を増大させた高信号強度検出点群を注目検出点群として取得し、道路勾配が推定されても良い。すなわち、特定走査角範囲CRに対するライダー20による検出点群の取得回数の増大は注目検出点群、特には、高信号強度検出点群の取得に該当する。この場合には、垂直方向VDにおける分解能を高めることができない受光素子220が用いられる場合、あるいは、水平方向HDにおいて分解能を高めることができない電動機40または走査鏡26が用いられる場合であっても、道路勾配の推定精度を向上させることができる。すなわち、白線等の対象物に対応する検出点群を示す入射光強度信号の信号強度が高められることにより、白線等の対象物の検出精度が向上し、路面の抽出精度が向上され、道路勾配の推定精度が向上される。 In the above description, as a specific detection point group, the resolution in the vertical direction VD is increased, and the number of times the lidar 20 acquires the detection point group is increased in the specific scanning angle range CR corresponding to the area of interest FA to increase the resolution. A high-resolution detection point cloud was obtained by compensating for the accompanying decrease in incident light intensity, and the road slope was estimated. In contrast, the signal intensity of the incident light intensity signal is increased by increasing the number of times the lidar 20 acquires a group of detection points in the specific scanning angle range CR corresponding to the region of interest without increasing the resolution in the region of interest. The road slope may be estimated by acquiring a group of high signal strength detection points as a group of detection points of interest. That is, an increase in the number of times the lidar 20 acquires a group of detection points in the specific scanning angle range CR corresponds to the acquisition of a group of detection points of interest, particularly a group of high signal strength detection points. In this case, even if the light receiving element 220 that cannot increase the resolution in the vertical direction VD is used, or the electric motor 40 or the scanning mirror 26 that cannot increase the resolution in the horizontal direction HD, It is possible to improve the estimation accuracy of road slope. In other words, by increasing the signal strength of the incident light intensity signal indicating the detection point group corresponding to a target object such as a white line, the detection accuracy of the target object such as a white line is improved, the extraction accuracy of the road surface is improved, and the road slope The estimation accuracy is improved.

第1の実施形態において、高分解能受光処理が実行される場合には、走査鏡26は、特定走査角範囲CRにおいて繰り返し往復動されても良い。このように、走査鏡26が、特定走査角範囲CRに絞って走査を繰り返すことによっても特定走査角範囲CRにおける検出点群をなす各検出点の信号強度を増大させることが可能となる。 In the first embodiment, when high-resolution light reception processing is executed, the scanning mirror 26 may be repeatedly moved back and forth in the specific scanning angle range CR. In this way, the scanning mirror 26 repeats scanning within the specific scanning angle range CR, thereby making it possible to increase the signal strength of each detection point forming the detection point group in the specific scanning angle range CR.

第2の実施形態:
第1の実施形態においては、勾配推定プログラムPr1は、注目領域FAにおいて得られる高分解能検出点群を用いて路面の勾配を推定するが、第2の実施形態においては、勾配推定プログラムPr1は、注目領域FAを決定できず、あるいは、注目領域FAを近傍でしか決定できず、高分解能検出点群を得ることができない場合に、通常の検出点群に加えて、ライダー20により得られる環境光画像を補完的に用いて路面の勾配を推定するように構成されている。一般的に、路面は近傍においてのみライダー20の反射点を検出できる場合があり、このような場合においても環境光画像が用いられる。なお、第2の実施形態に係る道路勾配推定装置の構成は第1の実施形態に係る道路勾配推定装置100の構成と同様であるから同一の符合を付すことで説明を省略する。一般的に、ライダー20は、発光部24により検出光を照射し、検出光に応じた反射光を受光部21が受光することによって検出点群を検出、取得する。受光部21は、予め定められたしきい値を超える入射信号強度の入力に応じて検出点の存在を識別・検知するが、受光部21に対しては随時、外乱光とも呼ばれる環境光も入射されている。ライダー20は、カメラ30により検出される可視光領域とは異なる赤外領域の入射光を受光するので、各受光画素による環境光の受光結果は赤外の画素画像を形成し、図8に示すような環境光画像LFとして用いられ得る。図8において環境光画像LFには白線BLが含まれており、白線BLによって規定される道路、あるいは、路面が抽出可能となる。
Second embodiment:
In the first embodiment, the gradient estimation program Pr1 estimates the gradient of the road surface using a group of high-resolution detection points obtained in the region of interest FA, but in the second embodiment, the gradient estimation program Pr1 When the attention area FA cannot be determined, or when the attention area FA can only be determined in the vicinity and a high-resolution detection point cloud cannot be obtained, in addition to the normal detection point cloud, the ambient light obtained by the lidar 20 is used. The system is configured to use images in a complementary manner to estimate the slope of the road surface. Generally, there are cases where the reflection point of the rider 20 can be detected only in the vicinity of the road surface, and even in such cases, the ambient light image is used. Note that the configuration of the road gradient estimating device according to the second embodiment is similar to the configuration of the road gradient estimating device 100 according to the first embodiment, so the same reference numerals are given and the explanation will be omitted. Generally, the lidar 20 detects and acquires a group of detection points by emitting detection light from the light emitting unit 24 and by having the light receiving unit 21 receive reflected light corresponding to the detection light. The light receiving unit 21 identifies and detects the presence of a detection point in response to input of an incident signal intensity exceeding a predetermined threshold, but environmental light, also called disturbance light, also enters the light receiving unit 21 at any time. has been done. Since the lidar 20 receives incident light in the infrared region, which is different from the visible light region detected by the camera 30, the result of reception of environmental light by each light receiving pixel forms an infrared pixel image, as shown in FIG. It can be used as an ambient light image LF. In FIG. 8, the ambient light image LF includes a white line BL, and a road or road surface defined by the white line BL can be extracted.

道路勾配推定装置100は、環境光の強度が予め定められたしきい値よりも高い場合に環境光画像を用いても良い。環境光画像LFは、発光部24からの検出光に依存しない検出結果画像であり、夜間や日中の影領域においては、所望の信頼度を満足する環境光画像を得ることができず、結果として検出点群を補完する精度の良い勾配推定処理を実行できない。環境光の強度は、例えば、受光部21によって受光される信号強度の最大値や平均値を用いて予め定められたしきい値と比較される。道路勾配推定装置100は、環境光の強度が予め定められたしきい値よりも強い場合には、検出点群に加えて環境光画像を用いて勾配推定処理を実行し、環境光の強度が予め定められたしきい値よりも弱い場合には、環境光画像を用いることなく検出点群のみを用いて勾配推定処理を実行する。なお、環境光画像LFにおける路面の勾配は、抽出された路面の法線を算出し、既述の手法により求められる。道路勾配推定装置100は、例えば、検出点群を用いて得られた勾配と、環境光画像を用いて得られた勾配とを用いて、平均または加重平均により勾配を得ることができる。この場合には、カメラ30によって注目領域FAを特定できず、高分解能処理を実行できない場合であっても、道路の勾配を精度良く推定することができる。 The road slope estimating device 100 may use the environmental light image when the intensity of the environmental light is higher than a predetermined threshold. The environmental light image LF is a detection result image that does not depend on the detection light from the light emitting unit 24, and in shadow areas at night or during the day, it is not possible to obtain an environmental light image that satisfies the desired reliability, and the result is Therefore, accurate gradient estimation processing that complements the detected point group cannot be performed. The intensity of the environmental light is compared with a predetermined threshold using, for example, the maximum value or average value of the signal intensity received by the light receiving unit 21. When the intensity of the environmental light is stronger than a predetermined threshold, the road slope estimating device 100 executes the slope estimation process using the environmental light image in addition to the detection point group, and calculates the intensity of the environmental light. If it is weaker than a predetermined threshold, gradient estimation processing is performed using only the detection point group without using the environmental light image. Note that the gradient of the road surface in the environmental light image LF is obtained by calculating the extracted normal to the road surface and using the method described above. The road slope estimating device 100 can obtain the slope by averaging or weighted average using, for example, the slope obtained using the detection point group and the slope obtained using the environmental light image. In this case, even if the area of interest FA cannot be identified by the camera 30 and high-resolution processing cannot be performed, the slope of the road can be estimated with high accuracy.

さらに、図9に示すように、ライダー20により検出点群Dnpが得られない遠方の路面領域に対して、環境光画像LFにより得られる抽出路面ESLを用いて路面を外挿し、遠方の路面の勾配が推定されても良い。この結果、検出光に応答する路面からの反射光が得られない遠方の路面の勾配を推定することができる。なお、外挿は、得られている検出点群Dnpにより規定される平面の勾配と、抽出路面ESLの勾配とが近似または一致する場合に実行される。これにより、手前の路面と遠方の路面との連続性が保証される。 Furthermore, as shown in FIG. 9, for a distant road surface area where the detection point group Dnp cannot be obtained by the lidar 20, the extracted road surface ESL obtained from the environmental light image LF is used to extrapolate the road surface. A gradient may also be estimated. As a result, it is possible to estimate the slope of a distant road surface where reflected light from the road surface that responds to the detected light cannot be obtained. Note that extrapolation is performed when the slope of the plane defined by the obtained detection point group Dnp and the slope of the extracted road surface ESL approximate or match. This ensures continuity between the road surface in front and the road surface in the distance.

第3の実施形態:
第3の実施形態に係る道路勾配推定装置は、勾配推定プログラムPr1が注目領域FAを決定するに際して過去に決定された注目領域FAの履歴を用いて注目領域FAを決定する点で第1の実施形態に係る道路勾配推定装置100と異なる。なお、第3の実施形態に係る道路勾配推定装置のその他の構成は第1の実施形態に係る道路勾配推定装置100と同様であるから同一の符合を付して説明を省略する。
Third embodiment:
The road slope estimation device according to the third embodiment is different from the first embodiment in that the slope estimation program Pr1 determines the attention area FA using the history of the attention area FA determined in the past when determining the attention area FA. This is different from the road gradient estimating device 100 according to the embodiment. Note that the other configurations of the road gradient estimating device according to the third embodiment are the same as those of the road gradient estimating device 100 according to the first embodiment, so the same reference numerals are given and the explanation will be omitted.

図10および図11を参照して、注目領域FAの履歴を用いる勾配推定処理について詳述する。過去に決定された注目領域FAとは、例えば、カメラ30による撮像により得られるフレーム画像において、現在フレーム画像CFcよりも時間的に過去の前フレーム画像CFpを用いて決定された前注目領域FApである。なお、カメラ30におけるフレームレートは60fps程度であり、前フレーム画像CFpと現在フレーム画像CFcとの間の時間差は、数十ミリ秒である。第3の実施形態に係る道路勾配推定装置100は、前注目領域FApを用いて、現在フレーム画像CFcにおける現在注目領域FAcを決定する。前注目領域FApを用いるとは、前注目領域FApを規定する座標位置情報を用いることを意味し、現在フレーム画像CFcにおいて、前注目領域FApの座標位置情報を用いることによって、現在フレーム画像CFcの全画素あるいは全領域を走査することなく、白線BLが存在する領域または白線BLの近似領域において現在注目領域FAcの決定処理を開始することができる。この結果、注目領域FAを決定するための演算処理量を低減し、注目領域FAを決定するまでに要する時間を低減することができる。なお、過去のフレーム画像CFpは、メモリ102に格納されて得る。 The gradient estimation process using the history of the attention area FA will be described in detail with reference to FIGS. 10 and 11. The attention area FA determined in the past is, for example, the previous attention area FAp determined using a previous frame image CFp temporally past the current frame image CFc in a frame image obtained by imaging with the camera 30. be. Note that the frame rate in the camera 30 is about 60 fps, and the time difference between the previous frame image CFp and the current frame image CFc is several tens of milliseconds. The road slope estimating device 100 according to the third embodiment determines the current area of interest FAc in the current frame image CFc using the previous area of interest FAp. Using the previous region of interest FAp means using the coordinate position information that defines the previous region of interest FAp, and by using the coordinate position information of the previous region of interest FAp in the current frame image CFc, The process of determining the current area of interest FAc can be started in the area where the white line BL exists or the approximate area of the white line BL, without scanning all pixels or the entire area. As a result, the amount of arithmetic processing for determining the attention area FA can be reduced, and the time required to determine the attention area FA can be reduced. Note that the past frame image CFp is obtained by being stored in the memory 102.

第4の実施形態:
第4の実施形態に係る道路勾配推定装置は、勾配推定プログラムPr1が注目領域FAを決定するに際して過去に検出された対象物の履歴を用いて注目領域FAを決定する点で第1の実施形態に係る道路勾配推定装置100と異なる。なお、第4の実施形態に係る道路勾配推定装置のその他の構成は第1の実施形態に係る道路勾配推定装置100と同様であるから同一の符合を付して説明を省略する。
Fourth embodiment:
The road slope estimation device according to the fourth embodiment is different from the first embodiment in that the slope estimation program Pr1 determines the attention area FA using the history of objects detected in the past when determining the attention area FA. This is different from the road slope estimating device 100 according to the present invention. Note that the other configurations of the road gradient estimating device according to the fourth embodiment are the same as those of the road gradient estimating device 100 according to the first embodiment, so the same reference numerals are given and the explanation will be omitted.

図12を参照して、過去に検出された対象物の履歴を用いる勾配推定処理について詳述する。なお、図12に示す処理ルーチンは、図5に示す処理ルーチンと同様にして所定時間間隔で繰り返し実行される。過去に検出された対象物とは、例えば、カメラ30による撮像により得られるフレーム画像において、現在フレーム画像CFcよりも時間的に過去の前フレーム画像CFpを用いて検出された道路上の物体である。第4の実施形態に係る道路勾配推定装置100、すなわち、CPU101は、対象物の履歴の有無を判定する(ステップS200)。対象物の検出履歴は、メモリ102の領域102aに対象物履歴ORとして格納されており、検出済みの対象物に関する情報、例えば、座標位置情報、形状情報といった情報が格納されている。CPU101は、対象物履歴ORに対象物の検出が記録されていない場合には(ステップS200:No)、ステップS206に移行する。CPU101は、対象物履歴ORに対象物の検出が記録されている場合には(ステップS200:Yes)、記録されている履歴対象物と同一の対象物を探索する(ステップ202)。具体的には、CPU101は、対象物履歴ORに格納されている座標位置情報や形状情報を用いて現在フレーム画像CFcから該当する対象物を抽出する。CPU101は、探索が成功、すなわち、現フレーム画像Cfcにおいて、過去に検出された対象物と一致する対象物が検出された場合には(ステップS204:Yes)、検出された対象物を用いて注目領域FAを決定することを決定し、本処理ルーチンを終了する。 With reference to FIG. 12, gradient estimation processing using the history of objects detected in the past will be described in detail. Note that the processing routine shown in FIG. 12 is repeatedly executed at predetermined time intervals in the same manner as the processing routine shown in FIG. The object detected in the past is, for example, an object on the road that was detected using the previous frame image CFp, which is temporally past the current frame image CFc, in the frame image obtained by imaging with the camera 30. . The road slope estimating device 100 according to the fourth embodiment, that is, the CPU 101 determines whether there is a history of the object (step S200). The object detection history is stored as object history OR in the area 102a of the memory 102, and information regarding detected objects, such as coordinate position information and shape information, is stored. If the detection of the target object is not recorded in the target object history OR (step S200: No), the CPU 101 moves to step S206. If detection of an object is recorded in the object history OR (step S200: Yes), the CPU 101 searches for the same object as the recorded history object (step 202). Specifically, the CPU 101 extracts the relevant object from the current frame image CFc using the coordinate position information and shape information stored in the object history OR. If the search is successful, that is, if an object that matches a previously detected object is detected in the current frame image Cfc (step S204: Yes), the CPU 101 uses the detected object to draw attention. It is decided to determine the area FA, and this processing routine is ended.

CPU101は、過去に検出された対象物と一致する対象物が検出されない場合には(ステップS204:No)、ステップS206に移行する。CPU101は、現在フレーム画像CFcに対する白線の探索を実行して(ステップS206)、白線を用いて注目領域FAを決定することを決定し、本処理ルーチンを終了する。 If a target object matching a previously detected target object is not detected (step S204: No), the CPU 101 moves to step S206. The CPU 101 executes a white line search for the current frame image CFc (step S206), determines to use the white line to determine the attention area FA, and ends this processing routine.

第4の実施形態に係る道路勾配推定装置100によれば、過去に検出された対象物の情報を用いて、現在フレーム画像CFcから対象物を抽出し、注目領域FAを決定することができる。過去に検出された対象物を用いることによって、カメラ30のフレーム画像における対象物の誤検出を抑制または防止することが可能となり、また、対象物を特定し、注目領域FAを決定するまでに要する演算処理量の低減、並びに時間の低減を図ることができる。 According to the road gradient estimating device 100 according to the fourth embodiment, it is possible to extract a target object from the current frame image CFc and determine the attention area FA using information on targets detected in the past. By using objects detected in the past, it becomes possible to suppress or prevent false detection of objects in the frame images of the camera 30, and also the time required to specify the object and determine the attention area FA. The amount of calculation processing and time can be reduced.

第5の実施形態:
第5の実施形態に係る道路勾配推定装置は、勾配推定プログラムPr1が、車両50から離間するにつれて、ライダーの垂直方向における分解能を増大させる点で第1の実施形態に係る道路勾配推定装置100と異なる。なお、第5の実施形態に係る道路勾配推定装置のその他の構成は第1の実施形態に係る道路勾配推定装置100と同様であるから同一の符合を付して説明を省略する。
Fifth embodiment:
The road gradient estimation device according to the fifth embodiment is different from the road gradient estimation device 100 according to the first embodiment in that the gradient estimation program Pr1 increases the resolution in the vertical direction of the lidar as the distance from the vehicle 50 increases. different. Note that the other configurations of the road gradient estimating device according to the fifth embodiment are the same as those of the road gradient estimating device 100 according to the first embodiment, so the same reference numerals are given and the explanation will be omitted.

図13に示すように、従来のライダー20pでは、ライダー20pの垂直方向における路面の検出点の密度は、車両50から離間するにつれて低くなる。すなわち、車両50の鉛直方向を垂直角度0°とする場合、垂直角度が大きくなるにつれてライダー20pの垂直方向における路面の検出点の密度は低くなり、あるいは、検出間隔は広くなり得られる検出結果の分解能が低下する。例えば、車両50の近傍、すなわち、垂直角度が小さい領域、においては、検出点の間隔は狭く、また、ライダー20pから路面までの距離も短いため、反射光を得やすい。これに対して、車両50の遠方、すなわち、垂直角度が大きい領域、においては、検出点の間隔は広く、また、ライダー20pから路面までの距離も長いため、反射光を得にくい。この結果、車両50から離間するにつれて、検出点間の距離が増大して検出点密度が低下する。そこで、図14に示すように、CPU101は、車両から離間するにつれてライダー20の垂直方向の分解能を増大させて注目検出点群として高分解能検出点群を取得する。具体的には、図15に示すように、受光制御部23は、受光素子アレイ22において、ライダー20の垂直方向に対応する方向に配置されている受光素子220により構成される受光画素が、車両50から離間するにつれて少ない数の受光素子220を有するように受光制御を実行する。図15の例においては、車両50に最も近い位置に対応する受光画素22eは5つの受光素子220により構成され、車両50から最も遠い位置に対応する受光画素22aは1つの受光素子220により構成されている。受光素子22eから受光素子22aに向かって、4つの受光素子220によって構成される受光画素22d、3つの受光素子220によって構成される受光画素22c、2つの受光素子220によって構成される受光画素22bといったように順次、受光画素を構成する受光素子数は低減される。すなわち、車両50からの距離の大小によらず、検出点の間隔D1は一定となるように受光素子アレイ22における受光画素を構成する受光素子数が設定される。第5の実施形態によれば、車両50から離間する方向に向かって、分解能が増大されるので、車両50からの距離によらず、同一の分解能を得ることが可能となり、この結果、車両50からの距離の大小にかかわらず、物体の検出精度を維持することができる。なお、受光画素を構成する受光素子220の数は例示であり、車両50から離間するにつれて受光素子数が少なくなればどのような数であっても良い。なお、上記説明においては、車両から離間するにつれて受光素子アレイ22における受光画素を構成する受光素子数を低減することにより、車両から離間するにつれて垂直方向の分解能を増大させて注目検出点群として高分解能検出点群が取得されている。これに対して、垂直方向に走査可能なライダー20が用いられる場合には、受光素子アレイ22における受光画素の調整を行わず、車両から離間するにつれて単位走査角を小さくすることによって、車両から離間するにつれて垂直方向の分解能を増大させて、注目検出点群として高分解能検出点群が取得されても良い。 As shown in FIG. 13, in the conventional rider 20p, the density of detection points on the road surface in the vertical direction of the rider 20p decreases as the distance from the vehicle 50 increases. That is, when the vertical direction of the vehicle 50 is set to a vertical angle of 0°, as the vertical angle increases, the density of detection points of the rider 20p on the road surface in the vertical direction becomes lower, or the detection interval becomes wider, and the resulting detection result becomes smaller. Resolution decreases. For example, in the vicinity of the vehicle 50, that is, in an area where the vertical angle is small, the intervals between the detection points are narrow, and the distance from the rider 20p to the road surface is also short, so it is easy to obtain reflected light. On the other hand, in a region far away from the vehicle 50, that is, in a region where the vertical angle is large, the intervals between the detection points are wide and the distance from the rider 20p to the road surface is long, so it is difficult to obtain reflected light. As a result, as the distance from the vehicle 50 increases, the distance between the detection points increases and the detection point density decreases. Therefore, as shown in FIG. 14, the CPU 101 increases the resolution of the lidar 20 in the vertical direction as it moves away from the vehicle, and acquires a high-resolution detection point group as a detection point group of interest. Specifically, as shown in FIG. 15, the light reception control unit 23 controls whether the light reception pixels constituted by the light reception elements 220 arranged in the direction corresponding to the vertical direction of the lidar 20 in the light reception element array 22 are Light reception control is performed so that the number of light receiving elements 220 decreases as the distance from the light receiving element 50 increases. In the example of FIG. 15, the light receiving pixel 22e corresponding to the position closest to the vehicle 50 is composed of five light receiving elements 220, and the light receiving pixel 22a corresponding to the position farthest from the vehicle 50 is composed of one light receiving element 220. ing. From the light receiving element 22e toward the light receiving element 22a, there are a light receiving pixel 22d constituted by four light receiving elements 220, a light receiving pixel 22c constituted by three light receiving elements 220, a light receiving pixel 22b constituted by two light receiving elements 220, etc. The number of light-receiving elements constituting a light-receiving pixel is gradually reduced. That is, the number of light receiving elements constituting the light receiving pixels in the light receiving element array 22 is set so that the interval D1 between detection points is constant regardless of the distance from the vehicle 50. According to the fifth embodiment, the resolution increases in the direction away from the vehicle 50, so it is possible to obtain the same resolution regardless of the distance from the vehicle 50. Object detection accuracy can be maintained regardless of the distance from the object. Note that the number of light-receiving elements 220 constituting a light-receiving pixel is an example, and any number may be used as long as the number of light-receiving elements decreases as the distance from the vehicle 50 increases. In the above description, by reducing the number of light-receiving elements constituting the light-receiving pixels in the light-receiving element array 22 as the distance from the vehicle increases, the resolution in the vertical direction increases as the distance from the vehicle increases. A resolution detection point cloud has been acquired. On the other hand, when the lidar 20 that can scan vertically is used, the light-receiving pixels in the light-receiving element array 22 are not adjusted, and the unit scanning angle is decreased as the distance from the vehicle increases. The resolution in the vertical direction may be increased accordingly, and a high-resolution detection point group may be acquired as the detection point group of interest.

その他の実施形態:
(1)第1~第5の実施形態において推定される勾配を用いる応用例について説明する。例えば、自車両の進行方向における道路の勾配を予め高い精度で取得することによって、スロットル開度や変速段を調整し、上り勾配であれば車速の低下の抑制または防止を図り、下り勾配であれば、車速の増加の抑制または防止を図ることができる。
Other embodiments:
(1) An application example using the gradient estimated in the first to fifth embodiments will be described. For example, by obtaining the slope of the road in the direction of travel of the host vehicle with high precision in advance, the throttle opening and gears can be adjusted to suppress or prevent a decrease in vehicle speed if the slope is up, or if the slope is down. For example, it is possible to suppress or prevent an increase in vehicle speed.

(2)対象物の抽出に際しては、
・白線、中央分離帯、およびアスファルトの抽出には、カメラ30の撮像画像およびライダー20の環境光画像が用いられ、
・ガードレールおよび縁石の抽出には、カメラ30の撮像画像、ライダー20の環境光画像、およびライダー20の検出点が用いられ、
・チャッターバーおよびキャッツアイの抽出には、ライダー20の強反射の検出点が用いられ、
・先行車両の抽出には、カメラ30の撮像画像、ライダー20の環境光画像、ライダー20の検出点、およびミリ波レーダの検出点が含まれる。
(2) When extracting the target object,
- The captured image of the camera 30 and the environmental light image of the lidar 20 are used to extract white lines, median strips, and asphalt,
- The image captured by the camera 30, the environmental light image of the rider 20, and the detection point of the rider 20 are used to extract the guardrail and curb,
・For extraction of chatter bars and cat's eyes, strong reflection detection points of lidar 20 are used,
- Extraction of the preceding vehicle includes an image captured by the camera 30, an ambient light image of the lidar 20, a detection point of the lidar 20, and a detection point of the millimeter wave radar.

(3)上記各実施形態においては、CPU101が勾配推定プログラムPr1を実行することによって、ソフトウェア的に注目領域FAを決定し、高分解能処理を実行し、勾配を推定する道路勾配推定装置100が実現されているが、予めプログラムされた集積回路またはディスクリート回路によってハードウェア的に実現されても良い。すなわち、上記各実施形態における制御部およびその手法は、コンピュータプログラムにより具体化された一つまたは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部およびその手法は、一つまたは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 (3) In each of the above embodiments, the CPU 101 executes the gradient estimation program Pr1, thereby realizing the road gradient estimation device 100 that determines the attention area FA using software, executes high-resolution processing, and estimates the gradient. However, it may also be implemented in hardware by pre-programmed integrated circuits or discrete circuits. That is, the control unit and its method in each of the above embodiments are implemented by a dedicated computer provided by configuring a processor and memory programmed to execute one or more functions embodied by a computer program. May be realized. Alternatively, the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by a processor configured with one or more dedicated hardware logic circuits. Alternatively, the control unit and the method described in the present disclosure are configured by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. may be implemented by one or more dedicated computers. The computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.

以上、実施形態、変形例に基づき本開示について説明してきたが、上記した発明の実施の形態は、本開示の理解を容易にするためのものであり、本開示を限定するものではない。本開示は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本開示にはその等価物が含まれる。たとえば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 Although the present disclosure has been described above based on the embodiments and modifications, the embodiments of the invention described above are for facilitating understanding of the present disclosure, and do not limit the present disclosure. This disclosure may be modified and improved without departing from its spirit or the scope of the claims, and this disclosure includes equivalents thereof. For example, the embodiments corresponding to the technical features in each form and the technical features in the modifications described in the column of the summary of the invention may be used to solve some or all of the above-mentioned problems, or to solve the above-mentioned problems. In order to achieve some or all of the effects, it is possible to replace or combine them as appropriate. Further, unless the technical feature is described as essential in this specification, it can be deleted as appropriate.

10…道路勾配推定システム、20…ライダー、30…カメラ、40…電動機、100…道路勾配推定装置、101…CPU、102…メモリ、103…入出力インタフェース、104…内部バス、50…車両、Pr1…勾配推定プログラム。 DESCRIPTION OF SYMBOLS 10... Road gradient estimation system, 20... Rider, 30... Camera, 40... Electric motor, 100... Road gradient estimation device, 101... CPU, 102... Memory, 103... Input/output interface, 104... Internal bus, 50... Vehicle, Pr1 ...Gradient estimation program.

Claims (14)

車両(50)に用いられる道路勾配推定装置(100)であって、
ライダー(Lidar)(20)または撮像装置(30)から取得される環境光画像または撮像画像を用いて道路上における注目領域(FA)を決定する注目領域決定部(101)と、
ライダーを制御して検出点群を取得する検出点群取得部(101)であって、前記注目領域における検出点群の分解能または信号強度を増大させて、注目検出点群を取得可能な検出点群取得部であり、前記ライダーの垂直方向または水平方向の分解能を増大させて前記注目検出点群として高分解能検出点群を取得する検出点群取得部と、
前記注目検出点群を用いて道路勾配を推定する勾配推定部(101)と、を備え
前記ライダーは複数の受光素子(220)により構成される受光素子アレイ(22)を有し、
前記検出点群取得部は、予め定められた数の前記複数の受光素子を受光単位として前記検出点群を取得し、
前記検出点群取得部は、
前記受光単位を構成する前記受光素子の数を減少させて前記受光単位の数を増大させることにより、垂直方向または水平方向の分解能を増大させる、道路勾配推定装置。
A road gradient estimation device (100) used in a vehicle (50), comprising:
an attention area determination unit (101) that determines an attention area (FA) on a road using an ambient light image or a captured image acquired from a lidar (20) or an imaging device (30);
A detection point group acquisition unit (101) that controls a lidar to acquire a detection point group, and is capable of acquiring a detection point group of interest by increasing the resolution or signal strength of the detection point group in the region of interest. a detection point group acquisition unit that is a group acquisition unit and increases the vertical or horizontal resolution of the lidar to acquire a high-resolution detection point group as the target detection point group;
comprising a slope estimating unit (101) that estimates a road slope using the group of detection points of interest ;
The lidar has a light receiving element array (22) composed of a plurality of light receiving elements (220),
The detection point group acquisition unit acquires the detection point group using a predetermined number of the plurality of light receiving elements as a light receiving unit,
The detection point cloud acquisition unit includes:
A road slope estimating device that increases vertical or horizontal resolution by decreasing the number of light receiving elements constituting the light receiving unit and increasing the number of the light receiving units .
車両(50)に用いられる道路勾配推定装置(100)であって、
ライダー(Lidar)(20)または撮像装置(30)から取得される環境光画像または撮像画像を用いて道路上における注目領域(FA)を決定する注目領域決定部(101)と、
ライダーを制御して検出点群を取得する検出点群取得部(101)であって、前記注目領域における検出点群の分解能または信号強度を増大させて、注目検出点群を取得可能な検出点群取得部と、
前記注目検出点群を用いて道路勾配を推定する勾配推定部(101)と、を備え、
前記ライダーの垂直方向は前記車両から離間する方向に対応し、
前記検出点群取得部は、前記車両から離間するにつれて前記ライダーの垂直方向の分解能を増大させて前記注目検出点群として高分解能検出点群を取得する、道路勾配推定装置。
A road gradient estimation device (100) used in a vehicle (50), comprising:
an attention area determination unit (101) that determines an attention area (FA) on a road using an ambient light image or a captured image acquired from a lidar (20) or an imaging device (30);
A detection point group acquisition unit (101) that controls a lidar to acquire a detection point group, and is capable of acquiring a detection point group of interest by increasing the resolution or signal strength of the detection point group in the region of interest. a group acquisition unit;
comprising a slope estimating unit (101) that estimates a road slope using the group of detection points of interest;
a vertical direction of the rider corresponds to a direction away from the vehicle;
The detection point group acquisition unit is a road gradient estimating device that increases the resolution of the lidar in the vertical direction as the distance from the vehicle increases, and acquires a high-resolution detection point group as the detection point group of interest.
請求項に記載の道路勾配推定装置において、
前記ライダーは、前記車両から離間する方向に対応して配置されている複数の受光素子(220)により構成される受光素子アレイ(22)を有し、
前記検出点群取得部は、予め定められた数の前記複数の受光素子を受光単位として前記検出点群を取得し、
前記検出点群取得部は、
前記車両から離間するにつれて前記受光単位を構成する前記受光素子の数を減少させて前記受光単位の数を増大させることにより、垂直方向の分解能を増大させる、道路勾配推定装置。
The road slope estimating device according to claim 2 ,
The lidar has a light-receiving element array (22) composed of a plurality of light-receiving elements (220) arranged corresponding to a direction away from the vehicle,
The detection point group acquisition unit acquires the detection point group using a predetermined number of the plurality of light receiving elements as a light receiving unit,
The detection point cloud acquisition unit includes:
A road slope estimating device that increases resolution in the vertical direction by decreasing the number of the light receiving elements constituting the light receiving unit and increasing the number of the light receiving units as the distance from the vehicle increases.
請求項または請求項に記載の道路勾配推定装置において、
前記検出点群取得部は、さらに、前記注目領域における単位走査角における前記検出点群の取得回数を増大させる、道路勾配推定装置。
The road slope estimating device according to claim 1 or 3 ,
The detection point group acquisition unit further increases the number of times the detection point group is acquired per unit scanning angle in the region of interest.
請求項1に記載の道路勾配推定装置において、
前記検出点群取得部は、前記注目領域における単位走査角における前記検出点群の取得回数を増大させることにより前記検出点群の信号強度を増大させる、道路勾配推定装置。
The road slope estimating device according to claim 1,
The detection point group acquisition unit is a road slope estimating device that increases the signal strength of the detection point group by increasing the number of times the detection point group is acquired per unit scanning angle in the region of interest.
請求項1からのいずれか一項に記載の道路勾配推定装置において、
前記検出点群取得部は、前記検出点群の検出率が予め定められた基準検出率以下の場合に、前記注目検出点群を取得する、道路勾配推定装置。
The road slope estimating device according to any one of claims 1 to 5 ,
The detection point group acquisition unit is a road gradient estimating device that acquires the detection point group of interest when a detection rate of the detection point group is equal to or lower than a predetermined reference detection rate.
請求項に記載の道路勾配推定装置において、
前記検出点群取得部は、前記検出率として、基準の検出点群データまたは過去の検出点群データに対する現在の検出点群データにおける最大検出距離の比および道路上における検出点数の比の少なくともいずれか一方を用いる、道路勾配推定装置。
The road slope estimating device according to claim 6 ,
The detection point cloud acquisition unit determines, as the detection rate, at least one of a ratio of a maximum detection distance in current detection point cloud data to reference detection point cloud data or past detection point cloud data, and a ratio of the number of detection points on the road. A road slope estimation device that uses either one of the two.
請求項1からのいずれか一項に記載の道路勾配推定装置において、
前記撮像画像は複数のフレーム画像により形成され、
前記注目領域決定部は、現在のフレーム画像(CFc)よりも過去の前フレーム画像(CFp)を用いて決定された前注目領域(FAp)を用いて現在の注目領域(FAc)を決定する、道路勾配推定装置。
The road slope estimating device according to any one of claims 1 to 7 ,
The captured image is formed by a plurality of frame images,
The attention area determining unit determines the current attention area (FAc) using a previous attention area (FAp) determined using a previous frame image (CFp) that is older than the current frame image (CFc). Road gradient estimation device.
車両(50)に用いられる道路勾配推定装置(100)であって、
ライダー(Lidar)(20)または撮像装置(30)から取得される環境光画像または複数のフレーム画像により形成されている撮像画像を用いて道路上における注目領域(FA)を決定する注目領域決定部(101)であって、現在のフレーム画像(CFc)よりも過去の前フレーム画像(CFp)を用いて決定された前注目領域(FAp)を用いて現在の注目領域(FAc)を決定する注目領域決定部と、
ライダーを制御して検出点群を取得する検出点群取得部(101)であって、前記現在の注目領域における検出点群の分解能または信号強度を増大させて、注目検出点群を取得可能な検出点群取得部と、
前記注目検出点群を用いて道路勾配を推定する勾配推定部(101)と、を備え、
前記注目領域決定部は、
前記前フレーム画像に道路上の対象物が検出されている場合には、前記現在フレーム画像から、検出された前記道路上の対象物を検出して前記現在の注目領域を決定し、
前記道路上の対象物が検出されていない場合には、前記現在フレーム画像から、区画線(BL)を検出して前記現在の注目領域を決定する、道路勾配推定装置。
A road gradient estimation device (100) used in a vehicle (50), comprising:
An attention area determination unit that determines an attention area (FA) on a road using an ambient light image acquired from a lidar (20) or an imaging device (30) or a captured image formed by a plurality of frame images. (101), in which the current area of interest (FAc) is determined using the previous area of interest (FAp) determined using the previous frame image (CFp) that is past the current frame image (CFc). an area determining section;
A detection point group acquisition unit (101) that controls a lidar to acquire a detection point group, and is capable of acquiring a detection point group of interest by increasing the resolution or signal strength of the detection point group in the current region of interest. a detection point cloud acquisition unit;
comprising a slope estimating unit (101) that estimates a road slope using the group of detection points of interest;
The attention area determination unit includes:
If an object on the road is detected in the previous frame image, detecting the detected object on the road from the current frame image to determine the current region of interest;
A road gradient estimating device that detects a marking line (BL) from the current frame image to determine the current region of interest when the object on the road is not detected.
請求項1からのいずれか一項に記載の道路勾配推定装置において、
前記勾配推定部は、前記撮像画像を用いて前記注目領域が決定され得ない場合、または、前記注目領域の近傍における決定にとどまる場合に、前記検出点群と前記環境光画像とを用いて道路勾配を推定する、道路勾配推定装置。
The road slope estimating device according to any one of claims 1 to 9 ,
When the region of interest cannot be determined using the captured image, or when the region of interest can only be determined in the vicinity of the region of interest, the gradient estimator is configured to estimate the road using the detection point group and the environmental light image. A road slope estimation device that estimates slope.
車両(50)に搭載される道路勾配推定システム(10)であって、
請求項1から10のいずれか一項に記載の道路勾配推定装置(100)と、
前記撮像装置と、
前記ライダーと、
を備える、道路勾配推定システム。
A road slope estimation system (10) mounted on a vehicle (50), comprising:
A road slope estimating device (100) according to any one of claims 1 to 10 ,
the imaging device;
The rider;
A road gradient estimation system.
車両(50)における道路勾配推定方法であって、
撮像装置(30)またはライダー(Lidar)から取得される撮像画像または環境光画像を用いて道路上における注目領域(FA)を決定し、前記ライダーは複数の受光素子(220)により構成される受光素子アレイ(22)を有し、
受光単位を構成する予め定められた数の前記受光素子の数を減少させて前記受光単位の数を増大させることにより、前記ライダーの垂直方向または水平方向の分解能を増大させて前記注目領域における検出点群の分解能を増大させ注目検出点群として高分解能検出点群を取得し、
前記注目検出点群を用いて道路勾配を推定すること、を備える、道路勾配推定方法。
A road gradient estimation method in a vehicle (50), comprising:
An area of interest (FA) on the road is determined using a captured image or an ambient light image acquired from an imaging device (30) or a lidar, and the lidar is a light-receiving area composed of a plurality of light-receiving elements (220). having an element array (22);
By decreasing the predetermined number of the light-receiving elements constituting a light-receiving unit and increasing the number of light-receiving units, the vertical or horizontal resolution of the lidar is increased and detection in the region of interest is performed. Obtain a high-resolution detection point cloud as a target detection point group with increased resolution of the point cloud,
A road gradient estimation method, comprising: estimating a road gradient using the group of detection points of interest.
車両(50)における道路勾配推定方法であって、
撮像装置(30)またはライダー(Lidar)から取得される撮像画像または環境光画像を用いて道路上における注目領域(FA)を決定し、
前記ライダーの垂直方向は前記車両から離間する方向に対応し、前記車両から離間するにつれて前記ライダーの垂直方向の分解能を増大させて、前記注目領域における検出点群の分解能を増大させた注目検出点群として高分解能検出点群を取得し、
前記注目検出点群を用いて道路勾配を推定すること、を備える、道路勾配推定方法。
A road slope estimation method in a vehicle (50), comprising:
determining an area of interest (FA) on the road using a captured image or an ambient light image acquired from an imaging device (30) or lidar;
The vertical direction of the lidar corresponds to a direction moving away from the vehicle, and the resolution of the lidar in the vertical direction increases as the lidar moves away from the vehicle, thereby increasing the resolution of the detection point group in the region of interest. Obtain a high-resolution detection point cloud as a group ,
A road gradient estimation method, comprising: estimating a road gradient using the group of detection points of interest.
車両(50)における道路勾配推定方法であって、
撮像装置(30)またはライダー(Lidar)から取得される環境光画像または複数のフレーム画像により形成されている撮像画像を用いて道路上における注目領域(FA)を決定し、
現在のフレーム画像(CFc)よりも過去の前フレーム画像(CFp)を用いて決定された前注目領域(FAp)を用いて現在の注目領域(FAc)を決定し、前記現在の注目領域(FAc)を決定することは、
前記前フレーム画像に道路上の対象物が検出されている場合には、前記現在のフレーム画像から、検出された前記道路上の対象物を検出して前記現在の注目領域を決定し、
前記道路上の対象物が検出されていない場合には、前記現在のフレーム画像から、区画線(BL)を検出して前記現在の注目領域を決定することを備え、
前記現在の注目領域における検出点群の分解能または信号強度を増大させて注目検出点群を取得し、
前記注目検出点群を用いて道路勾配を推定すること、を備える、道路勾配推定方法。
A road gradient estimation method in a vehicle (50), comprising:
determining an area of interest (FA) on the road using an ambient light image acquired from an imaging device (30) or lidar or a captured image formed by a plurality of frame images ;
A current area of interest (FAc) is determined using a previous area of interest (FAp) determined using a previous frame image (CFp) that is past the current frame image (CFc), and the current area of interest (FAc) is ) is determined by
If an object on the road is detected in the previous frame image, detecting the detected object on the road from the current frame image to determine the current region of interest;
If the object on the road is not detected, detecting a lane marking (BL) from the current frame image to determine the current region of interest;
increasing the resolution or signal strength of the detection point group in the current region of interest to obtain a detection point group of interest;
A road slope estimation method, comprising: estimating a road slope using the group of detection points of interest.
JP2020024306A 2020-02-17 2020-02-17 Road gradient estimation device, road gradient estimation system, and road gradient estimation method Active JP7452069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020024306A JP7452069B2 (en) 2020-02-17 2020-02-17 Road gradient estimation device, road gradient estimation system, and road gradient estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020024306A JP7452069B2 (en) 2020-02-17 2020-02-17 Road gradient estimation device, road gradient estimation system, and road gradient estimation method

Publications (2)

Publication Number Publication Date
JP2021127075A JP2021127075A (en) 2021-09-02
JP7452069B2 true JP7452069B2 (en) 2024-03-19

Family

ID=77487739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024306A Active JP7452069B2 (en) 2020-02-17 2020-02-17 Road gradient estimation device, road gradient estimation system, and road gradient estimation method

Country Status (1)

Country Link
JP (1) JP7452069B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113978472B (en) * 2021-11-10 2023-07-28 上海洛轲智能科技有限公司 Vehicle control method and device and electronic equipment
US20230384455A1 (en) * 2022-05-31 2023-11-30 Continental Autonomous Mobility US, LLC Lidar sensor including spatial light modulator to direct field of illumination
JP7486556B2 (en) 2022-09-02 2024-05-17 本田技研工業株式会社 Lane marking recognition device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085240A (en) 2008-09-30 2010-04-15 Mazda Motor Corp Image processing device for vehicle
JP2012063236A (en) 2010-09-16 2012-03-29 Ricoh Co Ltd Laser radar device
WO2012117542A1 (en) 2011-03-02 2012-09-07 トヨタ自動車株式会社 Laser radar device
JP2012225806A (en) 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc Road gradient estimation device and program
JP2017150902A (en) 2016-02-23 2017-08-31 株式会社Ihiエアロスペース On-vehicle laser radar device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085240A (en) 2008-09-30 2010-04-15 Mazda Motor Corp Image processing device for vehicle
JP2012063236A (en) 2010-09-16 2012-03-29 Ricoh Co Ltd Laser radar device
WO2012117542A1 (en) 2011-03-02 2012-09-07 トヨタ自動車株式会社 Laser radar device
JP2012225806A (en) 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc Road gradient estimation device and program
JP2017150902A (en) 2016-02-23 2017-08-31 株式会社Ihiエアロスペース On-vehicle laser radar device

Also Published As

Publication number Publication date
JP2021127075A (en) 2021-09-02

Similar Documents

Publication Publication Date Title
US11719788B2 (en) Signal processing apparatus, signal processing method, and program
JP7452069B2 (en) Road gradient estimation device, road gradient estimation system, and road gradient estimation method
US11346951B2 (en) Object detection system
US11041957B2 (en) Systems and methods for mitigating effects of high-reflectivity objects in LiDAR data
CN112665556B (en) Generating a three-dimensional map of a scene using passive and active measurements
EP3208635B1 (en) Vision algorithm performance using low level sensor fusion
CN110389586B (en) System and method for ground and free space exploration
US9151626B1 (en) Vehicle position estimation system
WO2016129646A1 (en) Travel path selection device and travel path selection method
US20130027511A1 (en) Onboard Environment Recognition System
CN111310554B (en) Digital imaging system and image data processing method
CN114902070A (en) Sensor degradation detection and repair
CN113646804A (en) Object detection device
US20230336876A1 (en) Vehicle-mounted sensing system and gated camera
WO2023149335A1 (en) Ranging device, and ranging method
US20230328353A1 (en) Vehicle-mounted sensing system and gated camera
US20220299614A1 (en) Object detection apparatus and control method of object detection apparatus
US20240036212A1 (en) Lane boundary detection using sub-short range active light sensor
WO2024030860A1 (en) Lane boundary detection using sub-short range active light sensor
JP2024004276A (en) object detection device
CN114609644A (en) Method for supplementing a probe object by a lidar system
CN116648664A (en) In-vehicle sensing system and door control camera
CN117590416A (en) Multipath object identification for navigation
JPH09161063A (en) Preceding vehicle identifying device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R151 Written notification of patent or utility model registration

Ref document number: 7452069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151