JP2019128153A - Distance calculation device and vehicle control device - Google Patents

Distance calculation device and vehicle control device Download PDF

Info

Publication number
JP2019128153A
JP2019128153A JP2018007605A JP2018007605A JP2019128153A JP 2019128153 A JP2019128153 A JP 2019128153A JP 2018007605 A JP2018007605 A JP 2018007605A JP 2018007605 A JP2018007605 A JP 2018007605A JP 2019128153 A JP2019128153 A JP 2019128153A
Authority
JP
Japan
Prior art keywords
distance
estimated
calculated
camera
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018007605A
Other languages
Japanese (ja)
Other versions
JP6620175B2 (en
Inventor
安井 裕司
Yuji Yasui
裕司 安井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018007605A priority Critical patent/JP6620175B2/en
Priority to CN201811445254.9A priority patent/CN110053625B/en
Publication of JP2019128153A publication Critical patent/JP2019128153A/en
Application granted granted Critical
Publication of JP6620175B2 publication Critical patent/JP6620175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a distance calculation device and a vehicle control processing which, in calculating a distance between a vehicle and an object, enables a region ensuring excellent calculation accuracy to be enlarged, thereby improving practicality.SOLUTION: A distance calculation device 1 acquires an actual measurement distance Xs_o_n to an inside of an overlap region 7c using image data from left and right cameras 4a and 4b and calculates first and second estimation distances Xn_o_n and Xn_o_m to an inside of the overlap region 7c and an inside of a left nonoverlap region 7a, respectively, using the image data from the left camera 4a. In addition, the distance calculation device calculates such a correction value Kmod as decreases an absolute value of a difference E_id_n between the actual measurement distance Xs_o_n and the first estimation distance Xn_o_n when an object is in the overlap region 7c and calculates a calculation distance X_h by correcting an estimation distance Index_x_h with the correction value Kmod when the object is in the two regions 7a and 7c.SELECTED DRAWING: Figure 2

Description

本発明は、車両に搭載され、当該車両と対象物との距離を算出する距離算出装置及び車両制御装置に関する。   The present invention relates to a distance calculation device and a vehicle control device that are mounted on a vehicle and calculate a distance between the vehicle and an object.

従来、距離算出装置として特許文献1に記載されたものが知られている。この距離算出装置は車両に搭載されたステレオカメラ方式のものであり、左右一対のカメラを備えている。左右一対のカメラでは、両者の光軸が、互いの間隔が前方に向かうほどより広くなるように斜めに配置されており、各々の撮像領域は、互いに重複するステレオ視領域と、重複しない非ステレオ視領域とで構成されている。   Conventionally, what was described in patent document 1 as a distance calculation apparatus is known. This distance calculation device is of a stereo camera type mounted on a vehicle and includes a pair of left and right cameras. In the pair of left and right cameras, the optical axes of the two are diagonally disposed so that the distance between the two becomes wider toward the front, and the respective imaging regions do not overlap with the stereoscopic viewing regions overlapping each other. It consists of a viewing area.

この第2実施形態の距離算出装置の場合、自車両の前方に歩行者がいないときに、ステレオマッチング手法により、ステレオ視領域における左右の撮像画像に基づいて、自車両と先行車両との距離が算出される。   In the case of the distance calculation device according to the second embodiment, when there is no pedestrian in front of the host vehicle, the distance between the host vehicle and the preceding vehicle is calculated based on the left and right captured images in the stereo viewing area by the stereo matching method. It is calculated.

特開2005−24463号公報JP 2005-24463 A

上記従来の距離算出装置によれば、先行車両などの対象物がステレオ視領域に位置している条件下でのみ、自車両と対象物との距離を算出可能な構成であるので、対象物がステレオ領域と非ステレオ視領域に跨がって存在する場合、非ステレオ領域における対象物の距離を精度よく算出することができず、実用性が低いという問題がある。   According to the above-described conventional distance calculation device, since the distance between the subject vehicle and the object can be calculated only under the condition that the object such as the leading vehicle is located in the stereo vision region, the object is In the case where it exists across the stereo area and the non-stereo view area, there is a problem that the distance of the object in the non-stereo area cannot be calculated with high accuracy and the practicality is low.

本発明は、上記課題を解決するためになされたもので、車両と対象物との距離を算出する場合において、良好な算出精度を確保できる領域を拡大することができ、実用性を向上させることができる距離算出装置及び車両制御処理を提供することを目的とする。   The present invention has been made to solve the above-mentioned problems, and in the case of calculating the distance between a vehicle and an object, it is possible to expand an area where good calculation accuracy can be secured, and to improve practicability. An object of the present invention is to provide a distance calculation device and a vehicle control process that can perform the above.

上記目的を達成するために、本発明は、車両3に搭載され、車両3と対象物との距離を算出する距離算出装置1において、距離情報を取得する距離情報取得手段(左右のカメラ4a,4b、レーダ8)と、距離情報を用いて、第1所定領域(重複領域7c,7e)内のいずれかのポイントとの距離の実測値である実測距離Xs_o_nを取得する実測距離取得手段(ECU2、実測距離算出部11)と、画像情報を取得する画像情報取得手段(左カメラ4a、カメラ4c)と、画像情報及び所定の推定アルゴリズム(深層学習法)を用いて、第1所定領域(重複領域7c,7e)をすべて含む、第1所定領域よりも広い第2所定領域(領域7a+7c、7d+7d+7e)内のいずれかのポイントとの距離の推定値である推定距離(第1及び第2推定距離Xn_o_n,Xn_o_m)を算出する推定距離算出手段(ECU2、推定位置算出部12)と、対象物の少なくとも一部が第1所定領域内に位置するときに実測距離取得手段によって取得された対象物の実測距離Xs_o_nと、対象物の少なくとも一部が第1所定領域内に位置するときに推定距離算出手段によって算出された対象物の推定距離(第1推定距離Xn_o_n)との差分(誤差信号値E_id_n)の絶対値が減少するように、対象物の推定距離を補正するための補正値Kmodを算出する補正値算出手段(ECU2、補正値算出部13、補正位置算出部14)と、対象物が第1所定領域内を含む第2所定領域内に位置するときに推定距離算出手段によって算出された対象物の推定距離Index_x_hを、補正値Kmodで補正することにより、対象物の補正後距離(算出距離X_h)を算出する補正後距離算出手段(ECU2、補正位置算出部14)と、を備えることが好ましい。   In order to achieve the above object, the present invention is mounted on a vehicle 3 and in a distance calculation device 1 for calculating a distance between the vehicle 3 and an object, distance information acquisition means (cameras 4a, Measurement distance acquisition means (ECU 2) for acquiring an actual measurement distance Xs_o_n, which is an actual measurement value of the distance between the radar 4b and the radar 8) and any point in the first predetermined area (the overlapping areas 7c and 7e) using distance information. , Measured distance calculation unit 11), image information acquisition means (left camera 4a, camera 4c) for acquiring image information, and image information and a predetermined estimation algorithm (deep learning method). An estimated distance (first and second) which is an estimated value of a distance to any point in a second predetermined area (areas 7a + 7c, 7d + 7d + 7e) wider than the first predetermined area including all the areas 7c and 7e). (2) Estimated distance calculation means (ECU 2, estimated position calculation unit 12) for calculating the estimated distance Xn_o_n, Xn_o_m), and at least a part of the object acquired by the measured distance acquisition means when positioned within the first predetermined area The difference (error) between the measured distance Xs_o_n of the object and the estimated distance (first estimated distance Xn_o_n) of the object calculated by the estimated distance calculation means when at least a part of the object is located within the first predetermined area Correction value calculation means (ECU2, correction value calculation unit 13, correction position calculation unit 14) for calculating a correction value Kmod for correcting the estimated distance of the object so that the absolute value of the signal value E_id_n) is reduced; The estimated distance Index_x_h of the object calculated by the estimated distance calculating means when the object is located in the second predetermined area including the first predetermined area By correcting the correction value Kmod, corrected distance calculating means (ECU 2, the correction position calculating section 14) for calculating a corrected distance (calculated distance X_h) of the object and is preferably provided with a.

この距離算出装置によれば、距離情報取得手段によって距離情報が取得され、この距離情報を用いて、第1所定領域内のいずれかのポイントとの距離の実測値である実測距離が取得され、画像情報取得手段によって画像情報が取得されるとともに、この画像情報及び所定の推定アルゴリズムを用いて、第1所定領域をすべて含む、第1所定領域よりも広い第2所定領域内のいずれかのポイントとの距離の推定値である推定距離が算出される。この場合、推定距離は、第1所定領域をすべて含む、第1所定領域よりも広い第2所定領域内のいずれかのポイントとの距離であるので、実測距離よりも広い領域での距離として算出されることになる。   According to this distance calculation device, distance information is acquired by the distance information acquisition means, and using this distance information, an actual measurement distance that is an actual measurement value of a distance to any point in the first predetermined area is acquired, Image information is acquired by the image information acquisition means, and using the image information and a predetermined estimation algorithm, any point in a second predetermined area wider than the first predetermined area, including all the first predetermined areas An estimated distance that is an estimated value of the distance to is calculated. In this case, since the estimated distance is the distance to any point in the second predetermined area wider than the first predetermined area including all the first predetermined areas, it is calculated as the distance in the area wider than the actual measurement distance. It will be done.

さらに、対象物の少なくとも一部が第1所定領域内に位置するときに実測距離取得手段によって取得された対象物の実測距離と、対象物の少なくとも一部が第1所定領域内に位置するときに推定距離算出手段によって算出された対象物の推定距離との差分の絶対値が減少するように、対象物の推定距離を補正するための補正値が算出されるので、この補正値は、対象物の少なくとも一部が1所定領域内に位置するときの、対象物の実測距離と対象物の推定距離との誤差を減少させる機能を備えることになる。   Furthermore, when the measured distance of the target object acquired by the measured distance acquisition means when at least a part of the target object is located within the first predetermined area, and when at least a part of the target object is positioned within the first predetermined area The correction value for correcting the estimated distance of the object is calculated so that the absolute value of the difference between the estimated distance and the estimated distance of the object calculated by the estimated distance calculation means decreases. A function is provided to reduce the error between the measured distance of the object and the estimated distance of the object when at least a part of the object is located within one predetermined area.

したがって、対象物が第1所定領域内を含む第2所定領域内に位置するときに推定距離算出手段によって算出された対象物の推定距離を、補正値で補正することにより、対象物の補正後距離が算出されるので、第2所定領域内に位置する対象物の推定距離の算出精度を向上させた値として、補正後距離を算出することができる。その結果、距離情報及び画像情報を用いて、車両と対象物との距離を算出する場合において、良好な算出精度を確保可能な領域を拡大することができ、実用性を向上させることができる(なお、本明細書における「実測距離を取得」などの「取得」は、センサなどによりこの値を直接検出することに限らず、この値をパラメータに基づいて算出/推定することを含む)。   Therefore, after the correction of the object by correcting the estimated distance of the object calculated by the estimated distance calculation means when the object is positioned within the second predetermined area including the inside of the first predetermined area Since the distance is calculated, the corrected distance can be calculated as a value obtained by improving the calculation accuracy of the estimated distance of the object located in the second predetermined area. As a result, in the case of calculating the distance between the vehicle and the object using the distance information and the image information, it is possible to expand the area in which good calculation accuracy can be ensured, and to improve practicability ((1) Note that “acquisition” such as “acquire actual distance” in this specification is not limited to directly detecting this value by a sensor or the like, but includes calculating / estimating this value based on a parameter).

本発明において、距離情報取得手段は、第1カメラ(左カメラ4a)と、第1カメラよりも高感度の第2カメラ(右カメラ4b)とを用いて、ステレオマッチング手法により距離情報を取得し、画像情報取得手段は、第1カメラ(左カメラ4a)を用いて、画像情報を取得することを特徴とすることが好ましい。   In the present invention, the distance information acquisition unit acquires distance information by the stereo matching method using the first camera (left camera 4a) and the second camera (right camera 4b) having higher sensitivity than the first camera. Preferably, the image information acquisition means acquires image information using the first camera (left camera 4a).

この距離算出装置によれば、第1カメラと、第1カメラよりも高感度の第2カメラとを用いて、ステレオマッチング手法により距離情報が取得され、この距離情報を用いて、実測距離が取得されるので、実測距離を精度よく取得することができる。また、第1カメラを用いて、画像情報が取得され、この画像情報及び推定アルゴリズムを用いて、推定距離が算出されるので、広い視野領域を確保しながら、推定距離を算出することができる。そして、上述したように、補正後距離が、第2所定領域内に位置する対象物の推定距離の算出精度を向上させた値として算出されるので、第1所定領域よりも広い第2所定領域内において、高い算出精度を確保しながら、補正後距離を算出することができる。   According to this distance calculation device, the distance information is acquired by the stereo matching method using the first camera and the second camera having higher sensitivity than the first camera, and the actual distance is acquired using the distance information. Therefore, the measured distance can be obtained with high accuracy. Further, image information is acquired using the first camera, and the estimated distance is calculated using the image information and the estimation algorithm. Therefore, the estimated distance can be calculated while securing a wide viewing area. Then, as described above, since the corrected distance is calculated as a value obtained by improving the calculation accuracy of the estimated distance of the object located in the second predetermined area, the second predetermined area is wider than the first predetermined area. The corrected distance can be calculated while securing high calculation accuracy.

本発明において、距離情報取得手段は、レーダ8及びLIDARの一方を用いて、距離情報を取得し、画像情報取得手段は、カメラ4cを用いて、画像情報を取得することが好ましい。   In the present invention, it is preferable that the distance information acquisition means acquire distance information using one of the radar 8 and the LIDAR, and the image information acquisition means acquire image information using the camera 4c.

この距離算出装置によれば、レーダ及びLIDARの一方を用いて、距離情報が取得されるので、雨天や霧などのカメラ画像による距離情報の取得精度が低下するような条件下においても、距離情報を精度よく取得することができ、実測距離の取得精度を向上させることができる。また、カメラを用いて、画像情報が取得されるので、広い視野領域を確保しながら、推定距離を算出することができる。その結果、上述したように、補正後距離が、第2所定領域内に位置する対象物の推定距離の算出精度を向上させた値として算出されるので、第1所定領域よりも広い第2所定領域内において、高い算出精度を確保しながら、補正後距離を算出することができる。   According to this distance calculation apparatus, since distance information is acquired using one of the radar and LIDAR, the distance information can be obtained even under conditions where the acquisition accuracy of distance information by a camera image such as rain or fog is lowered. Can be acquired with high accuracy, and the acquisition accuracy of the measured distance can be improved. Moreover, since image information is acquired using a camera, an estimated distance can be calculated while ensuring a wide visual field area. As a result, as described above, since the corrected distance is calculated as a value obtained by improving the calculation accuracy of the estimated distance of the object located in the second predetermined area, the second predetermined area is wider than the first predetermined area. Within the region, the corrected distance can be calculated while securing high calculation accuracy.

本発明において、補正値Kmodは、車両3の基準点に対する横方向を1座標とし基準点に対する縦方向を1座標とする2次元座標系において、横方向の座標に対して第1所定区間(推定距離Index_x_1〜Index_x_N+M)で連続すると同時に縦方向の座標に対して第2所定区間(推定横位置Index_y_1〜Index_y_N+M)で連続する関数値として算出されることが好ましい。   In the present invention, the correction value Kmod is a first predetermined section with respect to the horizontal coordinates in the two-dimensional coordinate system in which the horizontal direction relative to the reference point of the vehicle 3 is one coordinate and the vertical direction relative to the reference point is one coordinate. It is preferable to calculate as a function value which is continuous at distances Index_x_1 to Index_x_N + M and is continuous at the second predetermined section (estimated lateral position Index_y_1 to Index_y_N + M) with respect to the coordinate in the vertical direction.

この距離算出装置によれば、補正値は、車両の基準点に対する横方向を1座標とし基準点に対する縦方向を1座標とする2次元座標系において、横方向の座標に対して第1所定区間で連続すると同時に縦方向の座標に対して第2所定区間で連続する関数値として算出されるので、車両の前側の領域に対象物が位置する場合において、車両の前後方向及び左右方向の傾きの影響を補償しながら、補正後距離を算出することができる。それにより、補正後距離の算出精度をさらに向上させることができる。   According to this distance calculation apparatus, the correction value is a first predetermined section with respect to the horizontal coordinate in a two-dimensional coordinate system in which the horizontal direction with respect to the reference point of the vehicle is one coordinate and the vertical direction with respect to the reference point is one coordinate. Because it is calculated as a function value that is continuous at the same time in the second predetermined section with respect to the coordinate in the vertical direction at the same time, when the object is located in the area on the front side of the vehicle The corrected distance can be calculated while compensating for the influence. Thereby, the calculation accuracy of the corrected distance can be further improved.

本発明に係る車両制御装置は、以上のいずれかの距離算出装置1を備え、第1所定領域及び第2所定領域は、車両3の前側及び後ろ側の一方の領域であり、対象物の補正後距離(算出距離X_h)を用いて、車両3の駆動力、制動力及び操舵量の少なくとも1つを制御する(図7/STEP1〜3)ことが好ましい。   The vehicle control device according to the present invention includes any one of the above-described distance calculation devices 1, and the first predetermined region and the second predetermined region are one of the front and rear regions of the vehicle 3, and the correction of the object It is preferable to control at least one of the driving force, braking force, and steering amount of the vehicle 3 using the rear distance (calculated distance X_h) (FIG. 7 / STEPs 1 to 3).

この車両制御装置によれば、上述したような算出精度の高い補正後距離を用いて、車両の駆動力、制動力及び操舵量の少なくとも一つを制御することができるので、その制御精度を向上させることができる。   According to this vehicle control device, at least one of the driving force, the braking force, and the steering amount of the vehicle can be controlled using the corrected distance with high calculation accuracy as described above, so the control accuracy is improved. It can be done.

本発明の一実施形態に係る距離算出装置及び車両制御装置と、これらを適用した車両の構成を模式的に示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows typically the structure of the distance calculation apparatus which concerns on one Embodiment of this invention, a vehicle control apparatus, and the vehicle to which these are applied. 左右のカメラの視野領域を示す図である。It is a figure which shows the visual field area | region of a camera on either side. 距離算出装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a distance calculation apparatus. 距離重み関数値Wx_iの算出に用いるマップの一例を示す図である。It is a figure which shows an example of the map used for calculation of distance weighting function value Wx_i. 横位置重み関数値Wy_jの算出に用いるマップの一例を示す図である。It is a figure which shows an example of the map used for calculation of horizontal position weighting function value Wy_j. 補正値Kmodと推定距離Index_x及び推定横位置Index_yとの関係の一例を示す図である。It is a figure which shows an example of the relationship between correction value Kmod, presumed distance Index_x, and presumed horizontal position Index_y. 自動停止制御処理を示すフローチャートである。It is a flowchart which shows an automatic stop control process. 距離算出装置の変形例を示す図である。It is a figure which shows the modification of a distance calculation apparatus.

以下、図面を参照しながら、本発明の一実施形態に係る距離算出装置及び車両制御装置について説明する。なお、本実施形態の車両制御装置は距離算出装置も兼用しているので、以下の説明では、車両制御装置について説明するとともに、その中で、距離算出装置の機能及び構成についても説明する。   Hereinafter, a distance calculation device and a vehicle control device according to an embodiment of the present invention will be described with reference to the drawings. In addition, since the vehicle control apparatus of this embodiment is combined with the distance calculation apparatus, in the following description, the vehicle control apparatus will be described, and the function and configuration of the distance calculation apparatus will also be described therein.

図1に示すように、この車両制御装置1は、自動運転可能な4輪車両(以下「自車両」という)3に適用されたものであり、この自車両3は、車道の左側通行に対応するように構成されている。車両制御装置1は、ECU2を備えており、このECU2には、左右のカメラ4a,4b(図2参照)、状況検出装置4c、原動機5及びアクチュエータ6が電気的に接続されている。   As shown in FIG. 1, this vehicle control device 1 is applied to a four-wheeled vehicle (hereinafter referred to as "own vehicle") 3 capable of autonomous driving, and this own vehicle 3 corresponds to left-hand traffic on a roadway. Is configured to do. The vehicle control device 1 includes an ECU 2, and left and right cameras 4 a and 4 b (see FIG. 2), a situation detection device 4 c, a prime mover 5, and an actuator 6 are electrically connected to the ECU 2.

図2に示すように、左右のカメラ4a,4bは、両者の光軸が自車両3の前方に向うほど、互いの間隔が広くなるとともに、両者の視野領域が、互いに重複する重複領域7c(図中に網掛けで示す領域)と、互いに重複しない左右の非重複領域7a,7bとを構成するように配置されている。この場合、左右のカメラ4a,4bの光軸間の角度は、停止線位置などを認識可能な所定角度(例えば数十度)に設定されている。   As shown in FIG. 2, the left and right cameras 4a and 4b have an overlapping area 7c in which the distance between the left and right cameras 4a and 4b becomes wider as the optical axes of the left and right cameras 4 move forward of the host vehicle 3 In the figure, the regions (indicated by hatching) and the non-overlapping non-overlapping regions 7a and 7b that do not overlap with each other are arranged. In this case, the angle between the optical axes of the left and right cameras 4a and 4b is set to a predetermined angle (for example, several tens of degrees) that can recognize the stop line position and the like.

なお、本実施形態では、左カメラが、距離情報取得手段、画像情報取得手段及び第1カメラに相当し、右カメラが距離情報取得手段及び第2カメラに相当する。また、重複領域7cが第1所定領域に相当し、左非重複領域7aと重複領域7cを合わせた領域が第2所定領域に相当する。   In the present embodiment, the left camera corresponds to the distance information acquisition unit, the image information acquisition unit, and the first camera, and the right camera corresponds to the distance information acquisition unit and the second camera. Further, the overlapping area 7c corresponds to the first predetermined area, and the combined area of the left non-overlapping area 7a and the overlapping area 7c corresponds to the second predetermined area.

この左カメラ4aは、三原色の画像を撮影可能なRGBカメラで構成され、右カメラ4bは、左カメラ4aよりも高感度の、白黒画像のみを撮影可能なCCCカメラで構成されている。このCCCカメラは、画素値としてクリア(白色)のみを出力するものである。   The left camera 4a is configured by an RGB camera that can capture images of the three primary colors, and the right camera 4b is configured by a CCC camera that can capture only monochrome images with higher sensitivity than the left camera 4a. This CCC camera outputs only clear (white) as a pixel value.

ECU2は、後述するように、左右のカメラ4a,4bからの画像データに基づいて、自車両3の前方に位置する対象物との距離を算出する。   As will be described later, the ECU 2 calculates the distance to the object located in front of the host vehicle 3 based on the image data from the left and right cameras 4a and 4b.

また、状況検出装置4cは、ミリ波レーダ、GPS及び各種のセンサなどで構成されており、自車両3の位置及び自車両3の進行方向の周辺状況を表す周辺状況データをECU2に出力する。   Further, the situation detection device 4c is composed of a millimeter wave radar, GPS, various sensors, and the like, and outputs to the ECU 2 surrounding situation data representing the situation of the position of the vehicle 3 and the surrounding situation in the traveling direction of the vehicle 3.

原動機5は、例えば、電気モータなどで構成されており、後述する自動停止制御を含む自動運転制御の実行中、ECU2によって原動機5の出力が制御される。   The prime mover 5 is composed of, for example, an electric motor, and the output of the prime mover 5 is controlled by the ECU 2 during execution of automatic operation control including automatic stop control described later.

また、アクチュエータ6は、制動用アクチュエータ及び操舵用アクチュエータなどで構成されており、後述する自動停止制御を含む自動運転制御の実行中、ECU2によってアクチュエータ6の動作が制御される。   The actuator 6 includes a braking actuator, a steering actuator, and the like, and the operation of the actuator 6 is controlled by the ECU 2 during execution of automatic driving control including automatic stop control described later.

一方、ECU2は、CPU、RAM、ROM、E2PROM、I/Oインターフェース及び各種の電気回路(いずれも図示せず)などからなるマイクロコンピュータで構成されており、上述した左右のカメラ4a,4bからの画像データ及び状況検出装置4cからの周辺状況データなどに基づいて、後述する自動停止制御を含む自動運転制御などの各種の制御処理を実行する。   On the other hand, the ECU 2 is constituted by a microcomputer including a CPU, a RAM, a ROM, an E2PROM, an I / O interface, various electric circuits (all not shown) and the like, and from the above-mentioned left and right cameras 4a and 4b Based on the image data and the surrounding condition data from the condition detecting device 4c, various control processes such as automatic driving control including automatic stop control described later are executed.

なお、本実施形態では、ECU2が、実測距離取得手段、推定距離算出手段、補正値算出手段及び補正後距離算出手段に相当する。   In the present embodiment, the ECU 2 corresponds to measured distance acquiring means, estimated distance calculating means, correction value calculating means and corrected distance calculating means.

次に、図3を参照しながら、本実施形態の車両制御装置1における距離算出装置としての機能的な構成について説明する。この車両制御装置1は、以下に述べる算出アルゴリズムによって、自車両3の前方に位置する対象物との距離を算出するものであり、以下に述べる算出値はすべてE2PROM内に記憶されるものとする。   Next, a functional configuration as a distance calculation device in the vehicle control device 1 of the present embodiment will be described with reference to FIG. The vehicle control apparatus 1 calculates a distance from an object located in front of the host vehicle 3 by a calculation algorithm described below, and all calculated values described below are stored in the E2PROM. .

この場合、歩行者及び車両などの交通参加者、センターライン、走路境界、停止線、交差点の進入位置、交差点通過後の進入路の入口、交差点の右左折先の走路の入口、交差点の中心位置、信号、標識、及び横断歩道などの道路構造物が対象物に相当する。   In this case, pedestrians and vehicles, traffic participants such as vehicles, center line, runway boundary, stop line, entrance position of intersection, entrance of entrance road after intersection, entrance of runway to turn left of intersection, center position of intersection Road structures such as traffic lights, signs, and pedestrian crossings correspond to objects.

なお、以下の説明では、自車両3の前端の中央位置を原点(基準点)とし、自車両3の前後方向をx座標軸、左右方向をy座標軸とそれぞれ規定したときの2次元座標系におけるx座標値を「距離」といい、y座標値を「横位置」という。   In the following description, the center position of the front end of the host vehicle 3 is defined as the origin (reference point), the front-rear direction of the host vehicle 3 is defined as the x coordinate axis, and the left and right direction is defined as the y coordinate axis. The coordinate value is referred to as “distance”, and the y coordinate value is referred to as “lateral position”.

図3に示すように、車両制御装置1は、実測距離算出部11、推定位置算出部12、補正値算出部13及び補正位置算出部14を備えており、これらの要素11〜14は、具体的にはECU2によって構成されている。   As shown in FIG. 3, the vehicle control device 1 includes an actual measurement distance calculation unit 11, an estimated position calculation unit 12, a correction value calculation unit 13, and a correction position calculation unit 14. These elements 11 to 14 are specifically Specifically, it is configured by the ECU 2.

この実測距離算出部11(実測距離取得手段)では、左右のカメラ4a,4bからの画像データに基づいて、ステレオマッチング手法により、前述した重複領域7c内に位置する対象物の距離の実測値として、N(Nは複数)個の実測距離Xs_o_n(n=1〜N)が算出される。このステレオマッチング手法は公知であるので、ここではその説明を省略する。   In this actual measurement distance calculation unit 11 (actual measurement distance acquisition means), based on the image data from the left and right cameras 4a and 4b, as the actual measurement value of the distance of the object located in the overlapping area 7c described above by stereo matching method. , N (N is a plurality) actual measurement distances Xs_o_n (n = 1 to N) are calculated. Since this stereo matching method is known, its description is omitted here.

また、推定位置算出部12(推定距離算出手段)では、左カメラ4aからの画像データに基づいて、深層ニューラルネットワークを用いた深層学習法により、N個の第1推定位置(Xn_o_n,Yn_o_n)及びM(Mは複数)個の第2推定位置(Xn_o_m,Yn_o_m)が算出される。   In the estimated position calculation unit 12 (estimated distance calculation means), N first estimated positions (Xn_o_n, Yn_o_n) and a depth learning method using a depth neural network based on the image data from the left camera 4a and M (M is a plurality) second estimated positions (Xn_o_m, Yn_o_m) are calculated.

これらのN個の第1推定位置(Xn_o_n,Yn_o_n)は、重複領域7c内に存在する対象物の位置の推定値であり、N個の第1推定距離Xn_o_n(n=1〜N)をx座標値とし、N個の第1推定横位置Yn_o_n(n=1〜N)をy座標値とするものである。   These N first estimated positions (Xn_o_n, Yn_o_n) are estimated values of the position of the object present in the overlapping area 7c, and N first estimated distances Xn_o_n (n = 1 to N) Coordinate values are used, and N first estimated lateral positions Yn_o_n (n = 1 to N) are used as y coordinate values.

また、M個の第2推定位置(Xn_o_m,Yn_o_m)は、左非重複領域7a内に存在する対象物の位置の推定値であり、M個の第2推定距離Xn_o_m(m=1〜M)をx座標値とし、M個の第2推定横位置Yn_o_m(m=1〜M)をy座標値とするものである。   Also, M second estimated positions (Xn_o_m, Yn_o_m) are estimated values of the position of an object present in the left non-overlapping area 7a, and M second estimated distances Xn_o_m (m = 1 to M) Is an x-coordinate value, and M second estimated lateral positions Y n — o — m (m = 1 to M) are y-coordinate values.

この推定位置算出部12では、公知の深層学習法により、画像上の対象物の位置、対象物と他の対象物との間の相対位置、対象物の動作速度(又はオプティカルフロー)、対象物と他の対象物との間の速度差、対象物の明るさ/色調などに基づいて、N個の第1推定位置(Xn_o_n,Yn_o_n)及びM個の第2推定位置(Xn_o_m,Yn_o_m)が算出される。   In this estimated position calculation unit 12, the position of the object on the image, the relative position between the object and another object, the movement speed (or optical flow) of the object, the object, and the like by a known deep learning method N first estimated positions (Xn_o_n, Yn_o_n) and M second estimated positions (Xn_o_m, Yn_o_m) are determined based on the speed difference between the object and the other object, the brightness / tone of the object, etc. It is calculated.

さらに、前述した補正値算出部13(補正値算出手段)では、以下の式(1)〜(3)に示す算出アルゴリズムにより、4つの局所補正値Kmod_ij(i=1〜2,j=1〜2)が算出される。なお、以下の説明において、記号(k)付きの各離散データは、所定の制御周期ΔT(本実施形態では数百msec)に同期してサンプリング又は算出されたデータであることを示しており、記号k(kは正の整数)は制御時刻を表している。なお、以下の説明では、各離散データにおける記号(k)を適宜省略する。   Further, in the correction value calculation unit 13 (correction value calculation means) described above, four local correction values Kmod_ij (i = 1 to 2, j = 1 to 2) are calculated using the calculation algorithms shown in the following equations (1) to (3). 2) is calculated. In the following description, each discrete data with a symbol (k) indicates data that is sampled or calculated in synchronization with a predetermined control period ΔT (several hundred msec in the present embodiment), The symbol k (k is a positive integer) represents the control time. In the following description, the symbol (k) in each discrete data is appropriately omitted.

上式(1)のE_id_n(n=1〜N)は、N個の誤差信号値であり、第1推定距離Xn_o_nと実測距離Xs_o_nとの偏差として算出される。この場合、実測距離Xs_o_nは、左右のカメラ4a,4bからの画像データに基づいて、ステレオマッチング手法により算出されているので、左カメラ4aからの画像データのみに基づいて算出されている第1推定距離Xn_o_nよりも高い算出精度を備えていると見なすことができる。したがって、誤差信号値E_id_nは、実測距離Xs_o_nに対する第1推定距離Xn_o_nの誤差を表すものと見なせる。   E_id_n (n = 1 to N) in the above equation (1) is N error signal values, and is calculated as a deviation between the first estimated distance Xn_o_n and the actually measured distance Xs_o_n. In this case, since the actual measurement distance Xs_o_n is calculated by the stereo matching method based on the image data from the left and right cameras 4a and 4b, the first estimation is calculated based only on the image data from the left camera 4a. It can be regarded as having a calculation accuracy higher than the distance Xn_o_n. Therefore, the error signal value E_id_n can be regarded as representing an error of the first estimated distance Xn_o_n with respect to the actually measured distance Xs_o_n.

また、上式(2)のE_id_ij_nは、局所誤差信号値である。さらに、式(2)のWx_i(Xn_o_n)は、N個の距離重み関数値であり、N個の第1推定距離Xn_o_nに応じて、図4に示すマップを検索することにより算出される。一方、式(2)のWy_j(Yn_o_n)は、N個の横位置重み関数値であり、N個の第1推定横位置Yn_o_nに応じて、図5に示すマップを検索することにより算出される。さらに、上式(3)のkidは、kid<0が成立するように設定される所定の更新ゲインである。   Further, E_id_ij_n in the above equation (2) is a local error signal value. Furthermore, Wx_i (Xn_o_n) in Equation (2) is N distance weighting function values, and is calculated by searching the map shown in FIG. 4 according to the N first estimated distances Xn_o_n. On the other hand, Wy_j (Yn_o_n) in equation (2) is N lateral position weighting function values, and is calculated by searching the map shown in FIG. 5 according to N first estimated lateral positions Yn_o_n. . Furthermore, kid in the above equation (3) is a predetermined update gain that is set so that kid <0.

以上の式(1)〜(3)を参照すると明らかなように、局所誤差信号値E_id_ij_nは、実測距離Xs_o_nに対する第1推定距離Xn_o_nの誤差である誤差信号値E_id_nを、x座標におけるXn_o_1〜Xn_o_Nの範囲と、y座標におけるYn_o_1〜Yn_o_Nの範囲で規定される領域に対して、4つの重み関数値Wx_i,Wy_jによって重み付けしながら分配した値として算出される。   As apparent from the above equations (1) to (3), the local error signal value E_id_ij_n is obtained by converting the error signal value E_id_n, which is an error of the first estimated distance Xn_o_n with respect to the actually measured distance Xs_o_n, to Xn_o_1 to Xn_o_N in the x coordinate. In the area defined by the range of Y and the range of Yn_o_1 to Yn_o_N in the y coordinate, it is calculated as a value distributed while being weighted by the four weighting function values Wx_i and Wy_j.

さらに、4つの局所補正値Kmod_ijは、誤差信号値E_id_ij_nの総和の絶対値が値0に収束するように、積算項のみのフィードバック制御アルゴリズムによって算出されるので、4つの局所補正値Kmod_ijの算出回数が大きくなるほど(すなわち4つの局所補正値Kmod_ijの更新が進むほど)、上述した領域において、実測距離Xs_o_nに対する第1推定距離Xn_o_nの誤差の絶対値を値0に収束させる機能を備えるように算出されることになる。   Further, since the four local correction values Kmod_ij are calculated by the feedback control algorithm of only the integration term so that the absolute value of the sum of the error signal values E_id_ij_n converges to the value 0, the number of calculation times of the four local correction values Kmod_ij Is calculated so as to converge the absolute value of the error of the first estimated distance Xn_o_n with respect to the measured distance Xs_o_n to the value 0 in the above-described region as the value of L increases (that is, as updating of the four local correction values Kmod_ij proceeds). It will be

次いで、補正位置算出部14(補正値算出手段、補正後距離算出手段)では、まず、下式(4)により、補正値Kmodが算出される。   Next, in the correction position calculation unit 14 (correction value calculation means, corrected distance calculation means), first, the correction value Kmod is calculated by the following equation (4).

上式(4)のIndex_x_h(h=1〜N+M)は、N個の第1推定距離Xn_o_nとM個の第2推定距離Xn_o_mの集合に相当するN+M個の推定距離である。また、式(4)の重み関数Wx_i(Index_x_h)は、N個の第1推定距離Xn_o_nを推定距離Index_x_hとして用いる場合には、前述した図4のマップを用いて算出される一方、M個の第2推定距離Xn_o_mを推定距離Index_x_hとして用いる場合には、前述した図4の横軸を第1推定距離Xn_o_nから第2推定距離Xn_o_mに置き換えたマップを用いて算出される。   Index_x_h (h = 1 to N + M) in the above equation (4) is N + M estimated distances corresponding to a set of N first estimated distances Xn_o_n and M second estimated distances Xn_o_m. In addition, when the N first estimated distances Xn_o_n are used as the estimated distance Index_x_h, the weighting function Wx_i (Index_x_h) of the equation (4) is calculated using the map of FIG. When the second estimated distance Xn_o_m is used as the estimated distance Index_x_h, calculation is performed using a map in which the horizontal axis of FIG. 4 described above is replaced with the first estimated distance Xn_o_n to the second estimated distance Xn_o_m.

さらに、上式(4)のIndex_y_hは、N個の第1推定横位置Yn_o_nとM個の第2推定横位置Yn_o_mの集合に相当するN+M個の推定横位置である。また、式(4)の重み関数Wy_i(Index_y_h)は、N個の第1推定横位置Yn_o_nを推定横位置Index_y_hとして用いる場合には、前述した図5のマップを用いて算出される一方、M個の第2推定横位置Yn_o_mを推定横位置Index_y_hとして用いる場合には、前述した図5の横軸を第1推定横位置Yn_o_nから第2推定横位置Yn_o_mに置き換えたマップを用いて算出される。   Furthermore, Index_y_h in the above equation (4) is N + M estimated lateral positions corresponding to a set of N first estimated lateral positions Yn_o_n and M second estimated lateral positions Yn_o_m. In addition, the weighting function Wy_i (Index_y_h) of Expression (4) is calculated using the map of FIG. 5 described above when the N first estimated lateral positions Yn_o_n are used as the estimated lateral position Index_y_h, while M When this second estimated lateral position Yn_o_m is used as the estimated lateral position Index_y_h, calculation is performed using a map in which the horizontal axis of FIG. 5 described above is replaced from the first estimated lateral position Yn_o_n to the second estimated lateral position Yn_o_m. .

以上の式(4)により補正値Kmodが算出されるので、補正値Kmodは、前述した4つの局所補正値Kmod_ijの機能により、実測距離Xs_o_nに対する第1推定距離Xn_o_nの誤差の絶対値を値0に収束させる機能を備えるように算出される。   Since the correction value Kmod is calculated by the above equation (4), the correction value Kmod is an absolute value of the error of the first estimated distance Xn_o_n with respect to the measured distance Xs_o_n by the function of the four local correction values Kmod_ij described above. It is calculated so as to have a function of converging.

また、同じ理由により、補正値Kmodは、推定距離Index_xを1座標とし、推定横位置Index_yを1座標とする2次元座標系において、N+M個の推定距離Index_x_hで規定される第1所定区間で連続すると同時に、N+M個の推定横位置Index_y_hで規定される第2所定区間で連続する関数値として算出される。その結果、補正値Kmodをこの2次元座標系に対して直交する座標軸に設定した場合、補正値Kmodは、補正面(点描で示す面)を形成する値として算出される(図6参照)。   Also, for the same reason, in the two-dimensional coordinate system in which the estimated distance Index_x is one coordinate and the estimated lateral position Index_y is one coordinate, the correction value Kmod is continuous in a first predetermined section defined by N + M estimated distances Index_x_h. At the same time, it is calculated as a continuous function value in a second predetermined section defined by N + M estimated lateral positions Index_y_h. As a result, when the correction value Kmod is set to a coordinate axis orthogonal to the two-dimensional coordinate system, the correction value Kmod is calculated as a value that forms a correction surface (surface indicated by stippling) (see FIG. 6).

そして、最終的に、下式(5)〜(6)により、N+M個の算出距離X_h(h=1〜N+M)及びN+M個の算出横位置Y_hが算出される。すなわち、対象物のN+M個の算出位置(X_h,Y_h)が算出される。なお、本実施形態では、算出距離X_hが補正後距離に相当する。   Then, finally, N + M calculated distances X_h (h = 1 to N + M) and N + M calculated lateral positions Y_h are calculated by the following equations (5) to (6). That is, N + M calculated positions (X_h, Y_h) of the object are calculated. In the present embodiment, the calculated distance X_h corresponds to the corrected distance.

なお、以上の式(1)〜(3)による4つの局所補正値Kmod_ijの算出と、式(4)による補正値Kmodの算出は、左右のカメラ4a,4bにおけるステレオ視が実行できている場合において、適切な対象物が重複領域4c及び左非重複領域7a内に跨がって存在している条件下で実行される。   It should be noted that the calculation of the four local correction values Kmod_ij by the above equations (1) to (3) and the calculation of the correction value Kmod by the equation (4) can be performed when stereovision at the left and right cameras 4a and 4b is performed. In the above, it is executed under the condition that an appropriate object exists across the overlapping area 4c and the left non-overlapping area 7a.

一方、上記条件が成立していないとき、例えば、ステレオ視が実行できないとき(トンネル走行中、日陰及び夜間などの右カメラ4bで対象物を認識できないとき)、又は適切な対象物が重複領域4c及び左非重複領域7a内に跨がって存在していないときには、4つの局所補正値Kmod_ijの算出と、補正位置算出部14における補正値Kmodの算出とが中止され、これらの値はE2PROM内の記憶値に保持される。   On the other hand, when the above condition is not satisfied, for example, when stereo vision can not be performed (during tunneling, when the right camera 4b can not recognize an object such as shade and night), or an appropriate object overlaps the overlapping area 4c. And, when there is no straddling in the left non-overlap area 7a, the calculation of the four local correction values Kmod_ij and the calculation of the correction value Kmod in the correction position calculation unit 14 are stopped, and these values are within the E2PROM. Stored in the stored value.

次に、図7を参照しながら、本実施形態の車両制御装置1による自動停止制御処理について説明する。この自動停止制御処理は、自車両3が停止すべき条件下にあるときに実行されるものであり、以下の説明では、交差点の進入時に進行方向の信号が赤であるときの例について説明する。   Next, an automatic stop control process by the vehicle control device 1 of the present embodiment will be described with reference to FIG. This automatic stop control process is executed when the vehicle 3 is under conditions to stop, and in the following description, an example will be described in which the signal of the traveling direction is red at the time of entering an intersection. .

同図に示すように、まず、E2PROM内に記憶されている停止線の算出位置(X_h,Y_h)を読み込む(図7/STEP1)。これらの算出位置(X_h,Y_h)は、図示しない算出処理において、前述した式(1)〜(6)の算出アルゴリズムにより算出される。   As shown in the figure, first, the calculated position (X_h, Y_h) of the stop line stored in the E2PROM is read (FIG. 7 / STEP1). These calculation positions (X_h, Y_h) are calculated by the calculation algorithm of the equations (1) to (6) described above in a calculation process not shown.

次いで、自車両3が停止線の算出位置(X_h,Y_h)、特に算出距離X_hで適切に停止するように、原動機5を制御する。それにより、原動機5の出力が制御される(図7/STEP2)   Next, the prime mover 5 is controlled so that the own vehicle 3 stops appropriately at the calculated position (X_h, Y_h) of the stop line, particularly at the calculated distance X_h. Thereby, the output of the prime mover 5 is controlled (FIG. 7 / STEP2).

さらに、自車両3が停止線の算出位置(X_h,Y_h)、特に算出距離X_hで適切に停止するように、アクチュエータ6を制御する。それにより、制動力及び操舵量が制御される(図7/STEP3)。その後、本処理を終了する。   Furthermore, the actuator 6 is controlled so that the host vehicle 3 appropriately stops at the calculated position (X_h, Y_h) of the stop line, particularly at the calculated distance X_h. Thereby, the braking force and the steering amount are controlled (FIG. 7 / STEP 3). Thereafter, this process is terminated.

以上のように、本実施形態の車両制御装置1によれば、左右のカメラ4a,4bからの画像データに基づいて、ステレオマッチング手法により、重複領域7c内に位置する対象物の実測距離Xs_o_nが算出され、左カメラ4aからの画像データに基づいて、深層ニューラルネットワークを用いた深層学習法により、重複領域7c内に位置する対象物の第1推定位置(Xn_o_n,Yn_o_n)と、左非重複領域7a内に位置する対象物の第2推定位置(Xn_o_m,Yn_o_m)とが算出される。   As described above, according to the vehicle control device 1 of the present embodiment, based on the image data from the left and right cameras 4a and 4b, the measured distance Xs_o_n of the object located in the overlapping area 7c is the stereo matching method. The first estimated position (Xn_o_n, Yn_o_n) of the object located in the overlapping area 7c and the left non-overlapping area according to the deep layer learning method using the deep layer neural network calculated and based on the image data from the left camera 4a The second estimated position (Xn_o_m, Yn_o_m) of the object located within 7a is calculated.

さらに、前述した式(1)〜(3)により、4つの局所補正値Kmod_ijが、誤差信号値E_id_nを、x座標におけるXn_o_1〜Xn_o_Nの範囲と、y座標におけるYn_o_1〜Yn_o_Nの範囲で規定される領域に対して、4つの重み関数値Wx_i,Wy_jによって重み付けしながら分配した値として算出され、これら4つの局所補正値Kmod_ijを用いて、前述した式(4)により、補正値Kmodが算出される。   Furthermore, according to the above-described equations (1) to (3), the four local correction values Kmod_ij define the error signal value E_id_n in the range of Xn_o_1 to Xn_o_N in the x coordinate and the range of Yn_o_1 to Yn_o_N in the y coordinate. The region is calculated as a value distributed while being weighted by four weighting function values Wx_i and Wy_j, and the correction value Kmod is calculated by the above-mentioned equation (4) using these four local correction values Kmod_ij. .

この場合、4つの局所補正値Kmod_ijは、上述した領域において、実測距離Xs_o_nに対する第1推定距離Xn_o_nの誤差の絶対値を値0に収束させる機能を備えた値として算出されるので、補正値Kmodも同じ機能を備えた値として算出されることになる。したがって、そのような補正値Kmodで、N+M個の推定距離Index_x_hを補正することにより、N+M個の算出距離X_hが算出されるので、これらの算出距離X_hを、重複領域7c内に位置する対象物の第1推定距離Xn_o_nと、左非重複領域7a内に位置する対象物の第2推定距離Xn_o_mの算出精度を向上させた値として算出することができる。このように、重複領域7cに加えて、左非重複領域7a内に位置する対象物の算出距離の算出精度を向上させることができるので、特許文献1の手法と比べて、良好な算出精度を確保可能な領域を拡大することができ、実用性を向上させることができる。   In this case, the four local correction values Kmod_ij are calculated as values having the function of causing the absolute value of the error of the first estimated distance Xn_o_n to the measured distance Xs_o_n to converge to the value 0 in the above-described region. Is also calculated as a value having the same function. Therefore, N + M calculated distances X_h are calculated by correcting N + M estimated distances Index_x_h with such a correction value Kmod, and these calculated distances X_h are determined by the object located in the overlapping area 7c. The calculation accuracy of the first estimated distance Xn_o_n and the second estimated distance Xn_o_m of the object located in the left non-overlapping area 7a can be calculated as improved values. Thus, since the calculation accuracy of the calculation distance of the object located in the left non-overlapping region 7a can be improved in addition to the overlapping region 7c, the calculation accuracy better than the method of Patent Document 1. The securable area can be expanded, and practicability can be improved.

また、補正値Kmodは、推定距離Index_xを1座標とし、推定横位置Index_yを1座標とする2次元座標系において、N+M個の推定距離Index_x_hで規定される第1所定区間で連続すると同時に、N+M個の推定横位置Index_y_hで規定される第2所定区間で連続する関数値として算出されるので、補正値Kmodをこの2次元座標系に対して直交する座標軸に設定した場合、図6に示すように、補正値Kmodは、補正面(点描で示す面)を形成する値として算出されることになる。その結果、自車両3の前側の領域に対象物が位置する場合において、自車両3の前後方向及び左右方向の傾きの影響を補償しながら、算出距離X_hを算出することができる。それにより、算出距離X_hの算出精度をさらに向上させることができる。   Further, the correction value Kmod is N + M simultaneously with the first predetermined section defined by N + M estimated distances Index_x_h in a two-dimensional coordinate system with the estimated distance Index_x as one coordinate and the estimated lateral position Index_y as one coordinate. Since it is calculated as a function value that continues in the second predetermined section defined by the estimated lateral position Index_y_h, when the correction value Kmod is set to a coordinate axis orthogonal to the two-dimensional coordinate system, as shown in FIG. In addition, the correction value Kmod is calculated as a value that forms a correction surface (surface indicated by stippling). As a result, when the object is located in the area on the front side of the host vehicle 3, the calculated distance X_h can be calculated while compensating for the influence of the inclination of the host vehicle 3 in the front-rear direction and the left-right direction. Thereby, the calculation accuracy of the calculation distance X_h can be further improved.

また、以上のように算出精度の高い算出距離X_hを用いて、自動停止制御処理が実行されるので、自車両3を停止線の位置に精度よく停止させることができ、制御精度を向上させることができる。   Further, as described above, since the automatic stop control process is executed using the calculated distance X_h with high calculation accuracy, the own vehicle 3 can be accurately stopped at the position of the stop line, and the control accuracy is improved. Can.

なお、実施形態は、左右のカメラ4a,4bを用いて、対象物のN+M個の算出位置(X_h,Y_h)を算出した例であるが、これに代えて、図8に示すように、カメラ4dと、これよりも高精度に距離を検出可能なレーダ8とを組み合わせて用いてもよい。この場合、カメラ4dが画像情報取得手段に相当し、レーダ8が距離情報取得手段に相当する。   Although the embodiment is an example in which N + M calculated positions (X_h, Y_h) of the object are calculated using the left and right cameras 4a and 4b, instead of this, as shown in FIG. 4d may be used in combination with the radar 8 that can detect the distance with higher accuracy. In this case, the camera 4d corresponds to an image information acquisition unit, and the radar 8 corresponds to a distance information acquisition unit.

このカメラ4dは、RGBカメラ又はRCBカメラタイプのものであり、その視野領域が、レーダ8の視野領域と重複する重複領域7e(図中に網掛けで示す領域)と、レーダ8の視野領域と重複しない左右の非重複領域7d,7dとを構成するように配置されている。この場合、重複領域7eが第1所定領域に相当し、重複領域7eと左右の非重複領域7d,7dとを合わせた領域が第2所定領域に相当する。   The camera 4 d is an RGB camera or RCB camera type, and its field of view is an overlapping area 7 e (area shown by hatching in the figure) overlapping with the field of vision of the radar 8, and the field of vision of the radar 8. The non-overlapping left and right non-overlapping regions 7d and 7d are arranged so as to constitute non-overlapping. In this case, the overlapping area 7e corresponds to the first predetermined area, and the area including the overlapping area 7e and the left and right non-overlapping areas 7d and 7d corresponds to the second predetermined area.

以上のように構成した場合、前述した実測距離算出部11において、レーダ8による対象物の距離の測定データが実測距離Xs_o_nとして算出され、それにより、実施形態の車両制御装置1と同様の作用効果を得ることができる。なお、前述した実測距離算出部11において、レーダ8及びカメラ4dを用いたセンサコンフュージョン手法により、実測距離Xs_o_nを算出するように構成してもよい。また、図8の構成において、レーダ8に代えて、LIDARを用いてもよい。   When configured as described above, measurement data of the distance of the object by the radar 8 is calculated as the actual measurement distance Xs_o_n in the actual measurement distance calculation unit 11 described above, whereby the same effects as the vehicle control device 1 of the embodiment are obtained. You can get The measured distance Xs_o_n may be calculated by the sensor confusion method using the radar 8 and the camera 4d in the measured distance calculation unit 11 described above. Further, in the configuration of FIG. 8, LIDAR may be used instead of the radar 8.

また、実施形態は、推定位置算出部12において、左カメラ4aからの画像データに基づいて、深層ニューラルネットワークを用いた深層学習法により、N個の第1推定位置(Xn_o_n,Yn_o_n)及びM個の第2推定位置(Xn_o_m,Yn_o_m)を算出したが、これに代えて、左右のカメラ4a,4bからの画像データを用いて、深層ニューラルネットワークを用いた深層学習法により、N個の第1推定位置(Xn_o_n,Yn_o_n)及びM個の第2推定位置(Xn_o_m,Yn_o_m)を算出するように構成してもよい。   In the embodiment, N estimated first positions (X n — o — n, Y n — o — n) and M in the estimated position calculation unit 12 based on the image data from the left camera 4 a by the depth learning method using a depth neural network. The second estimated position (Xn_o_m, Yn_o_m) of the image data is calculated, but instead, N number 1 of first positions are obtained by the depth learning method using the depth neural network using image data from the left and right cameras 4a and 4b. The estimated position (Xn_o_n, Yn_o_n) and the M second estimated positions (Xn_o_m, Yn_o_m) may be calculated.

さらに、推定位置算出部12において、左カメラ4aからの画像データに基づいて、N個の第1推定位置(Xn_o_n,Yn_o_n)及びM個の第2推定位置(Xn_o_m,Yn_o_m)を算出する推定アルゴリズムは、実施形態の深層ニューラルネットワークを用いた深層学習法に限らず、特徴量抽出法や、パターンマッチング法、オプティカルフロー法、画像の高さと対象物の高さの相関性を用いる手法(例えば特開2007−188417号公報)などを用いてもよい。   Further, an estimation algorithm for calculating N first estimated positions (Xn_o_n, Yn_o_n) and M second estimated positions (Xn_o_m, Yn_o_m) in the estimated position calculation unit 12 based on the image data from the left camera 4a. Is not limited to the deep learning method using the deep neural network of the embodiment, but includes a feature amount extraction method, a pattern matching method, an optical flow method, and a method using a correlation between the height of an image and the height of an object (for example, a special feature). No. 2007-188417) may be used.

一方、実施形態は、第1カメラとして、RGBカメラタイプのものを用いた例であるが、本発明の第1カメラはこれに限らず、画像データを出力可能なものであればよい。例えば、第1カメラとして、RCBカメラを用いてもよく、その場合には、クリアの画素情報から赤及び青の画素情報を減算する処理により、黄色の画素情報を抽出すればよい。   On the other hand, although the embodiment is an example using the RGB camera type as the first camera, the first camera of the present invention is not limited to this, and any camera capable of outputting image data may be used. For example, an RCB camera may be used as the first camera, in which case yellow pixel information may be extracted by subtracting red and blue pixel information from clear pixel information.

また、実施形態は、第2カメラとして、CCCカメラを用いた例であるが、本発明の第2カメラはこれに限らず、第1カメラよりも高感度のものであればよい。例えば、第2カメラとして、3CMOSカメラを用いてもよい。   In addition, the embodiment is an example in which a CCC camera is used as the second camera, but the second camera of the present invention is not limited to this, and may be one having higher sensitivity than the first camera. For example, a 3CMOS camera may be used as the second camera.

さらに、実施形態は、本発明の車両制御装置及び距離算出装置を、車道の左側通行に対応する車両に適用した例であるが、本発明の車両制御装置及び距離算出装置を、車道の右側通行に対応する車両に適用してもよい。その場合、信号機が右側に配置されている環境を走行する車両においては、実施形態の左右のカメラを入れ換えて、左カメラを白黒画像のみを撮影可能なCCCカメラで、右カメラを三原色の画像を撮影可能なRGBカメラでそれぞれ構成すればよい。   Furthermore, although the embodiment is an example in which the vehicle control device and the distance calculation device of the present invention are applied to a vehicle corresponding to left-hand traffic on the roadway, the vehicle control device and distance calculation device of the present invention are applied to the right-hand traffic on the roadway You may apply to the vehicle corresponding to. In that case, in a vehicle traveling in an environment where the traffic signal is disposed on the right, the left camera is a CCC camera capable of taking only black and white images by replacing the left and right cameras in the embodiment, and the right camera is an image of three primary colors. What is necessary is just to comprise each with the RGB camera which can image | photograph.

一方、実施形態は、車両の前側の領域を第1所定領域及び第2所定領域とした例であるが、車両の後ろ側の領域を第1所定領域及び第2所定領域としてもよく、その場合には、左右のカメラを後ろ向きに配置すればよい。   On the other hand, although the embodiment is an example in which the area on the front side of the vehicle is the first predetermined area and the second predetermined area, the area on the rear side of the vehicle may be the first predetermined area and the second predetermined area. In this case, the left and right cameras may be arranged rearward.

また、実施形態は、第1所定区間をN+M個の推定距離Index_x_hで規定される区間とした例であるが、第1所定区間はこれに限らず、重複領域7c及び左重複領域7a内における対象物の距離であればよい。   Further, although the embodiment is an example in which the first predetermined section is a section defined by N + M estimated distances Index_x_h, the first predetermined section is not limited thereto, and the target in the overlapping area 7c and the left overlapping area 7a What is necessary is just the distance of the object.

さらに、実施形態は、第2所定区間をN+M個の推定横位置Index_y_hで規定される区間とした例であるが、第2所定区間はこれに限らず、重複領域7c及び左重複領域7a内における対象物の横位置であればよい。   Furthermore, although the embodiment is an example in which the second predetermined section is a section defined by N + M estimated lateral positions Index_y_h, the second predetermined section is not limited to this, and the second predetermined section is in the overlapping area 7c and the left overlapping area 7a. What is necessary is just the horizontal position of a target object.

一方、実施形態は、本発明の車両制御装置1及び距離算出装置1を4輪車両に適用した例であるが、本発明の車両制御装置及び距離算出装置は、これに限らず、2輪車両、3輪車両及び5輪以上の車両にも適用可能である。   On the other hand, the embodiment is an example in which the vehicle control device 1 and the distance calculation device 1 of the present invention are applied to a four-wheeled vehicle. The present invention can also be applied to a three-wheeled vehicle and a vehicle having five or more wheels.

1 距離算出装置、車両制御装置
2 ECU(実測距離取得手段、推定距離算出手段、補正値算出手段、補正後距離算 出手段)
3 車両
4a 左カメラ(距離情報取得手段、画像情報取得手段、第1カメラ)
4b 右カメラ(距離情報取得手段、第2カメラ)
4d カメラ(画像情報取得手段)
7a 左非重複領域(第2所定領域の一部)
7c 重複領域(第1所定領域、第2所定領域の一部)
7d 左右の非重複領域(第2所定領域の一部)
7e 重複領域(第1所定領域、第2所定領域の一部)
8 レーダ(距離情報取得手段)
11 実測距離算出部(実測距離取得手段)
12 推定位置算出部(推定距離算出手段)
13 補正値算出部(補正値算出手段)
14 補正位置算出部(補正値算出手段、補正後距離算出手段)
Xs_o_n 実測距離
Xn_o_n 第1推定距離(推定距離)
Xn_o_m 第2推定距離(推定距離)
E_id_n 誤差信号値(偏差)
Index_x_h 推定距離(第1所定区間)
Index_y_h 推定横位置(第2所定区間)
Kmod 補正値
X_h 算出距離(補正後距離)
1 distance calculation device, vehicle control device 2 ECU (measured distance acquisition means, estimated distance calculation means, correction value calculation means, corrected distance calculation means)
3 Vehicle 4a Left camera (distance information acquisition means, image information acquisition means, first camera)
4b Right camera (distance information acquisition means, second camera)
4d camera (image information acquisition means)
7a Left non-overlapping area (part of the second predetermined area)
7c overlapping area (first predetermined area, part of second predetermined area)
7d Left and right non-overlapping area (part of the second predetermined area)
7e overlapping area (first predetermined area, part of second predetermined area)
8 Radar (distance information acquisition means)
11 Measured distance calculation unit (measured distance acquisition means)
12 Estimated position calculation unit (estimated distance calculation means)
13 Correction value calculation unit (correction value calculation means)
14 Correction position calculation unit (correction value calculation means, corrected distance calculation means)
Xs_o_n Actual distance Xn_o_n First estimated distance (estimated distance)
Xn_o_m Second estimated distance (estimated distance)
E_id_n Error signal value (deviation)
Index_x_h Estimated distance (first predetermined interval)
Index_y_h Estimated lateral position (second predetermined interval)
Kmod correction value
X_h calculated distance (distance after correction)

Claims (5)

車両に搭載され、当該車両と対象物との距離を算出する距離算出装置において、
距離情報を取得する距離情報取得手段と、
当該距離情報を用いて、第1所定領域内のいずれかのポイントとの距離の実測値である実測距離を取得する実測距離取得手段と、
画像情報を取得する画像情報取得手段と、
当該画像情報及び所定の推定アルゴリズムを用いて、前記第1所定領域をすべて含む、当該第1所定領域よりも広い第2所定領域内のいずれかのポイントとの距離の推定値である推定距離を算出する推定距離算出手段と、
前記対象物の少なくとも一部が前記第1所定領域内に位置するときに前記実測距離取得手段によって取得された前記対象物の前記実測距離と、当該対象物の少なくとも一部が前記第1所定領域内に位置するときに前記推定距離算出手段によって算出された前記対象物の前記推定距離との差分の絶対値が減少するように、前記対象物の前記推定距離を補正するための補正値を算出する補正値算出手段と、
前記対象物が前記第1所定領域内を含む前記第2所定領域内に位置するときに前記推定距離算出手段によって算出された前記対象物の前記推定距離を、前記補正値で補正することにより、前記対象物の補正後距離を算出する補正後距離算出手段と、
を備えることを特徴とする距離算出装置。
In a distance calculation device that is mounted on a vehicle and calculates the distance between the vehicle and the object,
Distance information acquisition means for acquiring distance information;
Measured distance acquiring means for acquiring a measured distance which is a measured value of a distance to any point in the first predetermined area, using the distance information.
Image information acquisition means for acquiring image information;
An estimated distance, which is an estimated value of a distance to any point in a second predetermined area wider than the first predetermined area including all the first predetermined areas, using the image information and a predetermined estimation algorithm Estimated distance calculating means for calculating;
The measured distance of the object acquired by the measured distance acquiring means when at least a part of the object is located in the first predetermined area, and at least a part of the object is the first predetermined area The correction value for correcting the estimated distance of the object is calculated so that the absolute value of the difference between the estimated distance and the estimated distance of the object calculated by the estimated distance calculation means decreases when the position is located inside Correction value calculation means for
By correcting the estimated distance of the object calculated by the estimated distance calculating unit when the object is located in the second predetermined area including the first predetermined area, with the correction value. A corrected distance calculating means for calculating a corrected distance of the object;
A distance calculation device comprising:
前記距離情報取得手段は、第1カメラと、当該第1カメラよりも高感度の第2カメラとを用いて、ステレオマッチング手法により前記距離情報を取得し、
前記画像情報取得手段は、前記第1カメラを用いて、前記画像情報を取得することを特徴とする請求項1に記載の距離算出装置。
The distance information acquisition unit acquires the distance information by a stereo matching method using a first camera and a second camera with higher sensitivity than the first camera.
The said image information acquisition means acquires the said image information using a said 1st camera, The distance calculation apparatus of Claim 1 characterized by the above-mentioned.
前記距離情報取得手段は、レーダ及びLIDARの一方を用いて、前記距離情報を取得し、
前記画像情報取得手段は、カメラを用いて、前記画像情報を取得することを特徴とする請求項1に記載の距離算出装置。
The distance information acquisition means acquires the distance information using one of a radar and a LIDAR,
The said image information acquisition means acquires the said image information using a camera, The distance calculation apparatus of Claim 1 characterized by the above-mentioned.
前記補正値は、前記車両の基準点に対する横方向を1座標とし当該基準点に対する縦方向を1座標とする2次元座標系において、当該横方向の座標に対して第1所定区間で連続すると同時に当該縦方向の座標に対して第2所定区間で連続する関数値として算出されることを特徴とする請求項1ないし3のいずれかに記載の距離算出装置。   The correction value is continuous in the first predetermined section with respect to the horizontal coordinates in a two-dimensional coordinate system in which the horizontal direction with respect to the reference point of the vehicle is one coordinate and the vertical direction with respect to the reference point is one coordinate. The distance calculation device according to any one of claims 1 to 3, wherein the distance calculation device is calculated as a function value continuous in a second predetermined section with respect to the coordinate in the vertical direction. 請求項1ないし4のいずれかに記載の距離算出装置を備え、
前記第1所定領域及び前記第2所定領域は、前記車両の前側及び後ろ側の一方の領域であり、
前記対象物の前記補正後距離を用いて、前記車両の駆動力、制動力及び操舵量の少なくとも1つを制御することを特徴とする車両制御装置。
A distance calculation device according to any one of claims 1 to 4, comprising:
The first predetermined area and the second predetermined area are one of a front side and a rear side of the vehicle,
A vehicle control apparatus, comprising: controlling at least one of a driving force, a braking force, and a steering amount of the vehicle using the corrected distance of the object.
JP2018007605A 2018-01-19 2018-01-19 Distance calculation device and vehicle control device Active JP6620175B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018007605A JP6620175B2 (en) 2018-01-19 2018-01-19 Distance calculation device and vehicle control device
CN201811445254.9A CN110053625B (en) 2018-01-19 2018-11-29 Distance calculation device and vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018007605A JP6620175B2 (en) 2018-01-19 2018-01-19 Distance calculation device and vehicle control device

Publications (2)

Publication Number Publication Date
JP2019128153A true JP2019128153A (en) 2019-08-01
JP6620175B2 JP6620175B2 (en) 2019-12-11

Family

ID=67315037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018007605A Active JP6620175B2 (en) 2018-01-19 2018-01-19 Distance calculation device and vehicle control device

Country Status (2)

Country Link
JP (1) JP6620175B2 (en)
CN (1) CN110053625B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020016628A (en) * 2018-07-27 2020-01-30 日立オートモティブシステムズ株式会社 Distance calculation device
WO2023067867A1 (en) * 2021-10-21 2023-04-27 日立Astemo株式会社 Vehicle-mounted control device, and three-dimensional information acquisition method
CN116279792A (en) * 2023-05-22 2023-06-23 深圳市聚力得电子股份有限公司 Vehicle-mounted intelligent steering control system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020167726A1 (en) * 2001-03-08 2002-11-14 Rod Barman Method and apparatus for multi-nodal, three-dimensional imaging
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2007263669A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
WO2012032809A1 (en) * 2010-09-06 2012-03-15 アイシン精機株式会社 Driving assistance device
JP2013185905A (en) * 2012-03-07 2013-09-19 Sony Corp Information processing apparatus, method, and program
JP2015172934A (en) * 2014-02-24 2015-10-01 株式会社リコー Object recognition device and object recognition method
JP2015219212A (en) * 2014-05-21 2015-12-07 京セラ株式会社 Stereoscopic camera device and distance calculation method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5011049B2 (en) * 2007-09-28 2012-08-29 日立オートモティブシステムズ株式会社 Image processing system
CN102597693B (en) * 2009-11-13 2015-04-01 富士胶片株式会社 Distance measuring device, distance measuring method, distance measuring program, distance measuring system, and image capturing device
JP5639874B2 (en) * 2010-12-24 2014-12-10 株式会社日立製作所 Driving assistance device
JP2012189324A (en) * 2011-03-08 2012-10-04 Ricoh Co Ltd Stereo camera
JP2013186042A (en) * 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd Distance calculating device and distance calculating method
JP2014202661A (en) * 2013-04-08 2014-10-27 株式会社リコー Range finder
JP5893601B2 (en) * 2013-10-31 2016-03-23 富士重工業株式会社 Vehicle control system
US10247551B2 (en) * 2014-09-11 2019-04-02 Hitachi Automotive Systems, Ltd. Vehicle image processing device for environment recognition
CN106347351A (en) * 2016-09-28 2017-01-25 奇瑞汽车股份有限公司 Adaptive cruise control method and system having automatic emergency braking function

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020167726A1 (en) * 2001-03-08 2002-11-14 Rod Barman Method and apparatus for multi-nodal, three-dimensional imaging
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2007263669A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
WO2012032809A1 (en) * 2010-09-06 2012-03-15 アイシン精機株式会社 Driving assistance device
JP2013185905A (en) * 2012-03-07 2013-09-19 Sony Corp Information processing apparatus, method, and program
JP2015172934A (en) * 2014-02-24 2015-10-01 株式会社リコー Object recognition device and object recognition method
JP2015219212A (en) * 2014-05-21 2015-12-07 京セラ株式会社 Stereoscopic camera device and distance calculation method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020016628A (en) * 2018-07-27 2020-01-30 日立オートモティブシステムズ株式会社 Distance calculation device
WO2020022021A1 (en) * 2018-07-27 2020-01-30 日立オートモティブシステムズ株式会社 Distance calculation device
JP7042185B2 (en) 2018-07-27 2022-03-25 日立Astemo株式会社 Distance calculation device
WO2023067867A1 (en) * 2021-10-21 2023-04-27 日立Astemo株式会社 Vehicle-mounted control device, and three-dimensional information acquisition method
CN116279792A (en) * 2023-05-22 2023-06-23 深圳市聚力得电子股份有限公司 Vehicle-mounted intelligent steering control system
CN116279792B (en) * 2023-05-22 2023-07-18 深圳市聚力得电子股份有限公司 Vehicle-mounted intelligent steering control system

Also Published As

Publication number Publication date
JP6620175B2 (en) 2019-12-11
CN110053625A (en) 2019-07-26
CN110053625B (en) 2022-03-11

Similar Documents

Publication Publication Date Title
CN111442776B (en) Method and equipment for sequential ground scene image projection synthesis and complex scene reconstruction
JP6833630B2 (en) Object detector, object detection method and program
CN107798699B (en) Depth map estimation with stereo images
US11216673B2 (en) Direct vehicle detection as 3D bounding boxes using neural network image processing
CN108496178B (en) System and method for estimating future path
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
US11373532B2 (en) Pothole detection system
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
US6734787B2 (en) Apparatus and method of recognizing vehicle travelling behind
KR20210078439A (en) Camera-to-lidar calibration and validation
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
EP3942794B1 (en) Depth-guided video inpainting for autonomous driving
KR101573576B1 (en) Image processing method of around view monitoring system
JP6471522B2 (en) Camera parameter adjustment device
US11200432B2 (en) Method and apparatus for determining driving information
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
WO2019208101A1 (en) Position estimating device
CN110053625B (en) Distance calculation device and vehicle control device
CN110378836B (en) Method, system and equipment for acquiring 3D information of object
JP6841553B2 (en) Imaging device
US20240177417A1 (en) Vehicle environment modeling with a camera
JP2024515761A (en) Data-driven dynamically reconstructed disparity maps
US20230421739A1 (en) Robust Stereo Camera Image Processing Method and System
CN113170057A (en) Image pickup unit control device
GB2584383A (en) Vehicle control system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6620175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150