JP2019081393A - Vehicle control device - Google Patents

Vehicle control device Download PDF

Info

Publication number
JP2019081393A
JP2019081393A JP2017208326A JP2017208326A JP2019081393A JP 2019081393 A JP2019081393 A JP 2019081393A JP 2017208326 A JP2017208326 A JP 2017208326A JP 2017208326 A JP2017208326 A JP 2017208326A JP 2019081393 A JP2019081393 A JP 2019081393A
Authority
JP
Japan
Prior art keywords
vehicle
camera
laser radar
control device
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017208326A
Other languages
Japanese (ja)
Other versions
JP6930368B2 (en
Inventor
知則 長谷川
Tomonori Hasegawa
知則 長谷川
岡本 敦
Atsushi Okamoto
岡本  敦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017208326A priority Critical patent/JP6930368B2/en
Publication of JP2019081393A publication Critical patent/JP2019081393A/en
Application granted granted Critical
Publication of JP6930368B2 publication Critical patent/JP6930368B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To maintain automatic travel within a travel lane even when it is difficult to perform image recognition by a front camera during the automatic operation of a vehicle.SOLUTION: A vehicle control device includes a function performing the automatic operation and calculates a relative position of a vehicle within a travel lane by analyzing images captured by a camera installed on the side of the vehicle. In addition, the vehicle control device calculates a position of the vehicle by detecting a neighboring road structure and a distance up to the road structure by a laser radar installed on the vehicle when decline in recognition accuracy of the camera installed in a front part of the vehicle is detected and then collating the detection result with map information. Then, the vehicle control device corrects the relative position of the vehicle calculated by the camera in accordance with the position of the vehicle calculated by the laser radar.SELECTED DRAWING: Figure 2

Description

本発明は自車両の走行車線を検出する機能を備える車両制御装置に関する。   The present invention relates to a vehicle control device having a function of detecting a traveling lane of a host vehicle.

特許文献1には、自車両が走行している車線の区切りを検出する技術が記載されている。具体的に、特許文献1に記載の車線の区切り検出方法では、車両側方に設置された側方車載カメラと、車両前方に設置された前方車載カメラとのそれぞれから、自車両周辺の画像を取得する。そして側方車載カメラによる画像から、自車両の側方に存在する車線の区切りを検出し、前方車載カメラによる画像から、自車両前方に存在する車線の区切りを検出する。更に、自車両前方の車線の区切りの位置を、側方車載カメラと前方車載カメラとの撮影タイミングの時間差と、走行速度に基づいて修正する。そして、修正した自車両前方の車線の区切りの位置と、自車両側方の車線の区切りの位置とを照合して、両者が整合する場合に、側方の車線の区切りの位置の検出結果を車線の検出結果として出力する。   Patent Document 1 describes a technique for detecting a break in a lane in which the host vehicle is traveling. Specifically, in the lane boundary detection method described in Patent Document 1, an image of the surroundings of the own vehicle is obtained from each of the side on-vehicle camera installed on the side of the vehicle and the front on-vehicle camera installed on the front of the vehicle. get. And from the image by a side in-vehicle camera, the delimitation of the lane which exists in the side of the self-vehicle is detected, and the delimitation of the lane existing in front of the self-vehicle is detected from the image by the front in-vehicle camera. Furthermore, the position of the lane boundary ahead of the host vehicle is corrected based on the time difference between the imaging timings of the side on-vehicle camera and the front on-vehicle camera and the traveling speed. Then, the corrected position of the lane break ahead of the host vehicle is compared with the position of the lane break on the side lane of the host vehicle, and when both are aligned, the detection result of the position of the lane break of the side lane Output as lane detection result.

特開2016−24777号公報JP, 2016-24777, A

前方車載カメラによる画像認識精度は、車両走行中の逆光等の環境要因によって大きく低下する場合がある。このような場合、特許文献1に記載の前方車載カメラの画像を用いた車線の検出方法では、車線を検出することができなくなる。そして車線を検出できない状況下では、車両の自動運転を継続することは困難となる。自動運転による走行が困難となった場合、速やかにドライバに運転交代を促し、手動運転に切り替える必要がある。しかし自動運転状態では、ドライバの運転操作への意識が低下している状態となっていることが予想され、自動運転から手動運転に切り替えるハンドオーバーには、ある程度の時間を要すると考えられる。従って、前方車載カメラによる画像認識精度が低下する場合でも、自動運転によって、より長い時間、走行車線内で自動走行を続けることを可能とする手段の開発が望まれる。   The image recognition accuracy by the front on-vehicle camera may be greatly reduced due to environmental factors such as backlighting while the vehicle is traveling. In such a case, the lane detection method using the image of the front on-board camera described in Patent Document 1 can not detect the lane. And under the situation where the lane can not be detected, it is difficult to continue the automatic driving of the vehicle. If traveling by automatic driving becomes difficult, it is necessary to prompt the driver to change driving and switch to manual driving. However, in the automatic operation state, it is expected that the driver's awareness of the driving operation is lowered, and it is considered that the handover to switch from the automatic operation to the manual operation takes some time. Therefore, even if the image recognition accuracy by the front on-vehicle camera is lowered, it is desirable to develop means that enables automatic driving to continue automatic traveling in the traveling lane for a longer time.

これについて、前方車載カメラが逆光による影響を受け、画像認識精度が低下した場合、側方車載カメラの一方のみを用いた車線の検出により自動走行を維持することも考えられる。しかし側方車載カメラのみでの車線の認識精度は低く、ドライバへの運転交代までの比較的長い時間を維持するための方法としては十分なものではない。   Regarding this, when the front on-vehicle camera is affected by backlight and the image recognition accuracy is lowered, it is also conceivable to maintain the automatic traveling by detecting the lane using only one of the side on-vehicle cameras. However, the lane recognition accuracy with only the side vehicle-mounted camera is low, which is not sufficient as a method for maintaining a relatively long time until the driver's drive change.

本発明は、以上の課題を解決することを目的として、車両の自動運転時に、前方カメラによる画像認識が難しい場合にも、確実に走行車線内で自動走行を維持できるように改良された車両制御装置を提供するものである。   In order to solve the above problems, the present invention provides an improved vehicle control capable of reliably maintaining automatic traveling in a traveling lane even when image recognition by a front camera is difficult during automatic driving of the vehicle. An apparatus is provided.

本発明の車両制御装置は、上記課題を解決することを目的として、以下のように構成されている。即ち、車両の側方に設置されたカメラによる画像を解析して、走行車線内の車両の相対位置を算出する。また、車両の前方に搭載されたカメラの認識精度の低下が検出された場合には、車両に搭載されたレーザーレーダにより周辺の道路構造物と該道路構造物までの距離とを検出して、地図情報との照合により、車両の位置を算出する。そしてレーザーレーダにより算出された車両の位置に応じて、カメラにより算出された車両の相対位置を補正する。   The vehicle control device according to the present invention is configured as follows for the purpose of solving the above-mentioned problems. That is, the relative position of the vehicle in the traveling lane is calculated by analyzing the image by the camera installed on the side of the vehicle. When a decrease in recognition accuracy of a camera mounted in front of a vehicle is detected, a laser radar mounted on the vehicle detects a road structure in the vicinity and the distance to the road structure; The position of the vehicle is calculated by comparison with map information. Then, the relative position of the vehicle calculated by the camera is corrected according to the position of the vehicle calculated by the laser radar.

前方カメラによる認識精度が低下した場合には、レーザーレーダにより周辺の構造物を特定され地図情報との照合が行われる。これにより、前方カメラの認識精度が低下している状態においても、車両前後方向の車両の位置についても高い信頼性を確保して、確実に走行車線に対する車両の相対位置を検出することができる。   When the recognition accuracy by the front camera is lowered, the laser radar identifies surrounding structures and collates with map information. Thereby, even in a state where the recognition accuracy of the front camera is lowered, high reliability can be ensured for the position of the vehicle in the front-rear direction of the vehicle, and the relative position of the vehicle with respect to the traveling lane can be reliably detected.

本発明の実施の形態における車両と、車載カメラの撮影範囲とレーザーレーダによる認識エリアとについて説明するための模式図である。It is a schematic diagram for demonstrating the imaging | photography range of a vehicle and the recognition area by a laser radar in embodiment of this invention, and a vehicle-mounted camera. 本発明の実施の形態における車両制御装置について説明するための図である。It is a figure for demonstrating the vehicle control apparatus in embodiment of this invention.

以下、図面を参照して本発明の実施の形態について説明する。なお、各図において、同一または相当する部分には同一符号を付してその説明を簡略化ないし省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

図1は、本実施の形態における車両と、車載カメラの撮影範囲と、レーザーレーダによる構造物等の認識可能なエリアについて説明するための図である。本実施の形態において車両10の前方、左側方、及び、右側方には、それぞれ、前方カメラ1、左サイドカメラ2、及び、右サイドカメラ3が搭載されている。前方カメラ1、左サイドカメラ2、及び、右サイドカメラ3により、それぞれ、車両10の前方、左側方、及び、右側方の画像が取得される。図1における撮影範囲A、B、及び、Cは、それぞれ前方カメラ1、左サイドカメラ2、及び、右サイドカメラ3によって取得可能な画像範囲を図1の平面上に投影した範囲である。   FIG. 1 is a diagram for explaining a vehicle, a shooting range of a vehicle-mounted camera, and a recognizable area of a structure or the like by a laser radar in the present embodiment. In the present embodiment, a front camera 1, a left side camera 2 and a right side camera 3 are mounted on the front side, the left side and the right side of the vehicle 10 respectively. The front camera 1, the left side camera 2 and the right side camera 3 respectively acquire images of the front, the left side and the right side of the vehicle 10. Photographing ranges A, B and C in FIG. 1 are ranges obtained by projecting the image ranges obtainable by the front camera 1, the left side camera 2 and the right side camera 3 on the plane of FIG. 1.

図示を省略するが、車両10の前方、左側方、右側方、後方のそれぞれには、レーザーレーダ(即ち、LIDAR(Light Detection and Ranging 又は Laser Imaging Detection and Ranging))が搭載されている。レーザーレーダは、レーザー照射に対する散乱光を測定することで、対象物までの距離や対象の形状を分析するものである。車両10に搭載された前方、左右側方、後方のレーザーレーダにより、車両10の前方、左右側方、後方にある、ガードレール、樹木、信号等の道路構造物の形状や相対位置等が特定される。図1に示した認識エリアD、E、F、及び、Gのそれぞれは、前方、左側方、後方、及び、右側方のレーザーレーダそれぞれにより認識可能な範囲を、図1平面上に投影した範囲である。なお、前方、左側方、及び、右側方の認識エリアD、E、及び、Gのそれぞれは、前方カメラ1、左サイドカメラ2、及び、右サイドカメラ3それぞれによる撮影範囲A、B、及び、Cよりも広範囲である。   Although not shown, laser radars (i.e., LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging)) are mounted on the front, left, right, and rear of the vehicle 10, respectively. The laser radar analyzes the distance to the object and the shape of the object by measuring the scattered light with respect to the laser irradiation. The shape, relative position, etc. of road structures such as guardrails, trees, signals, etc. located in front of vehicle 10, left and right side, and rear are specified by the laser radar on the front, left and right, and rear mounted on vehicle 10. Ru. Each of the recognition areas D, E, F, and G shown in FIG. 1 is a range obtained by projecting, on the plane in FIG. 1, the range that can be recognized by the front, left, back and right laser radars. It is. Note that each of the recognition areas D, E, and G on the front, left, and right sides corresponds to the shooting ranges A, B, and B by the front camera 1, the left side camera 2, and the right side camera 3, respectively. It is wider than C.

本実施の形態において、車両10には車両制御装置としてのECU20が搭載されている。ECU20は、車両10に搭載された種々のアクチュエータと電気的に接続されている。ECU20は、自動運転機能に従った内容の制御信号を各アクチュエータに出力することで、車両10の加減速や操舵を制御して、車両10の自動走行を実行する機能を有している。また、ECU20は、自動運転を停止して、ドライバによる入力された運転操作等に従った内容の制御信号を各アクチュエータに出力することで、車両10の加減速や操舵を制御する機能も有している。   In the present embodiment, the vehicle 10 is equipped with an ECU 20 as a vehicle control device. The ECU 20 is electrically connected to various actuators mounted on the vehicle 10. The ECU 20 has a function of executing automatic travel of the vehicle 10 by controlling acceleration / deceleration and steering of the vehicle 10 by outputting a control signal having contents according to the automatic driving function to each actuator. The ECU 20 also has a function of controlling acceleration / deceleration and steering of the vehicle 10 by stopping automatic driving and outputting control signals of contents according to the driving operation or the like input by the driver to each actuator. ing.

更に、ECU20は、前方カメラ1の画像認識精度が正常である場合に、前方カメラ1により車両前方の画像を取得して分析すると共に、左右のサイドカメラ2、3からの画像を取得して分析する。これにより車両10の左右側方に存在する白線等の車線の区切りの位置を検出して走行車線を検出する機能を有している。ECU20は、自動運転中、検出された走行車線情報に基づいて、車両10が走行車線内を走行するように自動走行を制御する。   Furthermore, when the image recognition accuracy of the front camera 1 is normal, the ECU 20 acquires and analyzes an image in front of the vehicle by the front camera 1 and acquires and analyzes images from the left and right side cameras 2 and 3 Do. Thus, it has a function of detecting the traveling lane by detecting the position of a lane boundary such as a white line existing on the left and right sides of the vehicle 10. The ECU 20 controls automatic traveling such that the vehicle 10 travels in the traveling lane based on the detected traveling lane information during automatic driving.

ここで、左右のサイドカメラ2、3の画像中の白線等は大きく移動しやすいため、サイドカメラ2、3のみによる白線等の追跡は困難である。また、左右のサイドカメラ2、3の画像には白線等と並行に路面の継ぎ目等が写る事があるため、左右のサイドカメラ2、3の画像のみによる白線等の検出精度は高くない。このため、本実施の形態においてECU20は、走行車線の検出に際して、前方カメラ1の画像と左右のサイドカメラ2、3の画像との両者を用いて白線等を特定するように構成されている。   Here, since white lines and the like in the images of the left and right side cameras 2 and 3 are easily moved largely, tracking of the white lines and the like by only the side cameras 2 and 3 is difficult. In addition, since the image of the left and right side cameras 2 and 3 may have a joint of the road surface or the like parallel to the white line etc., the detection accuracy of the white line etc. only by the images of the left and right side cameras 2 and 3 is not high. Therefore, in the present embodiment, the ECU 20 is configured to specify a white line or the like using both the image of the front camera 1 and the images of the left and right side cameras 2 and 3 when detecting the traveling lane.

また、ECU20は、逆光等の要因によって前方カメラ1の画像認識精度が低下した場合、即ち、前方カメラ1の不調が検出された場合には、前方カメラ1の画像取得を停止して、左右のサイドカメラ2、3から画像を取得して分析することで白線等を検出する。そして前方、左右側方、及び、後方のレーザーレーダからのデータを取得して分析することで、走行中の車両10の相対位置を確認し、左右サイドカメラ2、3により取得された白線等に対する車両10の相対位置を補正する制御を実行する。以下、具体的に説明する。   Further, when the image recognition accuracy of the front camera 1 is lowered due to factors such as backlighting, that is, when a malfunction of the front camera 1 is detected, the ECU 20 stops the image acquisition of the front camera 1 and White lines and the like are detected by acquiring and analyzing images from the side cameras 2 and 3. And the relative position of the vehicle 10 in motion is confirmed by acquiring and analyzing the data from the laser radar of the front, the right and left sides, and the rear, and the white line etc. acquired by the left and right side cameras 2, 3 Control for correcting the relative position of the vehicle 10 is performed. The details will be described below.

図2は、ECU20が有する機能のうち、前方カメラ1の不調が検出された際の走行車線検出の機能について説明するためのブロック図である。図示されるように、ECU20には、前方カメラ1、左サイドカメラ2、右サイドカメラ3、前方レーザーレーダ4、左側方レーザーレーダ5、右側方レーザーレーダ6、及び、後方レーザーレーダ7が接続されている。   FIG. 2 is a block diagram for explaining the function of the traveling lane detection when the malfunction of the front camera 1 is detected among the functions of the ECU 20. As illustrated, the front camera 1, left side camera 2, right side camera 3, front laser radar 4, left side laser radar 5, right side laser radar 6, and rear laser radar 7 are connected to the ECU 20. ing.

側方画像検出部22は、左サイドカメラ2及び右サイドカメラ3により、車両10の左右側方の画像を取得すると共に、取得した画像を解析して、白線等を検出し、これにより走行車線内の車両10の相対位置を算出する。   The side image detection unit 22 acquires images of the left and right sides of the vehicle 10 with the left side camera 2 and the right side camera 3 and analyzes the acquired image to detect a white line etc., thereby using the traveling lane. The relative position of the vehicle 10 inside is calculated.

前方カメラ1の不調が検出された場合、レーザーレーダ情報検出部24は、前方レーザーレーダ4、左側方レーザーレーダ5、右側方レーザーレーダ6、及び、後方レーザーレーダ7により、車両10周辺の道路構造物の形状と位置情報を取得する。   When a malfunction of the front camera 1 is detected, the laser radar information detection unit 24 detects the road structure around the vehicle 10 by the front laser radar 4, the left side laser radar 5, the right side laser radar 6 and the rear laser radar 7. Get the shape and position information of the object.

照合部26は、地図データベース8から、車両10の現在位置周辺の道路構造物の情報を取得して、取得した情報と、レーザーレーダ情報検出部24により取得された道路構造物の形状及び位置情報とを照合することで、車両10の地図データ上における位置を特定し、車両前後方向における車両10の位置を算出する。なお、レーザーレーダによる道路構造物の情報取得と照合部26における照合、即ち、ローカライズは、正常時のローカライズでは利用しないような道路構造物等も積極的に利用することで、普段以上の頻度で行い、その頻度を担保することとする。   The collation unit 26 acquires the information of the road structure around the current position of the vehicle 10 from the map database 8 and acquires the acquired information, and the shape and position information of the road structure acquired by the laser radar information detection unit 24. And the position of the vehicle 10 on the map data is specified, and the position of the vehicle 10 in the longitudinal direction of the vehicle is calculated. In addition, information acquisition of road structures by laser radar and collation in collation part 26, that is, localization is performed more frequently than usual by actively using road structures etc. which are not used in localization at the time of normality Conduct and secure the frequency.

自車位置補正部28は、側方画像検出部22により取得された走行車線内の車両10の相対位置を、照合部26により算出された車両10の位置に基づいて補正する。即ち、レーザーレーダを用いた照合により車両10の前後方向の位置は正しく特定されるため、これに基づいて、両サイドカメラ2、3の画像解析により算出された走行車線に対する車両の相対位置を正しく補正する。   The host vehicle position correction unit 28 corrects the relative position of the vehicle 10 in the traveling lane acquired by the side image detection unit 22 based on the position of the vehicle 10 calculated by the collation unit 26. That is, since the longitudinal position of the vehicle 10 is correctly identified by the collation using the laser radar, the relative position of the vehicle to the traveling lane calculated by the image analysis of both the side cameras 2 and 3 is correctly based on this. to correct.

出力部30は、自車位置補正部28により補正された車両10の位置に基づいて、車両10に対する加減速度及び操舵力を演算し、各アクチュエータ32に対して、その演算結果に基づく信号を出力する。これにより車両10は確実に走行車線内に位置するように制御される。   The output unit 30 calculates acceleration / deceleration and steering force with respect to the vehicle 10 based on the position of the vehicle 10 corrected by the vehicle position correction unit 28, and outputs a signal based on the calculation result to each actuator 32. Do. Thus, the vehicle 10 is controlled to be surely positioned in the traveling lane.

以上説明したように、本実施の形態によれば、前方カメラ1の画像認識精度が低下した場合にも、レーザーレーダ4〜7による位置情報に基づいて、左右のサイドカメラ2、3の画像により取得された相対位置が補正される。これにより、前方カメラ1の画像なしでも、車両10の前後方向の位置を正確に特定することができるため、左右のサイドカメラ2、3による画像のずれを補正して、正しく走行車線内の車両10の相対位置を特定することができる。これにより、前方カメラ1の画像が利用できない場合にも、車両10の自動走行を維持することができる。   As described above, according to the present embodiment, even when the image recognition accuracy of the front camera 1 decreases, the images of the left and right side cameras 2 and 3 are used based on the position information by the laser radars 4 to 7. The acquired relative position is corrected. As a result, the position of the vehicle 10 in the front-rear direction can be accurately identified without the image of the front camera 1, so that the deviation of the image by the left and right side cameras 2 and 3 can be corrected. Ten relative positions can be identified. Thereby, even when the image of the front camera 1 can not be used, the automatic traveling of the vehicle 10 can be maintained.

なお、以上の実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、この実施の形態において説明する構造等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。   In addition, when the number of the number, the quantity, the quantity, the range, etc. of each element is mentioned in the above embodiment, the case is mentioned except in the case where it is particularly clearly indicated or the case where the number is clearly specified in principle. The invention is not limited to a number. Further, the structures and the like described in this embodiment are not necessarily essential to the present invention, unless otherwise specified or clearly specified in principle.

1 前方カメラ
2 左サイドカメラ
3 右サイドカメラ
4 前方レーザーレーダ
5 左側方レーザーレーダ
6 右側方レーザーレーダ
7 後方レーザーレーダ
8 地図データベース
10 車両
22 側方画像検出部
24 レーザーレーダ情報検出部
26 照合部
28 自車位置補正部
30 出力部
32 各アクチュエータ
1 front camera 2 left side camera 3 right side camera 4 front laser radar 5 left side laser radar 6 right side laser radar 7 rear laser radar 8 map database 10 vehicle 22 side image detector 24 laser radar information detector 26 collator 28 Vehicle position correction unit 30 Output unit 32 Each actuator

Claims (1)

車両の側方に設置されたカメラによる画像を解析して、走行車線内の前記車両の相対位置を算出し、
前記車両の前方に設置されたカメラの認識精度の低下が検出された場合、前記車両に搭載されたレーザーレーダにより前記車両の周辺の道路構造物と該道路構造物までの距離とを検出して、地図情報との照合により、前記車両の位置を算出し、
前記レーザーレーダにより算出された前記車両の位置に応じて、前記カメラにより算出された前記車両の相対位置を補正する、
ように構成されたことを特徴とする車両制御装置。
Analyzing an image from a camera installed on the side of the vehicle to calculate the relative position of the vehicle in the traveling lane;
When a decrease in recognition accuracy of a camera installed in front of the vehicle is detected, a laser radar mounted on the vehicle detects a road structure around the vehicle and a distance to the road structure. Calculating the position of the vehicle by comparison with map information,
The relative position of the vehicle calculated by the camera is corrected according to the position of the vehicle calculated by the laser radar.
Vehicle control device characterized in that it is constituted.
JP2017208326A 2017-10-27 2017-10-27 Vehicle control unit Active JP6930368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017208326A JP6930368B2 (en) 2017-10-27 2017-10-27 Vehicle control unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017208326A JP6930368B2 (en) 2017-10-27 2017-10-27 Vehicle control unit

Publications (2)

Publication Number Publication Date
JP2019081393A true JP2019081393A (en) 2019-05-30
JP6930368B2 JP6930368B2 (en) 2021-09-01

Family

ID=66669330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017208326A Active JP6930368B2 (en) 2017-10-27 2017-10-27 Vehicle control unit

Country Status (1)

Country Link
JP (1) JP6930368B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111959289A (en) * 2020-07-16 2020-11-20 山东行远智能网联科技有限公司 Intelligent internet automobile advancing method based on special road conditions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010519550A (en) * 2007-02-21 2010-06-03 テレ アトラス ノース アメリカ インコーポレイテッド System and method for vehicle navigation and guidance including absolute and relative coordinates
JP2016115211A (en) * 2014-12-16 2016-06-23 ダイムラー・アクチェンゲゼルシャフトDaimler AG Position recognition method
JP2017059003A (en) * 2015-09-17 2017-03-23 クラリオン株式会社 Partition line recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010519550A (en) * 2007-02-21 2010-06-03 テレ アトラス ノース アメリカ インコーポレイテッド System and method for vehicle navigation and guidance including absolute and relative coordinates
JP2016115211A (en) * 2014-12-16 2016-06-23 ダイムラー・アクチェンゲゼルシャフトDaimler AG Position recognition method
JP2017059003A (en) * 2015-09-17 2017-03-23 クラリオン株式会社 Partition line recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111959289A (en) * 2020-07-16 2020-11-20 山东行远智能网联科技有限公司 Intelligent internet automobile advancing method based on special road conditions

Also Published As

Publication number Publication date
JP6930368B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
US10445596B2 (en) Camera device for vehicle
US9896129B2 (en) Driving assistant system of vehicle and method for controlling the same
US8560220B2 (en) Method and apparatus for determining a plausible lane for guiding a vehicle and an automobile
CN107590768B (en) Method for processing sensor data for the position and/or orientation of a vehicle
CN107615011B (en) Parking position setting device and method
US20190077411A1 (en) Traveling assist device
JP6137081B2 (en) Car equipment
US20120101704A1 (en) Method for operating at least one sensor of a vehicle and vehicle having at least one sensor
US20150032369A1 (en) Wayfinding method and device
KR102004062B1 (en) Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle
US10053087B2 (en) Driving assistance apparatus
EP3140777B1 (en) Method for performing diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
CN103874931A (en) Method and apparatus for ascertaining a position for an object in surroundings of a vehicle
JP6103265B2 (en) Pedestrian image acquisition device for vehicles
US10878702B2 (en) Driving support apparatus and driving support method
JP2018524741A (en) Method for identifying an object in a surrounding area of a motor vehicle, driver assistance system, and motor vehicle
JP5149658B2 (en) Driving evaluation device
US9988059B2 (en) Vehicle behavior detection device
JP6930368B2 (en) Vehicle control unit
JP6455380B2 (en) Vehicle driving support device and driving support method
JP5166975B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP7056379B2 (en) Vehicle driving control device
JP2004310525A (en) Vehicular image processor
JP6456761B2 (en) Road environment recognition device, vehicle control device, and vehicle control method
JP2019015570A (en) Parking position information acquisition device and automatic parking controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R151 Written notification of patent or utility model registration

Ref document number: 6930368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151