WO2023145080A1 - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
WO2023145080A1
WO2023145080A1 PCT/JP2022/003622 JP2022003622W WO2023145080A1 WO 2023145080 A1 WO2023145080 A1 WO 2023145080A1 JP 2022003622 W JP2022003622 W JP 2022003622W WO 2023145080 A1 WO2023145080 A1 WO 2023145080A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
vehicle
lane
external world
recognition
Prior art date
Application number
PCT/JP2022/003622
Other languages
English (en)
French (fr)
Inventor
真吾 伊藤
忠彦 加納
祐紀 喜住
相和 三井
祐貴 坪井
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to PCT/JP2022/003622 priority Critical patent/WO2023145080A1/ja
Publication of WO2023145080A1 publication Critical patent/WO2023145080A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping

Definitions

  • the present invention relates to a vehicle control device that controls the running operation of a vehicle.
  • Patent Document 1 As this type of device, there is conventionally known a device that determines the possibility of the vehicle deviating from the lane based on an image obtained by imaging the surroundings of the vehicle, and switches the driving support function according to the determination result.
  • the device described in Patent Document 1 recognizes lane markings that define the lane in which the vehicle is traveling, based on captured images obtained by an imaging unit that captures an image of the front of the vehicle and an imaging unit that captures an image of the rear of the vehicle. .
  • a vehicle control device which is one aspect of the present invention, includes a first external world detection unit and a second external world detection unit that respectively detect external conditions around the own vehicle, and a first algorithm based on the detection value of the first external world detection unit.
  • a recognition unit that recognizes lane markings that define the driving lane of the vehicle using a recognition unit that recognizes the lane markings using a second algorithm that is different from the first algorithm based on the detection value of the second external detection unit; a control unit that controls the travel actuator based on the recognition result of the lane marking by the unit.
  • FIG. 1 is a block diagram schematically showing the main configuration of a vehicle control device according to an embodiment of the invention
  • FIG. The figure which shows an example of the vehicle to which the vehicle control apparatus was applied.
  • FIG. 4 is a diagram for explaining an example of the operation of the vehicle control device;
  • FIG. 5 is a diagram for explaining another example of the operation of the vehicle control device;
  • FIG. 5 is a diagram for explaining another example of the operation of the vehicle control device;
  • FIG. 2 is a block diagram schematically showing the main configuration of a vehicle control device according to a modified example of the embodiment of the present invention;
  • FIG. A vehicle control device can be applied to a vehicle having an automatic driving function, that is, an automatic driving vehicle.
  • a vehicle to which the vehicle control device according to the present embodiment is applied may be called an own vehicle to distinguish it from other vehicles.
  • the host vehicle may be any of an engine vehicle having an internal combustion engine (engine) as a drive source, an electric vehicle having a drive motor as a drive source, and a hybrid vehicle having both an engine and a drive motor as drive sources.
  • the self-vehicle can run not only in an automatic driving mode that does not require driving operations by the driver, but also in a manual driving mode that requires driving operations by the driver.
  • An autonomous vehicle recognizes the lane markings that define its own lane, and based on the information about the recognized lane markings, controls the driving actuators so that the vehicle does not deviate from the lane. , called the off-road departure prevention function).
  • a stereo camera composed of two cameras is installed in front of the vehicle, and the deviation (parallax) between the captured images obtained from each camera is calculated.
  • this method of recognizing lane markings using a single device when determining whether or not the recognized lane markings match the actual lane markings, detailed information about the actual lane markings is required. A high-definition map containing information is required.
  • the vehicle control device is configured as follows.
  • FIG. 1 is a block diagram schematically showing the essential configuration of a vehicle control device 100 according to an embodiment of the present invention.
  • the vehicle control device 100 includes a controller 10, an imaging unit 1, an imaging unit 2, a communication unit 3, and an actuator for travel (actuator for travel). ) AC.
  • the imaging units 1 and 2 have imaging devices (image sensors) such as CCD and CMOS. Imaging units 1 and 2 image a predetermined area around the vehicle.
  • FIG. 2 is a diagram showing an example of own vehicle 101 to which vehicle control device 100 is applied.
  • the imaging units 1 and 2 are attached to a predetermined position (front part) of the own vehicle 101 as shown in FIG. (referred to as a captured image).
  • the imaging units 1 and 2 are installed so that their imaging ranges are substantially the same. Note that the imaging units 1 and 2 may differ from each other in terms of manufacturer, type, performance, etc., and may each be configured with a single housing. Also, the imaging units 1 and 2 may be monocular cameras or stereo cameras.
  • the imaging units 1 and 2 further include an arithmetic unit (not shown) such as a CPU (microprocessor), a storage unit (not shown) such as ROM and RAM, and other peripheral circuits (not shown) such as an I/O interface. comprising a computer having The calculation units of the imaging units 1 and 2 have recognition units 1a and 2a as functional configurations.
  • arithmetic unit such as a CPU (microprocessor)
  • storage unit such as ROM and RAM
  • I/O interface peripheral circuits
  • the calculation units of the imaging units 1 and 2 have recognition units 1a and 2a as functional configurations.
  • the recognizing units 1a and 2a recognize external conditions in a predetermined area around the own vehicle 101 based on the captured image data acquired by the imaging elements of the imaging units 1 and 2. Specifically, the recognizing units 1 a and 2 a recognize lane markings included in the imaging range based on the image data captured by the imaging units 1 and 2 . Further, the recognition units 1a and 2a recognize abnormality of the road within the imaging range based on the captured image data of the imaging units 1 and 2.
  • FIG. Anomalies in the lane are factors that hinder the travel of the vehicle 101, such as anomalies in lane markings such as rubbing of lane markings, obstacles such as falling objects, and depressions in the road.
  • the recognizing units 1a and 2a receive information indicating the result of lane marking recognition (hereinafter referred to as lane marking information) and information indicating the result of lane abnormality recognition by the recognizing units 1a and 2a (hereinafter referred to as lane abnormality information). ) and are output to the controller 10 . Recognizing units 1a and 2a recognize lane markings and lane anomalies using different algorithms. Therefore, the recognizing units 1a and 2a may output lane marking information indicating lane markings having different positions and shapes based on different captured image data of the same scene. Similarly, the recognizing units 1a and 2a may output track anomaly information indicating different track anomalies based on different captured image data of the same scene. Note that the recognizing units 1a and 2a may output the captured image data of the imaging units 1 and 2 to the controller 10 together with the marking line information and the lane abnormality information.
  • lane marking information information indicating the result of lane marking recognition
  • lane abnormality information information indicating the result of lane abnormality
  • the communication unit 3 communicates with various devices (not shown) via networks including wireless communication networks such as the Internet network and mobile phone networks.
  • the network includes not only a public wireless communication network but also a closed communication network provided for each predetermined management area, such as wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), and the like.
  • the controller 10 is composed of an electronic control unit (ECU). More specifically, the controller 10 includes a computer having an arithmetic unit 11 such as a CPU (microprocessor), a storage unit 12 such as ROM and RAM, and other peripheral circuits (not shown) such as an I/O interface. consists of Although a plurality of ECUs having different functions, such as an engine control ECU, a traction motor control ECU, and a braking system ECU, can be provided separately, FIG. 2 shows the controller 10 as a set of these ECUs for convenience. .
  • ECU electronice control unit
  • the storage unit 12 stores information such as various control programs and thresholds used in the programs.
  • the calculation unit 11 has a determination unit 111 and a control unit 112 as functional configurations.
  • the determination unit 111 obtains the lane marking recognition result based on the captured image data of the imaging unit 1, which is recognized by the recognition unit 1a based on the lane marking information from the imaging units 1 and 2 (recognition units 1a and 2a); The difference from the recognition result of the lane marking based on the captured image data of the imaging unit 2 recognized by the recognition unit 2a is acquired.
  • the determining unit 111 determines the automated driving level to be applied to the own vehicle 101 based on the acquired difference.
  • the automated driving level indicates the degree of automation of driving operations in multiple stages. In the following, for the sake of simplicity of explanation, it is assumed that the own vehicle 101 has automatic driving functions classified into three levels of high level, medium level, and low level. It may be divided into levels.
  • the control unit 112 controls the actuator AC so that the host vehicle 101 runs according to the automatic driving level determined by the determination unit 111 .
  • the determination unit 111 determines that the degree of matching between the lane marking recognized based on the captured image data of the imaging unit 1 and the lane marking recognized based on the captured image data of the imaging unit 2 is a predetermined degree or more. At some point, it is determined that the reliability of the lane marking recognition result (hereinafter referred to as lane marking reliability) is high, and the automated driving level is set to a high level.
  • the control unit 112 enables the off-road deviation suppression function so that the vehicle 101 travels along the recognized lane marking, that is, the vehicle 101 is recognized. To control a traveling actuator so as not to deviate to the outside of a lane defined by lane markings.
  • the determination unit 111 determines the automated driving level to be the medium level when the degree of coincidence of the lane markings is less than a predetermined degree.
  • the control unit 112 activates the off-road deviation suppression function, and instructs the occupant to perform a driving operation (steering wheel operation) to prevent the vehicle 101 from deviating off the road as necessary. ).
  • the automatic driving level is determined to be the medium level, the state in which the off-road departure prevention function is enabled is temporarily continued (until the driving operation is requested).
  • the recognizing units 1a and 2a output to the controller 10 lane marking information indicating that the lane marking cannot be recognized.
  • the determination unit 111 cannot compare the lane markings recognized by the captured image data of the imaging units 1 and 2, so it determines that the lane marking reliability is low, and sets the automatic driving level to Decide on a low level.
  • the control unit 112 disables the off-road deviation suppression function and controls the travel actuators based on the driver's driving operation.
  • the determination unit 111 may consider the track abnormality information from the imaging units 1 and 2 when determining the automatic driving level of the own vehicle 101 . Specifically, the determination unit 111 determines whether or not there is an abnormality in the lane of the vehicle 101 based on the lane abnormality information from the recognition units 1a and 2a. When the decision unit 111 determines that the lane marking reliability is high and at least one of the lane abnormality information from the recognition units 1a and 2a indicates that there is no abnormality on the lane, the determination unit 111 performs the off-road deviation suppression function. is judged to be continuable, and the autonomous driving level is set to a high level.
  • the vehicle 101 is instructed to perform a driving operation in order to avoid a depression in the road, an obstacle, or the like. A request may be required. Therefore, even if the determination unit 111 determines that the lane marking reliability is high, when at least one of the track abnormality information from the recognition units 1a and 2a indicates that there is an abnormality on the track, the determination unit 111 sets the automatic driving level. Decide on medium level instead of high level.
  • the determination unit 111 determines that the reliability of the lane marking recognition result is high, when neither of the recognition units 1a and 2a can recognize the abnormality of the track due to dirt on the camera lens or halation as described above. Similarly, it judges that it may be necessary to request driving operation from the occupant, and decides the autonomous driving level to be medium level instead of high level.
  • the determination unit 111 determines that the lane marking reliability is low, the determination unit 111 does not uniformly determine the automatic driving level to a low level, but sets the automatic driving level in consideration of the lane abnormality information from the imaging units 1 and 2. decide.
  • Fig. 3 is a diagram showing an example of a table for determining the level of automatic driving. Determination of the automatic driving level by the determination unit 111 is performed based on the table in FIG.
  • the table of FIG. 3 is stored in the storage unit 12 in advance. Note that the determination unit 111 may acquire the table of FIG. 3 from an external server or the like via the communication unit 3 .
  • FIGS. 4A to 4D are diagrams for explaining the operation of vehicle control device 100.
  • FIG. 4A to 4D show the lane markings LN1 and LN2 recognized by the recognition unit 1a based on the captured image data of the imaging unit 1, and the lane markings LN1 and LN2 recognized by the recognition unit 2a based on the captured image data of the imaging unit 2.
  • An example of LN2 is shown schematically.
  • FIGS. 4A to 4C it is assumed that there is no object or the like that hinders the running of the own vehicle 101.
  • the automatic driving mode is set to high level based on the lane abnormality information from the imaging units 1 and 2 according to the table of FIG. Or determined to be medium level.
  • the automatic driving mode is determined to be the middle level or the low level based on the roadway abnormality information from the imaging units 1 and 2.
  • the division line defining the branching lane is recognized by the recognition units 1a and 2a as the driving lane of the own vehicle 101.
  • a lane marking that defines a lane branching off from the driving lane of the vehicle 101 (branching lane) is a part of a marking line LN2 that defines the driving lane of the vehicle 101 by the recognition unit 2a (diagonal line in the figure). part) is erroneously recognized as an example.
  • the shapes of the lane markings LN1 and LN2 recognized by the recognition units 1a and 2a do not match each other. level or low level.
  • the recognition units 1a and 2a recognize the object OB that hinders the running of the own vehicle 101
  • the lane markings LN1 and LN2 recognized by the recognition units 1a and 2a match each other.
  • the automatic driving level is determined not to be high level but to medium level according to the table in FIG.
  • the vehicle control device 100 uses the imaging unit 1 and the imaging unit 2 that respectively detect the external conditions around the own vehicle, and the detection value (captured image data) of the imaging unit 1 using a first algorithm to Recognizing units 1a and 2a that recognize lane markings that define the driving lane of the vehicle 101, and recognize the lane markings using a second algorithm that differs from the first algorithm based on the detection values (captured image data) of the imaging unit 2. and a control unit 112 that controls the actuator AC based on the recognition results of the lane markings by the recognition units 1a and 2a.
  • a control unit 112 that controls the actuator AC based on the recognition results of the lane markings by the recognition units 1a and 2a.
  • the vehicle 101 can be properly controlled in accordance with the lane markings that define the driving lane of the vehicle 101 .
  • traffic safety can be ensured.
  • the imaging unit 1 and the imaging unit 2 image a predetermined area around the own vehicle 101 . More specifically, the imaging unit 1 and the imaging unit 2 are installed in the own vehicle 101 so that the imaging range is substantially the same, and images the space ahead of the own vehicle 101 . Recognizing units 1a and 2a recognize lane markings using a first algorithm based on the captured image data acquired by the imaging unit 1, and use a second algorithm based on the captured image data acquired by the imaging unit 2. Recognize parcel lines. This eliminates the need to match the coordinate systems of a plurality of imaging units, so that the lane markings defining the driving lane of the own vehicle 101 can be recognized with high accuracy.
  • the vehicle control device 100 applies an automatic detection method to the own vehicle 101 based on the difference between the lane marking recognition result based on the detection value of the imaging unit 1 and the lane marking recognition result based on the detection value of the imaging unit 2. It further includes a determination unit 111 that determines the driving function or the driving support function. The control unit 112 controls the actuator AC so that the automatic driving function or the driving support function determined by the determination unit 111 is applied to the own vehicle 101 . As a result, even in a driving mode in which the automatic driving function or the driving support function is activated, the vehicle 101 can be controlled appropriately according to the lane markings.
  • the recognizing units 1a and 2a further recognize a factor (runway abnormality) that hinders the running of the vehicle 101 based on the detection value of the imaging unit 1, Recognize factors (runway abnormalities) that hinder
  • the determination unit 111 determines the difference between the lane marking recognition result based on the detection value of the imaging unit 1 and the lane marking recognition result based on the detection value of the imaging unit 2 by the recognition units 1a and 2a, and the recognition units 1a and 2a, An automatic driving function or a driving support function to be applied to the own vehicle 101 is determined based on the difference between the recognition result of the road anomaly based on the detection value of the imaging unit 1 and the recognition result of the road anomaly based on the detection value of the imaging unit 2. . Therefore, in the driving mode in which the automatic driving function or the driving support function is activated, the vehicle 101 can be appropriately controlled to travel according to the lane markings while taking into consideration the lane abnormality.
  • the imaging unit 1 and the imaging unit 2 are configured to detect the external conditions around the host vehicle 101 as the first external field detection section and the second external field detection section, respectively.
  • the first external world detection section and the second external world detection section may be other than the imaging unit (camera), and may be a radar or a lidar.
  • the vehicle control device 100 having the first imaging unit (imaging unit 1) as the first external world detection section and the second imaging unit (imaging unit 2) as the second external world detection section is taken as an example.
  • the vehicle control device may have three or more external detection units.
  • the determination unit 111 determines the automatic driving level using the table of FIG. 3, but the determination unit may determine the automatic driving level by another method without using the table good.
  • the automatic driving level may be determined according to a predetermined processing flow for determining the automatic driving level based on lane marking information and roadway abnormality information from the imaging units 1 and 2 .
  • the determining unit 111 determines the automatic driving level based on the lane marking information and the lane abnormality information from the imaging units 1 and 2.
  • the configuration of the determination unit is not limited to this.
  • the decision unit decides whether or not to activate a specific function such as the off-road deviation suppression function of the own vehicle 101, based on the lane marking information and the lane abnormality information from the imaging units 1 and 2. may
  • FIG. 5 is a block diagram schematically showing the main configuration of a vehicle control device 100 according to a modification of the embodiment of the invention.
  • FIG. 5 shows an example of a vehicle control device 100 in which the calculation unit 11 of the controller 10 functions as recognition units 1a and 2a as a functional configuration.
  • the recognition unit 1 a acquires captured image data output from the imaging unit 1 .
  • the recognition unit 2 a acquires captured image data output from the imaging unit 2 .
  • Recognizing units 1a and 2a use different algorithms to recognize lane markings included in an imaging range and anomalies of a track within the imaging range based on the acquired captured image data.

Abstract

車両制御装置(100)は、自車両の周囲の外界状況をそれぞれ検出する撮像ユニット(1)および撮像ユニット(2)と、撮像ユニット(1)の撮像画像データに基づき第1アルゴリズムを用いて、自車両(101)の走行車線を規定する区画線を認識するとともに、撮像ユニット(2)の撮像画像データに基づき第1アルゴリズムとは異なる第2アルゴリズムを用いて区画線を認識する認識部(1a,2a)と、認識部(1a,2a)による区画線の認識結果に基づいて、アクチュエータACを制御する制御部(112)と、を備える。

Description

車両制御装置
 本発明は、車両の走行動作を制御する車両制御装置に関する。
 この種の装置として、従来、自車両の周囲を撮像して得られた画像に基づき自車両が車線逸脱する可能性を判定し、その判定結果に従って走行支援機能を切り替えるようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置は、自車両の前方を撮像する撮像ユニットと自車両の後方を撮像する撮像ユニットとにより得られた撮像画像に基づき、自車両の走行車線を規定する区画線を認識する。
特許第4654208号公報
 しかしながら、特許文献1記載の装置のように、撮像範囲が互いに異なる複数のカメラにより得られた撮像画像に基づき区画線を認識するようにしたのでは、複数の撮像画像の座標系の合わせこみが必要になるため、区画線を認識する際に誤差を生じやすい。
 本発明の一態様である車両制御装置は、自車両の周囲の外界状況をそれぞれ検出する第1外界検出部および第2外界検出部と、第1外界検出部の検出値に基づき第1アルゴリズムを用いて、自車両の走行車線を規定する区画線を認識するとともに、第2外界検出部の検出値に基づき第1アルゴリズムとは異なる第2アルゴリズムを用いて区画線を認識する認識部と、認識部による区画線の認識結果に基づいて、走行用アクチュエータを制御する制御部と、を備える。
 本発明によれば、車線を規定する区画線に従って車両を適切に走行制御できる。
本発明の実施形態に係る車両制御装置の要部構成を概略的に示すブロック図。 車両制御装置が適用された車両の一例を示す図。 自動運転レベルを決定するためのテーブルの一例を示す図。 車両制御装置の動作の一例を説明するための図。 車両制御装置の動作の他の例を説明するための図。 車両制御装置の動作の他の例を説明するための図。 車両制御装置の動作の他の例を説明するための図。 本発明の実施形態の変形例に係る車両制御装置の要部構成を概略的に示すブロック図。
 以下、図1~図5を参照して本発明の実施形態について説明する。本発明の実施形態に係る車両制御装置は、自動運転機能を有する車両、すなわち自動運転車両に適用することができる。なお、本実施形態に係る車両制御装置が適用される車両を、他車両と区別して自車両と呼ぶことがある。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。自車両は、ドライバによる運転操作が不要な自動運転モードでの走行だけでなく、ドライバの運転操作による手動運転モードでの走行も可能である。
 自動運転車両は、自車両の走行車線を規定する区画線を認識し、認識した区画線の情報に基づいて、自車両が走行車線の外側へ逸脱しないように走行用アクチュエータを制御する機能(以下、路外逸脱抑制機能と呼ぶ。)を有する。
 ところで、区画線を認識する方法として、自車両の前部に2つのカメラで構成されたステレオカメラを設置して、各カメラから得られる撮像画像間のズレ(視差)を算出し、その視差とカメラ間の距離とに基づき区画線の位置や形状を認識する方法がある。このように1つのデバイス(ステレオカメラ)を用いて区画線を認識する方法では、認識された区画線が実際の区画線と一致しているか否かを判定するとき、実際の区画線の詳細な情報を含む高精度地図が必要となる。しかしながら、高精度地図は高価であるため、高精度地図を用いて区画線の誤認識を検出しようとすると、車両のコストを増大させるおそれがある。そこで、本実施形態では、以下のように車両制御装置を構成する。
 図1は、本発明の実施形態に係る車両制御装置100の要部構成を概略的に示すブロック図である。図1に示すように、車両制御装置100は、コントローラ10と、コントローラ10にそれぞれ通信可能に接続された撮像ユニット1と、撮像ユニット2と、通信ユニット3と、走行用のアクチュエータ(走行用アクチュエータ)ACとを有する。
 撮像ユニット1,2は、CCDやCMOS等の撮像素子(イメージセンサ)を有する。撮像ユニット1,2は、自車両の周囲の所定領域を撮像する。図2は、車両制御装置100が適用された自車両101の一例を示す図である。撮像ユニット1,2は、図2に示すように自車両101の所定位置(前部)に取り付けられ、自車両101の前方空間を連続的に撮像して画像データ(以下、撮像画像データまたは単に撮像画像と呼ぶ)を取得する。撮像ユニット1,2は、互いの撮像範囲が略同一になるように設置される。なお、撮像ユニット1,2は、メーカや種類、性能などが互いに異なっていてもよく、それぞれが単一の筐体で構成されていてもよい。また、撮像ユニット1,2は、単眼カメラであってもよいしステレオカメラであってもよい。
 撮像ユニット1,2は、さらに、CPU(マイクロプロセッサ)等の演算部(不図示)と、ROM,RAM等の記憶部(不図示)と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。撮像ユニット1,2の演算部は、機能的構成として、認識部1a,2aを有する。
 認識部1a,2aは、撮像ユニット1,2の撮像素子により取得された撮像画像データに基づいて自車両101の周囲の所定領域における外界状況を認識する。具体的には、認識部1a,2aは、撮像ユニット1,2の撮像画像データに基づいて、撮像範囲に含まれる区画線を認識する。また、認識部1a,2aは、撮像ユニット1,2の撮像画像データに基づいて、撮像範囲内における走路の異常を認識する。走路の異常とは、区画線の擦れなどの区画線異常や、落下物等の障害物、道路の陥没など、自車両101の走行を阻害する要因となるものである。認識部1a,2aは、区画線の認識結果を示す情報(以下、区画線情報と呼ぶ。)と、認識部1a,2aによる走路の異常の認識結果を示す情報(以下、走路異常情報と呼ぶ。)と、をコントローラ10に出力する。認識部1a,2aは、それぞれ異なるアルゴリズムを用いて、区画線および走路異常を認識する。したがって、認識部1a,2aは、同一シーンの異なる撮像画像データに基づき位置や形状が互いに異なる区画線を示す区画線情報を出力する場合がある。同様に、認識部1a,2aは、同一シーンの異なる撮像画像データに基づき互いに異なる走路異常を示す走路異常情報を出力する場合がある。なお、認識部1a,2aは、区画線情報および走路異常情報とともに、撮像ユニット1,2の撮像画像データをコントローラ10に出力してもよい。
 通信ユニット3は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種装置と通信する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。
 コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図2では、便宜上、これらECUの集合としてコントローラ10が示される。
 記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等の情報が記憶される。演算部11は、機能的構成として、決定部111と、制御部112と、を有する。
 決定部111は、撮像ユニット1,2(認識部1a,2a)からの区画線情報に基づいて、認識部1aにより認識された、撮像ユニット1の撮像画像データに基づく区画線の認識結果と、認識部2aにより認識された、撮像ユニット2の撮像画像データに基づく区画線の認識結果との差異を取得する。決定部111は、取得した差異に基づいて、自車両101に適用する自動運転レベルを決定する。自動運転レベルは、運転操作の自動化の度合いを複数段階で表すものである。以下では、説明の簡略化のため、自車両101が、高レベル、中レベル、および低レベルの3段階にレベル分けされた自動運転機能を有するものとするが、自動運転レベルは3つ以外の段階にレベル分けされていてもよい。制御部112は、決定部111により決定された自動運転レベルに従って自車両101が走行するようにアクチュエータACを制御する。
 より詳細には、決定部111は、撮像ユニット1の撮像画像データに基づき認識された区画線と、撮像ユニット2の撮像画像データに基づき認識された区画線との一致の度合いが所定程度以上であるとき、区画線の認識結果の信頼度(以下、区画線信頼度と呼ぶ。)が高いと判断し、自動運転レベルを高レベルに決定する。自動運転レベルが高レベルに決定されると、制御部112は、路外逸脱抑制機能を有効にし、自車両101が認識された区画線に従って走行するように、すなわち、自車両101が認識された区画線により規定される車線の外側へ逸脱しないように、走行用アクチュエータを制御する。
 一方、区画線の一致の度合いが所定程度未満であるとき、自車両101は、認識された区画線に従って走行すると路外逸脱する可能性がある。したがって、決定部111は、区画線の一致の度合いが所定程度未満であるときには、自動運転レベルを中レベルに決定する。自動運転レベルが中レベルに決定されると、制御部112は、路外逸脱抑制機能を有効にしつつ、必要に応じて、自車両101が路外に逸脱しないように乗員に運転操作(ハンドル操作)を要請する。このように、自動運転レベルが中レベルに決定されると、路外逸脱抑制機能を有効にした状態が、一時的に(運転操作の要請が行われるまで)継続される。
 一方、カメラレンズの汚れやハレーションにより、撮像ユニット1,2の撮像画像データに基づき区画線が認識できない場合がある。このとき、認識部1a,2aは、区画線認識が不可であることを示す区画線情報をコントローラ10に出力する。このような場合には、決定部111は、撮像ユニット1,2の撮像画像データにより認識された区画線を互いに比較することができないので、区画線信頼度が低いと判断し、自動運転レベルを低レベルに決定する。自動運転レベルが低レベルに決定されると、制御部112は、路外逸脱抑制機能を無効にし、乗員の運転操作に基づいて走行用アクチュエータを制御する。
 決定部111は、自車両101の自動運転レベルを決定するとき、撮像ユニット1,2からの走路異常情報を考慮してもよい。具体的には、決定部111は、認識部1a,2aからの走路異常情報に基づき、自車両101の走行車線の異常の有無を判定する。決定部111は、区画線信頼度が高いと判断した場合であって、かつ、認識部1a,2aからの走路異常情報の少なくとも一方が走路に異常がないことを示すとき、路外逸脱抑制機能を継続可能と判断し、自動運転レベルを高レベルに決定する。一方で、認識部1a,2aからの走路異常情報の少なくとも一方が走路に異常があることを示すとき、自車両101を道路の陥没や障害物等から回避させるために、乗員への運転操作の要請が必要になる場合がある。したがって、決定部111は、区画線信頼度が高いと判断した場合であっても、認識部1a,2aからの走路異常情報の少なくとも一方が走路に異常があることを示すときには、自動運転レベルを高レベルではなく中レベルに決定する。さらに、決定部111は、区画線の認識結果の信頼度が高いと判断した場合でも、上記のようなカメラレンズの汚れやハレーションにより認識部1a,2aのいずれもが走路の異常を認識できないときも同様に、乗員への運転操作の要請が必要になる場合があると判断し、自動運転レベルを高レベルではなく中レベルに決定する。
 決定部111は、区画線信頼度が低いと判断した場合も、自動運転レベルを一律に低レベルに決定するのではなく、撮像ユニット1,2からの走路異常情報を考慮して自動運転レベルを決定する。
 図3は、自動運転レベルを決定するためのテーブルの一例を示す図である。上記の決定部111による自動運転レベルの決定は、図3のテーブルに基づいて行われる。図3のテーブルは、記憶部12に予め記憶されている。なお、決定部111は、外部のサーバ等から通信ユニット3を介して図3のテーブルを取得してもよい。
 図3のテーブルにおいて、「区画線比較」欄に示す「○」は、認識部1a,2aの区画線が互いに一致していることを表す。「×」は、区画線が互いに一致していないことを表す。「▲」は、認識部1a,2aのいずれか一方が区画線を認識できていないことを表す。「-」は、認識部1a,2aの両方が区画線を認識できていないことを表す。「走路異常判定」欄に示す「○」は、認識部1a,2aが走路の異常を認識しなかったことを表す。「×」は、認識部1a,2aが走路の異常を認識したことを表す。「-」は、認識部1a,2aが走路の異常を認識できなかったことを表す。「自動運転レベル」欄は、「区画線比較」欄の情報と「走路異常判定」欄の情報とに基づき決定される自動運転レベルを表す。
 本実施形態に係る車両制御装置100の動作をまとめると以下のようになる。図4A~4Dは、車両制御装置100の動作を説明するための図である。図4A~4Dには、認識部1aにより撮像ユニット1の撮像画像データに基づき認識された区画線LN1,LN2と、認識部2aにより撮像ユニット2の撮像画像データに基づき認識された区画線LN1,LN2の例が模式的に示されている。なお、図4A~4Cにおいては、自車両101の走行を阻害する要因となる対象物等は存在しないものとする。図4Aに示すように、認識部1a,2aにより認識された区画線LN1,LN2が一致するとき、図3のテーブルに従って撮像ユニット1,2からの走路異常情報に基づき、自動運転モードが高レベルまたは中レベルに決定される。
 一方、図4Bに示すように、カメラレンズの汚れやハレーションにより認識部2aが区画線LN2を認識できない場合、認識部1a,2aによる区画線の認識結果を互いに比較することができない。この場合、図3のテーブルに従って撮像ユニット1,2からの走路異常情報に基づき、自動運転モードが中レベルまたは低レベルに決定される。
 自車両101の走行車線から分岐する車線(分岐車線)が撮像ユニット1,2の撮像範囲に含まれるとき、その分岐車線を規定する区画線が、認識部1a,2aによって自車両101の走行車線を規定する区画線として誤認識される場合がある。図4Cには、自車両101の走行車線から分岐する車線(分岐車線)を規定する区画線が、認識部2aにより自車両101の走行車線を規定する区画線LN2の一部(図中の斜めの部分)として誤認識された場合の例が示されている。このような場合、認識部1a,2aにより認識された区画線LN1,LN2の形状が互いに一致しないため、図3のテーブルに従って撮像ユニット1,2からの走路異常情報に基づき、自動運転モードが中レベルまたは低レベルに決定される。
 また、図4Dに示すように、認識部1a,2aによって自車両101の走行を阻害する対象物OBが認識されているときには、認識部1a,2aにより認識された区画線LN1,LN2が一致していても、図3のテーブルに従って自動運転レベルは高レベルではなく中レベルに決定される。
 本実施形態によれば以下のような作用効果を奏することができる。
(1)車両制御装置100は、自車両の周囲の外界状況をそれぞれ検出する撮像ユニット1および撮像ユニット2と、撮像ユニット1の検出値(撮像画像データ)に基づき第1アルゴリズムを用いて、自車両101の走行車線を規定する区画線を認識するとともに、撮像ユニット2の検出値(撮像画像データ)に基づき第1アルゴリズムとは異なる第2アルゴリズムを用いて区画線を認識する認識部1a,2aと、認識部1a,2aによる区画線の認識結果に基づいて、アクチュエータACを制御する制御部112と、を備える。このように、異なるアルゴリズムを用いて各アルゴリズムのそれぞれで区画線を認識することで、区画線の認識結果を精度よく評価することができる。これにより、自車両101の走行車線を規定する区画線に従って自車両101を適切に走行制御できる。また、自動運転車両が普及して道路を走行する自動運転車両が増加した場合でも交通の安全性を確保することができる。
(2)撮像ユニット1および撮像ユニット2は、自車両101の周囲の所定領域を撮像する。より詳細には、撮像ユニット1および撮像ユニット2は、撮像範囲が略同一になるように自車両101に設置され、自車両101の前方空間を撮像する。認識部1a,2aは、撮像ユニット1により取得された撮像画像データに基づき第1アルゴリズムを用いて区画線を認識するとともに、撮像ユニット2により取得された撮像画像データに基づき第2アルゴリズムを用いて区画線を認識する。これにより、複数の撮像ユニットの座標系の合わせこみが不要になるため、自車両101の走行車線を規定する区画線を精度よく認識できる。
(3)車両制御装置100は、撮像ユニット1の検出値に基づく区画線の認識結果と撮像ユニット2の検出値に基づく区画線の認識結果との差異に基づいて、自車両101に適用する自動運転機能または運転支援機能を決定する決定部111をさらに備える。制御部112は、決定部111により決定された自動運転機能または運転支援機能が自車両101に適用されるように、アクチュエータACを制御する。これにより、自動運転機能または運転支援機能が有効化されている運転モードにおいても、区画線に従って自車両101を適切に走行制御できる。
(4)認識部1a,2aはさらに、撮像ユニット1の検出値に基づき自車両101の走行を阻害する要因(走路異常)を認識するとともに、撮像ユニット2の検出値に基づき自車両101の走行を阻害する要因(走路異常)を認識する。決定部111は、認識部1a,2aによる、撮像ユニット1の検出値に基づく区画線の認識結果と撮像ユニット2の検出値に基づく区画線の認識結果の差異と、認識部1a,2aによる、撮像ユニット1の検出値に基づく走路異常の認識結果と撮像ユニット2の検出値に基づく走路異常の認識結果の差異とに基づいて、自車両101に適用する自動運転機能または運転支援機能を決定する。したがって、自動運転機能または運転支援機能が有効化されている運転モードにおいて、走路異常を考慮しながら区画線に従って自車両101を適切に走行制御できる。
 上記実施形態は種々の形態に変形することができる。以下、いくつかの変形例について説明する。上記実施形態では、撮像ユニット1および撮像ユニット2が、第1外界検出部および第2外界検出部として、自車両101の周囲の外界状況をそれぞれ検出するようにした。しかしながら、第1外界検出部および第2外界検出部は、撮像ユニット(カメラ)以外であってもよく、レーダやライダであってもよい。また、上記実施形態では、第1外界検出部としての第1撮像ユニット(撮像ユニット1)と第2外界検出部としての第2撮像ユニット(撮像ユニット2)とを有する車両制御装置100を例にしたが、車両制御装置は、外界検出部を3つ以上備えていてもよい。
 また、上記実施形態では、決定部111が図3のテーブルを用いて自動運転レベルを決定するようにしたが、決定部は、テーブルを用いずにその他の方法により自動運転レベルを決定してもよい。例えば、撮像ユニット1,2からの区画線情報と走路異常情報とに基づいて、自動運転レベルを決定するための所定の処理フローに従って自動運転レベルを決定してもよい。
 また、上記実施形態では、決定部111が、撮像ユニット1,2からの区画線情報と走路異常情報とに基づいて自動運転レベルを決定するようにした。しかしながら、自車両101に適用する自動運転機能または運転支援機能を決定するのであれば、決定部の構成はこれに限定されない。例えば、決定部は、撮像ユニット1,2からの区画線情報と走路異常情報とに基づいて、自車両101が有する路外逸脱抑制機能などの特定の機能を有効化するか否かを決定してもよい。
 さらに、上記実施形態では、撮像ユニット1,2の演算部が機能的構成として認識部1a,2aとして機能する車両制御装置100を例にしたが、車両制御装置の構成はこれに限定されない。図5は、本発明の実施形態の変形例に係る車両制御装置100の要部構成を概略的に示すブロック図である。図5には、コントローラ10の演算部11が機能的構成として認識部1a,2aとして機能する車両制御装置100の一例が示されている。図5に示すように、演算部11が機能的構成として認識部1a,2aを有するとき、認識部1aは、撮像ユニット1から出力される撮像画像データを取得する。認識部2aは、撮像ユニット2から出力される撮像画像データを取得する。認識部1a,2aは、それぞれ異なるアルゴリズムを用いて、取得した撮像画像データに基づき撮像範囲に含まれる区画線および撮像範囲内における走路の異常を認識する。
 以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の一つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1,2 撮像ユニット、1a,2a 認識部、3 通信ユニット、10 コントローラ、12 記憶部、111 決定部、112 制御部、AC アクチュエータ

Claims (4)

  1.  自車両の周囲の外界状況をそれぞれ検出する第1外界検出部および第2外界検出部と、
     前記第1外界検出部の検出値に基づき第1アルゴリズムを用いて、自車両が走行する車線を規定する区画線を認識するとともに、前記第2外界検出部の検出値に基づき前記第1アルゴリズムとは異なる第2アルゴリズムを用いて自車両が走行する車線を規定する区画線を認識する認識部と、
     前記認識部による区画線の認識結果に基づいて、走行用アクチュエータを制御する制御部と、を備えることを特徴とする車両制御装置。
  2.  請求項1に記載の車両制御装置において、
     前記第1外界検出部および前記第2外界検出部は、自車両の周囲の所定領域を撮像する第1撮像ユニットと第2撮像ユニットであり、
     前記認識部は、前記第1撮像ユニットにより取得された撮像画像データに基づき前記第1アルゴリズムを用いて自車両が走行する車線を規定する区画線を認識するとともに、前記第2撮像ユニットにより取得された撮像画像データに基づき前記第2アルゴリズムを用いて自車両が走行する車線を規定する区画線を認識することを特徴とする車両制御装置。
  3.  請求項1または2に記載の車両制御装置において、
     前記認識部による、前記第1外界検出部の検出値に基づく区画線の認識結果と前記第2外界検出部の検出値に基づく区画線の認識結果との差異に基づいて、自車両に適用する自動運転機能または運転支援機能を決定する決定部をさらに備え、
     前記制御部は、前記決定部により決定された自動運転機能または運転支援機能が自車両に適用されるように、前記走行用アクチュエータを制御することを特徴とする車両制御装置。
  4.  請求項3のうちのいずれか1項に記載の車両制御装置において、
     前記認識部はさらに、前記第1外界検出部の検出値に基づき自車両の走行を阻害する要因を認識するとともに、前記第2外界検出部の検出値に基づき自車両の走行を阻害する要因を認識し、
     前記決定部は、前記認識部により認識された、前記第1外界検出部の検出値に基づく区画線の認識結果と前記第2外界検出部の検出値に基づく区画線の認識結果との差異と、前記認識部により認識された、前記第1外界検出部の検出値に基づく自車両の走行を阻害する要因の認識結果と前記第2外界検出部の検出値に基づく自車両の走行を阻害する要因の認識結果との差異とに基づいて、自車両に適用する前記自動運転機能または前記運転支援機能を決定することを特徴とする車両制御装置。
PCT/JP2022/003622 2022-01-31 2022-01-31 車両制御装置 WO2023145080A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/003622 WO2023145080A1 (ja) 2022-01-31 2022-01-31 車両制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/003622 WO2023145080A1 (ja) 2022-01-31 2022-01-31 車両制御装置

Publications (1)

Publication Number Publication Date
WO2023145080A1 true WO2023145080A1 (ja) 2023-08-03

Family

ID=87471009

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003622 WO2023145080A1 (ja) 2022-01-31 2022-01-31 車両制御装置

Country Status (1)

Country Link
WO (1) WO2023145080A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230552A (ja) * 2014-06-04 2015-12-21 住友電気工業株式会社 自律運転制御装置、車両、コンピュータプログラム、及び自律運転制御方法
JP2019164729A (ja) * 2018-03-20 2019-09-26 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
JP2021123262A (ja) * 2020-02-06 2021-08-30 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2021127119A (ja) * 2017-02-23 2021-09-02 本田技研工業株式会社 車両用制御システムおよび制御方法
JP2021144280A (ja) * 2020-03-10 2021-09-24 本田技研工業株式会社 移動体制御装置、移動体制御方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230552A (ja) * 2014-06-04 2015-12-21 住友電気工業株式会社 自律運転制御装置、車両、コンピュータプログラム、及び自律運転制御方法
JP2021127119A (ja) * 2017-02-23 2021-09-02 本田技研工業株式会社 車両用制御システムおよび制御方法
JP2019164729A (ja) * 2018-03-20 2019-09-26 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
JP2021123262A (ja) * 2020-02-06 2021-08-30 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2021144280A (ja) * 2020-03-10 2021-09-24 本田技研工業株式会社 移動体制御装置、移動体制御方法、及びプログラム

Similar Documents

Publication Publication Date Title
CN110203199B (zh) 行驶控制装置以及行驶控制方法
CN107953884B (zh) 用于自主车辆的行驶控制设备和方法
WO2016194157A1 (ja) 車両制御装置及び車両制御方法
JP2018097590A (ja) 障害物判定システムおよび障害物判定プログラム
JP4951481B2 (ja) 路面標示認識装置
US10118617B2 (en) Vehicle control system
CN111587206B (zh) 车辆控制装置、具有该车辆控制装置的车辆以及控制方法
CN112849159A (zh) 车辆控制系统以及车辆控制方法
CN111731318B (zh) 车辆控制装置、车辆控制方法、车辆以及存储介质
US20190176839A1 (en) Object recognition apparatus, object recognition method, and vehicle
CN114194186A (zh) 车辆行驶控制装置
CN113386788A (zh) 控制装置以及车辆
WO2023145080A1 (ja) 車両制御装置
WO2023145079A1 (ja) 車両制御装置
US20220266824A1 (en) Road information generation apparatus
KR20200002515A (ko) 영상을 이용한 사고 유무 판단 방법 및 장치
CN115179863A (zh) 移动体的控制装置及控制方法、存储介质以及车辆
JP7362800B2 (ja) 車両制御装置
US20240096143A1 (en) Information processing device, vehicle, and information processing method
JP7467522B2 (ja) 車両制御装置
JP7377294B2 (ja) 車両制御装置
US20230322272A1 (en) Vehicle control device, vehicle control method, and program
JP7181956B2 (ja) 移動体の制御装置及び制御方法並びに車両
CN113386751B (zh) 控制装置以及车辆
US20220318960A1 (en) Image processing apparatus, image processing method, vehicle control apparatus, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22923943

Country of ref document: EP

Kind code of ref document: A1