JP2022154605A - Detection apparatus, detection method, and program - Google Patents

Detection apparatus, detection method, and program Download PDF

Info

Publication number
JP2022154605A
JP2022154605A JP2021057719A JP2021057719A JP2022154605A JP 2022154605 A JP2022154605 A JP 2022154605A JP 2021057719 A JP2021057719 A JP 2021057719A JP 2021057719 A JP2021057719 A JP 2021057719A JP 2022154605 A JP2022154605 A JP 2022154605A
Authority
JP
Japan
Prior art keywords
feature point
detection device
object detection
feature points
point group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2021057719A
Other languages
Japanese (ja)
Inventor
大 堤
Masaru Tsutsumi
匡貴 中島
Masataka Nakajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021057719A priority Critical patent/JP2022154605A/en
Priority to CN202210083631.9A priority patent/CN115140081A/en
Publication of JP2022154605A publication Critical patent/JP2022154605A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Studio Devices (AREA)

Abstract

To provide a detection apparatus capable of more surely suppressing reduction in recognition accuracy of an object around an own vehicle, and provide a detection method and a program.SOLUTION: The present invention relates to a detection apparatus comprising: a first feature point extraction section for extracting as a first feature point a feature point of an object detected by a first object detection device which detects an object ahead of an own vehicle, based on a detection result of the first object detection device; a second feature point extraction section for extracting the feature point of the object as a second feature point based on a detection result of a second object detection device including a part of or an entire detection range of the first object detection device as a detection range; and a determination section for determining that a block factor with respect to the detection of the object is present, regarding the object detection device acquiring a detection result relating to an extraction of a feature point group missing a corresponding feature point between a first feature point group which is a point group of the first feature points and a second feature point group which is a point group of the second feature points, between the first object detection device and the second object detection device.SELECTED DRAWING: Figure 1

Description

本発明は、検知装置、検知方法、およびプログラムに関する。 The present invention relates to a detection device, a detection method, and a program.

従来、車両の周辺情報の検出性能の低下を防止することを目的として、周辺情報の不良率に基づいて汚れを検知した場合に洗浄装置を作動させる技術が開発されている(特許文献1)。 Conventionally, for the purpose of preventing deterioration in the detection performance of surrounding information of a vehicle, a technique has been developed that activates a washing device when dirt is detected based on the defect rate of surrounding information (Patent Document 1).

特開2016-179767号公報JP 2016-179767 A

しかしながら、従来の技術では、洗浄対象のセンサが出力する周辺情報の不良率を当該センサによる信号の出力状況に基づいて検出するため、検出対象の種類や状態によっては必ずしも精度の良い不良率を取得することができない場合があり、周辺情報の認識率低下を回避できない場合があった。 However, in the conventional technology, the defect rate of the surrounding information output by the sensor to be cleaned is detected based on the output status of the signal from the sensor. In some cases, it was not possible to avoid a decrease in the recognition rate of peripheral information.

本発明は、このような事情を考慮してなされたものであり、自車両周辺の物体の認識精度の低下をより確実に抑制することができる検知装置、検知方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and aims to provide a detection device, a detection method, and a program that can more reliably suppress deterioration in the accuracy of recognizing objects around the vehicle. one of the purposes.

この発明に係る検知装置、検知方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る検知装置は、自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出する第1特徴点抽出部と、前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出する第2特徴点抽出部と、前記第1の物体検出装置と前記第2の物体検出装置のうち、前記第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した方の物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定する判定部と、を備える。
A detection device, a detection method, and a program according to the present invention employ the following configurations.
(1): A detection device according to an aspect of the present invention detects feature points of an object detected by the first object detection device based on the detection result of the first object detection device that detects an object in front of the vehicle. a first feature point extraction unit for extracting as first feature points; and a second object detection device for detecting the object, the detection range including part or all of the detection range of the first object detection device. A second feature point extraction unit for extracting the feature points of the object as second feature points based on the detection result of the object detection device of 2, and the first object detection device and the second object detection device, Extraction of a feature point group in which corresponding feature points are missing from a first feature point group that is a point group of the first feature points and a second feature point group that is a point group of the second feature points a determination unit that determines that an obstacle to detection of the object exists in the object detection device that has acquired the detection result.

(2):上記(1)の態様において、前記判定部は、対応する特徴点を有さない第1特徴点または第2特徴点が、規定時間以上連続して検出された場合に、前記阻害要因が存在すると判定するものである。 (2): In the aspect of (1) above, the determination unit determines whether the inhibition It determines that a factor exists.

(3):上記(1)または(2)の態様において、前記判定部は、対応する特徴点を有さない第1特徴点または第2特徴点について、本来検出されるべき特徴点である欠損特徴点を時系列に検出し、検出した前記欠損特徴点の数を、前記検出範囲を分割した部分領域ごとに合計していき、前記欠損特徴点の合計数が閾値以上となった場合、前記合計数が得られた部分領域に前記阻害要因が存在すると判定するものである。 (3): In the aspect (1) or (2) above, the determination unit determines that the first feature point or the second feature point that does not have a corresponding feature point is a missing feature point that should be detected. Feature points are detected in chronological order, the number of detected missing feature points is totaled for each partial area obtained by dividing the detection range, and when the total number of missing feature points exceeds a threshold, the It is determined that the obstruction factor exists in the partial area for which the total number has been obtained.

(4):上記(1)から(3)のいずれかの態様において、前記第1の物体検出装置は、自車両内からフロントウィンドウを介して自車両前方の物体を検出するカメラであり、前記第1の物体検出装置による物体検出の阻害要因は、前記フロントウィンドウに付着した水滴である。 (4): In any one of the above aspects (1) to (3), the first object detection device is a camera that detects an object in front of the vehicle through a front window from inside the vehicle, and A factor that hinders object detection by the first object detection device is water droplets adhering to the front window.

(5):上記(4)の態様において、前記第2の物体検出装置は、バンパーの一部に設けられた電波透過部の裏にあるレーダ装置であり、前記第2の物体検出装置による物体検出の阻害要因は、前記電波透過部に対する付着物である。 (5): In the aspect of (4) above, the second object detection device is a radar device behind a radio wave transmitting portion provided in a portion of the bumper, and the object detected by the second object detection device A detection impediment factor is an adhering substance to the radio wave transmitting portion.

(6):上記(4)の態様において、前記第2の物体検出装置は、バンパーに設けられたライダー装置であり、前記第2の物体検出装置による物体検出の阻害要因は、前記ライダー装置の発光部または受光部に対する付着物である。 (6): In the aspect of (4) above, the second object detection device is a lidar device provided on a bumper, and the obstacle to object detection by the second object detection device is the lidar device. Adherence to the light-emitting part or light-receiving part.

(7):上記(4)から(6)のいずれかの態様において、前記判定部の判定結果に応じて前記フロントウィンドウに温風を吹き出すヒータ装置を作動させるヒータ制御部をさらに備え、前記ヒータ制御部は、前記判定部により、前記第1の物体検出装置の物体検出に関して前記阻害要因が存在すると判定された場合に前記ヒータ装置を作動させるものである。 (7): In any one of the above (4) to (6), the heater controller further comprises a heater control unit that operates a heater device that blows hot air onto the front window according to the determination result of the determination unit. The control unit operates the heater device when the determination unit determines that the obstruction factor exists with respect to object detection by the first object detection device.

(8):この発明の一態様に係る検知方法は、コンピュータが、自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出し、前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む前記第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出し、前記第1の物体検出装置と前記第2の物体検出装置のうち、前記第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した方の物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定するものである。 (8): A detection method according to an aspect of the present invention, in which a computer detects an object detected by a first object detection device based on a detection result of a first object detection device that detects an object in front of the vehicle. A second object detection device for extracting a feature point as a first feature point and detecting the object, the second object including part or all of a detection range of the first object detection device in the detection range. Based on the detection result of the detection device, the feature points of the object are extracted as second feature points, and the point group of the first feature points of the first object detection device and the second object detection device is obtained. Object detection of the first feature point group and the second feature point group, which is the point group of the second feature points, for which the detection result related to the extraction of the feature point group in which the corresponding feature point is missing is acquired. For the device, it is determined that there is an obstacle to the detection of the object.

(9):この発明の一態様に係るプログラムは、コンピュータに、自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出させ、前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む前記第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出させ、前記第1の物体検出装置と前記第2の物体検出装置のうち、前記第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定させるものである。 (9): A program according to an aspect of the present invention provides a computer with characteristics of an object detected by the first object detection device based on the detection result of the first object detection device for detecting an object in front of the vehicle. A second object detection device for extracting a point as a first feature point and detecting the object, wherein the detection range includes part or all of a detection range of the first object detection device. Based on the detection result of the device, the feature points of the object are extracted as the second feature points, and the point group of the first feature points, which is the point group of the first object detection device and the second object detection device, is extracted. Regarding the object detection device that acquires the detection result related to the extraction of the feature point group in which the corresponding feature point is missing from the second feature point group, which is the point group of the first feature point group and the second feature point group, It is determined that there is an obstacle to the detection of the object.

上記(1)~(9)の態様によれば、自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出し、前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む前記第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出し、前記第1の物体検出装置と前記第2の物体検出装置のうち、前記第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定することにより、自車両周辺の物体の認識精度の低下をより確実に抑制することができる。 According to aspects (1) to (9) above, based on the detection result of the first object detection device that detects an object in front of the vehicle, the characteristic points of the object detected by the first object detection device are Detection by a second object detection device that extracts one feature point and detects the object, the detection range including part or all of the detection range of the first object detection device Based on the result, the feature points of the object are extracted as second feature points, and the first feature points, which are the point group of the first feature points, out of the first object detection device and the second object detection device With respect to an object detection device that acquires a detection result related to extraction of a feature point group in which a corresponding feature point is missing from among a second feature point group that is a point group of the second feature point group and the second feature point group, By determining that there is an obstacle to detection, it is possible to more reliably suppress a decrease in accuracy in recognizing objects around the vehicle.

実施形態の車両制御装置を利用した車両システムの構成図である。1 is a configuration diagram of a vehicle system using a vehicle control device according to an embodiment; FIG. 第1制御部および第2制御部の機能構成図である。3 is a functional configuration diagram of a first control unit and a second control unit; FIG. 運転モードと自車両の制御状態、およびタスクの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of a driving mode, the control state of the own vehicle, and a task. 実施形態の物体認識装置が阻害要因を検知するために備える構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure with which the object recognition apparatus of embodiment detects an obstruction factor. 実施形態の物体認識装置において、阻害要因判定部が“阻害要因無し”と判定する場合の一例を示す図である。FIG. 10 is a diagram showing an example of a case where the obstruction factor determination unit determines that there is no obstruction factor in the object recognition device of the embodiment; 実施形態の物体認識装置において、阻害要因判定部が“阻害要因有り”と判定する場合の一例を示す図である。FIG. 10 is a diagram showing an example of a case in which an obstruction factor determination unit determines that there is an obstruction factor in the object recognition device of the embodiment; 実施形態の物体認識装置が実行する非対応特徴点検出処理の流れの一例を示すフローチャートである。4 is a flowchart showing an example of the flow of non-corresponding feature point detection processing executed by the object recognition device of the embodiment; 実施形態の物体認識装置が実行する阻害要因判定処理の流れの一例を示すフローチャートである。6 is a flow chart showing an example of the flow of hindrance factor determination processing executed by the object recognition device of the embodiment. 実施形態における阻害要因判定処理の具体例を示すイメージ図である。FIG. 5 is an image diagram showing a specific example of hindrance factor determination processing in the embodiment;

以下、図面を参照し、本発明の検知装置、検知方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the detection device, detection method, and program of the present invention will be described with reference to the drawings.

[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[overall structure]
FIG. 1 is a configuration diagram of a vehicle system 1 using a vehicle control device according to an embodiment. A vehicle on which the vehicle system 1 is mounted is, for example, a two-wheeled, three-wheeled, or four-wheeled vehicle, and its drive source is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates using electric power generated by a generator connected to the internal combustion engine, or electric power discharged from a secondary battery or a fuel cell.

車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、ドライバモニタカメラ70と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220と、ヒータ装置300とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1 includes, for example, a camera 10, a radar device 12, a LIDAR (Light Detection and Ranging) 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, and a vehicle sensor 40. , a navigation device 50, an MPU (Map Positioning Unit) 60, a driver monitor camera 70, a driving operator 80, an automatic driving control device 100, a driving force output device 200, a braking device 210, and a steering device 220. and a heater device 300 . These apparatuses and devices are connected to each other by multiplex communication lines such as CAN (Controller Area Network) communication lines, serial communication lines, wireless communication networks, and the like. Note that the configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両の周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to an arbitrary location of a vehicle (hereinafter referred to as own vehicle) on which the vehicle system 1 is mounted. When imaging the front, the camera 10 is attached to the upper part of the front windshield, the rear surface of the rearview mirror, or the like. The camera 10, for example, periodically and repeatedly captures the surroundings of the own vehicle. Camera 10 may be a stereo camera.

レーダ装置12は、自車両の周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両の任意の箇所に取り付けられてよい。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。例えば、レーダ装置12は、バンパーの一部に設けられた電波透過部の裏に設置される。 The radar device 12 radiates radio waves such as millimeter waves around the vehicle and detects radio waves (reflected waves) reflected by an object to detect at least the position (distance and direction) of the object. The radar device 12 may be attached to any location on the vehicle. The radar device 12 may detect the position and velocity of an object by the FM-CW (Frequency Modulated Continuous Wave) method. For example, the radar device 12 is installed behind a radio wave transmitting portion provided in a portion of the bumper.

LIDAR14は、自車両の周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両の任意の箇所に取り付けられてよい。 The LIDAR 14 irradiates light (or electromagnetic waves with wavelengths close to light) around the vehicle and measures scattered light. The LIDAR 14 detects the distance to the object based on the time from light emission to light reception. The irradiated light is, for example, pulsed laser light. LIDAR14 may be attached to the arbitrary parts of self-vehicles.

物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム1から物体認識装置16が省略されてもよい。 The object recognition device 16 performs sensor fusion processing on the detection results of some or all of the camera 10, the radar device 12, and the LIDAR 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs recognition results to the automatic driving control device 100 . Object recognition device 16 may output the detection result of camera 10, radar installation 12, and LIDAR14 to automatic operation control device 100 as it is. The object recognition device 16 may be omitted from the vehicle system 1 .

また、本実施形態における物体認識装置16は、上述の物体認識機能に加えて、カメラ10、レーダ装置12、およびLIDAR14による物体検出の阻害要因となり得る物体の有無を検知する機能を有する。例えば、カメラ10の物体検出に対しては、カメラ10の検出範囲(撮像範囲)に存在し、本来検出したい物体への見通しを悪くする物体が阻害要因となり得る。 In addition to the object recognition function described above, the object recognition device 16 in the present embodiment has a function of detecting the presence or absence of an object that may hinder object detection by the camera 10, the radar device 12, and the LIDAR 14. For example, object detection by the camera 10 can be hindered by an object that is present in the detection range (imaging range) of the camera 10 and that impairs visibility to the object that is originally desired to be detected.

例えば、カメラ10による物体検出の阻害要因の一例としてフロントウィンドウやレンズに付着した水滴が挙げられる。また、レーダ装置12が、バンパーの一部に設けられた電波透過部の裏に設置される場合、レーダ装置12による物体検出の阻害要因の一例として電波透過部に付着した汚れなどが挙げられる。また、LIDAR14による物体検出の阻害要因の一例としてLIDAR14の発光部または受光部に付着した汚れなどが挙げられる。 For example, water droplets adhering to the front window and the lens are examples of factors that hinder object detection by the camera 10 . Further, when the radar device 12 is installed behind a radio wave transmitting portion provided in a part of a bumper, an example of a factor that hinders object detection by the radar device 12 is dirt adhering to the radio wave transmitting portion. Further, an example of a factor that hinders object detection by the LIDAR 14 is dirt adhering to the light emitting unit or the light receiving unit of the LIDAR 14 .

物体認識装置16は、これらの阻害要因の有無をカメラ10やレーダ装置12、LIDAR14などの物体検出装置の検出結果に基づいて判定するものである。なお、阻害要因の有無を判定する方法の詳細については後述する。物体認識装置16は「検知装置」の一例である。物体認識装置16は、物体認識機能を有する物体認識装置と、阻害要因の有無を検知する検知装置とに分離して構成されてもよい。 The object recognition device 16 determines the presence or absence of these hindrance factors based on the detection results of object detection devices such as the camera 10, the radar device 12, and the LIDAR 14. The details of the method for determining the presence or absence of a hindrance factor will be described later. The object recognition device 16 is an example of a "detection device." The object recognition device 16 may be configured separately into an object recognition device having an object recognition function and a detection device for detecting the presence or absence of an obstruction factor.

通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両の周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 uses, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like, to communicate with other vehicles existing in the vicinity of the own vehicle, or to communicate with a wireless base. It communicates with various server devices through the station.

HMI30は、自車両の乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various types of information to the occupants of the own vehicle and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys, and the like.

車両センサ40は、自車両の速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両の向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects acceleration, a yaw rate sensor that detects angular velocity about a vertical axis, a direction sensor that detects the orientation of the vehicle, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両の位置を特定する。自車両の位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両の位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51 , a navigation HMI 52 and a route determining section 53 . The navigation device 50 holds first map information 54 in a storage device such as an HDD (Hard Disk Drive) or flash memory. The GNSS receiver 51 identifies the position of the own vehicle based on the signals received from the GNSS satellites. The position of the own vehicle may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40 . The navigation HMI 52 includes a display device, speaker, touch panel, keys, and the like. The navigation HMI 52 may be partially or entirely shared with the HMI 30 described above. For example, the route determination unit 53 determines a route (hereinafter referred to as a map upper route) is determined with reference to the first map information 54 . The first map information 54 is, for example, information in which road shapes are represented by links indicating roads and nodes connected by the links. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. A route on the map is output to the MPU 60 . The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be realized, for example, by the function of a terminal device such as a smart phone or a tablet terminal owned by the passenger. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両が、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds second map information 62 in a storage device such as an HDD or flash memory. The recommended lane determining unit 61 divides the route on the map provided from the navigation device 50 into a plurality of blocks (for example, by dividing each block by 100 [m] in the vehicle traveling direction), and refers to the second map information 62. Determine recommended lanes for each block. The recommended lane decision unit 61 decides which lane to drive from the left. The recommended lane determination unit 61 determines a recommended lane so that the vehicle can travel on a rational route to the branch when there is a branch on the route on the map.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報、後述するモードAまたはモードBが禁止される禁止区間の情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is map information with higher precision than the first map information 54 . The second map information 62 includes, for example, lane center information or lane boundary information. Further, the second map information 62 includes road information, traffic control information, address information (address/zip code), facility information, telephone number information, information on prohibited sections where mode A or mode B is prohibited, and the like. may be included. The second map information 62 may be updated at any time by the communication device 20 communicating with other devices.

ドライバモニタカメラ70は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。ドライバモニタカメラ70は、自車両の運転席に着座した乗員(以下、運転者)の頭部を正面から(顔面を撮像する向きで)撮像可能な位置および向きで、自車両における任意の箇所に取り付けられる。例えば、ドライバモニタカメラ70は、自車両のインストルメントパネルの中央部に設けられたディスプレイ装置の上部に取り付けられる。 The driver monitor camera 70 is, for example, a digital camera using a solid-state imaging device such as CCD or CMOS. The driver monitor camera 70 is positioned and oriented such that the head of the passenger (hereinafter referred to as the driver) seated in the driver's seat of the vehicle can be imaged from the front (in an orientation that captures an image of the face), and is positioned at an arbitrary location in the vehicle. It is attached. For example, the driver monitor camera 70 is attached to the upper part of the display device provided in the central part of the instrument panel of the own vehicle.

運転操作子80は、例えば、ステアリングホイール82の他、アクセルペダル、ブレーキペダル、シフトレバー、その他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。ステアリングホイール82は、「運転者による操舵操作を受け付ける操作子」の一例である。操作子は、必ずしも環状である必要は無く、異形ステアリングやジョイスティック、ボタンなどの形態であってもよい。ステアリングホイール82には、ステアリング把持センサ84が取り付けられている。ステアリング把持センサ84は、静電容量センサなどにより実現され、運転者がステアリングホイール82を把持している(力を加えられる状態で接していることをいう)か否かを検知可能な信号を自動運転制御装置100に出力する。 The driving operator 80 includes, for example, a steering wheel 82, an accelerator pedal, a brake pedal, a shift lever, and other operators. A sensor that detects the amount of operation or the presence or absence of operation is attached to the driving operation element 80, and the detection result is applied to the automatic driving control device 100, or the driving force output device 200, the brake device 210, and the steering device. 220 to some or all of them. The steering wheel 82 is an example of "operator for receiving steering operation by the driver". The manipulator does not necessarily have to be ring-shaped, and may be in the form of a deformed steering wheel, joystick, button, or the like. A steering grip sensor 84 is attached to the steering wheel 82 . The steering grip sensor 84 is realized by a capacitance sensor or the like, and automatically generates a signal capable of detecting whether or not the driver is gripping the steering wheel 82 (meaning that the driver is in contact with the steering wheel 82 in a state where force is applied). Output to the operation control device 100 .

自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。 Automatic operation control device 100 is provided with the 1st control part 120 and the 2nd control part 160, for example. The first control unit 120 and the second control unit 160 are each implemented by a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). (including circuitry), or by cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device with a non-transitory storage medium) such as the HDD or flash memory of the automatic operation control device 100, or may be detachable such as a DVD or CD-ROM. It is stored in a storage medium, and may be installed in the HDD or flash memory of the automatic operation control device 100 by attaching the storage medium (non-transitory storage medium) to the drive device.

図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140と、モード決定部150とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 FIG. 2 is a functional configuration diagram of the first control unit 120 and the second control unit 160. As shown in FIG. The 1st control part 120 is provided with the recognition part 130, the action plan production|generation part 140, and the mode determination part 150, for example. The first control unit 120, for example, realizes in parallel a function based on AI (Artificial Intelligence) and a function based on a model given in advance. For example, the "recognition of intersections" function performs recognition of intersections by deep learning, etc., and recognition based on predetermined conditions (signals that can be pattern-matched, road markings, etc.) in parallel. It may be realized by scoring and evaluating comprehensively. This ensures the reliability of automated driving.

認識部130は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両の周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両の代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 130 recognizes the position, speed, acceleration, and other states of objects around the vehicle based on information input from the camera 10, the radar device 12, and the LIDAR 14 via the object recognition device 16. . The position of the object is recognized, for example, as a position on absolute coordinates with a representative point (the center of gravity, the center of the drive shaft, etc.) of the own vehicle as the origin, and used for control. The position of an object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by an area. The "state" of the object may include acceleration or jerk of the object, or "behavioral state" (eg, whether it is changing lanes or about to change lanes).

また、認識部130は、例えば、自車両が走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両の周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両の位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。 The recognition unit 130 also recognizes, for example, the lane in which the host vehicle is traveling (driving lane). For example, the recognition unit 130 recognizes the pattern of road markings obtained from the second map information 62 (for example, an array of solid and broken lines) and the road markings around the vehicle recognized from the image captured by the camera 10. By comparing with the pattern, the driving lane is recognized. Note that the recognition unit 130 may recognize the driving lane by recognizing road boundaries (road boundaries) including road division lines, road shoulders, curbs, medians, guardrails, etc., not limited to road division lines. . In this recognition, the position of the own vehicle acquired from the navigation device 50 and the processing result by the INS may be taken into consideration. The recognition unit 130 also recognizes stop lines, obstacles, red lights, toll gates, and other road events.

認識部130は、走行車線を認識する際に、走行車線に対する自車両の位置や姿勢を認識する。認識部130は、例えば、自車両の基準点の車線中央からの乖離、および自車両の進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両の相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両の基準点の位置などを、走行車線に対する自車両の相対位置として認識してもよい。 The recognition unit 130 recognizes the position and posture of the own vehicle with respect to the driving lane when recognizing the driving lane. The recognizing unit 130 uses, for example, the deviation of the vehicle's reference point from the lane center and the angle formed with the line connecting the lane center in the traveling direction of the vehicle as the relative position and attitude of the vehicle with respect to the driving lane. may recognize. Instead, the recognition unit 130 recognizes the position of the vehicle's reference point with respect to one of the side edges of the driving lane (road division line or road boundary) as the relative position of the vehicle with respect to the driving lane. good too.

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両の周辺状況に対応できるように、自車両が自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両の到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両の到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両の到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 In principle, the action plan generation unit 140 drives the recommended lane determined by the recommended lane determination unit 61, and furthermore, the own vehicle automatically (operated by the driver) so as to respond to the surrounding conditions of the own vehicle. ) to generate a target trajectory to travel in the future. The target trajectory includes, for example, velocity elements. For example, the target trajectory is represented by arranging points (trajectory points) that the vehicle should reach in order. A trajectory point is a point to be reached by the own vehicle for each predetermined travel distance (for example, about several [m]) along the road, and separately from that, for a predetermined sampling time (for example, about 0 comma [sec]). A target velocity and acceleration for each is generated as part of the target trajectory. Also, the trajectory point may be a position that the vehicle should reach at each predetermined sampling time. In this case, the information on the target velocity and target acceleration is represented by the intervals between the trajectory points.

行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。 The action plan generator 140 may set an automatic driving event when generating the target trajectory. Autonomous driving events include constant-speed driving events, low-speed following driving events, lane change events, branching events, merging events, and takeover events. The action plan generator 140 generates a target trajectory according to the activated event.

モード決定部150は、自車両の運転モードを、運転者に課されるタスクが異なる複数の運転モードのいずれかに決定する。モード決定部150は、例えば、運転者状態判定部152と、モード変更処理部154とを備える。これらの個別の機能については後述する。 The mode determination unit 150 determines the driving mode of the own vehicle to one of a plurality of driving modes with different tasks imposed on the driver. The mode determination unit 150 includes, for example, a driver state determination unit 152 and a mode change processing unit 154 . These individual functions are described below.

図3は、運転モードと自車両の制御状態、およびタスクの対応関係の一例を示す図である。自車両の運転モードには、例えば、モードAからモードEの5つのモードがある。制御状態すなわち自車両の運転制御の自動化度合いは、モードAが最も高く、次いでモードB、モードC、モードDの順に低くなり、モードEが最も低い。この逆に、運転者に課されるタスクは、モードAが最も軽度であり、次いでモードB、モードC、モードDの順に重度となり、モードEが最も重度である。なお、モードDおよびEでは自動運転でない制御状態となるため、自動運転制御装置100としては自動運転に係る制御を終了し、運転支援または手動運転に移行させるまでが責務である。以下、それぞれの運転モードの内容について例示する。 FIG. 3 is a diagram showing an example of correspondence relationships between driving modes, control states of the own vehicle, and tasks. There are, for example, five modes from mode A to mode E in the driving mode of the own vehicle. The control state, that is, the degree of automation of the driving control of the host vehicle, is highest in mode A, followed by mode B, mode C, and mode D in descending order, and mode E is lowest. Conversely, the tasks imposed on the driver are lightest in Mode A, followed by Mode B, Mode C, Mode D in order of severity, and Mode E being the most severe. In Modes D and E, since the control state is not automatic operation, the automatic operation control device 100 is responsible for terminating control related to automatic operation and shifting to driving assistance or manual operation. The contents of each operation mode are exemplified below.

モードAでは、自動運転の状態となり、運転者には前方監視、ステアリングホイール82の把持(図ではステアリング把持)のいずれも課されない。但し、モードAであっても運転者は、自動運転制御装置100を中心としたシステムからの要求に応じて速やかに手動運転に移行できる体勢であることが要求される。なお、ここで言う自動運転とは、操舵、加減速のいずれも運転者の操作に依らずに制御されることをいう。前方とは、フロントウインドシールドを介して視認される自車両の進行方向の空間を意味する。モードAは、例えば、高速道路などの自動車専用道路において、所定速度(例えば50[km/h]程度)以下で自車両が走行しており、追従対象の前走車両が存在するなどの条件が満たされる場合に実行可能な運転モードであり、TJP(Traffic Jam Pilot)と称される場合もある。この条件が満たされなくなった場合、モード決定部150は、モードBに自車両の運転モードを変更する。 In mode A, the vehicle is automatically driven, and the driver is not required to look ahead or grip the steering wheel 82 (gripping the steering wheel in the figure). However, even in mode A, the driver is required to be in a posture that can quickly shift to manual driving in response to a request from the system centered on the automatic driving control device 100 . The term "automatic driving" as used herein means that both steering and acceleration/deceleration are controlled independently of the driver's operation. The front means the space in the traveling direction of the own vehicle that is visually recognized through the front windshield. In mode A, for example, on a motorway such as a highway, the own vehicle is traveling at a predetermined speed (for example, about 50 [km/h]) or less, and there is a preceding vehicle to be followed. It is an operation mode that can be executed when it is satisfied, and is sometimes referred to as TJP (Traffic Jam Pilot). When this condition is no longer satisfied, the mode determination unit 150 changes the driving mode of the host vehicle to mode B.

モードBでは、運転支援の状態となり、運転者には自車両の前方を監視するタスク(以下、前方監視)が課されるが、ステアリングホイール82を把持するタスクは課されない。モードCでは、運転支援の状態となり、運転者には前方監視のタスクと、ステアリングホイール82を把持するタスクが課される。モードDは、自車両の操舵と加減速のうち少なくとも一方に関して、ある程度の運転者による運転操作が必要な運転モードである。例えば、モードDでは、ACC(Adaptive Cruise Control)やLKAS(Lane Keeping Assist System)といった運転支援が行われる。モードEでは、操舵、加減速ともに運転者による運転操作が必要な手動運転の状態となる。モードD、モードEともに、当然ながら運転者には自車両の前方を監視するタスクが課される。 In mode B, the driver is tasked with monitoring the front of the host vehicle (hereinafter referred to as forward monitoring), but is not tasked with gripping the steering wheel 82 . In mode C, the vehicle is in a state of driving assistance, and the driver is tasked with a task of looking ahead and a task of gripping the steering wheel 82 . Mode D is a driving mode that requires a certain amount of driving operation by the driver regarding at least one of steering and acceleration/deceleration of the own vehicle. For example, mode D provides driving assistance such as ACC (Adaptive Cruise Control) and LKAS (Lane Keeping Assist System). In mode E, the vehicle is in a manual operation state in which the driver needs to operate the vehicle for both steering and acceleration/deceleration. In both modes D and E, the driver is naturally tasked with monitoring the front of the vehicle.

自動運転制御装置100(および運転支援装置(不図示))は、運転モードに応じた自動車線変更を実行する。自動車線変更には、システム要求による自動車線変更(1)と、運転者要求による自動車線変更(2)がある。自動車線変更(1)には、前走車両の速度が自車両の速度に比して基準以上に小さい場合に行われる、追い越しのための自動車線変更と、目的地に向けて進行するための自動車線変更(推奨車線が変更されたことによる自動車線変更)とがある。自動車線変更(2)は、速度や周辺車両との位置関係等に関する条件が満たされた場合において、運転者により方向指示器が操作された場合に、操作方向に向けて自車両を車線変更させるものである。 The automatic driving control device 100 (and the driving support device (not shown)) executes an automatic lane change according to the driving mode. The automatic lane change includes an automatic lane change (1) requested by the system and an automatic lane change (2) requested by the driver. Automatic lane change (1) includes an automatic lane change for overtaking and an automatic lane change for advancing toward the destination, which is performed when the speed of the preceding vehicle is lower than the speed of the own vehicle by a standard or higher. Auto lane change (auto lane change due to change of recommended lane). Auto Lane Change (2) changes the lane of the vehicle in the direction in which the driver operates the direction indicator when the conditions related to speed, positional relationship with surrounding vehicles, etc. are satisfied. It is a thing.

自動運転制御装置100は、モードAにおいて、自動車線変更(1)および(2)のいずれも実行しない。自動運転制御装置100は、モードBおよびCにおいて、自動車線変更(1)および(2)のいずれも実行する。運転支援装置(不図示)は、モードDにおいて、自動車線変更(1)は実行せず自動車線変更(2)を実行する。モードEにおいて、自動車線変更(1)および(2)のいずれも実行されない。 In mode A, the automatic driving control device 100 performs neither automatic lane change (1) nor (2). In modes B and C, the automatic driving control device 100 executes both automatic lane changes (1) and (2). In mode D, the driving support device (not shown) executes automatic lane change (2) without executing automatic lane change (1). In mode E, neither auto lane change (1) nor (2) is performed.

モード決定部150は、決定した運転モード(以下、現運転モード)に係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに自車両の運転モードを変更する。 The mode determining unit 150 changes the driving mode of the host vehicle to a driving mode with more severe tasks when the driver does not execute the task related to the determined driving mode (hereinafter referred to as the current driving mode).

例えば、モードAにおいて運転者が、システムからの要求に応じて手動運転に移行できない体勢である場合(例えば許容エリア外の脇見を継続している場合や、運転困難となる予兆が検出された場合)、モード決定部150は、HMI30を用いて運転者に手動運転への移行を促し、運転者が応じなければ自車両を路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。自動運転を停止した後は、自車両はモードDまたはEの状態になり、運転者の手動操作によって自車両を発進させることが可能となる。以下、「自動運転を停止」に関して同様である。モードBにおいて運転者が前方を監視していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を促し、運転者が応じなければ自車両を路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。モードCにおいて運転者が前方を監視していない場合、或いはステアリングホイール82を把持していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を、および/またはステアリングホイール82を把持するように促し、運転者が応じなければ自車両を路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。 For example, in mode A, if the driver is in a position that cannot shift to manual driving in response to a request from the system (for example, if he continues to look aside outside the allowable area, or if a sign of difficulty driving is detected) ), the mode determination unit 150 uses the HMI 30 to urge the driver to shift to manual driving, and if the driver does not respond, the host vehicle is pulled over to the road shoulder and gradually stopped, thereby stopping automatic driving. conduct. After the automatic operation is stopped, the own vehicle enters the state of mode D or E, and the own vehicle can be started by manual operation of the driver. Hereinafter, the same applies to "stop automatic operation". If the driver is not looking ahead in mode B, the mode determining unit 150 uses the HMI 30 to prompt the driver to look ahead, and if the driver does not respond, the vehicle is pulled over to the road shoulder and gradually stopped. It performs control such as stopping automatic operation. If the driver is not looking ahead or is not gripping the steering wheel 82 in mode C, the mode determiner 150 uses the HMI 30 to instruct the driver to look ahead and/or grip the steering wheel 82. If the driver does not respond, the vehicle is pulled over to the side of the road and gradually stopped, and the automatic operation is stopped.

運転者状態判定部152は、上記のモード変更のために運転者の状態を監視し、運転者の状態がタスクに応じた状態であるか否かを判定する。例えば、運転者状態判定部152は、ドライバモニタカメラ70が撮像した画像を解析して姿勢推定処理を行い、運転者が、システムからの要求に応じて手動運転に移行できない体勢であるか否かを判定する。また、運転者状態判定部152は、ドライバモニタカメラ70が撮像した画像を解析して視線推定処理を行い、運転者が前方を監視しているか否かを判定する。 The driver state determination unit 152 monitors the driver state for the above mode change and determines whether or not the driver state corresponds to the task. For example, the driver state determination unit 152 analyzes the image captured by the driver monitor camera 70, performs posture estimation processing, and determines whether the driver is in a posture that cannot shift to manual driving in response to a request from the system. judge. Further, the driver state determination unit 152 analyzes the image captured by the driver monitor camera 70, performs line-of-sight estimation processing, and determines whether or not the driver is monitoring the front.

モード変更処理部154は、モード変更のための各種処理を行う。例えば、モード変更処理部154は、行動計画生成部140に路肩停止のための目標軌道を生成するように指示したり、運転支援装置(不図示)に作動指示をしたり、運転者に行動を促すためにHMI30の制御をしたりする。 The mode change processing unit 154 performs various processes for mode change. For example, the mode change processing unit 154 instructs the action plan generation unit 140 to generate a target trajectory for stopping on the shoulder, instructs a driving support device (not shown) to operate, or instructs the driver to take action. The HMI 30 is controlled for prompting.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両が通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 controls the driving force output device 200, the braking device 210, and the steering device 220 so that the host vehicle passes the target trajectory generated by the action plan generating unit 140 at the scheduled time. do.

図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両の前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 Returning to FIG. 2, the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The acquisition unit 162 acquires information on the target trajectory (trajectory point) generated by the action plan generation unit 140 and stores it in a memory (not shown). Speed control unit 164 controls running driving force output device 200 or brake device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 166 controls the steering device 220 according to the curve of the target trajectory stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 166 performs a combination of feedforward control according to the curvature of the road ahead of the host vehicle and feedback control based on deviation from the target trajectory.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The running driving force output device 200 outputs running driving force (torque) for running the vehicle to the drive wheels. Traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, and a transmission, and an ECU (Electronic Control Unit) that controls these. The ECU controls the above configuration in accordance with information input from the second control unit 160 or information input from the operation operator 80 .

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motors according to information input from the second control unit 160 or information input from the driving operator 80 so that brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism that transmits hydraulic pressure generated by operating a brake pedal included in the operation operator 80 to the cylinders via a master cylinder. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to information input from the second control unit 160 to transmit the hydraulic pressure of the master cylinder to the cylinder. good too.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies force to a rack and pinion mechanism to change the orientation of the steered wheels. The steering ECU drives the electric motor according to information input from the second control unit 160 or information input from the driving operator 80 to change the direction of the steered wheels.

ヒータ装置300は、フロントウィンドウに付着した水滴を除去するためにフロントウィンドウに対して温風を吹き出す装置である。本実施形態において、ヒータ装置300は、送風の開始または停止をドライバの操作に応じて実施するほか、物体認識装置16の指示に応じて実施することができるように構成される。 The heater device 300 is a device that blows hot air onto the front windshield in order to remove water droplets adhering to the windshield. In the present embodiment, the heater device 300 is configured to start or stop air blowing in accordance with the operation of the driver and in accordance with the instruction of the object recognition device 16 .

図4は、本実施形態における物体認識装置16が阻害要因を検知するために備える構成の一例を示すブロック図である。物体認識装置16は、例えば、記憶部610と、制御部620とを備える。制御部620は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。 FIG. 4 is a block diagram showing an example of a configuration that the object recognition device 16 according to this embodiment has for detecting an obstruction factor. The object recognition device 16 includes, for example, a storage section 610 and a control section 620 . Control unit 620 is implemented by, for example, a hardware processor such as a CPU executing a program (software). Also, some or all of these components may be realized by hardware (circuitry) such as LSI, ASIC, FPGA, GPU, etc., or by cooperation of software and hardware may be The program may be stored in advance in a storage device (a storage device with a non-transitory storage medium) such as the HDD or flash memory of the automatic operation control device 100, or may be detachable such as a DVD or CD-ROM. It is stored in a storage medium, and may be installed in the HDD or flash memory of the automatic operation control device 100 by attaching the storage medium (non-transitory storage medium) to the drive device.

記憶部610は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部610には、例えば、物体認識装置16が阻害要因を検知する処理において利用する基準や閾値などを含む情報が記憶されている。 The storage unit 610 is implemented by, for example, an HDD, a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), a RAM (Random Access Memory), etc. The storage unit 610 includes, for example, an object Information including criteria and threshold values used by the recognition device 16 in the process of detecting an obstruction factor is stored.

制御部620は、例えば、第1特徴点抽出部621と、第2特徴点抽出部622と、特徴点重畳部623と、阻害要因判定部624と、ヒータ制御部625とを備える。第1特徴点抽出部621は、カメラ10による物体の検出結果に基づき、カメラ10が検出した物体の特徴点を第1特徴点として抽出する。同様に、第2特徴点抽出部622は、レーダ装置12による物体の検出結果に基づき、レーダ装置12が検出した物体の特徴点を第2特徴点として抽出する。なお、第2特徴点抽出部622は、LIDAR14による物体の検出結果に基づき、LIDAR14が検出した物体の特徴点を第2特徴点として抽出するように構成されてもよい。 The control unit 620 includes, for example, a first feature point extraction unit 621, a second feature point extraction unit 622, a feature point superimposition unit 623, an obstruction factor determination unit 624, and a heater control unit 625. The first feature point extraction unit 621 extracts the feature points of the object detected by the camera 10 as first feature points based on the detection result of the object by the camera 10 . Similarly, the second feature point extraction unit 622 extracts the feature points of the object detected by the radar device 12 as second feature points based on the detection result of the object by the radar device 12 . The second feature point extraction unit 622 may be configured to extract the feature points of the object detected by the LIDAR 14 as the second feature points based on the detection result of the object by the LIDAR 14 .

ここで、カメラ10は、電磁波の受信結果に基づいて自車両前方の物体を検出する「第1の物体検出装置」の一例であり、レーダ装置12およびLIDAR14は「第2の物体検出装置」の一例である。また、レーダ装置12およびLIDAR14は、カメラ10の検出範囲の一部または全部を検出範囲に含む位置および姿勢で設置される。第1特徴点抽出部621および第2特徴点抽出部622は、それぞれ抽出した第1特徴点群および第2特徴点群を示す情報を特徴点重畳部623に出力する。 Here, the camera 10 is an example of a "first object detection device" that detects an object in front of the vehicle based on the reception result of electromagnetic waves, and the radar device 12 and LIDAR 14 are examples of a "second object detection device". An example. Moreover, the radar device 12 and the LIDAR 14 are installed at positions and attitudes that include part or all of the detection range of the camera 10 in the detection range. First feature point extraction section 621 and second feature point extraction section 622 output information indicating the extracted first feature point group and second feature point group, respectively, to feature point superimposition section 623 .

特徴点重畳部623は、第1特徴点群と第2特徴点群とを同じ座標空間において重畳することにより、第1特徴点群および第2特徴点群において同じ対象を示す特徴点(以下「対応特徴点」という。)の組を抽出する。さらに特徴点重畳部623は、第1特徴点群または第2特徴点群に含まれる特徴点のうち対応特徴点の組として抽出されなかった特徴点を「非対応特徴点」として検出する。すなわち、非対応特徴点は、第1特徴点群および第2特徴点群のうちの一方の特徴点群に属する特徴点であって、他方の特徴点群に対応特徴点を有さない特徴点である。 The feature point superimposing unit 623 superimposes the first feature point group and the second feature point group in the same coordinate space, thereby obtaining feature points indicating the same object in the first feature point group and the second feature point group (hereinafter referred to as " ) are extracted. Further, the feature point superimposing unit 623 detects feature points that are not extracted as a set of corresponding feature points among the feature points included in the first feature point group or the second feature point group, as “non-corresponding feature points”. That is, a non-corresponding feature point is a feature point belonging to one of the first feature point group and the second feature point group, and having no corresponding feature point in the other feature point group. is.

阻害要因判定部624は、特徴点重畳部623による非対応特徴点の検出結果に基づいて、カメラ10およびレーダ装置12の物体検出に関する阻害要因の有無を判定する。具体的には、阻害要因判定部624は、特徴点重畳部623によって非対応特徴点が検出された場合、第1特徴点群および第2特徴点群のうち、当該非対応特徴点が検出されなかった方の特徴点群に係る物体の検出手段に関して阻害要因が存在していると判定する。 The obstruction factor determination unit 624 determines whether there is an obstruction factor for object detection by the camera 10 and the radar device 12 based on the detection result of the non-corresponding feature points by the feature point superimposition unit 623 . Specifically, when the feature point superimposing unit 623 detects a non-corresponding feature point, the hindrance factor determination unit 624 detects the non-corresponding feature point from the first feature point group and the second feature point group. It is determined that there is an impeding factor in the object detection means related to the feature point group that did not exist.

図5は、阻害要因判定部624が判定の結果、いずれの検出手段に関しても“阻害要因無し”と判定する場合の一例を示す図である。図5は、時刻t10およびt11(>t10)におけるカメラ10およびレーダ装置12の検出結果を示している。図5は、自車両が道路区画線L1およびL2で区切られた車線R1を紙面手前側から紙面奥側に向かう方向に走行している状況での検出結果を示している。図中の車両M1は、自車両の前を走行する車両である。 FIG. 5 is a diagram showing an example of a case where the obstruction factor determination unit 624 determines that there is no obstruction factor for any of the detection means as a result of the determination. FIG. 5 shows detection results of the camera 10 and the radar device 12 at times t 10 and t 11 (>t 10 ). FIG. 5 shows detection results in a situation in which the own vehicle is traveling in the direction from the front side of the paper to the back of the paper on the lane R1 demarcated by the road division lines L1 and L2. A vehicle M1 in the drawing is a vehicle that runs in front of the own vehicle.

この例では、阻害要因判定部624は、時刻t10およびt11のいずれの時刻においても、カメラ10の検出結果およびレーダ装置12の検出結果の両方で同じ対象物(車線R1の左側に存在する街路樹T1を検出している。この場合、街路樹T1について、カメラ10とレーダ装置12とで同じ特徴点が抽出されるため、特徴点重畳部623は、非対応特徴点を検出しない。したがって、この場合、阻害要因判定部624は、カメラ10およびレーダ装置12のいずれの検出手段に関しても“阻害要因無し”と判定することになる。 In this example, the obstruction factor determination unit 624 detects the same object (existing on the left side of the lane R1) in both the detection result of the camera 10 and the detection result of the radar device 12 at both times t10 and t11. In this case, the feature point superimposing unit 623 does not detect non-corresponding feature points because the camera 10 and the radar device 12 extract the same feature points from the street tree T1. In this case, the obstruction factor determination unit 624 determines that there is no obstruction factor for both the detection means of the camera 10 and the radar device 12 .

これに対して図6は、阻害要因判定部624が判定の結果、カメラ10による物体検出に関して“阻害要因有り”と判定する場合の一例を示す図である。図6は、時刻t20およびt21(>t20)におけるカメラ10およびレーダ装置12の検出結果を示している。図6は、自車両が図5と同様の走行状況において実施した物体検出の結果を示している。図中の阻害要因W1は、例えば、フロントウィンドウに付着した水滴である。 On the other hand, FIG. 6 is a diagram showing an example of a case where the obstruction factor determination unit 624 determines that there is an obstruction factor in object detection by the camera 10 as a result of the determination. FIG. 6 shows detection results of the camera 10 and the radar device 12 at times t 20 and t 21 (>t 20 ). FIG. 6 shows the results of object detection performed by the own vehicle in the same running situation as in FIG. An obstacle W1 in the drawing is, for example, water droplets adhering to the front window.

この例では、時刻t20においては、水滴W1が街路樹T1への見通しを遮っていないので、このタイミングでは、阻害要因判定部624は、カメラ10およびレーダ装置12のいずれの検出手段に関しても“阻害要因無し”と判定する。これに対して、時刻t11においては、水滴W1が街路樹T1への見通しを遮っているので、カメラ10による検出結果に関して抽出される街路樹T1の特徴点群F1は、水滴W1で遮られていない部分の特徴点となる。一方、レーダ装置12は街路樹T1の全体を検出しているため、レーダ装置12による検出結果に関して抽出される街路樹T1の特徴点群F2のうち、特徴点群F1に対応しない特徴点群F3は非対応特徴点となる。したがって、この場合、阻害要因判定部624は、カメラ10による物体検出に関して“阻害要因有り”と判定することになる。 In this example, at time t20, the water droplet W1 does not block the line of sight to the roadside tree T1. There is no hindrance factor”. On the other hand, at time t11, the water droplet W1 blocks the line of sight to the roadside tree T1. It becomes a feature point of the part that is not On the other hand, since the radar device 12 detects the entire street tree T1, the feature point group F3 that does not correspond to the feature point group F1 out of the feature point group F2 of the street tree T1 extracted with respect to the detection result by the radar device 12 is a non-corresponding feature point. Therefore, in this case, the obstruction factor determination unit 624 determines that there is an obstruction factor with respect to the object detection by the camera 10 .

ヒータ制御部625は、阻害要因判定部624による阻害要因の有無の判定結果に基づいてヒータ装置300を制御する。具体的には、ヒータ制御部625は、阻害要因判定部624によって“阻害要因有り”と判定された場合にヒータ装置300を作動させる。これにより、検出された阻害要因がフロントウィンドウに付着した水滴である場合に、阻害要因を除去することができる。 The heater control unit 625 controls the heater device 300 based on the determination result of the presence or absence of the obstruction factor by the obstruction factor determination part 624 . Specifically, the heater control unit 625 operates the heater device 300 when the obstruction factor determination unit 624 determines that there is an obstruction factor. As a result, when the detected impeding factor is water droplets adhering to the front window, the impeding factor can be removed.

[阻害要因の判定方法]
図7は、本実施形態の物体認識装置16が非対応特徴点を検出する処理(以下「非対応特徴点検出処理」という。)の流れの一例を示すフローチャートである。まず、特徴点重畳部623が、第1特徴点抽出部621から第1特徴点群の情報を取得するとともに、第2特徴点抽出部622から第2特徴点群の情報を取得する(ステップS101)。
[Method for Determining Inhibitory Factors]
FIG. 7 is a flow chart showing an example of the flow of processing for detecting non-corresponding feature points (hereinafter referred to as "non-corresponding feature point detection processing") by the object recognition device 16 of this embodiment. First, the feature point superimposing unit 623 acquires information on the first feature point group from the first feature point extraction unit 621 and acquires information on the second feature point group from the second feature point extraction unit 622 (step S101). ).

続いて、特徴点重畳部623は、第1特徴点群から1つの特徴点を選択し(ステップS102)、選択した第1特徴点について、対応特徴点が第2特徴点群に存在している否かを判定する(ステップS103)。ここで、選択した第1特徴点について、対応特徴点が第2特徴点群に存在していないと判定した場合、特徴点重畳部623は、選択した第1特徴点を非対応特徴点として記録して(ステップS104)、ステップS105に処理を進める。一方、ステップS103において、選択した第1特徴点について、対応特徴点が第2特徴点群に存在していると判定した場合、特徴点重畳部623は、ステップS104をスキップしてステップS105に処理を進める。 Subsequently, the feature point superimposing unit 623 selects one feature point from the first feature point group (step S102), and for the selected first feature point, a corresponding feature point exists in the second feature point group. It is determined whether or not (step S103). Here, if it is determined that the corresponding feature point does not exist in the second feature point group for the selected first feature point, the feature point superimposing unit 623 records the selected first feature point as a non-corresponding feature point. Then (step S104), the process proceeds to step S105. On the other hand, if it is determined in step S103 that the corresponding feature point exists in the second feature point group for the selected first feature point, the feature point superimposing unit 623 skips step S104 and proceeds to step S105. proceed.

続いて、特徴点重畳部623は、第1特徴点群に含まれる全ての特徴点について対応特徴点の検査を行ったか否かを判定する(ステップS105)。ここで、第1特徴点群において未検査の特徴点が存在すると判定した場合、特徴点重畳部623は、ステップS102に処理を戻し、未検査の特徴点がなくなるまでステップS102~S104を繰り返し実行する。一方、ステップS105において、第1特徴点群に含まれる全ての特徴点について対応特徴点の検査を行ったと判定した場合、特徴点重畳部623は、ステップS106に処理を進める。 Subsequently, the feature point superimposing unit 623 determines whether or not the corresponding feature points have been checked for all the feature points included in the first feature point group (step S105). Here, when it is determined that there is an unchecked feature point in the first feature point group, the feature point superimposing unit 623 returns the processing to step S102, and repeats steps S102 to S104 until there is no unchecked feature point. do. On the other hand, if it is determined in step S105 that the corresponding feature points have been inspected for all feature points included in the first feature point group, the feature point superimposing unit 623 advances the process to step S106.

続いて、特徴点重畳部623は、第2特徴点群から1つの特徴点を選択し(ステップS106)、選択した第2特徴点について、対応特徴点が第1特徴点群に存在している否かを判定する(ステップS107)。ここで、選択した第2特徴点について、対応特徴点が第1特徴点群に存在していないと判定した場合、特徴点重畳部623は、選択した第2特徴点を非対応特徴点として記録して(ステップS108)、ステップS109に処理を進める。一方、ステップS107において、選択した第2特徴点について、対応特徴点が第1特徴点群に存在していると判定した場合、特徴点重畳部623は、ステップS108をスキップしてステップS109に処理を進める。 Subsequently, the feature point superimposing unit 623 selects one feature point from the second feature point group (step S106), and for the selected second feature point, the corresponding feature point exists in the first feature point group. It is determined whether or not (step S107). Here, if it is determined that the corresponding feature point does not exist in the first feature point group for the selected second feature point, the feature point superimposing unit 623 records the selected second feature point as a non-corresponding feature point. Then (step S108), the process proceeds to step S109. On the other hand, if it is determined in step S107 that the corresponding feature point exists in the first feature point group for the selected second feature point, the feature point superimposing unit 623 skips step S108 and proceeds to step S109. proceed.

続いて、特徴点重畳部623は、第2特徴点群に含まれる全ての特徴点について対応特徴点の検査を行ったか否かを判定する(ステップS109)。ここで、第2特徴点群において未検査の特徴点が存在すると判定した場合、特徴点重畳部623は、ステップS106に処理を戻し、未検査の特徴点がなくなるまでステップS106~S108を繰り返し実行する。一方、ステップS109において、第2特徴点群に含まれる全ての特徴点について対応特徴点の検査を行ったと判定した場合、特徴点重畳部623は、非対応特徴点検出処理を終了する。 Subsequently, the feature point superimposing unit 623 determines whether or not the corresponding feature points have been inspected for all the feature points included in the second feature point group (step S109). Here, if it is determined that there is an unchecked feature point in the second feature point group, the feature point superimposing unit 623 returns the process to step S106, and repeats steps S106 to S108 until there is no unchecked feature point. do. On the other hand, if it is determined in step S109 that the corresponding feature points have been inspected for all the feature points included in the second feature point group, the feature point superimposing unit 623 ends the non-corresponding feature point detection processing.

なお、図7で説明した非対応特徴点検出処理は、カメラ10およびレーダ装置12について時系列に取得される各検出結果のそれぞれに実施される処理である。特徴点重畳部623は、各時点で取得されるカメラ10およびレーダ装置12の検出結果に対して図7の非対応特徴点検出処理を実施して、検出した非対応特徴点の座標を検出手段(本実施形態ではすなわちカメラ10またはレーダ装置12)に対応づけて記録していく。このようにして、非対応特徴点の検出情報が累積的に記録されていくことにより、阻害要因判定部624は、規定期間に発生した非対応特徴点の数をカウントすることが可能となり、規定期間における非対応特徴点の発生数に基づいて阻害要因の有無を判定することが可能となる。具体的には、阻害要因判定部624は、次の図8に示す阻害要因判定処理を実行することにより阻害要因の有無を検知することができる。 Note that the non-corresponding feature point detection processing described with reference to FIG. 7 is processing performed for each detection result acquired in time series for the camera 10 and the radar device 12 . The feature point superimposing unit 623 performs the non-corresponding feature point detection process of FIG. (In this embodiment, that is, the camera 10 or the radar device 12) are associated with each other and recorded. In this way, by cumulatively recording the detection information of the non-corresponding feature points, the hindrance factor determination unit 624 can count the number of non-corresponding feature points that have occurred during the specified period. It is possible to determine the presence or absence of a hindrance factor based on the number of occurrences of non-corresponding feature points in a period. Specifically, the obstruction factor determination unit 624 can detect the presence or absence of an obstruction factor by executing the obstruction factor determination process shown in FIG. 8 below.

また、図7の例では、特徴点重畳部623は、第1特徴点の検査を実施した後で第2特徴点の検査を実施したが、特徴点の検査はどちらが先に行われてもよいし、両者が並列に実施されてもよい。 In the example of FIG. 7, the feature point superimposing unit 623 inspects the second feature point after inspecting the first feature point, but either feature point inspection may be performed first. However, both may be performed in parallel.

図8は、本実施形態の物体認識装置16が実行する阻害要因判定処理の流れの一例を示すフローチャートである。まず、阻害要因判定部624は、特徴点重畳部623から、カメラ10およびレーダ装置12に関して検出された全ての非対応特徴点について座標情報を取得する(ステップS201)。続いて、阻害要因判定部624は、座標情報を取得した非対応特徴点群から処理対象の非対応特徴点を選択し(ステップS202)、選択した非対応特徴点について、本来検出されるべき対応特徴点(以下「欠損特徴点」という。)の座標を、その検出手段に応じた記録面に記録する(ステップS203)。ここで、記録面とは、欠損特徴点の存在を、本来検出されるべき位置に対応づけて記録するためのメモリ領域であり、カメラ10およびレーダ装置12の検出手段ごとに確保されるものである。 FIG. 8 is a flowchart showing an example of the flow of obstruction factor determination processing executed by the object recognition device 16 of this embodiment. First, the obstruction factor determination unit 624 acquires coordinate information for all non-corresponding feature points detected with respect to the camera 10 and the radar device 12 from the feature point superimposition unit 623 (step S201). Subsequently, the hindrance factor determination unit 624 selects a non-corresponding feature point to be processed from the group of non-corresponding feature points for which coordinate information has been acquired (step S202), and for the selected non-corresponding feature point, a correspondence that should be detected The coordinates of the feature point (hereinafter referred to as "missing feature point") are recorded on the recording surface corresponding to the detection means (step S203). Here, the recording surface is a memory area for recording the presence of missing feature points in correspondence with the positions to be originally detected, and is secured for each detection means of the camera 10 and the radar device 12. be.

続いて、阻害要因判定部624は、各検出手段の記録面に記録された欠損特徴点の数について、検出範囲内に設定される部分領域ごとに合計をとり、合計数が閾値以上となっている部分領域が存在するか否かを判定する(ステップS204)。ここで、欠損特徴点の合計数が閾値以上となっている部分領域が存在すると判定した場合、阻害要因判定部624は、本来当該部分領域の欠損特徴点を検出すべき検出手段につき、当該部分領域の検出に関して“阻害要因有り”と判定して(ステップS205)、阻害要因判定処理を終了する。一方、ステップS204において、欠損特徴点の合計数が閾値以上となっている部分領域が存在しないと判定した場合、阻害要因判定部624は、“阻害要因無し”と判定して(ステップS206)、阻害要因判定処理を終了する。 Subsequently, the hindrance factor determination unit 624 sums up the number of missing feature points recorded on the recording surface of each detection means for each partial area set within the detection range, and the total number is equal to or greater than the threshold. It is determined whether or not there is a partial area in which the image is present (step S204). Here, when it is determined that there is a partial area in which the total number of missing feature points is equal to or greater than the threshold value, the hindrance factor determination unit 624 determines that the detection means that should originally detect the missing feature points in the partial area is It is determined that "there is an impediment factor" regarding detection of the area (step S205), and the impediment factor determination process is terminated. On the other hand, if it is determined in step S204 that there is no partial region in which the total number of missing feature points is greater than or equal to the threshold value, the impediment factor determination unit 624 determines that "there is no impediment factor" (step S206), The hindrance factor determination process is terminated.

図9は、阻害要因判定処理の具体例を示すイメージ図である。ここでは、例えば、カメラ10およびレーダ装置12のそれぞれについて、検出結果を示すフレームが、N(Nは1以上の整数を表す)、N+1、N+2の順に所定の時間間隔で物体認識装置16に入力される場合を想定する。以下では、N、N+1、N+2の順に入力されるフレームを、それぞれNフレーム、N+1フレーム、N+2フレームといい、各フレームは、カメラ10およびレーダ装置12が共通の検出領域について取得した検出結果を表すものとする。また、図9の例は、カメラ10がNフレーム、N+1フレーム、N+2フレームの検出において阻害要因B2を撮像した場合を表している。 FIG. 9 is an image diagram showing a specific example of the hindrance factor determination process. Here, for example, for each of the camera 10 and the radar device 12, frames indicating detection results are input to the object recognition device 16 at predetermined time intervals in order of N (N represents an integer equal to or greater than 1), N+1, and N+2. It is assumed that Hereinafter, the frames input in the order of N, N+1, and N+2 are referred to as N frame, N+1 frame, and N+2 frame, respectively, and each frame represents the detection result obtained from the common detection area by the camera 10 and the radar device 12. shall be Also, the example of FIG. 9 represents a case where the camera 10 captures images of the hindrance factor B2 in the detection of the N frame, the N+1 frame, and the N+2 frame.

この場合、阻害要因判定部624は、カメラ10およびレーダ装置12について、欠損特徴点を記録するための記録面としてそれぞれ記録面M1およびM2を各検出手段に共通の検出範囲に対応させて確保する。続いて、阻害要因判定部624は、レーダ装置12による物体検出結果に基づいて抽出された第2特徴点群のうち非対応特徴点と判定された第2特徴点のそれぞれについて、対応する欠損特徴点をカメラ10の記録面M1に記録する。 In this case, the hindrance factor determination unit 624 secures the recording planes M1 and M2 as recording planes for recording the missing feature points of the camera 10 and the radar device 12, respectively, corresponding to the detection range common to the detection means. . Subsequently, the hindrance factor determination unit 624 determines the corresponding missing feature for each of the second feature points determined as non-corresponding feature points in the second feature point group extracted based on the object detection result by the radar device 12. A point is recorded on the recording surface M1 of the camera 10. FIG.

図9の例では、カメラ10の物体検出に関して阻害要因B1が存在しているので、第2特徴点群において、阻害要因B1に対応する位置A1に非対応特徴点F11-1、F11-2、F12-1~F12-3、F13が検出され、それらに対応する欠損特徴点D11-1、D11-2、D12-1~D12-3、D13が記録面M1に記録される。図8に示す記録面M1は、Nフレーム、N+1フレーム、およびN+2フレームについて欠損特徴点を記録する処理を行った結果を表している。記録面M1において、欠損特徴点D11-1およびD11-2は、レーダ装置12のNフレームにおいて検出された非対応特徴点F11-1およびF11-2に対応する欠損特徴点である。また、欠損特徴点D12-1~D12-3は、レーダ装置12のN+1フレームにおいて検出された非対応特徴点F12-1~F12-3に対応する欠損特徴点である。また、欠損特徴点D13は、レーダ装置12のN+2フレームにおいて検出された非対応特徴点F13に対応する欠損特徴点である。 In the example of FIG. 9, since the obstruction factor B1 exists with respect to the object detection of the camera 10, in the second feature point group, the non-corresponding feature points F11-1, F11-2, F11-1, F11-2, F12-1 to F12-3 and F13 are detected, and missing feature points D11-1, D11-2, D12-1 to D12-3 and D13 corresponding to them are recorded on the recording surface M1. A recording surface M1 shown in FIG. 8 represents the result of performing processing for recording missing feature points for the N frame, the N+1 frame, and the N+2 frame. Missing feature points D11-1 and D11-2 on the recording surface M1 are missing feature points corresponding to the non-corresponding feature points F11-1 and F11-2 detected in the N frames of the radar device 12. FIG. Missing feature points D12-1 to D12-3 are missing feature points corresponding to non-corresponding feature points F12-1 to F12-3 detected in the N+1 frame of the radar device 12. FIG. Also, the missing feature point D13 is a missing feature point corresponding to the non-corresponding feature point F13 detected in the N+2 frame of the radar device 12 .

この場合、阻害要因判定部624は、NフレームからN+2フレームまでの間において欠損特徴点が記録されたカメラ10の第4領域(図中(4)で示される部分領域)および第7領域(図中(7)で示される部分領域)に関して阻害要因が存在していると判定してもよい。また、阻害要因判定部624は、欠損特徴点が同じ位置に規定時間以上連続して検出された領域に関して阻害要因が存在していると判定してもよい。例えば、阻害要因判定部624は、Nフレームで検出された欠損特徴点D11-1およびD11-2が、N+1フレームおよびN+2フレームにおいて連続して検出された場合に、欠損特徴点D11-1およびD11-2が記録された第4領域および第7領域の物体検出に関して阻害要因が存在していると判定してもよい。 In this case, the hindrance factor determination unit 624 determines the fourth area (the partial area indicated by (4) in the figure) and the seventh area (the partial area indicated by (4) in the figure) and the seventh area (the It may be determined that there is a hindrance factor with respect to the partial area indicated by (7) in the middle. Further, the hindrance factor determination unit 624 may determine that a hindrance factor exists in a region in which missing feature points are continuously detected at the same position for a specified time or more. For example, when the missing feature points D11-1 and D11-2 detected in the N frame are continuously detected in the N+1 frame and the N+2 frame, the hindrance factor determination unit 624 determines that the missing feature points D11-1 and D11 It may be determined that there is an obstacle to object detection in the fourth area and the seventh area where -2 is recorded.

また、阻害要因判定部624は、検出された欠損特徴点の数を検出範囲内の部分領域ごとに時系列に合計していき、その合計数が閾値以上となった部分領域の物体検出に関して阻害要因が存在していると判定してもよい。例えば、図9は、検出範囲内に第1から第9までの9つの部分領域(図中(1)~(9)で示される領域)が設定された場合の例を表している。なお、図9における部分領域の分割方法は一例であり、部分領域の数や大きさ、形状などは任意に決定されてよい。 In addition, the hindrance factor determination unit 624 sums up the number of detected missing feature points for each partial area within the detection range in time series, and determines whether the partial area in which the total number is equal to or greater than the threshold value hinders object detection. You may judge that a factor exists. For example, FIG. 9 shows an example in which nine partial areas from first to ninth (areas (1) to (9) in the figure) are set within the detection range. Note that the method of dividing the partial regions in FIG. 9 is just an example, and the number, size, shape, etc. of the partial regions may be determined arbitrarily.

記録面M1の例では、第4領域には、Nフレームの処理タイミングにおいて1つの欠損特徴点D11-1が記録され、N+1フレームの処理タイミングにおいてさらに1つの欠損特徴点D12-1が記録され、N+2フレームの処理タイミングにおいてさらに1つの欠損特徴点D13が記録されている。この場合、閾値が2であれば、阻害要因判定部624は、第4領域の物体検出に関しては、領域内の欠損特徴点の数が2以上となるN+1フレームおよびN+2フレームの処理タイミングにおいて、阻害要因が存在していると判定する。また、閾値が3であれば、阻害要因判定部624は、領域内の欠損特徴点の数が3以上となるN+2フレームの処理タイミングにおいて、阻害要因が存在していると判定することになる。 In the example of the recording surface M1, in the fourth area, one missing feature point D11-1 is recorded at the processing timing of the N frame, and one missing feature point D12-1 is recorded at the processing timing of the N+1 frame, Another missing feature point D13 is recorded at the processing timing of the N+2 frame. In this case, if the threshold is 2, the hindrance factor determination unit 624, with regard to object detection in the fourth region, determines that the hindrance factor determination unit 624, at the processing timings of the N+1 frame and the N+2 frame where the number of missing feature points in the region is 2 or more, Determine that the cause exists. Also, if the threshold is 3, the obstruction factor determination unit 624 determines that an obstruction factor exists at the processing timing of the N+2 frame when the number of missing feature points in the region is 3 or more.

一方、記録面M1の第7領域には、Nフレームの処理タイミングにおいて1つの欠損特徴点D11-2が記録され、N+1フレームの処理タイミングにおいてさらに2つの欠損特徴点D12-2およびD12-3が記録され、N+2フレームの処理タイミングにおいては新たな欠損特徴点が記録されない。この場合、領域内の欠損特徴点の数が2または3以上となるのは、いずれもN+1フレームの処理タイミングである。したがって、図9の例では、閾値が2および3のいずれの場合であっても、阻害要因判定部624は、第7領域の物体検出に関しては、N+1フレームの処理タイミングにおいて、阻害要因が存在していると判定することになる。 On the other hand, in the seventh area of the recording surface M1, one missing feature point D11-2 is recorded at the processing timing of the N frame, and two missing feature points D12-2 and D12-3 are recorded at the processing timing of the N+1 frame. are recorded, and no new missing feature points are recorded at the processing timing of the N+2 frame. In this case, the number of missing feature points in the region becomes 2 or 3 or more at the processing timing of the N+1 frame. Therefore, in the example of FIG. 9, regardless of whether the threshold is 2 or 3, the impediment factor determination unit 624 determines whether the impediment factor exists at the processing timing of the N+1 frame with respect to object detection in the seventh region. It will be determined that

このように構成された実施形態の物体認識装置16は、カメラ10の検出結果に基づき、検出された物体の特徴点を第1特徴点として抽出する第1特徴点抽出部621と、レーダ装置12の検出結果に基づき、検出された上記物体の特徴点を第2特徴点として抽出する第2特徴点抽出部622と、カメラ10とレーダ装置12のうち、第1特徴点の点群である第1特徴点群と第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群(すなわち欠損特徴点を有している方の特徴点群)の抽出に係る検出結果を取得した方の物体検出装置について、上記物体の検出に対する阻害要因が存在すると判定する阻害要因判定部624とを備える。そして、このような構成を備えることにより、実施形態の物体認識装置16は、複数の物体検出装置による物体の検出結果を比較し、検出結果の違いから阻害要因の有無を判定するとともに、阻害要因の位置を特定することができる。このため、実施形態の物体認識装置16によれば、自車両周辺の物体の認識精度の低下をより確実に抑制することができる。 The object recognition device 16 of the embodiment configured as described above includes a first feature point extraction unit 621 that extracts the feature points of the detected object as the first feature points based on the detection result of the camera 10, the radar device 12 A second feature point extraction unit 622 that extracts the detected feature points of the object as second feature points based on the detection result of , and a point group of the first feature points of the camera 10 and the radar device 12, Of the second feature point group, which is the point group of the first feature point group and the second feature point group, the feature point group for which the corresponding feature point is missing (that is, the feature point group for which the missing feature point is present) ) is provided with an obstruction factor determination unit 624 that determines that an obstruction factor exists in detecting the object. With such a configuration, the object recognition device 16 of the embodiment compares object detection results obtained by a plurality of object detection devices, determines the presence or absence of a hindrance factor from the difference in the detection results, and determines whether there is a hindrance factor. can be located. Therefore, according to the object recognition device 16 of the embodiment, it is possible to more reliably suppress a decrease in accuracy in recognizing objects around the own vehicle.

なお、上記の実施形態では、阻害要因の一例としてフロントウィンドウに付着した水滴を想定し、これを除去する手段の一例としてヒータ装置300を作動させる場合について説明したが、阻害要因を除去する手段はヒータ装置300に限定されない。例えば、阻害要因としてフロントウィンドウの外側に付着した汚れを想定する場合、これを除去する手段の一例として不図示のワイパ装置を作動させてもよい。 In the above-described embodiment, water droplets adhering to the front window are assumed as an example of an obstructive factor, and the case where the heater device 300 is operated is described as an example of means for removing the water droplets. It is not limited to heater device 300 . For example, if dirt adhering to the outside of the front window is assumed to be a hindrance, a wiper device (not shown) may be operated as an example of means for removing the dirt.

また、上記の実施形態では、簡単のため、二次元の記録面に対して欠損特徴点を記録する場合について説明したが、欠損特徴点の記録は、検出範囲に対応させた三次元空間(以下「記録空間」という。)に対して行われてもよい。この場合、阻害要因判定部624は、三次元の記録空間を部分空間に分割し、各部分空間における欠損特徴点の発生状況に基づいて阻害要因の有無を判定するように構成されてもよい。 Further, in the above embodiment, for the sake of simplicity, the case where missing feature points are recorded on a two-dimensional recording surface has been described. (referred to as “recording space”). In this case, the impediment factor determination unit 624 may be configured to divide the three-dimensional recording space into subspaces and determine the presence or absence of impediment factors based on the state of occurrence of missing feature points in each subspace.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記プログラムを実行することにより、
自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出し、
前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む前記第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出し、
前記第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定する、
ように構成されている、車両制御装置。
The embodiment described above can be expressed as follows.
a storage device storing a program;
a hardware processor;
By the hardware processor executing the program,
Extracting feature points of the object detected by the first object detection device as first feature points based on the detection result of the first object detection device for detecting an object in front of the vehicle,
Based on the detection result of the second object detection device for detecting the object, the detection range of the second object detection device including part or all of the detection range of the first object detection device, extracting a feature point as a second feature point,
Extraction of a feature point group in which corresponding feature points are missing from a first feature point group that is a point group of the first feature points and a second feature point group that is a point group of the second feature points Determining that an obstacle to the detection of the object exists for the object detection device that has acquired the detection result.
A vehicle control device configured to:

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.

1…車両システム、10…カメラ、12…レーダ装置、14…LIDAR、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、51…GNSS受信機、52…ナビHMI、53…経路決定部、54…第1地図情報、60…MPU、61…推奨車線決定部、62…第2地図情報、70…ドライバモニタカメラ、80…運転操作子、82…ステアリングホイール、84…ステアリング把持センサ、100…自動運転制御装置、120…第1制御部、130…認識部、140…行動計画生成部、150…モード決定部、152…運転者状態判定部、154…モード変更処理部、160…第2制御部、162…取得部、164…速度制御部、166…操舵制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、300…ヒータ装置、16…物体認識装置、610…記憶部、620…制御部、621…第1特徴点抽出部、622…第2特徴点抽出部、623…特徴点重畳部、624…阻害要因判定部、625…ヒータ制御部 REFERENCE SIGNS LIST 1 vehicle system 10 camera 12 radar device 14 LIDAR 20 communication device 30 HMI 40 vehicle sensor 50 navigation device 51 GNSS receiver 52 navigation HMI 53 Route determination unit 54 First map information 60 MPU 61 Recommended lane determination unit 62 Second map information 70 Driver monitor camera 80 Driving operator 82 Steering wheel 84 Steering grip Sensor 100 Automatic operation control device 120 First control unit 130 Recognition unit 140 Action plan generation unit 150 Mode determination unit 152 Driver state determination unit 154 Mode change processing unit 160 Second control unit 162 Acquisition unit 164 Speed control unit 166 Steering control unit 200 Driving force output device 210 Brake device 220 Steering device 300 Heater device 16 Object recognition Apparatus 610 Storage unit 620 Control unit 621 First feature point extraction unit 622 Second feature point extraction unit 623 Feature point superimposition unit 624 Inhibition factor determination unit 625 Heater control unit

Claims (9)

自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出する第1特徴点抽出部と、
前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出する第2特徴点抽出部と、
前記第1の物体検出装置と前記第2の物体検出装置のうち、第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した方の物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定する判定部と、
を備える検知装置。
a first feature point extraction unit that extracts, as first feature points, feature points of an object detected by the first object detection device based on the detection result of the first object detection device that detects an object in front of the vehicle;
characteristics of the object based on the detection result of a second object detection device for detecting the object, the detection range including part or all of the detection range of the first object detection device; a second feature point extraction unit that extracts a point as a second feature point;
Among the first object detection device and the second object detection device, among the first feature point group that is the point group of the first feature points and the second feature point group that is the point group of the second feature points a determination unit that determines that an obstacle to detection of the object exists in the object detection device that has acquired the detection result related to the extraction of the feature point group from which the corresponding feature point is missing;
A detection device comprising:
前記判定部は、対応する特徴点を有さない第1特徴点または第2特徴点が、規定時間以上連続して検出された場合に、前記阻害要因が存在すると判定する、
請求項1に記載の検知装置。
The determination unit determines that the obstruction factor exists when a first feature point or a second feature point having no corresponding feature point is continuously detected for a specified time or longer.
A sensing device according to claim 1 .
前記判定部は、対応する特徴点を有さない第1特徴点または第2特徴点について、本来検出されるべき特徴点である欠損特徴点を時系列に検出し、検出した前記欠損特徴点の数を、前記検出範囲を分割した部分領域ごとに合計していき、前記欠損特徴点の合計数が閾値以上となった場合、前記合計数が得られた部分領域に前記阻害要因が存在すると判定する、
請求項1または2に記載の検知装置。
The determination unit detects missing feature points, which are feature points that should be originally detected, in time series for first feature points or second feature points that do not have corresponding feature points, and detects the missing feature points detected. The number is totaled for each partial area obtained by dividing the detection range, and when the total number of missing feature points is equal to or greater than a threshold value, it is determined that the obstruction factor exists in the partial area from which the total number is obtained. do,
3. A sensing device according to claim 1 or 2.
前記第1の物体検出装置は、自車両内からフロントウィンドウを介して自車両前方の物体を検出するカメラであり、
前記第1の物体検出装置による物体検出の阻害要因は、前記フロントウィンドウに付着した水滴である、
請求項1から3のいずれか一項に記載の検知装置。
The first object detection device is a camera that detects an object in front of the vehicle from inside the vehicle through a front window,
A factor that hinders object detection by the first object detection device is water droplets adhering to the front window.
4. A sensing device according to any one of claims 1 to 3.
前記第2の物体検出装置は、バンパーの一部に設けられた電波透過部の裏にあるレーダ装置であり、
前記第2の物体検出装置による物体検出の阻害要因は、前記電波透過部に対する付着物である、
請求項4に記載の検知装置。
The second object detection device is a radar device behind a radio wave transmission part provided in a part of the bumper,
A factor that hinders object detection by the second object detection device is an adhering matter on the radio wave transmitting portion.
5. A sensing device according to claim 4.
前記第2の物体検出装置は、バンパーに設けられたライダー装置であり、
前記第2の物体検出装置による物体検出の阻害要因は、前記ライダー装置の発光部または受光部に対する付着物である、
請求項4に記載の検知装置。
The second object detection device is a lidar device provided on a bumper,
A factor that hinders object detection by the second object detection device is an adhering matter on the light emitting unit or the light receiving unit of the lidar device.
5. A sensing device according to claim 4.
前記判定部の判定結果に応じて前記フロントウィンドウに温風を吹き出すヒータ装置を作動させるヒータ制御部をさらに備え、
前記ヒータ制御部は、前記判定部により、前記第1の物体検出装置の物体検出に関して前記阻害要因が存在すると判定された場合に前記ヒータ装置を作動させる、
請求項4から6のいずれか一項に記載の検知装置。
further comprising a heater control unit that operates a heater device that blows hot air onto the front window according to the determination result of the determination unit;
The heater control unit activates the heater device when the determination unit determines that the obstruction factor exists with respect to object detection by the first object detection device.
A sensing device according to any one of claims 4 to 6.
コンピュータが、
自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出し、
前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む前記第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出し、
前記第1の物体検出装置と前記第2の物体検出装置のうち、前記第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定する、
検知方法。
the computer
Extracting feature points of the object detected by the first object detection device as first feature points based on the detection result of the first object detection device for detecting an object in front of the vehicle,
Based on the detection result of the second object detection device for detecting the object, the detection range of the second object detection device including part or all of the detection range of the first object detection device, extracting a feature point as a second feature point,
Among the first object detection device and the second object detection device, a first feature point group that is a point group of the first feature points and a second feature point group that is a point group of the second feature points Determining that there is a hindrance to the detection of the object for the object detection device that has acquired the detection result related to the extraction of the feature point group whose corresponding feature point is missing,
Detection method.
コンピュータに、
自車両前方の物体を検出する第1の物体検出装置の検出結果に基づき、前記第1の物体検出装置が検出した物体の特徴点を第1特徴点として抽出させ、
前記物体を検出する第2の物体検出装置であって前記第1の物体検出装置の検出範囲の一部または全部を検出範囲に含む前記第2の物体検出装置の検出結果に基づき、前記物体の特徴点を第2特徴点として抽出させ、
前記第1の物体検出装置と前記第2の物体検出装置のうち、前記第1特徴点の点群である第1特徴点群と前記第2特徴点の点群である第2特徴点群のうち対応する特徴点が欠損している方の特徴点群の抽出に係る検出結果を取得した物体検出装置について、前記物体の検出に対する阻害要因が存在すると判定させる、
プログラム。
to the computer,
extracting feature points of the object detected by the first object detection device as first feature points based on the detection result of the first object detection device for detecting an object in front of the vehicle;
Based on the detection result of the second object detection device for detecting the object, the detection range of the second object detection device including part or all of the detection range of the first object detection device, extracting the feature point as a second feature point,
Among the first object detection device and the second object detection device, a first feature point group that is a point group of the first feature points and a second feature point group that is a point group of the second feature points Determining that there is an obstacle to detection of the object with respect to the object detection device that has acquired the detection result related to the extraction of the feature point group of which the corresponding feature point is missing,
program.
JP2021057719A 2021-03-30 2021-03-30 Detection apparatus, detection method, and program Ceased JP2022154605A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021057719A JP2022154605A (en) 2021-03-30 2021-03-30 Detection apparatus, detection method, and program
CN202210083631.9A CN115140081A (en) 2021-03-30 2022-01-24 Detection device, detection method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057719A JP2022154605A (en) 2021-03-30 2021-03-30 Detection apparatus, detection method, and program

Publications (1)

Publication Number Publication Date
JP2022154605A true JP2022154605A (en) 2022-10-13

Family

ID=83404937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057719A Ceased JP2022154605A (en) 2021-03-30 2021-03-30 Detection apparatus, detection method, and program

Country Status (2)

Country Link
JP (1) JP2022154605A (en)
CN (1) CN115140081A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014043121A (en) * 2012-08-24 2014-03-13 Hitachi Automotive Systems Ltd On-vehicle camera device
JP2014071640A (en) * 2012-09-28 2014-04-21 Saxa Inc Monitoring device, and monitoring system
JP2018191061A (en) * 2017-04-28 2018-11-29 アイシン精機株式会社 Periphery monitoring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014043121A (en) * 2012-08-24 2014-03-13 Hitachi Automotive Systems Ltd On-vehicle camera device
JP2014071640A (en) * 2012-09-28 2014-04-21 Saxa Inc Monitoring device, and monitoring system
JP2018191061A (en) * 2017-04-28 2018-11-29 アイシン精機株式会社 Periphery monitoring device

Also Published As

Publication number Publication date
CN115140081A (en) 2022-10-04

Similar Documents

Publication Publication Date Title
US20220204027A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7194224B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
CN115140086A (en) Vehicle control device, vehicle control method, and storage medium
JP7286691B2 (en) Determination device, vehicle control device, determination method, and program
US20230303099A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2023036593A (en) Vehicular recognition device, vehicle control system, vehicular recognition method and program
JP7046289B1 (en) Vehicle controls, vehicle systems, vehicle control methods, and programs
JP2023030147A (en) Vehicle control device, vehicle control method, and program
JP2023030146A (en) Vehicle control device, vehicle control method, and program
US11868135B2 (en) Processing device, processing method, and medium for evaluating map reliability for vehicles
US20220258769A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7184951B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7308880B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7196220B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7209681B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP2022154605A (en) Detection apparatus, detection method, and program
US20230303126A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7250837B2 (en) Control device, control method and program
JP7256168B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7186210B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
US20220315050A1 (en) Vehicle control device, route generation device, vehicle control method, route generation method, and storage medium
US11933900B2 (en) Recognition device, vehicle system, recognition method, and storage medium
WO2022144974A1 (en) Vehicle control device, vehicle control method, and program
JP2022155702A (en) Vehicle control device, vehicle control method and program
CN114690162A (en) Vehicle identification system and identification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20230328