JP7027279B2 - Vehicle control devices, vehicle control methods, and programs - Google Patents

Vehicle control devices, vehicle control methods, and programs Download PDF

Info

Publication number
JP7027279B2
JP7027279B2 JP2018148551A JP2018148551A JP7027279B2 JP 7027279 B2 JP7027279 B2 JP 7027279B2 JP 2018148551 A JP2018148551 A JP 2018148551A JP 2018148551 A JP2018148551 A JP 2018148551A JP 7027279 B2 JP7027279 B2 JP 7027279B2
Authority
JP
Japan
Prior art keywords
output
recognition result
vehicle
object information
integrated recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018148551A
Other languages
Japanese (ja)
Other versions
JP2020024562A (en
Inventor
真里奈 齊京
弘 三浦
賢人 ▲高▼岡
相和 三井
涼 樫本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018148551A priority Critical patent/JP7027279B2/en
Priority to CN201910715385.2A priority patent/CN110816524B/en
Publication of JP2020024562A publication Critical patent/JP2020024562A/en
Application granted granted Critical
Publication of JP7027279B2 publication Critical patent/JP7027279B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

本発明は、物体認識装置、車両制御装置、物体認識方法、およびプログラムに関する。 The present invention relates to an object recognition device, a vehicle control device, an object recognition method, and a program.

従来、複数のデバイスによる出力を統合して物体を認識する技術について開示がなされている(例えば、特許文献1参照)。このような技術は、センサフュージョンと称されている。一般に、センサフュージョンによって物体が認識された場合、デバイス単体の出力に基づいて物体が認識された場合に比して、認識の信頼度が高いと言える。このため、特許文献1に記載の技術では、デバイス単体で物体が認識された場合、センサフュージョンにより物体が認識された場合に比して、車両制御の度合いを低くしている。 Conventionally, a technique for recognizing an object by integrating outputs from a plurality of devices has been disclosed (see, for example, Patent Document 1). Such a technique is called sensor fusion. In general, when an object is recognized by sensor fusion, it can be said that the recognition reliability is higher than when the object is recognized based on the output of a single device. Therefore, in the technique described in Patent Document 1, when the object is recognized by the device alone, the degree of vehicle control is lowered as compared with the case where the object is recognized by the sensor fusion.

特開2005-239114号公報Japanese Unexamined Patent Publication No. 2005-239114

センサフュージョンにより物体を認識する場合、信頼度が高いことの反面、デバイス単体の出力に基づいて物体を認識する場合に比して、処理の完了が遅くなることが想定される。このため、例えば、車両から遠距離にある物体に対して予備的な制御をしようとしても、センサフュージョンによる処理が確定しないため、これを行うことができない場合があった。このように、従来のセンサフュージョンの技術では、物体の認識が遅れる場合があった。 When recognizing an object by sensor fusion, the reliability is high, but on the other hand, it is expected that the completion of processing will be delayed as compared with the case of recognizing an object based on the output of a single device. For this reason, for example, even if an attempt is made to perform preliminary control on an object at a long distance from the vehicle, it may not be possible to perform this because the processing by the sensor fusion is not determined. As described above, in the conventional sensor fusion technology, the recognition of an object may be delayed.

本発明は、このような事情を考慮してなされたものであり、より迅速に速報的なセンサフュージョン結果を得ることができる物体認識装置、車両制御装置、物体認識方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides an object recognition device, a vehicle control device, an object recognition method, and a program capable of obtaining a prompt sensor fusion result more quickly. Is one of the purposes.

この発明に係る物体認識装置、車両制御装置、物体認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る物体認識装置は、車両に搭載される物体認識装置であって、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力する第1処理部と、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力する第2処理部と、前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識する第1統合認識部と、前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する第2統合認識部と、を備える物体認識装置である。
The object recognition device, the vehicle control device, the object recognition method, and the program according to the present invention have adopted the following configurations.
(1): The object recognition device according to one aspect of the present invention is an object recognition device mounted on a vehicle, and at least process A is performed based on the output of the first device for recognizing an object. The first processing unit that outputs the object information and outputs the object information by performing the processing B that requires more work than the processing A, and the second device for recognizing the object, the first device. Based on the output of the second device attached to the vehicle so as to have the same direction as the detection range, at least the process C is performed to output the object information, and the process requires more steps than the process C. A second processing unit that performs D and outputs object information, and a first integrated recognition unit that recognizes an object based on the object information obtained as a result of the processing A and the object information obtained as a result of the processing C. An object recognition device including an object information obtained as a result of the process B and a second integrated recognition unit for recognizing an object based on the object information obtained as a result of the process D.

(2):上記(1)の態様において、前記処理Aは、前記処理Bに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であり、且つ/または、前記処理Cは、前記処理Dに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であるものである。 (2): In the embodiment of (1) above, the process A is a process executed for the output data with a smaller number of output cycles than the first device as compared with the process B. And / or, the process C is a process executed for the output data with a smaller number of output cycles than the first device as compared with the process D.

(3):上記(2)の態様において、前記第1デバイスはカメラであり、前記処理Aは、前処理Bに比して少ないフレーム数の画像に基づいて物体情報を生成する処理を含むものである。 (3): In the aspect of (2) above, the first device is a camera, and the process A includes a process of generating object information based on an image having a smaller number of frames than the preprocess B. ..

(4):上記(1)の態様において、前記処理Aは、前記処理Bに比して、少ない処理手順で実行される処理であり、且つ/または、前記処理Cは、前記処理Dに比して、少ない処理手順で実行される処理であるものである。 (4): In the aspect of (1) above, the process A is a process executed with a smaller number of process procedures than the process B, and / or the process C is compared with the process D. Therefore, it is a process that is executed with a small number of processing procedures.

(5):上記(4)の態様において、前記第2デバイスはLIDARであり、前記処理Cは、基準位置と物体との距離を特定し、特定した距離を前記物体情報に含めて出力する処理を含むものである。 (5): In the aspect of (4) above, the second device is a lidar, and the process C specifies a distance between a reference position and an object, and the specified distance is included in the object information and output. Is included.

(6):上記(5)の態様において、前記処理Dは、前記距離および物体のサイズを特定し、特定した距離およびサイズを前記物体情報に含めて出力する処理を含むものである。 (6): In the embodiment of the above (5), the process D includes a process of specifying the distance and the size of the object, including the specified distance and the size in the object information, and outputting the process.

(7):本発明の他の態様は、上記(1)から(6)のうちいずれかの態様の物体認識装置と、車両の速度と操舵角とのうち一方または双方を制御する運転制御部と、を備え、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第1統合認識部の認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識部による認識結果が得られた後は、前記第2統合認識部の認識結果の比率を前記第1統合認識部による認識結果よりも高くして前記物体との位置関係を調節する制御を行う、車両制御装置である。 (7): Another aspect of the present invention is the object recognition device according to any one of the above (1) to (6) and the operation control unit that controls one or both of the vehicle speed and the steering angle. And, the operation control unit controls to adjust the positional relationship with the object by using the recognition result of the first integrated recognition unit until the recognition result by the second integrated recognition unit is obtained. After the recognition result by the second integrated recognition unit is obtained, the ratio of the recognition result by the second integrated recognition unit is set higher than the recognition result by the first integrated recognition unit, and the positional relationship with the object is set. It is a vehicle control device that controls to adjust.

(8):上記(7)の態様において、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、制御程度を小さくするものである。 (8): In the aspect of (7) above, the operation control unit is compared after the recognition result by the second integrated recognition unit is obtained until the recognition result by the second integrated recognition unit is obtained. Therefore, the degree of control is reduced.

(9):上記(7)または(8)の態様において、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、前記物体との位置関係に対する相対的な制御程度を小さくするものである。 (9): In the embodiment (7) or (8), the operation control unit can obtain the recognition result by the second integrated recognition unit until the recognition result by the second integrated recognition unit is obtained. The degree of relative control over the positional relationship with the object is reduced as compared with the latter.

(10):本発明の他の態様は、車両に搭載される物体認識装置により実行される物体認識方法であって、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力することと、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力することと、前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識することと、前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識することと、を備える物体認識方法である。 (10): Another aspect of the present invention is an object recognition method executed by an object recognition device mounted on a vehicle, at least based on the output of a first device for recognizing an object, processing A. Is performed to output the object information, and the process B, which requires more work than the process A, is performed to output the object information, and is a second device for recognizing the object, which is the first device. Based on the output of the second device attached to the vehicle so as to have the same direction as the detection range, at least the process C is performed to output the object information, and the process requires more steps than the process C. Performing D to output the object information, recognizing the object based on the object information obtained by the process A, the object information obtained by the process C, and the object information obtained by the process B. It is an object recognition method including recognizing an object based on the object information obtained by the process D.

(11):本発明の他の態様は、車両に搭載される物体認識装置のプロセッサにより実行されるプログラムであって、前記プロセッサに、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力させると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力させ、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力させると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力させ、前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識させ、前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識させる、プログラムである。 (11): Another aspect of the present invention is a program executed by a processor of an object recognition device mounted on a vehicle, based on the output of the first device for recognizing an object to the processor. At least, it is a second device for recognizing an object by performing process A to output object information and performing process B which requires more steps than process A to output object information. Based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the one device, at least the process C is performed to output the object information, and the number of steps is larger than that of the process C. A lot of processing D is performed to output the object information, the object is recognized based on the object information obtained by the processing A and the object information obtained by the processing C, the object information obtained by the processing B, and the processing. It is a program that recognizes an object based on the object information obtained by D.

(1)~(11)によれば、より迅速に速報的なセンサフュージョン結果を得ることができる。 According to (1) to (11), a quick sensor fusion result can be obtained more quickly.

物体認識装置300を利用した第1実施形態の車両システム1の構成図である。It is a block diagram of the vehicle system 1 of the 1st Embodiment using an object recognition apparatus 300. 物体認識装置300の構成図である。It is a block diagram of the object recognition apparatus 300. 車両システム1が実行する処理によって生じる自車両Mの走行場面を例示した図である。It is a figure which exemplifies the traveling scene of the own vehicle M generated by the process executed by the vehicle system 1. 第1処理部310により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of processing executed by the 1st processing unit 310. 第2処理部320により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the processing executed by the 2nd processing unit 320. 第1統合認識部330により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process executed by the 1st integrated recognition unit 330. 第2統合認識部340により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process executed by the 2nd integrated recognition unit 340. 距離と検知精度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the distance and the detection accuracy. 距離と検知精度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the distance and the detection accuracy. 実施形態による距離と検知精度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the distance and the detection accuracy by an embodiment. 物体認識装置300を利用した第2実施形態の車両システム2の構成図である。It is a block diagram of the vehicle system 2 of the 2nd Embodiment using the object recognition apparatus 300.

以下、図面を参照し、本発明の物体認識装置、車両制御装置、物体認識方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the object recognition device, vehicle control device, object recognition method, and program of the present invention will be described with reference to the drawings.

<第1実施形態>
[車両の全体構成]
図1は、物体認識装置300を利用した第1実施形態の車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
<First Embodiment>
[Overall configuration of vehicle]
FIG. 1 is a configuration diagram of a vehicle system 1 of a first embodiment using an object recognition device 300. The vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and the drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. When equipped with a motor, the motor operates using the power generated by the generator connected to the internal combustion engine or the discharge power of the secondary battery or the fuel cell.

車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置300と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。カメラ10とファインダ14は、それぞれ第1デバイス、第2デバイスの一例である。 The vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 300, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, a navigation device 50, and the like. It includes an MPU (Map Positioning Unit) 60, a driving controller 80, an automatic driving control device 100, a traveling driving force output device 200, a braking device 210, and a steering device 220. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added. The camera 10 and the finder 14 are examples of the first device and the second device, respectively.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). One or a plurality of cameras 10 are attached to any position of the vehicle (hereinafter referred to as own vehicle M) on which the vehicle system 1 is mounted. When photographing the front, the camera 10 is attached to the upper part of the front windshield, the back surface of the rear-view mirror, and the like. The camera 10 periodically and repeatedly images the periphery of the own vehicle M, for example. The camera 10 may be a stereo camera.

レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the own vehicle M, and also detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object. One or a plurality of radar devices 12 may be attached to any position of the own vehicle M. The radar device 12 may detect the position and velocity of the object by the FM-CW (Frequency Modulated Continuous Wave) method.

ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。ファインダ14は、例えば、水平方向に角度をずらしながら光を照射して散乱光を測定する。そして、ファインダ14は、散乱光を発した反射点の情報を、その時点の照射角度と対応付けて物体認識装置300に出力する。 The finder 14 is a LIDAR (Light Detection and Ranging). The finder 14 irradiates the periphery of the own vehicle M with light and measures the scattered light. The finder 14 detects the distance to the target based on the time from light emission to light reception. The emitted light is, for example, a pulsed laser beam. One or a plurality of finder 14s may be attached to any position of the own vehicle M. The finder 14 measures scattered light by irradiating it with light while shifting the angle in the horizontal direction, for example. Then, the finder 14 outputs the information of the reflection point that emitted the scattered light to the object recognition device 300 in association with the irradiation angle at that time.

物体認識装置300は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置300は、認識結果を自動運転制御装置100に出力する。また、物体認識装置300は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。物体認識装置300の詳細については後述する。 The object recognition device 300 performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the finder 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 300 outputs the recognition result to the automatic operation control device 100. Further, the object recognition device 300 may output the detection results of the camera 10, the radar device 12, and the finder 14 to the automatic driving control device 100 as they are, if necessary. The details of the object recognition device 300 will be described later.

通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with another vehicle existing in the vicinity of the own vehicle M by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wirelessly. Communicates with various server devices via the base station.

HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupants of the own vehicle M and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the own vehicle M, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the own vehicle M, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53, and the first map information 54 is stored in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Holds. The GNSS receiver 51 identifies the position of the own vehicle M based on the signal received from the GNSS satellite. The position of the own vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53, for example, has a route from the position of the own vehicle M (or an arbitrary position input) specified by the GNSS receiver 51 to the destination input by the occupant using the navigation HMI 52 (hereinafter,). The route on the map) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The map route determined by the route determination unit 53 is output to the MPU 60. Further, the navigation device 50 may perform route guidance using the navigation HMI 52 based on the route on the map determined by the route determination unit 53. The navigation device 50 may be realized by the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant, for example. Further, the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire the route on the map returned from the navigation server.

MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 functions as, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route provided by the navigation device 50 into a plurality of blocks (for example, divides the route into 100 [m] units with respect to the vehicle traveling direction), and refers to the second map information 62 for each block. Determine the recommended lane. The recommended lane determination unit 61 determines the recommended lane so that the own vehicle M can travel on a reasonable route to proceed to the branch destination when a branch point, a merging point, or the like exists in the route.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。 The second map information 62 is map information with higher accuracy than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by accessing another device using the communication device 20.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation controller 80, and the detection result is the automatic operation control device 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to a part or all of 220.

自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。物体認識装置300と自動運転制御装置100を合わせたものは、車両制御装置の一例である。なお、物体認識装置300が自動運転制御装置100の一機能であってもよい。 The automatic operation control device 100 includes, for example, a first control unit 120 and a second control unit 160. The first control unit 120 and the second control unit 160 are each realized by executing a program (software) by a hardware processor such as a CPU (Central Processing Unit). In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part; including circuitry), or it may be realized by the cooperation of software and hardware. The combination of the object recognition device 300 and the automatic driving control device 100 is an example of a vehicle control device. The object recognition device 300 may be a function of the automatic driving control device 100.

図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、走行軌跡予測部140と、行動計画生成部150とを備える。 FIG. 2 is a functional configuration diagram of the first control unit 120 and the second control unit 160. The first control unit 120 includes, for example, a recognition unit 130, a travel locus prediction unit 140, and an action plan generation unit 150.

認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置300を介して入力される情報に基づいて、自車両Mの周辺状況を認識する。認識部により認識される周辺状況には、種々の物体が含まれる。物体の位置は、例えば、まず自車両Mの代表点(センサ位置や重心、駆動軸中心など)を原点とした絶対座標上の位置として認識され、必要に応じて道路に沿った道路座標上の位置に変換されて制御に使用される。本実施形態において、認識部130は、物体に関する情報(物体情報)を専ら物体認識装置300から取得するものとする。 The recognition unit 130 recognizes the surrounding situation of the own vehicle M based on the information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 300. The peripheral situation recognized by the recognition unit includes various objects. For example, the position of the object is first recognized as a position on absolute coordinates with the representative point of the own vehicle M (sensor position, center of gravity, center of drive axis, etc.) as the origin, and if necessary, on the road coordinates along the road. It is converted to a position and used for control. In the present embodiment, the recognition unit 130 shall exclusively acquire information about the object (object information) from the object recognition device 300.

認識部130により認識される周辺状況は、道路構造や他車両の他、自車両Mと走行車線との相対位置や姿勢、自転車や歩行者の状態、一時停止線、障害物、赤信号、料金所などの道路事象、その他の情報を含んでよい。認識部130による認識結果は、走行軌跡予測部140と行動計画生成部150とに出力される。 The surrounding conditions recognized by the recognition unit 130 include the road structure, other vehicles, the relative position and posture of the own vehicle M and the traveling lane, the state of bicycles and pedestrians, temporary stop lines, obstacles, red lights, and tolls. It may include road events such as places and other information. The recognition result by the recognition unit 130 is output to the travel locus prediction unit 140 and the action plan generation unit 150.

行動計画生成部150は、原則的には推奨車線決定部61により決定された推奨車線を走行し、その上で、物体認識装置300または認識部130により認識された物体に接触しないように、自車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、複数の軌道点と、速度要素とを含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 In principle, the action plan generation unit 150 travels in the recommended lane determined by the recommended lane determination unit 61, and on top of that, does not come into contact with the object recognized by the object recognition device 300 or the recognition unit 130. Generate a target track on which the vehicle M will travel in the future. The target trajectory includes, for example, a plurality of trajectory points and a velocity element. For example, the target track is expressed as an arrangement of points (track points) to be reached by the own vehicle M in order. The track point is a point to be reached by the own vehicle M for each predetermined mileage (for example, about several [m]) along the road, and separately, for a predetermined sampling time (for example, about 0 comma number [sec]). ) Target velocity and target acceleration are generated as part of the target trajectory. Further, the track point may be a position to be reached by the own vehicle M at the sampling time for each predetermined sampling time. In this case, the information of the target velocity and the target acceleration is expressed by the interval of the orbital points.

第2制御部160は、行動計画生成部150によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。第2制御部160は、例えば、行動計画生成部150により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させ、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。また、第2制御部160は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。このように、行動計画生成部150が、速度要素が付随した目標軌道を決定することで、自車両Mの加減速と操舵の双方が制御されることになる。 The second control unit 160 sets the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the own vehicle M passes the target trajectory generated by the action plan generation unit 150 at the scheduled time. Control. The second control unit 160 acquires, for example, information on the target trajectory (orbit point) generated by the action plan generation unit 150, stores it in a memory (not shown), and stores the speed associated with the target trajectory stored in the memory. The traveling driving force output device 200 or the braking device 210 is controlled based on the elements. Further, the second control unit 160 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory. In this way, the action plan generation unit 150 determines the target trajectory to which the speed element is attached, so that both acceleration / deceleration and steering of the own vehicle M are controlled.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for the vehicle to travel to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, a motor, a transmission, and the like, and an ECU that controls them. The ECU controls the above configuration according to the information input from the second control unit 160 or the information input from the operation controller 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder as a backup. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to the information input from the second control unit 160 to transmit the hydraulic pressure of the master cylinder to the cylinder. May be good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, exerts a force on the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80, and changes the direction of the steering wheel.

[物体認識装置、およびこれと関連する制御]
図2は、物体認識装置300の構成図である。物体認識装置300は、例えば、第1処理部310と、第2処理部320と、第1統合認識部330と、第2統合認識部340とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの機能部は、単一のプロセッサにより実現される必要はなく、複数のプロセッサにより分散処理が行われることで実現されてもよい。
[Object recognition device and related controls]
FIG. 2 is a block diagram of the object recognition device 300. The object recognition device 300 includes, for example, a first processing unit 310, a second processing unit 320, a first integrated recognition unit 330, and a second integrated recognition unit 340. These components are realized by, for example, a hardware processor such as a CPU executing a program (software). Further, some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (circuit unit; including circuitry), or realized by collaboration between software and hardware. May be done. Further, these functional units do not have to be realized by a single processor, and may be realized by performing distributed processing by a plurality of processors.

第1処理部310は、例えば、カメラ10により撮像された画像を解析し、物体情報を生成して出力する。すなわち、第1処理部310は、いわゆる画像解析部として機能する。第1処理部310は、画像内で輪郭を抽出してパターンマッチングを行うことで物体情報を生成してもよいし、ディープラーニング等で学習された分類器を用いて物体情報を生成してもよい。第1処理部310が行う処理には、少なくとも、処理Aと、処理Aよりも工数が多い処理Bとが含まれる。 The first processing unit 310 analyzes, for example, an image captured by the camera 10 to generate and output object information. That is, the first processing unit 310 functions as a so-called image analysis unit. The first processing unit 310 may generate object information by extracting contours in an image and performing pattern matching, or may generate object information using a classifier learned by deep learning or the like. good. The process performed by the first process unit 310 includes at least process A and process B which requires more man-hours than process A.

処理Aは、例えば、kフレーム分の画像に基づいて、撮像された画像に映された物体の距離、高さ、およびサイズを導出し(取得し)、導出した内容を物体情報として出力する処理である。例えば、kは1である。 Process A is, for example, a process of deriving (acquiring) the distance, height, and size of an object projected on the captured image based on an image for k frames, and outputting the derived contents as object information. Is. For example, k is 1.

処理Bは、例えば、nフレーム分の画像に基づいて、撮像された画像に映された物体の距離、高さ、およびサイズを導出する(取得する)処理と、物体をオブジェクト化する処理と、オブジェクト化した内容を物体情報として出力する処理とを含む。例えば、nは2以上の自然数である。k<nの関係が成立するのであれば、kとnは任意の自然数であってよい。オブジェクト化とは、複数フレームに基づく処理によって導出される物体の距離や速度に基づいて、物体の種別(四輪車両、二輪車、自転車、歩行者、落下物など)を推定し、推定結果を物体の距離、高さ、およびサイズ等に対応付ける処理である。物体の速度に関しては、相対速度から自車両Mの速度を差し引いて求める必要があるが、物体認識装置300は、例えば自動運転制御装置100から自車両Mの速度を取得し、取得した情報を演算に用いる。処理Bは、カルマンフィルタなどによる近似処理を含んでもよい。 Process B includes, for example, a process of deriving (acquiring) the distance, height, and size of an object projected on the captured image based on n frames of images, and a process of converting the object into an object. Includes processing to output the objectified contents as object information. For example, n is a natural number of 2 or more. As long as the relationship of k <n holds, k and n may be arbitrary natural numbers. Objectification estimates the type of object (four-wheeled vehicle, two-wheeled vehicle, bicycle, pedestrian, falling object, etc.) based on the distance and speed of the object derived by processing based on multiple frames, and the estimation result is the object. It is a process to correspond to the distance, height, size, etc. of Regarding the speed of the object, it is necessary to subtract the speed of the own vehicle M from the relative speed, but the object recognition device 300 acquires the speed of the own vehicle M from, for example, the automatic driving control device 100, and calculates the acquired information. Used for. Process B may include approximation processing by a Kalman filter or the like.

第2処理部320は、例えば、ファインダ14により出力された検出結果を加工し、加工した情報に基づいて物体情報を生成して出力する。第2処理部320が行う処理には、少なくとも、処理Cと、処理Cよりも工数が多い処理Dとが含まれる。 The second processing unit 320 processes the detection result output by the finder 14, for example, and generates and outputs the object information based on the processed information. The process performed by the second processing unit 320 includes at least the process C and the process D which requires more man-hours than the process C.

処理Cは、例えば、ファインダ14により出力された検出結果に基づいて物体との距離(および方位)を取得し、物体情報として出力する処理である。 The process C is, for example, a process of acquiring a distance (and a direction) from an object based on a detection result output by the finder 14 and outputting it as object information.

処理Dは、例えば、ファインダ14により出力された検出結果に基づいて物体との距離(および方位)とサイズを取得する処理と、物体をオブジェクト化する処理と、オブジェクト化した内容を物体情報として出力する処理とを含む。前述したように、ファインダ14は光の照射方向を変えながら動作するように制御されているため、例えば、同程度の距離にある反射点が照射角度θ1~θ2の間に並んでいる場合、その距離に角度差の絶対値|θ2-θ1|を乗算することで、近似的に物体の横方向のサイズを得ることができる。処理Dは、そのような処理を含む。処理Dは、カルマンフィルタなどによる近似処理を含んでもよい。オブジェクト化については処理Bと同様である。 The process D is, for example, a process of acquiring the distance (and direction) and the size of the object based on the detection result output by the finder 14, a process of converting the object into an object, and an output of the objectified contents as object information. Including processing to do. As described above, since the finder 14 is controlled to operate while changing the irradiation direction of light, for example, when reflection points at the same distance are lined up between the irradiation angles θ1 and θ2, the finder 14 is controlled. By multiplying the distance by the absolute value of the angle difference | θ2-θ1 |, the lateral size of the object can be approximately obtained. Process D includes such a process. The process D may include an approximation process using a Kalman filter or the like. The objectification is the same as that of process B.

処理Aの結果である物体情報(以下、物体情報A)と、処理Cの結果である物体情報(以下、物体情報C)は、第1統合認識部330に出力される。「出力」とは便宜的な表現であり、出力元から出力先への物理的な「送信」を伴う動作を指すものであってもよいし、出力先がアクセス可能なメモリの領域に書き込む動作を指すものであってもよい。 The object information (hereinafter, object information A) that is the result of the process A and the object information (hereinafter, the object information C) that is the result of the process C are output to the first integrated recognition unit 330. "Output" is a convenient expression and may refer to an operation involving physical "transmission" from the output source to the output destination, or an operation of writing to an area of memory accessible to the output destination. It may point to.

第1統合認識部330は、物体情報Aと物体情報Cとに基づいて、物体を認識する。第1統合認識部330による認識結果(第1統合認識結果)は、速報的な情報として自動運転制御装置100に出力される。第1統合認識部330は、物体情報Aに含まれる物体との距離と、物体情報Cに含まれる物体との距離の差が所定範囲内である場合に、それらの距離に物体が存在すると認識する。すなわち、第1処理部310によって、カメラ10からの1フレーム分の画像における所定距離X1の位置に何らかの物体が存在すると判定され、第2処理部320によって、ファインダ14の出力が、所定距離X1に近い位置に物体が存在することを示唆している場合、第1統合認識部330は、所定距離X1の位置に物体が存在することを示す第1統合認識結果を生成して自動運転制御装置100に出力する。 The first integrated recognition unit 330 recognizes an object based on the object information A and the object information C. The recognition result (first integrated recognition result) by the first integrated recognition unit 330 is output to the automatic driving control device 100 as breaking news information. When the difference between the distance to the object included in the object information A and the distance to the object included in the object information C is within a predetermined range, the first integrated recognition unit 330 recognizes that the object exists at those distances. do. That is, the first processing unit 310 determines that some object exists at a predetermined distance X1 in the image for one frame from the camera 10, and the second processing unit 320 outputs the finder 14 to the predetermined distance X1. When suggesting that an object exists at a close position, the first integrated recognition unit 330 generates a first integrated recognition result indicating that the object exists at a position of a predetermined distance X1 and generates an automatic operation control device 100. Output to.

処理Bの結果である物体情報(以下、物体情報B)と、処理Dの結果である物体情報(以下、物体情報D)は、第2統合認識部340に出力される。 The object information (hereinafter, object information B) that is the result of the process B and the object information (hereinafter, the object information D) that is the result of the process D are output to the second integrated recognition unit 340.

第2統合認識部340は、物体情報Bと物体情報Dとに基づいて、物体を認識する。第2統合認識部340による認識結果(第2統合認識結果)は、第1統合認識部330の認識結果よりも信頼度の高い情報として自動運転制御装置100に出力される。第2統合認識部340は、物体Bと物体Dの双方に含まれるオブジェクト化された情報が許容範囲内で合致し、且つ物体の種別が一致する場合に、物体Bと物体Dの一致部分によって示される位置に、推定された種別の物体が存在すると認識し、認識結果を自動運転制御部100に出力する。例えば、第1処理部310によって、カメラ10からの複数フレーム分の画像における所定距離X2の位置に「車両」が存在すると判定され、第2処理部320によって、ファインダ14の出力が、所定距離X2に近い位置に「車両」が存在することを示唆している場合(例えば、物体情報に含まれる物体のサイズが、車両の横方向のサイズに合致し、且つその物体が徒歩では困難な速度で移動している場合)、第2統合認識部340は、所定距離X2の位置に「車両」が存在することを示す第2統合認識結果を生成して自動運転制御装置100に出力する。 The second integrated recognition unit 340 recognizes an object based on the object information B and the object information D. The recognition result by the second integrated recognition unit 340 (second integrated recognition result) is output to the automatic operation control device 100 as information having higher reliability than the recognition result of the first integrated recognition unit 330. The second integrated recognition unit 340 uses the matching portion of the object B and the object D when the objectified information contained in both the object B and the object D matches within the permissible range and the types of the objects match. It recognizes that an object of the estimated type exists at the indicated position, and outputs the recognition result to the automatic operation control unit 100. For example, the first processing unit 310 determines that the "vehicle" exists at the position of the predetermined distance X2 in the images for a plurality of frames from the camera 10, and the second processing unit 320 outputs the output of the finder 14 to the predetermined distance X2. If it suggests that a "vehicle" is located close to (for example, the size of the object contained in the object information matches the lateral size of the vehicle, and the object is at a speed that is difficult to walk on foot). (When moving), the second integrated recognition unit 340 generates a second integrated recognition result indicating that a "vehicle" exists at a position of a predetermined distance X2, and outputs the second integrated recognition result to the automatic driving control device 100.

自動運転制御装置100では、例えば、行動計画生成部150が、第1統合認識結果と第2統合認識結果とのそれぞれに基づいて、各認識結果が示す物体に接触しないように、自車両Mが将来走行する目標軌道を生成して車両制御を行う(物体との位置関係を調節する)。 In the automatic driving control device 100, for example, the own vehicle M prevents the action plan generation unit 150 from coming into contact with the object indicated by each recognition result based on the first integrated recognition result and the second integrated recognition result. Generates a target track to be driven in the future and controls the vehicle (adjusts the positional relationship with the object).

このとき、行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第1統合認識結果を用いて物体との位置関係を調節する制御を行い、第2統合認識結果が得られた後は、第2統合認識結果の比率を第1統合認識結果よりも高くして物体との位置関係を調節する制御を行う。「比率を高くする」とは、第2統合認識結果の比率を100%、第1統合認識結果の比率を0%にすることを含む。 At this time, the action plan generation unit 150 controls to adjust the positional relationship with the object by using the first integrated recognition result from the time when the first integrated recognition result is obtained to the time when the second integrated recognition result is obtained. After the second integrated recognition result is obtained, the ratio of the second integrated recognition result is set higher than that of the first integrated recognition result to control the positional relationship with the object. "Increasing the ratio" includes setting the ratio of the second integrated recognition result to 100% and the ratio of the first integrated recognition result to 0%.

行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第2統合認識結果が得られた後に比して、制御程度を小さくする。「制御程度を小さくする」とは、走行駆動力出力装置200、ブレーキ装置210、またはステアリング装置220に与える制御の度合いを小さくすることである。行動計画生成部150は、制御の度合いを小さくする場合、ブレーキトルクや加速トルク、ステアリング操舵角の変化量などの制御量が小さくなるように目標軌道を生成してもよいし、制御の結果として現れる加速度や減速度、旋回角などの車両挙動が小さくなるように目標軌道を生成してもよい。 The action plan generation unit 150 reduces the degree of control between the time when the first integrated recognition result is obtained and the time when the second integrated recognition result is obtained, as compared with the time after the second integrated recognition result is obtained. "Reducing the degree of control" means reducing the degree of control given to the traveling driving force output device 200, the brake device 210, or the steering device 220. When the degree of control is reduced, the action plan generation unit 150 may generate a target trajectory so that the control amount such as the braking torque, the acceleration torque, and the change amount of the steering steering angle becomes small, or as a result of the control. The target track may be generated so that the vehicle behavior such as the appearing acceleration, deceleration, and turning angle becomes small.

上記の制御程度を小さくすることは、物体との位置関係に依存しない絶対的な指針であってもよいし、物体との位置関係に依存する相対的な指針であってもよい。前者の場合、例えば、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間のブレーキトルクの上限を、第2統合認識結果が得られた後のブレーキトルクの上限よりも小さくすることで、制御程度を小さくすることが実現される。後者の場合、例えば物体と自車両MとのTTC(Time To Collision)に逆比例する傾向でブレーキトルクを決定する際に、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間のブレーキトルクを計算するためのゲインを、第2統合認識結果が得られた後に比して小さくしてもよい。また、行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、例えば、「自車両Mの速度が上限速度を超えている場合に上限速度まで減速する」といった限定的な制御(予備減速)を行ってもよい。 Reducing the degree of control described above may be an absolute guideline that does not depend on the positional relationship with the object, or may be a relative guideline that depends on the positional relationship with the object. In the former case, for example, the upper limit of the brake torque between the time when the first integrated recognition result is obtained and the time when the second integrated recognition result is obtained is set from the upper limit of the brake torque after the second integrated recognition result is obtained. By reducing the torque, it is possible to reduce the degree of control. In the latter case, for example, when the brake torque is determined in a tendency to be inversely proportional to the TTC (Time To Collision) between the object and the own vehicle M, the first integrated recognition result is obtained and then the second integrated recognition result is obtained. The gain for calculating the brake torque up to is may be smaller than after the second integrated recognition result is obtained. Further, the action plan generation unit 150 is in the period from the acquisition of the first integrated recognition result to the acquisition of the second integrated recognition result, for example, "when the speed of the own vehicle M exceeds the upper limit speed, the upper limit speed is reached. Limited control (preliminary deceleration) such as "deceleration to" may be performed.

図3は、車両システム1が実行する処理によって生じる自車両Mの走行場面を例示した図である。図中、矢印Dは自車両Mの進行方向を表す。自車両Mの進行方向に関する前方には、障害物OBが存在する。デバイスの性能等によって実際の距離が変動するため、数値はあくまで一例であるが、例えば、障害物OBまで200[m]の地点で第1統合認識結果のみが得られ始める。これに応じて行動計画生成部150は、前述した予備制動などの制御を行う。また、例えば、障害物OBまで150[m]の地点で第2統合認識結果が得られ始める。これに応じて行動計画生成部150は、自車両Mと障害物OBとのTTCに応じた制動制御を行い、必要に応じて(例えば操舵による回避が不可であれば)自車両Mを停止させる。 FIG. 3 is a diagram illustrating a traveling scene of the own vehicle M caused by the processing executed by the vehicle system 1. In the figure, the arrow D indicates the traveling direction of the own vehicle M. An obstacle OB exists in front of the vehicle M in the traveling direction. Since the actual distance varies depending on the performance of the device and the like, the numerical value is only an example, but for example, only the first integrated recognition result starts to be obtained at the point 200 [m] up to the obstacle OB. In response to this, the action plan generation unit 150 performs control such as the preliminary braking described above. Further, for example, the second integrated recognition result begins to be obtained at a point 150 [m] up to the obstacle OB. In response to this, the action plan generation unit 150 performs braking control according to the TTC between the own vehicle M and the obstacle OB, and stops the own vehicle M as necessary (for example, if avoidance by steering is impossible). ..

[処理フロー]
図4は、第1処理部310により実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理では、例えば、カメラ10から1フレーム分の画像が入力される度に1ルーチンが実行される。
[Processing flow]
FIG. 4 is a flowchart showing an example of the flow of processing executed by the first processing unit 310. In the processing of this flowchart, for example, one routine is executed every time an image for one frame is input from the camera 10.

まず、第1処理部310は、カメラ10から入力された画像において処理対象とする対象領域を抽出する処理を行う(ステップS100)。対象領域は、画像の左右端部や上部を除いた領域であり、自車両Mの前方を撮像した領域である。 First, the first processing unit 310 performs a process of extracting a target area to be processed in the image input from the camera 10 (step S100). The target area is an area excluding the left and right edges and the upper part of the image, and is an area in which the front of the own vehicle M is imaged.

次に、第1処理部310は、対象領域において物体抽出処理を行う(ステップS102)。本ステップの処理の詳細は前述した通りである。そして、第1処理部310は、画像において物体を検知した(抽出した)か否かを判定する(ステップS104)。なお、ここでの物体は、例えば「画像において何ピクセル以上を占める」といった条件を満たすものに絞り込まれてよい。物体を検知しなかった場合、本フローチャートの1ルーチンの処理が終了する。 Next, the first processing unit 310 performs an object extraction process in the target region (step S102). The details of the processing in this step are as described above. Then, the first processing unit 310 determines whether or not the object is detected (extracted) in the image (step S104). The object here may be narrowed down to one that satisfies the condition such as "occupying more than a few pixels in the image". If no object is detected, the processing of one routine in this flowchart ends.

物体を検知した場合、第1処理部310は、前述した物体情報Aを生成して第1統合認識部330に出力する(ステップS106)。また、第1処理部310は、過去の直近のフレームと比較して、ステップS104で検知したと判定した物体と、過去に検知された物体との同定処理を行う(ステップS108)。この際に、第1処理部310は、物体の絶対速度やサイズを考慮して同定処理を行う。 When an object is detected, the first processing unit 310 generates the above-mentioned object information A and outputs it to the first integrated recognition unit 330 (step S106). In addition, the first processing unit 310 performs identification processing of the object determined to be detected in step S104 and the object detected in the past in comparison with the latest frame in the past (step S108). At this time, the first processing unit 310 performs the identification process in consideration of the absolute velocity and size of the object.

次に、第1処理部310は、ステップS108の処理結果を参照し、本フローチャートの処理が繰り返し実行される中で、同一の(と推定される)物体をm回連続で検知したか否かを判定する(ステップS110)。同一の物体をm回連続で検知したと判定した場合、第1処理部310は、物体情報Bを生成して第2統合認識部340に出力する(ステップS112)。 Next, the first processing unit 310 refers to the processing result of step S108, and whether or not the same (presumed) object is continuously detected m times while the processing of this flowchart is repeatedly executed. Is determined (step S110). When it is determined that the same object has been detected m times in a row, the first processing unit 310 generates the object information B and outputs it to the second integrated recognition unit 340 (step S112).

図5は、第2処理部320により実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理では、例えば、ファインダ14から反射点の情報が入力される度に1ルーチンが実行される。 FIG. 5 is a flowchart showing an example of the flow of processing executed by the second processing unit 320. In the processing of this flowchart, for example, one routine is executed every time the reflection point information is input from the finder 14.

まず、第2処理部320は、ファインダ14から入力された情報に対して領域限定処理を行う(ステップS200)。領域限定処理とは、路面上の領域以外で測定された反射点を除く処理である。 First, the second processing unit 320 performs area-limited processing on the information input from the finder 14 (step S200). The area limitation process is a process for removing reflection points measured in areas other than the area on the road surface.

次に、第2処理部320は、路上に反射点があったか否かを判定する(ステップS202)。路上に反射点があったと判定した場合、第2処理部320は、物体情報Cを生成して第1統合認識部330に出力する(ステップS204)。 Next, the second processing unit 320 determines whether or not there is a reflection point on the road (step S202). When it is determined that there is a reflection point on the road, the second processing unit 320 generates the object information C and outputs it to the first integrated recognition unit 330 (step S204).

また、第2処理部320は、略同一の距離にある反射点を端から端まで検知したか否かを判定する(ステップS206)。略同一の距離にある反射点を端から端まで検知した場合、第2処理部320は、物体情報Dを生成して第2統合認識部340に出力する(ステップS208)。 Further, the second processing unit 320 determines whether or not the reflection points at substantially the same distance are detected from end to end (step S206). When the reflection points at substantially the same distance are detected from end to end, the second processing unit 320 generates the object information D and outputs it to the second integrated recognition unit 340 (step S208).

図6は、第1統合認識部330により実行される処理の流れの一例を示すフローチャートである。まず、第1統合認識部330は、物体情報Aと物体情報Cが同期して(或いは所定時間以内に)入力されたか否かを判定する(ステップS300)。物体情報Aと物体情報Cが同期して入力された場合、第1統合認識部330は、両者が合致するか否かを判定する(ステップS302)。合致するとは、例えば、両者の項目のうち所定数以上が、許容範囲内の差異に収まっていることをいう、両者が合致する場合、第1統合認識部330は、第1統合認識情報を生成し(ステップS304)、自動運転制御装置100に出力する。 FIG. 6 is a flowchart showing an example of the flow of processing executed by the first integrated recognition unit 330. First, the first integrated recognition unit 330 determines whether or not the object information A and the object information C are input in synchronization (or within a predetermined time) (step S300). When the object information A and the object information C are input in synchronization, the first integrated recognition unit 330 determines whether or not they match (step S302). "Matching" means, for example, that a predetermined number or more of both items are within the allowable range. When both are matched, the first integrated recognition unit 330 generates the first integrated recognition information. (Step S304), the output is output to the automatic operation control device 100.

図7は、第2統合認識部340により実行される処理の流れの一例を示すフローチャートである。まず、第2統合認識部340は、物体情報Bと物体情報Dが同期して(或いは所定時間以内に)入力されたか否かを判定する(ステップS400)。物体情報Bと物体情報Dが同期して入力された場合、第2統合認識部340は、両者が合致するか否かを判定する(ステップS402)。両者が合致する場合、第2統合認識部340は、第2統合認識情報を生成し(ステップS404)、自動運転制御装置100に出力する。 FIG. 7 is a flowchart showing an example of the flow of processing executed by the second integrated recognition unit 340. First, the second integrated recognition unit 340 determines whether or not the object information B and the object information D are input in synchronization (or within a predetermined time) (step S400). When the object information B and the object information D are input in synchronization, the second integrated recognition unit 340 determines whether or not they match (step S402). When both are matched, the second integrated recognition unit 340 generates the second integrated recognition information (step S404) and outputs the second integrated recognition information to the automatic driving control device 100.

[まとめ]
以上説明した第1実施形態の物体認識装置300によれば、より迅速に速報的なセンサフュージョン結果を得ることができる。図8~10は、距離と検知精度との関係の一例を示す図である。これらの図は、道路上に10cm立方の障害物と、15cm立法の障害物とを置いた前提で、自車両Mと障害物との距離に応じた検知率を想定したものである。
[summary]
According to the object recognition device 300 of the first embodiment described above, it is possible to obtain a quick sensor fusion result more quickly. 8 to 10 are diagrams showing an example of the relationship between the distance and the detection accuracy. These figures assume a detection rate according to the distance between the own vehicle M and the obstacle on the premise that an obstacle of 10 cm cubic and an obstacle of 15 cm cubic are placed on the road.

図8は、カメラ10の出力に基づいて、第1処理部310がそれぞれのサイズの障害物を検知した確率である検知率を想定した結果を示している。ここでの「障害物を検知した」とは、「物体情報Bを生成した」ことをいう。また、図9は、ファインダ14の出力に基づいて、第2処理部320がそれぞれのサイズの障害物を検知した確率である検知率を想定した結果を示している。ここでの「障害物を検知した」とは、「物体情報Dを生成した」ことをいう。図8に示すように、特に10cm立方の障害物に関しては、距離が160m程度まで近づかないと、検知率が80%以上とならないことが想定される。また、図9に示すように、特に10cm立方の障害物に関しては、距離が180m程度まで近づかないと、そもそも物体情報Dが生成されないことが想定される。 FIG. 8 shows a result assuming a detection rate, which is the probability that the first processing unit 310 has detected an obstacle of each size based on the output of the camera 10. Here, "an obstacle is detected" means "an object information B is generated". Further, FIG. 9 shows a result assuming a detection rate which is a probability that the second processing unit 320 detects an obstacle of each size based on the output of the finder 14. Here, "an obstacle is detected" means "an object information D is generated". As shown in FIG. 8, especially for an obstacle of 10 cm cube, it is assumed that the detection rate does not reach 80% or more unless the distance is close to about 160 m. Further, as shown in FIG. 9, it is assumed that the object information D is not generated in the first place unless the distance is close to about 180 m, especially for an obstacle of 10 cm cube.

そして、物体情報Bと物体情報Dのアンドを求めることで生成される第2統合認識情報は、図8または図9に示す検知率の立ち上がりよりも更に遅れて立ち上がることになる。この結果、特に障害物との距離が150m以上の場合に、十分な情報を自動運転制御装置100に与えることができないことが予想される。 Then, the second integrated recognition information generated by obtaining the AND of the object information B and the object information D rises further later than the rise of the detection rate shown in FIG. 8 or 9. As a result, it is expected that sufficient information cannot be given to the automatic driving control device 100, especially when the distance to the obstacle is 150 m or more.

これに対し、図10は、実施形態による期待性能を示している。図10は、図8または図9よりも早いタイミングで生成開始される物体情報Aおよび物体情報Cに基づいて、第1統合認識部330により第1統合認識情報が生成される確率(生成率)の推移を示している。図示するように、本実施形態による第1統合認識情報の生成率は、距離が190m程度まで近づくと十分に100%に近づくことが期待される。このため、障害物との接近場面において、より早いタイミングで速報的なフュージョン結果を取得し、自動運転制御装置100に提供することができる。 On the other hand, FIG. 10 shows the expected performance according to the embodiment. FIG. 10 shows the probability (generation rate) that the first integrated recognition information is generated by the first integrated recognition unit 330 based on the object information A and the object information C that are started to be generated earlier than those in FIG. 8 or 9. Shows the transition of. As shown in the figure, the generation rate of the first integrated recognition information according to the present embodiment is expected to be sufficiently close to 100% when the distance is close to about 190 m. Therefore, in the approaching scene with an obstacle, it is possible to acquire a breaking fusion result at an earlier timing and provide it to the automatic driving control device 100.

なお、第1デバイス、第2デバイスの一例としてカメラ10とファインダ14を例示したが、これらのうち一方または双方は、レーダ装置12或いは他の物体認識デバイスであってもよい。 Although the camera 10 and the finder 14 are exemplified as examples of the first device and the second device, one or both of them may be the radar device 12 or the other object recognition device.

<第2実施形態>
以下、第2実施形態について説明する。図11は、物体認識装置300を利用した第2実施形態の車両システム2の構成図である。第1実施形態と共通する構成要素については、第1実施形態と共通する符号を付し、詳細な説明を省略する。第2実施形態において、物体認識装置300は、自動運転制御装置100に代えて、運転支援装置400に認識結果(第1統合認識結果、および第2統合認識結果)を出力する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. FIG. 11 is a configuration diagram of the vehicle system 2 of the second embodiment using the object recognition device 300. The components common to the first embodiment are designated by the same reference numerals as those of the first embodiment, and detailed description thereof will be omitted. In the second embodiment, the object recognition device 300 outputs the recognition result (first integrated recognition result and second integrated recognition result) to the driving support device 400 instead of the automatic driving control device 100.

運転支援装置400は、運転者による手動運転がなされている場合に、加減速や操舵の介入制御や、運転操作子80への反力出力などの、各種の運転支援制御を行う装置である。以下の説明では、運転支援装置400は、対障害物制動制御を行うものとする。運転支援装置400は、例えば、衝突可能性判定部402と、ブレーキ操作量導出部404と、ブレーキ量決定部406とを備える。これらの機能部は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの機能部は、単一のプロセッサにより実現される必要はなく、複数のプロセッサにより分散処理が行われることで実現されてもよい。 The driving support device 400 is a device that performs various driving support controls such as acceleration / deceleration, steering intervention control, and reaction force output to the driving controller 80 when the driver is manually driving. In the following description, it is assumed that the driving support device 400 performs anti-obstacle braking control. The driving support device 400 includes, for example, a collision possibility determination unit 402, a brake operation amount derivation unit 404, and a brake amount determination unit 406. These functional units are realized by, for example, a hardware processor such as a CPU executing a program (software). Further, some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (circuit unit; including circuitry), or realized by collaboration between software and hardware. May be done. Further, these functional units do not have to be realized by a single processor, and may be realized by performing distributed processing by a plurality of processors.

衝突可能性判定部402は、物体認識装置300の認識結果を参照し、自車両と物体との衝突可能性を判定する。例えば、衝突可能性判定部402は、自車両と物体との間のTTCを計算し、TTCが衝突判定閾値Tcolよりも小さい場合に、自車両と物体との衝突可能性があると判定する。 The collision possibility determination unit 402 refers to the recognition result of the object recognition device 300 and determines the collision possibility between the own vehicle and the object. For example, the collision possibility determination unit 402 calculates the TTC between the own vehicle and the object, and determines that there is a possibility of collision between the own vehicle and the object when the TTC is smaller than the collision determination threshold value Tcol.

ブレーキ操作量導出部404は、運転操作子80に含まれるブレーキ踏量センサの検出結果を参照し、自車両の乗員によりなされたブレーキ操作量(或いはその結果として出力されるブレーキ量)を導出する。 The brake operation amount derivation unit 404 refers to the detection result of the brake step sensor included in the driving controller 80, and derives the brake operation amount (or the brake amount output as a result) performed by the occupant of the own vehicle. ..

ブレーキ量決定部406は、まず、衝突可能性判定部402による判定結果、およびその処理の過程に基づいて、物体の存在に基づくブレーキ量(対物体ブレーキ量)を決定し、ブレーキ装置210に出力する。対物体ブレーキ量は、例えば、自車両と物体との間のTTCが小さい程大きくなるように決定される。なお、対物体ブレーキ量をブレーキ操作量導出部404により導出されたブレーキ操作量に基づくブレーキ量が上回る場合、ブレーキ量決定部406は、後者のブレーキ量をブレーキ装置220に出力してもよい。また、ブレーキ量決定部406は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第2統合認識結果が得られた後に比して、制御程度を小さくする。また、ブレーキ量決定部406は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、例えば、「自車両Mの速度が上限速度を超えている場合に上限速度まで減速する」といった限定的な制御(予備減速)を行ってもよい。 The brake amount determination unit 406 first determines the brake amount (object brake amount) based on the presence of an object based on the determination result by the collision possibility determination unit 402 and the processing process thereof, and outputs the brake amount to the brake device 210. do. The amount of anti-object braking is determined, for example, so that the smaller the TTC between the own vehicle and the object, the larger the amount. When the brake amount based on the brake operation amount derived by the brake operation amount extraction unit 404 exceeds the objective brake amount, the brake amount determination unit 406 may output the latter brake amount to the brake device 220. Further, the brake amount determination unit 406 reduces the degree of control between the time when the first integrated recognition result is obtained and the time when the second integrated recognition result is obtained, as compared with the time after the second integrated recognition result is obtained. .. Further, the brake amount determination unit 406 is in the period from the acquisition of the first integrated recognition result to the acquisition of the second integrated recognition result, for example, "when the speed of the own vehicle M exceeds the upper limit speed, the upper limit speed is reached. Limited control (preliminary deceleration) such as "deceleration to" may be performed.

以上説明した第2実施形態によれば、第1実施形態と同様の効果を奏することができる。 According to the second embodiment described above, the same effect as that of the first embodiment can be obtained.

上記実施形態は、以下のように表現することができる。
車両に搭載される物体認識装置であって、
プログラムを記憶した記憶装置と、
前記プログラムを実行可能なハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力し、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力し、
前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識し、
前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する、
ように構成されている物体認識装置。
The above embodiment can be expressed as follows.
An object recognition device mounted on a vehicle
A storage device that stores the program and
With a hardware processor capable of executing the program,
By executing the program, the hardware processor
Based on the output of the first device for recognizing an object, at least process A is performed to output the object information, and process B, which requires more man-hours than the process A, is performed to output the object information.
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. In addition to outputting information, processing D, which requires more man-hours than processing C, is performed to output object information.
The object is recognized based on the object information obtained as a result of the process A and the object information obtained as a result of the process C.
The object is recognized based on the object information obtained as a result of the process B and the object information obtained as a result of the process D.
An object recognition device configured as such.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

10 カメラ
12 レーダ装置
14 ファインダ
80 運転操作子
100 自動運転制御装置
300 物体認識装置
310 第1処理部
320 第2処理部
330 第1統合認識部
340 第2統合認識部
400 運転支援装置
10 Camera 12 Radar device 14 Finder 80 Driving controller 100 Automatic driving control device 300 Object recognition device 310 1st processing unit 320 2nd processing unit 330 1st integrated recognition unit 340 2nd integrated recognition unit 400 Driving support device

Claims (10)

車両に搭載される車両制御装置であって、
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力する第1処理部と、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力する第2処理部と、
前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識する第1統合認識部と、
前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する第2統合認識部と、
車両の速度と操舵角とのうち一方または双方を制御する運転制御部と、を備え、
前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第1統合認識部の認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識部による認識結果が得られた後は、前記第2統合認識部の認識結果の比率を前記第1統合認識部による認識結果よりも高くして前記物体との位置関係を調節する制御を行う、
車両制御装置
A vehicle control device mounted on a vehicle.
Based on the output of the first device for recognizing an object, at least the process A is performed to output the object information, and the process B, which requires more man-hours than the process A, is performed to output the object information. 1 processing unit and
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. A second processing unit that outputs information and outputs object information by performing processing D, which requires more man-hours than processing C, and
A first integrated recognition unit that recognizes an object based on the object information obtained as a result of the process A and the object information obtained as a result of the process C.
A second integrated recognition unit that recognizes an object based on the object information obtained as a result of the process B and the object information obtained as a result of the process D.
It is equipped with a driving control unit that controls one or both of the speed and steering angle of the vehicle.
The operation control unit controls to adjust the positional relationship with the object by using the recognition result of the first integrated recognition unit until the recognition result by the second integrated recognition unit is obtained, and the second After the recognition result by the integrated recognition unit is obtained, control is performed to adjust the positional relationship with the object by making the ratio of the recognition result of the second integrated recognition unit higher than the recognition result by the first integrated recognition unit. conduct,
Vehicle control device .
前記処理Aは、前記処理Bに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であり、
且つ/または、
前記処理Cは、前記処理Dに比して、前記第2デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理である、
請求項1記載の車両制御装置
The process A is a process executed for the output data with a smaller number of output cycles than the first device as compared with the process B.
And / or
The process C is a process executed for the output data with a smaller number of output cycles than the second device as compared with the process D.
The vehicle control device according to claim 1.
前記第1デバイスはカメラであり、
前記処理Aは、前処理Bに比して少ないフレーム数の画像に基づいて物体情報を生成する処理を含む、
請求項2記載の車両制御装置
The first device is a camera.
The process A includes a process of generating object information based on an image having a smaller number of frames than the preprocess B.
The vehicle control device according to claim 2.
前記処理Aは、前記処理Bに比して、少ない処理手順で実行される処理であり、
且つ/または、
前記処理Cは、前記処理Dに比して、少ない処理手順で実行される処理である、
請求項1記載の車両制御装置
The process A is a process executed with a smaller process procedure than the process B.
And / or
The process C is a process executed with a smaller process procedure than the process D.
The vehicle control device according to claim 1.
前記第2デバイスはLIDARであり、
前記処理Cは、前記LIDARと物体との距離を特定し、特定した距離を前記物体情報に含めて出力する処理を含む、
請求項4記載の車両制御装置
The second device is LIDAR.
The process C includes a process of specifying a distance between the LIDAR and an object, including the specified distance in the object information, and outputting the specified distance.
The vehicle control device according to claim 4.
前記処理Dは、前記距離および物体のサイズを特定し、特定した距離およびサイズを前記物体情報に含めて出力する処理を含む、
請求項5記載の車両制御装置
The process D includes a process of specifying the distance and the size of the object, and including the specified distance and the size in the object information and outputting the process.
The vehicle control device according to claim 5.
前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、制御程度を小さくする、
請求項1から6のうちいずれか1項記載の車両制御装置。
The operation control unit reduces the degree of control until the recognition result by the second integrated recognition unit is obtained, as compared with after the recognition result by the second integrated recognition unit is obtained.
The vehicle control device according to any one of claims 1 to 6 .
前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、前記物体との位置関係に対する相対的な制御程度を小さくする、
請求項1から7のうちいずれか1項記載の車両制御装置。
The operation control unit is relative to the positional relationship with the object until the recognition result by the second integrated recognition unit is obtained, as compared with after the recognition result by the second integrated recognition unit is obtained. Reduce the degree of control,
The vehicle control device according to any one of claims 1 to 7 .
車両に搭載される車両制御装置により実行される車両制御方法であって、
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力することと、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力することと、
前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識し第1統合認識結果を出力することと、
前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識し第2統合認識結果を出力することと、
車両の速度と操舵角とのうち一方または双方を制御することと、を備え、
前記制御することは、前記第2統合認識結果が得られるまでの間、前記第1統合認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識結果が得られた後は、前記第2統合認識結果の比率を前記第1統合認識結果よりも高くして前記物体との位置関係を調節する制御を行うことを含む、
車両制御方法
A vehicle control method executed by a vehicle control device mounted on a vehicle.
Based on the output of the first device for recognizing an object, at least process A is performed to output the object information, and process B, which requires more man-hours than the process A, is performed to output the object information. When,
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. In addition to outputting information, processing D, which requires more man-hours than processing C, is performed to output object information.
Recognizing an object based on the object information obtained by the process A and the object information obtained by the process C, and outputting the first integrated recognition result .
Recognizing an object based on the object information obtained by the process B and the object information obtained by the process D, and outputting the second integrated recognition result .
To control one or both of the vehicle's speed and steering angle,
The control is to control the positional relationship with the object by using the first integrated recognition result until the second integrated recognition result is obtained, and the second integrated recognition result is obtained. After that, the control including adjusting the positional relationship with the object by making the ratio of the second integrated recognition result higher than that of the first integrated recognition result is included.
Vehicle control method .
車両に搭載される車両制御装置のプロセッサにより実行されるプログラムであって、
前記プロセッサに、
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力させると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力させ、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力させると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力させ、
前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識し第1統合認識結果を出力させ、
前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識し第2統合認識結果を出力させ、
車両の速度と操舵角とのうち一方または双方を制御させ、
前記制御させることは、前記プロセッサに、前記第2統合認識結果が得られるまでの間、前記第1統合認識結果を用いて前記物体との位置関係を調節する制御を行わせ、前記第2統合認識結果が得られた後は、前記第2統合認識結果の比率を前記第1統合認識結果よりも高くして前記物体との位置関係を調節する制御を行わせることを含む、
プログラム。
A program executed by the processor of the vehicle control device mounted on the vehicle.
To the processor
Based on the output of the first device for recognizing an object, at least process A is performed to output the object information, and process B, which requires more man-hours than the process A, is performed to output the object information.
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. The information is output, and the object information is output by performing the process D, which requires more man-hours than the process C.
An object is recognized based on the object information obtained by the process A and the object information obtained by the process C, and the first integrated recognition result is output .
An object is recognized based on the object information obtained by the process B and the object information obtained by the process D, and the second integrated recognition result is output .
Control one or both of the vehicle speed and steering angle,
The control causes the processor to control the positional relationship with the object by using the first integrated recognition result until the second integrated recognition result is obtained, and the second integrated recognition result is obtained. After the recognition result is obtained, the ratio of the second integrated recognition result is made higher than that of the first integrated recognition result, and control for adjusting the positional relationship with the object is performed.
program.
JP2018148551A 2018-08-07 2018-08-07 Vehicle control devices, vehicle control methods, and programs Active JP7027279B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018148551A JP7027279B2 (en) 2018-08-07 2018-08-07 Vehicle control devices, vehicle control methods, and programs
CN201910715385.2A CN110816524B (en) 2018-08-07 2019-08-02 Vehicle control device, vehicle control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018148551A JP7027279B2 (en) 2018-08-07 2018-08-07 Vehicle control devices, vehicle control methods, and programs

Publications (2)

Publication Number Publication Date
JP2020024562A JP2020024562A (en) 2020-02-13
JP7027279B2 true JP7027279B2 (en) 2022-03-01

Family

ID=69547726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018148551A Active JP7027279B2 (en) 2018-08-07 2018-08-07 Vehicle control devices, vehicle control methods, and programs

Country Status (2)

Country Link
JP (1) JP7027279B2 (en)
CN (1) CN110816524B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112512887B (en) * 2020-07-21 2021-11-30 华为技术有限公司 Driving decision selection method and device
US20240071095A1 (en) 2020-12-28 2024-02-29 Hitachi Astemo, Ltd. Vehicle control system externality recognition device and vehicle control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008308024A (en) 2007-06-14 2008-12-25 Toyota Motor Corp Collision reducing device
JP2013114606A (en) 2011-11-30 2013-06-10 Hitachi Automotive Systems Ltd Object detection device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5870908B2 (en) * 2012-12-11 2016-03-01 株式会社デンソー Vehicle collision determination device
JP6190758B2 (en) * 2014-05-21 2017-08-30 本田技研工業株式会社 Object recognition device and vehicle
JP6558734B2 (en) * 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 Driving support method, driving support device, driving control device, vehicle, and driving support program using the same
US10160448B2 (en) * 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008308024A (en) 2007-06-14 2008-12-25 Toyota Motor Corp Collision reducing device
JP2013114606A (en) 2011-11-30 2013-06-10 Hitachi Automotive Systems Ltd Object detection device

Also Published As

Publication number Publication date
CN110816524A (en) 2020-02-21
CN110816524B (en) 2022-12-06
JP2020024562A (en) 2020-02-13

Similar Documents

Publication Publication Date Title
CN108688681B (en) Vehicle control system, vehicle control method, and medium storing vehicle control program
CN111771234B (en) Vehicle control system, vehicle control method, and storage medium
CN111201170B (en) Vehicle control device and vehicle control method
JPWO2018216194A1 (en) Vehicle control system and vehicle control method
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
CN111511621B (en) Vehicle control device, vehicle control method, and storage medium
JP7071250B2 (en) Vehicle control devices, vehicle control methods, and programs
JP7112374B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
US20200156645A1 (en) Vehicle control device, vehicle control method, and storage medium
CN109987082B (en) Vehicle control device, vehicle control method, and storage medium
CN112462751A (en) Vehicle control device, vehicle control method, and storage medium
US20220234599A1 (en) Vehicle control apparatus
JP7027279B2 (en) Vehicle control devices, vehicle control methods, and programs
US20220080967A1 (en) Vehicle control device, vehicle control method, and non-transitory computer readable storage medium
JP7225185B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP6994982B2 (en) Vehicle control systems, vehicle control methods, and programs
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
CN116513194A (en) Moving object control device, moving object control method, and storage medium
JP7028838B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP7012693B2 (en) Information processing equipment, vehicle systems, information processing methods, and programs
CN113479204A (en) Vehicle control device, vehicle control method, and storage medium
JP2022088857A (en) Vehicle control device, vehicle control method, and program
JP6796047B2 (en) Vehicle control devices, vehicle control methods, and programs
CN113511220B (en) Vehicle control device, vehicle control method, and storage medium
CN111717201B (en) Vehicle system, control method for vehicle system, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150