JP7279390B2 - electronic controller - Google Patents

electronic controller Download PDF

Info

Publication number
JP7279390B2
JP7279390B2 JP2019024395A JP2019024395A JP7279390B2 JP 7279390 B2 JP7279390 B2 JP 7279390B2 JP 2019024395 A JP2019024395 A JP 2019024395A JP 2019024395 A JP2019024395 A JP 2019024395A JP 7279390 B2 JP7279390 B2 JP 7279390B2
Authority
JP
Japan
Prior art keywords
vehicle
situation
unit
target object
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019024395A
Other languages
Japanese (ja)
Other versions
JP2020136755A (en
Inventor
泰斗 渡邉
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019024395A priority Critical patent/JP7279390B2/en
Publication of JP2020136755A publication Critical patent/JP2020136755A/en
Application granted granted Critical
Publication of JP7279390B2 publication Critical patent/JP7279390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、車両に搭載された電子制御装置に関する。 The present disclosure relates to an electronic control device mounted on a vehicle.

従来、車両に搭載されたカメラから該車両の周囲を撮像した撮像画像を取得し、撮像画像に基づいて車両の周囲の物体と車両との距離に関する出力を行う技術が知られている。
例えば、下記特許文献1には、車両後部からの距離を示す距離表示線を撮像画像に重ねて表示することによって、運転者に物体と車両との距離を把握させる技術が開示されている。
2. Description of the Related Art Conventionally, a technique is known in which a captured image of the surroundings of a vehicle is acquired from a camera mounted on the vehicle, and the distance between the vehicle and objects around the vehicle is output based on the captured image.
For example, Patent Literature 1 below discloses a technique for allowing the driver to grasp the distance between an object and the vehicle by superimposing a distance display line indicating the distance from the rear of the vehicle on the captured image.

特開2010-184604号公報JP 2010-184604 A

また例えば、運転者に物体と車両との距離を把握させる技術として、車両の周囲を撮像した撮像画像に基づいて鳥瞰図画像を生成し、該鳥瞰図画像を表示装置に表示する技術が知られている。 Further, for example, as a technique for allowing the driver to grasp the distance between an object and the vehicle, there is known a technique for generating a bird's-eye view image based on a captured image of the surroundings of the vehicle and displaying the bird's-eye view image on a display device. .

但し、鳥瞰図画像において、立体物は遠方に向けて拡大され、且つ、歪んだ表示となる。しかも、路面からの高さが大きいほど歪みも大きくなる。その結果、鳥瞰図画像において、立体物の表示が距離や形状等に関して誤認を生じさせる状況が生じ得る。 However, in the bird's-eye view image, the three-dimensional object is enlarged toward the distance and displayed distorted. Moreover, the greater the height from the road surface, the greater the distortion. As a result, in a bird's-eye view image, a situation may arise in which the display of a three-dimensional object causes misrecognition regarding distance, shape, and the like.

本開示の1つの局面は、鳥瞰図画像において立体物の表示が誤認を生じさせ得る状況において、誤認に基づく不都合を抑制できる技術を提供することにある。 One aspect of the present disclosure is to provide a technique capable of suppressing inconvenience due to misrecognition in a situation where display of a three-dimensional object in a bird's eye view image may cause misrecognition.

本開示の一態様は、車両に搭載される電子制御装置(30)であって、撮像画像取得部(35)と、鳥瞰図画像生成部(36、61)と、軌道推定部(37)と、状況判断部(38、S150、S160)と、出力部(38、S210)と、を備える。撮像画像取得部は、車両に搭載されたカメラから地面を含む車両の周囲が撮像された撮像画像を繰り返し取得する。鳥瞰図画像生成部は、撮像画像に基づいて、鳥瞰図画像を生成する。軌道推定部は、車両の軌道を予測する。 One aspect of the present disclosure is an electronic control device (30) mounted on a vehicle, comprising a captured image acquisition unit (35), a bird's eye view image generation unit (36, 61), a trajectory estimation unit (37), A situation determination unit (38, S150, S160) and an output unit (38, S210) are provided. The captured image acquisition unit repeatedly acquires a captured image of the surroundings of the vehicle including the ground from a camera mounted on the vehicle. The bird's eye view image generator generates a bird's eye view image based on the captured image. The trajectory estimator predicts the trajectory of the vehicle.

状況判断部は、軌道推定部にて予測された車両の軌道である予測軌道に存在する物体である対象物体について、鳥瞰図画像における対象物体の表示が注意状況であるか否かを判断するように構成される。出力部は、状況判断部にて注意状況であると判断された場合に、状況判断部による判断結果に基づく出力を行うように構成される。 The situation determination unit determines whether or not the target object, which is an object existing on the predicted trajectory of the vehicle predicted by the trajectory estimation unit, is displayed in the bird's-eye view image in a caution situation. Configured. The output unit is configured to perform an output based on the determination result of the situation determination unit when the situation determination unit determines that the situation is a caution situation.

注意状況は、例えば、鳥瞰図画像に基づく立体物の誤認が生じ得る状況をいう。
その結果、注意状況であるか否かの判断結果に基づく出力が行われるので、該出力に基づいて、例えば、鳥瞰図画像を見た運転者による誤認や、鳥瞰図画像の認識に基づく車両制御の誤り等といった、注意状況における誤認による不都合を抑制することができる。
The attention situation refers to, for example, a situation in which misidentification of a three-dimensional object based on a bird's-eye view image may occur.
As a result, an output is made based on the result of determination as to whether or not it is a caution situation. Based on this output, for example, a misrecognition by the driver looking at the bird's-eye view image or an error in vehicle control based on the recognition of the bird's-eye view image is performed. Inconvenience due to misidentification in caution situations can be suppressed.

運転支援装置の構成を示すブロック図。The block diagram which shows the structure of a driving assistance device. カメラの位置及びカメラによる撮影範囲を説明する説明図。FIG. 4 is an explanatory diagram for explaining the position of the camera and the imaging range of the camera; ECUの機能を説明する説明図。Explanatory drawing explaining the function of ECU. 撮像画像における特徴点を説明する説明図。Explanatory drawing explaining the feature point in a captured image. ステレオカメラによる距離の検出を説明する説明図。Explanatory drawing explaining the detection of the distance by a stereo camera. 接地点において推定距離と検出距離とが一致すること、を説明する説明図。FIG. 4 is an explanatory diagram for explaining that the estimated distance and the detected distance match at the grounding point; 軌道上に存在する物体、及び軌道上方に存在する物体を説明する説明図。Explanatory drawing explaining the object which exists on an orbit, and the object which exists above an orbit. 出力生成処理のフローチャート。4 is a flowchart of output generation processing; 非注意状況を説明する説明図。Explanatory drawing explaining a non-attentive situation. 注意状況を説明する説明図。Explanatory drawing explaining a caution situation. 近接非接地点を説明する説明図。Explanatory drawing explaining a proximity non-grounding point.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す運転支援装置1は、乗用車等の車両に搭載され、車両の運転者による運転を支援するための装置である。以下では、運転支援装置1が搭載された車両を自車両ともいう。運転支援装置1は、電子制御装置(以下、ECU)30を備える。運転支援装置1は、カメラ部10と、センサ群20と、報知制御装置40と、車両制御装置50と、距離検出装置70と、を備えていてもよい。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. composition]
A driving assistance device 1 shown in FIG. 1 is installed in a vehicle such as a passenger car, and is a device for assisting the driver of the vehicle in driving. Hereinafter, the vehicle equipped with the driving assistance device 1 is also referred to as the own vehicle. The driving support device 1 includes an electronic control unit (hereinafter referred to as ECU) 30 . The driving assistance device 1 may include a camera unit 10, a sensor group 20, a notification control device 40, a vehicle control device 50, and a distance detection device 70.

カメラ部10は、少なくとも1つのカメラを備える。本実施形態では、カメラ部10は、フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及びリアカメラ14を備える。各カメラ11-14は、CCDイメージセンサやCMOSイメージセンサを用いて構成される。 The camera section 10 has at least one camera. In this embodiment, the camera section 10 includes a front camera 11 , a left side camera 12 , a right side camera 13 and a rear camera 14 . Each camera 11-14 is configured using a CCD image sensor or a CMOS image sensor.

図2に示すように、フロントカメラ11は、車両前方の路面が撮影範囲101となるように、例えば、車両9前端のバンパーに設置される。左サイドカメラ12は、車両左側方の路面が撮影範囲102となるように、例えば、左側のサイドミラーに設置される。右サイドカメラ13は、車両右側方の路面が撮影範囲103となるように、例えば、右側のサイドミラーに設置される。リアカメラ14は、車両後方の路面が撮影範囲104となるように、例えば、車両9後端のバンパーに設置される。 As shown in FIG. 2 , the front camera 11 is installed, for example, on the bumper at the front end of the vehicle 9 so that the road surface in front of the vehicle becomes an imaging range 101 . The left side camera 12 is installed, for example, on the left side mirror so that the road surface on the left side of the vehicle becomes the shooting range 102 . The right side camera 13 is installed, for example, on the right side mirror so that the road surface on the right side of the vehicle becomes the shooting range 103 . The rear camera 14 is installed, for example, on the bumper at the rear end of the vehicle 9 so that the road surface behind the vehicle becomes the shooting range 104 .

各カメラ11-14は、予め設定された時間間隔で繰り返し撮影し、撮影した画像である撮像画像を、例えば専用線又はCAN等の車載バスを介してECU30へ出力する。CANは登録商標である。撮像画像は、カメラ部10すなわち各カメラ11-14によって撮像された画像であって、路面を含む車両9の周囲が撮像された画像である。 Each of the cameras 11-14 repeatedly captures images at preset time intervals, and outputs captured images, which are captured images, to the ECU 30 via, for example, a dedicated line or an in-vehicle bus such as CAN. CAN is a registered trademark. The captured image is an image captured by the camera unit 10, that is, each camera 11 to 14, and is an image of the surroundings of the vehicle 9 including the road surface.

図1に戻り説明を続ける。センサ群20は、車両情報を検出するための複数のセンサを備える。車両情報とは、センサ群20が備えるセンサによって検出される情報であって、車両9の走行に関する情報である。車両情報には、車速、操舵角、進行方向等といった情報が含まれ得る。複数のセンサは、検出結果である車両情報それぞれを、例えば専用線又はCAN等の車載バスを介してECU30へ出力する。 Returning to FIG. 1, the description continues. The sensor group 20 includes a plurality of sensors for detecting vehicle information. The vehicle information is information detected by the sensors included in the sensor group 20 and is information related to travel of the vehicle 9 . Vehicle information may include information such as vehicle speed, steering angle, direction of travel, and the like. A plurality of sensors output vehicle information, which is a detection result, to the ECU 30 via, for example, a dedicated line or an in-vehicle bus such as CAN.

センサ群20は、例えば、車速センサ21、操舵角センサ22、シフト検出センサ23等といったセンサを備え得る。車速センサ21は、車両9の速度を検出する。操舵角センサ22は、車両9の操舵角を検出する。シフト検出センサ23は、シフトレバーが後進に設定されている場合に、車両9の進行方向が後方であることを検出する。 The sensor group 20 can include sensors such as a vehicle speed sensor 21, a steering angle sensor 22, and a shift detection sensor 23, for example. A vehicle speed sensor 21 detects the speed of the vehicle 9 . A steering angle sensor 22 detects the steering angle of the vehicle 9 . The shift detection sensor 23 detects that the traveling direction of the vehicle 9 is backward when the shift lever is set to reverse.

報知制御装置40は、運転者への報知を行うための装置である。報知制御装置40は、CPU、ROM、RAM、及びフラッシュメモリ等の半導体メモリを備えたマイクロコンピュータ(以下、マイコン)41と、報知を実行する報知装置42とを備える。 The notification control device 40 is a device for notifying the driver. The notification control device 40 includes a microcomputer (hereinafter referred to as a microcomputer) 41 having a CPU, a ROM, a RAM, and a semiconductor memory such as a flash memory, and a notification device 42 that executes notification.

報知装置42は、画像を表示する表示装置43や音声を出力するスピーカ44を備える。表示装置43は、車室内において、運転席における運転者の視野の範囲内に配置される。表示装置43には、例えば、コンソールパネル等に設置される液晶ディスプレイや、ウィンドシールドを用いるヘッドアップティスプレイ等が含まれ得る。 The notification device 42 includes a display device 43 for displaying images and a speaker 44 for outputting sounds. The display device 43 is arranged within the range of the driver's field of vision in the driver's seat in the vehicle interior. The display device 43 may include, for example, a liquid crystal display installed on a console panel or the like, a head-up display using a windshield, or the like.

マイコン41は、ECU30から出力される画像信号を、表示装置43に出力する。これにより、ECU30から出力される画像が表示装置43に表示される。
スピーカ44は、車両9の室内に配置される。マイコン41は、ECU30から出力される音声出力信号に基づき、スピーカ44に音声を出力する。ここでいう音声出力信号とは、報知制御装置40を作動させる、きっかけとなる信号(以下、トリガ信号)である。なお、スピーカ44から出力される音声信号は、予め報知制御装置40に記憶された音声信号であってもよいし、ECU30から送信される音声信号であってもよい。
The microcomputer 41 outputs image signals output from the ECU 30 to the display device 43 . Thereby, the image output from the ECU 30 is displayed on the display device 43 .
The speaker 44 is arranged inside the vehicle 9 . The microcomputer 41 outputs sound to the speaker 44 based on the sound output signal output from the ECU 30 . The audio output signal here is a signal (hereinafter referred to as a trigger signal) that causes the notification control device 40 to operate. The audio signal output from the speaker 44 may be an audio signal stored in the notification control device 40 in advance, or may be an audio signal transmitted from the ECU 30 .

車両制御装置50は、車両9の各種制御を行うための装置である。車両制御装置50は、マイコン51と、制御実行装置52とを備える。制御実行装置52は、例えば、ブレーキやアクセル、ステアリング等、車両9の加減速や車両9の舵角等の制御を行うための装置やアクチュエータである。マイコン51は、ECU30からの出力信号に基づき、制御実行装置52の制御を行う。ここでいう出力信号とは、車両制御装置50を作動させる、トリガ信号である。 The vehicle control device 50 is a device for performing various controls on the vehicle 9 . The vehicle control device 50 includes a microcomputer 51 and a control execution device 52 . The control execution device 52 is, for example, a device or an actuator for controlling the acceleration/deceleration of the vehicle 9, the steering angle of the vehicle 9, such as a brake, an accelerator, or a steering wheel. The microcomputer 51 controls the control execution device 52 based on the output signal from the ECU 30 . The output signal here is a trigger signal that activates the vehicle control device 50 .

マイコン51は、例えば、ECU30からの出力信号に基づきブレーキを作動させたり、後述する予測軌道に従って車両9を移動させたりするために、駆動信号を生成する。駆動信号は、ブレーキ、アクセル、ステアリング等といった制御実行装置52を駆動させる信号である。マイコン51は、駆動信号を制御実行装置52へ出力する。 The microcomputer 51, for example, generates a drive signal for operating a brake based on an output signal from the ECU 30 and moving the vehicle 9 according to a predicted trajectory which will be described later. The drive signal is a signal for driving the control execution device 52 such as brake, accelerator, steering, and the like. The microcomputer 51 outputs drive signals to the control execution device 52 .

このようにして、マイコン51は、例えば走行時に、予測軌道に基づいて車両9を移動させるように、制御実行装置52を駆動させる。また、マイコン51は、例えば駐車スペース等に駐車するときに、予測軌道に基づいて車両9を移動させるように、制御実行装置52を駆動させる。 In this manner, the microcomputer 51 drives the control execution device 52 so as to move the vehicle 9 based on the predicted trajectory, for example, when traveling. Further, the microcomputer 51 drives the control execution device 52 so as to move the vehicle 9 based on the predicted trajectory when the vehicle is parked in a parking space or the like.

距離検出装置70は、本実施形態では、ステレオカメラである。ステレオカメラは、路面を含む車両9の前方を、予め定められた周期で繰り返し撮像し、撮像した画像を、例えば専用線又はCAN等の車載バスを介してECU30へ出力する。 The distance detection device 70 is a stereo camera in this embodiment. The stereo camera repeatedly images the front of the vehicle 9 including the road surface at a predetermined cycle, and outputs the captured images to the ECU 30 via, for example, a dedicated line or an in-vehicle bus such as CAN.

なお、運転支援装置1は、本実施形態では、カメラ部10とは別の構成として、距離検出装置70としてのステレオカメラを備えているが、これに限定されるものではない。カメラ部10が備えるカメラが、距離検出装置70としてのステレオカメラを兼ねるように構成されてもよい。距離検出装置70としてのステレオカメラは、複数のカメラを用いるものであってもよいし、1つのカメラを用いるものであってもよい。1つのカメラを用いる場合、ステレオカメラは、該1つのカメラによって車両の移動とともに撮像された2枚の撮像画像に基づいて三角測量を行うものであってもよい。また、距離検出装置70は、ステレオカメラに限定されるものではない。距離検出装置70は、例えば、ソナーや、レーダ装置等といった、物体との距離を検出可能な装置であればよい。 In this embodiment, the driving support device 1 includes a stereo camera as the distance detection device 70 as a separate configuration from the camera unit 10, but the present invention is not limited to this. A camera included in the camera unit 10 may be configured to also serve as a stereo camera as the distance detection device 70 . A stereo camera as the distance detection device 70 may use a plurality of cameras, or may use a single camera. When using one camera, the stereo camera may perform triangulation based on two captured images captured by the one camera as the vehicle moves. Moreover, the distance detection device 70 is not limited to a stereo camera. The distance detection device 70 may be any device capable of detecting the distance to an object, such as a sonar or radar device.

ECU30は、CPU31と、ROM33、RAM34、及びフラッシュメモリ等の半導体メモリ(以下、メモリ)32と、を有するマイコンを備える。ECU30が実現する各機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ32が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、ECU30は、1つのマイコンを備えてもよいし、複数のマイコンを備えてもよい。 The ECU 30 includes a microcomputer having a CPU 31, a ROM 33, a RAM 34, and a semiconductor memory (hereinafter referred to as memory) 32 such as a flash memory. Each function realized by the ECU 30 is realized by the CPU executing a program stored in a non-transitional substantive recording medium. In this example, the memory 32 corresponds to a non-transitional substantive recording medium storing programs. Also, by executing this program, a method corresponding to the program is executed. The ECU 30 may have one microcomputer or may have a plurality of microcomputers.

ECU30は、図3に示すように、信号入力部35、画像処理部36、軌道推定部37、及び出力生成部38、を備える。また、画像処理部36は、鳥瞰変換部61、距離推定部62、物体検出部63、接地点推定部64、及び非接地部分推定部65、を備える。 The ECU 30 includes a signal input section 35, an image processing section 36, a trajectory estimation section 37, and an output generation section 38, as shown in FIG. The image processing unit 36 also includes a bird's-eye view conversion unit 61 , a distance estimation unit 62 , an object detection unit 63 , a grounding point estimation unit 64 , and a non-grounding part estimation unit 65 .

これら各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。 The method of realizing the functions of these units is not limited to software, and some or all of the functions may be realized using one or more pieces of hardware. For example, when the above functions are realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.

信号入力部35は、カメラ11-14によって撮像された撮像画像を繰り返し取得して、画像処理部36に供給する。また、信号入力部35は、センサ群20や距離検出装置70によって検出された車速や操舵角等といった車両情報や検出結果等を取得して、これらを画像処理部36、軌道推定部37、及び出力生成部38に供給する。 The signal input unit 35 repeatedly acquires captured images captured by the cameras 11 to 14 and supplies them to the image processing unit 36 . In addition, the signal input unit 35 acquires vehicle information such as vehicle speed and steering angle detected by the sensor group 20 and the distance detection device 70, detection results, etc. It is supplied to the output generator 38 .

鳥瞰変換部61は、鳥瞰図画像を生成する。ここでいう鳥瞰図画像とは、カメラ部10による撮像画像を車両9の上方の視点からの画像に変換したものである。具体的には、鳥瞰変換部61は、4つのカメラ11-14による撮像画像を、予め設定された仮想視点から見た鳥瞰図に変換して合成し、車両9の周囲を写した鳥瞰図画像を生成する。鳥瞰変換部61は、生成した鳥瞰図画像をメモリ32に記憶させる。 The bird's eye conversion unit 61 generates a bird's eye view image. The bird's-eye view image referred to here is an image obtained by converting an image captured by the camera unit 10 into an image from a viewpoint above the vehicle 9 . Specifically, the bird's-eye view conversion unit 61 converts the images captured by the four cameras 11 to 14 into a bird's-eye view viewed from a preset virtual viewpoint, synthesizes them, and generates a bird's-eye view image showing the surroundings of the vehicle 9. do. The bird's eye view conversion unit 61 stores the generated bird's eye view image in the memory 32 .

距離推定部62は、車両9の周囲に存在する物体について、カメラ部10による撮像画像に基づいて、車両9から特徴点迄の距離を推定する。ここでいう物体とは、有体物をいう。有体物には、例えば、歩行者や、他の車両や、ガードレール、柵、看板等といった各種構造物、ビル等といった各種建造物等が含まれ得る。ここでいう特徴点とは、撮像画像において物体の一部として判断される、少なくとも1つの画素である。距離推定部62は、パターンマッチングやシーン認識等といった技術を用いて、撮像画像から特徴点を検出する。 The distance estimating unit 62 estimates the distance from the vehicle 9 to the feature point of the object existing around the vehicle 9 based on the image captured by the camera unit 10 . The object here means a tangible object. The tangible objects may include, for example, pedestrians, other vehicles, various structures such as guardrails, fences, signboards, etc., and various structures such as buildings. The feature point here is at least one pixel that is determined as a part of the object in the captured image. The distance estimation unit 62 detects feature points from the captured image using techniques such as pattern matching and scene recognition.

例えば、特徴点は、他の車両の一部として判断される、少なくとも1つの画素であり得る。他の車両の一部には、タイヤやバンパ-やナンバープレート等が含まれ得る。また例えば、特徴点は、後述する図9に示すように、柵200の一部として判断される、少なくとも1つの画素であり得る。柵200の一部には、脚部210や本体部220等が含まれ得る。 For example, a feature point can be at least one pixel that is determined to be part of another vehicle. Other vehicle parts may include tires, bumpers, license plates, and the like. Also for example, the feature point may be at least one pixel determined to be part of the fence 200, as shown in FIG. 9 described below. A portion of the fence 200 may include legs 210, body 220, and the like.

距離推定部62は、撮像画像から推定した、車両9から特徴点までの実際の距離(以下、推定距離)をメモリ32に記録する。実際の距離とは、三次元空間における距離である。具体的には、距離推定部62は、例えば図4に示すように、撮像画像431の下端Dからの距離である画像距離と、実際の距離とを対応付けたテーブルを用いて、実際の距離(以下、推定距離)を特定する。該テーブルは、予めメモリ32に記憶されている。 The distance estimation unit 62 records in the memory 32 the actual distance (hereinafter referred to as the estimated distance) from the vehicle 9 to the feature point estimated from the captured image. A real distance is a distance in a three-dimensional space. Specifically, the distance estimating unit 62 uses a table that associates the image distance, which is the distance from the lower end D of the captured image 431, with the actual distance, as shown in FIG. (hereinafter, estimated distance). The table is stored in the memory 32 in advance.

テーブルでは、無限遠点P迄の画像距離Liと、物体Qの特徴点までの画像距離とに基づいて、各特徴点が路面に存在するものとして、無限遠点Pの実際の距離に対応する各特徴点の実際の距離が、推定距離として対応付けられている。 In the table, based on the image distance Li to the point at infinity P and the image distance to the feature point of the object Q, it is assumed that each feature point exists on the road surface, and the actual distance to the point at infinity P corresponds to The actual distance of each feature point is associated as the estimated distance.

例えば、物体Qの特徴点gaについては、画像距離Laに基づいて、特徴点gaが路面に存在するものとして、推定距離が算出される。物体Qの他の特徴点gbについても同様に、画像距離Lbに基づいて、特徴点gbが路面に存在するものとして、推定距離が算出される。 For example, for the feature point ga of the object Q, the estimated distance is calculated based on the image distance La assuming that the feature point ga exists on the road surface. Similarly, for other feature points gb of the object Q, the estimated distance is calculated based on the image distance Lb assuming that the feature point gb exists on the road surface.

また、距離推定部62は、撮像画像に基づいて、車両9から見た各特徴点の方位を推定する。距離推定部62は、各特徴点についての方位の推定結果を推定距離と共にメモリ32に記憶する。 Also, the distance estimation unit 62 estimates the direction of each feature point viewed from the vehicle 9 based on the captured image. The distance estimator 62 stores the result of estimating the direction of each feature point in the memory 32 together with the estimated distance.

本実施形態では、距離推定部62は、フロントカメラ11による撮像画像に基づいて、車両9の前方における物体の特徴点について、推定距離及び方位を推定する。また、距離推定部62は、リアカメラ14による撮像画像に基づいて、車両9の後方における物体の特徴点について、推定距離及び方位を推定する。 In this embodiment, the distance estimating section 62 estimates the estimated distance and direction of the feature point of the object in front of the vehicle 9 based on the image captured by the front camera 11 . Further, the distance estimating section 62 estimates the estimated distance and direction of the feature point of the object behind the vehicle 9 based on the image captured by the rear camera 14 .

但し、これに限定されるものではない。距離推定部62は、カメラ部10が備える各カメラによる撮像画像に基づいて、車両9の前方、後方、左方、右方等といった車両9の周囲において、物体の特徴点について推定距離及び方位を検出するように構成され得る。 However, it is not limited to this. The distance estimating unit 62 estimates the distance and orientation of the feature points of the object in the vicinity of the vehicle 9 such as the front, rear, left, right, etc. of the vehicle 9 based on images captured by each camera included in the camera unit 10. can be configured to detect.

図3に戻り説明を続ける。物体検出部63は、距離検出装置70の出力に基づいて、車両9から特徴点迄の実際の距離を検出する。本実施形態では、図5に示すように、距離検出装置70としてのステレオカメラによる画像を用いて、三角測量に基づいて、物体Qにおける各特徴点gc迄の距離Mを検出する。 Returning to FIG. 3, the description continues. The object detection section 63 detects the actual distance from the vehicle 9 to the feature point based on the output of the distance detection device 70 . In the present embodiment, as shown in FIG. 5, the distance M to each feature point gc on the object Q is detected based on triangulation using images from a stereo camera as the distance detection device 70 .

但し、これに限定されるものではない。距離検出装置70は、例えば、ソナーやレーダ装置等といった、車両9から特徴点までの実際の距離を検出できる装置であってもよい。つまり、物体検出部63は、カメラやソナーやレーダ装置等といった距離検出装置70からの出力に基づいて、車両9から特徴点迄の、実際の距離を検出するように構成され得る。 However, it is not limited to this. The distance detection device 70 may be, for example, a device capable of detecting the actual distance from the vehicle 9 to the feature point, such as a sonar or radar device. That is, the object detection unit 63 can be configured to detect the actual distance from the vehicle 9 to the feature point based on the output from the distance detection device 70 such as a camera, sonar, radar device, or the like.

以下では、距離検出装置70の出力に基づいて検出された、車両9から特徴点迄の実際の距離を、検出距離という。また、物体検出部63は、距離検出装置70の出力に基づいて、車両9から見た特徴点の方位を検出する。物体検出部63は、各特徴点についての検出距離及び方位の検出結果をメモリ32に記憶する。 Hereinafter, the actual distance from the vehicle 9 to the feature point, which is detected based on the output of the distance detection device 70, will be referred to as the detected distance. Also, the object detection unit 63 detects the orientation of the feature point viewed from the vehicle 9 based on the output of the distance detection device 70 . The object detection unit 63 stores in the memory 32 the detection results of the detection distance and orientation for each feature point.

図3に戻り説明を続ける。接地点推定部64は、特徴点のうちから接地点を推定する。接地点とは、特徴点のうち、接地している特徴点である。接地しているとは、路面上に存在することをいう。換言すれば、接地点は、路面に接している特徴点である。 Returning to FIG. 3, the description continues. The contact point estimator 64 estimates contact points from among the feature points. A grounding point is a feature point that is grounded among the feature points. Being on the ground means being on the road surface. In other words, the contact point is the feature point that is in contact with the road surface.

上述のように、各特徴点については、推定距離と検出距離とが算出されている。接地点推定部64は、距離推定部62によって検出された特徴点と、物体検出部63によって検出された特徴点とを対応づけ、対応付けられた特徴点それぞれについて、推定距離と検出距離とが一致するか否かを判断する。 As described above, the estimated distance and the detected distance are calculated for each feature point. The contact point estimating unit 64 associates the feature points detected by the distance estimating unit 62 with the feature points detected by the object detecting unit 63, and calculates the estimated distance and the detected distance for each of the associated feature points. Determine if they match.

特徴点の対応づけは、検出された方位や画像等に基づいて行われ得る。そして、接地点推定部64は、推定距離と検出距離とが一致する特徴点を接地点として推定する。接地点推定部64は、特徴点のうち接地点であると推定された特徴点については、接地点であることを表す情報をメモリ32に記憶する。 Correlation of feature points can be performed based on detected orientations, images, and the like. Then, the contact point estimating section 64 estimates a feature point where the estimated distance and the detected distance match as the contact point. The contact point estimator 64 stores in the memory 32 information indicating that the feature point estimated to be the contact point among the feature points is the contact point.

このような方法で接地点が推定される理由を、図6に基づいて説明する。図6に示す物体Qにおいて、特徴点301は接地点であり、特徴点302は非接地点である。非接地点とは、特徴点のうち接地していない特徴点をいう。 The reason why the grounding point is estimated by such a method will be described with reference to FIG. In the object Q shown in FIG. 6, a feature point 301 is a grounded point and a feature point 302 is a non-grounded point. A non-grounded point is a feature point that is not grounded among the feature points.

ここで、特徴点301については、カメラ部10及び距離検出装置70の観測点Rから特徴点迄の水平方向における距離(以下、水平距離)は、カメラ部10による検出結果及び距離検出装置70による検出結果のいずれもがLcである。つまり、接地点としての特徴点301については、推定距離及び検出距離が一致する。なお、ここでいう「一致」とは、厳密な意味での一致に限るものではなく、同様の効果を奏するのであれば厳密に一致でなくてもよい。 Here, regarding the feature point 301, the distance in the horizontal direction from the observation point R of the camera unit 10 and the distance detection device 70 to the feature point (hereinafter referred to as the horizontal distance) is the result of detection by the camera unit 10 and the distance detection device 70. All of the detection results are Lc. That is, the estimated distance and the detected distance are the same for the feature point 301 as the ground point. It should be noted that the term “match” here is not limited to match in a strict sense, and does not have to be a strict match as long as the same effect can be achieved.

一方、非接地点としての特徴点302については、カメラ部10による撮像画像では、観測点Rから特徴点迄の水平方向における距離が実際の特徴点302の位置よりも遠方の位置310に有るように観測される。このため、特徴点302については、推定距離であるLdが検出距離であるLcよりも大きい。つまり、非接地点としての特徴点302については、推定距離及び検出距離が一致しない。 On the other hand, regarding the feature point 302 as the non-grounding point, in the image captured by the camera unit 10, the distance in the horizontal direction from the observation point R to the feature point is at a position 310 farther than the actual position of the feature point 302. is observed. Therefore, for the feature point 302, the estimated distance Ld is larger than the detected distance Lc. That is, the estimated distance and the detected distance do not match for the feature point 302 as the non-grounded point.

このため、接地点推定部64は、推定距離と検出距離とが一致する特徴点を接地点として推定するのである。例えば、他の車両のタイヤの下端部における特徴点や、柵200の脚部210の下端部における特徴点等が、接地点として推定され得る。 For this reason, the contact point estimating section 64 estimates a feature point where the estimated distance and the detected distance match as the contact point. For example, a characteristic point at the lower end of the tire of another vehicle, a characteristic point at the lower end of the leg 210 of the fence 200, or the like can be estimated as the contact point.

非接地部分推定部65は、特徴点のうちから非接地点を推定する。非接地点は、上述のように、接地していない特徴点であり、路面の上方に存在する、宙に浮いている特徴点である。 The non-grounded portion estimation unit 65 estimates non-grounded points from among the feature points. A non-grounded point is a feature point that is not grounded as described above, and is a feature point that is present above the road surface and is floating in the air.

非接地部分推定部65は、上述のように、距離推定部62によって検出された特徴点と、物体検出部63によって検出された特徴点とを対応づけ、対応づけられた特徴点のうち、推定距離と検出距離とが一致しない特徴点を非接地点として推定する。非接地部分推定部65は、特徴点のうち非接地点であると推定された特徴点については、非接地点であることを表す情報をメモリ32に記憶する。 The non-grounded portion estimating unit 65 associates the feature points detected by the distance estimating unit 62 with the feature points detected by the object detecting unit 63, and selects the estimated feature points from the associated feature points. A feature point where the distance and the detected distance do not match is estimated as a non-grounded point. The non-grounded portion estimation unit 65 stores in the memory 32 information indicating that the feature points estimated to be the non-grounded points are the non-grounded points.

例えば、他の車両のバンパーやナンバープレートにおける特徴点や、柵200の本体部220における特徴点等が、非接地点として推定され得る。また、バンパーやナンバープレートや、柵200の本体部220等が、非接地部分に相当する。非接地部分とは、立体物の一部であって、接地点を含まず、非接地点のみを含む部分である。非接地部分は、接地しておらず、路面から宙に浮いている。 For example, characteristic points on bumpers and license plates of other vehicles, characteristic points on main body 220 of fence 200, and the like can be estimated as non-grounding points. Also, the bumper, the license plate, the body portion 220 of the fence 200, and the like correspond to the non-grounding portion. A non-grounded portion is a portion of a three-dimensional object that does not include a grounded point and includes only a non-grounded point. The non-grounded part is not grounded and is floating in the air from the road surface.

なお、検出物体の接地点、非接地点を推定する方法は、これに限定されるものではなく、種々の公知である方法が用いられ得る。
軌道推定部37は、センサ群20から出力される車両情報に基づいて、予測軌道を推定する。予測軌道とは、車両9がこれから進行すると予測される軌道である。例えば、軌道推定部37は、車速、操舵角、及び後進しているか否か、進行方向といった上述の車両情報に基づいて、予測軌道を推定する。軌道推定部37は、現時点から予め定められた予測期間後迄の予測軌道を推定する。予測時間は、例えば数秒-数十秒後に設定され得る。
Note that the method for estimating the grounding point and non-grounding point of the detected object is not limited to this, and various known methods can be used.
The trajectory estimation unit 37 estimates a predicted trajectory based on vehicle information output from the sensor group 20 . The predicted trajectory is a trajectory that the vehicle 9 is predicted to travel from now on. For example, the trajectory estimation unit 37 estimates the predicted trajectory based on the above-described vehicle information such as the vehicle speed, steering angle, whether the vehicle is moving in reverse, and the traveling direction. The trajectory estimator 37 estimates a predicted trajectory from the current time to the end of a predetermined prediction period. The prediction time can be set, for example, several seconds to several tens of seconds later.

軌道推定部37は、例えば駐車スペースに駐車するときのように、車両9を後進させる際に、予測軌道を推定してもよい。また、軌道推定部37は、車両9が前進する際に、予測軌道を推定してもよい。 The trajectory estimation unit 37 may estimate the predicted trajectory when the vehicle 9 is reversed, such as when parking in a parking space. Further, the trajectory estimation unit 37 may estimate the predicted trajectory when the vehicle 9 moves forward.

具体的には、後述する図9に示すように、予測軌道130とは、予測される車両9の軌道である。本実施形態では、予測軌道130は、予測される左タイヤの軌道110と予測される右タイヤの軌道120との間の予め定められた幅の帯状の領域である。予測軌道130の幅は、左右タイヤ間の幅と同じ幅に設定され得る。但し、これに限定されるものではない。予測軌道の幅は、左右タイヤ間の幅よりも狭い幅や、車幅と同じ幅や、車幅よりも所定幅だけ広い幅等、に設定され得る。 Specifically, as shown in FIG. 9 to be described later, the predicted trajectory 130 is the predicted trajectory of the vehicle 9 . In this embodiment, the predicted trajectory 130 is a band-like region of a predetermined width between the predicted left tire trajectory 110 and the predicted right tire trajectory 120 . The width of the predicted trajectory 130 can be set to the same width as the width between the left and right tires. However, it is not limited to this. The width of the predicted trajectory can be set to a width narrower than the width between the left and right tires, the same width as the vehicle width, or a width wider than the vehicle width by a predetermined width.

このようにして、軌道推定部37は、予測される左タイヤの軌道110、及び予測される右タイヤの軌道120のうち少なくとも一方に基づいて、現時点から予測期間後までの所定幅の予測軌道130を推定する。軌道推定部37は、推定した予測軌道の位置を、例えば、距離を用いた直交座標、又は方位と距離とを用いた極座標で表し、推定結果としてメモリ32に記憶させる。 In this way, the trajectory estimator 37 calculates the predicted trajectory 130 of a predetermined width from the current time point to the end of the prediction period based on at least one of the predicted left tire trajectory 110 and the predicted right tire trajectory 120 . to estimate The trajectory estimator 37 expresses the position of the estimated predicted trajectory, for example, in rectangular coordinates using distance or polar coordinates using azimuth and distance, and stores it in the memory 32 as an estimation result.

なお、予測軌道を推定する方法は、これに限定されるものではない。予測軌道を算出する方法は、種々の公知の方法が用いられ得る。
出力生成部38は、後述する出力生成処理を実行し、注意状況にあると判断された場合に、判断結果に基づく出力を行うように構成される。注意状況とは、例えば、鳥瞰図画像における立体物の表示が誤認を生じさせることが有り得る状況をいう。
Note that the method of estimating the predicted trajectory is not limited to this. Various known methods can be used to calculate the predicted trajectory.
The output generation unit 38 is configured to execute an output generation process, which will be described later, and to perform an output based on the determination result when it is determined that the attention state is present. The attention situation means, for example, a situation in which display of a three-dimensional object in a bird's-eye view image may cause misrecognition.

上述の注意状況と判断されたときとは、対象物体が注意状況にあるときに相当する。ここでいう対象物体とは、複数の特徴点によって表される物体であって、車両9の予測軌道に存在する物体をいう。「予測軌道に存在する」とは、予測軌道に接して存在すること、及び、予測軌道の上方に存在すること、の両方を含む。つまり、予測軌道に接する特徴点は、上述の対象物体に含まれる。また、予測軌道の上方に存在する特徴点も、上述の対象物体に含まれる。 When it is determined that the above-mentioned caution state is present corresponds to when the target object is in the caution state. The target object here is an object represented by a plurality of feature points and existing on the predicted trajectory of the vehicle 9 . "Existing on the predicted trajectory" includes both existing adjacent to the predicted trajectory and existing above the predicted trajectory. In other words, the feature points contacting the predicted trajectory are included in the target object described above. In addition, feature points existing above the predicted trajectory are also included in the above-described target object.

ここで、「予測軌道に接して存在する」とは、例えば図7に示す物体S1のように、「予測軌道上に存在する」ことであり、路面における予測軌道130に接して存在することをいう。例えば、他の車両におけるタイヤや、柵200における脚部210等が、「予測軌道に接して存在する」物体として挙げられる。 Here, "existing in contact with the predicted trajectory" means "existing on the predicted trajectory", such as the object S1 shown in FIG. say. For example, the tires of other vehicles, the legs 210 of the fence 200, and the like are examples of objects that "exist in contact with the predicted trajectory."

一方、「予測軌道の上方に存在する」とは、例えば図7に示す物体S2のように、路面における予測軌道130に接することなく、予測軌道の上方に、宙に浮いて、存在することをいう。例えば、他の車両におけるバンパーやナンバープレートや、柵200における本体部220等が、「予測軌道の上方に存在する」物体として挙げられる。 On the other hand, "existing above the predicted trajectory" means, for example, the object S2 shown in FIG. say. For example, the bumpers and license plates of other vehicles, the main body 220 of the fence 200, and the like are examples of objects that "exist above the predicted trajectory."

つまり、上述の例では、タイヤ、バンパー、ナンバープレートのそれぞれ、及び、これらを含む他の車両が対象物体に相当する。また、脚部210、本体部220のそれぞれ、及びこれらを含む柵200が対象物体に相当する。 That is, in the above example, each of tires, bumpers, license plates, and other vehicles including these correspond to target objects. Also, each of the leg portion 210 and the body portion 220, and the fence 200 including these correspond to the target object.

[2.処理]
次に、出力生成部38が実行する出力生成処理について、図8のフローチャートを用いて説明する。出力生成処理は、例えば数msec-数十msecといった、予め定められた周期で繰り返し実行される。
[2. process]
Next, output generation processing executed by the output generation unit 38 will be described using the flowchart of FIG. The output generation process is repeatedly executed at a predetermined cycle of, for example, several milliseconds to several tens of milliseconds.

出力生成部38は、はじめに、S100では、カメラ部10による撮像画像を取得する。
次に、出力生成部38は、S110では、鳥瞰変換部61にて生成された鳥瞰図画像を取得し、取得した鳥瞰図画像を表示装置43へ出力する。これにより、表示装置43に鳥瞰図画像が表示される。
First, in S100, the output generation unit 38 acquires an image captured by the camera unit 10. FIG.
Next, in S<b>110 , the output generation unit 38 acquires the bird's eye view image generated by the bird's eye conversion unit 61 and outputs the acquired bird's eye view image to the display device 43 . Thereby, the bird's-eye view image is displayed on the display device 43 .

続いて、出力生成部38は、S120では、センサ群20による各種検出結果である、車両情報を取得する。
次に、出力生成部38は、S130では、軌道推定部37による推定結果である、予測軌道の位置を取得する。
Subsequently, in S120, the output generator 38 acquires vehicle information, which is various detection results by the sensor group 20. FIG.
Next, in S<b>130 , the output generator 38 acquires the position of the predicted trajectory, which is the result of estimation by the trajectory estimator 37 .

続いて、出力生成部38は、S140では、画像処理部36による処理結果を取得する。処理結果には、距離推定部62によって推定された各特徴点の推定距離及び位置、物体検出部63によって検出された各特徴点の検出距離及び位置、特徴点のうち接地点であることを表す情報、特徴点のうち非接地点であることを表す情報、等が含まれ得る。 Subsequently, the output generation unit 38 acquires the processing result by the image processing unit 36 in S140. The processing results include the estimated distance and position of each feature point estimated by the distance estimating section 62, the detected distance and position of each feature point detected by the object detecting section 63, and the ground point among the feature points. Information, information indicating that feature points are non-grounded points, and the like may be included.

次に、出力生成部38は、S150では、非注意状況であるか否かを判断する。非注意状況とは、注意状況でない状況をいう。非注意状況では、鳥瞰図画像における立体物の表示が誤認を生じさせることが生じにくい。具体的には、出力生成部38は、少なくとも1つの接地点が予測軌道に接している場合に、非注意状況であると判断する。つまり、注意状況でないと判断する。該少なくとも1つの接地点は、対象物体に含まれる接地点である。接地点が予測軌道に接している場合、接地点が路面に表される予測軌道の範囲内に存在する。 Next, in S150, the output generator 38 determines whether or not the user is in a non-attentive state. A non-attentive situation refers to a situation that is not an attentive situation. In a non-attentive situation, display of a three-dimensional object in a bird's-eye view image is less likely to cause misrecognition. Specifically, the output generation unit 38 determines that the inattentive state is present when at least one contact point is in contact with the predicted trajectory. In other words, it is determined that it is not in a caution state. The at least one ground point is a ground point included in the target object. If the touchdown point is tangent to the predicted trajectory, then the touchdown point is within the predicted trajectory represented on the road surface.

ここでは、出力生成部38は、接地点推定部64によって推定された接地点が予測軌道に接している場合に、非注意状況であると判断する。また、出力生成部38は、接地点推定部64によって推定された接地点が予測軌道に接していない場合に、非注意状況でないと判断する。
例えば、図9では、柵200の脚部210に含まれる接地点211のうちの少なくとも1つが予測軌道130に接しているので、非注意状況である、と判断される。接地点については、カメラ部10による撮像画像が鳥瞰図画像に変換された際に車両9からの距離が正確に反映される。そのため、対象物体の接地点が予測軌道130に接している場合、該対象物体については誤認が生じ難いと考えられ、非注意状況と判断されるのである。
Here, the output generator 38 determines that the non-attentive state is present when the ground contact point estimated by the ground contact point estimating section 64 is in contact with the predicted trajectory. Also, the output generation unit 38 determines that the non-attentive state is not present when the ground contact point estimated by the ground contact point estimation unit 64 is not in contact with the predicted trajectory.
For example, in FIG. 9, at least one of the grounding points 211 included in the legs 210 of the fence 200 is in contact with the predicted trajectory 130, so it is determined that the situation is inattentive. As for the contact point, the distance from the vehicle 9 is accurately reflected when the image captured by the camera unit 10 is converted into the bird's-eye view image. Therefore, when the grounding point of the target object is in contact with the predicted trajectory 130, it is considered unlikely that the target object will be misidentified, and it is determined that the target object is in a non-attentive state.

ここで、出力生成部38は、非注意状況であると判断した場合に処理をS200へ移行させる。一方、出力生成部38は、非注意状況でないと判断した場合に処理をS160へ移行させる。
出力生成部38は、S160では、注意状況であるか否かを判断する。具体的には、出力生成部38は、上述の少なくとも1つの接地点が予測軌道に接していない場合に、注意状況であると判断する。接地点が予測軌道に接していないとは、接地点が路面に表される予測軌道の範囲外に存在すること、をいう。
Here, the output generation unit 38 shifts the process to S<b>200 when it is determined that the user is in a non-attentive state. On the other hand, the output generation unit 38 shifts the process to S160 when determining that the situation is not inattentive.
In S160, the output generation unit 38 determines whether or not it is a caution situation. Specifically, the output generation unit 38 determines that the caution situation is present when at least one ground contact point is not in contact with the predicted trajectory. The fact that the ground contact point is not in contact with the predicted trajectory means that the ground contact point exists outside the range of the predicted trajectory represented on the road surface.

本実施形態では、出力生成部38は、非接地部分推定部65によって推定された非接地点が予測軌道の上方に存在する場合に、注意状況であると判断する。予測軌道の上方に存在する非接地点を含む物体が、対象物体に相当する。 In the present embodiment, the output generator 38 determines that the caution situation is present when the non-grounded point estimated by the non-grounded portion estimator 65 exists above the predicted trajectory. An object that includes a non-grounding point that exists above the predicted trajectory corresponds to the target object.

例えば、図10では、柵200において、脚部210に含まれる接地点211は予測軌道130に接しておらず、且つ、本体部220に含まれる非接地点212は予測軌道130の上方に存在するので、注意状況であると判断される。 For example, in FIG. 10, in the fence 200, the grounding point 211 included in the leg 210 is not in contact with the predicted trajectory 130, and the non-grounding point 212 included in the main body 220 exists above the predicted trajectory 130. Therefore, it is judged to be in a caution situation.

ここで、出力生成部38は、注意状況であると判断した場合に処理をS170へ移行させ、一方、注意状況でないと判断した場合に本出力生成処理を終了する。
出力生成部38は、S170では、対象物体の下端部の高さを推定する。ここでいう対象物体は、予測軌道の上方に存在する非接地点を含む物体であって、宙に浮いている物体である。高さとは、路面からの高さである。例えば、図10の状況において、出力生成部38は、本体部220を対象物体として、本体部200の下端部の高さを推定する。出力生成部38は、物体検出部63による検出結果に基づいて、路面から本体部200の下端部における特徴点までの高さを、本体部200の下端部の高さとして推定する。
Here, the output generation unit 38 shifts the process to S<b>170 if it determines that it is in a caution state, and ends this output generation processing if it determines that it is not in a caution state.
The output generator 38 estimates the height of the lower end of the target object in S170. The target object here is an object that includes a non-grounding point that exists above the predicted trajectory and that is floating in the air. Height is the height from the road surface. For example, in the situation of FIG. 10, the output generator 38 estimates the height of the lower end of the main body 200 with the main body 220 as the target object. The output generator 38 estimates the height from the road surface to the feature point at the lower end of the main body 200 as the height of the lower end of the main body 200 based on the detection result by the object detection unit 63 .

なお、ECU30は、出力生成部38が実行する本出力生成処理とは別の処理にて、対象物体の下端部の高さを推定するように構成されてもよい。そして、出力生成部38は、本ステップで、推定された高さを取得するように構成されてもよい。 The ECU 30 may be configured to estimate the height of the lower end of the target object in a process different from the output generation process executed by the output generation section 38 . The output generator 38 may then be configured to acquire the estimated height in this step.

次に、出力生成部38は、S180では、対象物体について下端部の高さと車両9の高さ(以下、車高)との差が、予め定められた許容閾値未満であるか否かを判断する。ここでいう対象物体とは、S160における予測軌道上方の非接地点を含む物体である。車高、及び許容閾値は、予めメモリ32に記憶されている。許容閾値は、車両9が対象物体の下端部に接触しない程度の余裕を有する間隔に設定されている。 Next, in S180, the output generation unit 38 determines whether or not the difference between the height of the lower end of the target object and the height of the vehicle 9 (hereinafter referred to as vehicle height) is less than a predetermined allowable threshold. do. The target object here is an object including a non-grounding point above the predicted trajectory in S160. The vehicle height and allowable threshold are stored in the memory 32 in advance. The permissible threshold is set to a distance that allows the vehicle 9 not to come into contact with the lower end of the target object.

出力生成部38は、対象物体の下端部の高さと車高との差が許容閾値未満である場合に処理をS210へ移行させ、上述の差分が許容閾値以上である場合に処理をS190へ移行させる。 The output generation unit 38 shifts the process to S210 when the difference between the height of the lower end of the target object and the vehicle height is less than the allowable threshold, and shifts the process to S190 when the difference is equal to or greater than the allowable threshold. Let

出力生成部38は、S190では、車両9の速度(以下、車速)が、予め定められた速度(以下、車速閾値)以上であるか否かを判断する。車速は、S120にて取得されている。車速閾値は、メモリ32に予め記憶されている。車速閾値は、運転者が瞬時のブレーキ操作によって走行中の車両9を停止させることが可能な程度の速度に設定され得る。具体的には、車速閾値は、時速数km以下といった、車速に設定され得る。この車速は、駐車時に車両9を操作するために適した速度でもある。 In S190, the output generator 38 determines whether or not the speed of the vehicle 9 (hereinafter referred to as vehicle speed) is equal to or higher than a predetermined speed (hereinafter referred to as vehicle speed threshold). The vehicle speed is acquired at S120. The vehicle speed threshold is pre-stored in the memory 32 . The vehicle speed threshold can be set to a speed that allows the driver to stop the running vehicle 9 by a momentary braking operation. Specifically, the vehicle speed threshold can be set to a vehicle speed, such as several kilometers per hour or less. This vehicle speed is also suitable for operating the vehicle 9 when parked.

ここで、出力生成部38は、車速が車速閾値以上である場合に処理をS210へ移行させ、一方、車速が車速閾値未満である場合に、出力生成処理を終了する。
出力生成部38は、非注意状況であると判断されて移行するS200では、近接非接地点、が有るか否かを判断する。ここでいう近接非接地点とは、予測軌道130の上方に存在する非接地点であって、車両9からの距離が車両9からS150で特定された予測軌道130に接する接地点迄の距離よりも小さい非接地点をいう。S150で特定された、予測軌道130に接する接地点、を含む物体が対象物体に相当する。
Here, the output generation unit 38 shifts the process to S210 when the vehicle speed is equal to or higher than the vehicle speed threshold, and ends the output generation process when the vehicle speed is less than the vehicle speed threshold.
The output generator 38 determines whether or not there is an adjacent ungrounded point in S200 to which it is determined that the vehicle is in a non-attentive state. The near non-grounding point referred to here is a non-grounding point that exists above the predicted trajectory 130, and the distance from the vehicle 9 is greater than the distance from the vehicle 9 to the grounding point that is in contact with the predicted trajectory 130 specified in S150. is a small ungrounded point. The object that includes the ground contact point on the predicted trajectory 130 identified in S150 corresponds to the target object.

例えば、出力生成部38は、図11に示すように、非接地部分推定部65によって、水平方向において、対象物体Qに含まれる接地点gdよりも車両9に近い位置に対象物体Qに含まれる非接地点geが検出されている場合に、近接非接地点が有ると判断する。近接接地点は対象物体に含まれる。近接非接地点が有るということは、対象物体の接地点よりも車両9に近い位置に物体が存在することを表す。 For example, as shown in FIG. 11, the output generator 38 is included in the target object Q at a position closer to the vehicle 9 than the ground contact gd included in the target object Q in the horizontal direction by the non-grounded portion estimator 65. If the non-grounded point ge is detected, it is determined that there is an adjacent non-grounded point. Proximity ground points are included in the target object. The presence of a close non-grounding point means that the object exists at a position closer to the vehicle 9 than the grounding point of the target object.

ここで、出力生成部38は、近接非接地点が有ると判断した場合、処理をS210へ移行させる。一方、出力生成部38は、近接非接地点が無いと判断した場合、本出力生成処理を終了する。 Here, when the output generation unit 38 determines that there is a proximate ungrounded point, the process proceeds to S210. On the other hand, when the output generation unit 38 determines that there is no proximity non-grounded point, the output generation processing ends.

出力生成部38は、S210では、注意状況であるか否かの判断結果に基づく出力を行う。本実施形態では、出力生成部38は、注意状況である場合に、報知装置42に、運転者を含む車両9の乗員への報知を行わせる。ここでいう報知とは、鳥瞰図画像に対する注意を促す報知であって、特に、鳥瞰図画像内における自車両9からの距離に対して注意を促す報知である。 In S210, the output generation unit 38 performs an output based on the determination result of whether or not it is a caution situation. In the present embodiment, the output generator 38 causes the notification device 42 to notify the occupants of the vehicle 9 including the driver in the caution situation. The notification referred to here is notification that calls attention to the bird's-eye view image, and in particular, notification that calls attention to the distance from the vehicle 9 in the bird's-eye view image.

例えば、報知は、表示装置43に、鳥瞰図画像に重畳して所定の報知内容を示す画像を表示させる態様で行われ得る。また例えば、報知は、スピーカ44に、所定の報知内容を示す音声を出力させる態様で行われ得る。音声は、報知内容を示すメッセージでもよいし、ブザー音のような警告音でもよい。 For example, the notification can be performed in a manner in which an image showing predetermined notification content is displayed on the display device 43 by being superimposed on the bird's-eye view image. Further, for example, the notification may be performed in such a manner that the speaker 44 is caused to output a sound indicating the predetermined content of the notification. The voice may be a message indicating the contents of the notification, or may be a warning sound such as a buzzer sound.

上述の報知内容には、「障害物が自車両9の近くに存在する可能性があるので注意すること」、といった内容が含まれ得る。また、上述の報知内容には、「鳥瞰図画像には表示されていないかもしれないが、障害物が自車両9の近くに存在する可能性があるので注意すること」、といった内容が含まれ得る。また、上述の報知内容には、「鳥瞰図画像における自車両9から障害物までの距離の精度が良くない可能性があるので注意すること」、といった内容が含まれ得る。 The content of the notification may include content such as "be careful as there is a possibility that an obstacle exists near the vehicle 9". In addition, the content of the notification may include content such as "although it may not be displayed in the bird's-eye view image, there is a possibility that an obstacle exists near the vehicle 9, so be careful." . In addition, the content of the above-mentioned notification may include content such as "be careful because the accuracy of the distance from the own vehicle 9 to the obstacle in the bird's-eye view image may not be good".

上述の障害物とは、上述の非接地点によって表される対象物体である。つまり、予測軌道の上方に存在する、宙に浮いている物体である。
なお、本実施形態では、出力生成部38は、近接非接地点が有ると判断した場合には、近接非接地点との衝突の可能性があることについて車両9の乗員に注意を促すための報知を行う。
The aforementioned obstacles are target objects represented by the aforementioned ungrounded points. In other words, it is a floating object that exists above the predicted trajectory.
Note that, in the present embodiment, when the output generator 38 determines that there is a proximity non-grounding point, the output generation unit 38 generates a signal to warn the occupant of the vehicle 9 that there is a possibility of collision with the proximity non-grounding point. Notify.

出力生成部38は、これらの報知を行った後に、出力生成処理を終了する。
[3.効果]
以上詳述した実施形態によれば、以下の効果を得ることができる。
The output generation unit 38 terminates the output generation process after making these notifications.
[3. effect]
According to the embodiment detailed above, the following effects can be obtained.

(3a)鳥瞰図画像においては、撮像画像を鳥瞰図画像へ変換する際に立体物は路面へ傾いたような表示となり、鳥瞰図画像において立体物の表示が距離や形状等に関して誤認を生じさせる状況、すなわち注意状況が生じ得る。 (3a) In the bird's-eye view image, when the captured image is converted to the bird's-eye view image, the three-dimensional object is displayed as if it were tilted toward the road surface, and the display of the three-dimensional object in the bird's eye view image causes misrecognition regarding the distance, shape, etc. Attentional situations can arise.

そこで、ECU30は、S210にて、注意状況であると判断された場合に、判断結果に基づく出力を行う。本実施形態では、この結果、該出力に基づいて、注意状況において誤認による不都合を抑制することが可能となる。ここでいう不都合とは、例えば、鳥瞰図画像を見た運転者による誤認や、鳥瞰図画像に基づく車両制御の誤り、等を含む。 Therefore, the ECU 30 performs an output based on the determination result when it is determined in S210 that the caution situation is present. As a result, in this embodiment, based on the output, it is possible to suppress inconvenience caused by misrecognition in a caution situation. Inconvenience here includes, for example, erroneous recognition by the driver looking at the bird's-eye view image, erroneous vehicle control based on the bird's-eye view image, and the like.

例えば、ECU30は、S210では、注意状況であるという判断結果に基づいて、報知を行う報知装置42に報知を行わせるための出力を行う。この結果、注意状況である場合に、車両9の乗員に対して注意を促すことができる。 For example, in S210, the ECU 30 outputs an output for causing the notification device 42, which performs notification, to perform notification based on the determination result that the caution situation is present. As a result, it is possible to call attention to the occupant of the vehicle 9 in the caution situation.

(3b)ECU30は、S140にて、対象物体の接地点を推定するように構成された接地点推定部64から推定結果を取得する。ECU30は、S160では、対象物体の接地点が予測軌道に接しているか否かを判断し、対象物体の接地点が予測軌道に接していない場合に、注意状況であると判断する。つまり、対象物体が予測軌道の上方に存在している場合には、鳥瞰図における立体物の表示について上述の誤認が生じ得るので、このような状況を注意状況であると判断する。 (3b) In S140, the ECU 30 acquires the estimation result from the contact point estimator 64 configured to estimate the contact point of the target object. In S160, the ECU 30 determines whether or not the grounding point of the target object is in contact with the predicted trajectory, and if the grounding point of the target object is not in contact with the predicted trajectory, the ECU 30 determines that the caution state is present. That is, when the target object exists above the predicted trajectory, the above-described misrecognition may occur with respect to the display of the three-dimensional object in the bird's-eye view, and such a situation is determined to be a warning situation.

この結果、対象物体が予測軌道の上方に存在している状況を注意状況として検出することができる。そして、このような注意状況において報知を行うことができる。
(3c)ECU30は、S180では、注意状況であると判断された場合に、対象物体の下端部の高さを取得し、対象物体の下端部の高さと車高との差が許容閾値未満であるか否かを判断する。この結果、高さ方向において対象物体と車両9との衝突のおそれがあるか否か、を判断することができる。そして、この判断結果を利用した各種の出力や制御等を行うことが可能となる。
As a result, a situation in which the target object exists above the predicted trajectory can be detected as a warning situation. Then, it is possible to make a notification in such a caution situation.
(3c) In S180, the ECU 30 acquires the height of the lower end of the target object when it is determined to be in a caution situation, and if the difference between the height of the lower end of the target object and the vehicle height is less than the allowable threshold, determine whether there is As a result, it can be determined whether or not there is a risk of collision between the target object and the vehicle 9 in the height direction. Then, it becomes possible to perform various outputs, controls, etc., using the determination result.

(3d)ECU30は、S210では、注意状況であると判断され、且つ、対象物体の下端部の高さと車高との差が許容閾値未満であると判断された場合に、判断結果に基づく出力を行う。本実施形態では、ECU30は、注意状況であると判断され、且つ、上述の高さの差が許容閾値未満であると判断された場合に、報知を行う。 (3d) When it is determined in S210 that the caution situation is present and the difference between the height of the lower end of the target object and the vehicle height is less than the allowable threshold value, the ECU 30 outputs an output based on the determination result. I do. In the present embodiment, the ECU 30 issues a notification when it is determined that the caution situation is present and the height difference is less than the allowable threshold.

例えば、図10に示す注意状況において、対象物体である本体部220の下端部の高さh1と車高h0との差が許容閾値未満であると判断された場合に、ECU30は報知を行う。 For example, in the attention situation shown in FIG. 10, the ECU 30 issues a notification when it is determined that the difference between the height h1 of the lower end of the main body 220, which is the target object, and the vehicle height h0 is less than the allowable threshold.

この結果、注意状況において対象物体と車両9との高さ方向での衝突のおそれがあることについて、車両9の乗員に注意を促すことができる。そして、対象物体と車両9との衝突を抑制することができる。 As a result, it is possible to warn the occupant of the vehicle 9 that there is a risk of collision between the target object and the vehicle 9 in the height direction in the warning situation. Then, collisions between the target object and the vehicle 9 can be suppressed.

(3e)ECU30は、S190では、車両9の速度が車速閾値以上であるか否かを判断する。ECU30は、S210では、少なくとも、注意状況であると判断され、且つ、車速が車速閾値以上であると判断された場合に、判断結果に基づく出力を行う。 (3e) In S190, the ECU 30 determines whether or not the speed of the vehicle 9 is greater than or equal to the vehicle speed threshold. At S210, the ECU 30 performs an output based on the determination result, at least when it is determined that the caution situation is present and the vehicle speed is equal to or higher than the vehicle speed threshold.

本実施形態では、ECU30は、注意状況であると判断され、且つ、対象物体の下端部の高さと車高との差が許容閾値以上であると判断され、更に、車速が車速閾値以上であると判断された場合には、このような判断結果に基づいて報知を行う。 In this embodiment, the ECU 30 determines that it is in a caution situation, determines that the difference between the height of the lower end of the target object and the vehicle height is greater than or equal to the allowable threshold, and further determines that the vehicle speed is greater than or equal to the vehicle speed threshold. If it is determined that the above is the case, the notification is made based on the result of such determination.

例えば、図10に示す注意状況において、対象物体である本体部220の下端部の高さh1と車高h0との差が許容閾値以上であると判断された場合であっても、車両9の速度が車速閾値以上である場合には、ECU30は報知を行う。この結果、車両9の運転者に、必要以上の速度を出させないように、より安全な運転を促すことができる。 For example, in the attention situation shown in FIG. 10, even if it is determined that the difference between the height h1 of the lower end of the main body 220, which is the target object, and the vehicle height h0 is equal to or greater than the allowable threshold, When the speed is equal to or higher than the vehicle speed threshold, the ECU 30 notifies. As a result, the driver of the vehicle 9 can be urged to drive safely so as not to drive faster than necessary.

(3f)ECU30は、S160では、対象物体の接地点が予測軌道に接している場合に、注意状況でないと判断する。対象物体の接地点が予測軌道に接する場合には、対象物体の接地点については鳥瞰図画像において誤認が生じ難いからである。この結果、対象物体が予測軌道に接している状況を注意状況として検出することができる。 (3f) In S160, the ECU 30 determines that the caution situation is not present when the ground contact point of the target object is in contact with the predicted trajectory. This is because, when the grounding point of the target object touches the predicted trajectory, misrecognition of the grounding point of the target object is less likely to occur in the bird's-eye view image. As a result, a situation in which the target object is in contact with the predicted trajectory can be detected as a warning situation.

(3g)ECU30は、S200では、注意状況でないと判断された場合に、対象物体における非接地点であって、車両9からの距離が該車両9から対象物体の接地点迄の距離よりも小さい近接非接地点、が有るか否かを判断する。ECU30は、近接非接地部分が有ると判断された場合に、報知を行う報知装置42に報知を行わせる。
この結果、例えば図11に示すように、接地点が予測軌道に接しており、且つ、車両9に近づく側に突出しているような物体Qが存在する場合、注意状況であるとして報知が行われるので、車両9の乗員に注意を促すことができる。
(3g) In S200, when the ECU 30 determines that the caution state is not present, the target object is a non-grounding point and the distance from the vehicle 9 is smaller than the distance from the vehicle 9 to the grounding point of the target object. It is determined whether or not there is a nearby ungrounded point. The ECU 30 causes the notification device 42 to perform notification when it is determined that there is a close non-grounded portion.
As a result, for example, as shown in FIG. 11, when there is an object Q whose ground contact point is in contact with the predicted trajectory and which protrudes toward the vehicle 9, a warning is issued as a caution situation. Therefore, the occupants of the vehicle 9 can be alerted.

[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[4. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(4a)ECU30は、注意状況であると判断され、且つ、対象物体の下端部の高さと車高さとの差が許容閾値以上であると判断された場合に、判断結果に基づく出力を行わないように構成されてもよい。ここでいう出力を行うとは、報知を行うことであってもよい。つまり、ECU30は、上述のように判断された場合に、報知を行わないように構成されてもよい。 (4a) The ECU 30 does not output based on the determination result when it is determined that the caution situation is present and the difference between the height of the lower end of the target object and the vehicle height is equal to or greater than the allowable threshold. It may be configured as Outputting here may mean performing notification. In other words, the ECU 30 may be configured not to perform notification when it is determined as described above.

本変形例では、図8のフローチャートにおいて、ECU30は、S180では、対象物体の下端部の高さと車高との差が許容閾値未満である場合に、出力生成処理を終了するように構成される。また、S190は削除される。 In this modification, in the flowchart of FIG. 8, the ECU 30 is configured to end the output generation process in S180 when the difference between the height of the lower end of the target object and the vehicle height is less than the allowable threshold. . Also, S190 is deleted.

例えば、図10に示す注意状況において、対象物体である本体部220の下端部の高さh1と車高h0との差が許容閾値以上であると判断された場合に、ECU30は報知を行わない。この結果、注意状況であっても、対象物体と車両9との高さ方向での衝突のおそれが少ない状況においては、報知によって車両9の乗員に煩わしさを与えることを抑制することができる。 For example, in the caution situation shown in FIG. 10, when it is determined that the difference between the height h1 of the lower end of the main body 220, which is the target object, and the vehicle height h0 is greater than or equal to the allowable threshold, the ECU 30 does not issue a notification. . As a result, even in a caution situation, in a situation where there is little risk of collision between the target object and the vehicle 9 in the height direction, it is possible to prevent the occupants of the vehicle 9 from being annoyed by the notification.

(4b)ECU30は、注意状況であると判断された場合に判断結果に基づく出力を行うように構成され、且つ、注意状況でないと判断された場合に判断結果に基づく出力を行わないように構成されてもよい。ここでいう出力を行うとは、報知を行うことであってもよい。 (4b) The ECU 30 is configured to perform an output based on the determination result when it is determined that the caution situation is present, and is configured not to perform an output based on the determination result when it is determined that the caution situation is not present. may be Outputting here may mean performing notification.

本変形例では、図8のフローチャートにおいて、ECU30は、S150では、非注意状況であると判断された場合に、出力生成処理を終了するように構成される。また、ECU30は、S160では、注意状況であると判断した場合に処理をS210へ移行させて、S210にて報知を行うように構成される。S200は削除される。また、S170-S190が削除される。 In this modification, in the flowchart of FIG. 8, the ECU 30 is configured to end the output generation process when it is determined in S150 that the vehicle is in a non-attentive state. Further, the ECU 30 is configured to shift the process to S210 when it is determined in S160 that the situation is a caution situation, and to perform notification in S210. S200 is deleted. Also, S170-S190 are deleted.

この結果、注意状況である場合は常に、車両9の乗員に報知を促すことができる。また、例えば鳥瞰図画像における立体物の表示について注意状況であるか否かに関わらず常に何らかの報知を行うように構成された比較装置よりも、車両9の乗員に不要な報知による煩わしさを与えることを抑制できる。 As a result, it is possible to prompt the occupant of the vehicle 9 to notify the driver whenever there is a caution situation. Further, for example, the occupant of the vehicle 9 is bothered by an unnecessary notification rather than a comparison device configured to always perform some notification irrespective of whether or not there is a warning situation regarding the display of a three-dimensional object in a bird's-eye view image. can be suppressed.

(4c)上記実施形態では、出力生成部38は、S210にて、上述の報知を行うように構成されていたが、これに限定されるものではない。例えば、出力生成部38は、注意状況であると判断された場合に、鳥瞰図画像に基づく車両9の制御を中止する、といった出力を行うように構成され得る。ここでいう鳥瞰図画像に基づく車両9の制御には、鳥瞰図画像における予測軌道130に沿って車両9を走行させたり、鳥瞰図画像において検出された物体との衝突を避けるように車両9を走行させたり、といった制御が含まれ得る。 (4c) In the above embodiment, the output generation unit 38 is configured to perform the above notification in S210, but the present invention is not limited to this. For example, the output generation unit 38 may be configured to output such as to stop the control of the vehicle 9 based on the bird's-eye view image when it is determined that the caution situation is present. The control of the vehicle 9 based on the bird's-eye view image referred to here includes running the vehicle 9 along the predicted trajectory 130 in the bird's-eye view image, or running the vehicle 9 so as to avoid collision with an object detected in the bird's-eye view image. , and the like.

この結果、鳥瞰図画像に基づく車両制御の誤りを抑制することができる。
(4d)上記実施形態では、ECU30では、出力生成部38は、S150では、接地点が予測軌道130に位置しているか否かに基づいて、注意状況であるか否かを判断していた。また、出力生成部38は、S160では、非接地点が予測軌道130の上方に位置していることに基づいて、注意状況でないと判断していた。但し、これに限定されるものではない。
As a result, errors in vehicle control based on the bird's-eye view image can be suppressed.
(4d) In the above embodiment, in the ECU 30, the output generator 38 determines in S150 whether or not the vehicle is in a caution situation based on whether or not the ground contact point is located on the predicted trajectory 130. Further, in S160, the output generation unit 38 determines that the caution situation is not present based on the fact that the non-grounding point is located above the predicted trajectory 130. FIG. However, it is not limited to this.

出力生成部38は、S150では、複数の特徴点を含む特徴点の固まりを物体の一部として特定してもよい。そして、出力生成部38は、特徴点の固まりにおける下端部の特徴点が予測軌道130に接している場合に、注意状況でないと判断してもよい。ここで、特徴点の固まりによって表される物体の一部が対象物体に相当する。また、特徴点の固まりにおける下端部の特徴点であって予測軌道130に接している特徴点が接地点に相当する。 In S150, the output generator 38 may identify a group of feature points including a plurality of feature points as part of the object. Then, the output generation unit 38 may determine that the caution situation is not present when the feature point at the lower end of the cluster of feature points is in contact with the predicted trajectory 130 . Here, a part of the object represented by the group of feature points corresponds to the target object. In addition, a feature point at the lower end of the group of feature points and in contact with the predicted trajectory 130 corresponds to the grounding point.

また、出力生成部38は、S160では、上述の特徴点の固まりにおける下端部の特徴点が予測軌道130に接しておらず該予測軌道130の上方に存在する場合に、注意状況であると判断してもよい。ここで、特徴点の固まりによって表される物体の一部が対象物体に相当する。また、特徴点の固まりにおける下端部の特徴点であって予測軌道130の上方に存在する特徴点が非接地点に相当する。 In addition, in S160, the output generation unit 38 determines that the caution situation is present when the feature point at the lower end of the group of feature points described above is not in contact with the predicted trajectory 130 and exists above the predicted trajectory 130. You may Here, a part of the object represented by the group of feature points corresponds to the target object. Further, a feature point located at the lower end of the group of feature points and located above the predicted trajectory 130 corresponds to a non-grounding point.

(4e)本開示に記載のECU30及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載のECU30及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載のECU30及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。ECU30に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (4e) ECU 30 and techniques described in this disclosure can be performed by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. , may be implemented. Alternatively, the ECU 30 and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the ECU 30 and techniques described in this disclosure may comprise a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. may be implemented by one or more dedicated computers configured as Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium. The method of realizing the function of each part included in the ECU 30 does not necessarily include software, and all the functions may be realized using one or more pieces of hardware.

(4f)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (4f) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(4g)上述したECU30、ECU30を備える運転支援装置1、当該ECU30を機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、運転支援方法など、種々の形態で本開示を実現することもできる。 (4g) In various forms, such as the above-described ECU 30, the driving support device 1 including the ECU 30, a program for functioning the ECU 30, a non-transitional substantive recording medium such as a semiconductor memory recording this program, and a driving support method The present disclosure can also be implemented.

なお、上記実施形態において、ECU30が電子制御装置に相当する。また、信号入力部35が撮像画像取得部に相当し、画像処理部36及び鳥瞰変換部61が鳥瞰図画像生成部に相当し、出力生成部38が状況判断部、出力部、高さ判断部、車速判断部、近接判断部、近接報知部に相当する。また、S150、S160が状況判断部としての処理に相当し、S210が出力部としての処理に相当し、S180が高さ判断部としての処理に相当し、S190が車速判断部としての処理に相当し、S200が近接判断部としての処理に相当し、S210が近接報知部としての処理に相当する。 In addition, in the above embodiment, the ECU 30 corresponds to the electronic control unit. Further, the signal input unit 35 corresponds to the captured image acquisition unit, the image processing unit 36 and the bird's eye view conversion unit 61 correspond to the bird's eye view image generation unit, and the output generation unit 38 corresponds to the situation determination unit, the output unit, the height determination unit, It corresponds to a vehicle speed determination section, a proximity determination section, and a proximity notification section. Further, S150 and S160 correspond to the processing of the situation determination unit, S210 corresponds to the processing of the output unit, S180 corresponds to the processing of the height determination unit, and S190 corresponds to the processing of the vehicle speed determination unit. S200 corresponds to the processing of the proximity determination unit, and S210 corresponds to the processing of the proximity notification unit.

30 ECU、35 信号入力部、36 画像処理部、37 軌道推定部、38 出力生成部。 30 ECU, 35 signal input unit, 36 image processing unit, 37 trajectory estimation unit, 38 output generation unit.

Claims (7)

車両に搭載される電子制御装置(30)であって、
前記車両に搭載されたカメラから地面を含む前記車両の周囲が撮像された撮像画像を繰り返し取得する撮像画像取得部(35)と、
前記撮像画像に基づいて、鳥瞰図画像を生成する鳥瞰図画像生成部(36、61)と、
前記車両の軌道を予測する軌道推定部(37)と、
前記軌道推定部にて予測された前記車両の軌道である予測軌道に存在する物体である対象物体について、前記鳥瞰図画像における前記対象物体の表示が注意状況であるか否かを判断するように構成された状況判断部(38、S150、S160)と、
前記状況判断部にて前記注意状況であると判断された場合に、前記状況判断部による判断結果に基づく出力を行うように構成された出力部(38、S210)と、
を備え、
前記状況判断部(S160)は、前記対象物体について前記対象物体と路面とが接している点である接地点が前記予測軌道に接するか否かを判断し、前記対象物体について前記接地点が前記予測軌道に接していない場合に、前記注意状況であると判断するように構成された
電子制御装置。
An electronic control device (30) mounted on a vehicle,
a captured image acquisition unit (35) that repeatedly acquires captured images of the surroundings of the vehicle including the ground from a camera mounted on the vehicle;
a bird's-eye view image generator (36, 61) for generating a bird's-eye view image based on the captured image;
a trajectory estimation unit (37) for predicting the trajectory of the vehicle;
For a target object existing on the predicted trajectory which is the trajectory of the vehicle predicted by the trajectory estimation unit, it is determined whether or not the display of the target object in the bird's eye view image is in a caution situation. the situation judgment unit (38, S150, S160),
an output unit (38, S210) configured to perform an output based on the judgment result of the situation judgment unit when the situation judgment unit judges that it is the caution situation;
with
The situation determination unit (S160) determines whether or not a contact point of the target object, which is a contact point between the target object and the road surface, touches the predicted trajectory. An electronic control unit configured to determine that the caution situation exists when the predicted trajectory is not in contact with the trajectory.
請求項1に記載の電子制御装置であって、
前記注意状況であると判断された場合に、前記対象物体について下端部の高さを取得し、前記下端部の高さと前記車両の高さとの差が予め定められた許容閾値未満であるか否かを判断するように構成された高さ判断部(38、S180)
を更に備える電子制御装置。
The electronic control device according to claim 1,
When it is determined that the caution situation is present, the height of the lower end of the target object is obtained, and whether the difference between the height of the lower end and the height of the vehicle is less than a predetermined allowable threshold. A height determination unit (38, S180) configured to determine whether
An electronic controller further comprising:
請求項2に記載の電子制御装置であって、
前記出力部は、前記状況判断部にて前記注意状況であると判断され、且つ、前記対象物体の下端部の高さと前記車両の高さとの差が予め定められた許容閾値未満であると判断された場合に、前記判断結果に基づく出力を行うように構成された
電子制御装置。
The electronic control device according to claim 2,
The output unit determines that the situation determination unit determines that the caution situation exists and that a difference between the height of the lower end of the target object and the height of the vehicle is less than a predetermined allowable threshold. An electronic control unit configured to output based on the determination result when the determination result is determined.
請求項2又は請求項3に記載の電子制御装置であって、
前記出力部は、前記状況判断部にて前記注意状況であると判断され、且つ、前記対象物体の下端部の高さと前記車両の高さとの差が予め定められた許容閾値以上であると判断された場合に、前記判断結果に基づく出力を行わないように構成された
電子制御装置。
The electronic control device according to claim 2 or 3,
The output unit determines that the caution situation has been determined by the situation determination unit, and that a difference between the height of the lower end of the target object and the height of the vehicle is equal to or greater than a predetermined allowable threshold. An electronic control device configured not to output based on the determination result when the determination result is determined.
請求項1から請求項4のいずれか一項に記載の電子制御装置であって、
前記車両の速度が予め定められた車速閾値以上であるか否かを判断するように構成された車速判断部(38、S190)を更に備え、
前記出力部は、前記状況判断部にて前記注意状況であると判断され、且つ、前記車両の速度が前記車速閾値以上であると判断された場合に、前記判断結果に基づく出力を行うように構成された
電子制御装置。
The electronic control device according to any one of claims 1 to 4,
further comprising a vehicle speed determination unit (38, S190) configured to determine whether the speed of the vehicle is equal to or greater than a predetermined vehicle speed threshold;
The output unit outputs an output based on the determination result when the situation determination unit determines that the caution situation is present and determines that the speed of the vehicle is equal to or greater than the vehicle speed threshold. Configured electronic controller.
請求2から請求項5のいずれか一項に記載の電子制御装置であって、
前記状況判断部(S150)は、前記対象物体について前記接地点が前記予測軌道に接している場合に、前記注意状況でないと判断するように構成された
電子制御装置。
The electronic control device according to any one of claims 2 to 5,
The situation determination unit (S150) is configured to determine that the caution situation is not present when the ground contact point of the target object is in contact with the predicted trajectory.
請求項6に記載の電子制御装置であって、
前記注意状況でないと判断された場合に、前記対象物体における非接地点であって、前記車両からの距離が前記車両から前記対象物体の前記接地点迄の距離よりも小さい近接非接地点、が有るか否かを判断するように構成された近接判断部(38、S200)と、
前記近接判断部によって、前記近接非接地点が有ると判断された場合に、報知を行う報知装置に報知を行わせるように構成された近接報知部(38、S210)と、
を更に備える電子制御装置。
The electronic control device according to claim 6,
When it is determined that the caution situation is not present, there is a non-grounding point on the target object, the proximity non-grounding point having a distance from the vehicle smaller than the distance from the vehicle to the grounding point of the target object. a proximity determination unit (38, S200) configured to determine whether or not there is;
a proximity notification unit (38, S210) configured to notify a notification device that performs notification when the proximity determination unit determines that there is the proximity non-grounding point;
An electronic controller further comprising:
JP2019024395A 2019-02-14 2019-02-14 electronic controller Active JP7279390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019024395A JP7279390B2 (en) 2019-02-14 2019-02-14 electronic controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024395A JP7279390B2 (en) 2019-02-14 2019-02-14 electronic controller

Publications (2)

Publication Number Publication Date
JP2020136755A JP2020136755A (en) 2020-08-31
JP7279390B2 true JP7279390B2 (en) 2023-05-23

Family

ID=72279079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024395A Active JP7279390B2 (en) 2019-02-14 2019-02-14 electronic controller

Country Status (1)

Country Link
JP (1) JP7279390B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7350793B2 (en) * 2021-02-08 2023-09-26 ダイハツ工業株式会社 negative pressure supply system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006303985A (en) 2005-04-21 2006-11-02 Nissan Motor Co Ltd Predictive course display device and method
JP2009118415A (en) 2007-11-09 2009-05-28 Alpine Electronics Inc Method and apparatus for generating bird's-eye view image
JP2011071932A (en) 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle surroundings monitoring apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006303985A (en) 2005-04-21 2006-11-02 Nissan Motor Co Ltd Predictive course display device and method
JP2009118415A (en) 2007-11-09 2009-05-28 Alpine Electronics Inc Method and apparatus for generating bird's-eye view image
JP2011071932A (en) 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle surroundings monitoring apparatus

Also Published As

Publication number Publication date
JP2020136755A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
EP3124360B1 (en) Parking assistance device
US9836978B2 (en) Parking assistance device
JP4615038B2 (en) Image processing device
JP6190758B2 (en) Object recognition device and vehicle
JP5414714B2 (en) Car camera and in-vehicle camera system
US20180253106A1 (en) Periphery monitoring device
US10377416B2 (en) Driving assistance device
JP6478414B2 (en) Vehicle control device, vehicle control method, and vehicle control program
JP5516988B2 (en) Parking assistance device
US20200114820A1 (en) Obstacle detecting and notifying device, method, and computer program product
CN110730735B (en) Parking assist method and parking assist apparatus
JP2012056428A (en) Driving support device
WO2018220915A1 (en) Periphery monitoring device
JP4850963B1 (en) Vehicle driving support device
JP7283514B2 (en) display controller
JP7279390B2 (en) electronic controller
JP2007142765A (en) Vehicle periphery monitoring system
JP7347307B2 (en) Parking support device, parking support system, and parking support method
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP2014069721A (en) Periphery monitoring device, control method, and program
CN114312756A (en) Parking assistance system, parking assistance device, parking assistance method, and recording medium
JP6908993B2 (en) Information processing device, information processing method, and driving support system
JP7130923B2 (en) display controller
JP2021140537A (en) Sensing system
JP6198871B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, vehicle periphery monitoring program, and recording medium therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R151 Written notification of patent or utility model registration

Ref document number: 7279390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151