JP2018006943A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2018006943A
JP2018006943A JP2016129661A JP2016129661A JP2018006943A JP 2018006943 A JP2018006943 A JP 2018006943A JP 2016129661 A JP2016129661 A JP 2016129661A JP 2016129661 A JP2016129661 A JP 2016129661A JP 2018006943 A JP2018006943 A JP 2018006943A
Authority
JP
Japan
Prior art keywords
vehicle
image
region
steering angle
filter processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016129661A
Other languages
Japanese (ja)
Inventor
哲也 丸岡
Tetsuya Maruoka
哲也 丸岡
丈聡 藤井
Taketoshi Fujii
丈聡 藤井
渡邊 一矢
Kazuya Watanabe
一矢 渡邊
久保田 尚孝
Naotaka Kubota
尚孝 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2016129661A priority Critical patent/JP2018006943A/en
Publication of JP2018006943A publication Critical patent/JP2018006943A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To sufficiently clarify a captured image of the periphery of a vehicle as an image for drive support.SOLUTION: A vehicle periphery monitoring device according to an embodiment comprises: a periphery image acquisition part which acquires a periphery image outputted from an imaging part which images the periphery of a vehicle; a filter processing part which executes filter processing of a contour emphasis for a partial area of the periphery image; and a display control part which displays the periphery image for which the filter processing has been executed, on a display part.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、車両周辺監視装置に関する。   Embodiments described herein relate generally to a vehicle periphery monitoring device.

従来、車両の運転支援の技術として、車両に搭載されたカメラ等の撮像装置で車両の周辺を撮像し、その撮像結果である撮像画像データを表示することで運転支援を行う技術が提案されている。   2. Description of the Related Art Conventionally, as a driving assistance technique for a vehicle, a technique has been proposed in which driving assistance is performed by imaging the periphery of a vehicle with an imaging device such as a camera mounted on the vehicle and displaying captured image data as a result of the imaging. Yes.

国際公開第2011/010346号International Publication No. 2011/010346 特開2016−21653号公報JP 2016-21653 A

しかしながら、従来技術では、車両の周辺の撮像画像データは、拡大や歪み補正等の処理を経てから表示されるため、凹凸がわかりにくい等、運転支援のための画像として充分に鮮明とは言えず、改善が望まれている。   However, in the prior art, the captured image data around the vehicle is displayed after being subjected to processing such as enlargement and distortion correction, and thus it cannot be said that the image for driving support is sufficiently clear, such as unevenness being difficult to understand. Improvement is desired.

本発明の実施形態にかかる車両周辺監視装置は、例えば、車両の周辺を撮像する撮像部から出力される周辺画像を取得する周辺画像取得部と、前記周辺画像の一部の領域に輪郭強調のフィルタ処理を実行するフィルタ処理部と、前記フィルタ処理が実行された周辺画像を表示部に表示する表示制御部と、を備える。この構成によれば、例えば、周辺画像の一部の領域に輪郭強調のフィルタ処理を実行することで、凹凸がわかりやすくなる等、運転支援のための画像として充分に鮮明な周辺画像を実現することができる。   The vehicle periphery monitoring device according to the embodiment of the present invention includes, for example, a peripheral image acquisition unit that acquires a peripheral image output from an imaging unit that captures the periphery of the vehicle, and contour enhancement in a partial region of the peripheral image. A filter processing unit that executes a filter process; and a display control unit that displays a peripheral image on which the filter process has been performed on a display unit. According to this configuration, for example, by performing the contour enhancement filter process on a partial region of the peripheral image, it is possible to realize a sufficiently clear peripheral image as an image for driving support, such as making the unevenness easy to understand. be able to.

また、例えば、前記車両の舵角を取得する舵角取得部をさらに備え、前記フィルタ処理部は、前記周辺画像の一部の領域として、前記舵角に基づいた前記車両の各車輪の予測進路に対して、前記フィルタ処理を実行するようにしてもよい。この構成によれば、例えば、周辺画像における車両の各車輪の予測進路の凹凸がわかりやすくなるので、運転者は進路を適切に決めることができる。   Further, for example, a steering angle acquisition unit that acquires the steering angle of the vehicle is further provided, and the filter processing unit is configured to predict a predicted course of each wheel of the vehicle based on the steering angle as a partial region of the peripheral image. However, the filtering process may be executed. According to this configuration, for example, the unevenness of the predicted course of each wheel of the vehicle in the surrounding image can be easily understood, so that the driver can appropriately determine the course.

また、例えば、前記周辺画像の一部の領域は、前記車両の側方を表す側方画像を含んでおり、前記フィルタ処理部は、前記舵角が所定値以上の場合、前記側方画像における、前記舵角に基づいた前記車両の各車輪の予測進路に対して、前記フィルタ処理を実行するようにしてもよい。この構成によれば、車両の舵角が所定値以上の場合に、進行方向画像よりも予測進路を大きく表すことのできる側方画像において、予測進路の凹凸がわかりやすくなるので、運転者は進路を適切に決めることができる。   In addition, for example, a partial region of the peripheral image includes a side image that represents a side of the vehicle, and the filter processing unit is configured to display the side image when the steering angle is equal to or greater than a predetermined value. The filter processing may be executed on the predicted course of each wheel of the vehicle based on the steering angle. According to this configuration, when the steering angle of the vehicle is equal to or greater than a predetermined value, the unevenness of the predicted course becomes easier to understand in the side image that can represent the predicted course larger than the traveling direction image. Can be determined appropriately.

また、例えば、前記周辺画像は、第1の領域と、前記第1の領域よりも前記車両から離れた場所に対応する第2の領域と、を含んでおり、前記フィルタ処理部は、前記第1の領域に対して、前記第2の領域よりも強い輪郭強調のフィルタ処理を実行するようにしてもよい。この構成によれば、例えば、周辺画像において、自車両に近い部分を表す領域ほど凹凸がわかりやすくなるので、遠近感(奥行き感)が強くなり、運転者がより運転しやすくなる。   In addition, for example, the surrounding image includes a first region and a second region corresponding to a location farther from the vehicle than the first region, and the filter processing unit includes the first region. A stronger edge enhancement filter process than the second area may be executed for one area. According to this configuration, for example, in the surrounding image, the unevenness becomes easier to understand in the region representing the portion closer to the host vehicle, so that the perspective (depth feeling) becomes stronger, and the driver can drive more easily.

また、例えば、前記撮像部は、ステレオカメラであり、前記フィルタ処理部は、前記ステレオカメラの視差に基づいて、前記周辺画像に対して、前記車両からの距離が近い部分を表す領域ほど、強い輪郭強調のフィルタ処理を実行するようにしてもよい。この構成によれば、例えば、ステレオカメラの視差を利用することで、周辺画像において、自車両からの実際の距離に応じて、自車両に近い部分を表す領域ほど凹凸がわかりやすくなるので、遠近感(奥行き感)が強くなり、運転者がより運転しやすくなる。   In addition, for example, the imaging unit is a stereo camera, and the filter processing unit is stronger in a region representing a portion closer to the surrounding image than the surrounding image based on the parallax of the stereo camera. You may make it perform the filter process of an outline emphasis. According to this configuration, for example, by using the parallax of a stereo camera, in the surrounding image, the unevenness becomes easier to understand in a region representing a portion closer to the own vehicle according to the actual distance from the own vehicle. A feeling (depth feeling) becomes stronger, and it becomes easier for the driver to drive.

図1は、本実施形態にかかる車両周辺監視装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the vehicle periphery monitoring device according to the present embodiment is mounted is seen through. 図2は、本実施形態にかかる車両周辺監視装置を搭載する車両の一例が示された平面図(俯瞰図)である。FIG. 2 is a plan view (overhead view) showing an example of a vehicle equipped with the vehicle periphery monitoring device according to the present embodiment. 図3は、本実施形態にかかる車両周辺監視装置の一例が示されたブロック図である。FIG. 3 is a block diagram illustrating an example of a vehicle periphery monitoring device according to the present embodiment. 図4は、本実施形態にかかる車両周辺監視装置のECU内に実現される各構成を示すブロック図である。FIG. 4 is a block diagram showing each configuration realized in the ECU of the vehicle periphery monitoring device according to the present embodiment. 図5は、本実施形態にかかる車両周辺監視装置における後輪幅軌跡を算出する場合の算出例の説明図である。FIG. 5 is an explanatory diagram of a calculation example in the case of calculating a rear wheel width locus in the vehicle periphery monitoring device according to the present embodiment. 図6(a)は、本実施形態にかかる車両周辺監視装置において輪郭強調のフィルタ処理を実行する前の画像例を示す図である。図6(b)は、車両の各車輪の予測進路に対して輪郭強調のフィルタ処理を実行した後の画像例を示す図である。FIG. 6A is a diagram illustrating an example of an image before the contour emphasis filter process is executed in the vehicle periphery monitoring device according to the present embodiment. FIG. 6B is a diagram illustrating an example of an image after the contour emphasis filter process is performed on the predicted course of each wheel of the vehicle. 図7(a)は、図6(a)と同様の図である。図7(b)は、自車両に近い部分ほど強い輪郭強調のフィルタ処理を実行した後の画像例を示す図である。FIG. 7A is a diagram similar to FIG. FIG. 7B is a diagram illustrating an example of an image after executing a contour enhancement filter process that is stronger in a portion closer to the host vehicle. 図8(a)は、本実施形態にかかる車両周辺監視装置において輪郭強調のフィルタ処理を実行する前の画像例を示す図である。図8(b)は、進行方向画像と側方画像の両方において、車両の各車輪の予測進路に対して輪郭強調のフィルタ処理を実行した後の画像例を示す図である。FIG. 8A is a diagram illustrating an example of an image before the contour emphasis filter process is executed in the vehicle periphery monitoring device according to the present embodiment. FIG. 8B is a diagram illustrating an example of an image after the contour emphasis filter processing is performed on the predicted course of each wheel of the vehicle in both the traveling direction image and the side image. 図9は、本実施形態にかかる車両周辺監視装置の画像処理の手順を示すフローチャートである。FIG. 9 is a flowchart showing a procedure of image processing of the vehicle periphery monitoring device according to the present embodiment.

以下、本実施形態の車両周辺監視装置を車両1に搭載した例について説明する。本実施形態では、車両1は、例えば、内燃機関(エンジン、不図示)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、不図示)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよい。また、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載してもよいし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載してもよい。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。   Hereinafter, an example in which the vehicle periphery monitoring device of the present embodiment is mounted on the vehicle 1 will be described. In the present embodiment, the vehicle 1 may be, for example, an automobile (an internal combustion engine automobile) that uses an internal combustion engine (engine, not shown) as a drive source, or an automobile that uses an electric motor (motor, not shown) as a drive source. (Electric vehicles, fuel cell vehicles, etc.) may be used. Moreover, the motor vehicle (hybrid vehicle) which uses those both as a drive source may be sufficient. The vehicle 1 may be mounted with various transmissions, and various devices (systems, parts, etc.) necessary for driving the internal combustion engine and the electric motor. In addition, the method, number, layout, and the like of the device related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1は、本実施形態にかかる車両周辺監視装置を搭載する車両1の車室2aの一部が透視された状態の一例が示された斜視図である。図1に示されるように、本実施形態にかかる車体2は、乗員(不図示)が乗車する車室2aを備えている。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4、加速操作部5、制動操作部6、変速操作部7等が設けられている。本実施形態では、例えば、操舵部4は、ダッシュボード(インストルメントパネル)から突出したステアリングホイールである。また、加速操作部5は、運転者の足下に配置されたアクセルペダルである。また、制動操作部6は、運転者の足下に配置されたブレーキペダルである。また、変速操作部7は、センターコンソールから突出したシフトレバーである。ただし、これらに限定されない。   FIG. 1 is a perspective view showing an example of a state in which a part of a passenger compartment 2a of a vehicle 1 equipped with a vehicle periphery monitoring device according to the present embodiment is seen through. As shown in FIG. 1, the vehicle body 2 according to the present embodiment includes a passenger compartment 2 a in which an occupant (not shown) gets. In the passenger compartment 2a, a steering section 4, an acceleration operation section 5, a braking operation section 6, a speed change operation section 7 and the like are provided in a state facing the driver's seat 2b as an occupant. In the present embodiment, for example, the steering unit 4 is a steering wheel protruding from a dashboard (instrument panel). Further, the acceleration operation unit 5 is an accelerator pedal disposed under the driver's feet. The braking operation unit 6 is a brake pedal disposed under the driver's feet. The speed change operation unit 7 is a shift lever protruding from the center console. However, it is not limited to these.

また、車室2a内には、表示装置8や、音声出力装置9が設けられている。表示装置8は、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electro-Luminescent Display)等である。音声出力装置9は、例えば、スピーカである。また、本実施形態では、例えば、表示装置8は、透明な操作入力部10(例えば、タッチパネル等)で覆われている。乗員等は、操作入力部10を介して表示装置8の表示画面に表示される映像(画像)を視認することができる。また、乗員等は、表示装置8の表示画面に表示される映像(画像)に対応した位置において手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力(指示入力)を実行することができる。また、本実施形態では、例えば、表示装置8、音声出力装置9、操作入力部10等は、ダッシュボードの車幅方向(左右方向)の中央部に配置されたモニタ装置11に設けられている。モニタ装置11は、スイッチ、ダイヤル、ジョイスティック、押しボタン等の操作入力部(不図示)を有していてもよい。また、モニタ装置11とは異なる車室2a内の他の位置に音声出力装置(不図示)を設けてもよい。また、モニタ装置11の音声出力装置9と他の音声出力装置の両方から音声を出力してもよい。また、本実施形態では、例えば、モニタ装置11は、ナビゲーションシステムやオーディオシステムと兼用されているが、車両周辺監視装置用のモニタ装置を、これらシステムとは別に設けてもよい。   A display device 8 and an audio output device 9 are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescent Display), or the like. The audio output device 9 is, for example, a speaker. In the present embodiment, for example, the display device 8 is covered with a transparent operation input unit 10 (for example, a touch panel). An occupant or the like can visually recognize a video (image) displayed on the display screen of the display device 8 via the operation input unit 10. The occupant or the like operates the operation input (instruction by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to an image (image) displayed on the display screen of the display device 8. Input). In the present embodiment, for example, the display device 8, the audio output device 9, the operation input unit 10, and the like are provided in the monitor device 11 disposed in the center of the dashboard in the vehicle width direction (left-right direction). . The monitor device 11 may have an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button. Moreover, you may provide an audio | voice output apparatus (not shown) in the other position in the compartment 2a different from the monitor apparatus 11. FIG. Moreover, you may output an audio | voice from both the audio | voice output device 9 of the monitor apparatus 11, and another audio | voice output device. In the present embodiment, for example, the monitor device 11 is also used as a navigation system or an audio system. However, a monitor device for a vehicle periphery monitoring device may be provided separately from these systems.

ここで、図2は、本実施形態にかかる車両周辺監視装置を搭載する車両1の一例が示された平面図(俯瞰図)である。図1、図2に示されるように、本実施形態では、例えば、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3F(3)と、左右二つの後輪3R(3)とを有する。そして、例えば、前輪3Fのタイヤ角が操舵部4(ステアリングホイール)の操作に対応して変化(転舵)する。   Here, FIG. 2 is a plan view (overhead view) showing an example of the vehicle 1 equipped with the vehicle periphery monitoring device according to the present embodiment. As shown in FIGS. 1 and 2, in this embodiment, for example, the vehicle 1 is a four-wheeled vehicle (four-wheeled vehicle), and includes two left and right front wheels 3F (3) and two right and left rear wheels 3R ( 3). For example, the tire angle of the front wheel 3F changes (steers) in response to the operation of the steering unit 4 (steering wheel).

ここで、図3は、本実施形態にかかる車両周辺監視装置の一例が示されたブロック図である。操舵システム12は、例えば、電動パワーステアリングシステムや、SBW(Steer By Wire)システム等である。操舵システム12は、アクチュエータ12aによって操舵部4にトルク(アシストトルク)を付加して操舵力を補って、前輪3Fを操舵する。   Here, FIG. 3 is a block diagram showing an example of a vehicle periphery monitoring device according to the present embodiment. The steering system 12 is, for example, an electric power steering system or an SBW (Steer By Wire) system. The steering system 12 steers the front wheels 3F by adding torque (assist torque) to the steering unit 4 by the actuator 12a to supplement the steering force.

また、本実施形態では、例えば、図2に示されるように、車両1(車体2)には、複数(本実施形態では、例えば4つ)の撮像部16(16a〜16d)が設けられている。撮像部16は、例えば、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部16は、所定のフレームレートで撮像画像データ(動画データ、フレームデータ)を出力することができる。撮像部16は、それぞれ、広角レンズを有し、水平方向には例えば140°〜220°の範囲(視野角)を撮影(撮像)することができる。また、撮像部16は、路面を含む周辺の環境を撮像することができる方向に向けて設置されている。   In the present embodiment, for example, as shown in FIG. 2, the vehicle 1 (the vehicle body 2) is provided with a plurality of (for example, four in the present embodiment) imaging units 16 (16 a to 16 d). Yes. The imaging unit 16 is a digital camera including an imaging element such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 16 can output captured image data (moving image data, frame data) at a predetermined frame rate. Each of the imaging units 16 includes a wide-angle lens, and can capture (capture) a range (viewing angle) of, for example, 140 ° to 220 ° in the horizontal direction. Moreover, the imaging part 16 is installed toward the direction which can image the surrounding environment including a road surface.

本実施形態では、例えば、撮像部16aは、車体2の前側の端部2c(平面視での端部)に配置され、フロントグリル等に設けられている。また、撮像部16bは、車体2の左側の端部2dに配置され、左側のドアミラー2gに設けられている。また、撮像部16cは、車体2の後側の端部2eに配置され、リアトランクのドア2hの下方の壁部に設けられている。また、撮像部16dは、車体2の右側の端部2fに配置され、右側のドアミラー2gに設けられている。なお、本実施形態は、撮像部16の車載方法を制限するものではなく、撮像部16は、車両1に対してフロント方向の撮像画像データ、左右サイド方向の撮像画像データ、リア方向の撮像画像データを取得できるように設置されればよい。   In the present embodiment, for example, the imaging unit 16a is disposed at a front end 2c (an end in a plan view) of the vehicle body 2 and is provided on a front grill or the like. The imaging unit 16b is disposed on the left end 2d of the vehicle body 2 and is provided on the left door mirror 2g. The imaging unit 16c is disposed at the rear end 2e of the vehicle body 2 and is provided on a wall portion below the rear trunk door 2h. The imaging unit 16d is disposed at the right end 2f of the vehicle body 2 and provided on the right door mirror 2g. Note that the present embodiment does not limit the vehicle-mounted method of the imaging unit 16, and the imaging unit 16 captures captured image data in the front direction, captured image data in the left and right side directions, and captured image in the rear direction with respect to the vehicle 1. It may be installed so that data can be acquired.

また、図3に示すように、ECU14(Electronic Control Unit)は、複数の撮像部16で得られた撮像画像データに基づいて演算処理や画像処理を実行し、当該画像処理がなされた撮像画像データを表示装置8に表示させる。   Further, as shown in FIG. 3, the ECU 14 (Electronic Control Unit) executes arithmetic processing and image processing based on captured image data obtained by the plurality of imaging units 16, and captured image data subjected to the image processing. Is displayed on the display device 8.

また、周辺監視システム100(車両周辺監視装置)では、ECU14、モニタ装置11等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、加速度センサ26等が、車内ネットワーク23(電気通信回線)を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、ブレーキシステム18、操舵システム12等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ12b、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、加速度センサ26等の検出結果を受け取ることができる。また、ECU14は、操作入力部10等の指示信号(制御信号、操作信号、入力信号、データ)を受け取ることができる。   In addition, in the periphery monitoring system 100 (vehicle periphery monitoring device), in addition to the ECU 14, the monitor device 11, and the like, the brake system 18, the steering angle sensor 19, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, the acceleration sensor 26, and the like. Are electrically connected via an in-vehicle network 23 (electric communication line). The in-vehicle network 23 is configured as a CAN (Controller Area Network), for example. The ECU 14 can control the brake system 18, the steering system 12, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 can receive detection results of the torque sensor 12b, the brake sensor 18b, the rudder angle sensor 19, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, the acceleration sensor 26, and the like via the in-vehicle network 23. . Further, the ECU 14 can receive an instruction signal (control signal, operation signal, input signal, data) from the operation input unit 10 or the like.

ECU14は、例えば、CPU14a(Central Processing Unit)、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理や、車両1の移動経路の演算、物体との干渉の有無の判断等の各種の演算処理を実行する。CPU14aは、ROM14b等の不揮発性の記憶装置に記憶されたプログラムを読み出し、当該プログラムに従って演算処理を実行する。   The ECU 14 includes, for example, a CPU 14a (Central Processing Unit), a ROM 14b (Read Only Memory), a RAM 14c (Random Access Memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (Solid State Drive, flash memory), and the like. Yes. The CPU 14a executes, for example, various kinds of calculation processing such as image processing related to an image displayed on the display device 8, calculation of a movement route of the vehicle 1, and determination of presence / absence of interference with an object. The CPU 14a reads a program stored in a nonvolatile storage device such as the ROM 14b, and executes arithmetic processing according to the program.

RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部16で得られた撮像画像データを用いた画像処理や、表示装置8で表示される撮像画像データの画像処理(例えば合成等)等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合であってもデータを記憶することができる。なお、CPU14a、ROM14b、RAM14c等は、同一パッケージ内に集積可能である。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等によって実現してもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。   The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. The display control unit 14d mainly performs image processing using the captured image data obtained by the imaging unit 16 and arithmetic processing (for example, image processing of captured image data displayed on the display device 8) in the arithmetic processing performed by the ECU 14. Etc.). In addition, the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit, and can store data even when the ECU 14 is powered off. Note that the CPU 14a, ROM 14b, RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may be realized by another logical operation processor such as a DSP (Digital Signal Processor), a logic circuit, or the like instead of the CPU 14a. Further, an HDD (Hard Disk Drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the ECU 14.

ここで、図4は、本実施形態にかかる車両周辺監視装置のECU14内に実現される各構成を示すブロック図である。図4に示されるように、CPU14aは、ROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現される各種モジュールを備える。CPU14aは、本実施形態における表示制御に関連するモジュールとして、例えば、周辺画像取得部27、舵角取得部28、進路算出部30、指標取得部32、フィルタ処理部33等を備える。   Here, FIG. 4 is a block diagram showing each configuration realized in the ECU 14 of the vehicle periphery monitoring device according to the present embodiment. As shown in FIG. 4, the CPU 14a includes various modules that are realized by reading a program installed and stored in a storage device such as the ROM 14b and executing the program. The CPU 14a includes, for example, a peripheral image acquisition unit 27, a steering angle acquisition unit 28, a course calculation unit 30, an index acquisition unit 32, a filter processing unit 33, and the like as modules related to display control in the present embodiment.

周辺画像取得部27は、撮像部16から出力される撮像画像データ(周辺画像)を取得する。舵角取得部28は、車内ネットワーク23を介して供給される舵角センサ19の検出結果(車両1の舵角(操舵角))を取得する。進路算出部30は、舵角取得部28から提供された操舵角に基づいて、車両1の各車輪3の予測進路を算出する。   The peripheral image acquisition unit 27 acquires captured image data (peripheral image) output from the imaging unit 16. The steering angle acquisition unit 28 acquires the detection result (the steering angle (steering angle) of the vehicle 1) of the steering angle sensor 19 supplied via the in-vehicle network 23. The course calculation unit 30 calculates the predicted course of each wheel 3 of the vehicle 1 based on the steering angle provided from the steering angle acquisition unit 28.

指標取得部32は、舵角取得部28から提供された操舵角に基づき、SSD14f等の記憶装置に記憶されている車両1の外形情報を示す指標を読み出す。車両1の外形情報を示す指標とは、例えば、車両1の車幅を示す情報や、車輪3の接地位置を示す情報、車両前方の距離を示す情報等である。指標の具体的な説明は後述する。   Based on the steering angle provided from the steering angle acquisition unit 28, the index acquisition unit 32 reads an index indicating the external information of the vehicle 1 stored in a storage device such as the SSD 14f. The index indicating the external information of the vehicle 1 is, for example, information indicating the vehicle width of the vehicle 1, information indicating the ground contact position of the wheel 3, information indicating the distance in front of the vehicle, or the like. A specific description of the index will be described later.

フィルタ処理部33は、周辺画像の一部の領域に輪郭強調のフィルタ処理を実行する。フィルタ処理部33は、例えば、周辺画像における各車輪3の予測進路(その周囲を含んでもよい。以下同様。)に対して、輪郭強調のフィルタ処理を実行する。なお、輪郭強調のフィルタ処理の計算例(nは係数)は、次の通りである。ただし、輪郭強調のフィルタ処理の計算手法は、この計算例に限定されない。

Figure 2018006943
The filter processing unit 33 performs a contour enhancement filter process on a partial region of the peripheral image. The filter processing unit 33 performs, for example, an edge enhancement filter process on the predicted course of each wheel 3 in the peripheral image (which may include the periphery thereof). A calculation example (n is a coefficient) of the filter processing for edge enhancement is as follows. However, the calculation method of the contour enhancement filter processing is not limited to this calculation example.
Figure 2018006943

ここで、周辺画像は、車両1の進行方向を表す進行方向画像(例えば、図6の前方画像領域50の画像)と、車両1の側方を表す側方画像(例えば、図6の右側方画像領域48a、左側方画像領域48bの画像)を含んでいる。例えば、舵角が所定値以上の場合、フィルタ処理部33は、進行方向画像、側方画像の両方について、車輪3の予測進路に対して輪郭強調のフィルタ処理を実行する。   Here, the peripheral image includes a traveling direction image representing the traveling direction of the vehicle 1 (for example, an image of the front image region 50 in FIG. 6) and a side image representing the side of the vehicle 1 (for example, the right side in FIG. 6). Image area 48a and left side image area 48b). For example, when the rudder angle is equal to or greater than a predetermined value, the filter processing unit 33 performs a filter process for contour enhancement on the predicted course of the wheel 3 for both the traveling direction image and the side image.

また、フィルタ処理部33は、周辺画像において、第1の領域に対して、第1の領域よりも車両1から離れた場所に対応する第2の領域よりも強い輪郭強調のフィルタ処理を実行するようにしてもよい(図7を用いて後述)。   In addition, the filter processing unit 33 executes, in the surrounding image, a stronger edge enhancement filter process for the first area than for the second area corresponding to a location farther away from the vehicle 1 than for the first area. You may make it (it mentions later using FIG. 7).

また、撮像部16は、ステレオカメラにより実現してもよい。その場合、フィルタ処理部33は、そのステレオカメラの視差に基づいて、周辺画像に対して、車両1からの距離が近い部分を表す領域ほど、強い輪郭強調のフィルタ処理を実行するようにしてもよい。   Further, the imaging unit 16 may be realized by a stereo camera. In that case, based on the parallax of the stereo camera, the filter processing unit 33 may perform a stronger edge enhancement filter process on a peripheral image in a region representing a portion closer to the distance from the vehicle 1. Good.

表示制御部14dは、フィルタ処理部33による輪郭強調のフィルタ処理が実行された周辺画像を表示部(表示装置8等)に表示する(図9を用いて後述)。   The display control unit 14d displays on the display unit (the display device 8 or the like) the peripheral image that has been subjected to the contour enhancement filter processing by the filter processing unit 33 (described later with reference to FIG. 9).

なお、CPU14a内に実現される各モジュールは、上述したように機能ごとに個別に構成されてもよいし、複数の機能をまとめて一つのモジュールで実現してもよい。逆に機能をさらに細分化して実現してもよい。   Each module realized in the CPU 14a may be individually configured for each function as described above, or a plurality of functions may be realized by a single module. Conversely, the functions may be further subdivided and realized.

次に、図5を用いて、後輪幅軌跡(予測進路)の算出手順の一例を説明する。図5は、本実施形態にかかる車両周辺監視装置における後輪幅軌跡を算出する場合の算出例の説明図である。運転者が操舵部4(ステアリングホイール)を操作して前輪3Fの操舵角を変更した場合、前輪3Fの向き3Faと直交する方向と、後輪3Rを支持する後輪車軸38の延長方向との交点が車両1の旋回中心G1となる。つまり、車両1が前輪3Fの操舵角にしたがって旋回する場合、後輪車軸38の中心点38aはこの旋回中心G1を中心とする円弧に沿って移動する。また、後輪3Rも旋回中心G1を中心とする円弧に沿って移動する。この原理にしたがって、進路算出部30は、前輪3Fの操舵角に基づいて後輪3Rの後輪幅軌跡36を算出することができる。   Next, an example of a procedure for calculating the rear wheel width locus (predicted course) will be described with reference to FIG. FIG. 5 is an explanatory diagram of a calculation example in the case of calculating a rear wheel width locus in the vehicle periphery monitoring device according to the present embodiment. When the driver operates the steering unit 4 (steering wheel) to change the steering angle of the front wheel 3F, the direction orthogonal to the direction 3Fa of the front wheel 3F and the extension direction of the rear wheel axle 38 that supports the rear wheel 3R The intersection is the turning center G1 of the vehicle 1. That is, when the vehicle 1 turns according to the steering angle of the front wheel 3F, the center point 38a of the rear wheel axle 38 moves along an arc centered on the turning center G1. The rear wheel 3R also moves along an arc centered on the turning center G1. In accordance with this principle, the course calculation unit 30 can calculate the rear wheel width locus 36 of the rear wheel 3R based on the steering angle of the front wheel 3F.

また、進路算出部30は、車両1の前輪3Fの前輪幅軌跡(予測進路)を算出することもできる。そして、表示制御部14dは、車両1の前方画像を撮像する撮像部16aから出力された前方撮像画像データに前輪幅軌跡を重畳表示することができる。前輪幅軌跡は、例えば、舵角取得部28から提供される操舵角に基づいて、前輪3Fの向いている方向を示す指標として表示することができる。なお、前輪幅軌跡の表示長さは、重畳する前方画像上で例えば5mに相当する長さのように所定値としてもよいし、利用者が操作入力部10を用いて適宜設定できるようにしてもよい。   The course calculation unit 30 can also calculate a front wheel width locus (predicted course) of the front wheel 3F of the vehicle 1. And the display control part 14d can superimpose and display a front-wheel width locus | trajectory on the front captured image data output from the imaging part 16a which images the front image of the vehicle 1. FIG. The front wheel width trajectory can be displayed as an index indicating the direction in which the front wheel 3F is facing based on the steering angle provided from the rudder angle acquisition unit 28, for example. The display length of the front wheel width trajectory may be a predetermined value such as a length corresponding to 5 m on the superimposed front image, or may be set as appropriate by the user using the operation input unit 10. Also good.

なお、後輪3Rの向きは常に車両前後方向を向いているため、前輪3Fが操舵されて車両1が旋回する場合、前輪3Fの操舵角が小さい場合、後輪幅軌跡36の旋回内側へのせり出し量は少なく、車両1の側部とほぼ重なり、認識し難い状態となる。また、車両1の側部から僅かにせり出した後輪幅軌跡36は車両1の側部輪郭線との区別がし難くなるという煩わしさを利用者に与えてしまう場合もある。そこで、表示制御部14dは、後輪車軸38から提供される車両1の操舵角が所定値以上になった場合に、車両1の撮像部16b(撮像部16d)から提供された側方撮像画像データに後輪幅軌跡36を重畳表示する。つまり、前輪3Fの操舵角がある程度大きくなり、後輪3Rの予測進路の表示の必要性が高まった場合に表示するようにしている。後輪幅軌跡36の表示を開始する操舵角の所定値として、例えば、操舵角=270°とすることができる。この場合、後輪幅軌跡36は車両1の側部輪郭線から充分に離間して表示されるため、後輪3Rの予測進路の把握が容易になる。また、後輪幅軌跡36が車両1の側部輪郭線と区別がし難くなるという煩わしさを利用者に与えてしまうことも抑制できる。   Since the direction of the rear wheel 3R is always in the front-rear direction of the vehicle, when the front wheel 3F is steered and the vehicle 1 turns, when the steering angle of the front wheel 3F is small, the rear wheel width trajectory 36 is turned inward. The amount of protrusion is small and it almost overlaps the side of the vehicle 1, making it difficult to recognize. Further, the rear wheel width trajectory 36 slightly protruding from the side portion of the vehicle 1 may give the user troublesomeness that it is difficult to distinguish it from the side contour line of the vehicle 1. Accordingly, the display control unit 14d displays the side captured image provided from the imaging unit 16b (imaging unit 16d) of the vehicle 1 when the steering angle of the vehicle 1 provided from the rear wheel axle 38 exceeds a predetermined value. The rear wheel width locus 36 is superimposed on the data. In other words, the display is made when the steering angle of the front wheel 3F is increased to some extent and the necessity of displaying the predicted course of the rear wheel 3R is increased. As a predetermined value of the steering angle at which the display of the rear wheel width locus 36 is started, for example, the steering angle can be 270 °. In this case, the rear wheel width trajectory 36 is displayed sufficiently away from the side contour of the vehicle 1, so that it is easy to grasp the predicted course of the rear wheel 3 </ b> R. Further, it is possible to prevent the rear wheel width trajectory 36 from giving the user the troublesomeness of being difficult to distinguish from the side contour of the vehicle 1.

なお、操舵角=270°未満の場合、後輪3Rはほぼ前輪3Fと同じ進路を通過すると考えられる。前述したように、表示制御部14dは前輪3Fの前輪幅軌跡を前方画像上に重畳表示することができる。したがって、利用者は、操舵角が所定値未満で、後輪幅軌跡36が表示されない場合でも前輪幅軌跡を確認することにより後輪3Rの予測進路を推測することができる。なお、進路算出部30は、操舵角が所定値未満の場合に後輪幅軌跡36の算出を行わなくてもよいし、操舵角が所定値未満の場合でも算出してもよい。所定値未満の場合に後輪幅軌跡36の算出を行わない場合、CPU14aの処理負荷を軽減することができる。逆に、常時算出する場合は、操舵角が所定値以上になった場合に迅速に重畳表示を実行することができる。なお、後輪幅軌跡36の表示を開始する操舵角が270°というのは一例であり、操作入力部10等を介して利用者が当該操舵角を適宜設定変更できるようにしてもよい。   When the steering angle is less than 270 °, the rear wheel 3R is considered to pass substantially the same path as the front wheel 3F. As described above, the display control unit 14d can superimpose and display the front wheel width locus of the front wheel 3F on the front image. Therefore, even when the steering angle is less than the predetermined value and the rear wheel width locus 36 is not displayed, the user can estimate the predicted course of the rear wheel 3R by checking the front wheel width locus. The course calculation unit 30 may not calculate the rear wheel width locus 36 when the steering angle is less than a predetermined value, or may calculate even when the steering angle is less than the predetermined value. When the rear wheel width trajectory 36 is not calculated when it is less than the predetermined value, the processing load on the CPU 14a can be reduced. On the contrary, in the case of constant calculation, the superimposed display can be quickly executed when the steering angle becomes a predetermined value or more. Note that the steering angle at which the display of the rear wheel width trajectory 36 is started is 270 °, which is merely an example, and the user may be able to appropriately change the setting of the steering angle via the operation input unit 10 or the like.

また、操舵角が所定値未満で後輪幅軌跡36が表示されない場合、表示制御部14dは、車両1の外形情報を示す指標を撮像部16b(撮像部16d)が撮像した側方撮像画像データに重畳表示するようにしてもよい。車両1の外形情報を示す指標とは、前述したように、例えば、車両1の車幅を示す情報や、車輪3の接地位置を示す情報、車両前方の距離を示す情報等である。車両1の車幅を示す情報は、例えば、車幅を示す車幅線40aや当該車幅線40aから例えば0.35m車幅外方向にオフセットした車幅オフセット線40b等である。車幅線40aや車幅オフセット線40b等を表示することにより、車両1と周辺の関係、例えば接触の有無や間隔の是非を利用者に把握させやすくすることができる。また、車輪3の接地位置を示す接地線42(図6参照)は、例えば車幅オフセット線40b上に表示され、車両1の車幅と車輪3の接地位置との対応付けがし易いように表示される。また、車両前方の距離を示す間隔線44は、車両1の前方の端部2cを基準に例えば、一定間隔で複数本表示され、車両1の前方距離感覚を理解し易くしている。なお、間隔線44の一部は、側方画面上に表示されてもよい。これらの指標は、車両1に対して固定の線であるため、常時表示していても利用者に煩わしさや違和感を与えにくい。   When the steering angle is less than the predetermined value and the rear wheel width trajectory 36 is not displayed, the display control unit 14d captures an index indicating the outer shape information of the vehicle 1 by the imaging unit 16b (imaging unit 16d). You may make it superimpose on. As described above, the index indicating the external information of the vehicle 1 is, for example, information indicating the vehicle width of the vehicle 1, information indicating the ground contact position of the wheel 3, information indicating the distance in front of the vehicle, or the like. The information indicating the vehicle width of the vehicle 1 is, for example, a vehicle width line 40a indicating the vehicle width, a vehicle width offset line 40b offset from the vehicle width line 40a by, for example, 0.35 m in the vehicle width outward direction, and the like. By displaying the vehicle width line 40a, the vehicle width offset line 40b, and the like, it is possible to make it easier for the user to grasp the relationship between the vehicle 1 and the surroundings, for example, the presence or absence of contact and the appropriateness of the interval. A ground line 42 (see FIG. 6) indicating the ground contact position of the wheel 3 is displayed, for example, on the vehicle width offset line 40b so that the vehicle width of the vehicle 1 and the ground contact position of the wheel 3 can be easily associated with each other. Is displayed. In addition, a plurality of interval lines 44 indicating the distance ahead of the vehicle are displayed at regular intervals, for example, with reference to the front end portion 2c of the vehicle 1 to make it easier to understand the sense of the front distance of the vehicle 1. A part of the interval line 44 may be displayed on the side screen. Since these indicators are fixed lines with respect to the vehicle 1, even if they are always displayed, it is difficult for the user to feel bothersome or uncomfortable.

車幅線40a、車幅オフセット線40b、接地線42、間隔線44等の指標は、後輪幅軌跡36が表示されない場合、つまり操舵角が所定値未満の場合に、後輪幅軌跡36に代えて表示するようにしてもよい。また、操舵角が所定値以上になり、後輪幅軌跡36が表示された後も後輪車軸38と併せて表示するようにしてもよい。指標と後輪幅軌跡36を選択的にいずれか一方を表示する場合、それぞれの表示を際立たせることが可能になり、利用者に認識させやすくすることができる。一方、後輪幅軌跡36が表示された後も指標を表示する場合、後輪3Rの予測進路と車両1の外形との関係を理解させやすくなるという効果がある。   The indicators such as the vehicle width line 40a, the vehicle width offset line 40b, the ground line 42, and the spacing line 44 are displayed on the rear wheel width locus 36 when the rear wheel width locus 36 is not displayed, that is, when the steering angle is less than a predetermined value. Alternatively, it may be displayed. Further, even after the steering angle becomes a predetermined value or more and the rear wheel width locus 36 is displayed, it may be displayed together with the rear wheel axle 38. When either one of the index and the rear wheel width trajectory 36 is selectively displayed, it is possible to make each display stand out and make it easy for the user to recognize. On the other hand, when the index is displayed even after the rear wheel width trajectory 36 is displayed, there is an effect that the relationship between the predicted course of the rear wheel 3R and the outer shape of the vehicle 1 can be easily understood.

次に、本実施形態の第1の画像例について説明する。図6(a)は、本実施形態にかかる車両周辺監視装置において輪郭強調のフィルタ処理を実行する前の画像例を示す図である。図6(b)は、車両1の各車輪3の予測進路に対して輪郭強調のフィルタ処理を実行した後の画像例を示す図である。   Next, a first image example of this embodiment will be described. FIG. 6A is a diagram illustrating an example of an image before the contour emphasis filter process is executed in the vehicle periphery monitoring device according to the present embodiment. FIG. 6B is a diagram illustrating an example of an image after the contour emphasis filtering process is performed on the predicted course of each wheel 3 of the vehicle 1.

図6(a)(b)は、操舵角が所定値未満の場合の画像例である。図6(a)では、後輪幅軌跡36は表示されず、右側方画像領域48a及び左側方画像領域48bには、車両1の外形情報を示す指標である車幅オフセット線40b、接地線42、間隔線44等が重畳表示されている。また、前方画像領域50には、前輪幅軌跡52a、52bと共に車幅オフセット線40bや間隔線44が重畳表示されている。また、右側方画像領域48aと左側方画像領域48bとに挟まれた中央下部には、車両1の姿勢を示す姿勢シンボル54を表示する姿勢シンボル表示領域54aが割り当てられている。   6A and 6B are examples of images when the steering angle is less than a predetermined value. In FIG. 6 (a), the rear wheel width locus 36 is not displayed, and the right side image area 48a and the left side image area 48b have a vehicle width offset line 40b and a ground line 42, which are indices indicating the external information of the vehicle 1. The interval line 44 and the like are superimposed and displayed. In the front image area 50, the vehicle width offset line 40b and the interval line 44 are superimposed and displayed together with the front wheel width loci 52a and 52b. In addition, an attitude symbol display area 54a for displaying an attitude symbol 54 indicating the attitude of the vehicle 1 is assigned to a lower center portion between the right side image area 48a and the left side image area 48b.

図6(a)の前方画像領域50の表示によれば、前輪幅軌跡52a、52bが表示されている。しかし、前方画像領域50の画像全体が拡大や歪み補正等の処理を経てから表示されているため、前輪幅軌跡52a、52bの部分についても、路面や路面上の物体の凹凸がわかりにくい等、運転支援のための画像として充分に鮮明とは言えない。   According to the display of the front image area 50 in FIG. 6A, the front wheel width trajectories 52a and 52b are displayed. However, since the entire image of the front image area 50 is displayed after being subjected to processing such as enlargement and distortion correction, it is difficult to understand the unevenness of the road surface and the object on the road surface in the portions of the front wheel width trajectories 52a and 52b. It is not clear enough as an image for driving support.

そこで、図6(a)の前方画像領域50について、前輪幅軌跡52aとその周囲を含む領域60aと、前輪幅軌跡52bとその周囲を含む領域60bとに対して、フィルタ処理部33による輪郭強調のフィルタ処理を実行したものが、図6(b)である。このようにして、図6(b)の前方画像領域50によれば、周辺画像における予測進路(領域60a、60b)の凹凸がわかりやすくなるので、運転者は進路を適切に決めることができる。なお、図6(b)において、領域60a、60bは、おおよその領域を示すものであり、これに限定されない。例えば、周囲の幅は任意に設定可能である。   Accordingly, with respect to the front image region 50 in FIG. 6A, the contour enhancement by the filter processing unit 33 is performed on the front wheel width locus 52a and the region 60a including the periphery thereof, and the front wheel width locus 52b and the region 60b including the periphery thereof. FIG. 6B shows the result of performing the filtering process. In this way, according to the front image area 50 in FIG. 6B, the unevenness of the predicted courses (areas 60a and 60b) in the peripheral images can be easily understood, so that the driver can appropriately determine the course. In FIG. 6B, regions 60a and 60b are approximate regions and are not limited thereto. For example, the peripheral width can be arbitrarily set.

次に、本実施形態の第2の画像例について説明する。図7(a)は、図6(a)と同様の図である。図7(b)は、自車両(車両1)に近い部分ほど強い輪郭強調のフィルタ処理を実行した後の画像例を示す図である。   Next, a second image example of this embodiment will be described. FIG. 7A is a diagram similar to FIG. FIG. 7B is a diagram illustrating an example of an image after executing a filter process for emphasizing contour enhancement that is closer to the own vehicle (vehicle 1).

図7(a)の前方画像領域50の表示によれば、画像全体が拡大や歪み補正等の処理を経てから表示されているため、全体的に路面や路面上の物体の凹凸がわかりにくくて遠近感(奥行き感)が弱く、運転支援のための画像として充分に鮮明とは言えない。   According to the display of the front image area 50 in FIG. 7A, since the entire image is displayed after being subjected to processing such as enlargement and distortion correction, the road surface and the unevenness of the object on the road surface are generally difficult to understand. The sense of depth (feeling of depth) is weak and it cannot be said that the image is sufficiently clear for driving support.

そこで、図7(a)の前方画像領域50について、フィルタ処理部33によって次のフィルタ処理を行って、図7(b)の前方画像領域50とする。すなわち、車両1(自車両)に一番近い第1の領域61に対して、一番強い輪郭強調のフィルタ処理を行う。また、車両1(自車両)に次に近い第2の領域62に対して、第1の領域61よりも弱い輪郭強調のフィルタ処理を行う。また、車両1(自車両)に次に近い第3の領域63に対して、第2の領域62よりも弱い輪郭強調のフィルタ処理を行う。その他の領域に対しては、輪郭強調のフィルタ処理を行わないものとしてもよいし、また、第3の領域63よりも弱い輪郭強調のフィルタ処理を行ってもよい。   Therefore, the following image processing is performed on the front image region 50 in FIG. 7A by the filter processing unit 33 to obtain the front image region 50 in FIG. 7B. That is, the strongest edge enhancement filter process is performed on the first region 61 closest to the vehicle 1 (the host vehicle). Further, a contour enhancement filter process weaker than that of the first region 61 is performed on the second region 62 next closest to the vehicle 1 (the host vehicle). Further, a contour enhancement filter process weaker than that of the second region 62 is performed on the third region 63 next closest to the vehicle 1 (the host vehicle). The other regions may not be subjected to contour emphasis filter processing, or may be subjected to contour emphasis filter processing weaker than that of the third region 63.

このようにして、図7(b)の前方画像領域50によれば、周辺画像において、車両1(自車両)に近い部分を表す領域ほど凹凸がわかりやすくなるので、遠近感(奥行き感)が強くなり、運転者がより運転しやすくなる。なお、図7(b)において、領域61、62、63は、おおよその領域を示すものであり、これに限定されない。例えば、領域の幅等は任意に設定可能である。   In this way, according to the front image area 50 in FIG. 7B, the unevenness becomes easier to understand in the peripheral image as the area that is closer to the vehicle 1 (the host vehicle) has a sense of perspective (depth feeling). It becomes stronger and it becomes easier for the driver to drive. In FIG. 7B, regions 61, 62, and 63 indicate approximate regions, and are not limited thereto. For example, the width of the region can be arbitrarily set.

次に、本実施形態の第3の画像例について説明する。図8(a)は、本実施形態にかかる車両周辺監視装置において輪郭強調のフィルタ処理を実行する前の画像例を示す図である。図8(b)は、進行方向画像と側方画像の両方において、車両1の各車輪3の予測進路に対して輪郭強調のフィルタ処理を実行した後の画像例を示す図である。   Next, a third image example of this embodiment will be described. FIG. 8A is a diagram illustrating an example of an image before the contour emphasis filter process is executed in the vehicle periphery monitoring device according to the present embodiment. FIG. 8B is a diagram illustrating an example of an image after the contour emphasis filter process is performed on the predicted course of each wheel 3 of the vehicle 1 in both the traveling direction image and the side image.

図8(a)(b)は、操舵角が所定値以上の場合の画像例である。まず、図8(a)について、主に図6(a)との相違点を説明し、共通点の説明を適宜省略する。図8(a)では、表示装置8の表示領域の右の上端から下端までに右側方画像領域48aが割り当てられ、表示領域の左の上端から下端までに左側方画像領域48bが割り当てられている。これは、右側方画像領域48a及び左側方画像領域48bに、前輪3F及び後輪3R(一部)を表示するためである。そして、右側方画像領域48aには、後輪3Rから伸びる後輪幅軌跡36と、前輪3Fから伸びる前輪幅軌跡36aとが重畳表示されている。後輪幅軌跡36と前輪幅軌跡36aは、車輪から伸びている軌跡なので、運転者にとって予測進路であると認識しやすい。   FIGS. 8A and 8B are examples of images when the steering angle is greater than or equal to a predetermined value. First, regarding FIG. 8A, differences from FIG. 6A will be mainly described, and description of common points will be omitted as appropriate. In FIG. 8A, a right side image area 48a is allocated from the upper right end to the lower end of the display area of the display device 8, and a left side image area 48b is allocated from the upper left end to the lower end of the display area. . This is because the front wheel 3F and the rear wheel 3R (part) are displayed in the right side image region 48a and the left side image region 48b. In the right-side image area 48a, a rear wheel width locus 36 extending from the rear wheel 3R and a front wheel width locus 36a extending from the front wheel 3F are superimposed and displayed. Since the rear wheel width trajectory 36 and the front wheel width trajectory 36a are trajectories extending from the wheels, the driver can easily recognize the predicted course.

また、右側方画像領域48aと左側方画像領域48bとに挟まれた中央上部には、前方画像領域50が割り当てられている。そして、前方画像領域50には、前輪幅軌跡52a、52bと共に車幅オフセット線40bが重畳表示されている。   A front image area 50 is assigned to an upper center portion between the right side image area 48a and the left side image area 48b. In the front image area 50, the vehicle width offset line 40b is superimposed and displayed together with the front wheel width loci 52a and 52b.

図8(a)の右側方画像領域48aの表示によれば、後輪幅軌跡36と、前輪幅軌跡36aとが重畳表示されている。しかし、右側方画像領域48aの画像全体が拡大や歪み補正等の処理を経てから表示されているため、後輪幅軌跡36と前輪幅軌跡36aの部分についても、路面や路面上の物体の凹凸がわかりにくい等、運転支援のための画像として充分に鮮明とは言えない。   According to the display of the right side image area 48a in FIG. 8A, the rear wheel width locus 36 and the front wheel width locus 36a are displayed in a superimposed manner. However, since the entire image in the right-side image area 48a is displayed after being subjected to processing such as enlargement and distortion correction, the rear wheel width locus 36 and the front wheel width locus 36a are also uneven in the road surface and on the road surface. It is not clear enough as an image for driving support.

そこで、図8(a)の右側方画像領域48aについて、後輪幅軌跡36とその周囲を含む領域65と、前輪幅軌跡36aとその周囲を含む領域64とに対して、フィルタ処理部33による輪郭強調のフィルタ処理を実行したものが、図8(b)である。このようにして、図8(b)の前方画像領域50によれば、車両1の舵角が所定値以上の場合に、進行方向画像(前方画像領域50の画像)よりも予測進路を大きく表すことのできる側方画像(右側方画像領域48aの画像)において、予測進路(領域64、65)の凹凸がわかりやすくなるので、運転者は進路を適切に決めることができる。なお、図8(b)において、領域64、65は、おおよその領域を示すものであり、これに限定されない。例えば、周囲の幅は任意に設定可能である。また、図8(a)(b)において、前輪幅軌跡36aや領域64を表示しなくてもよい。   Therefore, with respect to the right-side image region 48a in FIG. 8A, the filter processing unit 33 performs the processing on the rear wheel width locus 36 and the region 65 including the periphery thereof, and the front wheel width locus 36a and the region 64 including the periphery thereof. FIG. 8B shows the result of executing the edge enhancement filter processing. Thus, according to the front image area 50 of FIG. 8B, when the steering angle of the vehicle 1 is equal to or greater than a predetermined value, the predicted course is expressed larger than the traveling direction image (image of the front image area 50). Since the unevenness of the predicted course (areas 64 and 65) can be easily understood in the side image (image of the right side image area 48a) that can be used, the driver can appropriately determine the course. In FIG. 8B, regions 64 and 65 are approximate regions and are not limited thereto. For example, the peripheral width can be arbitrarily set. Further, in FIGS. 8A and 8B, the front wheel width locus 36a and the region 64 may not be displayed.

このように構成される周辺監視システム100の画像処理の手順の一例を図9のフローチャートを用いて説明する。図9は、本実施形態にかかる車両周辺監視装置の画像処理の手順を示すフローチャートである。なお、図9のフローチャートに示す処理は、前方画像領域50、右側方画像領域48a、左側方画像領域48bを表示する場合に、所定周期で繰り返し実行されるものとする。また、各撮像部16、舵角センサ19等は、所定の制御周期で継続的に検出データをECU14に提供しているものとする。   An example of the image processing procedure of the periphery monitoring system 100 configured as described above will be described with reference to the flowchart of FIG. FIG. 9 is a flowchart showing a procedure of image processing of the vehicle periphery monitoring device according to the present embodiment. Note that the processing shown in the flowchart of FIG. 9 is repeatedly executed at a predetermined cycle when the front image region 50, the right side image region 48a, and the left side image region 48b are displayed. In addition, it is assumed that each imaging unit 16, the steering angle sensor 19, and the like continuously provide detection data to the ECU 14 at a predetermined control cycle.

まず、右側方画像領域48a、左側方画像領域48b、前方画像領域50を含む表示装置8の表示が要求された場合、ECU14の周辺画像取得部27は、車両1の周囲の撮像画像データを取得する(S100)。続いて、舵角取得部28は、舵角センサ19の検出データに基づいて、現在の操舵角を取得する(S102)。また、指標取得部32は、SSD14fから現在の操舵角に対応して表示すべき指標を読み出し(取得し)、表示制御部14dに提供する(S104)。そして、表示制御部14dは、前方画像領域50に前方画像、右側方画像領域48aに右側方画像、左側方画像領域48bに左側方画像を表示させると共に(S106)、各表示領域に指標情報を重畳表示させる(S108)。   First, when display of the display device 8 including the right side image region 48a, the left side image region 48b, and the front image region 50 is requested, the surrounding image acquisition unit 27 of the ECU 14 acquires captured image data around the vehicle 1. (S100). Subsequently, the steering angle acquisition unit 28 acquires the current steering angle based on the detection data of the steering angle sensor 19 (S102). Further, the index acquisition unit 32 reads (acquires) an index to be displayed corresponding to the current steering angle from the SSD 14f, and provides it to the display control unit 14d (S104). The display control unit 14d displays the front image in the front image area 50, the right side image in the right side image area 48a, the left side image in the left side image area 48b (S106), and index information in each display area. Superimposed display (S108).

また、進路算出部30は、舵角取得部28から提供される操舵角に基づいて前輪幅軌跡52a、52bを算出して(S110)、表示制御部14dは、算出された前輪幅軌跡52a、52bを前方画像領域50に重畳表示する(S112)。   Further, the course calculation unit 30 calculates the front wheel width trajectories 52a and 52b based on the steering angle provided from the rudder angle acquisition unit 28 (S110), and the display control unit 14d calculates the calculated front wheel width trajectory 52a, 52b is superimposed and displayed on the front image area 50 (S112).

さらに、進路算出部30は、舵角取得部28から提供される操舵角が所定値以上、例えば270°以上の場合(S114のYes)、操舵角に基づいて、後輪幅軌跡36を算出する(S116)。そして、表示制御部14dは、算出された後輪幅軌跡36を側方画像(右側方画像領域48a、左側方画像領域48bの画像)に重畳表示する(S118)。   Furthermore, the course calculation unit 30 calculates the rear wheel width locus 36 based on the steering angle when the steering angle provided from the steering angle acquisition unit 28 is equal to or greater than a predetermined value, for example, 270 ° or more (Yes in S114). (S116). Then, the display control unit 14d superimposes and displays the calculated rear wheel width locus 36 on the side image (the images of the right side image region 48a and the left side image region 48b) (S118).

S114の処理において、舵角取得部28から提供される操舵角が所定値未満、例えば270°未満の場合(No)、S120に進む。   In the process of S114, when the steering angle provided from the steering angle acquisition unit 28 is less than a predetermined value, for example, less than 270 ° (No), the process proceeds to S120.

S120において、フィルタ処理部33は、所定領域に対して輪郭強調のフィルタ処理を実行する。所定領域とは、例えば、図6(b)における領域60a、60b、図7(b)における領域61、62、63、図8(b)における領域60a、60b、64、65である。   In step S120, the filter processing unit 33 performs a contour enhancement filter process on the predetermined region. The predetermined regions are, for example, the regions 60a and 60b in FIG. 6B, the regions 61, 62, and 63 in FIG. 7B, and the regions 60a, 60b, 64, and 65 in FIG.

なお、S118の処理で後輪幅軌跡36を重畳表示する場合、S108の処理で重畳表示した指標情報を非表示としてもよい。このように、状況に応じて利用者に注目させたい表示内容を際立たせて表示させることにより、車両1の周辺の状況をより適切に利用者に認識させやすくすることができる。   When the rear wheel width locus 36 is displayed in a superimposed manner in the process of S118, the index information superimposed in the process of S108 may be hidden. In this way, by displaying the display contents that the user wants to pay attention to according to the situation, the situation around the vehicle 1 can be more easily recognized by the user.

また、S120の処理では、画像における前輪幅軌跡52a、52b、車幅オフセット線40b、間隔線44等を示す線については輪郭強調のフィルタ処理を実行しなくてもよい。   In the process of S120, the contour emphasis filter process need not be executed for lines indicating the front wheel width trajectories 52a and 52b, the vehicle width offset line 40b, the interval line 44, and the like in the image.

本発明の実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although the embodiments of the present invention have been described, these embodiments are presented as examples, and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…車両、3…車輪、3F…前輪、3R…後輪、8…表示装置、14…ECU、14a…CPU、14b…ROM、14c…RAM、14d…表示制御部、14f…SSD、16,16a,16b,16c,16d…撮像部、27…周辺画像取得部、28…舵角取得部、30…進路算出部、32…指標取得部、33…フィルタ処理部、48a…右側方画像領域、48b…左側方画像領域、50…前方画像領域、100…周辺監視システム。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 3 ... Wheel, 3F ... Front wheel, 3R ... Rear wheel, 8 ... Display device, 14 ... ECU, 14a ... CPU, 14b ... ROM, 14c ... RAM, 14d ... Display control part, 14f ... SSD, 16, 16a, 16b, 16c, 16d ... imaging unit, 27 ... peripheral image acquisition unit, 28 ... rudder angle acquisition unit, 30 ... course calculation unit, 32 ... index acquisition unit, 33 ... filter processing unit, 48a ... right side image region, 48b: Left side image area, 50: Front image area, 100: Perimeter monitoring system.

Claims (5)

車両の周辺を撮像する撮像部から出力される周辺画像を取得する周辺画像取得部と、
前記周辺画像の一部の領域に輪郭強調のフィルタ処理を実行するフィルタ処理部と、
前記フィルタ処理が実行された周辺画像を表示部に表示する表示制御部と、
を備える車両周辺監視装置。
A peripheral image acquisition unit that acquires a peripheral image output from an imaging unit that images the periphery of the vehicle;
A filter processing unit that performs contour emphasis filter processing on a partial region of the peripheral image;
A display control unit that displays a peripheral image on which the filtering process has been performed on a display unit;
A vehicle periphery monitoring device.
前記車両の舵角を取得する舵角取得部をさらに備え、
前記フィルタ処理部は、前記周辺画像の一部の領域として、前記舵角に基づいた前記車両の各車輪の予測進路に対して、前記フィルタ処理を実行する、請求項1に記載の車両周辺監視装置。
A steering angle acquisition unit for acquiring the steering angle of the vehicle;
2. The vehicle periphery monitoring according to claim 1, wherein the filter processing unit executes the filter processing on a predicted course of each wheel of the vehicle based on the steering angle as a partial region of the surrounding image. apparatus.
前記周辺画像は、前記車両の側方を表す側方画像を含んでおり、
前記フィルタ処理部は、前記舵角が所定値以上の場合、前記側方画像における、前記舵角に基づいた前記車両の各車輪の予測進路に対して、前記フィルタ処理を実行する、請求項2に記載の車両周辺監視装置。
The surrounding image includes a side image representing a side of the vehicle,
The said filter process part performs the said filter process with respect to the estimated course of each wheel of the said vehicle based on the said steering angle in the said side image, when the said steering angle is more than predetermined value. The vehicle periphery monitoring device according to claim 1.
前記周辺画像の一部の領域は、第1の領域と、前記第1の領域よりも前記車両から離れた場所に対応する第2の領域と、を含んでおり、
前記フィルタ処理部は、前記第1の領域に対して、前記第2の領域よりも強い輪郭強調のフィルタ処理を実行する、請求項1に記載の車両周辺監視装置。
The partial region of the peripheral image includes a first region and a second region corresponding to a location farther from the vehicle than the first region,
2. The vehicle periphery monitoring device according to claim 1, wherein the filter processing unit executes a filter processing for contour enhancement stronger than the second region for the first region.
前記撮像部は、ステレオカメラであり、
前記フィルタ処理部は、前記ステレオカメラの視差に基づいて、前記周辺画像に対して、前記車両からの距離が近い部分を表す領域ほど、強い輪郭強調のフィルタ処理を実行する、請求項1に記載の車両周辺監視装置。
The imaging unit is a stereo camera,
2. The filter processing unit according to claim 1, wherein the filter processing unit performs, on the basis of the parallax of the stereo camera, a stronger edge enhancement filter process for a region representing a portion closer to the distance from the vehicle. Vehicle periphery monitoring device.
JP2016129661A 2016-06-30 2016-06-30 Vehicle periphery monitoring device Pending JP2018006943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016129661A JP2018006943A (en) 2016-06-30 2016-06-30 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016129661A JP2018006943A (en) 2016-06-30 2016-06-30 Vehicle periphery monitoring device

Publications (1)

Publication Number Publication Date
JP2018006943A true JP2018006943A (en) 2018-01-11

Family

ID=60949959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016129661A Pending JP2018006943A (en) 2016-06-30 2016-06-30 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP2018006943A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490127B2 (en) 2020-03-13 2024-05-24 株式会社小松製作所 MOTOR GRADER AND DISPLAY CONTROL METHOD

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274393A (en) * 2002-03-12 2003-09-26 Matsushita Electric Ind Co Ltd Vehicle periphery monitor device
JP2013172224A (en) * 2012-02-20 2013-09-02 Hitachi Consumer Electronics Co Ltd Video processing device and video display device
JP2016101872A (en) * 2014-11-28 2016-06-02 アイシン精機株式会社 Vehicle periphery monitoring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274393A (en) * 2002-03-12 2003-09-26 Matsushita Electric Ind Co Ltd Vehicle periphery monitor device
JP2013172224A (en) * 2012-02-20 2013-09-02 Hitachi Consumer Electronics Co Ltd Video processing device and video display device
JP2016101872A (en) * 2014-11-28 2016-06-02 アイシン精機株式会社 Vehicle periphery monitoring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490127B2 (en) 2020-03-13 2024-05-24 株式会社小松製作所 MOTOR GRADER AND DISPLAY CONTROL METHOD

Similar Documents

Publication Publication Date Title
JP6447060B2 (en) Vehicle periphery monitoring device
JP6060910B2 (en) Perimeter monitoring apparatus and program
JP6380002B2 (en) Perimeter monitoring device
EP2974909B1 (en) Periphery surveillance apparatus and program
JP6281289B2 (en) Perimeter monitoring apparatus and program
JP6507626B2 (en) Vehicle perimeter monitoring device
JP6361382B2 (en) Vehicle control device
WO2018061294A1 (en) Periphery monitoring device
JP6129800B2 (en) Parking assistance device
US20200086793A1 (en) Periphery monitoring device
US10353396B2 (en) Vehicle periphery monitoring device
WO2018150642A1 (en) Surroundings monitoring device
JP2017094922A (en) Periphery monitoring device
JP6642307B2 (en) Perimeter monitoring device
JP6977318B2 (en) Peripheral display device
JP2018006943A (en) Vehicle periphery monitoring device
JP6840998B2 (en) Obstacle detector
WO2018025441A1 (en) Periphery monitoring device
JP2021062750A (en) Parking support apparatus, parking support method, and parking support program
JP6699462B2 (en) Perimeter monitoring device
JP2018186432A (en) Display controller
JP2017211814A (en) Parking support device
JP2019018616A (en) Parking support display controller, parking support system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200908