JP2018149869A - Drive assisting device and drive assisting method - Google Patents

Drive assisting device and drive assisting method Download PDF

Info

Publication number
JP2018149869A
JP2018149869A JP2017046291A JP2017046291A JP2018149869A JP 2018149869 A JP2018149869 A JP 2018149869A JP 2017046291 A JP2017046291 A JP 2017046291A JP 2017046291 A JP2017046291 A JP 2017046291A JP 2018149869 A JP2018149869 A JP 2018149869A
Authority
JP
Japan
Prior art keywords
prediction
transmittance
region
vehicle
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017046291A
Other languages
Japanese (ja)
Inventor
山本 幸一
Koichi Yamamoto
幸一 山本
茂人 竹内
Shigeto Takeuchi
茂人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017046291A priority Critical patent/JP2018149869A/en
Publication of JP2018149869A publication Critical patent/JP2018149869A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology that enables a driver who looks at a display screen showing prediction route information to easily grasp a situation in the advancing direction of the vehicle.SOLUTION: A drive assisting device displays a predicted route of a vehicle such that the predicted route is superposed on a photographic image taken by a camera used for photographing the periphery of the vehicle. The drive assisting device comprises: a prediction face generating part that generates a pair of prediction faces, left and right, showing the predicted route stereoscopically; a detecting part that detects an object overlapping the prediction faces from the photographic image; a setting part that sets a transmissivity for the prediction faces; and a combined image generating part that generates a combined image in which the photographic image and the pair of prediction faces are combined on the basis of the transmissivity set by the setting part. The setting part alters the transmissivity according to the positional relation of the prediction faces and the object in a superposition area where the prediction faces and the object are superposed in the combined image.SELECTED DRAWING: Figure 1

Description

本発明は、運転支援装置及び運転支援方法に関する。   The present invention relates to a driving support device and a driving support method.

車載カメラで撮像した画像を車載モニタに表示し、車両運転を支援する運転支援装置が知られる。運転支援装置は、車載カメラによる撮像画像に加え、車幅ラインを示すガイド線を車両後方に延びる様にモニタ画面に重畳表示し、このガイド線の向きをハンドル操作に合せて移動させ、車両進行方向を運転者に容易に認識できるようにしている。また、従来においては、車幅ラインを示すガイド線のうち車両が曲がる内側すなわち他車と接触する可能性の高い側のガイド線を、地面からバンパ位置まで立ち上がる曲面で表示し、車両の最も出っ張っている部分であるバンパが障害物に接触するか否かの判断を容易にしようとしている。このような技術は、例えば特許文献1に開示される。   There is known a driving support device that displays an image captured by a vehicle-mounted camera on a vehicle-mounted monitor and supports vehicle driving. In addition to the image captured by the in-vehicle camera, the driving support device displays a guide line indicating the vehicle width line superimposed on the monitor screen so as to extend to the rear of the vehicle, and moves the direction of the guide line in accordance with the steering wheel operation. The driver can easily recognize the direction. Conventionally, the guide line indicating the width line of the vehicle, the guide line on the inner side where the vehicle bends, that is, the side that is likely to come into contact with another vehicle, is displayed as a curved surface that rises from the ground to the bumper position. It is trying to make it easier to determine whether the bumper that touches the obstacle is in contact with the obstacle. Such a technique is disclosed in Patent Document 1, for example.

特開2004−147083号公報JP 2004-147083 A

運転者が、地面上のガイド線からバンパ位置まで立ち上がる三次元の曲面で表示するガイドを見て車両の進行方向の状況を即座に把握できない場合、運転者は車両の進行方向の状況を誤認識する可能性がある。運転者が車両の進行方向の状況を誤認識すると、運転車両が歩行者や他の車両等と衝突を起す可能性がある。   If the driver cannot immediately grasp the vehicle's direction of travel by looking at the guide displayed on a three-dimensional curved surface that rises from the guide line on the ground to the bumper position, the driver misrecognizes the state of the vehicle's direction of travel. there's a possibility that. If the driver misrecognizes the situation in the traveling direction of the vehicle, the driving vehicle may collide with a pedestrian or another vehicle.

本発明は、上記課題に鑑みて、予測進路情報が表示される表示画面を見た運転者が、車両の進行方向の状況を容易に把握することができる技術を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a technique that allows a driver who has seen a display screen on which predicted course information is displayed to easily grasp the situation in the traveling direction of a vehicle.

本発明の運転支援装置は、車両の周辺を撮影するカメラで撮影された撮影画像に前記車両の予測進路を重ねて画面に表示させる運転支援装置であって、前記予測進路を立体的に示す左右一対の予測面を生成する予測面生成部と、前記撮影画像の中から前記予測面と重なる物体を検出する検出部と、前記予測面の透過率を設定する設定部と、前記設定部によって設定された前記透過率に基づいて前記撮影画像と前記一対の予測面とが合成された合成画像を生成する合成画像生成部と、を備え、前記設定部は、前記合成画像にて前記予測面と前記物体とが重なる重畳領域において、前記予測面と前記物体の位置関係に応じて前記透過率を変更する構成(第1の構成)である。   The driving support device of the present invention is a driving support device that displays the predicted course of the vehicle on a screen by superimposing the predicted course of the vehicle on a captured image taken by a camera that captures the periphery of the vehicle, and includes a left and right that three-dimensionally show the predicted course. Set by a prediction plane generation unit that generates a pair of prediction planes, a detection unit that detects an object that overlaps the prediction plane from the captured image, a setting unit that sets the transmittance of the prediction plane, and the setting unit A composite image generation unit that generates a composite image in which the captured image and the pair of prediction planes are combined based on the transmitted transmittance, and the setting unit includes the prediction plane in the composite image. In the overlapping region where the object overlaps, the transmittance is changed according to the positional relationship between the prediction plane and the object (first configuration).

上記第1の構成の運転支援装置は、前記重畳領域において、前記物体が、前記一対の予測面の間に位置する第1領域と、前記予測面を基準として前記第1領域の反対側に位置する第2領域とを有する場合に、前記設定部が、前記予測面の前記第1領域に重なる部分の前記透過率を、前記予測面の前記第2領域に重なる部分の前記透過率に比べて大きくする構成(第2の構成)であることが好ましい。   In the driving support device having the first configuration, in the overlapping region, the object is positioned on the opposite side of the first region with respect to the first region located between the pair of prediction surfaces and the prediction surface. And the setting unit compares the transmittance of the portion of the prediction plane that overlaps the first region with the transmittance of the portion of the prediction plane that overlaps the second region. It is preferable that the configuration be increased (second configuration).

上記第2の構成の運転支援装置は、前記第1領域の検出を報知するための処理を行う報知処理部を更に備える構成(第3の構成)であることが好ましい。   The driving support device having the second configuration preferably has a configuration (third configuration) further including a notification processing unit that performs processing for notifying the detection of the first region.

上記第3の構成の運転支援装置において、前記報知処理部は、前記第1領域の前記車両からの距離に応じて報知形態を変更する構成(第4の構成)であってよい。   In the driving support device of the third configuration, the notification processing unit may be configured to change a notification mode according to a distance from the vehicle in the first region (fourth configuration).

上記第2から第4のいずれかの構成の運転支援装置において、前記設定部は、前記物体の種類に応じて、前記予測面の前記第2領域と重なる部分の前記透過率を変更する構成(第5の構成)であってよい。   In the driving support apparatus having any one of the second to fourth configurations, the setting unit changes the transmittance of a portion of the prediction plane that overlaps the second region according to the type of the object ( (5th structure).

上記第1から第5のいずれかの構成の運転支援装置において、前記設定部は、前記予測面の曲率に基づいて前記予測面の透過率を複数種類に分けて設定する構成(第6の構成)であってよい。   In the driving support apparatus having any one of the first to fifth configurations, the setting unit is configured to set the transmittance of the predicted surface in a plurality of types based on the curvature of the predicted surface (sixth configuration). ).

上記第1から第5のいずれかの構成の運転支援装置において、前記設定部は、前記車両からの距離に基づいて前記予測面の透過率を複数種類に分けて設定する構成(第7の構成)であってよい。   In the driving support apparatus having any one of the first to fifth configurations, the setting unit is configured to set the transmittance of the prediction plane in a plurality of types based on the distance from the vehicle (seventh configuration). ).

上記第1から第7のいずれかの構成の運転支援装置において、前記予測面生成部は、異なる時刻に撮影された複数の前記撮影画像に基づいて前記一対の予測面を生成する構成(第8の構成)であることが好ましい。   In the driving support device having any one of the first to seventh configurations, the prediction plane generation unit generates the pair of prediction planes based on a plurality of the shot images shot at different times (eighth). It is preferable that

本発明の運転支援方法は、車両の周辺を撮影するカメラで撮影された撮影画像に前記車両の予測進路を重ねて画面に表示させる運転支援方法であって、前記予測進路を立体的に示す左右一対の予測面を生成する予測面生成工程と、前記撮影画像の中から前記予測面と重なる物体を検出する検出工程と、前記予測面の透過率を設定する設定工程と、前記設定工程によって設定された前記透過率に基づいて前記撮影画像と前記一対の予測面とが合成された合成画像を生成する合成画像生成工程と、を備え、前記設定工程は、前記合成画像にて前記予測面と前記物体とが重なる重畳領域において、前記予測面と前記物体との位置関係に応じて前記透過率を変更する構成(第9の構成)である。   The driving support method of the present invention is a driving support method for displaying the predicted course of the vehicle on a screen by superimposing the predicted course of the vehicle on a captured image taken by a camera that captures the periphery of the vehicle, and is a left-right display that shows the predicted course in three dimensions. A prediction surface generation step for generating a pair of prediction surfaces, a detection step for detecting an object overlapping the prediction surface from the captured image, a setting step for setting the transmittance of the prediction surface, and a setting step A composite image generation step of generating a composite image in which the captured image and the pair of prediction planes are combined based on the transmitted transmittance, and the setting step includes the prediction plane in the composite image In the overlapping region where the object overlaps, the transmittance is changed according to a positional relationship between the prediction plane and the object (a ninth configuration).

本発明によると、予測進路情報が表示される表示画面を見た運転者が、車両の進行方向の状況を容易に把握することができる技術を提供することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the technique which the driver | operator who looked at the display screen on which prediction course information is displayed can grasp | ascertain the condition of the advancing direction of a vehicle easily.

本発明の実施形態に係る運転支援システムの構成を示す図The figure which shows the structure of the driving assistance system which concerns on embodiment of this invention. 合成画像生成部によって生成された合成画像を示す模式図Schematic diagram showing the composite image generated by the composite image generator 報知処理部によって行われる処理を説明するための模式図Schematic diagram for explaining the processing performed by the notification processing unit 運転支援装置の動作例を示すフローチャートFlow chart showing an operation example of the driving support device 運転支援装置の第1変形例を説明するための模式図Schematic diagram for explaining a first modification of the driving support device 運転支援装置の第2変形例を説明するための模式図Schematic diagram for explaining a second modification of the driving support device 運転支援装置の第3変形例を説明するための模式図Schematic diagram for explaining a third modification of the driving support device

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」と呼ぶ。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」と呼ぶ。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the direction in which the vehicle travels straight and is directed from the driver's seat to the steering wheel is referred to as “front direction”. Further, a direction in which the vehicle travels straight and is directed from the steering wheel to the driver's seat is referred to as “rearward direction”. Also, the direction from the right side to the left side of the driver who faces the forward direction and is the direction perpendicular to the straight traveling direction of the vehicle and the vertical line is referred to as “left direction”. Further, the direction from the left side to the right side of the driver who faces the forward direction and is the direction perpendicular to the straight traveling direction of the vehicle and the vertical line is referred to as “right direction”.

<1.運転支援システム>
図1は、本発明の実施形態に係る運転支援システムSYS1の構成を示す図である。運転支援システムSYS1は、運転支援装置1と、カメラ2と、表示装置3と、音声出力装置4と、を備える。運転支援装置1は、車両の周辺を撮影するカメラ2で撮影された撮影画像に車両の予測進路を重ねて画面に表示させる。本実施の形態では、運転支援装置1は車両のバック駐車を支援する装置である。運転支援装置1の詳細については後述する。
<1. Driving support system>
FIG. 1 is a diagram showing a configuration of a driving support system SYS1 according to the embodiment of the present invention. The driving support system SYS1 includes a driving support device 1, a camera 2, a display device 3, and an audio output device 4. The driving assistance apparatus 1 displays the vehicle on the screen with the predicted course of the vehicle superimposed on the captured image captured by the camera 2 that captures the periphery of the vehicle. In the present embodiment, the driving support device 1 is a device that supports back parking of the vehicle. Details of the driving support device 1 will be described later.

本実施の形態では、カメラ2は、車両の後端部に設けられて車両の後方を撮影するバックカメラで構成される。ただし、カメラ2は、バックカメラに限定される趣旨ではない。例えば、運転支援装置1がバック駐車の支援に限定されない場合には、カメラ2は、車両の前方を撮影するフロントカメラを含んで構成されてもよい。カメラ2は撮影画像を運転支援装置1に出力する。以下において、特に断りなく記載される「撮影画像」は、カメラ2によって撮影された画像のことを意味する。   In the present embodiment, the camera 2 is configured by a back camera that is provided at the rear end of the vehicle and captures the rear of the vehicle. However, the camera 2 is not limited to the back camera. For example, when the driving assistance device 1 is not limited to the back parking assistance, the camera 2 may include a front camera that photographs the front of the vehicle. The camera 2 outputs the captured image to the driving support device 1. In the following, “photographed image” described without particular notice means an image photographed by the camera 2.

表示装置3は、例えばタッチパネル等の操作機能を有する、液晶等で構成されるディスプレイを備える。表示装置3は、運転支援装置1から出力される画像を表示する。表示装置3は、車両の乗員(代表的には運転手)がディスプレイの表示画面を視認できる位置に設けられる。表示装置3は、例えば車両のインストルメントパネル等に設置される。   The display device 3 includes a display composed of liquid crystal or the like having an operation function such as a touch panel. The display device 3 displays an image output from the driving support device 1. The display device 3 is provided at a position where a vehicle occupant (typically a driver) can visually recognize the display screen of the display. The display device 3 is installed on, for example, an instrument panel of a vehicle.

音声出力装置4は、スピーカやアンプ等の音声を出力するための装置を有して構成される。音声出力装置4は、運転支援装置1から音声情報を取得して車両の室内に音声を出力する。音声出力装置4は、表示装置3に内蔵される構成であってよいし、表示装置3とは別に設けられる構成であってもよい。   The audio output device 4 includes a device for outputting audio such as a speaker and an amplifier. The audio output device 4 acquires audio information from the driving support device 1 and outputs audio into the vehicle interior. The audio output device 4 may be configured to be built in the display device 3 or may be configured to be provided separately from the display device 3.

<2.運転支援装置>
運転支援装置1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含むコンピュータによって構成される。コンピュータは、ROMに記憶されたプログラムに基づいて情報の処理及び送受信を行う。本実施の形態では、運転支援装置1は、取得部11と、予測面生成部12と、検出部13と、設定部14と、合成画像生成部15と、報知処理部16と、画像出力部17と、音声出力部18と、を備える。運転支援装置1が備えるこれら各部11〜17の機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
<2. Driving assistance device>
The driving support device 1 is configured by a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). The computer processes and transmits / receives information based on a program stored in the ROM. In the present embodiment, the driving support device 1 includes an acquisition unit 11, a prediction plane generation unit 12, a detection unit 13, a setting unit 14, a composite image generation unit 15, a notification processing unit 16, and an image output unit. 17 and an audio output unit 18. The functions of these units 11 to 17 included in the driving support device 1 are realized by the CPU performing arithmetic processing according to a program.

取得部11は、カメラ2からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を、予測面生成部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。   The acquisition unit 11 acquires analog or digital photographed images from the camera 2 continuously in a predetermined cycle (for example, 1/30 second cycle). If the acquired captured image is analog, the acquisition unit 11 converts the analog captured image into a digital captured image (A / D conversion). The acquisition unit 11 outputs the acquired captured image or the acquired and converted captured image to the prediction plane generation unit 12. One captured image output from the acquisition unit 11 becomes one frame image.

予測面生成部12は、車両の予測進路を立体的に示す左右一対の予測面を生成する。検出部13は、撮影画像の中から予測面と重なる物体を検出する。設定部14は、予測面の透過率を設定する。合成画像生成部15は、設定部14によって設定された透過率に基づいて撮影画像と一対の予測面とが合成された合成画像を生成する。   The prediction plane generation unit 12 generates a pair of left and right prediction planes that three-dimensionally indicate the predicted course of the vehicle. The detection unit 13 detects an object that overlaps the prediction plane from the captured image. The setting unit 14 sets the transmittance of the prediction plane. The composite image generation unit 15 generates a composite image in which the captured image and the pair of prediction planes are combined based on the transmittance set by the setting unit 14.

図2は、合成画像生成部15によって生成された合成画像CPを示す模式図である。図2を適宜参照しながら、予測面生成部12、検出部13、設定部14、及び、合成画像生成部15の詳細について説明する。なお、図2おいて破線で示される車両5は、運転支援装置1、カメラ2、表示装置3、及び、音声出力装置4を搭載する車両である。図2おいて、車両5は、発明の理解を容易とするために便宜的に示されており、合成画像CP中に映った状態を示すものではない。また、図2において破線で示される矢印は、発明の理解を容易とするために便宜的に示されており、車両5の進行方向を模式的に示す。当該矢印も、合成画像CP中に映った状態を示すものではない。   FIG. 2 is a schematic diagram illustrating the composite image CP generated by the composite image generation unit 15. Details of the prediction plane generation unit 12, the detection unit 13, the setting unit 14, and the composite image generation unit 15 will be described with reference to FIG. A vehicle 5 indicated by a broken line in FIG. 2 is a vehicle on which the driving support device 1, the camera 2, the display device 3, and the audio output device 4 are mounted. In FIG. 2, the vehicle 5 is shown for convenience in order to facilitate understanding of the invention, and does not show a state reflected in the composite image CP. Moreover, the arrow shown with a broken line in FIG. 2 is shown for convenience, in order to make an understanding of invention easy, and shows the advancing direction of the vehicle 5 typically. The arrow also does not indicate the state shown in the composite image CP.

本実施の形態では、車両5の予測進路は、車両5がバックを行う場合における予測進路である。車両5の後輪が左右一対存在することに対応して、予測面生成部12は、図2に示すように、左右一対の予測面20a、20bを生成する。一対の予測面20a、20bは、車両の後方に延びるように生成される。   In the present embodiment, the predicted course of the vehicle 5 is a predicted course when the vehicle 5 performs the back. Corresponding to the presence of a pair of left and right rear wheels of the vehicle 5, the prediction plane generation unit 12 generates a pair of left and right prediction planes 20a and 20b as shown in FIG. The pair of prediction surfaces 20a and 20b is generated so as to extend rearward of the vehicle.

詳細には、予測面生成部12は、車両5の移動中に異なる時刻で撮影された2つの撮影画像から車両の移動方向及び単位時間当たりの移動量を推定する。具体的には、予測面生成部12は、2つのフレーム画像内の路面上に位置する特徴点のオプティカルフロー(動きベクトル)から車両5の移動方向及び単位時間当たりの移動量を推定する。特徴点は、例えば、路面上に描かれた白線のエッジ、路面上のヒビ、路面上のシミ、路面上の砂利等である。   Specifically, the prediction plane generation unit 12 estimates the moving direction of the vehicle and the amount of movement per unit time from two captured images taken at different times while the vehicle 5 is moving. Specifically, the prediction plane generation unit 12 estimates the movement direction of the vehicle 5 and the movement amount per unit time from optical flows (motion vectors) of feature points located on the road surface in the two frame images. The feature points are, for example, white line edges drawn on the road surface, cracks on the road surface, stains on the road surface, gravel on the road surface, and the like.

なお、移動方向が特異である特徴点は、推定処理で用いる特徴点のサンプルから除外されることが好ましい。これにより、例えば移動物に由来する特徴点を、推定処理で用いる特徴点のサンプルから除外することができるので、オプティカルフローを利用した車両5の移動方向及び単位時間当たりの移動量の推定精度が向上する。除外するタイミングは、例えば各特徴点のオプティカルフローを算出した後、その算出結果を用いて推定処理を行う前であってもよく、また例えば各特徴点のオプティカルフローを算出して、その算出結果を用いて推定処理を行った後であってもよい。除外するタイミングが後者である場合には、除外した結果が次回以降の推定処理に反映され、次回以降の推定処理の精度が向上する。なお、移動方向が特異であるか否かの判断は、例えば全ての特徴点の移動方向の平均を求め、その平均からのずれが所定の許容レベルを超えている場合に特異であると判断すればよい。   It should be noted that a feature point having a unique moving direction is preferably excluded from a feature point sample used in the estimation process. As a result, for example, feature points derived from moving objects can be excluded from feature point samples used in the estimation process, so that the direction of movement of the vehicle 5 using the optical flow and the estimation accuracy of the amount of movement per unit time can be improved. improves. The timing of exclusion may be, for example, after calculating the optical flow of each feature point and before performing the estimation process using the calculation result. For example, the optical flow of each feature point is calculated and the calculation result is calculated. It may be after performing an estimation process using. When the timing of exclusion is the latter, the excluded result is reflected in the estimation process after the next time, and the accuracy of the estimation process after the next time is improved. The determination of whether or not the moving direction is singular is, for example, obtained by averaging the moving directions of all feature points and determining that the moving direction is singular when the deviation from the average exceeds a predetermined allowable level. That's fine.

予測面生成部12は、推定された車両5の移動方向に基づいて、撮影画像の路面上に引かれる車両5の予測進路線を生成する。予測進路線は、例えば、車両5の後輪が通る予測位置を示す線である。予測進路線は左右一対生成される。そして、予測面生成部12は、左右のそれぞれの予測進路線を鉛直方向に拡張して、車両5の予測進路を立体的に示す一対の予測面20a、20bを生成する。鉛直方向に拡張する量は、特に限定されないが、少なくとも車両のバンパを超える量であることが好ましい。これにより、駐車時に発生し易い車両との衝突が起こる可能性を低減することができる。   The predicted surface generation unit 12 generates a predicted route of the vehicle 5 drawn on the road surface of the captured image based on the estimated movement direction of the vehicle 5. The predicted course line is a line indicating a predicted position through which the rear wheel of the vehicle 5 passes, for example. A pair of left and right predicted course lines are generated. And the prediction surface production | generation part 12 expands each left and right prediction course line to the perpendicular direction, and produces | generates a pair of prediction surface 20a, 20b which shows the prediction course of the vehicle 5 in three dimensions. The amount of expansion in the vertical direction is not particularly limited, but is preferably an amount that exceeds at least the bumper of the vehicle. Thereby, possibility that the collision with the vehicle which is easy to occur at the time of parking will occur can be reduced.

本実施の形態では、以上に説明したように、予測面生成部12は、異なる時刻に撮影された複数の撮影画像に基づいて一対の予測面20a、20bを生成する。このために、本実施の形態では、車速情報やステアリングの舵角情報等を取得することなく、画像処理のみで予測面を生成することができる。ただし、これは例示であり、予測面生成部12は、例えば、車速センサ及び舵角センサによって取得される情報を、CANバス等を介して取得し、これらの情報に基づいて一対の予測面を生成する構成であってもよい。   In the present embodiment, as described above, the predicted surface generation unit 12 generates a pair of predicted surfaces 20a and 20b based on a plurality of captured images captured at different times. For this reason, in this Embodiment, a prediction surface can be produced | generated only by image processing, without acquiring vehicle speed information, steering angle information, etc. of a steering. However, this is an exemplification, and the prediction plane generation unit 12 acquires, for example, information acquired by the vehicle speed sensor and the steering angle sensor via a CAN bus or the like, and generates a pair of prediction planes based on these information. The structure to produce | generate may be sufficient.

一対の予測面20a、20bは、撮影画像中に映る物体21と重なる場合がある。図2においては、物体21の一例として車両を示している。物体21は、例えば人、ポール、建物の壁等、車両以外であってよい。本実施の形態では、検出部13は、不図示の記憶部に予め記憶されている物体に関する画像情報を用いたパターンマッチング処理によって、物体21を検出する。検出部13は、合成画像にて予測面20a、20bと重なる物体21を検出すればよい。このために、検出部13は、撮影画像中において、一対の予測面20a、20bが占める領域、又は、当該領域及びその周辺に限定して物体21の検出を行うことが好ましい。これによって必要な情報を効率良く取得することができる。   The pair of prediction planes 20a and 20b may overlap with the object 21 shown in the captured image. In FIG. 2, a vehicle is shown as an example of the object 21. The object 21 may be other than a vehicle, such as a person, a pole, or a building wall. In the present embodiment, the detection unit 13 detects the object 21 by pattern matching processing using image information regarding the object stored in advance in a storage unit (not shown). The detection part 13 should just detect the object 21 which overlaps with the prediction surfaces 20a and 20b in a synthesized image. For this reason, it is preferable that the detection unit 13 detects the object 21 limited to the region occupied by the pair of prediction planes 20a and 20b or the region and its periphery in the captured image. As a result, necessary information can be acquired efficiently.

設定部14は、予測面20a、20bの透過率を0%から100%の範囲で設定することができる。ここで、「透過率」とは、予測面20a、20bに重なる撮影画像の色彩及び線が予測面20a、20bの色彩を透過する割合である。予測面20a、20bの透過率を高めると、予測面20a、20bの色彩が薄く表示され、撮影画像が予測面20a、20bを透過する。例えば、予測面20a、20bの透過率を50%とすると、予測面20a、20bの色彩が薄く表示され、薄く表示された予測面20a、20bを通して撮影画像が表示される。すなわち、予測面20a、20bが半透明の状態になる。また、予測面20a、20bの透過率を100%とすると、予測面20a、20bの色彩は表示されず、撮影画像のみが表示される。また、予測面20a、20bの透過率を0%とすると、予測面20a、20bの色彩が濃く表示され、予測面20a、20bと重なる撮影画像は表示されない。   The setting unit 14 can set the transmittance of the prediction surfaces 20a and 20b in the range of 0% to 100%. Here, the “transmittance” is a ratio at which the colors and lines of the captured image that overlap the prediction planes 20a and 20b transmit the colors of the prediction planes 20a and 20b. When the transmittances of the prediction surfaces 20a and 20b are increased, the colors of the prediction surfaces 20a and 20b are displayed lightly, and the captured image passes through the prediction surfaces 20a and 20b. For example, when the transmittance of the prediction planes 20a and 20b is 50%, the colors of the prediction planes 20a and 20b are displayed lightly, and the captured image is displayed through the prediction planes 20a and 20b displayed lightly. That is, the prediction surfaces 20a and 20b are translucent. Also, assuming that the transmittance of the prediction planes 20a and 20b is 100%, the colors of the prediction planes 20a and 20b are not displayed, and only the captured images are displayed. Further, when the transmittance of the prediction planes 20a and 20b is 0%, the colors of the prediction planes 20a and 20b are displayed darkly, and a captured image overlapping the prediction planes 20a and 20b is not displayed.

本実施の形態においては、設定部14は、基本的には、予測面20a、20bの透過率を標準透過率に設定する。標準透過率は不図示の記憶部に記憶される。標準透過率は、例えば20%とされ、予測面20a、20bに重なる撮影画像は、予測面20a、20bを通して薄く表示される。ただし、設定部14は、所定の条件下において、予測面20a、20bの特定領域の透過率を標準透過率から変更する場合がある。   In the present embodiment, the setting unit 14 basically sets the transmittance of the prediction planes 20a and 20b to the standard transmittance. The standard transmittance is stored in a storage unit (not shown). The standard transmittance is set to 20%, for example, and the captured image overlapping the prediction surfaces 20a and 20b is displayed lightly through the prediction surfaces 20a and 20b. However, the setting unit 14 may change the transmittance of the specific areas of the prediction planes 20a and 20b from the standard transmittance under a predetermined condition.

なお、本実施の形態においては、予測面20a、20bの標準透過率として、1つの値のみが準備されている。ただし、これは例示であり、予測面20a、20bの標準透過率として、複数の値が準備され、複数の値が状況に応じて使い分けられる構成としてもよい。例えば、車両5の予測進路が曲がっている場合に、車両5の進行方向内側における予測面の標準透過率と、進行方向外側における予測面の標準透過率とが異なる値に設定される構成としてもよい。この場合、進行方向内側の方が危険な状況を生じやすいことを考慮して、進行方向内側の予測面が進行方向外側の予測面に比べて大きな透過率に設定される構成としてもよい。なお、図2に示す例では、予測面20aが進行方向内側の予測面であり、予測面20bが進行方向外側の予測面である。例えば、進行方向内側の予測面20aの標準透過率を40%とし、進行方向外側の予測面20bの標準透過率を20%としてもよい。   In the present embodiment, only one value is prepared as the standard transmittance of the prediction surfaces 20a and 20b. However, this is merely an example, and a plurality of values may be prepared as the standard transmittances of the prediction planes 20a and 20b, and a plurality of values may be used depending on the situation. For example, when the predicted course of the vehicle 5 is bent, the standard transmittance of the predicted surface inside the traveling direction of the vehicle 5 and the standard transmittance of the predicted surface outside the traveling direction may be set to different values. Good. In this case, taking into account that a dangerous situation is likely to occur on the inner side in the traveling direction, the predicted surface on the inner side in the traveling direction may be set to have a larger transmittance than the predicted surface on the outer side in the traveling direction. In the example shown in FIG. 2, the prediction plane 20a is a prediction plane on the inner side in the traveling direction, and the prediction plane 20b is a prediction plane on the outer side in the traveling direction. For example, the standard transmittance of the predicted surface 20a on the inner side in the traveling direction may be 40%, and the standard transmittance of the predicted surface 20b on the outer side in the traveling direction may be 20%.

設定部14は、合成画像CPにて予測面20a、20bと物体21とが重なる重畳領域22において、予測面20a、20bと物体21の位置関係に応じて予測面20a、20bの透過率を変更する。これによれば、例えば、物体21の一部あるいは全部が障害物となって車両5の予測進路上に存在することを、運転者に対して分かりやすく表示することが可能になる。なお、図2に示す例では、2つの予測面20a、20bのうち、進行方向外側の予測面20bのみが、物体21と重なる重畳領域22を有する。そして、進行方向外側の予測面20bの一部において、透過率が標準透過率と異なる設定とされた部分が生じている。ただし、進行方向内側の予測面20aに重なる物体が存在する場合には、当該予測面20aにおいても、進行方向外側の予測面20bと同様に、透過率の変更設定がなされる。   The setting unit 14 changes the transmittance of the prediction surfaces 20a and 20b according to the positional relationship between the prediction surfaces 20a and 20b and the object 21 in the overlapping region 22 where the prediction surfaces 20a and 20b and the object 21 overlap in the composite image CP. To do. According to this, for example, it is possible to display in an easy-to-understand manner to the driver that part or all of the object 21 is an obstacle and exists on the predicted course of the vehicle 5. In the example illustrated in FIG. 2, only the prediction surface 20 b on the outer side in the traveling direction among the two prediction surfaces 20 a and 20 b has the overlapping region 22 that overlaps the object 21. Then, in a part of the prediction surface 20b on the outer side in the traveling direction, there is a portion where the transmittance is set to be different from the standard transmittance. However, when there is an object that overlaps the prediction surface 20a on the inner side in the traveling direction, the transmittance is also changed and set on the prediction surface 20a as well as the prediction surface 20b on the outer side in the traveling direction.

詳細には、重畳領域22において、物体21が、一対の予測面20a、20bの間に位置する第1領域21aと、予測面20a、20bを基準として第1領域21aの反対側に位置する第2領域21bとを有する場合に、設定部14は、予測面20a、20bの第1領域21aに重なる部分の透過率を、予測面20a、20bの第2領域21bに重なる部分の透過率に比べて大きくする。すなわち、車両5の予測進路内に存在する物体21の一部に重なる予測面20a、20bの透過率を、予測進路外に存在する物体21の一部に重なる予測面20a、20bの透過率よりも大きくする。本構成によれば、運転者は、合成画像CPを見ることによって、物体21の予測面20a、20bの内側に突き出した部分をはっきりと認識できる。すなわち、運転者は、予測進路上に障害物が存在するか否かを即座に判断することができ、障害物との衝突を回避することができる。   Specifically, in the overlap region 22, the object 21 is positioned between the first region 21a located between the pair of prediction surfaces 20a and 20b and the first region 21a on the opposite side of the prediction regions 20a and 20b. In the case of having two regions 21b, the setting unit 14 compares the transmittance of the portion overlapping the first region 21a of the prediction surfaces 20a and 20b with the transmittance of the portion overlapping the second region 21b of the prediction surfaces 20a and 20b. Make it bigger. That is, the transmittance of the predicted surfaces 20a and 20b that overlap a part of the object 21 existing in the predicted path of the vehicle 5 is determined from the transmittance of the predicted surfaces 20a and 20b that overlap a part of the object 21 existing outside the predicted path. Also make it bigger. According to this configuration, the driver can clearly recognize the portion of the object 21 protruding inside the prediction planes 20a and 20b by looking at the composite image CP. That is, the driver can immediately determine whether there is an obstacle on the predicted course and can avoid a collision with the obstacle.

なお、重畳領域22において、物体21が第1領域21aのみを有する場合も生じ得る。すなわち、物体21の全部が予測進路内に存在する場合である。本実施の形態では、この場合には、設定部14は、予測面20a、20bの第1領域21aと重なる部分の透過率を、予測面20a、20bの他の領域の透過率に比べて大きくする。また、重畳領域22において、物体21が第2領域21bのみを有する場合も生じ得る。すなわち、物体21の全部が予測進路外に存在する場合である。本実施の形態では、この場合には、設定部14は、予測面20a、20bの透過率を全ての領域において一律の値に設定する。更に、重畳領域22において、物体21が予測面20a、20b上に位置する第3領域21cを有する場合もある。すなわち、物体21の一部が予測進路内と予測進路外の境界に存在する場合である。図2に示す例では、物体21は第3領域21cを有する。本実施の形態では、設定部14は、予測面20a、20bの第3領域21cに重なる部分の透過率を、予測面20a、20bの第1領域21aに重なる部分の透過率と同じにする。   Note that in the overlapping region 22, the object 21 may have only the first region 21a. That is, it is a case where all of the object 21 exists in the predicted course. In the present embodiment, in this case, the setting unit 14 increases the transmittance of the portion overlapping the first region 21a of the prediction surfaces 20a and 20b as compared with the transmittance of other regions of the prediction surfaces 20a and 20b. To do. Moreover, in the superimposition area | region 22, the case where the object 21 has only the 2nd area | region 21b may also arise. That is, it is a case where all of the object 21 exists outside the predicted course. In the present embodiment, in this case, the setting unit 14 sets the transmittance of the prediction planes 20a and 20b to a uniform value in all regions. Further, in the overlapping region 22, the object 21 may have a third region 21c located on the prediction planes 20a and 20b. That is, this is a case where a part of the object 21 exists at the boundary between the predicted course and the predicted course. In the example shown in FIG. 2, the object 21 has a third region 21c. In this Embodiment, the setting part 14 makes the transmittance | permeability of the part which overlaps the 3rd area | region 21c of the prediction surfaces 20a and 20b the same as the transmittance | permeability of the part which overlaps the 1st area | region 21a of the prediction surfaces 20a and 20b.

図2に示す例において、設定部14は、予測面20bの第1領域21aに重なる部分の透過率を100%に設定している。すなわち、予測面20bの第1領域21aに重なる部分においては、予測面20bの色彩は表示されておらず、結果的に、物体21aの第1領域21aの色彩及び線のみが表示される。また、設定部14は、予測面20bの第2領域21bに重なる部分の透過率を標準透過率(本例では20%)に設定している。このために、物体21の第2領域21bは予測面20bを通して薄く表示されている。なお、予測面20bの第1領域21aに重なる部分の透過率は100%以外であってもよい。また、予測面20bの第2領域21bに重なる部分の透過率は、標準透過率以外の透過率であってもよく、例えば標準透過率より大きな透過率(例えば50%等)であってよい。   In the example illustrated in FIG. 2, the setting unit 14 sets the transmittance of the portion overlapping the first region 21a of the prediction surface 20b to 100%. That is, in the part which overlaps with the 1st area | region 21a of the prediction surface 20b, the color of the prediction surface 20b is not displayed, and only the color and line of the 1st area | region 21a of the object 21a are displayed as a result. The setting unit 14 sets the transmittance of the portion overlapping the second region 21b of the prediction surface 20b to the standard transmittance (20% in this example). For this reason, the second region 21b of the object 21 is displayed lightly through the prediction surface 20b. In addition, the transmittance | permeability of the part which overlaps with the 1st area | region 21a of the prediction surface 20b may be other than 100%. Further, the transmittance of the portion overlapping the second region 21b of the prediction surface 20b may be a transmittance other than the standard transmittance, for example, a transmittance larger than the standard transmittance (for example, 50%).

図2に示す例では、物体21の第1領域21aと第2領域21bとが一目で区別でき、物体21の第1領域21aが目立って見える。一対の予測面20a、20bの間は、車両5の予測進路に該当するために、図2に示す例では、運転者は、合成画像CPを見ることによって、物体21の一部が車両5の予測進路に障害物となって存在することを即座に認識できる。   In the example shown in FIG. 2, the first area 21 a and the second area 21 b of the object 21 can be distinguished at a glance, and the first area 21 a of the object 21 is conspicuous. Since the space between the pair of prediction planes 20a and 20b corresponds to the predicted course of the vehicle 5, in the example shown in FIG. It is possible to immediately recognize that an obstacle exists in the predicted course.

なお、本実施の形態では、設定部14は、重畳領域22中の各画素位置について、実空間における、車両5の所定位置から予測面20a、20bまでの第1距離と、車両5の所定位置から物体21までの第2距離とを算出する。設定部14は、重畳領域22中の各画素位置について算出結果を比較する。設定部14は、第1距離が第2距離より大きい画素位置に対して第1領域21aを割り当てる。すなわち、予測進路内に存在する物体像の画素位置に対して第1領域21aを割り当てる。設定部14は、第1距離が第2距離より小さい画素位置に対して第2領域21bを割り当てる。すなわち、予測進路外に存在する物体像の画素位置に対して第2領域21bを割り当てる。設定部14は、第1距離と第2距離が同じ画素位置に対して第3領域21cを割り当てる。すなわち、予測進路内と予測進路外との境界に存在する物体像の画素位置に対して第3領域21cを割り当てる。   In the present embodiment, the setting unit 14 sets the first distance from the predetermined position of the vehicle 5 to the prediction planes 20a and 20b in the real space and the predetermined position of the vehicle 5 for each pixel position in the overlapping region 22. To the second distance from the object 21 is calculated. The setting unit 14 compares the calculation results for each pixel position in the overlapping region 22. The setting unit 14 assigns the first region 21a to the pixel position where the first distance is greater than the second distance. That is, the first area 21a is assigned to the pixel position of the object image existing in the predicted course. The setting unit 14 assigns the second region 21b to the pixel position where the first distance is smaller than the second distance. That is, the second region 21b is assigned to the pixel position of the object image that exists outside the predicted course. The setting unit 14 assigns the third region 21c to pixel positions having the same first distance and second distance. That is, the third region 21c is assigned to the pixel position of the object image that exists at the boundary between the predicted course and the predicted course.

撮影画像における各画素の座標は、実際の空間における車両に対する座標(いわゆるワールド座標)に1対1で対応している。このために、撮影画像上で検出した重畳領域22の座標値をワールド座標に変換することで、物体21の各画素位置について、車両5の所定位置からの実空間上の距離を算出できる。また、上述のように、予測面20a、20bは、撮影画像における路面上に引かれた進行予測線を鉛直方向に拡張したものである。進行予測線上の各点までの実空間における距離は上述の座標変換によって算出でき、予測面20a、20bの鉛直方向の長さは実空間の長さに変換可能である。このために、予測面20a、20bの各画素位置について、車両5の所定位置からの実空間上の距離を算出できる。なお、車両5の所定位置は、例えば車両5の左右方向に延びる後輪軸の中央等であってよい。   The coordinates of each pixel in the captured image have a one-to-one correspondence with the coordinates (so-called world coordinates) for the vehicle in the actual space. For this reason, by converting the coordinate value of the superimposed region 22 detected on the captured image into world coordinates, the distance in real space from the predetermined position of the vehicle 5 can be calculated for each pixel position of the object 21. Further, as described above, the prediction planes 20a and 20b are obtained by extending the progress prediction line drawn on the road surface in the captured image in the vertical direction. The distance in the real space to each point on the progress prediction line can be calculated by the coordinate conversion described above, and the vertical lengths of the prediction planes 20a and 20b can be converted to the length of the real space. For this reason, the distance in the real space from the predetermined position of the vehicle 5 can be calculated for each pixel position of the prediction planes 20a and 20b. The predetermined position of the vehicle 5 may be, for example, the center of the rear wheel shaft that extends in the left-right direction of the vehicle 5.

合成画像生成部15は、予測面20a、20bの透過率が設定部14によって設定された透過率となるように、予測面20a、20bの画像と、撮影画像とを合成する。本実施の形態では、合成画像生成部15は、撮影画像に予測面20a、20bを重ねる部分についてアルファブレンドを行う。具体的には、透過率をα(%)とし、
合成後の画素値=予測面の画素値×(1−α/100)+撮影画像の画素値×α/100の算出式で合成画像における各画素値を算出する。合成画像生成部15は、算出した各画素値によって合成画像CPを生成する。なお、予測面の画素値は、予め設定された画素値であり、当該画素値は記憶部に記憶されている。ただし、予測面の画素値の設定は、適宜変更できる構成であってもよい。
The composite image generation unit 15 combines the images of the prediction surfaces 20a and 20b and the captured image so that the transmittances of the prediction surfaces 20a and 20b become the transmittance set by the setting unit 14. In the present embodiment, the composite image generation unit 15 performs alpha blending on a portion where the prediction planes 20a and 20b overlap the captured image. Specifically, the transmittance is α (%),
Each pixel value in the synthesized image is calculated by the following formula: pixel value after synthesis = pixel value of prediction plane × (1−α / 100) + pixel value of captured image × α / 100. The composite image generation unit 15 generates a composite image CP based on the calculated pixel values. Note that the pixel value on the prediction plane is a preset pixel value, and the pixel value is stored in the storage unit. However, the setting of the pixel value on the prediction plane may be configured to be changed as appropriate.

図2に示す例では、進行方向外側の予測面20bの第1領域21a及び第3領域21cと重なる画素位置については、透過率αは100%とされる。進行方向外側の予測面20bの残りの部分の画素位置、及び、進行方向内側の予測面20aの全ての画素位置については、透過率αは標準透過率(透過率20%)にされる。   In the example shown in FIG. 2, the transmittance α is set to 100% for the pixel position overlapping the first region 21a and the third region 21c of the prediction surface 20b on the outer side in the traveling direction. For the remaining pixel positions of the prediction surface 20b on the outer side in the traveling direction and all the pixel positions on the prediction surface 20a on the inner side in the traveling direction, the transmittance α is set to the standard transmittance (transmittance 20%).

報知処理部16は、第1領域21aの検出を報知するための処理を行う。本実施の形態では、報知処理部16は、第1領域21aが検出された場合に、そのことを画面表示及び音声によって運転者に知らせるための処理を行う。これによって、運転者が危険な状態が生じていることを的確に認識することができ、事故の発生確率を低減することができる。なお、本実施の形態では、報知処理部16は、第3領域21cが検出された場合にも報知処理を行う。   The notification processing unit 16 performs a process for notifying the detection of the first region 21a. In the present embodiment, when the first area 21a is detected, the notification processing unit 16 performs a process for notifying the driver of the fact by screen display and sound. As a result, the driver can accurately recognize that a dangerous state has occurred, and the probability of an accident can be reduced. In the present embodiment, the notification processing unit 16 performs the notification process even when the third region 21c is detected.

図3は、報知処理部16によって行われる処理を説明するための模式図である。図3に示すように、報知処理部16は、第1領域21aを囲う枠23を表示させるための画像処理を行う。枠23は、危険状態が発生していることを運転者に認識させるために、例えば赤等の目立つ色で構成することが好ましい。図3に示す例では、枠23の形状は矩形状である。ただし、枠の形状は、例えば円形状等、他の形状であってもよい。また、本実施の形態では、枠23を表示することにより、第1領域21aの検出を報知する構成としているが、例えば矢印の表示等、枠以外の図形を利用して第1領域21aの検出が報知されてもよい。また、場合によっては、危険を知らせる文字を利用して第1領域21aの検出が報知されてもよい。   FIG. 3 is a schematic diagram for explaining processing performed by the notification processing unit 16. As illustrated in FIG. 3, the notification processing unit 16 performs image processing for displaying a frame 23 that surrounds the first region 21 a. The frame 23 is preferably composed of a conspicuous color such as red, for example, so that the driver can recognize that a dangerous state has occurred. In the example shown in FIG. 3, the shape of the frame 23 is a rectangular shape. However, the shape of the frame may be other shapes such as a circular shape. In this embodiment, the frame 23 is displayed to notify the detection of the first area 21a. However, the first area 21a is detected using a graphic other than the frame, such as an arrow display. May be notified. In some cases, the detection of the first region 21a may be notified by using a character informing the danger.

また、報知処理部16は、第1領域21aが検出された場合に、不図示の記憶部に記憶される音声データを読み出す。本実施の形態では、報知処理部16は、画像処理及び音声に関する処理を行う構成としているが、これは例示であり、これら2つの処理のうちのいずれか一方のみを行う構成であってもよい。また、場合によっては、報知処理部16は設けられなくてもよい。   Moreover, the alerting | reporting process part 16 reads the audio | voice data memorize | stored in the memory | storage part not shown, when the 1st area | region 21a is detected. In the present embodiment, the notification processing unit 16 is configured to perform processing relating to image processing and sound, but this is an example, and may be configured to perform only one of these two processings. . In some cases, the notification processing unit 16 may not be provided.

報知処理部16は、第1領域21aの車両5からの距離に応じて報知形態を変更してよい。例えば、報知処理部16は、車両5の所定位置から第1領域21aまでの最短距離を算出する。報知処理部16は、この最短距離と、予め設定した少なくとも1つの閾値とを比較して報知形態を変更する。これによって、運転者は危険な状態のレベルを的確に認識することができ、危険回避の行動を適切に行うことが可能になる。   The notification processing unit 16 may change the notification form according to the distance from the vehicle 5 in the first region 21a. For example, the notification processing unit 16 calculates the shortest distance from a predetermined position of the vehicle 5 to the first region 21a. The notification processing unit 16 compares the shortest distance with at least one preset threshold value and changes the notification mode. Thus, the driver can accurately recognize the level of the dangerous state, and can appropriately perform the danger avoidance action.

報知形態の変更としては、例えば枠23の色を変更することが挙げられる。例えば、車両5から第1領域21aまでの距離が近くなるにつれて、枠23の色が緑、黄色、赤といった具合に変更される構成としてよい。また、報知形態の変更としては、音声の大小を変更したり、音色を変更したりすることが挙げられる。例えば、車両5から第1領域21aまでの距離が近くなるにつれて、報知音の大きさが徐々に大きくされる構成としてよい。   An example of changing the notification mode is to change the color of the frame 23, for example. For example, the color of the frame 23 may be changed to green, yellow, red, or the like as the distance from the vehicle 5 to the first region 21a becomes shorter. Moreover, as a change of an alerting | reporting form, changing the magnitude of an audio | voice or changing a timbre is mentioned. For example, the loudspeaker sound may be gradually increased as the distance from the vehicle 5 to the first region 21a becomes shorter.

画像出力部17は、合成画像生成部15によって生成された合成画像CP、或いは、合成画像CPに報知処理が行われた画像の画像データを表示装置3に出力する。表示装置3は、入力された画像データに応じた画像を画面表示する。運転者は、表示装置3に表示される予測面20a、20b付きの画像を見ることによって、立体的に車の進行方向の状況を確認することができる。このために、駐車が苦手な運転者でも、駐車枠内に綺麗に駐車を行うことができる。また、予測面20a、20bの透過率の変更によって、車両5の予測進路中に障害物があるか否かを一目で把握することができるために、駐車時に事故が起こる可能性を低減することができる。   The image output unit 17 outputs the composite image CP generated by the composite image generation unit 15 or the image data of the image subjected to the notification process on the composite image CP to the display device 3. The display device 3 displays an image corresponding to the input image data on the screen. The driver can confirm the state of the traveling direction of the vehicle in a three-dimensional manner by looking at the images with the prediction surfaces 20a and 20b displayed on the display device 3. Therefore, even a driver who is not good at parking can cleanly park in the parking frame. Moreover, since it is possible to grasp at a glance whether there is an obstacle in the predicted course of the vehicle 5 by changing the transmittance of the predicted surfaces 20a and 20b, the possibility of an accident occurring at the time of parking is reduced. Can do.

音声出力部18は、報知処理部16から音声データが入力された場合に、音声データを音声出力装置4に出力する。音声出力装置4は、入力された音声データに応じた音声を出力する。運転者は、音声出力装置4によって出力される警告音によって、危険回避行動を行うことができる。   The audio output unit 18 outputs the audio data to the audio output device 4 when the audio data is input from the notification processing unit 16. The audio output device 4 outputs audio corresponding to the input audio data. The driver can perform a danger avoidance action by the warning sound output by the audio output device 4.

<3.運転支援処理>
図4は、運転支援装置1の動作例を示すフローチャートである。 運転支援装置1は、動作開始イベントが発生すると、図4に示すフローチャートの動作を開始する。動作開始イベントとしては、例えば、車両5のシフトレバーの位置がリバースレンジに切り替わったこと等が挙げられる。
<3. Driving support processing>
FIG. 4 is a flowchart illustrating an operation example of the driving support device 1. When the operation start event occurs, the driving support device 1 starts the operation of the flowchart shown in FIG. As the operation start event, for example, the position of the shift lever of the vehicle 5 is switched to the reverse range.

まず、予測面生成部12による予測面生成処理が実行される(ステップS1)。予測面生成処理は、車両5の予測進路を立体的に示す左右一対の予測面20a、20bを生成する処理である。本実施の形態では、一対の予測面20a、20bは、撮影画像の画像処理を利用して生成される。次に、検出部13による検出処理が実行される(ステップS2)。検出処理は、予測面20a、20bと重なる物体21を検出する処理である。次に、設定部14による設定処理が実行される。設定処理は、予測面20a、20bの透過率を設定する処理である。   First, a predicted surface generation process is performed by the predicted surface generation unit 12 (step S1). The prediction plane generation process is a process of generating a pair of left and right prediction planes 20a and 20b that three-dimensionally show the predicted course of the vehicle 5. In the present embodiment, the pair of prediction planes 20a and 20b is generated using image processing of a captured image. Next, the detection process by the detection part 13 is performed (step S2). The detection process is a process of detecting the object 21 that overlaps the prediction planes 20a and 20b. Next, a setting process by the setting unit 14 is executed. The setting process is a process for setting the transmittance of the prediction planes 20a and 20b.

詳細には、設定部14は、検出部13の検出処理の結果に基づいて、合成画像CPにて予測面20a、20bと物体21とが重畳する重畳領域22が生じるか否かを確認する(ステップS3)。重畳領域22がない場合(ステップS3でYes)、設定部14は、予測面20a、20bの透過率を一律に標準透過率(本例では20%)とする通常設定を行う(ステップS4)。   Specifically, the setting unit 14 confirms whether or not the overlapping region 22 where the prediction planes 20a and 20b and the object 21 overlap is generated in the composite image CP based on the detection processing result of the detection unit 13 ( Step S3). When there is no overlapping region 22 (Yes in Step S3), the setting unit 14 performs normal setting in which the transmittances of the prediction planes 20a and 20b are uniformly set to the standard transmittance (20% in this example) (Step S4).

設定部14によって予測面20a、20bの透過率の設定が行われると、合成画像生成部15が、撮影画像に一対の予測面20a、20bを合成する処理を行う(ステップS5)。なお、重畳領域22がない場合には、物体21が車両5の予測進路に障害物となって存在する状態が生じていないと判断されるために、報知処理部16による処理は実行されない。   When the setting unit 14 sets the transmittance of the prediction surfaces 20a and 20b, the composite image generation unit 15 performs a process of combining the pair of prediction surfaces 20a and 20b with the captured image (step S5). When there is no overlapping region 22, it is determined that there is no state in which the object 21 exists as an obstacle on the predicted course of the vehicle 5, and thus the process by the notification processing unit 16 is not executed.

合成画像生成部15によって合成画像CPが生成されると、画像出力部17が、合成画像CPの画像データを表示装置3に出力する(ステップS6)。その後、運転支援装置1は、動作終了イベントが発生しているか否かを確認する(ステップS7)。動作終了イベントとしては、例えば、車両のシフトレバーの位置がリバースレンジから他のレンジに切り替わったこと等を挙げることができる。動作終了イベントが発生していなければ(ステップS7でNo)、ステップS1に戻る。これにより、新たなフレーム画像に基づいた処理が繰り返される。一方、動作終了イベントが発生していれば(ステップS7でYes)、運転支援装置1は図4に示すフローチャートの動作を終了する。   When the composite image CP is generated by the composite image generation unit 15, the image output unit 17 outputs the image data of the composite image CP to the display device 3 (step S6). Thereafter, the driving assistance device 1 checks whether or not an operation end event has occurred (step S7). As the operation end event, for example, the position of the shift lever of the vehicle is switched from the reverse range to another range. If no operation end event has occurred (No in step S7), the process returns to step S1. Thereby, the process based on the new frame image is repeated. On the other hand, if the operation end event has occurred (Yes in step S7), the driving support device 1 ends the operation of the flowchart shown in FIG.

一方、重畳領域22がある場合(ステップS3でNo)、設定部14は、重畳領域22において、物体21が第2領域21bのみを有するか否かを確認する(ステップS8)。第2領域21bは、予測面20a、20bを基準として、一対の予測面20a、20bの間に位置する第1領域21aの反対側に位置する領域である。物体21が第2領域21bのみである場合(ステップS8でYes)、駐車支援装置1は、ステップS4以降の動作を行う。   On the other hand, when there is the overlapping region 22 (No in step S3), the setting unit 14 checks whether or not the object 21 has only the second region 21b in the overlapping region 22 (step S8). The 2nd field 21b is a field located on the opposite side of the 1st field 21a located between a pair of prediction fields 20a and 20b on the basis of prediction fields 20a and 20b. When the object 21 is only the second region 21b (Yes in Step S8), the parking support device 1 performs the operations after Step S4.

重畳領域22において、物体21が第1領域21a及び第3領域21cのうち少なくともいずれか一方を有する場合(ステップS8でNo)、設定部14は、予測面20a、20bの透過率を特別設定とする(ステップS9)。なお、第1領域21aは、一対の予測面20a、20bの間に位置する領域である。第3領域21cは、物体21が予測面20a、20b上に位置する領域である。設定部14は、第1領域21a及び第3領域21cについて、予測面20a、20bの透過率を100%に設定する。設定部14は、予測面20a、20bの他の領域について標準透過率に設定する。   In the overlapping region 22, when the object 21 has at least one of the first region 21a and the third region 21c (No in step S8), the setting unit 14 sets the transmittance of the prediction surfaces 20a and 20b as a special setting. (Step S9). The first region 21a is a region located between the pair of prediction planes 20a and 20b. The third region 21c is a region where the object 21 is located on the prediction planes 20a and 20b. The setting unit 14 sets the transmittance of the prediction surfaces 20a and 20b to 100% for the first region 21a and the third region 21c. The setting unit 14 sets the standard transmittance for the other areas of the prediction planes 20a and 20b.

設定部14によって予測面20a、20bの透過率の設定が行われると、合成画像生成部15が、撮影画像に一対の予測面20a、20bを合成する処理を行う(ステップS10)。当該合成処理には、報知処理部16による枠23の追加処理も含まれる。   When the setting unit 14 sets the transmittances of the prediction surfaces 20a and 20b, the composite image generation unit 15 performs processing for combining the pair of prediction surfaces 20a and 20b with the captured image (step S10). The synthesizing process includes a process for adding the frame 23 by the notification processing unit 16.

合成画像に報知処理を施した画像が生成されると、画像出力部17が、生成した画像データを表示装置3に出力する。また、報知処理部16からの指令によって音声出力部18は音声出力装置4に音声を出力する(ステップS11)。その後、運転支援装置1は、動作終了イベントが発生しているか否かを確認する(ステップS7)。この後の処理は先に説明したので、説明を省略する。   When an image obtained by performing notification processing on the composite image is generated, the image output unit 17 outputs the generated image data to the display device 3. Further, the voice output unit 18 outputs a voice to the voice output device 4 according to a command from the notification processing unit 16 (step S11). Thereafter, the driving assistance device 1 checks whether or not an operation end event has occurred (step S7). Since the subsequent processing has been described above, the description thereof will be omitted.

なお、ステップS7を実施する代わりに、動作終了イベントが発生しているか否かを運転支援装置1がフローチャートの動作中常時監視し、動作終了イベントが発生すれば直ちにフローチャートの動作を終了する構成としてもよい。この場合、ステップS6及びステップ11の処理が終わるとステップS1に戻るようにすればよい。   Instead of performing step S7, the driving support device 1 constantly monitors whether or not an operation end event has occurred, and immediately ends the operation of the flowchart if an operation end event occurs. Also good. In this case, when the processes of step S6 and step 11 are completed, the process may return to step S1.

<4.変形例>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で適宜組み合わせて実施されてよい。
<4. Modification>
Various technical features disclosed in the present specification can be variously modified within the scope of the technical creation in addition to the above-described embodiment. In addition, a plurality of embodiments and modifications shown in the present specification may be appropriately combined and implemented within a possible range.

(4−1.第1変形例)
設定部14は、物体21の種類に応じて、予測面20a、20bの第2領域21bと重なる部分の透過率を変更してよい。これによれば、車両5の予測進路の外側に存在するとともに予測面20a、20bと重なる部分の見え方を、物体21の種類に応じて異なる状態にできる。例えば、物体21が車両と人とでは、大きさや形状等が異なるために、本変形例の構成は有効である。
(4-1. First modification)
The setting unit 14 may change the transmittance of a portion overlapping the second region 21b of the prediction surfaces 20a and 20b according to the type of the object 21. According to this, the appearance of the portion that exists outside the predicted course of the vehicle 5 and overlaps the predicted planes 20 a and 20 b can be made different depending on the type of the object 21. For example, since the size and shape of the object 21 are different between a vehicle and a person, the configuration of this modification is effective.

本変形例について、図5に示す例を参照して更に説明する。図5は、運転支援装置1の第1変形例を説明するための模式図である。図5に示す例では、撮影画像の中に予測面20bと重なる2つの物体21A、21Bが検出される。第1物体21Aは車両である、第2物体21Bは人である。予測面20bと第1物体21Aとは第1重畳領域22Aを有する。第1重畳領域22Aにおいて、第1物体21Aは、一対の予測面20a、20bの間に位置する第1領域21Aaと、予測面20bを基準として第1領域21aの反対側に位置する第2領域21Abと、予測面20b上に位置する第3領域21Acとを有する。予測面20bと第2物体21Bとは第2重畳領域22Bを有する。第2重畳領域22Bにおいて、第2物体21Bは、一対の予測面20a、20bの間に位置する第1領域21Baと、予測面20bを基準として第1領域21Baの反対側に位置する第2領域21Bbと、予測面20b上に位置する第3領域21Bcとを有する。   This modification will be further described with reference to the example shown in FIG. FIG. 5 is a schematic diagram for explaining a first modification of the driving support device 1. In the example shown in FIG. 5, two objects 21A and 21B that overlap with the prediction plane 20b are detected in the captured image. The first object 21A is a vehicle, and the second object 21B is a person. The prediction surface 20b and the first object 21A have a first overlapping region 22A. In the first overlapping region 22A, the first object 21A includes a first region 21Aa located between the pair of prediction surfaces 20a and 20b, and a second region located on the opposite side of the first region 21a with respect to the prediction surface 20b. 21Ab and a third region 21Ac located on the prediction surface 20b. The prediction surface 20b and the second object 21B have a second overlapping region 22B. In the second overlapping region 22B, the second object 21B includes a first region 21Ba located between the pair of prediction surfaces 20a and 20b, and a second region located on the opposite side of the first region 21Ba with respect to the prediction surface 20b. 21Bb and a third region 21Bc located on the prediction surface 20b.

図5に示す例では、設定部14は、例えば、パターンマッチ処理によって認識した物体21A、21Bについて、予め記憶部に記憶される情報に基づいて物体の種類を判別する。設定部14は、判別された物体の種類が複数ある場合には、予め記憶される分類情報に応じて、物体の種類に対応した透過率の設定を行う。本例では、設定部14は、第1物体21Aと第2物体21Bとは異なる種類の物体として扱う。   In the example illustrated in FIG. 5, for example, the setting unit 14 determines the type of an object based on information stored in advance in the storage unit for the objects 21 </ b> A and 21 </ b> B recognized by the pattern matching process. When there are a plurality of discriminated object types, the setting unit 14 sets the transmittance corresponding to the object type according to the classification information stored in advance. In this example, the setting unit 14 treats the first object 21A and the second object 21B as different types of objects.

設定部14は、第1物体21Aと第2物体21Bとで、予測面20bの第2領域21Ab、21Bbと重なる部分の透過率を変更する。詳細には、設定部14は、予測面20bの第2領域21Bbと重なる部分の透過率(人21B側の透過率)を、予測面20bの第2領域21Abと重なる部分の透過率(車両21A側の透過率)よりも大きく設定する。   The setting unit 14 changes the transmittance of the portion overlapping the second regions 21Ab and 21Bb of the prediction surface 20b between the first object 21A and the second object 21B. Specifically, the setting unit 14 sets the transmittance of the portion overlapping the second region 21Bb of the prediction surface 20b (the transmittance on the person 21B side) to the transmittance of the portion overlapping the second region 21Ab of the prediction surface 20b (the vehicle 21A). Side transmittance).

より詳細には、設定部14は、予測面20bの第2領域21Abと重なる部分(車両21A側)の透過率を標準透過率(本例では20%)に設定する。設定部14は、予測面20bの第2領域21Bbと重なる部分(人21B側)の透過率を標準透過率より大きな透過率(本例では50%)に設定する。なお、設定部14は、予測面20bの、第1領域21Aa、21Ba及び第3領域21Ac、21Bcと重なる部分の透過率を100%に設定する。また、設定部14は、予測面20bの残りの部分の透過率は標準透過率とする。また、本例では、設定部14は、撮影画像中において物体と重なる領域を有さない予測面20aについては、全ての領域を標準透過率に設定する。   More specifically, the setting unit 14 sets the transmittance of the portion (vehicle 21A side) overlapping the second region 21Ab of the prediction surface 20b to the standard transmittance (20% in this example). The setting unit 14 sets the transmittance of the portion overlapping the second region 21Bb (the person 21B side) of the prediction surface 20b to a transmittance (50% in this example) that is larger than the standard transmittance. The setting unit 14 sets the transmittance of the portion of the prediction surface 20b that overlaps the first regions 21Aa and 21Ba and the third regions 21Ac and 21Bc to 100%. Further, the setting unit 14 sets the transmittance of the remaining part of the prediction surface 20b as the standard transmittance. Further, in this example, the setting unit 14 sets all the regions to the standard transmittance for the prediction plane 20a that does not have a region overlapping the object in the captured image.

本変形例の構成では、車両5の予測進路の外側に存在するとともに予測面20a、20bと重なる部分について、第1物体21A(車両)に比べて第2物体21B(人)の方が見易くなる。このために、運転者は、合成画像CPを一目見て、車両5の進行方向の危険性について簡単に把握することができる。   In the configuration of the present modification, the second object 21B (person) is easier to see than the first object 21A (vehicle) in the portion that exists outside the predicted course of the vehicle 5 and overlaps the prediction planes 20a and 20b. . For this reason, the driver can easily grasp the danger in the traveling direction of the vehicle 5 at a glance at the composite image CP.

なお、本変形例では、物体21の種類として人と車両とを示したが、これは例示である。例えば物体の種類は2種類より多くてもよい。また、物体の種類として、例えば移動物と静止物といったグループ分けの形式としてもよい。移動物と静止物で分ける場合、予測面20a、20bの第2領域と重なる部分の透過率は、静止物側に比べて移動物側が大きくなる構成としてよい。なお、移動物には、例えば人や車両が含まれる。静止物には、例えばポールや建物の壁が含まれる。   In the present modification, a person and a vehicle are shown as types of the object 21, but this is an example. For example, there may be more than two types of objects. Moreover, as a kind of object, it is good also as a grouping form, for example, a moving object and a stationary object. When the moving object and the stationary object are separated, the transmittance of the portion overlapping the second region of the prediction surfaces 20a and 20b may be configured to be larger on the moving object side than on the stationary object side. The moving object includes, for example, a person and a vehicle. Stationary objects include, for example, poles and building walls.

(4−2.第2変形例)
設定部14は、予測面20a、20bの曲率に基づいて予測面20a、20bの透過率を複数種類に分けて設定してよい。これによれば、撮影画像に重畳される予測面20a、20bの形状を運転者が把握し易くできる。
(4-2. Second Modification)
The setting unit 14 may set the transmittances of the prediction surfaces 20a and 20b in a plurality of types based on the curvatures of the prediction surfaces 20a and 20b. According to this, the driver can easily grasp the shapes of the prediction surfaces 20a and 20b superimposed on the captured image.

本変形例について、図6に示す例を参照して更に説明する。図6は、運転支援装置1の第2変形例を説明するための模式図である。図6に示す例では、撮影画像中に予測面20bと重なる物体21が検出される。物体21は、一対の予測面20a、20bの間に位置する第1領域21aと、予測面20bを基準として第1領域21aと反対側に位置する第2領域21bと、予測面20b上に位置する第3領域21cとを有する。   This modification will be further described with reference to the example shown in FIG. FIG. 6 is a schematic diagram for explaining a second modification of the driving support device 1. In the example illustrated in FIG. 6, the object 21 that overlaps the prediction plane 20b is detected in the captured image. The object 21 is positioned on the prediction surface 20b, a first region 21a located between the pair of prediction surfaces 20a and 20b, a second region 21b located on the opposite side of the first region 21a with respect to the prediction surface 20b. And a third region 21c.

設定部14は、予測面20bの第1領域21a及び第3領域21cと重なる部分の透過率を100%とする。設定部20bは、予測面20bの残りの部分及び予測面20aについて、予測面20a、20bの曲率に基づいて透過率を設定する。本例では、設定部14は、予め記憶部に記憶される曲率に関する閾値との大小比較によって透過率を設定する。設定部14は、閾値より小さな曲率を有する部分に比べて、閾値以上の曲率を有する部分の透過率を小さく設定する。すなわち、曲率が大きな部分について透過率を他より小さくする。図6に示す例では、車両5の手前側の透過率を40%として、車両5の奥側の透過率を20%(標準透過率)に設定している。これによれば、予測面20a、20bの曲率の大きな部分を壁としてイメージし易くできる。   The setting unit 14 sets the transmittance of the portion overlapping the first region 21a and the third region 21c of the prediction surface 20b to 100%. The setting unit 20b sets the transmittance of the remaining part of the prediction surface 20b and the prediction surface 20a based on the curvatures of the prediction surfaces 20a and 20b. In this example, the setting unit 14 sets the transmittance by comparing the magnitude with a threshold value relating to the curvature stored in advance in the storage unit. The setting unit 14 sets the transmittance of a portion having a curvature greater than or equal to the threshold smaller than that of a portion having a curvature smaller than the threshold. That is, the transmittance of the portion having a large curvature is made smaller than the others. In the example shown in FIG. 6, the transmittance on the near side of the vehicle 5 is set to 40%, and the transmittance on the back side of the vehicle 5 is set to 20% (standard transmittance). According to this, it is possible to easily imagine a portion having a large curvature of the prediction surfaces 20a and 20b as a wall.

なお、本変形例では、予測面20a、20bの曲率に基づいて予測面20a、20bの透過率を2種類に分ける構成としているが、これは例示であり、3種類以上に分けられてもよい。また、一対の予測面20a、20bの一方と他方とで、曲率に基づく予測面20a、20bの透過率の変化のさせ方を変えてもよい。   In addition, in this modification, although it is set as the structure which divides | segments the transmittance | permeability of the prediction surfaces 20a and 20b into two types based on the curvature of the prediction surfaces 20a and 20b, this is an illustration and may be divided into three or more types. . Moreover, you may change how to change the transmittance | permeability of the prediction surfaces 20a and 20b based on a curvature with one side and the other of a pair of prediction surfaces 20a and 20b.

(4−3.第3変形例)
設定部14は、車両5からの距離に基づいて予測面20a、20bの透過率を複数種類に分けて設定してよい。これによれば、運転者が特に注意すべき位置と、そうでない位置とで予測面と重なる物体の見え方が変わり、運転者は車両5の進行方向の状況を簡単に把握することが可能になる。
(4-3. Third modification)
The setting unit 14 may set the transmittances of the prediction surfaces 20a and 20b in a plurality of types based on the distance from the vehicle 5. According to this, the appearance of the object that overlaps the prediction plane changes depending on the position that the driver should be particularly careful and the position that is not so, and the driver can easily grasp the situation of the traveling direction of the vehicle 5. Become.

本変形例について、図7に示す例を参照して更に説明する。図7は、運転支援装置1の第3変形例を説明するための模式図である。図7に示す例では、撮影画像中に予測面20bと重なる物体21が検出される。物体21は、一対の予測面20a、20bの間に位置する第1領域21aと、予測面20bを基準として第1領域21aの反対側に位置する第2領域21bと、予測面20b上に位置する第3領域21cとを有する。   This modification will be further described with reference to the example shown in FIG. FIG. 7 is a schematic diagram for explaining a third modification of the driving support device 1. In the example illustrated in FIG. 7, an object 21 that overlaps the prediction surface 20b is detected in the captured image. The object 21 is positioned on the prediction surface 20b, a first region 21a located between the pair of prediction surfaces 20a and 20b, a second region 21b located on the opposite side of the first region 21a with respect to the prediction surface 20b. And a third region 21c.

設定部14は、予測面20bの第1領域21a及び第3領域21cと重なる部分の透過率を100%とする。設定部20bは、予測面20bの残りの部分及び予測面20aについて、車両5からの距離に基づいて透過率を設定する。本例では、設定部14は、車両5からの距離が近い側の透過率を遠い側に比べて大きな透過率に設定する。詳細には、設定部14は、車両5からの距離が近い側から遠い側に向けて透過率を4段階で変更する。例えば、透過率は、車両5からの距離が近い側から、80%、60%、40%、20%に設定される。本変形例によれば、車両5からの距離が近いほど、予測面20a、20bを通して車両5の予測進路の外側に位置する物体をはっきりと認識することができる。   The setting unit 14 sets the transmittance of the portion overlapping the first region 21a and the third region 21c of the prediction surface 20b to 100%. The setting unit 20b sets the transmittance of the remaining part of the prediction surface 20b and the prediction surface 20a based on the distance from the vehicle 5. In this example, the setting unit 14 sets the transmittance on the side closer to the vehicle 5 to a larger transmittance than that on the far side. Specifically, the setting unit 14 changes the transmittance in four steps from the side closer to the vehicle 5 toward the far side. For example, the transmittance is set to 80%, 60%, 40%, and 20% from the side closer to the vehicle 5. According to this modification, as the distance from the vehicle 5 is shorter, an object positioned outside the predicted course of the vehicle 5 can be clearly recognized through the prediction planes 20a and 20b.

なお、本変形例では、予測面20a、20bの透過率は段階的に変化する構成であるが、これは例示であり、予測面20a、20bの透過率は連続的に変化する構成であってよい。また、予測面20a、20bの透過率が段階的に変化する構成の場合、4段階以外の数で変化する構成であってよい。   In this modification, the transmittances of the prediction surfaces 20a and 20b change in a stepwise manner, but this is an example, and the transmittances of the prediction surfaces 20a and 20b change continuously. Good. Further, in the case of a configuration in which the transmittances of the prediction planes 20a and 20b change stepwise, the configuration may change in a number other than four steps.

(4−4.その他)
以上に示した実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。ハードウェアとしては、例えばASIC(application specific integrated circuit)やFPGA(field-programmable gate array)等が利用されてよい。
(4-4. Others)
In the embodiment described above, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, at least a part of these functions is performed by an electrical hardware circuit. It may be realized. As the hardware, for example, an application specific integrated circuit (ASIC) or a field-programmable gate array (FPGA) may be used.

1 運転支援装置
2 カメラ
5 車両
12 予測面生成部
13 検出部
14 設定部
15 合成画像生成部
16 報知処理部
20a、20b 予測面
21 物体
21a 第1領域
21b 第2領域
22 重畳領域
CP 合成画像
DESCRIPTION OF SYMBOLS 1 Driving assistance apparatus 2 Camera 5 Vehicle 12 Prediction surface production | generation part 13 Detection part 14 Setting part 15 Composite image generation part 16 Notification processing part 20a, 20b Prediction surface 21 Object 21a 1st area | region 21b 2nd area | region 22 Superimposition area | region CP Composite image

Claims (9)

車両の周辺を撮影するカメラで撮影された撮影画像に前記車両の予測進路を重ねて画面に表示させる運転支援装置であって、
前記予測進路を立体的に示す左右一対の予測面を生成する予測面生成部と、
前記撮影画像の中から前記予測面と重なる物体を検出する検出部と、
前記予測面の透過率を設定する設定部と、
前記設定部によって設定された前記透過率に基づいて前記撮影画像と前記一対の予測面とが合成された合成画像を生成する合成画像生成部と、
を備え、
前記設定部は、前記合成画像にて前記予測面と前記物体とが重なる重畳領域において、前記予測面と前記物体の位置関係に応じて前記透過率を変更する、運転支援装置。
A driving support device that displays on a screen a predicted image of the vehicle superimposed on a captured image captured by a camera that captures the periphery of the vehicle,
A prediction plane generation unit that generates a pair of left and right prediction planes that three-dimensionally represent the predicted course;
A detection unit for detecting an object overlapping the prediction plane from the captured image;
A setting unit for setting the transmittance of the predicted surface;
A composite image generation unit that generates a composite image in which the captured image and the pair of prediction planes are combined based on the transmittance set by the setting unit;
With
The setting unit is a driving support device that changes the transmittance according to a positional relationship between the prediction plane and the object in an overlapping region where the prediction plane and the object overlap in the composite image.
前記重畳領域において、前記物体が、前記一対の予測面の間に位置する第1領域と、前記予測面を基準として前記第1領域の反対側に位置する第2領域とを有する場合に、
前記設定部は、前記予測面の前記第1領域に重なる部分の前記透過率を、前記予測面の前記第2領域に重なる部分の前記透過率に比べて大きくする、請求項1に記載の運転支援装置。
In the overlap region, when the object has a first region located between the pair of prediction planes and a second region located on the opposite side of the first region with respect to the prediction plane,
2. The operation according to claim 1, wherein the setting unit increases the transmittance of a portion overlapping the first region of the prediction surface as compared to the transmittance of a portion overlapping the second region of the prediction surface. Support device.
前記第1領域の検出を報知するための処理を行う報知処理部を更に備える、請求項2に記載の運転支援装置。   The driving support device according to claim 2, further comprising a notification processing unit that performs processing for notifying detection of the first region. 前記報知処理部は、前記第1領域の前記車両からの距離に応じて報知形態を変更する、請求項3に記載の運転支援装置。   The driving support device according to claim 3, wherein the notification processing unit changes a notification form according to a distance from the vehicle in the first region. 前記設定部は、前記物体の種類に応じて、前記予測面の前記第2領域と重なる部分の前記透過率を変更する、請求項2から4のいずれか1項に記載の運転支援装置。   The driving support device according to any one of claims 2 to 4, wherein the setting unit changes the transmittance of a portion overlapping the second region of the prediction plane according to the type of the object. 前記設定部は、前記予測面の曲率に基づいて前記予測面の透過率を複数種類に分けて設定する、請求項1から5のいずれか1項に記載の運転支援装置。   The driving support device according to any one of claims 1 to 5, wherein the setting unit sets the transmittance of the prediction surface in a plurality of types based on the curvature of the prediction surface. 前記設定部は、前記車両からの距離に基づいて前記予測面の透過率を複数種類に分けて設定する、請求項1から5のいずれか1項に記載の運転支援装置。   The driving support device according to any one of claims 1 to 5, wherein the setting unit sets the transmittance of the prediction plane in a plurality of types based on a distance from the vehicle. 前記予測面生成部は、異なる時刻に撮影された複数の前記撮影画像に基づいて前記一対の予測面を生成する、請求項1から7のいずれか1項に記載の運転支援装置。   The driving support device according to any one of claims 1 to 7, wherein the predicted surface generation unit generates the pair of predicted surfaces based on a plurality of the captured images captured at different times. 車両の周辺を撮影するカメラで撮影された撮影画像に前記車両の予測進路を重ねて画面に表示させる運転支援方法であって、
前記予測進路を立体的に示す左右一対の予測面を生成する予測面生成工程と、
前記撮影画像の中から前記予測面と重なる物体を検出する検出工程と、
前記予測面の透過率を設定する設定工程と、
前記設定工程によって設定された前記透過率に基づいて前記撮影画像と前記一対の予測面とが合成された合成画像を生成する合成画像生成工程と、
を備え、
前記設定工程は、前記合成画像にて前記予測面と前記物体とが重なる重畳領域において、前記予測面と前記物体との位置関係に応じて前記透過率を変更する、運転支援方法。
A driving support method for displaying on a screen a predicted route of the vehicle superimposed on a captured image captured by a camera that captures the periphery of the vehicle,
A prediction plane generating step for generating a pair of left and right prediction planes that three-dimensionally show the predicted course;
A detection step of detecting an object overlapping the prediction plane from the captured image;
A setting step for setting the transmittance of the predicted surface;
A composite image generation step of generating a composite image in which the captured image and the pair of prediction planes are combined based on the transmittance set by the setting step;
With
The driving support method, wherein the setting step changes the transmittance according to a positional relationship between the prediction surface and the object in an overlapping region where the prediction surface and the object overlap in the composite image.
JP2017046291A 2017-03-10 2017-03-10 Drive assisting device and drive assisting method Pending JP2018149869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017046291A JP2018149869A (en) 2017-03-10 2017-03-10 Drive assisting device and drive assisting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017046291A JP2018149869A (en) 2017-03-10 2017-03-10 Drive assisting device and drive assisting method

Publications (1)

Publication Number Publication Date
JP2018149869A true JP2018149869A (en) 2018-09-27

Family

ID=63681192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017046291A Pending JP2018149869A (en) 2017-03-10 2017-03-10 Drive assisting device and drive assisting method

Country Status (1)

Country Link
JP (1) JP2018149869A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154369A (en) * 2019-03-18 2020-09-24 株式会社Jvcケンウッド Obstacle information management device, obstacle information management method, and obstacle information management program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154369A (en) * 2019-03-18 2020-09-24 株式会社Jvcケンウッド Obstacle information management device, obstacle information management method, and obstacle information management program

Similar Documents

Publication Publication Date Title
JP6394281B2 (en) In-vehicle alert system, alarm control device
EP2723069B1 (en) Vehicle periphery monitoring device
JP4847051B2 (en) Vehicle surrounding monitoring method and system
JP5704902B2 (en) Driving support device and driving support method
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
WO2011043006A1 (en) Control device and vehicle surrounding monitoring device
JP2016013793A (en) Image display device and image display method
JP5741321B2 (en) Driving assistance device
KR20150051735A (en) Parking Guide System and the Method
JP6595401B2 (en) Display control device
JP2006252389A (en) Circumference-monitoring device
JP2020537427A (en) How to depict the surroundings of a vehicle
EP2775467A1 (en) Obstacle alert device
JP2017220760A (en) Image processing apparatus for vehicle
JP2013168063A (en) Image processing device, image display system, and image processing method
JP2010044561A (en) Monitoring device to be mounted on vehicle
JP2021044751A (en) Periphery monitoring device
JP2019046069A (en) Driving support device and driving support method
JP2019120994A (en) Display control device and display control method
JP2017159687A (en) Parking region display system and automatic parking system using the same
JP2017016200A (en) Image processing apparatus, image display system, and image processing method
JP2010163103A (en) Parking support apparatus and vehicle parking assistance system
JP5477394B2 (en) Vehicle periphery monitoring device
JP2018149869A (en) Drive assisting device and drive assisting method
JP7121120B2 (en) vehicle controller