JP2021076958A - Visual recognition support device - Google Patents

Visual recognition support device Download PDF

Info

Publication number
JP2021076958A
JP2021076958A JP2019201409A JP2019201409A JP2021076958A JP 2021076958 A JP2021076958 A JP 2021076958A JP 2019201409 A JP2019201409 A JP 2019201409A JP 2019201409 A JP2019201409 A JP 2019201409A JP 2021076958 A JP2021076958 A JP 2021076958A
Authority
JP
Japan
Prior art keywords
image
vehicle
target
display
influence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019201409A
Other languages
Japanese (ja)
Inventor
淳 金谷
Jun Kanaya
淳 金谷
陶山 晃正
Akimasa Suyama
晃正 陶山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2019201409A priority Critical patent/JP2021076958A/en
Publication of JP2021076958A publication Critical patent/JP2021076958A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To reduce a visual load on a passenger.SOLUTION: In a monitoring system 24, a display image generation section 38 allows an inner monitor 28 to display a still image stored in an image memory 46. An object extraction section 40 searches another vehicle from captured images of cameras 30. An object information generation section 42 acquires influence degree information to determine an influence degree with respect to an own vehicle concerning the searched vehicle. An object image generation section 44 generates an object image concerning a vehicle determined to have an influence degree being equal to or more than a predetermined degree. The display image generation section 38 allows the inner monitor 28 to perform displaying by superimposing an object image on a still image. Thus, a display image of the inner monitor 28 is restricted from giving a visual stimulation to a passenger, so that the passenger can recognize an object image while reducing a visual load on the passenger.SELECTED DRAWING: Figure 1

Description

本発明は、運転者の視認を支援する視認支援装置に関する。 The present invention relates to a visual recognition support device that assists the driver's visual recognition.

特許文献1の電子ミラーシステムには、左右のサイドミラー近傍の各々に配置されて自車両の後方を撮像する後側方カメラが設けられている。また、電子ミラーシステムには、ウインドシールドの両側に位置するピラーの各々の根本に後側方モニタが配置されており、後側方モニタの各々に後側方カメラの各々の撮像画像が表示される。 The electronic mirror system of Patent Document 1 is provided with rear side cameras arranged in the vicinity of the left and right side mirrors to take an image of the rear of the own vehicle. Further, in the electronic mirror system, a rear side monitor is arranged at the root of each of the pillars located on both sides of the windshield, and each of the rear side monitors displays the captured image of each of the rear side cameras. To.

特開2016−220011号公報Japanese Unexamined Patent Publication No. 2016-22001

ところで、車両の周囲を撮像した映像が表示されるモニタは、乗員(運転者)の視認が容易な位置に配置されている。このため、モニタに表示される映像は、乗員の関心の有無にかかわらずに乗員の目に入り、モニタに表示されている映像(画像の動き等)が乗員に煩わしく感じられてしまうことがある。 By the way, the monitor that displays the image of the surroundings of the vehicle is arranged at a position where the occupant (driver) can easily see it. For this reason, the image displayed on the monitor may be seen by the occupant regardless of the interest of the occupant, and the image displayed on the monitor (movement of the image, etc.) may be annoying to the occupant. ..

本発明は、上記事実を鑑みて成されたものであり、乗員の視覚的負担を低減できる視認支援装置を提供することを目的とする。 The present invention has been made in view of the above facts, and an object of the present invention is to provide a visual recognition support device capable of reducing the visual burden on an occupant.

本発明の第1の態様の視認支援装置は、車両の周囲を撮像する撮像手段と、車室内に設けられ前記撮像手段の撮影画像の表示に用いられる表示手段と、前記撮像手段の撮影画像上において自車両の走行に影響すると予測される対象物を検索し、検索された前記対象物の自車両に対する影響度を判断するための影響度情報を取得する情報取得手段と、前記影響度情報から予め設定された影響度を超える前記対象物について、前記撮影画像から該対象物を示す対象画像を生成する対象画像生成手段と、前記表示手段に所定柄の静止画像を表示し、前記予め設定された影響度を超える前記対象物についての前記対象画像を前記静止画像に重ねて表示するように制御する表示制御手段と、を含む。 The visual recognition support device according to the first aspect of the present invention includes an image pickup means for photographing the surroundings of the vehicle, a display means provided in the vehicle interior and used for displaying a photographed image of the image pickup means, and a photographed image of the image pickup means. From the information acquisition means for searching for an object predicted to affect the running of the own vehicle and acquiring the influence degree information for determining the degree of influence of the searched object on the own vehicle, and the influence degree information. For the object that exceeds the preset degree of influence, the target image generation means for generating the target image showing the object from the captured image and the still image of a predetermined pattern are displayed on the display means, and the preset is set. A display control means for controlling the target image of the object having a degree of influence exceeding the degree of influence so as to be superimposed on the still image is included.

第2の態様の視認支援装置は、第1の態様において、前記表示制御手段が、前記対象画像を表示させる際、前記影響度情報に応じて前記静止画像の柄の少なくとも一部を変更する。 In the first aspect, the visual recognition support device of the second aspect changes at least a part of the pattern of the still image according to the influence degree information when the display control means displays the target image.

第3の態様の視認支援装置は、第1又は第2の態様において、前記対象画像生成手段が、前記撮影画像上の路面標示を示す路面画像を生成し、前記表示制御手段が、前記対象画像と共に前記路面画像を前記表示手段に表示する。 In the visual recognition support device of the third aspect, in the first or second aspect, the target image generation means generates a road surface image showing a road marking on the captured image, and the display control means generates the target image. At the same time, the road surface image is displayed on the display means.

第4の態様の視認支援装置は、第1から第3の何れか1の態様において、前記対象画像生成手段が、前記影響度情報に応じ、前記対象物の影響度が高くなるにしたがい、影響度が低い時よりも前記対象物の周囲を広げた画像を前記対象画像として生成する。 In the visual recognition support device of the fourth aspect, in any one of the first to third aspects, the target image generating means has an influence as the influence degree of the object becomes higher according to the influence degree information. An image in which the circumference of the object is wider than when the degree is low is generated as the target image.

第5の態様の視認支援装置は、第1から第4の何れか1の態様において、前記撮像手段が少なくとも自車両の側方側から後方側を撮像する。 In the visual recognition support device of the fifth aspect, in any one of the first to fourth aspects, the imaging means images at least the side to the rear of the own vehicle.

第6の態様の視認支援装置は、第1から第5の何れか1の態様において、前記情報取得手段が、前記対象物の自車両に対する影響度を認識可能とする対象情報を検出し、前記表示制御手段が、前記対象情報を前記対象画像と共に前記静止画像に重ねて前記表示手段に表示する。 In the visual recognition support device of the sixth aspect, in any one of the first to fifth aspects, the information acquisition means detects the target information that makes it possible to recognize the degree of influence of the target object on the own vehicle, and the above-mentioned The display control means superimposes the target information together with the target image on the still image and displays the target information on the display means.

第1の態様の視認支援装置では、車両の周囲を撮像する撮像手段が設けられ、車室内に撮像手段の撮影画像の表示に用いられる表示手段が設けられている。 In the visual recognition support device of the first aspect, an image pickup means for photographing the surroundings of the vehicle is provided, and a display means used for displaying a photographed image of the image pickup means is provided in the vehicle interior.

また、視認支援装置では、情報取得手段が、撮像手段の撮影画像上において自車両の走行に影響すると予測される対象物を検索し、検索された対象物の自車両に対する影響度を判断するための影響度情報を取得する。また、対象画像生成手段は、影響度情報から予め設定された影響度を超える対象物について、撮影画像から該対象物を示す対象画像を生成する。 Further, in the visual recognition support device, the information acquisition means searches for an object that is predicted to affect the running of the own vehicle on the captured image of the imaging means, and determines the degree of influence of the searched object on the own vehicle. Get the impact information of. Further, the target image generation means generates a target image showing the object from the photographed image for the object exceeding the influence degree set in advance from the influence degree information.

ここで、表示制御手段は、表示手段に所定柄の静止画像を表示する。また、表示制御手段は、表示手段に静止画像を表示している状態で、撮影画像から予め設定された影響度を超える対象物が検索されて、該対象物を示す対象画像を生成されると、対象画像を静止画像に重ねて表示する。 Here, the display control means displays a still image of a predetermined pattern on the display means. Further, when the display control means searches for an object exceeding a preset degree of influence from the captured image while the still image is displayed on the display means, and generates an object image indicating the object. , The target image is superimposed on the still image and displayed.

これにより、撮影画像から自車両の走行に影響する対象物が検索されていない場合、表示手段に所定柄の静止画像が表示されるので、表示手段に表示される画像が動くことがなく、表示手段の表示画像が視覚的負担となるのを抑制できる。また、自車両の走行に影響する対象物が検索された場合、静止画像に対象画像が重ねて表示されるので、自車両の走行に影響する対象物が検索されたことを認識できる。 As a result, when an object that affects the running of the own vehicle is not searched from the captured image, a still image of a predetermined pattern is displayed on the display means, so that the image displayed on the display means does not move and is displayed. It is possible to suppress the display image of the means from becoming a visual burden. Further, when an object that affects the traveling of the own vehicle is searched, the target image is superimposed on the still image, so that it can be recognized that the object that affects the traveling of the own vehicle has been searched.

第2の態様の視認支援装置では、表示手段に対象画像が重ねられて表示される際、表示手段に表示されている静止画像の少なくとも一部が変更される。これにより、静止画像の少なくとも一部が変化するので乗員に視覚的変化を与えることができて、自車両に影響を及ぼすと予測される対象物が検索されたことを容易に認識できる。 In the visual recognition support device of the second aspect, when the target image is superimposed and displayed on the display means, at least a part of the still image displayed on the display means is changed. As a result, at least a part of the still image is changed, so that the occupant can be visually changed, and it is possible to easily recognize that an object that is predicted to affect the own vehicle has been searched.

第3の態様の視認支援装置では、対象画像生成手段が撮影画像上の路面標示を示す路面画像を生成し、路面画像が対象画像と共に静止画像に重ねて表示される。このため、表示手段に表示された静止画像上の画像から対象物の相対位置を容易に認識できる。 In the visual recognition support device of the third aspect, the target image generation means generates a road surface image showing the road markings on the captured image, and the road surface image is displayed overlaid on the still image together with the target image. Therefore, the relative position of the object can be easily recognized from the image on the still image displayed on the display means.

第4の態様の視認支援装置では、対象画像として、対象物の影響度が高くなるにしたがい、影響度が低い時よりも対象物の周囲を広げられた画像が撮影画像から生成される。これにより、影響度に応じて対象物の周囲の背景が広げられた対象画像が静止画像に重ねられるので、表示手段に表示された対象画像から対象物の自車両に対する影響度の認識が容易になる。 In the visual recognition support device of the fourth aspect, as the target image, as the degree of influence of the object increases, an image in which the periphery of the object is expanded as compared with the case where the degree of influence is low is generated from the captured image. As a result, the target image whose background around the target object is expanded according to the degree of influence is superimposed on the still image, so that the degree of influence of the target object on the own vehicle can be easily recognized from the target image displayed on the display means. Become.

第5の態様の視認支援装置では、撮像手段が少なくとも自車両の側方側から後方側を撮像する。これにより、表示手段を車両後方の視認を補助する後写鏡として用いることができる。 In the visual recognition support device of the fifth aspect, the imaging means images at least the side to the rear of the own vehicle. Thereby, the display means can be used as a rearview mirror that assists the visual recognition behind the vehicle.

第6の態様の視認支援装置では、対象物の自車両に対する影響度を示す対象情報が表示手段に表示される。これにより、対象物の影響度をより的確に把握できる。 In the visual recognition support device of the sixth aspect, the target information indicating the degree of influence of the target object on the own vehicle is displayed on the display means. As a result, the degree of influence of the object can be grasped more accurately.

本実施形態に係る車両用視認装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the vehicle visual recognition device which concerns on this embodiment. 車両の制御部の主要部を示すブロック図である。It is a block diagram which shows the main part of the control part of a vehicle. 本実施形態に係る車両の概略を示す平面図である。It is a top view which shows the outline of the vehicle which concerns on this embodiment. (A)は、撮影画像が表示されたインナモニタを示す概略図、(B)は、静止画像が表示されたインナモニタを示す概略図である。(A) is a schematic view showing an inner monitor on which a captured image is displayed, and (B) is a schematic view showing an inner monitor on which a still image is displayed. (A)〜(D)は、各々撮影画像が表示されたインナモニタを示す概略図である。(A) to (D) are schematic views showing an inner monitor on which a captured image is displayed. (A)〜(D)は、各々図5(A)〜図5(D)に対応されて静止画像が表示されたインナモニタを示す概略図である。(A) to (D) are schematic views showing an inner monitor in which a still image is displayed corresponding to FIGS. 5 (A) to 5 (D), respectively. 抑制モードにおけるインナモニタへの表示処理の概略を示す流れ図である。It is a flow chart which shows the outline of the display process on the inner monitor in the suppression mode.

以下、図面を参照して本発明の実施形態について詳細に説明する。
図2には、本実施形態に係る車両10の制御部の概略がブロック図にて示されており、図3には、車両10が平面図にて示されている。なお、図面では、車両前側が矢印FRにて示され、車幅方向右側が矢印RHにて示されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 2 shows an outline of the control unit of the vehicle 10 according to the present embodiment in a block diagram, and FIG. 3 shows the vehicle 10 in a plan view. In the drawings, the front side of the vehicle is indicated by the arrow FR, and the right side in the vehicle width direction is indicated by the arrow RH.

本実施形態に係る車両10には、バイワイヤシステムが適用されている。車両10は、図示しない各種のセンサによって乗員Pの運転操作状態や走行機構の作動状態等が検出され、検出された運転操作状態や走行機構の作動状態等に応じて転舵制御、速度制御及び制動制御が行われる。 A by-wire system is applied to the vehicle 10 according to the present embodiment. In the vehicle 10, various sensors (not shown) detect the driving operation state of the occupant P, the operating state of the traveling mechanism, and the like, and the steering control, speed control, and the like according to the detected driving operation state and the operating state of the traveling mechanism. Braking control is performed.

図2に示すように、車両10は、ステアリングECU(Electronic Control Unit)12A、エンジンECU12B、トランスミッションECU12C、及びブレーキECU12D等を備える。 As shown in FIG. 2, the vehicle 10 includes a steering ECU (Electronic Control Unit) 12A, an engine ECU 12B, a transmission ECU 12C, a brake ECU 12D, and the like.

図3に示すように、車両10には、ステアリング装置における操作体としてのステアリングホイール14が設けられており、ステアリングホイール14は、座席(運転席)16に着座した乗員(運転者)Pによる運転操作に用いられる。ステアリングECU12Aは、乗員Pによるステアリングホイール14の操舵操作により回転されるステアリングシャフト(図示省略)の回転角を検出し、検出した回転角に応じた転舵角が得られるように図示しないアクチュエータ等を作動させて操舵輪(前輪)を転舵させる。また、エンジンECU12Bは、乗員Pのアクセルペダルの操作等に応じ、エンジン(又は電機モータ)の回転を制御する。 As shown in FIG. 3, the vehicle 10 is provided with a steering wheel 14 as an operating body in the steering device, and the steering wheel 14 is driven by an occupant (driver) P seated in a seat (driver's seat) 16. Used for operation. The steering ECU 12A detects the rotation angle of the steering shaft (not shown) rotated by the steering operation of the steering wheel 14 by the occupant P, and provides an actuator or the like (not shown) so that a steering angle corresponding to the detected rotation angle can be obtained. Operate to steer the steering wheels (front wheels). Further, the engine ECU 12B controls the rotation of the engine (or the electric motor) in response to the operation of the accelerator pedal of the occupant P or the like.

さらに、トランスミッションECU12Cは、乗員Pのアクセルペダルの操作及び車速等に応じてトランスミッション(自動変速機)を制御し、ブレーキECU12Dは、乗員Pのブレーキペダルの操作等に応じてブレーキの作動制御を行う。これにより、車両10は、乗員Pの運転操作に応じて各ECUが協働して動作して走行される。なお、車両10の走行用の駆動源は、エンジンに限らず、エンジンと電機モータとが用いられてもよく、エンジンに代えて電機モータが用いられてもよく、車両10は、走行用の駆動源の駆動が制御されて走行される。 Further, the transmission ECU 12C controls the transmission (automatic transmission) according to the operation of the accelerator pedal of the occupant P and the vehicle speed, and the brake ECU 12D controls the operation of the brake according to the operation of the brake pedal of the occupant P. .. As a result, the vehicle 10 is driven by the respective ECUs operating in cooperation with each other according to the driving operation of the occupant P. The drive source for traveling of the vehicle 10 is not limited to the engine, and an engine and an electric motor may be used, or an electric motor may be used instead of the engine, and the vehicle 10 is driven for traveling. The drive of the source is controlled and the vehicle runs.

車両10には、自動運転装置(運転支援装置)としての自動運転システム18が設けられており、自動運転システム18は、自動運転ECU20を備えている。また、車両10には、監視装置22A及びナビゲーション装置22B等が設けられている。自動運転ECU20には、ステアリングECU12A、エンジンECU12B、トランスミッションECU12C、ブレーキECU12D、監視装置22A及びナビゲーション装置22Bの各々が電気的に接続されている。 The vehicle 10 is provided with an automatic driving system 18 as an automatic driving device (driving support device), and the automatic driving system 18 includes an automatic driving ECU 20. Further, the vehicle 10 is provided with a monitoring device 22A, a navigation device 22B, and the like. Each of the steering ECU 12A, the engine ECU 12B, the transmission ECU 12C, the brake ECU 12D, the monitoring device 22A, and the navigation device 22B is electrically connected to the automatic driving ECU 20.

車両10では、運転モードとして乗員Pの運転操作に応じて走行する手動運転モードと、乗員Pを介さずに走行する自動運転モードとが設定可能にされている。自動運転システム18は、自動運転ECU20が車両10の運転モードを切換え、自動運転モードにおいて自動運転ECU20が車両10の走行を制御する。 In the vehicle 10, as a driving mode, a manual driving mode in which the vehicle travels according to the driving operation of the occupant P and an automatic driving mode in which the vehicle travels without the intervention of the occupant P can be set. In the automatic driving system 18, the automatic driving ECU 20 switches the driving mode of the vehicle 10, and the automatic driving ECU 20 controls the running of the vehicle 10 in the automatic driving mode.

監視装置22Aは、自車両(車両10)の前方及び後方を含む自車両の周囲を撮像する監視用撮像手段(カメラ、図示省略)の撮影画像等から自車両の周囲の他の車両や歩行者等の走行対象物、路上の白線等の路面標示、及び走行対象物と自車両(車体)との相対位置や相対位置の変化などを検出する。また、監視装置22Aは、ミリ波レーダ等の計測手段を備え、自車両と走行対象物との相対位置及び相対位置の変化、すなわち、自車両に対する走行対象物の方向、自車両と走行対象物との距離、走行対象物の移動速度及び自車両と走行対象物との相対速度等を検出してもよい。 The monitoring device 22A is used to capture images taken by a monitoring imaging means (camera, not shown) that captures the surroundings of the own vehicle including the front and rear of the own vehicle (vehicle 10), and other vehicles and pedestrians around the own vehicle. Etc., road markings such as white lines on the road, and changes in the relative position and relative position of the traveling object and the own vehicle (vehicle body) are detected. Further, the monitoring device 22A is provided with measuring means such as a millimeter-wave radar, and changes in the relative position and relative position between the own vehicle and the traveling object, that is, the direction of the traveling object with respect to the own vehicle, and the own vehicle and the traveling object. The distance to the vehicle, the moving speed of the traveling object, the relative speed between the own vehicle and the traveling object, and the like may be detected.

ナビゲーション装置22Bは、地図情報を取得すると共に、GPS(Global Positioning System)機能等を用いて車両10の位置情報を取得し、地図上における車両10の位置を特定する(例えば、図示しないディスプレイ上に表示する)。また、ナビゲーション装置22Bは、目的地が設定(指定)されることで、地図情報等に基づいて目的地までの車両10の走行経路を設定し、設定した走行経路に沿って案内可能になっている。 The navigation device 22B acquires map information and also acquires position information of the vehicle 10 by using a GPS (Global Positioning System) function or the like to specify the position of the vehicle 10 on the map (for example, on a display (not shown)). indicate). Further, by setting (designating) the destination, the navigation device 22B sets the travel route of the vehicle 10 to the destination based on the map information or the like, and can guide along the set travel route. There is.

自動運転ECU20は、予め設定されたタイミングや乗員Pの要求に応じ、運転モードを切換える。また、自動運転ECU20は、自動運転モードに切換えると、監視装置22A及びナビゲーション装置22Bから取得する情報に基づいてステアリングECU12A、エンジンECU12B、トランスミッションECU12C及びブレーキECU12D等の動作を制御する。この際、自動運転ECU20は、監視装置22Aによって検出される路面標示、周囲の走行対象物との距離及び相対速度等に応じて制御することで、車両10を予め設定された走行経路に沿って走行させる。 The automatic operation ECU 20 switches the operation mode according to a preset timing or a request of the occupant P. Further, when the automatic operation ECU 20 is switched to the automatic operation mode, the operation of the steering ECU 12A, the engine ECU 12B, the transmission ECU 12C, the brake ECU 12D, and the like is controlled based on the information acquired from the monitoring device 22A and the navigation device 22B. At this time, the automatic driving ECU 20 controls the vehicle 10 along a preset traveling path by controlling according to the road markings detected by the monitoring device 22A, the distance to the surrounding traveling object, the relative speed, and the like. Run.

一方、車両10には、視認支援装置としてのモニタシステム24が設けられている。図1には、モニタシステム24の主要部の構成がブロック図にて示されている。
図1及び図2に示すように、モニタシステム24には、表示制御手段が構成される表示ECU26、表示手段としてのインナモニタ28、及び撮像手段としての1台又は複数台のカメラ30(本実施形態では、3台のカメラ30A、30B、30C)が設けられている。
On the other hand, the vehicle 10 is provided with a monitor system 24 as a visual recognition support device. FIG. 1 shows a block diagram of the configuration of the main part of the monitor system 24.
As shown in FIGS. 1 and 2, the monitor system 24 includes a display ECU 26 including display control means, an inner monitor 28 as display means, and one or more cameras 30 as image pickup means (this implementation). In the form, three cameras (30A, 30B, 30C) are provided.

モニタシステム24では、表示ECU26にインナモニタ28及びカメラ30(30A〜30C)の各々が電気的に接続されている。また、モニタシステム24には、インナモニタ28の表示モードとして通常モードと抑制モードとが設定されている。表示ECU26は、表示モードを通常モード又は抑制モードに設定することで表示モードを切換えて、カメラ30により撮像された撮影画像に応じたインナモニタ28への表示制御を行う。 In the monitor system 24, each of the inner monitor 28 and the cameras 30 (30A to 30C) is electrically connected to the display ECU 26. Further, in the monitor system 24, a normal mode and a suppression mode are set as display modes of the inner monitor 28. The display ECU 26 switches the display mode by setting the display mode to the normal mode or the suppression mode, and controls the display on the inner monitor 28 according to the captured image captured by the camera 30.

図3に示すように、カメラ30Bは、車両10の車両後端部の車幅方向中央部に配置されており、カメラ30Bは、車両後方を撮像する。カメラ30Aは、車両左外側(左サイドドアの外側)に配置されており、カメラ30Aは、車両左側及び車両左後方を撮像する。また、カメラ30Cは、車両右外側(左サイドドアの外側)に配置されており、カメラ30Cは、車両右側及び車両右後方を撮像する。なお、カメラ30A〜30Cは、監視装置22Aの監視用撮像手段と兼用とされてもよい。また、カメラ30A、30Cは、ドアミラーと共に設けられてもよく、カメラ30A、30Cは、ドアミラーに代えて車両10に設けられてもよい。 As shown in FIG. 3, the camera 30B is arranged at the center of the rear end of the vehicle 10 in the vehicle width direction, and the camera 30B images the rear of the vehicle. The camera 30A is arranged on the left outside of the vehicle (outside of the left side door), and the camera 30A images the left side of the vehicle and the rear left of the vehicle. Further, the camera 30C is arranged on the right outside of the vehicle (outside of the left side door), and the camera 30C images the right side of the vehicle and the rear right of the vehicle. The cameras 30A to 30C may also be used as the monitoring imaging means of the monitoring device 22A. Further, the cameras 30A and 30C may be provided together with the door mirror, and the cameras 30A and 30C may be provided in the vehicle 10 instead of the door mirror.

インナモニタ28は、車室前部のインストルメントパネル10Aにおいて座席16に着座した乗員Pの車両前側に配置されている。なお、インナモニタ28は、車室内において乗員Pの視認が容易でかつ乗員Pの車外視界を妨げない位置に配置されていればよい。インナモニタ28は、インストルメントパネル10Aの座席16の車両前側に限らず、インストルメントパネル10Aの車幅方向中間部に配置されてもよく、インナモニタ28は、インストルメントパネル10Aに限らずフロントウインドガラスの上端部に配置されて、天井面に取付けられていてもよい。また、インナモニタ28は、3分割されて、車室内において車幅方向左側、中央部分及び車幅方向右側の各々に配置されてもよい。 The inner monitor 28 is arranged on the front side of the vehicle of the occupant P seated on the seat 16 on the instrument panel 10A at the front of the passenger compartment. The inner monitor 28 may be arranged at a position in the vehicle interior where the occupant P can be easily visually recognized and does not obstruct the occupant P's view outside the vehicle. The inner monitor 28 may be arranged not only on the front side of the seat 16 of the instrument panel 10A but also in the middle portion in the vehicle width direction of the instrument panel 10A, and the inner monitor 28 is not limited to the instrument panel 10A and may be arranged in the front window. It may be arranged at the upper end of the glass and mounted on the ceiling surface. Further, the inner monitor 28 may be divided into three parts and arranged in each of the left side in the vehicle width direction, the central portion and the right side in the vehicle width direction in the vehicle interior.

インナモニタ28は、各々の画像表示面が矩形長尺状とされた表示部32A、32B、32Cを備えており、表示部32A〜32Cには、LCD(Liquid Crystal Display)やEL(Electro Luminescence)ディスプレイなどの薄型表示媒体を適用できる。インナモニタ28は、表示部32A〜32Cが車幅方向に沿って順に配置されている。 The inner monitor 28 includes display units 32A, 32B, and 32C whose image display surfaces are rectangular and elongated, and the display units 32A to 32C include LCD (Liquid Crystal Display) or EL (Electro Luminescence). A thin display medium such as a display can be applied. In the inner monitor 28, display units 32A to 32C are arranged in order along the vehicle width direction.

表示部32Bは、表示部32A、32Cに比して長尺とされており、表示部32Bは、長手方向が車幅方向とされ、画像表示面が車両後側に向けられている。表示部32Aは、表示部32Bの車幅方向左側に配置されて表示部32Bに連結されており、表示部32Aは、長手方向が左斜め後方に向けられて画像表示面が後斜め右側に向けられている。また、表示部32Cは、表示部32Bの車幅方向右側に配置されて表示部32Bに連結されており、表示部32Cは、長手方向が右斜め後方に向けられて画像表示面が後斜め左側に向けられている。 The display unit 32B is longer than the display units 32A and 32C, the longitudinal direction of the display unit 32B is the vehicle width direction, and the image display surface is directed to the rear side of the vehicle. The display unit 32A is arranged on the left side of the display unit 32B in the vehicle width direction and is connected to the display unit 32B. Has been done. Further, the display unit 32C is arranged on the right side of the display unit 32B in the vehicle width direction and is connected to the display unit 32B. Is aimed at.

これにより、インナモニタ28は、表示部32A〜32Cの各々の画像表示面が座席16に着座した乗員Pに向けられている。なお、インナモニタ28は、フレキシブルディスプレイ等が用いられて、表示部32A〜32Cが一体にされていてもよい。 As a result, in the inner monitor 28, the image display surfaces of the display units 32A to 32C are directed toward the occupant P seated in the seat 16. As the inner monitor 28, a flexible display or the like may be used, and the display units 32A to 32C may be integrated.

図1に示すように、モニタシステム24の表示ECU26には、画像取込部34、画像処理部36及び表示画像生成部38等が形成されている。表示ECU26は、CPU、ROM、RAM、不揮発性のメモリ(EPROMなど)等がバスによって接続されたマイクロコンピュータ(図示省略)を備えている。表示ECU26は、CPUがROM等に記憶されているプログラムを読出してRAMに展開しながら実行することで、画像取込部34、画像処理部36及び表示画像生成部38等として機能する。 As shown in FIG. 1, the display ECU 26 of the monitor system 24 is formed with an image acquisition unit 34, an image processing unit 36, a display image generation unit 38, and the like. The display ECU 26 includes a microcomputer (not shown) to which a CPU, ROM, RAM, non-volatile memory (EPROM, etc.) and the like are connected by a bus. The display ECU 26 functions as an image acquisition unit 34, an image processing unit 36, a display image generation unit 38, and the like by executing the program while the CPU reads the program stored in the ROM or the like and expands it in the RAM.

画像取込部34は、カメラ30A〜30Cが撮像した撮影画像を取込む。画像処理部36は、カメラ30A〜30Cの撮影画像の各々に対して所定の画像処理を施すと共に、視点変換処理を行う。視点変換処理では、仮想視点及び仮想スクリーンを設定し、撮影画像を仮想スクリーンに投影し、撮影画像の各々を同一の視点(仮想視点)から見た画像に変換する。 The image capturing unit 34 captures captured images captured by the cameras 30A to 30C. The image processing unit 36 performs predetermined image processing on each of the captured images of the cameras 30A to 30C, and also performs viewpoint conversion processing. In the viewpoint conversion process, a virtual viewpoint and a virtual screen are set, a captured image is projected on the virtual screen, and each of the captured images is converted into an image viewed from the same viewpoint (virtual viewpoint).

ここで、画像処理部36では、仮想スクリーンとしてインナモニタ28における表示部32A〜32Cの配列形状に対応する仮想スクリーンが設定され、仮想スクリーンに対する仮想視点としてインナモニタ28に対する乗員Pの視点(目の位置)が適用される。画像処理部36は、異なる撮影画像上の同一の被写体について、大きさが同じになるように撮影画像に対する拡縮処理が行われる。また、視点変換処理において仮想スクリーンに投影される各撮影画像は、左右が反転される。 Here, in the image processing unit 36, a virtual screen corresponding to the arrangement shape of the display units 32A to 32C in the inner monitor 28 is set as a virtual screen, and the viewpoint (eyes) of the occupant P with respect to the inner monitor 28 as a virtual viewpoint with respect to the virtual screen. Position) applies. The image processing unit 36 performs scaling processing on the captured images so that the same subject on different captured images has the same size. In addition, the left and right sides of each captured image projected on the virtual screen in the viewpoint conversion process are reversed.

モニタシステム24では、インナモニタ28の表示モードとして通常モードと抑制モードとが設けられている。図4(A)及び図4(B)には、インナモニタ28の表示画像の概略が示されており、図4(A)が通常モードに対応され、図4(B)が抑制モードに対応されている。 In the monitor system 24, a normal mode and a suppression mode are provided as display modes of the inner monitor 28. 4 (A) and 4 (B) show an outline of the display image of the inner monitor 28, FIG. 4 (A) corresponds to the normal mode, and FIG. 4 (B) corresponds to the suppression mode. Has been done.

表示ECU26は、表示モードが通常モードに設定されることで、表示画像生成部38が視点変換処理された撮影画像をインナモニタ28(表示部32A〜32C)に出力する。これにより、図4(A)に示すように、インナモニタ28には、表示部32Bに車両後方の撮影画像が表示され、表示部32Aに車両左側(左斜め後側)の撮影画像が表示され、表示部32Cに車両右側(右斜め後側)の撮影画像が表示される。この際、インナモニタ28は、車両後方の白色の実線(白線)や白色の破線などの路面標示50や車両後方を走行している他の車両52等が表示される。 When the display mode is set to the normal mode, the display ECU 26 outputs the captured image to which the viewpoint conversion process has been performed by the display image generation unit 38 to the inner monitors 28 (display units 32A to 32C). As a result, as shown in FIG. 4A, the inner monitor 28 displays a photographed image of the rear of the vehicle on the display unit 32B, and displays a photographed image of the left side of the vehicle (diagonally to the left rear side) on the display unit 32A. , The captured image on the right side of the vehicle (diagonally to the right and rear side) is displayed on the display unit 32C. At this time, the inner monitor 28 displays road markings 50 such as a white solid line (white line) and a white broken line behind the vehicle, and other vehicles 52 traveling behind the vehicle.

一方、図1に示すように、モニタシステム24の表示ECU26には、検索手段及び抽出手段としての対象抽出部40、対象抽出部40と共に情報取得手段を構成する対象情報生成部42、及び対象画像生成手段としての対象画像生成部44が形成されている。また、表示ECU26には、記憶部としての画像メモリ46が設けられており、画像メモリ46には、ROMや不揮発性メモリ(EPROM等)などが用いられている。なお、表示ECU26では、CPUが所定のプログラムを実行することで、対象抽出部40、対象情報生成部42及び対象画像生成部44として機能する。 On the other hand, as shown in FIG. 1, the display ECU 26 of the monitor system 24 includes a target extraction unit 40 as a search means and an extraction means, a target information generation unit 42 that constitutes an information acquisition unit together with the target extraction unit 40, and a target image. The target image generation unit 44 as a generation means is formed. Further, the display ECU 26 is provided with an image memory 46 as a storage unit, and the image memory 46 uses a ROM, a non-volatile memory (EPROM, or the like) or the like. In the display ECU 26, the CPU executes a predetermined program to function as the target extraction unit 40, the target information generation unit 42, and the target image generation unit 44.

対象抽出部40は、カメラ30(30A〜30C)の撮影画像(画像処理部36において画像処理された撮影画像)から所定の対象物を検索する。また、対象抽出部40は、検索により対象物が検出された場合、検出された対象物の画像を抽出する。本実施形態では、自車両の周囲(後方や側方)を走行する他の車両52を対象物としており、対象抽出部40は、撮影画像を検索することで他の車両52を検出すると、検出された他の車両52の画像を抽出する。 The target extraction unit 40 searches for a predetermined object from the captured images of the cameras 30 (30A to 30C) (photographed images image-processed by the image processing unit 36). Further, when the target object is detected by the search, the target extraction unit 40 extracts an image of the detected target object. In the present embodiment, another vehicle 52 traveling around the own vehicle (rear or side) is targeted, and when the target extraction unit 40 detects the other vehicle 52 by searching the captured image, it detects it. The image of the other vehicle 52 is extracted.

また、対象抽出部40では、撮影画像から路面上の白色の実線、黄色の実線或いは白色の破線などのセンターライン及び車線境界線等の路面標示50の画像を抽出する。なお、対象抽出部40は、路面標示50と共に路面に立設されている道路標識や路側に敷設されているガイドレールや防音壁等の画像を抽出してもよい。 Further, the target extraction unit 40 extracts an image of the road marking 50 such as a center line such as a solid white line, a solid yellow line or a white broken line on the road surface, and a lane boundary line from the captured image. The target extraction unit 40 may extract images of a road sign standing on the road surface, a guide rail laid on the road side, a soundproof wall, and the like together with the road marking 50.

対象情報生成部42は、対象抽出部40において検出された車両52について、自車両に対する影響度を判断するための影響度情報を生成する。影響度情報は、撮影画像上における他の車両52の位置(走行位置)の時間変化、他の車両52の画像の大きさの時間変化等が用いられて生成される。影響度情報は、他の車両52について、車種、自車両に対する方向、自車両との距離、自車両に対する相対速度、及び走行速度等の対象情報を含み、影響度情報には、他の車両52について自車両の走行に影響を及ぼす度合いを予測(判定)するための各種の情報を含むことができる。 The target information generation unit 42 generates influence degree information for determining the degree of influence on the own vehicle for the vehicle 52 detected by the target extraction unit 40. The influence degree information is generated by using the time change of the position (running position) of the other vehicle 52 on the captured image, the time change of the size of the image of the other vehicle 52, and the like. The influence degree information includes target information such as the vehicle type, the direction with respect to the own vehicle, the distance to the own vehicle, the relative speed with respect to the own vehicle, and the traveling speed for the other vehicle 52, and the influence degree information includes the other vehicle 52. Can include various information for predicting (determining) the degree of influence on the running of the own vehicle.

なお、モニタシステム24は、ミリ波レーダ等の計測手段を用いて他の車両52についての影響度情報を生成してもよい。この場合、計測手段は、監視装置22Aと兼用であってもよく、監視装置22Aが影響度情報を生成して、表示ECU26が監視装置22Aにおいて生成された影響度情報を取得してもよい。 The monitor system 24 may generate influence degree information about another vehicle 52 by using a measuring means such as a millimeter wave radar. In this case, the measuring means may also be used as the monitoring device 22A, the monitoring device 22A may generate the influence degree information, and the display ECU 26 may acquire the influence degree information generated by the monitoring device 22A.

対象画像生成部44は、他の車両52についての影響度情報に基づいて、自車両に対する車両52の影響度を判定し、自車両の走行に影響を及ぼす(影響度が高い)と判定される車両52を対象車両(注目車両)として特定する。対象車両の特定には、影響度情報に含まれる一つ又は複数の情報を用いることができる。 The target image generation unit 44 determines the degree of influence of the vehicle 52 on the own vehicle based on the degree of influence information about the other vehicle 52, and determines that the degree of influence on the running of the own vehicle (high degree of influence) is determined. The vehicle 52 is specified as a target vehicle (vehicle of interest). One or more pieces of information included in the influence degree information can be used to identify the target vehicle.

例えば、自車両との距離を示す情報を用いる場合、自車両との距離が所定距離以下(例数百m以下)の車両52を対象車両とする。また、自車両に対する相対速度の情報を用いる場合、相対速度が所定速度以上(例えば、数10km/h以上)の車両52を対象車両とする。対象車両の判定には、車両52の車種に関する情報や自車両又は車両52の速度に関する情報が組み合わされてもよい。例えば、車種が普通車などの乗用車と、乗用車に比して車体が大型となるバスやトラック(大型貨物車)とで、影響度に対する基準値を異ならせてもよく、自車両又は車両52の速度に応じて影響度に対する基準値を異ならせてもよい。 For example, when using information indicating the distance to the own vehicle, the target vehicle is the vehicle 52 whose distance to the own vehicle is a predetermined distance or less (eg, several hundred meters or less). When using the information on the relative speed with respect to the own vehicle, the target vehicle is the vehicle 52 having a relative speed equal to or higher than a predetermined speed (for example, several tens of km / h or more). Information on the vehicle type of the vehicle 52 and information on the speed of the own vehicle or the vehicle 52 may be combined in the determination of the target vehicle. For example, the reference value for the degree of influence may be different between a passenger car such as an ordinary car and a bus or truck (large freight car) whose body is larger than that of the passenger car. The reference value for the degree of influence may be different depending on the speed.

対象画像生成部44は、影響度が高いと判定した対象車両について、対象車両を示す対象画像を生成する。対象画像としては、撮影画像から抽出された車両52(対象車両)の画像を用いることができる。また、対象画像生成部44において生成する対象画像には、影響度情報に応じて対象車両の周囲の画像(背景など)を含ませることができ、対象画像生成部44では、影響度が小さい場合に比して影響度が大きくなるほど対象車両の周囲を広くした対象画像を生成する。 The target image generation unit 44 generates a target image showing the target vehicle for the target vehicle determined to have a high degree of influence. As the target image, an image of the vehicle 52 (target vehicle) extracted from the captured image can be used. Further, the target image generated by the target image generation unit 44 can include an image (background, etc.) around the target vehicle according to the influence degree information, and the target image generation unit 44 has a case where the influence degree is small. A target image in which the circumference of the target vehicle is widened as the degree of influence becomes larger than that of the target vehicle is generated.

また、対象画像生成部44では、対象車両が特定されると、対象抽出部40において抽出された路面標示50の画像を読込み、路面標示50を示す路面画像と対象車両を示す対象画像とを重ねた(合成してもよい)対象表示画像を生成する。 When the target vehicle is specified, the target image generation unit 44 reads the image of the road marking 50 extracted by the target extraction unit 40, and superimposes the road surface image showing the road marking 50 and the target image showing the target vehicle. Generates a target display image (which may be combined).

また、対象画像生成部44では、対象車両について乗員Pが対象車両の影響度を認識可能とする対象情報を生成する。例えば、対象情報には、影響度情報に含まれる速度情報(走行速度)を用いることができる。対象情報は、対象車両の影響度に応じて対象表示画像に重ねられる。これにより、インナモニタ28には、対象画像と路面画像とが表示可能となり、また、インナモニタ28には、対象画像及び路面画像に重ねて対象情報が表示可能になる。 In addition, the target image generation unit 44 generates target information for the target vehicle so that the occupant P can recognize the degree of influence of the target vehicle. For example, the speed information (running speed) included in the influence degree information can be used as the target information. The target information is superimposed on the target display image according to the degree of influence of the target vehicle. As a result, the target image and the road surface image can be displayed on the inner monitor 28, and the target information can be displayed on the inner monitor 28 by superimposing the target image and the road surface image.

一方、画像メモリ46には、予め設定された静止画像が記憶されている。静止画像には、乗員が注目してしまうのを抑制できる柄の画像が適用される。また、画像メモリ46には、静止画像の少なくとも一部を変化させた一つ又は複数の静止画像が記憶されている。 On the other hand, a preset still image is stored in the image memory 46. An image with a pattern that can prevent the occupant from paying attention is applied to the still image. Further, the image memory 46 stores one or a plurality of still images in which at least a part of the still image is changed.

画像メモリ46に記憶される静止画像には、各種の図形配置、モザイク模様や木目調(木目模様)などの各種の柄の画像が適用できる。また、静止画像は、インナモニタ28に表示された際、乗員Pに視覚的な刺激を及ぼす(与える)ことが抑制された柄で、かつ視覚的刺激を及ぼすのを抑制できる色相(色合い、色調)、明度(階調)及び彩度(鮮やかさ)とされた画像が適用される。なお、静止画像としては、明度が高い柄画像よりも明度の低い柄画像が好ましく、静止画像としては、彩度が強い鮮やかな画像よりも彩度の弱い所謂地味な画像が好ましく、静止画像としては、色調の強い画像よりも色調の弱い画像が好ましい。例えば、静止画像は、淡いトーンの落ち着いた柄の画像が好ましい。 Images of various patterns such as various graphic arrangements, mosaic patterns and wood grain patterns (wood grain patterns) can be applied to the still images stored in the image memory 46. Further, the still image has a pattern in which the visual stimulus is suppressed (given) to the occupant P when displayed on the inner monitor 28, and the hue (hue, color tone) capable of suppressing the visual stimulus is suppressed. ), Brightness (gradation) and saturation (vividness) are applied. As the still image, a pattern image having a low lightness is preferable to a pattern image having a high lightness, and as a still image, a so-called sober image having a low saturation is preferable to a vivid image having a high saturation, and the still image is used. Is preferable to an image having a weak color tone rather than an image having a strong color tone. For example, as a still image, an image having a calm pattern with a light tone is preferable.

このような静止画像としては、インナモニタ28が設けられたインストルメントパネル10Aや車室内における意匠等に合わせた柄の画像を適用でき、例えば、インストルメントパネル10Aや車室内に木目調の部品が用いられている場合、木目調の柄の画像を適用できる。 As such a still image, an instrument panel 10A provided with an inner monitor 28 or an image of a pattern matching a design in the vehicle interior can be applied. For example, an instrument panel 10A or a wood grain part in the vehicle interior can be applied. If used, an image with a wood grain pattern can be applied.

また、静止画像の少なくとも一部を変化させた静止画像としては、静止画像と同様の柄であって、インナモニタ28に表示した状態において、柄を形成する図形や模様を全体的に縦方向、横方向及び斜め方向の何れかに移動させた画像、柄を形成する図形の各々を縦方向、横方向及び斜め方向の何れかの方向に反転させた画像、色調や階調等を変化させた画像などの互いに近似した画像を適用できる。 Further, the still image in which at least a part of the still image is changed has the same pattern as the still image, and in the state of being displayed on the inner monitor 28, the figures and patterns forming the pattern are displayed in the vertical direction as a whole. An image moved in either the horizontal direction or the diagonal direction, an image in which each of the figures forming the pattern is inverted in either the vertical direction, the horizontal direction, or the diagonal direction, and the color tone, gradation, etc. are changed. Images that are close to each other, such as images, can be applied.

本実施形態では、柄が互いに近似した複数の画像を静止画像及び静止画像の少なくとも一部を変化させた複数の静止画像を用い、この関係を有する複数の静止画像が画像メモリ46に記憶されている。図4(B)に示すように、画像メモリ46に記憶された複数の静止画像の一つが静止画像54Aとしてインナモニタ28に表示され、画像メモリ46に記憶された残りの静止画像が静止画像54Aの少なくとも一部が変化された静止画像54Bとして用いられる。なお、図4(B)に示す静止画像54Aでは、三角形状の図形が縦横に配列されており、静止画像54Aに対する静止画像54Bは、例えば、三角形状の各図形の上下が反転された画像とされる。 In the present embodiment, a plurality of images having similar patterns to each other are used as a still image and a plurality of still images in which at least a part of the still image is changed, and a plurality of still images having this relationship are stored in the image memory 46. There is. As shown in FIG. 4B, one of the plurality of still images stored in the image memory 46 is displayed on the inner monitor 28 as the still image 54A, and the remaining still image stored in the image memory 46 is the still image 54A. It is used as a still image 54B in which at least a part of the image is changed. In the still image 54A shown in FIG. 4B, triangular figures are arranged vertically and horizontally, and the still image 54B with respect to the still image 54A is, for example, an image in which each of the triangular figures is inverted upside down. Will be done.

なお、静止画像54A、54Bには、柄が互いに近似した複数の静止画像を一群の静止画像を画像メモリ46に記憶し、予め乗員Pが好みで画像メモリ46に記憶した一群の静止画像から選択しておいて用いてもよい。また、画像メモリ46には、複数群の静止画像を記憶し、予め乗員Pが好みで何れの群の静止画像を用いるから選択しておいてもよい。 In the still images 54A and 54B, a group of still images having similar patterns to each other are stored in the image memory 46, and the occupant P prefers to select from the group of still images stored in the image memory 46 in advance. You may use it afterwards. Further, a plurality of groups of still images may be stored in the image memory 46, and the still images of any group may be selected in advance by the occupant P as he / she likes.

表示ECU26では、表示モードが抑制モードに設定されることで、表示画像生成部38が画像メモリ46に記憶された静止画像の一つを静止画像54Aとしてインナモニタ28に出力する。また、表示ECU26では、対象車両が抽出されて、対象表示画像が生成されると、インナモニタ28の表示を静止画像54Bに変更すると共に、静止画像54Bに対象表示画像を重ねて表示し、インナモニタ28において対象車両及び路面標示50に対応する部分の静止画像54Bを覆う。 In the display ECU 26, when the display mode is set to the suppression mode, the display image generation unit 38 outputs one of the still images stored in the image memory 46 to the inner monitor 28 as the still image 54A. Further, in the display ECU 26, when the target vehicle is extracted and the target display image is generated, the display of the inner monitor 28 is changed to the still image 54B, and the target display image is superimposed on the still image 54B and displayed as an inner. The monitor 28 covers the still image 54B of the portion corresponding to the target vehicle and the road marking 50.

次に、本実施形態の作用として、モニタシステム24におけるインナモニタ28の表示画像の制御を説明する。
車両10では、運転モードとして手動運転モードに設定されることで、乗員Pの運転操作に応じた操舵制御、速度制御及び制動制御等が実行され、乗員Pの運転操作に応じて車両10が走行される。また、車両10では、運転モードとして自動運転モードに設定されると、自動運転システム18が乗員Pの運転操作を介さずに車両10の操舵制御、速度制御及び制動制御等を実行する。これにより、車両10が予め設定された目的地へ向けて走行される。
Next, as an operation of the present embodiment, control of the display image of the inner monitor 28 in the monitor system 24 will be described.
In the vehicle 10, by setting the driving mode to the manual driving mode, steering control, speed control, braking control, etc. are executed according to the driving operation of the occupant P, and the vehicle 10 travels according to the driving operation of the occupant P. Will be done. Further, in the vehicle 10, when the automatic driving mode is set as the driving mode, the automatic driving system 18 executes steering control, speed control, braking control, and the like of the vehicle 10 without the driving operation of the occupant P. As a result, the vehicle 10 is driven toward a preset destination.

一方、車両10には、モニタシステム24が設けられている。モニタシステム24は、図示しないイグニッションスイッチがオンされると動作が開始され、イグニッションスイッチがオフされると動作を終了する。なお、モニタシステム24は、車両10の走行開始に先立って動作され、車両10の走行が終了することで動作を終了すればよく、乗員Pの乗車及び降車に合わせて動作してもよい。また、以下では、対象車両の特定に自車両との距離を適用し、対象画像の生成に自車両と対象車両との速度差を適用し、対象車両に関する対象情報に対象車両の速度情報を適用して説明する。 On the other hand, the vehicle 10 is provided with a monitor system 24. The monitor system 24 starts operation when an ignition switch (not shown) is turned on, and ends operation when the ignition switch is turned off. The monitor system 24 may be operated prior to the start of traveling of the vehicle 10 and may be terminated when the traveling of the vehicle 10 is completed, and may be operated in accordance with the boarding and disembarking of the occupant P. In the following, the distance to the own vehicle is applied to identify the target vehicle, the speed difference between the own vehicle and the target vehicle is applied to generate the target image, and the speed information of the target vehicle is applied to the target information regarding the target vehicle. I will explain.

モニタシステム24では、インナモニタ28の表示モードとして通常モード及び抑制モードが設けられており、モニタシステム24の表示ECU26が予め設定されたタイミングで表示モードを通常モード又は抑制モードに設定する(切換える)。図5(A)〜図5(D)には、車両10の走行に伴う通常モードにおけるインナモニタ28の表示の変化が示され、図6(A)〜図6(D)には、各々図5(A)〜図5(D)に対応する抑制モードにおけるインナモニタ28の表示が示されている。 The monitor system 24 is provided with a normal mode and a suppression mode as display modes of the inner monitor 28, and the display ECU 26 of the monitor system 24 sets (switches) the display mode to the normal mode or the suppression mode at a preset timing. .. 5 (A) to 5 (D) show changes in the display of the inner monitor 28 in the normal mode as the vehicle 10 travels, and FIGS. 6 (A) to 6 (D) show the changes in the display of the inner monitor 28. The display of the inner monitor 28 in the suppression mode corresponding to 5 (A) to 5 (D) is shown.

表示ECU26は、車両10の運転モードが自動運転モードに設定されると、表示モードを抑制モードに設定する(通常モードから抑制モードに切換える)。また、表示ECU26は、手動運転モードであっても、車両10が高速道路などの自動車専用道路の走行中に乗員Pの指示により表示モードを抑制モードに設定する。さらに、表示ECU26は、車両10の運転モードが手動運転モードに設定されている場合、車両10の運転モードが自動運転モードから手動運転モードに設定された場合、乗員Pに指示された場合に、表示モードを通常モードに設定する。 When the operation mode of the vehicle 10 is set to the automatic operation mode, the display ECU 26 sets the display mode to the suppression mode (switches from the normal mode to the suppression mode). Further, even in the manual driving mode, the display ECU 26 sets the display mode to the suppression mode according to the instruction of the occupant P while the vehicle 10 is traveling on an automobile-only road such as an expressway. Further, the display ECU 26 displays when the operation mode of the vehicle 10 is set to the manual operation mode, when the operation mode of the vehicle 10 is set from the automatic operation mode to the manual operation mode, or when instructed by the occupant P. Set the display mode to normal mode.

なお、表示モードの乗員Pの指示としては、図示しない操作スイッチのスイッチ操作(インナモニタ28にタッチ式パネルが用いられている場合は乗員Pのタッチ操作)によって行われてもよい。また、座席16に着座した乗員Pの顔等を撮像するなどして乗員の視線方向を検出し、乗員の視線がインナモニタ28の画像表示面に向けられたことを検出することで、表示モードが通常モードに設定されてもよい。 The instruction of the occupant P in the display mode may be given by a switch operation of an operation switch (not shown) (a touch operation of the occupant P when the inner monitor 28 uses a touch panel). Further, the display mode is detected by detecting the line-of-sight direction of the occupant by photographing the face or the like of the occupant P seated in the seat 16 and detecting that the line-of-sight of the occupant is directed to the image display surface of the inner monitor 28. May be set to normal mode.

モニタシステム24では、表示モードが通常モードに設定されると、表示ECU26がカメラ30(30A〜30C)により撮影された画像(映像)を取込んで、取込んだ画像からインナモニタ28に表示するための撮影画像を生成し、生成した撮影画像をインナモニタ28に出力する。これにより、図5(A)〜図5(D)に示すように、インナモニタ28には、車両後方の画像(映像)が表示される。また、インナモニタ28には、車両後方の路面標示50等が表示されると共に、車両後方の他の車両52が、自車両に接近するほど他の車両52が大きく表示される。したがって、モニタシステム24では、インナモニタ28が乗員Pの車両後方の視認を補助する後写鏡として機能する。 In the monitor system 24, when the display mode is set to the normal mode, the display ECU 26 captures an image (video) captured by the cameras 30 (30A to 30C) and displays the captured image on the inner monitor 28. A captured image for the purpose is generated, and the generated captured image is output to the inner monitor 28. As a result, as shown in FIGS. 5A to 5D, the inner monitor 28 displays an image (video) behind the vehicle. Further, the inner monitor 28 displays the road marking 50 and the like behind the vehicle, and the other vehicle 52 behind the vehicle is displayed larger as the other vehicle 52 approaches the own vehicle. Therefore, in the monitor system 24, the inner monitor 28 functions as a rearview mirror that assists the occupant P in visually recognizing the rear of the vehicle.

また、インナモニタ28は、表示部32Bの車幅方向左側の表示部32Aの表示面が右斜め後ろ側に向けられ、表示部32Bの車幅方向右側の表示部32Cの表示面が左斜め後ろ側に向けられている。また、インナモニタ28の表示部32Aには、車幅方向左側のカメラ30Aの撮影画像が表示され、インナモニタ28の表示部32Cには、車幅方向右側のカメラ30Cの撮影画像が表示される。これにより、乗員Pは、インナモニタ28の表示される撮影画像から車両10の左側及び右側を違和感なく把握できる。 Further, in the inner monitor 28, the display surface of the display unit 32A on the left side in the vehicle width direction of the display unit 32B is directed to the diagonally rear right side, and the display surface of the display unit 32C on the right side in the vehicle width direction of the display unit 32B is diagonally rearward to the left. It is turned to the side. Further, the display unit 32A of the inner monitor 28 displays the captured image of the camera 30A on the left side in the vehicle width direction, and the display unit 32C of the inner monitor 28 displays the captured image of the camera 30C on the right side in the vehicle width direction. .. As a result, the occupant P can grasp the left side and the right side of the vehicle 10 without discomfort from the captured image displayed on the inner monitor 28.

一方、モニタシステム24では、表示モードが抑制モードに設定されると、表示ECU26が乗員Pの視覚的刺激を抑制するようにインナモニタ28の表示を変更する。図7には、抑制モードにおける表示ECU26の表示処理の概略が流れ図にて示されている。なお、図7に示す表示処理は、表示モードが抑制モードに設定されると実行され、表示モードが通常モードに設定されることで終了される。 On the other hand, in the monitor system 24, when the display mode is set to the suppression mode, the display ECU 26 changes the display of the inner monitor 28 so as to suppress the visual stimulus of the occupant P. FIG. 7 shows an outline of the display process of the display ECU 26 in the suppression mode in a flow chart. The display process shown in FIG. 7 is executed when the display mode is set to the suppression mode, and ends when the display mode is set to the normal mode.

図7に示すフローチャートでは、最初のステップ100において画像メモリ46から静止画像54Aを読出してインナモニタ28に出力する。次のステップ102では、カメラ30の撮影画像から対象物としての他の車両52を検索し、ステップ104では、他の車両52が検索(検出)されたか否かを確認する。 In the flowchart shown in FIG. 7, in the first step 100, the still image 54A is read from the image memory 46 and output to the inner monitor 28. In the next step 102, another vehicle 52 as an object is searched from the image captured by the camera 30, and in step 104, it is confirmed whether or not the other vehicle 52 has been searched (detected).

ここで、他の車両52が検出されると、ステップ104において肯定判定してステップ106へ移行する。このステップ106では、検出された車両52について影響度情報を取得する(生成する)。次のステップ108では、影響度情報が所定以上(予め設定されている基準値以上)であるか否か、すなわち、検出された車両52と自車両との距離が所定距離以内か否かを確認する。この際、自車両と車両52との距離が大きく離れている場合、自車両に対する影響度が低いと判断(予測)されて、ステップ108において否定判定される。 Here, when another vehicle 52 is detected, an affirmative determination is made in step 104, and the process proceeds to step 106. In this step 106, the influence degree information is acquired (generated) for the detected vehicle 52. In the next step 108, it is confirmed whether or not the influence degree information is equal to or more than a predetermined value (more than or equal to a preset reference value), that is, whether or not the distance between the detected vehicle 52 and the own vehicle is within the predetermined distance. To do. At this time, if the distance between the own vehicle and the vehicle 52 is large, it is determined (predicted) that the degree of influence on the own vehicle is low, and a negative determination is made in step 108.

通常モードにおいて、カメラ30の撮影画像上に他の車両52が走行していなければ、インナモニタ28には、他の車両52が表示されない。また、図5(A)に示すように、撮影画像上において他の車両52が自車両から大きく離れている場合、インナモニタ28には、他の車両52が極めて小さく表示され、インナモニタ28の表示では、他の車両52の視認が難しい。 In the normal mode, if the other vehicle 52 is not traveling on the captured image of the camera 30, the other vehicle 52 is not displayed on the inner monitor 28. Further, as shown in FIG. 5A, when the other vehicle 52 is far away from the own vehicle on the captured image, the other vehicle 52 is displayed extremely small on the inner monitor 28, and the inner monitor 28 is displayed. On the display, it is difficult to visually recognize the other vehicle 52.

ここで、撮影画像上において他の車両52が検出されないか、自車両から他の車両52が極めて離れていると、図6(A)に示すように、抑制モードでは、インナモニタ28に静止画像54Aが表示されると共に、静止画像54Aが継続的に表示される。 Here, if the other vehicle 52 is not detected on the captured image or the other vehicle 52 is extremely far from the own vehicle, as shown in FIG. 6A, in the suppression mode, the still image is displayed on the inner monitor 28. While 54A is displayed, the still image 54A is continuously displayed.

一方、図7では、他の車両52について影響度情報が所定以上(予め設定されている基準値以上)であると、ステップ108において肯定判定されてステップ110に移行する。すなわち、他の車両52が自車両に対して所定距離以内に接近すると、ステップ108において肯定判定されてステップ110に移行する。 On the other hand, in FIG. 7, if the influence degree information of the other vehicle 52 is equal to or higher than a predetermined value (greater than or equal to a preset reference value), an affirmative determination is made in step 108 and the process proceeds to step 110. That is, when the other vehicle 52 approaches the own vehicle within a predetermined distance, an affirmative determination is made in step 108 and the process proceeds to step 110.

このステップ110では、検出された車両52を対象車両(注目車両)52Aとして、撮像画像から対象車両52Aを特定可能とする対象画像56を生成する。この際、対象画像56は、自車両との速度差が大きく度影響度が高いと予測されるほど、対象車両52Aの周囲(背景)が広げられて生成される。なお、対象画像56は、周囲の画像を含まずに対象車両52Aのみを示す画像であってもよい。 In this step 110, the detected vehicle 52 is set as the target vehicle (vehicle of interest) 52A, and the target image 56 that makes it possible to identify the target vehicle 52A from the captured image is generated. At this time, the target image 56 is generated so that the circumference (background) of the target vehicle 52A is widened so that the speed difference from the own vehicle is large and the degree of influence is high. The target image 56 may be an image showing only the target vehicle 52A without including the surrounding image.

また、このステップ110では、対象車両52Aについて、走行速度などの対象情報が生成される。これと共に、ステップ112では、撮影画像から抽出される路面標示50から路面画像58が生成される。 Further, in this step 110, target information such as a traveling speed is generated for the target vehicle 52A. At the same time, in step 112, the road surface image 58 is generated from the road marking 50 extracted from the captured image.

この後、ステップ114では、インナモニタ28に表示される画像(静止画像54A)を静止画像54Bに変更する。なお、静止画像54Bは、対象車両52Aについて影響度情報が変化するごとや、予め設定した時間間隔(例えば、数秒間隔)で別の静止画像に変更される。この際、静止画像54Bと静止画像54Aとが交互にインナモニタ28に表示されてもよい。 After that, in step 114, the image (still image 54A) displayed on the inner monitor 28 is changed to the still image 54B. The still image 54B is changed to another still image every time the influence degree information of the target vehicle 52A changes or at a preset time interval (for example, a few seconds interval). At this time, the still image 54B and the still image 54A may be alternately displayed on the inner monitor 28.

これと共に、ステップ116では、対象画像56及び路面画像58をインナモニタ28の静止画像54Bに重ねて表示する。また、このステップ116では、対象情報として、対象画像56(又は対象画像56とは重ならない静止画像54B上でもよい)に重ねて対象車両52Aの対象情報(例えば速度情報60)が表示される。 At the same time, in step 116, the target image 56 and the road surface image 58 are superimposed and displayed on the still image 54B of the inner monitor 28. Further, in this step 116, as the target information, the target information (for example, speed information 60) of the target vehicle 52A is displayed on the target image 56 (or may be on the still image 54B that does not overlap with the target image 56).

速度情報60は、例えば、対象車両52Aが自車両に接近(例えば、自車両の数十メートル以内に接近)することでインナモニタ28に表示される(図6(D)参照)。また、対象画像56及び路面画像58は、通常モードにおいてインナモニタ28に表示される撮影画像上に対応する位置に表示される。 The speed information 60 is displayed on the inner monitor 28 when, for example, the target vehicle 52A approaches the own vehicle (for example, approaches within several tens of meters of the own vehicle) (see FIG. 6D). Further, the target image 56 and the road surface image 58 are displayed at positions corresponding to the captured images displayed on the inner monitor 28 in the normal mode.

このように、モニタシステム24では、撮影画像上に自車両の走行に影響を及ぼすと予測される他の車両52(対象車両52A)が検出されていない間は、インナモニタ28に静止画像54Aが表示される。また、撮影画像上において対象車両52Aが検出されると、対象車両52Aを示す対象画像56がインナモニタ28に表示されると共に、インナモニタ28に表示される対象画像56が対象車両52Aの影響度情報に応じて変化される。 As described above, while the monitor system 24 does not detect another vehicle 52 (target vehicle 52A) predicted to affect the running of the own vehicle on the captured image, the still image 54A is displayed on the inner monitor 28. Is displayed. When the target vehicle 52A is detected on the captured image, the target image 56 showing the target vehicle 52A is displayed on the inner monitor 28, and the target image 56 displayed on the inner monitor 28 is the degree of influence of the target vehicle 52A. It changes according to the information.

すなわち、図5(B)から図5(D)に示すように、通常モードにおいて、撮影画像に自車両に影響を及ぼすと予測される車両52(対象車両52A)が検出されている状態では、インナモニタ28には、車両52が表示されると共に、車両52が自車両に近いほど大きく表示される。 That is, as shown in FIGS. 5 (B) to 5 (D), in a state in which the vehicle 52 (target vehicle 52A) that is predicted to affect the own vehicle is detected in the captured image in the normal mode, The vehicle 52 is displayed on the inner monitor 28, and the closer the vehicle 52 is to the own vehicle, the larger the display.

これに対して、図6(A)及び図6(B)に示すように、抑制モードにおいて、撮影画像に自車両に影響を及ぼすと予測される対象車両52Aが検出されると、インナモニタ28に表示される画像は、静止画像54Aから静止画像54Bに変更される。また、図6(B)から図6(D)に示すように、抑制モードにおいて、インナモニタ28には、静止画像54Bに重ねられて対象車両52Aを示す対象画像56が表示される。また、インナモニタ28には、路面標示50を示す路面画像58が表示される。 On the other hand, as shown in FIGS. 6A and 6B, when the target vehicle 52A, which is predicted to affect the own vehicle, is detected in the captured image in the suppression mode, the inner monitor 28 The image displayed in is changed from the still image 54A to the still image 54B. Further, as shown in FIGS. 6 (B) to 6 (D), in the suppression mode, the inner monitor 28 displays the target image 56 which is superimposed on the still image 54B and shows the target vehicle 52A. Further, the inner monitor 28 displays a road surface image 58 showing the road surface marking 50.

さらに、抑制モードにおいて、対象車両52Aが自車両に接近するほど、インナモニタ28には、対象画像56が大きく表示される。また、インナモニタ28に表示される対象画像56は、対象車両52Aが自車両に近づいて自車両との距離が短くなるほど対象車両52Aの周囲が広く表示される。また、対象車両52Aが自車両の近傍を通過する際等の自車両に接近した状態では、インナモニタ28に速度情報60が表示される。 Further, in the suppression mode, the closer the target vehicle 52A is to the own vehicle, the larger the target image 56 is displayed on the inner monitor 28. Further, in the target image 56 displayed on the inner monitor 28, the periphery of the target vehicle 52A is displayed wider as the target vehicle 52A approaches the own vehicle and the distance from the own vehicle becomes shorter. Further, when the target vehicle 52A approaches the own vehicle such as when passing near the own vehicle, the speed information 60 is displayed on the inner monitor 28.

なお、対象車両52Aが自車両を追越すなどして撮影画像上で検索(検出)できなくなると、インナモニタ28には、静止画像54Aが表示される。また、自車両が他の車両52を追い越す際には、インナモニタ28には、対象車両52Aの周囲(背景)が除かれた対象画像56(対象車両52Aのみを示す画像)が表示される。 If the target vehicle 52A cannot be searched (detected) on the captured image due to overtaking the own vehicle or the like, the still image 54A is displayed on the inner monitor 28. Further, when the own vehicle overtakes another vehicle 52, the inner monitor 28 displays a target image 56 (an image showing only the target vehicle 52A) excluding the periphery (background) of the target vehicle 52A.

このように、モニタシステム24では、撮影画像上で自車両に影響を及ぼすと予測される他の車両52が検出されない間、インナモニタ28に静止画像54Aが表示される。このため、インナモニタ28の表示画像が乗員Pに視覚的刺激を与えてしまうのを抑制できて、乗員Pがインナモニタ28の表示画像を気にならなくなる。例えば、インナモニタ28にカメラ30の撮影画像(映像)が表示されていると、撮影画像上の動き(例えば風景の動き)などが乗員Pの目についてしまうことがある。これにより、インナモニタ28上の特定部分などに目の焦点を合わせるために、乗員Pが必要以上にインナモニタ28を注視してしまうことになるが、モニタシステム24では、このような乗員Pのインナモニタ28の注視を抑制できる。 As described above, in the monitor system 24, the still image 54A is displayed on the inner monitor 28 while the other vehicle 52 which is predicted to affect the own vehicle is not detected on the captured image. Therefore, it is possible to prevent the display image of the inner monitor 28 from giving a visual stimulus to the occupant P, and the occupant P does not care about the display image of the inner monitor 28. For example, when the captured image (video) of the camera 30 is displayed on the inner monitor 28, the movement on the captured image (for example, the movement of the landscape) may be noticed by the occupant P. As a result, the occupant P gazes at the inner monitor 28 more than necessary in order to focus his / her eyes on a specific part on the inner monitor 28. In the monitor system 24, the occupant P looks at the inner monitor 28 more than necessary. The gaze of the inner monitor 28 can be suppressed.

また、モニタシステム24では、対象車両52Aが検出されると、インナモニタ28に表示される静止画像54Aの柄の少なくとも一部が変更された静止画像54Bが表示される。これにより、インナモニタ28への乗員Pの注意を促すことができる。また、モニタシステム24では、インナモニタ28に表示される静止画像54Bが所定の時間ごと或いは対象車両52Aの影響度が変化するごとなどの所定のタイミングで変更される。これにより、インナモニタ28への乗員Pの注意(視認)を効果的に促すことができる。 Further, in the monitor system 24, when the target vehicle 52A is detected, the still image 54B in which at least a part of the pattern of the still image 54A displayed on the inner monitor 28 is changed is displayed. As a result, the attention of the occupant P to the inner monitor 28 can be called. Further, in the monitor system 24, the still image 54B displayed on the inner monitor 28 is changed at a predetermined timing such as every predetermined time or every time the degree of influence of the target vehicle 52A changes. As a result, the attention (visual recognition) of the occupant P to the inner monitor 28 can be effectively urged.

さらに、モニタシステム24では、検出された対象車両52Aを示す対象画像56が静止画像54Bに重ねられてインナモニタ28に表示される。これにより、乗員Pは自車両の周囲に対象車両52Aが存在することを容易に認識できる。 Further, in the monitor system 24, the target image 56 showing the detected target vehicle 52A is superimposed on the still image 54B and displayed on the inner monitor 28. As a result, the occupant P can easily recognize that the target vehicle 52A exists around the own vehicle.

また、モニタシステム24では、対象車両52Aの予測される影響度が高くなるほど対象車両52Aを示す対象画像56が大きくインナモニタ28に表示される。これにより、自車両に対する対象車両52Aの影響度が高いことが、乗員Pに的確に認識される。 Further, in the monitor system 24, the higher the predicted degree of influence of the target vehicle 52A, the larger the target image 56 showing the target vehicle 52A is displayed on the inner monitor 28. As a result, the occupant P accurately recognizes that the target vehicle 52A has a high degree of influence on the own vehicle.

また、モニタシステム24では、対象画像56と共に対象車両52Aの速度情報60をインナモニタ28に表示する。これにより、乗員Pは、対象車両52Aについての自車両に対する影響度合いをより効果的に認識できる。 Further, in the monitor system 24, the speed information 60 of the target vehicle 52A is displayed on the inner monitor 28 together with the target image 56. As a result, the occupant P can more effectively recognize the degree of influence of the target vehicle 52A on the own vehicle.

さらに、モニタシステム24では、対象画像56と共に路面標示50を示す路面画像58がインナモニタ28に表示される。これにより、乗員Pは、インナモニタ28に撮影画像ではなく静止画像54Bが表示されていても、自車両に対する対象車両52Aの相対位置を的確に認識できて、インナモニタ28の表示が乗員Pの視認を補助(支援)できる。 Further, in the monitor system 24, the road surface image 58 showing the road marking 50 is displayed on the inner monitor 28 together with the target image 56. As a result, the occupant P can accurately recognize the relative position of the target vehicle 52A with respect to the own vehicle even if the still image 54B is displayed on the inner monitor 28 instead of the captured image, and the display of the inner monitor 28 is displayed by the occupant P. It can assist (support) visibility.

なお、以上説明した本実施形態では、対象車両52Aを示す対象画像56を表示する際、静止画像54Aを静止画像54Bに変更した。しかしながら、表示手段に表示する静止画像を変更せずに、静止画像に重ねて対象画像等を表示してもよい。 In the present embodiment described above, when the target image 56 showing the target vehicle 52A is displayed, the still image 54A is changed to the still image 54B. However, the target image or the like may be displayed by superimposing the still image on the still image without changing the still image displayed on the display means.

また、インナモニタ28に表示する静止画像54Bは、対象車両の影響度に応じて色調(色合い)等を変更してもよく、この場合、影響度が高くなるほど鮮やかになるようにしてもよい。これにより、インナモニタ28に表示される静止画像54Bの色調の変化から乗員Pが対象車両の影響度をより的確に把握可能にできる。 Further, the still image 54B displayed on the inner monitor 28 may be changed in color tone (hue) or the like according to the degree of influence of the target vehicle. In this case, the higher the degree of influence, the more vivid the still image 54B may be. As a result, the occupant P can more accurately grasp the degree of influence of the target vehicle from the change in the color tone of the still image 54B displayed on the inner monitor 28.

また、本実施形態では、対象車両52Aを示す対象画像56として、カメラ30の撮影画像から抽出した画像を用いた。しかしながら、対象画像における対象車両は、イラストやシンボルなどの抽象画像であってもよい。例えば、対象画像上における対象車両としてイラストを用いる場合、車種ごとに設定したイラストを用い、影響度情報(対象情報)によって特定される車種に対応するイラストを選択して、対象画像を生成してもよい。 Further, in the present embodiment, an image extracted from the captured image of the camera 30 is used as the target image 56 showing the target vehicle 52A. However, the target vehicle in the target image may be an abstract image such as an illustration or a symbol. For example, when an illustration is used as the target vehicle on the target image, the illustration set for each vehicle type is used, the illustration corresponding to the vehicle type specified by the influence degree information (target information) is selected, and the target image is generated. May be good.

また、影響度情報として対象車両の色を取得し、取得した色を用いて対象車両を示すイラストを着色して表示するようにしてもよい。また、対象画像では、対象車両の色を影響度に応じて変化させてもよく、例えば、対象車両が遠く離れている場合には、青色に着色し、対象車両の色を対象車両が自車両に近づくほど、青色から黄色、黄色から赤色に変化させてもよい(影響度が高くなるほど赤色が強くなるようにイラストを着色してもよい)。 Further, the color of the target vehicle may be acquired as the influence degree information, and the illustration showing the target vehicle may be colored and displayed using the acquired color. Further, in the target image, the color of the target vehicle may be changed according to the degree of influence. For example, when the target vehicle is far away, the target vehicle is colored blue and the target vehicle is the own vehicle. The closer to, the more blue to yellow and the yellow to red may be changed (the illustration may be colored so that the higher the degree of influence, the stronger the red color).

なお、以上説明した本実施形態では、カメラ30によって車両10の側方から後方側を撮像し、撮影画像をインナモニタ28に表示した。しかしながら、撮像手段は、1台が車両10の後方を広角で撮像してもよく、表示手段は、1台の画像表示媒体によって構成されていてもよい。 In the present embodiment described above, the camera 30 images the rear side of the vehicle 10 from the side, and the photographed image is displayed on the inner monitor 28. However, one of the imaging means may image the rear of the vehicle 10 at a wide angle, and the display means may be composed of one image display medium.

また、本実施形態では、バイワイヤシステムが適用された車両10を例に説明した。しかしながら、本発明に係る視認支援装置は、バイワイヤシステムが適用されていない車両に設けられてもよい。また、本実施形態では、自動運転システム18を備える車両10に適用したが、視認支援装置は、自動運転システム18を備えていない車両に設けられてもよい。これらの場合、自動車専用道路等を走行中等の所定の走行環境下において、乗員Pの指示によって抑制モードに設定されればよい。 Further, in the present embodiment, the vehicle 10 to which the by-wire system is applied has been described as an example. However, the visual recognition support device according to the present invention may be provided in a vehicle to which the by-wire system is not applied. Further, in the present embodiment, the application is applied to the vehicle 10 provided with the automatic driving system 18, but the visual recognition support device may be provided in the vehicle not provided with the automatic driving system 18. In these cases, the suppression mode may be set according to the instruction of the occupant P under a predetermined traveling environment such as while traveling on a motorway or the like.

10・・・車両、24・・・モニタシステム(視認支援装置)、26・・・表示ECU、28・・・インナモニタ(表示手段)、30(30A〜30C)・・・カメラ(撮像手段)、38・・・表示画像生成部、40・・・対象抽出部、42・・・対象情報生成部、44・・・対象画像生成部。 10 ... Vehicle, 24 ... Monitor system (visual recognition support device), 26 ... Display ECU, 28 ... Inner monitor (display means), 30 (30A to 30C) ... Camera (imaging means) , 38 ... Display image generation unit, 40 ... Target extraction unit, 42 ... Target information generation unit, 44 ... Target image generation unit.

Claims (6)

車両の周囲を撮像する撮像手段と、
車室内に設けられ前記撮像手段の撮影画像の表示に用いられる表示手段と、
前記撮像手段の撮影画像上において自車両の走行に影響すると予測される対象物を検索し、検索された前記対象物の自車両に対する影響度を判断するための影響度情報を取得する情報取得手段と、
前記影響度情報から予め設定された影響度を超える前記対象物について、前記撮影画像から該対象物を示す対象画像を生成する対象画像生成手段と、
前記表示手段に所定柄の静止画像を表示し、前記予め設定された影響度を超える前記対象物についての前記対象画像を前記静止画像に重ねて表示するように制御する表示制御手段と、
を含む視認支援装置。
An imaging means that captures the surroundings of the vehicle,
A display means provided in the vehicle interior and used for displaying a photographed image of the image pickup means,
An information acquisition means for searching an object predicted to affect the running of the own vehicle on the captured image of the imaging means and acquiring influence degree information for determining the degree of influence of the searched object on the own vehicle. When,
With respect to the object exceeding the influence degree preset from the influence degree information, the target image generation means for generating the target image showing the object from the photographed image, and the target image generation means.
A display control means for displaying a still image of a predetermined pattern on the display means and controlling the display of the target image of the object exceeding the preset degree of influence so as to be superimposed on the still image.
Visual assistance device including.
前記表示制御手段が、前記対象画像を表示させる際、前記影響度情報に応じて前記静止画像の柄の少なくとも一部を変更する請求項1に記載の視認支援装置。 The visual recognition support device according to claim 1, wherein when the display control means displays the target image, at least a part of the pattern of the still image is changed according to the influence degree information. 前記対象画像生成手段が、前記撮影画像上の路面標示を示す路面画像を生成し、
前記表示制御手段が、前記対象画像と共に前記路面画像を前記表示手段に表示する請求項1又は請求項2に記載の視認支援装置。
The target image generation means generates a road surface image showing road markings on the captured image, and the target image generation means generates a road surface image.
The visual recognition support device according to claim 1 or 2, wherein the display control means displays the road surface image together with the target image on the display means.
前記対象画像生成手段が、前記影響度情報に応じ、前記対象物の影響度が高くなるにしたがい、影響度が低い時よりも前記対象物の周囲を広げた画像を前記対象画像として生成する請求項1から請求項3の何れか1項に記載の視認支援装置。 A claim that the target image generating means generates an image in which the periphery of the object is wider than when the influence is low as the influence of the object is increased according to the influence information. The visual recognition support device according to any one of claims 1 to 3. 前記撮像手段が少なくとも自車両の側方側から後方側を撮像する請求項1から請求項4の何れか1項に記載の視認支援装置。 The visual recognition support device according to any one of claims 1 to 4, wherein the imaging means images at least the side to the rear of the own vehicle. 前記情報取得手段が、前記対象物の自車両に対する影響度を認識可能とする対象情報を検出し、
前記表示制御手段が、前記対象情報を前記対象画像と共に前記静止画像に重ねて前記表示手段に表示する請求項1から請求項5の何れか1項に記載の視認支援装置。
The information acquisition means detects the target information that makes it possible to recognize the degree of influence of the target object on the own vehicle.
The visual recognition support device according to any one of claims 1 to 5, wherein the display control means superimposes the target information together with the target image on the still image and displays the target information on the display means.
JP2019201409A 2019-11-06 2019-11-06 Visual recognition support device Pending JP2021076958A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019201409A JP2021076958A (en) 2019-11-06 2019-11-06 Visual recognition support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019201409A JP2021076958A (en) 2019-11-06 2019-11-06 Visual recognition support device

Publications (1)

Publication Number Publication Date
JP2021076958A true JP2021076958A (en) 2021-05-20

Family

ID=75899270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019201409A Pending JP2021076958A (en) 2019-11-06 2019-11-06 Visual recognition support device

Country Status (1)

Country Link
JP (1) JP2021076958A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018174383A (en) * 2017-03-31 2018-11-08 株式会社Subaru Image display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018174383A (en) * 2017-03-31 2018-11-08 株式会社Subaru Image display device

Similar Documents

Publication Publication Date Title
US11008016B2 (en) Display system, display method, and storage medium
US9723243B2 (en) User interface method for terminal for vehicle and apparatus thereof
JP6387369B2 (en) Travel control device
JP6642972B2 (en) Vehicle image display system and method
JP4914458B2 (en) Vehicle periphery display device
EP1870870A1 (en) Vehicle drive assist system
KR20200016958A (en) Parking Assistance Method and Parking Assistance Device
WO2011125135A1 (en) Collision prevention support device
JP2008222153A (en) Merging support device
CN105264547A (en) Method for operating a display device, computer program product, and display device
US11977225B2 (en) Vehicle display control device and vehicle display control method for recognizing traffic regulation marks and displaying traffic regulation information
JP2005038225A (en) Lane follow-up device
JP2017186008A (en) Information display system
US11256088B2 (en) Vehicle display device
US9791289B2 (en) Method and device for operating a head-up display for a vehicle
US20230294517A1 (en) Vehicle display control device, display device, and vehicle display control method
US20230001947A1 (en) Information processing apparatus, vehicle, and information processing method
JP4375153B2 (en) Vehicle display device
JP3877127B2 (en) Vehicle display device
JP5251673B2 (en) Vehicle display device
JP2021076958A (en) Visual recognition support device
JP2023123208A (en) Display control device for vehicles, display control method and display control program
CN113448097A (en) Display device for vehicle
JP2022126240A (en) Display device for vehicle
JP2022140026A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003