JP2021076958A - Visual recognition support device - Google Patents
Visual recognition support device Download PDFInfo
- Publication number
- JP2021076958A JP2021076958A JP2019201409A JP2019201409A JP2021076958A JP 2021076958 A JP2021076958 A JP 2021076958A JP 2019201409 A JP2019201409 A JP 2019201409A JP 2019201409 A JP2019201409 A JP 2019201409A JP 2021076958 A JP2021076958 A JP 2021076958A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- target
- display
- influence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 39
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 abstract description 13
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 230000000638 stimulation Effects 0.000 abstract 1
- 230000001629 suppression Effects 0.000 description 20
- 238000012806 monitoring device Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000002023 wood Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、運転者の視認を支援する視認支援装置に関する。 The present invention relates to a visual recognition support device that assists the driver's visual recognition.
特許文献1の電子ミラーシステムには、左右のサイドミラー近傍の各々に配置されて自車両の後方を撮像する後側方カメラが設けられている。また、電子ミラーシステムには、ウインドシールドの両側に位置するピラーの各々の根本に後側方モニタが配置されており、後側方モニタの各々に後側方カメラの各々の撮像画像が表示される。 The electronic mirror system of Patent Document 1 is provided with rear side cameras arranged in the vicinity of the left and right side mirrors to take an image of the rear of the own vehicle. Further, in the electronic mirror system, a rear side monitor is arranged at the root of each of the pillars located on both sides of the windshield, and each of the rear side monitors displays the captured image of each of the rear side cameras. To.
ところで、車両の周囲を撮像した映像が表示されるモニタは、乗員(運転者)の視認が容易な位置に配置されている。このため、モニタに表示される映像は、乗員の関心の有無にかかわらずに乗員の目に入り、モニタに表示されている映像(画像の動き等)が乗員に煩わしく感じられてしまうことがある。 By the way, the monitor that displays the image of the surroundings of the vehicle is arranged at a position where the occupant (driver) can easily see it. For this reason, the image displayed on the monitor may be seen by the occupant regardless of the interest of the occupant, and the image displayed on the monitor (movement of the image, etc.) may be annoying to the occupant. ..
本発明は、上記事実を鑑みて成されたものであり、乗員の視覚的負担を低減できる視認支援装置を提供することを目的とする。 The present invention has been made in view of the above facts, and an object of the present invention is to provide a visual recognition support device capable of reducing the visual burden on an occupant.
本発明の第1の態様の視認支援装置は、車両の周囲を撮像する撮像手段と、車室内に設けられ前記撮像手段の撮影画像の表示に用いられる表示手段と、前記撮像手段の撮影画像上において自車両の走行に影響すると予測される対象物を検索し、検索された前記対象物の自車両に対する影響度を判断するための影響度情報を取得する情報取得手段と、前記影響度情報から予め設定された影響度を超える前記対象物について、前記撮影画像から該対象物を示す対象画像を生成する対象画像生成手段と、前記表示手段に所定柄の静止画像を表示し、前記予め設定された影響度を超える前記対象物についての前記対象画像を前記静止画像に重ねて表示するように制御する表示制御手段と、を含む。 The visual recognition support device according to the first aspect of the present invention includes an image pickup means for photographing the surroundings of the vehicle, a display means provided in the vehicle interior and used for displaying a photographed image of the image pickup means, and a photographed image of the image pickup means. From the information acquisition means for searching for an object predicted to affect the running of the own vehicle and acquiring the influence degree information for determining the degree of influence of the searched object on the own vehicle, and the influence degree information. For the object that exceeds the preset degree of influence, the target image generation means for generating the target image showing the object from the captured image and the still image of a predetermined pattern are displayed on the display means, and the preset is set. A display control means for controlling the target image of the object having a degree of influence exceeding the degree of influence so as to be superimposed on the still image is included.
第2の態様の視認支援装置は、第1の態様において、前記表示制御手段が、前記対象画像を表示させる際、前記影響度情報に応じて前記静止画像の柄の少なくとも一部を変更する。 In the first aspect, the visual recognition support device of the second aspect changes at least a part of the pattern of the still image according to the influence degree information when the display control means displays the target image.
第3の態様の視認支援装置は、第1又は第2の態様において、前記対象画像生成手段が、前記撮影画像上の路面標示を示す路面画像を生成し、前記表示制御手段が、前記対象画像と共に前記路面画像を前記表示手段に表示する。 In the visual recognition support device of the third aspect, in the first or second aspect, the target image generation means generates a road surface image showing a road marking on the captured image, and the display control means generates the target image. At the same time, the road surface image is displayed on the display means.
第4の態様の視認支援装置は、第1から第3の何れか1の態様において、前記対象画像生成手段が、前記影響度情報に応じ、前記対象物の影響度が高くなるにしたがい、影響度が低い時よりも前記対象物の周囲を広げた画像を前記対象画像として生成する。 In the visual recognition support device of the fourth aspect, in any one of the first to third aspects, the target image generating means has an influence as the influence degree of the object becomes higher according to the influence degree information. An image in which the circumference of the object is wider than when the degree is low is generated as the target image.
第5の態様の視認支援装置は、第1から第4の何れか1の態様において、前記撮像手段が少なくとも自車両の側方側から後方側を撮像する。 In the visual recognition support device of the fifth aspect, in any one of the first to fourth aspects, the imaging means images at least the side to the rear of the own vehicle.
第6の態様の視認支援装置は、第1から第5の何れか1の態様において、前記情報取得手段が、前記対象物の自車両に対する影響度を認識可能とする対象情報を検出し、前記表示制御手段が、前記対象情報を前記対象画像と共に前記静止画像に重ねて前記表示手段に表示する。 In the visual recognition support device of the sixth aspect, in any one of the first to fifth aspects, the information acquisition means detects the target information that makes it possible to recognize the degree of influence of the target object on the own vehicle, and the above-mentioned The display control means superimposes the target information together with the target image on the still image and displays the target information on the display means.
第1の態様の視認支援装置では、車両の周囲を撮像する撮像手段が設けられ、車室内に撮像手段の撮影画像の表示に用いられる表示手段が設けられている。 In the visual recognition support device of the first aspect, an image pickup means for photographing the surroundings of the vehicle is provided, and a display means used for displaying a photographed image of the image pickup means is provided in the vehicle interior.
また、視認支援装置では、情報取得手段が、撮像手段の撮影画像上において自車両の走行に影響すると予測される対象物を検索し、検索された対象物の自車両に対する影響度を判断するための影響度情報を取得する。また、対象画像生成手段は、影響度情報から予め設定された影響度を超える対象物について、撮影画像から該対象物を示す対象画像を生成する。 Further, in the visual recognition support device, the information acquisition means searches for an object that is predicted to affect the running of the own vehicle on the captured image of the imaging means, and determines the degree of influence of the searched object on the own vehicle. Get the impact information of. Further, the target image generation means generates a target image showing the object from the photographed image for the object exceeding the influence degree set in advance from the influence degree information.
ここで、表示制御手段は、表示手段に所定柄の静止画像を表示する。また、表示制御手段は、表示手段に静止画像を表示している状態で、撮影画像から予め設定された影響度を超える対象物が検索されて、該対象物を示す対象画像を生成されると、対象画像を静止画像に重ねて表示する。 Here, the display control means displays a still image of a predetermined pattern on the display means. Further, when the display control means searches for an object exceeding a preset degree of influence from the captured image while the still image is displayed on the display means, and generates an object image indicating the object. , The target image is superimposed on the still image and displayed.
これにより、撮影画像から自車両の走行に影響する対象物が検索されていない場合、表示手段に所定柄の静止画像が表示されるので、表示手段に表示される画像が動くことがなく、表示手段の表示画像が視覚的負担となるのを抑制できる。また、自車両の走行に影響する対象物が検索された場合、静止画像に対象画像が重ねて表示されるので、自車両の走行に影響する対象物が検索されたことを認識できる。 As a result, when an object that affects the running of the own vehicle is not searched from the captured image, a still image of a predetermined pattern is displayed on the display means, so that the image displayed on the display means does not move and is displayed. It is possible to suppress the display image of the means from becoming a visual burden. Further, when an object that affects the traveling of the own vehicle is searched, the target image is superimposed on the still image, so that it can be recognized that the object that affects the traveling of the own vehicle has been searched.
第2の態様の視認支援装置では、表示手段に対象画像が重ねられて表示される際、表示手段に表示されている静止画像の少なくとも一部が変更される。これにより、静止画像の少なくとも一部が変化するので乗員に視覚的変化を与えることができて、自車両に影響を及ぼすと予測される対象物が検索されたことを容易に認識できる。 In the visual recognition support device of the second aspect, when the target image is superimposed and displayed on the display means, at least a part of the still image displayed on the display means is changed. As a result, at least a part of the still image is changed, so that the occupant can be visually changed, and it is possible to easily recognize that an object that is predicted to affect the own vehicle has been searched.
第3の態様の視認支援装置では、対象画像生成手段が撮影画像上の路面標示を示す路面画像を生成し、路面画像が対象画像と共に静止画像に重ねて表示される。このため、表示手段に表示された静止画像上の画像から対象物の相対位置を容易に認識できる。 In the visual recognition support device of the third aspect, the target image generation means generates a road surface image showing the road markings on the captured image, and the road surface image is displayed overlaid on the still image together with the target image. Therefore, the relative position of the object can be easily recognized from the image on the still image displayed on the display means.
第4の態様の視認支援装置では、対象画像として、対象物の影響度が高くなるにしたがい、影響度が低い時よりも対象物の周囲を広げられた画像が撮影画像から生成される。これにより、影響度に応じて対象物の周囲の背景が広げられた対象画像が静止画像に重ねられるので、表示手段に表示された対象画像から対象物の自車両に対する影響度の認識が容易になる。 In the visual recognition support device of the fourth aspect, as the target image, as the degree of influence of the object increases, an image in which the periphery of the object is expanded as compared with the case where the degree of influence is low is generated from the captured image. As a result, the target image whose background around the target object is expanded according to the degree of influence is superimposed on the still image, so that the degree of influence of the target object on the own vehicle can be easily recognized from the target image displayed on the display means. Become.
第5の態様の視認支援装置では、撮像手段が少なくとも自車両の側方側から後方側を撮像する。これにより、表示手段を車両後方の視認を補助する後写鏡として用いることができる。 In the visual recognition support device of the fifth aspect, the imaging means images at least the side to the rear of the own vehicle. Thereby, the display means can be used as a rearview mirror that assists the visual recognition behind the vehicle.
第6の態様の視認支援装置では、対象物の自車両に対する影響度を示す対象情報が表示手段に表示される。これにより、対象物の影響度をより的確に把握できる。 In the visual recognition support device of the sixth aspect, the target information indicating the degree of influence of the target object on the own vehicle is displayed on the display means. As a result, the degree of influence of the object can be grasped more accurately.
以下、図面を参照して本発明の実施形態について詳細に説明する。
図2には、本実施形態に係る車両10の制御部の概略がブロック図にて示されており、図3には、車両10が平面図にて示されている。なお、図面では、車両前側が矢印FRにて示され、車幅方向右側が矢印RHにて示されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 2 shows an outline of the control unit of the
本実施形態に係る車両10には、バイワイヤシステムが適用されている。車両10は、図示しない各種のセンサによって乗員Pの運転操作状態や走行機構の作動状態等が検出され、検出された運転操作状態や走行機構の作動状態等に応じて転舵制御、速度制御及び制動制御が行われる。
A by-wire system is applied to the
図2に示すように、車両10は、ステアリングECU(Electronic Control Unit)12A、エンジンECU12B、トランスミッションECU12C、及びブレーキECU12D等を備える。
As shown in FIG. 2, the
図3に示すように、車両10には、ステアリング装置における操作体としてのステアリングホイール14が設けられており、ステアリングホイール14は、座席(運転席)16に着座した乗員(運転者)Pによる運転操作に用いられる。ステアリングECU12Aは、乗員Pによるステアリングホイール14の操舵操作により回転されるステアリングシャフト(図示省略)の回転角を検出し、検出した回転角に応じた転舵角が得られるように図示しないアクチュエータ等を作動させて操舵輪(前輪)を転舵させる。また、エンジンECU12Bは、乗員Pのアクセルペダルの操作等に応じ、エンジン(又は電機モータ)の回転を制御する。
As shown in FIG. 3, the
さらに、トランスミッションECU12Cは、乗員Pのアクセルペダルの操作及び車速等に応じてトランスミッション(自動変速機)を制御し、ブレーキECU12Dは、乗員Pのブレーキペダルの操作等に応じてブレーキの作動制御を行う。これにより、車両10は、乗員Pの運転操作に応じて各ECUが協働して動作して走行される。なお、車両10の走行用の駆動源は、エンジンに限らず、エンジンと電機モータとが用いられてもよく、エンジンに代えて電機モータが用いられてもよく、車両10は、走行用の駆動源の駆動が制御されて走行される。
Further, the
車両10には、自動運転装置(運転支援装置)としての自動運転システム18が設けられており、自動運転システム18は、自動運転ECU20を備えている。また、車両10には、監視装置22A及びナビゲーション装置22B等が設けられている。自動運転ECU20には、ステアリングECU12A、エンジンECU12B、トランスミッションECU12C、ブレーキECU12D、監視装置22A及びナビゲーション装置22Bの各々が電気的に接続されている。
The
車両10では、運転モードとして乗員Pの運転操作に応じて走行する手動運転モードと、乗員Pを介さずに走行する自動運転モードとが設定可能にされている。自動運転システム18は、自動運転ECU20が車両10の運転モードを切換え、自動運転モードにおいて自動運転ECU20が車両10の走行を制御する。
In the
監視装置22Aは、自車両(車両10)の前方及び後方を含む自車両の周囲を撮像する監視用撮像手段(カメラ、図示省略)の撮影画像等から自車両の周囲の他の車両や歩行者等の走行対象物、路上の白線等の路面標示、及び走行対象物と自車両(車体)との相対位置や相対位置の変化などを検出する。また、監視装置22Aは、ミリ波レーダ等の計測手段を備え、自車両と走行対象物との相対位置及び相対位置の変化、すなわち、自車両に対する走行対象物の方向、自車両と走行対象物との距離、走行対象物の移動速度及び自車両と走行対象物との相対速度等を検出してもよい。
The
ナビゲーション装置22Bは、地図情報を取得すると共に、GPS(Global Positioning System)機能等を用いて車両10の位置情報を取得し、地図上における車両10の位置を特定する(例えば、図示しないディスプレイ上に表示する)。また、ナビゲーション装置22Bは、目的地が設定(指定)されることで、地図情報等に基づいて目的地までの車両10の走行経路を設定し、設定した走行経路に沿って案内可能になっている。
The navigation device 22B acquires map information and also acquires position information of the
自動運転ECU20は、予め設定されたタイミングや乗員Pの要求に応じ、運転モードを切換える。また、自動運転ECU20は、自動運転モードに切換えると、監視装置22A及びナビゲーション装置22Bから取得する情報に基づいてステアリングECU12A、エンジンECU12B、トランスミッションECU12C及びブレーキECU12D等の動作を制御する。この際、自動運転ECU20は、監視装置22Aによって検出される路面標示、周囲の走行対象物との距離及び相対速度等に応じて制御することで、車両10を予め設定された走行経路に沿って走行させる。
The
一方、車両10には、視認支援装置としてのモニタシステム24が設けられている。図1には、モニタシステム24の主要部の構成がブロック図にて示されている。
図1及び図2に示すように、モニタシステム24には、表示制御手段が構成される表示ECU26、表示手段としてのインナモニタ28、及び撮像手段としての1台又は複数台のカメラ30(本実施形態では、3台のカメラ30A、30B、30C)が設けられている。
On the other hand, the
As shown in FIGS. 1 and 2, the
モニタシステム24では、表示ECU26にインナモニタ28及びカメラ30(30A〜30C)の各々が電気的に接続されている。また、モニタシステム24には、インナモニタ28の表示モードとして通常モードと抑制モードとが設定されている。表示ECU26は、表示モードを通常モード又は抑制モードに設定することで表示モードを切換えて、カメラ30により撮像された撮影画像に応じたインナモニタ28への表示制御を行う。
In the
図3に示すように、カメラ30Bは、車両10の車両後端部の車幅方向中央部に配置されており、カメラ30Bは、車両後方を撮像する。カメラ30Aは、車両左外側(左サイドドアの外側)に配置されており、カメラ30Aは、車両左側及び車両左後方を撮像する。また、カメラ30Cは、車両右外側(左サイドドアの外側)に配置されており、カメラ30Cは、車両右側及び車両右後方を撮像する。なお、カメラ30A〜30Cは、監視装置22Aの監視用撮像手段と兼用とされてもよい。また、カメラ30A、30Cは、ドアミラーと共に設けられてもよく、カメラ30A、30Cは、ドアミラーに代えて車両10に設けられてもよい。
As shown in FIG. 3, the
インナモニタ28は、車室前部のインストルメントパネル10Aにおいて座席16に着座した乗員Pの車両前側に配置されている。なお、インナモニタ28は、車室内において乗員Pの視認が容易でかつ乗員Pの車外視界を妨げない位置に配置されていればよい。インナモニタ28は、インストルメントパネル10Aの座席16の車両前側に限らず、インストルメントパネル10Aの車幅方向中間部に配置されてもよく、インナモニタ28は、インストルメントパネル10Aに限らずフロントウインドガラスの上端部に配置されて、天井面に取付けられていてもよい。また、インナモニタ28は、3分割されて、車室内において車幅方向左側、中央部分及び車幅方向右側の各々に配置されてもよい。
The
インナモニタ28は、各々の画像表示面が矩形長尺状とされた表示部32A、32B、32Cを備えており、表示部32A〜32Cには、LCD(Liquid Crystal Display)やEL(Electro Luminescence)ディスプレイなどの薄型表示媒体を適用できる。インナモニタ28は、表示部32A〜32Cが車幅方向に沿って順に配置されている。
The
表示部32Bは、表示部32A、32Cに比して長尺とされており、表示部32Bは、長手方向が車幅方向とされ、画像表示面が車両後側に向けられている。表示部32Aは、表示部32Bの車幅方向左側に配置されて表示部32Bに連結されており、表示部32Aは、長手方向が左斜め後方に向けられて画像表示面が後斜め右側に向けられている。また、表示部32Cは、表示部32Bの車幅方向右側に配置されて表示部32Bに連結されており、表示部32Cは、長手方向が右斜め後方に向けられて画像表示面が後斜め左側に向けられている。
The
これにより、インナモニタ28は、表示部32A〜32Cの各々の画像表示面が座席16に着座した乗員Pに向けられている。なお、インナモニタ28は、フレキシブルディスプレイ等が用いられて、表示部32A〜32Cが一体にされていてもよい。
As a result, in the
図1に示すように、モニタシステム24の表示ECU26には、画像取込部34、画像処理部36及び表示画像生成部38等が形成されている。表示ECU26は、CPU、ROM、RAM、不揮発性のメモリ(EPROMなど)等がバスによって接続されたマイクロコンピュータ(図示省略)を備えている。表示ECU26は、CPUがROM等に記憶されているプログラムを読出してRAMに展開しながら実行することで、画像取込部34、画像処理部36及び表示画像生成部38等として機能する。
As shown in FIG. 1, the
画像取込部34は、カメラ30A〜30Cが撮像した撮影画像を取込む。画像処理部36は、カメラ30A〜30Cの撮影画像の各々に対して所定の画像処理を施すと共に、視点変換処理を行う。視点変換処理では、仮想視点及び仮想スクリーンを設定し、撮影画像を仮想スクリーンに投影し、撮影画像の各々を同一の視点(仮想視点)から見た画像に変換する。
The image capturing unit 34 captures captured images captured by the
ここで、画像処理部36では、仮想スクリーンとしてインナモニタ28における表示部32A〜32Cの配列形状に対応する仮想スクリーンが設定され、仮想スクリーンに対する仮想視点としてインナモニタ28に対する乗員Pの視点(目の位置)が適用される。画像処理部36は、異なる撮影画像上の同一の被写体について、大きさが同じになるように撮影画像に対する拡縮処理が行われる。また、視点変換処理において仮想スクリーンに投影される各撮影画像は、左右が反転される。
Here, in the
モニタシステム24では、インナモニタ28の表示モードとして通常モードと抑制モードとが設けられている。図4(A)及び図4(B)には、インナモニタ28の表示画像の概略が示されており、図4(A)が通常モードに対応され、図4(B)が抑制モードに対応されている。
In the
表示ECU26は、表示モードが通常モードに設定されることで、表示画像生成部38が視点変換処理された撮影画像をインナモニタ28(表示部32A〜32C)に出力する。これにより、図4(A)に示すように、インナモニタ28には、表示部32Bに車両後方の撮影画像が表示され、表示部32Aに車両左側(左斜め後側)の撮影画像が表示され、表示部32Cに車両右側(右斜め後側)の撮影画像が表示される。この際、インナモニタ28は、車両後方の白色の実線(白線)や白色の破線などの路面標示50や車両後方を走行している他の車両52等が表示される。
When the display mode is set to the normal mode, the
一方、図1に示すように、モニタシステム24の表示ECU26には、検索手段及び抽出手段としての対象抽出部40、対象抽出部40と共に情報取得手段を構成する対象情報生成部42、及び対象画像生成手段としての対象画像生成部44が形成されている。また、表示ECU26には、記憶部としての画像メモリ46が設けられており、画像メモリ46には、ROMや不揮発性メモリ(EPROM等)などが用いられている。なお、表示ECU26では、CPUが所定のプログラムを実行することで、対象抽出部40、対象情報生成部42及び対象画像生成部44として機能する。
On the other hand, as shown in FIG. 1, the
対象抽出部40は、カメラ30(30A〜30C)の撮影画像(画像処理部36において画像処理された撮影画像)から所定の対象物を検索する。また、対象抽出部40は、検索により対象物が検出された場合、検出された対象物の画像を抽出する。本実施形態では、自車両の周囲(後方や側方)を走行する他の車両52を対象物としており、対象抽出部40は、撮影画像を検索することで他の車両52を検出すると、検出された他の車両52の画像を抽出する。
The
また、対象抽出部40では、撮影画像から路面上の白色の実線、黄色の実線或いは白色の破線などのセンターライン及び車線境界線等の路面標示50の画像を抽出する。なお、対象抽出部40は、路面標示50と共に路面に立設されている道路標識や路側に敷設されているガイドレールや防音壁等の画像を抽出してもよい。
Further, the
対象情報生成部42は、対象抽出部40において検出された車両52について、自車両に対する影響度を判断するための影響度情報を生成する。影響度情報は、撮影画像上における他の車両52の位置(走行位置)の時間変化、他の車両52の画像の大きさの時間変化等が用いられて生成される。影響度情報は、他の車両52について、車種、自車両に対する方向、自車両との距離、自車両に対する相対速度、及び走行速度等の対象情報を含み、影響度情報には、他の車両52について自車両の走行に影響を及ぼす度合いを予測(判定)するための各種の情報を含むことができる。
The target
なお、モニタシステム24は、ミリ波レーダ等の計測手段を用いて他の車両52についての影響度情報を生成してもよい。この場合、計測手段は、監視装置22Aと兼用であってもよく、監視装置22Aが影響度情報を生成して、表示ECU26が監視装置22Aにおいて生成された影響度情報を取得してもよい。
The
対象画像生成部44は、他の車両52についての影響度情報に基づいて、自車両に対する車両52の影響度を判定し、自車両の走行に影響を及ぼす(影響度が高い)と判定される車両52を対象車両(注目車両)として特定する。対象車両の特定には、影響度情報に含まれる一つ又は複数の情報を用いることができる。
The target image generation unit 44 determines the degree of influence of the
例えば、自車両との距離を示す情報を用いる場合、自車両との距離が所定距離以下(例数百m以下)の車両52を対象車両とする。また、自車両に対する相対速度の情報を用いる場合、相対速度が所定速度以上(例えば、数10km/h以上)の車両52を対象車両とする。対象車両の判定には、車両52の車種に関する情報や自車両又は車両52の速度に関する情報が組み合わされてもよい。例えば、車種が普通車などの乗用車と、乗用車に比して車体が大型となるバスやトラック(大型貨物車)とで、影響度に対する基準値を異ならせてもよく、自車両又は車両52の速度に応じて影響度に対する基準値を異ならせてもよい。
For example, when using information indicating the distance to the own vehicle, the target vehicle is the
対象画像生成部44は、影響度が高いと判定した対象車両について、対象車両を示す対象画像を生成する。対象画像としては、撮影画像から抽出された車両52(対象車両)の画像を用いることができる。また、対象画像生成部44において生成する対象画像には、影響度情報に応じて対象車両の周囲の画像(背景など)を含ませることができ、対象画像生成部44では、影響度が小さい場合に比して影響度が大きくなるほど対象車両の周囲を広くした対象画像を生成する。 The target image generation unit 44 generates a target image showing the target vehicle for the target vehicle determined to have a high degree of influence. As the target image, an image of the vehicle 52 (target vehicle) extracted from the captured image can be used. Further, the target image generated by the target image generation unit 44 can include an image (background, etc.) around the target vehicle according to the influence degree information, and the target image generation unit 44 has a case where the influence degree is small. A target image in which the circumference of the target vehicle is widened as the degree of influence becomes larger than that of the target vehicle is generated.
また、対象画像生成部44では、対象車両が特定されると、対象抽出部40において抽出された路面標示50の画像を読込み、路面標示50を示す路面画像と対象車両を示す対象画像とを重ねた(合成してもよい)対象表示画像を生成する。
When the target vehicle is specified, the target image generation unit 44 reads the image of the road marking 50 extracted by the
また、対象画像生成部44では、対象車両について乗員Pが対象車両の影響度を認識可能とする対象情報を生成する。例えば、対象情報には、影響度情報に含まれる速度情報(走行速度)を用いることができる。対象情報は、対象車両の影響度に応じて対象表示画像に重ねられる。これにより、インナモニタ28には、対象画像と路面画像とが表示可能となり、また、インナモニタ28には、対象画像及び路面画像に重ねて対象情報が表示可能になる。
In addition, the target image generation unit 44 generates target information for the target vehicle so that the occupant P can recognize the degree of influence of the target vehicle. For example, the speed information (running speed) included in the influence degree information can be used as the target information. The target information is superimposed on the target display image according to the degree of influence of the target vehicle. As a result, the target image and the road surface image can be displayed on the
一方、画像メモリ46には、予め設定された静止画像が記憶されている。静止画像には、乗員が注目してしまうのを抑制できる柄の画像が適用される。また、画像メモリ46には、静止画像の少なくとも一部を変化させた一つ又は複数の静止画像が記憶されている。
On the other hand, a preset still image is stored in the
画像メモリ46に記憶される静止画像には、各種の図形配置、モザイク模様や木目調(木目模様)などの各種の柄の画像が適用できる。また、静止画像は、インナモニタ28に表示された際、乗員Pに視覚的な刺激を及ぼす(与える)ことが抑制された柄で、かつ視覚的刺激を及ぼすのを抑制できる色相(色合い、色調)、明度(階調)及び彩度(鮮やかさ)とされた画像が適用される。なお、静止画像としては、明度が高い柄画像よりも明度の低い柄画像が好ましく、静止画像としては、彩度が強い鮮やかな画像よりも彩度の弱い所謂地味な画像が好ましく、静止画像としては、色調の強い画像よりも色調の弱い画像が好ましい。例えば、静止画像は、淡いトーンの落ち着いた柄の画像が好ましい。
Images of various patterns such as various graphic arrangements, mosaic patterns and wood grain patterns (wood grain patterns) can be applied to the still images stored in the
このような静止画像としては、インナモニタ28が設けられたインストルメントパネル10Aや車室内における意匠等に合わせた柄の画像を適用でき、例えば、インストルメントパネル10Aや車室内に木目調の部品が用いられている場合、木目調の柄の画像を適用できる。
As such a still image, an
また、静止画像の少なくとも一部を変化させた静止画像としては、静止画像と同様の柄であって、インナモニタ28に表示した状態において、柄を形成する図形や模様を全体的に縦方向、横方向及び斜め方向の何れかに移動させた画像、柄を形成する図形の各々を縦方向、横方向及び斜め方向の何れかの方向に反転させた画像、色調や階調等を変化させた画像などの互いに近似した画像を適用できる。
Further, the still image in which at least a part of the still image is changed has the same pattern as the still image, and in the state of being displayed on the
本実施形態では、柄が互いに近似した複数の画像を静止画像及び静止画像の少なくとも一部を変化させた複数の静止画像を用い、この関係を有する複数の静止画像が画像メモリ46に記憶されている。図4(B)に示すように、画像メモリ46に記憶された複数の静止画像の一つが静止画像54Aとしてインナモニタ28に表示され、画像メモリ46に記憶された残りの静止画像が静止画像54Aの少なくとも一部が変化された静止画像54Bとして用いられる。なお、図4(B)に示す静止画像54Aでは、三角形状の図形が縦横に配列されており、静止画像54Aに対する静止画像54Bは、例えば、三角形状の各図形の上下が反転された画像とされる。
In the present embodiment, a plurality of images having similar patterns to each other are used as a still image and a plurality of still images in which at least a part of the still image is changed, and a plurality of still images having this relationship are stored in the
なお、静止画像54A、54Bには、柄が互いに近似した複数の静止画像を一群の静止画像を画像メモリ46に記憶し、予め乗員Pが好みで画像メモリ46に記憶した一群の静止画像から選択しておいて用いてもよい。また、画像メモリ46には、複数群の静止画像を記憶し、予め乗員Pが好みで何れの群の静止画像を用いるから選択しておいてもよい。
In the
表示ECU26では、表示モードが抑制モードに設定されることで、表示画像生成部38が画像メモリ46に記憶された静止画像の一つを静止画像54Aとしてインナモニタ28に出力する。また、表示ECU26では、対象車両が抽出されて、対象表示画像が生成されると、インナモニタ28の表示を静止画像54Bに変更すると共に、静止画像54Bに対象表示画像を重ねて表示し、インナモニタ28において対象車両及び路面標示50に対応する部分の静止画像54Bを覆う。
In the
次に、本実施形態の作用として、モニタシステム24におけるインナモニタ28の表示画像の制御を説明する。
車両10では、運転モードとして手動運転モードに設定されることで、乗員Pの運転操作に応じた操舵制御、速度制御及び制動制御等が実行され、乗員Pの運転操作に応じて車両10が走行される。また、車両10では、運転モードとして自動運転モードに設定されると、自動運転システム18が乗員Pの運転操作を介さずに車両10の操舵制御、速度制御及び制動制御等を実行する。これにより、車両10が予め設定された目的地へ向けて走行される。
Next, as an operation of the present embodiment, control of the display image of the
In the
一方、車両10には、モニタシステム24が設けられている。モニタシステム24は、図示しないイグニッションスイッチがオンされると動作が開始され、イグニッションスイッチがオフされると動作を終了する。なお、モニタシステム24は、車両10の走行開始に先立って動作され、車両10の走行が終了することで動作を終了すればよく、乗員Pの乗車及び降車に合わせて動作してもよい。また、以下では、対象車両の特定に自車両との距離を適用し、対象画像の生成に自車両と対象車両との速度差を適用し、対象車両に関する対象情報に対象車両の速度情報を適用して説明する。
On the other hand, the
モニタシステム24では、インナモニタ28の表示モードとして通常モード及び抑制モードが設けられており、モニタシステム24の表示ECU26が予め設定されたタイミングで表示モードを通常モード又は抑制モードに設定する(切換える)。図5(A)〜図5(D)には、車両10の走行に伴う通常モードにおけるインナモニタ28の表示の変化が示され、図6(A)〜図6(D)には、各々図5(A)〜図5(D)に対応する抑制モードにおけるインナモニタ28の表示が示されている。
The
表示ECU26は、車両10の運転モードが自動運転モードに設定されると、表示モードを抑制モードに設定する(通常モードから抑制モードに切換える)。また、表示ECU26は、手動運転モードであっても、車両10が高速道路などの自動車専用道路の走行中に乗員Pの指示により表示モードを抑制モードに設定する。さらに、表示ECU26は、車両10の運転モードが手動運転モードに設定されている場合、車両10の運転モードが自動運転モードから手動運転モードに設定された場合、乗員Pに指示された場合に、表示モードを通常モードに設定する。
When the operation mode of the
なお、表示モードの乗員Pの指示としては、図示しない操作スイッチのスイッチ操作(インナモニタ28にタッチ式パネルが用いられている場合は乗員Pのタッチ操作)によって行われてもよい。また、座席16に着座した乗員Pの顔等を撮像するなどして乗員の視線方向を検出し、乗員の視線がインナモニタ28の画像表示面に向けられたことを検出することで、表示モードが通常モードに設定されてもよい。
The instruction of the occupant P in the display mode may be given by a switch operation of an operation switch (not shown) (a touch operation of the occupant P when the
モニタシステム24では、表示モードが通常モードに設定されると、表示ECU26がカメラ30(30A〜30C)により撮影された画像(映像)を取込んで、取込んだ画像からインナモニタ28に表示するための撮影画像を生成し、生成した撮影画像をインナモニタ28に出力する。これにより、図5(A)〜図5(D)に示すように、インナモニタ28には、車両後方の画像(映像)が表示される。また、インナモニタ28には、車両後方の路面標示50等が表示されると共に、車両後方の他の車両52が、自車両に接近するほど他の車両52が大きく表示される。したがって、モニタシステム24では、インナモニタ28が乗員Pの車両後方の視認を補助する後写鏡として機能する。
In the
また、インナモニタ28は、表示部32Bの車幅方向左側の表示部32Aの表示面が右斜め後ろ側に向けられ、表示部32Bの車幅方向右側の表示部32Cの表示面が左斜め後ろ側に向けられている。また、インナモニタ28の表示部32Aには、車幅方向左側のカメラ30Aの撮影画像が表示され、インナモニタ28の表示部32Cには、車幅方向右側のカメラ30Cの撮影画像が表示される。これにより、乗員Pは、インナモニタ28の表示される撮影画像から車両10の左側及び右側を違和感なく把握できる。
Further, in the
一方、モニタシステム24では、表示モードが抑制モードに設定されると、表示ECU26が乗員Pの視覚的刺激を抑制するようにインナモニタ28の表示を変更する。図7には、抑制モードにおける表示ECU26の表示処理の概略が流れ図にて示されている。なお、図7に示す表示処理は、表示モードが抑制モードに設定されると実行され、表示モードが通常モードに設定されることで終了される。
On the other hand, in the
図7に示すフローチャートでは、最初のステップ100において画像メモリ46から静止画像54Aを読出してインナモニタ28に出力する。次のステップ102では、カメラ30の撮影画像から対象物としての他の車両52を検索し、ステップ104では、他の車両52が検索(検出)されたか否かを確認する。
In the flowchart shown in FIG. 7, in the
ここで、他の車両52が検出されると、ステップ104において肯定判定してステップ106へ移行する。このステップ106では、検出された車両52について影響度情報を取得する(生成する)。次のステップ108では、影響度情報が所定以上(予め設定されている基準値以上)であるか否か、すなわち、検出された車両52と自車両との距離が所定距離以内か否かを確認する。この際、自車両と車両52との距離が大きく離れている場合、自車両に対する影響度が低いと判断(予測)されて、ステップ108において否定判定される。
Here, when another
通常モードにおいて、カメラ30の撮影画像上に他の車両52が走行していなければ、インナモニタ28には、他の車両52が表示されない。また、図5(A)に示すように、撮影画像上において他の車両52が自車両から大きく離れている場合、インナモニタ28には、他の車両52が極めて小さく表示され、インナモニタ28の表示では、他の車両52の視認が難しい。
In the normal mode, if the
ここで、撮影画像上において他の車両52が検出されないか、自車両から他の車両52が極めて離れていると、図6(A)に示すように、抑制モードでは、インナモニタ28に静止画像54Aが表示されると共に、静止画像54Aが継続的に表示される。
Here, if the
一方、図7では、他の車両52について影響度情報が所定以上(予め設定されている基準値以上)であると、ステップ108において肯定判定されてステップ110に移行する。すなわち、他の車両52が自車両に対して所定距離以内に接近すると、ステップ108において肯定判定されてステップ110に移行する。
On the other hand, in FIG. 7, if the influence degree information of the
このステップ110では、検出された車両52を対象車両(注目車両)52Aとして、撮像画像から対象車両52Aを特定可能とする対象画像56を生成する。この際、対象画像56は、自車両との速度差が大きく度影響度が高いと予測されるほど、対象車両52Aの周囲(背景)が広げられて生成される。なお、対象画像56は、周囲の画像を含まずに対象車両52Aのみを示す画像であってもよい。
In this
また、このステップ110では、対象車両52Aについて、走行速度などの対象情報が生成される。これと共に、ステップ112では、撮影画像から抽出される路面標示50から路面画像58が生成される。
Further, in this
この後、ステップ114では、インナモニタ28に表示される画像(静止画像54A)を静止画像54Bに変更する。なお、静止画像54Bは、対象車両52Aについて影響度情報が変化するごとや、予め設定した時間間隔(例えば、数秒間隔)で別の静止画像に変更される。この際、静止画像54Bと静止画像54Aとが交互にインナモニタ28に表示されてもよい。
After that, in
これと共に、ステップ116では、対象画像56及び路面画像58をインナモニタ28の静止画像54Bに重ねて表示する。また、このステップ116では、対象情報として、対象画像56(又は対象画像56とは重ならない静止画像54B上でもよい)に重ねて対象車両52Aの対象情報(例えば速度情報60)が表示される。
At the same time, in
速度情報60は、例えば、対象車両52Aが自車両に接近(例えば、自車両の数十メートル以内に接近)することでインナモニタ28に表示される(図6(D)参照)。また、対象画像56及び路面画像58は、通常モードにおいてインナモニタ28に表示される撮影画像上に対応する位置に表示される。
The
このように、モニタシステム24では、撮影画像上に自車両の走行に影響を及ぼすと予測される他の車両52(対象車両52A)が検出されていない間は、インナモニタ28に静止画像54Aが表示される。また、撮影画像上において対象車両52Aが検出されると、対象車両52Aを示す対象画像56がインナモニタ28に表示されると共に、インナモニタ28に表示される対象画像56が対象車両52Aの影響度情報に応じて変化される。
As described above, while the
すなわち、図5(B)から図5(D)に示すように、通常モードにおいて、撮影画像に自車両に影響を及ぼすと予測される車両52(対象車両52A)が検出されている状態では、インナモニタ28には、車両52が表示されると共に、車両52が自車両に近いほど大きく表示される。
That is, as shown in FIGS. 5 (B) to 5 (D), in a state in which the vehicle 52 (
これに対して、図6(A)及び図6(B)に示すように、抑制モードにおいて、撮影画像に自車両に影響を及ぼすと予測される対象車両52Aが検出されると、インナモニタ28に表示される画像は、静止画像54Aから静止画像54Bに変更される。また、図6(B)から図6(D)に示すように、抑制モードにおいて、インナモニタ28には、静止画像54Bに重ねられて対象車両52Aを示す対象画像56が表示される。また、インナモニタ28には、路面標示50を示す路面画像58が表示される。
On the other hand, as shown in FIGS. 6A and 6B, when the
さらに、抑制モードにおいて、対象車両52Aが自車両に接近するほど、インナモニタ28には、対象画像56が大きく表示される。また、インナモニタ28に表示される対象画像56は、対象車両52Aが自車両に近づいて自車両との距離が短くなるほど対象車両52Aの周囲が広く表示される。また、対象車両52Aが自車両の近傍を通過する際等の自車両に接近した状態では、インナモニタ28に速度情報60が表示される。
Further, in the suppression mode, the closer the
なお、対象車両52Aが自車両を追越すなどして撮影画像上で検索(検出)できなくなると、インナモニタ28には、静止画像54Aが表示される。また、自車両が他の車両52を追い越す際には、インナモニタ28には、対象車両52Aの周囲(背景)が除かれた対象画像56(対象車両52Aのみを示す画像)が表示される。
If the
このように、モニタシステム24では、撮影画像上で自車両に影響を及ぼすと予測される他の車両52が検出されない間、インナモニタ28に静止画像54Aが表示される。このため、インナモニタ28の表示画像が乗員Pに視覚的刺激を与えてしまうのを抑制できて、乗員Pがインナモニタ28の表示画像を気にならなくなる。例えば、インナモニタ28にカメラ30の撮影画像(映像)が表示されていると、撮影画像上の動き(例えば風景の動き)などが乗員Pの目についてしまうことがある。これにより、インナモニタ28上の特定部分などに目の焦点を合わせるために、乗員Pが必要以上にインナモニタ28を注視してしまうことになるが、モニタシステム24では、このような乗員Pのインナモニタ28の注視を抑制できる。
As described above, in the
また、モニタシステム24では、対象車両52Aが検出されると、インナモニタ28に表示される静止画像54Aの柄の少なくとも一部が変更された静止画像54Bが表示される。これにより、インナモニタ28への乗員Pの注意を促すことができる。また、モニタシステム24では、インナモニタ28に表示される静止画像54Bが所定の時間ごと或いは対象車両52Aの影響度が変化するごとなどの所定のタイミングで変更される。これにより、インナモニタ28への乗員Pの注意(視認)を効果的に促すことができる。
Further, in the
さらに、モニタシステム24では、検出された対象車両52Aを示す対象画像56が静止画像54Bに重ねられてインナモニタ28に表示される。これにより、乗員Pは自車両の周囲に対象車両52Aが存在することを容易に認識できる。
Further, in the
また、モニタシステム24では、対象車両52Aの予測される影響度が高くなるほど対象車両52Aを示す対象画像56が大きくインナモニタ28に表示される。これにより、自車両に対する対象車両52Aの影響度が高いことが、乗員Pに的確に認識される。
Further, in the
また、モニタシステム24では、対象画像56と共に対象車両52Aの速度情報60をインナモニタ28に表示する。これにより、乗員Pは、対象車両52Aについての自車両に対する影響度合いをより効果的に認識できる。
Further, in the
さらに、モニタシステム24では、対象画像56と共に路面標示50を示す路面画像58がインナモニタ28に表示される。これにより、乗員Pは、インナモニタ28に撮影画像ではなく静止画像54Bが表示されていても、自車両に対する対象車両52Aの相対位置を的確に認識できて、インナモニタ28の表示が乗員Pの視認を補助(支援)できる。
Further, in the
なお、以上説明した本実施形態では、対象車両52Aを示す対象画像56を表示する際、静止画像54Aを静止画像54Bに変更した。しかしながら、表示手段に表示する静止画像を変更せずに、静止画像に重ねて対象画像等を表示してもよい。
In the present embodiment described above, when the
また、インナモニタ28に表示する静止画像54Bは、対象車両の影響度に応じて色調(色合い)等を変更してもよく、この場合、影響度が高くなるほど鮮やかになるようにしてもよい。これにより、インナモニタ28に表示される静止画像54Bの色調の変化から乗員Pが対象車両の影響度をより的確に把握可能にできる。
Further, the still image 54B displayed on the
また、本実施形態では、対象車両52Aを示す対象画像56として、カメラ30の撮影画像から抽出した画像を用いた。しかしながら、対象画像における対象車両は、イラストやシンボルなどの抽象画像であってもよい。例えば、対象画像上における対象車両としてイラストを用いる場合、車種ごとに設定したイラストを用い、影響度情報(対象情報)によって特定される車種に対応するイラストを選択して、対象画像を生成してもよい。
Further, in the present embodiment, an image extracted from the captured image of the
また、影響度情報として対象車両の色を取得し、取得した色を用いて対象車両を示すイラストを着色して表示するようにしてもよい。また、対象画像では、対象車両の色を影響度に応じて変化させてもよく、例えば、対象車両が遠く離れている場合には、青色に着色し、対象車両の色を対象車両が自車両に近づくほど、青色から黄色、黄色から赤色に変化させてもよい(影響度が高くなるほど赤色が強くなるようにイラストを着色してもよい)。 Further, the color of the target vehicle may be acquired as the influence degree information, and the illustration showing the target vehicle may be colored and displayed using the acquired color. Further, in the target image, the color of the target vehicle may be changed according to the degree of influence. For example, when the target vehicle is far away, the target vehicle is colored blue and the target vehicle is the own vehicle. The closer to, the more blue to yellow and the yellow to red may be changed (the illustration may be colored so that the higher the degree of influence, the stronger the red color).
なお、以上説明した本実施形態では、カメラ30によって車両10の側方から後方側を撮像し、撮影画像をインナモニタ28に表示した。しかしながら、撮像手段は、1台が車両10の後方を広角で撮像してもよく、表示手段は、1台の画像表示媒体によって構成されていてもよい。
In the present embodiment described above, the
また、本実施形態では、バイワイヤシステムが適用された車両10を例に説明した。しかしながら、本発明に係る視認支援装置は、バイワイヤシステムが適用されていない車両に設けられてもよい。また、本実施形態では、自動運転システム18を備える車両10に適用したが、視認支援装置は、自動運転システム18を備えていない車両に設けられてもよい。これらの場合、自動車専用道路等を走行中等の所定の走行環境下において、乗員Pの指示によって抑制モードに設定されればよい。
Further, in the present embodiment, the
10・・・車両、24・・・モニタシステム(視認支援装置)、26・・・表示ECU、28・・・インナモニタ(表示手段)、30(30A〜30C)・・・カメラ(撮像手段)、38・・・表示画像生成部、40・・・対象抽出部、42・・・対象情報生成部、44・・・対象画像生成部。 10 ... Vehicle, 24 ... Monitor system (visual recognition support device), 26 ... Display ECU, 28 ... Inner monitor (display means), 30 (30A to 30C) ... Camera (imaging means) , 38 ... Display image generation unit, 40 ... Target extraction unit, 42 ... Target information generation unit, 44 ... Target image generation unit.
Claims (6)
車室内に設けられ前記撮像手段の撮影画像の表示に用いられる表示手段と、
前記撮像手段の撮影画像上において自車両の走行に影響すると予測される対象物を検索し、検索された前記対象物の自車両に対する影響度を判断するための影響度情報を取得する情報取得手段と、
前記影響度情報から予め設定された影響度を超える前記対象物について、前記撮影画像から該対象物を示す対象画像を生成する対象画像生成手段と、
前記表示手段に所定柄の静止画像を表示し、前記予め設定された影響度を超える前記対象物についての前記対象画像を前記静止画像に重ねて表示するように制御する表示制御手段と、
を含む視認支援装置。 An imaging means that captures the surroundings of the vehicle,
A display means provided in the vehicle interior and used for displaying a photographed image of the image pickup means,
An information acquisition means for searching an object predicted to affect the running of the own vehicle on the captured image of the imaging means and acquiring influence degree information for determining the degree of influence of the searched object on the own vehicle. When,
With respect to the object exceeding the influence degree preset from the influence degree information, the target image generation means for generating the target image showing the object from the photographed image, and the target image generation means.
A display control means for displaying a still image of a predetermined pattern on the display means and controlling the display of the target image of the object exceeding the preset degree of influence so as to be superimposed on the still image.
Visual assistance device including.
前記表示制御手段が、前記対象画像と共に前記路面画像を前記表示手段に表示する請求項1又は請求項2に記載の視認支援装置。 The target image generation means generates a road surface image showing road markings on the captured image, and the target image generation means generates a road surface image.
The visual recognition support device according to claim 1 or 2, wherein the display control means displays the road surface image together with the target image on the display means.
前記表示制御手段が、前記対象情報を前記対象画像と共に前記静止画像に重ねて前記表示手段に表示する請求項1から請求項5の何れか1項に記載の視認支援装置。 The information acquisition means detects the target information that makes it possible to recognize the degree of influence of the target object on the own vehicle.
The visual recognition support device according to any one of claims 1 to 5, wherein the display control means superimposes the target information together with the target image on the still image and displays the target information on the display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019201409A JP2021076958A (en) | 2019-11-06 | 2019-11-06 | Visual recognition support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019201409A JP2021076958A (en) | 2019-11-06 | 2019-11-06 | Visual recognition support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021076958A true JP2021076958A (en) | 2021-05-20 |
Family
ID=75899270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019201409A Pending JP2021076958A (en) | 2019-11-06 | 2019-11-06 | Visual recognition support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021076958A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018174383A (en) * | 2017-03-31 | 2018-11-08 | 株式会社Subaru | Image display device |
-
2019
- 2019-11-06 JP JP2019201409A patent/JP2021076958A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018174383A (en) * | 2017-03-31 | 2018-11-08 | 株式会社Subaru | Image display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11008016B2 (en) | Display system, display method, and storage medium | |
US9723243B2 (en) | User interface method for terminal for vehicle and apparatus thereof | |
JP6387369B2 (en) | Travel control device | |
JP6642972B2 (en) | Vehicle image display system and method | |
JP4914458B2 (en) | Vehicle periphery display device | |
EP1870870A1 (en) | Vehicle drive assist system | |
KR20200016958A (en) | Parking Assistance Method and Parking Assistance Device | |
WO2011125135A1 (en) | Collision prevention support device | |
JP2008222153A (en) | Merging support device | |
CN105264547A (en) | Method for operating a display device, computer program product, and display device | |
US11977225B2 (en) | Vehicle display control device and vehicle display control method for recognizing traffic regulation marks and displaying traffic regulation information | |
JP2005038225A (en) | Lane follow-up device | |
JP2017186008A (en) | Information display system | |
US11256088B2 (en) | Vehicle display device | |
US9791289B2 (en) | Method and device for operating a head-up display for a vehicle | |
US20230294517A1 (en) | Vehicle display control device, display device, and vehicle display control method | |
US20230001947A1 (en) | Information processing apparatus, vehicle, and information processing method | |
JP4375153B2 (en) | Vehicle display device | |
JP3877127B2 (en) | Vehicle display device | |
JP5251673B2 (en) | Vehicle display device | |
JP2021076958A (en) | Visual recognition support device | |
JP2023123208A (en) | Display control device for vehicles, display control method and display control program | |
CN113448097A (en) | Display device for vehicle | |
JP2022126240A (en) | Display device for vehicle | |
JP2022140026A (en) | Image processing device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231003 |