JP2021117703A - In-vehicle display device and program - Google Patents

In-vehicle display device and program Download PDF

Info

Publication number
JP2021117703A
JP2021117703A JP2020010357A JP2020010357A JP2021117703A JP 2021117703 A JP2021117703 A JP 2021117703A JP 2020010357 A JP2020010357 A JP 2020010357A JP 2020010357 A JP2020010357 A JP 2020010357A JP 2021117703 A JP2021117703 A JP 2021117703A
Authority
JP
Japan
Prior art keywords
vehicle
image
unit
moving
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020010357A
Other languages
Japanese (ja)
Inventor
真人 草▲なぎ▼
Masato Kusanagi
真人 草▲なぎ▼
友規 鈴木
Tomonori Suzuki
友規 鈴木
和寛 ▲高▼澤
和寛 ▲高▼澤
Kazuhiro Takazawa
悠貴 堀
Yuki Hori
悠貴 堀
晨 関屋
Shin Sekiya
晨 関屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020010357A priority Critical patent/JP2021117703A/en
Publication of JP2021117703A publication Critical patent/JP2021117703A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an in-vehicle display device and a program capable of causing a driver of a vehicle to take an appropriate risk avoidance action.SOLUTION: An in-vehicle display device 100 includes: a moving body detection unit 111 that detects a moving body existing around an own vehicle; a traveling lane detection unit 114 that detects a traveling lane of the moving body detected by the moving body detection unit; a moving direction specification unit 112 that specifies a moving direction of the moving body detected by the moving body detection unit; an image generation unit 115 that generates an image representing a movement direction specified by the moving direction specification unit; and a head-up display 120 as a display unit that displays the image representing the moving direction generated by the image generation unit at a position overlapping the traveling lane of the moving body detected by a traveling lane detection unit when viewed from the driver of the own vehicle.SELECTED DRAWING: Figure 6

Description

本発明は、車載表示装置およびプログラムに関する。 The present invention relates to an in-vehicle display device and a program.

下記特許文献1には、運転を支援するための適切な表示を行う目的で、自車両前方の道路に関する情報に基づいて、ユーザに対する潜在的な危険度合いを示すリスクポテンシャルを判定し、リスクポテンシャルの程度によって、車線領域に表示する重畳画像の表示色を変化させる装置が開示されている。 In the following Patent Document 1, for the purpose of appropriately displaying to support driving, the risk potential indicating the degree of potential danger to the user is determined based on the information on the road in front of the own vehicle, and the risk potential is determined. A device for changing the display color of a superimposed image displayed in a lane area is disclosed depending on the degree.

しかしながら、特許文献1に開示されている技術は、リスク要因についての具体的な情報を、何らユーザに呈示しない。このため、特許文献1に開示されている技術は、車両の運転者に適切なリスクの回避行動を行わせることができない。 However, the technique disclosed in Patent Document 1 does not present any specific information about the risk factors to the user. Therefore, the technique disclosed in Patent Document 1 cannot cause the driver of the vehicle to take an appropriate risk avoidance action.

本発明は、車両の運転者に適切なリスクの回避行動を行わせることができるようにすることを目的とする。 An object of the present invention is to enable a vehicle driver to take appropriate risk avoidance behavior.

上述した課題を解決するために、本発明の車載表示装置は、自車両の周辺に存在する移動体を検出する移動体検出部と、移動体検出部によって検出された移動体の走行車線を検出する走行車線検出部と、移動体検出部によって検出された移動体の移動方向を特定する移動方向特定部と、移動方向特定部によって特定された移動方向を表す画像を生成する画像生成部と、画像生成部によって生成された移動方向を表す画像を、自車両の運転者から見て、走行車線検出部によって検出された移動体の走行車線と重なる位置に表示する表示部とを備える。 In order to solve the above-mentioned problems, the in-vehicle display device of the present invention detects a moving body detecting unit that detects a moving body existing in the vicinity of the own vehicle and a traveling lane of the moving body detected by the moving body detecting unit. A traveling lane detecting unit, a moving direction specifying unit that specifies the moving direction of the moving body detected by the moving body detecting unit, and an image generating unit that generates an image representing the moving direction specified by the moving direction specifying unit. It is provided with a display unit that displays an image representing a moving direction generated by the image generation unit at a position overlapping the traveling lane of the moving body detected by the traveling lane detection unit when viewed from the driver of the own vehicle.

本発明によれば、車両の運転者に適切なリスクの回避行動を行わせることができる。 According to the present invention, it is possible to make the driver of the vehicle take appropriate risk avoidance behavior.

本発明の一実施形態に係る車載表示装置がフロントウインドウに表示する虚像の一例を示す図The figure which shows an example of the virtual image displayed on the front window by the vehicle-mounted display device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載表示装置を搭載した自車両の内部配置例を模式的に示す図The figure which shows typically the internal arrangement example of the own vehicle equipped with the vehicle-mounted display device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載表示装置が備える光学系の構成例を模式的に示す図The figure which shows typically the structural example of the optical system included in the vehicle-mounted display device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載表示装置が備える制御系の構成例を示す図The figure which shows the structural example of the control system provided in the vehicle-mounted display device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載表示装置及び周辺装置の概略構成例を示す図The figure which shows the schematic configuration example of the vehicle-mounted display device and the peripheral device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載表示装置の機能構成を示す図The figure which shows the functional structure of the vehicle-mounted display device which concerns on one Embodiment of this invention. 発明の一実施形態に係る車載表示装置による処理の手順を示すフローチャートA flowchart showing a procedure of processing by an in-vehicle display device according to an embodiment of the invention. 本発明の一実施形態に係る車載表示装置による移動方向画像の第1表示例を示す図The figure which shows the 1st display example of the moving direction image by the vehicle-mounted display device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載表示装置による移動方向画像の第2表示例を示す図The figure which shows the 2nd display example of the moving direction image by the vehicle-mounted display device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車載表示装置による移動方向画像の第3表示例を示す図The figure which shows the 3rd display example of the moving direction image by the vehicle-mounted display device which concerns on one Embodiment of this invention.

以下、図面を参照して、本発明の一実施形態について説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

〔一実施形態〕
図1は、本発明の一実施形態に係る車載表示装置100がフロントウインドウ21に表示する虚像の一例を示す図である。図2は、本発明の一実施形態に係る車載表示装置100を搭載した自車両30の内部配置例を模式的に示す図である。図3は、本発明の一実施形態に係る車載表示装置100が備える光学系230の構成例を模式的に示す図である。
[One Embodiment]
FIG. 1 is a diagram showing an example of a virtual image displayed on the front window 21 by the vehicle-mounted display device 100 according to the embodiment of the present invention. FIG. 2 is a diagram schematically showing an example of internal arrangement of the own vehicle 30 equipped with the vehicle-mounted display device 100 according to the embodiment of the present invention. FIG. 3 is a diagram schematically showing a configuration example of an optical system 230 included in the vehicle-mounted display device 100 according to the embodiment of the present invention.

図2において、本実施形態に係る車載表示装置100は、例えば、移動体としての走行体である自車両30のダッシュボード内に設置される。ダッシュボード内の車載表示装置100から発せられる画像光である投射光Lが光透過部材としてのフロントウインドウ21で反射され、視認者である運転者20に向かって照射される。これにより、運転者20は、後述するルートナビゲーション画像等を虚像Gとして視認することができる。なお、フロントウインドウ21の内壁面に光透過部材としてのコンバイナを設置し、コンバイナによって反射する投射光Lによって運転者20に虚像Gを視認させるようにしてもよい。 In FIG. 2, the vehicle-mounted display device 100 according to the present embodiment is installed, for example, in the dashboard of the own vehicle 30 which is a traveling body as a moving body. The projected light L, which is the image light emitted from the vehicle-mounted display device 100 in the dashboard, is reflected by the front window 21 as a light transmitting member and is irradiated toward the driver 20 who is a viewer. As a result, the driver 20 can visually recognize the route navigation image and the like, which will be described later, as a virtual image G. A combiner as a light transmitting member may be installed on the inner wall surface of the front window 21 so that the driver 20 can visually recognize the virtual image G by the projected light L reflected by the combiner.

フロントウインドウ21の上部に前方撮影用カメラ22及び運転者カメラ23が配置される。前方撮影用カメラ22は前方を撮影する。前方撮影用カメラ22が撮影する前方には、車載表示装置100がフロントウインドウ21に表示する表示情報及びその背景が含まれる。すなわち前方撮影用カメラ22はフロントウインドウ21に映った車載表示装置100が表示する表示情報を撮影するとともに、その背景をフロントウインドウ21越しに撮影する。前方撮影用カメラ22がフロントウインドウ21越しに撮影する背景とは、自車両30の前方環境(すなわち前方車両、路面等)である。運転者カメラ23は運転者20の視点位置を検出するために運転者20を撮影する。 The front camera 22 and the driver camera 23 are arranged on the upper part of the front window 21. The front camera 22 shoots the front. The front side taken by the front-viewing camera 22 includes display information displayed on the front window 21 by the vehicle-mounted display device 100 and a background thereof. That is, the front camera 22 captures the display information displayed by the vehicle-mounted display device 100 reflected on the front window 21, and also photographs the background thereof through the front window 21. The background photographed by the front camera 22 through the front window 21 is the front environment of the own vehicle 30 (that is, the vehicle in front, the road surface, etc.). The driver camera 23 photographs the driver 20 in order to detect the viewpoint position of the driver 20.

本実施形態においては、運転者20から虚像Gまでの距離が5m以上になるように車載表示装置100の光学系230等が設計されている。本実施形態のように虚像Gまでの距離が5m以上であれば、従来よりも運転者20が眼球の水晶体を動かす量が減り、虚像Gへの焦点調整時間を短縮して虚像Gの内容を早期に認識できるようになる。また運転者20の眼球の疲労を軽減することができる。更には、虚像Gの内容に運転者20が気付きやすくなり、虚像Gによって運転者20へ情報を適切に提供することが容易になる。虚像Gまでの距離が5m以上であれば運転者20は眼球をほとんど輻輳運動させることなく虚像Gに焦点を合わせることができる。したがって、運動視差を利用して距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が眼球の輻輳運動によって薄まってしまうことが抑制される。よって、画像の距離感や奥行き感を利用した運転者20の情報知覚効果を有効に発揮させることができる。 In the present embodiment, the optical system 230 and the like of the vehicle-mounted display device 100 are designed so that the distance from the driver 20 to the virtual image G is 5 m or more. When the distance to the virtual image G is 5 m or more as in the present embodiment, the amount of movement of the crystalline lens of the eyeball by the driver 20 is reduced as compared with the conventional case, and the focus adjustment time to the virtual image G is shortened to reduce the content of the virtual image G. You will be able to recognize it early. In addition, the fatigue of the eyeballs of the driver 20 can be reduced. Further, the driver 20 can easily notice the contents of the virtual image G, and the virtual image G makes it easy to appropriately provide information to the driver 20. If the distance to the virtual image G is 5 m or more, the driver 20 can focus on the virtual image G with almost no converging movement of the eyeball. Therefore, it is possible to prevent the effect of perceiving a sense of distance (change in perceived distance) and a sense of depth (difference in perceived distance) by utilizing motion parallax from being diminished by the convergence movement of the eyeball. Therefore, it is possible to effectively exert the information perception effect of the driver 20 by utilizing the sense of distance and the sense of depth of the image.

図3に示す車載表示装置100が備える光学系230は、赤色、緑色及び青色のレーザ光源201R,201G及び201Bと、各レーザ光源に対して設けられるコリメータレンズ202,203及び204と、2つのダイクロイックミラー205及び206とを含む。光学系230は更に、光量調整部207と、光走査部としての光走査装置208と、自由曲面ミラー209と、光発散部材としてのマイクロレンズアレイ210と、光反射部材としての投射ミラー211とを含む。また光源ユニット220では、レーザ光源201R,201G及び201B、コリメータレンズ202,203及び204、並びにダイクロイックミラー205及び206が、光学ハウジングによってユニット化されている。 The optical system 230 included in the vehicle-mounted display device 100 shown in FIG. 3 includes red, green, and blue laser light sources 201R, 201G, and 201B, collimator lenses 202, 203, and 204 provided for each laser light source, and two dichroic filters. Includes mirrors 205 and 206. The optical system 230 further includes a light amount adjusting unit 207, an optical scanning device 208 as an optical scanning unit, a free curved mirror 209, a microlens array 210 as a light diverging member, and a projection mirror 211 as a light reflecting member. include. In the light source unit 220, the laser light sources 201R, 201G and 201B, the collimator lenses 202, 203 and 204, and the dichroic mirrors 205 and 206 are unitized by an optical housing.

レーザ光源201R,201G及び201BとしてLD(半導体レーザ素子)を利用することができる。赤色レーザ光源201Rから射出される光束の波長は例えば640nmであり、緑色レーザ光源201Gから射出される光束の波長は例えば530nmであり、青色レーザ光源201Bから射出される光束の波長は例えば445nmである。 LDs (semiconductor laser devices) can be used as the laser light sources 201R, 201G and 201B. The wavelength of the luminous flux emitted from the red laser light source 201R is, for example, 640 nm, the wavelength of the luminous flux emitted from the green laser light source 201G is, for example, 530 nm, and the wavelength of the luminous flux emitted from the blue laser light source 201B is, for example, 445 nm. ..

本実施形態に係る車載表示装置100では、マイクロレンズアレイ210上に結像される中間像を自車両30のフロントウインドウ21に投射することで、その中間像の拡大画像を運転者20に虚像Gとして視認させる。レーザ光源201R,201G及び201Bから発せられる各色のレーザ光は、それぞれ、コリメータレンズ202,203及び204で略平行光とされた後、2つのダイクロイックミラー205及び206によって合成される。合成されたレーザ光は光量調整部207で光量が調整された後、光走査装置208のミラーによって偏向されることにより、自由曲面ミラー209上を二次元的に走査する。光走査装置208によって偏向されることにより自由曲面ミラー209上を二次元的に走査する走査光L'は自由曲面ミラー209で反射されて歪みを補正された後、マイクロレンズアレイ210に集光され、マイクロレンズアレイ210に中間像G'を描画する。 In the vehicle-mounted display device 100 according to the present embodiment, the intermediate image formed on the microlens array 210 is projected onto the front window 21 of the own vehicle 30, and the enlarged image of the intermediate image is projected to the driver 20 as a virtual image G. Make it visible as. The laser light of each color emitted from the laser light sources 201R, 201G and 201B is made substantially parallel by the collimator lenses 202, 203 and 204, respectively, and then combined by the two dichroic mirrors 205 and 206. The combined laser beam is two-dimensionally scanned on the free curved mirror 209 by being deflected by the mirror of the optical scanning device 208 after the light intensity is adjusted by the light intensity adjusting unit 207. The scanning light L'that scans the free curved mirror 209 two-dimensionally by being deflected by the optical scanning device 208 is reflected by the free curved mirror 209, corrected for distortion, and then focused on the microlens array 210. , An intermediate image G'is drawn on the microlens array 210.

なお、本実施形態では、中間像G'の画素(中間像の一点)ごとの光束を個別に発散させて出射する光発散部材としてマイクロレンズアレイ210を用いているが、他の光発散部材を用いてもよい。また、中間像G'の形成方法としては、液晶ディスプレイ(LCD)や蛍光表示管(VFD)を利用した方式でもよい。ただし、大きな虚像Gを高い輝度で表示させるには、本実施形態のようにレーザ走査方式が好ましい。 In the present embodiment, the microlens array 210 is used as a light diverging member that individually diverges and emits the luminous flux for each pixel (one point of the intermediate image) of the intermediate image G', but other light diverging members are used. You may use it. Further, as a method of forming the intermediate image G', a method using a liquid crystal display (LCD) or a fluorescent display tube (VFD) may be used. However, in order to display the large virtual image G with high brightness, the laser scanning method as in the present embodiment is preferable.

本実施形態のようにレーザ走査方式によれば、虚像Gの表示領域内の非画像部分については、レーザ光源201R,201G及び201Bを消灯させることにより当該非画像部分に光が照射されることを完全に無くすことができる。よって、当該非画像部分を通じた自車両30の前方風景の視認性が車載表示装置100から照射される光によって低下する事態を回避でき、前方風景の視認性をより向上させることができる。さらに、車載表示装置100が表示する虚像Gに含まれる一部画像について部分的に輝度を高めるような表示制御を行う場合も、レーザ走査方式が好適である。 According to the laser scanning method as in the present embodiment, for the non-image portion in the display region of the virtual image G, the non-image portion is irradiated with light by turning off the laser light sources 201R, 201G and 201B. It can be completely eliminated. Therefore, it is possible to avoid a situation in which the visibility of the front scenery of the own vehicle 30 through the non-image portion is lowered by the light emitted from the vehicle-mounted display device 100, and the visibility of the front scenery can be further improved. Further, the laser scanning method is also suitable when performing display control for partially increasing the brightness of a part of the image included in the virtual image G displayed by the vehicle-mounted display device 100.

光走査装置208は、MEMS(Micro Electro Mechanical Systems)等の、公知のアクチュエータ駆動システムでミラーを主走査方向及び副走査方向に傾斜動作させ、ミラーに入射するレーザ光を偏向して自由曲面ミラー209を二次元的に走査(ラスタスキャン)する。ミラーの駆動制御は、レーザ光源201R,201G及び201Bの発光タイミングに同期して行われる。なお光走査装置208は上述した構成に限らず、例えば、互いに直交する2つの軸回りをそれぞれ揺動あるいは回動する2つのミラーを含むミラー系の光走査装置であってもよい。 The optical scanning device 208 tilts the mirror in the main scanning direction and the sub-scanning direction by a known actuator drive system such as MEMS (Micro Electro Mechanical Systems) to deflect the laser beam incident on the mirror and to deflect the laser beam incident on the mirror. Is scanned two-dimensionally (raster scan). The drive control of the mirror is performed in synchronization with the light emission timing of the laser light sources 201R, 201G and 201B. The optical scanning device 208 is not limited to the above-described configuration, and may be, for example, a mirror-type optical scanning device including two mirrors that swing or rotate around two axes orthogonal to each other.

図4は、本発明の一実施形態に係る車載表示装置100が備える制御系250の構成例を示す図である。図4に示すように、制御系250は、FPGA(Field Programmable Gate Array)251、CPU(Central Processing Unit)252、ROM(Read-Only Memory)253、RAM(Random Access Memory)254、インタフェース(以下、I/Fという)255、バスライン256、LDドライバ257及びMEMSコントローラ258を含む。FPGA251は、LDドライバ257を用いて光源ユニット220のレーザ光源201R,201G及び201Bの動作を制御し、MEMSコントローラ258を用いて光走査装置208のMEMS208aの動作を制御する。CPU252は車載表示装置100の各機能を実現する。ROM253は、CPU252が車載表示装置100の各機能を実現するために実行する画像処理用プログラム等の各種プログラムを記憶している。RAM254はCPU252のワークエリアとして使用される。I/F255は、外部コントローラ等と通信するためのインタフェースであり、例えば、自車両30のCAN(Controller Area Network)を介して、車両ナビゲーション装置40、各種センサ50等に接続される。 FIG. 4 is a diagram showing a configuration example of a control system 250 included in the vehicle-mounted display device 100 according to the embodiment of the present invention. As shown in FIG. 4, the control system 250 includes an FPGA (Field Programmable Gate Array) 251, a CPU (Central Processing Unit) 252, a ROM (Read-Only Memory) 253, a RAM (Random Access Memory) 254, and an interface (hereinafter referred to as an interface). Includes 255 (referred to as I / F), bus line 256, LD driver 257 and MEMS controller 258. The FPGA 251 uses the LD driver 257 to control the operation of the laser light sources 201R, 201G and 201B of the light source unit 220, and the MEMS controller 258 to control the operation of the MEMS 208a of the optical scanning device 208. The CPU 252 realizes each function of the vehicle-mounted display device 100. The ROM 253 stores various programs such as an image processing program executed by the CPU 252 in order to realize each function of the vehicle-mounted display device 100. The RAM 254 is used as a work area for the CPU 252. The I / F 255 is an interface for communicating with an external controller or the like, and is connected to the vehicle navigation device 40, various sensors 50, or the like via the CAN (Controller Area Network) of the own vehicle 30, for example.

また、I/F255には、自車両30の前方を撮影する前方撮影用カメラ22、すなわちフロントウインドウ21に映る、車載表示装置100が表示する表示情報を撮影するとともに、その背景をフロントウインドウ21越しに撮影する前方撮影用カメラ22が接続される。I/F255には更に、運転者20の視点位置を検出するために運転者カメラ23が接続される。制御系250は検出された運転者20の視点位置に基づいて、前方撮影用カメラ22により撮影される表示情報及びその背景の画像に対し画像処理を施すことにより、当該画像を運転者20の視点位置から見たときの画像に変換する。制御系250は例えば運転者カメラ23が撮影した運転者20の頭部の画像を画像解析することによって運転者20の視点位置を検出する。 Further, the I / F 255 captures the display information displayed by the vehicle-mounted display device 100 reflected on the front camera 22 for photographing the front of the own vehicle 30, that is, the front window 21, and the background thereof is captured through the front window 21. The front camera 22 for taking a picture is connected to the window. A driver camera 23 is further connected to the I / F 255 in order to detect the viewpoint position of the driver 20. Based on the detected viewpoint position of the driver 20, the control system 250 performs image processing on the display information captured by the forward shooting camera 22 and the background image thereof, so that the image is obtained from the viewpoint of the driver 20. Converts to an image when viewed from the position. The control system 250 detects the viewpoint position of the driver 20 by performing image analysis of an image of the head of the driver 20 taken by the driver camera 23, for example.

図5は、本発明の一実施形態に係る車載表示装置100及び周辺装置の概略構成例を示す図である。本実施形態においては、虚像Gによって運転者20へ提供される運転者提供情報を取得する情報取得部として車両ナビゲーション装置40、センサ50等が設けられている。車載表示装置100は、主に、表示部の一例である光学系230と、制御部の一例である制御系250とを含む。 FIG. 5 is a diagram showing a schematic configuration example of an in-vehicle display device 100 and a peripheral device according to an embodiment of the present invention. In the present embodiment, the vehicle navigation device 40, the sensor 50, and the like are provided as an information acquisition unit that acquires the driver-provided information provided to the driver 20 by the virtual image G. The in-vehicle display device 100 mainly includes an optical system 230 which is an example of a display unit and a control system 250 which is an example of a control unit.

本実施形態に係る車両ナビゲーション装置40としては、自動車等に搭載される公知の車両ナビゲーション装置を広く利用することができる。車両ナビゲーション装置40からは、虚像Gとして表示させるルートナビゲーション画像を生成するために用いられる情報が出力され、この情報は制御系250に入力される。ルートナビゲーション画像には、例えば、図1に示すように、自車両30が走行している道路の車線(走行レーン)の数、次に進路変更(右折、左折、分岐等)すべき地点までの距離、次に進路変更する方向等の情報を示す画像が含まれている。これらの情報が車両ナビゲーション装置40から制御系250に入力される。その結果、制御系250の制御の下、車載表示装置100が、走行レーン指示画像711、車間距離提示画像712、進路指定画像721、残り距離画像722、交差点等名称画像723等のルートナビゲーション画像を虚像Gとして上段画像表示領域Aに表示する。 As the vehicle navigation device 40 according to the present embodiment, a known vehicle navigation device mounted on an automobile or the like can be widely used. Information used for generating a route navigation image to be displayed as a virtual image G is output from the vehicle navigation device 40, and this information is input to the control system 250. In the route navigation image, for example, as shown in FIG. 1, the number of lanes (traveling lanes) on the road on which the own vehicle 30 is traveling, and then to the point where the course should be changed (turn right, turn left, branch, etc.). An image showing information such as the distance and then the direction to change the course is included. This information is input from the vehicle navigation device 40 to the control system 250. As a result, under the control of the control system 250, the vehicle-mounted display device 100 displays a route navigation image such as a traveling lane instruction image 711, an inter-vehicle distance presentation image 712, a route designation image 721, a remaining distance image 722, and an intersection name image 723. It is displayed as a virtual image G in the upper image display area A.

また、図1に示した画像例では、車載表示装置100が下段画像表示領域Bに、道路の固有情報(道路名、制限速度等)を示す画像を虚像Gとして表示する。この道路の固有情報も、車両ナビゲーション装置40から制御系250に入力される。その結果、制御系250の制御の下、車載表示装置100が、当該道路固有情報に対応する道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703等を虚像として下段画像表示領域Bに表示する。 Further, in the image example shown in FIG. 1, the vehicle-mounted display device 100 displays an image showing unique information of the road (road name, speed limit, etc.) as a virtual image G in the lower image display area B. The unique information of this road is also input from the vehicle navigation device 40 to the control system 250. As a result, under the control of the control system 250, the in-vehicle display device 100 sets the road name display image 701, the speed limit display image 702, the overtaking prohibition display image 703, and the like corresponding to the road-specific information as virtual images in the lower image display area B. Display on.

図5のセンサ50は、自車両30の挙動、自車両30の状態、自車両30の周辺の状況等を示す各種情報を検出するための1又は2以上のセンサを含む。センサ50からは、虚像Gとして表示させる画像を生成するために用いられるセンシング情報が出力され、このセンシング情報は制御系250に入力される。例えば、図1に示した画像例では、自車両30の車速を示す車速表示画像704(図1の例では「83km/h」という文字画像)を、車載表示装置100が虚像として下段画像表示領域Bに表示する。すなわち、自車両30のCAN情報に含まれる車速情報がセンサ50から制御系250に入力され、制御系250の制御の下、車載表示装置100が当該車速を示す文字画像を虚像Gとして下段画像表示領域Bに表示する。 The sensor 50 of FIG. 5 includes one or more sensors for detecting various information indicating the behavior of the own vehicle 30, the state of the own vehicle 30, the situation around the own vehicle 30, and the like. The sensor 50 outputs sensing information used to generate an image to be displayed as a virtual image G, and this sensing information is input to the control system 250. For example, in the image example shown in FIG. 1, the vehicle speed display image 704 (character image "83 km / h" in the example of FIG. 1) showing the vehicle speed of the own vehicle 30 is displayed as a virtual image in the lower image display area. Display on B. That is, the vehicle speed information included in the CAN information of the own vehicle 30 is input from the sensor 50 to the control system 250, and under the control of the control system 250, the vehicle-mounted display device 100 displays a character image indicating the vehicle speed as a virtual image G in the lower row. Display in area B.

センサ50は、自車両30の車速を検出するセンサ以外には、例えば、(1)自車両30の周辺(前方、側方又は後方)に存在する他車両、歩行者又は建造物(ガードレールや電柱等)との距離を検出するレーザレーダ装置や撮像装置、自車両の外部環境情報(外気温、明るさ、天候等)を検出するためのセンサ、(2)運転者20の運転動作(ブレーキ操作、アクセル開閉度等)を検出するためのセンサ、(3)自車両30の燃料タンク内の燃料残量を検出するためのセンサ、(4)エンジンやバッテリー等の各種車載機器の状態を検出するセンサ等を含んでよい。センサ50が検出した情報を制御系250へ送ることで、車載表示装置100が情報を虚像Gとして表示して運転者20へ提供することができる。 In addition to the sensor that detects the vehicle speed of the own vehicle 30, the sensor 50 may include, for example, (1) other vehicles, pedestrians, or structures (guard rails or electric poles) existing around the own vehicle 30 (front, side, or rear). Etc.), a laser radar device or an image pickup device that detects the distance to the vehicle, a sensor for detecting the external environmental information (outside temperature, brightness, weather, etc.) of the own vehicle, (2) the driving operation of the driver 20 (brake operation) , Sensor for detecting accelerator opening / closing degree, etc.), (3) Sensor for detecting the remaining amount of fuel in the fuel tank of the own vehicle 30, (4) Detecting the state of various in-vehicle devices such as the engine and battery. It may include a sensor or the like. By sending the information detected by the sensor 50 to the control system 250, the vehicle-mounted display device 100 can display the information as a virtual image G and provide it to the driver 20.

次に、車載表示装置100によって表示される虚像Gについて説明する。本実施形態における車載表示装置100において、虚像Gによって運転者20へ提供される運転者提供情報は、運転者20にとって有用な情報であればどのような情報であってもよい。本実施形態では、便宜上、運転者提供情報を受動情報と能動情報とに大別する。 Next, the virtual image G displayed by the vehicle-mounted display device 100 will be described. In the vehicle-mounted display device 100 of the present embodiment, the driver-provided information provided to the driver 20 by the virtual image G may be any information as long as it is useful information for the driver 20. In the present embodiment, for convenience, the driver-provided information is roughly classified into passive information and active information.

受動情報とは、所定の情報提供条件が満たされたタイミングで運転者20によって受動的に認知される情報である。したがって、車載表示装置100が有する設定タイミングで運転者20へ提供される情報は受動情報に含まれる。また、情報が提供されるタイミングと提供する情報の内容との間に一定の関係性を有する情報も受動情報に含まれる。受動情報としては、例えば、運転時の安全性に関わる情報、ルートナビゲーション情報等が挙げられる。運転時の安全性に関わる情報として、自車両30と先行車両350との車間距離を示す情報(車間距離提示画像712)、運転に関わる緊急性のある情報(運転者に緊急操作を指示する緊急操作指示情報等の警告情報あるいは注意喚起情報等)等がある。また、ルートナビゲーション情報は、予め設定された目的地までの走行ルートを案内するための情報であり、公知の車両ナビゲーション装置によって運転者へ提供される情報と同様の情報であってよい。ルートナビゲーション情報としては、直近の交差点で走行すべき走行レーンを指示する走行レーン指示情報(走行レーン指示画像711)や、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示情報等が挙げられる。進路変更操作指示情報として、交差点等においていずれの進路をとるべきかを指定する進路指定を行う進路指定情報(進路指定画像721)、進路変更操作を行う交差点等までの残り距離を示す情報(残り距離画像722)、交差点等の名称を示す情報(交差点等名称画像723)等がある。 The passive information is information that is passively recognized by the driver 20 at the timing when a predetermined information provision condition is satisfied. Therefore, the information provided to the driver 20 at the set timing of the vehicle-mounted display device 100 is included in the passive information. In addition, passive information also includes information having a certain relationship between the timing at which the information is provided and the content of the information to be provided. Examples of passive information include information related to safety during driving, route navigation information, and the like. As information related to safety during driving, information indicating the distance between the own vehicle 30 and the preceding vehicle 350 (inter-vehicle distance presentation image 712) and urgent information related to driving (emergency to instruct the driver to perform an emergency operation). There is warning information such as operation instruction information or warning information). Further, the route navigation information is information for guiding a traveling route to a preset destination, and may be the same information as the information provided to the driver by a known vehicle navigation device. As the route navigation information, the travel lane instruction information (travel lane instruction image 711) that indicates the travel lane to be traveled at the nearest intersection, and the route change operation at the intersection or branch point that should be changed from the straight direction next. Examples include information on instructions for changing the course to be instructed. As the course change operation instruction information, the course designation information (course designation image 721) for specifying the course to specify which course should be taken at the intersection, etc., and the information indicating the remaining distance to the intersection, etc. for the course change operation (remaining). There are distance images 722), information indicating the names of intersections, etc. (intersection name images 723), and the like.

能動情報とは、運転者自らが決めるタイミングで運転者20によって能動的に認知される情報である。能動情報は、運転者20の希望するタイミングで運転者へ提供されれば十分な情報であり、例えば、情報が提供されるタイミングと情報の内容との間の関係性が低いか又はそのような関係性が無いような情報は能動情報に含まれる。能動情報は、運転者20の希望するタイミングで運転者20が取得する情報であることから、ある程度の長い期間あるいは常時、表示され続けるような情報である。例えば、自車両30が走行している道路の固有情報、自車両30の車速情報(車速表示画像704)、現在時刻情報等が挙げられる。道路の固有情報としては、例えば、その道路名を示す情報(道路名表示画像701)、その道路の制限速度等の規制内容を示す情報(制限速度表示画像702、追い越し禁止表示画像703)等、当該道路に関わる情報として運転者20にとって有用なものが挙げられる。 The active information is information that is actively recognized by the driver 20 at a timing determined by the driver himself / herself. The active information is sufficient information if it is provided to the driver at the timing desired by the driver 20, for example, the relationship between the timing at which the information is provided and the content of the information is low or such. Information that is not related is included in active information. Since the active information is information acquired by the driver 20 at a timing desired by the driver 20, it is information that is continuously displayed for a long period of time or at all times. For example, unique information on the road on which the own vehicle 30 is traveling, vehicle speed information (vehicle speed display image 704) of the own vehicle 30, current time information, and the like can be mentioned. As the unique information of the road, for example, information indicating the road name (road name display image 701), information indicating the regulation contents such as the speed limit of the road (speed limit display image 702, overtaking prohibition display image 703), etc. Information related to the road includes information useful for the driver 20.

本実施形態では、このように大別される受動情報と能動情報とを、虚像Gを表示可能なそれぞれ対応する表示領域に表示する。具体的には、本実施形態では、車載表示装置100が虚像を表示する領域として上下方向に並んだ2つの表示領域を設定する。これらのうちの上段画像表示領域Aには主に受動情報に対応する受動情報画像を表示し、下段画像表示領域Bには主に能動情報に対応する能動情報画像を表示する。なお、能動情報画像の一部を上段画像表示領域Aに表示させる場合には、上段画像表示領域Aに表示される受動情報画像の視認性を優先する態様で能動情報画像を表示する。 In the present embodiment, the passive information and the active information which are roughly classified in this way are displayed in the corresponding display areas where the virtual image G can be displayed. Specifically, in the present embodiment, the vehicle-mounted display device 100 sets two display areas arranged in the vertical direction as areas for displaying a virtual image. Of these, the upper image display area A mainly displays the passive information image corresponding to the passive information, and the lower image display area B mainly displays the active information image corresponding to the active information. When a part of the active information image is displayed in the upper image display area A, the active information image is displayed in a manner in which the visibility of the passive information image displayed in the upper image display area A is prioritized.

また、本実施形態においては、車載表示装置100が表示する虚像Gとして、立体視を用いて表現された立体視画像を用いる。具体的には、車載表示装置100が虚像を表示する上段画像表示領域Aに表示される車間距離提示画像712及び走行レーン指示画像711として、遠近法により表現される遠近法画像を用いる。 Further, in the present embodiment, a stereoscopic image expressed by using stereoscopic vision is used as the virtual image G displayed by the vehicle-mounted display device 100. Specifically, the perspective image represented by the perspective method is used as the inter-vehicle distance presentation image 712 and the traveling lane instruction image 711 displayed in the upper image display area A on which the vehicle-mounted display device 100 displays a virtual image.

詳しくは、車間距離提示画像712に含まれる5本の横線の長さを上側に向かうほど短くなるように表示する。すなわち車間距離提示画像712を、1つの消失点に向かうように透視図法により作図された遠近法画像としている。特に、本実施形態では、その消失点が運転者20の注視点近傍に定まるように車間距離提示画像712が形成される。その結果、運転中の運転者20に車間距離提示画像712の奥行き感を知覚させやすい。また、本実施形態では、更に、遠近法画像としての車間距離提示画像712を、横線の太さが上側に向かうほど細くなり、あるいは横線の輝度が上側に向かうほど低くなる態様で表示する。その結果、運転中の運転者20は、車間距離提示画像712の奥行き感を更に知覚しやすくなる。 Specifically, the lengths of the five horizontal lines included in the inter-vehicle distance presentation image 712 are displayed so as to become shorter toward the upper side. That is, the inter-vehicle distance presentation image 712 is a perspective image drawn by a perspective projection method so as to go toward one vanishing point. In particular, in the present embodiment, the inter-vehicle distance presentation image 712 is formed so that the vanishing point is determined in the vicinity of the gazing point of the driver 20. As a result, it is easy for the driving driver 20 to perceive the sense of depth of the inter-vehicle distance presentation image 712. Further, in the present embodiment, the inter-vehicle distance presentation image 712 as a perspective image is displayed in such a manner that the thickness of the horizontal line becomes thinner toward the upper side or the brightness of the horizontal line becomes lower toward the upper side. As a result, the driver 20 who is driving can more easily perceive the sense of depth of the inter-vehicle distance presentation image 712.

(車載表示装置100の機能構成)
図6は、本発明の一実施形態に係る車載表示装置100の機能構成を示す図である。図6に示す車載表示装置100は、図1〜図5を参照して説明したように、自動車等の車両(自車両30)に搭載される装置である。
(Functional configuration of in-vehicle display device 100)
FIG. 6 is a diagram showing a functional configuration of an in-vehicle display device 100 according to an embodiment of the present invention. The vehicle-mounted display device 100 shown in FIG. 6 is a device mounted on a vehicle (own vehicle 30) such as an automobile, as described with reference to FIGS. 1 to 5.

車載表示装置100は、自車両30の周囲に存在する移動体を検出し、当該移動体の移動方向およびリスク度を表す画像を、車室内の運転者による視認可能な位置(例えば、フロントウインドウ)に表示することができる。なお、車載表示装置100によって検出される移動体としては、他車両、人物、動物等が挙げられる。 The in-vehicle display device 100 detects a moving body existing around the own vehicle 30, and displays an image showing the moving direction and the degree of risk of the moving body at a position (for example, a front window) that can be visually recognized by the driver in the vehicle interior. Can be displayed on. Examples of the moving body detected by the vehicle-mounted display device 100 include other vehicles, people, animals, and the like.

図6に示すように、車載表示装置100は、車両情報取得部102、環境情報取得部104、移動体検出部111、移動方向特定部112、リスク度判定部113、走行車線検出部114、画像生成部115、視点位置検出部116、表示制御部117、およびヘッドアップディスプレイ120を備える。 As shown in FIG. 6, the vehicle-mounted display device 100 includes a vehicle information acquisition unit 102, an environment information acquisition unit 104, a moving body detection unit 111, a movement direction identification unit 112, a risk degree determination unit 113, a traveling lane detection unit 114, and an image. It includes a generation unit 115, a viewpoint position detection unit 116, a display control unit 117, and a head-up display 120.

車両情報取得部102は、自車両30に関する情報(以下、「自車両情報」と示す)を取得する。例えば、車両情報取得部102は、自車両30が備えるECU(Electronic Control Unit)から、CAN(Controller Area Network)を介して、自車両情報を取得する。車両情報取得部102によって取得される自車両情報としては、例えば、車速情報、ハンドル操舵角情報等が挙げられる。 The vehicle information acquisition unit 102 acquires information about the own vehicle 30 (hereinafter, referred to as “own vehicle information”). For example, the vehicle information acquisition unit 102 acquires the own vehicle information from the ECU (Electronic Control Unit) included in the own vehicle 30 via the CAN (Controller Area Network). Examples of the own vehicle information acquired by the vehicle information acquisition unit 102 include vehicle speed information, steering angle information, and the like.

環境情報取得部104は、自車両30の周辺の環境に関する情報(以下、「環境情報」と示す)を取得する。例えば、環境情報取得部104は、環境情報の一例として、前方撮影用カメラ22によって撮像された自車両30の前方の画像(以下、「前方画像」と示す)を取得する。また、例えば、環境情報取得部104は、環境情報の一例として、自車両30に搭載された距離センサ(図示省略)によって検出された、自車両30の前方の物体までの距離を表す距離情報を取得する。なお、環境情報取得部104は、少なくとも一部の環境情報を、車両の外部(例えば、他車両、周辺設置物等)から、無線通信を介して取得してもよい。例えば、環境情報取得部104は、移動体の位置情報、移動体の進行方向情報等を、他車両、周辺設置物等から無線通信を介して取得してもよい。 The environmental information acquisition unit 104 acquires information on the environment around the own vehicle 30 (hereinafter referred to as "environmental information"). For example, the environmental information acquisition unit 104 acquires an image in front of the own vehicle 30 (hereinafter, referred to as “front image”) captured by the front camera 22 as an example of environmental information. Further, for example, the environmental information acquisition unit 104 obtains distance information indicating the distance to an object in front of the own vehicle 30 detected by a distance sensor (not shown) mounted on the own vehicle 30 as an example of the environmental information. get. The environmental information acquisition unit 104 may acquire at least a part of the environmental information from the outside of the vehicle (for example, another vehicle, peripheral installations, etc.) via wireless communication. For example, the environmental information acquisition unit 104 may acquire the position information of the moving body, the traveling direction information of the moving body, and the like from other vehicles, peripheral installations, and the like via wireless communication.

移動体検出部111は、環境情報取得部104によって取得された環境情報に基づいて、自車両30の周辺に存在する移動体を検出する。例えば、移動体検出部111は、環境情報取得部104によって取得された自車両30の前方の画像(すなわち、前方撮影用カメラ22によって撮像された自車両30の前方の画像。以下、「前方画像」と示す)に対して、公知の画像認識処理を行うことにより、自車両30の周辺に存在する移動体(例えば、他車両、人物等)を検出する。但し、この方法に限らず、移動体検出部111は、その他の情報(例えば、距離センサによって取得された距離情報、外部から無線通信を介して取得された移動体の位置情報等)に基づいて、自車両30の周辺に存在する移動体を検出してもよい。これにより、移動体検出部111は、前方画像に写し出されていない移動体についても、検出することができる。 The mobile body detection unit 111 detects a mobile body existing in the vicinity of the own vehicle 30 based on the environmental information acquired by the environmental information acquisition unit 104. For example, the moving object detection unit 111 is an image of the front of the own vehicle 30 acquired by the environmental information acquisition unit 104 (that is, an image of the front of the own vehicle 30 captured by the front camera 22. By performing a known image recognition process on (shown), a moving body (for example, another vehicle, a person, etc.) existing around the own vehicle 30 is detected. However, not limited to this method, the mobile body detection unit 111 is based on other information (for example, distance information acquired by the distance sensor, position information of the mobile body acquired from the outside via wireless communication, etc.). , A moving body existing around the own vehicle 30 may be detected. As a result, the moving body detection unit 111 can detect even a moving body that is not projected on the front image.

移動方向特定部112は、環境情報取得部104によって取得された環境情報に基づいて、移動体検出部111によって検出された移動体の移動方向を特定する。例えば、移動体検出部111は、環境情報取得部104によって時系列に取得された複数の前方画像における、移動体の位置や大きさなどの変化に基づいて、移動体の移動方向を特定する。但し、この方法に限らず、移動方向特定部112は、その他の情報(例えば、距離センサによって取得された距離情報、外部から無線通信を介して取得された移動体の進行方向情報等)に基づいて、移動体の移動方向を特定してもよい。これにより、移動体検出部111は、前方画像に写し出されていない移動体についても、移動方向を特定することができる。また、移動方向特定部112は、自車両30に対する移動体の相対的な移動方向を、他車両の移動方向として特定してもよい。例えば、自車両30の前方を走行中の他車両が停止して、当該他車両が自車両30に接近してくる場合、移動方向特定部112は、他車両が自車両30に向ってくる方向を、他車両の移動方向として特定してもよい。 The moving direction specifying unit 112 specifies the moving direction of the moving body detected by the moving body detecting unit 111 based on the environmental information acquired by the environmental information acquisition unit 104. For example, the moving body detection unit 111 specifies the moving direction of the moving body based on changes in the position, size, and the like of the moving body in the plurality of front images acquired in time series by the environmental information acquisition unit 104. However, not limited to this method, the moving direction specifying unit 112 is based on other information (for example, distance information acquired by a distance sensor, traveling direction information of a moving body acquired from the outside via wireless communication, etc.). The moving direction of the moving body may be specified. As a result, the moving body detection unit 111 can specify the moving direction even for the moving body that is not projected on the front image. Further, the moving direction specifying unit 112 may specify the moving direction of the moving body relative to the own vehicle 30 as the moving direction of another vehicle. For example, when another vehicle traveling in front of the own vehicle 30 stops and the other vehicle approaches the own vehicle 30, the movement direction specifying unit 112 indicates the direction in which the other vehicle faces the own vehicle 30. May be specified as the moving direction of another vehicle.

リスク度判定部113は、環境情報取得部104によって取得された環境情報等に基づいて、移動体検出部111によって検出された移動体のリスク度を判定する。例えば、リスク度判定部113は、移動体検出部111によって検出された移動体の位置が、運転者によって視認され難い位置である場合(例えば、前方の車両や障害物等によって隠れた位置である場合)、当該移動体のリスク度を高く判定する。また、例えば、リスク度判定部113は、移動体検出部111によって検出された移動体が、自車両30に近接している場合、当該移動体のリスク度を高く判定する。但し、これらの方法に限らず、リスク度判定部113は、その他のリスク要因(例えば、移動体の速度、移動体の動き、移動体の種別、天候、時間帯、走行場所等)に基づいて、移動体のリスク度を判定してもよい。 The risk level determination unit 113 determines the risk level of the moving body detected by the moving body detecting unit 111 based on the environmental information or the like acquired by the environmental information acquisition unit 104. For example, the risk degree determination unit 113 is a position where the position of the moving body detected by the moving body detecting unit 111 is difficult to be visually recognized by the driver (for example, a position hidden by a vehicle or an obstacle in front). If), the risk level of the moving object is judged to be high. Further, for example, when the moving body detected by the moving body detecting unit 111 is close to the own vehicle 30, the risk level determining unit 113 determines the risk level of the moving body to be high. However, not limited to these methods, the risk level determination unit 113 is based on other risk factors (for example, the speed of the moving body, the movement of the moving body, the type of the moving body, the weather, the time zone, the traveling place, etc.). , The degree of risk of the moving object may be determined.

走行車線検出部114は、環境情報取得部104によって取得された環境情報に基づいて、移動体検出部111によって検出された移動体(他車両)の走行車線を検出する。例えば、走行車線検出部114は、環境情報取得部104によって取得された前方画像から、公知の画像認識技術を用いて、複数の走行車線(例えば、自車両30の走行車線、自車両30の走行車線と並行する他の走行車線、反対車線等)を検出する。そして、走行車線検出部114は、移動体検出部111によって検出された移動体の位置情報等に基づいて、前方画像から検出された複数の走行車線の中から、移動体(他車両)の走行車線を検出する。 The traveling lane detection unit 114 detects the traveling lane of the moving body (other vehicle) detected by the moving body detecting unit 111 based on the environmental information acquired by the environmental information acquisition unit 104. For example, the traveling lane detection unit 114 uses a known image recognition technique from the front image acquired by the environmental information acquisition unit 104 to use a plurality of traveling lanes (for example, the traveling lane of the own vehicle 30, the traveling of the own vehicle 30). Detect other driving lanes parallel to the lane, opposite lane, etc.). Then, the traveling lane detection unit 114 travels the moving body (another vehicle) from among the plurality of traveling lanes detected from the front image based on the position information of the moving body detected by the moving body detecting unit 111. Detect lanes.

画像生成部115は、移動方向特定部112によって特定された移動体の移動方向に基づいて、当該移動方向を表す画像(以下、「移動方向画像」と示す)を生成する。例えば、画像生成部115は、自車両30の運転者の視点位置から見た移動体の移動方向を表す矢印の図形を用いた画像を、移動方向画像として生成する。ここで、画像生成部115は、リスク度判定部113によって判定されたリスク度に応じた、色、形状、サイズ、および動きの少なくともいずれか一つを有する、移動方向画像を生成することができる。これにより、画像生成部115は、移動体のリスク度を、運転者に対して視覚的に容易に把握させることが可能な、移動方向画像を生成することができる。例えば、画像生成部115は、リスク度が「中度」である場合、「注意」を意味する黄色の矢印の図形を用いた移動方向画像を生成し、リスク度が「高度」である場合、「危険」を意味する赤色の矢印の図形を用いた移動方向画像を生成する。また、画像生成部115は、走行車線検出部114によって検出された走行車線の形状に応じた、移動方向画像を生成することができる。すなわち、画像生成部115は、自車両30に近づくにつれて徐々に横幅が大きくなる移動方向画像を生成することができる。 The image generation unit 115 generates an image representing the movement direction (hereinafter, referred to as “movement direction image”) based on the movement direction of the moving body specified by the movement direction specifying unit 112. For example, the image generation unit 115 generates an image using the figure of an arrow indicating the moving direction of the moving body as seen from the viewpoint position of the driver of the own vehicle 30 as a moving direction image. Here, the image generation unit 115 can generate a moving direction image having at least one of color, shape, size, and movement according to the risk degree determined by the risk degree determination unit 113. .. As a result, the image generation unit 115 can generate a moving direction image in which the driver can easily visually grasp the risk level of the moving body. For example, when the risk level is "moderate", the image generation unit 115 generates a moving direction image using the figure of the yellow arrow meaning "attention", and when the risk level is "high", the image generation unit 115 generates a moving direction image. Generate a moving direction image using the figure of the red arrow meaning "danger". Further, the image generation unit 115 can generate a moving direction image according to the shape of the traveling lane detected by the traveling lane detecting unit 114. That is, the image generation unit 115 can generate a moving direction image in which the width gradually increases as the vehicle approaches the own vehicle 30.

視点位置検出部116は、環境情報取得部104によって取得された環境情報に基づいて、公知の方法を用いて、自車両30の運転者の視点位置を検出する。例えば、視点位置検出部116は、カメラによって撮像された車室内の画像から、公知の画像認識技術を用いて、自車両30の運転者の目を画像認識し、画像認識された目の位置を、自車両30の運転者の視点位置として検出する。 The viewpoint position detection unit 116 detects the viewpoint position of the driver of the own vehicle 30 by using a known method based on the environmental information acquired by the environment information acquisition unit 104. For example, the viewpoint position detection unit 116 recognizes the eyes of the driver of the own vehicle 30 from the image of the vehicle interior captured by the camera by using a known image recognition technique, and determines the position of the recognized eyes. , Detected as the viewpoint position of the driver of the own vehicle 30.

表示制御部117は、画像生成部115によって生成された移動方向画像を、ヘッドアップディスプレイ120(光学系230)を用いて、運転者による視認可能な位置(自車両30のフロントウインドウ、または、運転者の前方に設けられた透明板)に表示する。 The display control unit 117 uses the head-up display 120 (optical system 230) to display the moving direction image generated by the image generation unit 115 at a position (front window of the own vehicle 30 or driving) that can be visually recognized by the driver. Display on the transparent plate provided in front of the person.

ここで、表示制御部117は、画像生成部115によって生成された移動方向画像を、視点位置検出部116によって検出された自車両30の運転者の視点位置に基づいて、自車両30の運転者から見て、移動体検出部111によって検出された移動体の走行車線と重なる位置に表示することができる。加えて、表示制御部117は、画像生成部115によって生成された移動方向画像を、移動体検出部111によって検出された移動体よりも、当該移動体の移動方向側に表示することができる。 Here, the display control unit 117 uses the moving direction image generated by the image generation unit 115 based on the viewpoint position of the driver of the own vehicle 30 detected by the viewpoint position detection unit 116, and the driver of the own vehicle 30. It can be displayed at a position overlapping the traveling lane of the moving body detected by the moving body detecting unit 111. In addition, the display control unit 117 can display the moving direction image generated by the image generation unit 115 on the moving direction side of the moving body with respect to the moving body detected by the moving body detecting unit 111.

例えば、表示制御部117は、自車両30の前方(すなわち、自車両30の走行車線と同車線)を走行中の他車両が停止して、当該他車両が自車両30に接近してくる場合、画像生成部115によって生成された移動方向画像を、運転者から見て、自車両30の走行車線と重なる位置、且つ、他車両の後方に表示することができる。 For example, in the display control unit 117, when another vehicle traveling in front of the own vehicle 30 (that is, in the same lane as the own vehicle 30) stops and the other vehicle approaches the own vehicle 30. The moving direction image generated by the image generation unit 115 can be displayed at a position overlapping the traveling lane of the own vehicle 30 and behind the other vehicle when viewed from the driver.

また、例えば、表示制御部117は、反対車線を走行中の他車両が、自車両30に接近してくる場合、画像生成部115によって生成された移動方向画像を、運転者から見て、反対車線と重なる位置、且つ、他車両の前方に表示することができる。 Further, for example, when another vehicle traveling in the opposite lane approaches the own vehicle 30, the display control unit 117 sees the moving direction image generated by the image generation unit 115 from the driver and opposes it. It can be displayed at a position overlapping the lane and in front of another vehicle.

なお、表示制御部117は、車両情報取得部102によって取得された各種自車両情報(例えば、車速情報、ハンドル操舵角情報等)、および、環境情報取得部104によって取得された各種環境情報を、ヘッドアップディスプレイ120(光学系230)を用いて、車両のフロントウインドウ(または、透明板)に表示することもできる。 The display control unit 117 obtains various own vehicle information (for example, vehicle speed information, steering angle information, etc.) acquired by the vehicle information acquisition unit 102, and various environmental information acquired by the environmental information acquisition unit 104. The head-up display 120 (optical system 230) can also be used to display the information on the front window (or transparent plate) of the vehicle.

本実施形態では、表示装置の一例として、ヘッドアップディスプレイ120(光学系230)を用いているが、これに限らない。例えば、表示装置として、メータパネル、ナビゲーション装置等を用いてもよい。また、表示装置は、車載表示装置100の本体に一体的に設けられたものであってもよく、車載表示装置100の本体に外部接続されたものであってもよい。 In the present embodiment, the head-up display 120 (optical system 230) is used as an example of the display device, but the present invention is not limited to this. For example, a meter panel, a navigation device, or the like may be used as the display device. Further, the display device may be integrally provided on the main body of the vehicle-mounted display device 100, or may be externally connected to the main body of the vehicle-mounted display device 100.

なお、車載表示装置100は、図4に示すように、CPU252、ROM253、RAM254等を備えたコンピュータを有する。そして、車載表示装置100は、CPU252が、RAM254を記憶領域として用いて、ROM253に格納されたプログラムを実行することにより、上記各機能を実現する。 As shown in FIG. 4, the vehicle-mounted display device 100 includes a computer equipped with a CPU 252, a ROM 253, a RAM 254, and the like. Then, the in-vehicle display device 100 realizes each of the above functions by the CPU 252 using the RAM 254 as a storage area and executing the program stored in the ROM 253.

また、車載表示装置100の上記複数の機能は、物理的に1台の装置によって実現されてもよく、物理的に複数台の装置によって実現されてもよい。また、上記複数の機能のうちの一部は、他の装置(例えば、ECU、外部サーバ等)に設けられたものを利用することによって実現されてもよい。 Further, the plurality of functions of the vehicle-mounted display device 100 may be physically realized by one device, or may be physically realized by a plurality of devices. Further, some of the above-mentioned plurality of functions may be realized by using those provided in other devices (for example, ECU, external server, etc.).

(車載表示装置100による処理の手順)
図7は、本発明の一実施形態に係る車載表示装置100による処理の手順を示すフローチャートである。
(Procedure for processing by the in-vehicle display device 100)
FIG. 7 is a flowchart showing a processing procedure by the vehicle-mounted display device 100 according to the embodiment of the present invention.

まず、環境情報取得部104が、各種環境情報を取得する(ステップS701)。次に、移動体検出部111が、ステップS701で取得された環境情報に基づいて、自車両30の周辺に存在する移動体を検出するための検出処理を行う(ステップS702)。そして、移動体検出部111が、ステップS702の検出処理において、移動体が検出されたか否かを判断する(ステップS703)。 First, the environmental information acquisition unit 104 acquires various environmental information (step S701). Next, the moving body detection unit 111 performs a detection process for detecting a moving body existing in the vicinity of the own vehicle 30 based on the environmental information acquired in step S701 (step S702). Then, the moving body detection unit 111 determines whether or not the moving body is detected in the detection process of step S702 (step S703).

ステップS703において、移動体が検出されなかったと判断された場合、(ステップS703:No)、車載表示装置100は、図7に示す一連の処理を終了する。 If it is determined in step S703 that no moving object is detected (step S703: No), the vehicle-mounted display device 100 ends a series of processes shown in FIG. 7.

一方、ステップS703において、移動体が検出されたと判断された場合、(ステップS703:Yes)、移動方向特定部112が、ステップS701で取得された環境情報に基づいて、ステップS702の検出処理で検出された移動体の移動方向を特定する(ステップS704)。 On the other hand, when it is determined in step S703 that the moving body is detected (step S703: Yes), the moving direction specifying unit 112 detects it in the detection process of step S702 based on the environmental information acquired in step S701. The moving direction of the moved body is specified (step S704).

また、リスク度判定部113が、ステップS701で取得された環境情報等に基づいて、ステップS702の検出処理で検出された移動体のリスク度を判定する(ステップS705)。 Further, the risk degree determination unit 113 determines the risk degree of the moving body detected in the detection process of step S702 based on the environmental information or the like acquired in step S701 (step S705).

そして、リスク度判定部113が、ステップS705で判定されたリスク度が所定の閾値以上であるか否かを判断する(ステップS706)。 Then, the risk degree determination unit 113 determines whether or not the risk degree determined in step S705 is equal to or higher than a predetermined threshold value (step S706).

ステップS706において、リスク度が所定の閾値以上ではないと判断された場合、(ステップS706:No)、車載表示装置100は、図7に示す一連の処理を終了する。 If it is determined in step S706 that the risk level is not equal to or higher than a predetermined threshold value (step S706: No), the vehicle-mounted display device 100 ends a series of processes shown in FIG. 7.

一方、ステップS706において、リスク度が所定の閾値以上であると判断された場合、(ステップS706:Yes)、走行車線検出部114が、ステップS701で取得された環境情報に基づいて、移動体検出部111によって検出された移動体(他車両)の走行車線を検出する(ステップS707)。 On the other hand, if it is determined in step S706 that the risk level is equal to or higher than a predetermined threshold value (step S706: Yes), the traveling lane detection unit 114 detects a moving object based on the environmental information acquired in step S701. The traveling lane of the moving body (other vehicle) detected by the unit 111 is detected (step S707).

また、視点位置検出部116が、ステップS701で取得された環境情報に基づいて、公知の方法を用いて、自車両30の運転者の視点位置を検出する(ステップS708)。 Further, the viewpoint position detection unit 116 detects the viewpoint position of the driver of the own vehicle 30 by using a known method based on the environmental information acquired in step S701 (step S708).

そして、画像生成部115が、ステップS704で特定された移動体の移動方向と、ステップS708で検出された自車両30の運転者の視点位置とに基づいて、移動体の移動方向を表す移動方向画像を生成する(ステップS709)。この際、画像生成部115は、ステップS705で判定されたリスク度に応じた、移動方向画像を生成することができる。また、画像生成部115は、ステップS707で検出された走行車線の形状に応じた、移動方向画像を生成することができる。 Then, the image generation unit 115 represents the moving direction of the moving body based on the moving direction of the moving body specified in step S704 and the viewpoint position of the driver of the own vehicle 30 detected in step S708. An image is generated (step S709). At this time, the image generation unit 115 can generate a moving direction image according to the degree of risk determined in step S705. In addition, the image generation unit 115 can generate a moving direction image according to the shape of the traveling lane detected in step S707.

さらに、表示制御部117が、ステップS709で生成された移動方向画像を、ヘッドアップディスプレイ120(光学系230)を用いて、運転者による視認可能な位置(自車両30のフロントウインドウ、または、運転者の前方に設けられた透明板)に表示する(ステップS710)。この際、表示制御部117は、ステップS708で生成された移動方向画像を、運転者から見て、ステップS707で検出された移動体の走行車線と重なる位置、且つ、移動体よりも当該移動体の移動方向側に表示する。その後、車載表示装置100は、図7に示す一連の処理を終了する。 Further, the display control unit 117 uses the head-up display 120 (optical system 230) to display the moving direction image generated in step S709 at a position visible to the driver (front window of the own vehicle 30 or driving). It is displayed on a transparent plate provided in front of the person (step S710). At this time, the display control unit 117 views the moving direction image generated in step S708 at a position overlapping the traveling lane of the moving body detected in step S707 when viewed from the driver, and the moving body is more than the moving body. Is displayed on the moving direction side of. After that, the vehicle-mounted display device 100 ends a series of processes shown in FIG. 7.

(移動方向画像の表示例)
図8は、本発明の一実施形態に係る車載表示装置100による移動方向画像の第1表示例を示す図である。図9は、本発明の一実施形態に係る車載表示装置100による移動方向画像の第2表示例を示す図である。図10は、本発明の一実施形態に係る車載表示装置100による移動方向画像の第3表示例を示す図である。
(Display example of moving direction image)
FIG. 8 is a diagram showing a first display example of a moving direction image by the vehicle-mounted display device 100 according to the embodiment of the present invention. FIG. 9 is a diagram showing a second display example of a moving direction image by the vehicle-mounted display device 100 according to the embodiment of the present invention. FIG. 10 is a diagram showing a third display example of a moving direction image by the vehicle-mounted display device 100 according to the embodiment of the present invention.

<第1表示例〜第3表示例の共通点>
図8〜図10は、自車両30の運転者から自車両30のフロントウインドウ越しに見た、自車両30の前方の景色を表している。
<Common points of the first display example to the third display example>
8 to 10 show a view in front of the own vehicle 30 as seen from the driver of the own vehicle 30 through the front window of the own vehicle 30.

図8〜図10に示す例では、自車両30が、走行車線801,802と反対車線803とを有する道路において、走行車線802を走行している。 In the example shown in FIGS. 8 to 10, the own vehicle 30 is traveling in the traveling lane 802 on a road having traveling lanes 801, 802 and opposite lane 803.

また、図8〜図10に示す例では、走行車線802における自車両30の前方に、他車両811が走行している。 Further, in the examples shown in FIGS. 8 to 10, another vehicle 811 is traveling in front of the own vehicle 30 in the traveling lane 802.

また、図8〜図10に示す例では、自車両30の前方において、他車両811が交差点で停止しており、相対的に他車両811が自車両30に接近してくる。 Further, in the examples shown in FIGS. 8 to 10, another vehicle 811 is stopped at an intersection in front of the own vehicle 30, and the other vehicle 811 is relatively close to the own vehicle 30.

また、図8〜図10に示す例では、反対車線803に他車両812が走行している。 Further, in the examples shown in FIGS. 8 to 10, another vehicle 812 is traveling in the opposite lane 803.

また、図8〜図10に示す例では、走行車線検出部114によって、前方撮影用カメラ22によって撮像された前方画像等に基づいて、走行車線801,802と、反対車線803とが検出されている。 Further, in the examples shown in FIGS. 8 to 10, the traveling lane detection unit 114 detects the traveling lanes 801 and 802 and the opposite lane 803 based on the front image captured by the front camera 22. There is.

<第1表示例>
図8に示す第1表示例では、車載表示装置100は、自車両30の前方を走行する他車両811を検出して、他車両811の移動方向およびリスク度を表す移動方向画像821を表示する。
<First display example>
In the first display example shown in FIG. 8, the vehicle-mounted display device 100 detects another vehicle 811 traveling in front of the own vehicle 30 and displays a movement direction image 821 showing the movement direction and the degree of risk of the other vehicle 811. ..

例えば、図8に示す第1表示例では、移動体検出部111によって、自車両30の周辺に存在する移動体として、他車両811が検出されている。 For example, in the first display example shown in FIG. 8, another vehicle 811 is detected as a moving body existing around the own vehicle 30 by the moving body detecting unit 111.

また、図8に示す第1表示例では、相対的に他車両811が自車両30に接近してくることに伴い、リスク度判定部113によって、他車両811のリスク度が、所定の閾値よりも高いリスク度である「中度」に判定されている。 Further, in the first display example shown in FIG. 8, as the other vehicle 811 approaches the own vehicle 30 relatively, the risk degree of the other vehicle 811 is set from a predetermined threshold value by the risk degree determination unit 113. Is also judged to be "moderate", which is a high risk level.

このため、図8に示す第1表示例では、自車両30のフロントウインドウには、ヘッドアップディスプレイ120(光学系230)によって、他車両811の移動方向(自車両30に接近してくる方向)およびリスク度(「中度」)を表す、移動方向画像821が表示されている。 Therefore, in the first display example shown in FIG. 8, the front window of the own vehicle 30 is displayed in the moving direction of the other vehicle 811 (direction approaching the own vehicle 30) by the head-up display 120 (optical system 230). And a moving direction image 821 showing the degree of risk (“moderate”) is displayed.

ここで、移動方向画像821は、リスク度判定部113によって判定された他車両811のリスク度が「中度」であるために、「注意」を意味する黄色の矢印の図形が用いられている。 Here, in the moving direction image 821, since the risk degree of the other vehicle 811 determined by the risk degree determination unit 113 is "moderate", the figure of the yellow arrow meaning "caution" is used. ..

また、移動方向画像821は、自車両30の運転者から見て、自車両30のフロントウインドウにおける、走行車線802と重なる位置、且つ、他車両811よりも他車両811の移動方向側(他車両811の後方)に表示されている。 Further, the moving direction image 821 is a position on the front window of the own vehicle 30 that overlaps with the traveling lane 802 and is closer to the moving direction of the other vehicle 811 than the other vehicle 811 (other vehicle). It is displayed behind 811).

車載表示装置100は、このように移動方向画像821を表示することにより、自車両30の運転者に対して、他車両811のリスク度が「中度」であること、および、他車両811が自車両30に接近してくることを、視覚的に容易に把握させることができる。 By displaying the moving direction image 821 in this way, the in-vehicle display device 100 indicates that the risk level of the other vehicle 811 is "moderate" to the driver of the own vehicle 30, and that the other vehicle 811 has a "moderate" risk. It is possible to visually easily grasp that the vehicle is approaching the own vehicle 30.

<第2表示例>
図9に示す第2表示例では、車載表示装置100は、反対車線803を走行する他車両812を検出して、他車両812の移動方向およびリスク度を表す移動方向画像822を表示する。
<Second display example>
In the second display example shown in FIG. 9, the vehicle-mounted display device 100 detects another vehicle 812 traveling in the opposite lane 803 and displays a movement direction image 822 showing the movement direction and the degree of risk of the other vehicle 812.

例えば、図9に示す第2表示例では、移動体検出部111によって、自車両30の周辺に存在する移動体として、他車両812が検出されている。但し、図9に示す第2表示例では、他車両812は、他車両811によって隠されているため、自車両30の運転者から視認できない。 For example, in the second display example shown in FIG. 9, another vehicle 812 is detected as a moving body existing around the own vehicle 30 by the moving body detecting unit 111. However, in the second display example shown in FIG. 9, since the other vehicle 812 is hidden by the other vehicle 811, it cannot be visually recognized by the driver of the own vehicle 30.

また、図9に示す第2表示例では、他車両812が自車両30に接近してくること、且つ、他車両812が自車両30の運転者から視認できない位置にあることに伴い、リスク度判定部113によって、他車両812のリスク度が、所定の閾値よりも高いリスク度である「高度」に判定されている。 Further, in the second display example shown in FIG. 9, the degree of risk is high because the other vehicle 812 approaches the own vehicle 30 and the other vehicle 812 is in a position invisible to the driver of the own vehicle 30. The determination unit 113 determines that the risk level of the other vehicle 812 is "altitude", which is a risk level higher than a predetermined threshold value.

このため、図9に示す第2表示例では、自車両30のフロントウインドウには、ヘッドアップディスプレイ120(光学系230)によって、他車両812の移動方向(自車両30に接近してくる方向)およびリスク度(「高度」)を表す、移動方向画像822が表示されている。 Therefore, in the second display example shown in FIG. 9, the head-up display 120 (optical system 230) is used on the front window of the own vehicle 30 to move the other vehicle 812 in the moving direction (direction approaching the own vehicle 30). And a moving direction image 822 showing the degree of risk (“altitude”) is displayed.

ここで、移動方向画像822は、リスク度判定部113によって判定された他車両812のリスク度が「高度」であるために、「危険」を意味する赤色の矢印の図形が用いられている。 Here, in the moving direction image 822, since the risk degree of the other vehicle 812 determined by the risk degree determination unit 113 is “high”, the figure of the red arrow meaning “danger” is used.

また、移動方向画像822は、自車両30の運転者から見て、自車両30のフロントウインドウにおける、反対車線803と重なる位置、且つ、他車両812よりも他車両812の移動方向側(他車両812の前方)に表示されている。 Further, the moving direction image 822 is a position on the front window of the own vehicle 30 that overlaps with the opposite lane 803 and is closer to the moving direction of the other vehicle 812 than the other vehicle 812 (other vehicle). It is displayed in front of 812).

車載表示装置100は、このように移動方向画像822を表示することにより、自車両30の運転者に対して、他車両812のリスク度が「高度」であること、および、他車両812が自車両30に接近してくることを、視覚的に容易に把握させることができる。 By displaying the moving direction image 822 in this way, the in-vehicle display device 100 indicates that the risk level of the other vehicle 812 is "altitude" with respect to the driver of the own vehicle 30, and that the other vehicle 812 is itself. It is possible to easily visually grasp that the vehicle is approaching the vehicle 30.

<第3表示例>
図10に示す第3表示例では、車載表示装置100は、図8に示す第1表示例と同様に、自車両30の前方を走行する他車両811を検出して、他車両811の移動方向およびリスク度(「中度」)を表す、黄色の矢印図形を用いた移動方向画像821を、走行車線802と重なる位置に表示する。同時に、車載表示装置100は、図9に示す第2表示例と同様に、反対車線803を走行する他車両812を検出して、他車両812の移動方向およびリスク度(「高度」)を表す、赤色の矢印図形を用いた移動方向画像822を、反対車線803と重なる位置に表示する。
<Third display example>
In the third display example shown in FIG. 10, the vehicle-mounted display device 100 detects another vehicle 811 traveling in front of the own vehicle 30 and moves in the moving direction of the other vehicle 811, similarly to the first display example shown in FIG. And the moving direction image 821 using the yellow arrow figure showing the degree of risk (“moderate”) is displayed at a position overlapping the traveling lane 802. At the same time, the in-vehicle display device 100 detects the other vehicle 812 traveling in the opposite lane 803 and indicates the moving direction and the risk level (“altitude”) of the other vehicle 812, as in the second display example shown in FIG. , The moving direction image 822 using the red arrow figure is displayed at a position overlapping the opposite lane 803.

車載表示装置100は、このように移動方向画像821,822を表示することにより、自車両30の運転者に対して、他車両811と他車両812とが自車両30に接近してくること、他車両811のリスク度が「中度」であること、および、他車両812のリスク度が他車両811のリスク度よりも高い「高度」であることを、視覚的に容易に把握させることができる。 By displaying the moving direction images 821 and 822 in this way, the in-vehicle display device 100 causes the other vehicle 811 and the other vehicle 812 to approach the own vehicle 30 with respect to the driver of the own vehicle 30. It is possible to easily visually understand that the risk level of the other vehicle 811 is "moderate" and that the risk level of the other vehicle 812 is higher than the risk level of the other vehicle 811. can.

なお、第1表示例〜第3表示例において、画像生成部115は、他車両811,812のリスク度に応じた、色、形状、サイズ、およびアニメーション効果(例えば、点滅、輝度変化、色変換、形状変化等)の少なくともいずれか一つを有する、移動方向画像821,822を生成してもよい。画像生成部115は、この場合、リスク度「高度」を表す移動方向画像822の視覚的効果が、リスク度「中度」を表す移動方向画像821の視覚的効果よりも高くなるように、移動方向画像821,822を生成することが好ましい。 In the first display example to the third display example, the image generation unit 115 has a color, a shape, a size, and an animation effect (for example, blinking, brightness change, color conversion) according to the risk degree of other vehicles 811 and 812. , Shape change, etc.), moving direction images 821,822 may be generated. In this case, the image generation unit 115 moves so that the visual effect of the moving direction image 822 representing the risk degree “high” is higher than the visual effect of the moving direction image 821 representing the risk degree “medium”. It is preferable to generate directional images 821 and 822.

以上説明したように、一実施形態に係る車載表示装置100は、自車両30の周辺に存在する移動体を検出する移動体検出部111と、移動体検出部111によって検出された移動体の走行車線を検出する走行車線検出部114と、移動体検出部111によって検出された移動体の移動方向を特定する移動方向特定部112と、移動方向特定部112によって特定された移動方向を表す画像を生成する画像生成部115と、画像生成部115によって生成された移動方向を表す移動方向画像を、ヘッドアップディスプレイ120によって、自車両30の運転者から見て、走行車線検出部114によって検出された移動体の走行車線と重なる位置に表示する表示制御部117とを備える。 As described above, the vehicle-mounted display device 100 according to the embodiment has a moving body detecting unit 111 that detects a moving body existing around the own vehicle 30 and a traveling body detected by the moving body detecting unit 111. An image showing the moving direction specified by the traveling lane detecting unit 114 for detecting the lane, the moving direction specifying unit 112 for specifying the moving direction of the moving body detected by the moving body detecting unit 111, and the moving direction specifying unit 112 is displayed. The image generation unit 115 to be generated and the movement direction image representing the movement direction generated by the image generation unit 115 were detected by the traveling lane detection unit 114 as viewed from the driver of the own vehicle 30 by the head-up display 120. It is provided with a display control unit 117 that displays at a position overlapping the traveling lane of the moving body.

これにより、一実施形態に係る車載表示装置100は、自車両30の運転者に対して、リスクを有する移動体の走行車線および移動方向を、視覚的に容易に把握させることができる。したがって、一実施形態に係る車載表示装置100によれば、車両の運転者に適切なリスクの回避行動を行わせることができる。 As a result, the in-vehicle display device 100 according to the embodiment allows the driver of the own vehicle 30 to easily visually grasp the traveling lane and the traveling direction of the moving body having a risk. Therefore, according to the vehicle-mounted display device 100 according to the embodiment, it is possible to make the driver of the vehicle perform an appropriate risk avoidance action.

また、一実施形態に係る車載表示装置100は、移動体のリスク度を判定するリスク度判定部113をさらに備え、画像生成部115は、リスク度判定部113によって判定された移動体のリスク度に応じた、色、形状、サイズ、および動きの少なくともいずれか一つを有する、移動方向画像を生成する。 Further, the in-vehicle display device 100 according to the embodiment further includes a risk degree determination unit 113 for determining the risk degree of the moving object, and the image generation unit 115 further includes a risk degree determination unit 113 for the moving object determined by the risk degree determination unit 113. Generates a moving direction image having at least one of color, shape, size, and movement, depending on the size of the image.

これにより、一実施形態に係る車載表示装置100は、自車両30の運転者に対して、リスクを有する移動体のリスク度を、視覚的に容易に把握させることができる。したがって、一実施形態に係る車載表示装置100によれば、車両の運転者に適切なリスクの回避行動を行わせることができる。 As a result, the in-vehicle display device 100 according to the embodiment allows the driver of the own vehicle 30 to visually and easily grasp the degree of risk of the moving object having a risk. Therefore, according to the vehicle-mounted display device 100 according to the embodiment, it is possible to make the driver of the vehicle perform an appropriate risk avoidance action.

以上、本発明の好ましい実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or modifications are made within the scope of the gist of the present invention described in the claims. It can be changed.

30 自車両
100 車載表示装置
102 車両情報取得部
104 環境情報取得部
111 移動体検出部
112 移動方向特定部
113 リスク度判定部
114 走行車線検出部
115 画像生成部
116 視点位置検出部
117 表示制御部
120 ヘッドアップディスプレイ
801,802 走行車線
803 反対車線
811,812 他車両
821,822 移動方向画像
30 Own vehicle 100 Vehicle-mounted display device 102 Vehicle information acquisition unit 104 Environmental information acquisition unit 111 Moving object detection unit 112 Movement direction identification unit 113 Risk level determination unit 114 Driving lane detection unit 115 Image generation unit 116 Viewpoint position detection unit 117 Display control unit 120 Head-up display 801,802 Driving lane 803 Opposite lane 811,812 Other vehicles 821,822 Moving direction image

特開2005−202787号公報Japanese Unexamined Patent Publication No. 2005-202787

Claims (5)

自車両の周辺に存在する移動体を検出する移動体検出部と、
前記移動体検出部によって検出された前記移動体の走行車線を検出する走行車線検出部と、
前記移動体検出部によって検出された前記移動体の移動方向を特定する移動方向特定部と、
前記移動方向特定部によって特定された前記移動方向を表す画像を生成する画像生成部と、
前記画像生成部によって生成された前記移動方向を表す画像を、表示装置によって、前記自車両の運転者から見て、前記走行車線検出部によって検出された前記移動体の走行車線と重なる位置に表示する表示制御部と
を備えることを特徴とする車載表示装置。
A moving object detection unit that detects moving objects existing around the own vehicle,
A traveling lane detecting unit that detects a traveling lane of the moving object detected by the moving object detecting unit, and a traveling lane detecting unit.
A moving direction specifying unit that specifies the moving direction of the moving body detected by the moving body detecting unit,
An image generation unit that generates an image representing the movement direction specified by the movement direction specifying unit, and an image generation unit.
The image representing the moving direction generated by the image generating unit is displayed by the display device at a position overlapping the traveling lane of the moving body detected by the traveling lane detection unit as viewed from the driver of the own vehicle. An in-vehicle display device characterized by being provided with a display control unit.
前記移動体のリスク度を判定するリスク度判定部をさらに備え、
前記画像生成部は、
前記リスク度判定部によって判定された前記移動体のリスク度に応じた、色、形状、サイズ、およびアニメーション効果の少なくともいずれか一つを有する、前記移動方向を表す画像を生成する
を備えることを特徴とする請求項1に記載の車載表示装置。
Further equipped with a risk degree determination unit for determining the risk degree of the moving body,
The image generation unit
Provided is to generate an image showing the moving direction having at least one of a color, a shape, a size, and an animation effect according to the risk level of the moving object determined by the risk level determining unit. The vehicle-mounted display device according to claim 1.
前記表示装置は、
前記移動方向を表す画像を前記運転者の前方に表示するヘッドアップディスプレイである
ことを特徴とする請求項1または2に記載の車載表示装置。
The display device is
The vehicle-mounted display device according to claim 1 or 2, wherein the head-up display displays an image showing the moving direction in front of the driver.
前記表示制御部は、
前記移動方向を表す画像を、前記表示装置によって、前記運転者から見て、前記移動体の走行車線と重なる位置、且つ、前記移動体よりも前記移動体の移動方向側の位置に表示する
ことを特徴とする請求項1から3のいずれか一項に記載の車載表示装置。
The display control unit
An image showing the moving direction is displayed by the display device at a position overlapping the traveling lane of the moving body and at a position on the moving direction side of the moving body with respect to the moving body as viewed from the driver. The vehicle-mounted display device according to any one of claims 1 to 3, wherein the vehicle-mounted display device is characterized.
コンピュータを、
自車両の周辺に存在する移動体を検出する移動体検出部、
前記移動体検出部によって検出された前記移動体の走行車線を検出する走行車線検出部、
前記移動体検出部によって検出された前記移動体の移動方向を特定する移動方向特定部、
前記移動方向特定部によって特定された前記移動方向を表す画像を生成する画像生成部、および、
前記画像生成部によって生成された前記移動方向を表す画像を、表示装置によって、前記自車両の運転者から見て、前記走行車線検出部によって検出された前記移動体の走行車線と重なる位置に表示する表示制御部
として機能させるためのプログラム。
Computer,
Mobile body detection unit that detects moving bodies existing around the own vehicle,
A traveling lane detecting unit that detects a traveling lane of the moving object detected by the moving object detecting unit,
A moving direction specifying unit that specifies a moving direction of the moving body detected by the moving body detecting unit,
An image generation unit that generates an image representing the movement direction specified by the movement direction specifying unit, and an image generation unit.
An image representing the moving direction generated by the image generating unit is displayed by a display device at a position overlapping the traveling lane of the moving body detected by the traveling lane detection unit as viewed from the driver of the own vehicle. A program to function as a display control unit.
JP2020010357A 2020-01-24 2020-01-24 In-vehicle display device and program Pending JP2021117703A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020010357A JP2021117703A (en) 2020-01-24 2020-01-24 In-vehicle display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020010357A JP2021117703A (en) 2020-01-24 2020-01-24 In-vehicle display device and program

Publications (1)

Publication Number Publication Date
JP2021117703A true JP2021117703A (en) 2021-08-10

Family

ID=77174948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010357A Pending JP2021117703A (en) 2020-01-24 2020-01-24 In-vehicle display device and program

Country Status (1)

Country Link
JP (1) JP2021117703A (en)

Similar Documents

Publication Publication Date Title
JP6485732B2 (en) Information providing apparatus, information providing method, and information providing control program
US10679496B2 (en) Information providing apparatus
JP6806097B2 (en) Image display device and image display method
US10156728B2 (en) Information provision device, information provision method, and recording medium
JP6690657B2 (en) Image display device and image display method
US10696159B2 (en) Information providing apparatus
JP6512475B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP6516151B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP6504431B2 (en) IMAGE DISPLAY DEVICE, MOBILE OBJECT, IMAGE DISPLAY METHOD, AND PROGRAM
JP7300112B2 (en) Control device, image display method and program
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
JP7027992B2 (en) Image display device, moving object, image display method and program
JP6814416B2 (en) Information providing device, information providing method, and information providing control program
JP2021105989A (en) Onboard display device and program
JP2021117703A (en) In-vehicle display device and program
JP7037764B2 (en) Travel route guidance device, mobile body, travel route guidance method and program
JP7385834B2 (en) Image display method and image display device
JP7054483B2 (en) Information providing device, information providing method and information providing control program
JP6726412B2 (en) Image display device, moving body, image display method and program
JP2021117938A (en) Image display device, image display method, and program
JP2021117987A (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319