JP6610376B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP6610376B2
JP6610376B2 JP2016062078A JP2016062078A JP6610376B2 JP 6610376 B2 JP6610376 B2 JP 6610376B2 JP 2016062078 A JP2016062078 A JP 2016062078A JP 2016062078 A JP2016062078 A JP 2016062078A JP 6610376 B2 JP6610376 B2 JP 6610376B2
Authority
JP
Japan
Prior art keywords
vehicle
display device
captured image
display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016062078A
Other languages
Japanese (ja)
Other versions
JP2017171226A (en
Inventor
幸恵 梅澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2016062078A priority Critical patent/JP6610376B2/en
Publication of JP2017171226A publication Critical patent/JP2017171226A/en
Application granted granted Critical
Publication of JP6610376B2 publication Critical patent/JP6610376B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置に関する。   The present invention relates to a display device.

特許文献1には、車両のフロントガラスなどに表示光を投射することで、前景に重畳させるように画像を表示する表示装置が開示されている。特許文献1に開示された表示装置は、車両前方の対象物(前方対象)を囲むように枠状の捕捉画像(同文献では強調画像)を表示することで、先行車などの存在をユーザに報知する。当該捕捉画像は、対象物に対する捕捉画像の位置ずれを考慮して、対象物の外形と間に間隔が保たれた態様で表示され、具体的には、その間隔が鉛直方向よりも水平方向よりも大きく設定されている。   Patent Document 1 discloses a display device that displays an image so as to be superimposed on a foreground by projecting display light onto a windshield of a vehicle or the like. The display device disclosed in Patent Document 1 displays a frame-shaped captured image (enhanced image in the same document) so as to surround an object (front object) in front of the vehicle, thereby indicating the presence of a preceding vehicle to the user. Inform. The captured image is displayed in a manner in which an interval is maintained between the outer shape of the target object in consideration of the positional deviation of the captured image with respect to the target object. Specifically, the interval is more horizontal than the vertical direction. Is also set larger.

特開2010−120617号公報JP 2010-120617 A

特許文献1に記載の技術では、捕捉画像が対象物に対して大きくなりすぎる場合があり、適切に対象物を報知できない場合がある。当該技術では、具体的には、図8に示すように、自車から見ての先行車W1に対して捕捉画像V1を重畳表示した場合に、ユーザ(主に自車の運転者)の頭部移動等によって表示位置が移動して、捕捉画像V2のように見え、他の先行車W2なども画像の枠内に位置して報知対象のように見えてしまう事態が生じる虞がある。   In the technique described in Patent Literature 1, the captured image may be too large for the target object, and the target object may not be properly notified. Specifically, in the technology, as shown in FIG. 8, when the captured image V1 is superimposed and displayed on the preceding vehicle W1 viewed from the own vehicle, the head of the user (mainly the driver of the own vehicle). There is a possibility that the display position is moved due to part movement or the like and looks like the captured image V2, and the other preceding vehicle W2 or the like is also located within the frame of the image and looks like a notification target.

本発明は、上記実情に鑑みてなされたものであり、適切に前方対象を捕捉画像で捉えることができる表示装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a display device that can appropriately capture a front object with a captured image.

上記目的を達成するため、本発明に係る表示装置は、
乗り物に搭載され、表示手段が表示した画像を表す表示光を透光部材に投射することで、前記透光部材の前方に前記画像の虚像を表示する表示装置であって、
前記乗り物の前方にある前方対象を特定する特定手段と、
前記前方対象と前記乗り物の各々の進行方向を予測する予測手段と、
前記表示手段を制御することで、前記画像内に、前記特定手段が特定した前記前方対象の少なくとも一部と重畳して視認される捕捉画像を表示させる表示制御手段と、を備え、
前記表示制御手段は、前記予測手段が予測した前記前方対象の進行方向と前記乗り物の進行方向とが一致した場合に、当該一致した進行方向側に前記捕捉画像を拡張して表示させる、
ことを特徴とする。
In order to achieve the above object, a display device according to the present invention includes:
A display device that is mounted on a vehicle and displays a virtual image of the image in front of the translucent member by projecting display light representing the image displayed by the display unit onto the translucent member,
Identifying means for identifying a forward object in front of the vehicle;
Predicting means for predicting the traveling direction of each of the forward object and the vehicle;
Display control means for controlling the display means to display, in the image, a captured image that is visually recognized and superimposed on at least a part of the front object specified by the specifying means,
The display control means expands and displays the captured image on the matched traveling direction side when the traveling direction of the front object predicted by the predicting means matches the traveling direction of the vehicle.
It is characterized by that.

本発明によれば、適切に前方対象を捕捉画像で捉えることができる。   According to the present invention, it is possible to appropriately capture a front object with a captured image.

本発明の一実施形態に係る車両用表示システムのブロック図である。It is a block diagram of the display system for vehicles concerning one embodiment of the present invention. 本発明の一実施形態に係る表示装置の車両への搭載態様を示す図である。It is a figure which shows the mounting aspect to the vehicle of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置の概略構成図である。It is a schematic block diagram of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る捕捉画像変形処理のフローチャートである。It is a flowchart of the captured image deformation | transformation process which concerns on one Embodiment of this invention. (a)は先行車予測進行方向決定テーブルの構成例を示す図であり、(b)は自車予測進行方向決定テーブルの構成例を示す図である。(A) is a figure which shows the structural example of a preceding vehicle estimated travel direction determination table, (b) is a figure which shows the structural example of the own vehicle predicted travel direction determination table. (a)及び(b)は、どのように捕捉画像の変形量を決定するかを説明するための図である。(A) And (b) is a figure for demonstrating how the deformation amount of a capture image is determined. (a)及び(b)は、先行車の進行角度に応じた捕捉画像の変形態様の一例を示す図である。(A) And (b) is a figure which shows an example of the deformation | transformation aspect of the captured image according to the advance angle of the preceding vehicle. 従来の問題点を説明するための図である。It is a figure for demonstrating the conventional problem.

本発明の一実施形態に係る表示装置を、図面を参照して説明する。   A display device according to an embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る車両用表示システム1は、図1に示すように、表示装置100と、情報取得部200と、を備える。車両用表示システム1は、各部が通信することにより、図2に示すように、車両2に搭乗したユーザ4(主に運転者)に、車両2に関する各種情報(以下、車両情報)を表示する。なお、車両情報は、車両2自体の情報のみならず、車両2の外部情報も含む。   As shown in FIG. 1, the vehicle display system 1 according to this embodiment includes a display device 100 and an information acquisition unit 200. As shown in FIG. 2, the vehicle display system 1 displays various information related to the vehicle 2 (hereinafter referred to as vehicle information) to a user 4 (mainly a driver) who has boarded the vehicle 2 by communicating with each unit. . The vehicle information includes not only information on the vehicle 2 itself but also external information on the vehicle 2.

(表示装置100)
表示装置100は、図2に示すように、車両2に搭載される(例えば、車両2のインスツルメントパネル内に設置される)。表示装置100は、車両2のフロントガラス3(ウインドシールド)に表示光Lを投射することで、表示光Lが表す画像を虚像Vとしてフロントガラス3の前方に表示するヘッドアップディスプレイ(HUD:Head-Up Display)として構成されている。虚像Vとして視認される画像は、車両情報を報知するためのものである。これにより、ユーザ4は、フロントガラス3越しに見える風景と重なって表示される車両情報を視認することができる。
(Display device 100)
As shown in FIG. 2, the display device 100 is mounted on the vehicle 2 (for example, installed in an instrument panel of the vehicle 2). The display device 100 projects a display light L onto the windshield 3 (windshield) of the vehicle 2 to display an image represented by the display light L as a virtual image V in front of the windshield 3 (HUD: Head). -Up Display). The image visually recognized as the virtual image V is for reporting vehicle information. Thereby, the user 4 can visually recognize the vehicle information displayed so as to overlap with the scenery seen through the windshield 3.

表示装置100は、図1〜図3に示すように、表示手段10と、反射手段20と、筐体30と、制御手段40と、調整手段50と、を備える。   As shown in FIGS. 1 to 3, the display device 100 includes a display unit 10, a reflection unit 20, a housing 30, a control unit 40, and an adjustment unit 50.

表示手段10は、制御手段40の制御の下で、車両情報を報知するための画像を表示する。表示手段10は、液晶ディスプレイ(LCD:Liquid Crystal Display)、LCDを背後から照明するバックライト等から構成されている。表示手段10は、画像を後述の平面鏡21に向かって表示する。これにより、画像を表す表示光Lが平面鏡21に向かって射出される。なお、表示手段10は、有機EL(Electro-Luminescence)ディスプレイや、DMD(Digital Micromirror Device)、反射型及び透過型のLCOS(登録商標:Liquid Crystal On Silicon)等で構成されてもよい。   The display means 10 displays an image for informing vehicle information under the control of the control means 40. The display means 10 includes a liquid crystal display (LCD), a backlight that illuminates the LCD from behind, and the like. The display means 10 displays an image toward a plane mirror 21 described later. Thereby, the display light L representing the image is emitted toward the plane mirror 21. The display means 10 may be configured by an organic EL (Electro-Luminescence) display, DMD (Digital Micromirror Device), reflection type and transmission type LCOS (registered trademark: Liquid Crystal On Silicon), or the like.

反射手段20は、平面鏡21と、凹面鏡22とから構成されている。平面鏡21は、例えばコールドミラーからなり、表示手段10からの表示光Lを凹面鏡22へと反射させる。凹面鏡22は、表示手段10から射出されて平面鏡21で反射した表示光Lを拡大しつつ、フロントガラス3へと反射させる。これにより、ユーザ4に視認される虚像Vは、表示手段10に表示されている画像が拡大されたものとなる。なお、本実施形態では、反射手段20が2枚の鏡で構成される例を示しているが、反射手段20は、1枚、又は3枚以上の鏡から構成されてもよい。   The reflecting means 20 includes a plane mirror 21 and a concave mirror 22. The plane mirror 21 is formed of, for example, a cold mirror, and reflects the display light L from the display unit 10 to the concave mirror 22. The concave mirror 22 reflects the display light L emitted from the display means 10 and reflected by the plane mirror 21 to the windshield 3 while expanding it. Thereby, the virtual image V visually recognized by the user 4 is an enlarged image displayed on the display unit 10. In the present embodiment, the example in which the reflecting unit 20 is configured by two mirrors is shown, but the reflecting unit 20 may be configured by one or three or more mirrors.

筐体30は、表示手段10、反射手段20及び調整手段50を、各々が上述の機能を実現可能な適宜の位置に収容する。なお、制御手段40の少なくとも一部は、筐体30の外部にあってもよい。筐体30は、合成樹脂や金属により遮光性を有して箱状に形成されている。筐体30には、表示光Lの光路を確保する開口部30aが設けられている。筐体30には、開口部30aを塞ぐように、透光性カバー31が取り付けられている。透光性カバー31は、アクリル等の透光性樹脂から形成されている。   The housing 30 accommodates the display means 10, the reflection means 20, and the adjustment means 50 at appropriate positions where each of the functions described above can be realized. Note that at least a part of the control unit 40 may be outside the housing 30. The housing 30 has a light shielding property and is formed in a box shape from synthetic resin or metal. The housing 30 is provided with an opening 30 a that secures the optical path of the display light L. A translucent cover 31 is attached to the housing 30 so as to close the opening 30a. The translucent cover 31 is made of a translucent resin such as acrylic.

凹面鏡22で反射した表示光Lは、透光性カバー31を透過して、フロントガラス3へと向かう。このようにして、表示装置100からは、フロントガラス3に向けて表示光Lが射出される。この表示光Lがフロントガラス3でユーザ4に向かって反射することで、ユーザ4から見てフロントガラス3の前方に虚像Vが表示される。凹面鏡22は、調整手段50により回転移動可能に設けられている。   The display light L reflected by the concave mirror 22 passes through the translucent cover 31 and travels toward the windshield 3. In this way, the display light L is emitted from the display device 100 toward the windshield 3. The display light L is reflected toward the user 4 by the windshield 3 so that the virtual image V is displayed in front of the windshield 3 when viewed from the user 4. The concave mirror 22 is provided so as to be rotatable by the adjusting means 50.

調整手段50は、モータ(ステッピングモータなど)、凹面鏡22を回転可能に支持する支持部品、モータの回転動力を凹面鏡22に伝達するギア機構などから構成される。調整手段50は、制御手段40からの制御信号に基づき、凹面鏡22を図3における時計回り・反時計回りに回転移動させることで、表示光Lの光路を変更させる。調整手段50は、虚像Vの表示位置の調整や、表示装置100の不使用時に外光が表示手段10に向かって反射することの防止などのために設けられる。なお、調整手段50は、凹面鏡22を平行移動させることで、表示光Lの光路を変更させてもよい。   The adjusting means 50 includes a motor (such as a stepping motor), a support component that rotatably supports the concave mirror 22, a gear mechanism that transmits the rotational power of the motor to the concave mirror 22, and the like. The adjusting means 50 changes the optical path of the display light L by rotating the concave mirror 22 clockwise or counterclockwise in FIG. 3 based on the control signal from the control means 40. The adjusting means 50 is provided for adjusting the display position of the virtual image V and for preventing external light from being reflected toward the display means 10 when the display device 100 is not used. The adjusting unit 50 may change the optical path of the display light L by translating the concave mirror 22.

制御手段40は、表示装置100の全体動作を制御するものであり、図1に示すように、CPU(Central Processing Unit)41と、記憶部42と、ビデオメモリ43と、I/F(InterFace)44と、を備える。   The control means 40 controls the entire operation of the display device 100. As shown in FIG. 1, the control means 40 is a CPU (Central Processing Unit) 41, a storage unit 42, a video memory 43, and an I / F (InterFace). 44.

なお、表示装置100には、図示しない電源が接続されており、例えば、車両2のイグニッションのオンに伴って制御手段40への動作電力が供給される。また、制御手段40の少なくとも一部は、ASIC(Application Specific Integrated Circuit)などの専用回路によって構成されていてもよい。   Note that a power supply (not shown) is connected to the display device 100 and, for example, operating power is supplied to the control means 40 when the ignition of the vehicle 2 is turned on. Further, at least a part of the control means 40 may be configured by a dedicated circuit such as an ASIC (Application Specific Integrated Circuit).

記憶部42は、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成されている。ROMは、動作プログラム(後述の捕捉画像変形処理を実行するためのプログラムなど)や固定データ(後述の先行車予測進行方向決定テーブルTA1、自車予測進行方向決定テーブルTA2など)を予め記憶する。RAMは、各種の演算結果などを一時的に記憶する。例えば、RAMには、後述の捕捉画像変形処理における判別結果や決定結果を示すデータなどが記憶される。   The storage unit 42 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The ROM stores in advance an operation program (such as a program for executing captured image deformation processing described later) and fixed data (such as a preceding vehicle predicted traveling direction determination table TA1 and a host vehicle predicted traveling direction determination table TA2). The RAM temporarily stores various calculation results and the like. For example, the RAM stores data indicating a determination result or a determination result in a captured image deformation process described later.

ビデオメモリ43は、HDD(Hard Disk Drive)、フラッシュメモリ等から構成され、表示手段10に表示させる画像のデータ(画像データ)を記憶する。   The video memory 43 includes an HDD (Hard Disk Drive), a flash memory, and the like, and stores image data (image data) to be displayed on the display means 10.

I/F44は、制御手段40の外部との間で、各種信号の入出力を可能とする。制御手段40は、I/F44を介して情報取得部200とCAN(Controller Area Network)などにより通信を行う。   The I / F 44 enables various signals to be input / output from / to the outside of the control means 40. The control means 40 communicates with the information acquisition unit 200 via a CAN (Controller Area Network) via the I / F 44.

CPU41は、記憶部42のROMから読み出した動作プログラムや固定データを用いて、表示装置100の全体動作を制御するための処理を実行する。このときには、CPU41がROMから固定データを読み出す固定データ読出動作や、CPU41が記憶部42のRAMに各種データを書き込んで一時記憶させるデータ書込動作、CPU41がRAMに一時記憶されている各種データを読み出すデータ読出動作、CPU41がI/F44を介して制御手段40の外部から各種信号の入力を受け付ける受信動作、CPU41がI/F44を介して制御手段40の外部へと各種信号を出力する送信動作なども行われる。また、CPU41は内蔵のタイマにより、適宜計時を行う。   The CPU 41 executes processing for controlling the overall operation of the display device 100 using an operation program and fixed data read from the ROM of the storage unit 42. At this time, the CPU 41 reads fixed data from the ROM, the CPU 41 writes various data to the RAM of the storage unit 42 and temporarily stores the data, and the CPU 41 stores various data temporarily stored in the RAM. Data reading operation for reading, receiving operation for receiving various signals from the outside of the control means 40 through the I / F 44, and sending operation for outputting various signals to the outside of the control means 40 through the I / F 44 Etc. are also performed. In addition, the CPU 41 appropriately measures time with a built-in timer.

また、CPU41は、図示しない表示制御部(グラフィックコントローラ)を介して、ビデオメモリ43に記憶された画像データに基づき、表示手段10の表示制御を行う。当該表示制御部は、CPU41からの表示制御指令などに基づき、表示手段10における表示動作の制御内容を決定する。例えば、表示制御部は、表示手段10の表示画面に表示させる画像の切換タイミングを決定することなどにより、各種の表示を実行させるための制御を行う。なお、制御手段40では、表示コンテンツ(虚像Vとして視認される画像に含まれる、後述の捕捉画像やその他の報知画像など)毎にレイヤーが割り当てられており、個別の表示制御が可能となっている。   Further, the CPU 41 performs display control of the display unit 10 based on the image data stored in the video memory 43 via a display control unit (graphic controller) (not shown). The display control unit determines the control content of the display operation in the display unit 10 based on a display control command from the CPU 41 and the like. For example, the display control unit performs control for executing various displays by determining the switching timing of an image to be displayed on the display screen of the display unit 10. In the control means 40, a layer is assigned to each display content (a captured image or other notification image described later included in an image viewed as a virtual image V), and individual display control is possible. Yes.

(情報取得部200)
情報取得部200は、図1に示すように、前方対象検出手段210と、ユーザ検出手段220と、ナビゲーションシステム230と、GPS(Global Positioning System)コントローラ240と、ECU(Electronic Control Unit)250と、を備える。
(Information acquisition unit 200)
As shown in FIG. 1, the information acquisition unit 200 includes a front object detection unit 210, a user detection unit 220, a navigation system 230, a GPS (Global Positioning System) controller 240, an ECU (Electronic Control Unit) 250, Is provided.

前方対象検出手段210は、車両2の前方を撮像するステレオカメラなどであり、図2に示すように、例えば車両2の室内に設けられている。なお、前方対象検出手段210は、車両2の前方を撮像できれば、その配置場所は任意であり、車室外に設けられていてもよい。   The front object detection unit 210 is a stereo camera or the like that images the front of the vehicle 2, and is provided in a room of the vehicle 2, for example, as illustrated in FIG. 2. In addition, as long as the front object detection means 210 can image the front of the vehicle 2, the arrangement | positioning location is arbitrary and may be provided outside the passenger compartment.

前方対象検出手段210は、撮像した前方画像のデータ(前方画像データ)をパターンマッチング法などにより画像解析することで、車両2(以下、自車2とも呼ぶ)の前方における各種対象を検出する。そして、前方対象検出手段210は、検出した各種対象に関する情報(以下、前方情報)を制御手段40に出力する。なお、画像解析の少なくとも一部が制御手段40によって実行され、制御手段40側で前方対象を検出する(前方情報を生成する)ようにしてもよい。   The front object detection means 210 detects various objects in front of the vehicle 2 (hereinafter also referred to as the host vehicle 2) by analyzing the captured front image data (front image data) by a pattern matching method or the like. Then, the front object detection unit 210 outputs information (hereinafter referred to as front information) relating to the detected various objects to the control unit 40. Note that at least a part of the image analysis may be executed by the control unit 40, and the front object may be detected on the control unit 40 side (forward information is generated).

前方情報は、道路上の物体に関する情報(前方車両や障害物)や、道路形状情報(車線、白線、停止線、横断歩道、道路の幅員、車線数、交差点、カーブ、分岐路等)などである。なお、前方対象検出手段210は、撮像された対象と自車2との間の距離を算出することが可能に構成されている。当該算出された距離も前方情報に含まれる。   Forward information includes information on objects on the road (forward vehicles and obstacles) and road shape information (lanes, white lines, stop lines, pedestrian crossings, road width, number of lanes, intersections, curves, branch roads, etc.) is there. The front object detection unit 210 is configured to be able to calculate the distance between the imaged object and the vehicle 2. The calculated distance is also included in the forward information.

この実施形態における主な前方情報は、先行車W(図6(a)、図7(a)参照)の位置、先行車Wのウインカ情報、道路形状情報、先行車Wの車線に対する移動量である。先行車Wのウインカ情報は、先行車Wのウインカ(方向指示灯)が点灯しているか否か、点灯している場合には左右いずれのウインカが点灯しているか等である。   The main forward information in this embodiment is the position of the preceding vehicle W (see FIGS. 6A and 7A), the blinker information of the preceding vehicle W, the road shape information, and the movement amount of the preceding vehicle W with respect to the lane. is there. The blinker information of the preceding vehicle W is whether or not the blinker (direction indicator light) of the preceding vehicle W is lit, and if it is lit, which of the left and right blinkers is lit.

ユーザ検出手段220は、ユーザ4を撮像するモノラルカメラなどであり、図2に示すように、たとえば車両2の室内に設けられている。なお、ユーザ検出手段220は、ユーザ4の頭部を撮像できれば、その配置場所は任意である。   The user detection means 220 is a monaural camera or the like that captures an image of the user 4, and is provided in the room of the vehicle 2, for example, as shown in FIG. In addition, if the user detection means 220 can image the head of the user 4, the arrangement | positioning location is arbitrary.

ユーザ検出手段220は、撮像したユーザ4の画像データをパターンマッチング法などにより画像解析することで、ユーザ4の視点位置(視線位置、頭部の位置も含む)と顔の向き(頭部の位置も含む)との少なくともいずれかを含む視認状態を検出する。そして、ユーザ検出手段220は、視認状態を示す情報(以下、視認状態情報)を制御手段40に出力する。   The user detection unit 220 performs image analysis on the captured image data of the user 4 using a pattern matching method or the like, so that the viewpoint position (including the line-of-sight position and the head position) of the user 4 and the face direction (head position). And a visual recognition state including at least one of them. Then, the user detection unit 220 outputs information indicating the viewing state (hereinafter, viewing state information) to the control unit 40.

視認状態情報を取得した制御手段40は、当該情報に基づいて、調整手段50を制御し凹面鏡22の角度を調整する。また、視認状態情報に基づいて表示手段10に表示させる画像の位置や大きさ、形状(歪み補正)を変更してもよい。このようにして、制御手段40は、ユーザ4の視点位置や顔の向きに合わせて、虚像Vの表示位置の調整を実行可能となっている。   Based on the information, the control unit 40 that has acquired the viewing state information controls the adjustment unit 50 to adjust the angle of the concave mirror 22. Further, the position, size, and shape (distortion correction) of the image displayed on the display unit 10 may be changed based on the viewing state information. In this way, the control unit 40 can adjust the display position of the virtual image V in accordance with the viewpoint position and face orientation of the user 4.

ナビゲーションシステム230は、地図データを記憶する記憶部を有し、GPSコントローラ240からの位置情報に基づいて、現在位置近傍の地図データを記憶部から読み出し、案内経路を決定する。そして、ナビゲーションシステム230は、決定した案内経路に関する情報を制御手段40に出力する。また、ナビゲーションシステム230は、地図データを参照することにより、車両2の前方の施設の名称・種類や、施設と車両2との距離などを示す情報を制御手段40に出力する。地図データでは、道路形状情報(道路の幅員、車線数、交差点、カーブ、分岐路等)、制限速度などの道路標識に関する規制情報、車線が複数存在する場合の各車線についての情報(どの車線がどこに向かう車線か)などの各種情報が位置データと対応付けられている。ナビゲーションシステム230は、これら各種情報(ナビゲーション情報)を制御手段40に出力可能に構成されている。   The navigation system 230 includes a storage unit that stores map data. Based on the position information from the GPS controller 240, the navigation system 230 reads map data in the vicinity of the current position from the storage unit and determines a guide route. Then, the navigation system 230 outputs information regarding the determined guide route to the control means 40. The navigation system 230 outputs information indicating the name and type of the facility in front of the vehicle 2 and the distance between the facility and the vehicle 2 to the control means 40 by referring to the map data. Map data includes road shape information (road width, number of lanes, intersections, curves, branch roads, etc.), restriction information on road signs such as speed limits, information about each lane when there are multiple lanes (which lanes are Various information such as where the lane is heading) is associated with the position data. The navigation system 230 is configured to be able to output these various types of information (navigation information) to the control means 40.

GPSコントローラ240は、人工衛星などからGPS信号を受信し、受信したGPS信号に基づいて車両2の位置の計算を行う。GPSコントローラ240は、車両2の位置を計算すると、その位置データをナビゲーションシステム230に出力する。   The GPS controller 240 receives a GPS signal from an artificial satellite or the like, and calculates the position of the vehicle 2 based on the received GPS signal. When the position of the vehicle 2 is calculated, the GPS controller 240 outputs the position data to the navigation system 230.

ECU250は、車両2の各部を制御するものであり、車両2に搭載される種々のセンサ(ステアリングセンサ、車速センサ、ウインカの作動状態をウインカレバーからの信号などにより検出するウインカセンサなど)から出力される検出信号を取得し、検出内容を示すデータ(検出情報)を制御手段40に出力する。ECU250を介して制御手段40が取得する状態情報(自車2に関する情報)は、ステアリング角度や、ウインカ情報、車速などである。なお、制御手段40は、ECU250を介さずに、各種センサから検出信号を取得し、前記状態情報を演算などにより求めてもよい。   The ECU 250 controls each part of the vehicle 2 and is output from various sensors (such as a steering sensor, a vehicle speed sensor, and a winker sensor that detects an operating state of the winker by a signal from the winker lever). The detected signal is acquired, and the data (detection information) indicating the detected content is output to the control means 40. The state information (information related to the host vehicle 2) acquired by the control means 40 via the ECU 250 is a steering angle, turn signal information, vehicle speed, and the like. Note that the control means 40 may obtain detection signals from various sensors without using the ECU 250 and obtain the state information by calculation or the like.

以上の構成からなる車両用表示システム1では、ユーザ4が虚像Vを視認可能な範囲(所謂アイボックス)として規定される表示領域に虚像Vが表示される。なお、車両用表示システム1では、実景に重畳させて情報を表示するため、虚像Vの結像距離は大きめ(例えば、15m以上)に設定されている。   In the vehicular display system 1 having the above configuration, the virtual image V is displayed in a display area defined as a range (so-called eyebox) in which the user 4 can visually recognize the virtual image V. In the vehicle display system 1, the image formation distance of the virtual image V is set to be large (for example, 15 m or more) in order to display information superimposed on the real scene.

虚像Vとしてユーザ4に視認される画像は、先行車W(前方車両)、歩行者などの前方対象(実景内に現れる車外の対象物)に重畳するように表示され、対象物の存在をユーザ4に注意喚起する捕捉画像を含む。   The image visually recognized by the user 4 as the virtual image V is displayed so as to be superimposed on a front object (an object outside the vehicle appearing in a real scene) such as a preceding vehicle W (front vehicle) or a pedestrian, and the presence of the object is determined by the user. 4 includes a captured image that calls attention.

捕捉画像は、対象物(前方対象)の少なくとも一部と重畳して視認される画像である。例えば、捕捉画像は、枠を示す枠画像であり、枠内に対象物の少なくとも一部を位置させて表示される。なお、捕捉画像が対象物の少なくとも一部と重畳するとは、枠の外形内に対象物の少なくとも一部が位置することを言う。したがって、捕捉画像が示す枠内領域に対象物が収まっている状態も、対象物が捕捉画像と重畳している状態である。   The captured image is an image that is visually recognized by being superimposed on at least a part of the object (front object). For example, the captured image is a frame image indicating a frame, and is displayed with at least a part of the object positioned in the frame. Note that “the captured image is superimposed on at least a part of the object” means that at least a part of the object is positioned within the outline of the frame. Therefore, the state in which the target object is within the frame area indicated by the captured image is also a state in which the target object is superimposed on the captured image.

捕捉画像の表示態様や捕捉画像が捉える前方対象は限定されるものでないが、この実施形態では、枠を示す捕捉画像Va(図7(b)参照)が前方対象としての先行車W(図6(a)、図7(a)参照)を捉える例を説明する。なお、捕捉画像Vaの表示態様は、枠を示すという点では図8に示す態様と同様であるが、後述のように場合に応じて変形可能となっているため、必要以上に捕捉画像Vaを大きくしなくともよい点が異なる。   Although the display mode of the captured image and the forward object captured by the captured image are not limited, in this embodiment, the captured image Va indicating the frame (see FIG. 7B) is the preceding vehicle W (FIG. 6) as the forward object. An example of capturing (a) and FIG. 7 (a) will be described. The display mode of the captured image Va is the same as the mode illustrated in FIG. 8 in that it indicates a frame. However, since the display mode can be changed depending on the case as described later, the captured image Va is displayed more than necessary. The difference is that you do not need to make it larger.

捕捉画像Vaは、例えば、先行車Wに追従するように車両2の速度を制御するアダプティブクルーズコントロール(ACC:Adaptive Cruise Control)を使用する際に、特定された先行車Wと重畳して表示され、ユーザ4に先行車Wを認識させる。制御手段40は、表示手段10を制御し、前方対象検出手段210によって特定された先行車Wを捉える捕捉画像Vaを表示させる。   The captured image Va is displayed superimposed on the specified preceding vehicle W when using, for example, adaptive cruise control (ACC) that controls the speed of the vehicle 2 so as to follow the preceding vehicle W. The user 4 is made to recognize the preceding vehicle W. The control unit 40 controls the display unit 10 to display a captured image Va that captures the preceding vehicle W specified by the front target detection unit 210.

以上の構成からなる表示装置100は、捕捉画像Va以外の報知画像を表示することが可能であるが、以下では、主に図4を参照して、本実施形態に特有の捕捉画像変形処理について説明する。例えば、車両2のイグニッションのオンに伴って、表示装置100に動作電力の供給が開始されると、CPU41が起動する。起動したCPU41は、所定の初期化処理を実行した後、捕捉画像変形処理を実行する。   The display device 100 having the above configuration can display a notification image other than the captured image Va. Hereinafter, mainly with reference to FIG. 4, captured image deformation processing unique to the present embodiment will be described. explain. For example, when the supply of operating power to the display device 100 is started as the ignition of the vehicle 2 is turned on, the CPU 41 is activated. The activated CPU 41 executes a predetermined initialization process, and then executes a captured image deformation process.

(捕捉画像変形処理)
まず、CPU41は、前方対象検出手段210からの前方情報に基づき先行車Wの位置を特定し、先行車Wを捉える枠画像として視認される捕捉画像Vaを表示手段10に表示させる(ステップS1)。
(Captured image deformation processing)
First, the CPU 41 specifies the position of the preceding vehicle W based on the forward information from the forward target detection unit 210, and causes the display unit 10 to display the captured image Va that is visually recognized as a frame image that captures the preceding vehicle W (step S1). .

続いて、CPU41は、先行車Wの予測進行方向を取得する(ステップS2)。具体的には、CPU41は、前方対象検出手段210からの前方情報に含まれる先行車Wのウインカ情報、道路形状情報、先行車Wの移動量などの各パラメータに基づいて、先行車Wの予測進行方向を決定・取得する。なお、ここでの予測進行方向は、先行車Wが「直進」、「右」、又は「左」するかの想定であり、後述の進行角度とは異なる。次に説明する自車2の予測進行方向についても同様である。例えば、CPU41は、記憶部42のROMに予め記憶された先行車予測進行方向決定テーブルTA1を参照して、先行車Wの予測進行方向を決定する。   Subsequently, the CPU 41 acquires the predicted traveling direction of the preceding vehicle W (step S2). Specifically, the CPU 41 predicts the preceding vehicle W based on parameters such as the blinker information of the preceding vehicle W, road shape information, and the amount of movement of the preceding vehicle W included in the forward information from the forward target detection unit 210. Determine / obtain direction of travel. Note that the predicted traveling direction here is an assumption that the preceding vehicle W is “straight forward”, “right”, or “left”, and is different from a traveling angle described later. The same applies to the predicted traveling direction of the vehicle 2 to be described next. For example, the CPU 41 determines the predicted traveling direction of the preceding vehicle W with reference to the preceding vehicle predicted traveling direction determination table TA1 stored in advance in the ROM of the storage unit 42.

図5(a)は、先行車予測進行方向決定テーブルTA1の構成例を示す図である。先行車予測進行方向決定テーブルTA1は、先行車Wのウインカ情報、道路形状情報、先行車Wの移動量の各パラメータの組み合わせと、先行車Wの予測進行方向とが対応づけられて構成されている。CPU41は、このような先行車予測進行方向決定テーブルTA1を参照して、前方対象検出手段210から取得した前方情報に含まれる各パラメータの組み合わせに対応した、先行車Wの予測進行方向(図示するように「右」、「左」、「直進」など)を決定する。同図における「移動量」の欄は、例えば、先行車Wの走行車線に対する連続移動量(所定期間内における移動量)を示し、図示例において、「D」は走行車線に対する先行車Wの幅方向の移動量を示し、「C」は閾値を示している。この例では、先行車Wが走行車線に対して右に移動すると移動量Dが増加し、左に移動すると移動量Dが減少するように設定されている。そして、移動量Dが閾値Cの絶対値以下であれば「直進」と見做し、移動量Dが正の値をとる閾値Cよりも大きければ「右」と見做し、移動量Dが負の値をとる閾値Cよりも小さければ「左」と見做している。   FIG. 5A is a diagram illustrating a configuration example of the preceding vehicle predicted traveling direction determination table TA1. The preceding vehicle predicted traveling direction determination table TA1 is configured by associating a combination of each parameter of the blinker information, road shape information, and moving amount of the preceding vehicle W with the predicted traveling direction of the preceding vehicle W. Yes. The CPU 41 refers to such a preceding vehicle predicted travel direction determination table TA1, and predicts the travel direction of the preceding vehicle W corresponding to the combination of parameters included in the forward information acquired from the forward target detection unit 210 (illustrated). “Right”, “Left”, “Straight”, etc.). The “movement amount” column in the figure shows, for example, the continuous movement amount (movement amount within a predetermined period) of the preceding vehicle W with respect to the traveling lane, and in the illustrated example, “D” is the width of the preceding vehicle W with respect to the traveling lane. The amount of movement in the direction is indicated, and “C” indicates a threshold value. In this example, the moving amount D is set to increase when the preceding vehicle W moves to the right with respect to the travel lane, and the moving amount D decreases when the preceding vehicle W moves to the left. If the movement amount D is equal to or smaller than the absolute value of the threshold value C, it is regarded as “straight forward”, and if the movement amount D is larger than the threshold value C that takes a positive value, it is regarded as “right”. If it is smaller than the threshold value C which takes a negative value, it is regarded as “left”.

なお、先行車予測進行方向決定テーブルTA1において、各パラメータの全てを用いる必要はなく、例えばウインカ情報が「右オン」(先行車Wの右ウインカが点灯)を示していれば、他のパラメータの値によらず、先行車Wの予測進行方向を「右」と決定するなどしてもよい。つまり、各パラメータに優先度を設けてもよい。また、先行車Wの移動量の定め方は限定されるものでなく、設計に応じて任意である。   In the preceding vehicle predicted traveling direction determination table TA1, it is not necessary to use all of the parameters. For example, if the blinker information indicates “right on” (the right blinker of the preceding vehicle W is lit), other parameters Regardless of the value, the predicted traveling direction of the preceding vehicle W may be determined as “right”. That is, a priority may be provided for each parameter. Moreover, how to determine the amount of movement of the preceding vehicle W is not limited, and is arbitrary depending on the design.

図4に戻って、ステップS2に続いてCPU41は、自車2の予測進行方向を取得する(ステップS3)。具体的には、CPU41は、ECU250等を介して取得した自車2のウインカ情報、ステアリング角度情報や、ナビゲーションシステム230から取得した道路形状情報(ナビゲーション情報に含まれる)などの各パラメータに基づいて、自車2の予測進行方向を決定・取得する。例えば、CPU41は、記憶部42のROMに予め記憶された自車予測進行方向決定テーブルTA2を参照して、自車2の予測進行方向を決定する。   Returning to FIG. 4, following step S <b> 2, the CPU 41 acquires the predicted traveling direction of the host vehicle 2 (step S <b> 3). Specifically, the CPU 41 is based on each parameter such as turn signal information, steering angle information, and road shape information (included in the navigation information) acquired from the navigation system 230 obtained through the ECU 250 and the like. Then, the predicted traveling direction of the own vehicle 2 is determined and acquired. For example, the CPU 41 determines the predicted traveling direction of the host vehicle 2 with reference to the host vehicle predicted traveling direction determination table TA2 stored in advance in the ROM of the storage unit 42.

図5(b)は、自車予測進行方向決定テーブルTA2の構成例を示す図である。自車予測進行方向決定テーブルTA2は、自車2のウインカ情報、道路形状情報、ステアリング角度の各パラメータの組み合わせと、自車2の予測進行方向とが対応づけられて構成されている。CPU41は、このような自車予測進行方向決定テーブルTA2を参照して、情報取得部200から取得した各種情報に含まれる各パラメータの組み合わせに対応した、自車2の予測進行方向(図示するように「右」、「左」、「直進」など)を決定する。同図における「ステアリング角度」の欄では、「α」はステアリング角度を示し、「c」は閾値を示している。この例では、ステアリングを右に切ると角度αが増加し、左に切ると角度αが減少するように設定されている。そして、角度αが閾値cの絶対値以下であれば「直進」と見做し、角度αが正の値をとる閾値cよりも大きければ「右」と見做し、角度αが負の値をとる閾値cよりも小さければ「左」と見做している。   FIG. 5B is a diagram illustrating a configuration example of the own vehicle predicted traveling direction determination table TA2. The own vehicle predicted traveling direction determination table TA2 is configured by associating a combination of each parameter of the turn signal information, road shape information, and steering angle of the own vehicle 2 with the predicted traveling direction of the own vehicle 2. The CPU 41 refers to the host vehicle predicted travel direction determination table TA2, and predicts the travel direction of the host vehicle 2 corresponding to the combination of parameters included in various information acquired from the information acquisition unit 200 (as illustrated). "Right", "Left", "Straight", etc.). In the column of “Steering angle” in the figure, “α” indicates a steering angle, and “c” indicates a threshold value. In this example, the angle α is increased when the steering is turned to the right, and the angle α is decreased when the steering is turned to the left. If the angle α is equal to or smaller than the absolute value of the threshold c, it is regarded as “straight forward”, and if the angle α is larger than the threshold c taking a positive value, it is regarded as “right”, and the angle α is a negative value. If it is smaller than the threshold value c, the “left” is assumed.

なお、自車予測進行方向決定テーブルTA2において、各パラメータの全てを用いる必要はなく、例えばウインカ情報が「右オン」(自車2の右ウインカが点灯)を示していれば、他のパラメータの値によらず、自車2の予測進行方向を「右」と決定するなどしてもよい。つまり、各パラメータに優先度を設けてもよい。また、ステアリング角度の定め方は限定されるものでなく、設計に応じて任意である。また、先行車予測進行方向決定テーブルTA1と同様に、自車2の移動量もパラメータとして用いてもよい。   Note that it is not necessary to use all the parameters in the host vehicle predicted travel direction determination table TA2. For example, if the turn signal information indicates “right on” (the right turn signal of the host vehicle 2 is lit), other parameters Regardless of the value, the predicted traveling direction of the vehicle 2 may be determined as “right”. That is, a priority may be provided for each parameter. Further, the method of determining the steering angle is not limited and is arbitrary depending on the design. Further, as with the preceding vehicle predicted travel direction determination table TA1, the movement amount of the host vehicle 2 may be used as a parameter.

図4に戻って、ステップS3に続いてCPU41は、ステップS2で取得した先行車Wの予測進行方向と、ステップS3で取得した自車2の予測進行方向とが一致するかを判別する(ステップS4)。両車の予測進行方向が一致しないと判別した場合(ステップS4;No)、CPU41は、捕捉画像Vaを消去し(ステップS8)、ステップS1に戻って処理を実行する。   Returning to FIG. 4, following step S3, the CPU 41 determines whether or not the predicted traveling direction of the preceding vehicle W acquired in step S2 matches the predicted traveling direction of the host vehicle 2 acquired in step S3 (step S3). S4). When it is determined that the predicted traveling directions of both the vehicles do not match (step S4; No), the CPU 41 deletes the captured image Va (step S8), and returns to step S1 to execute the process.

両車の予測進行方向が一致すると判別した場合(ステップS4;Yes)、CPU41は、前方対象検出手段210から取得した、所定時間前の前方画像と現在の前方画像との差分に基づき、先行車Wの進行角度を算出する(ステップS5)。併せて、CPU41は、ECU250などを介して取得したステアリング角度に基づき、自車2の進行角度も算出する。これら進行角度は、例えば、図6(a)に示す基準方向Bに対しての角度θとして表される。   When it is determined that the predicted traveling directions of the two vehicles coincide with each other (step S4; Yes), the CPU 41 obtains the preceding vehicle based on the difference between the forward image of a predetermined time and the current forward image acquired from the forward target detection unit 210. The traveling angle of W is calculated (step S5). At the same time, the CPU 41 also calculates the traveling angle of the host vehicle 2 based on the steering angle acquired via the ECU 250 or the like. These traveling angles are expressed as, for example, an angle θ with respect to the reference direction B shown in FIG.

続いて、CPU41は、ステップS5で算出した先行車Wの進行角度と自車2の進行角度とに基づいて、捕捉画像Vaの変形量を決定し(ステップS6)、決定した変形量に応じて捕捉画像Vaを変形させる(ステップS7)。   Subsequently, the CPU 41 determines a deformation amount of the captured image Va based on the advance angle of the preceding vehicle W calculated in step S5 and the advance angle of the host vehicle 2 (step S6), and according to the determined deformation amount. The captured image Va is deformed (step S7).

ここで、図6(a)(b)、図7(a)(b)を参照して、捕捉画像Vaの変形量の決定手法と、捕捉画像Vaの変形について説明する。   Here, with reference to FIGS. 6A and 6B and FIGS. 7A and 7B, a method of determining the deformation amount of the captured image Va and the deformation of the captured image Va will be described.

図6(a)は、先行車Wに続いて自車2が交差点を右折する例を示した図である。そして、状況の理解を容易とするため、両車が同じ経路(車線R1、交差点内R2、右折後車線R3)を辿ると共に等速で移動すると仮定した場合における両車の軌跡を、角度θと時間tで表したグラフが図6(b)である。直線TR1は先行車Wの軌跡を表し、直線TR2は自車2の軌跡を表している。両軌跡において傾きを有する箇所は、右折の際に交差点内R2における円弧状のルートを辿ると仮定している。この場合、θとtとの関係は一次関数(線形の関係)と見做せる。   FIG. 6A is a diagram showing an example in which the own vehicle 2 turns right at the intersection following the preceding vehicle W. FIG. In order to facilitate understanding of the situation, the trajectory of both vehicles is assumed to be an angle θ when both vehicles follow the same route (lane R1, intersection R2, right turn lane R3) and move at a constant speed. FIG. 6B shows a graph represented by time t. The straight line TR1 represents the locus of the preceding vehicle W, and the straight line TR2 represents the locus of the host vehicle 2. It is assumed that the portions having inclinations in both loci follow an arcuate route in the intersection R2 when making a right turn. In this case, the relationship between θ and t can be regarded as a linear function (linear relationship).

図6(b)に示すように、期間T1は、先行車W、自車2共に車線R1を直進中の状態に対応する。続く、期間T2は、先行車Wが右折中(交差点内R2を走行中)であるが、自車2は車線R1を直進中である状態に対応する。なお、期間T2では、両車の予測進行方向は「右」で一致しているものとする。期間T2においては、自車2に対しての先行車Wの進行角度は、徐々に増加し続ける。   As shown in FIG. 6B, the period T1 corresponds to a state where both the preceding vehicle W and the host vehicle 2 are traveling straight in the lane R1. The following period T2 corresponds to a state in which the preceding vehicle W is turning right (running in the intersection R2), but the own vehicle 2 is traveling straight in the lane R1. In the period T2, it is assumed that the predicted traveling directions of both vehicles coincide with each other on the “right” side. In the period T2, the advance angle of the preceding vehicle W with respect to the host vehicle 2 continues to increase gradually.

ここで、期間T2における両車の関係の模式図を図7(a)に、図7(a)に対応させた捕捉画像の模式図を図7(b)に示す。符号Vnは、両車が直進していた際に、先行車Wを丁度囲んでいた捕捉画像(直進時捕捉画像Vnという)を表す。先行車Wが右折時において、直進時捕捉画像Vnのままでは、先行車Wが自車2の運転者から見ると斜めに見えるため、直進時捕捉画像Vnが示す枠から先行車Wがはみ出し、適切に先行車Wを捉えることができない。また、図8を参照して説明した従来例のように枠画像を水平方向に予め大きく表示してしまうと、やはり先行車Wを適切に捉えることができない(前記のように捕捉対象以外まで捉えてしまう虞がある)。   Here, a schematic diagram of the relationship between the two cars in the period T2 is shown in FIG. 7 (a), and a schematic diagram of the captured image corresponding to FIG. 7 (a) is shown in FIG. 7 (b). Reference sign Vn represents a captured image (referred to as a captured image Vn when traveling straight) just surrounding the preceding vehicle W when both the vehicles are traveling straight ahead. When the preceding vehicle W turns right, if the straight ahead captured image Vn remains as it is, the preceding vehicle W looks oblique when viewed from the driver of the host vehicle 2, so the preceding vehicle W protrudes from the frame indicated by the straight traveling captured image Vn, The preceding vehicle W cannot be properly captured. Further, if the frame image is displayed in a large size in the horizontal direction as in the conventional example described with reference to FIG. 8, the preceding vehicle W cannot be properly captured (as described above, it can be captured other than the target to be captured). There is a risk of losing.)

そこで、この実施形態では、図7(b)に示すように、捕捉画像Vaを変形して表示する。具体的には、CPU41は、先行車Wの進行角度と自車2の進行角度と差分に応じて、捕捉画像Vaの変形量を決定する。期間T2では、先行車Wの進行角度を自車2の進行角度で減ずると正の値となり、角度θは時計回りで増加するように設定しているため、捕捉画像Vaを図7(b)に示すように、右側に拡張する。例えば、先行車Wの進行角度と自車2の進行角度と差分の値と、捕捉画像Vaの変形量(拡張量と、後述のように縮小する場合の縮小量も含む)とが、一対一対応の関係で設定されたテーブルをROM内に予め記憶し、CPU41は、当該テーブルを参照して変形量を決定すればよい。なお、テーブルによらず演算を行ってもよい。また、先行車Wの進行角度に対しての自車2の進行角度の割合に基づいて、捕捉画像Vaの変形量を決定する構成としてもよい。   Therefore, in this embodiment, as shown in FIG. 7B, the captured image Va is deformed and displayed. Specifically, the CPU 41 determines the deformation amount of the captured image Va according to the difference between the advance angle of the preceding vehicle W and the advance angle of the host vehicle 2. In the period T2, since the advance angle of the preceding vehicle W is set to be positive when the advance angle of the host vehicle 2 is decreased and the angle θ is set to increase clockwise, the captured image Va is set as shown in FIG. Expand to the right as shown in For example, there is a one-to-one relationship between the advance angle of the preceding vehicle W, the advance angle of the own vehicle 2, and the difference value, and the deformation amount of the captured image Va (including the expansion amount and the reduction amount in the case of reduction as described later). A table set in correspondence is stored in advance in the ROM, and the CPU 41 may determine the deformation amount with reference to the table. Note that the calculation may be performed regardless of the table. The deformation amount of the captured image Va may be determined based on the ratio of the traveling angle of the host vehicle 2 to the traveling angle of the preceding vehicle W.

図6(b)に戻って、期間T3は、両車がともに右折中(交差点内R2を走行中)である状態に対応する。期間T4は、先行車Wが右折後車線R3を直進中であるが、自車2が右折中(交差点内R2を走行中)である状態に対応する。なお、期間T4では、両車の予測進行方向は「右」で一致しているものとする。期間T5は、両者がともに右折後車線R3を直進中の状態に対応する。   Returning to FIG. 6B, the period T3 corresponds to a state in which both vehicles are turning right (traveling in the intersection R2). The period T4 corresponds to a state in which the preceding vehicle W is traveling straight in the lane R3 after the right turn, but the own vehicle 2 is turning right (running in the intersection R2). In the period T4, it is assumed that the predicted traveling directions of both vehicles coincide with each other on the “right” side. The period T5 corresponds to a state in which both of them are traveling straight in the lane R3 after turning right.

図6(b)のグラフからわかるように、期間T4においては、自車2に対しての先行車Wの進行角度は、徐々に減少し続ける。
以上を踏まえると、期間T2では捕捉画像Vaが右側に徐々に拡張していき、期間T2の終期(期間T3の始期)でその拡張量が最大となる。一方、期間T4では徐々にその拡張量が減っていき期間T4の終期(期間T5の始期)で拡張量がゼロとなる。期間T3においては、両車の進行角度の差分が一定であるため、拡張量は最大に保たれる。つまり、期間T2〜T4が、捕捉画像Vaが拡張表示される拡張表示期間Tとなる。なお、捕捉画像Vaの右側の拡張という概念は、捕捉画像Vaの基準位置の取り方によって表現が異なる場合もある。ユーザ4から見て捕捉画像Vaが実際に右側に拡張していると認識されるものに限られない。
As can be seen from the graph of FIG. 6B, in the period T4, the traveling angle of the preceding vehicle W with respect to the host vehicle 2 continues to gradually decrease.
Based on the above, the captured image Va gradually expands to the right in the period T2, and the expansion amount becomes maximum at the end of the period T2 (the start of the period T3). On the other hand, in the period T4, the expansion amount gradually decreases, and the expansion amount becomes zero at the end of the period T4 (the start of the period T5). In the period T3, since the difference in the traveling angle between the two vehicles is constant, the expansion amount is kept at the maximum. That is, the period T2 to T4 is an extended display period T in which the captured image Va is extended and displayed. Note that the concept of expansion on the right side of the captured image Va may be expressed differently depending on how to capture the reference position of the captured image Va. The captured image Va is not limited to the one recognized as viewed from the user 4 and actually expanded to the right.

以上のように捕捉画像Vaの変形量を決定して、決定した変形量に応じて捕捉画像Vaを変形させれば、捕捉画像Vaは先行車Wを適切に捉えたものとすることができ、捕捉画像Vaを必要以上に大きく表示せずとも済む。このため、先行車W以外の前方の物体(隣接車線の他の車など)を誤って示すような事態が生じるのを抑制できる。   If the deformation amount of the captured image Va is determined as described above, and the captured image Va is deformed according to the determined deformation amount, the captured image Va can appropriately capture the preceding vehicle W, The captured image Va need not be displayed larger than necessary. For this reason, it can suppress that the situation which shows forward objects (other cars of an adjacent lane, etc.) other than the preceding vehicle W accidentally arises.

CPU41は、以上の捕捉画像変形処理を、例えば車両2のイグニッションがオフされたことに伴い、表示装置100の電源がオフされるまで繰り返し実行する。   The CPU 41 repeatedly executes the above captured image deformation processing until the power of the display device 100 is turned off, for example, when the ignition of the vehicle 2 is turned off.

なお、状況の理解を容易とするため、図6(b)のグラフのように仮定したが、両車の軌跡が線形で表すことができなくとも、考え方は同様である。両車の軌跡が高次関数として表される場合であっても、所定のタイミング又は所定の期間内における進行角度の差分などを考えればよい。   In order to facilitate understanding of the situation, it is assumed as shown in the graph of FIG. 6B, but the concept is the same even if the trajectories of both vehicles cannot be expressed linearly. Even when the trajectories of both vehicles are expressed as a high-order function, it is only necessary to consider a difference in travel angle within a predetermined timing or a predetermined period.

また、前記の捕捉画像変形処理では、先行車Wと自車2とが共に直進している場合であっても、ステップS4でYesの判定となり、ステップS5以降の処理を実行することになるが、この場合は両者の進行角度の差分がゼロまたは微小となるため、捕捉画像Vaは変形されないか、変形したとしても微小量の変形となる。なお、両車が直進している場合は、ステップS1〜S3を繰り返し実行するように捕捉画像変形処理を構成してもよい。また、ステップS5の進行角度算出処理を、ステップS4の判定処理の前に実行し、算出した進行角度に基づいて、先行車Wや自車2の予測進行方向を推測するようにしてもよい。このようにすることで、先行車Wと自車2との予測進行方向を「右」、「左」といった概略的なものでなく、詳細に予測してもよい。   Further, in the captured image deformation process, even if the preceding vehicle W and the host vehicle 2 are both traveling straight, a determination of Yes is made in step S4, and the processes after step S5 are executed. In this case, since the difference between the two traveling angles is zero or minute, the captured image Va is not deformed, or even if it is deformed, it is deformed by a minute amount. In addition, when both vehicles are going straight ahead, you may comprise a captured image deformation | transformation process so that step S1-S3 may be performed repeatedly. Moreover, the advance angle calculation process of step S5 may be performed before the determination process of step S4, and the estimated advance direction of the preceding vehicle W or the own vehicle 2 may be estimated based on the calculated advance angle. By doing in this way, the predicted traveling direction of the preceding vehicle W and the host vehicle 2 may be predicted in detail instead of the rough directions such as “right” and “left”.

(1)以上に説明した表示装置100は、車両2(乗り物の一例)に搭載され、表示手段10が表示した画像を表す表示光Lをフロントガラス3(透光部材の一例)に投射することで、フロントガラス3の前方に虚像Vを表示する。表示装置100は、先行車W(前方対象の一例)を特定する特定手段と、先行車Wと車両(自車)2の各々の進行方向を予測する予測手段と、表示手段10を制御することで、画像内に、特定手段が特定した先行車Wの少なくとも一部と重畳して視認される捕捉画像Vaを表示させる表示制御手段(例えばグラフィックコントローラを含む制御手段40)と、を備える。なお、特定手段及び予測手段は、制御手段40と、情報取得部200の少なくとも一部とが協働して実現される。表示制御手段は、予測手段が予測した先行車Wの進行方向と自車2の進行方向とが一致した場合に、当該一致した進行方向側に捕捉画像Vaを拡張して表示させる。
このようにしたから、前記のように、適切に先行車W(前方対象の一例)を捕捉画像で捉えることができる。また、以下の(2)〜(6)の構成を適宜有することによって、より良好に先行車Wを捕捉画像で捉えることができる。
(1) The display device 100 described above is mounted on the vehicle 2 (an example of a vehicle), and projects display light L representing an image displayed by the display unit 10 onto the windshield 3 (an example of a translucent member). Thus, the virtual image V is displayed in front of the windshield 3. The display device 100 controls the specifying means for specifying the preceding vehicle W (an example of a forward object), the predicting means for predicting the traveling directions of the preceding vehicle W and the vehicle (own vehicle) 2, and the display means 10. In the image, display control means (for example, control means 40 including a graphic controller) that displays the captured image Va that is visually recognized superimposed on at least a part of the preceding vehicle W specified by the specifying means is provided. The specifying unit and the predicting unit are realized by the cooperation of the control unit 40 and at least a part of the information acquisition unit 200. When the traveling direction of the preceding vehicle W predicted by the predicting unit coincides with the traveling direction of the host vehicle 2, the display control unit expands and displays the captured image Va on the matching traveling direction side.
Since it did in this way, as mentioned above, the preceding vehicle W (an example of front object) can be appropriately caught with a capture image. Moreover, by having the following configurations (2) to (6) as appropriate, the preceding vehicle W can be better captured in the captured image.

(2)また、車両2の前方を撮像する撮像手段(例えば前方対象検出手段210)を備え、特定手段は、撮像手段が撮像した撮像画像に基づいて先行車Wを特定し、予測手段は、少なくとも撮像手段が撮像した撮像画像に基づいて先行車Wの進行方向を予測する。 (2) Moreover, it has an imaging means (for example, the front object detection means 210) that images the front of the vehicle 2, the specifying means specifies the preceding vehicle W based on the captured image captured by the imaging means, and the predicting means The traveling direction of the preceding vehicle W is predicted based on at least the captured image captured by the imaging unit.

(3)また、所定時間前の前方画像と現在の前方画像との差分(なお、撮像手段によって第1のタイミングで撮像された撮像画像と第2のタイミングで撮像された撮像画像との差分であればよい)に基づいて、先行車Wの進行角度を算出する進行角度算出手段と、進行角度算出手段が算出した先行車Wの進行角度と、自車2の進行角度とに基づいて、捕捉画像Vaを拡張する場合における拡張量を決定する拡張量決定手段と、を備える。表示制御手段は、予測手段が予測した先行車Wの進行方向と自車2の進行方向とが一致した場合に、当該一致した進行方向側に捕捉画像Vaを、拡張量決定手段によって決定された拡張量で拡張して表示させる。なお、進行角度算出手段及び拡張量決定手段は、例えば、制御手段40の機能部として実現される。 (3) Also, the difference between the forward image before a predetermined time and the current forward image (note that the difference between the captured image captured at the first timing by the imaging means and the captured image captured at the second timing) Based on the progress angle calculation means for calculating the advance angle of the preceding vehicle W, the advance angle of the preceding vehicle W calculated by the advance angle calculation means, and the advance angle of the host vehicle 2 And an expansion amount determining means for determining an expansion amount when expanding the image Va. When the traveling direction of the preceding vehicle W predicted by the predicting unit and the traveling direction of the host vehicle 2 match, the display control unit determines the captured image Va on the matching traveling direction side by the expansion amount determining unit. Expand and display with expansion amount. The advance angle calculation means and the expansion amount determination means are realized as functional units of the control means 40, for example.

(4)また、予測手段は、撮像手段が撮像した撮像画像に基づいて、先行車Wのウインカの点灯状態を特定し、少なくとも当該点灯状態を用いて先行車Wの進行方向を予測する。 (4) Further, the predicting unit identifies the lighting state of the turn signal of the preceding vehicle W based on the captured image captured by the imaging unit, and predicts the traveling direction of the preceding vehicle W using at least the lighting state.

(5)また、予測手段は、自車2のステアリング角度と、自車2のウインカの点灯状態との少なくともいずれかを用いて自車2の進行方向を予測する。 (5) Moreover, a prediction means predicts the advancing direction of the own vehicle 2 using at least one of the steering angle of the own vehicle 2 and the lighting state of the turn signal of the own vehicle 2.

(6)また、前記画像を視認するユーザ4の視点位置と顔の向きとの少なくともいずれかを含む視認状態を検出する視認状態検出手段(ユーザ検出手段220など)を備え、表示制御手段は、視認状態に応じて捕捉画像Vaの表示位置を調整する。このようにしたから、ユーザ4の視点ずれが生じたとしても、適切に先行車Wを捕捉画像で捉えることができる。 (6) Further, the display control unit includes a visual state detection unit (such as the user detection unit 220) that detects a visual state including at least one of a viewpoint position and a face direction of the user 4 viewing the image. The display position of the captured image Va is adjusted according to the visual recognition state. Since it did in this way, even if the viewpoint shift of the user 4 arises, the preceding vehicle W can be appropriately caught with a capture image.

なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。   In addition, this invention is not limited by the above embodiment and drawing. Changes (including deletion of components) can be made as appropriate without departing from the scope of the present invention.

表示光Lの投射対象は、フロントガラス3に限定されず、板状のハーフミラー、ホログラム素子等により構成されるコンバイナであってもよい。   The projection target of the display light L is not limited to the windshield 3 but may be a combiner configured by a plate-shaped half mirror, a hologram element, or the like.

なお、前方対象検出手段210として、ステレオカメラなどの可視光線カメラを用いる手法に限られない。前方対象検出手段210は、赤外線カメラやミリ波レーザ等の近距離検出用レーダ、超音波等を用いたソナー等を用いて前方状況を検出してもよい。また、前方対象検出手段210は、車両2の前方の状況を検出できればよいので、車両2の位置を特定し、車両2が走行する道路に関する情報を取得可能なナビゲーションシステム230で構成されていてもよい。また、前方対象検出手段210を、道路交通情報通信システムなどの外部通信装置と通信可能な通信手段で構成し、当該外部通信装置から受信した情報に基づいて、車両2の前方の状況を推定してもよい。   Note that the forward target detection unit 210 is not limited to a method using a visible light camera such as a stereo camera. The forward target detection means 210 may detect the forward situation using a short-range detection radar such as an infrared camera or a millimeter wave laser, a sonar using an ultrasonic wave, or the like. Further, since the forward target detection unit 210 only needs to be able to detect the situation in front of the vehicle 2, the forward target detection unit 210 may be configured by the navigation system 230 that can identify the position of the vehicle 2 and obtain information on the road on which the vehicle 2 travels. Good. Further, the forward target detection means 210 is constituted by a communication means capable of communicating with an external communication device such as a road traffic information communication system, and the situation in front of the vehicle 2 is estimated based on information received from the external communication device. May be.

また、ユーザ検出手段220は、ステレオカメラで構成されてもよいし、可視光線カメラに留まらず赤外線カメラ等で構成されてもよい。   Moreover, the user detection means 220 may be comprised with a stereo camera, and may be comprised not only with a visible light camera but with an infrared camera.

また、前方対象は、先行車Wに限られず、歩行者などの他の物体であってもよい。また、表示装置100は、右折・左折時(右カーブ・左カーブ時も含む)に捕捉画像Vaを右ないし左に拡張(変形)するに限られない。例えば、登坂時や下坂時に捕捉画像Vaを上ないし下に拡張(変形)する構成としてもよい。また、捕捉画像Vaの拡張(変形)は、徐々に決定された拡張量に至るように連続的に拡張(変形)してもよい。これにより、運転者に拡張による心的負荷を掛けずに、違和感のない表示が可能となる。   The front object is not limited to the preceding vehicle W, and may be another object such as a pedestrian. Further, the display device 100 is not limited to expanding (deforming) the captured image Va to the right or left when turning right or left (including when turning right or left). For example, the captured image Va may be expanded (deformed) upward or downward when climbing or downhill. In addition, expansion (deformation) of the captured image Va may be continuously expanded (deformation) so as to reach a gradually determined expansion amount. Thereby, a display without a sense of incongruity is possible without imposing a mental burden on the driver.

また、捕捉画像Vaは、枠を示す枠画像でなくともよい。ベタ塗りやグラデーション状であって、前方対象を透かして視認可能な態様の画像であってもよい。また、捕捉画像Vaの形状も矩形に限られず、円形(楕円形も含む)や、多角形状、モザイク状、所定の物体を模したアイコン状などであってもよい。   Further, the captured image Va does not have to be a frame image indicating a frame. The image may be solid or gradation and can be viewed through the front object. The shape of the captured image Va is not limited to a rectangle, and may be a circle (including an ellipse), a polygon, a mosaic, or an icon imitating a predetermined object.

表示装置100が表示する虚像V(表示手段10に表示される画像)は、案内経路画像、白線認識画像、運行状態画像、規制画像などを含んでいてもよい。案内経路画像は、車両2の経路誘導をするための画像であり、ナビゲーションシステム230からの案内経路に関する情報に基づいて表示される。白線認識画像は、車線の存在を認識させるための画像であり、前方対象検出手段210からの情報に基づいて表示される。運行状態画像は、車速、エンジン回転数などの車両2の運行状態を示す画像であり、ECU250等からの情報に基づいて表示される。規制画像は、制限速度などの規制情報を示す画像であり、ナビゲーションシステム230からの規制情報に基づいて表示される。   The virtual image V (image displayed on the display unit 10) displayed by the display device 100 may include a guidance route image, a white line recognition image, an operation state image, a restriction image, and the like. The guide route image is an image for guiding the route of the vehicle 2 and is displayed based on information on the guide route from the navigation system 230. The white line recognition image is an image for recognizing the presence of a lane, and is displayed based on information from the front target detection unit 210. The operation state image is an image showing the operation state of the vehicle 2 such as the vehicle speed and the engine speed, and is displayed based on information from the ECU 250 or the like. The restriction image is an image indicating restriction information such as a speed limit, and is displayed based on the restriction information from the navigation system 230.

また、自車2の移動量を算出するに当たって、車速センサからの車速や、加速度センサからの加速度、ジャイロセンサからの角速度など種々の物理量を適宜用いて算出してもよい。   Further, when calculating the movement amount of the host vehicle 2, various physical quantities such as a vehicle speed from the vehicle speed sensor, an acceleration from the acceleration sensor, and an angular velocity from the gyro sensor may be used as appropriate.

また、先行車Wと自車2との間で無線通信が可能となっていれば、先行車Wの予測進行方向や進行角度は、先行車Wから受信した情報に基づいて決定・算出してもよい。   Further, if wireless communication is possible between the preceding vehicle W and the host vehicle 2, the predicted traveling direction and the traveling angle of the preceding vehicle W are determined and calculated based on information received from the preceding vehicle W. Also good.

また、表示装置100は、例示した自動四輪車としての車両2に搭載されるものに限られない。表示装置100は、自動二輪車などの他の車両や、車両以外の水上バイク、雪上バイク、船舶、航空機などの車両以外の乗り物に搭載されるものであってもよい。   Moreover, the display apparatus 100 is not restricted to what is mounted in the vehicle 2 as an illustrated automobile. The display device 100 may be mounted on a vehicle other than a vehicle such as a motorcycle or a vehicle other than a vehicle such as a water motorcycle, a snow motorcycle, a ship, or an aircraft.

また、前記の動作プログラムは、予め記憶部42のROMに記憶されているものとしたが、着脱自在の記録媒体により配布・提供されてもよい。また、動作プログラムは、表示装置100と接続された他の機器からダウンロードされるものであってもよい。また、表示装置100は、他の機器と電気通信ネットワークなどを介して各種データの交換を行うことにより前記の動作プログラムに従う各処理を実行してもよい。   The operation program is stored in advance in the ROM of the storage unit 42, but may be distributed and provided by a removable recording medium. In addition, the operation program may be downloaded from another device connected to the display device 100. Further, the display device 100 may execute each process according to the operation program by exchanging various data with other devices via a telecommunication network or the like.

以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。   In the above description, in order to facilitate understanding of the present invention, descriptions of known technical matters are omitted as appropriate.

1…車両用表示システム
2…車両、3…フロントガラス、4…ユーザ
100…表示装置
10…表示手段、20…反射手段、30…筐体、50…調整手段
40…制御手段
41…CPU、42…記憶部、43…ビデオメモリ、44…I/F
200…情報取得部
210…前方対象検出手段(撮像手段の一例)
220…ユーザ検出手段(視認状態検出手段の一例)
230…ナビゲーションシステム
240…GPSコントローラ
250…ECU
L…表示光
V…虚像
Va…捕捉画像
W…先行車
DESCRIPTION OF SYMBOLS 1 ... Vehicle display system 2 ... Vehicle, 3 ... Windshield, 4 ... User 100 ... Display apparatus 10 ... Display means, 20 ... Reflection means, 30 ... Housing, 50 ... Adjustment means 40 ... Control means 41 ... CPU, 42 ... Storage unit, 43 ... Video memory, 44 ... I / F
200: Information acquisition unit 210: Front target detection means (an example of imaging means)
220... User detecting means (an example of visual state detecting means)
230 ... Navigation system 240 ... GPS controller 250 ... ECU
L ... Display light V ... Virtual image Va ... Captured image W ... Preceding vehicle

Claims (7)

乗り物に搭載され、表示手段が表示した画像を表す表示光を透光部材に投射することで、前記透光部材の前方に前記画像の虚像を表示する表示装置であって、
前記乗り物の前方にある前方対象を特定する特定手段と、
前記前方対象と前記乗り物の各々の進行方向を予測する予測手段と、
前記表示手段を制御することで、前記画像内に、前記特定手段が特定した前記前方対象の少なくとも一部と重畳して視認される捕捉画像を表示させる表示制御手段と、を備え、
前記表示制御手段は、前記予測手段が予測した前記前方対象の進行方向と前記乗り物の進行方向とが一致した場合に、当該一致した進行方向側に前記捕捉画像を拡張して表示させる、
ことを特徴とする表示装置。
A display device that is mounted on a vehicle and displays a virtual image of the image in front of the translucent member by projecting display light representing the image displayed by the display unit onto the translucent member,
Identifying means for identifying a forward object in front of the vehicle;
Predicting means for predicting the traveling direction of each of the forward object and the vehicle;
Display control means for controlling the display means to display, in the image, a captured image that is visually recognized and superimposed on at least a part of the front object specified by the specifying means,
The display control means expands and displays the captured image on the matched traveling direction side when the traveling direction of the front object predicted by the predicting means matches the traveling direction of the vehicle.
A display device characterized by that.
前記乗り物の前方を撮像する撮像手段を備え、
前記特定手段は、前記撮像手段が撮像した撮像画像に基づいて前記前方対象を特定し、
前記予測手段は、少なくとも前記撮像手段が撮像した撮像画像に基づいて前記前方対象の進行方向を予測する、
ことを特徴とする請求項1に記載の表示装置。
Comprising imaging means for imaging the front of the vehicle;
The specifying unit specifies the front object based on a captured image captured by the imaging unit,
The predicting means predicts a traveling direction of the front object based on at least a captured image captured by the imaging means;
The display device according to claim 1.
前記乗り物の前方を撮像する撮像手段と、
前記撮像手段によって第1のタイミングで撮像された撮像画像と第2のタイミングで撮像された撮像画像との差分に基づいて、前記前方対象の進行角度を算出する進行角度算出手段と、
前記進行角度算出手段が算出した前記前方対象の進行角度と、前記乗り物の進行角度とに基づいて、前記捕捉画像を拡張する場合における拡張量を決定する拡張量決定手段と、を備え、
前記表示制御手段は、前記予測手段が予測した前記前方対象の進行方向と前記乗り物の進行方向とが一致した場合に、当該一致した進行方向側に前記捕捉画像を、前記拡張量決定手段によって決定された拡張量で拡張して表示させる、
ことを特徴とする請求項1に記載の表示装置。
Imaging means for imaging the front of the vehicle;
A travel angle calculating means for calculating a travel angle of the front object based on a difference between a captured image captured at a first timing and a captured image captured at a second timing by the imaging means;
Expansion amount determining means for determining an expansion amount in the case of expanding the captured image, based on the advance angle of the front object calculated by the advance angle calculating means and the advance angle of the vehicle,
The display control means, when the traveling direction of the front object predicted by the prediction means matches the traveling direction of the vehicle, determines the captured image on the matching traveling direction side by the expansion amount determining means. Expanded and displayed with the specified expansion amount,
The display device according to claim 1.
前記乗り物は車両であり、前記前方対象は前記車両の先行車であり、
前記予測手段は、前記撮像手段が撮像した撮像画像に基づいて、前記先行車のウインカの点灯状態を特定し、少なくとも当該点灯状態を用いて前記先行車の進行方向を予測する、
ことを特徴とする請求項2又は3に記載の表示装置。
The vehicle is a vehicle, and the front object is a preceding vehicle of the vehicle;
The predicting unit specifies a lighting state of the blinker of the preceding vehicle based on a captured image captured by the imaging unit, and predicts a traveling direction of the preceding vehicle using at least the lighting state.
The display device according to claim 2, wherein the display device is a display device.
前記乗り物は車両であり、
前記予測手段は、前記車両のステアリング角度と、前記車両のウインカの点灯状態との少なくともいずれかを用いて前記車両の進行方向を予測する、
ことを特徴とする請求項1〜4のいずれか1項に記載の表示装置。
The vehicle is a vehicle;
The predicting means predicts a traveling direction of the vehicle using at least one of a steering angle of the vehicle and a lighting state of a blinker of the vehicle;
The display device according to claim 1, wherein the display device is a display device.
前記画像を視認するユーザの視点位置と顔の向きとの少なくともいずれかを含む視認状態を検出する視認状態検出手段を備え、
前記表示制御手段は、前記視認状態に応じて前記捕捉画像の表示位置を調整する、
ことを特徴とする請求項1〜5のいずれか1項に記載の表示装置。
A visual state detection means for detecting a visual state including at least one of a viewpoint position and a face direction of a user who visually recognizes the image;
The display control means adjusts the display position of the captured image according to the visual recognition state.
The display device according to claim 1, wherein the display device is a display device.
前記表示制御手段は、前記捕捉画像を、連続的に拡張して表示させる、
ことを特徴とする請求項1〜6のいずれか1項に記載の表示装置。
The display control means continuously expands and displays the captured image;
The display device according to claim 1, wherein the display device is a display device.
JP2016062078A 2016-03-25 2016-03-25 Display device Active JP6610376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016062078A JP6610376B2 (en) 2016-03-25 2016-03-25 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016062078A JP6610376B2 (en) 2016-03-25 2016-03-25 Display device

Publications (2)

Publication Number Publication Date
JP2017171226A JP2017171226A (en) 2017-09-28
JP6610376B2 true JP6610376B2 (en) 2019-11-27

Family

ID=59970206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016062078A Active JP6610376B2 (en) 2016-03-25 2016-03-25 Display device

Country Status (1)

Country Link
JP (1) JP6610376B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3627110B1 (en) * 2018-09-21 2023-10-25 Visteon Global Technologies, Inc. Method for planning trajectory of vehicle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101596A (en) * 1999-09-27 2001-04-13 Mazda Motor Corp Display device for vehicle
JP5338273B2 (en) * 2008-11-24 2013-11-13 株式会社デンソー Image generating device, head-up display device, and vehicle display device
JP5158063B2 (en) * 2009-12-02 2013-03-06 株式会社デンソー Vehicle display device
JP6409337B2 (en) * 2014-05-23 2018-10-24 日本精機株式会社 Display device
KR101618551B1 (en) * 2014-07-02 2016-05-09 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same

Also Published As

Publication number Publication date
JP2017171226A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
CN107206934B (en) Imaing projector
US10254539B2 (en) On-vehicle device, method of controlling on-vehicle device, and computer-readable storage medium
US11535155B2 (en) Superimposed-image display device and computer program
JP6303428B2 (en) Vehicle information projection system
JP6775188B2 (en) Head-up display device and display control method
JP6939789B2 (en) Image control device and display device
JP6836206B2 (en) Display control device and display control program
US11525694B2 (en) Superimposed-image display device and computer program
US20210003414A1 (en) Image control apparatus, display apparatus, movable body, and image control method
EP3775780A1 (en) Control apparatus, display apparatus, movable body, and image display method
WO2019189619A1 (en) Image control apparatus, display apparatus, movable body, and image control method
WO2019189515A1 (en) Control apparatus, display apparatus, movable body, and image display method
CN110462699B (en) Display control device for vehicle and display unit for vehicle
JP2018151903A (en) Virtual image display device and computer program
JP2020152161A (en) Vehicular display control device, vehicular display control method and vehicular display control program
JP2015074391A (en) Head-up display device
JP6610376B2 (en) Display device
JPWO2019131296A1 (en) Head-up display device
JP7111121B2 (en) Display control device and display control program
US20200047686A1 (en) Display device, display control method, and storage medium
JP2021037916A (en) Display control device and display control program
JP2020047289A (en) Vehicle display control device and vehicle display unit
JP7014206B2 (en) Display control device and display control program
JP7172730B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
JP7255443B2 (en) Display control device and display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R150 Certificate of patent or registration of utility model

Ref document number: 6610376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150