JP2020121704A - Display control device, head-up display device, method and computer program - Google Patents

Display control device, head-up display device, method and computer program Download PDF

Info

Publication number
JP2020121704A
JP2020121704A JP2019016452A JP2019016452A JP2020121704A JP 2020121704 A JP2020121704 A JP 2020121704A JP 2019016452 A JP2019016452 A JP 2019016452A JP 2019016452 A JP2019016452 A JP 2019016452A JP 2020121704 A JP2020121704 A JP 2020121704A
Authority
JP
Japan
Prior art keywords
image
vehicle
perspective
display
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019016452A
Other languages
Japanese (ja)
Inventor
博 平澤
Hiroshi Hirasawa
博 平澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2019016452A priority Critical patent/JP2020121704A/en
Publication of JP2020121704A publication Critical patent/JP2020121704A/en
Pending legal-status Critical Current

Links

Images

Abstract

To suppress deterioration in augmented reality feeling when vibration occurs.SOLUTION: When estimating that own vehicle vibrates in a magnitude larger than a certain magnitude, a display control device reduces a sense of perspective of a perspective image 210 having a sense of perspective that is perceived such as positioned along a travel lane of own vehicle.SELECTED DRAWING: Figure 3B

Description

本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラムに関する。 The present disclosure relates to a display control device, a head-up display device, a method, and a computer program that are used in a vehicle and that superimpose an image on the foreground of the vehicle for visual recognition.

特許文献1には、画像の虚像が表示される平面又は曲面の表示領域を有するヘッドアップディスプレイ装置であり、該表示領域は、水平面(例えば、自車両が走行する路面)に沿うように、視認者から見た前記表示領域の上側が下側よりも視認者から離れた位置に配置されるものが記載されている。このようなヘッドアップディスプレイ装置は、表示領域を水平面に沿うように配置することで、表示領域に表示される画像があたかも走行レーンの路面に沿って実際に存在するかのように仮想現実(AR:Augmented Reality)を知覚させることができる。 Patent Document 1 is a head-up display device having a flat or curved display area on which a virtual image of an image is displayed, and the display area is visually recognized so as to be along a horizontal plane (for example, a road surface on which the vehicle travels). It is described that the upper side of the display area viewed from the viewer is located farther from the viewer than the lower side. In such a head-up display device, by arranging the display area along the horizontal plane, the virtual reality (AR) is displayed as if the image displayed in the display area actually exists along the road surface of the traveling lane. : Augmented Reality) can be perceived.

特開2016−45252号公報JP, 2016-45252, A

しかしながら、特許文献1のヘッドアップディスプレイ装置では、走行レーンの小さな起伏による自車両の振動や加減速に伴う自車両のピッチングの変化により、自車両と路面とのなす角度が一定でなくなる。表示領域と路面との間の角度が通常と異なることで、画像が路面(実風景上の実オブジェクト)に馴染んでいたことにより感じていた拡張現実の感覚(拡張現実感)が失われる(又は低下する)ことが想定される。このため、視認者に違和感を与えるおそれがあり、振動が生じた際にも拡張現実感の低下を抑制する表示についての改善の余地があった。 However, in the head-up display device of Patent Document 1, the angle between the host vehicle and the road surface is not constant due to the vibration of the host vehicle due to small ups and downs in the traveling lane and the change in the pitching of the host vehicle due to acceleration/deceleration. Since the angle between the display area and the road surface is different from usual, the sense of augmented reality (augmented reality) felt due to the image becoming familiar with the road surface (real object on the real landscape) is lost (or Is expected to decrease). Therefore, the viewer may feel uncomfortable, and there is room for improvement in the display that suppresses the deterioration of the augmented reality even when vibration occurs.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 The following is a summary of the specific embodiments disclosed herein. It should be understood that these aspects are presented only to provide an overview of the reader to these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may include various aspects not described below.

本開示の概要は、視認者に与える違和感を低減した表示を提供することに関する。より具体的には振動が生じた際の拡張現実感の低下を抑制することにも関する。 SUMMARY OF THE DISCLOSURE The present disclosure relates to providing a display with reduced discomfort to a viewer. More specifically, it also relates to suppressing a decrease in augmented reality when vibration occurs.

したがって、本明細書に記載される表示制御装置は、車両が一定の大きさ以上で振動していると推定される場合、表示していたパースペクティブ画像210の遠近感を弱める。いくつかの実施形態では、パースペクティブ画像210は、前景における走行レーン310の路面に重畳して視認されてもよい。また、表示していたパースペクティブ画像210の遠近感を弱める場合、パースペクティブ画像210を、遠近感のない非パースペクティブ画像230に変更してもよい。 Therefore, the display control device described in the present specification weakens the perspective of the displayed perspective image 210 when it is estimated that the vehicle is vibrating at a certain size or more. In some embodiments, the perspective image 210 may be viewed by being superimposed on the road surface of the driving lane 310 in the foreground. Further, when the perspective image 210 displayed is weakened, the perspective image 210 may be changed to a non-perspective image 230 having no perspective.

いくつかの実施形態に係る、車両用表示システムの車両への適用例を示す図である。It is a figure which shows the example of application to the vehicle of the display system for vehicles which concerns on some embodiment. いくつかの実施形態に係る、車両用表示システムのブロック図である。FIG. 3 is a block diagram of a vehicular display system according to some embodiments. いくつかの実施形態に係る、パースペクティブ画像の表示例を示す図である。FIG. 6 is a diagram illustrating a display example of a perspective image according to some embodiments. いくつかの実施形態に係る、非パースペクティブ画像の表示例を示す図である。FIG. 6 is a diagram illustrating a display example of a non-perspective image according to some embodiments. いくつかの実施形態に係る、遠近感の弱いパースペクティブ画像を説明するための図である。FIG. 9 is a diagram for explaining a perspective image with a weak perspective according to some embodiments. いくつかの実施形態に係る、パースペクティブ画像の表示処理を示すフロー図である。FIG. 6 is a flow diagram illustrating a perspective image display process according to some embodiments. いくつかの実施形態に係る、自車両の振動に応じて画像の表示態様を変化させる表示処理のフロー図である。It is a flowchart of the display process which changes the display mode of an image according to the vibration of the own vehicle which concerns on some embodiment.

以下、図1及び図2では、例示的な車両用表示システムの構成の説明を提供する。図3A、図3B、及び図4では、仮想オブジェクトを知覚させるために表示される画像の表示例を提供する。また、図5、図6では、表示処理のフローを提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 In the following, FIGS. 1 and 2 provide a description of the configuration of an exemplary vehicle display system. 3A, 3B, and 4 provide a display example of an image displayed for perceiving a virtual object. Further, in FIGS. 5 and 6, a flow of display processing is provided. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be added to the following embodiments. In addition, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be appropriately omitted.

図1を参照する。車両用表示システム10における画像表示部11は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光11aをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、表示領域100内に画像200を表示することで、フロントウインドシールド2を介して視認される現実空間である前景300に画像200を重ねて運転者4に視認させる。表示領域100自体は、実際に運転者4に視認されない、又は視認されにくい程度に視認性が低い。なお、本実施形態の説明では、自車両1の運転席に着座する運転者4が自車両1の前方を向いた際の左右方向をX軸(左方向がX軸正方向)、上下方向をY軸(上方向がY軸正方向)、前後方向をZ軸(前方向がZ軸正方向)とする。 Please refer to FIG. The image display unit 11 in the vehicle display system 10 is a head-up display (HUD) device provided in the dashboard 5 of the vehicle 1. The HUD device emits the display light 11 a toward the front windshield 2 (which is an example of a member to be projected) and displays the image 200 in the display area 100, so that the HUD device is visually recognized through the front windshield 2. The image 200 is superimposed on the foreground 300, which is the physical space, and the driver 4 visually recognizes it. The display area 100 itself has low visibility so that it is not visible to the driver 4 or is hardly visible to the driver 4. In the description of the present embodiment, the horizontal direction when the driver 4 seated in the driver's seat of the host vehicle 1 faces the front of the host vehicle 1 is the X-axis (the left direction is the positive direction of the X-axis), and the vertical direction is the vertical direction. The Y-axis (the upward direction is the positive Y-axis direction) and the front-back direction is the Z-axis (the forward direction is the positive Z-axis direction).

また、画像表示部11は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される画像200を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の画像200を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定(調整可能に配置)され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された画像200を視認することができる。 Further, the image display unit 11 may be a head mounted display (hereinafter, HMD) device. The driver 4 mounts the HMD device on his/her head and sits on the seat of the host vehicle 1 to visually recognize the displayed image 200 by superimposing it on the foreground 300 through the front windshield 2 of the host vehicle 1. To do. The display area 100 in which the vehicle display system 10 displays a predetermined image 200 is fixed (adjustably arranged) at a specific position with respect to the coordinate system of the host vehicle 1, and when the driver 4 faces that direction. The image 200 displayed in the display area 100 fixed at the specific position can be visually recognized.

画像200の表示領域100は、水平面(例えば、自車両1が走行する走行レーン310の路面)に沿うように、運転者4から見た表示領域100の上側の部分(Y軸正方向の部分)が下側(Y軸負方向の部分)よりも運転者4から離れた位置に配置される平面又は曲面である。なお、運転者4の左右方向(X軸方向)から見た、画像200の表示領域100と走行レーン310の路面とのなす鋭角θは、0[degree](表示領域100と路面とが平行)でなくてもよく、20[degree]未満に設定されることが好ましい。また、表示領域100と走行レーン310の路面との間の距離(Y軸方向の距離)は、−1〜+1[meter]の範囲に設定されることが好ましい。 The display area 100 of the image 200 is a portion above the display area 100 viewed from the driver 4 (a portion in the Y-axis positive direction) so as to be along a horizontal plane (for example, the road surface of the traveling lane 310 in which the vehicle 1 travels). Is a plane or a curved surface arranged at a position farther from the driver 4 than the lower side (the portion in the Y-axis negative direction). The acute angle θ formed by the display area 100 of the image 200 and the road surface of the driving lane 310 when viewed from the left-right direction (X-axis direction) of the driver 4 is 0 [degree] (the display area 100 and the road surface are parallel). However, it is preferable that it is set to less than 20 [degree]. In addition, the distance between the display area 100 and the road surface of the traveling lane 310 (distance in the Y-axis direction) is preferably set in the range of −1 to +1 [meter].

画像表示部11は、表示制御装置13の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景300に存在する、障害物(歩行者、自転車、自動二輪車、他車両など)、走行レーン310の路面、道路標識、及び地物(建物、橋など)などの実オブジェクトの近傍(画像と実オブジェクトとの特定の位置関係の一例)、実オブジェクトに重なる位置(画像と実オブジェクトとの特定の位置関係の一例)、又は実オブジェクトを基準に設定された位置(画像と実オブジェクトとの特定の位置関係の一例)に画像200を表示することで、視覚的な拡張現実(AR:Augmented Reality)を視認者(典型的には、自車両1の運転席に着座する運転者4)に知覚させることもできる。画像表示部11は、実オブジェクトの位置に応じて表示位置を変化させるAR画像、又は/及び実オブジェクトの位置に応じて表示位置を変化させない非AR画像、を含む画像200を表示することができる。 Based on the control of the display control device 13, the image display unit 11 includes obstacles (pedestrians, bicycles) existing in the foreground 300, which is a real space (real scene) visually recognized through the front windshield 2 of the vehicle 1. , Motorcycles, other vehicles, etc.), road surfaces of the driving lane 310, road signs, and the vicinity of real objects such as features (buildings, bridges, etc.) (an example of a specific positional relationship between an image and a real object), real objects By displaying the image 200 at a position (an example of a specific positional relationship between the image and the real object) that overlaps with, or a position (an example of a specific positional relationship between the image and the real object) set with reference to the real object. A visual augmented reality (AR) can be perceived by a viewer (typically, the driver 4 sitting in the driver's seat of the vehicle 1). The image display unit 11 can display an image 200 including an AR image whose display position is changed according to the position of the real object, and/or a non-AR image whose display position is not changed according to the position of the real object. ..

図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、画像表示部11と、画像表示部11を制御する表示制御装置13と、で構成される。表示制御装置13は、1つ又はそれ以上のI/Oインタフェース14、1つ又はそれ以上のプロセッサ16、1つ又はそれ以上のメモリ18、及び1つ又はそれ以上の画像処理回路20を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、実施態様の一実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路20(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ16に含まれてもよい。 FIG. 2 is a block diagram of a vehicular display system 10 according to some embodiments. The vehicular display system 10 includes an image display unit 11 and a display control device 13 that controls the image display unit 11. The display controller 13 comprises one or more I/O interfaces 14, one or more processors 16, one or more memories 18, and one or more image processing circuits 20. The various functional blocks depicted in FIG. 2 may be implemented in hardware, software, or a combination of both. FIG. 2 is only one embodiment of an implementation, and the illustrated components may be combined into fewer components or there may be additional components. For example, image processing circuitry 20 (eg, a graphics processing unit) may be included in one or more processors 16.

図示するように、プロセッサ16及び画像処理回路20は、メモリ18と動作可能に連結される。より具体的には、プロセッサ16及び画像処理回路20は、メモリ18に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ16又は/及び画像処理回路20は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ18は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。 As shown, the processor 16 and the image processing circuit 20 are operably coupled to the memory 18. More specifically, the processor 16 and the image processing circuit 20 operate the vehicle display system 10, for example, by generating or/and transmitting image data by executing a program stored in the memory 18. be able to. The processor 16 or/and the image processing circuit 20 may be at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), at least one field programmable gate array (FPGA). , Or any combination thereof. The memory 18 includes any type of magnetic medium such as a hard disk, any type of optical medium such as CD and DVD, any type of semiconductor memory such as volatile memory, and non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVROM.

図示するように、プロセッサ16は、I/Oインタフェース14と動作可能に連結されている。例えば、I/Oインタフェース14は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、4G又はLTE(登録商標)セルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース14は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。 As shown, the processor 16 is operably coupled to the I/O interface 14. For example, the I/O interface 14 uses the vehicle display system 10 as a personal area network (PAN) such as a Bluetooth (registered trademark) network or a local area network (LAN) such as an 802.11x Wi-Fi (registered trademark) network. A wireless communication interface for connecting to a wide area network (WAN) such as a 4G or LTE cellular network can be included. The I/O interface 14 may also include a wired communication interface such as, for example, a USB port, a serial port, a parallel port, an OBDII, and/or any other suitable wired communication port.

図示するように、プロセッサ16は、I/Oインタフェース14と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース14)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース14には、例えば、自車両1に設けられた車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、視線方向検出部409、目位置検出部411、携帯情報端末413、及び車外通信接続機器420などが動作可能に連結される。画像表示部11は、プロセッサ16及び画像処理回路20に動作可能に連結される。したがって、画像表示部11によって表示される画像は、プロセッサ16又は/及び画像処理回路20から受信された画像データに基づいてもよい。プロセッサ16及び画像処理回路20は、I/Oインタフェース14から得られる情報に基づき、画像表示部11が表示する画像を制御する。なお、I/Oインタフェース14は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown in the figure, the processor 16 is operably connected to the I/O interface 14 to provide information on various other electronic devices connected to the vehicle display system 10 (I/O interface 14). Can be given and received. The I/O interface 14 includes, for example, a vehicle ECU 401 provided in the host vehicle 1, a road information database 403, a host vehicle position detector 405, a vehicle exterior sensor 407, a line-of-sight direction detector 409, an eye position detector 411, and portable information. The terminal 413 and the vehicle exterior communication connection device 420 are operably connected. The image display unit 11 is operably connected to the processor 16 and the image processing circuit 20. Therefore, the image displayed by the image display unit 11 may be based on the image data received from the processor 16 and/or the image processing circuit 20. The processor 16 and the image processing circuit 20 control the image displayed by the image display unit 11 based on the information obtained from the I/O interface 14. The I/O interface 14 may include a function of processing (converting, calculating, analyzing) information received from another electronic device or the like connected to the vehicle display system 10.

自車両1は、自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、又は/及びピッチング角を含む)、車両の振動(振動の大きさ、頻度、又は/及び周波数を含む))などを検出する車両ECU401を含んでいる。車両ECU401は、例えば、自車両1の前記状態を収集及び管理(制御も含んでもよい。)するものであり、機能の一部として、自車両1の状態の度合い(例えば、自車両1の現在の振動の大きさ、ピッチング角)を、表示制御装置13のプロセッサ16へ送信することができる。なお、車両ECU401は、単にセンサ等で検出した数値をプロセッサ16へ送信することに加え、又は代わりに、センサで検出した数値に基づく判定結果、若しくは/及び解析結果をプロセッサ16へ送信することができる。例えば、自車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の振動条件を満たす振動をしているか、又はピッチング角であるかを示す判定結果をプロセッサ16へ送信してもよい。 The host vehicle 1 is in the state of the host vehicle 1 (for example, mileage, vehicle speed, accelerator pedal opening, engine throttle opening, injector fuel injection amount, engine speed, motor speed, steering angle, shift position, drive mode). It also includes a vehicle ECU 401 that detects various warning states, postures (including roll angle and/or pitching angle), vehicle vibrations (including magnitude, frequency, and/or frequency of vibration). The vehicle ECU 401 collects and manages (may also include control) the above-described state of the host vehicle 1, and as a part of the function, the degree of the state of the host vehicle 1 (for example, the current state of the host vehicle 1). Vibration magnitude, pitching angle) can be transmitted to the processor 16 of the display controller 13. The vehicle ECU 401 may send the determination result based on the numerical value detected by the sensor and/or the analysis result to the processor 16 in addition to the numerical value detected by the sensor or the like. it can. For example, a determination result indicating whether the host vehicle 1 is vibrating in a memory (not shown) of the vehicle ECU 401 that satisfies a predetermined vibration condition or a pitching angle may be transmitted to the processor 16. ..

また、車両ECU401は、車両用表示システム10が表示する画像200を指示する指示信号をI/Oインタフェース14に送信してもよく、この際、画像200の座標、サイズ、種類、表示態様、画像200の報知必要度、又は/及び報知必要度を判定する元となる必要度関連情報を、指示信号に付加して送信してもよい。 Further, the vehicle ECU 401 may transmit an instruction signal for instructing the image 200 displayed by the vehicle display system 10 to the I/O interface 14, in which case the coordinates, size, type, display mode, image of the image 200 are displayed. The necessity degree related information of 200 or/and the necessity degree related information which is a basis for determining the necessity degree of notification may be added to the instruction signal and transmitted.

自車両1は、ナビゲーションシステム等からなる道路情報データベース403を含んでいてもよい。道路情報データベース403は、後述する自車位置検出部405から取得される自車両1の位置に基づき、実オブジェクト関連情報の一例である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ16に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路を算出し、ナビゲーション情報としてプロセッサ16に送信してもよい。 The host vehicle 1 may include a road information database 403 including a navigation system and the like. The road information database 403 is based on the position of the own vehicle 1 acquired from the own vehicle position detection unit 405 described later, and is road information (lane, white line, stop line, Crosswalk, width of road, number of lanes, intersections, curves, forks, traffic restrictions, etc.), presence/absence of feature information (buildings, bridges, rivers, etc.), position (including distance to own vehicle 1), direction , Shape, type, detailed information, etc. may be read and transmitted to the processor 16. Further, the road information database 403 may calculate an appropriate route from the starting point to the destination and send it to the processor 16 as navigation information.

自車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部405を含んでいてもよい。道路情報データベース403、後述する携帯情報端末413、又は/及び車外通信接続機器420は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択又は/及び生成して、プロセッサ16に送信することができる。 The host vehicle 1 may include a host vehicle position detection unit 405 including a GNSS (Global Navigation Satellite System) or the like. The road information database 403, the portable information terminal 413, which will be described later, and/or the extra-vehicle communication connection device 420 acquires the position information of the own vehicle 1 from the own vehicle position detection unit 405 continuously, intermittently, or at every predetermined event. Thus, the information around the vehicle 1 can be selected and/or generated and transmitted to the processor 16.

自車両1は、自車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する1つ又はそれ以上の車外センサ407を含んでいてもよい。車外センサ407が検知する実オブジェクトは、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、走行レーン310の路面、区画線、路側物、又は/及び地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、サイズ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、又は/及び種類等を検出してもよい。1つ又はそれ以上の車外センサ407は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト関連情報の一例である実オブジェクト関連情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、サイズ、移動方向、移動速度、又は/及び種類等の情報)をプロセッサ16に送信することができる。なお、これら実オブジェクト関連情報は、車外センサ407からの情報が、他の電子機器(例えば、車両ECU401)を経由して解析などされた後、前記他の電子機器からプロセッサ16に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。 The host vehicle 1 may include one or more vehicle exterior sensors 407 that detect real objects existing around the host vehicle 1 (front, side, and rear). The real object detected by the vehicle exterior sensor 407 is, for example, a pedestrian, a bicycle, a motorcycle, another vehicle (such as a preceding vehicle), a road surface of the traveling lane 310, a marking line, a roadside object, and/or a feature (such as a building). May be included. As the vehicle exterior sensor, for example, there are a millimeter wave radar, an ultrasonic radar, a radar sensor such as a laser radar, and a camera sensor including a camera and an image processing device. It may be configured with only one of them. A conventionally known method is applied to the object detection by the radar sensor and the camera sensor. By detecting the objects by these sensors, the presence/absence of a real object in the three-dimensional space, and the position of the real object (relative distance from the own vehicle 1 and the traveling direction of the own vehicle 1 when the real object exists) are detected. Position in the left-right direction in the front-back direction, vertical position, etc.), size (size in the horizontal direction (left-right direction), height direction (vertical direction), etc.), movement direction (lateral direction (left-right direction), The depth direction (front-rear direction), the moving speed (lateral direction (left-right direction), depth direction (front-back direction)), and/or the type may be detected. One or more out-of-vehicle sensors 407 detect a real object in front of the own vehicle 1 for each detection period of each sensor, and detect real object-related information (presence or absence of real object, which is an example of real object-related information). When a real object exists, information such as the position, size, moving direction, moving speed, and/or type of each real object) can be transmitted to the processor 16. Note that the real object-related information is transmitted from the other electronic device to the processor 16 after the information from the vehicle exterior sensor 407 is analyzed via the other electronic device (for example, the vehicle ECU 401). Good. Further, when a camera is used as a sensor, an infrared camera or a near infrared camera is desirable so that a real object can be detected even when the surroundings are dark such as at night. Further, when a camera is used as a sensor, a stereo camera that can acquire a distance and the like by parallax is desirable.

自車両1は、運転者4の注視方向(以下では「視線方向」ともいう)を検出する、運転者4の顔を撮像する赤外線カメラ等からなる視線方向検出部409を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の視線方向を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から視線方向検出部409(又は他の解析部)が特定した運転者4の視線方向をI/Oインタフェース14から取得するものであってもよい。また、自車両1の運転者4の視線方向、又は運転者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線目底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 The host vehicle 1 may include a line-of-sight direction detection unit 409 that detects the gaze direction of the driver 4 (hereinafter, also referred to as “line-of-sight direction”) and that includes an infrared camera that captures an image of the face of the driver 4. The processor 16 can specify the line-of-sight direction of the driver 4 by acquiring an image captured by the infrared camera (an example of information that can estimate the line-of-sight direction) and analyzing the captured image. Note that the processor 16 may acquire the line-of-sight direction of the driver 4 specified by the line-of-sight direction detection unit 409 (or another analysis unit) from the image captured by the infrared camera from the I/O interface 14. The method of acquiring the driver's 4 line-of-sight direction of the own vehicle 1 or the information capable of estimating the driver's 4 line-of-sight direction is not limited to these, and the EOG (Electro-oculogram) method, corneal reflex Method, sclera reflection method, Purkinje image detection method, search coil method, infrared fundus camera method, and other known gaze direction detection (estimation) techniques may be used.

自車両1は、運転者4の目の位置を検出する赤外線カメラ等からなる目位置検出部411を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から特定された運転者4の目の位置の情報をI/Oインタフェース14から取得するものであってもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ16は、運転者4の目の位置に基づき、画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した画像200を、目位置を検出した視認者(運転者4)に視認させてもよい。 The host vehicle 1 may include an eye position detection unit 411 including an infrared camera that detects the position of the eyes of the driver 4. The processor 16 can specify the position of the eyes of the driver 4 by acquiring an image (an example of information that can estimate the position of the eyes) captured by the infrared camera and analyzing the captured image. The processor 16 may acquire the information on the position of the eyes of the driver 4 identified from the image captured by the infrared camera from the I/O interface 14. The method for acquiring the position of the eyes of the driver 4 of the vehicle 1 or the information capable of estimating the position of the eyes of the driver 4 is not limited to these, and known eye position detection (estimation) It may be acquired using a technology. The processor 16 adjusts at least the position of the image 200 based on the position of the eyes of the driver 4 so that the image 200 in which the image 200 superimposed on a desired position of the foreground 300 is detected is the viewer (driver 4). May be visually confirmed.

携帯情報端末413は、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース14は、携帯情報端末413と通信を行うことが可能であり、携帯情報端末413(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末413は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。また、携帯情報端末413は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、携帯情報端末413は、携帯情報端末413の所持者(例えば、運転者4)のスケジュール情報、携帯情報端末413での着信情報、メールの受信情報などをプロセッサ16に送信し、プロセッサ16及び画像処理回路20は、これらに関する画像データを生成又は/及び送信してもよい。 The mobile information terminal 413 is a smartphone, a laptop computer, a smart watch, or another information device that can be carried by the driver 4 (or another occupant of the vehicle 1). The I/O interface 14 can communicate with the mobile information terminal 413, and acquires the data recorded in the mobile information terminal 413 (or the server via the mobile information terminal). The mobile information terminal 413 has, for example, the same function as the road information database 403 and the vehicle position detection unit 405 described above, acquires the road information (an example of the real object related information), and transmits it to the processor 16. Good. The mobile information terminal 413 may also acquire commercial information (an example of real object-related information) related to a commercial facility in the vicinity of the own vehicle 1 and send it to the processor 16. The mobile information terminal 413 transmits schedule information of the owner (for example, the driver 4) of the mobile information terminal 413, incoming information at the mobile information terminal 413, mail reception information, etc. to the processor 16, and the processor 16 and The image processing circuit 20 may generate or/and transmit image data regarding these.

車外通信接続機器420は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。車外通信接続機器420は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、走行レーン310の路面、区画線、路側物、又は/及び地物(建物など)の位置を取得し、プロセッサ16に送信してもよい。また、車外通信接続機器420は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ16に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、車外通信接続機器420から取得される情報は、上述のものに限定されない。 The extra-vehicle communication connection device 420 is a communication device that exchanges information with the host vehicle 1, and for example, another vehicle connected to the host vehicle 1 through vehicle-to-vehicle communication (V2V: Vehicle To Vehicle), inter-vehicle communication (V2P: A pedestrian (a portable information terminal carried by a pedestrian) connected by a Vehicle To Pedestrian, a network communication device connected by a road-to-vehicle communication (V2I: Vehicle To Road Infrastructure), and in a broad sense, the own vehicle 1 and It includes all things connected by V2X (Vehicle To Everything). The extra-vehicle communication connection device 420 acquires the position of, for example, a pedestrian, a bicycle, a motorcycle, another vehicle (such as a preceding vehicle), a road surface of the traveling lane 310, a lane marking, a roadside object, and/or a feature (such as a building). However, it may be transmitted to the processor 16. In addition, the vehicle exterior communication connection device 420 has the same function as the own vehicle position detection unit 405 described above, and may acquire the position information of the own vehicle 1 and send it to the processor 16, and further, the road information database described above. It also has the function of 403, and may acquire the road information (an example of real object-related information) and send it to the processor 16. The information acquired from the vehicle exterior communication connection device 420 is not limited to the above.

メモリ18に記憶されたソフトウェア構成要素は、実オブジェクト関連情報検出モジュール502、振動判定モジュール504、目位置検出モジュール506、報知必要度判定モジュール508、画像位置設定モジュール510、画像サイズ設定モジュール512、遠近感設定モジュール514、及びグラフィックモジュール516を含む。 The software components stored in the memory 18 are the real object related information detection module 502, the vibration determination module 504, the eye position detection module 506, the notification necessity determination module 508, the image position setting module 510, the image size setting module 512, and the perspective. A feeling setting module 514 and a graphic module 516 are included.

実オブジェクト関連情報検出モジュール502は、自車両1の実オブジェクト(例えば、走行レーン310)の位置(領域)を少なくとも含む情報(実オブジェクト関連情報とも呼ぶ)をI/Oインタフェース14を介して取得する。実オブジェクト関連情報検出モジュール502は、車外センサ407から、自車両1の前景300に存在する実オブジェクトの位置(自車両1の運転席にいる運転者4から自車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい)、及び実オブジェクトのサイズ(高さ方向、横方向のサイズ)、を取得してもよい。 The real object related information detection module 502 acquires information (also called real object related information) including at least the position (area) of the real object (for example, the traveling lane 310) of the host vehicle 1 via the I/O interface 14. .. The real object-related information detection module 502 detects the position of the real object existing in the foreground 300 of the host vehicle 1 (from the driver 4 in the driver seat of the host vehicle 1 to the traveling direction (forward) of the host vehicle 1) from the vehicle exterior sensor 407. The position in the height direction (vertical direction) and the horizontal direction (horizontal direction) when viewed, and the position in the depth direction (front direction) may be added to these), and the size of the real object (height Direction, lateral size).

また、実オブジェクト関連情報検出モジュール502は、車外センサ407から、自車両1の走行レーン310の左側の区画線311(図3A参照)の位置と、右側の区画線312(図3A参照)の位置とを取得し、それら区画線311,312の間の領域(走行レーン310の位置)を算出してもよい。 Further, the real object related information detection module 502 detects, from the vehicle exterior sensor 407, the position of the left lane marking 311 (see FIG. 3A) and the right lane marking 312 (see FIG. 3A) of the traveling lane 310 of the vehicle 1. And the area between the lane markings 311 and 312 (the position of the traveling lane 310) may be calculated.

また、実オブジェクト関連情報検出モジュール502は、車外通信接続機器420を介して実オブジェクト(他車両)から、種類、実オブジェクト(他車両)の方向指示器、舵角、又は/及び運転支援システムによる進行予定経路、進行スケジュール、を示す情報を取得してもよい。 In addition, the real object related information detection module 502 is based on the type, the direction indicator of the real object (other vehicle), the steering angle, and/or the driving support system from the real object (other vehicle) via the vehicle exterior communication connection device 420. Information indicating the planned progress route and the progress schedule may be acquired.

振動判定モジュール504は、自車両1の振動を判定する。振動判定モジュール504は、例えば、車両ECU401から、自車両1の振動の大きさ、頻度、周波数、若しくは/及び自車両1のピッチング角を取得し、自車両1がメモリ18に予め記憶された所定の振動条件を満たす振動をしていると推測できるかを判定し、判定結果をプロセッサ16へ送信する。 The vibration determination module 504 determines the vibration of the vehicle 1. The vibration determination module 504 acquires, for example, the magnitude, frequency, frequency, and/or the pitching angle of the own vehicle 1 of the vibration of the own vehicle 1 from the vehicle ECU 401, and the own vehicle 1 is stored in the memory 18 in advance. It is determined whether or not it is possible to infer that vibration is being performed, and the determination result is transmitted to the processor 16.

目位置検出モジュール506は、自車両1の運転者4の目の位置を検出する。目位置検出モジュール506は、複数段階で設けられた上下方向の領域(又は/及び左右方向の領域)のどこに運転者4の目の位置があるかの判定、運転者4の目の上下方向(Y軸方向)の位置、又は/及び左右方向(X軸方向)の位置の検出、運転者4の目の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール506は、例えば、目位置検出部411から運転者4の目の位置を取得する、又は、目位置検出部411から運転者4の目の位置を推定可能な情報を受信し、運転者4の目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。 The eye position detection module 506 detects the position of the eyes of the driver 4 of the vehicle 1. The eye position detection module 506 determines where in the vertical region (or/and the horizontal region) the eye position of the driver 4 is provided in a plurality of stages, the eye vertical direction of the driver 4 ( Various operations related to the detection of the position in the Y-axis direction or/and the position in the left-right direction (the X-axis direction) and the position of the eyes of the driver 4 (the position in the X-, Y-, and Z-axis directions) are performed. It includes various software components for executing. The eye position detection module 506, for example, acquires the position of the eyes of the driver 4 from the eye position detection unit 411, or receives information that can estimate the position of the eyes of the driver 4 from the eye position detection unit 411, Estimate the position of the eyes of the driver 4. The information capable of estimating the position of the eyes includes, for example, the position of the driver's seat of the host vehicle 1, the position of the driver's 4 face, the height of the sitting height, the input value of the driver 4 on an operation unit (not shown), and the like. Good.

報知必要度判定モジュール508は、車両用表示システム10が表示する各画像200が運転者4に報知するべき内容であるかを判定する。報知必要度判定モジュール508は、I/Oインタフェース14に接続される種々の他の電子機器から情報を取得し、報知必要度を算出してもよい。また、図2でI/Oインタフェース14に接続された電子機器(表示制御装置13も含む)が車両ECU401に情報を送信し、受信した情報に基づき車両ECU401が決定した報知必要度を、報知必要度判定モジュール508が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、自車両1や運転者4(又は自車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。すなわち、報知必要度判定モジュール508は、運転者4に報知すべきかを判定し、画像200の一部又は全部を表示しないことも選択し得る。なお、車両用表示システム10は、報知必要度を推定する(算出する)機能を有していなくてもよく、報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置13とは別に設けられてもよい。 The notification necessity degree determination module 508 determines whether or not each image 200 displayed by the vehicle display system 10 is the content to be notified to the driver 4. The notification necessity degree determination module 508 may acquire information from various other electronic devices connected to the I/O interface 14 and calculate the notification necessity degree. Further, the electronic device (including the display control device 13) connected to the I/O interface 14 in FIG. 2 transmits information to the vehicle ECU 401, and the notification necessity degree determined by the vehicle ECU 401 based on the received information is required. The degree determination module 508 may detect (acquire). The "necessity of notification" is, for example, the degree of danger derived from the degree of seriousness of the possibility itself, the degree of urgency derived from the length of the reaction time required for taking a reaction action, the own vehicle 1 or the driver 4 ( Alternatively, it may be determined based on the effectiveness derived from the situation of other occupants of the own vehicle 1 or a combination thereof (the indicator of the notification necessity degree is not limited to these). That is, the notification necessity degree determination module 508 may determine whether to notify the driver 4 and may select not to display a part or all of the image 200. The vehicle display system 10 may not have the function of estimating (calculating) the notification necessity degree, and some or all of the functions of estimating the notification necessity degree may be displayed by the vehicle display system 10. It may be provided separately from the control device 13.

画像位置設定モジュール510は、表示領域100内での画像200の位置、又は/及び表示領域100の位置を決定する。画像位置設定モジュール510は、画像200が前記AR画像であれば、実オブジェクトと特定の位置関係になって視認されるように、実オブジェクト関連情報検出モジュール502により検出された実オブジェクトの位置に基づき、画像200の座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。例えば、画像位置設定モジュール510は、画像200の中心が実オブジェクトの中心と重なって視認されるように、画像200の左右方向、及び上下方向の位置を決定する。なお、『特定の位置関係』は、実オブジェクト又は自車両1の状況、実オブジェクトの種類、表示される画像の種類などにより調整され得る。また、画像位置設定モジュール510は、表示更新周期毎に、実オブジェクトの位置を予測し、その予測位置に基づいて、画像200の座標を決定してもよい。この場合、画像位置設定モジュール510は、実オブジェクト関連情報検出モジュール502が少なくとも直前に取得した実オブジェクトの位置(観測位置)を含む過去に取得した1つ又はそれ以上の実オブジェクトの観測位置を元に予測される画像200(前記AR画像)の表示更新周期における実オブジェクトの予測位置に基づいて画像200(前記AR画像)の位置を設定してもよい。画像位置設定モジュール510による実オブジェクトの予測位置の算出方法に特段の制約はなく、画像位置設定モジュール510が処理対象とする表示更新周期よりも過去に取得された観測位置に基づいて予測を行う限り、如何なる手法を用いてもよい。画像位置設定モジュール510は、例えば、最小二乗法や、カルマンフィルタ、α−βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。 The image position setting module 510 determines the position of the image 200 within the display area 100 and/or the position of the display area 100. The image position setting module 510 is based on the position of the real object detected by the real object related information detection module 502 so that the image 200 is visually recognized in a specific positional relationship with the real object if the image 200 is the AR image. , The coordinates of the image 200 (including at least the horizontal direction (X-axis direction) and the vertical direction (Y-axis direction) when the driver 4 views the direction of the display area 100 from the driver's seat of the vehicle 1) are determined. .. For example, the image position setting module 510 determines the position of the image 200 in the left-right direction and the vertical direction so that the center of the image 200 is visually recognized so as to overlap with the center of the real object. The “specific positional relationship” can be adjusted depending on the situation of the real object or the host vehicle 1, the type of the real object, the type of the displayed image, and the like. In addition, the image position setting module 510 may predict the position of the real object for each display update cycle, and determine the coordinates of the image 200 based on the predicted position. In this case, the image position setting module 510 uses the observation positions of one or more real objects acquired in the past including at least the position (observation position) of the real object acquired immediately before by the real object related information detection module 502. The position of the image 200 (the AR image) may be set based on the predicted position of the real object in the display update cycle of the image 200 (the AR image) predicted. There is no particular restriction on the method of calculating the predicted position of the real object by the image position setting module 510, as long as the prediction is performed based on the observation position acquired in the past from the display update cycle targeted by the image position setting module 510. Any method may be used. The image position setting module 510 uses, for example, a least squares method, a Kalman filter, an α-β filter, or a prediction algorithm such as a particle filter, and uses the past one or more observation positions to calculate the next value. You may make it predict.

また、画像200が前記非AR画像であれば、画像位置設定モジュール510は、種別毎に予め定められた表示領域100内の所定の位置に各画像200の位置を設定してもよい。 Further, if the image 200 is the non-AR image, the image position setting module 510 may set the position of each image 200 to a predetermined position within the display area 100 that is predetermined for each type.

画像サイズ設定モジュール512は、画像200のサイズを決定する。画像サイズ設定モジュール512は、画像200が前記AR画像であれば、対応付ける実オブジェクトの位置、又は/及びサイズに合わせて、画像200のサイズを変更してもよい。例えば、画像サイズ設定モジュール512は、対応付ける実オブジェクトの位置が遠方であれば、AR画像のサイズを小さくし得る。また、画像サイズ設定モジュール512は、対応付ける実オブジェクトのサイズが大きければ、AR画像のサイズを大きくし得る。画像サイズ設定モジュール512は、過去の所定の回数の実オブジェクトのサイズに基づいて、今回の表示更新周期で表示する画像(AR画像)200を表示するサイズを予測算出する機能を有してもよい。第1の手法として、画像サイズ設定モジュール512は、カメラ(車外センサ407の一例)による過去の2つの撮像画像間で、例えば、Lucas−Kanade法を使用して、実オブジェクトの画素を追跡することで、今回の表示更新周期における実オブジェクトのサイズを予測し、予測した実オブジェクトのサイズに合わせてAR画像のサイズを決定してもよい。第2手法として、過去の2つの撮像画像間での実オブジェクトのサイズの変化に基づき、実オブジェクトのサイズの変化率を求めて、実オブジェクトのサイズの変化率に応じてAR画像のサイズを決定してもよい。なお、時系列で変化する視点からの実オブジェクトのサイズ変化を推定する方法は、上記に限られず、例えば、Horn−Schunck法、Buxton−Buxton、Black−Jepson法などのオプティカルフロー推定アルゴリズムを含む公知の手法を用いてもよい。 The image size setting module 512 determines the size of the image 200. If the image 200 is the AR image, the image size setting module 512 may change the size of the image 200 according to the position and/or the size of the real object to be associated. For example, the image size setting module 512 can reduce the size of the AR image if the position of the real object to be associated is distant. Further, the image size setting module 512 can increase the size of the AR image if the size of the real object to be associated is large. The image size setting module 512 may have a function of predicting and calculating the display size of the image (AR image) 200 to be displayed in the current display update cycle, based on the size of the real object a predetermined number of times in the past. .. As a first method, the image size setting module 512 uses, for example, the Lucas-Kanade method to track pixels of a real object between two past captured images captured by a camera (an example of the sensor 407 outside the vehicle). Then, the size of the real object in the current display update cycle may be predicted, and the size of the AR image may be determined according to the predicted size of the real object. As a second method, the rate of change of the size of the real object is obtained based on the change of the size of the real object between the past two captured images, and the size of the AR image is determined according to the rate of change of the size of the real object. You may. Note that the method of estimating the size change of the real object from the viewpoint that changes in time series is not limited to the above, and includes, for example, known optical flow estimation algorithms such as the Horn-Schunkk method, the Buxton-Buxton, and the Black-Jepson method. You may use the method of.

また、画像200が前記非AR画像であれば、画像サイズ設定モジュール512は、種別毎に予め定められたサイズに各画像200のサイズを設定してもよい。 Further, if the image 200 is the non-AR image, the image size setting module 512 may set the size of each image 200 to a size predetermined for each type.

また、画像サイズ設定モジュール512は、実オブジェクト関連情報検出モジュール502により検出された画像200を対応付けて表示する実オブジェクトの種類、数、又は/及び、報知必要度判定モジュール508で検出された(推定された)報知必要度の大きさに基づいて、画像200のサイズを決定し得る。 Further, the image size setting module 512 is detected by the type, number, and/or notification necessity determination module 508 of the real object that displays the image 200 detected by the real object related information detection module 502 in association with each other ( The size of the image 200 may be determined based on the estimated size of the notification need.

遠近感設定モジュール514は、自車両1が所定の条件の振動が発生しているか否かの判定結果に基づいて、画像200の遠近感を変更する。具体的には、遠近感設定モジュール514は、自車両1が所定の条件の振動をしていないと判定される場合、画像200を遠近感のあるパースペクティブ画像210に設定し、自車両1が所定の条件の振動をしていると判定される場合、画像200を遠近感のない非パースペクティブ画像230に設定する。 The perspective setting module 514 changes the perspective of the image 200 based on the determination result of whether or not the vehicle 1 is vibrating under a predetermined condition. Specifically, the perspective setting module 514 sets the image 200 to the perspective image 210 with perspective when the own vehicle 1 is determined not to vibrate under a predetermined condition, and the own vehicle 1 sets the predetermined image. When it is determined that the image is vibrating under the condition of, the image 200 is set as the non-perspective image 230 without perspective.

図3Aは、パースペクティブ画像210の表示例を示す図である。図3Aのパースペクティブ画像210は、自車両1の案内経路を示す矢印形状であり、自車両1の運転者4から見ると、自車両1の前景300の走行レーン310に重なる位置に配置され、走行レーン310に沿っている仮想オブジェクトのように視認される。そして、パースペクティブ画像210は、自車両1の近傍の走行レーン310に重なって視認される部分のサイズが、自車両1の遠方の走行レーン310に重なる部分のサイズより大きいように視認される。具体的には、自車両1の近傍の走行レーン310に重なって視認される部分の左右方向(X軸方向)の幅が、自車両1の遠方の走行レーン310に重なる部分の左右方向の幅より大きいように視認される。このような場合、視認者(運転者4)は、パースペクティブ画像210を、走行レーン310に沿っている仮想オブジェクトを俯瞰しているように知覚し得る。 FIG. 3A is a diagram showing a display example of the perspective image 210. The perspective image 210 of FIG. 3A has an arrow shape indicating the guide route of the host vehicle 1, and is arranged at a position overlapping the traveling lane 310 of the foreground 300 of the host vehicle 1 when viewed from the driver 4 of the host vehicle 1 and travels. It is visually recognized as a virtual object along the lane 310. Then, the perspective image 210 is visually recognized such that the size of the portion which is viewed in the vicinity of the own vehicle 1 and overlaps with the travel lane 310 is larger than the size of the part which is overlapped in the far travel lane 310 of the own vehicle 1. Specifically, the width in the left-right direction (X-axis direction) of the portion that is visually recognized as being overlapped with the traveling lane 310 near the host vehicle 1 is the width in the left-right direction of the portion that is overlapped with the traveling lane 310 that is far from the host vehicle 1. Seen as larger. In such a case, the viewer (driver 4) can perceive the perspective image 210 as if he or she is looking down on the virtual object along the traveling lane 310.

他方、図3Bは、非パースペクティブ画像230の表示例を示す図である。図3Bの非パースペクティブ画像230は、図3Aのパースペクティブ画像210と同様、自車両1の案内経路を示す矢印形状であり、自車両1の運転者4から見ると、自車両1の前景300の走行レーン310に重なる位置に配置されるが、自車両1の近傍の走行レーン310に重なって視認される部分のサイズが、自車両1の遠方の走行レーン310に重なる部分のサイズと同等に視認される。具体的には、自車両1の近傍の走行レーン310に重なって視認される部分の左右方向(X軸方向)の幅と、自車両1の遠方の走行レーン310に重なる部分の左右方向の幅とが同じに視認される。このような場合、視認者(運転者4)は、非パースペクティブ画像230を、上下左右方向からなる面(XY平面)に沿っている仮想オブジェクトのように知覚し得る。すなわち、非パースペクティブ画像230が、文字や、記号、図形、イラスト、静止画像(写真)、動画像などの画像部品を、正面から見た画像であると定義すると、パースペクティブ画像210は、前記画像部品を、正面ではない斜めから見た画像であると定義することもできる。 On the other hand, FIG. 3B is a diagram showing a display example of the non-perspective image 230. The non-perspective image 230 of FIG. 3B is, like the perspective image 210 of FIG. 3A, in the shape of an arrow indicating the guide route of the host vehicle 1. When viewed from the driver 4 of the host vehicle 1, the foreground 300 of the host vehicle 1 travels. The size of the portion that is arranged so as to overlap the lane 310 and that is visually recognized as being overlapped with the traveling lane 310 in the vicinity of the own vehicle 1 is visually recognized as being the same as the size of the portion that overlaps with the far traveling lane 310 of the own vehicle 1. It Specifically, the width in the left-right direction (X-axis direction) of the portion that is visually recognized as being overlapped with the traveling lane 310 near the host vehicle 1 and the width in the left-right direction of the portion that is overlapped with the traveling lane 310 that is far from the host vehicle 1. And are seen in the same way. In such a case, the viewer (driver 4) can perceive the non-perspective image 230 as if it were a virtual object along a plane (XY plane) formed by the vertical and horizontal directions. That is, when the non-perspective image 230 is defined as an image of a character, a symbol, a figure, an illustration, a still image (photograph), a moving image, or the like viewed from the front, the perspective image 210 is defined as the image component. Can also be defined as an image viewed from an angle rather than the front.

また、遠近感設定モジュール514は、自車両1が所定の条件の振動をしていないと判定される場合、画像200を遠近感のあるパースペクティブ画像210に設定し、自車両1が所定の条件の振動をしていると判定される場合、画像200を遠近感の弱いパースペクティブ画像220に設定してもよい。図4は、遠近感の弱いパースペクティブ画像220の表示例を説明するための図である。図4(a)は、自車両1が所定の条件の振動をしていないと判定される場合に表示されるパースペクティブ画像210である。このパースペクティブ画像210は、走行レーン310の遠方側に重なり得る運転者4から見た上側(Y軸正方向)に配置される部分211が、走行レーン310の近傍側に重なり得る運転者4から見た下側(Y軸負方向)に配置される部分212よりもかなり小さく描画される。図4(c)は、図4(a)のパースペクティブ画像210に対応する非パースペクティブ画像230である。この非パースペクティブ画像230は、走行レーン310の遠方側に重なり得る運転者4から見た上側(Y軸正方向)に配置される部分231と、走行レーン310の近傍側に重なり得る運転者4から見た下側(Y軸負方向)に配置される部分232とが同じサイズで描画される。すなわち、自車両1が所定の条件の振動をしていないと判定される場合に表示されるパースペクティブ画像210と、このパースペクティブ画像210に対応する非パースペクティブ画像230との間の表示態様が、図4(b)に示すような、遠近感の弱いパースペクティブ画像220と定義することができる。具体的には、図4(b)の遠近感の弱いパースペクティブ画像220は、走行レーン310の遠方側に重なり得る運転者4から見た上側(Y軸正方向)に配置される部分221と、走行レーン310の近傍側に重なり得る運転者4から見た下側(Y軸負方向)に配置される部分222とのサイズの差が、図4(a)のパースペクティブ画像210における符号221,222で示す画像のサイズの差より小さく描かれている。 In addition, the perspective setting module 514 sets the image 200 to the perspective image 210 with perspective when the own vehicle 1 is determined not to vibrate under the predetermined condition, and the own vehicle 1 meets the predetermined condition. When it is determined that the image is vibrating, the image 200 may be set to the perspective image 220 having a weak perspective. FIG. 4 is a diagram for explaining a display example of the perspective image 220 having a weak perspective. FIG. 4A is a perspective image 210 displayed when it is determined that the host vehicle 1 is not vibrating under a predetermined condition. In this perspective image 210, a portion 211 arranged on the upper side (Y axis positive direction) viewed from the driver 4 who may overlap on the far side of the driving lane 310 is viewed from the driver 4 who may overlap on the near side of the driving lane 310. It is drawn considerably smaller than the portion 212 arranged on the lower side (Y-axis negative direction). FIG. 4C is a non-perspective image 230 corresponding to the perspective image 210 of FIG. This non-perspective image 230 is from a portion 231 arranged on the upper side (Y-axis positive direction) viewed from the driver 4 that may overlap on the far side of the driving lane 310, and a driver 4 that may overlap on the side near the driving lane 310. A portion 232 arranged on the lower side (Y-axis negative direction) viewed is drawn in the same size. That is, the display mode between the perspective image 210 displayed when it is determined that the host vehicle 1 is not vibrating under the predetermined condition and the non-perspective image 230 corresponding to this perspective image 210 is as shown in FIG. It can be defined as a perspective image 220 having a weak perspective as shown in (b). Specifically, the perspective image 220 with a weak perspective shown in FIG. 4B includes a portion 221 arranged on the upper side (Y-axis positive direction) viewed from the driver 4, which may overlap with the far side of the driving lane 310. The difference in size from the portion 222 arranged on the lower side (Y-axis negative direction) viewed from the driver 4 that may overlap the side near the driving lane 310 is denoted by reference numerals 221 and 222 in the perspective image 210 of FIG. 4A. It is drawn smaller than the size difference of the image shown by.

図2のグラフィックモジュール516は、表示される画像200の視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を設定するための構成要素を含めた画像表示部11に画像200をレンダリングして表示するための様々な既知のソフトウェア構成要素を含む。なお、グラフィックモジュール516は、画像200の視覚的効果に影響を与え得る画像表示部11のディスプレイ(不図示)以外の光源(不図示)などのハードウェア構成要素を制御するためのソフトウェア構成要素を含んでいてもよい。 The graphics module 516 of FIG. 2 provides the image display 11 with components for setting visual effects (eg, brightness, transparency, saturation, contrast, or other visual characteristic) of the displayed image 200. It includes various known software components for rendering and displaying image 200. The graphic module 516 includes software components for controlling hardware components such as a light source (not shown) other than the display (not shown) of the image display unit 11 that may affect the visual effect of the image 200. May be included.

また、グラフィックモジュール516は、報知必要度判定モジュール508により判定された報知必要度がメモリ18に記憶された所定の報知必要度閾値より低ければ、その画像200を非表示にしてもよい。 Further, the graphic module 516 may hide the image 200 if the notification necessity degree determined by the notification necessity degree determination module 508 is lower than a predetermined notification necessity degree threshold stored in the memory 18.

プロセッサ16及び画像処理回路20は、画像位置設定モジュール510が設定した座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズ設定モジュール512が設定したサイズ、遠近感設定モジュール514が設定した遠近感、グラフィックモジュール516が設定したプロパティ、に基づいて運転者4に視認されるように画像表示部11に画像200を表示する。 The processor 16 and the image processing circuit 20 display the coordinates set by the image position setting module 510 (the left-right direction (X-axis direction) when the driver 4 sees the direction of the display area 100 from the driver's seat of the vehicle 1 and the vertical direction). Direction (including at least the Y-axis direction), the size set by the image size setting module 512, the perspective set by the perspective setting module 514, and the property set by the graphic module 516, which are visually recognized by the driver 4. Thus, the image 200 is displayed on the image display unit 11.

図5は、パースペクティブ画像の表示処理のフロー図である。まず、プロセッサ16は、実オブジェクト関連情報検出モジュール502を実行して、前景300における実オブジェクト(走行レーン310)の位置(領域)を取得し(ステップS11)、目位置検出モジュール506を実行して、視認者(運転者4)の目の位置を取得(ステップS12)し、画像位置設定モジュール510を実行し、ステップS11で取得した実オブジェクトの位置と、ステップS12で取得した視認者の目の位置と、に基づいて、前景300における実オブジェクトと特定の位置関係になる位置に画像200を設定し(ステップS13)し、ステップS13で設定した画像200の位置に画像200を表示する(ステップS14)。 FIG. 5 is a flowchart of a perspective image display process. First, the processor 16 executes the real object related information detection module 502 to acquire the position (area) of the real object (running lane 310) in the foreground 300 (step S11), and executes the eye position detection module 506. , The position of the eyes of the viewer (driver 4) is acquired (step S12), the image position setting module 510 is executed, the position of the real object acquired in step S11, and the eyes of the viewer acquired in step S12. Based on the position, the image 200 is set at a position having a specific positional relationship with the real object in the foreground 300 (step S13), and the image 200 is displayed at the position of the image 200 set at step S13 (step S14). ).

図6は、自車両の振動に応じて画像の表示態様を変化させる表示処理のフロー図である。この処理は、図5の表示処理によりパースペクティブ画像210が表示されると処理を開始する。まず、プロセッサ16は、振動判定モジュール504を実行して、自車両1が一定の大きさ以上で振動していると推定できるか判定し(ステップS21)、ステップS22に移行する。ステップS22では、自車両1が一定の大きさ以上で振動していると推定されない場合、プロセッサ16は、パースペクティブ画像210を画像表示部11に表示し、自車両1が一定の大きさ以上で振動していると推定される場合、プロセッサ16は、画像表示部11に、遠近感の弱いパースペクティブ画像220、又は遠近感のない非パースペクティブ画像230を表示する。 FIG. 6 is a flowchart of a display process for changing the display mode of the image according to the vibration of the own vehicle. This process starts when the perspective image 210 is displayed by the display process of FIG. First, the processor 16 executes the vibration determination module 504 to determine whether it can be estimated that the host vehicle 1 is vibrating at a certain size or more (step S21), and proceeds to step S22. In step S22, when it is not estimated that the host vehicle 1 is vibrating above a certain size, the processor 16 displays the perspective image 210 on the image display unit 11, and the host vehicle 1 vibrates above a certain size. If it is estimated that the perspective image is present, the processor 16 displays the perspective image 220 having a weak perspective or the non-perspective image 230 having no perspective on the image display unit 11.

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above can be performed by executing one or more functional modules of an information processing device such as a general-purpose processor or an application-specific chip. All of these modules, combinations of these modules, and/or combinations with known hardware capable of substituting their functions are included in the scope of protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of the vehicular display system 10 are optionally implemented by hardware, software, or a combination of hardware and software to implement the principles of the various described embodiments. The functional blocks described in FIG. 2 may optionally be combined or one functional block may be separated into two or more sub-blocks to implement the principles of the described embodiments. As will be appreciated by those skilled in the art. Thus, the description herein optionally supports any possible combination or division of the functional blocks described herein.

以上に説明したように、本実施形態の表示制御装置は、自車両1が一定の大きさ以上で振動していると推定される場合、表示していたパースペクティブ画像210の遠近感を弱める。これによれば、走行レーンと、この走行レーン310の路面に概ね沿って(概ね平行になるように)表示されていた画像200との相対角度が崩れるような自車両の振動が検出されると、画像200が走行レーン310の路面に沿っていないような遠近感の弱い表示態様になるため、画像200と走行レーン310の路面との相対角度が振動により変化した場合でも違和感を与えにくくすることができる。 As described above, the display control device of the present embodiment weakens the perspective of the displayed perspective image 210 when it is estimated that the vehicle 1 is vibrating at a certain size or more. According to this, when the vibration of the vehicle is detected such that the relative angle between the traveling lane and the image 200 that is displayed substantially along the road surface of the traveling lane 310 (substantially parallel) is broken. Since the image 200 has a display mode in which the perspective is not as if it is not along the road surface of the driving lane 310, it is difficult to give a sense of discomfort even when the relative angle between the image 200 and the road surface of the driving lane 310 changes due to vibration. You can

また、画像表示部11は、立体表示器を採用し、3次元領域である表示領域100に画像200を表示するものであってもよい。 The image display unit 11 may employ a stereoscopic display and display the image 200 in the display area 100, which is a three-dimensional area.

また、表示制御装置13(プロセッサ16)は、振動があると判定される場合に、パースペクティブ画像210の遠近感を弱めればよく、I/Oインタフェース14から振動の判定結果が取得できれば、振動を判定する機能(振動判定モジュール504)を有していなくてもよい。この場合、表示制御装置13(プロセッサ16)は、例えば、車両ECU401から振動の判定結果を取得してもよい。 Further, when it is determined that there is vibration, the display control device 13 (processor 16) may weaken the perspective of the perspective image 210, and if the vibration determination result can be obtained from the I/O interface 14, the display control device 13 (processor 16) reduces the vibration. The determination function (vibration determination module 504) may not be included. In this case, the display control device 13 (processor 16) may obtain the vibration determination result from the vehicle ECU 401, for example.

1…自車両、2…フロントウインドシールド、4…運転者、5…ダッシュボード、10…車両用表示システム、11…画像表示部、11a…表示光、13…表示制御装置、14…I/Oインタフェース、16…プロセッサ、18…メモリ、20…画像処理回路、100…表示領域、200…画像、210…パースペクティブ画像、220…パースペクティブ画像、230…非パースペクティブ画像、300…前景、310…走行レーン、311…区画線、312…区画線、401…車両ECU、403…道路情報データベース、405…自車位置検出部、407…車外センサ、409…視線方向検出部、411…目位置検出部、413…携帯情報端末、420…車外通信接続機器、502…実オブジェクト関連情報検出モジュール、504…振動判定モジュール、506…目位置検出モジュール、508…報知必要度判定モジュール、510…画像位置設定モジュール、512…画像サイズ設定モジュール、514…遠近感設定モジュール、516…グラフィックモジュール、θ…鋭角 DESCRIPTION OF SYMBOLS 1... Own vehicle, 2... Front windshield, 4... Driver, 5... Dashboard, 10... Vehicle display system, 11... Image display part, 11a... Display light, 13... Display control device, 14... I/O Interface, 16... Processor, 18... Memory, 20... Image processing circuit, 100... Display area, 200... Image, 210... Perspective image, 220... Perspective image, 230... Non-perspective image, 300... Foreground, 310... Driving lane, 311... Marking line, 312... Marking line, 401... Vehicle ECU, 403... Road information database, 405... Own vehicle position detecting unit, 407... Outside sensor, 409... Line-of-sight direction detecting unit, 411... Eye position detecting unit, 413... Portable information terminal, 420... External communication connection device, 502... Real object related information detection module, 504... Vibration determination module, 506... Eye position detection module, 508... Notification necessity determination module, 510... Image position setting module, 512... Image size setting module, 514... Perspective setting module, 516... Graphic module, θ... Acute angle

Claims (11)

自車両の運転者から見られる前景に、遠方ほど小さく視認されるパースペクティブ画像(210)を表示する画像表示部(11)を制御する表示制御装置(13)において、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
少なくとも前記自車両が一定の大きさ以上で振動していると推定される場合、
表示していた前記パースペクティブ画像(210)の遠近感を弱める、命令を実行する、
表示制御装置。
In a display control device (13) for controlling an image display unit (11) that displays a perspective image (210) that is viewed smaller in the distance, in the foreground seen by the driver of the vehicle,
One or more processors (16),
A memory (18),
One or more computer programs stored in the memory (18) and configured to be executed by the one or more processors (16),
Said one or more processors (16)
If it is estimated that at least the vehicle is vibrating above a certain magnitude,
Reduce the perspective of the displayed perspective image (210), execute a command,
Display controller.
前記パースペクティブ画像(210)は、前記自車両の運転席に着座する運転者から見て、前記前景における路面に重畳して視認される、
請求項1に記載の表示制御装置。
The perspective image (210) is viewed by the driver sitting in the driver's seat of the own vehicle in a superimposed manner on the road surface in the foreground.
The display control device according to claim 1.
表示していた前記パースペクティブ画像(210)の遠近感を弱める前記命令は、
前記パースペクティブ画像(210)を、遠近感のない非パースペクティブ画像(230)に変更すること、を含む、
請求項1に記載の表示制御装置。
The command for weakening the perspective of the perspective image (210) being displayed is
Changing the perspective image (210) to a non-perspective image (230) without perspective.
The display control device according to claim 1.
自車両の運転者から見られる前景に、遠方ほど小さく視認されるパースペクティブ画像(210)を表示する画像表示部(11)と、
前記画像表示部(11)を制御する表示制御装置(13)と、を備え、
前記表示制御装置(13)は、
少なくとも前記自車両が一定の大きさ以上で振動していると推定される場合、
表示していた前記パースペクティブ画像(210)の遠近感を弱める、命令を実行する、
ヘッドアップディスプレイ装置。
An image display unit (11) for displaying a perspective image (210) that is visually recognized to be smaller in the distance, in the foreground seen by the driver of the own vehicle;
A display control device (13) for controlling the image display unit (11),
The display control device (13) is
If it is estimated that at least the vehicle is vibrating above a certain magnitude,
Reduce the perspective of the displayed perspective image (210), execute a command,
Head-up display device.
前記パースペクティブ画像(210)は、前記自車両の運転席に着座する運転者から見て、前記前景における路面に重畳して視認される、
請求項4に記載のヘッドアップディスプレイ装置。
The perspective image (210) is viewed by a driver seated in the driver's seat of the own vehicle so as to be superimposed on the road surface in the foreground.
The head-up display device according to claim 4.
前記表示制御装置(13)は、
表示していた前記パースペクティブ画像(210)の遠近感を弱める際、
前記パースペクティブ画像(210)を、遠近感のない非パースペクティブ画像(230)に変更する、
請求項4に記載のヘッドアップディスプレイ装置。
The display control device (13) is
When weakening the perspective of the displayed perspective image (210),
Changing the perspective image (210) to a non-perspective image (230) without perspective.
The head-up display device according to claim 4.
前記画像表示部(11)が前記パースペクティブ画像(210)を表示する表示領域(100)は、前記運転者の左右方向から見て、前記表示領域(100)と前記自車両の走行レーンの路面とのなす鋭角(θ)が、0〜45[degree]の範囲となるように設定される、
請求項4に記載のヘッドアップディスプレイ装置。
The display area (100) in which the image display section (11) displays the perspective image (210) is the display area (100) and the road surface of the traveling lane of the own vehicle when viewed from the left and right direction of the driver. The acute angle (θ) formed by is set to be in the range of 0 to 45 [degree],
The head-up display device according to claim 4.
自車両の運転者から見られる前景に、遠方ほど小さく視認されるパースペクティブ画像(210)を表示する画像表示部(11)を制御する方法において、
少なくとも前記自車両が一定の大きさ以上で振動していると推定される場合、
表示していた前記パースペクティブ画像(210)の遠近感を弱めること、を含む、
方法。
In a method of controlling an image display unit (11) that displays a perspective image (210) that is visually recognized to be smaller in the distance, in the foreground viewed from the driver of the own vehicle,
If it is estimated that at least the vehicle is vibrating above a certain magnitude,
Weakening the perspective of the displayed perspective image (210).
Method.
前記パースペクティブ画像(210)は、前記自車両の運転席に着座する運転者から見て、前記前景における路面に重畳して視認される、
請求項8に記載の方法。
The perspective image (210) is viewed by the driver sitting in the driver's seat of the own vehicle in a superimposed manner on the road surface in the foreground.
The method of claim 8.
表示していた前記パースペクティブ画像(210)の遠近感を弱めることは、
前記パースペクティブ画像(210)を、遠近感のない非パースペクティブ画像(230)に変更すること、を含む、
請求項8に記載の方法。
To reduce the perspective of the displayed perspective image (210)
Changing the perspective image (210) to a non-perspective image (230) without perspective.
The method of claim 8.
請求項8乃至10のいずれか一項に記載の方法を実行するための命令を含む、コンピュータ・プログラム。
A computer program comprising instructions for performing the method according to any one of claims 8-10.
JP2019016452A 2019-01-31 2019-01-31 Display control device, head-up display device, method and computer program Pending JP2020121704A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019016452A JP2020121704A (en) 2019-01-31 2019-01-31 Display control device, head-up display device, method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016452A JP2020121704A (en) 2019-01-31 2019-01-31 Display control device, head-up display device, method and computer program

Publications (1)

Publication Number Publication Date
JP2020121704A true JP2020121704A (en) 2020-08-13

Family

ID=71992030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016452A Pending JP2020121704A (en) 2019-01-31 2019-01-31 Display control device, head-up display device, method and computer program

Country Status (1)

Country Link
JP (1) JP2020121704A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020211298A1 (en) 2020-09-09 2022-03-10 Volkswagen Aktiengesellschaft Method for representing a virtual element

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020211298A1 (en) 2020-09-09 2022-03-10 Volkswagen Aktiengesellschaft Method for representing a virtual element

Similar Documents

Publication Publication Date Title
JP4476719B2 (en) Navigation system
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
JP7006235B2 (en) Display control device, display control method and vehicle
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
US11260856B2 (en) Information display device, information display method, and recording medium
JP7459883B2 (en) Display control device, head-up display device, and method
US20230373309A1 (en) Display control device
JP2020121704A (en) Display control device, head-up display device, method and computer program
WO2022230995A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
WO2020158601A1 (en) Display control device, method, and computer program
JP2020121607A (en) Display control device, method and computer program
JP2020086884A (en) Lane marking estimation device, display control device, method and computer program
JP7434894B2 (en) Vehicle display device
JP2020117105A (en) Display control device, method and computer program
JP2020154468A (en) Driving support device, method, and computer program
WO2021200913A1 (en) Display control device, image display device, and method
WO2023145852A1 (en) Display control device, display system, and display control method
JP2020199883A (en) Display control device, head-up display device, method and computer program
JP2020106911A (en) Display control device, method, and computer program
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2020190602A (en) Display control device, head-up display device, method and computer program
JP2020117104A (en) Display control device, display system, method and computer program
JP7322886B2 (en) Vehicle display, method and computer program
JP2020086882A (en) Display control device, method and computer program