JP7180702B2 - Display device, display system, and program - Google Patents

Display device, display system, and program Download PDF

Info

Publication number
JP7180702B2
JP7180702B2 JP2021014654A JP2021014654A JP7180702B2 JP 7180702 B2 JP7180702 B2 JP 7180702B2 JP 2021014654 A JP2021014654 A JP 2021014654A JP 2021014654 A JP2021014654 A JP 2021014654A JP 7180702 B2 JP7180702 B2 JP 7180702B2
Authority
JP
Japan
Prior art keywords
display
display mode
area
moving
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021014654A
Other languages
Japanese (ja)
Other versions
JP2021076864A5 (en
JP2021076864A (en
Inventor
和寛 ▲高▼澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021014654A priority Critical patent/JP7180702B2/en
Publication of JP2021076864A publication Critical patent/JP2021076864A/en
Publication of JP2021076864A5 publication Critical patent/JP2021076864A5/ja
Application granted granted Critical
Publication of JP7180702B2 publication Critical patent/JP7180702B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置、表示システム、及びプログラムに関する。 The present invention relates to display devices, display systems, and programs.

従来、自動車や航空機等の移動装置において、ユーザの視野に直接情報を映し出すヘッドアップディスプレイ(HUD、Head-Up Display)が知られている。 2. Description of the Related Art Conventionally, a head-up display (HUD, Head-Up Display) that displays information directly in the field of view of a user is known in mobile devices such as automobiles and aircraft.

HUDは、ユーザ(運転者)に視線をあまり動かすことなく情報を視認させることができるため、運転に伴う身体的な負荷の低減や、よそ見による事故の発生を防ぐ効果が期待され、近年普及し始めている。 Since HUDs allow users (drivers) to visually recognize information without moving their line of sight, they are expected to reduce the physical burden associated with driving and prevent accidents caused by looking away. starting.

HUDでは、例えばレーザーやLCD(Liquid Crystal Display)の光源を用い、フロントガラス(ウインドシールド)やコンバイナに投影することにより、ユーザの視線の先に、宙に浮いたような虚像を表示する。 The HUD uses a light source such as a laser or LCD (Liquid Crystal Display) and projects it onto a windshield (windshield) or a combiner to display a virtual image that appears to be floating in space in front of the user's line of sight.

HUDを用いて、例えば対向車等の物体に関する情報や経路案内等のナビゲーションに関する情報を示すオブジェクトを、背景の実世界に重ねて表示する、拡張現実(AR、Augmented Reality)表示を行う場合を考える。 Consider a case where a HUD is used for augmented reality (AR) display, in which an object indicating information about an object such as an oncoming vehicle or navigation information such as route guidance is superimposed on the background of the real world. .

この場合、従来技術では、当該物体の移動やHUDが搭載された自装置の移動に伴い、HUDで表示可能な領域外にオブジェクトが移動して行く。この場合、HUDで表示可能な領域の縁(境界)で、オブジェクトの表示が欠けるため、ユーザがHUDの表示領域の縁(境界)を認識してしまい、AR表示と背景の実世界との一体感が薄れ、AR表示のリアリティが薄れてしまうという問題がある。 In this case, in the conventional technology, the object moves out of the area that can be displayed by the HUD as the object moves and the device on which the HUD is mounted moves. In this case, since the display of the object is missing at the edge (boundary) of the area that can be displayed by the HUD, the user may recognize the edge (boundary) of the display area of the HUD, resulting in a mismatch between the AR display and the background real world. There is a problem that the physical sensation fades and the reality of the AR display fades.

そこで、背景にオブジェクトを重ねて表示する表示領域の境界を認識されにくくする技術を提供することを目的とする。 Therefore, it is an object of the present invention to provide a technique for making it difficult to recognize the boundary of a display area in which an object is superimposed on the background.

オブジェクトを背景上に重ねて表示する表示部と、前記オブジェクトの位置、及び前記
オブジェクトの移動方向を取得し、取得された前記オブジェクトの位置、及び前記オブジ
ェクトの移動方向に基づいて、前記オブジェクトが前記表示部により表示可能な領域の縁
に到達するまでの時間または距離を推定し、推定された、前記オブジェクトが前記領域の
縁に到達するまでの時間または距離に基づいて、前記オブジェクトの表示態様を決定する
演算装置と、を備え、前記演算装置は、前記オブジェクトが前記表示可能な領域に入る場
合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様か
ら、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定する
a display unit that displays an object superimposed on a background; a position of the object and a moving direction of the object; estimating the time or distance it takes for the object to reach the edge of an area displayable by a display unit, and adjusting the display mode of the object based on the estimated time or distance for the object to reach the edge of the area; and a computing device for determining, when the object enters the displayable region, the computing device gradually, at a constant speed, from the time the object enters the display region, from a display mode that is difficult for the user to visually recognize. and the display mode of the object at a second display position closer to the boundary of the displayable area of the display unit than at the first display position is changed to the display mode of the object at the first display position. is determined to be a display mode that is less visible .

開示の技術によれば、背景にオブジェクトを重ねて表示する表示領域の境界を認識されにくくすることが可能となる。 According to the disclosed technique, it is possible to make it difficult to recognize the boundary of the display area in which the object is superimposed on the background.

実施形態に係る表示システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration|structure of the display system which concerns on embodiment. 実施形態に係る表示装置の設置例について説明する図である。It is a figure explaining the example of installation of the display apparatus which concerns on embodiment. 実施形態に係る表示装置の表示領域について説明する図である。It is a figure explaining the display area of the display apparatus which concerns on embodiment. 実施形態に係る表示装置のハードウェア構成の一例を示す図である。It is a figure showing an example of hardware constitutions of a display concerning an embodiment. 実施形態に係る表示装置の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the display apparatus which concerns on embodiment. 表示部により表示されるAR表示ついて説明する図である。It is a figure explaining AR display displayed by a display part. 対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する処理の一例を示すフローチャートである。9 is a flowchart showing an example of processing for determining the display mode of a target object according to the time required for the target object to move to the position of the edge of the display area; 対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する処理の一例を説明する図である。FIG. 8 is a diagram illustrating an example of processing for determining the display mode of a target object according to the time required for the target object to move to the edge position of the display area; 対象オブジェクトの表示態様の変化について説明する図である。It is a figure explaining the change of the display mode of a target object. 対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離に応じて、対象オブジェクトの表示態様を決定する処理の一例を示すフローチャートである。10 is a flowchart showing an example of processing for determining the display mode of a target object according to the distance in the display area between the current display position of the target object and the edge of the display area to which the target object is to be moved; オブジェクトが表示領域に入る場合の処理について説明する図である。FIG. 10 is a diagram illustrating processing when an object enters the display area; オブジェクトが表示領域から出た後、再度表示領域に入る場合の処理の一例を示すフローチャートである。9 is a flow chart showing an example of processing when an object enters the display area again after leaving the display area; オブジェクトが表示領域から出た後、再度表示領域に入る場合のオブジェクトの表示態様の例について説明する図である。FIG. 10 is a diagram illustrating an example of a display mode of an object when the object reenters the display area after exiting the display area; 外乱によりオブジェクトが表示領域に入ったまたは表示領域から出た場合の表示態様の例について説明する図である。FIG. 10 is a diagram illustrating an example of a display mode when an object enters or exits the display area due to disturbance; オブジェクトが回転されたことにより小さく表示される表示態様例について説明する図である。FIG. 10 is a diagram illustrating an example of a display mode in which an object is rotated and displayed in a smaller size;

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<システム構成>
まず、本実施形態に係る表示システム1のシステム構成について、図1を用いて説明する。図1は、実施形態に係る表示システム1のシステム構成の一例を示す図である。
<System configuration>
First, the system configuration of the display system 1 according to this embodiment will be described using FIG. FIG. 1 is a diagram showing an example of a system configuration of a display system 1 according to an embodiment.

図1に示すように、本実施形態に係る表示システム1は、車両、航空機、船舶等の移動装置に搭載され、表示装置10と、1以上のECU(Electric Control Unit)20-1、20-2、・・・とを備える。なお、以下では、表示システム1を車両に搭載した例について説明するが、表示システム1は、車両以外の移動装置においても適用可能である。 As shown in FIG. 1, a display system 1 according to the present embodiment is mounted on a mobile device such as a vehicle, an aircraft, or a ship, and includes a display device 10, one or more ECUs (Electric Control Units) 20-1, 20- 2, . . . Although an example in which the display system 1 is mounted on a vehicle will be described below, the display system 1 can also be applied to mobile devices other than vehicles.

表示装置10とECU20との間は、例えばCAN(Control Area Network)などのネットワークにより接続される。 The display device 10 and the ECU 20 are connected by a network such as CAN (Control Area Network).

表示装置10は、例えばHUDであり、ECU20から取得した情報に基づき、例えば対向車等の物体に関する情報や、右折及び左折の指示や交差点名等の経路案内のためのナビゲーションに関する情報を示すオブジェクトを、背景の実世界上に重ねて表示する。なお、オブジェクトを、背景の実世界(背景上)に重ねて表示することは、AR表示とも称されている。 The display device 10 is, for example, a HUD, and based on the information acquired from the ECU 20, displays an object indicating information about an object such as an oncoming vehicle, directions for turning right and left, and navigation information for route guidance such as intersection names. , superimposed on the background real world. Note that displaying an object overlaid on the background real world (on the background) is also called AR display.

図2は、実施形態に係る表示装置10の設置例について説明する図である。図2に示すように、表示装置10は、例えばハンドル501に対面した際のドライバー502の正面(移動装置100の進行方向)のダッシュボード503内に設置される。表示装置10は、例えばダッシュボード503に開けられた開口部(投影口)から投影光504を照射し、フロントガラス505に反射させてドライバー502に虚像を見せることにより、表示領域506にオブジェクトを表示する。 FIG. 2 is a diagram illustrating an installation example of the display device 10 according to the embodiment. As shown in FIG. 2, the display device 10 is installed, for example, in a dashboard 503 in front of a driver 502 facing a steering wheel 501 (in the traveling direction of the mobile device 100). The display device 10 irradiates projection light 504 from, for example, an opening (projection opening) in a dashboard 503 and reflects it off a windshield 505 to show a virtual image to a driver 502, thereby displaying an object in a display area 506. do.

図3は、実施形態に係る表示装置10の表示領域について説明する図である。図3に示すように、表示装置10の表示領域506において、表示装置10が表示するオブジェクト510は、フロントガラス505越しに見える現実世界に重なって表示される。表示装置10は、表示領域506において、オブジェクト510を、オブジェクト510が対応付けられた背景の物体等の位置と連動して移動させる。これにより、あたかもそこにオブジェクト510が実在するかのようにドライバーに認識される。 FIG. 3 is a diagram illustrating the display area of the display device 10 according to the embodiment. As shown in FIG. 3 , in the display area 506 of the display device 10 , an object 510 displayed by the display device 10 is displayed overlapping the real world seen through the windshield 505 . The display device 10 moves the object 510 in the display area 506 in conjunction with the position of the object in the background with which the object 510 is associated. As a result, the driver recognizes as if the object 510 actually exists there.

ECU20は、自車両の速度(車速)、操舵角(ハンドルの切れ角)、ピッチやロール等の自車両の傾き、オブジェクトの実空間における位置及び大きさ、オブジェクトの種別等の情報を表示装置10に通知する。 The ECU 20 displays information such as the speed of the own vehicle (vehicle speed), the steering angle (steering angle), the inclination of the own vehicle such as pitch and roll, the position and size of the object in real space, and the type of the object. to notify.

<ハードウェア構成>
次に、本実施形態に係る表示装置10のハードウェア構成について、図4を用いて説明する。図4は、実施形態に係る表示装置10のハードウェア構成の一例を示す図である。
<Hardware configuration>
Next, the hardware configuration of the display device 10 according to this embodiment will be described using FIG. FIG. 4 is a diagram showing an example of the hardware configuration of the display device 10 according to the embodiment.

表示装置10は、通信I/F101、CPU(Central Processing Unit)102、ROM(Read Only Memory)103、RAM(Random Access Memory)104、造影装置105、及び外部I/F106、及びSSD(Solid State Drive)107等を有する。これらのハードウェアは、バスBで互いに接続されている。 The display device 10 includes a communication I / F 101, a CPU (Central Processing Unit) 102, a ROM (Read Only Memory) 103, a RAM (Random Access Memory) 104, an imaging device 105, an external I / F 106, and an SSD (Solid State Drive ) 107 and the like. These pieces of hardware are connected to each other by bus B.

通信I/F101は、表示装置10をCAN等のネットワークに接続するインタフェースである。 The communication I/F 101 is an interface that connects the display device 10 to a network such as CAN.

CPU102は、ROM103やSSD107等の記憶装置からプログラムやデータをRAM104上に読み出し、当該プログラムやデータに基づく処理を実行することで、表示装置10全体の制御やその他の機能を実現する演算装置である。 The CPU 102 reads programs and data from storage devices such as the ROM 103 and the SSD 107 onto the RAM 104 and executes processing based on the programs and data, thereby controlling the entire display device 10 and other functions. .

ROM103は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM103には、OS設定、ネットワーク設定等のプログラムやデータ、及び表示装置10の起動時に実行されるBIOS(Basic Input/Output System)が格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリである。 The ROM 103 is a non-volatile semiconductor memory that can retain programs and data even when power is turned off. The ROM 103 stores programs and data such as OS settings and network settings, and a BIOS (Basic Input/Output System) that is executed when the display device 10 is started. A RAM 104 is a volatile semiconductor memory that temporarily holds programs and data.

造影装置105は、レーザーによる投影光を照射する投影装置や、発光素子により表示を行うLCD等のディスプレイであり、表示装置10による処理結果を表示する。 The imaging device 105 is a projection device that emits projection light from a laser, or a display such as an LCD that performs display using a light-emitting element, and displays the processing result of the display device 10 .

SSD107は、プログラムやデータを格納している不揮発性の記憶装置である。SSD107に格納されるプログラムやデータには、表示装置10全体を制御する基本ソフトウェアであるOS(Operating System)、OS上において各種機能を提供するアプリケーションソフトウェア等がある。また、SSD107は、格納しているプログラムやデータを所定のファイルシステムやDBにより管理している。 The SSD 107 is a nonvolatile storage device that stores programs and data. Programs and data stored in the SSD 107 include an OS (Operating System), which is basic software for controlling the entire display device 10, and application software that provides various functions on the OS. Also, the SSD 107 manages stored programs and data by a predetermined file system or DB.

外部I/F106は、外部装置とのインタフェースである。外部装置には、記録媒体106a等がある。表示装置10は、外部I/F106を介して記録媒体106aの読み取りや書き込みを行うことができる。記録媒体106aには、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリ等がある。 The external I/F 106 is an interface with an external device. The external device includes a recording medium 106a and the like. The display device 10 can read from and write to the recording medium 106 a via the external I/F 106 . The recording medium 106a includes a flexible disk, CD, DVD, SD memory card, USB memory, and the like.

<機能構成>
次に、図5を参照し、実施形態に係る表示装置10の機能構成について説明する。図5は、実施形態に係る表示装置10の機能ブロックの一例を示す図である。
<Functional configuration>
Next, with reference to FIG. 5, the functional configuration of the display device 10 according to the embodiment will be described. FIG. 5 is a diagram showing an example of functional blocks of the display device 10 according to the embodiment.

表示装置10は、取得部11、推定部12、決定部13、及び表示部14を有する。これら各部は、表示装置10にインストールされた1以上のプログラムが、表示装置10のCPU102に実行させる処理により実現される。 The display device 10 has an acquisition unit 11 , an estimation unit 12 , a determination unit 13 and a display unit 14 . Each of these units is realized by processing that one or more programs installed in the display device 10 cause the CPU 102 of the display device 10 to execute.

取得部11は、自車両の速度(車速)、ハンドルの切れ角、ピッチやロール等の自車両の傾き、オブジェクトの実空間における位置及び大きさ、オブジェクトの種別等の情報をECU20から取得する。また、取得部11は、オブジェクトの実空間における位置、移動装置の移動速度、及び移動装置の操舵角に基づいて、オブジェクトの実空間における移動方向を算出して取得する。 The acquisition unit 11 acquires from the ECU 20 information such as the speed (vehicle speed) of the own vehicle, the steering angle of the steering wheel, the inclination of the own vehicle such as pitch and roll, the position and size of the object in real space, and the type of the object. The acquisition unit 11 also calculates and acquires the moving direction of the object in the real space based on the position of the object in the real space, the moving speed of the moving device, and the steering angle of the moving device.

推定部12は、取得部11により取得されたオブジェクトの実空間における位置、及びオブジェクトの実空間における移動方向に基づいて、オブジェクトが表示部14により表示可能な領域(以下で「表示領域」と称する。)の縁に到達するまでの時間を推定する。または、推定部12は、取得部11により取得されたオブジェクトの位置、及びオブジェクトの移動方向に基づいて、オブジェクトの現在の表示位置と表示領域の縁との画素上の距離を推定する。 Based on the position of the object in the real space acquired by the acquisition unit 11 and the moving direction of the object in the real space, the estimation unit 12 determines the area where the object can be displayed by the display unit 14 (hereinafter referred to as "display area"). ) to estimate the time to reach the edge of Alternatively, the estimation unit 12 estimates the pixel distance between the current display position of the object and the edge of the display area based on the position of the object and the moving direction of the object acquired by the acquisition unit 11 .

決定部13は、推定部12により推定された時間または距離に基づいて、オブジェクトの表示態様を決定する。 The determining unit 13 determines the display mode of the object based on the time or distance estimated by the estimating unit 12 .

表示部14は、投影光または発光素子により、決定部13により決定された表示態様で、オブジェクトを、ユーザから見た表示領域の背景の実世界上に重ねて表示する。 The display unit 14 displays the object superimposed on the real world in the background of the display area seen from the user in the display mode determined by the determination unit 13 using projection light or light emitting elements.

図6は、表示部14により表示されるAR表示ついて説明する図である。図6(A)に示すように、オブジェクト(ARオブジェクト)510a、510bは、実世界と縮尺が一致されている仮想空間に配置される。そして、図6(B)、図6(C)に示すように、移動装置やオブジェクトが移動した場合においても、移動装置に乗っているドライバー502から見た時に、表示領域506において当該オブジェクトの虚像が実世界上で当該配置された位置に重ねられて表示される。実空間(実世界)における座標と、表示領域506における座標との変換には、3D画像処理などで一般的に用いられる射影変換等の公知の手法が用いられてもよい。 FIG. 6 is a diagram for explaining the AR display displayed by the display unit 14. As shown in FIG. As shown in FIG. 6A, objects (AR objects) 510a and 510b are arranged in a virtual space whose scale matches that of the real world. As shown in FIGS. 6B and 6C, even when the mobile device or the object moves, the virtual image of the object in the display area 506 is displayed when viewed from the driver 502 riding the mobile device. is superimposed on the arranged position in the real world. For conversion between the coordinates in the real space (real world) and the coordinates in the display area 506, a known technique such as projective transformation that is generally used in 3D image processing or the like may be used.

図6(B)、図6(C)では、自車両が直進し、交差点に差し掛かる場面において、次の交差点で曲る方向を案内する矢印のオブジェクトが、一定間隔で路面上に配置されているようにAR表示されている。これらの矢印のオブジェクトは、実空間上で静止しているように配置されているため、自車両の前進に伴う地面の動きと同期して、自車両に近づくように移動して表示される。この場合、これらの矢印のオブジェクトは、自車両の前進に伴い、表示装置10の表示領域の上部から下部に向かって移動され、最終的には表示領域外に出ていくように表示される。 In FIGS. 6(B) and 6(C), when the vehicle is going straight and approaching an intersection, arrow objects are placed on the road surface at regular intervals to guide the direction to turn at the next intersection. It is displayed in AR as if it were there. Since these arrow objects are arranged so as to be stationary in the real space, they are displayed moving closer to the own vehicle in synchronization with the movement of the ground accompanying the advance of the own vehicle. In this case, these arrow objects are displayed so as to move from the top to the bottom of the display area of the display device 10 as the host vehicle moves forward, and finally exit the display area.

<処理>
≪オブジェクトが表示領域から出る場合の処理≫
次に、図7を参照し、実施形態に係る表示装置10の処理について説明する。図7は、対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する処理の一例を示すフローチャートである。以下の処理は、例えば、表示装置10が各表示フレームを表示する度に行われてもよい。また、以下の処理は、表示するオブジェクトが複数ある場合は、例えばステップS102以降の処理を、各オブジェクトに対して実行する。
<Processing>
<<Processing when an object exits the display area>>
Next, processing of the display device 10 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart showing an example of processing for determining the display mode of the target object according to the time required for the target object to move to the position of the edge of the display area. The following processing may be performed, for example, each time the display device 10 displays each display frame. Further, in the following processing, when there are a plurality of objects to be displayed, for example, the processing after step S102 is executed for each object.

ステップS101において、表示装置10の取得部11は、ECU20から、ユーザの操作情報を取得する。ユーザの操作情報には、自車両の車速、及び操舵角の情報が含まれる。 In step S<b>101 , the acquisition unit 11 of the display device 10 acquires user operation information from the ECU 20 . The user's operation information includes vehicle speed and steering angle information of the host vehicle.

続いて、表示装置10の取得部11は、ECU20から、処理対象とするオブジェクト(以下で「対象オブジェクト」と称する。)の情報を取得する(ステップS102)。表示対象のオブジェクトの情報には、例えばオブジェクトの実空間における位置及び大きさ等が含まれる。 Subsequently, the acquisition unit 11 of the display device 10 acquires information on an object to be processed (hereinafter referred to as a "target object") from the ECU 20 (step S102). The information of the object to be displayed includes, for example, the position and size of the object in real space.

続いて、表示装置10の取得部11は、対象オブジェクトの、実空間における自車両に対する相対的な移動方向を算出する(ステップS103)。 Subsequently, the acquiring unit 11 of the display device 10 calculates the moving direction of the target object relative to the own vehicle in the real space (step S103).

続いて、表示装置10の取得部11は、表示装置10の表示領域における対象オブジェクトの表示位置を算出する(ステップS104)。 Subsequently, the acquisition unit 11 of the display device 10 calculates the display position of the target object in the display area of the display device 10 (step S104).

続いて、表示装置10の推定部12は、表示装置10の表示領域における対象オブジェクトの移動方向を推定する(ステップS105)。例えば経路案内等のナビゲーションに関する情報を示すオブジェクトのように、実空間上で静止している対象オブジェクトであれば、自車両の速度(車速)、及び操舵角に基づいて、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)を推定できる。また、例えば対向車等の物体に関する情報を示すオブジェクトのように、実空間上で移動している対象オブジェクトであれば、例えばステレオカメラやレーダー等で測定した物体と自車両との相対的な速度及び移動方向、及び操舵角に基づいて、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)を推定できる。 Subsequently, the estimation unit 12 of the display device 10 estimates the moving direction of the target object in the display area of the display device 10 (step S105). For example, if the target object is stationary in the real space, such as an object that indicates information related to navigation such as route guidance, the target object over time is calculated based on the speed (vehicle speed) and steering angle of the own vehicle. can estimate the trajectory (direction of movement) of the display position of For example, if the target object is moving in real space, such as an object that indicates information about an object such as an oncoming vehicle, the relative speed between the object and the own vehicle measured by a stereo camera, radar, etc. The trajectory (moving direction) of the display position of the target object over time can be estimated based on the moving direction and the steering angle.

続いて、表示装置10の推定部12は、対象オブジェクトが、現在の表示位置から、表示装置10の表示領域の縁の位置に移動するまでの時間を推定する(ステップS106)。例えば、ステップS105で推定された、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)に基づいて、対象オブジェクトの表示位置が、表示領域の縁の位置に移動するまでに経過する時間を、表示領域の縁の位置に移動するまでの時間としてもよい。なお、表示装置10は、自車両の加速度の情報も加味して、対象オブジェクトが表示領域の縁の位置に移動するまでの時間を推定してもよい。 Subsequently, the estimation unit 12 of the display device 10 estimates the time required for the target object to move from the current display position to the edge position of the display area of the display device 10 (step S106). For example, based on the trajectory (moving direction) of the display position of the target object over time estimated in step S105, the time elapsed until the display position of the target object moves to the position of the edge of the display area. , the time until it moves to the position of the edge of the display area. Note that the display device 10 may estimate the time until the target object moves to the position of the edge of the display area, taking into account the information on the acceleration of the own vehicle.

続いて、表示装置10の決定部13は、当該時間に応じて、対象オブジェクトの表示態様を決定する(ステップS107)。 Subsequently, the determination unit 13 of the display device 10 determines the display mode of the target object according to the time (step S107).

続いて、表示装置10の表示部14は、決定された表示態様にて、対象オブジェクトを表示する(ステップS108)。 Subsequently, the display unit 14 of the display device 10 displays the target object in the determined display mode (step S108).

次に、図8を参照し、ステップS107の対象オブジェクトの表示態様を決定する処理について説明する。図8は、対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する処理の一例を説明する図である。 Next, the process of determining the display mode of the target object in step S107 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of processing for determining the display mode of the target object according to the time required for the target object to move to the edge position of the display area.

対象オブジェクト510が、図8に示すような複雑な形状である場合、例えば、対象オブジェクト510に外接する矩形等を対象オブジェクトの境界520としてもよい。そして、対象オブジェクト510の境界520が、表示領域506の縁に接するまでに経過すると推定された時間を、対象オブジェクト510が表示領域506の縁の位置521に移動するまでの時間として算出してもよい。 If the target object 510 has a complicated shape as shown in FIG. 8, for example, a rectangle or the like that circumscribes the target object 510 may be used as the target object boundary 520 . Then, the time estimated to elapse until the boundary 520 of the target object 510 touches the edge of the display area 506 is calculated as the time until the target object 510 moves to the edge position 521 of the display area 506. good.

次に、図9を参照し、対象オブジェクトの表示態様の変化について説明する。図9は、対象オブジェクトの表示態様の変化について説明する図である。 Next, changes in the display mode of the target object will be described with reference to FIG. FIG. 9 is a diagram illustrating changes in the display mode of the target object.

図9(A)に示すように、表示装置10の決定部13は、対象オブジェクトの境界が、表示領域の縁に接するまでの所要時間の推定値が減少することに伴って、通常の表示態様550から、表示態様551乃至表示態様554のように、徐々にユーザに視認されにくい表示態様に変化させる。例えば、表示装置10は、表示領域の縁に接するまでの所要時間の推定値が所定値(例えば4秒)以下となった場合、表示態様551乃至表示態様554のように、当該推定値の減少に伴って対象オブジェクトの透明度を上げる。これにより、対象オブジェクトは表示領域の縁に近づくにつれて透明になっていくため、ユーザから表示領域の縁を意識されにくくすることができる。 As shown in FIG. 9A, the determination unit 13 of the display device 10 determines that the normal display mode is changed as the estimated value of the required time until the boundary of the target object touches the edge of the display area decreases. From 550 , the display modes are gradually changed to display modes 551 to 554 that are less visible to the user. For example, when the estimated value of the time required to contact the edge of the display area becomes equal to or less than a predetermined value (for example, 4 seconds), the display device 10 reduces the estimated value as in the display modes 551 to 554. Increase the transparency of the target object along with . As a result, the target object becomes transparent as it approaches the edge of the display area, making it difficult for the user to notice the edge of the display area.

図9(B)は、図9(A)と比較して、対象オブジェクトがゆっくりと表示領域の縁に近づく場合の例を示す図である。図9(B)に示すように、対象オブジェクトが比較的ゆっくりと表示領域の縁に近づく場合、対象オブジェクトは、表示領域の縁に比較的近づいてから、徐々にユーザに視認されにくい表示態様に変化される。 FIG. 9B is a diagram showing an example in which the target object slowly approaches the edge of the display area compared to FIG. 9A. As shown in FIG. 9B, when the target object relatively slowly approaches the edge of the display area, the target object gradually approaches the edge of the display area and then gradually becomes less visible to the user. be changed.

<変形例>
図8では、対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する例について説明した。以下では、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離に応じて、対象オブジェクトの表示態様を決定する例について説明する。
<Modification>
In FIG. 8, the example of determining the display mode of the target object according to the time until the target object moves to the position of the edge of the display area has been described. An example of determining the display mode of the target object according to the distance in the display area between the current display position of the target object and the edge of the display area to which the target object is to be moved will be described below.

図10は、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離に応じて、対象オブジェクトの表示態様を決定する処理の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of processing for determining the display mode of the target object according to the distance in the display area between the current display position of the target object and the edge of the display area to which the target object is to be moved.

ステップS201乃至ステップS205、ステップS208の処理は、図7のステップS101乃至ステップS105、ステップS108の処理と同様である。 The processing of steps S201 through S205 and step S208 is the same as the processing of steps S101 through S105 and step S108 in FIG.

ステップS206において、表示装置10の推定部12は、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離を推定する。例えば、ステップS205で推定された、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)に基づいて、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離(図8に示す距離523)が算出できる。なお、表示領域における距離とは、表示領域が例えば液晶ディスプレイである場合の画素における距離に相当する。 In step S206, the estimation unit 12 of the display device 10 estimates the distance in the display area between the current display position of the target object and the edge of the display area to which the target object is to be moved. For example, based on the trajectory (moving direction) of the display position of the target object over time estimated in step S205, display of the current display position of the target object and the edge of the display area to which the target object moves. A distance in the region (distance 523 shown in FIG. 8) can be calculated. Note that the distance in the display area corresponds to the distance in pixels when the display area is, for example, a liquid crystal display.

続いて、表示装置10の決定部13は、当該距離に応じて、対象オブジェクトの表示態様を決定する(ステップS207)。 Subsequently, the determination unit 13 of the display device 10 determines the display mode of the target object according to the distance (step S207).

≪オブジェクトが表示領域に入る場合の処理≫
次に、図11を参照し、オブジェクトが表示領域に入る場合の決定部13の処理について説明する。図11は、オブジェクトが表示領域に入る場合の処理について説明する図である。
<<Processing when an object enters the display area>>
Next, with reference to FIG. 11, the processing of the determination unit 13 when an object enters the display area will be described. FIG. 11 is a diagram illustrating processing when an object enters the display area.

表示装置10の決定部13は、オブジェクトが表示領域に入る場合、例えば、表示領域に入ったときから、表示態様554乃至表示態様550のように、一定速度で徐々に、ユーザに視認されにくい表示態様554から、ユーザに視認され易い通常の表示態様550に変化させる。この場合、オブジェクトの移動速度や移動方向とは関係なく、全てのオブジェクトについて、領域に入ったときから通常の表示態様550になるまでに掛かる時間は同じとなる。 When an object enters the display area, for example, the determination unit 13 of the display device 10 gradually changes the display from display mode 554 to display mode 550 at a constant speed so that the display is difficult for the user to see. Mode 554 is changed to normal display mode 550 that is easily visible to the user. In this case, regardless of the moving speed and moving direction of the objects, the time required from entering the area to displaying the normal display mode 550 is the same for all objects.

≪オブジェクトが表示領域から出た後、再度表示領域に入る場合の処理≫
次に、図12、図13を参照し、オブジェクトが表示領域から出た後、再度表示領域に入る場合の決定部13の処理について説明する。図12は、オブジェクトが表示領域から出た後、再度表示領域に入る場合の処理の一例を示すフローチャートである。図13は、オブジェクトが表示領域から出た後、再度表示領域に入る場合のオブジェクトの表示態様の例について説明する図である。
<<Processing when an object reenters the display area after it exits the display area>>
Next, with reference to FIGS. 12 and 13, the processing of the determination unit 13 when the object enters the display area again after leaving the display area will be described. FIG. 12 is a flowchart showing an example of processing when an object reenters the display area after exiting the display area. FIG. 13 is a diagram for explaining an example of how an object is displayed when the object reenters the display area after exiting the display area.

ステップS301において、表示装置10の決定部13は、オブジェクトが表示領域から出た後、再度表示領域に入ったことを検知する。 In step S301, the determination unit 13 of the display device 10 detects that the object has entered the display area again after leaving the display area.

続いて、表示装置10の取得部11は、ECU20から、オブジェクトの種別を取得する(ステップS302)。なお、オブジェクトの種別には、例えば、車両、歩行者、経路案内等を示す情報が含まれる。 Subsequently, the acquisition unit 11 of the display device 10 acquires the type of object from the ECU 20 (step S302). The types of objects include, for example, information indicating vehicles, pedestrians, route guidance, and the like.

続いて、表示装置10の決定部13は、取得部11により取得されたオブジェクトの種別に基づいて、当該オブジェクトを再度表示するか否かを判定する(ステップS303)。例えば、予め設定された、重要度が高い種別のオブジェクトの場合、再度表示すると判定される。 Subsequently, the determination unit 13 of the display device 10 determines whether or not to display the object again based on the type of the object acquired by the acquisition unit 11 (step S303). For example, in the case of an object of a preset type with a high degree of importance, it is determined that the object should be displayed again.

再度表示すると判定されない場合(ステップS303でNO)、表示装置10の表示部14は、当該オブジェクトを表示しない(ステップS304)。 If it is not determined to display the object again (NO in step S303), the display unit 14 of the display device 10 does not display the object (step S304).

図13(A)は、再度表示すると判定されない場合の表示例を示す図である。この場合、再度表示領域に入ったオブジェクトは表示されない。これにより、重要度がそれほど高くないオブジェクトは再表示されないため、ドライバーの認知負荷が高まってしまうことを防止できる。 FIG. 13A is a diagram showing a display example when it is not determined to display again. In this case, the object that has entered the display area again is not displayed. As a result, objects that are not so important are not redisplayed, thereby preventing an increase in the driver's cognitive load.

再度表示すると判定された場合(ステップS303でYES)、表示装置10の表示部14は、決定された表示態様にて、当該オブジェクトを表示する(ステップS305)。 If it is determined to display the object again (YES in step S303), the display unit 14 of the display device 10 displays the object in the determined display mode (step S305).

図13(B)は、再度表示すると判定された場合の表示例を示す図である。この場合、再度表示領域に入ったオブジェクトは、上述した「オブジェクトが表示領域に入る場合の処理」や「オブジェクトが表示領域から出る場合の処理」による表示態様と同様の表示態様で表示される。これにより、比較的重要度が高くないオブジェクトは、ドライバーの目に触れる時間を長くすることができる。 FIG. 13B is a diagram showing a display example when it is determined to display again. In this case, the object re-entering the display area is displayed in the same display mode as the above-described "process when object enters display area" and "process when object exits display area". This allows objects of relatively low importance to be seen by the driver for a longer period of time.

なお、表示装置10の決定部13は、移動装置の操舵によりオブジェクトが表示領域から出た後、当該操舵を打ち消すような操舵により当該オブジェクトが表示領域に再度入った場合は、当該オブジェクトを表示部14に表示させてもよい。これにより、例えばドライバーが道路上の障害物を避けるためにハンドルを切った後、逆方向にハンドルを切って元の進行方向に復帰した場合は、オブジェクトを再表示することができる。 Note that, if the object is moved out of the display area by steering the moving device and then re-enters the display area by steering to cancel the steering, the determination unit 13 of the display device 10 displays the object on the display unit. 14 may be displayed. Thus, for example, when the driver turns the steering wheel to avoid an obstacle on the road and then turns the steering wheel in the opposite direction to return to the original traveling direction, the object can be redisplayed.

≪外乱によりオブジェクトが表示領域に入ったまたは表示領域から出た場合の処理≫
次に、図14を参照し、外乱によりオブジェクトが表示領域に入ったまたは表示領域から出た場合の処理の決定部13の処理について説明する。図14は、外乱によりオブジェクトが表示領域に入ったまたは表示領域から出た場合の表示態様の例について説明する図である。
<<Processing when an object enters or exits the display area due to a disturbance>>
Next, with reference to FIG. 14, the processing of the determination unit 13 when an object enters or exits the display area due to disturbance will be described. FIG. 14 is a diagram illustrating an example of a display mode when an object enters or exits the display area due to disturbance.

上述した「オブジェクトが表示領域から出る場合の処理」では、ドライバーの車両操作である、アクセル操作と操舵(ハンドル操作)による、車速及び操舵角に基づいて、表示態様を決定する例について説明した。また、上述した「オブジェクトが表示領域に入る場合の処理」では、表示領域に入ったときからの経過時間に応じて表示態様を決定する例について説明した。 In the above-mentioned "processing when an object exits the display area", an example of determining the display mode based on the vehicle speed and steering angle by accelerator operation and steering (steering wheel operation), which are vehicle operations by the driver, has been described. In addition, in the above-mentioned "processing when an object enters the display area", an example of determining the display mode according to the elapsed time after entering the display area has been described.

以下では、ドライバーの車両操作以外の要因である自車両の傾き(外乱)により、オブジェクトが表示領域から出る、または表示領域に入る場合のオブジェクトの表示態様について説明する。 The display mode of an object when the object exits or enters the display area due to the inclination (disturbance) of the own vehicle, which is a factor other than the driver's vehicle operation, will be described below.

外乱として、例えば、不連続な道路形状による自車両のバウンドなどがある。バウンドなどの突発的な要因に対して、オブジェクトの表示領域における表示位置を移動させない場合、オブジェクトの表示領域における表示位置が、背景の実世界上の物体の位置からずれるため、ARとしてのリアリティが低下する。 Disturbances include, for example, the bounce of the own vehicle due to discontinuous road shapes. If the display position of the object in the display area is not moved due to a sudden factor such as bounce, the display position of the object in the display area will deviate from the position of the object in the background in the real world, and the reality as AR will be lost. descend.

これを防ぐため、表示装置10は、ECU20から取得した自車両のピッチ及びロールに基づき、オブジェクトを背景と同期して移動させる。なお、自車両のピッチ及びロールは、自車両に設置された傾きセンサ等により取得される。 In order to prevent this, the display device 10 moves the object in synchronization with the background based on the pitch and roll of the own vehicle acquired from the ECU 20 . The pitch and roll of the own vehicle are acquired by an inclination sensor or the like installed in the own vehicle.

この場合、例えば自車両のバウンドが大きかった場合、オブジェクトが表示領域から出てしまうことも考えられる。このような場合は、図14に示すように、外乱によっては表示態様を変化させずに、オブジェクトを移動させる。図14(A)では、バウンドする前に、オブジェクトが通常の表示態様550で表示されている例が示されている。図14(B)では、バウンド中に、オブジェクトが表示領域から出た例が示されている。図14(C)では、バウンドした後に、オブジェクトが通常の表示態様550で表示されている例が示されている。 In this case, for example, if the vehicle bounces too much, the object may move out of the display area. In such a case, as shown in FIG. 14, the object is moved without changing the display mode depending on the disturbance. FIG. 14A shows an example in which the object is displayed in a normal display mode 550 before bouncing. FIG. 14B shows an example in which the object has left the display area while bounding. FIG. 14C shows an example in which the object is displayed in a normal display mode 550 after bouncing.

<表示態様の変形例>
以上では、ユーザに視認されにくい表示態様として、透明度を高くする例について説明した。これに代えて、ユーザに視認されにくい表示態様として、オブジェクトが回転されたことにより小さく表示される表示態様としてもよい。
<Modified example of display mode>
In the above, an example of increasing the transparency has been described as a display mode that is difficult for the user to visually recognize. Alternatively, as a display mode that is less visible to the user, a display mode in which the object is displayed in a smaller size as a result of being rotated may be used.

図15は、オブジェクトが回転されたことにより小さく表示される表示態様例について説明する図である。図15では、垂直方向を軸としてオブジェクトが回転された例を示している。この場合、決定部13は、上述した透明度を決定する処理と同様の処理により、オブジェクトの回転量を例えば表示態様551a乃至554aのように決定すればよい。なお、回転方向は任意でもよい。また、水平方向を軸としてオブジェクトを回転されてもよい。 FIG. 15 is a diagram illustrating an example of a display mode in which an object is displayed smaller by being rotated. FIG. 15 shows an example in which the object is rotated about the vertical direction. In this case, the determination unit 13 may determine the amount of rotation of the object, for example, in the display modes 551a to 554a by the same processing as the processing for determining the transparency described above. Note that the direction of rotation may be arbitrary. Also, the object may be rotated around the horizontal direction.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the invention described in the claims.・Changes are possible.

例えば、表示装置10及びクライアント装置30は一体の装置として構成してもよい。 For example, the display device 10 and client device 30 may be configured as an integrated device.

また、表示装置10の例えば、取得部11、推定部12、決定部13等の各機能部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。 Further, each functional unit of the display device 10, for example, the acquiring unit 11, the estimating unit 12, the determining unit 13, etc., may be realized by cloud computing configured by one or more computers.

1 表示システム
10 表示装置
11 取得部
12 推定部
13 決定部
14 表示部
20 ECU(「制御装置」の一例)
1 display system 10 display device 11 acquisition unit 12 estimation unit 13 determination unit 14 display unit 20 ECU (an example of a “control device”)

特開2012-242465号公報JP 2012-242465 A

Claims (13)

オブジェクトを背景上に重ねて表示する表示部と、
前記オブジェクトの位置、及び前記オブジェクトの移動方向を取得し、
取得された前記オブジェクトの位置、及び前記オブジェクトの移動方向に基づいて、前記表示部により表示可能な領域の縁に前記オブジェクトが移動するまでの時間、または前記オブジェクトの表示位置と前記オブジェクトの移動先の前記縁との距離を推定し、
推定された、前記時間または前記距離に基づいて、前記オブジェクトの表示態様を決定する演算装置と、を備え、
前記演算装置は、前記オブジェクトが前記表示可能な領域に入る場合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様から、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定することを特徴とする表示装置。
a display unit for superimposing and displaying an object on a background;
obtaining the position of the object and the direction of movement of the object;
Based on the obtained position of the object and the moving direction of the object, the time until the object moves to the edge of the area displayable by the display unit, or the display position of the object and the movement destination of the object. estimating the distance to said edge of
a computing device that determines a display mode of the object based on the estimated time or distance;
When the object enters the displayable area, the arithmetic device gradually changes the display mode from a display mode that is difficult for the user to visually recognize to a display mode that is easy for the user to view at a constant speed from the time the object enters the display area. , the display mode of the object at a second display position closer to the boundary of the displayable area of the display unit than at the first display position, and the display mode of the object at the first display position; A display device, characterized in that a display mode that is difficult to be visually recognized is determined .
前記視認されにくい表示態様は、透明度が高い表示態様である
請求項に記載の表示装置。
2. The display device according to claim 1 , wherein the hard-to-see display mode is a highly transparent display mode.
前記視認されにくい表示態様は、前記オブジェクトが回転されたことにより小さく表示される表示態様である
請求項に記載の表示装置。
2. The display device according to claim 1 , wherein the difficult-to-visual display mode is a display mode in which the object is displayed in a smaller size by being rotated.
前記演算装置は、前記オブジェクトの位置、移動装置の移動速度、及び移動装置の操舵角に基づいて、前記オブジェクトの移動方向を算出する
請求項1乃至のいずれか一項に記載の表示装置。
4. The display device according to any one of claims 1 to 3 , wherein the arithmetic device calculates the moving direction of the object based on the position of the object, the moving speed of the moving device, and the steering angle of the moving device.
前記演算装置は、さらに、移動装置の加速度に基づいて、前記オブジェクトが前記縁に移動するまでの時間を推定する
請求項1乃至のいずれか一項に記載の表示装置。
5. The display device according to any one of claims 1 to 4 , wherein the computing device further estimates the time until the object moves to the edge based on the acceleration of the moving device.
前記演算装置は、移動装置の傾きにより前記オブジェクトが前記領域において移動する場合は、前記表示態様を変更しない
請求項1乃至のいずれか一項に記載の表示装置。
6. The display device according to any one of claims 1 to 5 , wherein the arithmetic device does not change the display mode when the object moves in the area due to the tilt of the moving device.
前記演算装置は、前記オブジェクトが前記領域から出た後、前記オブジェクトが前記領域に入った場合は、前記オブジェクトを前記表示部に表示させない
請求項1乃至のいずれか一項に記載の表示装置。
7. The display device according to any one of claims 1 to 6 , wherein when the object enters the region after the object has left the region, the arithmetic device does not display the object on the display unit. .
前記演算装置は、前記オブジェクトの種別に基づいて、前記オブジェクトが前記領域から出た後、前記オブジェクトが前記領域に入った場合に、前記オブジェクトを前記表示部に表示させるか否かを決定する
請求項に記載の表示装置。
wherein the computing device determines, based on the type of the object, whether to display the object on the display unit when the object enters the area after the object has left the area; Item 8. The display device according to item 7 .
前記演算装置は、移動装置の操舵により前記オブジェクトが前記領域から出た後、当該操舵を打ち消すような操舵により前記オブジェクトが前記領域に入った場合は、前記オブジェクトを前記表示部に表示させる
請求項またはに記載の表示装置。
wherein said arithmetic unit displays said object on said display unit when said object enters said area by steering to cancel said steering after said object has left said area by steering of said moving apparatus. 9. The display device according to 7 or 8 .
前記表示部は、投影光または発光素子により、前記オブジェクトを背景上に重ねて表示する
請求項1乃至のいずれか一項に記載の表示装置。
10. The display device according to any one of claims 1 to 9 , wherein the display unit displays the object overlaid on a background using projection light or a light emitting element.
請求項1乃至10のいずれか一項に記載の表示装置を備える移動体。A moving object comprising the display device according to claim 1 . オブジェクトを背景上に重ねて表示する表示部を有する表示装置、及び移動装置を制御する制御装置を備える表示システムであって、
前記制御装置は、
前記オブジェクトの位置、前記移動装置の移動速度、及び前記移動装置の操舵角のデータを前記表示装置に通知し、
前記表示装置は、
前記オブジェクトの位置、及び前記データに基づいて算出された前記オブジェクトの移動方向を取得し、
取得された前記オブジェクトの位置、及び前記オブジェクトの移動方向に基づいて、前記表示部により表示可能な領域の縁に前記オブジェクトが移動するまでの時間、または前記オブジェクトの表示位置と前記オブジェクトの移動先の前記縁との距離を推定し、
推定された、前記時間または前記距離に基づいて、前記オブジェクトの表示態様を決定する演算装置と、を備え、
前記演算装置は、前記オブジェクトが前記表示可能な領域に入る場合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様から、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定することを特徴とする表示システム。
A display system comprising a display device having a display unit that displays an object overlaid on a background, and a control device that controls a moving device,
The control device is
Notifying the display device of data on the position of the object, the moving speed of the moving device, and the steering angle of the moving device;
The display device
obtaining the position of the object and the moving direction of the object calculated based on the data;
Based on the obtained position of the object and the moving direction of the object, the time until the object moves to the edge of the area displayable by the display unit, or the display position of the object and the movement destination of the object. estimating the distance to said edge of
a computing device that determines a display mode of the object based on the estimated time or distance;
When the object enters the displayable area, the arithmetic device gradually changes the display mode from a display mode that is difficult for the user to visually recognize to a display mode that is easy for the user to view at a constant speed from the time the object enters the display area. , the display mode of the object at a second display position closer to the boundary of the displayable area of the display unit than at the first display position, and the display mode of the object at the first display position; A display system characterized by determining a display mode that is difficult to be visually recognized .
表示装置に、
オブジェクトの位置、及び前記オブジェクトの移動方向を取得するステップと、
前記取得された前記オブジェクトの位置、及び前記オブジェクトの移動方向に基づいて、前記オブジェクトを背景上に重ねて表示する表示部により表示可能な領域の縁に前記オブジェクトが到達するまでの時間、または前記オブジェクトの表示位置と前記オブジェクトの移動先の前記縁との距離を推定するステップと、
推定された、前記時間または前記距離に基づいて、前記オブジェクトの表示態様を決定するステップと、を実行させ、
前記オブジェクトが前記表示可能な領域に入る場合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様から、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定するプログラム。
to the display device,
obtaining the position of an object and the direction of movement of said object;
A time until the object reaches the edge of an area that can be displayed by a display unit that displays the object overlaid on a background based on the obtained position of the object and the moving direction of the object, or estimating a distance between a display position of an object and the edge to which the object is moved;
determining a display mode of the object based on the estimated time or distance;
When the object enters the displayable area, the display mode is gradually changed at a constant speed from the time the object enters the display area to the display mode that is easily visible to the user , and the first display is performed. The display mode of the object at a second display position closer to the boundary of the displayable area of the display unit compared to the position, and the display mode of the object at the first display position is less visible than the display mode of the object. A program that decides to
JP2021014654A 2021-02-01 2021-02-01 Display device, display system, and program Active JP7180702B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021014654A JP7180702B2 (en) 2021-02-01 2021-02-01 Display device, display system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021014654A JP7180702B2 (en) 2021-02-01 2021-02-01 Display device, display system, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016222167A Division JP7009057B2 (en) 2016-11-15 2016-11-15 Display devices, display systems, and programs

Publications (3)

Publication Number Publication Date
JP2021076864A JP2021076864A (en) 2021-05-20
JP2021076864A5 JP2021076864A5 (en) 2021-09-24
JP7180702B2 true JP7180702B2 (en) 2022-11-30

Family

ID=75900042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021014654A Active JP7180702B2 (en) 2021-02-01 2021-02-01 Display device, display system, and program

Country Status (1)

Country Link
JP (1) JP7180702B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100328055A1 (en) 2009-06-30 2010-12-30 The Hong Kong Polytechnic University Detection System for Assisting A Driver When Driving A Vehicle
JP2014177243A (en) 2013-03-15 2014-09-25 Yazaki Corp Display device
JP2016060445A (en) 2014-09-22 2016-04-25 日本精機株式会社 Headup display
JP2017181666A (en) 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100328055A1 (en) 2009-06-30 2010-12-30 The Hong Kong Polytechnic University Detection System for Assisting A Driver When Driving A Vehicle
JP2014177243A (en) 2013-03-15 2014-09-25 Yazaki Corp Display device
JP2016060445A (en) 2014-09-22 2016-04-25 日本精機株式会社 Headup display
JP2017181666A (en) 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2021076864A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP7009057B2 (en) Display devices, display systems, and programs
RU2675760C1 (en) Vehicle display device and display method for vehicle
KR102306790B1 (en) Device and method to visualize content
JP6695049B2 (en) Display device and display control method
US20150178985A1 (en) Virtual three-dimensional instrument cluster with three-dimensional navigation system
KR102593383B1 (en) Control of a display of an augmented reality head-up display apparatus for a means of transportation
WO2019230272A1 (en) Display control device, display control program, and persistent tangible computer-readable recording medium therefor
JP6866875B2 (en) Display control device and display control program
CN111094898B (en) Method and device for controlling the display of an augmented reality head-up display device for a motor vehicle
JP6277933B2 (en) Display control device, display system
JP2015102449A (en) Vehicle self position estimation apparatus and vehicle self position estimation method
CN114222679A (en) Generation of display for augmented reality heads-up display of motor vehicle
JP7048202B2 (en) Display device for vehicles and display method for vehicles
JP7459883B2 (en) Display control device, head-up display device, and method
JP7180702B2 (en) Display device, display system, and program
JP7276152B2 (en) head-up display device
JP6328366B2 (en) Display control apparatus and display control method for head-up display
JP2019172070A (en) Information processing device, movable body, information processing method, and program
JP7484591B2 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM
WO2021200913A1 (en) Display control device, image display device, and method
JP7262040B2 (en) Information presentation system, information presentation method, program, and mobile object
JP7420019B2 (en) Vehicle display control device, display method, program, and vehicle display system
EP4265463A1 (en) Vehicle, head-up display, augmented reality device, apparatuses, methods and computer programs for controlling an augmented reality device and for controlling a visualization device
JP2024032399A (en) display control device
US20220410711A1 (en) Display control device, display method, and storage medium storing display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R151 Written notification of patent or utility model registration

Ref document number: 7180702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151