JP7180702B2 - Display device, display system, and program - Google Patents
Display device, display system, and program Download PDFInfo
- Publication number
- JP7180702B2 JP7180702B2 JP2021014654A JP2021014654A JP7180702B2 JP 7180702 B2 JP7180702 B2 JP 7180702B2 JP 2021014654 A JP2021014654 A JP 2021014654A JP 2021014654 A JP2021014654 A JP 2021014654A JP 7180702 B2 JP7180702 B2 JP 7180702B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- display mode
- area
- moving
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 20
- 238000000034 method Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、表示装置、表示システム、及びプログラムに関する。 The present invention relates to display devices, display systems, and programs.
従来、自動車や航空機等の移動装置において、ユーザの視野に直接情報を映し出すヘッドアップディスプレイ(HUD、Head-Up Display)が知られている。 2. Description of the Related Art Conventionally, a head-up display (HUD, Head-Up Display) that displays information directly in the field of view of a user is known in mobile devices such as automobiles and aircraft.
HUDは、ユーザ(運転者)に視線をあまり動かすことなく情報を視認させることができるため、運転に伴う身体的な負荷の低減や、よそ見による事故の発生を防ぐ効果が期待され、近年普及し始めている。 Since HUDs allow users (drivers) to visually recognize information without moving their line of sight, they are expected to reduce the physical burden associated with driving and prevent accidents caused by looking away. starting.
HUDでは、例えばレーザーやLCD(Liquid Crystal Display)の光源を用い、フロントガラス(ウインドシールド)やコンバイナに投影することにより、ユーザの視線の先に、宙に浮いたような虚像を表示する。 The HUD uses a light source such as a laser or LCD (Liquid Crystal Display) and projects it onto a windshield (windshield) or a combiner to display a virtual image that appears to be floating in space in front of the user's line of sight.
HUDを用いて、例えば対向車等の物体に関する情報や経路案内等のナビゲーションに関する情報を示すオブジェクトを、背景の実世界に重ねて表示する、拡張現実(AR、Augmented Reality)表示を行う場合を考える。 Consider a case where a HUD is used for augmented reality (AR) display, in which an object indicating information about an object such as an oncoming vehicle or navigation information such as route guidance is superimposed on the background of the real world. .
この場合、従来技術では、当該物体の移動やHUDが搭載された自装置の移動に伴い、HUDで表示可能な領域外にオブジェクトが移動して行く。この場合、HUDで表示可能な領域の縁(境界)で、オブジェクトの表示が欠けるため、ユーザがHUDの表示領域の縁(境界)を認識してしまい、AR表示と背景の実世界との一体感が薄れ、AR表示のリアリティが薄れてしまうという問題がある。 In this case, in the conventional technology, the object moves out of the area that can be displayed by the HUD as the object moves and the device on which the HUD is mounted moves. In this case, since the display of the object is missing at the edge (boundary) of the area that can be displayed by the HUD, the user may recognize the edge (boundary) of the display area of the HUD, resulting in a mismatch between the AR display and the background real world. There is a problem that the physical sensation fades and the reality of the AR display fades.
そこで、背景にオブジェクトを重ねて表示する表示領域の境界を認識されにくくする技術を提供することを目的とする。 Therefore, it is an object of the present invention to provide a technique for making it difficult to recognize the boundary of a display area in which an object is superimposed on the background.
オブジェクトを背景上に重ねて表示する表示部と、前記オブジェクトの位置、及び前記
オブジェクトの移動方向を取得し、取得された前記オブジェクトの位置、及び前記オブジ
ェクトの移動方向に基づいて、前記オブジェクトが前記表示部により表示可能な領域の縁
に到達するまでの時間または距離を推定し、推定された、前記オブジェクトが前記領域の
縁に到達するまでの時間または距離に基づいて、前記オブジェクトの表示態様を決定する
演算装置と、を備え、前記演算装置は、前記オブジェクトが前記表示可能な領域に入る場
合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様か
ら、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定する。
a display unit that displays an object superimposed on a background; a position of the object and a moving direction of the object; estimating the time or distance it takes for the object to reach the edge of an area displayable by a display unit, and adjusting the display mode of the object based on the estimated time or distance for the object to reach the edge of the area; and a computing device for determining, when the object enters the displayable region, the computing device gradually, at a constant speed, from the time the object enters the display region, from a display mode that is difficult for the user to visually recognize. and the display mode of the object at a second display position closer to the boundary of the displayable area of the display unit than at the first display position is changed to the display mode of the object at the first display position. is determined to be a display mode that is less visible .
開示の技術によれば、背景にオブジェクトを重ねて表示する表示領域の境界を認識されにくくすることが可能となる。 According to the disclosed technique, it is possible to make it difficult to recognize the boundary of the display area in which the object is superimposed on the background.
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<システム構成>
まず、本実施形態に係る表示システム1のシステム構成について、図1を用いて説明する。図1は、実施形態に係る表示システム1のシステム構成の一例を示す図である。
<System configuration>
First, the system configuration of the
図1に示すように、本実施形態に係る表示システム1は、車両、航空機、船舶等の移動装置に搭載され、表示装置10と、1以上のECU(Electric Control Unit)20-1、20-2、・・・とを備える。なお、以下では、表示システム1を車両に搭載した例について説明するが、表示システム1は、車両以外の移動装置においても適用可能である。
As shown in FIG. 1, a
表示装置10とECU20との間は、例えばCAN(Control Area Network)などのネットワークにより接続される。
The
表示装置10は、例えばHUDであり、ECU20から取得した情報に基づき、例えば対向車等の物体に関する情報や、右折及び左折の指示や交差点名等の経路案内のためのナビゲーションに関する情報を示すオブジェクトを、背景の実世界上に重ねて表示する。なお、オブジェクトを、背景の実世界(背景上)に重ねて表示することは、AR表示とも称されている。
The
図2は、実施形態に係る表示装置10の設置例について説明する図である。図2に示すように、表示装置10は、例えばハンドル501に対面した際のドライバー502の正面(移動装置100の進行方向)のダッシュボード503内に設置される。表示装置10は、例えばダッシュボード503に開けられた開口部(投影口)から投影光504を照射し、フロントガラス505に反射させてドライバー502に虚像を見せることにより、表示領域506にオブジェクトを表示する。
FIG. 2 is a diagram illustrating an installation example of the
図3は、実施形態に係る表示装置10の表示領域について説明する図である。図3に示すように、表示装置10の表示領域506において、表示装置10が表示するオブジェクト510は、フロントガラス505越しに見える現実世界に重なって表示される。表示装置10は、表示領域506において、オブジェクト510を、オブジェクト510が対応付けられた背景の物体等の位置と連動して移動させる。これにより、あたかもそこにオブジェクト510が実在するかのようにドライバーに認識される。
FIG. 3 is a diagram illustrating the display area of the
ECU20は、自車両の速度(車速)、操舵角(ハンドルの切れ角)、ピッチやロール等の自車両の傾き、オブジェクトの実空間における位置及び大きさ、オブジェクトの種別等の情報を表示装置10に通知する。 The ECU 20 displays information such as the speed of the own vehicle (vehicle speed), the steering angle (steering angle), the inclination of the own vehicle such as pitch and roll, the position and size of the object in real space, and the type of the object. to notify.
<ハードウェア構成>
次に、本実施形態に係る表示装置10のハードウェア構成について、図4を用いて説明する。図4は、実施形態に係る表示装置10のハードウェア構成の一例を示す図である。
<Hardware configuration>
Next, the hardware configuration of the
表示装置10は、通信I/F101、CPU(Central Processing Unit)102、ROM(Read Only Memory)103、RAM(Random Access Memory)104、造影装置105、及び外部I/F106、及びSSD(Solid State Drive)107等を有する。これらのハードウェアは、バスBで互いに接続されている。
The
通信I/F101は、表示装置10をCAN等のネットワークに接続するインタフェースである。
The communication I/
CPU102は、ROM103やSSD107等の記憶装置からプログラムやデータをRAM104上に読み出し、当該プログラムやデータに基づく処理を実行することで、表示装置10全体の制御やその他の機能を実現する演算装置である。
The
ROM103は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM103には、OS設定、ネットワーク設定等のプログラムやデータ、及び表示装置10の起動時に実行されるBIOS(Basic Input/Output System)が格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリである。
The
造影装置105は、レーザーによる投影光を照射する投影装置や、発光素子により表示を行うLCD等のディスプレイであり、表示装置10による処理結果を表示する。
The
SSD107は、プログラムやデータを格納している不揮発性の記憶装置である。SSD107に格納されるプログラムやデータには、表示装置10全体を制御する基本ソフトウェアであるOS(Operating System)、OS上において各種機能を提供するアプリケーションソフトウェア等がある。また、SSD107は、格納しているプログラムやデータを所定のファイルシステムやDBにより管理している。
The SSD 107 is a nonvolatile storage device that stores programs and data. Programs and data stored in the SSD 107 include an OS (Operating System), which is basic software for controlling the
外部I/F106は、外部装置とのインタフェースである。外部装置には、記録媒体106a等がある。表示装置10は、外部I/F106を介して記録媒体106aの読み取りや書き込みを行うことができる。記録媒体106aには、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリ等がある。
The external I/
<機能構成>
次に、図5を参照し、実施形態に係る表示装置10の機能構成について説明する。図5は、実施形態に係る表示装置10の機能ブロックの一例を示す図である。
<Functional configuration>
Next, with reference to FIG. 5, the functional configuration of the
表示装置10は、取得部11、推定部12、決定部13、及び表示部14を有する。これら各部は、表示装置10にインストールされた1以上のプログラムが、表示装置10のCPU102に実行させる処理により実現される。
The
取得部11は、自車両の速度(車速)、ハンドルの切れ角、ピッチやロール等の自車両の傾き、オブジェクトの実空間における位置及び大きさ、オブジェクトの種別等の情報をECU20から取得する。また、取得部11は、オブジェクトの実空間における位置、移動装置の移動速度、及び移動装置の操舵角に基づいて、オブジェクトの実空間における移動方向を算出して取得する。
The
推定部12は、取得部11により取得されたオブジェクトの実空間における位置、及びオブジェクトの実空間における移動方向に基づいて、オブジェクトが表示部14により表示可能な領域(以下で「表示領域」と称する。)の縁に到達するまでの時間を推定する。または、推定部12は、取得部11により取得されたオブジェクトの位置、及びオブジェクトの移動方向に基づいて、オブジェクトの現在の表示位置と表示領域の縁との画素上の距離を推定する。
Based on the position of the object in the real space acquired by the
決定部13は、推定部12により推定された時間または距離に基づいて、オブジェクトの表示態様を決定する。
The determining
表示部14は、投影光または発光素子により、決定部13により決定された表示態様で、オブジェクトを、ユーザから見た表示領域の背景の実世界上に重ねて表示する。
The
図6は、表示部14により表示されるAR表示ついて説明する図である。図6(A)に示すように、オブジェクト(ARオブジェクト)510a、510bは、実世界と縮尺が一致されている仮想空間に配置される。そして、図6(B)、図6(C)に示すように、移動装置やオブジェクトが移動した場合においても、移動装置に乗っているドライバー502から見た時に、表示領域506において当該オブジェクトの虚像が実世界上で当該配置された位置に重ねられて表示される。実空間(実世界)における座標と、表示領域506における座標との変換には、3D画像処理などで一般的に用いられる射影変換等の公知の手法が用いられてもよい。
FIG. 6 is a diagram for explaining the AR display displayed by the
図6(B)、図6(C)では、自車両が直進し、交差点に差し掛かる場面において、次の交差点で曲る方向を案内する矢印のオブジェクトが、一定間隔で路面上に配置されているようにAR表示されている。これらの矢印のオブジェクトは、実空間上で静止しているように配置されているため、自車両の前進に伴う地面の動きと同期して、自車両に近づくように移動して表示される。この場合、これらの矢印のオブジェクトは、自車両の前進に伴い、表示装置10の表示領域の上部から下部に向かって移動され、最終的には表示領域外に出ていくように表示される。
In FIGS. 6(B) and 6(C), when the vehicle is going straight and approaching an intersection, arrow objects are placed on the road surface at regular intervals to guide the direction to turn at the next intersection. It is displayed in AR as if it were there. Since these arrow objects are arranged so as to be stationary in the real space, they are displayed moving closer to the own vehicle in synchronization with the movement of the ground accompanying the advance of the own vehicle. In this case, these arrow objects are displayed so as to move from the top to the bottom of the display area of the
<処理>
≪オブジェクトが表示領域から出る場合の処理≫
次に、図7を参照し、実施形態に係る表示装置10の処理について説明する。図7は、対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する処理の一例を示すフローチャートである。以下の処理は、例えば、表示装置10が各表示フレームを表示する度に行われてもよい。また、以下の処理は、表示するオブジェクトが複数ある場合は、例えばステップS102以降の処理を、各オブジェクトに対して実行する。
<Processing>
<<Processing when an object exits the display area>>
Next, processing of the
ステップS101において、表示装置10の取得部11は、ECU20から、ユーザの操作情報を取得する。ユーザの操作情報には、自車両の車速、及び操舵角の情報が含まれる。
In step S<b>101 , the
続いて、表示装置10の取得部11は、ECU20から、処理対象とするオブジェクト(以下で「対象オブジェクト」と称する。)の情報を取得する(ステップS102)。表示対象のオブジェクトの情報には、例えばオブジェクトの実空間における位置及び大きさ等が含まれる。
Subsequently, the
続いて、表示装置10の取得部11は、対象オブジェクトの、実空間における自車両に対する相対的な移動方向を算出する(ステップS103)。
Subsequently, the acquiring
続いて、表示装置10の取得部11は、表示装置10の表示領域における対象オブジェクトの表示位置を算出する(ステップS104)。
Subsequently, the
続いて、表示装置10の推定部12は、表示装置10の表示領域における対象オブジェクトの移動方向を推定する(ステップS105)。例えば経路案内等のナビゲーションに関する情報を示すオブジェクトのように、実空間上で静止している対象オブジェクトであれば、自車両の速度(車速)、及び操舵角に基づいて、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)を推定できる。また、例えば対向車等の物体に関する情報を示すオブジェクトのように、実空間上で移動している対象オブジェクトであれば、例えばステレオカメラやレーダー等で測定した物体と自車両との相対的な速度及び移動方向、及び操舵角に基づいて、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)を推定できる。
Subsequently, the
続いて、表示装置10の推定部12は、対象オブジェクトが、現在の表示位置から、表示装置10の表示領域の縁の位置に移動するまでの時間を推定する(ステップS106)。例えば、ステップS105で推定された、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)に基づいて、対象オブジェクトの表示位置が、表示領域の縁の位置に移動するまでに経過する時間を、表示領域の縁の位置に移動するまでの時間としてもよい。なお、表示装置10は、自車両の加速度の情報も加味して、対象オブジェクトが表示領域の縁の位置に移動するまでの時間を推定してもよい。
Subsequently, the
続いて、表示装置10の決定部13は、当該時間に応じて、対象オブジェクトの表示態様を決定する(ステップS107)。
Subsequently, the
続いて、表示装置10の表示部14は、決定された表示態様にて、対象オブジェクトを表示する(ステップS108)。
Subsequently, the
次に、図8を参照し、ステップS107の対象オブジェクトの表示態様を決定する処理について説明する。図8は、対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する処理の一例を説明する図である。 Next, the process of determining the display mode of the target object in step S107 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of processing for determining the display mode of the target object according to the time required for the target object to move to the edge position of the display area.
対象オブジェクト510が、図8に示すような複雑な形状である場合、例えば、対象オブジェクト510に外接する矩形等を対象オブジェクトの境界520としてもよい。そして、対象オブジェクト510の境界520が、表示領域506の縁に接するまでに経過すると推定された時間を、対象オブジェクト510が表示領域506の縁の位置521に移動するまでの時間として算出してもよい。
If the
次に、図9を参照し、対象オブジェクトの表示態様の変化について説明する。図9は、対象オブジェクトの表示態様の変化について説明する図である。 Next, changes in the display mode of the target object will be described with reference to FIG. FIG. 9 is a diagram illustrating changes in the display mode of the target object.
図9(A)に示すように、表示装置10の決定部13は、対象オブジェクトの境界が、表示領域の縁に接するまでの所要時間の推定値が減少することに伴って、通常の表示態様550から、表示態様551乃至表示態様554のように、徐々にユーザに視認されにくい表示態様に変化させる。例えば、表示装置10は、表示領域の縁に接するまでの所要時間の推定値が所定値(例えば4秒)以下となった場合、表示態様551乃至表示態様554のように、当該推定値の減少に伴って対象オブジェクトの透明度を上げる。これにより、対象オブジェクトは表示領域の縁に近づくにつれて透明になっていくため、ユーザから表示領域の縁を意識されにくくすることができる。
As shown in FIG. 9A, the
図9(B)は、図9(A)と比較して、対象オブジェクトがゆっくりと表示領域の縁に近づく場合の例を示す図である。図9(B)に示すように、対象オブジェクトが比較的ゆっくりと表示領域の縁に近づく場合、対象オブジェクトは、表示領域の縁に比較的近づいてから、徐々にユーザに視認されにくい表示態様に変化される。 FIG. 9B is a diagram showing an example in which the target object slowly approaches the edge of the display area compared to FIG. 9A. As shown in FIG. 9B, when the target object relatively slowly approaches the edge of the display area, the target object gradually approaches the edge of the display area and then gradually becomes less visible to the user. be changed.
<変形例>
図8では、対象オブジェクトが表示領域の縁の位置に移動するまでの時間に応じて、対象オブジェクトの表示態様を決定する例について説明した。以下では、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離に応じて、対象オブジェクトの表示態様を決定する例について説明する。
<Modification>
In FIG. 8, the example of determining the display mode of the target object according to the time until the target object moves to the position of the edge of the display area has been described. An example of determining the display mode of the target object according to the distance in the display area between the current display position of the target object and the edge of the display area to which the target object is to be moved will be described below.
図10は、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離に応じて、対象オブジェクトの表示態様を決定する処理の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of processing for determining the display mode of the target object according to the distance in the display area between the current display position of the target object and the edge of the display area to which the target object is to be moved.
ステップS201乃至ステップS205、ステップS208の処理は、図7のステップS101乃至ステップS105、ステップS108の処理と同様である。 The processing of steps S201 through S205 and step S208 is the same as the processing of steps S101 through S105 and step S108 in FIG.
ステップS206において、表示装置10の推定部12は、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離を推定する。例えば、ステップS205で推定された、時間経過に伴う対象オブジェクトの表示位置の軌跡(移動方向)に基づいて、対象オブジェクトの現在の表示位置と、対象オブジェクトの移動先の表示領域の縁との表示領域における距離(図8に示す距離523)が算出できる。なお、表示領域における距離とは、表示領域が例えば液晶ディスプレイである場合の画素における距離に相当する。
In step S206, the
続いて、表示装置10の決定部13は、当該距離に応じて、対象オブジェクトの表示態様を決定する(ステップS207)。
Subsequently, the
≪オブジェクトが表示領域に入る場合の処理≫
次に、図11を参照し、オブジェクトが表示領域に入る場合の決定部13の処理について説明する。図11は、オブジェクトが表示領域に入る場合の処理について説明する図である。
<<Processing when an object enters the display area>>
Next, with reference to FIG. 11, the processing of the
表示装置10の決定部13は、オブジェクトが表示領域に入る場合、例えば、表示領域に入ったときから、表示態様554乃至表示態様550のように、一定速度で徐々に、ユーザに視認されにくい表示態様554から、ユーザに視認され易い通常の表示態様550に変化させる。この場合、オブジェクトの移動速度や移動方向とは関係なく、全てのオブジェクトについて、領域に入ったときから通常の表示態様550になるまでに掛かる時間は同じとなる。
When an object enters the display area, for example, the
≪オブジェクトが表示領域から出た後、再度表示領域に入る場合の処理≫
次に、図12、図13を参照し、オブジェクトが表示領域から出た後、再度表示領域に入る場合の決定部13の処理について説明する。図12は、オブジェクトが表示領域から出た後、再度表示領域に入る場合の処理の一例を示すフローチャートである。図13は、オブジェクトが表示領域から出た後、再度表示領域に入る場合のオブジェクトの表示態様の例について説明する図である。
<<Processing when an object reenters the display area after it exits the display area>>
Next, with reference to FIGS. 12 and 13, the processing of the
ステップS301において、表示装置10の決定部13は、オブジェクトが表示領域から出た後、再度表示領域に入ったことを検知する。
In step S301, the
続いて、表示装置10の取得部11は、ECU20から、オブジェクトの種別を取得する(ステップS302)。なお、オブジェクトの種別には、例えば、車両、歩行者、経路案内等を示す情報が含まれる。
Subsequently, the
続いて、表示装置10の決定部13は、取得部11により取得されたオブジェクトの種別に基づいて、当該オブジェクトを再度表示するか否かを判定する(ステップS303)。例えば、予め設定された、重要度が高い種別のオブジェクトの場合、再度表示すると判定される。
Subsequently, the
再度表示すると判定されない場合(ステップS303でNO)、表示装置10の表示部14は、当該オブジェクトを表示しない(ステップS304)。
If it is not determined to display the object again (NO in step S303), the
図13(A)は、再度表示すると判定されない場合の表示例を示す図である。この場合、再度表示領域に入ったオブジェクトは表示されない。これにより、重要度がそれほど高くないオブジェクトは再表示されないため、ドライバーの認知負荷が高まってしまうことを防止できる。 FIG. 13A is a diagram showing a display example when it is not determined to display again. In this case, the object that has entered the display area again is not displayed. As a result, objects that are not so important are not redisplayed, thereby preventing an increase in the driver's cognitive load.
再度表示すると判定された場合(ステップS303でYES)、表示装置10の表示部14は、決定された表示態様にて、当該オブジェクトを表示する(ステップS305)。
If it is determined to display the object again (YES in step S303), the
図13(B)は、再度表示すると判定された場合の表示例を示す図である。この場合、再度表示領域に入ったオブジェクトは、上述した「オブジェクトが表示領域に入る場合の処理」や「オブジェクトが表示領域から出る場合の処理」による表示態様と同様の表示態様で表示される。これにより、比較的重要度が高くないオブジェクトは、ドライバーの目に触れる時間を長くすることができる。 FIG. 13B is a diagram showing a display example when it is determined to display again. In this case, the object re-entering the display area is displayed in the same display mode as the above-described "process when object enters display area" and "process when object exits display area". This allows objects of relatively low importance to be seen by the driver for a longer period of time.
なお、表示装置10の決定部13は、移動装置の操舵によりオブジェクトが表示領域から出た後、当該操舵を打ち消すような操舵により当該オブジェクトが表示領域に再度入った場合は、当該オブジェクトを表示部14に表示させてもよい。これにより、例えばドライバーが道路上の障害物を避けるためにハンドルを切った後、逆方向にハンドルを切って元の進行方向に復帰した場合は、オブジェクトを再表示することができる。
Note that, if the object is moved out of the display area by steering the moving device and then re-enters the display area by steering to cancel the steering, the
≪外乱によりオブジェクトが表示領域に入ったまたは表示領域から出た場合の処理≫
次に、図14を参照し、外乱によりオブジェクトが表示領域に入ったまたは表示領域から出た場合の処理の決定部13の処理について説明する。図14は、外乱によりオブジェクトが表示領域に入ったまたは表示領域から出た場合の表示態様の例について説明する図である。
<<Processing when an object enters or exits the display area due to a disturbance>>
Next, with reference to FIG. 14, the processing of the
上述した「オブジェクトが表示領域から出る場合の処理」では、ドライバーの車両操作である、アクセル操作と操舵(ハンドル操作)による、車速及び操舵角に基づいて、表示態様を決定する例について説明した。また、上述した「オブジェクトが表示領域に入る場合の処理」では、表示領域に入ったときからの経過時間に応じて表示態様を決定する例について説明した。 In the above-mentioned "processing when an object exits the display area", an example of determining the display mode based on the vehicle speed and steering angle by accelerator operation and steering (steering wheel operation), which are vehicle operations by the driver, has been described. In addition, in the above-mentioned "processing when an object enters the display area", an example of determining the display mode according to the elapsed time after entering the display area has been described.
以下では、ドライバーの車両操作以外の要因である自車両の傾き(外乱)により、オブジェクトが表示領域から出る、または表示領域に入る場合のオブジェクトの表示態様について説明する。 The display mode of an object when the object exits or enters the display area due to the inclination (disturbance) of the own vehicle, which is a factor other than the driver's vehicle operation, will be described below.
外乱として、例えば、不連続な道路形状による自車両のバウンドなどがある。バウンドなどの突発的な要因に対して、オブジェクトの表示領域における表示位置を移動させない場合、オブジェクトの表示領域における表示位置が、背景の実世界上の物体の位置からずれるため、ARとしてのリアリティが低下する。 Disturbances include, for example, the bounce of the own vehicle due to discontinuous road shapes. If the display position of the object in the display area is not moved due to a sudden factor such as bounce, the display position of the object in the display area will deviate from the position of the object in the background in the real world, and the reality as AR will be lost. descend.
これを防ぐため、表示装置10は、ECU20から取得した自車両のピッチ及びロールに基づき、オブジェクトを背景と同期して移動させる。なお、自車両のピッチ及びロールは、自車両に設置された傾きセンサ等により取得される。
In order to prevent this, the
この場合、例えば自車両のバウンドが大きかった場合、オブジェクトが表示領域から出てしまうことも考えられる。このような場合は、図14に示すように、外乱によっては表示態様を変化させずに、オブジェクトを移動させる。図14(A)では、バウンドする前に、オブジェクトが通常の表示態様550で表示されている例が示されている。図14(B)では、バウンド中に、オブジェクトが表示領域から出た例が示されている。図14(C)では、バウンドした後に、オブジェクトが通常の表示態様550で表示されている例が示されている。
In this case, for example, if the vehicle bounces too much, the object may move out of the display area. In such a case, as shown in FIG. 14, the object is moved without changing the display mode depending on the disturbance. FIG. 14A shows an example in which the object is displayed in a
<表示態様の変形例>
以上では、ユーザに視認されにくい表示態様として、透明度を高くする例について説明した。これに代えて、ユーザに視認されにくい表示態様として、オブジェクトが回転されたことにより小さく表示される表示態様としてもよい。
<Modified example of display mode>
In the above, an example of increasing the transparency has been described as a display mode that is difficult for the user to visually recognize. Alternatively, as a display mode that is less visible to the user, a display mode in which the object is displayed in a smaller size as a result of being rotated may be used.
図15は、オブジェクトが回転されたことにより小さく表示される表示態様例について説明する図である。図15では、垂直方向を軸としてオブジェクトが回転された例を示している。この場合、決定部13は、上述した透明度を決定する処理と同様の処理により、オブジェクトの回転量を例えば表示態様551a乃至554aのように決定すればよい。なお、回転方向は任意でもよい。また、水平方向を軸としてオブジェクトを回転されてもよい。
FIG. 15 is a diagram illustrating an example of a display mode in which an object is displayed smaller by being rotated. FIG. 15 shows an example in which the object is rotated about the vertical direction. In this case, the
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the invention described in the claims.・Changes are possible.
例えば、表示装置10及びクライアント装置30は一体の装置として構成してもよい。
For example, the
また、表示装置10の例えば、取得部11、推定部12、決定部13等の各機能部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
Further, each functional unit of the
1 表示システム
10 表示装置
11 取得部
12 推定部
13 決定部
14 表示部
20 ECU(「制御装置」の一例)
1
Claims (13)
前記オブジェクトの位置、及び前記オブジェクトの移動方向を取得し、
取得された前記オブジェクトの位置、及び前記オブジェクトの移動方向に基づいて、前記表示部により表示可能な領域の縁に前記オブジェクトが移動するまでの時間、または前記オブジェクトの表示位置と前記オブジェクトの移動先の前記縁との距離を推定し、
推定された、前記時間または前記距離に基づいて、前記オブジェクトの表示態様を決定する演算装置と、を備え、
前記演算装置は、前記オブジェクトが前記表示可能な領域に入る場合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様から、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定することを特徴とする表示装置。 a display unit for superimposing and displaying an object on a background;
obtaining the position of the object and the direction of movement of the object;
Based on the obtained position of the object and the moving direction of the object, the time until the object moves to the edge of the area displayable by the display unit, or the display position of the object and the movement destination of the object. estimating the distance to said edge of
a computing device that determines a display mode of the object based on the estimated time or distance;
When the object enters the displayable area, the arithmetic device gradually changes the display mode from a display mode that is difficult for the user to visually recognize to a display mode that is easy for the user to view at a constant speed from the time the object enters the display area. , the display mode of the object at a second display position closer to the boundary of the displayable area of the display unit than at the first display position, and the display mode of the object at the first display position; A display device, characterized in that a display mode that is difficult to be visually recognized is determined .
請求項1に記載の表示装置。 2. The display device according to claim 1 , wherein the hard-to-see display mode is a highly transparent display mode.
請求項1に記載の表示装置。 2. The display device according to claim 1 , wherein the difficult-to-visual display mode is a display mode in which the object is displayed in a smaller size by being rotated.
請求項1乃至3のいずれか一項に記載の表示装置。 4. The display device according to any one of claims 1 to 3 , wherein the arithmetic device calculates the moving direction of the object based on the position of the object, the moving speed of the moving device, and the steering angle of the moving device.
請求項1乃至4のいずれか一項に記載の表示装置。 5. The display device according to any one of claims 1 to 4 , wherein the computing device further estimates the time until the object moves to the edge based on the acceleration of the moving device.
請求項1乃至5のいずれか一項に記載の表示装置。 6. The display device according to any one of claims 1 to 5 , wherein the arithmetic device does not change the display mode when the object moves in the area due to the tilt of the moving device.
請求項1乃至6のいずれか一項に記載の表示装置。 7. The display device according to any one of claims 1 to 6 , wherein when the object enters the region after the object has left the region, the arithmetic device does not display the object on the display unit. .
請求項7に記載の表示装置。 wherein the computing device determines, based on the type of the object, whether to display the object on the display unit when the object enters the area after the object has left the area; Item 8. The display device according to item 7 .
請求項7または8に記載の表示装置。 wherein said arithmetic unit displays said object on said display unit when said object enters said area by steering to cancel said steering after said object has left said area by steering of said moving apparatus. 9. The display device according to 7 or 8 .
請求項1乃至9のいずれか一項に記載の表示装置。 10. The display device according to any one of claims 1 to 9 , wherein the display unit displays the object overlaid on a background using projection light or a light emitting element.
前記制御装置は、
前記オブジェクトの位置、前記移動装置の移動速度、及び前記移動装置の操舵角のデータを前記表示装置に通知し、
前記表示装置は、
前記オブジェクトの位置、及び前記データに基づいて算出された前記オブジェクトの移動方向を取得し、
取得された前記オブジェクトの位置、及び前記オブジェクトの移動方向に基づいて、前記表示部により表示可能な領域の縁に前記オブジェクトが移動するまでの時間、または前記オブジェクトの表示位置と前記オブジェクトの移動先の前記縁との距離を推定し、
推定された、前記時間または前記距離に基づいて、前記オブジェクトの表示態様を決定する演算装置と、を備え、
前記演算装置は、前記オブジェクトが前記表示可能な領域に入る場合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様から、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定することを特徴とする表示システム。 A display system comprising a display device having a display unit that displays an object overlaid on a background, and a control device that controls a moving device,
The control device is
Notifying the display device of data on the position of the object, the moving speed of the moving device, and the steering angle of the moving device;
The display device
obtaining the position of the object and the moving direction of the object calculated based on the data;
Based on the obtained position of the object and the moving direction of the object, the time until the object moves to the edge of the area displayable by the display unit, or the display position of the object and the movement destination of the object. estimating the distance to said edge of
a computing device that determines a display mode of the object based on the estimated time or distance;
When the object enters the displayable area, the arithmetic device gradually changes the display mode from a display mode that is difficult for the user to visually recognize to a display mode that is easy for the user to view at a constant speed from the time the object enters the display area. , the display mode of the object at a second display position closer to the boundary of the displayable area of the display unit than at the first display position, and the display mode of the object at the first display position; A display system characterized by determining a display mode that is difficult to be visually recognized .
オブジェクトの位置、及び前記オブジェクトの移動方向を取得するステップと、
前記取得された前記オブジェクトの位置、及び前記オブジェクトの移動方向に基づいて、前記オブジェクトを背景上に重ねて表示する表示部により表示可能な領域の縁に前記オブジェクトが到達するまでの時間、または前記オブジェクトの表示位置と前記オブジェクトの移動先の前記縁との距離を推定するステップと、
推定された、前記時間または前記距離に基づいて、前記オブジェクトの表示態様を決定するステップと、を実行させ、
前記オブジェクトが前記表示可能な領域に入る場合、表示領域に入ったときから、一定速度で徐々に、ユーザに視認されにくい表示態様から、ユーザに視認され易い表示態様に変化させ、第1の表示位置と比較して前記表示部が表示可能な領域の境界に近い第2の表示位置における前記オブジェクトの表示態様を、前記第1の表示位置における前記オブジェクトの表示態様をよりも視認されにくい表示態様に決定するプログラム。 to the display device,
obtaining the position of an object and the direction of movement of said object;
A time until the object reaches the edge of an area that can be displayed by a display unit that displays the object overlaid on a background based on the obtained position of the object and the moving direction of the object, or estimating a distance between a display position of an object and the edge to which the object is moved;
determining a display mode of the object based on the estimated time or distance;
When the object enters the displayable area, the display mode is gradually changed at a constant speed from the time the object enters the display area to the display mode that is easily visible to the user , and the first display is performed. The display mode of the object at a second display position closer to the boundary of the displayable area of the display unit compared to the position, and the display mode of the object at the first display position is less visible than the display mode of the object. A program that decides to
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021014654A JP7180702B2 (en) | 2021-02-01 | 2021-02-01 | Display device, display system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021014654A JP7180702B2 (en) | 2021-02-01 | 2021-02-01 | Display device, display system, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016222167A Division JP7009057B2 (en) | 2016-11-15 | 2016-11-15 | Display devices, display systems, and programs |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021076864A JP2021076864A (en) | 2021-05-20 |
JP2021076864A5 JP2021076864A5 (en) | 2021-09-24 |
JP7180702B2 true JP7180702B2 (en) | 2022-11-30 |
Family
ID=75900042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021014654A Active JP7180702B2 (en) | 2021-02-01 | 2021-02-01 | Display device, display system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7180702B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100328055A1 (en) | 2009-06-30 | 2010-12-30 | The Hong Kong Polytechnic University | Detection System for Assisting A Driver When Driving A Vehicle |
JP2014177243A (en) | 2013-03-15 | 2014-09-25 | Yazaki Corp | Display device |
JP2016060445A (en) | 2014-09-22 | 2016-04-25 | 日本精機株式会社 | Headup display |
JP2017181666A (en) | 2016-03-29 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2021
- 2021-02-01 JP JP2021014654A patent/JP7180702B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100328055A1 (en) | 2009-06-30 | 2010-12-30 | The Hong Kong Polytechnic University | Detection System for Assisting A Driver When Driving A Vehicle |
JP2014177243A (en) | 2013-03-15 | 2014-09-25 | Yazaki Corp | Display device |
JP2016060445A (en) | 2014-09-22 | 2016-04-25 | 日本精機株式会社 | Headup display |
JP2017181666A (en) | 2016-03-29 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021076864A (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7009057B2 (en) | Display devices, display systems, and programs | |
RU2675760C1 (en) | Vehicle display device and display method for vehicle | |
KR102306790B1 (en) | Device and method to visualize content | |
JP6695049B2 (en) | Display device and display control method | |
US20150178985A1 (en) | Virtual three-dimensional instrument cluster with three-dimensional navigation system | |
KR102593383B1 (en) | Control of a display of an augmented reality head-up display apparatus for a means of transportation | |
WO2019230272A1 (en) | Display control device, display control program, and persistent tangible computer-readable recording medium therefor | |
JP6866875B2 (en) | Display control device and display control program | |
CN111094898B (en) | Method and device for controlling the display of an augmented reality head-up display device for a motor vehicle | |
JP6277933B2 (en) | Display control device, display system | |
JP2015102449A (en) | Vehicle self position estimation apparatus and vehicle self position estimation method | |
CN114222679A (en) | Generation of display for augmented reality heads-up display of motor vehicle | |
JP7048202B2 (en) | Display device for vehicles and display method for vehicles | |
JP7459883B2 (en) | Display control device, head-up display device, and method | |
JP7180702B2 (en) | Display device, display system, and program | |
JP7276152B2 (en) | head-up display device | |
JP6328366B2 (en) | Display control apparatus and display control method for head-up display | |
JP2019172070A (en) | Information processing device, movable body, information processing method, and program | |
JP7484591B2 (en) | DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM | |
WO2021200913A1 (en) | Display control device, image display device, and method | |
JP7262040B2 (en) | Information presentation system, information presentation method, program, and mobile object | |
JP7420019B2 (en) | Vehicle display control device, display method, program, and vehicle display system | |
EP4265463A1 (en) | Vehicle, head-up display, augmented reality device, apparatuses, methods and computer programs for controlling an augmented reality device and for controlling a visualization device | |
JP2024032399A (en) | display control device | |
US20220410711A1 (en) | Display control device, display method, and storage medium storing display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221031 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7180702 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |