JP2020121607A - Display control device, method and computer program - Google Patents
Display control device, method and computer program Download PDFInfo
- Publication number
- JP2020121607A JP2020121607A JP2019013682A JP2019013682A JP2020121607A JP 2020121607 A JP2020121607 A JP 2020121607A JP 2019013682 A JP2019013682 A JP 2019013682A JP 2019013682 A JP2019013682 A JP 2019013682A JP 2020121607 A JP2020121607 A JP 2020121607A
- Authority
- JP
- Japan
- Prior art keywords
- image
- traveling lane
- area
- vehicle
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000004590 computer program Methods 0.000 title claims description 4
- 230000008859 change Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 15
- 230000007423 decrease Effects 0.000 claims description 5
- 230000006866 deterioration Effects 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 41
- 238000012545 processing Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、方法、及びコンピュータ・プログラムに関する。 The present disclosure relates to a display control device, a method, and a computer program which are used in a vehicle and allow an image to be viewed on a foreground of the vehicle in a superimposed manner.
特許文献1には、車速や交通規制情報や案内経路などを示す画像を、自車両の前景に重ねて表示するヘッドアップディスプレイ装置が開示されている。
車両が直進している際、表示される画像は、自車両の走行レーンに重なって視認されるが、車両がカーブなどに差し掛かる際、表示される画像の一部が、走行レーンの左側の区画線よりも左側、又は走行レーンの右側の区画線よりも右側に視認される。走行レーンに重なって視認されていた画像が走行レーンから外れた位置に重なって視認される場合、画像が通常表示される領域(走行レーンと重なる領域)からはみ出てしまったように感じ、視認者に違和感を与え、画像の視認性が低下することが想定される。 When the vehicle is traveling straight, the displayed image is visible overlapping the traveling lane of the host vehicle.However, when the vehicle approaches a curve, a part of the displayed image is displayed on the left side of the traveling lane. It is visually recognized on the left side of the lane marking or on the right side of the lane marking on the right side of the driving lane. When an image that was viewed while overlapping the driving lane is viewed overlapping with a position that is off the driving lane, it feels like it has protruded from the area where the image is normally displayed (the area that overlaps with the driving lane). It is assumed that the image is unnatural and the visibility of the image is deteriorated.
本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 The following is a summary of the specific embodiments disclosed herein. It should be understood that these aspects are presented only to provide an overview of the reader to these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may include various aspects not described below.
本開示の概要は、画像の視認性の低下を抑制することに関する。より具体的には、画像のうち走行レーンに重ならない領域を少なくすることにも関する。 The summary of the present disclosure relates to suppressing a reduction in image visibility. More specifically, it relates to reducing the area of the image that does not overlap with the driving lane.
したがって、本明細書に記載される表示制御装置は、走行レーン310の位置と自車両の運転者の目の位置と画像200の位置とから、表示領域100のうち運転者から見て走行レーン310と重ならない走行レーン非重畳領域101に画像200が表示されていると判定される場合、走行レーン非重畳領域101に配置されている画像200の面積が減少するように、画像200の表示態様を変化させる。
Therefore, the display control device described in the present specification uses the position of the
以下、図1及び図2では、例示的な車両用表示システムの構成の説明を提供する。図6A、図6B、及び図6Cでは、車両用表示システムが表示する画像についての説明を提供する。また、図4では、表示処理のフローを提供する。図3,図5は、所定のシチュエーションを説明するための図である。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 In the following, FIGS. 1 and 2 provide a description of the configuration of an exemplary vehicle display system. 6A, 6B, and 6C provide a description of the images displayed by the vehicular display system. Further, FIG. 4 provides a flow of display processing. 3 and 5 are diagrams for explaining a predetermined situation. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be added to the following embodiments. In addition, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be appropriately omitted.
図1を参照する。車両用表示システム10における画像表示部11は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光11aをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、仮想的な表示領域100内に画像200を表示することで、フロントウインドシールド2を介して視認される現実空間である前景300に画像200を重ねて視認させる。なお、本実施形態の説明では、自車両1の運転席に着座する運転者4が自車両1の前方を向いた際の左右方向をX軸(左方向がX軸正方向)、上下方向をY軸(上方向がY軸正方向)、前後方向をZ軸(前方向がZ軸正方向)とする。
Please refer to FIG. The
また、画像表示部11は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される画像200を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の画像200を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定(調整可能に配置)され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された画像200を視認することができる。
Further, the
画像表示部11は、表示制御装置13の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景300に存在する、障害物(歩行者、自転車、自動二輪車、他車両など)、路面(走行レーン310)、道路標識、及び地物(建物、橋など)などの実オブジェクトの近傍(画像と実オブジェクトとの特定の位置関係の一例)、実オブジェクトに重なる位置(画像と実オブジェクトとの特定の位置関係の一例)、又は実オブジェクトを基準に設定された位置(画像と実オブジェクトとの特定の位置関係の一例)に画像200を表示することで、視覚的な拡張現実(AR:Augmented Reality)を形成することもできる。画像表示部11は、実オブジェクトの位置に応じて表示位置を変化させるAR画像(不図示)、又は/及び実オブジェクトの位置に応じて表示位置を変化させない非AR画像(不図示)、を含む画像200を表示示することができる。
Based on the control of the
図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、画像表示部11と、画像表示部11を制御する表示制御装置13と、で構成される。表示制御装置13は、1つ又はそれ以上のI/Oインタフェース14、1つ又はそれ以上のプロセッサ16、1つ又はそれ以上のメモリ18、及び1つ又はそれ以上の画像処理回路20を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、実施態様の一実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路20(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ16に含まれてもよい。
FIG. 2 is a block diagram of a
図示するように、プロセッサ16及び画像処理回路20は、メモリ18と動作可能に連結される。より具体的には、プロセッサ16及び画像処理回路20は、メモリ18に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ16又は/及び画像処理回路20は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ18は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
As shown, the
図示するように、プロセッサ16は、I/Oインタフェース14と動作可能に連結されている。例えば、I/Oインタフェース14は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、4G又はLTE(登録商標)セルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース14は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。
As shown, the
図示するように、プロセッサ16は、I/Oインタフェース14と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース14)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース14には、例えば、自車両1に設けられた車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、視線方向検出部409、目位置検出部411、携帯情報端末413、及び車外通信接続機器420などが動作可能に連結される。画像表示部11は、プロセッサ16及び画像処理回路20に動作可能に連結される。したがって、画像表示部11によって表示される画像は、プロセッサ16又は/及び画像処理回路20から受信された画像データに基づいてもよい。プロセッサ16及び画像処理回路20は、I/Oインタフェース14から得られる情報に基づき、画像表示部11が表示する画像を制御する。なお、I/Oインタフェース14は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
As shown in the figure, the
自車両1は、自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)などを検出する車両ECU401を含んでいる。車両ECU401は、自車両1の各部を制御するものであり、例えば、自車両1の現在の車速を示す車速情報をプロセッサ16へ送信することができる。なお、車両ECU401は、単にセンサで検出したデータをプロセッサ16へ送信することに加え、又は代わりに、センサで検出したデータの判定結果、若しくは/及び解析結果をプロセッサ16へ送信することができる。例えば、自車両1が低速走行しているか、又は停止しているかを示す情報をプロセッサ16へ送信してもよい。
The
また、車両ECU401は、車両用表示システム10が表示する画像200を指示する指示信号をI/Oインタフェース14に送信してもよく、この際、画像200の座標、サイズ、種類、表示態様、画像200の報知必要度、又は/及び報知必要度を判定する元となる必要度関連情報を、指示信号に付加して送信してもよい。
Further, the
自車両1は、ナビゲーションシステム等からなる道路情報データベース403を含んでいてもよい。道路情報データベース403は、後述する自車位置検出部405から取得される自車両1の位置に基づき、実オブジェクト関連情報の一例である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ16に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路を算出し、ナビゲーション情報としてプロセッサ16に送信してもよい。
The
自車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部405を含んでいてもよい。道路情報データベース403、後述する携帯情報端末413、又は/及び車外通信接続機器420は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択又は/及び生成して、プロセッサ16に送信することができる。
The
自車両1は、自車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する1つ又はそれ以上の車外センサ407を含んでいてもよい。車外センサ407が検知する実オブジェクトは、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、サイズ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、又は/及び種類等を検出してもよい。1つ又はそれ以上の車外センサ407は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト関連情報の一例である実オブジェクト関連情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、又は/及び種類等の情報)をプロセッサ16に送信することができる。なお、これら実オブジェクト関連情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ16に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。
The
自車両1は、運転者4の注視方向(以下では「視線方向」ともいう)を検出する、運転者4の顔を撮像する赤外線カメラ等からなる視線方向検出部409を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の視線方向を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から視線方向検出部409(又は他の解析部)が特定した運転者4の視線方向をI/Oインタフェース14から取得するものであってもよい。また、自車両1の運転者4の視線方向、又は運転者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線目底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。
The
自車両1は、運転者4の目の位置を検出する赤外線カメラ等からなる目位置検出部411を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から特定された運転者4の目の位置の情報をI/Oインタフェース14から取得するものであってもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ16は、運転者4の目の位置に基づき、画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した画像200を、目位置を検出した視認者(運転者4)に視認させてもよい。
The
携帯情報端末413は、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース14は、携帯情報端末413と通信を行うことが可能であり、携帯情報端末413(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末413は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。また、携帯情報端末413は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、携帯情報端末413は、携帯情報端末413の所持者(例えば、運転者4)のスケジュール情報、携帯情報端末413での着信情報、メールの受信情報などをプロセッサ16に送信し、プロセッサ16及び画像処理回路20は、これらに関する画像データを生成又は/及び送信してもよい。
The
車外通信接続機器420は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。車外通信接続機器420は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)の位置を取得し、プロセッサ16に送信してもよい。また、車外通信接続機器420は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ16に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、車外通信接続機器420から取得される情報は、上述のものに限定されない。
The extra-vehicle
メモリ18に記憶されたソフトウェア構成要素は、実オブジェクト関連情報検出モジュール502、画像位置推定モジュール504、目位置検出モジュール506、走行レーン非重畳判定モジュール508、報知必要度判定モジュール510、画像位置決定モジュール512、画像サイズ決定モジュール514、及びグラフィックモジュール516を含む。
The software components stored in the memory 18 are the real object related information detection module 502, the image
実オブジェクト関連情報検出モジュール502は、自車両1の実オブジェクト(走行レーン310)の位置(領域)を少なくとも含む情報(実オブジェクト関連情報とも呼ぶ)をI/Oインタフェース14を介して取得する。実オブジェクト関連情報検出モジュール502は、車外センサ407から、自車両1の前景300に存在する実オブジェクトの位置(自車両1の運転席にいる運転者4から自車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい)、及び実オブジェクトのサイズ(高さ方向、横方向のサイズ)、を取得してもよい。また、実オブジェクト関連情報検出モジュール502は、車外通信接続機器420を介して実オブジェクト(他車両)から、種類、実オブジェクト(他車両)の方向指示器、舵角、又は/及び運転支援システムによる進行予定経路、進行スケジュール、を示す情報を取得してもよい。
The real object related information detection module 502 acquires information (also called real object related information) including at least the position (area) of the real object (running lane 310) of the
また、実オブジェクト関連情報検出モジュール502は、車外センサ407から、自車両1の走行レーン310の左側の区画線311(図3参照)の位置と、右側の区画線312(図3参照)の位置とを取得し、それら区画線311,312の間の領域(走行レーン310の位置)を算出してもよい。
Further, the real object-related information detection module 502 detects, from the
画像位置推定モジュール504は、画像200が表示される位置(領域)を推定する。画像位置推定モジュール504は、後述する画像位置決定モジュール512が決定する画像200の位置、及び後述する画像サイズ決定モジュール514が決定する画像200のサイズに基づき、表示領域100内の1つ又はそれ以上の画像200の位置(領域)を推定してもよい。
The image
目位置検出モジュール506は、自車両1の運転者4の目の位置を検出する。目位置検出モジュール506は、複数段階で設けられた上下方向の領域(又は/及び左右方向の領域)のどこに運転者4の目の位置があるかの判定、運転者4の目の上下方向(Y軸方向)の位置、又は/及び左右方向(X軸方向)の位置の検出、運転者4の目の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール506は、例えば、目位置検出部411から運転者4の目の位置を取得する、又は、目位置検出部411から運転者4の目の位置を推定可能な情報を受信し、運転者4の目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。
The eye
走行レーン非重畳判定モジュール508は、運転者4(自車両1の運転席に着座する視認者)から見て、画像200が走行レーン310に非重畳であるか(重畳していないか)を検出又は推定する。走行レーン非重畳判定モジュール508は、表示領域100の左側又は右側のどちらが走行レーン310に非重畳となるかの検出又は推定、表示領域100のうち走行レーン310と非重畳となる領域(後述する走行レーン非重畳領域101)の検出又は推定、走行レーン非重畳領域101に配置される画像200の検出又は推定、走行レーン非重畳領域101に配置される画像200の面積(画素数)の検出、表示領域100のうち走行レーン310と重畳する領域(後述する走行レーン重畳領域102)の検出又は推定、走行レーン重畳領域102に配置される画像200の検出又は推定、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。図3は、自車両1の運転席から運転者4が前方を向いた際の画像表示部11が画像200を表示可能な表示領域100(実際には表示領域自体は視認されない)と走行レーン310との位置関係を説明する図である。図3の走行レーン310は、右カーブであり、表示領域100の左上の領域が走行レーン310の左側の区画線311を境界に走行レーン310の外側と重なる領域(走行レーン非重畳領域101)と判定でき、その他の領域を走行レーン310と重なる領域(走行レーン重畳領域102)と判定できる。走行レーン非重畳判定モジュール508は、例えば、実オブジェクト関連情報検出モジュール502が取得した走行レーン310の位置と、画像位置推定モジュール504が推定した画像200の位置と、目位置検出モジュール506に基づいて、視認者から見て、走行レーン非重畳領域101に配置される画像200を検出してもよい。
The traveling lane
図2の報知必要度判定モジュール510は、車両用表示システム10が表示する各画像200が運転者4に報知するべき内容であるかを判定する。報知必要度判定モジュール510は、I/Oインタフェース14に接続される種々の他の電子機器から情報を取得し、報知必要度を算出してもよい。また、図2でI/Oインタフェース14に接続された電子機器が車両ECU401に情報を送信し、受信した情報に基づき車両ECU401が決定した報知必要度を、報知必要度判定モジュール510が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、自車両1や運転者4(又は自車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。すなわち、報知必要度判定モジュール510は、運転者4に報知すべきかを判定し、画像200の一部又は全部を表示しないことも選択し得る。なお、車両用表示システム10は、報知必要度を推定する(算出する)機能を有していなくてもよく、報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置13とは別に設けられてもよい。
The notification
画像位置決定モジュール512は、表示領域100内での画像200の位置、又は/及び表示領域100の位置を決定する。画像位置決定モジュール512は、画像200が前記AR画像であれば、実オブジェクトと特定の位置関係になって視認されるように、実オブジェクト関連情報検出モジュール502により検出された実オブジェクトの位置に基づき、画像200の座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。例えば、画像位置決定モジュール512は、画像200の中心が実オブジェクトの中心と重なって視認されるように、画像200の左右方向、及び上下方向の位置を決定する。なお、『特定の位置関係』は、実オブジェクト又は自車両1の状況、実オブジェクトの種類、表示される画像の種類などにより調整され得る。また、画像位置決定モジュール512は、表示更新周期毎に、実オブジェクトの位置を予測し、その予測位置に基づいて、画像200の座標を決定してもよい。この場合、画像位置決定モジュール512は、実オブジェクト関連情報検出モジュール502が少なくとも直前に取得した実オブジェクトの位置(観測位置)を含む過去に取得した1つ又はそれ以上の実オブジェクトの観測位置を元に予測される画像200(前記AR画像)の表示更新周期における実オブジェクトの予測位置に基づいて画像200(前記AR画像)の位置を設定してもよい。画像位置決定モジュール512による実オブジェクトの予測位置の算出方法に特段の制約はなく、画像位置決定モジュール512が処理対象とする表示更新周期よりも過去に取得された観測位置に基づいて予測を行う限り、如何なる手法を用いてもよい。画像位置決定モジュール512は、例えば、最小二乗法や、カルマンフィルタ、α−βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。
The image
また、画像200が前記非AR画像であれば、画像位置決定モジュール512は、種別毎に予め定められた表示領域100内の所定の位置に各画像200の位置を設定してもよい。
Further, if the
また、画像位置決定モジュール512は、走行レーン非重畳判定モジュール508が、運転者4(自車両1の運転席に着座する視認者)から見て、画像200が走行レーン310に非重畳であるか(重畳していないか)を検出又は推定した場合、走行レーン非重畳領域101に配置されていると推定される画像200の面積が減少するように、走行レーン非重畳領域101に配置されていると検出又は推定された画像200を走行レーン重畳領域102の方へ移動させる。また、画像位置決定モジュール512は、走行レーン非重畳領域101に配置されていると推定される画像200を走行レーン重畳領域102の方へ移動させる際、走行レーン重畳領域102に画像200が移動してくるスペースを空けるため、走行レーン重畳領域102に表示されていた一部又は全部の画像200の配置を変えてもよい。また、画像位置決定モジュール512は、走行レーン非重畳領域101に配置されていると推定される画像200を走行レーン重畳領域102の方へ移動させる際、表示領域100に表示される複数の画像200の配置を適切な配置に調整するため、走行レーン重畳領域102に表示されていた一部又は全部の画像200の配置を変えてもよい。
Further, in the image
画像サイズ決定モジュール514は、画像200のサイズを決定する。画像サイズ決定モジュール514は、画像200が前記AR画像であれば、対応付ける実オブジェクトの位置、又は/及びサイズに合わせて、画像200のサイズを変更してもよい。例えば、画像サイズ決定モジュール514は、対応付ける実オブジェクトの位置が遠方であれば、AR画像のサイズを小さくし得る。また、画像サイズ決定モジュール514は、対応付ける実オブジェクトのサイズが大きければ、AR画像のサイズを大きくし得る。画像サイズ決定モジュール514は、過去の所定の回数の実オブジェクトのサイズに基づいて、今回の表示更新周期で表示する画像(AR画像)200を表示するサイズを予測算出する機能を有してもよい。第1の手法として、画像サイズ決定モジュール514は、カメラ(車外センサ407の一例)による過去の2つの撮像画像間で、例えば、Lucas−Kanade法を使用して、実オブジェクトの画素を追跡することで、今回の表示更新周期における実オブジェクトのサイズを予測し、予測した実オブジェクトのサイズに合わせてAR画像のサイズを決定してもよい。第2手法として、過去の2つの撮像画像間での実オブジェクトのサイズの変化に基づき、実オブジェクトのサイズの変化率を求めて、実オブジェクトのサイズの変化率に応じてAR画像のサイズを決定してもよい。なお、時系列で変化する視点からの実オブジェクトのサイズ変化を推定する方法は、上記に限られず、例えば、Horn−Schunck法、Buxton−Buxton、Black−Jepson法などのオプティカルフロー推定アルゴリズムを含む公知の手法を用いてもよい。
The image
また、画像200が前記非AR画像であれば、画像サイズ決定モジュール514は、種別毎に予め定められたサイズに各画像200のサイズを設定してもよい。
If the
また、画像サイズ決定モジュール514は、実オブジェクト関連情報検出モジュール502により検出された画像200を対応付けて表示する実オブジェクトの種類、数、又は/及び、報知必要度判定モジュール510で検出された(推定された)報知必要度の大きさに基づいて、画像200のサイズを決定し得る。
Further, the image
また、画像サイズ決定モジュール514は、走行レーン非重畳判定モジュール508が、運転者4(自車両1の運転席に着座する視認者)から見て、画像200が走行レーン310に非重畳であるか(重畳していないか)を検出又は推定した場合、走行レーン非重畳領域101に配置されていると推定される画像200の面積が減少するように、走行レーン非重畳領域101に配置されていると検出又は推定された画像200のサイズを小さくする。また、画像サイズ決定モジュール514は、画像位置決定モジュール512が走行レーン非重畳領域101に配置されていると検出又は推定される画像200を走行レーン重畳領域102の方へ移動させる際、走行レーン重畳領域102に画像200が移動してくるスペースを空けるため、走行レーン重畳領域102に表示されていた一部又は全部の画像200のサイズを小さくしてもよい。また、画像サイズ決定モジュール514は、画像位置決定モジュール512が走行レーン非重畳領域101に配置されていると推定される画像200を走行レーン重畳領域102の方へ移動させる際、表示領域100に表示される複数の画像200の配置のバランスをメモリ18に記憶された、より適切なバランスにするため、走行レーン重畳領域102に表示されていた一部又は全部の画像200のサイズを変えてもよい。
In the image
グラフィックモジュール516は、表示される画像200の視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた画像表示部11に画像200をレンダリングして表示するための様々な基地のソフトウェア構成要素を含む。
The
また、グラフィックモジュール516は、走行レーン非重畳判定モジュール508が、運転者4(自車両1の運転席に着座する視認者)から見て、画像200が走行レーン310に非重畳であるか(重畳していないか)を検出又は推定した場合、走行レーン非重畳領域101に配置されていると検出又は推定される画像200(又は/及び走行レーン重畳領域102に配置されていると検出又は推定される画像200)の、報知必要度判定モジュール510により判定された報知必要度がメモリ18に記憶された所定の報知必要度より低ければ、その画像200を非表示にしてもよい。
Further, in the
プロセッサ16及び画像処理回路20は、画像位置決定モジュール512が設定した座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズ決定モジュール514が設定したサイズ、グラフィックモジュール516が設定したプロパティ、に基づいて運転者4に視認されるように画像表示部11に画像200を表示する。
The
図4は、いくつかの実施形態に係る、画像の表示処理のフロー図である。まず、プロセッサ16は、実オブジェクト関連情報検出モジュール502を実行して、走行レーン310の位置(領域)を取得し(ステップS11)、画像位置推定モジュール504を実行して、画像200が表示される位置を取得し(ステップS12)、目位置検出モジュール506を実行して、視認者(運転者4)の目の位置を取得する(ステップS13)。
FIG. 4 is a flow diagram of image display processing according to some embodiments. First, the
ステップS14において、プロセッサ16は、走行レーン非重畳判定モジュール508を実行して、ステップS11で取得した走行レーン310の位置と、ステップS12で取得した画像200の位置と、ステップS13で取得した視認者の目の位置とに基づいて、視認者から見て、走行レーンに重ならない領域に画像が表示されているか判定する。走行レーン310に重ならない走行レーン非重畳領域101に画像200が表示されていない場合、処理を終了し、再びステップS11からのルーチンを開始する。また、 走行レーン310に重ならない走行レーン非重畳領域101に画像が表示されている場合、ステップS15へ移行する。
In step S14, the
ステップS15において、プロセッサ16は、走行レーン非重畳領域101に表示されていると検出又は推定される画像200の面積が減少するように、画像200を移動、画像200を縮小、 画像200を非表示、又はこれらの組み合わせを実行し、再びステップS11からのルーチンを開始する。
In step S15, the
上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above can be performed by executing one or more functional modules of an information processing device such as a general-purpose processor or an application-specific chip. All of these modules, combinations of these modules, and/or combinations with known hardware capable of substituting their functions are included in the scope of protection of the present invention.
車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
The functional blocks of the
図5、及び図6A乃至図6Cを用いて、画像の表示態様の変化について説明する。図5は、図3に示した表示領域と走行レーンの位置関係である場合において、図4のステップS15の処理(表示態様の変化)が実行される前の画像200の配置を例示する図であり、図6A、図6B、図6Cは、図3に示した表示領域と走行レーンの位置関係である場合において、図4のステップS15の処理(表示態様の変化)が実行された後の画像200の配置を例示する図である。図5において、走行レーン非重畳領域101には、第1画像210の全部と、第2画像220の一部と、が配置され、走行レーン重畳領域102には、第2画像220の大部分と、第3画像230の全部と、が配置されている。
The change in the display mode of the image will be described with reference to FIGS. 5 and 6A to 6C. FIG. 5 is a diagram illustrating an arrangement of the
図6Aを参照する。プロセッサ16は、図4のステップS15を実行し、走行レーン非重畳領域101に配置される第1画像210の全部が、走行レーン重畳領域102に配置されるように第1画像210を移動させてもよい。なお、プロセッサ16は、第1画像210の一部が、走行レーン重畳領域102に配置されるように第1画像210移動させてもよい。また、この際、走行レーン非重畳領域101に配置されている面積が一部である、又は面積がメモリ18に記憶された所定の面積閾値より低い場合などは、第2画像220のように、図4のステップS15が実行されなくてもよい。
Please refer to FIG. 6A. The
次に図6Bを参照する。プロセッサ16は、図4のステップS15を実行し、走行レーン非重畳領域101に配置される第1画像210の全部が、走行レーン重畳領域102に配置されるように第1画像210のサイズを縮小しつつ、移動してもよい。また、この際、プロセッサ16は、第1画像210が、走行レーン重畳領域102に配置されるスペースを生成するように、走行レーン重畳領域102に配置されていた第2画像220又は/及び第3画像230を縮小してもよい。
Next, refer to FIG. 6B. The
次に図6Cを参照する。プロセッサ16は、図4のステップS15を実行し、走行レーン非重畳領域101に配置される第1画像210の全部が、走行レーン重畳領域102に配置されるように第1画像210を移動させるスペースを生成するため、報知必要度の低い第3画像230を非表示にしつつ、第2画像220を移動してもよい。
Next, refer to FIG. 6C. The
以上に説明したように、本実施形態の表示制御装置は、走行レーン310の位置と視認者の目の位置と画像200の位置とから、表示領域100のうち運転者4から見て走行レーン310と重ならない走行レーン非重畳領域101に画像200が表示されていると判定される場合、走行レーン非重畳領域101に配置されている画像200の面積が減少するように、画像200を移動、縮小、非表示、又はこれらの組み合わせを実行する。これによれば、走行レーンに重ならない領域に表示される画像の面積を減少し、画像の視認性の低下を抑制することができる。
As described above, the display control device according to the present embodiment uses the position of the traveling
また、表示領域100は、図1に示すように、運転者4から見て、上下左右からなる平面(XY平面)に概ね沿うような配置に限定されない。例えば、表示領域100は、運転者4から見た左右方向(X軸方向)を軸として回転させ、走行レーン310(ZX平面)に概ね沿うように配置されてもよい。なお、表示領域100は、平面ではなく、曲面になり得る。また、画像表示部11に立体表示器を採用し、3次元領域である表示領域100に画像200を表示するものであってもよい。
Further, as shown in FIG. 1, the
また、いくつかの実施形態では、画像表示部11が表示する画像の画像データが車両ECU401により生成される場合、画像位置推定モジュール504は、車両ECU401から取得する画像データから画像200の位置を推定してもよい。
Further, in some embodiments, when the image data of the image displayed by the
また、画像200は、I/Oインタフェース14から取得される情報を元に生成されるとすると、いくつかの実施形態では、画像位置推定モジュール504は、I/Oインタフェース14から取得される各種情報に基づいて、画像200の位置を推定してもよい。
Further, assuming that the
また、画像表示部11における表示領域100の位置が可変であれば、いくつかの実施形態では、画像位置推定モジュール504は、表示領域100内の1つ又はそれ以上の画像200の位置を推定することに加え、又はこの代わりに、調整された表示領域100の位置を推定してもよい。
Also, if the position of the
また、いくつかの実施形態では、走行レーン非重畳領域101と走行レーン重畳領域102との境界は、走行レーン310の区画線311,312に限定されず、路側物であってもよく、これら区画線や路側物を基準に走行レーン310の内側又は外側にオフセットした位置にプロセッサ16が設定した境界であってもよい。
Further, in some embodiments, the boundary between the traveling lane
1…自車両、2…フロントウインドシールド、4…運転者、5…ダッシュボード、10…車両用表示システム、11…画像表示部、11a…表示光、13…表示制御装置、14…I/Oインタフェース、16…プロセッサ、18…メモリ、20…画像処理回路、100…表示領域、101…走行レーン非重畳領域、102…走行レーン重畳領域、200…画像、210…第1画像、220…第2画像、230…第3画像、300…前景、310…走行レーン、311…区画線、312…区画線、401…車両ECU、403…道路情報データベース、405…自車位置検出部、407…車外センサ、409…視線方向検出部、411…目位置検出部、413…携帯情報端末、420…車外通信接続機器、502…実オブジェクト関連情報検出モジュール、504…画像位置推定モジュール、506…目位置検出モジュール、508…走行レーン非重畳判定モジュール、510…報知必要度判定モジュール、512…画像位置決定モジュール、514…画像サイズ決定モジュール、516…グラフィックモジュール
DESCRIPTION OF
Claims (9)
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両の走行レーン(310)の位置と、
前記自車両の前記運転者の目の位置と、
表示されている前記画像(200)の位置と、を取得し、
前記走行レーン(310)の位置と前記目の位置と前記画像(200)の位置とから、前記表示領域(100)のうち前記運転者から見て前記走行レーン(310)と重ならない走行レーン非重畳領域(101)に前記画像(200)が表示されていると判定される場合、
前記走行レーン非重畳領域(101)に配置されている前記画像(200)の面積が減少するように、前記画像(200)の表示態様を変化させる、命令を実行する、
表示制御装置。 In a display control device (13) that controls an image display unit (11) that displays an image (200) in a display area (100) that overlaps with the foreground seen by the driver of the own vehicle,
One or more I/O interfaces (14),
One or more processors (16),
A memory (18),
One or more computer programs stored in the memory (18) and configured to be executed by the one or more processors (16),
Said one or more processors (16)
From the one or more I/O interfaces (14),
The position of the driving lane (310) of the own vehicle,
The position of the eyes of the driver of the vehicle,
And the position of the image (200) being displayed,
From the position of the driving lane (310), the position of the eyes, and the position of the image (200), a driving lane non-overlapping in the display area (100) that does not overlap with the driving lane (310) as seen by the driver. When it is determined that the image (200) is displayed in the overlapping area (101),
Executing a command to change the display mode of the image (200) so that the area of the image (200) arranged in the traveling lane non-overlapping region (101) decreases.
Display controller.
前記走行レーン非重畳領域(101)に配置されている前記画像(200)を、前記表示領域(100)のうち前記走行レーン非重畳領域(101)ではない走行レーン重畳領域(102)の方へ移動させる、ことを含む、
請求項1に記載の表示制御装置。 The instruction to change the display mode of the image (200) so that the area of the image (200) arranged in the traveling lane non-overlapping area (101) is reduced,
The image (200) arranged in the traveling lane non-overlapping area (101) is transferred to the traveling lane overlapping area (102) which is not the traveling lane non-overlapping area (101) in the display area (100). Including moving,
The display control device according to claim 1.
請求項2に記載の表示制御装置。 When the image (200) arranged in the traveling lane non-overlapping area (101) is moved toward the traveling lane overlapping area (102), the image displayed in the traveling lane overlapping area (102) is displayed. The display control device according to claim 2, further comprising: executing a command to generate a space for arranging the image (200) arranged in the traveling lane non-overlapping area (101) by changing an image arrangement.
前記走行レーン非重畳領域(101)に配置されている前記画像(200)を縮小させる、ことを含む、
請求項1乃至3のいずれかに記載の表示制御装置。 The instruction to change the display mode of the image (200) so that the area of the image (200) arranged in the traveling lane non-overlapping area (101) is reduced,
Reducing the image (200) arranged in the traveling lane non-overlapping area (101),
The display control device according to claim 1.
前記自車両の走行レーン(310)の位置と、
前記自車両の前記運転者の目の位置と、
表示されている前記画像(200)の位置と、を取得することと、
前記走行レーン(310)の位置と前記目の位置と前記画像(200)の位置とから、前記表示領域(100)のうち前記運転者から見て前記走行レーン(310)と重ならない走行レーン非重畳領域(101)に前記画像(200)が表示されていると判定される場合、
前記走行レーン非重畳領域(101)に配置されている前記画像(200)の面積が減少するように、前記画像(200)の表示態様を変化させることと、を含む、
方法。 In a method of controlling an image display unit (11) that displays an image (200) in a display area (100) that overlaps with a foreground seen by a driver of a vehicle,
The position of the driving lane (310) of the own vehicle,
The position of the eyes of the driver of the vehicle,
Obtaining the position of the image (200) being displayed,
From the position of the driving lane (310), the position of the eyes, and the position of the image (200), a driving lane non-overlapping in the display area (100) that does not overlap with the driving lane (310) as seen by the driver. When it is determined that the image (200) is displayed in the overlapping area (101),
Changing the display mode of the image (200) so that the area of the image (200) arranged in the traveling lane non-overlapping region (101) decreases.
Method.
前記走行レーン非重畳領域(101)に配置されている前記画像(200)を、前記表示領域(100)のうち前記走行レーン非重畳領域(101)ではない走行レーン重畳領域(102)の方へ移動させる、ことを含む、
請求項5に記載の方法。 Changing the display mode of the image (200) so that the area of the image (200) arranged in the driving lane non-overlapping region (101) decreases.
The image (200) arranged in the traveling lane non-overlapping area (101) is transferred to the traveling lane overlapping area (102) which is not the traveling lane non-overlapping area (101) in the display area (100). Including moving,
The method according to claim 5.
請求項6に記載の方法。 When the image (200) arranged in the traveling lane non-overlapping area (101) is moved toward the traveling lane overlapping area (102), the image displayed in the traveling lane overlapping area (102) is displayed. Changing the arrangement of the images to generate a space for arranging the images (200) arranged in the traveling lane non-overlapping area (101).
The method of claim 6.
前記走行レーン非重畳領域(101)に配置されている前記画像(200)を縮小させる、ことを含む、
請求項5乃至7いずれかに記載の方法。 Changing the display mode of the image (200) so that the area of the image (200) arranged in the driving lane non-overlapping region (101) decreases.
Reducing the image (200) arranged in the traveling lane non-overlapping area (101),
The method according to any one of claims 5 to 7.
A computer program comprising instructions for performing the method of claims 5-8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013682A JP2020121607A (en) | 2019-01-29 | 2019-01-29 | Display control device, method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013682A JP2020121607A (en) | 2019-01-29 | 2019-01-29 | Display control device, method and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020121607A true JP2020121607A (en) | 2020-08-13 |
Family
ID=71993379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019013682A Pending JP2020121607A (en) | 2019-01-29 | 2019-01-29 | Display control device, method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020121607A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023286743A1 (en) * | 2021-07-12 | 2023-01-19 | 日本精機株式会社 | Head-up display device |
-
2019
- 2019-01-29 JP JP2019013682A patent/JP2020121607A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023286743A1 (en) * | 2021-07-12 | 2023-01-19 | 日本精機株式会社 | Head-up display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4476719B2 (en) | Navigation system | |
JP2020032866A (en) | Vehicular virtual reality providing device, method and computer program | |
US10922976B2 (en) | Display control device configured to control projection device, display control method for controlling projection device, and vehicle | |
JP7255608B2 (en) | DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM | |
JP7459883B2 (en) | Display control device, head-up display device, and method | |
US20230373309A1 (en) | Display control device | |
WO2022230995A1 (en) | Display control device, head-up display device, and display control method | |
JP2020121607A (en) | Display control device, method and computer program | |
WO2021200914A1 (en) | Display control device, head-up display device, and method | |
JP2020086884A (en) | Lane marking estimation device, display control device, method and computer program | |
WO2020158601A1 (en) | Display control device, method, and computer program | |
JP2020121704A (en) | Display control device, head-up display device, method and computer program | |
JP7434894B2 (en) | Vehicle display device | |
WO2023145852A1 (en) | Display control device, display system, and display control method | |
JP2021056358A (en) | Head-up display device | |
JP2020154468A (en) | Driving support device, method, and computer program | |
WO2021200913A1 (en) | Display control device, image display device, and method | |
JP2020199883A (en) | Display control device, head-up display device, method and computer program | |
JP2020117105A (en) | Display control device, method and computer program | |
JP2020106911A (en) | Display control device, method, and computer program | |
WO2023003045A1 (en) | Display control device, head-up display device, and display control method | |
JP2020086882A (en) | Display control device, method and computer program | |
WO2023210682A1 (en) | Display control device, head-up display device, and display control method | |
JP2022077138A (en) | Display controller, head-up display device, and display control method | |
JP2021160409A (en) | Display control device, image display device, and method |