JP7183555B2 - 表示装置、移動体、表示方法、及びプログラム - Google Patents

表示装置、移動体、表示方法、及びプログラム Download PDF

Info

Publication number
JP7183555B2
JP7183555B2 JP2018053838A JP2018053838A JP7183555B2 JP 7183555 B2 JP7183555 B2 JP 7183555B2 JP 2018053838 A JP2018053838 A JP 2018053838A JP 2018053838 A JP2018053838 A JP 2018053838A JP 7183555 B2 JP7183555 B2 JP 7183555B2
Authority
JP
Japan
Prior art keywords
image
predetermined object
display device
area around
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018053838A
Other languages
English (en)
Other versions
JP2019168745A (ja
Inventor
賢一郎 齊所
紘史 山口
真人 草▲なぎ▼
友規 鈴木
敬太 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018053838A priority Critical patent/JP7183555B2/ja
Publication of JP2019168745A publication Critical patent/JP2019168745A/ja
Application granted granted Critical
Publication of JP7183555B2 publication Critical patent/JP7183555B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)

Description

本発明は、表示装置、移動体、表示方法、及びプログラムに関する。
従来、運転者等の搭乗者を載せて移動する車両、船舶、航空機、及び産業用ロボット等の移動体(移動装置)において、搭乗者に情報を提供するためのオブジェクトを表示するヘッドアップディスプレイ(HUD、Head-Up Display)を利用したものが知られている。このHUDでは、例えば、表示画像光をフロントガラスやコンバイナにより反射させ、移動体の搭乗者に視認させる。
このHUDにおいて、表示するオブジェクトの視認性を向上させるために、当該オブジェクトの表示輝度、及び表示色等を調整する技術が知られている(例えば、特許文献1を参照)。
しかしながら、従来技術では、例えば、経路案内用の図形等のオブジェクトを、AR(Augmented Reality)により移動体の前方等の現実の環境に付加して表示する場合、当該オブジェクトが、その背景の現実の環境に存在するように知覚されにくい場合があるという問題がある。
そこで、現実の環境に付加して表示するオブジェクトの違和感を低減させることを目的とする。
所定のオブジェクトを、移動体の外部の環境に重なる位置に表示させる表示装置が、前記移動体の外部の画像を取得する取得部と、前記所定のオブジェクトの周囲の領域の画像を、前記取得部により取得された画像に応じて決定する決定部と、前記所定のオブジェクトと、前記決定部により決定された、前記所定のオブジェクトの周囲の領域の画像とを表示する表示部と、を有し、前記所定のオブジェクトの周囲の領域の画像は、前記取得部により取得された画像と、前記所定のオブジェクトと、に基づく画像を含み、前記決定部は、前記所定のオブジェクトの周囲の領域の画像の形状を、前記所定のオブジェクトを拡大した形状とする
開示の技術によれば、現実の環境に付加して表示するオブジェクトの違和感を低減させることができる。
実施形態に係る表示システムのシステム構成の一例を示す図である。 実施形態に係る表示装置により画像が投影される範囲の一例を示す図である。 実施形態に係る表示装置のハードウェア構成の一例を示す図である。 実施形態に係る表示装置の機能ブロックの一例を示す図である。 実施形態に係る表示装置の処理の一例を示すフローチャートである。 実施形態に係るブレンド領域を生成する処理の一例を示すフローチャートである。 実施形態に係るブレンド領域を生成する処理について説明する図である。 実施形態に係るブレンド領域を生成する処理について説明する図である。 実施形態に係るブレンド領域を生成する処理について説明する図である。 実施形態に係るブレンド領域を生成する処理について説明する図である。 実施形態に係るブレンド領域を生成する処理について説明する図である。 オブジェクト、及びブレンド領域の表示例について説明する図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
<システム構成>
まず、本実施形態に係る表示システム1のシステム構成について、図1Aを用いて説明する。図1Aは、実施形態に係る表示システム1のシステム構成の一例を示す図である。
図1Aに示すように、実施形態に係る表示システム1は、車両、船舶、航空機、パーソナルモビリティー(Personal Mobility)及び産業用ロボット等の移動体に搭載される。表示システム1は、表示装置10、及びカメラ20を有する。なお、以下では、表示システム1を車両に搭載した例について説明するが、表示システム1は、車両以外の移動体においても適用可能である。なお、車両には、例えば、自動車、原動機付き自転車、軽車両、及び鉄道車両等が含まれる。
表示装置10は、例えば、HUD、ヘッドマウントディスプレイ(Head Mounted Display)等の表示装置である。以下では、表示装置10が、虚像を表示するHUDである場合を例として説明する。表示装置10は、例えば、車両301のダッシュボード内に設置される。表示装置10から発せられる画像光である投射光Lが光の透過反射部材としてのフロントガラス302で反射され、視認者である搭乗者300に向かう。ここで、透過反射部材は、例えば、光の一部を透過するとともに、光の一部を反射する部材である。これにより、フロントガラス302に画像が投影され、搭乗者300は、ナビゲーション用の図形、文字、アイコン等のオブジェクト(コンテンツ)を、車両301の外部の環境に重ねて視認することができる。なお、フロントガラス302の内壁面等に透過反射部材としてのコンバイナを設置し、コンバイナによって反射する投射光Lによって運転者に虚像を視認させるように構成してもよい。図1Bは、実施形態に係る表示装置10により画像が投影される範囲の一例を示す図である。表示装置10は、図1Bに示すように、例えば、フロントガラス302における投影範囲303に画像を投影する。
カメラ20は、車両301の前方等の画像を撮影するカメラである。カメラ20は、例えば、フロントガラス302の上部に設けられてもよい。また、カメラ20は、自動運転のために前方の車両と車両301との車間距離を測定するためのカメラでもよい。
<ハードウェア構成>
次に、本実施形態に係る表示装置10のハードウェア構成について、図2を用いて説明する。図2は、実施形態に係る表示装置10のハードウェア構成の一例を示す図である。
表示装置10は、FPGA251、CPU(Central Processing Unit)252、ROM253、RAM254、インターフェース(以下、I/Fという)255、バスライン256、LDドライバ257、MEMSコントローラ258、及び補助記憶装置259を備えている。FPGA251は、LDドライバ257により、光源ユニット220のレーザ光源201R、201G、201Bを動作制御し、MEMSコントローラ258により、光走査装置のMEMS208aを動作制御する。CPU252は、表示装置10の各機能を制御する。ROM253は、CPU252が表示装置10の各機能を制御するために実行するプログラム(画像処理プログラム)等の各種プログラムを記憶している。
RAM254は、プログラムの起動指示があった場合に、ROM253または補助記憶装置259からプログラムを読み出して格納する。CPU252は、RAM254に格納されたプログラムに従って表示装置10に係る機能を実現する。
I/F255は、外部コントローラ等と通信するためのインターフェースであり、例えば、車両301のCAN(Controller Area Network)を介して、車両ナビゲーション装置、各種センサ装置等に接続される。また、I/F255には、画像をフロントガラス302越しに撮影するカメラ20が接続される。
表示装置10は、I/F255を介して記録媒体255aの読み取りや書き込みを行うことができる。表示装置10での処理を実現する画像処理プログラムは、記録媒体255aによって提供されてもよい。この場合、画像処理プログラムは、記録媒体255aからI/F255を介して補助記憶装置259にインストールされる。但し、画像処理プログラムのインストールは必ずしも記録媒体255aより行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置259は、インストールされた画像処理プログラムを格納すると共に、必要なファイルやデータ等を格納する。
なお、記録媒体255aの一例としては、フレキシブルディスク、CD-ROM、DVDディスク、SDメモリカード、又はUSB(Universal Serial Bus)メモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置259の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体255a及び補助記憶装置259のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。なお、図2において、CPU252、ROM253、RAM254、I/F255、バスライン256、及び補助記憶装置259を含む部分を、画像処理装置または情報処理装置(コンピュータ)と称することもできる。
<機能構成>
次に、図3を参照し、実施形態に係る表示装置10の機能構成について説明する。図3は、実施形態に係る表示装置10の機能ブロックの一例を示す図である。
表示装置10は、取得部11、制御部12、生成部13、及び表示部14を有する。これら各部は、表示装置10にインストールされた1以上のプログラムが、表示装置10のCPU252に実行させる処理により実現される。
取得部11は、カメラ20により撮影された車両301の前方等の画像を取得する。
制御部12は、車両301の現在位置から、予め設定されている目的地までの経路を案内する。制御部12は、例えば、右折、左折、及び直進等の、当該経路の進行方向を示すオブジェクトを決定し、当該オブジェクトを、当該アブジェクトが道路上に置かれているような態様で表示部14に表示させる。また、制御部12は、車両301の車速(速度)を示す数字等を車両301の前方の背景上に表示する。ここで、表示装置10は、例えば、車両301のECU(Electronic Control Unit)等から、車両301の車速の情報を取得してもよい。
生成部13は、制御部12により表示させるオブジェクトが決定されると、当該オブジェクトの周囲の領域に表示させるための画像を、取得部11により取得された画像に応じて生成(決定)する。
表示部14は、制御部12により決定されたオブジェクトと、生成部13により生成された当該オブジェクトの周囲の領域の画像とを表示させる。
<処理>
次に、図4を参照し、実施形態に係る表示装置10の処理について説明する。図4は、実施形態に係る表示装置10の処理の一例を示すフローチャートである。なお、図4の処理は、例えば、カメラ20により撮影された動画に含まれる各フレームに対して実行されてもよい。
ステップS1において、取得部11は、カメラ20により撮像された車両301の前方等の画像(フレーム)を取得する。続いて、制御部12は、表示対象のオブジェクトを判定する。ここで、制御部12は、例えば、車両301の現在位置から、予め設定されている目的地までの経路を案内するためのオブジェクトを判定する(ステップS2)。
続いて、生成部13は、取得した画像と、当該オブジェクトとに基づいて、当該オブジェクトの周囲において、カメラ20の画像に応じた画像を表示する領域であるブレンド領域の画像を生成する(ステップS3)。続いて、表示部14は、当該オブジェクト、および当該ブレンド領域を表示し(ステップS4)、処理を終了する。
≪表示用オブジェクトの生成処理≫
次に、図5乃至図6Eを参照し、生成部13による図4のステップS3のブレンド領域の画像を生成する処理の一例について説明する。図5は、実施形態に係るブレンド領域の画像を生成する処理の一例を示すフローチャートである。図6A乃至図6Eは、実施形態に係るブレンド領域を生成する処理について説明する図である。
ステップS101において、生成部13は、表示対象のオブジェクトの周囲の領域であって、当該オブジェクトを拡大した形状のブレンド領域を算出する。ここで、生成部13は、図6Aの例では、当該オブジェクトの領域601の周囲に、当該オブジェクトの領域601を拡大した形状のブレンド領域602を算出している。
続いて、生成部13は、算出したブレンド領域の角を滑らかに変形する(ステップS102)。ここで、生成部13は、図6Aの例では、ブレンド領域602の各頂点の部分の輪郭を円弧に置換することにより、各頂点の部分である角を丸く変形したブレンド領域603を算出している。なお、生成部13は、他の公知の手法により、当該角を滑らかにしてもよい。
続いて、生成部13は、ブレンド領域の、車両301の前方の方向の長さを変更する(ステップS103)。生成部13は、図6Bの例では、ブレンド領域603の上下方向(縦方向、車両301の前方方向)の長さを長く変更したブレンド領域604を算出している。ここで、生成部13は、車両301の車速が速い程、当該長さを長くしてもよい。これは、車両301の車速が速い程、当該オブジェクトが搭乗者に対してより目立ち易くなると考えられるためである。
また、生成部13は、カメラ20の画像を認識し、車両301が走行している道路が、道路の模様が比較的目立ち易い砂利道等の場合は、車両301の車速が速い程、当該長さを短くしてもよい。カメラ20の画像に基づいて当該オブジェクトの周囲の画像を生成するための遅延により、車両301の車速が速い程、搭乗者に対する実際の道路の模様の移動速度と、当該オブジェクトの周辺に表示する当該画像における道路の模様の移動速度との差は大きくなる。そのため、車両301の車速が速い程、当該オブジェクトの周囲の画像が搭乗者に対してより目立ち易くなると考えられるためである。
また、生成部13は、車両301から当該オブジェクトを重畳して表示させる実際の道路等の位置までの距離が遠い程、当該長さを長くしてもよい。これにより、当該距離が遠い程、車両301の前方の方向についての、前記所定のオブジェクトの周囲の領域の長さ(L1)と当該オブジェクトの長さ(L2)との比の値(L1/L2)が大きくなるように変更される。これは、後述するステップS105の処理により当該オブジェクト及びブレンド領域の表面を背景の物体上に載置した場合に、当該距離が遠い程、搭乗者から見えるブレンド領域の表面の面積が小さくなるためである。
続いて、生成部13は、ブレンド領域の周辺部の画素をぼやかすように設定する(ステップS104)。ここで、生成部13は、例えば、ブレンド領域において、当該オブジェクトからの距離が遠い程、画素の密度をより少なく設定してもよい。また、生成部13は、例えば、ブレンド領域において、当該オブジェクトからの距離が遠い程、HUDで表示する画素の輝度をより低くすることにより、ブレンド領域の透明度がより高くなるように設定してもよい。生成部13は、図6Cの例では、図6Bのブレンド領域604において、当該オブジェクトの領域601に含まれる最も近い座標からの距離が遠い程、画素の密度及び画素の輝度をより低下させている。
続いて、生成部13は、当該オブジェクトとブレンド領域との表面が、車両301の搭乗者から見て、当該オブジェクトが表示される位置の背景の物体上に載置されているように見えるよう、当該オブジェクトとブレンド領域とを変形する(ステップS105)。
図6Dには、車両301の側面の方向から見た場合の、搭乗者300の目610、フロントガラス302、表示装置10による虚像が表示される領域612(図1Bの投影範囲303)、及び領域612が背景の物体上に重畳する領域612A等の位置が図示されている。また、図6Dには、領域612における当該オブジェクトの領域601が変形された領域611、領域612におけるブレンド領域604が変形されたブレンド領域613が図示されている。また、図6Dには、当該オブジェクトの領域611及びブレンド領域613が背景の道路等の物体上にそれぞれ重畳する領域である領域611A、及び領域613Aが図示されている。図6Dの例では、搭乗者300の目610から当該オブジェクトの領域611及びブレンド領域613までの距離は4m程度である。また、搭乗者300の目610から道路上等の領域611A及び領域613Aまでの距離は20m程度である。
生成部13は、ステップS105の処理において、図6Cの領域601を含むブレンド領域604を、図6Dのように、背景の道路等の上に寝かされている形状に変形する。ここで、生成部13は、図6Dの道路上等の領域613Aを鉛直方向で真上から見た場合、領域601及びブレンド領域604が図6Cの形状で表示されるものとして、道路上等の領域613Aを搭乗者300の目610の位置から見た場合の領域613Aの形状を算出する。
そして、生成部13は、図6Cの領域601、及びブレンド領域604を、図6Eの領域611、及びブレンド領域613のようにそれぞれ変形する。生成部13は、図6Cの領域601、及びブレンド領域604を、上下方向の高さを縮小し、車両301の進行方向である上方向に行く程、横方向の幅をより縮小した形状に変形することにより、図6Eの領域611、及びブレンド領域613をそれぞれ算出している。
なお、生成部13は、例えば、搭乗者300の目610の車両301の道路からの高さ等の位置を予め設定されている位置とし、車両301の前方の道路を平坦として、搭乗者300の目610の位置から見た場合の道路上等の領域613Aの形状を幾何学的に算出してもよい。なお、生成部13は、搭乗者300の目610の位置等を、車内カメラの画像に基づいて認識してもよい。また、生成部13は、車両301の前方の道路の高さを、ステレオカメラ等の画像に基づいて認識するようしてもよい。
続いて、生成部13は、カメラ20の画像に基づいて生成された画像を、変形したブレンド領域に合成し(ステップS106)、処理を終了する。ここで、生成部13は、図6Dに示すように、道路上等の領域613A内の画像を、カメラ20の画像から抽出し、図6Eのブレンド領域613内に合成してもよい。なお、カメラ20が取り付けられている位置は、予め表示装置10に設定されているものとする。なお、生成部13は、カメラ20の位置と搭乗者300の目610の位置が所定の閾値以上離れている場合等は、カメラ20で撮影された道路上等の領域613A内の画像を、搭乗者300の目610の位置から見た領域613Aの画像となるように幾何学的に変形した後、図6Eのブレンド領域613内に合成してもよい。また、生成部13は、カメラ20の画像から抽出した、道路上等の領域613A内の画像の輝度等の平均値の画素の画像を図6Eのブレンド領域613内に合成してもよい。また、生成部13は、車両301から見て道路上等の領域613Aの所定距離だけ前方の領域の画像を図6Eのブレンド領域613内に合成してもよい。この場合、生成部13は、当該所定距離は、カメラ20で画像撮影されてからブレンド領域に表示されるまでの間の遅延時間、及び車両301の車速に応じて設定してもよい。
図7は、オブジェクト、及びブレンド領域の表示例について説明する図である。図7の例では、表示装置10による虚像が表示される領域612において、上述した図3のステップS4の表示部14による処理により、図6Eのオブジェクトの領域611、及びブレンド領域613を、車両301の前方に表示されている。これにより、経路案内用の図形等のオブジェクトと、当該オブジェクトの背景との境界が搭乗者に認識されにくくなり、違和感を低減することができる。
<実施形態のまとめ>
HUD等により表示されるオブジェクトは、光源からの光で表示されるため光源色であり、当該オブジェクトの背景は太陽光等の反射による物体色である。また、搭乗者の目から当該オブジェクトの虚像または実像までの距離と、搭乗者の目から当該オブジェクトの背景の現実の物体までの距離とは異なる。そのため、当該オブジェクトの表示位置を、背景の現実の物体の位置に幾何的に合わせても、当該オブジェクトが、その背景の現実の環境に存在するように知覚されにくい場合がある。
上述した実施形態によれば、所定のオブジェクトを、移動体の外部の環境に重ねて表示する表示装置が、所定のオブジェクトの周囲に、移動体の外部の画像に応じて生成した画像を表示させる。これにより、現実の環境に付加して表示するオブジェクトの違和感を低減させることができる。
<その他>
なお、表示装置10の各機能部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、表示装置10の各機能部のうち少なくとも1つの機能部を、他の機能部を有する装置とは別体の装置として構成してもよい。この場合、例えば、制御部12を、車載型または携帯型のナビゲーション装置、あるいはクラウド上のサーバ装置が有する構成としてもよい。すなわち、表示装置10には、複数の装置により構成される形態も含まれる。なお、生成部13は、「決定部」の一例である。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
1 表示システム
10 表示装置
11 取得部
12 制御部
13 生成部
14 表示部
20 カメラ
301 車両
302 フロントガラス
特開2017-142491号公報

Claims (9)

  1. 所定のオブジェクトを、移動体の外部の環境に重なる位置に表示させる表示装置であって、
    前記移動体の外部の画像を取得する取得部と、
    前記所定のオブジェクトの周囲の領域の画像を、前記取得部により取得された画像に応じて決定する決定部と、
    前記所定のオブジェクトと、前記決定部により決定された、前記所定のオブジェクトの周囲の領域の画像とを表示する表示部と、を有し、
    前記所定のオブジェクトの周囲の領域の画像は、前記取得部により取得された画像と、前記所定のオブジェクトと、に基づく画像を含み、
    前記決定部は、前記所定のオブジェクトの周囲の領域の画像の形状を、前記所定のオブジェクトを拡大した形状とする、表示装置。
  2. 前記決定部は、前記所定のオブジェクトの周囲の領域の画像の形状を、前記所定のオブジェクトを拡大するとともに角を滑らかにした形状とする、
    請求項1に記載の表示装置。
  3. 前記決定部は、前記所定のオブジェクトの周囲の領域の画像を、前記所定のオブジェクトからの距離に応じて、画素の輝度、及び画素の密度の少なくとも一つが異なるように決定する、
    請求項1または2に記載の表示装置。
  4. 前記決定部は、前記所定のオブジェクトの周囲の領域の画像を、当該領域の表面が前記所定のオブジェクトの背景の物体に載置された形状とする、
    請求項1乃至3のいずれか一項に記載の表示装置。
  5. 前記決定部は、前記移動体の速度に応じて、前記所定のオブジェクトの周囲の領域の、前記移動体の前方方向の長さを変更する、
    請求項1乃至4のいずれか一項に記載の表示装置。
  6. 前記決定部は、前記移動体から前記所定のオブジェクトの背景の物体までの距離に応じて、前記移動体の前方方向の、前記所定のオブジェクトの長さと、前記所定のオブジェクトの周囲の領域の長さの比を変更する、
    請求項1乃至5のいずれか一項に記載の表示装置。
  7. 移動体であって、
    前記移動体の外部を撮影するカメラと、透過反射部材と、所定のオブジェクトを前記移動体の外部の環境に重なる位置に表示させる表示装置とを有し、
    前記表示装置は、
    前記カメラの画像を取得する取得部と、
    前記所定のオブジェクトの周囲の領域の画像を、前記取得部により取得された画像に応じて決定する決定部と、
    前記所定のオブジェクトと、前記決定部により決定された、前記所定のオブジェクトの周囲の領域の画像とを前記透過反射部材により表示する表示部と、を有し、
    前記所定のオブジェクトの周囲の領域の画像は、前記取得部により取得された画像と、前記所定のオブジェクトと、に基づく画像を含む、移動体。
  8. 所定のオブジェクトを、移動体の外部の環境に重なる位置に表示させる表示装置が、
    前記移動体の外部の画像を取得する処理と、
    前記所定のオブジェクトの周囲の領域の画像を、前記取得する処理により取得された画像に応じて決定する処理と、
    前記所定のオブジェクトと、前記決定する処理により決定された、前記所定のオブジェクトの周囲の領域の画像とを表示する処理と、
    を実行し、
    前記所定のオブジェクトの周囲の領域の画像は、前記取得する処理により取得された画像と、前記所定のオブジェクトと、に基づく画像を含
    前記決定する処理は、前記所定のオブジェクトの周囲の領域の画像の形状を、前記所定のオブジェクトを拡大した形状とする、表示方法。
  9. コンピュータに、
    移動体の外部の画像を取得する処理と、
    所定のオブジェクトの周囲の領域の画像を、前記取得する処理により取得された画像に応じて決定する処理と、
    前記所定のオブジェクトと、前記決定する処理により決定された、前記所定のオブジェクトの周囲の領域の画像とを、前記移動体の外部の環境に重なる位置に表示させる処理と、を実行させ、
    前記所定のオブジェクトの周囲の領域の画像は、前記取得する処理により取得された画像と、前記所定のオブジェクトと、に基づく画像を含
    前記決定する処理は、前記所定のオブジェクトの周囲の領域の画像の形状を、前記所定のオブジェクトを拡大した形状とする、プログラム。
JP2018053838A 2018-03-22 2018-03-22 表示装置、移動体、表示方法、及びプログラム Active JP7183555B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018053838A JP7183555B2 (ja) 2018-03-22 2018-03-22 表示装置、移動体、表示方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018053838A JP7183555B2 (ja) 2018-03-22 2018-03-22 表示装置、移動体、表示方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019168745A JP2019168745A (ja) 2019-10-03
JP7183555B2 true JP7183555B2 (ja) 2022-12-06

Family

ID=68106800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018053838A Active JP7183555B2 (ja) 2018-03-22 2018-03-22 表示装置、移動体、表示方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7183555B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105443A (ja) 2008-10-28 2010-05-13 Denso Corp 視覚支援装置
WO2011036788A1 (ja) 2009-09-28 2011-03-31 株式会社 東芝 表示装置及び表示方法
US20120224060A1 (en) 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
WO2015136874A1 (ja) 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 表示制御装置、表示装置、表示制御プログラム、表示制御方法、及び記録媒体
JP2016146170A (ja) 2015-01-29 2016-08-12 株式会社デンソー 画像生成装置及び画像生成方法
JP2017091170A (ja) 2015-11-09 2017-05-25 株式会社デンソー 提示制御装置及び提示制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105443A (ja) 2008-10-28 2010-05-13 Denso Corp 視覚支援装置
WO2011036788A1 (ja) 2009-09-28 2011-03-31 株式会社 東芝 表示装置及び表示方法
US20120224060A1 (en) 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
WO2015136874A1 (ja) 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 表示制御装置、表示装置、表示制御プログラム、表示制御方法、及び記録媒体
JP2016146170A (ja) 2015-01-29 2016-08-12 株式会社デンソー 画像生成装置及び画像生成方法
JP2017091170A (ja) 2015-11-09 2017-05-25 株式会社デンソー 提示制御装置及び提示制御方法

Also Published As

Publication number Publication date
JP2019168745A (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
US10254539B2 (en) On-vehicle device, method of controlling on-vehicle device, and computer-readable storage medium
JP6695049B2 (ja) 表示装置及び表示制御方法
JP7383888B2 (ja) 画像制御装置、表示装置、移動体、画像制御方法、及びプログラム
CN110001400B (zh) 车辆用显示装置
WO2014174575A1 (ja) 車両用ヘッドアップディスプレイ装置
JP6225379B2 (ja) 車両情報投影システム
WO2019189619A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP2019116229A (ja) 表示システム
JP2022095303A (ja) 周辺画像表示装置、表示制御方法
JP2019174802A (ja) 制御装置、表示装置、表示システム、移動体、制御方法、及びプログラム
US20210323403A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP7183555B2 (ja) 表示装置、移動体、表示方法、及びプログラム
CN109421535B (zh) 车辆用显示装置和显示控制方法
JP7167918B2 (ja) 車両用表示装置
JP2019172243A (ja) 制御装置、表示装置、移動体、制御方法、及びプログラム
JP2023017641A (ja) 車両用表示制御装置、車両用表示装置、車両用表示制御方法及び車両用表示制御プログラム
JP7145509B2 (ja) 映像表示システム、映像表示方法、プログラム、及び、移動体
JP2020158014A (ja) ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム
JP2019172070A (ja) 情報処理装置、移動体、情報処理方法、及びプログラム
EP3648096A1 (en) Image processing unit, and head-up display device provided with same
JP7429875B2 (ja) 表示制御装置、表示装置、表示制御方法、及びプログラム
JP2019148935A (ja) 表示制御装置及びヘッドアップディスプレイ装置
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
US20240083247A1 (en) Display control device, display control method, non-transitory computer-readable medium storing a program
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R151 Written notification of patent or utility model registration

Ref document number: 7183555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151