JP2020199883A - Display control device, head-up display device, method and computer program - Google Patents
Display control device, head-up display device, method and computer program Download PDFInfo
- Publication number
- JP2020199883A JP2020199883A JP2019108274A JP2019108274A JP2020199883A JP 2020199883 A JP2020199883 A JP 2020199883A JP 2019108274 A JP2019108274 A JP 2019108274A JP 2019108274 A JP2019108274 A JP 2019108274A JP 2020199883 A JP2020199883 A JP 2020199883A
- Authority
- JP
- Japan
- Prior art keywords
- image
- angle
- vehicle
- driver
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000004590 computer program Methods 0.000 title claims description 5
- 230000009471 action Effects 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 23
- 230000000630 rising effect Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 54
- 238000004891 communication Methods 0.000 description 29
- 238000012545 processing Methods 0.000 description 19
- 230000003287 optical effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005096 rolling process Methods 0.000 description 7
- 230000011514 reflex Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
Images
Abstract
Description
本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラムに関する。 The present disclosure relates to a display control device, a head-up display device, a method, and a computer program used in a vehicle to superimpose and visually recognize an image on the foreground of the vehicle.
特許文献1には、運転者(視認者)が見ていない情報画像の輝度を上げたり線を太くしたりする(視認性を上げる)ことで、見ていない情報画像に運転者の注意を向けさせる画像表示装置が記載されている。
In
特許文献2には、自車両の前景(実景)にあたかも実際に存在するかのような仮想オブジェクトを遠近感のある画像で表現し、拡張現実(AR:Augmented Reality)を生成し、前景に仮想オブジェクト(画像)を溶け込ませることで、仮想オブジェクト(画像)が示す情報と実景とのつながりを向上させ、視認者(自車両の運転者)の視覚的負荷を軽減しつつ、情報を認識させるヘッドアップディスプレイ装置が記載されている。
In
しかしながら、実景に溶け込ませるように仮想オブジェクト(画像)を表示した場合、特許文献1のように表示されている画像の視認性を上げる、より詳しくは、画像全体の視認性を上げることで、実景に対する仮想オブジェクト(画像)の馴染み具合が低下してしまう。また、これにより、仮想オブジェクト(画像)が持つ空間的情報の把握のしやすさが低下してしまうことも想定される。
However, when a virtual object (image) is displayed so as to blend into the actual scene, the visibility of the displayed image as in
本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the particular embodiments disclosed herein is presented below. It should be understood that these aspects are presented solely to provide the reader with an overview of these particular embodiments and do not limit the scope of this disclosure. In fact, the present disclosure may include various aspects not described below.
本開示の概要は、画像の見逃しを防止しつつも、画像の見やすさ低下を抑制する、より具体的には、仮想オブジェクト(画像)が持つ空間的情報の把握のしやすさ低下を抑制することにも関する。 The outline of the present disclosure suppresses a decrease in the visibility of an image while preventing an image from being overlooked, and more specifically, suppresses a decrease in the ease of grasping spatial information possessed by a virtual object (image). Also related to that.
したがって、本明細書に記載される表示制御装置は、運転者が、画像の先端領域を所定の時間より長く視認していないこと、画像の後端領域を注視していること、及び先端領域よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされた場合、自車両が走行する路面に沿った角度から起きて視認されるように、先端領域の角度を変更する。 Therefore, in the display control device described in the present specification, the driver does not visually recognize the front end region of the image for longer than a predetermined time, is gazing at the rear end region of the image, and is from the tip region. If the first condition consisting of at least one of the fact that the vehicle is gazing at the upper region is satisfied, the angle of the tip region is adjusted so that the vehicle can be seen from an angle along the road surface on which the vehicle is traveling. change.
以下、図1及び図2では、例示的な車両用表示システムの構成の説明を提供する。図3A、図3Bでは、注視判定の一例の説明を提供する。図4ないし図12Cでは、表示例の説明を提供する。図13では、例示的な表示制御の処理の流れを説明する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Hereinafter, FIGS. 1 and 2 provide a description of the configuration of an exemplary vehicle display system. 3A and 3B provide an explanation of an example of gaze determination. 4 to 12C provide a description of a display example. FIG. 13 describes a flow of an exemplary display control process. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.
図1を参照する。車両用表示システム10は、画像表示部20と、画像表示部20を制御する表示制御装置30と、で構成される。なお、本実施形態の説明では、自車両1の運転席に着座する運転者4が自車両1の前方を向いた際の左右方向をX軸(左方向がX軸正方向)、上下方向をY軸(上方向がY軸正方向)、前後方向をZ軸(前方向がZ軸正方向)とする。
See FIG. The
車両用表示システム10における画像表示部20は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光20aを自車両1のフロントウインドシールド2(被投影部材の一例である)に向けて出射し、フロントウインドシールド2(被投影部材の一例である)よりも前方側(Z軸正方向)の表示領域100で画像を視認させる。これにより、運転者4は、フロントウインドシールド2を介して視認される現実空間である前景300と奥行き方向(前後方向)に重なった画像を視認できる。
The
表示領域100は、HUD装置の内部で生成された画像が、虚像として結像する(画像として視認される)平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。表示領域100自体は、実際に運転者4に視認されない、又は視認されにくい程度に視認性が低い。表示領域100には、自車両1の左右方向(X軸方向)を軸とした水平方向(XZ平面)とのなす角度(図1のチルト角θt)が設定される。なお、本実施形態では、表示領域100を面領域(2次元面、又は曲がった2次元面)として説明するが、画像表示部20が公知の技術を用いた3D表示器であれば、表示領域100は、3次元領域になり得る。
The
チルト角θtは、例えば、90[degree]であり、水平面(例えば、自車両1が走行する走行レーンの路面330。)に対して垂直となるように設けられる(図1の表示領域110。)が、水平面(自車両1が走行する走行レーンの路面330。)に沿うように、運転者4から見た表示領域100の上側の部分(Y軸正方向の部分)が下側の部分(Y軸負方向の部分)よりも運転者4から離れた位置になる角度に設定されてもよい(図1の表示領域120。)。チルト角θtは、これらに限定されず、0〜90[degree]に設定されることが好ましい。また、チルト角θtは、例えば、後述するリレー光学系24を図示しないアクチュエータなどで回転させることで、運転者4が任意に変更可能であってもよい。なお、チルト角θtは、91〜180[degree]に設定されてもよい、すなわち、運転者4から見た表示領域100の上側の部分(Y軸正方向の部分)が下側の部分(Y軸負方向の部分)よりも運転者4に近くなる角度に設定されてもよい。
The tilt angle θt is, for example, 90 [degree], and is provided so as to be perpendicular to the horizontal plane (for example, the
画像表示部20は、画像を表示する表示面を有する表示器22と、リレー光学系24と、を含む。表示器22は、LCDなどのバックライトからの光を透過する透過型ディスプレイであってもよく、スクリーンに画像を投影するプロジェクション型ディスプレイであってもよい。これらの場合、表示面は、透過型ディスプレイにおけるディスプレイ表面であり、プロジェクション型ディスプレイのスクリーンである。
The
リレー光学系24は、表示器22とフロントウインドシールド2との間の表示器22からの画像の光の光路上に配置され、表示器22からの画像の光を画像表示部20の外側のフロントウインドシールド2に投影する1つ又は複数の光学部材で構成される。リレー光学系24は、1つの凹面鏡(反射光学部材の一例)を含むが、これに加え、例えば、1つ又は複数の、レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材、又はこれらの組み合わせを含んでいてもよい。
The relay
また、画像表示部20は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される画像を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の画像を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定(調整可能に配置)され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された画像を視認することができる。
Further, the
画像表示部20は、表示制御装置30の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景300に存在する、後述する障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面330、道路標識、及び地物(建物、橋など)などの実オブジェクト310の近傍(画像と実オブジェクトとの特定の位置関係の一例)、実オブジェクト310に重なる位置(画像と実オブジェクトとの特定の位置関係の一例)、又は実オブジェクト310を基準に設定された位置(画像と実オブジェクトとの特定の位置関係の一例)に画像を表示することで、視覚的な拡張現実(AR:Augmented Reality)を視認者(典型的には、自車両1の運転席に着座する運転者4)に知覚させることもできる。
The
図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。
FIG. 2 is a block diagram of the
図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10(画像表示部20)の操作を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
As shown, the
図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
As shown, the
図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401、又は他の電子機器(後述する符号403〜415)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16−2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G−LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。
As shown, the
図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、視線方向検出部409、目位置検出部411、携帯情報端末413、及び外部通信機器415などが動作可能に連結される。
As shown in the figure, the
表示器22は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、画像表示部20によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、画像表示部20が表示する画像を制御する。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
The
車両ECU401は、自車両1に設けられたセンサやスイッチから、自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、自車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、自車両1の前記状態の数値(例えば、自車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ステアリング操舵角が右方向に10[degree]。)をプロセッサ33へ送信することに加え、又は代わりに、センサで検出した数値を含む自車両1の1つ又は複数の状態に基づく判定結果(例えば、自車両1が右方向に進路を変えようとしていること。)、若しくは/及び解析結果(例えば、運転者4が案内経路の通りに、分岐路で右折する意思があること。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、自車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。
The
また、車両ECU401は、車両用表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。
Further, the
道路情報データベース403は、自車両1に設けられた図示しないナビゲーション装置、又は自車両1と車外通信インタフェース(I/Oインタフェース31)を介して接続される外部サーバ、に含まれ、後述する自車位置検出部405から取得される自車両1の位置に基づき、自車両1の周辺の情報(自車両1の周辺の実オブジェクト関連情報)である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号をプロセッサ33へ出力してもよい。
The
自車位置検出部405は、自車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の自車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ33を介して、又は直接、道路情報データベース403、後述する携帯情報端末413、及び/もしくは外部通信機器415へ出力する。道路情報データベース403、後述する携帯情報端末413、及び/又は外部通信機器415は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ33へ出力してもよい。
The own vehicle position detection unit 405 is a GNSS (Global Navigation Satellite System) or the like provided in the
車外センサ407は、自車両1の周辺(前方、側方、及び後方)に存在する実オブジェクト310を検出する。車外センサ407が検知する実オブジェクト310は、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面330、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。1つ又は複数の車外センサ407は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ33に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。
The
視線方向検出部409は、例えば、赤外線カメラ、又は可視光カメラで運転者4の顔を撮像し、当該撮像画像を解析することで、運転者4の視線方向GZを特定し、解析結果(視線方向GZがしばらく停滞する注視位置)を示す信号をプロセッサ33へ出力することができる。なお、プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報)を取得し、前記撮像画像を解析することで、運転者4の視線方向GZを特定してもよい。また、自車両1の運転者4の視線方向、又は運転者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。
The line-of-sight direction detection unit 409 captures the driver 4's face with, for example, an infrared camera or a visible light camera, analyzes the captured image, identifies the line-of-sight direction GZ of the driver 4, and analyzes the analysis result (line of sight). A signal indicating a gaze position where the direction GZ is stagnant for a while) can be output to the
視線方向検出部409は、自車両1の運転席に着座する運転者4の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の視線方向GZ(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部409は、カメラからの撮像画像を解析し、解析結果である運転者4の視線方向GZ(及び/又は前記注視位置)を示す信号をプロセッサ33に出力してもよい。なお、自車両1の運転者4の視線方向GZを推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。プロセッサ33は、注視方向(さらには、どこを注視しているかを示す注視位置)により、画像表示部20が表示している画像の一部の路面330(ZX水平面)に対する角度を調整する。これについては、後述する。
The line-of-sight direction detection unit 409 may include an infrared camera or a visible light camera that captures the face of the driver 4 seated in the driver's seat of the
目位置検出部411は、自車両1の運転席に着座する運転者4の目の位置を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部411から撮像画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。なお、目位置検出部411は、カメラの撮像画像を解析し、解析結果である運転者4の目の位置を示す信号をプロセッサ33に出力してもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ33は、運転者4の目の位置に基づき、画像の位置を少なくとも調整することで、前景300の所望の位置(実オブジェクトとの特定の位置関係になる位置)に重畳した画像を、目位置を検出した視認者(運転者4)に視認させてもよい。
The eye position detection unit 411 may include a camera such as an infrared camera that detects the eye position of the driver 4 seated in the driver's seat of the
携帯情報端末413は、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末413とペアリングすることで、携帯情報端末413と通信を行うことが可能であり、携帯情報端末413(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末413は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末413は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末413は、携帯情報端末413の所持者(例えば、運転者4)のスケジュール情報、携帯情報端末413での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及び画像処理回路35は、これらに関する画像データを生成及び/又は送信してもよい。
The personal
外部通信機器415は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器415は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面(図4の符号330)、区画線(図4の符号331,332)、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ33へ出力してもよい。また、外部通信機器415は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、外部通信機器415から取得される情報は、上述のものに限定されない。
The
メモリ37に記憶されたソフトウェア構成要素は、実オブジェクト情報検出モジュール502、実オブジェクト位置特定モジュール504、報知必要度判定モジュール506、目位置検出モジュール508、画像種類設定モジュール510、画像配置設定モジュール512、画像サイズ設定モジュール514、視線方向判定モジュール516、グラフィックモジュール518、及び行動判定モジュール520を含む。
The software components stored in the memory 37 are the actual object
実オブジェクト情報検出モジュール502は、自車両1の前方に存在する実オブジェクト310の少なくとも位置を含む情報(実オブジェクト情報とも呼ぶ)を取得する。実オブジェクト情報検出モジュール502は、例えば、車外センサ407から、自車両1の前景300に存在する実オブジェクト310の位置(自車両1の運転席にいる運転者4から自車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい。)、及び実オブジェクト310のサイズ(高さ方向、横方向のサイズ。)、自車両1に対する相対速度(相対的な移動方向も含む。)、を含む情報(実オブジェクト情報の一例)を取得してもよい。また、実オブジェクト情報検出モジュール502は、外部通信機器415を介して実オブジェクト(例えば、他車両)の位置、相対速度、種類、他車両の方向指示器の点灯状態、舵角操作の状態、及び/又は運転支援システムによる進行予定経路、進行スケジュール、を示す情報(実オブジェクト関連情報の一例)を取得してもよい。
The real object
また、実オブジェクト情報検出モジュール502は、車外センサ407から、自車両1の走行レーンの路面330(図4参照)の左側の区画線331(図4参照)の位置と、右側の区画線332(図4参照)の位置とを取得し、それら左右の区画線331,332の間の領域(走行レーンの路面330)を認識してもよい。
Further, the real object
また、実オブジェクト情報検出モジュール502は、後述するパースペクティブ画像200の内容(以下では、適宜「画像の種類」ともいう)を決定する元となる、自車両1の前景300に存在する実オブジェクトに関する情報(実オブジェクト関連情報)を検出してもよい。実オブジェクト関連情報は、例えば、実オブジェクトが、歩行者である、又は他車両であるなどの実オブジェクトの種類を示す種類情報、実オブジェクトの移動方向を示す移動方向情報、実オブジェクトまでの距離や到達時間を示す距離時間情報、又は駐車場(実オブジェクト)の料金などの実オブジェクトの個別詳細情報、である(但し、これらに限定されない)。例えば、実オブジェクト情報検出モジュール502は、道路情報データベース403又は携帯情報端末413から種類情報、距離時間情報、及び/もしくは個別詳細情報を取得し、車外センサ407から種類情報、移動方向情報、及び/もしくは距離時間情報を取得し、並びに/又は外部通信機器415から種類情報、移動方向情報、距離時間情報、及び/もしくは個別詳細情報を検出してもよい。
Further, the real object
実オブジェクト位置特定モジュール504は、I/Oインタフェース31を介して、車外センサ407、若しくは外部通信機器415から実オブジェクト310の現在の位置を示す観測位置を取得し、又はこれら2以上の観測位置をフュージョンした実オブジェクトの観測位置を取得し、取得した観測位置に基づいて実オブジェクト310の位置(特定位置とも呼ぶ)を設定する。後述する画像配置設定モジュール512は、この実オブジェクト位置特定モジュール504が設定した実オブジェクト310の特定位置を基準に画像の位置を決定する。
The real object
実オブジェクト位置特定モジュール504は、直前に取得した実オブジェクト310の観測位置に基づいて実オブジェクト310の位置を特定してもよいが、これに限定されず、少なくとも直前に取得した実オブジェクト310の観測位置を含む過去に取得した1つ又は複数の実オブジェクト310の観測位置を元に予測される所定の時刻における実オブジェクトの予測位置に基づいて実オブジェクト310の位置を特定(推定)してもよい。すなわち、実オブジェクト位置特定モジュール504と後述する画像配置設定モジュール512を実行することで、プロセッサ33は、直前に取得した実オブジェクト310の観測位置に基づいてパースペクティブ画像200の位置を特定し得るし、少なくとも直前に取得した実オブジェクト310の観測位置を含む過去に取得した1つ又は複数の実オブジェクト310の観測位置を元に予測されるパースペクティブ画像200の表示更新タイミングにおける実オブジェクト310の予測位置に基づいてパースペクティブ画像200の位置を設定し得る。なお、実オブジェクト位置特定モジュール504による予測位置の算出方法に特段の制約はなく、実オブジェクト位置特定モジュール504が処理対象とする表示更新タイミングよりも過去に取得された観測位置に基づいて予測を行う限り、如何なる手法を用いてもよい。実オブジェクト位置特定モジュール504は、例えば、最小二乗法や、カルマンフィルタ、α−βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又は複数の観測位置を用いて、次回の値を予測するようにしてもよい。なお、車両用表示システム10は、実オブジェクトの観測位置、及び/又は予測位置を取得できればよく、実オブジェクトの予測位置を設定する(算出する)機能を有していなくてもよく、実オブジェクトの予測位置を設定する(算出する)機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別(例えば、車両ECU401)に設けられてもよい。
The real object
報知必要度判定モジュール506は、車両用表示システム10が表示する各パースペクティブ画像200が運転者4に報知するべき内容であるかを判定する。報知必要度判定モジュール506は、I/Oインタフェース31に接続される種々の他の電子機器から情報を取得し、報知必要度を算出してもよい。また、図2でI/Oインタフェース31に接続された電子機器が車両ECU401に情報を送信し、受信した情報に基づき車両ECU401が決定した報知必要度を、報知必要度判定モジュール506が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、自車両1や運転者4(又は自車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。報知必要度判定モジュール506は、画像200の報知必要度を推定する元となる必要度関連情報を検出し、これから報知必要度を推定してもよい。画像の報知必要度を推定する元となる必要度関連情報は、例えば、実オブジェクトや交通規制(道路情報の一例)の位置、種類などで推定されてもよく、I/Oインタフェース31に接続される種々の他の電子機器から入力される他の情報に基づいて、又は他の情報を加味して推定されてもよい。すなわち、報知必要度判定モジュール506は、運転者4に報知すべきかを判定し、後述する画像を表示しないことも選択し得る。なお、車両用表示システム10は、報知必要度を取得できればよく、報知必要度を推定する(算出する)機能を有していなくてもよく、報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別(例えば、車両ECU401)に設けられてもよい。
The notification
目位置検出モジュール508は、自車両1の運転者4の眼の位置を検出する。目位置検出モジュール508は、複数段階で設けられた高さ領域のどこに運転者4の眼の高さがあるかの判定、運転者4の眼の高さ(Y軸方向の位置)の検出、運転者4の眼の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、及び/又は運転者4の眼の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール508は、例えば、目位置検出部411から運転者4の眼の位置を取得する、又は、目位置検出部411から運転者4の目の高さを含む目の位置を推定可能な情報を受信し、運転者4の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。
The eye position detection module 508 detects the position of the eyes of the driver 4 of the
画像種類設定モジュール510は、例えば、実オブジェクト情報検出モジュール502により検出された実オブジェクトの種類、位置、実オブジェクト情報検出モジュール502で検出された実オブジェクト関連情報の種類、数、及び/又は報知必要度判定モジュール506で検出された(推定された)報知必要度の大きさに基づいて、実オブジェクトに対して表示する画像の種類を決定することができる。また、画像種類設定モジュール510は、後述する視線方向判定モジュール516による判定結果により、表示する画像の種類を増減させてもよい。具体的には、実オブジェクト310が運転者4によって視認されにくい状態である場合、実オブジェクトの近傍に運転者4によって視認される画像の種類を多くしてもよい。
The image type setting module 510 needs to notify, for example, the type and position of the real object detected by the real object
画像配置設定モジュール512は、パースペクティブ画像200が、実オブジェクト310(路面330)と特定の位置関係になって視認されるように、実オブジェクト位置特定モジュール504が特定した実オブジェクト310の位置(観測位置又は予測位置)に基づき、パースペクティブ画像200の座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。これに加え、画像配置設定モジュール512は、実オブジェクト位置特定モジュール504が設定した実オブジェクト310の決定位置に基づき、運転者4が自車両1の運転席から表示領域100の方向を見た際の前後方向(Z軸方向)を決定してもよい。なお、画像配置設定モジュール512は、目位置検出部411が検出した運転者4の眼の位置に基づいて、パースペクティブ画像200の位置を調整する。具体的には、画像配置設定モジュール512は、パースペクティブ画像200が区画線331,332の間の領域(路面330)に視認されるように、パースペクティブ画像200の左右方向、及び上下方向の位置を決定する。
The image arrangement setting module 512 is a position (observation position) of the
また、画像配置設定モジュール512は、パースペクティブ画像200の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角)を設定し得る。なお、パースペクティブ画像200の角度は、予め設定された角度であり、自車両1の前後左右方向(XY面)と平行となるように設定され得る。
Further, the image arrangement setting module 512 can set the angle of the perspective image 200 (pitching angle about the X direction, yaw rate angle about the Y direction, rolling angle about the Z direction). The angle of the
画像サイズ設定モジュール514は、対応付ける実オブジェクト310の位置、形状、及び/又はサイズに合わせて、パースペクティブ画像200のサイズを変更してもよい。例えば、画像サイズ設定モジュール514は、対応付ける実オブジェクト310の位置が遠方であれば、パースペクティブ画像200のサイズを小さくし得る。また、画像サイズ設定モジュール514は、対応付ける実オブジェクト310のサイズが大きければ、パースペクティブ画像200のサイズを大きくし得る。
The image size setting module 514 may change the size of the
また、画像サイズ設定モジュール514は、報知必要度判定モジュール506で検出された(推定された)報知必要度の大きさに基づいて、パースペクティブ画像200のサイズを決定し得る。
Further, the image size setting module 514 can determine the size of the
画像サイズ設定モジュール514は、過去の所定の回数の実オブジェクト310のサイズに基づいて、今回の表示更新周期で表示するパースペクティブ画像200を表示するサイズを予測算出する機能を有してもよい。第1の手法として、画像サイズ設定モジュール514は、カメラ(車外センサ407の一例)による過去の2つの撮像画像間で、例えば、Lucas−Kanade法を使用して、実オブジェクト310の画素を追跡することで、今回の表示更新周期における実オブジェクト310のサイズを予測し、予測した実オブジェクト310のサイズに合わせてパースペクティブ画像200のサイズを決定してもよい。第2手法として、過去の2つの撮像画像間での実オブジェクト310のサイズの変化に基づき、実オブジェクト310のサイズの変化率を求めて、実オブジェクト310のサイズの変化率に応じてパースペクティブ画像200のサイズを決定してもよい。なお、時系列で変化する視点からの実オブジェクト310のサイズ変化を推定する方法は、上記に限られず、例えば、Horn−Schunck法、Buxton−Buxton、Black−Jepson法などのオプティカルフロー推定アルゴリズムを含む公知の手法を用いてもよい。
The image size setting module 514 may have a function of predicting and calculating the size of the
視線方向判定モジュール516は、自車両1の運転者4が、特定の領域を見ていること、及び/又は特定の領域を見ていないこと、の判定に関する様々な動作を実行するための様々なソフトウェア構成要素を含む。具体的には、視線方向判定モジュール516は、自車両1の運転者4が後述するパースペクティブ画像200の先端領域240(図4参照)を見ているか否かの判定(特定の領域を見ていることの判定の一例。)、後述するパースペクティブ画像200の先端領域240から視線方向が所定の視線閾値より離れているか否かの判定(特定の領域を見ていないことの判定の一例。)、自車両1の運転者4が後述するパースペクティブ画像200の先端領域240もしくは後端領域220(図4参照)のどちら側を見ているかの判定(特定の領域を見ていることの判定の一例。)、及び/又は自車両1の運転者4が後述するパースペクティブ画像200の先端領域240より遠方側を見ているか否かの判定(特定の領域を見ていることの判定の一例。)、に関する様々な動作を実行するための様々なソフトウェア構成要素を含む。
The line-of-sight direction determination module 516 is used to perform various actions related to the determination that the driver 4 of the
運転者4が特定の方向(特定角度領域Eとも言う。)を見ているか(注視しているか)を判定する方法の例を説明する。視線方向判定モジュール516は、視線方向検出部409が検出した視線方向GZに基づき、特定角度領域Eを見ているか否かを判定する。視線方向判定モジュール516は、視線方向GZと、特定角度領域E(例えば、後述するパースペクティブ画像200が表示されている方向)との差分角度Δθを算出し、差分角度Δθが所定の差分角度閾値未満であるかを判定する。この差分角度Δθが前記差分角度閾値未満ではない場合、特定の方向を注視していないと判定し、注視判定カウンタを初期値(例えば0)にクリアする。この注視判定カウンタは、視線方向が特定の方向に向いていると判定された期間を計測するためのカウンタであり、プロセッサ33の動作中にメモリ37に記憶されている。
An example of a method of determining whether the driver 4 is looking at (or gazing at) a specific direction (also referred to as a specific angle region E) will be described. The line-of-sight direction determination module 516 determines whether or not the specific angle region E is being viewed based on the line-of-sight direction GZ detected by the line-of-sight direction detection unit 409. The line-of-sight direction determination module 516 calculates the difference angle Δθ between the line-of-sight direction GZ and the specific angle region E (for example, the direction in which the
一方、差分角度Δθが前記差分角度閾値未満である場合、視線方向判定モジュール516は、前記注視判定カウンタをインクリメントする。つまり、視線方向判定モジュール516は、運転者4が注視行動を開始したと推定し、前記注視判定カウンタのインクリメントを開始する。視線方向判定モジュール516は、前記注視判定カウンタの値が、所定の注視判定閾値を超えたか否かを判定し、その結果、前記注視判定カウンタが前記注視判定閾値を超えた場合は、注視判定、すなわち、運転者4が特定角度領域E(例えば、後述するパースペクティブ画像200が表示されている方向)を注視していると判定する。
On the other hand, when the difference angle Δθ is less than the difference angle threshold value, the line-of-sight direction determination module 516 increments the gaze determination counter. That is, the line-of-sight direction determination module 516 estimates that the driver 4 has started the gaze action, and starts incrementing the gaze determination counter. The line-of-sight direction determination module 516 determines whether or not the value of the gaze determination counter exceeds a predetermined gaze determination threshold value, and as a result, when the gaze determination counter exceeds the gaze determination threshold value, gaze determination, That is, it is determined that the driver 4 is gazing at the specific angle region E (for example, the direction in which the
図3A及び図3Bは、運転者4の視線方向GZと、パースペクティブ画像200が表示されている特定角度領域Eとの差分角度Δθを説明する図である。図3Aでは、運転者4の左右方向の視線方向GZxと、運転者4から見た上下左右方向(XY平面)に沿った表示領域110に表示されたパースペクティブ画像200の特定角度領域Exとの差分角度をΔθxと表記する。図3Bでは、運転者4の上下方向の視線方向GZyと、運転者4から見た上下左右方向(XY平面)に沿った表示領域110に表示されたパースペクティブ画像200の特定角度領域Eyとの差分角度をΔθyと表記する。
3A and 3B are diagrams for explaining the difference angle Δθ between the line-of-sight direction GZ of the driver 4 and the specific angle region E on which the
視線方向判定モジュール516は、画像配置設定モジュール512から入力した画像200の位置情報と、画像サイズ設定モジュール514から入力した画像200のサイズ情報と、及び目位置検出モジュール508から入力した運転者4の目位置情報と、から、運転者4の現在の目の位置からパースペクティブ画像200に向けた特定角度領域E(Ex、Ey)を設定する。次に、視線方向判定モジュール516は、設定した特定角度領域E(Ex、Ey)と、視線方向検出部409から入力する視線方向GZ(GZx、GZy)とから、差分角度Δθ(Δθx、Δθy)をそれぞれ算出し、差分角度Δθx、Δθyが、それぞれ比較するために設けられた前記差分角度閾値未満であるか判定し、差分角度Δθx、Δθy双方が、前記差分角度閾値未満である場合、特定角度領域Eに視線が向いていると判定する。なお、差分角度Δθxの比較対象である差分角度閾値、及び/又は差分角度Δθyの比較対象である差分角度閾値は、ゼロであってもよく、すなわち、視線方向GZが特定角度領域E内にあることで、特定角度領域Eを注視していると判定しなくてもよい。視線方向判定モジュール516は、特定角度領域Eを運転者4が注視しているか否かの判定結果を、プロセッサ33に送信する。なお、注視判定方法は、これらの手段に限定されない。また、表示制御装置30(プロセッサ33)は、自車両1の運転者4が見ている領域(注視している領域)を取得できればよく、視線方向GZから見ている領域(注視している領域)を判定する(算出する)機能を有していなくてもよく、これらの機能の一部又は全部は、車両用表示システム10の表示制御装置30(プロセッサ33)とは別(例えば、車両ECU401)に設けられてもよい。さらに言えば、表示制御装置30(プロセッサ33)は、自車両1の運転者4が、特定の領域を見ていること、所定の時間より長い間、特定の領域を見ていないこと、などの判定結果を取得できればよく、運転者4の注視方向から上記判定をする機能を有していなくてもよく、自車両1の運転者4が、特定の領域を見ていること、又は特定の領域を見ていないこと、などを判定する機能を有していなくてもよく、これらの機能の一部又は全部は、車両用表示システム10の表示制御装置30(プロセッサ33)とは別(例えば、車両ECU401)に設けられてもよい。
The line-of-sight direction determination module 516 includes the position information of the
また、視線方向判定モジュール516は、運転者4がパースペクティブ画像200以外の何を視認しているかを検出してもよい。例えば、視線方向判定モジュール516は、実オブジェクト情報検出モジュール502が検出した自車両1の前景300に存在する実オブジェクト310の位置と、視線方向検出部409から取得した運転者4の視線方向GZと、を比較することで、注視している実オブジェクト310を特定し、視認された実オブジェクト310を特定する情報を、プロセッサ33に送信してもよい。
Further, the line-of-sight direction determination module 516 may detect what the driver 4 is viewing other than the
グラフィックモジュール518は、レンダリングなどの画像処理をして画像データを生成し、表示器22を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール518は、表示される画像の、種類、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール518は、画像種類設定モジュール510が設定した種類、画像配置設定モジュール512が設定した位置座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)の位置座標を少なくとも含む位置座標。)画像配置設定モジュール512が設定した角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角)、及び画像サイズ設定モジュール514が設定したサイズで運転者4に視認されるように画像データを生成し、画像表示部20に表示する。
The graphic module 518 includes various known software components for performing image processing such as rendering to generate image data and driving the
グラフィックモジュール518は、自車両1の前後方向に沿うように視認される1つ又は複数の画像要素から構成されるパースペクティブ画像200を表示する。パースペクティブ画像200は、前景300の実オブジェクト310(analog)と所定の位置関係になるように配置され、この場合、(Kontaktanalog)画像とも呼ばれる。本実施形態の説明では、パースペクティブ画像200を、(Kontaktanalog)画像として説明するが、パースペクティブ画像200は、遠近法を用いて描画されていればよく、必ずしも前景300の実オブジェクト310と所定の位置関係になるように配置されない、すなわち、実オブジェクト310によらず、表示位置が固定(又は調整可能な半固定)される非(Kontaktanalog)画像であってもよい。
The graphic module 518 displays a
図4は、パースペクティブ画像200が表示される例を示す図である。図4のパースペクティブ画像200は、案内経路を示す6つ(複数)の矢印状の画像(経路画像とも呼ぶ。)からなり、自車両1の前景300における路面330に重なる位置に、案内経路のうち自車両1に近い方から符号201、202、203、204、205、206の順に配置される。案内経路は、直進した後に交差点で右折を示しており、すなわち、交差点までの案内経路を示すパースペクティブ画像201、202、203は、運転者4から見て自車両1の走行レーンの路面330に重なり、前方の交差点に向かうように直進方向(Z軸正方向)を指示し、交差点から先の案内経路を示すパースペクティブ画像204、205、206は、運転者4から見て右折方向の分岐路の路面330に重なるように右方向(X軸負方向)を指示する。パースペクティブ画像201〜206は、路面330に沿うように視認されるように配置されており、すなわち、画像配置設定モジュール512は、パースペクティブ画像201〜206が示す仮想オブジェクトを、路面330とのなす角度が0[degree]になる(換言すると、路面330と平行になる)ように配置(角度)を設定する。
FIG. 4 is a diagram showing an example in which the
本実施形態のグラフィックモジュール518は、視線方向判定モジュール516による判定結果により、パースペクティブ画像200の一部の路面330に対する角度を変更する。図5は、図4のパースペクティブ画像200の一部(先端領域240(204、205、206))の路面330に対する角度を変更した後の表示例を示す。視線方向判定モジュール516により運転者4がパースペクティブ画像200の先端領域240(特定角度領域Eの一例)をしばらく見ていないと判定されると、グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせる(換言すると、路面330を基準としたX方向を軸とした先端領域240(204、205、206)のピッチング角を0[degree]から90[degree]に変更する)。
The graphic module 518 of the present embodiment changes the angle of the
また、いくつかの実施形態において、視線方向判定モジュール516により運転者4がパースペクティブ画像200の後端領域220(特定角度領域Eの一例)を注視していると判定される場合、グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせてもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]から90[degree]に変更してもよい)。
Further, in some embodiments, when the line-of-sight direction determination module 516 determines that the driver 4 is gazing at the rear end region 220 (an example of the specific angle region E) of the
また、いくつかの実施形態において、視線方向判定モジュール516により運転者4がパースペクティブ画像200の先端領域240よりも上側(Y軸正方向)の領域(特定角度領域Eの一例)を注視していると判定される場合、グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせてもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]から90[degree]に変更してもよい)。
Further, in some embodiments, the driver 4 is gazing at a region (an example of a specific angle region E) above the tip region 240 of the perspective image 200 (in the positive direction of the Y axis) by the line-of-sight direction determination module 516. If it is determined that, the graphic module 518 may raise the tip region 240 (204, 205, 206) of the
図6Aは、図5のパースペクティブ画像の各領域に設定される配置(角度)を示す図であり、横軸がパースペクティブ画像の各領域201〜206を示し、縦軸が路面330に対して仮想的に設定されたピッチング角度[degree]を示す。後端領域220のパースペクティブ画像201,202,203には、0[degree]が設定され、先端領域240のパースペクティブ画像204,205,206には、90[degree]が設定される。
FIG. 6A is a diagram showing arrangements (angles) set in each region of the perspective image of FIG. 5, where the horizontal axis represents each
図6Bは、パースペクティブ画像200の各領域に設定される配置(角度)の別例を示す図である。グラフィックモジュール518は、パースペクティブ画像200の先端領域240(204、205、206)を運転者4に向かって起き上がらせる際、パースペクティブ画像200の先端に向かうにつれて徐々に起き上がるように角度を設定してもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]先端に向かうにつれて徐々に90[degree]に近づけるように変更してもよい。)。具体的には、後端領域220のパースペクティブ画像201,202,203には、0[degree]が設定され、先端領域240のパースペクティブ画像204は30[degree]、パースペクティブ画像205は60[degree]、パースペクティブ画像206は90[degree]、すなわち、最先端の画像要素(符号206)と、最先端の画像要素に連なる複数の画像要素(符号205、204)と、の角度を異ならせてもよく、最先端に向かうに連れて角度の変更具合を大きく設定してもよい。
FIG. 6B is a diagram showing another example of the arrangement (angle) set in each area of the
なお、いくつかの実施形態では、パースペクティブ画像200は、1つの画像要素で構成され得る。図7は、1つの画像要素で構成されたパースペクティブ画像200が注視判定に応じて変形する前の表示例を示す。また、図8は、図7のパースペクティブ画像200が注視判定に応じて変形した後の表示例を示す。図8の例では、急に起き上がるようにパースペクティブ画像200の先端領域240の角度が設定されているが、これに限定されない。したがって、グラフィックモジュール518は、パースペクティブ画像200の先端領域240を運転者4に向かって起き上がらせる際、パースペクティブ画像200の最先端に向かうにつれて徐々に起き上がるように角度を設定してもよい(換言すると、路面330を基準としたX方向を軸とした先端領域240のピッチング角を0[degree]から最先端に向かうにつれて徐々に90[degree]に近づけるように変更してもよい。)。
In some embodiments, the
また、いくつかの実施形態では、グラフィックモジュール518は、視線方向判定モジュール516による判定結果により、パースペクティブ画像200の後端領域220の路面330に対する角度を変更し得る。図9は、図4のパースペクティブ画像200の一部(後端領域220(201、202、203))の路面330に対する角度(ローリング角)を変更した後の表示例を示す。視線方向判定モジュール516により運転者4がパースペクティブ画像200の後端領域220(特定角度領域Eの一例)をしばらく見ていないと判定される場合、又は視線方向判定モジュール516により運転者4がパースペクティブ画像200の先端領域240(特定角度領域Eの一例)を注視していると判定される場合、グラフィックモジュール518は、パースペクティブ画像200の後端領域220(201、202、203)を、路面330を基準としたZ方向を軸とした後端領域220のロール角を0[degree]から90[degree]に変更してもよい。なお、運転者4から見て奥行き方向(Z方向)に並んでいる(延在している)ように視認させるパースペクティブ画像200が表現する仮想オブジェクトの路面330に対する角度を大きくして起き上がらせるように視認させる際、起き上がらせたパースペクティブ画像200の位置を自車両1の走行レーンの中央より左側又は右側にずらして配置してもよい。
Further, in some embodiments, the graphic module 518 may change the angle of the
図10Aは、図9のパースペクティブ画像の各領域に設定される配置(角度)を示す図であり、横軸がパースペクティブ画像の各領域201〜206を示し、縦軸が路面330に対して仮想的に設定されたローリング角度[degree]を示す。後端領域220のパースペクティブ画像201,202,203には、90[degree]が設定され、先端領域240のパースペクティブ画像204,205,206には、0[degree]が設定される。
10A is a diagram showing arrangements (angles) set in each region of the perspective image of FIG. 9, the horizontal axis represents each
図10Bは、パースペクティブ画像200の各領域に設定される配置(角度)の別例を示す図である。画像配置設定モジュール512は、パースペクティブ画像200の後端領域220(201、202、203)を路面330から起き上がらせる際、パースペクティブ画像200の最後端に向かうにつれて徐々に起き上がるようにローリング角度を設定してもよい(換言すると、路面330を基準としたZ方向を軸とした後端230のローリング角を0[degree]から最後端に向かうにつれて徐々に90[degree]に近づけるように変更してもよい)。具体的には、先端領域240のパースペクティブ画像204,205,206には、0[degree]が設定され、後端領域220のパースペクティブ画像203は30[degree]、パースペクティブ画像202は60[degree]、最後端のパースペクティブ画像201は90[degree]が設定される。
FIG. 10B is a diagram showing another example of the arrangement (angle) set in each area of the
図11は、パースペクティブ画像200の一部の角度を変更してから元の角度に戻るまでのタイミングチャートであり、横軸は時間を示し、縦軸が路面330に対して仮想的に設定されたパースペクティブ画像200の一部のローリング角度[degree]を示す。視線方向判定モジュール516の判定結果に基づき、特定の条件が満たされた時間t11において、グラフィックモジュール518は、路面330に対して仮想的に設定されるパースペクティブ画像200の一部(後端領域220、又は先端領域240)の角度を大きくし、路面330から起き上がらせ、所定の時間(例えば、10秒)が経過した時間t12から徐々に(例えば、30秒かけて)、変更したパースペクティブ画像200の一部(後端領域220、又は先端領域240)の角度を元に戻す(時間t13)。注視されていないパースペクティブ画像200の一部を路面330に沿った角度から起こすことにより、運転者4の視覚的注意を迅速にパースペクティブ画像200に向けさせることができる。
FIG. 11 is a timing chart from changing a part of the angle of the
また、上記実施形態によれば、角度が変化したパースペクティブ画像200の一部に連なっているパースペクティブ画像200の他部は、路面330に沿った角度で表示され続けるため、画像(パースペクティブ画像200の他部)が、前景300に溶け込みやすくなり、その結果、仮想現実における画像の違和感が軽減され、視覚的注意を過度に向きにくくし得る。
Further, according to the above embodiment, since the other part of the
さらに、上記実施形態によれば、注視されていないパースペクティブ画像200の一部を路面330に沿った角度に戻すのにかける時間(図11のt12〜t13であり、変更保持時間とも呼ぶ。)を、注視されていないパースペクティブ画像200の一部を路面330に沿った角度から起こすのにかける時間よりも長くする、すなわち、路面330に沿った角度にゆっくり戻すことで、運転者4の視覚的注意が過度に取られることなく、パースペクティブ画像200を前景300に溶け込みやすい元の状態に戻すことができる。
Further, according to the above embodiment, the time taken to return a part of the
パースペクティブ画像200の具体的な種類に制限はなく、自車両1の前後方向に沿うように視認される1つ又は複数の画像要素からなる、上記の案内経路を示す画像の他にも、例えば、区画線331、332に沿って表示されるレーンガイド画像(図12Aの符号200)、区画線331、332を逸脱しそうになった際に区画線に沿って表示される車線逸脱警告(LDW、Lane Departure Warning)に関する画像(図12Aの符号200と同様、又は類似。)、自車両1と同じ走行レーンの前方を走行する他車両350に追従走行する際に設定される車間距離を路面330に重ねて表示する定車間距離制御(ACC、Adaptive Cruise Control)に関する画像(図12Bの符号200)、又は隣接する走行レーンを走行する他車両370が自車両1の走行レーンに侵入してくると予測される場合に他車両370の予測侵入経路を示す画像(図12Cの符号200)などであってもよい。
The specific type of the
再び図2を参照する。行動判定モジュール520は、パースペクティブ画像200が示す情報に対して運転者4が的確な行動をとったか否かを検出する。いくつかのパースペクティブ画像200には、それぞれ運転者4の的確な行動が対応づけてメモリ37に記憶されている。特に、パースペクティブ画像200の一部の路面330に対する角度を変更した後、行動判定モジュール520は、パースペクティブ画像200に対応付けられた的確な行動が検出されたか否かを判定する。例えば、
パースペクティブ画像200が案内経路情報を含む場合、案内経路が示す方向と同じ方向を運転者4が注視したこと、又は案内経路が示す方向と同じ方向に向かおうとする操舵がなされたこと、などを条件として、パースペクティブ画像200に対応付けられた的確な行動が検出されたと判定してもよい。また、パースペクティブ画像200が前記車線逸脱警告に関する画像である場合、車線逸脱を回避するような操舵がなされたこと、などを条件として、パースペクティブ画像200に対応付けられた的確な行動が検出されたと判定してもよい。行動判定モジュール520は、行動を判定するために収集する情報は、車両ECU401から入力する自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)、視線方向検出部409から入力する運転者4の状態(例えば、視線方向)などであるが、これらに限定されない。グラフィックモジュール518は、パースペクティブ画像200の一部の路面330に対する角度を変更した後、行動判定モジュール520で的確な行動がなされたと判定された場合、前記変更保持時間が経過しなくても、パースペクティブ画像200の角度を変更していた一部を路面330に沿った角度に戻してもよい。この場合、前記変更保持時間が経過後にパースペクティブ画像200の角度を戻す速さよりも、行動判定モジュール520で的確な行動がなされたと判定されたことを条件として角度を戻す速さの方を速くしてもよい。これにより、運転者4により的確な動作がなされた場合に、パースペクティブ画像200の一部を路面330に沿った角度に戻すことで、再びパースペクティブ画像200の全体が前景300に溶け込みやすくなり、その結果、仮想現実における画像の違和感が軽減され、視覚的注意を過度に向きにくくし得る。
See FIG. 2 again. The action determination module 520 detects whether or not the driver 4 has taken an appropriate action with respect to the information shown by the
When the
図13は、いくつかの実施形態に係る、パースペクティブ画像200の一部(先端領域240又は後端領域220)の角度を変更する処理のフロー図である。
まず、1つ又は複数のプロセッサ33は、視線方向検出部409から自車両1の運転者4の視線方向GZを取得し(ステップS11)、メモリ37から現在表示されている画像の位置を取得する(ステップS12)。
FIG. 13 is a flow chart of a process for changing the angle of a part (front end region 240 or rear end region 220) of the
First, one or
次に、プロセッサ33は、ステップS11で取得した視線方向GZ(又は視線方向GZから推定した注視方向)と、ステップS12で取得した画像の位置と、を比較して、先端領域240の角度を変更する条件が満たされたか否かを判定する(ステップS13)。具体的には、プロセッサ33は、視線方向判定モジュール516を実行し、自車両1の運転者4が、先端領域240をしばらく視認していないこと、後端領域220を注視していること、又は先端領域240よりも上側(Y軸正方向)を注視していること、が判定された場合(ステップS13でYes)、先端領域240の角度を路面330に沿った角度から起きて視認されるように変更し(ステップS14)、ステップS17に移行する。
Next, the
一方、先端領域240の角度を変更する条件が満たされなかった場合(ステップS13でNo)、プロセッサ33は、ステップS11で取得した視線方向GZ(又は視線方向GZから推定した注視方向)と、ステップS12で取得した画像の位置と、を比較して、後端領域220の角度を変更する条件が満たされたか否かを判定する(ステップS15)。具体的には、プロセッサ33は、視線方向判定モジュール516を実行し、自車両1の運転者4が、後端領域220をしばらく視認していないこと、又は先端領域240を注視していること、が判定された場合(ステップS15でYes)、後端領域220の角度を路面330に沿った角度から起きて視認されるように変更し(ステップS16)、ステップS17に移行する。なお、後端領域220の角度を変更する条件が満たされなかった場合(ステップS15でNo)、処理を終了し、再びステップS11から処理を開始する。
On the other hand, when the condition for changing the angle of the tip region 240 is not satisfied (No in step S13), the
ステップS17では、プロセッサ33は、先端領域240又は後端領域220の角度を元に戻す条件が満たされか否かを判定する。具体的には、プロセッサ33は、ステップS14での先端領域240の角度を変更してからの経過時間、又はステップS16での後端領域220の角度を変更してからの経過時間、をタイマー(図示しない)で測定し、所定の時間が経過した場合(ステップS17でYes)、先端領域240又は後端領域220の角度を、路面330に沿った角度に戻し(ステップS18)、処理を終了し、再びステップS11から処理を開始する。また、プロセッサ33は、行動判定モジュール520を実行し、パースペクティブ画像200が示す情報に対して運転者4が的確な行動をとったことを検出した場合(ステップS17でYes)、先端領域240又は後端領域220の角度を、路面330に沿った角度に戻し(ステップS18)、処理を終了し、再びステップS11から処理を開始してもよい。
In step S17, the
上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る一般的なハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operation of the processing process described above can be carried out by executing one or more functional modules of an information processing device such as a general-purpose processor or a chip for a specific purpose. These modules, combinations of these modules, and / or combinations with common hardware that can replace their functionality are all within the scope of the protection of the present invention.
車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
The functional blocks of the
1 :自車両
2 :フロントウインドシールド
4 :運転者
5 :ダッシュボード
10 :車両用表示システム
20 :画像表示部
20a :表示光
22 :表示器
24 :リレー光学系
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
100 :表示領域
200 :パースペクティブ画像
220 :後端領域
240 :先端領域
300 :前景
310 :実オブジェクト
330 :路面
331 :区画線
332 :区画線
350 :他車両
370 :他車両
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :車外センサ
409 :視線方向検出部
411 :目位置検出部
413 :携帯情報端末
415 :外部通信機器
502 :実オブジェクト情報検出モジュール
504 :実オブジェクト位置特定モジュール
506 :報知必要度判定モジュール
508 :目位置検出モジュール
510 :画像種類設定モジュール
512 :画像配置設定モジュール
514 :画像サイズ設定モジュール
516 :視線方向判定モジュール
518 :グラフィックモジュール
520 :行動判定モジュール
E :特定角度領域
1: Own vehicle 2: Front windshield 4: Driver 5: Dashboard 10: Vehicle display system 20:
403: Road information database 405: Own vehicle position detection unit 407: Vehicle outside sensor 409: Line-of-sight direction detection unit 411: Eye position detection unit 413: Mobile information terminal 415: External communication device 502: Real object information detection module 504: Real object position Specific module 506: Notification necessity determination module 508: Eye position detection module 510: Image type setting module 512: Image arrangement setting module 514: Image size setting module 516: Line-of-sight direction determination module 518: Graphic module 520: Action determination module E: Specific angle area
Claims (19)
外部から情報を取得可能な1つ又は複数のI/Oインタフェース(31)と、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記1つ又は複数のプロセッサ(33)は、
前記運転者が、前記画像(200)の先端領域(240)を所定の時間より長く視認していないこと、前記画像(200)の後端領域(220)を注視していること、及び前記先端領域(240)よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされた場合、
前記自車両が走行する路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する、命令を実行する、
表示制御装置。 An image display unit (20) for displaying an image (200) composed of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle in an area overlapping the foreground when viewed from the driver of the own vehicle. In the display control device (30) to be controlled
One or more I / O interfaces (31) that can acquire information from the outside,
With one or more processors (33),
Memory (37) and
It comprises one or more computer programs stored in the memory (37) and configured to be executed by the one or more processors (33).
The one or more processors (33)
The driver has not visually recognized the tip region (240) of the image (200) for longer than a predetermined time, is gazing at the rear end region (220) of the image (200), and the tip. When the first condition consisting of at least one of watching the region above the region (240) is satisfied.
Execute a command to change the angle of the tip region (240) so that the vehicle can be seen from an angle along the road surface (330) on which the vehicle travels.
Display control device.
前記運転者が、前記画像(200)の前記後端領域(220)を所定の時間より長く視認していないこと、及び前記画像(200)の前記先端領域(240)を注視していること、の少なくとも1つからなる第2条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記後端領域(220)の角度を変更する、命令を実行する、
請求項1に記載の表示制御装置。 The one or more processors (33)
The driver has not seen the rear end region (220) of the image (200) for longer than a predetermined time, and is gazing at the tip region (240) of the image (200). If the second condition consisting of at least one of
Execute a command to change the angle of the rear end region (220) so that it can be seen from an angle along the road surface (330).
The display control device according to claim 1.
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記複数の画像要素のうち全てではない、最先端の前記画像要素と、前記最先端の画像要素に連なる1つ又は複数の画像要素と、の角度を変更する、命令を実行する、
請求項1に記載の表示制御装置。 The image (200) is composed of a plurality of image elements.
The one or more processors (33)
When the first condition is satisfied,
The state-of-the-art image element, which is not all of the plurality of image elements, and one or a plurality of the state-of-the-art image elements connected to the state-of-the-art image element so as to be visually recognized by rising from an angle along the road surface (330). Change the angle of the image element, execute the command,
The display control device according to claim 1.
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記画像(200)のうち前記先端領域(240)を屈曲させて、前記先端領域(240)の角度を変更する、命令を実行する、
請求項1に記載の表示制御装置。 The image (200) is composed of one image element.
The one or more processors (33)
When the first condition is satisfied,
A command is given to bend the tip region (240) of the image (200) to change the angle of the tip region (240) so that the image (200) can be seen from an angle along the road surface (330). Execute,
The display control device according to claim 1.
前記1つ又は複数のプロセッサ(33)は、
前記画像(200)が示す情報に対して前記運転者が的確な行動をとったと推定できる場合、
変更された前記先端領域(240)の角度を戻す、命令をさらに実行する、
請求項1に記載の表示制御装置。 After changing the angle of the tip region (240),
The one or more processors (33)
When it can be estimated that the driver has taken an appropriate action with respect to the information shown in the image (200).
Return the angle of the modified tip region (240), execute further instructions,
The display control device according to claim 1.
変更された前記先端領域(240)の角度を戻す速度を、前記路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する速度より速くする、
請求項5に記載の表示制御装置。 The one or more processors (33)
The speed at which the modified tip region (240) is returned is made faster than the speed at which the angle at the tip region (240) is changed so that it can be seen from an angle along the road surface (330).
The display control device according to claim 5.
外部から情報を取得可能な1つ又は複数のI/Oインタフェース(31)と、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記1つ又は複数のプロセッサ(33)は、
前記運転者が、前記画像(200)の先端領域(240)を所定の時間より長く視認していないこと、前記画像(200)の後端領域(220)を注視していること、及び前記先端領域(240)よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされた場合、
前記自車両が走行する路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する、命令を実行する、
ヘッドアップディスプレイ装置。 A head-up display device (20) that displays an image (200) composed of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle in an area overlapping the foreground when viewed from the driver of the own vehicle. In
One or more I / O interfaces (31) that can acquire information from the outside,
With one or more processors (33),
Memory (37) and
It comprises one or more computer programs stored in the memory (37) and configured to be executed by the one or more processors (33).
The one or more processors (33)
The driver has not visually recognized the tip region (240) of the image (200) for longer than a predetermined time, is gazing at the rear end region (220) of the image (200), and the tip. When the first condition consisting of at least one of watching the region above the region (240) is satisfied.
Execute a command to change the angle of the tip region (240) so that the vehicle can be seen from an angle along the road surface (330) on which the vehicle travels.
Head-up display device.
前記運転者が、前記画像(200)の前記後端領域(220)を所定の時間より長く視認していないこと、及び前記画像(200)の前記先端領域(240)を注視していること、の少なくとも1つからなる第2条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記後端領域(220)の角度を変更する、命令を実行する、
請求項7に記載のヘッドアップディスプレイ装置。 The one or more processors (33)
The driver has not seen the rear end region (220) of the image (200) for longer than a predetermined time, and is gazing at the tip region (240) of the image (200). If the second condition consisting of at least one of
Execute a command to change the angle of the rear end region (220) so that it can be seen from an angle along the road surface (330).
The head-up display device according to claim 7.
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記複数の画像要素のうち全てではない、最先端の前記画像要素と、前記最先端の画像要素に連なる1つ又は複数の画像要素と、の角度を変更する、命令を実行する、
請求項7に記載のヘッドアップディスプレイ装置。 The image (200) is composed of a plurality of image elements.
The one or more processors (33)
When the first condition is satisfied,
The state-of-the-art image element, which is not all of the plurality of image elements, and one or a plurality of the state-of-the-art image elements connected to the state-of-the-art image element so as to be visually recognized by rising from an angle along the road surface (330). Change the angle of the image element, execute the command,
The head-up display device according to claim 7.
前記1つ又は複数のプロセッサ(33)は、
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記画像(200)のうち前記先端領域(240)を屈曲させて、前記先端領域(240)の角度を変更する、命令を実行する、
請求項7に記載のヘッドアップディスプレイ装置。 The image (200) is composed of one image element.
The one or more processors (33)
When the first condition is satisfied,
A command is given to bend the tip region (240) of the image (200) to change the angle of the tip region (240) so that the image (200) can be seen from an angle along the road surface (330). Execute,
The head-up display device according to claim 7.
前記1つ又は複数のプロセッサ(33)は、
前記画像(200)が示す情報に対して前記運転者が的確な行動をとったと推定できる場合、
変更された前記先端領域(240)の角度を戻す、命令をさらに実行する、
請求項7に記載のヘッドアップディスプレイ装置。 After changing the angle of the tip region (240),
The one or more processors (33)
When it can be estimated that the driver has taken an appropriate action with respect to the information shown in the image (200).
Return the angle of the modified tip region (240), execute further instructions,
The head-up display device according to claim 7.
変更された前記先端領域(240)の角度を戻す速度を、前記路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更する速度より速くする、
請求項11に記載のヘッドアップディスプレイ装置。 The one or more processors (33)
The speed at which the modified tip region (240) is returned is made faster than the speed at which the angle at the tip region (240) is changed so that it can be seen from an angle along the road surface (330).
The head-up display device according to claim 11.
前記運転者の視線方向を取得することと、
少なくとも前記画像表示部(20)が表示している前記画像(200)の位置と、前記視線方向と、に基づき、前記運転者が、前記画像(200)の先端領域(240)を所定の時間より長く視認していないこと、前記画像(200)の後端領域(220)を注視していること、及び前記先端領域(240)よりも上側の領域を注視していること、の少なくとも1つからなる第1条件が満たされたか否かを判定することと、
前記第1条件が満たされた場合、
前記自車両が走行する路面(330)に沿った角度から起きて視認されるように、前記先端領域(240)の角度を変更することと、を含む、
方法。 An image display unit (20) for displaying an image (200) composed of one or a plurality of image elements visually recognized along the front-rear direction of the own vehicle in an area overlapping the foreground when viewed from the driver of the own vehicle. It ’s a way to control
Acquiring the line-of-sight direction of the driver
Based on at least the position of the image (200) displayed by the image display unit (20) and the line-of-sight direction, the driver sets the tip region (240) of the image (200) for a predetermined time. At least one of not seeing for a longer time, gazing at the rear end region (220) of the image (200), and gazing at the region above the tip region (240). Determining whether or not the first condition consisting of
When the first condition is satisfied,
Including changing the angle of the tip region (240) so that the vehicle can be seen from an angle along the road surface (330) on which the own vehicle travels.
Method.
前記第2条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記後端領域(220)の角度を変更することと、をさらに含む、
請求項13に記載の方法。 Based on at least the position of the image (200) displayed by the image display unit (20) and the line-of-sight direction, the driver determines the rear end region (220) of the image (200). It is determined whether or not the second condition consisting of at least one of not visually recognizing for longer than the time of and watching the tip region (240) of the image (200) is satisfied. ,
When the second condition is satisfied,
Further including changing the angle of the rear end region (220) so that it can be seen from an angle along the road surface (330).
13. The method of claim 13.
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記複数の画像要素のうち全てではない、最先端の前記画像要素と、前記最先端の画像要素に連なる1つ又は複数の画像要素と、の角度を変更する、
請求項13に記載の方法。 The image (200) is composed of a plurality of image elements.
When the first condition is satisfied,
The state-of-the-art image element, which is not all of the plurality of image elements, and one or a plurality of the state-of-the-art image elements connected to the state-of-the-art image element so as to be visually recognized by rising from an angle along the road surface (330). Change the angle of the image element,
13. The method of claim 13.
前記第1条件が満たされた場合、
前記路面(330)に沿った角度から起きて視認されるように、前記画像(200)のうち前記先端領域(240)を屈曲させて、前記先端領域(240)の角度を変更する、
請求項13に記載の方法。 The image (200) is composed of one image element.
When the first condition is satisfied,
The tip region (240) of the image (200) is bent to change the angle of the tip region (240) so that the image (200) can be seen from an angle along the road surface (330).
13. The method of claim 13.
前記自車両の状態、及び/又は前記運転者の状態を取得することと、
前記自車両の状態、及び/又は前記運転者の状態から前記画像(200)が示す情報に対して前記運転者が的確な行動をとったか推定することと、
前記画像(200)が示す情報に対して前記運転者が的確な行動をとったか推定された場合、
変更された前記先端領域(240)の角度を戻すことと、をさらに含む、
請求項13に記載の方法。 After changing the angle of the tip region (240),
Acquiring the state of the own vehicle and / or the state of the driver,
Estimating from the state of the own vehicle and / or the state of the driver whether the driver has taken an appropriate action with respect to the information shown in the image (200).
When it is estimated that the driver has taken an appropriate action with respect to the information shown in the image (200).
Further including returning the angle of the modified tip region (240).
13. The method of claim 13.
請求項17に記載の方法。 The speed at which the modified tip region (240) is returned is made faster than the speed at which the angle at the tip region (240) is changed so that it can be seen from an angle along the road surface (330).
17. The method of claim 17.
A computer program comprising instructions for performing the method according to any one of claims 13-18.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019108274A JP2020199883A (en) | 2019-06-10 | 2019-06-10 | Display control device, head-up display device, method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019108274A JP2020199883A (en) | 2019-06-10 | 2019-06-10 | Display control device, head-up display device, method and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020199883A true JP2020199883A (en) | 2020-12-17 |
Family
ID=73741750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019108274A Pending JP2020199883A (en) | 2019-06-10 | 2019-06-10 | Display control device, head-up display device, method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020199883A (en) |
-
2019
- 2019-06-10 JP JP2019108274A patent/JP2020199883A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210104212A1 (en) | Display control device, and nontransitory tangible computer-readable medium therefor | |
JP2020032866A (en) | Vehicular virtual reality providing device, method and computer program | |
US11803053B2 (en) | Display control device and non-transitory tangible computer-readable medium therefor | |
JP7255608B2 (en) | DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM | |
JP2016109645A (en) | Information providing device, information providing method, and control program for providing information | |
JP7459883B2 (en) | Display control device, head-up display device, and method | |
WO2022230995A1 (en) | Display control device, head-up display device, and display control method | |
WO2021200914A1 (en) | Display control device, head-up display device, and method | |
WO2020158601A1 (en) | Display control device, method, and computer program | |
JP2020086884A (en) | Lane marking estimation device, display control device, method and computer program | |
JP2020121607A (en) | Display control device, method and computer program | |
JP2020121704A (en) | Display control device, head-up display device, method and computer program | |
JP2020199883A (en) | Display control device, head-up display device, method and computer program | |
JP7434894B2 (en) | Vehicle display device | |
JP2021056358A (en) | Head-up display device | |
WO2021200913A1 (en) | Display control device, image display device, and method | |
WO2023145852A1 (en) | Display control device, display system, and display control method | |
JP2022077138A (en) | Display controller, head-up display device, and display control method | |
JP2021160409A (en) | Display control device, image display device, and method | |
JP2020106911A (en) | Display control device, method, and computer program | |
JP2020117104A (en) | Display control device, display system, method and computer program | |
WO2023003045A1 (en) | Display control device, head-up display device, and display control method | |
JP2022057051A (en) | Display controller and virtual display device | |
JP2022113292A (en) | Display control device, head-up display device, and display control method | |
JP7255596B2 (en) | Display control device, head-up display device |