JP2020086882A - 表示制御装置、方法、及びコンピュータ・プログラム - Google Patents

表示制御装置、方法、及びコンピュータ・プログラム Download PDF

Info

Publication number
JP2020086882A
JP2020086882A JP2018219803A JP2018219803A JP2020086882A JP 2020086882 A JP2020086882 A JP 2020086882A JP 2018219803 A JP2018219803 A JP 2018219803A JP 2018219803 A JP2018219803 A JP 2018219803A JP 2020086882 A JP2020086882 A JP 2020086882A
Authority
JP
Japan
Prior art keywords
image
real object
driver
vehicle
visually recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018219803A
Other languages
English (en)
Inventor
勇希 舛屋
Yuki Masuya
勇希 舛屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2018219803A priority Critical patent/JP2020086882A/ja
Publication of JP2020086882A publication Critical patent/JP2020086882A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両の前方に存在する特定のオブジェクトに関する情報を迅速に認識させる画像を表示する。【解決手段】プロセッサは、前景に存在する実オブジェクト310の位置情報を取得し、少なくとも実オブジェクト310の位置に基づき、実オブジェクト310が運転者によって視認されにくい状態であるか判定し、実オブジェクト310が運転者によって視認されにくい状態である場合、実オブジェクト310の近傍に運転者によって視認されやすい画像200の種類を多くする。【選択図】 図3A

Description

本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、方法、及びコンピュータ・プログラムに関する。
特許文献1には、車両の運転席にいる視認者(運転者)から見て、運転者が視認すべき特定の実オブジェクト(他車両、歩行者、信号機など)の近傍に視認されるように車両の前景に重ねて画像を表示させ、その画像を選択することで、特定の実オブジェクトの詳細な情報を表示させる表示制御装置が開示されている。
特開2018−88118号公報
しかしながら、特許文献1の表示制御装置では、運転者による選択操作が行われてから、特定の実オブジェクトに対応する画像の表示態様を変化させている(簡易的な表示から詳細な表示へ変化させている)。運転者は、様々な領域に動的に視覚的注意を向けながら車両の運転をしているため、情報を迅速に認識させる表示装置が望まれている。
また、特定の実オブジェクト(他車両、歩行者、信号機など)の近傍に視認されるように車両の前景に重ねて画像を表示させることで、特定の実オブジェクトの位置は迅速に把握させることができるが、表示する画像の数が多いと、視認者の視覚的注意が散漫となってしまうことも想定される。
本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。
本開示の概要は、車両の前方に存在する特定のオブジェクトに関する情報を迅速に認識させる画像を表示することに関する。より具体的には、視認者の視覚的注意が散漫になりにくくすることにも関する。
したがって、本明細書に記載される表示制御装置は、運転者によって、実オブジェクトが視認されにくい状態である場合、実オブジェクトの近傍に運転者によって視認されやすい画像の種類を多くする。いくつかの実施形態では、実オブジェクトが運転者によって視認されにくい状態が解除され、かつ所定の条件が成立した場合、実オブジェクトの近傍に運転者によって視認されやすい画像の種類を少なくしてもよい。
いくつかの実施形態に係る、ヘッドアップディスプレイ装置の適用例を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置のブロック図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。 図3Aと図3Cとの間の表示遷移の途中に表示される画像の例を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の表示遷移の例を示す図である。 いくつかの実施形態に係る、表示制御の処理を示すフロー図である。
以下に、本発明に係る実施形態について図面を参照して説明する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。
以下、図1及び図2では、例示的なヘッドアップディスプレイ装置の構成の説明を提供する。図3A、図3B、図4A、図4B、及び図5では、表示例を提供する。図6では、例示的な表示制御の処理の流れを説明する。
図1を参照する。車両用表示システム10における画像200を表示する画像表示部11は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光11aをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、仮想的な表示領域100内に画像200を表示することで、フロントウインドシールド2を介して視認される現実空間である前景300に重ねて画像200を視認させる。
画像表示部11は、表示制御装置13の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間である前景300に存在する、障害物(歩行者、自転車、自動二輪車、他車両)、路面、道路標識、及び建物、などの実オブジェクトの近傍(画像と実オブジェクトとの位置関係の一例)、前記実オブジェクトに重なる位置(画像と実オブジェクトとの位置関係の一例)、又は前記実オブジェクトを基準に設定された位置(画像と実オブジェクトとの位置関係の一例)に画像200を表示することで、視覚的な拡張現実(AR:Augmented Reality)を形成することもできる。
図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、画像表示部11と、画像表示部11を制御する表示制御装置13と、で構成される。表示制御装置13は、1つ又はそれ以上のI/Oインタフェース14、1つ又はそれ以上のプロセッサ16、1つ又はそれ以上の記憶部18、及び1つ又はそれ以上の画像処理回路20を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、実施態様の一実施例に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路20(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ16に含まれてもよい。
図示するように、プロセッサ16及び画像処理回路20は、記憶部18と動作可能に連結される。より具体的には、プロセッサ16及び画像処理回路20は、記憶部18に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ16又は/及び画像処理回路20は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。記憶部18は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
図示するように、プロセッサ16は、I/Oインタフェース14と動作可能に連結されている。例えば、I/Oインタフェース14は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、4G又はLTE(登録商標)セルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース14は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。
図示するように、プロセッサ16は、I/Oインタフェース14と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース14)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース14には、例えば、自車両1に設けられた車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、視線方向検出部409、目位置検出部411、携帯情報端末413、及び車外通信接続機器420などが動作可能に連結される。画像表示部11は、プロセッサ16及び画像処理回路20に動作可能に連結される。したがって、画像表示部11によって表示される画像は、プロセッサ16又は/及び画像処理回路20から受信された画像データに基づいてもよい。プロセッサ16及び画像処理回路20は、I/Oインタフェース14から得られる情報に基づき、画像表示部11が表示する画像を制御する。なお、I/Oインタフェース14は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
自車両1は、自車両1の状態(例えば、走行距離、車速、エンジン回転数、各種警告状態)などを検出する車両ECU401を含んでいる。車両ECU401は、自車両1の各部を制御するものであり、例えば、自車両1の現在の車速を示す車速情報をプロセッサ16へ送信することができる。なお、車両ECU401は、自車両1が低速走行しているか、又は停止しているかを示す情報をプロセッサ16へ送信してもよい。また、車両ECU401は、車両用表示システム10が表示する画像200を指示する指示信号をI/Oインタフェース14に送信してもよく、この際、画像200の座標、画像200の報知必要度、又は/及び報知必要度を決定する元となる必要度情報を、指示信号に付加して送信してもよい。
自車両1は、ナビゲーションシステム等からなる道路情報データベース403を含んでいてもよい。道路情報データベース403は、後述する自車位置検出部405から取得される自車両1の位置に基づき、実オブジェクト関連情報の一例である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ16に送信することができる。
自車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部405を含んでいてもよい。道路情報データベース403、後述する携帯情報端末413、又は/及び車外通信接続機器420は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ16に送信することができる。
自車両1は、自車両1の周辺(本実施形態では特に前景300)に存在する実オブジェクトを検出する1つ又はそれ以上の車外センサ407を含んでいてもよい。車外センサ407が検知する実オブジェクトは、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、又は/及び種類等を検出してもよい。1つ又はそれ以上の車外センサ407は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト関連情報の一例である実オブジェクト関連情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、又は/及び種類等の情報)をプロセッサ16に送信することができる。なお、これら実オブジェクト関連情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ16に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。
自車両1は、運転者4の注視方向(以下では「視線方向」ともいう)を検出する、運転者4の顔を撮像する赤外線カメラ等からなる視線方向検出部409を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の視線方向を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から視線方向検出部409(又は他の解析部)が特定した運転者4の視線方向をI/Oインタフェース14から取得するものであってもよい。また、自車両1の運転者4の視線方向、又は運転者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。
自車両1は、運転者4の目の位置を検出する赤外線カメラ等からなる目位置検出部411を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から特定された運転者4の目の位置の情報をI/Oインタフェース14から取得するものであってもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ16は、運転者4の目の位置に基づき、画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した画像200を、目位置を検出した視認者(運転者4)に視認させてもよい。
携帯情報端末413は、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース14は、携帯情報端末413とペアリングすることで、携帯情報端末413と通信を行うことが可能であり、携帯情報端末413(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末413は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。また、携帯情報端末413は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、携帯情報端末413は、携帯情報端末413の所持者(例えば、運転者4)のスケジュール情報、携帯情報端末413での着信情報、メールの受信情報などをプロセッサ16に送信し、プロセッサ16及び画像処理回路20は、これらに関する画像データを生成又は/及び送信してもよい。
車外通信接続機器420は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。車外通信接続機器420は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)の位置を取得し、プロセッサ16に送信してもよい。また、車外通信接続機器420は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ16に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、車外通信接続機器420から取得される情報は、上述のものに限定されない。
記憶部18に記憶されたソフトウェア構成要素は、実オブジェクト位置検出モジュール502、実オブジェクト関連情報検出モジュール504、報知必要度検出モジュール506、報知必要度推定モジュール508、視線方向検出モジュール510、実オブジェクト視認判定モジュール512、車両情報検出モジュール514、画像種類決定モジュール516、画像位置決定モジュール518、画像サイズ決定モジュール520、目位置検出モジュール522、及びグラフィックモジュール524を含む。
実オブジェクト位置検出モジュール502は、後述する画像200の座標やサイズを決定する元となる、自車両1の前景300に存在する実オブジェクトの位置やサイズを検出する。実オブジェクト位置検出モジュール502は、例えば、道路情報データベース403、車外センサ407、又は車外通信接続機器420から、自車両1の前景300に存在する実オブジェクト310(図3B、図3C、図4A、図4B、図5の歩行者)の位置(自車両1の運転者4が運転席から車両の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい)、及び実オブジェクト310のサイズ(高さ方向、横方向のサイズ)、を取得してもよい。
また、実オブジェクト位置検出モジュール502は、車外センサ407による実オブジェクトの位置検出精度が低下する環境(雨、霧、雪などの悪天候)であるかを判定することができる。例えば、実オブジェクトの位置検出精度を算出し、位置検出精度の低下により悪天候を判定してもよく、携帯情報端末413、車外通信接続機器420などから車両が走行する位置の天候情報を取得することで悪天候を判定してもよい。
実オブジェクト関連情報検出モジュール504は、後述する画像200の内容(以下では、適宜「種類」ともいう)を決定する元となる、自車両1の前景300に存在する実オブジェクトに関する情報(実オブジェクト関連情報)を検出する。実オブジェクト関連情報は、例えば、実オブジェクトが、歩行者である、又は他車両であるなどの実オブジェクトの種類を示す種類情報、実オブジェクトの移動方向を示す移動方向情報、実オブジェクトまでの距離や到達時間を示す距離時間情報、又は駐車場(実オブジェクト)の料金などの実オブジェクトの個別詳細情報、である(但し、これらに限定されない)。例えば、実オブジェクト関連情報検出モジュール504は、道路情報データベース403又は携帯情報端末413から種類情報、距離時間情報、又は/及び個別詳細情報を取得し、車外センサ407から種類情報、移動方向情報、又は/及び距離時間情報を取得し、車外通信接続機器420から種類情報、移動方向情報、距離時間情報、又は/及び個別詳細情報を検出してもよい。
報知必要度検出モジュール506は、実オブジェクト位置検出モジュール502が検出した実オブジェクトの位置情報とともに、実オブジェクト関連情報検出モジュール504が検出した実オブジェクト関連情報を運転者4に報知する必要度(報知必要度)を検出する。報知必要度検出モジュール506は、I/Oインタフェース14に接続される種々の他の電子機器から報知必要度を検出してもよい。また、図2でI/Oインタフェース14に接続された電子機器が車両ECU401に情報を送信し、受信した情報に基づき車両ECU401が決定した報知必要度を、報知必要度検出モジュール506が検出してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、自車両1や運転者4(又は自車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。
報知必要度推定モジュール508は、画像200の報知必要度を推定する元となる必要度情報を検出し、これから報知必要度を推定する。画像200の報知必要度を推定する元となる必要度情報は、例えば、実オブジェクトや交通規制(道路情報の一例)の位置、種類などで推定されてもよく、I/Oインタフェース14に接続される種々の他の電子機器から入力される他の情報に基づいて、又は他の情報を加味して推定されてもよい。なお、車両用表示システム10は、前記報知必要度を推定する機能を有していなくてもよく、前記報知必要度を推定する機能の一部又は全部は、プロセッサ16とは別に設けられてもよい。
視線方向検出モジュール510は、視線方向検出部409から運転者4の視線方向を取得する。なお、視線方向検出モジュール510は、視線方向検出部409から運転者4の視線方向を推定可能な情報を取得し、これに基づいて、運転者4の視線方向を推定する機能を有していてもよい。
実オブジェクト視認判定モジュール512は、実オブジェクトの位置、又は実オブジェクトの位置と運転者4の視線方向とから、特定の実オブジェクトが運転者4から視認されにくい状態であるかを判定する。実オブジェクト視認判定モジュール512は、複数の実オブジェクトの位置関係などから、特定の実オブジェクトが運転者4から視認されにくい状態であるか(運転者4から見て特定の実オブジェクトが他の実オブジェクトの死角に配置されているか)を判定することができる。例えば、実オブジェクト位置検出モジュール502は、車外通信接続機器420で検出した特定の実オブジェクトの位置が、車外センサ407で検出した他の実オブジェクトによって死角となる位置を示している場合、この特定の実オブジェクトが運転者4から視認されにくい状態であると判定してもよい。
また、実オブジェクト視認判定モジュール512は、実オブジェクトの位置と運転者4の視線方向とから、特定の実オブジェクトが運転者4から視認されにくい状態であるか(運転者4の視線方向が所定の距離以上、特定の実オブジェクトから離れているか)を判定することができる。例えば、実オブジェクト視認判定モジュール512は、車外センサ407から取得した特定の実オブジェクトの位置と、視線方向検出部409から取得した運転者4の視線方向と、が所定の閾値以上離れていた場合、この特定の実オブジェクトが運転者4から視認されにくい状態であると判定してもよい。なお、実オブジェクト視認判定モジュール512は、画像表示部11によって表示される画像の位置と、視線方向検出部409から取得した運転者4の視線方向と、が所定の閾値以上離れていた場合、この特定の実オブジェクトが運転者4から視認されにくい状態であると判定してもよい。
また、実オブジェクト視認判定モジュール512は、実オブジェクト位置検出モジュール502が判定した天候などから、特定の実オブジェクトが運転者4から視認されにくい状態であるか(悪天候で運転者4から見て特定の実オブジェクトが視認しづらい環境であるか)を判定することができる。
画像種類決定モジュール516は、例えば、実オブジェクト位置検出モジュール502により検出された画像200を対応付けて表示する実オブジェクトの種類、位置、実オブジェクト関連情報検出モジュール504で検出された実オブジェクト関連情報の種類、数、又は/及び報知必要度検出モジュール506(報知必要度推定モジュール508)で検出された(推定された)報知必要度の大きさに基づいて、実オブジェクトに対して表示する画像200の種類を決定することができる。また、画像種類決定モジュール516は、実オブジェクト視認判定モジュール512による判定結果により、表示する画像200の種類を増減させる。具体的には、実オブジェクト310が運転者4によって視認されにくい状態である場合、実オブジェクトの近傍に運転者4によって視認される画像200の種類が所定の第1表示モードより多い、第2表示モードとする。この処理については、後で詳述する。
画像位置決定モジュール518は、実オブジェクト位置検出モジュール502により検出された実オブジェクトの位置に基づき、画像200の座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。特定の実オブジェクトに関連する画像200を表示する場合、画像位置決定モジュール518は、特定の実オブジェクトと所定の位置関係になるように画像200の座標を決定する。例えば、画像200の中心が実オブジェクトの中心と重なって視認されるように、画像200の左右方向、及び上下方向の位置を決定する。また、画像位置決定モジュール518は、画像200が直接関連しない実オブジェクトを基準に、所定の位置関係になるように、画像200の座標を決定することができる。例えば、図3Aに示すように、自車両1が走行する車線320の左側の区画線321(実オブジェクトの一例)や右側の区画線322(実オブジェクトの一例)を基準に、区画線とは直接関連しない歩行者310(特定の実オブジェクトの一例)に関連する画像212の座標を決定してもよい。なお、『所定の位置関係』は、実オブジェクト又は自車両1の状況、実オブジェクトの種類、表示される画像の種類などにより調整され得る。
画像サイズ決定モジュール520は、実オブジェクト位置検出モジュール502により検出された画像200を対応付けて表示する実オブジェクトの種類、位置、実オブジェクト関連情報検出モジュール504で検出された実オブジェクト関連情報の種類、数、又は/及び報知必要度検出モジュール506(報知必要度推定モジュール508)で検出された(推定された)報知必要度の大きさに基づいて、画像200のサイズを決定することができる。また、画像サイズ決定モジュール520は、画像200の種類の数に応じて、画像サイズを変更できる。例えば、画像200の種類が多くなれば、画像サイズを小さくしてもよい。
目位置検出モジュール522は、自車両1の運転者4の眼の位置を検出する。目位置検出モジュール522は、複数段階で設けられた高さ領域のどこに運転者4の眼の高さがあるかの判定、運転者4の眼の高さ(Y軸方向の位置)の検出、運転者4の眼の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、運転者4の眼の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール522は、例えば、目位置検出部411から運転者4の眼の位置を取得する、又は、目位置検出部411から運転者4の目の高さを含む目の位置を推定可能な情報を受信し、運転者4の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。
グラフィックモジュール524は、表示される画像200の、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、サイズ、表示位置、表示距離(運転者4から画像200までの距離)を変更するための様々な既知のソフトウェア構成要素を含む。グラフィックモジュール524は、画像種類決定モジュール516が設定した種類、画像位置決定モジュール518が設定した座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズ決定モジュール520が設定した画像サイズで運転者4に視認されるように画像200を表示する。グラフィックモジュール524は、自車両1の進行に伴い運転者4から見える前景300が接近すると、その前景300に対する画像200の相対位置が変化していないように、前景300に追従して画像200の位置を連続的に調整してもよく、画像サイズも徐々に大きくなるように調整してもよい。
図3A、図3B、図3Cは、実オブジェクトが運転者によって視認されにくい状態であるか否かの判定に応じた、車両用表示システム10が表示する画像200の変化を示す図であり、左図は運転席から見た景色であり、右図は左図における要所の拡大図である。図3Aでは、特定の実オブジェクト310(歩行者)が、運転者4から見て他の実オブジェクト301(壁)の背後に位置している(特定の実オブジェクト310が運転者4によって視認されにくい状態の一例)場合の画像の表示例(符号211,212,213)を示している。壁301の死角に位置している歩行者310に対して、歩行者310の位置を指示する歩行者310を外側から囲む矩形の指示画像211と、歩行者310の移動方向を示す矢印形状の移動方向画像212と、実オブジェクト310の種類(歩行者)を示すイラストレーションである種類画像213と、の3種類が表示される(第2表示モード)。
図3Bでは、特定の実オブジェクト310(歩行者)が、運転者4から見て他の実オブジェクト301(壁)の死角から出た(特定の実オブジェクト310が運転者4によって視認されやすい状態の一例)直後の画像200の表示例を示している。壁301の背後から出て運転者4から直接視認される位置に移動した直後の歩行者310に対して、歩行者310の位置を指示する歩行者310を外側から囲む矩形の指示画像211と、歩行者310の移動方向を示す矢印形状の移動方向画像212と、実オブジェクト310の種類(歩行者)を示すイラストレーションである種類画像213と、の3種類がそのまま表示される(第2表示モードを維持)。この後、所定の条件が成立した場合、図3Cの表示に移行し、壁301の背後から出て運転者4から直接視認される位置に移動した歩行者310に対して、歩行者310の位置を指示する歩行者310を外側から囲む矩形の指示画像211の1種類の画像のみが表示される(画像の種類が少なくなる)。
画像の種類が少なくなる「所定の条件」は、特定の実オブジェクト310が運転者4によって視認されにくい状態から、特定の実オブジェクト310が運転者4によって視認されやすい状態になってから予め定められた時間が経過したこと、運転者4の視線方向が実オブジェクト310に移動したこと、又はこれらの組み合わせであってもよく、他の条件が追加されてもよく、他の条件に代替えされてもよい。これにより、視認されにくい状態が解除されること(換言すると、実オブジェクトの状態が変化すること)と、画像の種類が減少すること(換言すると、画像の状態が変化すること)と、が同時に起こってしまうことで、視認者が混乱してしまうことを抑制することもできる。但し、所定の条件が成立しなくても、歩行者310が壁301の背後から出て運転者4から直接視認される位置に移動すると直ちに画像の種類を少なくしてもよい。
特定の実オブジェクト310が運転者4によって視認されにくい状態の別の判定例を説明する。図4A、図4Bは、運転者4の視線方向GZと実オブジェクトとの位置関係に応じて実オブジェクトが運転者によって視認されにくい状態であるか否か判定し、判定結果に応じて生じる車両用表示システム10が表示する画像200の変化を示す図であり、左図は運転席から見た景色であり、右図は左図における要所の拡大図である。
図4Aでは、特定の実オブジェクト310(歩行者)が、運転者4から見て他の実オブジェクト301(壁)の背後から外れた位置に存在して運転者4から直接視認される位置であるが、運転者4の視線方向GZが特定の実オブジェクト310(歩行者)から離れている(特定の実オブジェクト310が運転者4によって視認されにくい状態の一例)場合の画像200の表示例を示している。視線方向GZから離れている特定の実オブジェクト310(歩行者)に対して、歩行者310の位置を指示する歩行者310を外側から囲む矩形の指示画像211と、歩行者310の移動方向を示す矢印形状の移動方向画像212と、実オブジェクト310の種類(歩行者)を示すイラストレーションである種類画像213と、の3種類が表示される(第2表示モード)。
図4Bでは、運転者4の視線方向GZが、特定の実オブジェクト310(歩行者)に近づいた(特定の実オブジェクト310が運転者4によって視認されやすい状態の一例)場合の画像200の表示例を示している。視線方向GZが近づいた歩行者310に対して、歩行者310の位置を指示する歩行者310を外側から囲む矩形の指示画像211の1種類の画像のみが表示される(画像の種類が少なくなる)。このように、特定の実オブジェクト310が運転者4によって視認されにくい状態から、特定の実オブジェクト310が運転者4によって視認されやすい状態になった場合に、複数の種類の画像のうち一部のみ非表示とする(一部の種類の画像を残す)。
また、図3C(図3B)、図4Bに示す特定の実オブジェクト310が運転者4によって視認されやすい状態から、図3A、図4Aに示す特定の実オブジェクト310が運転者4によって視認されにくい状態になった場合、実オブジェクト310の近傍に運転者4によって視認される画像の種類を多くする(第2表示モード)。これにより、特定の実オブジェクトが視認されにくい状態であっても、実オブジェクトの近傍に表示される画像の種類が多い(画像の数が多い)ことから視覚的注意を向けやすくすることができ、視線方向が移動した場合に、種類の多い情報を迅速に認識させることもできる。
図5は、いくつかの実施形態に係る、画像の種類の数を変化させる際の表示遷移を説明する図である。表示遷移の順は、図5の(a)、(b)、(c)、(d)の順、又はこの逆である。図5(a)では、歩行者310の近傍に、「項目A」を示す第1画像221と、「項目B」を示す第2画像222、の2種類が表示されている(図5では第2表示モード)。ここで、実オブジェクト310が運転者4によって視認されにくい状態が解除された(又は、これに加えて他の所定の条件も成立した)場合、図5(b)で示すように、第1画像221が非表示(視認性低下でもよい)とされ、その後、図5(c)で示すように、第1画像221と異なる第3画像223が表示された後、図5(d)で示すように、元から表示されていた第2画像222が非表示(視認性低下でもよい)とされる。なお、図5(b)の状態を省略してもよい。この実施形態によれば、画像の種類の数を減少させつつ、表示される画像の種類を追加することができる。
次に、逆の表示遷移について、同じく図5を用いて説明する。図5(d)では、歩行者310の近傍に、「項目C」を示す第3画像223の1種類が表示されている(図5では第1表示モード)。ここで、実オブジェクト310が運転者4によって視認されにくい状態になった(又は、これに加えて他の所定の条件も成立した)場合、図5(c)で示すように第1画像221が表示され、その後、図5(b)で示すように、元から表示されていた第3画像223が非表示(視認性低下でもよい)された後、第3画像223と異なる第1画像221が表示されてもよい。この実施形態によれば、画像の種類の数を増加させつつ、元から表示されていた画像の種類を減少させることができる。なお、「画像の種類が異なる」とは、画像が示す内容が異なること、内容が同じでも形式が異なること、を含んでもよい。
図6は、いくつかの実施形態に係る、画像の表示処理のフロー図である。まず、実オブジェクト310の位置を取得(ステップS1)し、実オブジェクト関連情報を取得(ステップS2)し、実オブジェクト310を運転者4に報知が必要か判定する(ステップS3)。報知が必要でなければ(ステップS3でNo)、処理を終了して、再びステップS1から処理を開始し、報知が必要であれば(ステップS3でYes)、ステップS4に移行する。
ステップS4では、特定の実オブジェクト310が視認されにくい状態であるかを判定し、特定の実オブジェクト310が運転者4によって視認されにくい状態になった(又は、これに加えて他の所定の条件も成立した)場合、特定の実オブジェクト310の近傍に視認される画像の種類を多くする(ステップS5、ステップS7)。一方、特定の実オブジェクト310が運転者4によって視認されにくい状態が解除された(又は、これに加えて他の所定の条件も成立した)場合、特定の実オブジェクト310の近傍に視認される画像の種類を少なくする(ステップS6、ステップS7)。
上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る一般的なハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。
車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施例の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
[変形例]
図1では、表示領域100を、自車両1の進行方向(Z軸方向)に対して垂直に設けられているが、これに限定されない。表示領域100は、例えば、自車両1の車幅方向(X軸方向)を中心に回転し、自車両1の進行方向(Z軸方向)に対して垂直にならないように設けられてもよい。また、表示領域100は、1箇所ではなく、例えば、自車両1の進行方向(Z軸方向)の離れた位置に2箇所以上設けられてもよい。また、表示領域100は、面積領域ではなく、3次元の体積領域であってもよい。すなわち、画像200は、3次元空間に奥行き方向に移動可能であってもよい。換言すると、画像200は、表示距離が変化可能であってもよい。
上述実施形態では、グラフィックモジュール524は、画像200が表示される位置及び画像サイズを連続的に変化させることで、画像200が自車両1に接近しているように視認させていたが、さらに画像200のプロパティデータ(俯角/仰角)を徐々に変化させてもよい。また、さらに、プロパティデータ(方位角)を徐々に変化させてもよい。
1…自車両、2…フロントウインドシールド、4…運転者、5…ダッシュボード、10…車両用表示システム、11…画像表示部、11a…表示光、13…表示制御装置、14…I/Oインタフェース、16…プロセッサ、18…記憶部、20…画像処理回路、100…表示領域、200…画像、211…指示画像、212…移動方向画像、213…種類画像、221…第1画像、222…第2画像、223…第3画像、300…前景、301…実オブジェクト、310…実オブジェクト、320…車線、321…区画線、322…区画線、401…車両ECU、403…道路情報データベース、405…自車位置検出部、407…車外センサ、409…視線方向検出部、411…目位置検出部、413…携帯情報端末、420…車外通信接続機器、502…実オブジェクト位置検出モジュール、504…実オブジェクト関連情報検出モジュール、506…報知必要度検出モジュール、508…報知必要度推定モジュール、510…視線方向検出モジュール、512…実オブジェクト視認判定モジュール、514…車両情報検出モジュール、516…画像種類決定モジュール、518…画像位置決定モジュール、520…画像サイズ決定モジュール、522…目位置検出モジュール、524…グラフィックモジュール、GZ…視線方向

Claims (15)

  1. 車両(1)の運転者から見て前景(300)に重なる領域に画像(200)を表示するヘッドアップディスプレイ装置(11)を制御する表示制御装置(13)において、
    1つ又はそれ以上のI/Oインタフェース(14)と、
    1つ又はそれ以上のプロセッサ(16)と、
    メモリ(18)と、
    前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
    前記1つ又はそれ以上のプロセッサ(16)は、
    前記1つ又はそれ以上のI/Oインタフェース(14)から、前記前景(300)に存在する実オブジェクト(310)の位置情報を取得し、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態であるか判定し、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態である場合、前記実オブジェクト(310)の近傍に前記運転者によって視認されやすい前記画像(200)の種類が所定の第1表示モードより多い、第2表示モードとする、
    命令を実行する、表示制御装置。
  2. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第2表示モードにおいて、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態が解除され、かつ所定の条件が成立した場合、表示されていた前記画像(200)のうち所定の第1画像(221)を視認されにくくする、
    命令をさらに実行する請求項1に記載の表示制御装置。
  3. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第2表示モードにおいて、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態が解除され、かつ所定の条件が成立した場合、表示されていた第1画像(221)と第2画像(222)のうち前記第1画像(221)を非表示とし、かつ前記第1画像(221)と異なる第3画像(223)を表示させた後、前記第2画像(222)を視認されにくくする、
    命令をさらに実行する請求項1に記載の表示制御装置。
  4. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記車両(1)の低速走行又は停止を推定可能な情報を検出し、
    前記第1表示モードにある際に、前記車両(1)が低速走行又は停止していると推定できた場合、前記実オブジェクト(310)の近傍に前記運転者によって視認される前記画像(200)の種類を多くする、
    命令をさらに実行する請求項1乃至3のいずれかに記載の表示制御装置。
  5. 前記第1表示モード及び前記第2表示モードにて表示される前記画像(200)は、前記実オブジェクト(310)の前記位置情報に基づいて、表示される位置及びサイズが変化する指示画像(211)を含む、
    請求項1乃至3のいずれかに記載の表示制御装置。
  6. 前記第1表示モードから前記第2表示モードに遷移する際に追加される前記画像(200)は、前記実オブジェクト(310)の移動方向を示す移動方向画像(213)を含む、
    請求項1乃至3のいずれかに記載の表示制御装置。
  7. 前記実オブジェクト(310)が前記運転者によって視認されにくい状態は、
    前記運転者の視線が前記実オブジェクト(310)から離れていること、
    前記実オブジェクト(310)が前記運転者から見て障害物で遮られていること、
    のいずれか一方を少なくとも含む、請求項1乃至3のいずれかに記載の表示制御装置。
  8. 車両(1)の運転者から見て前景(300)に重なる領域に画像(200)を表示するヘッドアップディスプレイ装置(11)を制御する方法であって、
    前記前景(300)に存在する実オブジェクト(310)の位置情報を取得することと、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態であるか判定することと、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態である場合、前記実オブジェクト(310)の近傍に前記運転者によって視認される前記画像(200)の種類が所定の第1表示モードより多い、第2表示モードとすることと、
    を含む方法。
  9. 前記第2表示モードにおいて、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態が解除され、かつ所定の条件が成立した場合、表示されていた前記画像(200)のうち所定の第1画像(221)を視認されにくくする、
    請求項8に記載の方法。
  10. 前記第2表示モードにおいて、
    前記実オブジェクト(310)が前記運転者によって視認されにくい状態が解除され、かつ所定の条件が成立した場合、表示されていた前記画像(200)のうち所定の第1画像(221)を非表示とし、かつ前記第1画像(221)と異なる第2画像(222)を表示させた後、前記第1画像(221)及び前記第2画像(222)と異なる第3画像(223)を視認されにくくする、
    請求項8に記載の方法。
  11. 前記車両(1)の低速走行又は停止を推定可能な情報を検出することと、
    前記第1表示モードにある際に、前記車両(1)が低速走行又は停止していると推定できた場合、前記実オブジェクト(310)の近傍に前記運転者によって視認される前記画像(200)の種類を多くすることと、
    をさら含む請求項8乃至10のいずれかに記載の方法。
  12. 前記第1表示モード及び前記第2表示モードにて表示される前記画像(200)は、前記実オブジェクト(310)の前記位置情報に基づいて、表示される位置及びサイズが変化する指示画像(211)を含む、
    請求項8乃至10のいずれかに記載の表示制御装置。
  13. 前記第1表示モードから前記第2表示モードに遷移する際に追加される前記画像(200)は、前記実オブジェクト(310)の移動方向を示す移動方向画像(213)を含む、
    請求項8乃至10のいずれかに記載の方法。
  14. 前記実オブジェクト(310)が前記運転者によって視認されにくい状態は、
    前記運転者の視線が前記実オブジェクト(310)から離れていること、
    前記実オブジェクト(310)が前記運転者から見て障害物で遮られていること、
    のいずれか一方を少なくとも含む、
    請求項8乃至10のいずれかに記載の方法。
  15. 請求項8乃至10のいずれかに記載の方法を実行するための命令を含む、コンピュータ・プログラム。
JP2018219803A 2018-11-23 2018-11-23 表示制御装置、方法、及びコンピュータ・プログラム Pending JP2020086882A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219803A JP2020086882A (ja) 2018-11-23 2018-11-23 表示制御装置、方法、及びコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219803A JP2020086882A (ja) 2018-11-23 2018-11-23 表示制御装置、方法、及びコンピュータ・プログラム

Publications (1)

Publication Number Publication Date
JP2020086882A true JP2020086882A (ja) 2020-06-04

Family

ID=70910006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219803A Pending JP2020086882A (ja) 2018-11-23 2018-11-23 表示制御装置、方法、及びコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP2020086882A (ja)

Similar Documents

Publication Publication Date Title
KR102504579B1 (ko) 차량 혼합 현실의 조건부 가용성
EP2857886B1 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US9809165B1 (en) System and method for minimizing driver distraction of a head-up display (HUD) in a vehicle
JP2018032402A (ja) 車載拡張現実システム向けの遮蔽調整システム
JP2020032866A (ja) 車両用仮想現実提供装置、方法、及びコンピュータ・プログラム
US20190244515A1 (en) Augmented reality dsrc data visualization
US10922976B2 (en) Display control device configured to control projection device, display control method for controlling projection device, and vehicle
JP7255608B2 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2023174676A (ja) 車両用表示制御装置、方法およびプログラム
JP2022186841A (ja) 車両用制御装置、方法、プログラムおよび車両用表示装置
JP7459883B2 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
JP2020117105A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020086884A (ja) 区画線推定装置、表示制御装置、方法、及びコンピュータ・プログラム
WO2020158601A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
WO2021200914A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
JP2020121607A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020086882A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020121704A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
JP2020154468A (ja) 運転支援装置、方法、及びコンピュータ・プログラム
JP2019121140A (ja) 表示制御装置、ヘッドアップディスプレイ装置
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法
JP7434894B2 (ja) 車両用表示装置
JP2020106911A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法