JP6315383B2 - 表示制御プログラムおよび表示制御装置 - Google Patents

表示制御プログラムおよび表示制御装置 Download PDF

Info

Publication number
JP6315383B2
JP6315383B2 JP2014215403A JP2014215403A JP6315383B2 JP 6315383 B2 JP6315383 B2 JP 6315383B2 JP 2014215403 A JP2014215403 A JP 2014215403A JP 2014215403 A JP2014215403 A JP 2014215403A JP 6315383 B2 JP6315383 B2 JP 6315383B2
Authority
JP
Japan
Prior art keywords
image
display
predetermined
displayed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014215403A
Other languages
English (en)
Other versions
JP2016081464A (ja
Inventor
望月 誠
誠 望月
渉 仲井
渉 仲井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014215403A priority Critical patent/JP6315383B2/ja
Publication of JP2016081464A publication Critical patent/JP2016081464A/ja
Application granted granted Critical
Publication of JP6315383B2 publication Critical patent/JP6315383B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両等の乗員に対して提供される情報の表示を制御する表示制御プログラムおよび表示制御装置に関する。
近年、車両のウインドシールドに画像を投影することで、運転者等の乗員に画像を視認させるヘッドアップディスプレイ(Head‐Up Display:HUD)装置の開発が盛んである。この装置では、現実世界の対象物(例えば、他の車両、歩行者、建物など)に重畳するように画像を投影することで、対象物の視認性を向上させることができる。
このようなヘッドアップディスプレイ装置では、乗員の視界において、いわゆる二重像の問題が生じる。すなわち、現実世界の対象物の位置に重畳して、ウインドシールドに対象物を強調する表示を行う場合、乗員が注視している対象物までの距離と、乗員の視点からウインドシールド上に表示される画像までの距離が異なる。この場合、乗員からは図1に示すように、乗員が注視する対象物10(歩行者)を挟んで、ウインドシールド20上に表示される画像30が左右に並んで二重に見える。その結果、乗員が、表示される情報を正しく認識できないという問題があった。
二重像の問題を解決する方法としては、例えば、特許文献1に開示された方法がある(以下、従来技術という)。
従来技術では、二重像の影響を抑制することを目的として、カメラ等で検出された対象物の位置に重畳させて、二重像として視認されても違和感を与えない画像を生成して表示する。具体的には、図2に示すように、ドットパターン形状の画像40を生成し、その画像40を対象物10と対応付けてウインドシールド20上に表示することにより、二重像が生じた場合でも、乗員が対象物の存在およびその位置を把握できるとしている。
特許第4970379号公報
しかしながら、上述した従来技術では、ウインドシールド上の表示が左右に分離することによって対象物の視認性が低下することを防止できるが、二重像の影響で、対象物の位置に重畳される画像の表示領域が大きくなるため、乗員に対して対象物を正確に把握させることは困難であった。
本発明の目的は、乗員に対して対象物の存在を正確に把握させることができる表示制御プログラムおよび表示制御装置を提供することである。
本発明の一態様に係る表示制御プログラムは、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおけるコンピュータに実行させる表示制御プログラムであって、前記コンピュータに、前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定し、前記表示媒体に表示されたときに、前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、前記表示媒体に表示されたときに、前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する処理を実行させ、前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、前記第1の右側画像は、前記複数の要素のうちの一部の要素である第1の要素から構成され、前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、前記第2の右側画像は、前記複数の要素のうちの一部の要素であり、かつ、前記第1の要素と異なる第3の要素から構成され、前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される。
本発明の一態様に係る表示制御装置は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおける表示制御装置であって、前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定する決定部と、前記表示媒体に表示されたときに前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、前記表示媒体に表示されたときに前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する制御部と、を備え、前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、前記第1の右側画像は、前記複数の要素のうち一部の第1の要素から構成され、前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、前記第2の右側画像は、前記複数の要素のうち一部、かつ、前記第1の要素と異なる第3の要素から構成され、前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される。
本発明によれば、乗員に対して対象物の存在を正確に把握させることができる。
従来技術の問題点を説明する図である。 従来技術(特許文献1に記載の技術)の問題点を説明する図である。 本実施の形態に係る表示システムの構成例を示すブロック図である。 車両の横方向および前方方向におけるカメラと歩行者との距離を示す図である。 本実施の形態に係る表示システムの動作例を示すフローチャートである。 対象物表示位置に対して右側位置および左側位置を決定する処理を説明する図である。 対象物表示位置に対して右側位置および左側位置を決定する処理を説明する図である。 仮想画像の表示処理を説明する図である。 仮想画像の表示処理を説明する図である。 表示媒体に表示される2つの仮想画像と、運転者からの当該仮想画像の見え方との関係を示す。 本実施の形態に係る表示システムの動作の変形例を示すフローチャートである。 表示媒体に表示される2つの仮想画像と、運転者からの当該仮想画像の見え方との関係を示す。 表示媒体に表示される2つの仮想画像と、運転者からの当該仮想画像の見え方との関係を示す。 本発明の実施の形態に係る表示システム、表示制御装置のハードウェア構成例を示すブロック図である。
以下、本発明の実施の形態について図面を参照しながら説明する。
まず、本実施の形態に係る表示システム100の構成例について図3を用いて説明する。図3は、本実施の形態に係る表示システム100の構成例を示すブロック図である。
表示システム100は、例えば、車両等の移動体において用いられ、車両の運転を支援するシステムである。具体的には、表示システム100は、移動体の周辺に存在する歩行者の情報を認識し、乗員に対して歩行者の存在を示す情報を提示することで、交通事故を未然に防止するシステムである。なお、表示システム100は、移動体の前方車両を検出し、その前方車両に関する情報を表示することで、前方車両との追突を防止するシステムであっても良い。また、表示システム100は、移動体の前方を走行中の自転車を検出し、その自転車に関する情報を表示することで、自転車との衝突を防止するシステムであっても良い。
さらに、表示システム100は、車載機器であっても良いし、車両に持ち込まれる機器であっても良い。また、表示システム100が車両に適用されたものとして説明するが、移動体は、車両に限定されず、船舶、航空機等であっても良い。また、本実施の形態では、ユーザーが車両の乗員、特に車両の運転者である例について説明するが、その限りではない。さらには、表示システム100は、ユーザーが身体に装着に可能なウェラブルコンピュータ(例えば、後述するHMD)において用いられても良い。
表示システム100には、図1に示すように、カメラ110、カメラ120、表示媒体130が接続される。
カメラ110は、車両の内部または外部に搭載され、運転者の前方の視界(以下、「前景」という)を撮影する。カメラ110により撮影された画像(以下、「前景画像」という)は、認識部101へ出力される。なお、本実施の形態では、前景をセンシングする手段としてカメラ110を用いるとするが、これに限定されるものではなく、例えばレーダー等を用いても良い。
カメラ120は、インナーカメラまたはドライバモニタリングカメラと呼ばれるカメラであり、車両の内部に搭載され、運転者の顔を撮影し、その撮影した顔画像に基づいて運転者の視点方向を検知する。カメラ120により検知された運転者の視点方向を示す情報(以下、「視点方向情報」という)は、認識部101へ出力される。また、カメラ120により撮影された顔画像は、特定部102へ出力される。
表示媒体130は、車両において用いられ、後述する表示部104で生成された仮想画像(詳細は後述する)が表示される媒体である。本実施の形態では、表示媒体130は、光を透過する透過型の表示媒体である。
表示媒体130としては、例えば、ヘッドアップディスプレイ(Head Up Display:HUD)、LCD(Liquid Crystal Display)、HMD(Head‐Mounted DisplayまたはHelmet‐Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、ナビゲーション用ディスプレイ、メータディスプレイ、その他の専用のディスプレイなどが適用される。また、HUDは、例えば、車両のウインドシールドであっても良いし、別途設けられるガラス面、プラスチック面(例えば、コンバイナ)などであっても良い。また、ウインドシールドは、例えば、フロントガラスであっても良いし、車両のサイドガラスまたはバックガラスであっても良い。
さらに、HUDは、ウインドシールドの表面または内側に備えられた透過型ディスプレイであっても良い。ここで、透過型ディスプレイとは、例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイである。運転者は、背景を視認すると同時に、透過型ディスプレイ上の表示を視認することができる。このように表示媒体130は、光を透過する表示媒体である。いずれの場合も、仮想画像は表示媒体130に表示される。
なお、図1の例では、表示システム100は、表示媒体130を含まない構成としたが、表示媒体130を含む構成としても良い。
図1において、表示システム100は、認識部101、特定部102、表示制御装置103および表示部104を有する。また、表示制御装置103は、決定部105、制御部106を有する。以下、各部について説明する。
認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に対してパターンマッチング処理等を行うことによって対象物を認識する。前景をセンシングする手段としてカメラ110の代わりにレーダーを用いた場合には、認識部101は、クラスタリングまたは機械学習等により対象物を抽出して認識する。
また、認識部101は、対象物を認識した場合、その対象物の位置を算出する。対象物とは、例えば、移動体(例えば、車両、人物、自転車、二輪車等)、道路上の白線、標識、路面標示、縁石、ガードレール、信号機、電柱、車両、人物、建物などである。なお、対象物の認識処理および対象物の位置の算出処理は公知のため、詳細な説明は省略する。
また、認識部101は、所定の対象物を認識した場合、その対象物の輪郭を検出する。例えば、認識部101は、前景画像に対して、特定の微分フィルタによるエッジ抽出を行うことで、対象物の輪郭を検出する。そして、認識部101は、検出した対象物の輪郭に基づいて、当該対象物の種別を特定する。なお、対象物のエッジの検出処理は公知のため、詳細な説明は省略する。本実施の形態では、所定の対象物を認識した場合、その対象物の輪郭を検出する例について説明しているが、対象物の輪郭を検出する処理は必ずしも必須ではない。例えば、歩行者の輪郭に合わせて人型のマーカー(虚像)をぴったりと重畳させる場合には、対象物の輪郭を検出する必要があるものの、定型の人型のマーカーのテンプレート(パラパラ漫画のようなもの)を歩行者の位置に合わせて表示する場合には対象物の輪郭を検出する必要はないからである。
なお、認識部101は、対象物の種別を歩行者として特定した場合、図4に示すように、歩行者の位置(X、Y)、車両の進行方向に対する歩行者の相対角度、歩行者と車両との相対速度等を認識する。歩行者の位置(X、Y)は、カメラ110が設置された位置を基準点(図中の点O)として、車両の横方向および前方方向をそれぞれX軸およびY軸とするカメラ座標系における座標である。すなわち、歩行者の位置Xは、車両の横方向におけるカメラ110と歩行者との距離を示す。歩行者の位置Yは、車両の進行方向におけるカメラ110と歩行者との距離を示す。
認識部101は、対象物の位置および種別を含む情報(以下、「対象物位置情報」という)を特定部102に出力する。認識部101は、複数の対象物を認識した場合、カメラ120から出力された視点方向情報を取得し、その取得した視点方向情報に示される視点方向すなわち運転者が注視する方向に位置する対象物を特定する。そして、認識部101は、特定した対象物の位置および種別を含む対象物位置情報を特定部102に出力する。また、認識部101は、対象物の輪郭を示す情報(以下、「輪郭情報」という)を表示制御装置103の制御部106に出力する。輪郭情報には、輪郭の形状を示す情報の他、輪郭の位置および対象物の種別を示す情報も含まれる。
特定部102は、カメラ120から出力された顔画像に基づいて運転者の目の領域(以下、「目領域」という)を検出する。目領域とは、例えば、両眼を含む所定の領域である。なお、顔画像に対して画像処理を行うことで目領域を検出する処理は公知のため、詳細な説明は省略する。また、本実施の形態では、特定部102が顔画像に基づいて目領域を検出するとしたが、目領域は、例えば、予め定められた領域でも良いし、または、運転者の視線を検知する視線検知部(図示略)が検知した視線に基づいて検出した領域でも良い。
そして、特定部102は、検出した目領域のうちの所定の点(例えば、左右いずれかの目、または、左目と右目との間の中心)の位置、認識部101から出力された対象物位置情報に示される対象物の位置、表示媒体130の位置の関係から、対象物が表示される表示媒体130上の位置(以下、「対象物表示位置」という)を特定する。この対象物表示位置は、換言すれば、目領域の所定点から表示媒体130を介して対象物が観察されたときにおける、対象物の表示媒体130上の位置である。なお、対象物表示位置の特定処理は公知のため、詳細な説明は省略する。
そして、特定部102は、対象物表示位置を示す情報(以下、「対象物表示位置情報」という)を表示制御装置103の決定部105に出力する。
決定部105は、認識部101による対象物の認識結果に基づいて、表示媒体130上において、特定部102から出力された対象物表示位置情報に示される対象物表示位置から所定の距離だけ離れた右側位置、および、対象物表示位置に対して右側位置と実質的に対称の位置である左側位置を決定する。右側位置および左側位置の具体的な決定方法については後述する。決定部105は、決定した左側位置および右側位置を示す情報(以下、「左右位置情報」という)を制御部106に出力する。
制御部106は、認識部101から出力された輪郭情報に基づいて仮想画像を生成し、その仮想画像を、決定部105から出力された左右位置情報に基づいて表示媒体130に表示するように表示部104を制御する。例えば、制御部106は、輪郭情報および左右位置情報に基づいて、仮想画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力することで表示部104を制御する。なお、制御部106による制御の詳細は、後述する。
表示部104は、制御部106から出力された制御情報に基づいて、仮想画像を生成し、その仮想画像を表示媒体130に表示する。例えば表示媒体130がHUDである場合、表示部104は、プロジェクタ機能を用いて、仮想画像を表示媒体130に投射(投影)する。これにより、仮想画像は、運転者に虚像として視認される。なお、表示媒体に投射された仮想画像が虚像として運転者に視認される原理は公知のため、詳細な説明は省略する。
本実施の形態では、仮想画像を表示媒体130に投射して乗員に虚像として認識させることと、仮想画像を表示媒体130に表示することとは同義であるとして、以下説明する。すなわち、以下の説明において、HUDへ仮想画像が投射されて、乗員に虚像として視認される事象を、表示と形容する。
なお、表示部104は、プロジェクタ機能を用いる代わりに、例えば、ホログラムの原理を用いてHUDに仮想画像を表示させても良い。ホログラムを用いる場合、導光板の内部全反射条件を満たす平行光束群を内部全反射して導光する導光板を用いる方式でも良い。導光板を用いた方式においては、プロジェクタのように仮想画像を直接的に投射するものではないが、説明の便宜上、プロジェクタ方式と同様に投射または表示という定義で説明する。
また、本実施の形態では、表示部104が仮想画像を生成するとしたが、仮想画像は、表示制御装置103または図示しない他の構成要素によって生成されても良い。
また、表示部104を表示制御装置103に含めることで投影装置として構成しても良い。
次に、本実施の形態に係る表示システム100の動作例について図5を用いて説明する。図5は、本実施の形態に係る表示システム100の動作例を示すフローチャートである。ステップS100における処理は、例えば車両のエンジンがオフ状態からオン状態となることに連動して表示システム100が起動されることにより開始される。
まず、認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に対してパターンマッチング処理等を行うことによって対象物を認識する(ステップS100)。そして、認識部101は、対象物の位置および種別を含む対象物位置情報を特定部102に出力する。また、認識部101は、対象物の輪郭を示す輪郭情報を表示制御装置103の制御部106に出力する。
次に、特定部102は、認識部101から出力された対象物位置情報に含まれる対象物の種別が歩行者であるか否かについて判定する(ステップS120)。この判定の結果、対象物の種別が歩行者でない場合(ステップS120、NO)、処理はステップS220に遷移する。一方、対象物の種別が歩行者である場合(ステップS120、YES)、特定部102は、運転者の目領域のうちの所定の点の位置、認識部101から出力された対象物位置情報に示される歩行者(対象物)の位置、表示媒体130の位置の関係から、歩行者が表示される表示媒体130上の位置である対象物表示位置を特定する(ステップS140)。そして、特定部102は、対象物表示位置を示す対象物表示情報を表示制御装置103の決定部105に出力する。
次に、決定部105は、認識部101による対象物の認識結果に基づいて、表示媒体130上において、特定部102から出力された対象物表示位置情報により示される対象物表示位置から所定の距離だけ離れた右側位置、および、対象物表示位置に対して右側位置と実質的に対称の位置である左側位置を決定する(ステップS160)。そして、決定部105は、決定した左側位置および右側位置を示す左右位置情報を制御部106に出力する。
ここで、図6を参照し、ステップS160の処理について説明する。図6において、200は車両の前方に位置する歩行者、220は運転者の左目、230は運転者の右目を模式的に示したものである。図6の例では、歩行者200は、運転者の正面、すなわち左目220と右目230との間の中心225の正面に位置する。212は、特定部102により特定された、歩行者200が表示される表示媒体130上の位置(対象物表示位置)を示している。L1は、運転者の視点(左目220、右目230)から表示媒体130までの距離である。決定部105は、予め定められたカメラ120と表示媒体130との位置関係、カメラ120により撮影された運転者の顔画像に基づいて、距離L1を算出することができる。L2は、表示媒体130から歩行者200までの距離である。決定部105は、歩行者200からカメラ110までの距離と、予め定められたカメラ110から表示媒体130までの距離に基づいて、距離L2を算出することができる。L3は、運転者の左目220および右目230の間隔(平均的には、6〜7[cm])である。決定部105は、カメラ120により撮影された運転者の顔画像に基づいて、距離L3を算出することができる。この場合、決定部105は、対象物表示位置212から所定の距離dだけ離れた右側位置216および左側位置214を決定する。距離dは、以下の式(1)により算出することができる。
d=1/2×L2×L3/(L1+L2)・・・(1)
なお、距離L3を算出する際、必ずしも、カメラ120により撮影された運転者の顔画像に基づく必要はない。すなわち、カメラ120を設けることは必ずしも必須ではない。距離L3として、例えば6.5[cm]等の所定値を設定しても良い。
図6では、歩行者200が運転者の正面に位置する場合について説明したが、歩行者200の位置が運転者の正面から左右にずれた場合についても、右側位置216および左側位置214を同様に決定することができる。図7は、歩行者200の位置が運転者の正面から左方向にずれた場合を示している。この場合においても、対象物表示位置212と、右側位置216および左側位置214との距離dは、上記の式(1)を用いて算出することができる。また、図6や図7において、運転者の頭部の位置が歩行者200の位置から左右にずれた場合についても、右側位置216および左側位置214を同様に決定することができる。また、運転者の頭部位置が車両のロール方向(言い換えると車両の進行方向に対して垂直な平面上を、運転者が首をかしげように回転する方向)に回転する場合には、決定部105は、その回転角度と同じ角度だけ右側位置216および左側位置214を中心として回転させた位置に決定する。
制御部106は、認識部101から出力された輪郭情報と、決定部105から出力された左右側位置情報に基づいて、仮想画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力する。
ここで、図8を参照し、仮想画像の表示処理について説明する。図8において、301、302は、表示媒体130上の左側位置214および右側位置216にそれぞれ表示される仮想画像である。303は、運転者が表示媒体130上に表示される仮想画像301(本発明の「第1の左側画像」に対応)を右目230で見ることにより、歩行者200の左方向に見える虚像である。304は、運転者が表示媒体130上に表示される仮想画像302(本発明の「第1の右側画像」に対応)を左目220で見ることにより、歩行者200の右方向に見える虚像である。仮想画像301,302は、同じ色および輝度で表示されることが好ましい。305は、運転者が歩行者200を注視した際、仮想画像301の二重像のうち虚像303以外の虚像と、仮想画像302の二重像のうち虚像304以外の虚像とが歩行者200の位置で組み合わさって見える人の形状の虚像である。
ここで、仮想画像301と仮想画像302とは複数の要素から構成される第1の所定画像であり、仮想画像302は、第1の所定画像を構成する複数の要素のうちの一部である第1の要素から構成され、仮想画像301は、上記複数の要素のうち第1の要素以外の第2の要素から構成される。
このように、歩行者200の位置に人の形状を示す虚像を見えるようにすることで、運転者に対して歩行者200の存在を把握させることができる。
次に、表示部104は、制御部106から出力された制御情報に基づいて、仮想画像を生成する(ステップS180)。続いて、表示部104は、生成した仮想画像を表示媒体130に表示する(ステップS200)。
その後、表示システム100は、処理を終了させる必要があるか否かについて判定する(ステップS220)。例えば、表示システム100は、車両のエンジンがオン状態からオフ状態となることに連動して表示システム100が停止される場合に処理を終了させる必要があると判定する一方、車両のエンジンがオン状態からオフ状態となっていない場合に処理を終了させる必要がないと判定する。
判定の結果、処理を終了させる必要がある場合(ステップS220、YES)、表示システム100は、図5における処理を終了する。一方、処理を終了させる必要がない場合(ステップS220、NO)、処理はステップS100以降の処理が再度実行される。その後、ステップS200において仮想画像を表示する場合には、前回のステップS200において表示された仮想画像とは異なる仮想画像が表示される。具体的には、第1の所定画像を構成する複数の要素を仮想画像301と仮想画像302とに分けた際の分け方とは異なる分け方で複数の要素を分けた左右2つの仮想画像が表示される。この点に関して、図9を用いて詳しく説明する。
図9において、401、402は、表示媒体130上の左側位置214および右側位置216にそれぞれ表示される仮想画像である。403は、運転者が表示媒体130上に表示される仮想画像401(本発明の「第2の左側画像」に対応)を右目230で見ることにより、歩行者200の左方向に見える虚像である。404は、運転者が表示媒体130上に表示される仮想画像402(本発明の「第2の右側画像」に対応)を左目220で見ることにより、歩行者200の右方向に見える虚像である。仮想画像401,402は、同じ色および輝度で表示されることが好ましい。405は、運転者が歩行者200を注視した際、仮想画像401の二重像のうち虚像403以外の虚像と、仮想画像402の二重像のうち虚像404以外の虚像とが歩行者200の位置で組み合わさって見える人の形状の虚像である。
ここで、仮想画像401と仮想画像402とは複数の要素から構成される第2の所定画像であり、仮想画像402は、第2の所定画像を構成する複数の要素のうち一部であって、かつ、第1の要素と異なる第3の要素から構成され、仮想画像401は、上記複数の要素のうち第3の要素以外の第4の要素から構成される。すなわち、仮想画像401,402はそれぞれ、仮想画像301、302とは異なる要素から構成される異なる画像である。
以上のように、本実施の形態では、二重像の発生を想定した上で表示媒体130上の左側位置214に仮想画像301,401を表示し、右側位置216に仮想画像302,402を表示している。さらに、本実施の形態では、表示媒体130上の左側位置214および右側位置216に表示させる仮想画像を時間が経過するにつれ変更させる。これにより、運転者に対して、虚像303,304,305,403,404,405のうち歩行者200の位置に重畳される虚像305,405のみが明瞭に表示されることになり、運転者に歩行者の存在を正確に把握させることができる。この点について、以下でさらに詳しく説明する。
図10は、時々刻々と表示媒体130の左側位置214および右側位置216に表示される2つの仮想画像と、歩行者200の左方向に見える虚像、歩行者200の位置に重畳されて見える虚像、および歩行者200の右方向に見える虚像との関係を示す。図10に示すように、時間の経過に伴い歩行者200の位置に重畳されて見える虚像を構成する要素の位置および数は大きく変化せず、当該仮想画像は運転者に明瞭に視認される。一方、時間の経過に伴い、歩行者200の左および右方向に見える虚像を構成する要素の位置および数は高速で大きく変化するため、当該虚像は運転者にぼやけて視認される。すなわち、歩行者200の位置に重畳されて表示される虚像のみが運転者に明瞭に視認されるため、運転者は、歩行者の存在を正確に把握することができる。
ここで、一般に、人間が知覚できる明暗の限界周波数である臨界融合周波数(CFF:Critical Flicker Frequency)は、30〜40[Hz]と言われている。そこで、表示媒体130の左側位置214および右側位置216に2つの仮想画像を表示させる時間間隔を、臨界融合周波数以上の周波数の逆数とすることにより、歩行者200の左および右方向において、運転者が虚像を認識できないようにすることができる。
なお、上記実施の形態では、対象物として歩行者を1回認識する毎に、表示媒体130に2つの仮想画像を1回表示する例について説明したが、対象物として歩行者を1回認識する毎に、表示媒体130に2つの仮想画像をN回(Nは1より大きい自然数)切り替えて表示するようにしても良い。この場合における表示システム100の動作について、図11を参照して説明する。図11は、本実施の形態に係る表示システム100の動作の変形例を示すフローチャートである。ステップS300における処理は、例えば車両のエンジンがオフ状態からオン状態となることに連動して表示システム100が起動されることにより開始される。
まず、認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に対してパターンマッチング処理等を行うことによって対象物を認識する(ステップS300)。そして、認識部101は、対象物の位置および種別を含む対象物位置情報を特定部102に出力する。また、認識部101は、対象物の輪郭を示す輪郭情報を表示制御装置103の制御部106に出力する。
次に、特定部102は、認識部101から出力された対象物位置情報に含まれる対象物の種別が歩行者であるか否かについて判定する(ステップS320)。この判定の結果、対象物の種別が歩行者でない場合(ステップS320、NO)、処理はステップS500に遷移する。一方、対象物の種別が歩行者である場合(ステップS320、YES)、特定部102は、運転者の目領域のうちの所定の点の位置、認識部101から出力された対象物位置情報に示される歩行者(対象物)の位置、表示媒体130の位置の関係から、歩行者が表示される表示媒体130上の位置である対象物表示位置を特定する(ステップS340)。そして、特定部102は、対象物表示位置を示す対象物表示位置情報を表示制御装置103の決定部105に出力する。
次に、決定部105は、認識部101による対象物の認識結果に基づいて、表示媒体130上において、特定部102から出力された対象物表示位置情報により示される対象物表示位置から所定の距離だけ離れた右側位置、および、対象物表示位置に対して右側位置と実質的に対称の位置である左側位置を決定する(ステップS360)。そして、決定部105は、決定した左側位置および右側位置を示す左右位置情報を制御部106に出力する。
制御部106は、認識部101から出力された輪郭情報と、決定部105から出力された左右側位置情報に基づいて、仮想画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力する。
次に、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を第1仮想画像として生成する(ステップS380)。次に、表示部104は、生成した第1仮想画像を表示媒体130に表示する(ステップS400)。
次に、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を第2仮想画像として生成する(ステップS420)。次に、表示部104は、生成した第2仮想画像を表示媒体130に表示する(ステップS440)。その後も、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を生成して表示媒体130に表示する処理を繰り返す。そして、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を第N仮想画像として生成する(ステップS460)。次に、表示部104は、生成した第N仮想画像を表示媒体130に表示する(ステップS480)。ステップS400〜S480の処理においては、表示媒体130上の左側位置214および右側位置216に表示させる仮想画像を時々刻々と変更させている。
最後に、表示システム100は、処理を終了させる必要があるか否かについて判定する(ステップS500)。判定の結果、処理を終了させる必要がある場合(ステップS500、YES)、表示システム100は、図11における処理を終了する。一方、処理を終了させる必要がない場合(ステップS500、NO)、処理はステップS300の前に戻る。
また、上記実施の形態では、人の形状の虚像が歩行者200の位置に見えるように、表示媒体130の左側位置214および右側位置216に、当該虚像を生じさせる要素から構成される仮想画像301,302,401,402を表示させる例について説明したが、本発明はこれに限定されない。
例えば、図12に示すように、円形状の虚像が歩行者200の位置に見えるように、扇形または半円形の複数の要素から構成される所定画像を表示させるようにしてもよい。この所定画像は、表示媒体130の左側位置214に表示される仮想画像と、右側位置216に表示される仮想画像とからなる。そして、右側位置216に表示される仮想画像は、上記所定画像を構成する複数の要素のうちの一部の要素からなり、右側位置216に表示される仮想画像は、上記複数の要素のうち上記一部の要素以外の他の要素からなる。
また、図13に示すように、長方形の枠形状の虚像が歩行者200の位置に見えるように、四角形または角の一部が丸くなった四角形である複数の要素から構成される所定画像を表示させるようにしてもよい。この所定画像も、表示媒体130の左側位置214に表示される仮想画像と、右側位置216に表示される仮想画像とからなる。そして、右側位置216に表示される仮想画像は、上記所定画像を構成する複数の要素のうちの一部の要素からなり、右側位置216に表示される仮想画像は、上記複数の要素のうち上記一部の要素以外の他の要素からなる。
上述した表示システム100、表示制御装置103の各部の機能は、コンピュータプログラムにより実現され得る。
図14は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ1000は、入力ボタン、タッチパッドなどの入力装置1001、ディスプレイ、スピーカなどの出力装置1002、CPU(Central Processing Unit)1003、ROM(Read Only Memory)1004、RAM(Random Access Memory)1005を備える。また、コンピュータ1000は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置1006、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1007、ネットワークを介して通信を行う送受信装置1008を備える。上記各部は、バス1009により接続される。
そして、読取装置1007は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1006に記憶させる。あるいは、送受信装置1008が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置1006に記憶させる。
そして、CPU1003が、記憶装置1006に記憶されたプログラムをRAM1005にコピーし、そのプログラムに含まれる命令をRAM1005から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM1005または記憶装置1006には、上記実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
本発明は、乗員に対して対象物の存在を正確に把握させることができる表示制御プログラムおよび表示制御装置に有用である。
100 表示システム
101 認識部
102 特定部
103 表示制御装置
104 表示部
105 決定部
106 制御部
110,120 カメラ
130 表示媒体
200 歩行者
212 対象物表示位置
214 左側位置
216 右側位置
220 左目
225 中心
230 右目
301,302,401,402 仮想画像
303,304,305,403,404,405 虚像
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 ROM
1005 RAM

Claims (4)

  1. 移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、
    前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、
    前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、
    を含む表示システムにおけるコンピュータに実行させる表示制御プログラムであって、
    前記コンピュータに、
    前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定し、
    前記表示媒体に表示されたときに、前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、
    前記表示媒体に表示されたときに、前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する処理を実行させ、
    前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、
    前記第1の右側画像は、前記複数の要素のうちの一部の要素である第1の要素から構成され、
    前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、
    前記第2の右側画像は、前記複数の要素のうちの一部の要素であり、かつ、前記第1の要素と異なる第3の要素から構成され、
    前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される、
    表示制御プログラム。
  2. 移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、
    前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、
    前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、
    を含む表示システムにおける表示制御装置であって、
    前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定する決定部と、
    前記表示媒体に表示されたときに前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、前記表示媒体に表示されたときに前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する制御部と、
    を備え、
    前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、
    前記第1の右側画像は、前記複数の要素のうち一部の第1の要素から構成され、
    前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、
    前記第2の右側画像は、前記複数の要素のうち一部、かつ、前記第1の要素と異なる第3の要素から構成され、
    前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される、
    表示制御装置。
  3. 前記第1のタイミングと前記第2のタイミングとの間の時間間隔は、臨界融合周波数以上の周波数の逆数である、
    請求項2に記載の表示制御装置。
  4. 前記所定の対象物は、前記乗員が注視している対象物であり、
    前記認識部は、前記乗員の視点方向情報を取得し、取得した当該視点方向情報に基づいて、前記所定の対象物を認識する、
    請求項2または3に記載の表示制御装置。
JP2014215403A 2014-10-22 2014-10-22 表示制御プログラムおよび表示制御装置 Active JP6315383B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014215403A JP6315383B2 (ja) 2014-10-22 2014-10-22 表示制御プログラムおよび表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014215403A JP6315383B2 (ja) 2014-10-22 2014-10-22 表示制御プログラムおよび表示制御装置

Publications (2)

Publication Number Publication Date
JP2016081464A JP2016081464A (ja) 2016-05-16
JP6315383B2 true JP6315383B2 (ja) 2018-04-25

Family

ID=55958885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014215403A Active JP6315383B2 (ja) 2014-10-22 2014-10-22 表示制御プログラムおよび表示制御装置

Country Status (1)

Country Link
JP (1) JP6315383B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070255A (ja) * 2003-08-22 2005-03-17 Denso Corp 虚像表示装置
JP2009099028A (ja) * 2007-10-18 2009-05-07 Nissan Motor Co Ltd 視覚情報呈示装置及び視覚情報呈示方法
JP4970379B2 (ja) * 2008-08-06 2012-07-04 カルソニックカンセイ株式会社 車両用表示装置

Also Published As

Publication number Publication date
JP2016081464A (ja) 2016-05-16

Similar Documents

Publication Publication Date Title
EP2857886B1 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US10279741B2 (en) Display control apparatus, method, recording medium, and vehicle
US10298911B2 (en) Visualization of spatial and other relationships
CN110168581B (zh) 保持车内乘员的意识
JP6528139B2 (ja) 表示制御装置及び表示制御プログラム
WO2015174050A1 (ja) 表示装置および表示方法
EP2911117B1 (en) Controlling display of information for alerting a driver
JP2015114757A (ja) 情報処理装置、情報処理方法及びプログラム
WO2017133140A1 (zh) 一种行车辅助装置及行车辅助方法
KR20180022374A (ko) 운전석과 보조석의 차선표시 hud와 그 방법
CN108027508B (zh) 显示装置和显示像投影方法以及平视显示器
JP6315427B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム、および投影装置
EP3012822B1 (en) Display control device, display control method, display control program, and projection device
CN108885802B (zh) 信息处理装置、信息处理方法和存储介质
JP7167918B2 (ja) 車両用表示装置
JP6315383B2 (ja) 表示制御プログラムおよび表示制御装置
JP6365879B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム、および投影装置
JP6478201B2 (ja) 表示制御装置、表示システム、表示制御方法、表示制御プログラム、および投影装置
WO2016088227A1 (ja) 映像表示装置及び方法
JP2020121704A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
JP7322886B2 (ja) 車両用表示装置、方法、及びコンピュータ・プログラム
JP2020204984A (ja) 情報処理装置及び情報処理方法
JP2016131362A (ja) 表示制御装置、投影装置、表示制御方法、表示制御プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180316

R151 Written notification of patent or utility model registration

Ref document number: 6315383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151