JP6827609B2 - 情報表示制御装置及び方法、並びにプログラム及び記録媒体 - Google Patents

情報表示制御装置及び方法、並びにプログラム及び記録媒体 Download PDF

Info

Publication number
JP6827609B2
JP6827609B2 JP2020564290A JP2020564290A JP6827609B2 JP 6827609 B2 JP6827609 B2 JP 6827609B2 JP 2020564290 A JP2020564290 A JP 2020564290A JP 2020564290 A JP2020564290 A JP 2020564290A JP 6827609 B2 JP6827609 B2 JP 6827609B2
Authority
JP
Japan
Prior art keywords
virtual object
virtual
information
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020564290A
Other languages
English (en)
Other versions
JPWO2020144798A1 (ja
Inventor
義広 都丸
義広 都丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6827609B2 publication Critical patent/JP6827609B2/ja
Publication of JPWO2020144798A1 publication Critical patent/JPWO2020144798A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、情報表示制御装置及び方法、並びにプログラム及び記録媒体に関する。
従来の情報表示装置として、表示領域の外に対するポインティング操作が行われた場合に、表示領域内にカーソルを表示するものが知られている。この装置では、表示領域からポインティング位置までの距離に応じてカーソルの大きさ、色、形状、模様等を変更している(例えば、特許文献1)。
特開2016−53767号公報(段落0028〜0033)
従来の装置には、位置の変化を知覚することが可能であるが、位置自体を直感的に知覚することができないという問題があった。
本発明は、上記の問題点を解決するためになされたもので、表示領域外の位置を、ユーザが直感的に知覚することができるようにすることを目的とする。
本発明の情報表示制御装置は、
オブジェクトの位置を示すための仮想オブジェクトの画像を表示領域に表示させる情報表示制御装置であって、
前記オブジェクトの位置に基づき前記仮想オブジェクトのサイズを決定するサイズ決定部と、
サイズが決定された前記仮想オブジェクトを前記オブジェクトの位置に配置し、当該仮想オブジェクトを、ユーザの視点を基準として仮想領域に透視投影することで前記仮想オブジェクトの画像を生成する3次元描画部と、
前記仮想領域内の複数の格子点と、前記表示領域を含む平面内の、前記複数の格子点に対応する点との関係を示す変換テーブルを作成する変換テーブル作成部と、
前記変換テーブルを用いて、前記仮想オブジェクトの画像を変形して、前記仮想オブジェクトの表示画像を生成する画像変形部と、
前記表示画像を前記表示領域に表示させる表示制御部と
を有し、
前記仮想オブジェクトは、アモーダル補完によって一部から全体を想起可能な3次元図形であることを特徴とする。
本発明によれば、表示領域外のオブジェクトの位置を、ユーザが直感的に知覚することができる。
本発明の実施の形態1の情報表示制御装置を備えた運転支援装置を示す機能ブロック図である。 運転支援装置が搭載された車両を示す概略図である。 図1の外部状況検出部の構成例を示す機能ブロック図である。 ユーザの視点と表示器の表示領域と仮想領域との位置関係を示す図である。 図1の情報表示制御装置を示す機能ブロック図である。 ユーザの視点座標系と表示領域座標系との位置関係を示す図である。 ユーザの視点座標系と表示領域座標系と仮想領域との関係を示す図である。 基準水平視野角と仮想オブジェクトのサイズとの関係を示す図である。 (a)は、基準水平視野角と仮想オブジェクトのサイズとの関係を示す図、(b)は、仮想領域において仮想オブジェクトの画像が形成される範囲を示す図である。 仮想領域上の点と表示領域面上の点との対応関係を示す図である。 (a)は、仮想領域上の複数の格子点を示す図、(b)は、表示領域面上の、上記格子点に対応する点を示す図である。 変換テーブルの一例を示す図である。 (a)及び(b)は、仮想領域内の格子点に位置しない画素についての内挿の方法を示す図である。 本発明の実施の形態2の情報表示制御装置を備えた運転支援装置を示す機能ブロック図である。 図14の内部状況検出部の構成例を示す機能ブロック図である。 図14の情報表示制御装置を示す機能ブロック図である。 本発明の実施の形態3の情報表示制御装置を示す機能ブロック図である。 オブジェクトの位置と基準位置とアニメーション方向との関係を示す図である。 (a)及び(b)は、変化パターンの透過率の変化を示す図である。 (a)〜(d)は、透過率の空間的分布の時間経過に伴う変化を示す図である。 (a)は、変化パターンの変化方向がアニメーション方向に一致するように向きが定められた仮想オブジェクトを示す図、(b)は、(a)の仮想オブジェクトを仮想領域に投影することで形成される仮想オブジェクトの画像を示す図である。 実施の形態1、2又は3の情報表示制御装置の諸機能を実現する1つのプロセッサを含むコンピュータを示す機能ブロック図である。 実施の形態1の情報表示制御装置における処理をプロセッサに実行させる場合の処理の手順を示すフローチャートである。 実施の形態2の情報表示制御装置における処理をプロセッサに実行させる場合の処理の手順を示すフローチャートである。 実施の形態3の情報表示制御装置における処理をプロセッサに実行させる場合の処理の手順を示すフローチャートである。
本発明に係る情報表示制御装置は、種々の目的で利用可能であるが、以下では、運転支援装置の一部として用いられるものを例として説明する。
実施の形態1.
図1は本発明の実施の形態1の情報表示制御装置4を備えた運転支援装置1を示す。
図示の運転支援装置1は、例えば図2に示されるように、車両10に搭載されるものであり、情報表示制御装置4のほか、外部状況検出部2と、表示器6とを有する。
外部状況検出部2は、車両の外の状況を検知して、車両の周囲に位置するオブジェクトについての検知情報Saを出力する。
ここでいうオブジェクトは、車両の運転に当たり注意すべき対象(注意対象)であり、他の車両、歩行者、固定された構造物を含む。他の車両には、自動四輪車(乗用車、トラック、バス等)、自動二輪車、自転車が含まれる。
外部状況検出部2は、例えば、図3に示されるように、撮像部21と、検知部22と、通信器23と、検知信号処理部24とを有する。
撮像部21は、車両の周囲を撮像することで、周囲の風景を表す画像(周囲画像)を生成して、画像信号を出力する。撮像部21は、1又は2以上のカメラを備える。
検知部22は、ミリ波センサ、レーザセンサ、赤外線センサ、ソナーのうちの一つ以上を含み、周囲に位置するオブジェクトまでの距離、オブジェクトの存在する方向等を示す検知信号を出力する。
通信器23は、車両10の外部から提供される、他の車両に関する情報を受信する。他の車両に関する情報は、当該他の車両の位置並びに移動の方向及び速度を示す情報を含んでいても良い。車両10の外部からの提供は、他の車両からの直接の通信による提供であっても良く、基地局を介しての通信による提供であっても良い。
検知信号処理部24は、撮像部21からの画像信号、検知部22からの検知信号、及び通信器23で受信した情報に基づいて、検知情報Saを生成して、出力する。
検知信号処理部24から検知情報Saには、オブジェクトの位置を示す情報が含まれていても良い。
情報表示制御装置4は、外部状況検出部2からの検知情報Saに基づいて、表示器6における表示を制御する。
表示器6は例えばフロントガラスをハーフミラーとして利用したウィンドシールドディスプレイで構成されている。
ウィンドシールドディスプレイは、ユーザ、例えば運転者の視点からある一定の距離に虚像を作る透過型ディスプレイであり、特殊なコンバイナを用いる場合にはヘッドアップディスプレイとも呼ばれる。
例えば、情報表示制御装置4は、車両の周囲に位置するオブジェクトの位置を示す仮想オブジェクトの画像を表示器6の表示領域に表示させる。
表示器6の表示領域に表示される仮想オブジェクトの画像の形成のため仮想領域が用いられる。
図4は、ユーザの視点Ueと、表示器6の表示領域DLと、仮想領域VLとを示す。情報表示制御装置4は、仮想オブジェクトBJの画像を仮想領域VL内に形成し、形成された仮想オブジェクトBJの画像を、表示領域DLに投影することで表示画像を形成する。
例えば、図4に示すように、仮想領域VLの左の縁HEa及び右の縁HEbの少なくとも一方(図では左の縁HEa)に沿う幅FWの範囲を指定領域ALとし、指定領域AL内に、1又は2以上の仮想オブジェクトBJの画像を形成する。図示の例では、左の縁HEaに沿う幅FWの指定領域AL内にのみ1つの仮想オブジェクトBJの画像Gcが形成されている。
ユーザの視点Ue、表示領域DL、仮想領域VL、仮想オブジェクトBJ等の位置関係を表すためユーザ視点座標系及び表示領域座標系を用いる。
ユーザ視点座標系の座標を(Xv,Yv,Zv)で表し、表示領域座標系での座標を(Xd,Yd,Zd)で表す。
ユーザ視点座標系は、ユーザの視点の位置Ueを原点とし、ユーザの視線の方向UdをZv軸方向とし、水平方向をXv軸方向とし、Zv軸及びXv軸に垂直な方向をYv軸方向とする。
本実施の形態では、ユーザの視点の位置Ue及び視線の方向Udとしては、標準的な位置及び方向を用いるものとする。
ここでは、表示領域DLは矩形である場合を想定しており、表示領域座標系は、左上隅を原点とし、左上隅から右上隅に向かう方向をXd軸方向、左上隅から左下隅に向かう方向をYd軸方向、Xd軸及びYd軸に垂直な方向をZd軸方向とする。
情報表示制御装置4は、図5に示すように、情報記憶部41と、外部状況解析部42と、仮想オブジェクト選択部43と、サイズ決定部44と、3次元描画部45と、変換テーブル作成部46と、画像変形部47と、表示制御部48とを有する。
情報記憶部41は、仮想オブジェクト情報FJと、表示領域情報FDと、仮想領域情報FVと、指定領域情報FÅとを記憶している。情報記憶部41はまた、車両を基準とする、ユーザの視点の位置Ueを示す情報及びユーザの視線の方向Udを示す情報を記憶している。「車両を基準とする」とは「車両座標系における」という意味である。車両座標系は、例えば、車両内の任意の基準点を原点とし、任意の方向を1つの座標軸とするよう定義される。
仮想オブジェクト情報FJは、複数の仮想オブジェクトの各々の属性を表す情報である。各仮想オブジェクトは、立体的な図形のモデル(3次元モデル)であり、3次元グラフィックスで表現可能なもの、例えばポリゴンモデルが用いられる。仮想オブジェクトの属性には、形状を表す情報、色を表す情報、及び透過率を表す情報が含まれる。
情報記憶部41に記憶されている複数の仮想オブジェクトの形状には、球体及び錐体が含まれる。錐体には、円錐及び多角錐が含まれる。仮想オブジェクトは、これら以外の形状のものであっても良い。但し、アモーダル補完で欠損部分を想起し得るような形状であるのが望ましい。
表示領域情報FDは、表示領域DLの位置を表す情報(位置情報)を含む。例えば表示器6がウィンドシールドディスプレイである場合、表示領域DLは虚像が形成される仮想の面である。
表示領域DLの位置を表す情報は、例えば、表示領域DLの4隅の位置を表す情報である。
表示領域DLの位置を表す情報としては、ユーザ視点座標系での3次元座標が情報記憶部41に記憶されている。
図6には、表示領域DLの4隅、即ち、左上隅、右上隅、左下隅、右下隅が符号Qlt、Qrt、Qlb、Qrbで示されている。
これらの4隅Qlt、Qrt、Qlb、Qrbのユーザ視点座標系の3次元座標は、それぞれVdlt、Vdrt、Vdlb、Vdrbで表される。3次元座標Vdlt、Vdrt、Vdlb、Vdrbの各々はXv座標、Yv座標、Zv座標から成る。
表示領域座標系は、上記のように、表示領域DLの左上隅Qltを原点とし、左上隅Qltから右上隅Qrtに向かう方向をXd軸、左上隅Qltから左下隅Qlbに向かう方向をYd軸とし、Xd軸及びYd軸に直交する方向をZd軸としている。
これらの4隅Qlt、Qrt、Qlb、Qrbの、表示領域座標系の3次元座標は、それぞれDlt、Drt、Dlb、Drbで表される。3次元座標Dlt、Drt、Dlb、Drbの各々はXd座標、Yd座標、Zd座標から成る。
表示領域情報FDは、上記した表示領域DLの位置を表す情報に加えて、表示領域DLのサイズを表す情報を含む。表示領域DLのサイズとして、表示領域DLの横方向(水平方向)の画素数Wd及び縦方向(垂直方向)の画素数Hdが記憶されている。
表示領域座標系では、画素の数によって長さを表しており、左上隅Qlt、右上隅Qrt、左下隅Qlb、右下隅Qrbの3次元座標はそれぞれ以下の通りとなる。
Dlt:(Xdlt,Ydlt,Zdlt):(0,0,0)
Drt:(Xdrt,Ydrt,Zdrt):(Wd,0,0)
Dlb:(Xdlb,Ydlb,Zdlb):(0,Hd,0)
Drb:(Xdrb,Ydrb,Zdrb):(Wd,Hd,0)
仮想領域情報FVは、仮想領域VLの位置を表す情報(位置情報)を含む。仮想領域VLは、仮想オブジェクトの画像の形成に用いられる仮想の領域である。
以下では、仮想領域VLも矩形の領域であるものとする。その場合、仮想領域情報FVとして、仮想領域VLの4隅の位置を表す、ユーザ視点座標系での3次元座標が記憶されていても良い。
図7には、図6に示されるユーザの視点Ue及び表示領域DLに加えて、仮想領域VLが示されている。図7にはさらに、仮想領域VLの4隅、即ち、左上隅、右上隅、左下隅、右下隅が符号Plt、Prt、Plb、Prbで示されている。
これらの4隅のユーザ視点座標系の3次元座標は、それぞれVvlt、Vvrt、Vvlb、Vvrbで表される。3次元座標Vvlt、Vvrt、Vvlb、Vvrbの各々はXv座標、Yv座標、Zv座標から成る。
仮想領域VLは、その面がZv軸に垂直であり、その中心がZv軸上にあるものとする。また、仮想領域VLの横方向の辺及び縦方向の辺はそれぞれユーザ視点座標系のXv軸及びYv軸と平行であるものとする。さらに、仮想領域VLは、その幅がVwであり、その高さがVhであり、ユーザ視点Ueから仮想領域VLの中心までの距離がVfであるものとする。
すると、仮想領域VLの左上隅Plt、右上隅Prt、左下隅Plb、右下隅Prbの座標は以下の通りとなる。
Vvlt:(Xvlt,Yvlt,Zvlt):(−Vw/2,Vh/2,Vf)
Vvrt:(Xvrt,Yvrt,Zvrt):(Vw/2,Vh/2,Vf)
Vvlb:(Xvlb,Yvlb,Zvlb):(−Vw/2,−Vh/2,Vf)
Vvrb:(Xvrb,Yvrb,Zvrb):(Vw/2,−Vh/2,Vf)
以上のように、仮想領域VLの4隅の位置を表すユーザ視点座標系での座標は、ユーザ視点Ueからの距離Vfと、仮想領域の幅Vw及び高さVhから算出可能である。本実施の形態では、仮想領域VLの4隅の位置の算出に必要な情報として、上記の距離Vf、幅Vw及び高さVhを表す情報が情報記憶部41に記憶されている。
指定領域情報FAは、指定領域ALのサイズを示す情報である。図4に示すように、仮想領域VL左の縁HEaに沿う幅FWの範囲が指定領域ALとされる場合、幅FWが指定領域のサイズであり、この幅FWを示す情報が情報記憶部41に指定領域情報FAとして記憶されている。
指定領域ALは、仮想オブジェクトの画像の形成に利用される領域であり、指定領域AL内に形成された画像は、表示領域DLに投影されて、表示される。
外部状況解析部42は、外部状況検出部2から出力される検知情報Saに基づき、車両の周囲に位置するオブジェクトの位置Voを表す情報を取得する。このようなオブジェクトの位置Voを表す情報は、例えばユーザ視点座標系における座標(Xvo,Yvo,Zvo)で表される。
オブジェクトの位置は、オブジェクトの代表的な位置、例えばオブジェクトの中心又は重心の位置である。
以下では、車両の周囲に位置するオブジェクトが1つだけ検出されたものとして説明するが、複数のオブジェクトが検出された場合に、各オブジェクトについて同様の処理を行なえば良い。
外部状況解析部42はまた、外部状況検出部2から出力される検知情報Saに基づき、車両の周囲に位置するオブジェクトの種類Otを判定し、判定の結果として特定されたオブジェクトの種類Otを示す情報を出力する。
オブジェクトの種類を示す情報は、例えば、オブジェクトが車両、人、構造物等のいずれであるか、車両についてはさらに、自動四輪車、自動二輪車、自転車のいずれであるか、自動四輪車についてはさらに、乗用車、トラック、バス等のいずれであるかを示す情報であっても良い。
オブジェクトの種類は、画像中のオブジェクトに対する画像認識によって特定することができる。カメラによる撮像で得られた画像に限らず、レーザセンサ、ミリ波センサなどで得られるデータを用いて認識を行なっても良い。
オブジェクトの種類の判定は、公知の物体認識技術で実現することができる。例えば、Hog(Histogram of Oriented Gradients)特徴量を使った技術、Deep Neural Networkを使った技術を用い得る。
仮想オブジェクト選択部43は、情報記憶部41に記憶されている複数の仮想オブジェクトから1つを選択し、選択した仮想オブジェクトBJを表す情報を出力する。
ここでは、仮想オブジェクト選択部43は、外部状況解析部42で検出されたオブジェクトの種類Otに関する応じて仮想オブジェクトの選択を行うものとする。例えば、オブジェクトの種類Otを連想させる仮想オブジェクトが選択されるようにしても良い。予めオブジェクトの種類と仮想オブジェクトとを対応付けておき、検出されたオブジェクトの種類に対応付けられている仮想オブジェクトが選択されるようにしても良い。
以下では、球体であって、不透過なものが選択される場合について説明する。
サイズ決定部44は、情報記憶部41に記憶されている指定領域情報FAと、仮想オブジェクト選択部43で選択された仮想オブジェクトBJを示す情報と、外部状況解析部42から出力されたオブジェクトの位置Voを示す情報とを元に、仮想オブジェクトのサイズJSを決める。
ここでは仮想オブジェクトが球体である場合を想定しているので、仮想オブジェクトのサイズJSとして、球体の半径rを決定する。
サイズ決定部44は、決定したサイズJSを示す情報を、選択されている仮想オブジェクトBJを示す情報とともに出力する。
3次元描画部45は、情報記憶部41に記憶されている仮想領域情報FVと、外部状況解析部42から出力されたオブジェクトの位置Voを表す情報と、仮想オブジェクト選択部43で選択された仮想オブジェクトBJを表す情報と、サイズ決定部44で決定されたサイズJSを表す情報とを元に、仮想オブジェクトの画像Gcを生成する。3次元描画部45は、仮想オブジェクトBJをオブジェクトの位置Voに配置し、そのように配置された仮想オブジェクトBJを、ユーザ視点Ueを基準として、仮想領域VLに透視投影することで仮想オブジェクトの画像Gcを生成する。
「仮想オブジェクトBJをオブジェクトの位置Voに配置する」とは、仮想オブジェクトBJの基準点がオブジェクトの位置に一致するように仮想オブジェクトBJの位置を決めることを言う。仮想オブジェクトBJが球体である場合、その基準点は球体の中心である。
「仮想オブジェクトを、ユーザ視点Ueを基準として、仮想領域VLに透視投影する」とは、ユーザ視点Ueを通る直線により、仮想オブジェクトの各点を仮想領域VLに投影することを意味する。
変換テーブル作成部46は、表示領域情報FDと仮想領域情報FVとを元に、変換テーブルCTを作成する。変換テーブルCTは、仮想領域VL内に配置された複数の点と、表示領域DLを含む平面(表示領域面)DS内の対応する点との対応関係を示す。以下では上記の複数の点を格子点と呼ぶ。複数の格子点は、例えば、仮想領域VLを区切る複数の縦線と複数の横線との交差位置に配置される。
画像変形部47は3次元描画部45から出力される画像Gcを、変換テーブルCTを用いて変形して、変形画像Gdを生成する。
この変形は、画像Gcの各画素のユーザ視点座標Vp(Xvp,Yvp,Zvp)を変換テーブルCTに入力し、変換テーブルCTから、入力された座標に対応する表示領域座標Dq(Xdq,Ydq)を読み出すことで行われる。
画像Gcの画素のうち、格子点に位置しない画素については、画像変形部47は、当該画素の位置の周囲の格子点を用いて内挿を行うことで、対応する位置を算出する。
表示制御部48は、上記のようにして生成された変形画像Gdのうちの、表示領域DL内の部分を表示画像Geとして表示器6に供給し、表示させる。
上記した処理、即ち、外部状況解析部42によるオブジェクトの種類の判定及びオブジェクトの位置の検出、サイズ決定部44による仮想オブジェクトのサイズの決定、3次元描画部45による描画、画像変形部47による画像の変形、及び表示制御部48による表示器6の駆動制御の処理は、繰り返し実行される。
繰り返し実行することで、オブジェクト位置の変化に表示画像の内容を追従させることができる。
上記の説明で、各機能ブロックで生成された情報がそのまま他の機能ブロックに供給されるものとしているが、一旦図示しないメモリに保存した上で、他の機能ブロックに供給するようにしても良い。以下で説明する他の実施の形態でも同様である。
以下、サイズ決定部44における仮想オブジェクトBJのサイズJSの決定について詳しく説明する。
本実施の形態では、仮想オブジェクトBJのサイズJSは、指定領域情報FAに基づいて決定される。
指定領域情報FAは、指定領域ALの幅を示す情報である。上記のように、仮想オブジェクトの画像は、仮想領域の縁に沿う幅FWの指定領域AL内に形成される。
例えば、図4に示す例では、仮想領域の左右の縁HEa又はHEbに沿う幅FWの指定領域AL内に仮想オブジェクトの画像が形成される。図示の例では、仮想オブジェクトの画像が、仮想領域の左の縁HEaに沿う幅FWの指定領域AL内に形成される。これは、オブジェクトがユーザ視点Ueから仮想領域VLを見たときの視野角の範囲(ユーザ視点Ueと仮想領域の縁とを結ぶ直線群により画定される範囲)の左側に位置している場合を想定しているためである。以下では、上記した「ユーザ視点Ueから仮想領域VLを見たときの視野角の範囲」を仮想領域範囲と言う。
指定領域の幅FWは、仮想オブジェクトの画像が、基準視野角の範囲には入らないように定められる。
基準視野角は、仮想領域範囲のうち、ユーザが注視する角度範囲を意味する。基準視野角には、基準水平視野角と基準垂直視野角とがある。基準水平視野角は、水平方向の基準視野角である。基準垂直視野角は、垂直方向の基準視野角である。
例えば、仮想領域範囲の左右(水平方向の外部)に位置するオブジェクトの位置を示す場合には、基準視野角として基準水平視野角が用いられる。基準水平視野角は、左方向の基準水平視野角θaと右方向の基準水平視野角θbとを含む。
左方向の基準水平視野角θa及び右方向の基準水平視野角θbの各々は15〜60度程度に定められる。左方向の基準水平視野角θaと右方向の基準水平視野角θbとは互いに等しくても良く、異なっていても良い。
図8及び図9(a)に示すように、ユーザ視点座標系のXvZv平面内にあって、Zv軸に対して角θa、θbを成す一対の直線Lθa、Lθbを引き、これらの直線Lθa、LθbをYv軸方向に移動させたときの軌跡により境界面Sθa、Sθbを形成する。直線Lθa、Lθb及び境界面Sθa、Sθbは無限に延びるものであるが、図9(a)には、直線Lθa、Lθb、境界面Sθa、Sθbの一部のみが示されている。境界面Sθa及びSθbは、基準水平視野角の範囲を画定する面であると言える。
境界面Sθa、Sθbと仮想領域VLとの交線が図9(a)及び(b)に符号Vθa、Vθbで示されている。仮想領域VLの左右の縁HEa、HEbから交線Vθa、Vθbまでの寸法が指定領域の幅FWである。
所望の幅FWが予め決められる場合、仮想領域VLは、基準水平視野角θa、θbの範囲外に幅FWの指定領域ALが確保できるように定められる。
次に、3次元描画部45における仮想オブジェクトの画像の生成について詳しく説明する。
3次元描画部45における仮想オブジェクトの画像の生成は、3次元グラフィックスを用いてレンダリングを行うことで実現することができる。
具体的には、外部状況解析部42で取得したオブジェクトの位置Voに中心を有する半径rの3次元の球体モデルを作成する。この球体モデルが仮想オブジェクトBJとなる。
そして、仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで仮想オブジェクトの画像を形成する。これには、仮想領域VLの4隅の座標を元にプロジェクション行列(射影行列とも言う)を作成し、3次元グラフィックスでレンダリングすればよい。
このような処理は、OpenGL、DirectXなどの3次元グラフィックス用ライブラリを使用することで実現することができる。
上記のように、球状の仮想オブジェクトBJは、その中心の位置がオブジェクトの位置Voに一致するように位置決めされ、かつその球面が境界面Sθa、Sθbに接するように、その半径rが定められる。その結果、仮想オブジェクトの画像Gcは、図9(b)に示すように、交線Vθa、Vθbの外側に、かつその最も突出した部分(仮想領域VLの中央に近い部分)が交線Vθa、Vθbに接するように形成される。
3次元描画で仮想オブジェクトをレンダリングするに当たり、球体らしさを表現するための処理を加えても良い。そのような処理には、光沢感を出すためのライティング処理、半透明のガラス球の感じを持たせるためのブレンド処理等が含まれる。
次に、変換テーブル作成部46における変換テーブルCTの作成について詳しく説明する。変換テーブルCTは、仮想領域VL内の複数の格子点の各々の位置と、当該格子点に対応する、表示領域面DS上の対応する点との位置関係を示すテーブルである。対応する点とは、仮想領域VL上の各格子点とユーザ視点Ueとを通る直線と、表示領域面DSとが交わる点である。
変換テーブルCTは、表示領域情報FDと仮想領域情報FVとを用いて作成される。
ここでは、表示領域情報FDとして図6に示すように、表示領域DLの左上隅、右上隅、左下隅、右下隅の位置を表す、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbと、表示領域DLの水平方向画素数Wdを表す情報と垂直方向画素数Hdを表す情報とが、情報記憶部41に格納されている場合を想定している。
また、仮想領域情報FVとして、仮想領域VLのユーザ視点Ueからの距離Vfを表す情報と、仮想領域VLの幅Vwを表す情報と、仮想領域VLの高さVhを表す情報とが、情報記憶部41に記憶されている場合を想定している。
記憶されている情報で示される距離Vf、幅Vw及び高さVhを用いて、仮想領域VLの左上隅Plt、右上隅Prt、左下隅Plb、右下隅Prbのユーザ視点座標系での座標Vvlt、Vvrt、Vvlb、Vvrbを算出することができる。
変換テーブルCTの作成に当たっては、まず、ユーザ視点座標系の座標(Xv,Yv,Zv)を表示領域座標系の座標(Xd,Vd,Zd)に変換するための変換行列Mvdを算出する。
ユーザ視点座標系の座標(Xv,Yv,Zv)から、表示領域座標系の座標(Xd,Vd,Zd)への変換は以下の数式で表される。
Figure 0006827609
式(1)で、tは転置を表す。
Mvdは、下記の式(2)で与えられる。
Figure 0006827609
式(2)で、
Sは、3×3の対角成分のみを持つ拡大行列、
Rは3x3の回転行列、
Tは3次元の縦ベクトルである。
算出すべきR及びTは合わせて12要素から成るので、12個の連立方程式があれば解ける。そこで、Xv、Yv、Zv及びXd、Yd、Zdに、
Vdlt(Xvdlt,Yvdlt,Zvdlt)とDlt(Xdlt,Ydlt,Zdlt)、
Vdrt(Xvdrt,Yvdrt,Zvdrt)とDrt(Xdrt,Ydrt,Zdrt)、
Vdlb(Xvdlb,Yvdlb,Zvdlb)とDlb(Xdlb,Ydlb,Zdlb)、
Vdrb(Xvdrb,Yvdrb,Zvdrb)とDrb(Xdrb,Ydrb,Zdrb)
の組み合わせを代入することで、12個の連立方程式を生成する。
具体的には、
Xv及びXdに、Vdltの第1要素(Xvdlt)とDltの第1要素(Xdlt)を代入することで第1の連立方程式、
Yv及びYdに、Vdltの第2要素(Yvdlt)とDltの第2要素(Ydlt)を代入することで第2の連立方程式、
Zv及びZdに、Vdltの第3要素(Zvdlt)とDltの第3要素(Zdlt)を代入することで第3の連立方程式、
Xv及びXdに、Vdrtの第1要素(Xvdrt)とDrtの第1要素(Xdrt)を代入することで第4の連立方程式、
Yv及びYdに、Vdrtの第2要素(Yvdrt)とDrtの第2要素(Ydrt)を代入することで第5の連立方程式、
Zv及びZdに、Vdrtの第3要素(Zvdrt)とDrtの第3要素(Zdrt)を代入することで第6の連立方程式、
Xv及びXdに、Vdlbの第1要素(Xvdlb)とDlbの第1要素(Xdlb)を代入することで第7の連立方程式、
Yv及びYdに、Vdlbの第2要素(Yvdlb)とDlbの第2要素(Ydlb)を代入することで第8の連立方程式、
Zv及びZdに、Vdlbの第3要素(Zvdlb)とDlbの第3要素(Zdlb)を代入することで第9の連立方程式
Xv及びXdに、Vdrbの第1要素(Xvdrb)とDrbの第1要素(Xdrb)を代入することで第10の連立方程式、
Yv及びYdに、Vdrbの第2要素(Yvdrb)とDrbの第2要素(Ydrb)を代入することで第11の連立方程式、
Zv及びZdに、Vdrbの第3要素(Zvdrb)とDrbの第3要素(Zdrb)を代入することで第12の連立方程式
を生成する。
そして、生成した連立方程式を解くことで、上記の変換行列Mvdを得ることができる。
次に、このようにして求めた変換行列Mvdを用いて、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)から、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)を算出する。
仮想領域VL上の点Ppに対応する表示領域DL上の点Qpは、視点Ueと点Ppとを結ぶ直線が、表示領域面DSと交差する点である。
図10には、仮想領域VL上の2つの格子点Pp00、Pp01について、表示領域面DS上の対応する点Qp00、Qp01が示されている。
図11(a)には、仮想領域VL内に規則的に配置された複数の格子点(それぞれ黒く塗りつぶした丸で示す)が示され、図11(b)には、図11(a)に示される複数の格子点について、表示領域面DS上の対応点(それぞれ黒く塗りつぶした丸で示す)が示されている。
この算出は、
Figure 0006827609
で求められるXd,Ydであって、
Figure 0006827609
となるようにtが定められたときのXd,Ydを求めることで行われる。
式(3)で、tは媒介変数である。
Xd,Ydがこのようにして求められるのは、仮想領域内のユーザ視点座標(Xv,Yv,Zv)で表される点Pと、ユーザ視点Ueとを結ぶ直線上の点のユーザ視点座標は、
t(Xv,Yv,Zv)
で表されること、及びそのような点の表示領域座標は、
Mvd×t×(Xv,Yv,Zv)=t×Mvd×(Xv,Yv,Zv)
で与えられること、及び表示領域面DS内に位置する点のZd座標は0であることによる。
このようにして、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)から、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)が算出されたら、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)と、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)とを対応付けて記憶する。
この処理を複数の格子点のすべてについて繰り返すことで、図12に示される変換テーブルが作成される。即ち、複数の格子点のすべてについての、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)と、該ユーザ視点座標に対応付けられた、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)との組み合わせにより、変換テーブルCTが作成される。
なお、全ての格子点についてZv=Vfであるので、Zvを含まず、(Xv,Yv)と(Xd,Yd)との関係を示す変換テーブルCTを作成しても良い。
作成された変換テーブルCTは、変換テーブル作成部46内に保存される。保存された変換テーブルCTは、画像変形部47により利用される。
表示される画像の質を高くするためには、格子点の数が多い方が好ましい。一方、格子点の数が多いほど変換テーブルCTの作成のための計算の量が多くなる。格子点の数を決めるに当たってはこれらを勘案する必要がある。
なお、図11(a)及び(b)には、仮想領域の全域について、表示領域面DS上の対応する点を求めて、変換テーブルCTを作成することが示されているが、指定領域AL内の格子点に限り、表示領域面DS内の対応する点を求めて、変換テーブルCTを作成しても良い。
次に、画像変形部47が、仮想領域VLの画像から、表示領域DLの変形画像Gdを生成する処理について詳しく説明する。
変形画像Gdの生成には、変換テーブル作成部46に保存されている変換テーブルCTが用いられる。
変形画像Gdの生成は、仮想領域VLの画像を表示領域面DS上に投影することで行われる。
仮想領域VLの画像を表示領域面DS上に投影するには、仮想領域VLの画像の画素を順に選択して、選択した画素(注目画素)について、表示領域面DS上の対応する点の座標を求める。
注目画素が、格子点に位置する画素であれば、変換テーブルCTを参照することで、対応する点の表示領域座標を読み出すことができる。
注目画素が、格子点に位置しない画素であれば、その周囲の格子点に位置する画素についての、対応する点の表示領域座標を読み出して内挿を行うことで、注目画素に対応する点の表示領域座標を求めることができる。
例えば、注目画素の近隣に位置する3つの格子点についての、対応点の表示領域座標と、注目画素と上記の3つの格子点との位置関係とに基づいて、内挿を行う。近隣に位置する3つの格子点としては、例えば、図13(a)及び(b)に示すように、注目画素Ppsubを内部に含む最小の三角形を構成する3つの格子点が選択される。図13(a)には、選択された3つの格子点Ppa、Ppb、Ppcが示され、図13(b)には、これらの格子点Ppa、Ppb、Ppcに対応する点Qpa、Qpb、Qpcが示されている。
なお、図13(a)及び(b)には、仮想領域VLのうち、仮想オブジェクトの画像Gc以外の部分における画素について内挿の仕方を示しているが、仮想オブジェクトの画像Gc以外の部分については、表示領域面DSへの投影を省略しても良い。
上記の3つの格子点Ppa、Ppb、Ppcは、変換テーブルCT上の全格子点のXv座標及びYv座標と、注目画素PpsubのXv座標及びYv座標とを比較することで決定できる。
この3つの格子点Ppa、Ppb、Ppcのユーザ視点座標系での座標をVpa、Vpb、Vpcとした場合、これらの格子点Ppa、Ppb、Ppcの座標と、格子点Ppaに対する注目画素Ppsubの相対位置との関係を示す以下の等式を満たす実数s及びtを算出する。ここで上付き矢印はベクトルを示す。
Figure 0006827609
このようなs及びtは一意に決定できる。このs及びtを、下記の式(6)に代入することで、座標Vpsubの変換後の座標Dpsub、即ち、仮想領域VL内の座標Vpsubの注目画素に対応する表示領域面DS上の点の座標Dpsubを算出できる。
Figure 0006827609
このようにして求められた変換後の座標Dpsubで表される位置に、元の位置の画素と同じ属性(色、透過率等)を与える。
表示制御部48は、上記のようにして生成された変形画像Gdのうちの、図13(b)に太枠LFで示す表示領域(Xd軸方向の0〜Wdの範囲で且つYd軸方向の0〜Hdの範囲)の画素データから成る画像Geを表示器6に表示させる。表示器6がウィンドシールドディスプレイである場合、虚像を生成させる。
上記した、オブジェクトの位置の取得及び種類の判定から表示制御までの処理を、繰り返し実行することで、オブジェクト位置の変化に追従して表示画像の内容を変更することができる。
以上のように処理を行うことで、表示器6の表示領域DLに仮想オブジェクトの一部の画像が表示されると、ユーザはアモーダル補完により仮想オブジェクトのうちの表示されていない部分を想起し、仮想オブジェクトの中心(球の中心)の位置を直感的に知覚することができる。これにより、オブジェクトの位置を把握することができる。
上記の説明では、仮想オブジェクトBJとして球体が選択され、オブジェクトの位置Voに球体の中心が位置するように仮想オブジェクトBJが配置され、仮想オブジェクトBJのサイズとして、球体の半径rが決定される。
仮想オブジェクトBJとして、錐体が選択される場合には、錐体の頂点を基準点とし、オブジェクトの位置Voに、錐体の頂点が位置するように仮想オブジェクトを配置し、仮想オブジェクトのサイズとして、錐体の高さを決定すれば良い。この場合、例えば、錐体の底面が、基準水平視野角の範囲を画定する面、例えば図9(a)の境界面Sθa、Sθbに接するように錐体の高さを決定すれば良い。
上記の例では、基準水平視野角に基づいて幅FWを決定し、仮想領域の左右の縁に沿う、幅FWの指定領域AL内に、仮想領域範囲の水平方向における外部に位置するオブジェクトに対応する仮想オブジェクトの画像を形成することとしている。代わりに、基準垂直視野角に基づいて幅FWを決定し、仮想領域の上下の縁に沿う、幅FWの指定領域AL内に、仮想領域範囲の垂直方向における外部に位置するオブジェクトに対応する仮想オブジェクトの画像を形成することとしても良い。
さらに、仮想領域の左右の縁に沿う指定領域と仮想領域の上下の縁に沿う指定領域とをともに設けて、仮想領域範囲の水平方向における外部に位置するオブジェクト及び仮想領域範囲の垂直方向における外部に位置するオブジェクトの双方について、仮想オブジェクトの画像を形成することとしても良い。
仮想領域の左右の縁に沿う指定領域の幅と、仮想領域の上下の縁に沿う指定領域の幅とは同じであっても良く異なっていても良い。また、仮想領域の左の縁に沿う指定領域の幅と、仮想領域の右の縁に沿う指定領域の幅とは同じであっても良く異なっていても良い。同様に、仮想領域の上の縁に沿う指定領域の幅と、仮想領域の下の縁に沿う指定領域の幅とは同じであっても良く異なっていても良い。
上記の例では、サイズ決定部44が、指定領域の幅FWに基づいて仮想オブジェクトのサイズを決定しているが、代わりに、基準視野角に基づいて、仮想オブジェクトのサイズを決定しても良い。
上記の例では、指定領域の幅FWを基準視野角に基づいて決定しているが、指定領域の幅FWを基準視野角以外の指標に基づいて決定しても良い。
上記の例では、外部状況解析部42で検出されたオブジェクトの種類Otに応じて仮想オブジェクトの選択をしている。代わりに、オブジェクトの種類以外のオブジェクトに関する情報に応じて仮想オブジェクトの選択をすることとしても良い。例えば、オブジェクトの大きさ又はオブジェクトの位置に応じて仮想オブジェクトの選択をしても良い。
また、例えば、ユーザの好みに応じて仮想オブジェクトの選択ができるようにしても良い。その場合、運転支援システムの起動時に仮想オブジェクトを選択し、同じ仮想オブジェクトを使い続けることとしても良い。
情報記憶部41に記憶されている仮想オブジェクトが1つだけであっても良い。この場合、仮想オブジェクト選択部43は不要であり、外部状況解析部42は、仮想オブジェクトの選択のためのオブジェクトの種類等の判定を行なう必要がなく、サイズ決定部44は、情報記憶部41に記憶されている単一の仮想オブジェクトについて、サイズの決定を行い、3次元描画部45は、情報記憶部41に記憶されている単一の仮想オブジェクトの描画を行うことになる。
上記の例では、表示領域情報FDが、表示領域DLの4隅の位置を表す情報を含む。表示領域情報FDは、表示領域DLの4隅の位置を表す情報の代わりに、表示領域DLの4隅の位置の算出に必要な情報を含んでいても良い。例えば、表示領域DLの中心位置を示す情報、水平方向のサイズ(例えば画素数)を示す情報、垂直方向のサイズ(例えば画素数)を示す情報、及び視線に対する傾き角を示す情報を含んでいても良い。
上記の例では、仮想領域情報FVが、ユーザ視点Ueまでの距離Vfを表す情報と、幅Vw及び高さVhを表す情報とを含む。代わりに、仮想領域情報FVが仮想領域VLの4隅の位置を表す情報を含んでいても良い。要するには、仮想領域情報FVが、仮想領域VLの4隅の位置を表す情報又は4隅の位置の算出に必要な情報を含んでいれば良い。
上記の例では仮想領域VLの中心が視線上にあるが、視線と仮想領域VLが垂直で、かつその横方向の辺及び縦方向の辺がユーザ視点Xv軸及びYv軸と平行であれば、任意に配置可能ある。
仮想領域VLの位置(ユーザ視点Ueからの距離Vf)とサイズとは任意に設定可能としておくのが望ましい。即ち、情報記憶部41に記憶されている、仮想領域情報FVのうち、仮想領域VLの位置を表す情報及びサイズを表す情報の少なくとも一方を書き換え可能とし、或いはこれらの各々として複数の情報を記憶しておき、選択可能としておくのが望ましい。
上記の例では、表示器6はウィンドシールドディスプレイで構成されている。代わりに、ウィンドシールド自体を直接発光させて表示器6として用いる構成であっても良い。また、表示器6は例えばLCDであっても良い。LCDを用いる場合、LCDの表示面(実像が形成される)が、表示領域DLを構成する。
表示器6は、仮想オブジェクトの画像のみならず、車両の周囲の風景の撮像画像をも表示するものであっても良い。その場合、情報表示制御装置4は、表示される撮像画像に対応する周囲の空間的範囲の外に位置するオブジェクトの位置を示すための仮想オブジェクトの画像を表示する。
この場合、仮想オブジェクトの画像と撮像画像とが重なる部分では、仮想オブジェクトの画像のみを表示しても良く、アルファブレンドによる合成画像を表示しても良い。
表示器6としては、他の用途、例えば、カーナビゲーションシステムで用いられる表示器を兼用しても良い。
表示器6は、車両の周囲の風景の撮像画像以外の画像を表示するものであっても良い。例えば、カーナビゲーションシステムで提供される道路地図、経路に関する文字情報等を表示しても良い。
これらの場合にも、仮想オブジェクトの画像と他の画像とが重なる部分では、仮想オブジェクトの画像のみを表示しても良く、アルファブレンドによる合成画像を表示しても良い。
上記の例では、情報表示制御装置が運転支援装置の一部を成すものであり、オブジェクトが他の車両等であるが、情報表示制御装置が、データの編集等を行う者である場合には、オブジェクトは、カーソルであっても良い。
この場合には、表示領域の外に位置するカーソルをオブジェクトとし、該オブジェクトの位置を示すための仮想オブジェクトの画像を表示することになる。
実施の形態2.
図14は、本発明の実施の形態2の情報表示制御装置4bを備えた運転支援装置1bを示す。図示の運転支援装置1bは、情報表示制御装置4bのほか、外部状況検出部2と、内部状況検出部3と、表示器6とを有する。
外部状況検出部2及び表示器6は、実施の形態1で説明したのと同様のものである。
実施の形態1の情報表示制御装置4は、ユーザの視点の位置Ue及び視線の方向Udとして、標準的なものを用いている。これに対し、実施の形態2の情報表示制御装置4bは、ユーザの視点の位置Ue及び視線の方向Udを検出し、検出された位置及び方向を処理に用いる。
内部状況検出部3は、車両の内部のユーザ、例えば運転者の視点の位置Ue及び視線の方向Udを検出する。
内部状況検出部3は、例えば、図15に示すように、撮像部31と検知信号処理部32とを有する。
撮像部31は、車両の内部、特にユーザ、例えば運転者を撮像して画像信号を出力する。撮像部31は1又は2以上のカメラを有する。
カメラとして、車両の内部が暗くても撮影が可能なように、赤外線センサを備えたもの、或いは照明用の発光素子を備えたものを用いても良い。
検知信号処理部32は、撮像部31からの画像信号に基づいて、検知情報Sbを生成して、出力する。
情報表示制御装置4bは、実施の形態1の情報表示制御装置4と同様のものであるが、図16に示すように、内部状況解析部51及び表示領域情報生成部52が付加されており、情報記憶部41の代わりに情報記憶部41bを備えている点で異なる。
内部状況解析部51は、内部状況検出部3からの検知情報Sbに基づいて、ユーザの顔の画像の解析を行い、視点の位置Ue、及び視線の方向Udを検出し、検出した視点の位置Ueを示す情報、及び視線の方向Udを示す情報を出力する。
視点の位置Ueの検出には、複数のカメラを用いた三角測量(ステレオ視)、単眼カメラによるTOF(Time Of Flight)等の技術のいずれを用いても良い。
内部状況解析部51は、検出した視点の位置Ueを示す情報及び視線の方向Udを示す情報を情報記憶部41bに書き込む。それまでに視点の位置Ueを示す情報及び視線の方向Udを示す情報が記憶されている場合には、上書きを行う。
このように、情報記憶部41に記憶されている視点の位置Ueを示す情報及び視線の方向Udを示す情報は、内部状況検出部3による検出結果に応じて更新される。
表示領域情報生成部52は、内部状況解析部51で検出された視点の位置Ue及び視線の方向Udに基づいて、表示領域情報FDのうち、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbを算出する。そして算出した座標を含む表示領域情報FDを情報記憶部41bに書き込む。それまでに表示領域情報FDが書き込まれていれば、上書きを行う。なお、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbについてのみ書き換えを行なっても良い。
変換テーブル作成部46は、情報記憶部41bに記憶されている仮想領域情報FVと表示領域情報FDとに基づいて、変換テーブルCTを作成する。変換テーブル作成部46は、作成した変換テーブルCTを変換テーブル作成部46内に保存する。それまでに変換テーブルCTが保存されている場合には、上書きをする。
このような処理を行う結果、情報記憶部41bに記憶されている表示領域情報FD及び変換テーブル作成部46に保存されている変換テーブルCTは、内部状況検出部3による検出結果に応じて更新される。即ち、視点の位置Ueを示す情報及び視線の方向Udを表す情報の少なくとも一方が変わる度に更新される。
画像変形部47は、上書きされた変換テーブルCTを用いて画像の変形を行う。
視点の位置Ue及び視線の方向Udを検出することで、ユーザの視点の位置又は視線の方向が変わっても常に最適な画像表示を行うことができる。
視線の方向Udが、表示領域DLに向かう方向から大きくずれた場合には、仮想領域VLに形成された画像が、表示領域DLには表示されなくなる。これは、仮想領域VLに形成された画像が、表示領域面DSのうちの、表示領域DL以外の部分に投影されるためである。しかしながら、このとき、ユーザの視線は、表示領域DLから外れているので、表示領域DLに仮想領域VLの画像が表示されなくても、ユーザにとっては不都合はない。
視線が表示領域DLから外れており、仮想領域VLに形成された画像が表示領域DLには全く表示されない場合には、情報表示制御装置4bの機能の一部、例えば、サイズ決定部44による仮想オブジェクトのサイズの決定、3次元描画部45による仮想オブジェクトの描画、画像変形部47による表示画像の形成、及び表示制御部48による表示器6の駆動を行わないようにしても良い。
実施の形態3.
図17は、本発明の実施の形態3の情報表示制御装置4cを示す。
実施の形態3の情報表示制御装置4cは、仮想オブジェクトに、変化パターンを貼り付け、該変化パターンを動かすことで、パターンの方向及び動き(アニメーション)の方向から、オブジェクトの位置をより知覚しやすくしたものである。
図17に示される情報表示制御装置4cは、図5の情報表示制御装置4と概して同じであるが、パターン選択部53と、アニメーション方向決定部54とが付加されており、情報記憶部41及び3次元描画部45の代わりに情報記憶部41c及び3次元描画部45cを備える点で異なる。
情報記憶部41cは、図5の情報記憶部41と同様の情報に加えて、複数の変化パターンを記憶している。変化パターンの各々は、3次元グラフィックスで使用可能なものである。複数の変化パターンには、濃度変化パターン、色変化パターン、及び透過率変化パターンが含まれる。
これらの変化パターンは方向性を持つ変化パターンである。方向性を持つ変化パターンとは、例えば1つの方向にのみ濃度、色、透過率等が変化し、上記1つの方向に直交する方向には、同じ変化がないパターンである。上記の1つの方向を、以下では、変化方向と言う。
変化パターンの変化は例えば正弦波状の変化であっても良く、矩形波状の変化であっても良く、さらにガウス分布曲線に沿う変化であっても良い。
パターン選択部53は、情報記憶部41cに記憶されている複数の変化パターンから1つの変化パターンPtを選択する。
アニメーション方向決定部54は、オブジェクトの位置Voに応じてアニメーション方向Pdを決める。
3次元描画部45cは、パターン選択部53により選択された変化パターンPtを、仮想オブジェクト選択部43により選択された仮想オブジェクトに貼り付ける。
3次元描画部45cはまた、時間経過とともに、変化パターンPtを変化方向に動かすことでアニメーション効果を与える。
3次元描画部45cはさらに、変化パターンPtの変化方向がアニメーション方向Pdに一致するように仮想オブジェクトBJの向きを定め、かつ仮想オブジェクトBJをオブジェクトの位置Voに配置する。
3次元描画部45cは、以上のように変化パターンPtが貼り付けられ、向き及び位置が定められた仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで、仮想オブジェクトの画像Gcを仮想領域VL上に形成する。
以下、パターン選択部53における変化パターンPtの選択、アニメーション方向決定部54におけるアニメーション方向Pdの決定、及び3次元描画部45cにおける描画について、図18〜図21(b)を参照して詳しく説明する。
パターン選択部53における変化パターンの選択は、例えば検出されたオブジェクトに関する情報に基づいて行われる。ここで言うオブジェクトに関する情報は、オブジェクトの種類、オブジェクトの位置(例えば後述する基準位置Vrからの距離)、オブジェクトの動きの速度、又はオブジェクトの動きの加速度であっても良い。これらの場合、検出結果と、検出結果に応じて選択すべき変化パターンとを予め対応付けて記憶しておき、検出結果に応じて対応する変化パターンを選択するようにしても良い。各検出結果に対応する変化パターンとしては、当該検出結果を連想させるものであるのが望ましい。
以下では、仮想オブジェクトBJとして球体が選択されており、変化パターンPtとして正弦波状に変化する透過率変化パターンが選択された場合について説明する。
アニメーション方向決定部54におけるアニメーション方向Pdの決定は、オブジェクト位置Voと基準位置Vrとに基づいて行われる。
アニメーション方向Pdはユーザ視点座標系での3次元ベクトルで表される。
このベクトルは、図18に示されるように基準位置Vrからオブジェクト位置Voに向かうものであり、VoとVrとの差(Vo−Vr)で与えられる。
基準位置Vrは、任意の点に設定し得る。オブジェクトの位置を直感的に知覚させる効果を大きくする上では、ユーザにとって正面方向に設けるのが好ましい。例えば、ユーザの視線上の点、例えば、視点の位置Ueに設定しても良い。
図18では、基準位置Vrが、ユーザの視線上、即ちZv軸上であって、視点の位置Ue以外の点に設定されるものとしている。
仮想オブジェクトBJとして球体が選択され、変化パターンPtとして正弦波状に変化する透過率変化パターンが選択されている場合、3次元描画部45cは、球体の各部の透過率(α値)を、透過率変化パターンに従って変化させる。具体的には、球体の中心を原点とするモデル座標系を定義し、その中心を通る直線をZm軸とし、Zm軸に沿って各部の透過率が変わるように設定する。球体として、ポリゴンモデルを用いる場合には、各頂点の透過率を、その位置に応じて変化させる。
図19(a)及び(b)は正弦波状変化の一例を示す。図19(a)で、黒色のドット等でより濃くしてある箇所ほど、透過率が低いことを意味する。Zm軸方向の各位置の透過率は、図19(b)に示される正弦波の、同じ位置(Zm軸方向の位置)の値を有する。図19(a)及び(b)の例では、透過率の変化の周期が仮想オブジェクトを構成する球体の直径に等しいが、透過率の変化の周期は仮想オブジェクトを構成する球体の直径に等しくなくても良い。
3次元描画部45cは、上記のZm軸方向の透過率変化パターン(透過率の空間的分布)の位置を時間経過とともに変化させる。例えば、Zm軸の方向に移動させる。
この場合、例えば、ある時点では、図20(a)及び(b)に示すように、球体の左半部の中央付近(Zm=−Zm1の位置)に透過率が最小の部分があるが、それからある時間が経過した時点では、図20(c)及び(d)に示すように、球体の中心により近い位置(Zm=−Zm2の位置)に透過率が最小の部分が移動している。
変化パターンの移動は断続的又は連続的に行われる。即ち、透過率が最小の部分も、透過率が最大の部分も左から右に移動する。正弦波は連続的であるので、上記の変化は繰り返される。
断続的に行う場合、例えば、一定の時間の経過毎に行うこととしても良く、3次元描画処理が一定回数行われる毎に、移動を行わせることとしても良い。
変化パターンの移動の速度は一定であっても良く、種々の要因に応じて変えることとしても良い。例えば、オブジェクトと基準位置との距離、オブジェクトの移動速度、移動加速度等に応じた値としても良い。
3次元描画部45cは、以上のようにして時間経過とともに移動する変化パターンが貼り付けられた3次元モデルを、Zm軸がアニメーション方向Pdと平行になるように回転させる。アニメーション方向Pdは、3次元の方向ベクトルで表されるため、回転はロドリゲスの回転公式を用いることで実現することができる。
3次元描画部45cは、上記のように回転した3次元モデルを平行移動して、その基準点(球体の中心)をオブジェクトの位置Voに一致させる。
なお、回転と平行移動とはどちらを先に行っても良い。
以上のような処理をする結果、仮想オブジェクトBJは、アニメーション方向Pdに延びたZm軸に沿って透過率が変化し、かつ透過率の空間的分布(変化パターン)が時間とともにZm軸方向に移動するものとなる。図21(a)は、ある時点における仮想オブジェクトを示す。
3次元描画部45cは、以上のようにして、変化パターンが貼り付けられ、位置及び向きが定められた仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで、仮想領域VL上に仮想オブジェクトの画像Gcを生成する。
図21(b)は、図21(a)の仮想オブジェクトを投影することで形成される仮想オブジェクトの画像を示す。図20(a)〜(d)を参照して説明したように、仮想オブジェクトの変化パターンは、時間の経過とともに、Zm軸方向に移動する。仮想オブジェクトと同様に、画像Gc中の変化パターンも、時間の経過とともに、Zm軸方向に移動する。
以上のように処理を行うことで、表示器の表示領域に仮想オブジェクトの一部の画像が表示されると、ユーザはアモーダル補完により仮想オブジェクトのうちの表示されていない部分を想起し、仮想オブジェクトの中心(球の中心)の位置を直感的に知覚することができる。さらに、仮想オブジェクトに、オブジェクトの位置を示す方向性を持つ変化パターンを貼り付け、かつ変化パターンを移動させることで、ユーザにとってオブジェクトの位置Voの直感的知覚がより容易となる。
上記の例では、透過率がZm軸に沿って正弦波状に変化するパターンを用いているが、他の波形、或いは他の曲線に従って変化するパターンであっても良い。例えば、矩形波状に変化するパターンであっても良く、ガウス分布曲線に従って変化するパターンであっても良い。
上記の例では、外部状況解析部42で検出されたオブジェクトに関する情報に基づいて変化パターンの選択をしている。代わりに、オブジェクトに関する情報に関係なく、変化パターンの選択を行うこととしても良い。例えば、ユーザの好みに応じて変化パターンの選択ができるようにしても良い。その場合、運転支援システムの起動時に変化パターンを選択し、同じ変化パターンを使い続けることとしても良い。
情報記憶部41に記憶されている変化パターンが1つだけであっても良い。この場合、パターン選択部53は不要であり、外部状況解析部42は、変化パターンの選択のためのオブジェクトに関する情報の取得を行なう必要がなく、3次元描画部45cは情報記憶部41に記憶されている単一の変化パターンを用いて仮想オブジェクトの描画を行うことになる。
上記の実施の形態1〜3では、検知信号処理部24が外部状況検出部2の一部であるとして説明したが、情報表示制御装置4、4b、又は4cの一部として構成しても良い。
また、上記の実施の形態2では、検知信号処理部32が内部状況検出部3の一部であるとして説明したが、情報表示制御装置4bの一部として構成しても良い。
上記の情報表示制御装置4、4b、及び4cは、1又は2以上の処理回路により構成される。
各処理回路は、専用のハードウェアで構成されていても良く、プロセッサとプログラムメモリとで構成されていても良い。
専用のハードウェアで構成されている場合、各処理回路は、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、又はこれらを組み合わせであっても良い。
プロセッサとプログラムメモリとで構成される場合、各処理回路は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現されていても良い。ソフトウェア又はファームウェアはプログラムとして記述され、プログラムメモリに格納される。プロセッサは、プログラムメモリに記憶されたプログラムを読み出して実行することにより、各処理回路の機能を実現する。
ここで、プロセッサとは、例えば、CPU(Central Processing Unit)、演算装置、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)と呼ばれるものであっても良い。
プログラムメモリは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク等の磁気ディスクであってもよいし、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
情報表示制御装置4、4b、及び4cの諸機能は、その一部を専用のハードウェアで実現し、他の一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、情報表示制御装置4、4b、及び4cは、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上記の各機能を実現することができる。
図22は、情報表示制御装置4、4b、及び4cの諸機能を実現する1つのプロセッサを含むコンピュータを示す。
図示のコンピュータは、プロセッサ101、外部記憶媒体102、メモリ103とネットワークインタフェース104及び表示器インタフェース105を備えている。
外部記憶媒体102は、プロセッサ101が実行するプログラムを記憶している。外部記憶媒体102に記憶されているプログラムは、プロセッサ101により読み出されてメモリ103に読み込まれ、プロセッサ101により実行される。
情報記憶部41、41b、41cの役割の一部は、外部記憶媒体102によって担われ、残りはメモリ103によって担われる。
さらに、変換テーブル作成部46、46bによる、変換テーブルCTを保存する機能は、メモリ103によって担われる。
以下、実施の形態1の情報表示制御装置4における処理を、図22に示されるプロセッサ101で実現する場合の処理の手順を、図23を参照して説明する。
この場合、ネットワークインタフェース104には、外部状況検出部2が接続され、表示器インタフェース105には、表示器6が接続される。
外部記憶媒体102には、表示領域情報FD、仮想領域情報FV、視点の位置Ueを示す情報及び視線の方向Udを示す情報が予め記憶されているものとする。
ステップST11で、プロセッサ101は、外部状況検出部2から、ネットワークインタフェース104を経由して検知情報Saを取得する。プロセッサ101は、取得した検知情報Saに基づいて、車両の周囲に位置するオブジェクトを検出し、検出したオブジェクトの種類Otの判定を行なう。プロセッサ101は、判定結果を、メモリ103に保存する。この処理は、図5の外部状況解析部42で行われる処理に相当する。
ステップST12で、プロセッサ101は、外部記憶媒体102に記憶されている複数の仮想オブジェクトから1つの仮想オブジェクトBJを選択し、選択した仮想オブジェクトBJを示す情報をメモリ103に保存する。この処理は、図5の仮想オブジェクト選択部43で行われる処理に相当する。
ステップST13で、プロセッサ101は、外部記憶媒体102に記憶されている表示領域情報FDと仮想領域情報FVとから変換テーブルCTを作成し、作成した変換テーブルCTをメモリ103に保存する。この処理は、図5の変換テーブル作成部46で行われる処理に相当する。
ステップST14で、プロセッサ101は、ステップST11で検出したオブジェクトの位置Voを示す情報を取得して、メモリ103に保存する。この処理は、図5の外部状況解析部42で行われる処理に相当する。
ステップST15で、プロセッサ101は、外部記憶媒体102に記憶されている指定領域情報FAと、メモリ103に保存されている、仮想オブジェクトBJを示す情報及びオブジェクトの位置Voを示す情報とを元に、仮想オブジェクトのサイズJSを決定し、決定したサイズJSをメモリ103に保存する。この処理は、図5のサイズ決定部44で行われる処理に相当する。
ステップST16で、プロセッサ101は、外部記憶媒体102に記憶されている仮想領域情報FVと、メモリ103に保存されている、仮想オブジェクトBJを示す情報、仮想オブジェクトのサイズJSを示す情報、及びオブジェクトの位置Voを示す情報とを元に、仮想オブジェクトの画像Gcを生成し、生成した画像Gcをメモリ103に保存する。この処理は、図5の3次元描画部45で行われる処理に相当する。
ステップST17で、プロセッサ101は、メモリ103上の画像Gcを、変換テーブルCTを用いて変形し、変形画像Gdをメモリ103に保存する。この処理は、図5の画像変形部47で行われる処理に相当する。
ステップST18で、プロセッサ101は、メモリ103上の変形画像Gdを取得し、変形画像Gdのうち、表示領域DL内の部分を表示画像Geとして表示器インタフェース105を介して表示器6に送信し、表示させる。この処理は、図5の表示制御部48で行われる処理に相当する。
ステップST14〜ST18の処理は繰り返し実行される。
次に、実施の形態2の情報表示制御装置4bにおける処理を、図22に示されるプロセッサ101で実現する場合の処理の手順を、図24を参照して説明する。
この場合、ネットワークインタフェース104には、外部状況検出部2のみならず、内部状況検出部3が接続される。
図24において、図23と同じ符号は同様の処理を示す。
図24は、図23と概して同じであるが、ステップST20、ST21及びST22が付加されており、ステップST13、ST15、ST16がステップST13b、ST15b、ST16bに置き換えられている。
ステップST20で、プロセッサ101は、外部記憶媒体102に記憶されている、表示領域情報FD、仮想領域情報FV、視点の位置Ueを示す情報及び視線の方向Udをメモリ103に複写する。
ステップST21で、プロセッサ101は、内部状況検出部3から、ネットワークインタフェース104を経由して検知情報Sbを取得して、取得した検知情報Sbに基づいて、ユーザの視点の位置Ue及び視線の方向Udを検出し、検出で得た情報をメモリ103に保存する。それまでに視点の位置Ueを示す情報及び視線の方向Udを示す情報が保存されている場合には、上書きを行う。この処理は、図16の内部状況解析部51で行われる処理に相当する。
ステップST22で、プロセッサ101は、メモリ103に保存されているユーザの視点の位置Ue及び視線の方向Udに基づいて、表示領域情報FDのうち、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbを算出する。そして算出した座標を含む表示領域情報FDをメモリ103に書き込む。それまでに表示領域情報FDが書き込まれていれば、上書きを行う。この処理は、図16の表示領域情報生成部52で行われる処理に相当する。
ステップST13bで、プロセッサ101は、メモリ103に保存されている表示領域情報FD及び仮想領域情報FVを用いて変換テーブルCTを作成する。プロセッサ101は、作成した変換テーブルCTをメモリ103に書き込む。それまでに変換テーブルCTが書き込まれていれば、上書きを行う。この処理は、図16の変換テーブル作成部46で行われる処理に相当する。
ステップST15bで、プロセッサ101は、メモリ103に保存されている、指定領域情報FA、仮想オブジェクトBJを示す情報及びオブジェクトの位置Voを示す情報を元に、仮想オブジェクトのサイズJSを決定し、決定したサイズJSをメモリ103に保存する。この処理は、図16のサイズ決定部44で行われる処理に相当する。
ステップST16bで、プロセッサ101は、メモリ103に保存されている、仮想領域情報FV、仮想オブジェクトBJを示す情報、仮想オブジェクトのサイズJSを示す情報、及びオブジェクトの位置Voを示す情報を元に、仮想オブジェクトの画像Gcを生成し、生成した画像Gcをメモリ103に保存する。この処理は、図16の3次元描画部45で行われる処理に相当する。
次に、実施の形態3の情報表示制御装置4cにおける処理を、図22に示されるプロセッサ101で実現する場合の処理の手順を、図25を参照して説明する。
図25において、図23と同じ符号は同様の処理を示す。
図25は、図23と概して同じであるが、ステップST23及びST24が付加されており、ステップST16がステップST16cに置き換えられている。
ステップST23で、プロセッサ101は、外部記憶媒体102に保存されている複数の変化パターンから1つの変化パターンPtを選択し、選択した変化パターンPtをメモリ103に保存する。この処理は図17のパターン選択部53で行われる処理に相当する。
ステップST24で、プロセッサ101は、メモリ103上のオブジェクトの位置Voを元にアニメーション方向Pdを決定し、決定したアニメーション方向Pdをメモリ103に保存する。この処理は、図17のアニメーション方向決定部54で行われる処理に相当する。
ステップST16cで、プロセッサ101は、メモリ103上の変化パターンPtを、メモリ103上の仮想オブジェクトに貼り付け、時間経過に伴って、変化パターンPtをアニメーション方向Pdに移動させ、変化パターンPtの変化方向がアニメーション方向Pdに一致するように仮想オブジェクトBJの向きを定め、かつ仮想オブジェクトBJをオブジェクトの位置Voに配置する。プロセッサ101はさらに、以上のように変化パターンPtが貼り付けられ、向き及び位置が定められた仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで、仮想オブジェクトの画像Gcを仮想領域VL上に形成する。この処理は、図17の3次元描画部45cで行われる処理に相当する。
以上、本発明に係る情報表示制御装置について説明したが、情報表示制御装置で実施される情報表示制御方法も本発明の一部を成す。また、これらの装置又は方法における処理をコンピュータに実行させるためのプログラム、及びそのようなプログラムを記録したコンピュータで読取可能な記録媒体も本発明の一部を成す。
1,1b 運転支援装置、 2 外部状況検出部、 3 内部状況検出部、 4,4b 情報表示制御装置、 6 表示器、 21 撮像部、 22 検知部、 23 通信器、 24 検知信号処理部、 31 撮像部、 32 検知信号処理部、 41,41b,41c 情報記憶部、 42 外部状況解析部、 43 仮想オブジェクト選択部、 44 サイズ決定部、 45,45c 3次元描画部、 46 変換テーブル作成部、 47 画像変形部、 48 表示制御部、 51 内部状況解析部、 52 表示領域情報生成部、 53 パターン選択部、 54 アニメーション方向決定部。

Claims (15)

  1. オブジェクトの位置を示すための仮想オブジェクトの画像を表示領域に表示させる情報表示制御装置であって、
    前記オブジェクトの位置に基づき前記仮想オブジェクトのサイズを決定するサイズ決定部と、
    サイズが決定された前記仮想オブジェクトを前記オブジェクトの位置に配置し、当該仮想オブジェクトを、ユーザの視点を基準として仮想領域に透視投影することで前記仮想オブジェクトの画像を生成する3次元描画部と、
    前記仮想領域内の複数の格子点と、前記表示領域を含む平面内の、前記複数の格子点に対応する点との関係を示す変換テーブルを作成する変換テーブル作成部と、
    前記変換テーブルを用いて、前記仮想オブジェクトの画像を変形して、前記仮想オブジェクトの表示画像を生成する画像変形部と、
    前記表示画像を前記表示領域に表示させる表示制御部と
    を有し、
    前記仮想オブジェクトは、アモーダル補完によって一部から全体を想起可能な3次元図形であることを特徴とする情報表示制御装置。
  2. 前記仮想オブジェクトは、球体及び錐体のいずれかであることを特徴とする請求項に記載の情報表示制御装置。
  3. 前記サイズ決定部は、前記仮想領域のうち前記仮想オブジェクトの画像の形成のために設定された指定領域のサイズにも基づいて、前記仮想オブジェクトのサイズを決定する
    ことを特徴とする請求項1又は2に記載の情報表示制御装置。
  4. 前記サイズ決定部は、基準視野角にも基づいて、前記仮想オブジェクトのサイズを決定することを特徴とする請求項1又は2に記載の情報表示制御装置。
  5. 前記基準視野角は、水平基準視野角又は垂直基準視野角である
    ことを特徴とする請求項に記載の情報表示制御装置。
  6. 複数の仮想オブジェクトを記憶する情報記憶部と、
    前記情報記憶部に記憶されている前記複数の仮想オブジェクトから1つの仮想オブジェクトを選択する仮想オブジェクト選択部とをさらに有し、
    前記サイズ決定部は、前記仮想オブジェクト選択部により選択された仮想オブジェクトのサイズを決定し、
    前記3次元描画部は、前記仮想オブジェクト選択部により選択された仮想オブジェクトの画像を生成する
    ことを特徴とする請求項1からのいずれか1項に記載の情報表示制御装置。
  7. 前記仮想オブジェクト選択部は、前記オブジェクトに関する情報を元に仮想オブジェクトを選択する
    ことを特徴とする請求項に記載の情報表示制御装置。
  8. 前記オブジェクトに関する情報は、前記オブジェクトの種類、前記オブジェクトの大きさ、又は前記オブジェクトの位置であることを特徴とする請求項に記載の情報表示制御装置。
  9. 前記複数の格子点の各々に対応する点は、当該格子点と前記ユーザの視点とを通る直線と、前記表示領域を含む平面との交点である
    ことを特徴とする請求項1からのいずれか1項に記載の情報表示制御装置。
  10. 前記オブジェクトの位置からアニメーション方向を決定するアニメーション方向決定部をさらに備え、
    前記3次元描画部は、
    変化方向を有する変化パターンを前記仮想オブジェクトに貼り付け、時間経過とともに、前記変化パターンを前記変化方向に動かし、前記変化パターンの前記変化方向が前記アニメーション方向に一致するように前記仮想オブジェクトの向きを決め、このように向きが決められた前記仮想オブジェクトを前記仮想領域に投影することで、前記仮想オブジェクトの画像を生成する
    ことを特徴とする請求項1からのいずれか1項に記載の情報表示制御装置。
  11. 前記変化パターンは、濃度変化パターン、色変化パターン又は透過率変化パターンである
    ことを特徴とする請求項10に記載の情報表示制御装置。
  12. 前記アニメーション方向は、前記オブジェクトの位置と任意の基準位置とを結ぶベクトルで表される方向である
    ことを特徴とする請求項10又は11に記載の情報表示制御装置。
  13. オブジェクトの位置を示すための仮想オブジェクトの画像を表示領域に表示させる情報表示制御方法であって、
    前記オブジェクトの位置に基づき前記仮想オブジェクトのサイズを決定し、
    サイズが決定された前記仮想オブジェクトを前記オブジェクトの位置に配置し、当該仮想オブジェクトを、ユーザの視点を基準として仮想領域に透視投影することで前記仮想オブジェクトの画像を生成し、
    前記仮想領域内の複数の格子点と、前記表示領域を含む平面内の、前記複数の格子点に対応する点との関係を示す変換テーブルを用いて、前記仮想オブジェクトの画像を変形して、前記仮想オブジェクトの表示画像を生成し、
    前記表示画像を前記表示領域に表示させ
    前記仮想オブジェクトは、アモーダル補完によって一部から全体を想起可能な3次元図形であ
    ことを特徴とする情報表示制御方法。
  14. 請求項13に記載の情報表示制御方法における処理をコンピュータに実行させるプログラム。
  15. 請求項14に記載のプログラムを記録したコンピュータで読取り可能な記録媒体。
JP2020564290A 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体 Active JP6827609B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/000465 WO2020144798A1 (ja) 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP6827609B2 true JP6827609B2 (ja) 2021-02-10
JPWO2020144798A1 JPWO2020144798A1 (ja) 2021-03-18

Family

ID=71521551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564290A Active JP6827609B2 (ja) 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体

Country Status (5)

Country Link
US (1) US11580689B2 (ja)
JP (1) JP6827609B2 (ja)
CN (1) CN113302661B (ja)
DE (1) DE112019006103B4 (ja)
WO (1) WO2020144798A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6692981B1 (ja) * 2019-09-13 2020-05-13 マレリ株式会社 表示装置及び表示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5585813A (en) 1992-10-05 1996-12-17 Rockwell International Corporation All aspect head aiming display
JP3488874B2 (ja) 2001-10-31 2004-01-19 シャープ株式会社 編集装置、編集方法、編集プログラム、編集プログラムを記録したコンピュータ読取可能な記録媒体
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
DE102008034594B4 (de) * 2008-07-25 2021-06-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren sowie Informationssystem zur Information eines Insassen eines Fahrzeuges
EP2372512A1 (en) * 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Vehicle user interface unit for a vehicle electronic device
WO2013111280A1 (ja) * 2012-01-25 2013-08-01 パイオニア株式会社 表示装置及び表示方法
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
WO2014095067A1 (en) 2012-12-21 2014-06-26 Harman Becker Automotive Systems Gmbh A system for a vehicle
WO2015037117A1 (ja) 2013-09-13 2015-03-19 日立マクセル株式会社 情報表示システム及び情報表示装置
JP2015087619A (ja) * 2013-10-31 2015-05-07 日本精機株式会社 車両情報投影システム及び投影装置
DE102013021150A1 (de) * 2013-12-13 2015-06-18 Man Truck & Bus Ag Verfahren zur Anzeige von optischen Informationen in Fahrzeugen
JP6643659B2 (ja) * 2014-04-09 2020-02-12 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
EP3160138B1 (en) * 2014-06-20 2021-03-17 Clarion Co., Ltd. Image synthesis system, image synthesis device therefor, and image synthesis method
JP6245117B2 (ja) 2014-09-02 2017-12-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102015216794B4 (de) * 2014-09-04 2021-02-11 Yazaki Corporation Projektionsanzeigeeinrichtung
CN107810634A (zh) * 2015-06-12 2018-03-16 微软技术许可有限责任公司 用于立体增强现实的显示器
WO2017138428A1 (ja) * 2016-02-08 2017-08-17 株式会社リコー 情報表示装置
WO2017168953A1 (ja) * 2016-04-01 2017-10-05 株式会社デンソー 車両用装置、車両用プログラム、フィルタ設計プログラム
JP6493361B2 (ja) 2016-04-01 2019-04-03 株式会社デンソー 車両用装置、車両用プログラム、フィルタ設計プログラム
CN110573369B (zh) 2017-04-19 2022-05-17 麦克赛尔株式会社 平视显示器装置及其显示控制方法

Also Published As

Publication number Publication date
WO2020144798A1 (ja) 2020-07-16
DE112019006103B4 (de) 2022-10-20
DE112019006103T5 (de) 2021-10-07
JPWO2020144798A1 (ja) 2021-03-18
CN113302661A (zh) 2021-08-24
US20210256760A1 (en) 2021-08-19
CN113302661B (zh) 2024-06-14
US11580689B2 (en) 2023-02-14

Similar Documents

Publication Publication Date Title
JP5397373B2 (ja) 車両用画像処理装置、車両用画像処理方法
WO2021197189A1 (zh) 基于增强现实的信息显示方法、系统、装置及投影设备
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
JP7156937B2 (ja) 画像処理装置及び画像処理方法
KR100657943B1 (ko) 2차원 건물 데이터의 실시간 3차원 변환 방법 및 장치,그리고 이를 이용한 2차원 건물 데이터의 실시간 3차원시각화 방법 및 장치
JP6595401B2 (ja) 表示制御装置
KR20160145598A (ko) 어떤 차량의 차량 주변을 왜곡 없이 표시하기 위한 방법 및 장치
WO2021197190A1 (zh) 基于增强现实的信息显示方法、系统、装置及投影设备
US11673506B2 (en) Image system for a vehicle
JP6827609B2 (ja) 情報表示制御装置及び方法、並びにプログラム及び記録媒体
WO2019131296A1 (ja) ヘッドアップディスプレイ装置
JP4375840B2 (ja) 光源表示方法および装置
JP2009075024A (ja) 車両用メータユニット
US20210323471A1 (en) Method and arrangement for generating a representation of surroundings of a vehicle, and vehicle having such an arrangement
KR20140019199A (ko) 적외선 동작 인식 카메라를 사용한 네추럴 유저 인터페이스 기반 입체 지구본의 제조 방법
Yuan et al. A lightweight augmented reality system to see-through cars
JP6625157B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JPWO2019170202A5 (ja)
JP2020162089A (ja) 画像生成装置および画像生成方法
JP7455546B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012038132A (ja) カバレージ表示装置、カバレージ表示システムおよびカバレージ表示プログラム
JP2023006857A5 (ja)
JP2023006860A (ja) ビュー表示装置およびビュー表示方法
JP2023006857A (ja) ビュー表示装置およびビュー表示方法
CN106600677A (zh) Vr系统中对传统模型的处理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201112

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210119

R150 Certificate of patent or registration of utility model

Ref document number: 6827609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150