JPWO2016092698A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JPWO2016092698A1
JPWO2016092698A1 JP2016563376A JP2016563376A JPWO2016092698A1 JP WO2016092698 A1 JPWO2016092698 A1 JP WO2016092698A1 JP 2016563376 A JP2016563376 A JP 2016563376A JP 2016563376 A JP2016563376 A JP 2016563376A JP WO2016092698 A1 JPWO2016092698 A1 JP WO2016092698A1
Authority
JP
Japan
Prior art keywords
area
image data
resolution
observer
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016563376A
Other languages
English (en)
Other versions
JP6526051B2 (ja
Inventor
花本 貴志
貴志 花本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JPWO2016092698A1 publication Critical patent/JPWO2016092698A1/ja
Application granted granted Critical
Publication of JP6526051B2 publication Critical patent/JP6526051B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

観察者の動きに応じてより自然に画像データを表示する。観察者の視線方向に応じて画像データを表示するための画像処理装置であって解像度の異なる複数の環境マップを記憶する記憶手段と、前記観察者の動き情報として取得する取得手段と、表示しているカレント領域を保持する保持手段と、前記カレント領域と前記動き情報に基づいてターゲット領域を決定するターゲット領域決定手段と、前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有する。

Description

本発明は、ヘッドマウントディスプレイなどに画像データを表示するための画像処理技術に関する。
観察者の頭部に固定するヘッドマウントディスプレイ(以降、HMD)を用いて、観察者が画像を視聴する技術が知られている。また近年は、眼鏡型ディスプレイなども知られている。HMDに表示される画像データは、全周囲方向の映像をその都度切り出したものであり、元となるその映像は環境マップとも呼ばれる。環境マップは例えば、魚眼レンズを用いた撮影やミラーボールに反射した光をカメラで撮像する手法により取得できる。
特許文献1には、HMDに内蔵されたセンサを用いて観察者の動作を検出し、観察者の頭の動きに対応する操作に応じて表示された画像をスクロールし、表示する方法について開示している。
特開2013−254251号公報
近年、表示画像の高解像度化が進んだ結果、表示に必要な画像データの容量も大きくなり、HMDに表示するための画像データの読み出しやデコードに時間がかかる。そのため特許文献1に開示された方法によれば、観察者が視聴したい方向に頭部を動かしても、視聴したい画像データが円滑に表示されない場合がある。
そこで本発明は、観察者の動きに応じて視聴する領域を予測することにより、観察者の動きに合わせてより自然に観察者の視線に応じた画像データを表示することを目的とする。
上記課題を解決するため本発明は、観察者の視線方向に応じて画像データを表示するための画像処理装置であって、解像度の異なる複数の環境マップを記憶する記憶手段と、前記観察者の動きを示す情報を動き情報として取得する取得手段と、前記観察者に表示しているカレント領域を保持する保持手段と、前記カレント領域と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定するターゲット領域決定手段と、前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、前記複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有することを特徴とする。
本発明は、観察者の動きに応じてより自然に画像データを表示することができる。
画像処理装置の構成を示すブロック図。 ヘッドマウントディスプレイ(HMD)の構成を示す図。 環境マップの構成を示す図。 環境マップ表示処理のフローチャート。 高解像度環境マップ表示処理のフローチャート。 先読み手法の概念図。 高解像度環境マップ先読み処理のフローチャート。 先読み時の解像度選択処理のフローチャート。 キャッシュを用いた環境マップ表示処理のフローチャート。 移動を伴う環境マップ表示処理のフローチャート。 撮像装置の概念図。 環境マップ先読み処理のフローチャート。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
<第1実施形態>
(全体構成)
第1実施形態では、複数の解像度の環境マップを加速度情報に応じて読み出し、ヘッドマウントディスプレイ(HMD)に表示するための画像処理装置を例に説明する。なお、本発明はHMDに限らず、眼鏡型ディスプレイなど同様の装置への適用が可能である。
図1は、第1実施形態に適用可能な画像処理装置のハード構成を示すブロック図である。画像処理装置は、CPU101、メインメモリ102、記憶装置103、GPU104、バス106を有する。まず、CPU101は、演算処理や各種プログラムを実行する。メインメモリ102は、画像処理に必要なプログラムやデータを保持している。またメインメモリ102は、CPU101による画像処理の作業領域としても使用される。記憶装置103は、画像処理プログラムや複数の画像データを蓄積する装置であり、例えばハードディスクドライブ(HDD)が用いられる。GPU104は、画像データやGUIを表示するための外部の表示装置であるHMD105とI/F部(不図示)により接続されている。GUI104は、表示する画像データを展開し、HMD105に転送する。なおGPU104とHMD105を接続するI/Fは、例えば、赤外線通信や無線LAN等を用いたデータのやりとりを行うことができる。バス106は上述の各構成を接続するバスである。なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本実施形態の主眼ではないので、その説明は省略する。
図2は、HMD105の構成を模式的に説明する図である。図2(a)に示すようにHMD105は表示部201を有し、さらに表示部201は加速度センサ203、地磁気センサ204、GPSセンサ205が搭載されている。加速度センサ203、地磁気センサ204、GPSセンサ205は、HMD105を装着した観察者の動きを示す動き情報を取得するためのセンサである。加速度センサ2013は、観察者の頭部が左右に動く横方向と、上下に動く縦方向の加速度とを検知し、加速度情報として出力する。地磁気センサ204は、地磁気の向きを検知することによりHMD105の方位を算出し、観察者が視聴している方向を示す角度情報を出力する。GPS(グローバル・ポジショニング・システム)センサ205は、地球上におけるHMD105の位置を測定し、位置情報を取得する。また固定部202は、観察者の頭部に表示部201を固定するため、観察者は耳にかけることができるような構造になっている。つまり観察者の頭部の動きに連動して、表示部201に内蔵された各センサは位置や方向を検出する。
図2(b)に、表示部201のさらに詳細な構成を示す。図2(b)は、図2(a)に示すHMD105を上方から見たときの表示部201の内部構成を模式的に示している。表示部201は、レンズ207を通すことで、観察者の視野全体を液晶ディスプレイ206により覆うことのできる構造となっている。液晶ディスプレイ206は画像データを表示する。液晶ディスプレイ206には、全方位方向の画像からなる環境マップの一部を切り出した画像データが表示される。これにより観察者は、環境マップの中心位置にいるかのような臨場感のある映像を視聴できる。表示する画像データは、画像処理装置400から転送される。
図3は、環境マップを説明する図である。図3(a)に、視点位置に対する環境マップの座標系を示す。図3(a)に示すように、観察者の視点位置301からの視線方向は、極座標(θ、φ)を用いて表すことができる。この極座標(θ、φ)を量子化し、量子化された極座標(θ、φ)毎の情報を画像データに置き換えたものが環境マップである。全方位画像や全天周画像とも呼ばれる。環境マップを構成する各画素は輝度ベクトルを保持し、輝度ベクトルの大きさが輝度値を表し、輝度ベクトルの向きは常に視点位置を向いている。すなわち、環境マップは観察者の視点位置301に入射する全周囲の輝度情報である。環境マップを保持するデータ方式としては、図3(b)に示す正距円筒マップ方式と、図3(c)に示す球状マップ方式などがある。図3(b)に示す正距円筒マップ方式は、θを横軸、φを縦軸として2次元の矩形の画像データに変換して輝度情報を保持している。また図3(c)に示す球状マップ方式は、円の中心から円弧に向けた軸を環境マップにおけるφ、円の中心からの回転方向を環境マップにおけるθとして、2次元の円状の画像データに変換して輝度情報を保持している。なお正弦円筒マップ方式および球状マップ方式はいずれも、球状の環境マップを平面に投射するため歪みを生じる。そのため、双方の方式ともHMDにおいて表示する画像データを生成する際には射影変換を行う必要がある。
(画像処理装置の構成)
図4は、第1実施形態に適用可能な画像処理装置400の詳細な構成を示す。本実施形態では、各構成をソフトウェアによって実行される形態を例に説明する。
本実施形態における画像処理装置400は、記憶装置103に記憶された複数の解像度の環境マップから、HMD105の動作に応じて表示候補の画像データを切り出し、表示画像データを生成する。図5に、複数の環境マップを示す。本実施形態における環境マップは、高解像度環境マップ501、中解像度環境マップ502、低解像度環境マップ503の3つの異なる解像度の環境マップが保持されている。なお、本実施形態における環境マップは、正距円筒マップ方式であるとする。各解像度の環境マップは、ブロック画像504に分割され、それぞれ異なるファイルとして記憶装置103に保存されている。そのため画像処理装置400は、必要な解像度のブロック画像のみを読み出すことできる。
検出結果取得部401は、HMD105から、加速度センサ203により検出された加速度情報や地磁気センサ204により検出された角度情報などの動き情報を取得する。カレント領域決定部409は、角度情報に基づいて観察者が現在視聴している領域をカレント領域601として特定する。図6(a)にカレント領域を説明する図を示す。
ターゲット領域決定部403は、カレント領域409からカレント領域の位置を取得する。さらにターゲット領域決定部403は、新たな加速度情報を取得すると、図6(a)に示すようにカレント領域601に対して観察者がこれから視聴しようとする方向を予測し、ターゲット領域602を決定する。
経路領域決定部404は、ターゲット領域602が決定されると、カレント領域601およびターゲット領域602とに基づいて経路領域603を決定する。経路領域603は、観察者が視聴しようとするターゲット領域602に視線が移動するまでの間に、観察者の視野に入りこむ領域である。
解像度情報取得部402は、HMD105の表示部201に表示可能な解像度を解像度情報として取得する。必要解像度設定部405は、検出結果取得部401から得られる加速度情報と解像度情報取得部402から得られる解像度情報とに基づいて、次に送信すべき表示画像データの必要解像度を算出する。具体的には解像度情報取得部402は、加速度情報が示す2つの方向への加速度に応じて、経路領域に表示すべき画像データの必要解像度を設定する。また、解像度情報に応じてターゲット領域に表示すべき画像データの必要解像度を設定する。
表示画像生成部407は、環境マップ取得部406に格納された環境マップのうち、表示する解像度の環境マップを取り出して領域を切り出し、切り出した環境マップを射影変換することにより、表示用画像データを生成する。同じサイズの領域に表示される表示用画像データであっても、より解像度の高い環境マップを切り出して生成された画像データの方が、データ量が大きく、データ転送にも時間がかかる。本実施形態における表示画像生成部407は、観察者が映像の視聴を開始すると始めに、最も低解像度の環境マップから表示用画像データを生成する。その後、表示画像生成部407は、HMD105の動きに応じて表示用画像データを生成する。HMD105に動きが検出された場合には、経路領域に表示するための表示用画像データおよびターゲット領域に表示するための表示用画像データを生成し、順に出力する。なお、表示画像生成部407は予め、接続しているHMD105の表示部201において、表示すべき画像データのサイズ(画角情報)を設定されているものとする。
送信部407は、表示部201に表示するための表示画像データをHMD105側に転送する。
(画像処理装置における処理のフロー)
図7を用いて、画像処理装置400における処理のフローを説明する。CPU100が、図7に示すフローチャートのプログラムをROM102から読み込み実行することにより、画像処理装置400として実現される。
まず観察者がHMD105を装着し、視聴が開始されるとステップS701において環境マップ取得部406は、記憶装置103から低解像度環境マップ503を読み出し、メインメモリ102に展開する。
ステップS702においてカレント領域決定部409は、検出結果取得部401がHMD105の地磁気センサ204から取得した角度情報(θ、φ)と、予め保持している表示部201の画角情報とに基づいて、観察者が現在観察するカレント領域を決定する。前述の通り、環境マップには予め角度ごとの輝度情報が保持されている。そこで本実施形態では、角度情報(θ、φ)と環境マップの座標系を対応づけ、画角に応じた領域を設定することにより、カレント領域601を設定する。
ステップS703において表示画像生成部407は、低解像度環境マップ503を参照し、カレント領域を切り出し、切り出した領域の輝度情報をHMD105の表示部201に表示するための射影変換を実行する。表示画像生成部407により生成された低解像度表示用画像データは、送信部408を介して、HMD105に転送される。低解像度環境マップは既にメインメモリ102に展開されているため、高速に処理できる。また、低解像度環境マップはデータ容量が小さく、処理負荷も高くないために、観察者が視聴する領域の画像データを高速に表示可能となる。
ステップS705において検出結果取得部401は、HMD105の加速度センサ203から新たな加速度情報(aθ、aφ)が取得されたかどうかを判定する。加速度情報が更新されない場合はステップS706に進み、新たな加速度情報が取得された場合はステップS711に進む。なお、検出結果取得部401は、所定時間毎に加速度情報(aθ、aφ)を取得し、(aθ、aφ)=(0,0)である場合はステップS706に進み、(aθ、aφ)≠(0,0)である場合はステップS711に進むようにしてもよい。
ステップS706では、カレント領域601に対する表示用画像データを送信した後に、加速度情報(aθ、aφ)が取得されない場合、観察者の頭部に動きがなく、同じカレント領域601を視聴し続けていることを意味する。そこで必要解像度算出部405は、カレント領域601に表示可能であり、新たに表示用画像データの生成が必要な解像度を算出する。必要解像度情報算出部405は、解像度情報取得402からHMD105の表示部201に表示可能な最高解像度を示す解像度情報を取得する。必要解像度算出部405は、解像度情報が示す表示可能な最高解像度以下で、環境マップのうち最も高い解像度を必要解像度として決定する。
ステップS707において表示画像生成部407は、必要解像度算出部706から得られる必要解像度を参照し、低解像度環境マップより高解像度の表示用画像データを生成する必要があるかどうかを判定する。必要解像度が低解像度環境マップ503以下である場合、解像度の変更はできないので、ステップS721に進む。必要解像度が低解像度環境マップ503の解像度より高い場合は、ステップS708に進む。
ステップS708において表示画像生成部407は、必要解像度に応じた環境マップから、カレント領域601に対応するブロック画像のみを記憶装置103から読み出し、メインメモリ102に展開する。
ステップS709において表示画像生成部407は、読み出したブロック画像からカレント領域601を切り出し、切り出した画像データを射影変換することにより、表示用画像データを生成する。
ステップS710において表示画像生成部407は、表示用画像データを送信部408に出力し、送信部408はHMD105により高解像度な表示用画像データを転送する。その結果、観察者がカレント領域601を視聴し続けている場合は、より高解像度な映像を視聴することができる。
次に、観察者の頭部が動き、HMD105の加速度センサ203から新たな加速度情報(aθ、aφ)を取得(または(aθ、aφ)≠(0,0))した場合の処理について説明する。ステップS711においてターゲット領域決定部403は、加速度情報(aθ、aφ)に基づいて、ターゲット領域602を決定する。人間の視線はその構造上、図6(c)に示すように、θ方向とφ方向の可動範囲によって限定されている。そこでターゲット領域決定部403は、図6(b)に示すように予め保持している頭部の稼働範囲と加速度情報(aθ、aφ)とから、観察者の頭部の動きを予測し、ターゲット領域602を設定する。ターゲット領域は、カレント領域の中心座標(θc、φc)から一定時間Δt秒に加速度(aθ、aφ)で移動した移動量から算出する。Δt秒後のターゲット領域の中心座標(θt、φt)は、
Figure 2016092698
により算出できる。この中心座標から画角に合わせた領域を設定する。Δtは、人間の頭部を稼働する平均時間として1秒を設定しておく。なお、(θt、φt)が頭部の可動範囲を超える場合は、可動範囲内にターゲット領域を再設定する。
ステップS712において経路領域算出部404は、カレント領域601とターゲット領域602とから、2つの領域をつなぐ経路領域603を設定する。経路領域はカレント領域とターゲット領域の各頂点を直線でつないだ領域を、全て覆うブロック画像群を算出して決定する。
ステップS713において表示画像生成部407は、メインメモリ102上の低解像度環境マップ503から、ターゲット領域602および経路領域603の画像データを切り出し、それぞれ射影変換をする。
ステップS714において表示画像生成部602は、経路領域603の表示用画像データおよびターゲット領域602の表示用画像データを順に送信部408出力する。送信部408は角度情報に合わせて表示部201に各低解像度な表示用画像データを表示するよう制御する。
ステップS715において必要解像度算出部405は、必要解像度を算出する。ターゲット領域602に対する必要解像度は、ステップ706と同様の方法により決定される。ステップS715において経路領域603に対する必要解像度の算出の詳細については、後述する。
ステップS716において表示画像生成部716は、ステップS707と同様に、必要解像度算出部706から得られる必要解像度を参照し、低解像度環境マップより高解像度の表示用画像データを生成する必要があるかどうかを判定する。表示用画像データの変更があると判定した場合は、ステップS717に進む。
ステップS717〜ステップS719における表示画像生成部407の処理は、ステップS708〜ステップS710と同様である。
ステップS720においてカレント領域決定部409は、HMD105の地磁気センサ204から所定の間隔で送信される角度情報(θ、φ)とGPSセンサ205から送信される位置情報に基づいて、カレント領域601の位置を更新する。
ステップS721において画像処理装置400は、HMD105における視聴が終了したかどうかを判定し、終了する場合は画像処理装置400における処理を完了する。また、視聴が継続している場合は、ステップS705に戻り、観察者の頭部の動きに応じて、表示用画像データを生成する。
図8は、S715における必要解像度取得部402による必要解像度の算出処理のフローチャートである。ステップS801において、HMD105の表示部201の解像度が所定の閾値R以上であるかを判定する。表示部201の解像度の方が閾値R以上の場合、ステップS802に進む。表示部201の解像度が閾値R未満である場合、ステップS805に進む。
ステップS802において、HMD105から得られる加速度情報(aθ、aφ)に基づいて、加速度の絶対値が所定の閾値A未満であるかどうかを判定する。頭部の動きが早い場合、観察者は、観察者の視線が視聴した方向に辿りつくまでの経路領域についてはあまり映像として視覚できないと推測できる。そこで、加速度の絶対値が閾値A以上である場合、ステップS805に進み、経路領域に対しては比較的低い解像度を設定する。ステップS802において加速度の絶対値が閾値A未満である場合は、ステップS803に進む。
ステップS803において、aθとaφの大きさを比較する。aφの大きさがaφの大きさ未満である場合はステップS804に進み、aθの大きさがaφの大きさ以上である場合はステップS805に進む。ステップS804において、経路領域603に対する解像度としてターゲット領域602に対応する解像度と同じ解像度を設定する。つまり、経路領域603に対する解像度は、表示部201が表示可能な解像度の環境マップのうち最も高い解像度が決定される。ステップS805においては、経路領域603に対する解像度として、ターゲット領域602に対応する解像度より、1段階解像度を低くした解像度が設定される。例えば本実施形態において、ターゲット領域602に対して高解像度環境マップ501と同じ解像度が決定されている場合、経路領域603に対する必要解像度は、中解像度環境マップ502と同じ解像度が決定される。これは、人間の頭部はθ方向の方がより可動範囲が広いため、広範囲の領域を先読みする必要が生じることを考慮している。すなわち頭部がθ方向に大きく動く場合は、生成する表示用画像データの大きさが大きくなる分、解像度を低くすることによりデータ容量を削減している。
以上説明したように本実施形態によれば、HMD105を装着した観察者が今後観察する領域をあらかじめ予測し、表示用画像データを生成する。予測に基づいて生成された表示用画像データは、HMD105の表示部201に表示する画像の事前に生成されているため、表示部201は観察者の動きに合わせてリアルタイムに高解像度の映像を表示することができる。
<第2実施形態>
第1実施形態では、画像処理装置400が生成した表示用画像データを随時HMD105の表示部201に表示する形態について説明した。第2実施形態では、ターゲット領域603として先読みした画像データをキャッシュ(一時的にメインメモリ102に保持)および削除する手法について説明する。なお、第1実施形態と同一の構成については同一の符号を付し、説明を省略する。
図9は、人間の頭部の動き特性を説明するための図である。はじめに、頭部901が視点位置902を向いているものとする。次に図9(b)に示すように頭部901がθ方向に回転し、視点位置が視点位置903まで移動する。それ以上首が回転できないない位置まで到達すると、図9(c)に示すように、頭部901は逆回転を行い、元の視点位置902に戻ろうとする可能性が高い特性がある。本実施形態では、この動き特性を利用した画像データのキャッシュ手法を説明する。
図10は、第2実施形態における処理の全体を示すフローチャートである。ステップS1001において画像処理装置400は、HMD105から加速度センサ203が検出した加速度情報を取得する。
ステップS1002において画像処理装置400は、角度情報に応じてステップ701からステップS704までの処理を実行し、観察者が視聴しているカレント領域601に表示用画像データを生成する。また、加速度情報に応じてステップS711からステップS719までの処理を実行することにより、加速度方向に応じて、ターゲット領域602の表示用画像データと経路領域603の表示用画像データを生成し、メインメモリ102にキャッシュする。画像処理装置400は、少なくともHMD105から取得した加速度情報が示す方向が反転するまで、つまり逆方向の加速度情報が入力されるまで表示用画像データをメインメモリ102に保持させる。ステップS1003において各領域に対応する表示用画像データを順にHMD105に転送し、ステップS1004において受け取った順に表示用画像データを表示部210が表示する。この時、表示用画像データは、メインメモリ102に保持されたままである。
ステップS1005においてHMD105が新たな加速度情報を取得し、画像処理装置400に転送する。ステップS1006において、HMD105から取得された加速度情報に基づいて、表示用画像データを生成する。ターゲット領域、経路領域や必要解像度を算出する工程は、第1実施形態と同様に実行する。ただし、生成したい表示用画像データがメインメモリ102にキャッシュされている場合は、新たに環境マップの切り出し、射影変換を行うことなく、メインメモリ102から表示用画像データを読み出す。生成したい表示用画像データがメインメモリ102に保存されていない場合は、第1実施形態と同様に、ターゲット領域および経路領域に対応する表示用画像データを生成する。ステップS1008において表示用画像データがHMD105の表示部201に表示される。ステップS1009において、メインメモリ102から削除する。
以上により、人間の頭部の動き特性に合わせて、一度生成した表示用画像データが再度視聴される可能性を考慮して、先読みして生成した表示用画像データをキャッシュする。これにより、観察者の動きに合わせてよりリアルタイムかつ少ない処理負荷により高解像度の映像をリアルタイムに表示することができる。
<第3実施形態>
第2実施形態では、人間の頭部の動き特性に応じて表示用画像データを制御する方法について開示した。第3実施形態では、観察者の移動(歩行)に合わせて環境マップを切り替える処理について説明する。なお、第1実施形態と同一の構成については同一の符号を付し、説明を省略する。
図11は、人間の歩行に合わせた環境マップの切り替え方法を説明する概要図である。観察者1101がはじめに環境マップAを観察しているものとする。観察者1101が前進した場合、観察者1101が観察する光景を変化させる必要がある。そのため、環境マップAから環境マップBに切り替える必要がある。このとき、観察者1101がある注視点1102を注視しながら、歩行する場合を考える。前述の実施形態において説明した通り、同じ視線方向の映像を視聴していると、最初は低解像度な環境マップに基づいて生成された表示用画像データが表示され、その後に高解像度な環境マップに基づいて生成された表示用画像データに切り替わる。従って観察者1101は既に高解像度の環境マップAを観察しているので、歩行した結果、位置情報と角度情報に基づいて新たに環境マップBの低解像度な表示用画像データに切り替わると、違和感を感じてしまう。そのため、この違和感を軽減する手法が必要である。
図12は、第3実施形態における処理の全体を示すフローチャートである。ステップS1201において、HMD105の表示部201は注視点1002における高解像度の環境マップAに基づいて生成された表示用画像データを表示している。ステップS1002では、加速度センサ203により加速度情報、磁気センサ204により角度情報、GPSセンサ205による位置情報を用いて観察者1101の歩行を検知し、その移動情報を動き情報として画像処理装置400に送信する。
ステップS1003では、移動情報(方向、距離)に応じて観察者1101が移動した後の位置に対応する環境マップBを選択する。ステップS1004において、HMD105は現在表示している注視点1002における環境マップAの解像度を画像処理装置400に送信する。ステップS1005においてHMD105は、CPU(不図示)による制御のもと、現在表示している注視点1002における環境マップAに基づいて生成された表示用画像データを、観察者1101の移動情報に合わせて射影変換し表示する。一方ステップS1006において画像処理装置400は、HMD105の表示している解像度に合わせて、読み出す環境マップBの解像度を設定する。ステップS1007において画像処理装置400は、ステップ記憶装置103からS106において設定した解像度の環境マップBの注視点1002を中心とするカレント領域のブロック画像を読み出し、メインメモリ102に展開する。ステップS1008において画像処理装置400における表示画像生成部407は、読み出したカレント領域の画像データを射影変換し表示用画像データを生成する。ステップS1009では、HMD105の表示部201は、ステップS1008において生成された表示用画像データを表示する。
以上により、観察者が移動する場合においても、観察者が解像度の変化による違和感を感じることなくリアルタイムに高解像度の映像を表示できる。また、観察者の位置が変わったことにより視点位置に対応する環境マップが変わった場合にも、効率的により高解像度な画像データを生成することができる。
<その他の実施形態>
前述の実施形態では、観察者の頭部(または視線)の動きを検知するために、HMD105に搭載された加速度センサを用いて頭部の加速度を検出し、加速度情報を用いる例を説明した。しかしながら、観察者の動きを取得する方法はこれに限らない。例えば、加速度ではなく頭部が動いた時の速度を検出する方法でもよいし、頭部の動きを示す情報としては加速度情報(aθ、aφ)ではなくベクトルによって表された情報を用いてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。

Claims (9)

  1. 観察者の視線方向に応じて画像データを表示するための画像処理装置であって、
    解像度の異なる複数の環境マップを記憶する記憶手段と、
    前記観察者の動きを示す情報を動き情報として取得する取得手段と、
    前記観察者に表示しているカレント領域を保持する保持手段と、
    前記カレント領域と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定するターゲット領域決定手段と、
    前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、
    前記複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、
    前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有することを特徴とする画像処理装置。
  2. 前記設定手段は、前記動き情報から得られる前記観察者の動きの速度の大きさに基づいて、前記経路領域に対応する解像度を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記動き情報には、横方向の加速度を示す情報と縦方向の加速度を示す情報からなる加速度情報を含み、
    前記設定手段は、縦方向の加速度の方が横方向の加速度よりも大きい場合は第1の解像度を、横方向の加速度の方が縦方向の加速度よりも大きい場合は前記第1の解像度より低い第2の解像度と、前記経路領域に対応する解像度として設定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記経路領域決定手段は、縦方向に狭く横方向に広い領域を経路領域として設定することを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  5. 前記設定手段は、前記画像データを表示する表示手段が表示可能な最高解像度を予め記憶し、前記ターゲット領域に対応する解像度として最高解像度を設定することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。
  6. さらに、前記生成手段が生成した画像データを保持する保持手段を有し、
    前記保持手段は、前記取得手段が示す動き情報が逆方向の動きを示すまで、前記画像データを保持することを特徴とする請求項3の何れか一項に記載の画像処理装置。
  7. さらに、前記取得手段は、前記動き情報として前記観察者の移動に関する情報を示す移動情報を取得し、
    前記生成手段は、前記移動情報に応じて読み出す環境マップを切り替えることを特徴とする請求項1乃至6の何れか一項に記載の画像処理装置。
  8. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至7の何れか一項に記載された画像処理装置として機能させることを特徴とするコンピュータプログラム。
  9. 観察者の視線方向に応じて画像データを表示するための画像処理方法であって、
    前記観察者の動きを示す情報を動き情報として取得し、
    前記観察者に表示しているカレント領域を保持し、
    前記カレント領域と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定し、
    前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定し、
    記憶手段に記憶された解像度の異なる複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定し、
    前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成することを特徴とする画像処理方法。
JP2016563376A 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム Active JP6526051B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/082982 WO2016092698A1 (ja) 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016092698A1 true JPWO2016092698A1 (ja) 2017-09-21
JP6526051B2 JP6526051B2 (ja) 2019-06-05

Family

ID=56106942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016563376A Active JP6526051B2 (ja) 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US9965830B2 (ja)
JP (1) JP6526051B2 (ja)
WO (1) WO2016092698A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235810B2 (en) 2015-09-22 2019-03-19 3D Product Imaging Inc. Augmented reality e-commerce for in-store retail
US10646289B2 (en) 2015-12-29 2020-05-12 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
JP2018004950A (ja) * 2016-07-01 2018-01-11 フォーブ インコーポレーテッド 映像表示システム、映像表示方法、映像表示プログラム
US9858637B1 (en) * 2016-07-29 2018-01-02 Qualcomm Incorporated Systems and methods for reducing motion-to-photon latency and memory bandwidth in a virtual reality system
KR20180051202A (ko) * 2016-11-08 2018-05-16 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP6278546B1 (ja) * 2017-06-02 2018-02-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
GB2577024B (en) * 2017-06-09 2022-08-03 Displaylink Uk Ltd Using headset movement for compression
CN108596834B (zh) * 2018-04-27 2023-11-17 腾讯科技(深圳)有限公司 图像的分辨率处理方法、图像处理装置及系统、存储介质
US11409091B2 (en) * 2019-12-31 2022-08-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11864841B2 (en) 2019-12-31 2024-01-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11607287B2 (en) 2019-12-31 2023-03-21 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324799A (ja) * 1992-05-15 1993-12-07 Hitachi Ltd バーチャルリアリティ制御方法および装置
JPH09305156A (ja) * 1996-05-16 1997-11-28 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法及び装置
JPH11175758A (ja) * 1997-12-11 1999-07-02 Mitsubishi Electric Corp 立体表示方法および装置
JP2000348201A (ja) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk 画像処理方法、その装置および記憶媒体
JP2003091479A (ja) * 2001-09-18 2003-03-28 Nec Corp 画像データ取得システムにおけるサーバ及び端末、その画像データ取得方法、及び画像データ取得プログラム
JP2003519982A (ja) * 1999-12-30 2003-06-24 スイスコム・モバイル・アクチエンゲゼルシヤフト 画像データを伝送するための方法
JP2003202850A (ja) * 2001-10-04 2003-07-18 Eastman Kodak Co 画像表示方法及びシステム
JP2004072694A (ja) * 2002-08-09 2004-03-04 Sony Corp 情報提供システムおよび方法、情報提供装置および方法、記録媒体、並びにプログラム
JP2008233765A (ja) * 2007-03-23 2008-10-02 Toshiba Corp 画像表示装置および画像表示方法
JP2012008803A (ja) * 2010-06-24 2012-01-12 Sony Computer Entertainment Inc 画像処理装置、コンテンツ作成支援装置、画像処理方法、コンテンツ作成支援方法、および画像ファイルのデータ構造
JP2012037761A (ja) * 2010-08-09 2012-02-23 Sony Corp 表示装置組立体
JP2014165840A (ja) * 2013-02-27 2014-09-08 Brother Ind Ltd 端末装置、プログラム、及び情報処理装置
WO2014197226A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Image rendering responsive to user actions in head mounted display

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP3706740B2 (ja) * 1998-06-24 2005-10-19 ドリームテクノロジーズ株式会社 画像表示及びデータ読み込みのための装置及び方法
JP2001337645A (ja) * 2000-05-26 2001-12-07 Fujitsu Ltd 表示システム及び記憶媒体
JP2003224846A (ja) 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd 画像処理装置、復号化装置、符号化装置、画像処理システム、画像処理方法、及び、符号化方法
JP3897691B2 (ja) * 2002-12-17 2007-03-28 キヤノン株式会社 スクロール表示方法及び装置
JP5829097B2 (ja) * 2011-10-25 2015-12-09 オリンパス株式会社 頭部装着型表示装置、プログラム及び画像処理システム
JP2013254251A (ja) 2012-06-05 2013-12-19 Nec System Technologies Ltd ヘッドマウントディスプレイ装置、制御方法、及びプログラム
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
KR102441437B1 (ko) * 2014-09-03 2022-09-08 네버마인드 캐피탈 엘엘씨 콘텐트를 캡처, 스트리밍, 및/또는 재생하기 위한 방법들 및 장치

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324799A (ja) * 1992-05-15 1993-12-07 Hitachi Ltd バーチャルリアリティ制御方法および装置
JPH09305156A (ja) * 1996-05-16 1997-11-28 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法及び装置
JPH11175758A (ja) * 1997-12-11 1999-07-02 Mitsubishi Electric Corp 立体表示方法および装置
JP2000348201A (ja) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk 画像処理方法、その装置および記憶媒体
JP2003519982A (ja) * 1999-12-30 2003-06-24 スイスコム・モバイル・アクチエンゲゼルシヤフト 画像データを伝送するための方法
JP2003091479A (ja) * 2001-09-18 2003-03-28 Nec Corp 画像データ取得システムにおけるサーバ及び端末、その画像データ取得方法、及び画像データ取得プログラム
JP2003202850A (ja) * 2001-10-04 2003-07-18 Eastman Kodak Co 画像表示方法及びシステム
JP2004072694A (ja) * 2002-08-09 2004-03-04 Sony Corp 情報提供システムおよび方法、情報提供装置および方法、記録媒体、並びにプログラム
JP2008233765A (ja) * 2007-03-23 2008-10-02 Toshiba Corp 画像表示装置および画像表示方法
JP2012008803A (ja) * 2010-06-24 2012-01-12 Sony Computer Entertainment Inc 画像処理装置、コンテンツ作成支援装置、画像処理方法、コンテンツ作成支援方法、および画像ファイルのデータ構造
JP2012037761A (ja) * 2010-08-09 2012-02-23 Sony Corp 表示装置組立体
JP2014165840A (ja) * 2013-02-27 2014-09-08 Brother Ind Ltd 端末装置、プログラム、及び情報処理装置
WO2014197226A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Image rendering responsive to user actions in head mounted display

Also Published As

Publication number Publication date
US9965830B2 (en) 2018-05-08
JP6526051B2 (ja) 2019-06-05
WO2016092698A1 (ja) 2016-06-16
US20160170488A1 (en) 2016-06-16

Similar Documents

Publication Publication Date Title
WO2016092698A1 (ja) 画像処理装置、画像処理方法およびプログラム
US10586395B2 (en) Remote object detection and local tracking using visual odometry
US11195049B2 (en) Electronic device localization based on imagery
US9858643B2 (en) Image generating device, image generating method, and program
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
EP3291536B1 (en) Methods, devices and systems for automatic zoom when playing an augmented reality scene
US11991477B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
WO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
KR20170013737A (ko) 헤드 마운트 디스플레이 장치 및 그 동작방법
KR102437276B1 (ko) 바디 움직임 기반의 클라우드 vr 장치 및 방법
JP2005038321A (ja) ヘッドマウントディスプレイ装置
US11443719B2 (en) Information processing apparatus and information processing method
JP2008219390A (ja) 画像閲覧装置
JP6208910B1 (ja) 動画像処理装置、動画像処理システム、動画像処理方法及び動画像処理プログラム
KR101877901B1 (ko) Vr영상을 제공하는 방법 및 그 전자 장치
JP2019215782A (ja) データ差し替え装置、端末、およびデータ差し替えプログラム
JP6906370B2 (ja) 画像処理装置
Aimone et al. An eyetap video-based featureless projective motion estimation assisted by gyroscopic tracking for wearable computer mediated reality
JP6639205B2 (ja) 送信装置、送信方法、およびプログラム
US20240104766A1 (en) Method and Device for Generating Metadata Estimations based on Metadata Subdivisions
KR101258839B1 (ko) 영상 표시 장치 및 방법
CN115769175A (zh) 信息处理设备、显示范围决定方法和程序
KR20210051072A (ko) 지도 정보를 생성하는 방법 및 이를 수행하는 지도 생성 서버
JP2020071394A (ja) 情報処理装置、情報処理方法及びプログラム
JP2015210623A (ja) 光源分布推定装置及び光源分布推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6526051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151