JPWO2017191703A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JPWO2017191703A1
JPWO2017191703A1 JP2018515396A JP2018515396A JPWO2017191703A1 JP WO2017191703 A1 JPWO2017191703 A1 JP WO2017191703A1 JP 2018515396 A JP2018515396 A JP 2018515396A JP 2018515396 A JP2018515396 A JP 2018515396A JP WO2017191703 A1 JPWO2017191703 A1 JP WO2017191703A1
Authority
JP
Japan
Prior art keywords
image
user
image processing
real space
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018515396A
Other languages
English (en)
Inventor
良徳 大橋
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2017191703A1 publication Critical patent/JPWO2017191703A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

ユーザが頭部に装着して使用する表示装置と接続される画像処理装置であって、当該ユーザの周囲の現実空間の画像を取得し、視野の情報を決定して、取得した現実空間の画像に基づき、決定した情報で特定される視野の画像を生成する。そして当該生成した画像を、前記表示装置に出力する画像処理装置である。

Description

本発明は、ユーザが頭部に装着して使用する表示装置と接続される画像処理装置に関する。
近年、ヘッドマウントディスプレイなど、ユーザが頭部に装着して使用する表示装置が普及しつつある。このような表示装置は、ユーザの目の前に画像を結像させることで、その画像をユーザに閲覧させる。こうした表示装置には、ユーザの眼前を表示部で覆い、ユーザに眼前の現実空間を見せないようにする非透過型のものと、表示部をハーフミラー等で構成し、ユーザに眼前の現実空間を視認させる透過型(光学シースルー方式)のものがある。
また、非透過型の表示装置であっても、別途、カメラで撮影したユーザの眼前の現実空間を表示部に表示することで、透過型の表示装置同様にユーザに眼前の現実空間を視認させる、疑似的に透過型の表示装置を実現するもの(カメラシースルー方式と呼ばれる)が存在する。
しかしながら、カメラシースルー方式の表示装置では、ユーザの実際の目の位置を視点とした画像と異なり、カメラからの視点の画像をユーザが見ることとなるので、ユーザは例えば手の位置の距離感がつかみにくいという問題点があった。
本発明は上記実情に鑑みて為されたもので、その目的の一つは、ユーザに対してより正確な手の位置の距離感を与えつつ画像を表示できる画像処理装置を提供することである。
上記従来例の問題点を解決する本発明は、ユーザが頭部に装着して使用する表示装置と接続される画像処理装置であって、当該ユーザの周囲の現実空間の画像を取得する画像取得手段と、視野の情報を決定する決定手段と、前記取得した現実空間の画像に基づき、前記決定した情報で特定される視野の画像を生成する画像生成手段と、を有し、前記画像生成手段が生成した画像を、前記表示装置に出力することとしたものである。
本発明の実施の形態に係る画像処理装置を含む画像処理システムの例を表す構成ブロック図である。 本発明の実施の形態に係る画像処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係る画像処理装置が用いる頭部の傾きの情報の例を表す説明図である。 本発明の実施の形態に係る画像処理装置が生成する物体バッファの概要を表す説明図である。 本発明の実施の形態に係る画像処理装置が生成する物体バッファの投影像を表す説明図である。 本発明の実施の形態に係る画像処理装置の動作例を表すフローチャート図である。 本発明の実施の形態に係る画像処理装置の動作例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置10を含む画像処理システム1は、図1に例示するように、画像処理装置10と、操作デバイス20と、中継装置30と、表示装置40と、を含んで構成されている。
画像処理装置10は、表示装置40が表示すべき画像を供給する装置である。例えば画像処理装置10は、家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等である。図1に示されるように、この画像処理装置10は、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。
制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されているプログラムを実行する。本実施の形態では、この制御部11は、表示装置40を装着したユーザの周囲の現実空間の画像を取得し、当該取得した現実空間の画像に基づいて、指定された視野の画像を生成する。
具体的に、本実施の形態の一例では、この制御部11は、ユーザの位置を中心として、ユーザの後方と含むユーザ周囲の所定サイズ(例えば幅(ユーザが表示装置40を装着した時点(つまり初期)のユーザの視線方向に直交し、床面に平行な方向)10m、奥行(床面に平行な初期のユーザの視線方向)10m、高さ3mの直方体範囲)の現実空間(以下、対象空間と呼ぶ)に対応する仮想的な三次元空間(以下、仮想空間と呼ぶ)を構成する。
すなわち制御部11は、現実空間の画像を参照しつつ、この仮想空間内に仮想的な三次元の物体を配し、あるいは映像効果を適用する。また、この制御部11は、この仮想空間内に、仮想空間の画像をレンダリングする際に用いる視野に係る情報(ユーザの左目に対応する視野と右目に対応する視野の二つに係る情報または共通の一つの視野の情報)を得て、当該得た情報で特定される視野から見た仮想空間の画像(左右のそれぞれの目に対応する視野の情報を用いる場合は立体視画像となる)を生成する。そして制御部11は、生成した画像を表示装置40に出力する。この制御部11の詳しい動作については、後に述べる。
記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラムを格納する。また、この記憶部12は制御部11のワークメモリとしても動作し、制御部11がプログラム実行の過程で使用するデータを格納する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。
インタフェース部13は、操作デバイス20や中継装置30との間で画像処理装置10の制御部11がデータ通信を行うためのインタフェースである。画像処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス20や中継装置30等と接続される。一例として、このインタフェース部13は、画像処理装置10が供給する画像(立体視画像)や音声を中継装置30に送信するために、HDMI(登録商標)(High-Definition Multimedia Interface)などのマルチメディアインタフェースを含んでよい。また、中継装置30経由で表示装置40から各種の情報を受信したり、制御信号等を送信したりするために、USB等のデータ通信インタフェースを含んでよい。さらにインタフェース部13は、操作デバイス20に対するユーザの操作入力の内容を示す信号を受信するために、USB等のデータ通信インタフェースを含んでよい。
操作デバイス20は、家庭用ゲーム機のコントローラ等であって、ユーザが画像処理装置10に対して各種の指示操作を行うために使用される。操作デバイス20に対するユーザの操作入力の内容は、有線又は無線のいずれかにより画像処理装置10に送信される。なお、操作デバイス20は必ずしも画像処理装置10と別体でなくてもよく、画像処理装置10の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。
中継装置30は、有線又は無線のいずれかにより表示装置40と接続されており、画像処理装置10から供給される画像(立体視画像)のデータを受け付けて、受け付けたデータに応じた映像信号を表示装置40に対して出力する。このとき中継装置30は、必要に応じて、供給された画像が表す映像に対して、表示装置40の光学系によって生じる歪みを補正する処理などを実行し、補正された映像を表す映像信号を出力してもよい。なお画像処理装置10から供給される画像が立体視画像であれば、中継装置30から表示装置40に供給される映像信号は、立体視画像に基づいて生成した左目用の映像信号と右目用の映像信号との二つの映像信号を含んでいる。また、中継装置30は、立体視画像や映像信号以外にも、音声データや制御信号など、画像処理装置10と表示装置40との間で送受信される各種の情報を中継する。
表示装置40は、ユーザが頭部に装着して使用する表示デバイスであって、中継装置30から入力される映像信号に応じた映像を表示し、ユーザに閲覧させる。本実施形態では、表示装置40はユーザの右目と左目とのそれぞれの目の前に、それぞれの目に対応した映像を表示するものとする。この表示装置40は、図1に示したように、映像表示素子41、光学素子42、カメラ43、センサ部44、及び通信インタフェース45を含んで構成される。
映像表示素子41は、有機EL表示パネルや液晶表示パネルなどであって、中継装置30から供給される映像信号に応じた映像を表示する。この映像表示素子41は、左目用の映像と右目用の映像とを一列に並べて表示する1つの表示素子であってもよいし、左目用の映像と右目用の映像とをそれぞれ独立に表示する一対の表示素子を含んで構成されてもよい。また、スマートフォン等のディスプレイ画面が、そのまま映像表示素子41として用いられてもよい。この場合、スマートフォン等が、中継装置30から供給される映像信号に応じた映像を表示することとなる。
また表示装置40は、ユーザの網膜に直接映像を投影する網膜照射型(網膜投影型)の装置であってもよい。この場合、映像表示素子41は、光を発するレーザーとその光を走査するMEMS(Micro Electro Mechanical Systems)ミラーなどによって構成されてもよい。
光学素子42は、ホログラムやプリズム、ハーフミラーなどであって、ユーザの目の前に配置され、映像表示素子41が表示する映像の光を透過又は屈折させて、ユーザの目に入射させる。具体的に、この光学素子42は、左目用光学素子42Lと、右目用光学素子42Rとを含んでもよい。この場合、映像表示素子41が表示する左目用の映像は、左目用光学素子42Lを経由してユーザの左目に入射し、右目用の映像は右目用光学素子42Rを経由してユーザの右目に入射するようにしてもよい。これによりユーザは、表示装置40を頭部に装着した状態で、左目用の映像を左目で、右目用の映像を右目で、それぞれ見ることができるようになる。なお、本実施形態において表示装置40は、ユーザが外界の様子を視認することができない非透過型の表示装置であるものとする。
カメラ43は、表示装置40の前面(ユーザの前面側)の中央よりやや左側と中央よりやや右側とにそれぞれ配した一対の撮像素子430L,430R(以下の説明で左右を区別する必要のないときには、撮像素子430としてまとめて称する)を含む。またこのカメラ43は、ユーザの背面側に配された少なくとも一つの撮像素子430Bを含んでもよい。このカメラ43は、少なくとも撮像素子430L,Rで撮像したユーザ前方の現実空間の画像を撮像し、当該撮像して得た画像データを、中継装置30を介して画像処理装置10に対して出力する。
センサ44は、ユーザの頭部の方向(ユーザの顔の前面方向)と位置とを検出する頭部方向センサ441をさらに含んでもよい。この場合、当該頭部方向センサ441は、ユーザの頭部の方向(顔面の方向)を検出する。具体的にこの頭部方向センサ441は、ジャイロ等であり、表示装置40の装着時の初期の方向からの床面に平行な面内での頭部方向の回転角度と、仰角方向の回転角度と、視野方向の軸まわりの回転角度を検出して出力する。またこの頭部方向センサ441は、表示装置40の所定の位置(例えばカメラ43の撮像素子430Lと撮像素子430Rとを結ぶ線分を二等分する点の位置)を基準位置として、この基準位置の、ユーザの左右方向(横断面と冠状面の交差する軸、以下X軸とする)、前後方向(矢状面と横断面の交差する軸、以下Y軸とする)、上下方向(Z軸とする)への装着時からの移動量(x,y,z)を検出して出力する。この基準位置を原点とした各撮像素子430の相対的座標は既知であるものとする。
通信インタフェース45は、中継装置30との間で映像信号や、画像データ等のデータの通信を行うためのインタフェースである。例えば表示装置40が中継装置30との間で無線LANやBluetooth(登録商標)などの無線通信によりデータの送受信を行う場合、通信インタフェース45は通信用のアンテナ、及び通信モジュールを含む。
次に、本発明の実施の形態に係る画像処理装置10の制御部11の動作について説明する。この制御部11は、記憶部12に格納されたプログラムを実行することにより、図2に例示するように、機能的に、画像取得部21と、視野決定処理部23と、画像生成部24と、出力部25とを実現する。
画像取得部21は、表示装置40を装着したユーザの周囲の現実空間の画像を取得する。具体的にこの画像取得部21は、表示装置40から中継装置30を介して、カメラ43にて撮像した画像データを受け入れる。本実施の形態の例では、カメラ43で撮像した画像データは、左右に配した一対の撮像素子430で撮像された一対の画像データであり、各画像データの視差により撮像された現実空間内の対象物までの距離が判断できるものである。本実施の形態では、この画像取得部21は、カメラ43で撮像された画像データに基づいて、当該画像データ(以下区別のため撮像画像データと呼ぶ)と同じサイズのデプスマップを生成して出力する。ここでデプスマップは、カメラ43で撮像された画像データの各画素に撮像された対象物までの距離を表す情報を、当該画素に対応する画素の値とした画像データである。
視野決定処理部23は、仮想空間をレンダリングするための視野の情報を決定する。具体的な例として、この視野決定処理部23は、カメラ43に含まれる撮像素子430の位置によらず、予め定められた(例えばプログラムにハードコードされていてもよいし、設定ファイルに記述されたものを読取ったものであってもよい)仮想空間内のレンダリングを行う際のカメラ(以下、レンダリングカメラと呼ぶ。このレンダリングカメラの位置から見た画像がレンダリングされる)の位置座標RCと、視野の方向を表す情報(例えば位置座標RCを起点とし、視野の中心を通るベクトル情報)を得て、これらを視野の情報とする。
またこの視野決定処理部23は、別の例として、ユーザの動きに伴って時間変化する現実空間内の基準位置からの相対座標として仮想空間内のレンダリングカメラの位置座標RCを得てもよい。一つの例として、基準位置は、撮像素子430の位置とし、この撮像素子430から予め定めた相対座標値だけ移動した位置に対応する仮想空間内の位置を、レンダリングカメラの位置座標RCとしてもよい。
ここで相対座標は、例えば撮像素子430R(または430L)の位置から、表示装置40を装着したユーザの右目(または左目)があるべき位置への相対座標であってもよい。この例では、ユーザの目の位置に対応する仮想空間内の位置がレンダリングカメラの位置座標RCとなる。
またこの視野決定処理部23は、頭部方向センサ441が出力する情報から、視野の方向を表す情報(例えば位置座標RCを起点とし、視野の中心を通るベクトル情報)を得てもよい。この場合、視野決定処理部23は、頭部方向センサ441が出力する情報から、図3に例示するような、表示装置40の装着時の初期の方向からの床面に平行な面内での頭部方向の回転角度θと、仰角方向の回転角度φと、視野方向の軸まわりの回転角度ψと、頭部の移動量(x,y,z)を取得する。そして視野決定処理部23は、回転角度θ、φによりユーザの視野の方向が決定され、回転角度ψによって視野の方向を軸としたユーザの首の傾きが決定される。
一例としてこの視野決定処理部23は、現実空間におけるユーザの左右の目の位置に対応する仮想空間内の座標を、レンダリングカメラの位置座標RCとする。すなわち、カメラ43に含まれる左側の撮像素子430Lと、右側の撮像素子430Rの対象空間内の座標情報(ユーザの頭部の移動量に係る情報及び、基準位置から各撮像素子430までの相対的座標とにより演算できる)と、各撮像素子430の位置に対する当該左右の目の相対座標の情報とから、対象空間内のXYZ座標系における、ユーザの左右の目の位置に対応する仮想空間内の座標情報を、レンダリングカメラの位置座標RCとして画像生成部24に出力する。
またこの視野決定処理部23は、回転角度θ、φによりユーザの視野の方向が決定した視野の方向の情報と、回転角度ψによって決定された、視野の方向を軸としたユーザの首の傾きの情報とを画像生成部24に出力する。
画像生成部24は、視野決定処理部23からレンダリングカメラの位置座標RC及び視野の方向の情報を受け入れる。そしてこの画像生成部24は、取得した現実空間の画像に基づいて、上記情報で特定される視野を見たときの立体視画像を生成する。
本実施の形態の一例では、この画像生成部24は、画像取得部21が出力するデプスマップの情報に基づいて、まず、環境メッシュリスト情報と、物体バッファと、を生成する。ここで環境メッシュリスト情報は、デプスマップをメッシュに分割し、当該メッシュの頂点座標(画素の位置を表す情報)と、メッシュの識別情報と、メッシュ内の画素に対応する撮像画像データ内の画素に撮像された対象物の法線の情報と、メッシュの種類情報(予め定めた種類のいずれであるかを表す情報)と、メッシュの表面形状に関する情報とを含む。
このメッシュの種類の情報は、メッシュ内の画素に対応する撮像画像データ内の画素に撮像された対象物が床、天井、壁、障害物(床から所定の高さ以内にある壁以外の物体などとして予め定めておく)、その他のいずれであるかを表す。また、メッシュの表面形状に関する情報は、平面、凹凸のある面、球状の面、複雑な形状の面といった表面形状のいずれであるかを表す情報とする。
このように、デプスマップの情報等から、撮像画像データ内の対象物の種類や、表面形状等を認識する方法には、種々のものがあるが、どのような方法を採用するかはここでは問わないこととする。
また物体バッファは、ユーザの位置と、ユーザの視線方向より後方とを含むユーザ周囲の所定サイズ(例えば幅(初期のユーザの視線方向に直交し、床面に平行な方向)10m、奥行(床面に平行な初期のユーザの視線方向)10m、高さ3mの直方体範囲)の現実空間(以下、対象空間と呼ぶ)を仮想的にボクセル(Voxel:仮想的な体積要素、例えば幅10cm,奥行10cm,高さ10cmの立方体要素)空間で表現したものであり、物体が存在するボクセルの値(ボクセル値)を「1」、存在しないボクセルの値を「0」、存在するか否かが不明なボクセルの値を「−1」と設定したものである(図4)。
図4では、図示の都合上、一部のボクセルのみを示し、またボクセルのサイズも説明のために適宜設定している。この対象空間に対するボクセルのサイズは、必ずしも実施時に適したものを示したものではない。また、図4では、対象空間の奥側隅に立方体状の物体が配され、その表面に相当するボクセルの値を、物体が存在することを表す「1」に設定され、表面から隠された部分のボクセルの値を、不明であることを表す「−1」とし、物体表面までの間にあるボクセルの値を、何もないことを表す「0」と設定する例を示している。
画像生成部24は、デプスマップの情報に基づいてこのボクセル値を設定する。デプスマップ上の各画素は、デプスマップの元となった画像データの撮影時のカメラ43の位置座標(基準位置の座標でよい、以下撮影時位置と呼ぶ)を頂点とし、デプスマップの画角に相当する仮想的な四角錐の底辺を、デプスマップの解像度(縦py画素×横px画素)で分割したものである。そこで撮影時位置の座標を起点として各画素の頂点を通る線分に平行なベクトル(ワールド座標系での座標の差)や、撮影時位置の座標を起点として各画素の中心を通る線分に平行なベクトル(ワールド座標系での座標の差)が、撮影時位置の座標と、デプスマップの画角を表す情報と、デプスマップの解像度とから、各画素の方向として演算できる。
そこで、画像生成部24は、デプスマップ上の各画素について、撮影時位置の座標(基準位置の座標でよい)に対応する物体バッファ内の座標から当該画素の方向にあり、デプスマップが表す物体までの距離にあたるボクセルの値を「1」とし、当該ボクセルとは異なり、当該ボクセルからカメラ43までの線上にあるボクセルの値を「0」とする。また画像生成部24は、カメラ43で撮像された画像データにおいて、現実空間内にある物体により隠され、撮像されていない部分(机や壁の裏、床に置かれた物の陰となっている部分)については、物体が存在するか否かが不明であるとして、対応する部分のボクセルの値を「−1」と設定する。
画像生成部24は、ユーザが移動したり、視線方向を変えたりすることで、カメラ43によって撮像された画像データに、過去に撮像されず、物体が存在するか否かが不明であったボクセルに対応する部分(値が「−1」であったボクセルに対応する部分)のデプスマップが得られたときには、当該部分のボクセルの値を、得られたデプスマップに基づいて「0」または「1」に設定して更新する。
なお、デプスマップ等の情報から、このような物体の存在する範囲を表す三次元空間内のボクセル値を設定する方法は、ここで述べた方法のほか、3Dスキャンの方法で広く知られた方法等、種々の方法を採用できる。
さらに画像生成部24は、視野決定処理部23から入力された情報で特定されるレンダリングカメラの位置座標RCから、物体バッファ中で、視野決定処理部23から入力された情報で特定される視野方向にある、値が「0」でないボクセルを二次元投影した投影像を生成する(図5)。そして画像生成部24は、取得された現実空間の画像に基づいて、現実空間内に配された物体を検出し、当該検出した各物体の位置に仮想的な物体を配した立体視画像を生成して出力する。具体的な例として、画像生成部24は、予め定めた規則(対象物変換規則と呼ぶ)に従って、仮想空間を構成する。
一例として、この対象物変換規則は次のようなものである。ボクセルの値が「1」であって、対応する部分のメッシュについて、
(1)メッシュの種類が「天井」であれば、背景を合成する。
(2)メッシュの種類が障害物で、かつメッシュ表面形状が平面である物体の位置には仮想オブジェクト「操作パネル」を配置する。
(3)メッシュの種類が障害物で、かつメッシュ表面形状が凹凸のある面である物体の位置は、仮想オブジェクトである「岩」または「箱」を配置する。
(4)メッシュの種類が障害物で、かつメッシュ表面形状が球状の物体の位置には、仮想オブジェクトである「ライト」を配置する。
(5)メッシュの種類が障害物で、かつメッシュ表面形状が複雑な形状の物体のある範囲には、仮想オブジェクトである「樹木,草木」を配置する。
画像生成部24は、別途、背景画像と、操作パネルや、岩、箱、樹木、草木等の仮想オブジェクトの三次元モデルデータ等の入力を受け入れる。そして、図5に例示した投影像のうちボクセル値が「1」であるボクセルが投影された範囲であって、対応する範囲のメッシュが対象物変換規則に基づいて「操作パネル」とされた位置に、操作パネルの仮想オブジェクトを配する。以下、同様に、投影像のうちボクセル値が「1」であるボクセルが投影された範囲であって、対応する範囲のメッシュが対象物変換規則に基づいて「岩」または「箱」とされた部分に対応する位置に、「岩」または「箱」の仮想オブジェクトを配し、…というように、各仮想オブジェクトを配していく。このように仮想空間内に、三次元モデルデータで表される仮想オブジェクトを配する処理は、三次元グラフィックスを作成する際の処理において広く知られているので、ここでの詳しい説明を省略する。
そして画像生成部24は、仮想オブジェクトを配した後に、視野決定処理部23から入力された、レンダリングカメラの位置座標RC(ここではユーザの左目及び右目のそれぞれに対応する座標とする)から、視野決定処理部23から入力された情報で特定される視野方向を見た像をそれぞれレンダリングする。画像生成部24は、レンダリングして得た一対の画像データを、立体視画像として出力部25に出力する。そして出力部25は、画像生成部24が生成した立体視画像の画像データを、表示装置40に対して中継装置30を介して出力する。
なお、画像生成部24は、レンダリングの際、ユーザの首の傾きに係る角度ψの情報を用いて、この角度ψだけ傾いた画像データを生成してもよい。
さらに本実施の形態では、画像生成部24は、指示により、仮想空間の立体視画像に代えて、カメラ43の撮像素子430L,Rが撮像した現実空間の画像を、そのまま現実空間の立体視画像として出力する(いわゆるカメラシースルーの機能を提供する)こととしてもよい。
この例では画像生成部24は、カメラ43に含まれる左側の撮像素子430Lと、右側の撮像素子430Rとで撮像した画像データをそのまま出力し、出力部25が、これらの画像データに基づく画像をそのまま、左目用の画像、及び右目用の画像として表示する。
[動作]
本発明の実施の形態の画像処理装置10は以上の構成を基本的に備えており、次のように動作する。ユーザが表示装置40を頭部に装着すると、画像処理装置10は、図6に例示する処理を開始し、当該表示装置40の基準位置(例えばカメラ43の各撮像素子430の重心位置)を原点として、ユーザの後方を含むユーザ周囲のX軸方向に±5m(合計10m)、Y軸方向に±5m(合計10m)、Z軸方向に床から高さ3mの直方体範囲の現実空間を対象空間として設定する(S1)。
そしてこの対象空間を、仮想的にボクセル(Voxel:仮想的な体積要素、例えば幅10cm,奥行10cm,高さ10cmの立方体要素)空間で表現した物体バッファ(当初はすべてのボクセルの値を「−1」と設定する)を設定して、記憶部12に格納する(S2)。
表示装置40は、所定のタイミングごと(例えば1/1000秒ごと)に繰り返してカメラ43にて画像を撮像し、撮像して得た画像データを画像処理装置10へ送出している。画像処理装置10は表示装置40から中継装置30を介して、カメラ43にて撮像した画像データを受け入れる(S3)。
画像処理装置10は、ユーザの頭部の方向(顔面の方向)及び移動量の情報(例えば上記XYZ空間の座標値で表す)を取得する。具体的にこのユーザの頭部の方向及び移動量の情報は、表示装置40の頭部方向センサ441が検出し、画像処理装置10に出力したものであってもよい。
画像処理装置10は、レンダリングカメラの位置座標RCと、視野方向とを決定する(S4)。具体的には、画像処理装置10は、図7に例示するように、上記取得した頭部の移動量の情報を参照し、カメラ43に含まれる左側の撮像素子430Lと、右側の撮像素子430Rの対象空間内の座標情報を得る。そしてここで得られた座標情報と、予め定めた、各撮像素子430L,Rと、ユーザの対応する目(撮像素子430Lに対するユーザの左目と、撮像素子430Rに対するユーザの右目)のそれぞれとの相対的な座標情報とを用い、対象空間内のXYZ座標系における、ユーザの左右の目の座標情報を得る。そしてこの座標情報に対応する仮想空間内の座標情報を、レンダリングカメラの位置座標RCとする。なお、対象空間のXYZ座標系と、仮想空間の座標系とを一致させておき、対象空間内のXYZ座標系での座標値をそのままレンダリングカメラの位置座標RCとしてもよい。また、画像処理装置10は、取得した頭部の方向の情報に基づいて、視野方向を決定する。
さらに画像処理装置10は、例えば操作デバイス20から、ユーザから現実空間の画像(いわゆるカメラシースルーとしての動作)と、仮想空間の画像とのどちらを表示するかの指示を受け入れる(S5)。そして画像処理装置10は当該指示された画像を表示する処理を開始する。ここではまず、現実空間の画像を表示する場合について説明する(S5:「現実空間」)。
この場合、画像処理装置10は、S3で受け入れた表示装置40からカメラ43が撮像した現実空間の画像を用いて、画像を表示する。本実施の形態の一例では、画像処理装置10は、カメラ43の撮像素子430Lから入力される画像データをそのまま左目用の画像データとする。また画像処理装置10は、カメラ43の撮像素子430Rから入力される画像データをそのまま右目用の画像データとする。画像処理装置10は例えばこのようにして、左目用、右目用の画像データを生成する(S6)。
画像処理装置10は、ここで生成した左目用の画像データと、右目用の画像データとを表示装置40に対して中継装置30を介して出力する(S7)。そして表示装置40は、左目用の画像データを、左目用の映像として、左目用光学素子42Lを経由してユーザの左目に入射させる。また表示装置40は、右目用の画像データを、右目用の映像として、右目用光学素子42Rを経由してユーザの右目に入射させる。これより、ユーザはカメラ43で撮影され、ユーザの目の位置に視点が変換された現実空間の画像を視認することとなる。以下、画像処理装置10は、処理S3に戻って処理を繰り返す。
また処理S5において、ユーザが仮想空間の画像の表示を指示したと判断すると(S5:「仮想空間」)、画像処理装置10は、カメラ43で撮像された画像データに基づいて、当該画像データから得られるデプスマップを生成する(S8)。
画像処理装置10は、生成したデプスマップをメッシュに分割し、各メッシュ内の画素に対応する撮像画像データ内の画素に撮像された対象物が天井、壁、障害物(床から所定の高さ以内にある壁以外の物体などとして予め定めておく)、その他のいずれであるかを判断する。また、各メッシュ内のデプスマップ上の画素の値から、メッシュの表面形状が平面、凹凸のある面、球状の面、複雑な形状の面といった表面形状のいずれであるかを判断する。
そして画像処理装置10は、生成したデプスマップに関連する情報として、各メッシュのデプスマップ上の位置を表す情報(メッシュの頂点の座標でよい)と、メッシュの種類の情報と、表面形状の情報とを関連付けて、環境メッシュリスト情報として記憶部12に格納する(S9:環境メッシュリスト情報生成)。
画像処理装置10は、デプスマップの各画素を順次選択しつつ、デプスマップ上で選択した画素に対応する方向にあり、デプスマップの選択した画素が表す物体までの距離にあたるボクセルの値を「1」とし、当該ボクセルとは異なり、当該ボクセルからカメラ43までの線上にあるボクセルの値を「0」とする。ここで、カメラ43で撮像された画像データにおいて、現実空間内にある物体により隠され、撮像されていない部分については、物体が存在するか否かが不明であるとして、対応する部分のボクセルの値が「−1」のままとなる。
なお、画像処理装置10は、ユーザが移動したり、視線方向を変えたりすることで、カメラ43によって撮像された画像データに、過去に撮像されず、物体が存在するか否かが不明であったボクセルに対応する部分(値が「−1」であったボクセルに対応する部分)のデプスマップが得られたときには、処理S11において当該部分のボクセルの値を、得られたデプスマップに基づいて「0」または「1」に設定して更新する(S10:物体バッファの更新)。
画像処理装置10は、レンダリングカメラの位置座標が表す座標から、物体バッファ中で、処理S4において決定した視野方向にある、値が「0」でないボクセルを二次元投影した投影像を生成する(図5)。そして画像処理装置10は、取得された現実空間の画像に基づいて、現実空間内に配された物体を検出し、当該検出した各物体を、予め定めた規則(ゲームの処理を行う場合、ゲームのプログラムで定めた規則)に従って仮想オブジェクトに置き換えた立体視画像を出力する。
具体的に画像処理装置10は、背景画像と、操作パネル、岩や箱、樹木や草木等の三次元モデルデータ等の入力を受け入れており、仮想的な三次元空間内で、ボクセル値が「1」であるボクセルが投影された範囲に対応し、当該対応する範囲のメッシュが対象物変換規則に基づいて「操作パネル」とされている位置に、操作パネルの仮想オブジェクトを配する。以下、同様に、投影像のうちボクセル値が「1」であるボクセルが投影された範囲であって、対応する範囲のメッシュが対象物変換規則に基づいて「岩」または「箱」とされている位置に、「岩」または「箱」の仮想オブジェクトを配し、…というように、仮想空間内に各仮想オブジェクトを配して、仮想空間を構成する。また天井に相当する範囲については、背景画像を合成して、あたかも天井がないかのような仮想空間を構成する(S11:仮想空間を構成)。
画像処理装置10は、上記三次元モデルデータを配した仮想的な三次元空間(対象空間に対応する座標系の空間)内で、処理S4にて決定されたレンダリングカメラの位置座標RC(ユーザの左目及び右目のそれぞれに対応する各座標情報)から見た、処理S4にて決定された視野方向の画像データ(左目及び右目のそれぞれに提示されるべき画像データ)をレンダリングして得る(S12:レンダリング)。そして画像処理装置10は、こうしてレンダリングした一対の画像データを、立体視画像として出力する(S13)。
表示装置40は、左目用の画像データを、左目用の映像として、左目用光学素子42Lを経由してユーザの左目に入射させる。また表示装置40は、右目用の画像データを、右目用の映像として、右目用光学素子42Rを経由してユーザの右目に入射させる。これより、ユーザは、現実空間内の物体が、仮想的な物体(操作パネルや岩、箱等)に変化した仮想的な空間内の画像を視認することとなる。以下、画像処理装置10は、処理S3に戻って処理を繰り返す。
なお、この図6の例において、物体バッファを更新する処理(処理S10)は、現実空間の画像を表示する処理S6乃至S7の処理を実行する際にも行うようにしてもよい。
このように本実施の形態の例では、仮想空間の表示の際に、図7に例示したように、例えばユーザの目の位置に対応する位置にレンダリングカメラを配し、現実空間を反映した(現実空間内の対象物を仮想オブジェクトに置き換えるなどした画像データ)レンダリング画像が提示されるので、ユーザに対してより正確な手の距離感を与えつつ画像を表示できる。すなわち仮想空間の仮想オブジェクトに触れるようにユーザが手を伸ばせば、ユーザは現実空間における対応する対象物に触れることとなる。
また上記図6の処理S6において、生成する左目用、右目用の画像データは、対象空間を再構成したもの(処理S8から処理S9と同じ処理で得られるメッシュに、現実空間の画像データから抽出したテクスチャを貼り付けたものを仮想オブジェクトとし、対象空間に対応する仮想空間内にこれらの仮想オブジェクトを配置して仮想空間を構成し、処理S4で決定したレンダリングカメラの位置座標RCから視野方向を見た画像としてレンダリングしたもの)として表示してもよい。
この例によると、現実空間を表す画像についてもユーザの目の位置など、任意の位置から見た画像が提示され、仮想空間内の画像についても、同じ位置から見たレンダリング画像が提示されるので、現実空間の画像と仮想的な空間の画像とを切り替えても、切り替えの際に視野が実質的に移動せず、違和感をより軽減でき、また現実空間から仮想空間への切替えにおいて、仮想空間の構成の処理S11において仮想オブジェクトに置き換える現実空間内の物体を順次選択しつつ、レンダリングと、レンダリングして得た画像データの出力を行うことで、あたかも現実空間の物体が少しずつゲーム等で用いる仮想空間内の仮想オブジェクトに置き換えられていくかのようなシーン演出も可能となる。
[変形例]
ここまでの説明において、ユーザ周囲の現実空間の画像は、ユーザの装着する表示装置40に設けられたカメラ43によって得られるものとしたが、本実施の形態はこれに限られない。本実施の形態の別の例として、ユーザの所在する室内に配置されたカメラによって撮像されたものであっても構わない。
また、ここまでの説明では、レンダリングカメラの位置座標RCを、ユーザの目の位置に対応する位置を表すものとし、視野方向をユーザの顔の向きとする例について述べたが、本実施の形態はこれに限られない。例えば、レンダリングカメラの位置座標RCは、仮想空間を俯瞰して見る位置を表す座標(例えばX軸,Y軸成分の座標値についてはユーザの位置座標とし、Z軸成分の座標値を予め定めた値としたもの)に設定してもよい。また、視野の方向は、ユーザの背後方向(ユーザの顔の向きと反対の方向)としてもよい。さらに、視野の範囲を変更して、ズームが行われたような効果を演出してもよい。視野の範囲(画角)は、ユーザの操作により任意に設定可能としてもよい。
[ユーザの頭部の位置及び傾きの情報を取得する別の例]
また上述の説明では、ユーザの頭部の位置及び傾きの情報は、表示装置40に設けられた頭部方向センサ441から得られるものとしていたが、本実施の形態はこれに限られず、例えば、ユーザの所在する室内の既知の位置に配置されたカメラによってユーザを撮像し、ユーザの頭部とともに移動する所定の点、例えばユーザが装着している表示装置40上に予め配した所定のマーカーの位置及び姿勢を検出することで、ユーザの頭部の位置及び傾き角度を検出してもよい。このようなマーカーとそれを撮像した画像データに基づく、マーカーの位置及び傾きを検出する技術は広く知られているので、ここでの詳しい説明は省略する。
この方法でユーザの頭部の位置及び傾きの情報を取得する場合、表示装置40には頭部方向センサ441を設ける必要は必ずしもない。
[目センサの利用]
さらに、ここまでの説明では、例えば撮像素子430とユーザの目との相対座標など、基準位置とユーザの目の位置との相対座標が予め定められたものとしたが、本実施の形態は、これに限られず、表示装置40にユーザの目の位置を検出する目センサ440を設けて、これにより、ユーザの目の位置を検出して基準位置とユーザの目の位置との相対座標を求めてもよい。
このような目センサ440としては、表示装置40の所定位置に対して既知の位置に配された可視カメラまたは赤外カメラがある。この目センサ440は、ユーザの目頭や虹彩、角膜や瞳孔の位置(目センサ440との相対的な位置)を検出し、上記既知の表示装置40の所定位置(例えば左目については左側の撮像素子430Lの位置、右目については右側の撮像素子430Rの位置)からの相対的な座標情報を求めて、眼球表面の虹彩または瞳孔の中心位置を表す情報として出力する。
[視線の情報を用いる例]
さらにこの目センサ440が、ユーザの視線の方向(眼球の向き)のベクトル情報を検出できる場合は、視線の情報を用いて、表示装置40に表示する映像のパラメータ(例えば歪み補正のパラメータ)を変更してもよい。
[被写界深度]
また、この視線情報を用い、レンダリング時、当該視線の方向にある仮想オブジェクトまでの距離を求め、被写界深度(ここでは、ピントの合う距離の範囲rを指定するrmin≦r≦rmaxを意味するものとする)を設定してもよい。一例として画像処理装置10は、対象空間内のXYZ座標系におけるユーザの左右の目のそれぞれについての視線の方向のベクトルVL,VRを得た後、レンダリングカメラの位置座標RCからこれらのベクトルの方向にある仮想オブジェクトまでの距離rL,rRを求める。
そして画像処理装置10は、例えば次のようにピントの合う距離の範囲rを特定するrmin(下限距離),rmax(上限距離)を決定する。一例として、画像処理装置10は、上記求めた距離rL,rRの算術平均rを求める。そして、このrが所定のしきい値rthを超えていれば、rminを「0」、rmaxを無限大とする(つまりパンフォーカスとする)。また画像処理装置10は、rが所定のしきい値rthを超えていなければ、rminを、rmin=r−α、rmaxをr+βとする。なお、α,βは実験的に定められる正の値である。ここでα=βであってもよい。
もっとも、ここで示したrmin、rmaxの演算例は一例であって、ユーザの視線の方向に応じて違和感のない被写界深度が実験的に設定できれば他の演算方法であってもよい。画像処理装置10は、ここで演算した被写界深度を特定する情報(ここでの例ではrmin,rmax)を用いて、レンダリングした画像データ(立体視画像の画像データ)を加工する。
すなわち画像処理装置10の画像生成部24は、生成した立体視画像の画像データ(左目用と右目用との画像データのそれぞれ)を、複数の画像領域(例えば所定サイズの画像ブロック)に分割する。画像生成部24は、各画像領域について、当該画像領域内の画素に対応する、デプスマップ上の画素値(ユーザが装着する表示装置40からの距離)を得る。画像生成部24は、ここで得たデプスマップ上の画素値とユーザの目の位置に係る情報とに基づいて、ユーザの目から、画像領域内の画素(例えば画像領域の中心の画素)に撮像された物体までの距離Dを求める。そして画像生成部24は、当該距離Dが、rmin,rmaxに対して、rmin≦D≦rmaxであれば、当該画像領域については何もしない。
また、画像生成部24は、ここで求めた距離DがD<rminであれば、当該画像領域の画素に、rmin−Dの大きさに応じた強度のぼかし処理(例えばガウシアンフィルタ)を適用して、ピントが合っていないかのような画像とする。
同様に、画像生成部24は、ここで求めた距離DがD>rmaxであれば、当該画像領域の画素に、D−rmaxの大きさに応じた強度のぼかし処理(これも例えばガウシアンフィルタ)を適用して、ピントが合っていないかのような画像とする。
これにより、被写界深度を指定する情報に基づき、取得した現実空間の画像に基づく、ビュー変換された現実空間の画像であっても、またレンダリングして得られた仮想空間の画像であっても、当該指定された被写界深度を有した立体視画像を生成できる。
本実施の形態のこの例によると、ユーザが注視している距離範囲外の画像部分がぼかされて見えることとなり、より自然な画像がユーザに提供される。
10 画像処理装置、11 制御部、12 記憶部、13 インタフェース部、20 操作デバイス、21 画像取得部、23 視野決定処理部、24 画像生成部、25 出力部、30 中継装置、40 表示装置、41 映像表示素子、42 光学素子、43 カメラ、44 センサ、45 通信インタフェース、430 撮像素子、440 目センサ、441 頭部方向センサ。

Claims (6)

  1. ユーザが頭部に装着して使用する表示装置と接続される画像処理装置であって、
    当該ユーザの周囲の現実空間の画像を取得する画像取得手段と、
    視野の情報を決定する決定手段と、
    前記取得した現実空間の画像に基づき、前記決定した情報で特定される視野の画像を生成する画像生成手段と、
    を有し、前記画像生成手段が生成した画像を、前記表示装置に出力する画像処理装置。
  2. 請求項1記載の画像処理装置であって、
    前記視野の情報は、前記表示装置を装着したユーザの目の位置を表す情報を含む画像処理装置。
  3. 請求項1または2に記載の画像処理装置であって、
    前記視野の情報は、前記表示装置を装着したユーザの顔の向きの情報を含む画像処理装置。
  4. 請求項1から3のいずれか一項に記載の画像処理装置であって、
    前記画像生成手段は、前記取得した現実空間の画像に基づいて、現実空間内に配された物体を検出し、現実空間に対応する仮想空間であって、前記検出した各物体に対応する三次元モデルを、前記現実空間の各物体の位置に対応する仮想空間内の位置に配し、前記視野の画像を生成する画像処理装置。
  5. 請求項1から4のいずれか一項に記載の画像処理装置であって、
    前記画像生成手段は、前記取得した現実空間の画像に基づいて、現実空間内に配された物体を検出し、現実空間に対応する仮想空間であって、前記検出した各物体に対応する三次元モデルを、前記現実空間の各物体の位置に対応する仮想空間内の位置に配し、前記視野の画像を生成する画像生成手段であり、
    指示により、
    前記取得した現実空間の画像を出力する処理と、
    前記画像生成手段により生成された画像を出力する処理と、
    のいずれかを実行する画像処理装置。
  6. ユーザが頭部に装着して使用する表示装置と接続される画像処理装置を、
    当該ユーザの周囲の現実空間の画像を取得する画像取得手段と、
    視野の情報を決定する決定手段と、
    前記取得した現実空間の画像に基づき、前記決定した情報で特定される視野の画像を生成する画像生成手段と、
    として機能させ、前記画像生成手段が生成した画像を、前記表示装置に出力させるプログラム。
JP2018515396A 2016-05-02 2017-02-16 画像処理装置 Pending JPWO2017191703A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016092561 2016-05-02
JP2016092561 2016-05-02
PCT/JP2017/005742 WO2017191703A1 (ja) 2016-05-02 2017-02-16 画像処理装置

Publications (1)

Publication Number Publication Date
JPWO2017191703A1 true JPWO2017191703A1 (ja) 2018-10-04

Family

ID=60203728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018515396A Pending JPWO2017191703A1 (ja) 2016-05-02 2017-02-16 画像処理装置

Country Status (2)

Country Link
JP (1) JPWO2017191703A1 (ja)
WO (1) WO2017191703A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230118559A1 (en) * 2020-03-31 2023-04-20 Sony Group Corporation Information processing apparatus and information processing method
JP7555999B2 (ja) 2022-06-28 2024-09-25 キヤノン株式会社 画像処理装置、頭部装着型表示装置、画像処理装置の制御方法、頭部装着型表示装置の制御方法、およびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229730A (ja) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2005327204A (ja) * 2004-05-17 2005-11-24 Canon Inc 画像合成システムおよび画像合成方法、および画像合成装置
JP2009271732A (ja) * 2008-05-07 2009-11-19 Sony Corp 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
JP2012133471A (ja) * 2010-12-20 2012-07-12 Kokusai Kogyo Co Ltd 画像合成装置、画像合成プログラム、及び画像合成システム
JP2013218535A (ja) * 2012-04-09 2013-10-24 Crescent Inc 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置
JP2014511512A (ja) * 2010-12-17 2014-05-15 マイクロソフト コーポレーション 拡張現実ディスプレイ用最適焦点エリア
JP2015100032A (ja) * 2013-11-19 2015-05-28 株式会社Nttドコモ 映像表示装置、映像提示方法及びプログラム
WO2016048658A1 (en) * 2014-09-25 2016-03-31 Pcms Holdings, Inc. System and method for automated visual content creation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229730A (ja) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2005327204A (ja) * 2004-05-17 2005-11-24 Canon Inc 画像合成システムおよび画像合成方法、および画像合成装置
JP2009271732A (ja) * 2008-05-07 2009-11-19 Sony Corp 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
JP2014511512A (ja) * 2010-12-17 2014-05-15 マイクロソフト コーポレーション 拡張現実ディスプレイ用最適焦点エリア
JP2012133471A (ja) * 2010-12-20 2012-07-12 Kokusai Kogyo Co Ltd 画像合成装置、画像合成プログラム、及び画像合成システム
JP2013218535A (ja) * 2012-04-09 2013-10-24 Crescent Inc 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置
JP2015100032A (ja) * 2013-11-19 2015-05-28 株式会社Nttドコモ 映像表示装置、映像提示方法及びプログラム
WO2016048658A1 (en) * 2014-09-25 2016-03-31 Pcms Holdings, Inc. System and method for automated visual content creation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大島登志一, 他3名: ""RV−Border Guards:複数人参加型複合現実感ゲーム"", 日本バーチャルリアリティ学会論文誌, vol. 第4巻, 第4号, JPN6019021799, 31 December 1999 (1999-12-31), JP, pages 699 - 705, ISSN: 0004053713 *
宮下広夢, 外2名: ""携帯型映像空間表示装置のための動作と視線による視野領域抽出方法"", 情報処理学会研究報告, vol. 第2008巻, 第107号, JPN6019033227, 30 October 2008 (2008-10-30), JP, pages 17 - 24, ISSN: 0004105385 *

Also Published As

Publication number Publication date
WO2017191703A1 (ja) 2017-11-09

Similar Documents

Publication Publication Date Title
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
CN107209950B (zh) 从现实世界材料自动生成虚拟材料
US11176748B2 (en) Image processing apparatus, image processing method, and program
US9106906B2 (en) Image generation system, image generation method, and information storage medium
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
US10607398B2 (en) Display control method and system for executing the display control method
US20180246331A1 (en) Helmet-mounted display, visual field calibration method thereof, and mixed reality display system
US20190215505A1 (en) Information processing device, image generation method, and head-mounted display
EP3128413A1 (en) Sharing mediated reality content
US11960086B2 (en) Image generation device, head-mounted display, and image generation method
US11956415B2 (en) Head mounted display apparatus
JP6682624B2 (ja) 画像処理装置
JP2005312605A (ja) 注視点位置表示装置
WO2018084087A1 (ja) 画像表示システム、画像表示装置、その制御方法、及びプログラム
JP2019102828A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017199495A1 (ja) 画像処理システム、画像処理装置、及びプログラム
JP6649010B2 (ja) 情報処理装置
WO2017191703A1 (ja) 画像処理装置
JP6613099B2 (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
JP2014103599A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200114