JP2016024273A - 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ - Google Patents

立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ Download PDF

Info

Publication number
JP2016024273A
JP2016024273A JP2014147055A JP2014147055A JP2016024273A JP 2016024273 A JP2016024273 A JP 2016024273A JP 2014147055 A JP2014147055 A JP 2014147055A JP 2014147055 A JP2014147055 A JP 2014147055A JP 2016024273 A JP2016024273 A JP 2016024273A
Authority
JP
Japan
Prior art keywords
image
virtual
unit
stereoscopic
image presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014147055A
Other languages
English (en)
Other versions
JP2016024273A5 (ja
JP6294780B2 (ja
Inventor
良徳 大橋
Yoshinori Ohashi
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2014147055A priority Critical patent/JP6294780B2/ja
Priority to PCT/JP2015/069942 priority patent/WO2016009970A1/ja
Priority to CN201580037801.8A priority patent/CN106537909B/zh
Priority to EP15821846.1A priority patent/EP3171592B1/en
Priority to US15/325,167 priority patent/US10306214B2/en
Publication of JP2016024273A publication Critical patent/JP2016024273A/ja
Publication of JP2016024273A5 publication Critical patent/JP2016024273A5/ja
Application granted granted Critical
Publication of JP6294780B2 publication Critical patent/JP6294780B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes

Abstract

【課題】立体画像提示装置が提示する画像の立体感を向上させる技術を提供する。【解決手段】立体画像提示装置100において、画像取得部102は、提示対象とする画像を取得する。画像提示部104は、画像取得部102が取得した画像の虚像を、立体画像提示装置100のユーザの視野に提示する。画像提示部104は、ユーザに提示する虚像の位置を変更自在に構成されており、画像に写っているオブジェクトの奥行き情報をもとに、虚像を提示する位置を変更する。【選択図】図6

Description

本発明は、立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイに関する。
近年、立体映像を提示するための技術開発が進み、奥行きを持った立体映像を提示することが可能なヘッドマウントディスプレイ(Head Mounted Display; 以下「HMD」と記載する。)が普及してきている。このようなHMDの中には、HMDを装着するユーザの視界を完全に覆って遮蔽し、映像を観察するユーザに対して深い没入感を与えることが可能な遮蔽型HMDが存在する。また別の種類のHMDとして、光学透過型HMDも開発されている。光学透過型HMDは、ホログラフィック素子やハーフミラー等を用いて、仮想的な立体映像であるAR(Augmented Reality)イメージをユーザに提示しつつ、かつユーザにHMDの外の実空間の様子をシースルーで提示することができる立体画像装置である。
これらのHMDは、ユーザに対して立体的な映像を提示するための装置である。HMDを装着したユーザに与える視覚的な違和感を軽減し、より深い没入感を与えるために、HMDが提示する立体映像の立体感を高めることが求められている。また、光学透過型HMDでARイメージを提示する場合には、ARイメージは実空間に重畳して表示される。このため、特に立体的な物体をARイメージとして提示する場合には、光学透過型HMDのユーザにとって実空間の物体と違和感なく調和して見えることが好ましく、ARイメージの立体感を向上させる技術が望まれている。
本発明のある目的は、立体画像提示装置が提示する画像の立体感を向上させる技術を提供することにある。
上記課題を解決するために、本発明のある態様の立体画像提示装置は、提示対象とする画像を取得する画像取得部と、画像取得部が取得した画像の虚像を、立体画像提示装置のユーザの視野に提示する画像提示部とを備える。画像提示部は、ユーザに提示する虚像の位置を変更自在に構成されており、画像に写っているオブジェクトの奥行き情報をもとに、虚像を提示する位置を変更する。
本発明の別の態様は、立体画像提示装置のプロセッサが実行する画像提示方法である。この方法は、提示対象とするオブジェクトの画像を取得するステップと、オブジェクトの奥行き情報をもとに、画像の虚像を提示する位置を設定するステップと、設定した位置に、虚像を提示するステップとを含む。
本発明のさらに別の態様は、立体画像を提示するヘッドマウントディスプレイである。このヘッドマウントディスプレイは、提示対象とする画像を取得する画像取得部と、画像取得部が取得した画像の虚像を、ヘッドマウントディスプレイを装着するユーザに提示する画像提示部とを備える。画像提示部は、画像を表示する複数の透過型表示部と、複数の透過型表示部それぞれが表示する画像の虚像を生成する光学素子とを備える。複数の透過型表示部は、画像提示部の光路上に並んで備えられており、光学素子は、画像提示部の光路においてユーザの目と複数の透過型表示部との間に備えられる。
本発明のさらに別の態様は、上記の方法の各ステップをコンピュータに実現させるプログラムである。
このプログラムは、例えばHMDに内蔵されているコンピュータ等のハードウェア資源の基本的な制御を行なうために機器に組み込まれるファームウェアの一部として提供されてもよい。このファームウェアは、たとえば、機器内のROM(Read Only Memory)やフラッシュメモリなどの半導体メモリに格納される。このファームウェアを提供するため、あるいはファームウェアの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、立体画像提示装置が提示する画像の立体感を向上することができる。
実施の形態に係るHMDの外観の一例を模式的に示す図である。 図2(a)−(b)は、仮想的な3次元空間のオブジェクトと、実空間に重畳された当該オブジェクトとの関係を模式的に示す図である。 凸レンズに係るレンズの公式を説明する図である。 実施の形態に係るHMDが備える光学系を模式的に示す図である。 異なる位置に同じ大きさの虚像を提示するために、透過型表示素子が表示すべき画像を示す図である。 実施の形態に係る立体画像提示装置の機能構成を模式的に示す図である。 図7(a)−(b)は、実施の形態に係る部分領域生成部が生成する複数の部分領域と、各部分領域に含まれる仮想オブジェクトの関係の一例を模式的に示す図である。 実施の形態に係るレンダリング部が生成する画像の一例を模式的に示す図である。 実施の形態に係る立体画像提示装置が実行する立体画像提示処理の流れを説明するフローチャートである。 焦点距離を変更可能な凸レンズとその焦点距離を模式的に示す図である。 異なる位置に同じ大きさの虚像を提示するために、凸レンズの焦点があるべき位置を示す図である。 図12(a)−(b)は、第2の変形例に係る立体画像提示装置の光学系を模式的に示す図である。 図13(a)−(b)は、第3の変形例に係る立体画像提示装置の光学系を模式的に示す図である。 図14(a)−(b)は、第4の変形例に係る立体画像提示装置の光学系を模式的に示す図である。
以下、図面を参照しながら、本発明を実施するための形態について詳細に説明する。なお、説明において同一の要素には同一の符号を付し、重複する説明を適宜省略する。また、以下に述べる構成は例示であり、本発明の範囲を何ら限定するものではない。
図1は、実施の形態に係る立体画像提示装置100の外観の一例を模式的に示す図である。立体画像提示装置100は、例えば遮蔽型HMDや、光学透過型HMDによって実現できる。立体画像提示装置100は、提示部120、撮像素子140、および種々のモジュールを収納する筐体160を含む。以下本明細書においては、遮蔽型HMDや光学透過型HMD等、HMDの種類を特に区別する場合を除いて、単にHMDと記載する。したがって、HMDには、遮蔽型HMDと光学透過型HMDとが含まれる。
提示部120は、立体的な映像をユーザの目に提示する。より具体的に提示部120は、左目用の視差画像と右目用の視差画像とを個別にユーザの目に提示する。これにより、提示部120は、奥行き感を持った立体的な映像をユーザに提示することができる。撮像素子140は、立体画像提示装置100を装着するユーザの視野を含む領域にある被写体を撮像する。このため、撮像素子140は、立体画像提示装置100をユーザが装着したとき、ユーザの眉間のあたりに配置されるように設置されている。撮像素子140は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の既知の固体撮像素子を用いて実現できる。
筐体160は、立体画像提示装置100におけるフレームの役割を果たすとともに、立体画像提示装置100が利用する様々なモジュール(図示せず)を収納する。立体画像提示装置100が利用するモジュールとは、ホログラム導光板を含む光学部品、これらの光学部品の位置を変更するためのモータ、その他Wi−Fi(登録商標)モジュール等の通信モジュール、電子コンパス、加速度センサ、傾きセンサ、GPS(Global Positioning System)センサ、照度センサ、およびこれらの部品を制御し動作するためのCPU(Central Processing Unit)や、CPUの作業領域となるメモリ等である。これらのモジュールは例示であり、また立体画像提示装置100はこれらのモジュールを必ずしも全て搭載する必要はない。いずれのモジュールを搭載するかは、立体画像提示装置100が想定する利用シーンに応じて決定すればよい。
図1は、立体画像提示装置100としてめがね型のHMDを利用する場合の例を示す図である。立体画像提示装置100の形状は、この他にも帽子形状、ユーザの頭部を一周して固定されるベルト形状、ユーザの頭部全体を覆うヘルメット形状等さまざまなバリエーションが考えられるが、いずれの形状の立体画像提示装置100も本発明の実施の形態に含まれることは、当業者であれば容易に理解されることである。
以下、図2〜図5を参照して、実施の形態に係る立体画像提示装置100が提示する画像の立体感を向上させる原理について説明する。以下においては、立体画像提示装置100が、実空間中にARイメージを重畳して表示する場合について説明する。しかしながら、立体画像提示装置100が提示する画像はARイメージに限られず、例えば3D映画のように左目用の視差画像と右目用の視差画像とを備える立体映像であっても適用できる。後者の場合については、実施の形態の第8の変形例として後述する。
図2(a)−(b)は、仮想的な3次元空間のオブジェクトと、実空間に重畳された当該オブジェクトとの関係を模式的に示す図である。
図2(a)は、仮想的な3次元空間(以下、「仮想空間」と記載する。)に設定された仮想的なカメラ(以下、「仮想カメラ300」と記載する。)が、仮想的なオブジェクト(以下、「仮想オブジェクト304」と記載する。)を撮影している様子を示す図である。仮想空間には、仮想オブジェクト304の位置座標を規定するための仮想的な3次元直交座標系(以下、「仮想座標系302」と記載する。)が設定されている。
仮想カメラ300は仮想的な両眼カメラである。仮想カメラ300は、ユーザの左目用の視差画像と右目用の視差画像とを生成する。仮想カメラ300から撮影される仮想オブジェクト304の像は、仮想空間における仮想カメラ300から仮想オブジェクト304までの距離に応じて変化する。
図2(b)は、仮想空間における仮想カメラ300から見た場合における仮想オブジェクト304の像を、実空間に重畳して表示する様子を示す図である。図2(b)において、机310は実空間に存在する実物の机である。立体画像提示装置100を装着したユーザが、左目308aおよび右目308bで机310を観察すると、ユーザには机310の上に仮想オブジェクト304が置かれているように観察される。このように、実空間に存在する実物に重畳して表示する画像が、ARイメージである。以下本明細書において、ユーザの左目308aと右目308bとを特に区別しない場合は、単に「視点308」と記載する。
仮想空間と同様に、実空間にも仮想オブジェクト304の位置座標を規定するための3次元直交座標系(以下、「実座標系306」と記載する。)が設定されている。立体画像提示装置100は、仮想座標系302と実座標系306とを参照して、仮想空間における仮想カメラ300から仮想オブジェクト304までの距離に応じて、実空間における仮想オブジェクト304の提示位置を変更する。より具体的には、立体画像提示装置100は、仮想空間における仮想カメラ300から仮想オブジェクト304までの距離が長いほど、現実空間において視点308から遠い位置に仮想オブジェクト304の虚像が配置されるようにする。
図3は、凸レンズに係るレンズの公式を説明する図である。より具体的に、図3は、凸レンズ312の焦点の内側に物体がある場合における、物体314とその虚像316との関係を説明する図である。図3に示すように、視点308の視線方向にZ軸が定められており、Z軸上に凸レンズ312の光軸とZ軸とが一致するようにして凸レンズ312が配置されている。凸レンズ312の焦点距離はFであり、物体314が、凸レンズ312に対して視点308の反対側に、凸レンズ312から距離A(A<F)離れて配置されている。すなわち、図3において、物体314は凸レンズ312の焦点の内側に配置されている。このとき、視点308から物体314を眺めると、物体314は凸レンズ312から距離B(F<B)離れた位置に、虚像316として観察される。
このとき、距離A、距離B、および焦点距離Fの関係は、以下の式(1)で示す既知のレンズの公式によって規定される。
1/A−1/B=1/F (1)
また、物体314の大きさP(図3における実線の矢印の長さ)に対する虚像316の大きさQ(図3における破線の矢印の長さ)の割合、すなわち倍率m=Q/Pは、以下の式(2)で表される。
m=B/A (2)
式(1)は、凸レンズ312に対して視点308の反対側に、凸レンズ312から距離B離れた位置に虚像316を提示するための、物体314の距離Aと焦点距離Fとが満たすべき関係を示していると捉えることもできる。例えば、凸レンズ312の焦点距離Fが固定されている場合を考える。この場合、式(1)を変形することにより、距離Aを距離Bの関数として、以下の式(3)のように表すことができる。
A(B)=FB/(F+B)=F/(1+F/B) (4)
式(4)は、凸レンズの焦点距離がFのとき、距離Bの位置に虚像316を提示するために、物体314を配置すべき位置を示している。式(4)から明らかなように、距離Bが大きくなるほど、距離Aも大きくなる。
また、式(2)に式(1)を代入して変形すると、距離Bの位置にQの大きさの虚像316を提示するために物体314がとるべき大きさPを、以下の式(5)のように表すことができる。
P(B,Q)=Q×F/(B+F) (5)
式(5)は、物体314がとるべき大きさPを、距離Bと虚像316の大きさQとの関数として表す式である。式(5)は、虚像316の大きさQが大きいほど、物体314の大きさPも大きくなることを示している。また、虚像316の距離Bが大きいほど、物体314の大きさPが小さくなることも示している。
図4は、実施の形態に係る立体画像提示装置100が備える光学系を模式的に示す図である。立体画像提示装置100は、筐体160内に、凸レンズ312と、複数の透過型表示素子318とを備える。図4においては、立体画像提示装置100は、透過型表示素子318a〜318gまでの7枚の透過型表示素子を備える。以下特に区別する場合以外は、透過型表示素子318a〜318gを総称して「透過型表示素子318」と記載する。
限定はしないが、透過型表示素子318a〜318gは、それぞれ例えば透過型有機EL(Electro-Luminescence)を用いて実現できる。図4は、立体画像提示装置100は7枚の透過型表示素子318を備える場合を例示しているが、透過型表示素子318の数は7に限られず、少なくとも2枚あればよい。
図3示す場合と同様に、図4においても視点308の視線方向にZ軸が定められており、Z軸上に凸レンズ312の光軸とZ軸とが一致するようにして凸レンズ312が配置されている。凸レンズ312の焦点距離はFであり、図4において、ふたつの点Fはそれぞれ凸レンズ312の焦点を表す。図4に示すように、複数の透過型表示素子318はいずれも、凸レンズ312に対して視点308の反対側において、凸レンズ312の焦点の内側に配置されている。したがって、1つの透過型表示素子318の厚さをdとすると、配置可能な透過型表示素子318の最大数は、[F/d]である。ここで[]はガウス記号であり、[x]は、x以下の最大の整数を表す。
透過型表示素子318はそれぞれ、独立して異なる画像を表示することができる。透過型表示素子318は可視光を透過可能な部材である。また複数の透過型表示素子318は、それぞれ立体画像提示装置100の光路上、すなわち、凸レンズ312の光軸上に並んで備えられている。したがって、視点308に対して奥側にある透過型表示素子318が表示した画像であっても、視点308に対して手前側にある透過型表示素子318を透過して、視点308まで到達する。つまり、複数の透過型表示素子318が表示した画像は、視点308から見ると重畳されて観察される。
ここで上述したように、視点308と透過型表示素子318の間には、凸レンズ312が存在する。したがって、視点308から透過型表示素子318を見ると、複数の透過型表示素子318が表示する画像は、それぞれ式(1)および式(2)にしたがう虚像として観察されることになる。この意味で、凸レンズ312は、複数の透過型表示素子318それぞれが表示する画像の虚像を生成する光学素子として機能する。
図5は、異なる位置に同じ大きさの虚像を提示するために、透過型表示素子318が表示すべき画像を示す図である。図5は、3つの虚像316a、316b、および316cが、凸レンズ312の光学中心から距離B1、B2、およびB3の距離に、同じ大きさQで提示されている場合の例を示している。また図5において、画像314a、314b、および314cは、それぞれ虚像316a、316b、および316cに対応する画像である。画像314a、314b、および314cは、複数の透過型表示素子318のいずれかによって表示される。なお、式(1)に示すレンズの公式に関し、図3における物体314が図5における透過型表示素子318が表示する画像に対応する。そこで、図5における画像も、図3における物体314と同様に、符号314を付す。
より具体的には、画像314a、314b、および314cは、それぞれ凸レンズ312の光学中心からA1、A2、およびA3離れた位置にある透過型表示素子318によって表示される。ここで、A1、A2、およびA3は、式(4)より、それぞれ以下の式で与えられる。
A1=F/(1+F/B1)
A2=F/(1+F/B2)
A3=F/(1+F/B3)
また、表示すべき画像314a、314b、および314cの大きさP1、P2、およびP3は、虚像316の大きさQを用いて、式(5)よりそれぞれ以下の式で与えられる。
P1=Q×F/(B1+F)
P2=Q×F/(B2+F)
P3=Q×F/(B3+F)
このように、画像314を表示させる透過型表示素子318を変更すること、換言すると、画像を表示させる透過型表示素子318の位置を変更することで、ユーザに提示する虚像316の位置を変更することができる。また、透過型表示素子318に表示する画像の大きさを変更することで、提示すべき虚像316の大きさを制御することもできる。
以上、物体314が凸レンズ312の焦点Fの内側にある場合における、物体314の位置と虚像316の位置との関係、および物体314の大きさと虚像316の大きさとの関係について説明した。続いて、実施の形態に係る立体画像提示装置100の機能構成について説明する。実施の形態に係る立体画像提示装置100は、上述した物体314と虚像316との関係を利用する。
図6は、実施の形態に係る立体画像提示装置100の機能構成を模式的に示す図である。立体画像提示装置100は、画像取得部102と画像提示部104とを備える。図6は、実施の形態に係る立体画像提示装置100を実現するための機能構成を示しており、その他の構成は省略している。図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、立体画像提示装置100の筐体160内に格納されたCPU、メインメモリ、その他のLSI(Large Scale Integration)で構成することができる。またソフトウェア的には、メインメモリにロードされたプログラム等によって実現される。したがってこれらの機能ブロックが、いろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
画像取得部102は、立体画像提示装置100が提示対象とする画像を取得する。画像取得部102は、例えば、仮想空間に設定された仮想カメラ300が撮影する仮想オブジェクト304の画像を取得する。ここで仮想カメラ300が撮影する画像とは、3次元的な情報を持つ仮想オブジェクト304を2次元に投影して得られる2次元画像である。画像取得部102は、図1を参照して上述した立体画像提示装置100の筐体160内に実装された各種モジュールによって実現される。画像取得部102の詳細は後述する。
画像提示部104は、画像取得部102が取得した画像を、立体画像提示装置100を装着するユーザが観察する実空間に重畳して提示する。ここで画像提示部104は、画像取得部102が取得した画像の虚像316を、実空間に提示する。画像提示部104は、実空間に提示する画像の虚像316の位置を変更自在に構成されている。画像提示部104は、ユーザに提示する画像に写っている仮想オブジェクト304の奥行き情報をもとに、虚像316を提示する位置を変更する。
「奥行き情報」とは、例えばある被写体が写っている画像をユーザに提示したときに、ユーザがその被写体を見て認識される距離感を反映する情報である。そのため、仮想オブジェクト304における「奥行き情報」の一例として、仮想オブジェクト304が撮影されたときの、仮想カメラ300から仮想オブジェクト304までの距離を含む。この場合、画像提示部104は、仮想空間における仮想カメラ300から仮想オブジェクト304までの距離をもとに、画像取得部102が取得した画像の虚像316を提示する位置を変更する。
具体的には、画像提示部104は、仮想空間における仮想カメラ300から仮想オブジェクト304までの距離が近い場合は、遠い場合と比較して、立体画像提示装置100を装着するユーザから見て近い位置に、仮想オブジェクト304の画像の虚像316を提示する。また画像提示部104は、提示する虚像316の位置に応じて、虚像316に対応する画像314を生成する。以下、画像取得部102による画像314の生成の仕方と、画像提示部104による虚像316の提示の仕方についてより詳細に説明する。
図6に示すように、画像取得部102は、部分領域生成部106、レンダリング部108、仮想カメラ設定部110、およびオブジェクト設定部112を備える。また、画像提示部104は、虚像提示部114と虚像位置設定部116とを備える。
オブジェクト設定部112は、立体画像提示装置100のユーザに提示するARイメージの元となる仮想オブジェクト304を、仮想空間内に設定する。仮想オブジェクト304は、例えば3次元のボクセル(voxel)データで構成されている。オブジェクト設定部112は、立体画像提示装置100の筐体160中の図示しない記憶部から、仮想オブジェクト304のボクセルデータを読み出す。あるいは、オブジェクト設定部112は、筐体160中の図示しないWi−Fiモジュールを介して、立体画像提示装置100の外部にある他の機器から、ボクセルデータを無線通信で取得してもよい。オブジェクト設定部112はさらに、仮想空間内に設定した仮想オブジェクト304を照明するための仮想の光源を仮想空間内に設定してもよい。
仮想カメラ設定部110は、オブジェクト設定部112が設定した仮想オブジェクト304を観察するための仮想カメラ300を、仮想空間内に設定する。限定はしないが、仮想カメラ設定部110は、立体画像提示装置100が備える撮像素子140の動きに応じて、仮想空間内における仮想カメラ300の設定位置を変更してもよい。
この場合、仮想カメラ設定部110は、筐体160が備える電子コンパス、加速度センサ、および傾きセンサ等の各種センサの出力をもとに、撮像素子140の姿勢および動きを検知する。仮想カメラ設定部110は、検知した撮像素子140の姿勢および動きに追従するように、仮想カメラ300の姿勢および設定位置を変更する。これにより、立体画像提示装置100を装着するユーザの頭部の動きに追従して、仮想カメラ300から見た仮想オブジェクト304の見え方を変更することができる。これにより、ユーザに提示するARイメージの現実感をより高めることができる。
部分領域生成部106は、仮想オブジェクト304を含む処理対象の領域を複数の部分領域に区分けする。レンダリング部108は、部分領域生成部106が生成した複数の部分領域それぞれに含まれる仮想オブジェクト304それぞれについて、仮想カメラ300から観察可能な部分をレンダリングして画像を生成する。
図7(a)−(b)は、実施の形態に係る部分領域生成部106が生成する複数の部分領域と、各部分領域に含まれる仮想オブジェクト304の関係の一例を模式的に示す図である。図7(a)−(b)は、回転楕円体または卵形の仮想オブジェクト304が、7つの部分領域320a〜320gによって区切られている様子を示している。以下、特に区別する場合を除いて、複数の部分領域を「部分領域320」と総称する。
部分領域生成部106は、仮想空間において仮想カメラ300からの距離に応じて仮想空間を区分けし、部分領域320を生成する。限定はしないが、部分領域生成部106は、仮想空間中に仮想カメラ300の光軸(図7中のz軸)に対して垂直な平面を複数枚設定し、互いに隣り合う平面に挟まれた領域を部分領域320とする。以下説明の便宜上、部分領域320を規定する平面を「区分け面」と記載する。図7においては、部分領域生成部106は区分け面322a〜322gまでの7つの区分け面を設定し、7つの部分領域320a〜320gを生成している。なお、図7において、部分領域320gに関しては、区分け面322gから無限遠に至るまでの空間が部分領域320gとなる。
図7(a)は、仮想カメラ300の光軸に対して垂直な方向、すなわち図2における仮想座標系302のxy平面に垂直な方向から仮想オブジェクト304を眺めた場合の様子を示す図ある。また図7(b)は、図2における仮想座標系302のxz平面に垂直な方向から仮想オブジェクト304を眺めた場合の様子を示す図ある。
図7(b)に示すように、部分領域生成部106が生成した部分領域320により、仮想オブジェクト304は複数の断片に分割される。レンダリング部108は、部分領域320によって断片化された仮想オブジェクト304それぞれを単位として、仮想オブジェクト304のレンダリングを実行する。より具体的には、レンダリング部108は、断片化された仮想オブジェクト304それぞれについて、仮想カメラ300から見える範囲の画像を生成する。
図8は、実施の形態に係るレンダリング部108が生成する画像の一例を模式的に示す図である。図8は、図7に示す仮想オブジェクト304を、断片毎にレンダリング部108がレンダリングして生成した画像を示す図である。
図8において、画像324a〜324eは、それぞれ図7における部分領域320a〜320eに含まれる仮想オブジェクト304の断片をレンダリングして得られる画像である。例えば図7において、部分領域320aには、仮想オブジェクト304のうち最も仮想カメラ300に近い部分が含まれる。このため部分領域320aに含まれる仮想オブジェクト304の断片は、仮想カメラ300から見ると楕円に見える。そこでレンダリング部108は、図8における画像324aで示すように、楕円形状の画像324eを生成する。
同様に、図7において部分領域320bに含まれる仮想オブジェクト304の断片は、仮想カメラ300から見ると楕円形状となる。しかしながら、部分領域320bに含まれる仮想オブジェクト304の断片と仮想カメラ300との間には、部分領域320aに含まれる仮想オブジェクト304の断片が存在する。したがって、部分領域320bに含まれる仮想オブジェクト304の断片のうち仮想カメラ300から観察可能な部分は、図8における画像324bで示すようなドーナツ型の形状となる。そこでレンダリング部108は、部分領域320bに含まれる仮想オブジェクト304の断片の画像として、画像324bを生成する。画像324c〜324eも同様である。
なお、図7において部分領域320fおよび部分領域320gに含まれる仮想オブジェクト340の断片は、仮想オブジェクト340自身に遮蔽されることにより、仮想カメラ300から観察することはできない。そのため、部分領域320fおよび部分領域320gに含まれる仮想オブジェクト340の断片については、レンダリング部108は画像を生成しない。
図6の説明に戻る。虚像位置設定部116は、仮想空間における仮想カメラ300から部分領域320までの距離に応じて、レンダリング部108が生成した画像の虚像316を提示する位置を設定する。図3を参照して上述したように、画像314の位置と虚像316の位置とは1対1に対応する。したがって、式(4)に示すように、虚像316を提示する位置は、虚像316に対応する画像314を変更することで制御できる。したがって、虚像位置設定部116は、仮想空間における仮想カメラ300から部分領域320までの距離に応じて、レンダリング部108が生成した画像を表示させる透過型表示素子318の位置を設定する。さらに具体的には、虚像位置設定部116は、式(4)にしたがって導出された位置に存在する透過型表示素子318を選択する。
例えば虚像位置設定部116は、図7において部分領域320aに含まれる仮想オブジェクト304の断片から生成された画像を表示させる透過型表示素子318として、図4における透過型表示素子318aを選択する。以下同様に、部分領域320b〜320gに含まれる仮想オブジェクト304をレンダリングして得られた画像を表示させる透過型表示素子318として、虚像位置設定部116はそれぞれ透過型表示素子318b〜318gを選択する。このように、空間における仮想カメラ300から部分領域320までの距離に応じて、レンダリング部108が生成した画像の虚像316を提示する位置を設定することにより、ARイメージをより立体的に提示することが可能となる。ユーザから見ると、仮想オブジェクト304の深さ方向の情報が、提示される虚像316に反映されるからである。
なお図7に示すように、部分領域320gは、区分け面322gから無限遠に至るまでの空間を含む。したがって、部分領域320gに含まれる仮想オブジェクト304は、レンダリング部108によって、深さ方向の情報がいわば丸められて、画像が生成される。つまり、仮想空間において仮想カメラ300から最も遠いところに位置する区分け面322は、仮想カメラ300から遠方であることを規定することになる。
図7に示す例では、区分け面322gが、仮想カメラ300から最も遠方にある区分け面となる。そこで、仮想カメラ300から最も遠いところに位置する区分け面322と、仮想カメラ300との間の距離が、「遠方基準距離」として定められる。部分領域生成部106は、遠方基準距離よりも仮想カメラ300から離れた領域は、遠方部分領域としてひとつの部分領域として設定する。仮想カメラ300から最も遠いところに位置する区分け面322は遠方基準距離を規定するため、この区分け面322は「遠方基準面」ということもできる。
なお、遠方基準距離は、部分領域生成部106が設定する。部分領域生成部106は、仮想カメラ300から遠方基準距離だけ離れた位置に遠方基準面を設定する。部分領域生成部106は、設定した遠方基準面よりも仮想カメラ300に近い領域を、複数の部分領域320に分割する。これにより、遠方基準距離よりも仮想カメラ300に近い領域に存在する仮想オブジェクト304については、レンダリング部108はきめ細かく画像化することができる。すなわち、距離よりも仮想カメラ300に近い領域に存在する仮想オブジェクト304に由来するARイメージの立体感を向上させることができる。
ここで部分領域生成部106は、複数の部分領域320それぞれについて、他の部分領域320と一部が重複するか、または少なくとも接するようにして区分けする。また部分領域生成部106は、仮想カメラ300から最も近い区分け面322は、仮想カメラ300と接するように設定する。これにより、レンダリング部108は、仮想空間に存在する仮想オブジェクト304を漏れなくレンダリングすることができる。
以上、実施の形態に係る立体画像提示装置100の機能構成について説明した。次に、立体画像提示装置100が実行するアプリケーションの一例について説明する。
実施の形態に係る立体画像提示装置100は、筐体160内のCPUを用いて種々のアプリケーションを実行することができる。このようなアプリケーションの一例として、例えばゲームアプリケーションがあげられる。
ゲームアプリケーションは、一般に、ユーザが操作可能なキャラクタの画像と、それ以外の画像とを含む。例えばレーシングゲームであれば、ユーザが操作する車がキャラクタであり、道路や対戦相手の車等が、いわば背景となる。近年のゲームアプリケーションにおいては、キャラクタ画像を生成するための仮想オブジェクト304や、背景画像を生成するための仮想オブジェクト304を仮想空間に設定し、仮想カメラ300から見た場合の投影画像を生成することも一般に行われている。立体画像提示装置100がゲームアプリケーションのプログラムを実行すると、画像取得部102は、そのゲームに登場するキャラクタや背景との仮想オブジェクト304を仮想空間に設定し、仮想オブジェクト304の画像を生成する。画像提示部104は、画像取得部102が生成した画像の虚像316を、立体画像提示装置100のユーザに提示する。
画像取得部102中のオブジェクト設定部112が仮想空間に設定する仮想オブジェクト304には、その仮想オブジェクト304の特性を規定する1または複数の属性が付与されている。属性の一例としては、例えばユーザが操作可能なキャラクタか否かを示す属性である。属性の別の例としては、仮想空間における仮想オブジェクト304の移動速度や、加速度、光の反射や吸収の度合い等の物理的な特性も含まれる。
このように、仮想オブジェクト304は、あらかじめ定められた複数の属性から選択される1または複数の属性を備えている。部分領域生成部106は、仮想オブジェクト304が備える属性に応じて、部分領域320の区分けの仕方を変更してもよい。
上述したように、部分領域生成部106によって設定された遠方基準距離よりも仮想カメラ300から遠い領域は遠方領域として1つの部分領域320にまとめられる。したがって、遠方領域に存在する仮想オブジェクト304は、レンダリング部108によって一枚の画像にレンダリングされる。このため、遠方領域に存在する仮想オブジェクト304に由来する画像の虚像316は、ユーザには奥行き感が乏しい像として提示されることになる。
ゲームアプリケーションにおいて、ユーザが操作するキャラクタはユーザの注目度が高いと考えられる。このため、仮にユーザが操作するキャラクタの仮想オブジェクト304が遠方領域に含まれると、実際にユーザに提示される虚像316の奥行き感が乏しくなりかねない。そこで部分領域生成部106は、仮想オブジェクト304が、ユーザが操作可能なキャラクタであることを示すキャラクタ属性を備えている場合、その仮想オブジェクトが304遠方部分領域から除外されるように、遠方基準距離を設定する。具体的には、部分領域生成部106は、キャラクタ属性を備える仮想オブジェクト304のうち、仮想カメラ300から最も遠い位置にある仮想オブジェクト304と同じかそれよりも遠い位置に、遠方基準面を設定する。これにより、少なくともユーザが操作するキャラクタに由来するAR画像の立体感を向上することができる。
図9は、実施の形態に係る立体画像提示装置100が実行する立体画像提示処理の流れを説明するフローチャートである。本フローチャートにおける処理は、例えば立体画像提示装置100の電源が起動したときに開始する。
オブジェクト設定部112は、仮想空間に仮想オブジェクト304を設定する(S2)。部分領域生成部106は、オブジェクト設定部112が設定した仮想オブジェクト304に備えられた属性を取得する(S4)。部分領域生成部106は、取得した仮想オブジェクト304の属性に応じて、仮想空間中に複数の部分領域320を設定する(S6)。
虚像位置設定部116は、部分領域生成部106が生成した部分領域320毎に、仮想オブジェクト304の画像の虚像316を提示する位置を設定する(S8)。レンダリング部108は、部分領域生成部106が生成した部分領域320毎に、その部分領域320に含まれる部分の仮想オブジェクト304をレンダリングして画像を生成する(S10)。虚像提示部114は、虚像位置設定部116が設定した位置にレンダリング部108が生成した画像の虚像316が提示されるように、画像を透過型表示素子318に表示する(S12)。
虚像提示部114が虚像316を提示すると、本フローチャートにおける処理は終了する。
以上述べたように、実施の形態に係る立体画像提示装置100によれば、ARイメージの立体感を向上することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
(第1の変形例)
上記では、凸レンズ312の焦点距離が固定である場合について説明した。このため、式(1)に基づき、透過型表示素子318の位置を変えることで、虚像316の位置を制御した。これに代えて、凸レンズ312の光学中心から透過型表示素子318までの距離を固定して、凸レンズ312の焦点距離を変更するようにしてもよい。これは例えば凸レンズ312として、焦点距離を変更可能な液晶レンズを用いることで実現できる。あるいは、焦点距離が異なる複数のレンズを交換する構成としても実現できる。以下第1の変形例として、透過型表示素子318の位置を固定し、かつ焦点距離を可変な凸レンズ312を採用する立体画像提示装置100について説明する。
図10は、焦点距離を変更可能な凸レンズ312とその焦点距離を模式的に示す図である。図10に示すように、凸レンズ312は焦点距離をF1からF2までの間を自由に変更することができる。例えば図10において、実線で示す凸レンズ312aの状態のとき焦点距離はF1となる。また破線で示す凸レンズ312bの状態のとき、焦点距離がF2となる。なお、説明の便宜のため図10においては凸レンズ312の厚みを変えて図示しているが、凸レンズ312の厚み自体は必ずしも変更されるものではない。例えば複屈折性を持つ液晶の配向を変更することによっても、焦点距離を変更することができる。
式(1)において、距離Aが固定であり、焦点距離Fが可変であるとする。このとき、式(1)を変形すると、焦点距離Fを距離Bの関数とする以下の式(6)を得る。
F(B)=A/(1−A/B) (6)
式(6)は、ある距離Bが与えられたとき、焦点距離Fが満たすべき値を示している。式(6)より、距離Bが長いほど、焦点距離Fも大きくなることがわかる。
また、距離Bの位置にQの大きさの虚像316を提示するために物体314がとるべき大きさPは、上記式(5)と同一である。
図11は、異なる位置に同じ大きさの虚像316を提示するために、凸レンズ312の焦点Fがあるべき位置を示す図である。図11は、2つの虚像316aおよび虚像316bが、それぞれ凸レンズ312の光学中心から距離B1および距離B2の距離に、同じ大きさQで提示されている場合の例を示している。また図11において、画像314aおよび画像314bは、それぞれ虚像316aおよび虚像316bに対応する画像である。画像314aおよび画像314bは、同一の透過型表示素子318によって表示される。
より具体的には、画像314aと画像314bとはともに、凸レンズ312の光学中心から距離A離れた位置にある透過型表示素子318によって表示される。このとき、凸レンズ312の焦点Fがあるべき位置、すなわち焦点距離F1および焦点距離F2は、それぞれ以下の式で与えられる。
F1=A/(1−A/B1)
F2=A/(1−A/B2)
また、表示すべき画像314aおよび画像314bの大きさP1およびP2は、虚像316の大きさQを用いて、式(5)よりそれぞれ以下の式で与えられる。
P1=Q×F/(B1+F)
P2=Q×F/(B2+F)
このように、凸レンズ312の焦点距離を変更することで、ユーザに提示する虚像316の位置を変更することができる。また、透過型表示素子318に表示する画像の大きさを変更することで、提示すべき虚像316の大きさも制御することができる。この場合、部分領域320それぞれに含まれる仮想オブジェクト304に由来する画像314を、時分割で順番に表示する。ユーザの視覚の残像により、ユーザは虚像316を立体的に観察することができる。
なお、液晶レンズのように偏光の性質がある光学素子を用いる場合には、色収差や輝度のずれが生じうる。そこでレンダリング部108は、偏光の特性を考慮した画像を生成することが好ましい。
(第2の変形例)
上述した実施の形態に係る立体画像提示装置100では、複数の透過型表示素子318の中から画像314を表示する透過型表示素子318を選択することで、画像314の表示位置を変更する場合について説明した。これに代えて、画像314を表示する透過型表示素子318を移動させ、その物理的な位置を変更するようにしてもよい。以下、第2の変形例として、透過型表示素子318の物理的な位置を変更する場合の立体画像提示装置100について説明する。
図12(a)−(b)は、第2の変形例に係る立体画像提示装置100の光学系を模式的に示す図である。図12(a)に示す例と図12(b)に示す例とはともに、ひとつの透過型表示素子318を備える。この透過型表示素子318は、凸レンズ312の光軸に沿って、図12(a)および図12(b)に示す透過型表示素子318aと318bとの間を移動可能である。これは例えば立体画像提示装置100の筐体160内に備えられた図示しないモータを用いて透過型表示素子318を動かすことで実現できる。
図12(a)に示す例は、図4に示す例と同様に、凸レンズ312に対して視点308の反対側に透過型表示素子318が配置されている。これに対し、図12(b)に示す例は、凸レンズ312の代わりにホログラム等の光学素子326が備えられている。この光学素子326は、透過型表示素子318が表示する画像の光を受けると、その画像を拡大した虚像を視点308に対して提示することができる。
(第3の変形例)
上述した第2の変形例に係る立体画像提示装置100では、画像314を表示する透過型表示素子318の物理的な位置を変更することで、虚像316の位置を変更する場合について説明した。これに代えて、透過型表示素子318の位置は固定して、レンズを移動するようにしてもよい。以下、第3の変形例として、レンズの物理的な位置を変更する場合の立体画像提示装置100について説明する。
図13(a)−(b)は、第3の変形例に係る立体画像提示装置100の光学系を模式的に示す図である。図13(a)に示す例と図13(b)に示す例とはともに、図12(a)−(b)に示す例と同様に、立体画像提示装置100は1つの透過型表示素子318を備える。
図13(a)に示す例は、図4や図12(a)に示す例と同様に、立体画像提示装置100は凸レンズ312を1つ備える。図13(a)に示す例では、立体画像提示装置100の筐体160内に備えられた図示しないモータが、凸レンズ312を凸レンズ312の光軸に沿って移動させる。具体的にはモータは、凸レンズ312を図13(a)に示す凸レンズ312aと312bとの間で移動させることができる。これにより、凸レンズ312と透過型表示素子318との相対的な距離を変えることができるので、視点308に対して提示する虚像316の位置を変更することができる。
図13(b)に示す例では、立体画像提示装置100は凹レンズ328とコリメータレンズ330とを含む。立体画像提示装置100の筐体160内に備えられた図示しないモータは、凹レンズ328を凹レンズ328の光軸に沿って移動させる。具体的にはモータは、凹レンズ328を図13(b)に示す凹レンズ328aと328bとの間で移動させることができる。これにより、視点308に対して提示する虚像の位置を変更することができる。
(第4の変形例)
上述した第2の変形例に係る立体画像提示装置100と第3の変形例に係る立体画像提示装置100とはともに、透過型表示素子318または凸レンズ312等のレンズのいずれかを移動させることにより、透過型表示素子318とレンズとの相対的な距離を変更する例である。これに代えて、透過型表示素子318と凸レンズ312との組を複数用意し、これらを切換ながら虚像316を提示してもよい。あるいは、凸レンズ312と透過型表示素子318との間に、屈折率を変更可能な光学素子を挿入し、凸レンズ312と透過型表示素子318との間の光路長を可変にしてもよい。
図14(a)−(b)は、第4の変形例に係る立体画像提示装置100の光学系を模式的に示す図である。
図14(a)に示す例は、凸レンズ312と透過型表示素子318との間の距離が異なる複数の凸レンズ312と透過型表示素子318の組を備える立体画像提示装置100の例を示す。図14(a)に示す例では、立体画像提示装置100は、凸レンズ312aと透過型表示素子318aの組、凸レンズ312bと透過型表示素子318bの組、および凸レンズ312cと透過型表示素子318cの、3組を備える。図14(a)に示す立体画像提示装置100はさらに、図示しないモータと接続するハーフミラー332を備える。立体画像提示装置100はモータを制御してハーフミラー332を回転させることにより、視点308に対していずれかの透過型表示素子318が表示する画像314の虚像316を提示することができる。各凸レンズ312と透過型表示素子318の組は両者の距離が異なるため、立体画像提示装置100は視点308に対して提示する虚像316の位置を変更することができる。
図14(b)は、凸レンズ312と透過型表示素子318との間に、屈折率を変更可能な光学素子334を備える立体画像提示装置100の例を示す。図14(b)に示す立体画像提示装置100は、光学素子334の屈折率を変更することにより、凸レンズ312と透過型表示素子318との間の物理的な距離が一定であっても、両者の間の光学的な距離を変更する。これにより、立体画像提示装置100は視点308に対して提示する画像314の虚像316の位置を変更することができる。
(第5の変形例)
上記では、視点308に対して提示する画像314の虚像316の位置を変更するために、透過型表示素子318の位置を変更する場合について説明した。これに代えて、透過型表示素子318の見かけ上の解像度を向上させるために、透過型表示素子318を移動させてもよい。この場合、立体画像提示装置100中の図示しない駆動部が、透過型表示素子318が表示する画像のフレーム毎に、透過型表示素子318を光軸からずれる方向に、例えば半ピクセルまたは1/4ピクセルずつずらす。これと連動して、仮想カメラ設定部110は、仮想空間に設置する仮想カメラ300の位置もずらす。これにより、いわば「固視微動」の効果により、立体画像提示装置100のユーザに対して提示する虚像316の見かけ上の解像度を向上することができる。
(第6の変形例)
上記では、レンダリング部108が生成した画像を表示するデバイスは透過型表示素子318である場合について説明した。しかしながら、立体画像提示装置100が備える表示デバイスが1つのみの場合には、透過型の表示デバイスではなく、例えば液晶モニタ等の非透過の表示デバイスであってもよい。
(第7の変形例)
上記の実施の形態に係る立体画像提示装置100は、筐体160に備えられたCPUでゲームアプリケーションを実行する場合について説明した。これに代えて、あるいはこれに加えて、立体画像提示装置100は外部の機器(例えばゲームコンソール)と無線または有線で接続し、その機器の出力デバイスとして機能してもよい。
(第8の変形例)
上記では、立体画像提示装置100が、実空間中にARイメージを重畳して表示する場合について説明した。このため、画像提示部104は、ユーザに提示する画像に写っている仮想オブジェクト304の奥行き情報をもとに、その画像の虚像を提示する位置を変更するとした。しかしながら、上述したように、「奥行き情報」とは、例えばある被写体が写っている画像をユーザに提示したときに、ユーザがその被写体を見て認識される距離感を反映する情報である。したがって、表示対象とする画像に写っている被写体は、仮想オブジェクト304に限られず、例えば3D映画のように、実在するオブジェクトを被写体として、実在するカメラで写した立体映像であっても適用できる。この意味で、「オブジェクト」は、仮想的な物体のみならず実在する被写体も含み、立体画像提示装置100の「描画対象」ということもできる。
以下立体映像が、左目用の視差画像と右目用の視差画像とを含む映像であることを前提に説明する。
左目用の視差画像と右目用の視差画像とは、それぞれ同じ被写体を異なる方向ないし角度から撮影することで得られる画像のセットである。左目用の視差画像と右目用の視差画像とでは、同じ被写体が撮影されているものの、観測地点が異なることから、それぞれの画像においてその被写体の見える方向ないし角度が相違する。この相違は、「両眼視差」として知られている。観測点から被写体までの距離に応じて、両眼視差の大きさは変化する。すなわち、左目用の視差画像と右目用の視差画像とのセットには、被写体の奥行き情報が含まれる。この視差画像が持つ両眼視差を解析することによって視差画像に撮影されている被写体の奥行き情報を取得する技術が知られている。
そこで画像提示部104は、立体映像に含まれる両眼視差を解析し、立体映像に映っているオブジェクトの奥行き情報を取得してもよい。具体的には、オブジェクト設定部112が、立体映像に含まれる左目用の視差画像と右目用の視差画像とをもとに、その立体映像に含まれるオブジェクトの奥行き情報を取得する。さらに具体的には、オブジェクト設定部112は、立体映像に含まれる視差画像の画素毎に、奥行き情報を取得する。オブジェクト設定部112が画素毎に取得した奥行き情報は、各画素が示しているオブジェクトと、そのオブジェクトを撮影したカメラとの距離を反映する情報となる。
部分領域生成部106は、オブジェクト設定部112が取得した奥行き情報をもとに、処理対象となる立体映像を複数の部分領域に区分けする。レンダリング部108は、部分領域生成部106が生成した複数の部分領域それぞれに含まれる画素から構成される映像を生成する。
虚像位置設定部116は、オブジェクト設定部112が取得した奥行き情報をもとに、レンダリング部108が生成した画像の虚像316を提示する位置を設定する。すなわち、虚像位置設定部116は、オブジェクト設定部112が取得した奥行き情報をもとに、レンダリング部108が生成した画像を表示させる透過型表示素子318の位置を設定する。虚像位置設定部116は、オブジェクト設定部112が取得した奥行き情報がユーザから遠いことを示す場合は、近いことを示す場合と比較して、ユーザの目から遠い位置に透過型表示素子318の位置を設定する。被写体の奥行き情報が、その被写体を含む画像の虚像の提示位置に反映されるので、ユーザに提示する立体映像の立体感を向上することができる。
なお、例えば立体映像の撮影時等に、立体映像を構成するフレーム毎に奥行き情報を紐付けて保存しているような場合には、レンダリング部108および虚像位置設定部116は、保存されている奥行き情報を利用してもよい。これは例えば被写体の撮影時に、その被写体の3次元的な位置を既知の3次元位置計測装置を用いて計測することで実現できる。事後的に視差画像を解析することを省略できるので、処理速度および消費電力を抑制できる点で効果がある。また、事後的な計算で得られる奥行き情報よりも、精度の高い奥行き情報が得られる点で有利である。
なお、以上説明した実施の形態または各変形例を組み合わせることで得られる新たな実施の形態も、本発明の実施の形態に含まれる。例えば実施の形態と、第2の変形例とを組み合わせ、複数の透過型表示素子318を備え、かつ移動可能な凸レンズ312を備える立体画像提示装置100を構成してもよい。
100 立体画像提示装置、 102 画像取得部、 104 画像提示部、 106 部分領域生成部、 108 レンダリング部、 110 仮想カメラ設定部、 112 オブジェクト設定部、 114 虚像提示部、 116 虚像位置設定部、 120 提示部、 140 撮像素子、 160 筐体、 220 部分領域、 314 画像、 316 虚像、 318 透過型表示素子、 320 部分領域、 326 光学素子、 334 光学素子。

Claims (10)

  1. 立体画像提示装置であって、
    提示対象とする画像を取得する画像取得部と、
    前記画像取得部が取得した画像の虚像を、前記立体画像提示装置のユーザの視野に提示する画像提示部とを備え、
    前記画像提示部は、前記ユーザに提示する虚像の位置を変更自在に構成されており、前記画像に写っているオブジェクトの奥行き情報をもとに、前記虚像を提示する位置を変更することを特徴とする立体画像提示装置。
  2. 前記オブジェクトの奥行き情報は、前記オブジェクトを撮影するカメラから前記オブジェクトまでの距離を含み、
    前記画像提示部は、前記カメラから前記オブジェクトまでの距離が近い場合は、遠い場合と比較して、前記ユーザから近い位置に前記虚像を提示することを特徴とする請求項1に記載の立体画像提示装置。
  3. 前記画像取得部は、
    前記オブジェクトを含む処理対象を複数の部分領域に区分けする部分領域生成部と、
    前記複数の部分領域それぞれに含まれるオブジェクトそれぞれについて、前記カメラから観察可能な部分をレンダリングして画像を生成するレンダリング部とを備え、
    前記画像提示部は、
    前記カメラから前記部分領域までの距離に応じて、前記レンダリング部が生成した画像の虚像を提示する位置を設定する虚像位置設定部を備えることを特徴とする請求項2に記載の立体画像提示装置。
  4. 前記部分領域生成部は、前記カメラから遠方であることを規定する遠方基準距離を定め、当該遠方基準距離よりも前記カメラから離れた位置にある領域は、遠方部分領域としてひとつの部分領域に設定することを特徴とする請求項3に記載の立体画像提示装置。
  5. 前記オブジェクトと前記カメラとはそれぞれ、仮想的な3次元空間に設定された仮想的なオブジェクトおよび仮想的なカメラであり、
    前記オブジェクトは、予め定められた複数の属性から選択された1または複数の属性を備えており、
    前記部分領域生成部は、前記オブジェクトが備える属性に応じて、区分けの仕方を変更することを特徴とする請求項4に記載の立体画像提示装置。
  6. 前記予め定められた複数の属性はキャラクタ属性を含み、当該キャラクタ属性はその属性を備えるオブジェクトは前記ユーザが操作可能なキャラクタであることを示すものであり、
    前記部分領域生成部は、オブジェクトがキャラクタ属性を備える場合、当該オブジェクトが前記遠方部分領域から除外されるように、前記遠方基準距離を設定することを特徴とする請求項5に記載の立体画像提示装置。
  7. 前記部分領域生成部は、前記複数の部分領域それぞれについて、他の部分領域と一部が重複するかまたは接するようにして区分けすることを特徴とする請求項3から6のいずれかに記載の立体画像提示装置。
  8. 立体画像提示装置のプロセッサが実行する画像提示方法であって、
    提示対象とするオブジェクトの画像を取得するステップと、
    前記オブジェクトの奥行き情報をもとに、前記画像の虚像を提示する位置を設定するステップと、
    設定した位置に、前記虚像を提示するステップとを含むことを特徴とする立体画像提示方法。
  9. コンピュータを備える立体画像提示装置に画像提示機能を実現させるプログラムであって、当該機能は、
    提示対象とする画像を取得する機能と、
    前記画像に写っているオブジェクトの奥行き情報をもとに、前記画像の虚像を提示する位置を設定する機能と、
    設定した位置に、前記虚像を提示する機能とを含むことを特徴とするコンピュータが読み出し可能なプログラム。
  10. 立体画像を提示するヘッドマウントディスプレイであって、
    提示対象とする画像を取得する画像取得部と、
    前記画像取得部が取得した画像の虚像を、前記ヘッドマウントディスプレイを装着するユーザに提示する画像提示部とを備え、
    前記画像提示部は、
    前記画像を表示する複数の透過型表示部と、
    前記複数の透過型表示部それぞれが表示する画像の虚像を生成する光学素子とを備え、
    前記複数の透過型表示部は、前記画像提示部の光路上に並んで備えられており、
    前記光学素子は、前記画像提示部の光路において前記ユーザの目と前記複数の透過型表示部との間に備えられることを特徴とするヘッドマウントディスプレイ。
JP2014147055A 2014-07-17 2014-07-17 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ Active JP6294780B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014147055A JP6294780B2 (ja) 2014-07-17 2014-07-17 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
PCT/JP2015/069942 WO2016009970A1 (ja) 2014-07-17 2015-07-10 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
CN201580037801.8A CN106537909B (zh) 2014-07-17 2015-07-10 立体图像呈现装置、立体图像呈现方法和头戴式显示器
EP15821846.1A EP3171592B1 (en) 2014-07-17 2015-07-10 Stereoscopic image presentation device and stereoscopic image presentation method
US15/325,167 US10306214B2 (en) 2014-07-17 2015-07-10 Stereoscopic image presenting device, stereoscopic image presenting method, and head-mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014147055A JP6294780B2 (ja) 2014-07-17 2014-07-17 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ

Publications (3)

Publication Number Publication Date
JP2016024273A true JP2016024273A (ja) 2016-02-08
JP2016024273A5 JP2016024273A5 (ja) 2017-03-16
JP6294780B2 JP6294780B2 (ja) 2018-03-14

Family

ID=55078464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014147055A Active JP6294780B2 (ja) 2014-07-17 2014-07-17 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ

Country Status (5)

Country Link
US (1) US10306214B2 (ja)
EP (1) EP3171592B1 (ja)
JP (1) JP6294780B2 (ja)
CN (1) CN106537909B (ja)
WO (1) WO2016009970A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019098198A1 (ja) * 2017-11-20 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
WO2020079906A1 (ja) * 2018-10-15 2020-04-23 国立大学法人東京農工大学 ヘッドマウントディスプレイおよびこれに用いられる広焦点レンズの設計方法
JP2020527872A (ja) * 2017-07-13 2020-09-10 グーグル エルエルシー 非平面コンピュテーショナルディスプレイ
JP2021507408A (ja) * 2017-12-22 2021-02-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想、拡張、または複合現実環境内で3dビデオを生成および表示するための方法およびシステム
WO2022113564A1 (ja) * 2020-11-26 2022-06-02 ソニーグループ株式会社 画像表示装置及び表示装置
US11354874B2 (en) 2018-03-20 2022-06-07 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366536B2 (en) * 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments
EP3593530A4 (en) * 2017-03-07 2020-12-16 8259402 Canada Inc. PROCESS FOR ORDERING A VIRTUAL IMAGE IN A DISPLAY DEVICE
GB2555501B (en) * 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
GB2566744B (en) * 2017-09-26 2021-03-03 Sony Interactive Entertainment Inc Head-mountable display system
JP6453501B1 (ja) * 2018-02-01 2019-01-16 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
JP6623481B2 (ja) * 2018-03-23 2019-12-25 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
JP7260428B2 (ja) * 2019-07-18 2023-04-18 ファナック株式会社 拡張現実グラス装置及び表示プログラム
US11861713B2 (en) * 2020-01-21 2024-01-02 S&P Global Inc. Virtual reality system for analyzing financial risk
WO2024071681A1 (ko) * 2022-09-26 2024-04-04 삼성전자 주식회사 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07111664A (ja) * 1993-10-13 1995-04-25 Olympus Optical Co Ltd 頭部装着型立体映像表示装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
US20060273983A1 (en) * 2005-06-01 2006-12-07 Samsung Electronics Co., Ltd. Volumetric three-dimentional display panel and system using multi-layered organic light emitting devices
WO2014024649A1 (ja) * 2012-08-06 2014-02-13 ソニー株式会社 画像表示装置および画像表示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6177952B1 (en) * 1993-09-17 2001-01-23 Olympic Optical Co., Ltd. Imaging apparatus, image display apparatus and image recording and/or reproducing apparatus
JPH09331552A (ja) 1996-06-10 1997-12-22 Atr Tsushin Syst Kenkyusho:Kk 多焦点式頭部搭載型ディスプレイ
JP2000354257A (ja) * 1999-06-10 2000-12-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム提供媒体
CN1998153A (zh) 2004-05-10 2007-07-11 辉达公司 用于视频数据的处理器
JP2009500878A (ja) 2005-04-11 2009-01-08 ヒューマンアイズ テクノロジーズ リミテッド 奥行錯覚デジタル撮像
US8184365B2 (en) * 2007-10-19 2012-05-22 University Of Central Florida Research Foundation, Inc. Optical instruments having dynamic focus
US7969657B2 (en) * 2007-10-25 2011-06-28 University Of Central Florida Research Foundation, Inc. Imaging systems for eyeglass-based display devices
US20100182340A1 (en) * 2009-01-19 2010-07-22 Bachelder Edward N Systems and methods for combining virtual and real-time physical environments
EP2395764B1 (en) * 2010-06-14 2016-02-17 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
US20120069143A1 (en) 2010-09-20 2012-03-22 Joseph Yao Hua Chu Object tracking and highlighting in stereoscopic images
KR101783663B1 (ko) * 2010-11-05 2017-10-11 엘지디스플레이 주식회사 영상 표시장치 및 구동방법
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8988463B2 (en) * 2010-12-08 2015-03-24 Microsoft Technology Licensing, Llc Sympathetic optic adaptation for see-through display
JP5970872B2 (ja) 2012-03-07 2016-08-17 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2014071499A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
CN103873841A (zh) 2012-12-14 2014-06-18 冠捷显示科技(厦门)有限公司 一种可自动调整影像显示深度的立体显示装置及方法
US9497448B2 (en) 2012-12-31 2016-11-15 Lg Display Co., Ltd. Image processing method of transparent display apparatus and apparatus thereof
US8976323B2 (en) 2013-01-04 2015-03-10 Disney Enterprises, Inc. Switching dual layer display with independent layer content and a dynamic mask
US20160033770A1 (en) * 2013-03-26 2016-02-04 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
KR20160016468A (ko) * 2014-08-05 2016-02-15 삼성전자주식회사 리얼 3d 영상 생성 방법 및 그 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07111664A (ja) * 1993-10-13 1995-04-25 Olympus Optical Co Ltd 頭部装着型立体映像表示装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
US20060273983A1 (en) * 2005-06-01 2006-12-07 Samsung Electronics Co., Ltd. Volumetric three-dimentional display panel and system using multi-layered organic light emitting devices
WO2014024649A1 (ja) * 2012-08-06 2014-02-13 ソニー株式会社 画像表示装置および画像表示方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020527872A (ja) * 2017-07-13 2020-09-10 グーグル エルエルシー 非平面コンピュテーショナルディスプレイ
WO2019098198A1 (ja) * 2017-11-20 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
JP2019095916A (ja) * 2017-11-20 2019-06-20 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
US11204502B2 (en) 2017-11-20 2021-12-21 Sony Interactive Entertainment Inc. Image generation apparatus, head mounted display, image generation system, image generation method, and program
JP2021507408A (ja) * 2017-12-22 2021-02-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想、拡張、または複合現実環境内で3dビデオを生成および表示するための方法およびシステム
JP7182632B2 (ja) 2017-12-22 2022-12-02 マジック リープ, インコーポレイテッド 仮想、拡張、または複合現実環境内で3dビデオを生成および表示するための方法およびシステム
US11962741B2 (en) 2017-12-22 2024-04-16 Magic Leap, Inc. Methods and system for generating and displaying 3D videos in a virtual, augmented, or mixed reality environment
US11354874B2 (en) 2018-03-20 2022-06-07 Sony Corporation Information processing apparatus and information processing method
WO2020079906A1 (ja) * 2018-10-15 2020-04-23 国立大学法人東京農工大学 ヘッドマウントディスプレイおよびこれに用いられる広焦点レンズの設計方法
JPWO2020079906A1 (ja) * 2018-10-15 2021-09-02 国立大学法人東京農工大学 ヘッドマウントディスプレイおよびこれに用いられる広焦点レンズの設計方法
US11740459B2 (en) 2018-10-15 2023-08-29 National University Corporation Tokyo University Of Agriculture And Technology Head-mounted display and method for designing wide-focus lens to be used for the head-mounted display
WO2022113564A1 (ja) * 2020-11-26 2022-06-02 ソニーグループ株式会社 画像表示装置及び表示装置

Also Published As

Publication number Publication date
EP3171592A1 (en) 2017-05-24
CN106537909A (zh) 2017-03-22
WO2016009970A1 (ja) 2016-01-21
US10306214B2 (en) 2019-05-28
US20170180712A1 (en) 2017-06-22
EP3171592A4 (en) 2018-02-28
EP3171592B1 (en) 2020-11-18
CN106537909B (zh) 2019-09-27
JP6294780B2 (ja) 2018-03-14

Similar Documents

Publication Publication Date Title
JP6294780B2 (ja) 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
JP7096836B2 (ja) ディスプレイシステムのための深度ベース中心窩化レンダリング
JP6023801B2 (ja) シミュレーション装置
JP5538483B2 (ja) 映像処理装置、映像処理方法、および映像処理システム
KR102077105B1 (ko) 사용자 인터랙션을 위한 디스플레이를 설계하는 장치 및 방법
US11217024B2 (en) Artificial reality system with varifocal display of artificial reality content
US10999412B2 (en) Sharing mediated reality content
JP2017204674A (ja) 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
US20190018236A1 (en) Varifocal aberration compensation for near-eye displays
JP6349660B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
US11574389B2 (en) Reprojection and wobulation at head-mounted display device
JP6212877B2 (ja) 画像表示装置及び画像表示方法
WO2017014138A1 (ja) 画像提示装置、光学透過型ヘッドマウントディスプレイ、および画像提示方法
EP3038061A1 (en) Apparatus and method to display augmented reality data
US11960088B2 (en) Waveguide configurations in a head-mounted display (HMD) for improved field of view (FOV)
JP2018191079A (ja) 多焦点視覚出力方法、多焦点視覚出力装置
JP2002300612A (ja) 画像生成装置、プログラム及び情報記憶媒体
US11044460B1 (en) Polychromatic object imager
US11697068B2 (en) Mobile platform as a physical interface for interaction
JP2022088739A (ja) 要素画像群生成装置及びそのプログラム
WO2022232236A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
JPWO2021038789A5 (ja) 画像処理方法、制御装置、および内視鏡システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180216

R150 Certificate of patent or registration of utility model

Ref document number: 6294780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250