JP6732617B2 - 情報処理装置および画像生成方法 - Google Patents

情報処理装置および画像生成方法 Download PDF

Info

Publication number
JP6732617B2
JP6732617B2 JP2016184424A JP2016184424A JP6732617B2 JP 6732617 B2 JP6732617 B2 JP 6732617B2 JP 2016184424 A JP2016184424 A JP 2016184424A JP 2016184424 A JP2016184424 A JP 2016184424A JP 6732617 B2 JP6732617 B2 JP 6732617B2
Authority
JP
Japan
Prior art keywords
image
images
viewpoint
line
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016184424A
Other languages
English (en)
Other versions
JP2018050179A5 (ja
JP2018050179A (ja
Inventor
石井 誠
誠 石井
浩一 塩野
浩一 塩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2016184424A priority Critical patent/JP6732617B2/ja
Priority to US16/329,918 priority patent/US11184597B2/en
Priority to PCT/JP2017/033190 priority patent/WO2018056155A1/ja
Publication of JP2018050179A publication Critical patent/JP2018050179A/ja
Publication of JP2018050179A5 publication Critical patent/JP2018050179A5/ja
Application granted granted Critical
Publication of JP6732617B2 publication Critical patent/JP6732617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Description

本発明は、ヘッドマウントディスプレイに表示する視差画像を生成する技術および/または視差画像をヘッドマウントディスプレイに表示する技術に関する。
ヘッドマウントディスプレイ(HMD)はユーザの頭部に装着されて仮想現実(VR)の世界をユーザに提供する。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画面を更新することで、映像世界への没入感を高められる。近年、パノラマ写真を撮影する技術が普及しており、撮影されたパノラマ写真画像をHMDに表示することで、現実の場所にいるかのような感覚をユーザに与えられる。
特開2015−95045号公報
HMDにはユーザの左目用および右目用の表示パネルが設けられ、各表示パネルからそれぞれ左目用と右目用の画像(視差画像)が表示されることで、ステレオ立体視が実現される。ゲームアプリケーションでは、ゲーム空間内に左目用の仮想カメラと右目用の仮想カメラとを配置することで左目用と右目用のゲーム画像を生成して、HMDのそれぞれの表示パネルから出力できる。
実写された被写体画像をHMDに表示するVRアプリケーションでは、ステレオ立体視表示のために、素材となるコンテンツ画像がステレオカメラを用いて撮影されていることが一般的である。ステレオカメラを用いた被写体の撮影作業は、左カメラと右カメラとを水平に維持した状態で、定点から上下方向および左右方向に所定量ずつ回転移動させて都度撮影することで行われる。そのためHMDを装着したユーザが首を上下または左右に振る動きに対しては、ユーザの両眼の水平方向の高さが揃っているために、ステレオ画像の素材をもとに視差量を一定とする視差画像を生成できる。
しかしながらユーザが正面を向いたまま首を横に傾ける(首を肩に近づける)ことで、両眼を結ぶ線と水平面との角度が斜めとなり、両眼の水平方向の高さが揃わなくなるケースでは、ステレオカメラを同じ角度で傾けて撮影した素材がなければ、視差量を一定とする視差画像を生成することが困難となる。水平面に対して全ての角度にステレオカメラを傾けて被写体を撮影することは現実的にほぼ不可能であるため、HMD使用時にユーザが首を横に傾けると、適切な視差画像を提供できないという問題が発生する。そこでHMDを装着したユーザが首を横に傾けた場合であっても、視差量を一定とする視差画像を生成する技術の開発が望まれている。
本発明はこうした課題に鑑みてなされたものであり、その目的は、HMDで表示するための視差画像を適切に生成する技術および/または視差画像を表示する技術を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部と、検出部により検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定める状態決定部と、複数の視点画像から左目用と右目用の視差画像の生成に用いる2つの画像を、状態決定部で定めたユーザの視線方向および両眼傾き角度にもとづいて特定する画像特定部と、画像特定部が特定した2つの画像から左目用と右目用の視差画像を生成する画像生成部と、画像生成部が生成した視差画像をヘッドマウントディスプレイに提供する画像提供部と、を備える。
本発明の別の態様の情報処理装置は、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部と、検出部により検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定める状態決定部と、第1視線方向において取得された複数の視点画像および/または第2視線方向において取得された複数の視点画像から、左目用と右目用の視差画像の生成に用いる少なくとも2つの画像を、状態決定部で定めたユーザの視線方向および両眼傾き角度にもとづいて特定する画像特定部と、画像特定部が特定した少なくとも2つの画像から左目用と右目用の視差画像を生成する画像生成部と、画像生成部が生成した視差画像をヘッドマウントディスプレイに提供する画像提供部と、を備える。
本発明のさらに別の態様は、左目用表示パネルと右目用表示パネルとを備えたヘッドマウントディスプレイに関する。当該ヘッドマウントディスプレイは、装着したユーザの視線方向、およびユーザの両眼を結ぶ線と水平面との角度である両眼傾き角度にもとづいて特定された2つの視点画像から生成された左目用と右目用の画像データを受け取り、左目用表示パネルと右目用表示パネルに表示させる制御部をさらに備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、HMDに適した視差画像を生成する技術および/または視差画像を表示する技術を提供できる。
実施例における情報処理システムの構成例を示す図である。 多視点カメラの構成例を示す図である。 (a)〜(c)は、多視点カメラの各カメラにより撮影される視点画像を示す図である。 (d)〜(e)は、多視点カメラの各カメラにより撮影される視点画像を示す図である。 (a)〜(b)は、視点画像を仮想的な2次元座標面上に配置した状態を示す図である。 視点画像に対応付ける視点位置の座標値の例を示す図である。 視差画像を説明するための図である。 HMDの外観形状の例を示す図である。 HMDの機能ブロックを示す図である。 情報処理装置の機能ブロックを示す図である。 (a)〜(b)は、両眼傾き角度を説明するための図である。 ユーザの視線方向と2次元座標面との交点を示す図である。 2次元座標面におけるユーザの視線方向位置を導出した例を示す図である。 (a)〜(b)は、左目用画像位置と右目用画像位置の例を示す図である。 多視点画像の視線方向および画角を説明するための図である。 多視点画像の2次元座標面の関係を示す図である。 ユーザ視線方向の一例を示す図である。 第1画像群および第2画像群の双方を用いて視差画像を生成する例を説明するための図である。
図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は情報処理装置10と、ユーザが頭部に装着するヘッドマウントディスプレイ装置(HMD)100と、ユーザが手指で操作する入力装置6と、HMD100を装着したユーザを撮影する撮像装置7と、画像を表示する出力装置4とを備える。
実施例において情報処理装置10は、処理装置12、出力制御装置14および画像記憶装置16を備える。処理装置12は、ユーザにより操作された入力装置6の操作情報を受けて、様々なアプリケーションを実行する端末装置である。処理装置12と入力装置6とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。出力制御装置14は、処理装置12で生成された画像データをHMD100に出力する処理ユニットである。出力制御装置14とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。
撮像装置7はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置12に供給する。後述するがHMD100には、ユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置12は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置12は、姿勢センサで検出されたセンサ情報をHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置12はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。
実施例の情報処理システム1は、HMD100に視差画像を提供する仮想現実(VR)アプリケーションを実施する。ユーザはHMD100を装着するため、情報処理システム1において出力装置4は必ずしも必要ではないが、出力制御装置14または処理装置12は、HMD100に表示させる画像と同じ画像を出力装置4から出力させてもよい。これによりユーザがHMD100で見ている画像を、別のユーザが出力装置4で見ることができる。なおHMD100は視差画像を出力するが、出力装置4が出力する画像は視差画像でなくてもよい。
HMD100は、ユーザが頭に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像であり、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置12、出力制御装置14のいずれが行ってもよい。
情報処理システム1において、処理装置12、出力装置4、入力装置6および撮像装置7は、従来型のゲームシステムを構築してよい。この場合、処理装置12はゲームを実行するゲーム装置であり、入力装置6はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置12にユーザの操作情報を供給する機器である。このゲームシステムの構成要素に、出力制御装置14、画像記憶装置16およびHMD100を追加することで、VRアプリケーションを実施する情報処理システム1が構築される。
なお出力制御装置14による機能は、VRアプリケーションの一部の機能として処理装置12に組み込まれてもよい。つまり情報処理装置10の処理ユニットは、1台の処理装置12から構成されても、また処理装置12および出力制御装置14から構成されてもよい。以下においては、VRアプリケーションの実施に必要な処理装置12および出力制御装置14の機能を、まとめて情報処理装置10の機能として説明する。
VRアプリケーションを実施する前提として、画像記憶装置16には、複数の視点位置から同じ視線方向で取得された複数の視点画像が予め記憶されている。情報処理装置10は、画像記憶装置16に記憶された少なくとも2つの視点画像を利用して、左目用と右目用の視差画像を生成し、HMD100に供給する。
図2は、視差画像の素材となる視点画像を撮影する多視点カメラ18の構成例を示す。多視点カメラ18は、同一平面内にマトリクス状に配列した複数のカメラ19a〜19iを有する。図2に示す構成例では、カメラ19a〜19iが縦横3つずつ等間隔に配列されているが、他の配列を有してもよい。以下、カメラ19a〜19iを区別しない場合には総称して「カメラ19」と呼ぶ。カメラ19はCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)センサ等の固体撮像素子で構成される。
各カメラ19の光軸(視線方向)は多視点カメラ18の正面に垂直な方向に設定される。つまり複数のカメラ19の光軸は互いに平行に設定されており、したがって隣り合う2つのカメラ19は、互いに平行な視線方向でカメラ間の距離(基線長)だけずれた被写体を撮影する。複数のカメラ19が被写体を同時に撮影することで、多視点カメラ18は、複数のカメラ19の各々の視点位置に応じた複数の視点画像を取得する。
以下、ある景色を多視点カメラ18で撮影したときの各視点画像の位置関係について説明する。図3(a)〜図3(e)は、各カメラ19で撮影される視点画像17を示している。以下ではカメラ19の左右位置を、カメラ19から被写体に向かう方向を基準として定義する(つまり図2に示す左右位置が逆になる)。
図3(a)は、多視点カメラ18の中心に位置するカメラ19eにより撮影される視点画像17eを示す。
図3(b)は、左上のカメラ19cにより撮影される視点画像17cと右下のカメラ19gにより撮影される視点画像17gを示す。
図3(c)は、右上のカメラ19aにより撮影される視点画像17aと左下のカメラ19iにより撮影される視点画像17iを示す。
図3(d)は、中央上のカメラ19bにより撮影される視点画像17bと中央左のカメラ19fにより撮影される視点画像17fを示す。
図3(e)は、中央下のカメラ19hにより撮影される視点画像17hと中央右のカメラ19dにより撮影される視点画像17dを示す。
多視点カメラ18は、複数の視点画像17a〜17iを同時に取得する。縦および横に隣り合うカメラ19間の距離は、たとえば20mmに設定されている。各カメラ19の光軸は互いに平行であるため、異なるカメラ19で撮影された画像は同じ撮影方向(視線方向)で異なる視点位置からの画像となり、縦および横に隣り合うカメラ19で撮影された2つの画像は、20mmの視差をもつことになる。
実施例では、ユーザが装着したHMD100の動きに連動して、ユーザに提供する視差画像が滑らかに動くように、多視点カメラ18で撮影された複数の視点画像17を補間した補間画像を予め生成する。補間画像は、多視点カメラ18の視線方向と同じ視線方向で異なる視点位置から撮影される視点画像に対応し、実際のカメラ19で撮影された視点画像17を「実視点画像」と呼ぶと、少なくとも2つの実視点画像から補間処理により生成される補間画像を「仮想視点画像」と呼ぶことができる。実視点画像の補間処理は、情報処理装置10で実施されてよいが、たとえばコンテンツ画像を提供する画像サーバで実施されて、情報処理装置10に提供されてもよい。
図4(a)は、多視点カメラ18で撮影された実視点画像を、仮想的な2次元平面(2次元座標面)上に配置した状態を示す。2次元座標では、被写体を撮影したカメラ位置(視点位置)が表現される。実施例において縦および横方向に隣り合うカメラ19の間隔(基線長)は20mmであり、したがって図4(a)に示す2次元座標面上でも、縦および横方向で隣り合う視点画像17の視差量が20mmであることが表現される。
図4(b)は、複数の実視点画像の間を補間する補間画像(仮想視点画像)を、仮想的な2次元座標面上に配置した状態を示す。ここでは隣り合う視点画像間の視差量が2mmとなるように、カメラ19で撮影された複数の視点画像17の間に、複数の仮想視点画像を生成している。図4(b)では、太線で表現する視点画像17の間に、細線で表現する補間画像が生成されている様子が示される。補間画像の生成手法は従来より様々提案されており、処理装置12は、既知のアルゴリズムによって補間画像を生成してよい。以下、補間処理の一例を示す。
まず処理装置12は、複数の実視点画像にもとづいて被写体像のデプス情報(奥行き情報)を取得する。デプス情報は、たとえばステレオマッチング処理を行うことで取得される。2つの視点から撮影した二次元画像間には、被写体の遠近に応じたずれ(視差)が生じている。ステレオマッチングは、このずれを利用して三次元のデプス情報を求める手法であり、処理装置12は、複数の実視点画像とデプス情報とにもとづいて実視点画像間に複数の補間画像を生成し、画像記憶装置16に記憶する。
視点画像17a、17b、17e、17dで囲まれる右上エリアの補間画像について説明する。視点画像17aと視点画像17bの間に、視点位置を横方向に2mmずつ動かしたときに取得される仮想視点画像を9つ生成する。また視点画像17dと視点画像17eの間に、視点位置を横方向に2mmずつ動かしたときに取得される仮想視点画像を9つ生成する。これにより視点画像17aから視点画像17bまで11個の視点画像が並び、また視点画像17dから視点画像17eまで11個の視点画像が並ぶ。これらの間で、視点位置を縦方向に2mmずつ動かしたときに取得される仮想視点画像を列ごとに9つ生成する。これにより右上エリアに縦および横に隣り合う視点画像の視差量が2mmとなる多視点画像が構成される。他のエリアについても同様の補間処理を実施することで、縦21×横21=441個の視点画像群が生成される。
画像記憶装置16において、各視点画像は視点位置に対応付けられて記憶される。視点位置は、仮想的な2次元座標上の座標値として設定され、この座標値は、現実の距離を算出する際に利用される。
図5は、視点画像に対応付ける視点位置の座標値の例を示す。この2次元座標面では便宜上、視点画像17eの視点位置を原点(0,0)に設定している。このとき視点画像17aの視点位置は(10,10)と表現され、視点画像17hの視点位置は(0,−10)と表現される。補間された視点画像17についても同様であり、視点画像17mの視点位置は(6,−4)、視点画像17nの視点位置は(−5,5)と表現される。この2次元座標でx軸およびy軸における1目盛分(1座標値)は、2mmに相当する。したがって任意の2つの視点位置を、それぞれ(x1,y1)、(x2,y2)とすると、2つの視点位置間の距離は、
Figure 0006732617
と表現される。
なお2次元座標面上の視点位置の表現手法は一例であり、視点位置は、2つの視点位置間の距離を算出できるように管理されていればよい。
なお縦および横に隣り合う視点画像の視差量が2mmとなる多視点画像は、補間処理により生成されてよいが、実際に撮影することで取得されてもよい。たとえば単一のカメラ19を同一視線方向で縦横に2mmずつ縦40mm、横40mmの範囲内で動かし、動かす毎に撮影することで、隣り合う視点画像の視差量が2mmとなる計441個の視点画像が取得されてもよい。また多視点画像は空間的に横方向に連続するように複数取得され、記憶装置16に記憶されてもよい。複数種類の多視点画像をつなぎ合わせることで、左右全方位のパノラマ画像が形成されるようになる。
実施例の情報処理装置10は、ユーザの頭部に装着されたHMD100の姿勢から定まるユーザの視線方向およびユーザの両眼を結ぶ線と水平面との角度である両眼傾き角度にもとづいて、適切な視差画像をHMD100に表示させる。さらに情報処理装置10は、HMD100の位置から定まるユーザの視点位置にもとづいて視差画像を生成してもよい。
図6は、情報処理装置10において生成される視差画像を説明するための図である。実施例のVRアプリケーションでは、画像記憶装置16が、撮影方向(視線方向)を水平面に対して平行な方向(水平方向)に設定して取得された多視点画像を記憶し、ユーザがHMD100を通じて水平面に対して平行な視線方向で視差画像を見るものとする。なお、この条件は理解を容易にするためのものにすぎず、後述するように多視点画像を取得する際の多視点カメラ18の視線方向およびHMD100を装着したユーザの視線方向は、水平方向に限定されるものではない。
画像記憶装置16は、横方向に連続する複数種類の多視点画像をそれぞれの視線方向に対応付けて記憶する。ここで「連続する」とは、複数種類の多視点画像をつなぎ合わせることで、360度周囲に撮影していない被写体が存在しないことを意味する。実施例で複数種類の多視点画像は、多視点カメラ18の水平面における角度を所定位置を中心に所定角度βずつずらして撮影された複数の視点画像をもとに生成されている。実施例のVRアプリケーションでは、ユーザが顔正面を水平方向に向けつつ、顔を動かすことで、自分の周囲のコンテンツ画像を楽しむことができる。
ユーザが顔を動かして視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を変更すると、仮想カメラ8の視線方向および左右のカメラの傾きが変更され、HMD100に供給される左目用画像5aおよび右目用画像5bが更新される。
図6に示すように、画像素材である視点画像は、仮想円柱体の内周面に貼り付けられてよい。複数の視点画像を円柱体内面に連続するように(隙間無く)仮想的に配置することで、VRアプリケーションにおけるパノラマ画像が形成される。これによりリアルな映像世界をユーザに提供できるようになる。
情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標を設定されてよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾きである。なお基準姿勢は、両眼を結ぶ線と水平面との角度である両眼傾き角度がゼロであり(つまり両眼の高さが同じ位置にあり)、またユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたとき基準姿勢が設定されてよい。
ヘッドトラッキング処理には既知の技術が利用されてよく、情報処理装置10は、HMD100の姿勢センサが検出したセンサ情報のみから、HMD100の位置座標および姿勢を検出でき、さらに撮像装置7で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。
情報処理装置10は、検出したHMD100の位置座標および姿勢にしたがって、仮想円柱体における仮想カメラ8の位置および姿勢を定める。仮想カメラ8はステレオカメラであって、仮想円柱体の内側から仮想円柱体の内周面を撮影するように配置されている。なおHMD100の位置座標は、仮想カメラ8の仮想円柱体内の位置を指定するものであり、HMD100の姿勢は、仮想カメラ8の仮想円柱体内の姿勢を指定するものである。
HMD100の姿勢と仮想カメラ8の姿勢との関係について説明する。情報処理装置10は、検出したHMD100の姿勢と、仮想カメラ8の姿勢を一致させる。仮想カメラ8における左カメラは左目用画像5aを仮想的に撮影し、仮想カメラ8における右カメラは右目用画像5bを仮想的に撮影する。左目用画像5aと右目用画像5bとは、右カメラと左カメラの距離(基線長)だけずれており、このズレ量が視差を形成する。
仮想カメラ8における基線長は、左目用画像5aと右目用画像5bの視差量を定めるため、ユーザにより適宜変更可能であることが好ましい。立体感を強めるためには視差量を大きくする必要があるが、視差量が大きくなるとユーザによっては違和感を覚えたり、見るのに疲れたりすることがある。一般に人間の大人の両眼間隔は約65mmと言われているが、HMD100で左目用画像5aと右目用画像5bとの視差量を65mmに設定した場合、非常に見づらくなることが実験により確認されている。そこで実施例では仮想カメラ8の基線長を20mmにデフォルト設定しつつ、VRアプリケーションの開始前または開始後に、ユーザが仮想カメラ8の基線長を所望の値に変更できるようにする。
図7は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置7により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置7に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサ情報を情報処理装置10に送信し、また情報処理装置10で生成された視差画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。
図8は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサ情報などの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
HMD100には、図7に示すようにXYZの3次元座標が設定される。ここではピッチ軸がX軸、ヨー軸がY軸、ロール軸がZ軸に設定される。第1加速度センサはピッチ軸方向の加速度を検出し、第1ジャイロセンサはピッチ軸回りの角速度を検出する。第2加速度センサはヨー軸方向の加速度を検出し、第2ジャイロセンサはヨー軸回りの角速度を検出する。第3加速度センサはロール軸方向の加速度を検出し、第3ジャイロセンサはロール軸回りの角速度を検出する。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに、所定の視差量をもつ一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサ情報や、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
図9は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、センサ情報取得部20、撮影画像取得部22、受付部24および画像提供部38を備える。センサ情報取得部20は、HMD100の姿勢センサ124から所定の周期でセンサ情報を取得する。撮影画像取得部22は、撮像装置7から所定の周期でHMD100を撮影した画像を取得する。たとえば撮像装置7は(1/60)秒ごとに前方の空間を撮影し、撮影画像取得部22は、(1/60)秒ごとに撮影画像を取得する。受付部24は、入力装置6から、ユーザが入力した情報を取得する。
情報処理装置10は、さらに動き検出部30、状態決定部32、画像特定部34および画像生成部36を備える。動き検出部30は、ユーザの頭部に装着されたHMD100の動きにもとづいて、HMD100の位置座標および姿勢を検出する。状態決定部32は、動き検出部30により検出されたHMD100の位置座標に応じて、ユーザの視点位置を定め、HMD100の姿勢に応じて、ユーザの視線方向、およびユーザの両眼を結ぶ線と水平面との角度である両眼傾き角度を定める。
画像特定部34は、画像記憶装置16に記憶された複数の視点画像から、左目用と右目用の視差画像の生成に用いる2つの画像を特定する。このとき画像特定部34は、状態決定部32で定めた少なくともユーザの視線方向および両眼傾き角度にもとづいて、視差画像の生成に用いる2つの画像を特定する。実施例では説明の便宜上、ユーザの視線方向は水平面に平行とする。画像生成部36は、画像特定部34が特定した2つの画像から左目用と右目用の視差画像を生成する。画像提供部38は、画像生成部36が生成した視差画像をHMD100に提供する。
図9において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
画像記憶装置16は、複数の視点位置から取得された複数の視点画像を、2次元座標上の視点位置を表現する座標値に対応付けて記憶する。仮想的な2次元座標面は、多視点カメラ18により同時に撮影された多視点画像ごとに設定される。実施例では多視点カメラ18を用いた被写体の撮影作業が、多視点カメラ18の視線方向を水平方向に維持した状態で、水平面における角度を所定位置を中心に所定角度βずつ動かして都度撮影することで行われる。たとえば所定角度βを0.1度とした場合、撮影作業は多視点カメラ18を0.1度ずつ回転させて、計3600回の撮影を行うことで、3600種類の多視点画像が生成される。また所定角度βを10度とした場合、撮影作業は多視点カメラ18を10度ずつ回転させて、計36回の撮影を行うことで、36種類の多視点画像が生成される。このような撮影作業により、画像記憶装置16は360度のパノラマ画像を記憶している。なお撮影作業における回転角度βが小さいほど、好適な視差画像をユーザに提供できるようになる。
センサ情報取得部20は姿勢センサ124のセンサ情報を取得し、動き検出部30に供給する。また撮影画像取得部22は撮影画像を取得し、動き検出部30に供給する。
動き検出部30は、ユーザの頭部に装着されたHMD100の動きを検出して、HMD100の位置座標および姿勢を特定する。この処理は、ユーザの頭部の動きに、HMD100の表示パネル130に表示する視野を連動させるために行われる。このヘッドトラッキング処理は既知の手法を利用してよい。
動き検出部30は、姿勢センサ124のセンサ情報からHMD100の位置座標および姿勢を検出する。動き検出部30は、3軸加速度センサのセンサ情報から、HMD100の位置座標を特定し、3軸ジャイロセンサのセンサ情報から、HMD100の姿勢を特定する。位置座標は、基準位置を原点としたときのピッチ軸方向の位置座標(X座標)、ヨー軸方向の位置座標(Y座標)、ロール軸方向の位置座標(Z座標)で導出される。またHMD100の姿勢は、基準姿勢に対するピッチ軸回りの角度(ピッチ角)、ヨー軸回りの角度(ヨー角)およびロール軸回りの角度(ロール角)で導出される。
動き検出部30は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、位置座標および姿勢の検出精度を高めることが好ましい。動き検出部30は所定の周期でHMD100の位置座標および姿勢を検出する。たとえばHMD100に供給する画像が60fpsであれば、動き検出部30の検出処理も(1/60)秒の周期で実行されることが好ましい。以下、HMD100の位置情報および姿勢にもとづいて情報処理装置10が視差画像を生成する手法について説明する。
状態決定部32は、動き検出部30により検出されたHMD100の位置情報および姿勢に応じて、ユーザの視点位置、視線方向および両眼傾き角度を定める。実施例でユーザの視点位置は、両眼の中心点の位置として定義される。またユーザの視線方向は、ユーザの視点位置を起点として顔の正面が向いている方向で定義される。また両眼傾き角度は、両眼を結ぶ線と水平面との角度として定義される。
状態決定部32はHMD100の位置情報にもとづいてユーザの視点位置を決定し、さらに決定したユーザの視点位置に応じて仮想カメラ8の視点位置を決定する。なおVRアプリケーションが、仮想カメラ8の視点位置を固定とする場合には、ユーザの視点位置にかかわらず仮想カメラ8の視点位置は仮想円柱体内の固定位置に設定されてよい。この場合、仮想カメラ8の視点位置は、仮想円柱体(図6参照)における中心軸線上の所定位置に設定される。
状態決定部32はHMD100の姿勢にもとづいてユーザの視線方向を決定する。状態決定部32は、決定したユーザの視線方向を、そのまま仮想カメラ8の視線方向(光軸方向)として決定してもよく、また何らかの補正処理を行って仮想カメラ8の視線方向を決定してもよい。たとえばセンサ情報にノイズがのるなどして、安定したセンサ情報が動き検出部30に提供されない場合、動き検出部30は、ユーザ頭部が動いてないにもかかわらず、振動するような動きを検出する可能性がある。そのような場合、状態決定部32は、動き検出部30により検出された動きを平滑補正して、ユーザの視線方向および仮想カメラ8の視線方向を定めてよい。
いずれにしてもユーザの視線方向は、仮想円柱体内に配置される仮想カメラ8の視線方向(光軸方向)に対応する(図6参照)。仮想カメラ8は、デフォルト値を20mmとする基線長を有して構成されている。
図10(a)および図10(b)は、両眼傾き角度を説明するための図である。図10(a)および図10(b)で、ユーザの視線方向は水平面に平行であることを前提としている。ユーザの両眼を結ぶ線は、HMD100の筐体幅方向で定義されてよい。
図10(a)は、両眼傾き角度がゼロのHMD100の姿勢を示す。この場合、ユーザは首を横方向に傾けておらず、したがって両眼を結ぶ線Aは水平面と平行となる。
図10(b)は、両眼傾き角度がαとなるHMD100の姿勢を示す。ユーザは首を横方向に傾けることで、両眼を結ぶ線が水平面に対して角度をもつようになる。この例でユーザは、ユーザからみて左側に首を傾けており、両眼を結ぶ線Bは、水平面に対して角度αをもつ。この例で両眼傾き角度αはロール角に相当する。
以下、画像特定部34が、状態決定部32で定められた、少なくともユーザの視線方向および両眼傾き角度にもとづいて、画像記憶装置16に記憶された複数の視点画像から、左目用と右目用の視差画像の生成に用いる2つの画像を特定する手法について説明する。
上記したように画像記憶装置16は、複数種類の多視点画像を、取得時の視線方向に対応付けて記憶している。多視点カメラ18が0.1度間隔で多視点画像を撮影した場合には、3600種類の多視点画像が画像記憶装置16に記憶されている。それぞれの多視点画像は、複数の視点画像を含み、各視点画像は、多視点画像ごとに設定される2次元座標の視点位置に対応付けられて画像記憶装置16に記憶される。
画像特定部34は、異なる視線方向で取得された複数種類の多視点画像の中から、ユーザの視線方向と一致する視線方向で取得された多視点画像を特定する。たとえば状態決定部32におけるユーザ視線方向の分解能が0.1度であり、画像記憶装置16が、0.1度間隔の視線方向の多視点画像を保持している場合、ユーザ視線方向に一致する多視点画像が必ず保持されていることになる。以下、ユーザの視線方向に一致する視線方向で取得された多視点画像が、図5に示す多視点画像である場合を説明する。
まず画像特定部34は、ユーザの視線方向と一致する多視点画像の仮想的な2次元座標面において、ユーザの視点位置を起点とする視線方向が多視点画像の2次元座標面をつらぬく座標値を定める。ユーザの視線方向は2次元座標面に直交する。
図11は、ユーザの視線方向と2次元座標面との交点を示す。交点の座標値は、2次元座標面に正対する仮想カメラ8の視点位置、つまりはユーザの視点位置を表現する。以下、2次元座標面とユーザ視線方向との交点座標値を、ユーザの「視線方向位置EP」と呼ぶ。
図12は、2次元座標面におけるユーザの視線方向位置EPを導出した例を示す。ここで視線方向位置EPは、2次元座標面における座標値(0,3)として導出されている。
画像特定部34は視線方向位置EPを特定すると、左目用と右目用の視差画像の生成に用いる2つの画像を、状態決定部32で定めた両眼傾き角度にもとづいて特定する。以下、左目用画像5aの生成に用いる視点画像の座標値を「左目用画像位置LP」、右目用画像5bの生成に用いる視点画像の座標値を「右目用画像位置RP」と呼ぶ。
図13(a)は、特定された左目用画像位置LPと右目用画像位置RPの一例を示す。図13(a)は、図10(a)に示すようにユーザが首を横方向に傾けてないときに特定される左目用画像位置LPおよび右目用画像位置RPを示している。
画像特定部34は、視線方向位置EPから両眼傾き角度に沿う方向に等距離に位置し、且つ2つの画像の視点位置間の距離が設定距離となる2つの画像を特定する。つまり2次元座標面上で、左目用画像位置LP、視線方向位置EP、右目用画像位置RPは一直線上に並び、視線方向位置EPから左目用画像位置LPまでの距離と、視線方向位置EPから右目用画像位置RPまでの距離とが等しくなるように、画像特定部34は視線方向位置EPを基準として、左目用画像位置LPおよび右目用画像位置RPを定める。
ここで左目用画像位置LPと右目用画像位置RPとの間の設定距離は、仮想カメラ8の基線長、つまり左カメラと右カメラとの間の距離に対応する。実施例では仮想カメラ8の基線長を20mmにデフォルト設定しており、したがって画像特定部34は、左目用画像と右目用画像の視差が20mmとなるように、左目用画像位置LPおよび右目用画像位置RPを定める。この例ではユーザの両眼を結ぶ線と水平面との角度である両眼傾き角度がゼロであり、したがって左目用画像位置LPが座標(−5,3)、右目用画像位置RPが座標(5,3)と特定されている。
図13(b)は、特定された左目用画像位置LPと右目用画像位置RPの別の例を示す。図13(b)は、図10(b)に示すようにユーザが首を横方向に傾けているときに特定される左目用画像位置LPおよび右目用画像位置RPを示している。ここではユーザが図10(a)に示す状態から図10(b)に示すように首を左に傾けたときの例を示している。そのため視線方向位置EPは、座標(0,3)から反時計回りに座標(−1,2)に移動している。
画像特定部34は、視線方向位置EPから両眼傾き角度に沿う方向に等距離に位置し、且つ2つの画像の視点位置間の距離が設定距離となる2つの画像を特定する。この例では両眼傾き角度がαであり、左目用画像位置LPが座標(−5,−1)、右目用画像位置RPが座標(3,5)と特定されている。
実施例において左目用画像位置LPおよび右目用画像位置RPは、以下のパラメータを用いて導出される。
<パラメータ>
視線方向位置EP:(x0,y0)
視差の設定距離:ipd
両眼傾き角度:α
2次元座標における画像間隔:s
左目用画像位置LPと右目用画像位置RPの間のx方向の視差は、ipd×cos(α)、y方向の視差は、ipd×sin(α)となる。したがって、
左目用画像位置LPの座標={(x0−(ipd/s)×cos(α)/2),(y0−(ipd/s)×sin(α)/2)}
右目用画像位置RPの座標={(x0+(ipd/s)×cos(α))/2,(y0+(ipd/s)×sin(α)/2)}
の式で導き出せる。
実施例で、ipd=20mm、s=2mmであるため、
左目用画像位置LPの座標={x0−5×cos(α),y0−5×sin(α)}
右目用画像位置RPの座標={x0+5×cos(α),y0+5×sin(α)}
と表現される。
なお視差の設定距離ipdは、ユーザが自由に変更できることが好ましい。図9を参照して受付部24は、ユーザから設定距離の指定を受け付けることができる。受付部24が設定距離の指定を受け付けると、画像特定部34は、受付部24で受け付けた指定をもとに、設定距離を変更する。設定距離の変更は、導出式のipdのパラメータ値の変更に相当する。
画像特定部34は、以上のようにして、画像記憶装置16に記憶された複数種類の多視点画像の中から、ユーザ視線方向にもとづいて視差画像の素材となる多視点画像を特定し、さらに特定した多視点画像に含まれる複数の視点画像の中から、両眼傾き角度にもとづいて視差画像の生成に用いる2つの画像を特定する。たとえば図13(a)に示した例では、画像特定部34は、左目用画像5aの生成に座標(−5,3)に対応付けられている視点画像を用いること、また右目用画像5bの生成に座標(5,3)に対応付けられている視点画像を用いることを決定する。また図13(b)に示した例では、画像特定部34は、左目用画像5aの生成に座標(−5,−1)に対応付けられている視点画像を用いること、また右目用画像5bの生成に座標(3,5)に対応付けられている視点画像を用いることを決定する。
画像生成部36は、画像特定部34が特定した2つの視点画像から左目用と右目用の視差画像を生成する。このとき画像生成部36は、両眼傾き角度αにもとづいて、2つの画像の角度を調整した視差画像を生成する。
両眼傾き角度がゼロでない場合、つまりユーザの首が横方向に傾いている場合、左目用表示パネル130aおよび右目用表示パネル130bの天地は、鉛直方向に対して傾きを有する。そのため左目用表示パネル130aおよび右目用表示パネル130bの天地と表示画像の天地を揃えると、ユーザの目には、両眼傾き角度αだけ傾いた画像が映ることになる。
そこで画像生成部36は、画像特定部34が特定した2つの視点画像を、それぞれ−αだけ回転させて、−α回転させた視点画像から左目用表示パネル130aおよび右目用表示パネル130bの画角分の画像を切り出し、左目用画像5aおよび右目用画像5bを生成する。つまり左目用表示パネル130aおよび右目用表示パネル130bに表示される画像の天地が実際の天地に揃うように、画画像生成部36が2つの視点画像の角度を調整する。
画像記憶装置16に記憶されている視点画像は、左目用表示パネル130aおよび右目用表示パネル130bに表示する画像の画角よりも大きく構成されている。そのため−α回転した視点画像から、左目用表示パネル130aおよび右目用表示パネル130bの画角に対応する左目用画像5aおよび右目用画像5bを切り出すことが可能となる。なお表示パネル130からの画像光は光学レンズを通過してユーザの目に届くため、画像生成部36は、光学レンズ通過による歪みを補正した視差画像を生成することが好ましい。
画像生成部36が視差画像を生成すると、画像提供部38が、視差画像をHMD100に提供する。HMD100において制御部120は、左目用画像を左目用表示パネル130aに、右目用画像を右目用表示パネル130bにそれぞれ表示させ、これによりユーザは、左目用表示パネル130aおよび右目用表示パネル130bに表示される視差画像を見ることができる。
以上のように、多視点画像に含まれる複数の視点画像から視差画像を生成することで、ユーザの両眼の水平高さが異なる場合であっても、情報処理装置10は適切な視差画像をHMD100に提供できる。実施例では、画像記憶装置16が複数の視点画像として、カメラ19で取得された複数の実視点画像と、少なくとも2つの実視点画像から補間処理によって生成された複数の補間画像とを記憶している。そのため画像特定部34は、複数の実視点画像と複数の補間画像(仮想視点画像)の中から、視差画像の生成に用いる2つの画像を選択している。
別の例では、画像記憶装置16が複数の視点画像として、カメラ19で取得された複数の実視点画像のみを記憶している。このとき画像特定部34は、画像記憶装置16に記憶された複数の実視点画像から、左目用と右目用の視差画像の生成に用いる2つの画像を、画像特定部34で定めたユーザの視線方向および両眼傾き角度にもとづいて補間処理によりリアルタイムで生成してもよい。これにより事前に多量の補間画像を生成しておかなくてよいという利点がある。
なおリアルタイム補間処理のために、画像記憶装置16は、複数の実視点画像と、一部の補間画像とを記憶していてもよい。一部の補間画像は、任意の座標値の仮想視点画像を迅速に生成するための画像であり、たとえば2つの実視点画像の中間に位置する補間画像であってもよい。このようにリアルタイムで補間処理を実施する場合には、補間処理速度を上げるための工夫がなされてよい。
以上は、画像特定部34が、複数種類の多視点画像の中から、ユーザの視線方向と一致する視線方向で撮影された多視点画像を特定した場合の処理である。ユーザ視線方向の分解能が0.1度であり、画像記憶装置16が、0.1度間隔の視線方向の多視点画像を保持している場合、画像特定部34は、ユーザの視線方向と一致する視線方向で撮影された多視点画像を特定できる。
一方で、多視点画像を撮影したときの視線方向の角度間隔が大きい場合、ユーザ視線方向に一致する多視点画像が存在しないケースが想定される。以下、その場合の処理について説明する。
図14は、多視点画像の視線方向および画角を説明するための図である。図14は、多視点カメラ18の上面側からの実視点画像および仮想視点画像(補間画像)の視線方向および画角を示している。各視点画像は、各視線方向を中心に所定の画角で被写体を撮影した画像となる。なお図14には便宜上、10本の視線方向を表現しているが、実施例で説明したように、実際には横方向に21本の視線方向が並ぶことになる。2次元座標面15は、各視点画像における視点位置を表現するための仮想の2次元平面であり、多視点カメラ18と2次元座標面15の距離は、仮想円柱体の半径に対応する。
図15は、多視点カメラ18を所定角度βだけ回転して取得した多視点画像の2次元座標面15の関係を示す図である。ここで多視点カメラ18aは、第1視線方向の被写体画像を取得し、多視点カメラ18bは、第2視線方向の被写体画像を取得する。多視点カメラ18aの第1視線方向と多視点カメラ18bの第2視線方向は角度βだけずれている。
上記の実施例では、画像特定部34が、ユーザの視線方向と一致する視線方向で取得された多視点画像を選択して、選択した多視点画像の中から視差画像を構成するための2つの視点画像を特定した。たとえば図15に示す多視点画像においても、ユーザの視線方向が第1視線方向に一致すれば、画像特定部34は、多視点カメラ18aにより取得された多視点画像を選択し、一方でユーザの視線方向が第2視線方向に一致すれば、画像特定部34は、多視点カメラ18bにより取得された多視点画像を選択する。
以下では、ユーザの視線方向のベクトルが第1視線方向のベクトルと第2視線方向のベクトルの間に存在するとき、画像特定部34が、どのように多視点画像を選択するかについて説明する。より正確に言えば、第1視線方向のベクトルと第2視線方向のベクトルで定義される平面に、ユーザの視線方向のベクトルを投影したとき、射影されたベクトルの方向が、第1視線方向と第2視線方向の間にある場合に、画像特定部34がどのように多視点画像を選択するかについて説明する。
図16は、ユーザ視線方向Sの一例を示す。図16においてユーザの視線方向Sは、多視点カメラ18の回転中心を視点位置(起点)としているが、視点位置は、この位置に限定されるものではない。
ユーザの視線方向Sが第1視線方向および第2視線方向に一致しない場合、画像特定部34は、第1視線方向において取得された複数の視点画像および/または第2視線方向において取得された複数の視点画像から、左目用と右目用の視差画像の生成に用いる少なくとも2つの画像を、状態決定部32で定めたユーザの視線方向および両眼傾き角度にもとづいて特定する。
一例として、画像特定部34は、第1視線方向とユーザ視線方向Sのなす角度A1と、第2視線方向とユーザ視線方向Sのなす角度A2とを比較し、よりユーザ視線方向Sに近い方、すなわち角度が小さい方の多視点画像を選択してもよい。たとえば角度A1>角度A2であれば、画像特定部34は、第2視線方向において取得された複数の視点画像を含む第2画像群を用いて、視差画像の生成に用いる2つの画像を特定することを決定する。一方で、角度A2>A1であれば、画像特定部34は、第1視線方向において取得された複数の視点画像を含む第1画像群を用いて、視差画像の生成に用いる2つの画像を特定することを決定する。このように画像特定部34は、ユーザの視線方向Sにもとづいて、第1視線方向において取得された複数の視点画像を含む第1画像群または第2視線方向において取得された複数の視点画像を含む第2画像群のいずれを用いて2つの画像を特定するかを決定してよい。
なお第1画像群、第2画像群のいずれを用いる場合であっても、2次元座標面15はユーザの視線方向Sに直交しない。そのため画像生成部36は、使用する画像群をユーザの視線方向Sに応じて射影変換する必要がある。
別の例として、画像特定部34は、第1視線方向において取得された複数の視点画像を含む第1画像群および第2視線方向において取得された複数の視点画像を含む第2画像群の双方を用いて、視差画像の生成に用いる少なくとも2つの画像を特定してもよい。
図17は、第1画像群および第2画像群の双方を用いて視差画像を生成する例を説明するための図である。図17には、2次元座標面15a、2次元座標面15bおよびユーザの視線方向Sの位置関係が示される。2次元座標面15sは、ユーザの視線方向Sに直交する仮想平面である。
ここで画像特定部34により、2次元座標面15sにおける左目用画像位置LPおよび右目用画像位置RPが特定されたとする。左目用画像位置LPおよび右目用画像位置RPから2次元座標面15sに直交する線を引いたとき、その直交線が2次元座標面15aおよび2次元座標面15bにおいて交差すれば、その交差点に対応付けられた視点画像が、視差画像の生成に利用可能である。
図17に示す例では、左目用画像位置LPを通る直交線が、2次元座標面15aおよび2次元座標面15bに交差する一方で、右目用画像位置RPを通る直交線は、2次元座標面15bには交差するが、2次元座標面15aには交差しない。このことは2次元座標面15sの右目用画像位置RPに対応する視点画像が、2次元座標面15aには存在しないことを意味している。なお図17では、2次元座標面15の関係を1次元的に表現しているが、実際には2次元的に交点を判別することになる。
画像生成部36は、第1視線方向において取得された視点画像と第2視線方向において取得された視点画像とを合成する機能をもつ。この合成は、各視点画像をユーザの視線方向Sに応じて射影変換したうえで実施される。図17に示す例では、画像生成部36が左目用画像5aの生成に際し、第1視線方向において取得された視点画像と第2視線方向において取得された視点画像とを合成する。2つの視点画像から左目用画像5aを生成することで、より正確な画像を再現できるようになる。なお右目用画像5bの生成に際しては、第1視線方向の視点画像が存在していないため、画像生成部36は、第2視線方向の視点画像から右目用画像5bを生成する。
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施例では、ユーザの視線方向が水平面に平行である場合について説明したが、これに限るものではない。実施例において、ユーザの視線方向が多視点画像の視線方向と一致しない場合の処理について説明したように、視点画像が水平面に平行な視線方向で取得され、一方でユーザの視線方向が水平面に平行でない場合には、画像生成部36が、視点画像を射影変換することで、ユーザの視線方向と画像取得の視線方向とを一致させられ、好適な視差画像を生成できる。
1・・・情報処理システム、10・・・情報処理装置、12・・・処理装置、14・・・出力制御装置、16・・・画像記憶装置、20・・・センサ情報取得部、22・・・撮影画像取得部、24・・・受付部、30・・・動き検出部、32・・・状態決定部、34・・・画像特定部、36・・・画像生成部、38・・・画像提供部。

Claims (11)

  1. マトリクス状に配列された複数の視点位置から同じ視線方向で取得された複数の視点画像を、2次元座標上の視点位置を表現する座標値に対応付けて記憶する画像記憶装置に接続する情報処理装置であって、
    ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部と、
    前記検出部により検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定める状態決定部と、
    前記画像記憶装置に記憶された複数の視点画像から、左目用と右目用の視差画像の生成に用いる2つの画像を、前記状態決定部で定めたユーザの視線方向および両眼傾き角度にもとづいて特定する画像特定部と、
    前記画像特定部が特定した2つの画像から左目用と右目用の視差画像を生成する画像生成部と、
    前記画像生成部が生成した視差画像をヘッドマウントディスプレイに提供する画像提供部と、を備え、
    前記画像特定部は、2次元座標上のユーザの視線方向位置を特定し、当該視線方向位置から両眼傾き角度に沿う方向に等距離に位置し、且つ2つの画像の視点位置間の距離が設定距離となる2つの画像を特定する、
    ことを特徴とする情報処理装置。
  2. 前記画像生成部は、
    両眼傾き角度にもとづいて、2つの画像の角度を調整した視差画像を生成する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. ユーザから設定距離の指定を受け付ける受付部をさらに備え、
    前記画像特定部は、前記受付部で受け付けた指定をもとに、設定距離を変更する、
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記画像記憶装置には、カメラで取得された複数の実視点画像と、少なくとも2つの実視点画像から補間処理によって生成された複数の補間画像とが、複数の視点画像として記憶されており、
    前記画像特定部は、複数の実視点画像と複数の補間画像の中から、視差画像の生成に用いる2つの画像を選択する、
    ことを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5. マトリクス状に配列された複数の視点位置から同じ視線方向で取得された複数の視点画像を、2次元座標上の視点位置を表現する座標値に対応付けて記憶する画像記憶装置に接続する情報処理装置において、視差画像を生成する方法であって、
    ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出するステップと、
    検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定めるステップと、
    前記画像記憶装置に記憶された複数の視点画像から、左目用と右目用の視差画像の生成に用いる2つの画像を、ユーザの視線方向および両眼傾き角度にもとづいて特定するステップと、
    特定した2つの画像から左目用と右目用の視差画像を生成するステップと、
    生成した視差画像をヘッドマウントディスプレイに提供するステップと、有し、
    2つの画像を特定するステップは、2次元座標上のユーザの視線方向位置を特定し、当該視線方向位置から両眼傾き角度に沿う方向に等距離に位置し、且つ2つの画像の視点位置間の距離が設定距離となる2つの画像を特定するステップを含む、
    ことを特徴とする画像生成方法。
  6. マトリクス状に配列された複数の視点位置から同じ視線方向で取得された複数の視点画像を、2次元座標上の視点位置を表現する座標値に対応付けて記憶する画像記憶装置に接続するコンピュータに、
    ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する機能と、
    検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定める機能と、
    前記画像記憶装置に記憶された複数の視点画像から、左目用と右目用の視差画像の生成に用いる2つの画像を、ユーザの視線方向および両眼傾き角度にもとづいて特定する機能と、
    特定した2つの画像から左目用と右目用の視差画像を生成する機能と、を実現させるためのプログラムであって、
    2つの画像を特定する機能は、2次元座標上のユーザの視線方向位置を特定し、当該視線方向位置から両眼傾き角度に沿う方向に等距離に位置し、且つ2つの画像の視点位置間の距離が設定距離となる2つの画像を特定する機能を含む、プログラム。
  7. ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部と、
    前記検出部により検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定める状態決定部と、
    第1視線方向においてマトリクス状に配列された複数の視点位置から取得された複数の視点画像を含む第1画像群および第2視線方向においてマトリクス状に配列された複数の視点位置から取得された複数の視点画像を含む第2画像群から、左目用と右目用の視差画像の生成に用いる少なくとも2つの画像を、前記状態決定部で定めたユーザの視線方向および両眼傾き角度にもとづいて特定する画像特定部と、
    前記画像特定部が特定した少なくとも2つの画像から左目用と右目用の視差画像を生成する画像生成部と、
    前記画像生成部が生成した視差画像をヘッドマウントディスプレイに提供する画像提供部と、を備え
    前記画像特定部は、1つの視差画像の生成に用いる画像を、第1画像群と第2画像群の双方の中からそれぞれ特定し、
    前記画像生成部は、第1画像群の中から特定された1つの画像と、第2画像群の中から特定された1つの画像とを合成して、1つの視差画像を生成する、
    ことを特徴とする情報処理装置。
  8. 前記状態決定部は、第1画像群に含まれる複数の視点画像のそれぞれの視点位置を表現する仮想的な2次元座標面および第2画像群に含まれる複数の視点画像のそれぞれの視点位置を表現する仮想的な2次元座標面を配置した空間において、ユーザの視線方向に対応する仮想カメラの視線方向を設定し、
    前記画像特定部は、仮想カメラの視線方向に直交する仮想平面上に、左目用の視差画像の生成に用いる画像の仮想的な座標値である左目用画像位置LPと、右目用の視差画像の生成に用いる画像の仮想的な座標値である右目用画像位置RPとを特定し、
    左目用画像位置LPを通る仮想平面に垂直な直線が、第1画像群の仮想的な2次元座標面および第2画像群の仮想的な2次元座標面の双方に交差する場合、それぞれの交差点に対応付けられた2つの画像を、左目用の視差画像の生成に用いる画像として特定し、
    右目用画像位置RPを通る仮想平面に垂直な直線が、第1画像群の仮想的な2次元座標面および第2画像群の仮想的な2次元座標面の双方に交差する場合、それぞれの交差点に対応付けられた2つの画像を、右目用の視差画像の生成に用いる画像として特定する、
    ことを特徴とする請求項7に記載の情報処理装置。
  9. ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出するステップと、
    検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定めるステップと、
    第1視線方向においてマトリクス状に配列された複数の視点位置から取得された複数の視点画像を含む第1画像群および第2視線方向においてマトリクス状に配列された複数の視点位置から取得された複数の視点画像を含む第2画像群から、左目用と右目用の視差画像の生成に用いる少なくとも2つの画像を、ユーザの視線方向および両眼傾き角度にもとづいて特定するステップと、
    特定した少なくとも2つの画像から左目用と右目用の視差画像を生成するステップと、を有し、
    画像を特定するステップは、1つの視差画像の生成に用いる画像を、第1画像群と第2画像群の双方の中からそれぞれ特定するステップを含み、
    視差画像を生成するステップは、第1画像群の中から特定された1つの画像と、第2画像群の中から特定された1つの画像とを合成して、1つの視差画像を生成するステップを含む、
    画像生成方法。
  10. コンピュータに、
    ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する機能と、
    検出されたヘッドマウントディスプレイの姿勢に応じて、ユーザの視線方向、および両眼を結ぶ線と水平面との角度である両眼傾き角度を定める機能と、
    第1視線方向においてマトリクス状に配列された複数の視点位置から取得された複数の視点画像を含む第1画像群および第2視線方向においてマトリクス状に配列された複数の視点位置から取得された複数の視点画像を含む第2画像群から、左目用と右目用の視差画像の生成に用いる少なくとも2つの画像を、ユーザの視線方向および両眼傾き角度にもとづいて特定する機能と、
    特定した少なくとも2つの画像から左目用と右目用の視差画像を生成する機能と、を実現させるためのプログラムであって、
    画像を特定する機能は、1つの視差画像の生成に用いる画像を、第1画像群と第2画像群の双方の中からそれぞれ特定する機能を含み、
    視差画像を生成する機能は、第1画像群の中から特定された1つの画像と、第2画像群の中から特定された1つの画像とを合成して、1つの視差画像を生成する機能を含む、プログラム
  11. 請求項6または10に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2016184424A 2016-09-21 2016-09-21 情報処理装置および画像生成方法 Active JP6732617B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016184424A JP6732617B2 (ja) 2016-09-21 2016-09-21 情報処理装置および画像生成方法
US16/329,918 US11184597B2 (en) 2016-09-21 2017-09-14 Information processing device, image generation method, and head-mounted display
PCT/JP2017/033190 WO2018056155A1 (ja) 2016-09-21 2017-09-14 情報処理装置、画像生成方法およびヘッドマウントディスプレイ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016184424A JP6732617B2 (ja) 2016-09-21 2016-09-21 情報処理装置および画像生成方法

Publications (3)

Publication Number Publication Date
JP2018050179A JP2018050179A (ja) 2018-03-29
JP2018050179A5 JP2018050179A5 (ja) 2018-11-15
JP6732617B2 true JP6732617B2 (ja) 2020-07-29

Family

ID=61691028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016184424A Active JP6732617B2 (ja) 2016-09-21 2016-09-21 情報処理装置および画像生成方法

Country Status (3)

Country Link
US (1) US11184597B2 (ja)
JP (1) JP6732617B2 (ja)
WO (1) WO2018056155A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111874B (zh) * 2016-11-16 2020-01-31 腾讯科技(深圳)有限公司 一种文件处理方法、终端及服务器
US10488920B2 (en) * 2017-06-02 2019-11-26 Htc Corporation Immersive headset system and control method thereof
GB2569785B (en) * 2017-12-20 2022-07-13 Sony Interactive Entertainment Inc Data processing
FR3075985B1 (fr) * 2017-12-21 2019-11-15 Thales Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte pour rendre conforme l'affichage d'informations de pilotage d'un aeronef avec le monde reel exterieur
US10554883B2 (en) * 2018-03-30 2020-02-04 Ricoh Company, Ltd. VR system, communication method, and non-transitory computer-readable medium
CN112313949B (zh) * 2018-06-25 2022-10-04 京瓷株式会社 三维显示系统、光学元件、设置方法、控制方法以及移动体
US10764553B2 (en) * 2018-11-27 2020-09-01 Number 9, LLC Immersive display system with adjustable perspective
JP7349808B2 (ja) 2019-03-20 2023-09-25 任天堂株式会社 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法
US11800231B2 (en) 2019-09-19 2023-10-24 Apple Inc. Head-mounted display
JP2021089382A (ja) 2019-12-05 2021-06-10 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
CN112672138A (zh) * 2020-12-14 2021-04-16 聚好看科技股份有限公司 一种3d视频图像显示方法及显示设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5841409A (en) 1995-04-18 1998-11-24 Minolta Co., Ltd. Image display apparatus
JPH08339043A (ja) 1995-06-12 1996-12-24 Minolta Co Ltd 映像表示装置
JP3420060B2 (ja) * 1998-05-26 2003-06-23 日本電信電話株式会社 水平配置立体画像表示システム
JP3413489B2 (ja) * 2000-05-10 2003-06-03 独立行政法人産業技術総合研究所 遠隔操作用画像の伝送方法
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
JP2002354505A (ja) 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2010258583A (ja) * 2009-04-22 2010-11-11 Panasonic Corp 立体画像表示装置、立体画像再生装置および立体画像視認システム
US8953242B2 (en) * 2011-03-31 2015-02-10 Honeywell International Inc. Varible focus stereoscopic display system and method
JP2012244453A (ja) * 2011-05-20 2012-12-10 Panasonic Corp 画像表示装置、画像表示システム、及び3次元眼鏡
WO2012172719A1 (ja) * 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
JP5881732B2 (ja) * 2011-11-16 2016-03-09 株式会社東芝 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム
EP2922049A4 (en) 2012-11-13 2016-07-13 Sony Corp PICTURE DISPLAY DEVICE AND PICTURE DISPLAY METHOD, MOBILE BODY DEVICE, PICTURE DISPLAY SYSTEM AND COMPUTER PROGRAM
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
GB2525170A (en) * 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
US10742950B2 (en) * 2016-02-15 2020-08-11 Nvidia Corporation Collecting and processing stereoscopic digital image data to produce a parallax corrected tilted head view
US20180007328A1 (en) * 2016-07-01 2018-01-04 Intel Corporation Viewpoint adaptive image projection system

Also Published As

Publication number Publication date
WO2018056155A1 (ja) 2018-03-29
US20190215505A1 (en) 2019-07-11
US11184597B2 (en) 2021-11-23
JP2018050179A (ja) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6732617B2 (ja) 情報処理装置および画像生成方法
WO2015068656A1 (ja) 画像生成装置および画像生成方法
WO2017077918A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP5891131B2 (ja) 画像生成装置および画像生成方法
WO2017086263A1 (ja) 情報処理装置および画像生成方法
CN108156441A (zh) 视觉视频稳定
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP2013258614A (ja) 画像生成装置および画像生成方法
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
JP6518578B2 (ja) 表示制御装置及び表示制御方法
JP6216398B2 (ja) 画像生成装置および画像生成方法
JP2016015683A (ja) 画像生成装置および画像生成方法
WO2019163031A1 (ja) 画像処理装置および画像処理方法
JP6859447B2 (ja) 情報処理システムおよび対象物情報取得方法
JP2022183177A (ja) ヘッドマウントディスプレイ装置
JP6649010B2 (ja) 情報処理装置
JP6588196B2 (ja) 画像生成装置、画像生成方法および較正方法
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP6487512B2 (ja) ヘッドマウントディスプレイおよび画像生成方法
JP2018056845A (ja) 作業支援装置、システム、方法及びプログラム
WO2012169221A1 (ja) 立体画像表示装置および立体画像表示方法
JP2020024746A (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
WO2017163649A1 (ja) 画像処理装置
JP2019216344A (ja) 全天周立体映像表示装置及びそのプログラム、全天周立体映像撮影装置、並びに、全天周立体映像システム
JP6705929B2 (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200708

R150 Certificate of patent or registration of utility model

Ref document number: 6732617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150