JPWO2019078033A1 - 再生装置および方法、並びに、生成装置および方法 - Google Patents

再生装置および方法、並びに、生成装置および方法 Download PDF

Info

Publication number
JPWO2019078033A1
JPWO2019078033A1 JP2019549204A JP2019549204A JPWO2019078033A1 JP WO2019078033 A1 JPWO2019078033 A1 JP WO2019078033A1 JP 2019549204 A JP2019549204 A JP 2019549204A JP 2019549204 A JP2019549204 A JP 2019549204A JP WO2019078033 A1 JPWO2019078033 A1 JP WO2019078033A1
Authority
JP
Japan
Prior art keywords
model
image
wide
unit
scaling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019549204A
Other languages
English (en)
Other versions
JP7243631B2 (ja
Inventor
伸明 泉
伸明 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019078033A1 publication Critical patent/JPWO2019078033A1/ja
Application granted granted Critical
Publication of JP7243631B2 publication Critical patent/JP7243631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/332Force measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • A61M2205/507Head Mounted Displays [HMD]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/63Motion, e.g. physical activity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Anesthesiology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Hematology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Psychology (AREA)
  • Acoustics & Sound (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本開示は、酔いの発生を抑制した画像の拡大縮小表示を行うことができるようにする再生装置および方法、並びに、生成装置および方法に関する。再生装置は、全天球画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルを生成する頂点データ変換部を備える。本開示は、例えば、全天球画像を視聴者の視線方向に応じて透視投影した画像を表示画像として生成する再生装置等に適用できる。

Description

本開示は、再生装置および方法、並びに、生成装置および方法に関し、特に、酔いの発生を抑制した画像の拡大縮小表示を行うことができるようにした再生装置および方法、並びに、生成装置および方法に関する。
あらゆる方向を見回せる全天球画像は、ある1点に入射する全方向の光線をRGBなどの画素値として記録したものである。この画素値は、一般的には正距円筒図などの平面矩形画像として記録される。再生時には、この平面矩形画像を仮想的な単位球面に貼り付け、その球体の中心から周りを見回すように描画を行うことによって、元の光線の方向とRGB値を再現することが可能となる。
上記の全天球画像は、1点へ入射する光線を記録したものなので、異なる視点からの画像は再現できず、球体の中心を基準とした回転運動だけが再現可能となる。自由度としては、回転に対応するヨー、ピッチ、およびローの3自由度と、移動に対応するx、y、およびzの3自由度の計6自由度のうちの、回転成分の3自由度だけが可能であるため、3DoF(Three Degrees of Freedom)全天球画像と呼ばれることもある。
この3DoF全天球画像の表示には、テレビジョン受像機などの据え置きディスプレイに表示させて、コントローラを使って表示方向を変更しながら視聴する方法や、手に持ったモバイル端末画面上に端末内蔵のジャイロセンサから得た姿勢情報に基づいて表示方向を変えながら表示する方法、頭部に装着したヘッドマウントディスプレイ(以下、HMDとも称する。)に表示させて、頭部の動きに表示方向を反映させて表示する方法などがある。
3DoF全天球画像は、1点からの画像で移動の自由度が無いので、近づいて見るような動作はできないが、望遠鏡のように画を拡大して細部が分かるような見方をしたいという要望は存在する。
テレビジョン受像機やモバイル端末などの平面ディスプレイでは、表示画角(FOV: Field Of View)を変更することにより拡大操作を行うことが可能である。通常の平面ディスプレイでの視聴は、撮影画角と表示画角が必ずしも一致していないことが一般的であるため、表示画角を変更しても違和感は少ない。
一方、HMDは頭部に装着するため、基本的には視聴時の表示画角が固定である。また、一般的なHMDには視聴者の頭部の動きを検出するセンサが装備され、HMDは、視聴者の見ている方向や位置を反映した画像表示を行う。3DoF全天球画像で再現できるのは回転運動だけであるが、この回転運動を頭部の回転運動と正確に一致させることによって、仮想的な世界に入り込んだかのような没入感を得ることが可能となっている。
ここで、HMDで見ている画像を、平面ディスプレイと同じように単純に画角を変更して大きくすることによって拡大縮小操作(ズーム操作)を行うと、頭部の回転角と画像の回転角が一致しなくなる。例えば拡大時には、画像が大きくなった分だけ画像が頭の回転より速く移動するように見えてしまい、これが違和感となってVR酔いなどと呼ばれる不快感につながることが多い。
例えば、特許文献1および2では、HMDにおいて表示画像の画角を変更する例が示されている。
特開2015−125502号公報 特開2016−24751号公報
しかしながら、特許文献1および2では、頭の回転角と画像の回転角の不一致が生じる現象の対策については述べられておらず、酔いの問題は根本的には解決されていない。
本開示は、このような状況に鑑みてなされたものであり、酔いの発生を抑制した画像の拡大縮小表示を行うことができるようにするものである。
本開示の第1の側面の再生装置は、広角画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える。
本開示の第1の側面の再生方法は、再生装置が、広角画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルを生成する。
本開示の第1の側面においては、広角画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルが生成される。
本開示の第2の側面の生成装置は、広角画像の拡大縮小が選択された場合に拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える再生装置で用いるための所定の3Dモデルにマッピングされた前記広角画像を生成する広角画像生成部を備える。
本開示の第2の側面の生成方法は、生成装置が、広角画像の拡大縮小が選択された場合に拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える再生装置で用いるための所定の3Dモデルにマッピングされた前記広角画像を生成する。
本開示の第2の側面においては、広角画像の拡大縮小が選択された場合に拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える再生装置で用いるための所定の3Dモデルにマッピングされた前記広角画像が生成される。
なお、本開示の第1の側面の再生装置および第2の側面の生成装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、本開示の第1の側面の再生装置および第2の側面の生成装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
再生装置および生成装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本開示の第1の側面によれば、酔いの発生を抑制した画像の拡大縮小表示を行うことができる。
本開示の第2の側面によれば、酔いの発生を抑制した画像の拡大縮小表示を行うための画像を生成することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した配信システムの第1の実施の形態の構成例を示すブロック図である。 全天球画像をマッピングする3Dモデルとして球面を用いた場合の描画方法の概念図である。 図1の生成装置の構成例を示すブロック図である。 図1の配信サーバと再生装置の構成例を示すブロック図である。 正距円筒マッピングテクスチャの極座標とテクスチャ座標の関係を示す図である。 立方体の3Dモデルにテクスチャを貼り付ける際のテクスチャ座標の例を示す図である。 3Dメッシュモデルの頂点配列データを示す図である。 頂点データ変換処理による頂点配列データの変換を説明する図である。 図4の頂点データ変換部の詳細構成例を示すブロック図である。 直交座標系と円柱座標系の3次元空間での関係を示す図である。 スケーリング処理を施さない場合の3Dモデル画像と透視投影画像の概念図である。 スケーリング処理を施した場合の3Dモデル画像と透視投影画像の概念図である。 第1の拡大処理の概念図である。 第2の拡大処理の概念図である。 第2の拡大処理を説明する図である。 第1の実施の形態の生成処理を説明するフローチャートである。 第1の実施の形態の再生処理を説明するフローチャートである。 再生装置の変形例を示すブロック図である。 u軸をスケーリングしなおしたテクスチャデータの概念図である。 第2の実施の形態の配信システムにおける高解像度方向を説明する図である。 第2の実施の形態に係る生成装置の構成例を示すブロック図である。 高解像度方向が異なる5つの全天球画像の概念図である。 テーブル生成部によって生成される補助情報としてのテーブルの例を示す図である。 第2の実施の形態に係る配信サーバと再生装置の構成例を示すブロック図である。 第2の実施の形態の生成処理を説明するフローチャートである。 第2の実施の形態の再生処理を説明するフローチャートである。 符号化ストリームを3D画像用の全天球画像とする変形例を説明する図である。 本開示の技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本開示の技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(均一解像度の全天球画像のみを用いる構成例)
2.第2の実施の形態(高解像度方向をもつ全天球画像を切り替えて用いる構成例)
3.その他の変形例
4.コンピュータ構成例
<1.第1の実施の形態>
(配信システムの第1の実施の形態の構成例)
図1は、本開示の技術を適用した配信システムの第1の実施の形態の構成例を示すブロック図である。
図1の配信システム10は、撮影装置11、生成装置12、配信サーバ13、ネットワーク14、再生装置15、およびヘッドマウントディスプレイ16により構成される。配信システム10は、撮影装置11により撮影された撮影画像から全天球画像を生成し、全天球画像を用いて視聴者の視野範囲の表示画像を表示する。
具体的には、配信システム10の撮影装置11は、6個のカメラ11A−1乃至11A−6を有する。なお、以下では、カメラ11A−1乃至11A−6を特に区別する必要がない場合、それらをカメラ11Aという。
各カメラ11Aは、動画像を撮影する。撮影装置11は、各カメラ11Aにより撮影された6方向の動画像を撮影画像として生成装置12に供給する。なお、撮影装置11が備えるカメラの数は、複数であれば、6個に限定されない。
生成装置12は、正距円筒図法を用いた方法により、撮影装置11から供給される撮影画像から、水平方向の周囲360度および垂直方向の周囲180度の全天球画像を生成する。生成装置12は、正距円筒図法による、上下左右全方位の360度を見回すことが可能な全天球画像を、所定の3Dモデルにマッピングした画像データを、AVC(Advanced Video Coding)やHEVC(High Efficiency Video Coding)/H.265等の所定の符号化方式で圧縮符号化する。生成装置12は、全天球画像の画像データを圧縮符号化した符号化ストリームを配信サーバ13にアップロードする。
配信サーバ13は、ネットワーク14を介して再生装置15と接続する。配信サーバ13は、生成装置12からアップロードされた全天球画像の符号化ストリームを記憶する。配信サーバ13は、再生装置15からの要求に応じて、記憶している全天球画像の符号化ストリームを、ネットワーク14を介して再生装置15に送信する。
再生装置15は、配信サーバ13に全天球画像の符号化ストリームを要求し、受け取る。再生装置15は、受け取った全天球画像の符号化ストリームを復号し、その結果得られる全天球画像を所定の3Dモデルにマッピングすることにより、3Dモデル画像を生成する。
そして、再生装置15は、視聴位置を焦点として、3Dモデル画像を視聴者の視野範囲に透視投影することにより、視聴者の視野範囲の画像を表示画像として生成する。再生装置15は、生成した表示画像をヘッドマウントディスプレイ16に供給する。
図2は、全天球画像をマッピングする3Dモデルとして球面を用いた場合の描画方法の概念図である。
3Dモデルとして球面を用いて、地球の緯度と経度にあたる球面上の座標に、正距円筒図法による全天球画像のテクスチャを貼り、球の中心を視聴位置として、球面上の全天球画像(3Dモデル画像)が視聴者の視野範囲に透視投影される。
なお、この3Dモデルを使った描画方法は例であって、実際には3Dモデルを作成することなく、投影面の光線をたどってテクスチャの2次元座標を直接計算して描画する手法もある。テクスチャの2次元座標を直接計算して描画する場合も、実現しようとしている処理は同じであり、仮想的な3Dモデルを設定するによって直観的な理解が可能となる。
視聴者の視野範囲は、ヘッドマウントディスプレイ16に付されたマーカ16Aを撮影した結果と、ヘッドマウントディスプレイ16のジャイロセンサ16Bの検出結果とに基づいて決定される。
すなわち、再生装置15は、カメラ15Aを内蔵しており、カメラ15Aにより、ヘッドマウントディスプレイ16に付されたマーカ16Aを撮影する。そして、再生装置15は、マーカ16Aの撮影画像に基づいて、3Dモデルの座標系(以下、3Dモデル座標系という。)における視聴者の視聴位置を検出する。さらに、再生装置15は、ヘッドマウントディスプレイ16のジャイロセンサ16Bの検出結果を、ヘッドマウントディスプレイ16から受け取る。再生装置15は、ジャイロセンサ16Bの検出結果に基づいて、3Dモデル座標系における視聴者の視線方向を決定する。再生装置15は、視聴位置と視線方向に基づいて、3Dモデルの内部に位置する視聴者の視野範囲を決定する。
また、視聴者は、ヘッドマウントディスプレイ16に付属するコントローラ16Cを操作することにより、ヘッドマウントディスプレイ16に表示される表示画像の拡大または縮小を指示することができる。
再生装置15は、視聴者が行ったズーム操作(拡大縮小操作)に対応するズーム操作情報をヘッドマウントディスプレイ16から受け取り、視聴者のズーム操作に応じて、ヘッドマウントディスプレイ16に表示させる表示画像の拡大または縮小を行う。
ヘッドマウントディスプレイ16は、視聴者の頭部に装着され、再生装置15から供給される表示画像を表示する。ヘッドマウントディスプレイ16には、カメラ15Aにより撮影されるマーカ16Aが付されている。従って、視聴者は、ヘッドマウントディスプレイ16を頭部に装着した状態で、移動することにより視聴位置を指定することができる。また、ヘッドマウントディスプレイ16には、ジャイロセンサ16Bが内蔵され、そのジャイロセンサ16Bによる角速度の検出結果は再生装置15に伝送される。従って、視聴者は、ヘッドマウントディスプレイ16を装着した頭部を回転させることにより、視線方向を指定することができる。
また、ヘッドマウントディスプレイ16は、コントローラ16Cを操作することにより視聴者が行ったズーム操作を検出し、ズーム操作情報を再生装置15に供給する。
配信システム10において、配信サーバ13から再生装置15への配信方法は、どのような方法であってもよい。配信方法が、例えば、MPEG-DASH(Moving Picture Experts Group phase − Dynamic Adaptive Streaming over HTTP)を用いる方法である場合、配信サーバ13は、HTTP(HyperText Transfer Protocol)サーバであり、再生装置15はMPEG-DASHクライアントである。
(生成装置の構成例)
図3は、図1の生成装置12の構成例を示すブロック図である。
図3の生成装置12は、スティッチング処理部21、マッピング変換部22、エンコーダ23、および、送信部24により構成される。
スティッチング処理部21は、フレームごとに、図1のカメラ11Aから供給される6方向の撮影画像の色や明るさを同一にし、重なりを除去して接続し、十分な解像度を持った一枚の撮影画像に変換する。例えば、スティッチング処理部21は、一枚の撮影画像として、正距円筒画像に変換する。スティッチング処理部21は、フレーム単位の撮影画像である正距円筒画像をマッピング変換部22に供給する。
マッピング変換部22(広角画像生成部)は、スティッチング処理部21から供給されるフレーム単位の撮影画像(例えば、正距円筒画像)を、所定の3Dモデルにマッピングするためのマッピング形式に変換するマッピング変換処理を行う。所定の3Dモデルとしては、例えば、立方体モデル、球面モデル等を採用することができる。
例えば、3Dモデルとして立方体(キューブ)モデルを採用し、全天球画像を配信する場合には、マッピング変換部22は、スティッチング処理部21から供給される正距円筒の全天球画像を、立方体モデル用のマッピング形式(後述する図6の形式)に変換する。スティッチング処理部21から供給される全天球画像のマッピング形式と、配信サーバ13に供給する際のマッピング形式が同じ場合は、マッピング変換処理は不要である。
本実施の形態では、再生装置15で使用される3Dモデルが球面モデルであり、その3Dモデルに対応したマッピング形式は正距円筒マッピングであるため、マッピング変換処理は不要である。
エンコーダ23(符号化部)は、マッピング変換部22から供給される全天球画像をMPEG2方式やAVC方式などの所定の符号化方式で符号化し、符号化ストリームを生成する。エンコーダ23は、生成した1本の符号化ストリームを送信部24に供給する。なお、全天球画像の符号化ストリームは、オーディオ信号などとともに、MP4ファイルなどのシステムレイヤフォーマットで多重化されてもよい。
送信部24は、エンコーダ23から供給される全天球画像のストリームを、図1の配信サーバ13にアップロード(送信)する。
(配信サーバと再生装置の構成例)
図4は、図1の配信サーバ13と再生装置15の構成例を示すブロック図である。
配信サーバ13は、受信部101、ストレージ102、および、送受信部103により構成される。
受信部101は、図1の生成装置12からアップロードされた全天球画像の符号化ストリームを受信し、ストレージ102に供給する。
ストレージ102は、受信部101から供給される全天球画像の符号化ストリームを記憶する。
送受信部103は、再生装置15からの要求に応じて、ストレージ102に記憶されている全天球画像の符号化ストリームを読み出し、ネットワーク14を介して再生装置15に送信する。
再生装置15は、カメラ15A、送受信部121、デコーダ122、マッピング処理部123、受け取り部124、視線検出部125、3Dモデル生成部126、頂点データ変換部127、および、描画部128により構成される。
再生装置15の送受信部121(受け取り部)は、全天球画像を、ネットワーク14を介して配信サーバ13に要求し、その要求に応じて配信サーバ13の送受信部103から送信されてくる全天球画像の符号化ストリームを受け取る。送受信部121は、取得した全天球画像の符号化ストリームをデコーダ122に供給する。
デコーダ122(復号部)は、送受信部121から供給される符号化ストリームを復号し、全天球画像を生成する。デコーダ122は、生成した全天球画像をマッピング処理部123に供給する。
マッピング処理部123は、デコーダ122から供給される全天球画像を用いて、所定の3Dモデルのテクスチャ座標(u,v)に対応したテクスチャデータ(R,G,B)を生成する。ここで、再生装置15で使用される3Dモデルは、生成装置12で使用された3Dモデルと対応し、本実施の形態では、上述したように、球面モデルであるとするが、3Dモデルは、これに限定されず、例えば、立方体モデルなどでもよい。
図5は、球面の3Dモデルにテクスチャを貼り付ける際の正距円筒マッピングテクスチャの極座標とテクスチャ座標の関係を示している。
テクスチャ座標(u,v)のu軸は、極座標の方位角(回転角)θと平行に定義され、テクスチャ座標(u,v)v軸は、極座標の仰角φと平行に定義される。テクスチャ座標(u,v)の値域は、0から1の範囲の値とされる。
図6は、立方体の3Dモデルにテクスチャを貼り付ける際のテクスチャ座標(u,v)の例を示している。
マッピング処理部123によって生成されたテクスチャデータは、描画部128がアクセス可能なテクスチャバッファに格納されることにより、描画部128に供給される。
受け取り部124は、図1のジャイロセンサ16Bの検出結果をヘッドマウントディスプレイ16から受け取り、視線検出部125に供給する。
また、受け取り部124は、コントローラ16Cを操作して視聴者が行ったズーム操作に対応するズーム操作情報をヘッドマウントディスプレイ16から受け取り、頂点データ変換部127に供給する。
視線検出部125は、受け取り部124から供給されるジャイロセンサ16Bの検出結果に基づいて、3Dモデル座標系における視聴者の視線方向を決定する。また、視線検出部125は、カメラ15Aからマーカ16Aの撮影画像を取得し、その撮影画像に基づいて、3Dモデルの座標系における視聴位置を検出する。そして、視線検出部125は、3Dモデル座標系における視聴位置と視線方向に基づいて、3Dモデル座標系における視聴者の視野範囲を決定する。視線検出部125は、視聴者の視野範囲と視聴位置を、描画部128に供給する。
3Dモデル生成部126は、仮想的な3D空間の3Dメッシュモデル(3Dモデル)のデータを生成し、頂点データ変換部127に供給する。この3Dメッシュモデルのデータは、図7に示されるように、3Dモデルの各頂点の座標(x,y,z)とそれに対応するテクスチャ座標(u,v)の5要素の配列データ(以下、頂点配列データと称する。)で構成される。本実施の形態では、3Dモデルとしては、生成装置12で使用される3Dモデルと同じ球面モデルが採用される。
頂点データ変換部127は、3Dモデル生成部126から供給される球面モデルの頂点配列データを、受け取り部124から供給されるズーム操作情報に基づいて変換する。具体的には、図8に示されるように、3Dメッシュモデルの頂点の座標(x,y,z)が座標(x’,y’,z’)に変換され、変換後の各頂点の座標(x’,y’,z’)と、それに対応するテクスチャ座標(u,v)の5要素からなる頂点配列データが、描画部128に供給される。換言すれば、頂点データ変換部127は、3Dモデル生成部126により生成された3Dメッシュモデルのデータから、ズーム操作情報に基づいて、拡大縮小用の3Dメッシュモデルのデータを生成する拡大縮小用3Dモデル生成部である。頂点データ変換部127が行う頂点データ変換処理の詳細は、図9以降を参照して後述する。
描画部128には、マッピング処理部123から、テクスチャ座標(u,v)に対応したテクスチャデータ(R,G,B)が供給されるとともに、頂点データ変換部127から、球面モデルの各頂点の座標(x’,y’,z’)と、それに対応するテクスチャ座標(u,v)の5要素からなる頂点配列データが供給される。また、描画部128には、視線検出部125から、視聴者の視野範囲と視聴位置も供給される。
描画部128は、5要素の頂点配列データ、テクスチャデータ、および、視聴者の視野範囲と視聴位置とを用いて、全天球画像をマッピングした球面モデルにおける視聴者の視野範囲の画像を表示画像として生成する。
図8の各行が1つの頂点に対応する頂点データであり、3つ頂点データで一つの三角形パッチが構成される。三角形パッチの頂点は3D空間上の座標(x,y,z)とテクスチャ座標(u,v)との対応関係が保持されているので、テクスチャ上の3角形を球面モデル上の3角形にホモグラフィー変換で貼り付けを行い、それを球面モデルの内部から見回すように描画することによって、全天球の見回し画像の表示が可能となる。
(頂点データ変換部の構成例)
図9は、頂点データ変換部127の詳細構成例を示すブロック図である。
頂点データ変換部127は、円柱座標変換部141、スケーリング部142、および、直交座標変換部143により構成される。
頂点データ変換部127は、xyzの直交座標系で表された頂点配列データを、円柱座標系に変換し、円柱座標系上で、ズーム操作情報に基づくスケーリング(拡大または縮小)を行う。そして、頂点データ変換部127は、スケーリング後のデータを、再び直交座標系に戻して出力する。
円柱座標変換部141は、直交座標系で表された頂点配列データを、円柱座標系に変換する。頂点配列データは、球面モデルの各頂点の座標(x,y,z)とそれに対応するテクスチャ座標(u,v)の5要素のデータで構成される。
直交座標系と円柱座標系との対応関係は、以下の式(1)で表される。
Figure 2019078033
直交座標系(x,y,z)と円柱座標系(t,θ,z)の3次元空間での関係を図示すると、図10のようになる。このとき、三角関数の性質より、式(2)が成り立つ。
Figure 2019078033
ヘッドマウントディスプレイ16における視聴では、重力方向が重要であるので、頂点データ変換部127は、直交座標系(x,y,z)のz軸を鉛直方向に設定する。この場合、z=0の平面が地面のような水平面となり、円柱座標系でのθは方位角を表すことになる。
ヘッドマウントディスプレイ16から供給されるズーム操作情報は、スケーリング部142に取得される。
スケーリング部142は、円柱座標系上に変換された球面モデルの各頂点の座標(x,y,z)をk倍する写像変換fkを行うことにより、ズーム操作情報に基づくスケーリング(拡大または縮小)を行う。
直交座標系上の座標(x,y,z)が、写像変換fkにより、座標(x’,y’,z’)に変換されるとすると、座標(x,y,z)と座標(x’,y’,z’)との関係は、以下で表される。
(x’,y’,z’)=fk(x,y,z) ・・・・(3)
また、円柱座標系上の座標(t,θ,z)が、写像変換fkにより、座標(t’,θ’,z’)に変換されるとすると、座標(t,θ,z)と座標(t’,θ’,z’)との関係は、以下で表される。
(t’,θ’,z’)=fk(t,θ,z) ・・・・(4)
写像変換fkの具体的な処理は、以下の式(5)乃至(7)で表される。
t’=t ・・・・(5)
θ’=kθ ・・・・(6)
z’=kz ・・・・(7)
すなわち、写像変換fkは、円柱座標系の軸を独立にスケーリングしたもので、方位角θをk倍し、鉛直方向zをk倍する処理である。
変換後の直交座標系上の座標(x’,y’,z’)は、式(8)で表され、直交座標系で考える場合も、まず一旦極座標系(t,θ,φ)で表した上で、方位角θをk倍、z軸方向をk倍した新しい点(x’,y’,z’)に配置することによって計算可能である。
Figure 2019078033
式(8)において、拡大率kが1より大きい場合は、画像の拡大処理となり、拡大率kが1より小さい場合は、画像の縮小処理となる。拡大率kが1のときは、拡大縮小変換無しであり、式(1)の右辺と一致する。
直交座標変換部143は、スケーリング後の円柱座標系上の座標(t’cosθ’,t’sinθ’,z’)=(t cos kθ,t sin kθ,kz)を、直交座標系に変換する。直交座標変換部143は、変換後の頂点配列データである、球面モデルの各頂点の座標(x’,y’,z’)とそれに対応するテクスチャ座標(u,v)の5要素のデータを、描画部128に供給する。
以上のように、視聴者が行ったズーム操作に基づいて、表示画像の拡大縮小が行われる場合には、頂点データ変換部127において、座標(x,y,z)とテクスチャ座標(u,v)の5要素の頂点配列データが、拡大率kに応じた座標(x’,y’,z’)とテクスチャ座標(u,v)の5要素の頂点配列データに変換されて、描画部128に供給される。
換言すれば、描画部128は、表示画像の拡大縮小の有無に関わらず、5要素の頂点配列データを用いて、視聴者の視野範囲の透視投影画像を生成する通常の処理を行えばよく、表示画像の拡大縮小の有無で、描画処理を変更する必要はない。
図8に示したように、スケーリング処理によって変換されるのは、座標(x,y,z)のみであり、テクスチャ座標(u,v)は変更されない。そのため、マッピング処理部123も、表示画像の拡大縮小の有無で、処理を変更する必要はない。
図11および図12は、球面の3Dモデルに正距円筒マッピングのテクスチャ画像を貼り付けた3Dモデル画像を、球中心から見た透視投影画像の概念図を示している。
図11は、スケーリング処理を施さない場合の3Dモデル画像と透視投影画像の例である。
これに対して、図12は、図11に示した3Dモデル画像との透視投影画像を、方位角θ、鉛直方向z、および、その両方に対して拡大処理(k>1)を施した処理結果を示す概念図である。
図12右上に示されるように、式(6)による方位角θをk倍する処理では、単位球の半径は変わらないがテクスチャ画像が横に伸びるように球面に貼られた状態になる。
図12左下に示されるように、式(7)による鉛直方向zをk倍する処理では、球面モデルが全体的に縦に伸ばされ、透視投影画像も縦長になる。
図12右下に示される、方位角θと鉛直方向zの両方をk倍する処理では、横にも縦にもテクスチャ画像が伸ばされて、最終的に縦横比が1:1の拡大画像となって描画されている様子が示されている。
ただし、縦横比が1:1となるのは、視線方向が水平方向およびその近傍を向いている場合の透視投影画像であり、視線方向が上方向や下方向を向いた時には、3Dモデルの球面がz軸方向に延びて元の距離より遠くなっている分だけ、透視投影画像が縮小され、さらに方位角θのスケーリングによる変形が見えてしまうことには注意が必要である。このスケーリング処理は、主に水平方向の透視投影画像に対して、拡大縮小がかけられる処理である。
写像変換fkにより、方位角θと鉛直方向zの両方をk倍した拡大画像では、図12右下の透視投影画像のように、上下方向以外は自然な拡大画像となっている。また、写像変換fkを行った後も、スケーリング処理を施す前の座標(x,y,z)を新しい座標(x’,y’,z’)に移動した静的な3Dモデルを描画しているだけなので、見回しによる視聴方向の変化による画像の予期せぬ変形や移動は発生しない。これにより、単純な画角変更による拡大などで見られるVR酔いの発生を起こりにくくすることができる。
また、VR酔いは、地平線が傾いたり、本来鉛直方向に延びる物体が斜めに見えたりすることによっても発生する。式(8)において、円柱座標系のθ成分が直交座標系のxy成分に対応し、z成分は、xy成分に依存しないので、写像変換fkによって地平線が傾いたり垂直の物体が斜めになったりすることはない。この性質も、本手法において、VR酔いが発生しにくい要因となっている。
(拡縮画像の描画方法)
本手法は、円柱座標系の方位角θと鉛直方向zに対してスケーリングを行うことで、描画画像(3Dモデル画像)の拡縮を行う。方位角θの値域は、拡縮前の−π≦θ≦πが、−kπ≦θ≦kπとなるので、拡大の場合には描画可能な360度を超え、縮小の場合には、360度に足りなくなる。そのため、拡縮により描画画像が360度を超える場合と360度に足りない場合の対処を行う必要がある。
そこで、スケーリング部142は、全天球画像をk倍に拡大した場合には、360度を超える画像を切り捨てる第1の拡大処理か、または、視聴者が水平にk周回ると、元の画像(景色)の1周分が見えるように描画する第2の拡大処理のいずれかを行う。
360度を超える画像を切り捨てる第1の拡大処理では、スケーリング部142は、θ’<−πとなるデータ、および、π<θ’となるデータを、拡大率kに応じた座標(x’,y’,z’)とテクスチャ座標(u,v)の頂点配列データから削除する処理を行う。
図13は、第1の拡大処理において描画される領域を示す模式図である。
第1の拡大処理では、スケーリング前の(−π/k)≦θ≦(π/k)の範囲の画像が、−π≦θ≦πの範囲に割り当てられる。拡大画像のθ’<−πとなる領域のデータ、および、π<θ’となる領域のデータは、頂点配列データから削除される。
図14は、k=2の場合の第2の拡大処理の概念図である。
k=2の第2の拡大処理では、視聴者が2周回転する間に、元の景色が1周するような見え方になる。視聴者が、拡大された描画画像を見ながら視線方向を左右に移動する場合、描画画像が必ず左右に連続的に表示されるという制約条件を付加することで、重なるデータのどの部分を表示すべきかを判定することができる。
描画画像が必ず左右に連続的に表示されるという制約条件を付加するため、連続的に変化する視線方向の水平角ξが定義される。通常の水平角の値域は−πからπまでで、真後ろを超えると−πとπの間を不連続に変化するが、水平角ξは、常に連続的に変化するように、右回りなら単調増加、左回りなら単調減少となるように定義した水平角である。水平角ξの値域は、-∞ ≦ ξ ≦ ∞ となる。
図15は、視聴者が、水平角ξ=ξ0の方向を向いて、k倍の拡大画像を見ている時の描画領域を示す模式図である。
拡大の写像変換fkを施すと3D空間で重複する部分が生じるため、スケーリング部142は、拡大前の方位角θで判定を行う。
0−π)/k < θ < (ξ0+π)/k の範囲が描画領域となるので、スケーリング部142は、それ以外の範囲の頂点配列データを削除した上で、拡大の写像変換fkを施して、頂点データを作成する。こうすることで、変換後の頂点配列データの範囲が、ちょうど-πからπとなって全天を覆うようになる。
一方、スケーリング部142は、全天球画像を1/k倍に縮小した場合には、描画画像が途切れないように、縮小画像の繰り返し描画を行う。この場合、視聴者が水平に1周回ると、元の画像(景色)のk周分が見えるようになる。
なお、縮小処理時に360度に足りない部分の画像として、1/kに縮小した全天球画像で埋めるのではなく、黒画像を埋めてもよい。
(生成装置の処理の説明)
図16は、図1の生成装置12による生成処理を説明するフローチャートである。この処理は、例えば、撮影装置11の6個のカメラ11A−1乃至11A−6で撮影された6方向の動画像が供給されたとき開始される。
初めに、ステップS11において、スティッチング処理部21は、フレームごとに、各カメラ11Aから供給される6方向の撮影画像の色や明るさを同一にし、重なりを除去して接続し、一枚の撮影画像に変換する。スティッチング処理部21は、一枚の撮影画像として、例えば正距円筒画像を生成し、フレーム単位の正距円筒画像をマッピング変換部22に供給する。
ステップS12において、マッピング変換部22は、スティッチング処理部21から供給されたフレーム単位の撮影画像(例えば、正距円筒画像)を、所定の3Dモデルにマッピングするためのマッピング形式に変換するマッピング変換処理を行う。
例えば、配信サーバ13が3Dモデルとして立方体モデルで全天球画像を配信する場合には、マッピング変換部22は、スティッチング処理部21から供給される正距円筒マッピングの全天球画像を、キューブマッピングの全天球画像に変換する。スティッチング処理部21から供給される全天球画像のマッピング形式と、配信サーバ13に供給する際のマッピング形式が同じ場合は、マッピング変換処理は不要であり、スティッチング処理部21から供給された全天球画像を、そのままエンコーダ23に供給する。
ステップS13において、エンコーダ23は、マッピング変換部22から供給された全天球画像をMPEG2方式やAVC方式などの所定の符号化方式で符号化し、符号化ストリームを生成する。エンコーダ23は、生成した全天球画像の符号化ストリームを送信部24に供給する。
ステップS14において、送信部24は、エンコーダ23から供給された全天球画像のストリームを、配信サーバ13にアップロードして、処理を終了する。
(再生装置の処理の説明)
図17は、図1の再生装置15による再生処理を説明するフローチャートである。この再生処理は、例えば、再生装置15において電源オンや処理開始操作が検出されたとき開始される。
初めに、ステップS31において、送受信部121は、全天球画像を、ネットワーク14を介して配信サーバ13に要求し、その要求に応じて配信サーバ13の送受信部103から送信されてきた全天球画像の符号化ストリームを受け取る。送受信部121は、取得した全天球画像の符号化ストリームをデコーダ122に供給する。
ステップS32において、デコーダ122は、送受信部121から供給された符号化ストリームを復号し、全天球画像を生成する。デコーダ122は、生成した全天球画像をマッピング処理部123に供給する。
ステップS33において、マッピング処理部123は、デコーダ122から供給された全天球画像を用いて、所定の3Dモデルのテクスチャ座標(u,v)に対応したテクスチャデータ(R,G,B)を生成する。マッピング処理部123は、生成したテクスチャデータを、描画部128がアクセス可能なテクスチャバッファに格納することで、生成したテクスチャデータを描画部128に供給する。
ステップS34において、受け取り部124は、図1のジャイロセンサ16Bの検出結果をヘッドマウントディスプレイ16から受け取り、視線検出部125に供給する。
ステップS35において、視線検出部125は、受け取り部124から供給されたジャイロセンサ16Bの検出結果に基づいて、3Dモデルの座標系における視聴者の視線方向を決定する。
ステップS36において、視線検出部125は、3Dモデルの座標系における視聴者の視聴位置と視野範囲を決定し、描画部128に供給する。より具体的には、視線検出部125は、カメラ15Aからマーカ16Aの撮影画像を取得し、その撮影画像に基づいて3Dモデルの座標系における視聴位置を検出する。そして、視線検出部125は、検出した視聴位置と視線方向に基づいて、3Dモデル座標系における視聴者の視野範囲を決定し、描画部128に供給する。
ステップS37において、3Dモデル生成部126は、仮想的な3D空間の3Dメッシュモデルのデータを生成し、頂点データ変換部127に供給する。この3Dメッシュモデルのデータは、図7に示したように、3Dモデルの各頂点の座標(x,y,z)とそれに対応するテクスチャ座標(u,v)の5要素の頂点配列データで構成される。
ステップS38において、頂点データ変換部127は、受け取り部124から供給されたズーム操作情報に基づいて、視聴者によるズーム操作が行われたかを判定する。例えば、視聴者がコントローラ16Cに対してズーム操作を行った場合、そのズーム操作に対応するズーム操作情報が、受け取り部124に供給され、受け取り部124から、頂点データ変換部127に供給される。
ステップS38で、ズーム操作が行われていないと判定された場合、処理はステップS39に進み、頂点データ変換部127は、3Dモデル生成部126から供給された頂点配列データを、そのまま、描画部128に供給する。換言すれば、3Dモデル生成部126から供給された頂点配列データに対して、拡大率kを1として、式(8)の写像変換fkを行った頂点配列データを、描画部128に供給する。
一方、ステップS38で、ズーム操作が行われたと判定された場合、処理はステップS40に進み、頂点データ変換部127は、ステップS40乃至S42からなる頂点データ変換処理を実行する。
頂点データ変換処理として、最初に、ステップS40において、円柱座標変換部141は、式(1)の対応関係に基づいて、直交座標系で表された頂点配列データの座標(x,y,z)を、円柱座標系上の座標(t,θ,z)に変換する。
ステップS41において、スケーリング部142は、円柱座標系上に変換された座標(t,θ,z)をk倍する写像変換fkを行うことにより、ズーム操作情報に基づくスケーリングを行う。具体的には、スケーリング部142は、式(5)乃至(7)で表される写像変換fkを行う。
ステップS42において、直交座標変換部143は、スケーリング後の円柱座標系上の座標(t’cosθ’,t’sinθ’,z’)を、直交座標系に変換する。そして、直交座標系に変換された3Dメッシュモデルの各頂点の座標(x’,y’,z’)とそれに対応するテクスチャ座標(u,v)の5要素からなる頂点配列データが、描画部128に供給される。
ステップS43において、描画部128は、頂点データ変換部127(の直交座標変換部143)から供給された頂点配列データ、マッピング処理部123から供給されたテクスチャデータ(R,G,B)、および、視線検出部125から供給された視聴者の視野範囲に基づいて、3Dモデル画像を視聴者の視野範囲に透視投影することにより、表示画像を生成する。
ステップS44において、描画部128は、表示画像をヘッドマウントディスプレイ16に送信して表示させる。
ステップS45において、再生装置15は、再生を終了するかを判定する。例えば、再生装置15は、視聴者により再生を終了する操作が行われたとき、再生を終了すると判定する。
ステップS45で再生を終了しないと判定された場合、処理はステップS34に戻り、上述したステップS34乃至S45の処理が繰り返される。一方、ステップS45で再生を終了すると判定された場合、再生処理が終了される。
(再生装置の変形例)
図18は、再生装置15の変形例を示すブロック図である。
図18は図4に対応するブロック図であり、配信サーバ13の構成も示されているが、図18では、再生装置15の構成のみが異なる。
図18に示される再生装置15の構成例は、全天球画像のマッピング形式が正距円筒マッピングである場合に採用可能な構成例である。
図18の再生装置15を、図4に示した再生装置15と比較すると、図4における描画部128が、図18では、描画部151に変更されている。また、図18では、頂点データ変換部127が省略されており、3Dモデル生成部126から出力された頂点配列データが、そのまま描画部151に供給されている。また、ズーム操作情報が、受け取り部124から描画部151に供給されている。描画部151は、ズーム操作情報に基づく所定の処理を行う点が図4の描画部128と異なる。図18の再生装置15のその他の構成は、図4における再生装置15と同様である。
図18の再生装置15では、頂点データ変換部127が省略されているので、視聴者のズーム操作の有無に関わらず、写像変換fkを行わない、すなわち通常の頂点配列データが、描画部151に供給される。
描画部151は、受け取り部124から供給されるズーム操作情報に基づいて、3次元直交空間座標(x,y,z)とテクスチャ座標(u,v)のスケールを変更する。一般的な3D描画ソフトウエアでは、3次元直交空間座標(x,y,z)とテクスチャ座標(u,v)それぞれの座標のスケールを変更するAPIが用意されており、頂点データやテクスチャデータを書き換えることなく、単純な拡大縮小を行うことができるようになっている。例えば、OpenGLでは、”glScale”という関数でx,y,zもu,vもスケールを変更することができる。
図5に示したように、正距円筒図法のテクスチャの横軸は、円柱座標の方位角θと平行である。そのため、式(5)のθ’=kθ の写像は、u軸をスケーリングするだけで処理が可能である。
図19は、u軸をスケーリングし直したテクスチャデータの概念図を示している。
図5のテクスチャデータと図19のテクスチャデータとの違いは、u軸の(0,1)の位置が変わっていることであり、このようにu軸のスケールを変更することにより、同じ(u,v)値であっても、図5のテクスチャデータに対してθをk倍した位置にアクセスが行うことが可能となる。
同様に、3次元直交空間座標(x,y,z)のz軸をスケーリングすることで、式(7)のz’=kz の写像を行うことができる。
すなわち、描画部151は、ズーム操作情報に基づいて、3次元直交空間座標(x,y,z)のz軸のスケール変更と、テクスチャ座標(u,v)のu軸のスケール変更の組み合わせで、写像変換fkを行う。
図8で示したように、頂点配列データの全ての座標(x,y,z)を写像変換後の座標(x’,y’,z’)に置き換える処理は、多量のデータの処理と書き換えが必要となる。
しかしながら、全天球画像のマッピング形式が正距円筒マッピングである場合には、上述したように、頂点データ変換部127を省略して、通常と同じ、拡大縮小無しの頂点配列データを描画部151に供給し、描画部151のスケールを変更するだけで、視聴者のズーム操作に応じた拡大縮小表示が可能となる。これにより、ズーム操作に応じた拡大縮小表示を、より簡単に実装することができるので、一般に少ないコード量による高速な動作が可能となる。
<2.第2の実施の形態>
(配信システムの第2の実施の形態の構成例)
次に、本開示の技術を適用した配信システムの第2の実施の形態について説明する。
第2の実施の形態に係る配信システム10の全体構成は、図1と同様であるので、その図示は省略する。
上述した全天球画像の拡大処理を行うと、見ている方向の解像度が必要となる一方、ヘッドマウントディスプレイ16の視界に入る範囲としては狭まるため、見ている方向と反対の方向は視界に入りづらくなる。
そこで、特定の方向の解像度を上げたマッピングを利用する viewport dependent projection mapping の手法が有効となる。viewport dependent projection mapping は、特定の方向の解像度が高くなるように偏った画素密度を持つ投影マッピングを使用し、高解像度方向が異なる投影マッピングのデータを視聴方向によって切り替えながら再生を行う手法である。viewport dependent projection mapping については、MPEG会合の2016年6月のGeneva会合で発行された Working Draft ” WD on ISO/IEC 23000-20 Omnidirectional Media Application Format”においても、“A.3.2.5 Truncated pyramid ”の章で記述されている。この手法では、正面エリアの割り当て画素が多く、解像度が高くなる。正面方向をいろいろな方向に向けたビットストリームを複数用意し、視聴者が向いている方向に応じてビットストリームが切り替えられながら、再生される。
以下で説明する配信システムの第2の実施の形態では、viewport dependent projection mapping のように、視聴者が見回す水平方向360度の範囲に対して、解像度を高くする方向を複数設定し、視聴者が向いている方向に応じて、用意した複数のビットストリームを切り替えながら、再生する構成が採用される。
具体的には、図20に示されるように、3Dモデルとしての球面を上から見て、球の中心から水平に4つの方向dir1乃至dir4を、解像度を高くする方向として設定し、4つの方向dir1乃至dir4に対応する4つの符号化ストリームと、拡大操作を行わない場合に使用される、全方向で均一な解像度を有する1つの符号化ストリームの5つの符号化ストリームを切り替えながら再生する場合について説明する。
図21は、第2の実施の形態に係る配信システム10の生成装置12の構成例を示すブロック図である。
図21の生成装置12は、スティッチング処理部21、マッピング変換部22−1乃至22−5、エンコーダ23−1乃至23−5、送信部24、回転処理部211−1乃至211−5、設定部212、および、テーブル生成部213により構成される。
図21において、図3の生成装置12と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
図21の生成装置12では、図3の生成装置12におけるスティッチング処理部21とマッピング変換部22との間に、回転処理部211が新たに挿入されており、回転処理部211、マッピング変換部22、および、エンコーダ23の組が、5個設けられている。この回転処理部211、マッピング変換部22、および、エンコーダ23の組の個数(5個)は、図20の4つの方向dir1乃至dir4を高解像度方向とした4つの符号化ストリームと、均一解像度の1本の符号化ストリームの計5本の符号化ストリームに対応する。
スティッチング処理部21は、生成した一枚の撮影画像を、回転処理部211−1乃至211−5に供給する。
回転処理部211−1乃至211−5は、スティッチング処理部21から供給されるフレーム単位の撮影画像(例えば、正距円筒画像)を、高解像度方向が画像の中心となるように画像中心を回転(移動)する。どの方向を高解像度方向とするかは、設定部212から指示される。回転処理部211−1乃至211−5は、設定部212から指示される方向が異なるだけである。
マッピング変換部22−1乃至22−5は、設定部212から供給される拡大率kに従い、回転処理部211−1乃至211−5から供給された撮影画像を、所定のマッピング形式にマッピングすることにより、画像中心の画素が拡大率kで高解像度に変換された全天球画像を生成する。生成された全天球画像において、画像中心と反対の(真後ろの)方向の解像度は、低解像度となっている。
図22は、マッピング変換部22−1乃至22−5で生成された5つの全天球画像の概念図である。
全天球画像231−1は、マッピング変換部22−1による処理後の画像であり、水平方向の周囲360度の全方向が均一な解像度の正距円筒画像である。全天球画像231−1の画像中心は、図20の方向dir1と一致する。
全天球画像231−2は、マッピング変換部22−2による処理後の画像であり、水平方向の周囲360度のうち、図20の方向dir1が高解像度になるように変換した正距円筒画像である。
全天球画像231−3は、マッピング変換部22−3による処理後の画像であり、水平方向の周囲360度のうち、図20の方向dir2が高解像度になるように変換した正距円筒画像である。
全天球画像231−4は、マッピング変換部22−4による処理後の画像であり、水平方向の周囲360度のうち、図20の方向dir3が高解像度になるように変換した正距円筒画像である。
全天球画像231−5は、マッピング変換部22−5による処理後の画像であり、水平方向の周囲360度のうち、図20の方向dir4が高解像度になるように変換した正距円筒画像である。
例えば全天球画像231−2では、均一解像度の全天球画像231−1と比較して、方向はそのままで画像中央が拡大され、中央から離れるにしたがって拡大率が下がって、後方が縮小された状態になっている。この拡大率を操作した全天球画像231−2を、歪みなく元の全天球として見られるように球面モデルにテクスチャとして貼りつけると、画素の密度差となり、方向dir1が高解像度の全天球画像が再生される。
エンコーダ23−1乃至23−5は、対応するマッピング変換部22−1乃至22−5から供給される全天球画像を、MPEG2方式やAVC方式などの所定の符号化方式で符号化し、符号化ストリームを生成する。
送信部24は、エンコーダ23−1乃至23−5から供給される全天球画像の符号化ストリームを、図1の配信サーバ13にアップロード(送信)する。このとき、エンコーダ23−1乃至23−5によって生成された5本の符号化ストリームは、動的に切り替えて再生されるため、エンコーダ23−1乃至23−5により生成される5本の符号化ストリームの間で、例えば、GOP(Group of Picture)の先頭ピクチャやIDRピクチャなどのシンクポイントは同一にされる。
設定部212は、水平方向の周囲360度に対して、並列に設けられた5個の回転処理部211、マッピング変換部22、および、エンコーダ23の組が、正面方向として扱う高解像度方向を決定する。具体的には、設定部212は、図20の方向dir1乃至dir4の4個の高解像度方向を決定し、回転処理部211−1乃至211−5に供給する。例えば、設定部212は、方向dir1を回転処理部211−1および211−2に供給し、方向dir2を回転処理部211−3に供給し、方向dir3を回転処理部211−4に供給し、方向dir4を回転処理部211−4に供給する。
また、設定部212は、水平方向の周囲360度の全方向を均一な解像度とする場合と比較して、高解像度方向をどれだけ高解像度とするかを示す拡大率kを決定し、マッピング変換部22−1乃至22−5に供給する。例えば、設定部212は、マッピング変換部22−1には、拡大率k=1.0を供給し、マッピング変換部22−2乃至22−5には、拡大率k=2.0を供給する。
さらに、設定部212は、回転処理部211−1乃至211−5に供給した5個の高解像度方向と、マッピング変換部22−1乃至22−5に供給した拡大率kをテーブル生成部213に供給する。
テーブル生成部213は、設定部212から供給される5個の高解像度方向を特定する情報と、拡大率kを特定する情報を、ストリームごとにまとめたテーブルを生成し、生成したテーブルを補助情報(メタ情報)として、送信部24に供給する。
図23は、テーブル生成部213によって生成される補助情報としてのテーブルの例を示している。
高解像度方向を特定する情報は、方位角θ、仰角φ、及び、回転角ψで定義され、拡大率を示す情報は、拡大率kで定義される。高解像度方向を、方位角θ、仰角φ、及び、回転角ψの3軸の回転の組み合わせで表現することにより、あらゆる回転の記述が可能である。拡大率kは最も解像度が高くなる点での拡大率に対応し、その点から離れると拡大率は下がっていく。拡大率の分布は viewport dependent projection mappingの方式によって様々な分布を取り得る。
図23のID1乃至ID5は、配信サーバ13に送信される5本の符号化ストリームを識別する識別情報であり、図22に示した全天球画像231−1乃至231−5に対応する。
ID1の符号化ストリームは、図22に示した全天球画像231−1に対応し、図20の方向dir1を画像中心として、画像中心の拡大率k=1.0、即ち、全方向に均一な解像度の正距円筒画像であることを表している。
ID2の符号化ストリームは、図22に示した全天球画像231−2に対応し、図20の方向dir1を画像中心として、その方向dir1の画素が拡大率k=2.0で拡大された正距円筒画像であることを表している。
ID3の符号化ストリームは、図22に示した全天球画像231−3に対応し、図20の方向dir2を画像中心として、その方向dir2の画素が拡大率k=2.0で拡大された正距円筒画像であることを表している。
ID4の符号化ストリームは、図22に示した全天球画像231−4に対応し、図20の方向dir3を画像中心として、その方向dir3の画素が拡大率k=2.0で拡大された正距円筒画像であることを表している。
ID5の符号化ストリームは、図22に示した全天球画像231−5に対応し、図20の方向dir4を画像中心として、その方向dir4の画素が拡大率k=2.0で拡大された正距円筒画像であることを表している。
送信部24は、エンコーダ23−1乃至23−5から供給される合計5本の符号化ストリームとともに、テーブル生成部213から供給される補助情報も、図1の配信サーバ13にアップロード(送信)する。
なお、図21の生成装置12の例では、高解像度方向の設定数を予め4個に決定し、生成装置12内に、回転処理部211、マッピング変換部22、および、エンコーダ23の組を、高解像度画像用4組と均一解像度画像用1組の計5組設けた構成を採用することとするが、設定部212が決定する任意の個数の高解像度方向に対応して、回転処理部211、マッピング変換部22、および、エンコーダ23それぞれの個数が可変する構成としてもよい。
図21では、設定部212から、回転処理部211−1乃至211−5およびマッピング変換部22−1乃至22−5に所定のデータ(高解像度方向、拡大率)を供給する供給線の図示が省略されている。
(配信サーバと再生装置の構成例)
図24は、第2の実施の形態に係る配信システム10の配信サーバ13と再生装置15の構成例を示すブロック図である。
図24において、図4と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
配信サーバ13は、受信部101、ストレージ251、および、送受信部252により構成される。
受信部101は、図1の生成装置12からアップロードされた5本の符号化ストリーム、および、補助情報を受信し、ストレージ251に供給する。
ストレージ251は、受信部101から供給される5本の符号化ストリーム、および、補助情報を記憶する。
送受信部252は、再生装置15からの要求に応じて、ストレージ251に記憶されている補助情報を読み出し、ネットワーク14を介して再生装置15に送信する。
また、送受信部252は、再生装置15からの要求に応じて、ストレージ251に記憶されている5本の符号化ストリームのうちの所定の1本の符号化ストリームを読み出し、ネットワーク14を介して再生装置15に送信する。送受信部252が再生装置15に送信する1本の符号化ストリームは、再生装置15からの要求に応じて適宜変更される。
なお、送信する符号化ストリームの変更は、シンクポイントで行われる。従って、送信する符号化ストリームの変更は、数フレームから数十フレーム単位で行われる。また、上述したように、5本の符号化ストリームの間でシンクポイントは同一である。従って、送受信部252は、送信する符号化ストリームをシンクポイントで切り替えることにより、再生装置15において、再生する撮影画像の切り替えを容易に行うことができる。
再生装置15は、カメラ15A、送受信部121、デコーダ122、受け取り部124、視線検出部125、頂点データ変換部127、描画部128、ストリーム判定部271、3Dモデル生成部272、および、マッピング処理部273により構成される。
したがって、第1の実施の形態における再生装置15と比較すると、第2の実施の形態における再生装置15では、3Dモデル生成部126およびマッピング処理部123が3Dモデル生成部272およびマッピング処理部273に変更され、ストリーム判定部271が新たに設けられている。
ストリーム判定部271には、送受信部121から補助情報が供給される。また、ストリーム判定部271には、受け取り部124からズーム操作情報が供給され、視線検出部125から視聴者の視線方向が供給される。
ストリーム判定部271(選択部)は、視聴者の視線方向、ズーム操作情報、および、補助情報に基づいて、配信サーバ13から取得可能な5本の符号化ストリームのなかから、所定の1本の符号化ストリームを決定(選択)する。
より具体的には、ストリーム判定部271は、ズーム操作が行われていない場合には、図23のID1のストリームを要求ストリームとして決定し、ズーム操作が行われている場合には、視聴者の視線方向に対応したID2乃至ID5いずれかのストリームを要求ストリームに決定する。
ストリーム判定部271は、選択した符号化ストリームを示すストリーム選択情報を送受信部121に供給する。送受信部121は、ストリーム判定部271からのストリーム選択情報を、ネットワーク14を介して配信サーバ13に送信する。
ストリーム選択情報に従って、配信サーバ13から送信されてくる符号化ストリームが変更された場合、送受信部121から、3Dモデル生成部272とマッピング処理部273に符号化ストリームが変更されたことを示すストリーム情報が供給される。
3Dモデル生成部272は、配信サーバ13から送信されてくる符号化ストリームに対応した3Dメッシュモデルのデータを生成し、頂点データ変換部127に供給する。より具体的には、3Dモデル生成部272は、3Dモデルの各頂点の座標(x,y,z)とそれに対応するテクスチャ座標(u,v)とからなる頂点配列データの各頂点の座標(x,y,z)を、高解像度方向を示す方向dir1乃至dir4に基づいて回転補正した頂点配列データを生成し、頂点データ変換部127に供給する。
マッピング処理部273は、デコーダ122から供給される全天球画像の画像中央が拡大率kで高解像度になるように補正したUVマッピングモデルに基づいて、テクスチャ座標(u,v)に対応したテクスチャデータ(R,G,B)を生成する。
なお、送信されてきた符号化ストリームの高解像度方向と拡大率kは、ストリーム判定部271から供給されてもよいし、送信されてきた符号化ストリームのメタデータに含まれた内容に基づいて、送受信部121から、ストリーム情報の一部として供給されてもよい。
図24の配信サーバ13および再生装置15のその他の構成は、図4における配信サーバ13および再生装置15と同様である。
(生成装置の処理の説明)
図25は、図21の生成装置12による生成処理を説明するフローチャートである。この処理は、例えば、撮影装置11の6個のカメラ11A−1乃至11A−6で撮影された6方向の動画像が供給されたとき開始される。
初めに、ステップS61において、スティッチング処理部21は、フレームごとに、各カメラ11Aから供給される6方向の撮影画像の色や明るさを同一にし、重なりを除去して接続し、一枚の撮影画像に変換する。スティッチング処理部21は、一枚の撮影画像として、例えば正距円筒画像を生成し、フレーム単位の正距円筒画像を回転処理部211に供給する。
ステップS62において、設定部212は、5個の高解像度方向と拡大率を決定する。設定部212は、決定した5個の高解像度方向を回転処理部211−1乃至22−5に1つずつ供給し、決定した拡大率をマッピング処理部22−1乃至22−5に供給する。具体的には、図20の方向dir1が回転処理部211−1および211−2に供給され、図20の方向dir2が回転処理部211−3に供給され、図20の方向dir3が回転処理部211−4に供給され、図20の方向dir4が回転処理部211−4に供給される。拡大率に関しては、マッピング変換部22−1には、拡大率k=1.0が供給され、マッピング変換部22−2乃至22−5には、拡大率k=2.0が供給される。また、設定部212は、決定した5個の高解像度方向と拡大率をテーブル生成部213にも供給する。
ステップS63において、回転処理部211は、スティッチング処理部21から供給されたフレーム単位の撮影画像(例えば、正距円筒画像)を、設定部212で指示された高解像度方向が画像の中心となるように回転する。
ステップS64において、マッピング処理部22は、回転処理部211により回転された撮影画像を、所定の3Dモデルにマッピングするためのマッピング形式に変換するマッピング変換処理を行う。マッピング変換処理では、撮影画像の中央部が拡大率kに従って最も解像度が高くなるようにマッピングされる。
ステップS65において、エンコーダ23は、マッピング処理部22から供給された全天球画像をMPEG2方式やAVC方式などの所定の符号化方式で符号化し、1本の符号化ストリームを生成する。エンコーダ23は、生成した1本の符号化ストリームを送信部24に供給する。
ステップS63乃至S65の処理は、5個ずつ設けられた回転処理部211、マッピング処理部22、および、エンコーダ23において並列に実行され、合計5本の符号化ストリームが送信部24に供給される。
ステップS66において、テーブル生成部213は、5個の高解像度方向を特定する情報と、拡大率を示す情報をストリームごとにまとめたパラメータテーブルを補助情報として生成し、送信部24に供給する。
ステップS67において、送信部24は、5個のエンコーダ23から供給された合計5本の符号化ストリーム、および、テーブル生成部213から供給された補助情報を、配信サーバ13にアップロードする。
(再生装置の処理の説明)
図26は、図24の再生装置15による再生処理を説明するフローチャートである。この再生処理は、例えば、再生装置15において電源オンや処理開始操作が検出されたとき開始される。
初めに、ステップS101において、送受信部121は、配信サーバ13に補助情報を要求し、その要求に応じて配信サーバ13の送受信部252から送信されてくる補助情報を受け取る。送受信部121は、取得した補助情報をストリーム判定部271に供給する。
ステップS102において、受け取り部124は、図1のジャイロセンサ16Bの検出結果をヘッドマウントディスプレイ16から受け取り、視線検出部125に供給する。
ステップS103において、視線検出部125は、受け取り部124から供給されるジャイロセンサ16Bの検出結果に基づいて、3Dモデルの座標系における視聴者の視線方向を決定し、ストリーム判定部271に供給する。
ステップS104において、視線検出部125は、3Dモデルの座標系における視聴者の視聴位置と視野範囲を決定し、描画部128に供給する。より具体的には、視線検出部125は、カメラ15Aからマーカ16Aの撮影画像を取得し、その撮影画像に基づいて3Dモデルの座標系における視聴位置を検出する。そして、視線検出部125は、検出した視聴位置と視線方向に基づいて、3Dモデル座標系における視聴者の視野範囲を決定する。
ステップS105において、受け取り部124は、ヘッドマウントディスプレイ16からズーム操作情報を受け取り、頂点データ変換部127およびストリーム判定部271に供給する。
ステップS106において、ストリーム判定部271は、視聴者の視線方向、ズーム操作の有無、および、補助情報に基づいて、配信サーバ13から取得可能な5本の符号化ストリームのなかから、1本の符号化ストリームを決定(選択)する。そして、ストリーム判定部271は、選択した符号化ストリームを示すストリーム選択情報を送受信部121に供給する。
ステップS107において、送受信部121は、ストリーム判定部271から供給されたストリーム選択情報に対応する1本の符号化ストリームを、ネットワーク14を介して配信サーバ13に要求し、その要求に応じて配信サーバ13の送受信部252から送信されてくる1本の符号化ストリームを受け取る。送受信部121は、取得した1本の符号化ストリームをデコーダ122に供給する。また、送受信部121は、ストリームが変更されたことを示すストリーム情報を3Dモデル生成部272とマッピング処理部273に供給する。
ステップS108において、デコーダ122は、送受信部121から供給された符号化ストリームを復号し、全天球画像を生成する。デコーダ122は、生成した全天球画像をマッピング処理部273に供給する。
ステップS109において、マッピング処理部273は、デコーダ122から供給された全天球画像を用いて、所定の3Dモデルのテクスチャ座標(u,v)に対応したテクスチャデータ(R,G,B)を生成する。この際、マッピング処理部273は、送受信部121から供給されたストリーム情報に基づいて、全天球画像の画像中央が拡大率kで高解像度になるように補正したUVマッピングモデルに基づくテクスチャデータ(R,G,B)を生成する。なお、拡大率kが1.0である場合には、テクスチャデータ(R,G,B)は、拡大縮小無し、すなわち、均一解像度のテクスチャデータとなる。マッピング処理部273は、生成したテクスチャデータを、描画部128がアクセス可能なテクスチャバッファに格納することで、描画部128にテクスチャデータを供給する。
ステップS110において、3Dモデル生成部272は、仮想的な3D空間の3Dメッシュモデルのデータを生成し、頂点データ変換部127に供給する。この3Dメッシュモデルのデータは、図7に示したように、3Dモデルの各頂点の座標(x,y,z)とそれに対応するテクスチャ座標(u,v)とからなる頂点配列データの各頂点の座標(x,y,z)を、高解像度方向を示す方向dir1乃至dir4に基づいて回転補正した頂点配列データとなる。
ステップS111において、頂点データ変換部127は、受け取り部124から供給されたズーム操作情報に基づいて、頂点データ変換処理を実行する。この頂点データ変換処理は、図17のステップS38乃至S42で実行される処理と同様である。具体的には、頂点データ変換部127は、ズーム操作が行われていない場合には、3Dモデル生成部272から供給された頂点配列データを、そのまま、描画部128に供給する。一方、ズーム操作が行われた場合には、頂点データ変換部127は、3Dモデル生成部272から供給された直交座標系の頂点配列データを円柱座標系に変換して、ズーム操作に対応する写像変換fkを行った後、円柱座標系の頂点配列データを再び直交座標系に戻して、描画部128に供給する。
ステップS112において、描画部128は、頂点データ変換部127(の直交座標変換部143)から供給された頂点配列データ、マッピング処理部273から供給されたテクスチャデータ(R,G,B)、および、視線検出部125から供給された視聴者の視野範囲に基づいて、3Dモデル画像を視聴者の視野範囲に透視投影することにより、表示画像を生成する。
ステップS113において、描画部128は、表示画像をヘッドマウントディスプレイ16に送信して表示させる。
ステップS114において、再生装置15は、再生を終了するかを判定する。例えば、再生装置15は、視聴者により再生を終了する操作が行われたとき、再生を終了すると判定する。
ステップS114で再生を終了しないと判定された場合、処理はステップS102に戻り、上述したステップS102乃至S114の処理が繰り返される。一方、ステップS114で再生を終了すると判定された場合、再生処理が終了される。
以上の再生処理によれば、視聴者がズーム操作(拡大操作)を行っていない場合、再生装置15のストリーム判定部271は、均一解像度の全天球画像231−1に対応するストリームを選択し、配信サーバ13に要求する。そして、均一解像度の全天球画像231−1を貼り付けた球面モデルを視聴者の視野範囲に透視投影した画像が、表示画像として、ヘッドマウントディスプレイ16に表示される。
一方、視聴者がズーム操作(拡大操作)を行った場合、再生装置15のストリーム判定部271は、視聴者の視線方向に最も近い方向dir1乃至dir4を選択し、選択された方向(方向dir1乃至dir4のいずれか)を高解像度方向として有する全天球画像(全天球画像231−2乃至231−5のいずれか)に対応するストリームを選択し、配信サーバ13に要求する。そして、取得した画像中央が高解像度になっている全天球画像(全天球画像231−2乃至231−5のいずれか)を貼り付けた球面モデルを視聴者の視野範囲に透視投影した画像を、表示画像として、ヘッドマウントディスプレイ16に表示させる。
視聴者が縮小操作を行った場合には、第1の実施の形態と同様に、頂点データ変換部127による頂点データ変換処理により、均一解像度の全天球画像231−1を縮小して貼り付けた球面モデルを用いて、表示画像が生成される。
上述した第1および第2の実施の形態の配信システムによれば、拡縮操作が行われた場合、頂点データ変換部127が、座標(x,y,z)とテクスチャ座標(u,v)の5要素の頂点配列データを、拡大率kに応じた座標(x’,y’,z’)とテクスチャ座標(u,v)の5要素の頂点配列データに変換して再配置する頂点データ変換処理を行うだけである。3Dモデルの内部から見回すように視聴者の視野範囲の透視投影画像を生成する描画部128の処理は、拡縮操作を行わない場合と何ら変わらない。
頂点データ変換部127は、全天球画像の拡大縮小を行うために、鉛直方向(鉛直方向z)とそれを軸とする水平回転方向(方位角θ)とに分けて、それぞれに対して独立に、座標変換処理を行う。換言すれば、頂点データ変換部127は、水平回転方向(方位角θ)に対してk倍し、鉛直方向(鉛直方向z)に対してk倍する写像変換fkを行う。
鉛直方向である直交座標系(x,y,z)のz軸を重力方向とすることで、z=0の平面が地面のような水平面となり、座標変換処理の前後において、重力方向および水平方向が維持されるので、景色の傾きによる酔いが発生するのを抑制することができる。換言すれば、頭の回転角と画像の回転角の不一致が生じないので、酔いの発生を抑制した画像の拡大縮小表示を行うことができる。
写像変換fkにおける拡大率kは連続的に可変であり、動画再生途中でも変化させることが可能である。拡大率変更中も鉛直方向が保たれるので、酔いが発生しにくい。視聴者が拡大操作を行うと、水平方向の画像が360度以上になるが、水平方向の画像が常に連続するように描画を行う実装では、拡大された倍率の分だけ余分に回転することで、記録された全方向が視聴可能となる。一方、縮小操作をすると、水平方向の画像が360度以下になり、より少ない首の回転で全周の画像の視聴が可能となる。
<3.その他の変形例>
(符号化ストリームの他の例)
上述した各実施の形態において、符号化ストリームとして伝送する全天球画像は、視聴者の右目と左目に同一の画像を表示する2D画像用の全天球画像であったが、左目用の全天球画像と右目用の全天球画像を合成(パッキング)した3D画像用の全天球画像であってもよい。
具体的には、図27のAに示すように、全天球画像は、例えば、左目用の全天球画像421と右目用の全天球画像422が横方向(水平方向)にパッキングされたパッキング画像420であってもよい。
また、図27のBに示すように、全天球画像は、例えば、左目用の全天球画像421と右目用の全天球画像422が縦方向(垂直方向)にパッキングされたパッキング画像440であってもよい。
左目用の全天球画像421は、球にマッピングされた左目用の視点の全天球画像を球の中心を焦点として、左目の視野範囲に透視投影することにより得られる画像である。また、右目用の全天球画像422は、球にマッピングされた右目用の視点の全天球画像を球の中心を焦点として、右目の視野範囲に透視投影することにより得られる画像である。
全天球画像がパッキング画像である場合、図4のマッピング処理部123は、デコーダ122による復号の結果得られるパッキング画像を左目用の全天球画像と右目用の全天球画像に分離する。そして、マッピング処理部123は、左目用の視点および右目用の視点のそれぞれについてテクスチャデータ(R,G,B)を生成し、描画部128は、左目用の視点および右目用の視点のそれぞれについて、3Dモデル画像を用いて表示画像を生成する。
これにより、ヘッドマウントディスプレイ16は、3D表示可能である場合、左目用の視点および右目用の視点の表示画像を、それぞれ、左目用の画像、右目用の画像として表示することにより、表示画像を3D表示することができる。
(ライブ配信の例)
上述した各実施の形態では、生成装置12が生成した1本以上の符号化ストリームおよび補助情報が、一度、配信サーバ13のストレージ102または251に記憶され、再生装置15からの要求に応じて、配信サーバ13が、符号化ストリームおよび補助情報を再生装置15に送信するようにした。
しかしながら、生成装置12によって生成された1本以上の符号化ストリームおよび補助情報が、配信サーバ13のストレージ102または251に記憶されることなく、リアルタイム配信(ライブ配信)されるようにしてもよい。この場合、配信サーバ13の受信部101で受信されたデータが、即座に送受信部103または252から再生装置15に送信される。
(その他)
さらに、上述した実施の形態では、撮影画像は動画像であるものとしたが、静止画像であってもよい。また、上述した実施の形態では、360度(全方位)を撮影した全天球画像を用いた例で説明したが、本開示に係る技術は全方位をカバーする画像に限らず、360度より狭い範囲の広角画像(いわゆるパノラマ画像)全般に適用することができる。広角画像には、360度(全方位)を撮影した全天球画像、全天周画像、全方位画像、360度パノラマ画像などを含む。
配信システム10は、ヘッドマウントディスプレイ16の代わりに、設置型ディスプレイを有するようにしてもよい。この場合、再生装置15はカメラ15Aを有さず、視聴位置および視線方向は、視聴者によるコントローラ16Cの操作情報に基づいて検出される。
また、配信システム10は、再生装置15とヘッドマウントディスプレイ16の代わりに、モバイル端末を有するようにしてもよい。この場合、モバイル端末は、カメラ15A以外の再生装置15の処理を行い、モバイル端末が有するディスプレイに表示画像を表示させる。視聴者は、視聴位置および視線方向をモバイル端末の姿勢を変化させることにより入力し、モバイル端末は、内蔵するジャイロセンサにモバイル端末の姿勢を検出させることにより、入力された視聴位置および視線方向を取得する。
<4.コンピュータ構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図28は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本開示は以下のような構成も取ることができる。
(1)
広角画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える
再生装置。
(2)
前記3Dモデル生成部は、鉛直方向と、それを軸とする水平回転方向に分けて、それぞれの方向に対して独立に座標変換処理を行うことにより、前記拡大縮小用の3Dモデルを生成する
前記(1)に記載の再生装置。
(3)
前記3Dモデル生成部は、前記鉛直方向と前記水平回転方向を、同じ拡大率で前記座標変換処理を行う
前記(2)に記載の再生装置。
(4)
前記3Dモデル生成部は、直交座標系を円柱座標系に変換して座標変換処理を行った後、前記直交座標系に戻すことにより、前記拡大縮小用の3Dモデルを生成する
前記(1)乃至(3)のいずれかに記載の再生装置。
(5)
前記3Dモデル生成部は、k倍に拡大した場合、視聴者が水平回転方向にk周すると、元の広角画像の1周分が見えるように、前記拡大縮小用の3Dモデルを生成する
前記(1)乃至(4)のいずれかに記載の再生装置。
(6)
前記3Dモデル生成部は、1/k倍に縮小した場合、視聴者が水平回転方向に1周すると、元の広角画像のk周分が見えるように、前記拡大縮小用の3Dモデルを生成する
前記(1)乃至(5)のいずれかに記載の再生装置。
(7)
前記3Dモデル生成部は、k倍に拡大した場合、360度を超える画像を切り捨てるように、前記拡大縮小用の3Dモデルを生成する
前記(1)乃至(4)のいずれかに記載の再生装置。
(8)
前記拡大縮小用の3Dモデルは、球面モデルである
前記(1)乃至(7)のいずれかに記載の再生装置。
(9)
前記拡大縮小用の3Dモデルは、立方体モデルである
前記(1)乃至(7)のいずれかに記載の再生装置。
(10)
全方向に均一な解像度を有する第1の広角画像、または、所定の方向に高解像度な第2の広角画像を、視聴者の広角画像の拡大縮小操作に応じて選択する選択部をさらに備え、
前記3Dモデル生成部は、選択された前記第1の広角画像または前記第2の広角画像を用いて、前記拡大縮小用の3Dモデルを生成する
前記(1)乃至(9)のいずれかに記載の再生装置。
(11)
前記3Dモデル生成部は、前記広角画像の拡大操作が行われた場合に、前記第2の広角画像を用いて、前記拡大縮小用の3Dモデルを生成する
前記(10)に記載の再生装置。
(12)
再生装置が、
広角画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルを生成する
再生方法。
(13)
広角画像の拡大縮小が選択された場合に拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える再生装置で用いるための所定の3Dモデルにマッピングされた前記広角画像を生成する広角画像生成部を備える
生成装置。
(14)
前記広角画像生成部は、前記広角画像として、全方向に均一な解像度を有する第1の広角画像を生成する
前記(13)に記載の生成装置。
(15)
前記広角画像生成部は、前記広角画像として、所定の方向が高解像度に設定された第2の広角画像をさらに生成する
前記(14)に記載の生成装置。
(16)
前記第2の広角画像の高解像度な方向を特定する情報と、高解像度の比率を表す拡大率を特定する情報を、補助情報として生成する補助情報生成部と、
前記第1の広角画像、前記第2の広角画像、および、前記補助情報を、前記再生装置に送信する送信部と
をさらに備える
前記(15)に記載の生成装置。
(17)
前記所定の3Dモデルは、球面モデルである
前記(13)乃至(16)のいずれかに記載の生成装置。
(18)
前記所定の3Dモデルは、立方体モデルである
前記(13)乃至(16)のいずれかに記載の生成装置。
(19)
生成装置が、
広角画像の拡大縮小が選択された場合に拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える再生装置で用いるための所定の3Dモデルにマッピングされた前記広角画像を生成する
生成方法。
10 配信システム, 12 生成装置, 13 配信サーバ, 15 再生装置, 16 ヘッドマウントディスプレイ, 22 マッピング変換部, 23 エンコーダ, 24 送信部, 121 送受信部, 122 デコーダ, 123 マッピング処理部, 124 受け取り部, 125 視線検出部, 126 3Dモデル生成部, 127 頂点データ変換部, 128 描画部, 141 円柱座標変換部, 142 スケーリング部, 143 直交座標変換部, 151 描画部, 211 回転処理部, 212 設定部, 213 テーブル生成部, 271 ストリーム判定部, 272 3Dモデル生成部, 273 マッピング処理部, 900 コンピュータ, 901 CPU, 902 ROM, 903 RAM, 906 入力部, 907 出力部, 908 記憶部, 909 通信部, 910 ドライブ

Claims (19)

  1. 広角画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える
    再生装置。
  2. 前記3Dモデル生成部は、鉛直方向と、それを軸とする水平回転方向に分けて、それぞれの方向に対して独立に座標変換処理を行うことにより、前記拡大縮小用の3Dモデルを生成する
    請求項1に記載の再生装置。
  3. 前記3Dモデル生成部は、前記鉛直方向と前記水平回転方向を、同じ拡大率で前記座標変換処理を行う
    請求項2に記載の再生装置。
  4. 前記3Dモデル生成部は、直交座標系を円柱座標系に変換して座標変換処理を行った後、前記直交座標系に戻すことにより、前記拡大縮小用の3Dモデルを生成する
    請求項1に記載の再生装置。
  5. 前記3Dモデル生成部は、k倍に拡大した場合、視聴者が水平回転方向にk周すると、元の広角画像の1周分が見えるように、前記拡大縮小用の3Dモデルを生成する
    請求項1に記載の再生装置。
  6. 前記3Dモデル生成部は、1/k倍に縮小した場合、視聴者が水平回転方向に1周すると、元の広角画像のk周分が見えるように、前記拡大縮小用の3Dモデルを生成する
    請求項1に記載の再生装置。
  7. 前記3Dモデル生成部は、k倍に拡大した場合、360度を超える画像を切り捨てるように、前記拡大縮小用の3Dモデルを生成する
    請求項1に記載の再生装置。
  8. 前記拡大縮小用の3Dモデルは、球面モデルである
    請求項1に記載の再生装置。
  9. 前記拡大縮小用の3Dモデルは、立方体モデルである
    請求項1に記載の再生装置。
  10. 全方向に均一な解像度を有する第1の広角画像、または、所定の方向に高解像度な第2の広角画像を、視聴者の広角画像の拡大縮小操作に応じて選択する選択部をさらに備え、
    前記3Dモデル生成部は、選択された前記第1の広角画像または前記第2の広角画像を用いて、前記拡大縮小用の3Dモデルを生成する
    請求項1に記載の再生装置。
  11. 前記3Dモデル生成部は、前記広角画像の拡大操作が行われた場合に、前記第2の広角画像を用いて、前記拡大縮小用の3Dモデルを生成する
    請求項10に記載の再生装置。
  12. 再生装置が、
    広角画像の拡大縮小が選択された場合に、拡大縮小用の3Dモデルを生成する
    再生方法。
  13. 広角画像の拡大縮小が選択された場合に拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える再生装置で用いるための所定の3Dモデルにマッピングされた前記広角画像を生成する広角画像生成部を備える
    生成装置。
  14. 前記広角画像生成部は、前記広角画像として、全方向に均一な解像度を有する第1の広角画像を生成する
    請求項13に記載の生成装置。
  15. 前記広角画像生成部は、前記広角画像として、所定の方向が高解像度に設定された第2の広角画像をさらに生成する
    請求項14に記載の生成装置。
  16. 前記第2の広角画像の高解像度な方向を特定する情報と、高解像度の比率を表す拡大率を特定する情報を、補助情報として生成する補助情報生成部と、
    前記第1の広角画像、前記第2の広角画像、および、前記補助情報を、前記再生装置に送信する送信部と
    をさらに備える
    請求項15に記載の生成装置。
  17. 前記所定の3Dモデルは、球面モデルである
    請求項13に記載の生成装置。
  18. 前記所定の3Dモデルは、立方体モデルである
    請求項13に記載の生成装置。
  19. 生成装置が、
    広角画像の拡大縮小が選択された場合に拡大縮小用の3Dモデルを生成する3Dモデル生成部を備える再生装置で用いるための所定の3Dモデルにマッピングされた前記広角画像を生成する
    生成方法。
JP2019549204A 2017-10-20 2018-10-05 再生装置および方法、並びに、生成装置および方法 Active JP7243631B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017203234 2017-10-20
JP2017203234 2017-10-20
PCT/JP2018/037328 WO2019078033A1 (ja) 2017-10-20 2018-10-05 再生装置および方法、並びに、生成装置および方法

Publications (2)

Publication Number Publication Date
JPWO2019078033A1 true JPWO2019078033A1 (ja) 2020-11-05
JP7243631B2 JP7243631B2 (ja) 2023-03-22

Family

ID=66173885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019549204A Active JP7243631B2 (ja) 2017-10-20 2018-10-05 再生装置および方法、並びに、生成装置および方法

Country Status (6)

Country Link
US (1) US11270413B2 (ja)
JP (1) JP7243631B2 (ja)
KR (1) KR20200064998A (ja)
CN (1) CN111226264A (ja)
DE (1) DE112018004592T5 (ja)
WO (1) WO2019078033A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114342367A (zh) * 2019-09-13 2022-04-12 索尼集团公司 再现装置、再现方法和记录介质
US11417004B2 (en) * 2020-08-24 2022-08-16 Vmware, Inc. Variable transforms for three-dimensional engines
US20230018560A1 (en) * 2021-07-19 2023-01-19 Lifecast Incorporated Virtual Reality Systems and Methods
JP2023061262A (ja) * 2021-10-19 2023-05-01 キヤノン株式会社 画像表示システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012893A (ja) * 2011-06-29 2013-01-17 Panasonic Corp 画像変換装置、カメラ、画像変換方法およびプログラム
WO2018225804A1 (ja) * 2017-06-08 2018-12-13 ナーブ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3641747B2 (ja) 2001-10-23 2005-04-27 ヴイストン株式会社 画像表示方法及び画像表示装置
WO2003041011A2 (en) * 2001-11-08 2003-05-15 Eyesee360, Inc. Method and apparatus for the computation of panoramic views and _perspective projections from omnidirectional images
JP2004013326A (ja) 2002-06-04 2004-01-15 Canon Inc 画像処理装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP4109076B2 (ja) * 2002-06-06 2008-06-25 Sriスポーツ株式会社 曲面体の回転量と回転軸方向の測定方法、及び、曲面体の回転量と回転軸方向の測定装置
GB0230328D0 (en) * 2002-12-31 2003-02-05 British Telecomm Video streaming
JP2015125502A (ja) 2013-12-25 2015-07-06 ソニー株式会社 画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
KR102611448B1 (ko) * 2014-05-29 2023-12-07 네버마인드 캐피탈 엘엘씨 콘텐트를 전달 및/또는 콘텐트를 재생하기 위한 방법들 및 장치
WO2016013272A1 (ja) * 2014-07-23 2016-01-28 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP6339887B2 (ja) 2014-07-24 2018-06-06 シャープ株式会社 画像表示装置
JP6685995B2 (ja) 2015-03-05 2020-04-22 ソニー株式会社 画像処理装置および画像処理方法
KR102191875B1 (ko) * 2017-03-20 2020-12-16 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
KR102277267B1 (ko) * 2017-03-29 2021-07-14 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
WO2018217057A1 (ko) * 2017-05-26 2018-11-29 엘지전자 주식회사 360 비디오 처리 방법 및 그 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012893A (ja) * 2011-06-29 2013-01-17 Panasonic Corp 画像変換装置、カメラ、画像変換方法およびプログラム
WO2018225804A1 (ja) * 2017-06-08 2018-12-13 ナーブ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム

Also Published As

Publication number Publication date
WO2019078033A1 (ja) 2019-04-25
KR20200064998A (ko) 2020-06-08
JP7243631B2 (ja) 2023-03-22
CN111226264A (zh) 2020-06-02
US11270413B2 (en) 2022-03-08
US20200334788A1 (en) 2020-10-22
DE112018004592T5 (de) 2020-08-27

Similar Documents

Publication Publication Date Title
US11528468B2 (en) System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
JP7009605B2 (ja) パノラマビデオのための提案されるビューポート指示
CN111164969B (zh) 使用拼接和重新投影相关元数据发送或接收6dof视频的方法和装置
CN107439010B (zh) 流传输球形视频
CN112204993B (zh) 使用重叠的被分区的分段的自适应全景视频流式传输
US11699211B2 (en) Spherical rotation for encoding wide view video
US10958834B2 (en) Method to capture, store, distribute, share, stream and display panoramic image or video
JP7243631B2 (ja) 再生装置および方法、並びに、生成装置および方法
JP2019526178A (ja) 空間的にタイリングされた全方位ビデオのストリーミング
WO2019131577A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7218826B2 (ja) 再生装置および画像生成方法
WO2012166593A2 (en) System and method for creating a navigable, panoramic three-dimensional virtual reality environment having ultra-wide field of view
JP7177034B2 (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20200331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151