JPWO2016140083A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JPWO2016140083A1
JPWO2016140083A1 JP2017503420A JP2017503420A JPWO2016140083A1 JP WO2016140083 A1 JPWO2016140083 A1 JP WO2016140083A1 JP 2017503420 A JP2017503420 A JP 2017503420A JP 2017503420 A JP2017503420 A JP 2017503420A JP WO2016140083 A1 JPWO2016140083 A1 JP WO2016140083A1
Authority
JP
Japan
Prior art keywords
image
resolution
unit
encoded stream
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017503420A
Other languages
English (en)
Other versions
JP6688469B2 (ja
Inventor
伸明 泉
伸明 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016140083A1 publication Critical patent/JPWO2016140083A1/ja
Application granted granted Critical
Publication of JP6688469B2 publication Critical patent/JP6688469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/39Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)

Abstract

本開示は、ユーザの視野範囲の画像を即座に表示させることができるようにする画像処理装置および画像処理方法に関する。エンコーダは、全方向の画像から生成された立方体の複数の面の画像からなる全天球画像を面ごとに高解像度で符号化し、各面に対応する高解像度符号化ストリームを生成する。エンコーダは、全天球画像を低解像度で符号化し、低解像度符号化ストリームを生成する。本開示は、例えば、全天球画像を生成し、ユーザの視野範囲の画像を表示する画像表示システム等に適用することができる。

Description

本開示は、画像処理装置および画像処理方法に関し、特に、ユーザの視野範囲の画像を即座に表示させることができるようにした画像処理装置および画像処理方法に関する。
マルチカメラにより撮影された全方向の撮影画像から、水平方向の周囲360度および垂直方向の周囲180度の画像を2D画像(平面画像)にマッピングした全天球画像を生成し、符号化して記録する記録装置がある(例えば、特許文献1参照)。
このような記録装置では、全天球画像の生成方法として、正距円筒図法やキューブマッピングなどの3D画像から2D画像にマッピングを行う方法が用いられる。全天球画像の生成方法として正距円筒図法が用いられる場合、全天球画像は、撮影画像を球の面にマッピングしたときの球の正距円筒図法による画像である。また、全天球画像の生成方法としてキューブマッピングが用いられる場合、全天球画像は、撮影画像を立方体(キューブ)の面にマッピングしたときの立方体の展開図の画像である。
一方、記録装置により記録された全天球画像の符号化ストリームを復号し、その結果得られる全天球画像を用いてユーザの視野範囲の画像を表示させる再生装置がある。このような再生装置は、全天球画像を球や立方体などの3Dモデルの表面上にテクスチャとして貼り付け、その3Dモデルの内部の1点から、ユーザの視線ベクトルの方向の3Dモデルの表面のテクスチャを見たときのユーザの視野範囲の画像を表示させる。これにより、ユーザの視野範囲の撮影画像を再現する。
この再現方法は、CG(Computer Graphics)の分野では、環境光モデルと呼ばれる。また、正距円筒図法で生成された画像を球の表面に貼る環境光モデルは、Sphere Modelと呼ばれ、キューブマッピングで生成された画像を立方体の表面に貼る環境光モデルは、Cube Modelと呼ばれる。
ユーザの視野範囲の撮影画像は、全天球画像のうちの、ユーザの視線ベクトルに対応する領域のみを用いて再現することができる。例えば、水平方向の視野角が90度である場合、水平方向については、水平方向の周囲360度の全方向の画像がマッピングされている全天球画像のうちの4分の1しか、ユーザの視野範囲の撮影画像の再現に用いられない。垂直方向についても同様である。
従って、全天球画像全体の符号化ストリームを復号することは無駄が多い。しかしながら、視線ベクトルはユーザによって決められるため、記録装置は、全天球画像のうちの視線ベクトルに対応する領域のみを符号化することはできない。
また、全天球画像が、MPEG2(Moving Picture Experts Group phase 2)やAVC(Advanced Video Coding)/H.264などの一般的な符号化方式で符号化される場合、画面全体の情報を用いて符号化が行われる。従って、全天球画像が1枚の画像として符号化された符号化ストリームから、ユーザの視線ベクトルに対応する領域の符号化ストリームのみを復号することは難しい。
そこで、記録装置が、全天球画像を分割して符号化し、再生装置が、ユーザの視線ベクトルに対応する分割領域の符号化ストリームのみを復号することにより、復号処理量を軽減することが考えられている(例えば、特許文献2および特許文献3)。
特開2006−14174号公報 特開2001−298652号公報 特開2002−312778号公報
しかしながら、MPEG2やAVCなどの一般的な符号化方式では、時間方向の相関性を利用して符号化が行われる。従って、GOP(Group of Picture)の先頭、IDRピクチャやRandom Access Pointなどのランダムアクセス可能位置以外で復号対象の符号化ストリームの切り替えを行うことはできない。また、ランダムアクセス可能位置の間隔が長いほど圧縮効率は向上するため、ランダムアクセス可能位置の間隔を十分に短くすることは困難である。
従って、ユーザの視線ベクトルが急激に変化した場合、変化後の視線ベクトルに対応する領域の全天球画像を用いて、ユーザの視野範囲の画像を即座に表示させることはできない。その結果、変化前の視野範囲の画像が表示されたり、変化後の視野範囲の画像のうちの一部が表示されなかったりする。
本開示は、このような状況に鑑みてなされたものであり、ユーザの視野範囲の画像を即座に表示させることができるようにするものである。
本開示の第1の側面の画像処理装置は、全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像を前記面ごとに第1の解像度で符号化し、各面に対応する第1の符号化ストリームを生成する第1の符号化部と、前記全方向の画像から生成された第2の全天球画像を第2の解像度で符号化し、第2の符号化ストリームを生成する第2の符号化部とを備える画像処理装置である。
本開示の第1の側面の画像処理方法は、本開示の第1の側面の画像処理装置に対応する。
本開示の第1の側面においては、全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像が前記面ごとに第1の解像度で符号化されて、各面に対応する第1の符号化ストリームが生成され、前記全方向の画像から生成された第2の全天球画像が第2の解像度で符号化され、第2の符号化ストリームが生成される。
本開示の第2の側面の画像処理装置は、全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像が前記面ごとに分割されて第1の解像度で符号化された第1の符号化ストリームと、前記全方向の画像から生成された第2の全天球画像が第2の解像度で符号化された第2の符号化ストリームとに対して、前記複数の面の対向する面どうしのペアのうちの一方の面に対応する前記第1の符号化ストリームを復号し、その面の前記第1の解像度の前記第1の全天球画像を生成する復号部を備える画像処理装置である。
本開示の第2の側面の画像処理方法は、本開示の第2の側面の画像処理装置に対応する。
本開示の第2の側面においては、全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像が前記面ごとに分割されて第1の解像度で符号化された第1の符号化ストリームと、前記全方向の画像から生成された第2の全天球画像が第2の解像度で符号化された第2の符号化ストリームとに対して、前記複数の面の対向する面どうしのペアのうちの一方の面に対応する前記第1の符号化ストリームが復号されて、その面の前記第1の解像度の前記第1の全天球画像が生成される。
なお、第1および第2の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、第1および第2の側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
第1および第2の側面の画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本開示の第1の側面によれば、全天球画像を符号化することができる。また、本開示の第1の側面によれば、ユーザの視野範囲の画像を即座に表示可能にする符号化ストリームを生成することができる。
本開示の第2の側面によれば、全天球画像の符号化ストリームを復号することができる。また、本開示の第2の側面によれば、ユーザの視野範囲の画像を即座に表示させることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
3Dモデルとしての立方体を示す斜視図である。 キューブマッピングにより生成される全天球画像の例を示す図である。 図2の全天球画像を用いて生成されるユーザの視野範囲の画像の例を示す図である。 図2の全天球画像の画素分布を示す図である。 3Dモデルとしての球を示す斜視図である。 正距円筒図法により生成される全天球画像の例を示す図である。 図6の全天球画像を用いて生成されるユーザの視野範囲の画像の例を示す図である。 図6の全天球画像の画素分布を示す図である。 本開示を適用した画像表示システムの第1実施の形態の構成例を示すブロック図である。 図9のコンテンツサーバの構成例を示すブロック図である。 図10のエンコーダの構成例を示すブロック図である。 図10のコンテンツサーバの符号化処理を説明するフローチャートである。 図9のホームサーバの構成例を示すブロック図である。 図13のデコーダの構成例を示すブロック図である。 図13のデコーダの動作タイミングの例を示すタイミングチャートである。 図13のマッピング処理部により生成される立方体画像を説明する図である。 ユーザの視野範囲の例を示す図である。 図13のホームサーバの復号処理を説明するフローチャートである。 図18の面選択処理の詳細を説明するフローチャートである。 新正距円筒図法において画像がマッピングされる3Dモデルとしての球を示す図である。 新正距円筒図法により生成される全天球画像を説明する図である。 図21の全天球画像を用いて生成されるユーザの視野範囲の画像の例を示す図である。 図21の全天球画像の画素分布を示す図である。 本開示を適用した画像表示システムの第2実施の形態のコンテンツサーバの構成例を示すブロック図である。 図24のマッピング処理部の構成例を示すブロック図である。 新正距円筒図法において画像がマッピングされる3Dモデルとしての球の他の例を示す図である。 新正距円筒図法により生成される全天球画像の他の例を説明する図である。 全天球画像の連続性を説明する図である。 本開示を適用した画像表示システムの第3実施の形態の構成例を示すブロック図である。 本開示の高解像度画像と低解像度画像に対応する全天球画像の生成方法を説明する図である。 第1のパターンにおいてホームサーバによりマッピングされる球の画像を示す図である。 コンピュータのハードウエアの構成例を示すブロック図である。
以下、本開示の前提および本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
0.本開示の前提(図1乃至図8)
1.第1実施の形態:画像表示システム(図9乃至図19)
2.第2実施の形態:画像表示システム(図20乃至図28)
3.第3実施の形態:画像表示システム(図29)
4.高解像度画像と低解像度画像に対応する全天球画像の生成方法の説明(図30および図31)
5.第4実施の形態:コンピュータ(図32)
<本開示の前提>
(キューブマッピングの説明)
図1は、全天球画像の生成方法としてキューブマッピングが用いられる場合に画像がマッピングされる3Dモデルとしての立方体を示す斜視図である。
図1に示すように、全天球画像の生成方法としてキューブマッピングが用いられる場合、画像は立方体10の6つの面11乃至16にマッピングされる。
本明細書では、立方体10の中心である原点Oを通り、面11および面12と直交する軸をx軸、面13および面14と直交する軸をy軸、面15および面16と直交する軸をz軸とする。そして、原点Oと面11乃至16のそれぞれとの距離をrとしたときのx=rである面11を、適宜、+x面11ともいい、x=−rである面12を、適宜、−x面12ともいう。同様に、y=rである面13、y=−rである面14、z=rである面15、z=−rである面16を、適宜、+y面13、−y面14、+z面15、−z面16ともいう。
+x面11と−x面12、+y面13と−y面14、および+z面15、−z面16は、それぞれ、対向する。
図2は、キューブマッピングにより生成される全天球画像の例を示す図である。
図2に示すように、キューブマッピングにより生成される全天球画像30は、立方体10の展開図の画像である。具体的には、全天球画像30は、中央の左から順に−x面12の画像32、+z面15の画像35、+x面11の画像31、−z面16の画像36が配置され、画像35の上に+y面13の画像33が配置され、画像35の下に−y面14の画像34が配置された画像である。
図3は、図2の全天球画像30を用いて生成されるユーザの視野範囲の画像の例を示す図である。
図3の例では、ユーザの視線ベクトル50が、原点Oから+x面11と+z面15の接する辺の下部に向かう方向(視線方向)のベクトルである。
この場合、ユーザの視野範囲51の画像は、+x面11の画像31、−y面14の画像34、および+z面15の画像35を用いて生成することができる。即ち、ユーザの視線ベクトル50に対応する面は、視線ベクトル50のx軸成分とx軸座標の正負が同一である+x面11、y軸成分とy軸座標の正負が同一である−y面14、およびz軸成分とz軸座標の正負が同一である+z面15である。
なお、本明細書では、全天球画像の対向する面どうしのペアのうちの、ユーザの視野範囲の画像の生成に用いられる可能性がある方の面を、ユーザの視線ベクトルに対応する面という。
図4は、図2の全天球画像30の画素分布を示す図である。
なお、図4において、点は、画素の中心を表す。
図4のAに示すように、全天球画像30の画素の中心は、等間隔で水平方向および垂直方向に並んでいる。また、図4のBに示すように、全天球画像30が球60の表面にマッピングされると、マッピングされた全天球画像30の各画素の中心の間の距離の差は小さい。即ち、球60の表面にマッピングされた全天球画像30の画素密度の差は小さい。従って、全天球画像30の画質は良い。
(正距円筒図法の説明)
図5は、全天球画像の生成方法として正距円筒図法が用いられる場合に画像がマッピングされる3Dモデルとしての球を示す斜視図である。
図5に示すように、全天球画像の生成方法として正距円筒図法が用いられる場合、画像は、球70の面にマッピングされる。球70の面は、例えば、同一のサイズおよび形状の8つの面71乃至78に分割することができる。
本明細書では、球70の中心である原点Oを通り、面71および面72の中心を通る軸をA軸、面73および面74の中心を通る軸をB軸、面75および面76の中心を通る軸をC軸、面77および面78の中心を通る軸をD軸とする。そして、原点Oと面71乃至78のそれぞれとの距離をrとしたときのA=rである面71を、適宜、+A面71ともいい、A=−rである面72を、適宜、−A面72ともいう。同様に、B=rである面73、B=−rである面74、C=rである面75、C=−rである面76、D=rである面77、D=−rである面78を、適宜、+B面73、−B面74、+C面75、−C面76、+D面77、−D面78ともいう。
+A面71と−A面72、+B面73と−B面74、+C面75と−C面76、+D面77と−D面78は、それぞれ、対向する。
図6は、正距円筒図法により生成される全天球画像の例を示す図である。
図6に示すように、正距円筒図法により生成される全天球画像90は、球70の正距円筒図法による画像である。即ち、全天球画像90の横座標と縦座標は、球70が地球儀である場合の経度と緯度に相当する。
具体的には、全天球画像90は、上の左から順に+A面71の画像91、+B面73の画像93、+C面75の画像95、+D面77の画像97が配置され、下の左から順に−C面76の画像96、−D面78の画像98、−A面72の画像92、−B面74の画像94が配置された画像である。
図7は、図6の全天球画像90を用いて生成されるユーザの視野範囲の画像の例を示す図である。
図7の例では、ユーザの視線ベクトル110が、原点Oから+A面71、+B面73、−C面76、および−D面78の交点に向かうベクトルである。
この場合、ユーザの視野範囲111の画像は、+A面71の画像91、+B面73の画像93、−C面76の画像96、および−D面78の画像98を用いて生成することができる。即ち、ユーザの視線ベクトル110に対応する面は、視線ベクトル110のA軸成分とA軸座標の正負が同一である+A面71、B軸成分とB軸座標の正負が同一である+B面73、C軸成分とC軸座標の正負が同一である−C面76、およびD軸成分とD軸座標の正負が同一である−D面78である。
図8は、図6の全天球画像90の画素分布を示す図である。
なお、図8において、点は、画素の中心を表す。
図8のAに示すように、全天球画像90の画素の中心は、等間隔で水平方向および垂直方向に並んでいる。また、図8のBに示すように、全天球画像90が球70の表面にマッピングされると、マッピングされた全天球画像90の画像91乃至98の形状は、三角形に近い形状になる。即ち、画像91,93,95、および97の上部は、球70の上の極に収縮し、画像92,94,96、および98の下部は、球70の下の極に収縮する。従って、極の近辺では、非常に画素密度が高くなる。
一般的に画素密度が高い場合、解像度が高くなり、高周波成分まで被写体を再現することができる。また、符号化時に多くのビットが割り当てられ、画質が向上する。しかしながら、人間は、通常、水平方向を向いているため、水平方向に注目物体が存在することが多い。従って、全天球画像90において上下の極近辺の被写体は重要ではない場合が多い。
全天球画像の生成方法としては、特に動画像に対して正距円筒図法が広く用いられている。正距円筒図法が広く用いられている理由の1つは、球70の緯度や経度が、全天球画像90の長方形のxy座標にそのまま対応するため座標変換が容易である点である。もう1つの理由は、全天球画像90の形状が長方形であり、その長方形の内部に不連続点がないため、矩形画像を処理対象とする一般的な符号化方式に適している点である。
しかしながら、上述したように、正距円筒図法により生成される全天球画像90では、球70の上下の極近辺にマッピングされる重要ではない被写体の画像の解像度が高くなり、その画像の符号化時に多くのビットが割り当てられる。
これに対して、キューブマッピングにより生成される全天球画像30は、球60にマッピングされたとき、画素の密度が略均一である。また、ユーザの視線ベクトルに対応する面の数が、正距円筒図法の場合に比べて少ない。さらに、全天球画像30が分割された画像31乃至36は正方形であり、矩形画像を処理対象とする一般的な符号化方式に適している。
しかしながら、全天球画像30の形状は十字形状であり、視線ベクトルの計算が正距円筒図法に比べて複雑である。また、全天球画像90を全天球画像30に変換して符号化する場合、画素ずれによる変換歪みが発生し、全天球画像90をそのまま符号化する場合に比べて画質が劣化する。
そこで、本技術は、正距円筒図法に準じて全天球画像を生成する場合に、球にマッピングされた全天球画像の画素の密度を略均一にする。
また、上述したように、ユーザの視野範囲の画像は、全天球画像30(90)のうちの、ユーザの視線ベクトルに対応する面の画像のみを用いて生成される。従って、全天球画像30(90)を面ごとに符号化することにより、ユーザの視線ベクトルに対応する面の画像の符号化ストリームのみを復号可能にし、その結果復号負荷を軽減することが考案されている。
しかしながら、MPEGやAVCなどの一般的な符号化方式では、時間方向の相関性を利用して符号化が行われるので、ランダムアクセス可能位置以外で復号対象の符号化ストリームの切り替えを行うことはできない。従って、ユーザの視線ベクトルが急激に変化した場合、変化後の視線ベクトルに対応する面の画像を用いてユーザの視野範囲の画像を即座に表示させることはできない。
そこで、本技術は、ユーザの視線ベクトルが急激に変化した場合であっても、変化後の視線ベクトルに対応する面の画像を用いてユーザの視野範囲の画像を即座に表示することを可能にする。
<第1実施の形態>
(画像表示システムの第1実施の形態の構成例)
図9は、本開示を適用した画像表示システムの第1実施の形態の構成例を示すブロック図である。
図9の画像表示システム130は、マルチカメラ131、コンテンツサーバ132、ホームサーバ133、変換装置134、およびヘッドマウントディスプレイ135により構成される。画像表示システム130は、マルチカメラ131により撮影された撮影画像から全天球画像30を生成し、全天球画像30のうちのユーザの視野範囲の画像を表示する。
具体的には、画像表示システム130のマルチカメラ131は、複数のカメラにより構成される。各カメラは、撮影を行い、全方向の撮影画像をフレーム単位で生成する。マルチカメラ131は、全方向の撮影画像をコンテンツサーバ132に供給する。
コンテンツサーバ132は、キューブマッピングを用いて、マルチカメラ131から供給される撮影画像から、全天球画像30を生成する。コンテンツサーバ132は、全天球画像30を低解像度化する。また、コンテンツサーバ132は、全天球画像30を6つの面11乃至16の画像に分割する。これにより、面11乃至16それぞれの低解像度化されていない高解像度画像と、全天球画像30全体が低解像度化された低解像度画像とが生成される。
コンテンツサーバ132は、面11乃至16それぞれの高解像度画像を、それぞれ、AVCやHEVC(High Efficiency Video Coding)/H.265等に準じた符号化方式で圧縮符号化し、6本の高解像度符号化ストリーム(第1の符号化ストリーム)を生成する。また、コンテンツサーバ132は、低解像度画像をAVCやHEVC等に準じた符号化方式で圧縮符号化し、1本の低解像度符号化ストリーム(第2の符号化ストリーム)を生成する。
コンテンツサーバ132は、生成された6本の高解像度符号化ストリームと1本の低解像度符号化ストリームを記録する。また、コンテンツサーバ132は、記録している6本の高解像度符号化ストリームと1本の低解像度符号化ストリームを、図示せぬネットワークを介してホームサーバ133に伝送する。
ホームサーバ133は、コンテンツサーバ132から伝送されてくる6本の高解像度符号化ストリームと1本の低解像度符号化ストリームを受け取る。また、ホームサーバ133は、カメラ133Aを内蔵し、ヘッドマウントディスプレイ135に付されたマーカ135Aを撮影する。そして、ホームサーバ133は、マーカ135Aの撮影画像に基づいて、ユーザの位置を検出する。さらに、ホームサーバ133は、ヘッドマウントディスプレイ135のジャイロセンサ135Bの検出結果を、ヘッドマウントディスプレイ135から変換装置134を介して受け取る。
ホームサーバ133は、ジャイロセンサ135Bの検出結果に基づいてユーザの視線ベクトルを決定し、ユーザの位置と視線ベクトルに基づいて、ユーザの視野範囲を決定する。
ホームサーバ133は、面11乃至16のうちの、ユーザの視線ベクトルに対応する3つの面を決定する。そして、ホームサーバ133(画像処理装置、端末)は、6本の高解像度符号化ストリームのうちの、ユーザの視線ベクトルに対応する3つの面の高解像度符号化ストリームを選択して復号し、3つの面の高解像度画像を生成する。
また、ホームサーバ133は、1本の低解像度符号化ストリームを復号し、低解像度画像を生成する。ホームサーバ133は、生成された3つの面の高解像度画像と低解像度画像から、ユーザの視野範囲の画像を表示画像として生成する。ホームサーバ133は、図示せぬHDMI(登録商標)(High-Definition Multimedia Interface)ケーブルを介して表示画像を変換装置134に伝送する。
変換装置134は、ホームサーバ133から伝送されてくる表示画像における座標を、ヘッドマウントディスプレイ135における座標に変換する。変換装置134は、座標変換後の表示画像をヘッドマウントディスプレイ135に供給する。
ヘッドマウントディスプレイ135は、ユーザの頭に装着される。ヘッドマウントディスプレイ135は、変換装置134から供給される表示画像を表示する。また、ヘッドマウントディスプレイ135に内蔵されるジャイロセンサ135Bは、ヘッドマウントディスプレイ135の傾きを検出し、その検出結果を、変換装置134を介してホームサーバ133に伝送する。
(コンテンツサーバの構成例)
図10は、図9のコンテンツサーバ132の構成例を示すブロック図である。
図10のコンテンツサーバ132は、スティッチング処理部151、マッピング処理部152、低解像度化部153、エンコーダ154、分割部155、エンコーダ156−1乃至156−6、ストレージ157、および伝送部158により構成される。
スティッチング処理部151は、図9のマルチカメラ131から供給される全方向の撮影画像の色や明るさを同一にし、重なりを除去して接続する。スティッチング処理部151は、その結果得られる撮影画像をマッピング処理部152に供給する。
マッピング処理部152は、キューブマッピングにより、スティッチング処理部151から供給される撮影画像から全天球画像30を生成し、低解像度化部153と分割部155に供給する。なお、スティッチング処理部151とマッピング処理部152は、一体化されていてもよい。
低解像度化部153(変換部)は、マッピング処理部152から供給される全天球画像30の水平方向と垂直方向の解像度を半分にすることにより低解像度化し、低解像度画像を生成する。低解像度化部153は、低解像度画像をエンコーダ154に供給する。
エンコーダ154(第2の符号化部)は、低解像度化部153から供給される低解像度画像を符号化し、低解像度符号化ストリームを生成する。エンコーダ154は、低解像度符号化ストリームをストレージ157に供給し、記録させる。
分割部155は、マッピング処理部152から供給される全天球画像30を、6つの面11乃至16の画像31乃至36に分割する。分割部155は、画像31を+x面11の高解像度画像としてエンコーダ156−1に供給し、画像32を−x面12の高解像度画像としてエンコーダ156−2に供給する。また、分割部155は、画像33を+y面13の高解像度画像としてエンコーダ156−3に供給し、画像34を−y面14の高解像度画像としてエンコーダ156−4に供給する。また、分割部155は、画像35を+z面15の高解像度画像としてエンコーダ156−5に供給し、画像36を−z面16の高解像度画像としてエンコーダ156−6に供給する。
エンコーダ156−1乃至156−6(第1の符号化部)は、それぞれ、面11乃至面16の対向する面どうしのペアのランダムアクセス可能位置が同期し、GOP構造がClosed GOP構造となるように、分割部155から供給される高解像度画像を符号化する。エンコーダ156−1乃至156−6は、その結果生成される面11乃至16の高解像度符号化ストリームをストレージ157に供給し、記録させる。
ストレージ157(記憶部)は、エンコーダ154から供給される1本の低解像度符号化ストリームと、エンコーダ156−1乃至156−6から供給される面11乃至16の6本の高解像度符号化ストリームとを記録する。
伝送部158(配信部)は、ストレージ157に記録されている1本の低解像度符号化ストリームと6本の高解像度符号化ストリームを読み出し、図示せぬネットワークを介して図9のホームサーバ133に伝送(配信)する。
(エンコーダの構成例)
図11は、図10のエンコーダ154の構成例を示すブロック図である。
図11のエンコーダ154は、画面並べ替えバッファ191、演算部192、直交変換部193、量子化部194、可逆符号化部195、蓄積バッファ196、生成部197、逆量子化部198、逆直交変換部199、および加算部200を有する。また、エンコーダ154は、フィルタ201、フレームメモリ202、スイッチ203、イントラ予測部204、動き予測・補償部205、予測画像選択部206、およびレート制御部207を有する。エンコーダ154は、HEVC方式にしたがって、低解像度画像をCU(Coding Unit)単位で符号化する。
具体的には、エンコーダ154の画面並べ替えバッファ191は、図10の低解像度化部153から供給される低解像度画像を記憶する。画面並べ替えバッファ191は、記憶した表示の順番のフレーム単位の低解像度画像を、GOP構造に応じて、符号化のための順番に並べ替える。画面並べ替えバッファ191は、並べ替え後の低解像度画像を、演算部192、イントラ予測部204、および動き予測・補償部205に出力する。
演算部192は、画面並べ替えバッファ191から供給される低解像度画像から、予測画像選択部206から供給される予測画像を減算することにより符号化を行う。演算部192は、その結果得られる画像を、残差情報として直交変換部193に出力する。なお、予測画像選択部206から予測画像が供給されない場合、演算部192は、画面並べ替えバッファ191から読み出された低解像度画像をそのまま残差情報として直交変換部193に出力する。
直交変換部193は、演算部192からの残差情報をTU(transform unit)単位で直交変換する。直交変換部193は、直交変換の結果得られる直交変換係数を量子化部194に供給する。
量子化部194は、直交変換部193から供給される直交変換係数に対して量子化を行う。量子化部194は、量子化された直交変換係数を可逆符号化部195に供給する。
可逆符号化部195は、最適イントラ予測モードを示すイントラ予測モード情報をイントラ予測部204から取得する。また、可逆符号化部195は、最適インター予測モードを示すインター予測モード情報、動きベクトル、参照画像を特定する情報などを動き予測・補償部205から取得する。また、可逆符号化部195は、フィルタ201からオフセットフィルタに関するオフセットフィルタ情報を取得する。
可逆符号化部195は、量子化部194から供給される量子化された直交変換係数に対して、可変長符号化(例えば、CAVLC(Context−Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context−Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行う。
また、可逆符号化部195は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル、および参照画像を特定する情報、並びにオフセットフィルタ情報を、符号化に関する符号化情報として可逆符号化する。可逆符号化部195は、可逆符号化された符号化情報と直交変換係数を、符号化データとして蓄積バッファ196に供給し、蓄積させる。なお、可逆符号化された符号化情報は、スライスヘッダ等のヘッダ部として符号化データに付加されるようにしてもよい。
蓄積バッファ196は、可逆符号化部195から供給される符号化データを、一時的に記憶する。また、蓄積バッファ196は、記憶している符号化データを生成部197に供給する。
生成部197は、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)などのパラメーターセットと蓄積バッファ196から供給される符号化データから低解像度符号化ストリームを生成し、図10のストレージ157に供給する。
また、量子化部194より出力された、量子化された直交変換係数は、逆量子化部198にも入力される。逆量子化部198は、量子化部194により量子化された直交変換係数に対して、量子化部194における量子化方法に対応する方法で逆量子化を行う。逆量子化部198は、逆量子化の結果得られる直交変換係数を逆直交変換部199に供給する。
逆直交変換部199は、TU単位で、逆量子化部198から供給される直交変換係数に対して、直交変換部193における直交変換方法に対応する方法で逆直交変換を行う。逆直交変換部199は、その結果得られる残差情報を加算部200に供給する。
加算部200は、逆直交変換部199から供給される残差情報と、予測画像選択部206から供給される予測画像を加算することにより、低解像度画像を局部的に復号する。なお、予測画像選択部206から予測画像が供給されない場合、加算部200は、逆直交変換部199から供給される残差情報を局部的に復号された低解像度画像とする。加算部200は、まだ低解像度画像の画面全体が復号されていない場合、復号された低解像度画像をフレームメモリ202に供給し、画面全体が復号された場合、復号された低解像度画像をフィルタ201に供給する。
フィルタ201は、加算部200から供給される低解像度画像に対して、ブロック歪を除去するデブロックフィルタ処理を行う。フィルタ201は、デブロックフィルタ処理後の低解像度画像に対して、主にリンギングを除去する適応オフセットフィルタ(SAO(Sample adaptive offset))処理を行う。
具体的には、フィルタ201は、最大の符号化単位であるLCU(Largest Coding Unit)ごとに適応オフセットフィルタ処理の種類を決定し、その適応オフセットフィルタ処理で用いられるオフセットを求める。フィルタ201は、求められたオフセットを用いて、デブロックフィルタ処理後の低解像度画像に対して、決定された種類の適応オフセットフィルタ処理を行う。
フィルタ201は、適応オフセットフィルタ処理後の低解像度画像をフレームメモリ202に供給する。また、フィルタ201は、行われた適応オフセットフィルタ処理の種類とオフセットを示す情報を、オフセットフィルタ情報として可逆符号化部195に供給する。
フレームメモリ202は、フィルタ201から供給される低解像度画像と、加算部200から供給される低解像度画像を蓄積する。フレームメモリ202に蓄積されたフィルタ処理が行われていない低解像度画像のうちのPU(Prediction Unit)に隣接する画素は、周辺画素としてスイッチ203を介してイントラ予測部204に供給される。一方、フレームメモリ202に蓄積されたフィルタ処理が行われた低解像度画像は、参照画像としてスイッチ203を介して動き予測・補償部205に出力される。
イントラ予測部204は、PU単位で、フレームメモリ202からスイッチ203を介して読み出された周辺画素を用いて、候補となる全てのイントラ予測モードのイントラ予測処理を行う。
また、イントラ予測部204は、画面並べ替えバッファ191から読み出された低解像度画像と、イントラ予測処理の結果生成される予測画像とに基づいて、候補となる全てのイントラ予測モードに対してコスト関数値(詳細は後述する)を算出する。そして、イントラ予測部204は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。
イントラ予測部204は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部206に供給する。イントラ予測部204は、予測画像選択部206から最適イントラ予測モードで生成された予測画像の選択が通知された場合、イントラ予測モード情報を可逆符号化部195に供給する。
なお、コスト関数値は、RD(Rate Distortion)コストともいい、例えば、H.264/AVC方式における参照ソフトウエアであるJM(Joint Model)で定められているような、High Complexity モードまたはLow Complexity モードの手法に基づいて算出される。AVC方式における参照ソフトウエアは、http://iphome.hhi.de/suehring/tml/index.htmにおいて公開されている。
動き予測・補償部205は、PU単位で候補となる全てのインター予測モードの動き予測・補償処理を行う。具体的には、動き予測・補償部205は、画面並べ替えバッファ191から供給される低解像度画像と参照画像とに基づいて、候補となる全てのインター予測モードの動きベクトルを検出する。そして、動き予測・補償部205は、その動きベクトルに基づいて参照画像に補償処理を施し、予測画像を生成する。なお、インター予測モードとは、PUのサイズ等を表すモードである。
また、動き予測・補償部205は、低解像度画像と予測画像とに基づいて、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター予測モードに決定する。そして、動き予測・補償部205は、最適インター予測モードのコスト関数値と、対応する予測画像を予測画像選択部206に供給する。
動き予測・補償部205は、予測画像選択部206から最適インター予測モードで生成された予測画像の選択が通知された場合、インター予測モード情報、対応する動きベクトル、参照画像を特定する情報などを可逆符号化部195に出力する。
予測画像選択部206は、イントラ予測部204および動き予測・補償部205から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの、対応するコスト関数値が小さい方を、最適予測モードに決定する。そして、予測画像選択部206は、最適予測モードの予測画像を、演算部192および加算部200に供給する。また、予測画像選択部206は、最適予測モードの予測画像の選択をイントラ予測部204または動き予測・補償部205に通知する。
レート制御部207は、蓄積バッファ196に蓄積された符号化データに基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部194の量子化動作のレートを制御する。
なお、図示は省略するが、エンコーダ156−1乃至156−6も、エンコーダ154と同様に構成される。
(コンテンツサーバの処理の説明)
図12は、図10のコンテンツサーバ132の符号化処理を説明するフローチャートである。この符号化処理は、例えば、フレーム単位で行われる。
図12のステップS11において、スティッチング処理部151は、図9のマルチカメラ131から供給される全方向の撮影画像の色や明るさを同一にし、重なりを除去して接続する。スティッチング処理部151は、その結果得られる撮影画像をマッピング処理部152に供給する。
ステップS12において、マッピング処理部152は、キューブマッピングにより、スティッチング処理部151から供給される撮影画像から全天球画像30を生成し、低解像度化部153と分割部155に供給する。
ステップS13において、低解像度化部153は、マッピング処理部152から供給される全天球画像30を低解像度化し、低解像度画像を生成する。低解像度化部153は、低解像度画像をエンコーダ154に供給する。
ステップS14において、エンコーダ154は、低解像度化部153から供給される低解像度画像を符号化し、低解像度符号化ストリームを生成する。エンコーダ154は、低解像度符号化ストリームをストレージ157に供給する。
ステップS15において、分割部155は、マッピング処理部152から供給される全天球画像30を、6つの面11乃至16の画像31乃至36に分割する。分割部155は、画像31乃至36を、面11乃至16の高解像度画像として、それぞれエンコーダ156−1乃至156−6に供給する。
ステップS16において、エンコーダ156−1乃至156−6は、面11乃至16の高解像度画像をそれぞれ符号化して符号化ストリームを生成し、ストレージ157に供給する。
ステップS17において、ストレージ157は、エンコーダ154から供給される1本の低解像度符号化ストリームと、エンコーダ156−1乃至156−6から供給される6本の高解像度符号化ストリームを記録する。
ステップS18において、伝送部158は、ストレージ157に記録されている1本の低解像度符号化ストリームと6本の高解像度符号化ストリームを読み出し、図示せぬネットワークを介してホームサーバ133に伝送する。そして、処理は終了する。
(ホームサーバの構成例)
図13は、図9のホームサーバ133の構成例を示すブロック図である。
図13のホームサーバ133は、カメラ133A、受け取り部221、ストレージ222、デコーダ223、スイッチ224−1乃至224−3、デコーダ225−1乃至225−3、マッピング処理部226、描画部227、受け取り部228、および視線検出部229により構成される。
ホームサーバ133の受け取り部221は、図10の伝送部158から図示せぬネットワークを介して伝送されてくる6本の高解像度符号化ストリームと1本の低解像度符号化ストリームを受け取る。受け取り部221は、受け取られた6本の高解像度符号化ストリームと1本の低解像度符号化ストリームをストレージ222に供給し、記録させる。
ストレージ222は、受け取り部221から供給される6本の高解像度符号化ストリームと1本の低解像度符号化ストリームを記録する。ストレージ222は、1本の低解像度符号化ストリームをデコーダ223に供給する。
また、ストレージ222は、6本の高解像度符号化ストリームのうちの、対向する+x面11と−x面12のペアの2本の符号化ストリームを読み出し、スイッチ224−1に供給する。同様に、ストレージ222は、対向する+y面13と−y面14のペアの2本の符号化ストリームをスイッチ224−2に供給し、対向する+z面15と−z面16のペアの2本の符号化ストリームをスイッチ224−3に供給する。
デコーダ223(第2の復号部)は、ストレージ222から供給される1本の低解像度符号化ストリームを復号し、低解像度画像を生成する。デコーダ223は、低解像度画像をマッピング処理部226に供給する。
スイッチ224−1は、視線検出部229から供給される+x面11と−x面12のうちのいずれか一方を選択する面選択情報に基づいて、その一方の面の高解像度符号化ストリームを選択し、デコーダ225−1に供給する。同様に、スイッチ224−2は、面選択情報に基づいて、+y面13と−y面14のうちのいずれか一方の面の高解像度符号化ストリームをデコーダ225−2に供給する。また、スイッチ224−3は、面選択情報に基づいて、+z面15と−z面16のうちのいずれか一方の面の高解像度符号化ストリームをデコーダ225−3に供給する。
デコーダ225−1(第1の復号部)は、スイッチ224−1から供給される高解像度符号化ストリームを復号して、+x面11または−x面12の高解像度画像を生成し、マッピング処理部226に供給する。また、デコーダ225−2(第1の復号部)は、スイッチ224−2から供給される高解像度符号化ストリームを復号して、+y面13または−y面14の高解像度画像を生成し、マッピング処理部226に供給する。さらに、デコーダ225−3(第1の復号部)は、スイッチ224−3から供給される高解像度符号化ストリームを復号して、+z面15または−z面16の高解像度画像を生成し、マッピング処理部226に供給する。
マッピング処理部226は、デコーダ223から供給される低解像度画像を立方体10の面11乃至16のそれぞれにテクスチャとしてマッピングする。その後、マッピング処理部226は、低解像度画像がマッピングされた立方体10に、デコーダ225−1乃至225−3から供給される3つの面の画像を重畳する。マッピング処理部226は、その結果得られる立方体画像を描画部227に供給する。
描画部227は、マッピング処理部226から供給される立方体画像を、視線検出部229から供給されるユーザの視野範囲に投射投影することにより、ユーザの視野範囲の画像を生成する。描画部227は、生成された画像を表示画像として、HDMIケーブルを介して図9の変換装置134に伝送する。
受け取り部228は、図9のジャイロセンサ135Bの検出結果を、ヘッドマウントディスプレイ135から変換装置134を介して受け取り、視線検出部229に供給する。
視線検出部229は、受け取り部228から供給されるジャイロセンサ135Bの検出結果に基づいて、ユーザの視線ベクトルを決定する。視線検出部229(選択部)は、ユーザの視線ベクトルに基づいて、面11乃至16のうちのユーザの視線ベクトルに対応する3つの面を決定する。
具体的には、視線検出部229は、視線ベクトルのx成分とx軸座標の正負が同一である+x面11または−x面12、y成分とy軸座標の正負が同一である+y面13または−y面14、およびz成分とz軸座標の正負が同一である+z面15または−z面16を、ユーザの視線ベクトルに対応する3つの面に決定する。
また、視線検出部229は、カメラ133Aからマーカ135Aの撮影画像を取得し、その撮影画像に基づいてユーザの位置を検出する。視線検出部229は、ユーザの位置と視線ベクトルに基づいて、ユーザの視野範囲を決定する。
視線検出部229は、ユーザの視野範囲を描画部227に供給する。また、視線検出部229は、面11乃至16のうちの対向する面どうしのペアごとに、ユーザの視線ベクトルに対応する面を選択する面選択情報を生成する。視線検出部229は、+x面11または−x面12を選択する面選択情報をスイッチ224−1に供給し、+y面13または−y面14を選択する面選択情報をスイッチ224−2に供給し、+z面15または−z面16を選択する面選択情報をスイッチ224−3に供給する。
(デコーダの構成例)
図14は、図13のデコーダ223の構成例を示すブロック図である。
図14のデコーダ223は、蓄積バッファ241、可逆復号部242、逆量子化部243、逆直交変換部244、加算部245、フィルタ246、および画面並べ替えバッファ247を有する。また、デコーダ223は、フレームメモリ248、スイッチ249、イントラ予測部250、動き補償部251、およびスイッチ252を有する。
デコーダ223の蓄積バッファ241は、図13のストレージ222から低解像度符号化ストリームを受け取り、符号化データを蓄積する。低解像度符号化ストリームに含まれるパラメーターセットは、必要に応じて、デコーダ223の各部に供給される。蓄積バッファ241は、蓄積されている符号化データを可逆復号部242に供給する。
可逆復号部242は、蓄積バッファ241からの符号化データに対して、図10の可逆符号化部195の可逆符号化に対応する、可変長復号や、算術復号等の可逆復号を施すことで、量子化された直交変換係数と符号化情報を得る。可逆復号部242は、量子化された直交変換係数を逆量子化部243に供給する。また、可逆復号部242は、符号化情報としてのイントラ予測モード情報などをイントラ予測部250に供給する。可逆復号部242は、動きベクトル、インター予測モード情報、参照画像を特定する情報などを動き補償部251に供給する。
さらに、可逆復号部242は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ252に供給する。
逆量子化部243、逆直交変換部244、加算部245、フィルタ246、フレームメモリ248、スイッチ249、イントラ予測部250、および動き補償部251は、図10の逆量子化部198、逆直交変換部199、加算部200、フィルタ201、フレームメモリ202、スイッチ203、イントラ予測部204、および動き予測・補償部205とそれぞれ同様の処理を行い、これにより、低解像度画像が復号される。
具体的には、逆量子化部243は、可逆復号部242からの量子化された直交変換係数を逆量子化し、その結果得られる直交変換係数を逆直交変換部244に供給する。
逆直交変換部244は、逆量子化部243からの直交変換係数に対してTU単位で逆直交変換を行う。逆直交変換部244は、逆直交変換の結果得られる残差情報を加算部245に供給する。
加算部245は、逆直交変換部244から供給される残差情報と、スイッチ252から供給される予測画像を加算することにより、低解像度画像を局部的に復号する。なお、スイッチ252から予測画像が供給されない場合、加算部245は、逆直交変換部244から供給される残差情報を局部的に復号された低解像度画像とする。加算部245は、まだ低解像度画像の画面全体が復号されていない場合、復号された低解像度画像をフレームメモリ248に供給し、画面全体が復号された場合、復号された低解像度画像をフィルタ246に供給する。
フィルタ246は、加算部245から供給される低解像度画像に対してデブロックフィルタ処理を行う。フィルタ246は、LCUごとに、可逆復号部242からのオフセットフィルタ情報が表すオフセットを用いて、デブロックフィルタ処理後の低解像度画像に対して、オフセットフィルタ情報が表す種類の適応オフセットフィルタ処理を行う。フィルタ246は、適応オフセットフィルタ処理後の低解像度画像をフレームメモリ248および画面並べ替えバッファ247に供給する。
画面並べ替えバッファ247は、フィルタ246から供給される低解像度画像をフレーム単位で記憶する。画面並べ替えバッファ247は、記憶した符号化のための順番のフレーム単位の低解像度画像を、元の表示の順番に並び替え、図13のマッピング処理部226に供給する。
フレームメモリ248は、フィルタ246から供給される低解像度画像と加算部245から供給される低解像度画像を蓄積する。フレームメモリ248に蓄積されたフィルタ処理が行われていない低解像度画像のうちのPUに隣接する画素は、周辺画素としてスイッチ249を介してイントラ予測部250に供給される。一方、フレームメモリ248に蓄積されたフィルタ処理が行われた低解像度画像は、参照画像として、スイッチ249を介して動き補償部251に供給される。
イントラ予測部250は、PU単位で、フレームメモリ248からスイッチ249を介して読み出された周辺画素を用いて、可逆復号部242から供給されるイントラ予測モード情報が示す最適イントラ予測モードのイントラ予測処理を行う。イントラ予測部250は、その結果生成される予測画像をスイッチ252に供給する。
動き補償部251は、フレームメモリ248からスイッチ249を介して、可逆復号部242から供給される参照画像を特定する情報により特定される参照画像を読み出す。動き補償部251は、参照画像と可逆復号部242から供給される動きベクトルとを用いて、PU単位で、可逆復号部242から供給されるインター予測モード情報が示す最適インター予測モードの動き補償処理を行う。動き補償部251は、その結果生成される予測画像をスイッチ252に供給する。
スイッチ252は、可逆復号部242からイントラ予測モード情報が供給された場合、イントラ予測部250から供給される予測画像を加算部245に供給する。一方、可逆復号部242からインター予測モード情報が供給された場合、スイッチ252は、動き補償部251から供給される予測画像を加算部245に供給する。
(デコーダの動作タイミングの例)
図15は、図13のデコーダ223およびデコーダ225−1乃至225−3の動作タイミングの例を示すタイミングチャートである。
図15において、横軸は時間を表す。また、図15において、太い矢印は、デコーダ223およびデコーダ225−1乃至225−3の復号対象であることを表している。
スイッチ224−1乃至224−3は、視線検出部229から供給される面選択情報が変更された場合、入力される2本の高解像度符号化ストリームのランダムアクセス可能位置で、選択する高解像度符号化ストリームを変更する。従って、図15に示すように、デコーダ225−1乃至225−3では、ランダムアクセス可能位置で、復号対象の高解像度符号化ストリームが切り替えられる。
また、デコーダ223には、常に低解像度符号化ストリームが入力され、デコーダ223は、常に低解像度符号化ストリームを復号対象とする。
以上のように、復号対象の高解像度符号化ストリームの切り替えは、ランダムアクセス可能位置でのみ行うことができる。従って、急激に視線ベクトルが変化した場合、次のランダムアクセス可能位置までの間、復号対象の高解像度符号化ストリームを切り換えることができず、変更後の視線ベクトルに対応する3つの面の高解像度画像を生成することができない。しかしながら、低解像度符号化ストリームは常に復号されているため、この間、変更後の視線ベクトルに対応する面の低解像度画像を用いて表示画像を生成することができる。
また、スイッチ224−1乃至224−3に入力される2本の高解像度符号化ストリームのランダムアクセス可能位置は同期し、GOP構造はClosed GOP構造である。従って、デコーダ225−1乃至225−3は、切り替え後の復号対象を切り替え時の位置から復号すればよい。
これに対して、2本の符号化ストリームのランダムアクセス可能位置が異なっているか、またはGOP構造がClosed GOP構造ではない場合、切り替え時より前の位置から切り替え後の復号対象を復号する必要がある。従って、その間、切り替え前の復号対象と切り替え後の復号対象の2本の符号化ストリームを同時に復号する必要があり、高解像度符号化ストリームを復号するデコーダは、高解像度符号化ストリームの本数分必要になる。
なお、エンコーダ156−1乃至156−6が、各ペアのランダムアクセス可能位置が異なるように符号化を行う場合、デコーダ225−1乃至225−3の間で、復号対象の切り替えタイミングをずらすことができる。これにより、復号処理の負荷を平滑化することができる。
(立方体画像の例)
図16は、図13のマッピング処理部226により生成される立方体画像を説明する図である。
なお、図16において、正方形は、立方体画像のLCUを表す。また、図16のAおよび図16のBは、立方体画像を立方体10の内部から見た図である。
図16のAの例では、ユーザの視線ベクトルに対応する面が、+x面11、−y面14、および+z面15である。従って、図16のAに示すように、マッピング処理部226は、低解像度画像260がマッピングされた立方体10の+x面11、−y面14、および+z面15に、画像31、画像34、および画像35を重畳してマッピングすることにより、立方体画像261を生成する。
なお、画像31,34,および35並びに低解像度画像260は、同一のサイズの面にマッピングされる。従って、低解像度画像260のLCUのサイズは、画像31,34,および35のLCUのサイズに比べて大きくなっている。
図16のBの例では、ユーザの視線ベクトルに対応する面が、+x面11、−y面14、および−z面16である。従って、図16のBに示すように、マッピング処理部226は、低解像度画像260がマッピングされた立方体10の+x面11、−y面14、および−z面16に、画像31、画像34、および画像36を重畳してマッピングすることにより、立方体画像262を生成する。
なお、画像31,34,および36並びに低解像度画像260、同一のサイズの面にマッピングされる。従って、低解像度画像260のLCUのサイズは、画像31,34,および36のLCUのサイズに比べて大きくなっている。
以上のように、立方体10の対向する面どうしのペアのうちの一方の面には、高解像度画像がマッピングされ、他方の面には、低解像度画像がマッピングされる。
また、ユーザの視線ベクトルが変化し、ユーザの視線ベクトルに対応する面が変更されると、高解像度画像がマッピングされる少なくとも1つの面が、対向する面どうしのペアのうちの一方から他方に変更される。例えば、ユーザの視線ベクトルに対応する面が、+x面11、−y面14、および+z面15から、+x面11、−y面14、および−z面16に変更される場合、立方体画像261は立方体画像262に変更される。
このとき、立方体画像261および262は、面11乃至面16の全てにマッピングが行われた画像であるので、変更後の視線ベクトルに対応する立方体画像262が生成されるまでの間、描画部227は、立方体画像262を用いてユーザの視野範囲の表示画像を即座に生成することができる。
(ユーザの視野範囲の例)
図17は、ユーザの視野範囲の例を示す図である。
なお、図17の例では、マッピング処理部226により立方体画像262が生成されている。
図17に示すように、ユーザの位置に対応する立方体10の内部の位置等によっては、ユーザの視野範囲271の画像の生成に、ユーザの視線ベクトルに対応する+x面11,−y面14、および−z面16以外の+z面15の画像を用いる必要がある場合がある。
このような場合であっても、立方体画像262は、面11乃至面16の全てにマッピングが行われた画像であるため、描画部227は、+x面11の画像31、−y面14の画像34、および−z面16の画像36と、+z面15の低解像度画像260とを用いて、視野範囲271の画像を生成することができる。
これに対して、低解像度符号化ストリームが生成されない場合、立方体画像は、ユーザの視線ベクトルに対応する3つの面に対してのみマッピングが行われた画像である。従って、ユーザの視野範囲271の画像を生成することはできない。
(ホームサーバの処理の説明)
図18は、図13のホームサーバ133の復号処理を説明するフローチャートである。この復号処理は、例えば、フレーム単位で行われる。
図18のステップS31において、ホームサーバ133の受け取り部221は、図10の伝送部158から図示せぬネットワークを介して伝送されてくる1本の低解像度符号化ストリームと6本の高解像度符号化ストリームを受け取る。受け取り部221は、受け取られた1本の低解像度符号化ストリームと6本の高解像度符号化ストリームをストレージ222に供給する。
ステップS32において、ストレージ222は、受け取り部221から供給される1本の低解像度符号化ストリームと6本の高解像度符号化ストリームとを記録する。
ステップS33において、ストレージ222は、6本の高解像度符号化ストリームのうちの、対向する+x面11と−x面12のペアの2本の符号化ストリームを読み出し、スイッチ224−1に供給する。同様に、ストレージ222は、対向する+y面13と−y面14のペアの2本の符号化ストリームをスイッチ224−2に供給し、対向する+z面15と−z面16のペアの2本の符号化ストリームをスイッチ224−3に供給する。また、ストレージ222は、1本の低解像度符号化ストリームを読み出し、デコーダ223に供給する。
ステップS34において、受け取り部228は、ヘッドマウントディスプレイ135から変換装置134を介して図9のジャイロセンサ135Bの検出結果を受け取り、視線検出部229に供給する。
ステップS35において、視線検出部229は、受け取り部228から供給されるジャイロセンサ135Bの検出結果に基づいて、ユーザの視線ベクトルを決定する。
ステップS36において、カメラ133Aは、マーカ135Aの画像を撮影し、視線検出部229に供給する。ステップS37において、視線検出部229は、カメラ133Aから供給されるマーカ135Aの撮影画像に基づいてユーザの位置を検出する。
ステップS38において、視線検出部229は、ユーザの位置と視線ベクトルに基づいて、面11乃至16のうちのユーザの視線ベクトルに対応する3つの面とユーザの視野範囲とを決定する。視線検出部229は、ユーザの視野範囲を描画部227に供給する。
ステップS39において、視線検出部229は、面11乃至16のうちの対向する面どうしのペアごとに、ユーザの視線ベクトルに対応する面を選択する面選択情報を生成する。視線検出部229は、+x面11または−x面12を選択する面選択情報をスイッチ224−1に供給し、+y面13または−y面14を選択する面選択情報をスイッチ224−2に供給し、+z面15または−z面16を選択する面選択情報をスイッチ224−3に供給する。
ステップS40において、スイッチ224−1乃至224−3は、視線検出部229から供給される面選択情報に基づいて高解像度符号化ストリームを選択する面選択処理を行う。この面選択処理の詳細は、後述する図19を参照して説明する。
ステップS41において、デコーダ225−1は、スイッチ224−1から供給される高解像度符号化ストリームを復号して、+x面11または−x面12の高解像度画像を生成し、マッピング処理部226に供給する。また、デコーダ225−2は、スイッチ224−2から供給される高解像度符号化ストリームを復号して、+y面13または−y面14の高解像度画像を生成し、マッピング処理部226に供給する。さらに、デコーダ225−3は、スイッチ224−3から供給される高解像度符号化ストリームを復号して、+z面15または−z面16の高解像度画像を生成し、マッピング処理部226に供給する。
ステップS42において、デコーダ223は、ストレージ222から供給される1本の低解像度符号化ストリームを復号し、低解像度画像を生成する。デコーダ223は、低解像度画像をマッピング処理部226に供給する。
ステップS43において、マッピング処理部226は、デコーダ223から供給される低解像度画像を立方体10にマッピングし、デコーダ225−1乃至225−3から供給される3つの面の高解像度画像を、その立方体10に重畳してマッピングする。マッピング処理部226は、その結果得られる立方体画像を描画部227に供給する。
ステップS44において、描画部227は、マッピング処理部226からの立方体画像と、視線検出部229からのユーザの視野範囲に基づいて、立方体画像をユーザの視野範囲に投射投影することにより、ユーザの視野範囲の画像を表示画像として生成する。
ステップS45において、描画部227は、表示画像を、HDMIケーブルを介して図9の変換装置134に伝送し、処理を終了する。
図19は、図18のステップS40の面選択処理の詳細を説明するフローチャートである。
図19のステップS61において、スイッチ224−1は、処理対象のフレームが、+x面11と−x面12の高解像度符号化ストリームのランダムアクセス可能位置のフレームであるかどうかを判定する。
ステップS61で、処理対象のフレームが、+x面11と−x面12の高解像度符号化ストリームのランダムアクセス可能位置のフレームであると判定された場合、処理はステップS62に進む。ステップS62において、スイッチ224−1は、視線検出部229から+x面11を選択する面選択情報が供給されたかどうかを判定する。
ステップS62で+x面11を選択する面選択情報が供給されたと判定された場合、処理はステップS63に進む。ステップS63において、スイッチ224−1は、ストレージ222から供給される+x面11および−x面12の高解像度符号化ストリームのうちの、+x面11の高解像度符号化ストリームを復号対象として選択し、デコーダ225−1に供給する。
ステップS62で+x面11を選択する面選択情報が供給されていないと判定された場合、即ち視線検出部229から−x面12を選択する面選択情報が供給された場合、処理はステップS64に進む。ステップS64において、スイッチ224−1は、ストレージ222から供給される+x面11および−x面12の高解像度符号化ストリームのうちの、−x面12の高解像度符号化ストリームを復号対象として選択し、デコーダ225−1に供給する。
一方、ステップS61で、処理対象のフレームが、+x面11と−x面12の高解像度符号化ストリームのランダムアクセス可能位置のフレームではないと判定された場合、処理はステップS65に進む。
ステップS65において、スイッチ224−1は、ストレージ222から供給される+x面11および−x面12の高解像度符号化ストリームのうちの、1つ前のフレームに対して選択された高解像度符号化ストリームに対応する面と同一の面の高解像度符号化ストリームを復号対象として選択する。
即ち、処理対象のフレームが、+x面11と−x面12の高解像度符号化ストリームのランダムアクセス可能位置のフレームではない場合、+x面11と−x面12の高解像度符号化ストリームの間で、復号対象の切り替えは行われない。スイッチ224−1は、選択された高解像度符号化ストリームをデコーダ225−1に供給する。ステップS63乃至S65の処理後、処理はステップS66に進む。
ステップS66において、スイッチ224−2は、処理対象のフレームが、+y面13と−y面14の高解像度符号化ストリームのランダムアクセス可能位置のフレームであるかどうかを判定する。
ステップS66で、処理対象のフレームが、+y面13と−y面14の高解像度符号化ストリームのランダムアクセス可能位置のフレームであると判定された場合、処理はステップS67に進む。ステップS67において、スイッチ224−2は、視線検出部229から+y面13を選択する面選択情報が供給されたかどうかを判定する。
ステップS67で+y面13を選択する面選択情報が供給されたと判定された場合、処理はステップS68に進む。ステップS68において、スイッチ224−2は、ストレージ222から供給される+y面13および−y面14の高解像度符号化ストリームのうちの、+y面13の高解像度符号化ストリームを復号対象として選択し、デコーダ225−2に供給する。
ステップS67で+y面13を選択する面選択情報が供給されていないと判定された場合、即ち視線検出部229から−y面14を選択する面選択情報が供給された場合、処理はステップS69に進む。ステップS69において、スイッチ224−2は、ストレージ222から供給される+y面13および−y面14の高解像度符号化ストリームのうちの、−y面14の高解像度符号化ストリームを復号対象として選択し、デコーダ225−2に供給する。
一方、ステップS66で、処理対象のフレームが、+y面13と−y面14の高解像度符号化ストリームのランダムアクセス可能位置のフレームではないと判定された場合、処理はステップS70に進む。
ステップS70において、スイッチ224−2は、ストレージ222から供給される+y面13および−y面14の高解像度符号化ストリームのうちの、1つ前のフレームに対して選択された高解像度符号化ストリームに対応する面と同一の面の高解像度符号化ストリームを復号対象として選択する。
即ち、処理対象のフレームが、+y面13と−y面14の高解像度符号化ストリームのランダムアクセス可能位置のフレームではない場合、+y面13と−y面14の高解像度符号化ストリームの間で、復号対象の切り替えは行われない。スイッチ224−2は、選択された高解像度符号化ストリームをデコーダ225−2に供給する。ステップS68乃至S70の処理後、処理はステップS71に進む。
ステップS71において、スイッチ224−3は、処理対象のフレームが、+z面15と−z面16の高解像度符号化ストリームのランダムアクセス可能位置のフレームであるかどうかを判定する。
ステップS71で、処理対象のフレームが、+z面15と−z面16の高解像度符号化ストリームのランダムアクセス可能位置のフレームであると判定された場合、処理はステップS72に進む。ステップS72において、スイッチ224−3は、視線検出部229から+z面15を選択する面選択情報が供給されたかどうかを判定する。
ステップS72で+z面15を選択する面選択情報が供給されたと判定された場合、処理はステップS73に進む。ステップS73において、スイッチ224−3は、ストレージ222から供給される+z面15および−z面16の高解像度符号化ストリームのうちの、+z面15の高解像度符号化ストリームを復号対象として選択し、デコーダ225−3に供給する。
ステップS72で+z面15を選択する面選択情報が供給されていないと判定された場合、即ち視線検出部229から−z面16を選択する面選択情報が供給された場合、処理はステップS74に進む。ステップS74において、スイッチ224−3は、ストレージ222から供給される+z面15および−z面16の高解像度符号化ストリームのうちの、−z面16の高解像度符号化ストリームを復号対象として選択し、デコーダ225−3に供給する。
一方、ステップS71で、処理対象のフレームが、+z面15と−z面16の高解像度符号化ストリームのランダムアクセス可能位置のフレームではないと判定された場合、処理はステップS75に進む。
ステップS75において、スイッチ224−3は、ストレージ222から供給される+z面15および−z面16の高解像度符号化ストリームのうちの、1つ前のフレームに対して選択された高解像度符号化ストリームに対応する面と同一の面の高解像度符号化ストリームを選択する。
即ち、処理対象のフレームが、+z面15と−z面16の高解像度符号化ストリームのランダムアクセス可能位置のフレームではない場合、+z面15と−z面16の高解像度符号化ストリームの間で、復号対象の切り替えは行われない。スイッチ224−3は、選択された高解像度符号化ストリームをデコーダ225−3に供給する。ステップS73乃至S75の処理後、処理は図18のステップSステップS41に進む。
図19で示したように、復号対象は、面選択情報に基づいて、面11乃至面16の対向する面どうしのペアごとに1つずつ独立して選択される。
以上のように、画像表示システム130のコンテンツサーバ132は、面11乃至16ごとの全天球画像30の高解像度符号化ストリームと全天球画像30全体の低解像度符号化ストリームとを生成する。
従って、視線ベクトルが急激に変化する場合であっても、視線ベクトルに対応する面の高解像度符号化ストリームが復号されるまでの間、低解像度画像を用いて、ユーザの視野範囲の画像を即座に表示させることができる。また、ユーザの視野範囲の画像の生成に、視線ベクトルに対応する3つの面以外の面を用いる必要がある場合であっても、低解像度画像を用いて、ユーザの視野範囲の画像を表示させることができる。
また、ホームサーバ133は、全天球画像30全体の1本の符号化ストリームを復号して表示画像を生成するホームサーバとの互換性を有する。
<第2実施の形態>
(第2実施の形態の全天球画像の生成方法の説明)
図20は、第2実施の形態の全天球画像の生成方法(以下、新正距円筒図法という)において画像がマッピングされる3Dモデルとしての球を示す図である。
図20に示すように、新正距円筒図法では、正距円筒図法と同様に、画像が、球280の面にマッピングされるが、球280の面が、垂直方向に3分割され、中央の面が水平方向に4分割された面積が略等しい6つの面281乃至286により構成されると考える。図20の例では、球280にマッピングされた画像の正面291が、面284と面285の境界の中央に位置し、背面292が、面283と面286の境界の中央に位置するように、球280の中央の面が面283乃至286に分割される。なお、画像の正面291とは、例えば、標準の視線方向(例えば、ヘッドマウントディスプレイ135を装着したユーザが自然に前を向いたときの視線方向)で視野の中心に位置する画像である。
本明細書では、球280の中心である原点Oを通り、面281および面282の中心を通る軸をa軸、面283および面284の中心を通る軸をb軸、面285および面286の中心を通る軸をc軸とする。そして、原点Oと面281乃至286のそれぞれとの距離をrとしたときのa=rである面281を、適宜、+a面281ともいい、a=−rである面282を、適宜、−a面282ともいう。同様に、b=rである面283、b=−rである面284、c=rである面285、c=−rである面286を、適宜、+b面283、−b面284、+c面285、−c面286ともいう。
+a面281と−a面282、+b面283と−b面284、+c面285と−c面286は、それぞれ、対向する。また、+c面285と−b面284の境界の中央に正面291が位置し、−c面286と+b面283の境界の中央に背面292が位置する。
図21は、新正距円筒図法により生成される全天球画像を説明する図である。
図21の左側に示すように、新正距円筒図法では、まず、全方向の撮影画像が球280にマッピングされたときの球280の正距円筒図法による画像301が、画像301の中心が正面291になるように生成される。従って、背面292は、画像301の左右の端の中央に位置する。図21の例では、画像301は、1920(横)×960(縦)画素からなる。
図21の中央に示すように、画像301を垂直方向に3分割したときの、最も上の画像が+a面281の画像311(上画像)であり、最も下の画像が−a面282の画像312(下画像)である。また、中央の画像を4分割したときの、最も左側の画像が+b面283の画像313、左から2番目の画像が+c面285の画像315、左から3番目の画像が−b面284の画像314、最も右側の画像が−c面286の画像316である。また、正面291は、画像315と画像314の境界の中央に位置し、背面292は、画像313の左端および画像316の右端の中央に位置する。
図21の例では、画像311と画像312は、1920×240画素からなり、画像313乃至316(分割中央画像)が、480×480画素からなる。
次に、図21の右側に示すように、画像301のうちの画像311と画像312は、水平方向の解像度が1/2になるように低解像度化される。従って、図21の例では、低解像度化された画像311である低解像度上画像321と低解像度化された画像312である低解像度下画像322は、960×240画素からなる。これにより、低解像度上画像321、低解像度下画像322、および画像313乃至316の画素数は、全て同一の230400(=480×480=960×240)となる。
以上により、低解像度上画像321、低解像度下画像322、および画像313乃至316が全天球画像320として生成される。
図22は、図21の全天球画像320を用いて生成されるユーザの視野範囲の画像の例を示す図である。
図22の例では、ユーザの視線ベクトル330が、原点Oから+b面283、+c面285、−a面282の交点に向かうベクトルである。
この場合、ユーザの視野範囲331の画像は、+b面283の画像313、+c面285の画像315、−a面282の画像312を用いて生成することができる。即ち、ユーザの視線ベクトル330に対応する面は、視線ベクトル330のa軸成分とa軸座標の正負が同一である−a面282、b軸成分とb軸座標の正負が同一である+b面283、およびc軸成分とc軸座標の正負が同一である+c面285である。
図23は、図21の全天球画像320の画素分布を示す図である。
なお、図23において、点は、画素の中心を表す。
図23のAに示すように、全天球画像320の画素の中心は、等間隔で水平方向および垂直方向に並んでいる。但し、低解像度上画像321と低解像度下画像322の水平方向の画素の間隔は、画像313乃至316の水平方向の画素の間隔の2倍になっている。
また、図23のBに示すように、全天球画像320が球280の表面にマッピングされると、マッピングされた低解像度上画像321および低解像度下画像322並びに画像313乃至316の面積は、それぞれ、面281乃至286の面積であり、略等しい。また、低解像度上画像321および低解像度下画像322並びに画像313乃至316の球280上の配置は、キューブマッピングの画像31乃至36の球60上の配置に近い。さらに、各面281乃至286の画素の密度は略同一である。
以上のように、新正距円筒図法では、正距円筒図法に比べて、球280にマッピングされた全天球画像320の画素の等方性が向上する。従って、球280の上下の極近辺の復号処理負荷の上昇を抑制することができる。また、全天球画像320の総画素数は、正距円筒図法に比べて少ない。さらに、視線ベクトルに対応する面の数は、キューブマッピングの場合と同一の3つになる。
(第2実施の形態のコンテンツサーバの構成例)
本開示を適用した画像表示システムの第2実施の形態の構成は、コンテンツサーバの構成、および、ホームサーバにおいて全天球画像がマッピングされる3Dモデルが球である点を除いて、図9の画像表示システム130の構成と同様である。従って、以下では、コンテンツサーバについてのみ説明する。
図24は、本開示を適用した画像表示システムの第2実施の形態のコンテンツサーバの構成例を示すブロック図である。
図24に示す構成のうち、図10の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図24のコンテンツサーバ340の構成は、マッピング処理部152、分割部155の代わりに、マッピング処理部341、分割部342が設けられる点が、図10のコンテンツサーバ132の構成と異なる。コンテンツサーバ340(画像処理装置)は、全方向の撮影画像がマッピングされた球70の正距円筒図法による画像のうちの、上下の画像を低解像度化して全天球画像を生成する。
具体的には、マッピング処理部341は、新正距円筒図法により、スティッチング処理部151から供給される撮影画像から全天球画像320を生成する。マッピング処理部341は、全天球画像320を低解像度化部153と分割部342に供給する。
分割部342は、マッピング処理部341から供給される全天球画像320を、6つの面281乃至286の低解像度上画像321、低解像度下画像322、および画像313乃至316に分割する。分割部342は、低解像度上画像321を+a面281の高解像度画像としてエンコーダ156−1に供給し、低解像度下画像322を−a面282の高解像度画像としてエンコーダ156−2に供給する。
また、分割部342は、画像313を+b面283の高解像度画像としてエンコーダ156−3に供給し、画像314を−b面284の高解像度画像としてエンコーダ156−4に供給する。また、分割部342は、画像315を+c面285の高解像度画像としてエンコーダ156−5に供給し、画像316を−c面286の高解像度画像としてエンコーダ156−6に供給する。
これにより、球280の面281乃至286の対向する面どうしのペアのランダムアクセス可能位置が同期し、GOP構造がClosed GOP構造となるように、面281乃至286の高解像度符号化ストリームが生成される。
(マッピング処理部の構成例)
図25は、図24のマッピング処理部341の構成例を示すブロック図である。
図25のマッピング処理部341は、正距円筒画像生成部361、画面分割部362、および低解像度化部363により構成される。
マッピング処理部341の正距円筒画像生成部361は、図24のスティッチング処理部151から供給される撮影画像を球280にマッピングし、マッピング後の球280の正距円筒図法による画像301を生成する。正距円筒画像生成部361は、画像301を画面分割部362に供給する。
画面分割部362は、正距円筒画像生成部361から供給される画像301を垂直方向に3分割して、上から順に画像311、中央画像、および画像312を生成する。画面分割部362は、中央画像をさらに水平方向に4つに分割して画像313乃至316を生成する。画面分割部362は、画像311乃至316を低解像度化部363に供給する。
低解像度化部363(変換部)は、画面分割部362から供給される画像311と画像312をそれぞれ低解像度化し、低解像度上画像321および低解像度下画像322を生成する。低解像度化部363は、生成された低解像度上画像321および低解像度下画像322、並びに画面分割部362から供給される画像313乃至316を、全天球画像320として図24の低解像度化部153と分割部342に供給する。
以上のように、新正距円筒図法では、撮影画像がマッピングされた球280の正距円筒図法による画像301を用いて全天球画像320が生成される。従って、正距円筒図法により生成された全天球画像90と同様に、全天球画像320の座標変換は容易であり、全天球画像320は、矩形画像を処理対象とする一般的な符号化方式に適している。
また、新正距円筒図法では、画像311と画像312を低解像度化する。従って、全天球画像320の画素数は、全天球画像90に比べて少なくなり、復号処理量が軽減する。また、全天球画像320がマッピングされた球280の上下の極の近辺の画素密度の上昇を抑制することができる。さらに、球280の上下の極の近辺にマッピングされる全天球画像320の符号化時に多くのビットが配分されることを防止し、全天球画像320全体を同一ビットレートで符号化することができる。その結果、全天球画像320の画質が向上する。
さらに、新正距円筒図法では、視線ベクトルに対応する面の数が、キューブマッピングにより全天球画像が生成される場合と同一の3つになる。従って、正距円筒図法により全天球画像が生成され、視線ベクトルに対応する面の数が4つになる場合に比べて、エンコーダおよびデコーダの数を削減することができる。
また、新正距円筒図法では、全天球画像320を構成する各面281乃至286の低解像度上画像321、画像313乃至316、および低解像度下画像322の画素数が全て同一である。従って、各面281乃至286の復号処理の負荷が略同一になり、視線ベクトルの変動による復号処理の負荷の変動が抑制される。
なお、上述した説明では、画像がマッピングされた球280の中央の面は、画像の正面291と背面292が、それぞれ、分割された面284と面285の境界、面283と面286の境界の中央に位置するように分割されたが、正面291と背面292が、分割された面の境界に位置しないように分割されてもよい。
(球の中央の面の分割方法の他の例)
図26は、正面291と背面292が分割された面の中心に位置するように、中央の面が分割される場合の球280の例を示す図である。
なお、図26において、図20と同一のものには同一の符号を付してある。
図26の例では、球280の面が、垂直方向に、面281、中央の面、および面282に3分割され、さらに、中央の面が、正面291が面385の中心に位置し、背面292が面386の中心に位置するように、4つの面383乃至386に分割される。
本明細書では、球280の中心である原点Oを通り、面383および面384の中心を通る軸をb´軸、面385および面386の中心を通る軸をc´軸とする。そして、原点Oと面281、面282、および面383乃至386のそれぞれとの距離をrとしたときのb´=rである面383、b´=−rである面384、c´=rである面385、c´=−rである面386を、適宜、+b´面383、−b´面384、+c´面385、−c´面386ともいう。
図26の球280では、+a面281と−a面282、+b´面383と−b´面384、+c´面385と−c´面386が、それぞれ、対向する。また、+c´面385の中心に正面291が位置し、−c´面286の中心に背面292が位置する。
(新正距円筒図法により生成される全天球画像の他の例)
図27は、図26の球280に全方向の撮影画像がマッピングされる場合の全天球画像の例を示す図である。
なお、図27において、図21と同一のものには同一の符号を付してある。
図27の左側に示すように、新正距円筒図法において、図26の球280に全方向の撮影画像がマッピングされる場合、まず、図21の場合と同様に画像301が生成される。図27の中央に示すように、この画像301を垂直方向に3分割したときの、最も上の画像が+a面281の画像311であり、最も下の画像が−a面282の画像312である。また、中央の画像を、左右の端から水平方向に全体の1/8の距離だけ離れた位置で分割し、その内側を水平方向に3等分したときの、最も左側の画像が−c´面386の右半分の画像396−1(第1の分割中央画像)、左から2番目の画像が+b´面383の画像393(第3の分割中央画像)、左から3番目の画像が+c´面385の画像395(第4の分割中央画像)、左から4番目の画像が−b´面384の画像394(第5の分割中央画像)、最も右側の画像が−c´面386の左半分の画像396−2(第2の分割中央画像)である。
即ち、図27の画像301の中央の画像は、図21の画像301の中央の画像を、水平方向に全体の1/8の距離だけ右方向にずらしたものである。
以上のように、図26の球280に全方向の撮影画像がマッピングされる場合、画像301の中央の画像において、−C´面386の画像396は、水平方向に分割され、画像396−1および画像396−2として配置される。また、正面291は、画像395の中心に位置し、背面292は、画像396−1の左端の中央と画像396−2の右端の中央に位置する。図27の例では、画像393乃至395が、480×480画素からなり、画像396−1および396−2が、240×480画素からなる。
次に、図27の右側に示すように、画像301のうちの画像391と画像392は、水平方向の解像度が1/2になるように低解像度化される。これにより、低解像度上画像321、低解像度下画像322、画像393乃至396の画素数は、全て同一の230400(=480×480=960×240)となる。
以上により、低解像度上画像321、低解像度下画像322、および画像393乃至396が全天球画像400として生成される。従って、全天球画像400において、正面291と背面292は、それぞれ、+C面395、−C面396の中心に位置する。その結果、復号後の全天球画像400において画像393乃至396の境界で画質劣化が発生することによる正面291の画質劣化を防止し、全天球画像400の画質劣化を目立たなくすることができる。
即ち、画像393乃至396は、それぞれ、独立して符号化される。また、AVCやHEVC等の時間方向の動き補償により情報圧縮を行う圧縮符号化方式では、動画像の被写体が画面上を移動すると、圧縮歪みの出方が、ある程度の形状を保ったまま、フレーム間で伝搬される。画面が分割され、分割画像が独立して符号化される場合、動き補償が境界をまたいで行われないため、境界において、この圧縮歪みは大きくなる傾向がある。その結果、復号された分割画像の動画像では、分割画像の境界において圧縮歪みの出方が変化する筋が発生する。この現象は、AVCのスライス間やHEVCのタイル間において発生することが知られている。
従って、復号された画像393乃至396の境界では画質の劣化が発生しやすい。しかしながら、全天球画像400では、ユーザが見る可能性が高い正面291が画像393乃至396の境界に位置しないため、正面291において画質劣化が発生せず、全天球画像400の画質劣化が目立たない。
なお、図21および図28の画像301は、正距円筒図法による画像であるので、図28のAおよび図28のBに示すように、画像301の右端は、画像の左端と連続している。従って、視線ベクトルに対応する画像301上の位置が、画像301の右端より右に移動する場合、その位置は、画像301の左端に移動する。即ち、仮想的には、画像301は水平方向に連続している。
また、第2実施の形態において、高解像度画像のみを符号化してもよい。この場合、全ての面の高解像度画像の符号化ストリームを復号してもよいし、視線ベクトルに対応する面の高解像度画像の符号化ストリームのみを復号してもよい。
<第3実施の形態>
(画像表示システムの第3実施の形態の構成例)
図29は、本開示を適用した画像表示システムの第3実施の形態の構成例を示すブロック図である。
図29に示す構成のうち、図9の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図29の画像表示システム370の構成は、ホームサーバ133、ヘッドマウントディスプレイ135の代わりにホームサーバ471、ディスプレイ372が設けられる点、変換装置134が設けられない点、および、コントローラ473が設けられる点が、図9の画像表示システム130の構成と異なる。
画像表示システム370では、ユーザがコントローラ473を操作することによりユーザの位置および視線ベクトルを入力し、それに応じた表示画像がディスプレイ372に表示される。
具体的には、画像表示システム370のホームサーバ471は、コンテンツサーバ132から伝送されてくる6本の高解像度符号化ストリームと1本の低解像度符号化ストリームを受け取る。ホームサーバ471は、コントローラ473からのユーザの位置と視線ベクトルの指示を受け付ける。
ホームサーバ471は、図9のホームサーバ133と同様に、ユーザの視線ベクトルに基づいて、面11乃至16のうちのユーザの視線ベクトルに対応する3つの面を決定する。そして、ホームサーバ471は、6本の高解像度符号化ストリームうちの、ユーザの視線ベクトルに対応する面の3本の高解像度符号化ストリームを選択し、復号する。また、ホームサーバ471は、1本の低解像度符号化ストリームを復号する。
また、ホームサーバ471は、ホームサーバ133と同様に、ユーザの位置と視線ベクトルに基づいて、ユーザの視野範囲を決定する。ホームサーバ471は、復号の結果得られる高解像度画像と低解像度画像から、ユーザの視野範囲の画像を表示画像として生成する。ホームサーバ471は、図示せぬHDMIケーブルを介して表示画像をディスプレイ372に伝送する。
ディスプレイ372は、ホームサーバ471から供給される表示画像を表示する。
コントローラ473は、操作ボタンなどを有する。ユーザが操作ボタンなどを操作することにより、ユーザの位置と視線ベクトルを入力したとき、コントローラ473は、その入力を受け付け、ユーザの位置と視線ベクトルをホームサーバ471に指示する。
なお、コントローラ473とディスプレイ372は一体化されていてもよい。この場合、コントローラ473とディスプレイ372は、例えば、携帯電話機やタブレット型端末などの携帯端末、パーソナルコンピュータの一部などにより構成される。また、コントローラ473は、ジャイロセンサ、加速度センサ、地磁気センサなどを有し、ユーザの視線ベクトルは、これらのセンサの検出結果に基づいて決定されるようにしてもよい。
<高解像度画像と低解像度画像に対応する全天球画像の生成方法の説明>
図30は、本開示を適用した画像表示システムにおける高解像度画像と低解像度画像に対応する全天球画像の生成方法を説明する図である。
第1乃至第3実施の形態では、キューブマッピングにより生成された同一の全天球画像30(320,400)から高解像度画像と低解像度画像が生成されたが、異なる方法で生成された全天球画像から高解像度画像と低解像度画像が生成されるようにしてもよい。また、高解像度画像と低解像度画像の生成に用いられる全天球画像は、正距円筒図法により生成されるようにしてもよい。
即ち、図30に示すように、本開示を適用した画像表示システムにおける高解像度画像と低解像度画像に対応する全天球画像の生成方法の組み合わせとしては、例えば、7つのパターンがある。
具体的には、第1のパターンは、高解像度画像に対応する全天球画像の生成方法がキューブマッピングであり、低解像度画像に対応する全天球画像の生成方法が正距円筒図法であるパターンである。この場合、低解像度画像に対応する全天球画像の生成方法が正距円筒図法であるので、本開示を適用した画像表示システムは、正距円筒図法を用いて生成された全天球画像を1本の符号化ストリームに符号化する既存の画像表示システムとの互換性を有する。また、高解像度画像に対応する全天球画像の生成方法が、キューブマッピングであるため、立方体画像における高解像度画像の画素密度は略均一になり、表示画像の画質が良い。
第2のパターンは、高解像度画像と低解像度画像に対応する全天球画像の生成方法が両方ともキューブマッピングである第1および第3実施の形態のパターンである。この場合、立方体画像における画素密度が略均一になり、表示画像の画質が良い。
また、第3のパターンは、高解像度画像と低解像度画像に対応する全天球画像の生成方法が両方とも正距円筒図法であるパターンである。この場合、画像表示システム130(370)は、本開示を適用した画像表示システムは、正距円筒図法を用いて生成された全天球画像を1本の符号化ストリームに符号化する既存の画像表示システムとの互換性を有する。
第4のパターンは、高解像度画像に対応する全天球画像の生成方法が正距円筒図法であり、低解像度画像に対応する全天球画像の生成方法がキューブマッピングであるパターンである。
第5のパターンは、高解像度画像に対応する全天球画像の生成方法がキューブマッピングであり、低解像度画像に対応する全天球画像の生成方法が新正距円筒図法であるパターンである。この場合、立方体画像における画素密度が略均一になり、表示画像の画質が良い。
また、第6のパターンは、高解像度画像と低解像度画像に対応する全天球画像の生成方法が両方とも新正距円筒図法である第2実施の形態のパターンである。この場合、立方体画像における画素密度が略均一になり、表示画像の画質が良い。
第7のパターンは、高解像度画像に対応する全天球画像の生成方法が新正距円筒図法であり、低解像度画像に対応する全天球画像の生成方法がキューブマッピングであるパターンである。この場合、立方体画像における画素密度が略均一になり、表示画像の画質が良い。
なお、第5および第7のパターンにおいて、キューブマッピングの代わりに正距円筒図法が採用されてもよい。
図31は、高解像度画像と低解像度画像に対応する全天球画像の生成方法のパターンが第1のパターンである場合に、ホームサーバによりマッピングされる球の画像を示す図である。
第1のパターンでは、低解像度画像に対応する全天球画像が正距円筒図法により生成された全天球画像90である。従って、図31に示すように、まず、球70に全天球画像90が低解像度化された低解像度画像501がマッピングされる。そして、低解像度画像501がマッピングされた球70に、ユーザの視野方向に対応する画像31、画像34、および画像36が重畳されてマッピングされ、球画像500が生成される。この球画像500は、表示画像の生成に用いられる。
第1のパターンの画像表示システムは、高解像度画像用の全天球画像として全天球画像30が生成され、低解像度画像用の全天球画像として全天球画像90が生成される点を除いて、画像表示システム130と同様である。
また、第3のパターンの画像表示システムは、全天球画像30が全天球画像90に代わる点、および全天球画像90が8つの面71乃至78の画像91乃至98に分割され、エンコーダの数が9つであり、デコーダの数が5つである点を除いて、画像表示システム130と同様である。
第4のパターンの画像表示システムは、高解像度画像用の全天球画像として全天球画像90が生成され、低解像度画像用の全天球画像として全天球画像30が生成される点、および、全天球画像90が8つの面71乃至78の画像91乃至98に分割され、エンコーダの数が9つであり、デコーダの数が5つである点を除いて、画像表示システム130と同様である。
第5のパターンの画像表示システムは、高解像度画像用の全天球画像として全天球画像30が生成され、低解像度画像用の全天球画像320(400)が生成される点を除いて、画像表示システム130と同様である。
また、第7のパターンの画像表示システムは、高解像度画像用の全天球画像として全天球画像320(400)が生成され、低解像度画像用の全天球画像として全天球画像30が生成される点を除いて、第2実施の形態の画像表示システムと同様である。
<第4実施の形態>
(本開示を適用したコンピュータの説明)
上述したコンテンツサーバ132(340)やホームサーバ133(371)一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、高解像度画像の解像度に対する低解像度画像の解像度の割合は、1/4でなくてもよい。また、高解像度画像の解像度は、低解像度画像の解像度より高ければよく、高解像度画像は、全天球画像の解像度を変換することにより生成されるようにしてもよい。撮影画像は静止画像であっても動画像であってもよい。3Dモデルは、球や立方体のほか、正12面体や正20面体などの正多面体であってもよい。
また、コンテンツサーバ132(340)は、符号化ストリームを記録せずに、リアルタイムでホームサーバ133(371)に伝送するようにしてもよい。エンコーダ156−1乃至156−6は、コンテンツサーバ132(340)の外部に設けられるようにしてもよい。
さらに、上述した説明では、符号化ストリームに対応する解像度が2種類であったが、3種類以上であってもよい。
例えば、解像度が3種類ある場合には、3Dモデルの面が、面11乃至16(面71乃至78,面281乃至286,面281および282並びに面383乃至386)より細かく分割される。そして、面11乃至16(面71乃至78,面281乃至286,面281および282並びに面383乃至386)より細かく分割された面ごとに、全天球画像30(90,320,400)が分割されて高解像度画像とされ、符号化される。また、画像31乃至36(画像91乃至98,低解像度上画像321、低解像度下画像322、および画像313乃至316(393乃至396))がそれぞれ低解像度化されて、中解像度画像とされ、符号化される。さらに、全天球画像30(90)は、中解像度画像の解像度より低い解像度に低解像度化されて、符号化される。そして、視線ベクトルに対応する面としては、高解像度画像に対応する面が選択される。
また、全天球画像の生成時にマッピングされる3Dモデルと、表示画像の生成時にマッピングされる3Dモデルのサイズは、異なっていてもよい。
さらに、表示画像の生成時に、低解像度画像と高解像度画像がマッピングされる3Dモデルは、低解像度画像がマッピングされる3Dモデルが、高解像度画像がマッピングされる3Dモデルを内包していれば、異なっていてもよい。
また、第3実施の形態において、ディスプレイ372の形状はドーム型であるようにしてもよい。この場合、ホームサーバ471は、例えば、全ての面11乃至16の画像を表示画像として生成する。
さらに、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本開示は、以下のような構成もとることができる。
(1)
全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像を前記面ごとに第1の解像度で符号化し、各面に対応する第1の符号化ストリームを生成する第1の符号化部と、
前記全方向の画像から生成された第2の全天球画像を第2の解像度で符号化し、第2の符号化ストリームを生成する第2の符号化部と
を備える画像処理装置。
(2)
前記第1の全天球画像と前記第2の全天球画像の生成方法は異なる
前記(1)に記載の画像処理装置。
(3)
前記第1の全天球画像の生成方法は、キューブマッピングであり、
前記第2の全天球画像の生成方法は、正距円筒図法である
前記(2)に記載の画像処理装置。
(4)
前記第1の符号化部は、前記複数の面の対向する面どうしのペアの前記第1の符号化ストリームのランダムアクセス可能位置が同期するように、前記第1の符号化ストリームを生成する
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記第1の符号化部は、GOP構造をClosed GOP構造として、前記第1の符号化ストリームを生成する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記第2の全天球画像の解像度を前記第2の解像度に変換する変換部
をさらに備える
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記第1の符号化ストリームと前記第2の符号化ストリームとを記憶する記憶部
をさらに備える
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記記憶部に記憶された前記第1の符号化ストリームと前記第2の符号化ストリームとを、前記第1の符号化ストリームと前記第2の符号化ストリームを復号する端末に配信する配信部
をさらに備える
前記(7)に記載の画像処理装置。
(9)
前記第1の符号化部は、AVC/H.264規格またはHEVC/H.265規格に準じた前記第1の符号化ストリームを生成し、
前記第2の符号化部は、AVC/H.264規格またはHEVC/H.265規格に準じた前記第2の符号化ストリームを生成する
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
画像処理装置が、
全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像を前記面ごとに第1の解像度で符号化し、各面に対応する第1の符号化ストリームを生成する第1の符号化ステップと、
前記全方向の画像から生成された第2の全天球画像を第2の解像度で符号化し、第2の符号化ストリームを生成する第2の符号化ステップと
を含む画像処理方法。
(11)
全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像が前記面ごとに分割されて第1の解像度で符号化された第1の符号化ストリームと、前記全方向の画像から生成された第2の全天球画像が第2の解像度で符号化された第2の符号化ストリームとに対して、前記複数の面の対向する面どうしのペアのうちの一方の面に対応する前記第1の符号化ストリームを復号し、その面の前記第1の解像度の前記第1の全天球画像を生成する復号部
を備える画像処理装置。
(12)
前記復号部は、前記第2の符号化ストリームを復号し、前記第2の解像度の前記第2の全天球画像を生成する
前記(11)に記載の画像処理装置。
(13)
ユーザの視線方向に基づいて、前記ペアのうちの一方の面を選択する選択部
をさらに備え、
前記復号部は、前記選択部により選択された前記面に対応する前記第1の符号化ストリームを復号する
前記(11)または(12)に記載の画像処理装置。
(14)
前記復号部により生成された前記ペアのうちの一方の面の前記第1の解像度の前記第1の全天球画像と前記第2の解像度の前記第2の全天球画像とを用いて、前記視線方向に基づく視野範囲の画像を生成する描画部
をさらに備える
前記(13)に記載の画像処理装置。
(15)
前記第1の全天球画像と前記第2の全天球画像の生成方法は異なる
前記(11)乃至(14)のいずれかに記載の画像処理装置。
(16)
前記第1の全天球画像の生成方法は、キューブマッピングであり、
前記第2の全天球画像の生成方法は、正距円筒図法である
前記(15)に記載の画像処理装置。
(17)
前記ペアの前記第1の符号化ストリームのランダムアクセス可能位置は同期する
前記(11)乃至(16)のいずれかに記載の画像処理装置。
(18)
前記第1の符号化ストリームのGOP構造は、Closed GOP構造である
前記(11)乃至(17)のいずれかに記載の画像処理装置。
(19)
前記復号部は、
前記第1の符号化ストリームを復号する第1の復号部と、
前記第2の符号化ストリームを復号する第2復号部と
を備える
前記(11)乃至(18)のいずれかに記載の画像処理装置。
(20)
画像処理装置が、
全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像が前記面ごとに分割されて第1の解像度で符号化された第1の符号化ストリームと、前記全方向の画像から生成された第2の全天球画像が第2の解像度で符号化された第2の符号化ストリームとに対して、前記複数の面の対向する面どうしのペアのうちの一方の面に対応する前記第1の符号化ストリームを復号し、その面の前記第1の解像度の前記第1の全天球画像を生成する復号ステップ
を含む画像処理方法。
10 立方体, 11乃至16 面, 30 全天球画像, 132 コンテンツサーバ, 133 ホームサーバ, 154,156−1乃至156−6 エンコーダ, 223,225−1乃至225−3 デコーダ, 227 描画部, 229 視線検出部, 301,311乃至316 画像, 320 全天球画像, 321 低解像度上画像, 340 コンテンツサーバ, 322 低解像度下画像, 362 画面分割部, 363 低解像度化部, 471 ホームサーバ

Claims (20)

  1. 全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像を前記面ごとに第1の解像度で符号化し、各面に対応する第1の符号化ストリームを生成する第1の符号化部と、
    前記全方向の画像から生成された第2の全天球画像を第2の解像度で符号化し、第2の符号化ストリームを生成する第2の符号化部と
    を備える画像処理装置。
  2. 前記第1の全天球画像と前記第2の全天球画像の生成方法は異なる
    請求項1に記載の画像処理装置。
  3. 前記第1の全天球画像の生成方法は、キューブマッピングであり、
    前記第2の全天球画像の生成方法は、正距円筒図法である
    請求項2に記載の画像処理装置。
  4. 前記第1の符号化部は、前記複数の面の対向する面どうしのペアの前記第1の符号化ストリームのランダムアクセス可能位置が同期するように、前記第1の符号化ストリームを生成する
    請求項1に記載の画像処理装置。
  5. 前記第1の符号化部は、GOP構造をClosed GOP構造として、前記第1の符号化ストリームを生成する
    請求項4に記載の画像処理装置。
  6. 前記第2の全天球画像の解像度を前記第2の解像度に変換する変換部
    をさらに備える
    請求項1に記載の画像処理装置。
  7. 前記第1の符号化ストリームと前記第2の符号化ストリームとを記憶する記憶部
    をさらに備える
    請求項1に記載の画像処理装置。
  8. 前記記憶部に記憶された前記第1の符号化ストリームと前記第2の符号化ストリームとを、前記第1の符号化ストリームと前記第2の符号化ストリームを復号する端末に配信する配信部
    をさらに備える
    請求項7に記載の画像処理装置。
  9. 前記第1の符号化部は、AVC/H.264規格またはHEVC/H.265規格に準じた前記第1の符号化ストリームを生成し、
    前記第2の符号化部は、AVC/H.264規格またはHEVC/H.265規格に準じた前記第2の符号化ストリームを生成する
    請求項1に記載の画像処理装置。
  10. 画像処理装置が、
    全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像を前記面ごとに第1の解像度で符号化し、各面に対応する第1の符号化ストリームを生成する第1の符号化ステップと、
    前記全方向の画像から生成された第2の全天球画像を第2の解像度で符号化し、第2の符号化ストリームを生成する第2の符号化ステップと
    を含む画像処理方法。
  11. 全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像が前記面ごとに分割されて第1の解像度で符号化された第1の符号化ストリームと、前記全方向の画像から生成された第2の全天球画像が第2の解像度で符号化された第2の符号化ストリームとに対して、前記複数の面の対向する面どうしのペアのうちの一方の面に対応する前記第1の符号化ストリームを復号し、その面の前記第1の解像度の前記第1の全天球画像を生成する復号部
    を備える画像処理装置。
  12. 前記復号部は、前記第2の符号化ストリームを復号し、前記第2の解像度の前記第2の全天球画像を生成する
    請求項11に記載の画像処理装置。
  13. ユーザの視線方向に基づいて、前記ペアのうちの一方の面を選択する選択部
    をさらに備え、
    前記復号部は、前記選択部により選択された前記面に対応する前記第1の符号化ストリームを復号する
    請求項12に記載の画像処理装置。
  14. 前記復号部により生成された前記ペアのうちの一方の面の前記第1の解像度の前記第1の全天球画像と前記第2の解像度の前記第2の全天球画像とを用いて、前記視線方向に基づく視野範囲の画像を生成する描画部
    をさらに備える
    請求項13に記載の画像処理装置。
  15. 前記第1の全天球画像と前記第2の全天球画像の生成方法は異なる
    請求項11に記載の画像処理装置。
  16. 前記第1の全天球画像の生成方法は、キューブマッピングであり、
    前記第2の全天球画像の生成方法は、正距円筒図法である
    請求項15に記載の画像処理装置。
  17. 前記ペアの前記第1の符号化ストリームのランダムアクセス可能位置は同期する
    請求項11に記載の画像処理装置。
  18. 前記第1の符号化ストリームのGOP構造は、Closed GOP構造である
    請求項17に記載の画像処理装置。
  19. 前記復号部は、
    前記第1の符号化ストリームを復号する第1の復号部と、
    前記第2の符号化ストリームを復号する第2復号部と
    を備える
    請求項11に記載の画像処理装置。
  20. 画像処理装置が、
    全方向の画像から生成されたモデルの複数の面の画像からなる第1の全天球画像が前記面ごとに分割されて第1の解像度で符号化された第1の符号化ストリームと、前記全方向の画像から生成された第2の全天球画像が第2の解像度で符号化された第2の符号化ストリームとに対して、前記複数の面の対向する面どうしのペアのうちの一方の面に対応する前記第1の符号化ストリームを復号し、その面の前記第1の解像度の前記第1の全天球画像を生成する復号ステップ
    を含む画像処理方法。
JP2017503420A 2015-03-05 2016-02-19 画像処理装置および画像処理方法 Active JP6688469B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2015043613 2015-03-05
JP2015043613 2015-03-05
JP2015119142 2015-06-12
JP2015119142 2015-06-12
PCT/JP2016/054835 WO2016140083A1 (ja) 2015-03-05 2016-02-19 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2016140083A1 true JPWO2016140083A1 (ja) 2017-12-14
JP6688469B2 JP6688469B2 (ja) 2020-04-28

Family

ID=56848904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017503420A Active JP6688469B2 (ja) 2015-03-05 2016-02-19 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (1) US10911781B2 (ja)
JP (1) JP6688469B2 (ja)
CN (1) CN107409233B (ja)
WO (1) WO2016140083A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107993276B (zh) * 2016-10-25 2021-11-23 杭州海康威视数字技术股份有限公司 一种全景图像的生成方法及装置
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
GB2555788A (en) * 2016-11-08 2018-05-16 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
GB2571638B (en) * 2016-12-14 2022-04-20 Mediatek Inc Method and apparatus for generating and encoding projection-based frame with 360-degree content represented by rectangular projection faces packed in viewport
US10573076B2 (en) 2016-12-14 2020-02-25 Mediatek Inc. Method and apparatus for generating and encoding projection-based frame with 360-degree content represented by rectangular projection faces packed in viewport-based cube projection layout
CN108235031B (zh) * 2016-12-15 2019-11-05 华为技术有限公司 一种运动矢量解码方法及解码器
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
WO2018134946A1 (ja) 2017-01-19 2018-07-26 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、及び画像表示制御装置
CN110235447B (zh) * 2017-01-19 2023-03-28 索尼互动娱乐股份有限公司 图像传送装置
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US10839480B2 (en) * 2017-03-22 2020-11-17 Qualcomm Incorporated Sphere equator projection for efficient compression of 360-degree video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
GB2563275B (en) * 2017-06-09 2019-10-09 Sony Interactive Entertainment Inc Image processing device and system
US20200137417A1 (en) * 2017-06-26 2020-04-30 Sony Corporation Generation device and generation method, and reproduction device and reproduction method
US20190005709A1 (en) * 2017-06-30 2019-01-03 Apple Inc. Techniques for Correction of Visual Artifacts in Multi-View Images
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
EP3429207A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing A method and apparatus for encoding/decoding a colored point cloud representing the geometry and colors of a 3d object
CN109427089B (zh) * 2017-08-25 2023-04-28 微软技术许可有限责任公司 基于环境光照条件的混合现实对象呈现
US10573060B1 (en) * 2018-06-14 2020-02-25 Kilburn Live, Llc Controller binding in virtual domes
US10740957B1 (en) * 2018-06-14 2020-08-11 Kilburn Live, Llc Dynamic split screen
JP7176277B2 (ja) * 2018-07-31 2022-11-22 株式会社リコー 配信装置、カメラ装置、配信システム、配信方法及び配信プログラム
JP7249755B2 (ja) * 2018-10-26 2023-03-31 キヤノン株式会社 画像処理システムおよびその制御方法、プログラム
JP7326774B2 (ja) * 2019-03-06 2023-08-16 株式会社リコー 画像処理システム、撮像装置、情報処理装置、画像処理方法及びプログラム
CN111866485A (zh) * 2019-04-25 2020-10-30 中国移动通信有限公司研究院 立体画面投影和传输方法、装置和计算机可读存储介质
GB2619640B (en) * 2019-07-05 2024-06-05 V Nova Int Ltd Quantization of residuals in video coding
GB2585645B (en) * 2019-07-08 2024-04-17 Toshiba Kk Computer vision method and system
US20220368957A1 (en) * 2020-02-29 2022-11-17 Ohmi Digital Fabrications Co., Ltd. Moving image distribution method, moving image reproduction method, moving image distribution apparatus, and distribution data structure
US11533467B2 (en) 2021-05-04 2022-12-20 Dapper Labs, Inc. System and method for creating, managing, and displaying 3D digital collectibles with overlay display elements and surrounding structure display elements

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072694A (ja) * 2002-08-09 2004-03-04 Sony Corp 情報提供システムおよび方法、情報提供装置および方法、記録媒体、並びにプログラム
JP2013012181A (ja) * 2011-06-03 2013-01-17 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US20140087867A1 (en) * 2012-09-26 2014-03-27 Igt Wearable display system and method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001298652A (ja) 2000-04-17 2001-10-26 Sony Corp 画像圧縮方法及び画像圧縮装置、並びにソフトウェア記憶媒体
JP2002312778A (ja) 2001-04-09 2002-10-25 Be Here Corp モーションパノラマ画像を電子的に配信する方法および装置
US8737816B2 (en) * 2002-08-07 2014-05-27 Hollinbeck Mgmt. Gmbh, Llc System for selecting video tracks during playback of a media production
JP2004272590A (ja) * 2003-03-07 2004-09-30 Sony Corp データ符号化装置及びデータ符号化方法、並びにコンピュータ・プログラム
JP4475643B2 (ja) 2004-06-29 2010-06-09 キヤノン株式会社 画像符号化装置及び方法
JP4345829B2 (ja) * 2007-03-09 2009-10-14 ソニー株式会社 画像表示システム、画像表示装置、画像表示方法およびプログラム
CN101771877B (zh) * 2010-01-20 2012-07-25 李博航 信息处理方法
CN101765012B (zh) * 2010-01-20 2012-05-23 李博航 图像信息处理方法
CN103428500B (zh) * 2013-08-31 2016-08-10 西安电子科技大学 一种超分辨率大视场红外成像方法
US10204658B2 (en) * 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
US9917877B2 (en) * 2014-10-20 2018-03-13 Google Llc Streaming the visible parts of a spherical video
CN104349142B (zh) * 2014-11-03 2018-07-06 南京航空航天大学 一种基于分层表达的无人机视频自适应传输方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072694A (ja) * 2002-08-09 2004-03-04 Sony Corp 情報提供システムおよび方法、情報提供装置および方法、記録媒体、並びにプログラム
JP2013012181A (ja) * 2011-06-03 2013-01-17 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US20140087867A1 (en) * 2012-09-26 2014-03-27 Igt Wearable display system and method

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
KIMATA, H., ET AL.: ""Interactive Panorama Video Distribution System"", PROCEEDINGS OF THE 2011 TECHNICAL SYMPOSIUM AT ITU TELECOM WORLD (ITU WT), JPN6016015634, 27 October 2011 (2011-10-27), pages 45 - 50, ISSN: 0004226336 *
KIMATA, H., ET AL.: ""Mobile and Multi-device Interactive Panorama Video Distribution System"", PROCEEDINGS OF THE 1ST IEEE GLOBAL CONFERENCE ON CONSUMER ELECTRONICS 2012, JPN6016015635, 5 October 2012 (2012-10-05), pages 574 - 578, ISSN: 0004226337 *
KIMATA, H., ET AL.: ""Panorama video coding for user-driven interactive video application"", PROCEEDINGS OF THE 13TH IEEE INTERNATIONAL SYMPOSIUM ON CONSUMER ELECTRONICS (ISCE2009), JPN6016015633, 28 May 2009 (2009-05-28), pages 112 - 114, ISSN: 0004226335 *
佐藤 啓宏(外2名): "「VR/MRガイドツアーシステムの開発と運用」", 日本バーチャルリアリティ学会論文誌, vol. 19, no. 2, JPN6020008168, 30 June 2014 (2014-06-30), pages 247 - 254, ISSN: 0004226339 *
波部 斉(外4名): "「多面体表現を用いた全方位ビデオの圧縮」", 電子情報通信学会論文誌, vol. 88, no. 9, JPN6020008166, 1 September 2005 (2005-09-01), pages 1074 - 1084, ISSN: 0004226338 *

Also Published As

Publication number Publication date
CN107409233B (zh) 2020-04-14
CN107409233A (zh) 2017-11-28
WO2016140083A1 (ja) 2016-09-09
JP6688469B2 (ja) 2020-04-28
US10911781B2 (en) 2021-02-02
US20180007387A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
JP6688469B2 (ja) 画像処理装置および画像処理方法
JP6687015B2 (ja) 画像処理装置および画像処理方法
US10412413B2 (en) Image processing device and image processing method
CN115150619B (zh) 编码装置及解码装置
WO2018175493A1 (en) Adaptive perturbed cube map projection
CN110546960B (zh) 多层视频流传输系统和方法
JP6648753B2 (ja) 画像符号化装置および方法
CN110121065B (zh) 空间排序视频编码应用中的多向图像处理
WO2016125604A1 (ja) 画像符号化装置および方法
US11917194B2 (en) Image encoding/decoding method and apparatus based on wrap-around motion compensation, and recording medium storing bitstream
US11785245B2 (en) Image encoding/decoding method and device on basis of wrap-around motion compensation, and recording medium storing bitstream
KR20170059902A (ko) 다시점 비디오의 부호화/복호화 방법 및 장치
CN114556949A (zh) 帧内预测装置和方法
RU2787713C2 (ru) Способ и устройство предсказания блока цветности
CN114679588B (zh) 编码方法及解码方法
CN118303026A (en) Method and apparatus for encoding intra prediction mode

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R151 Written notification of patent or utility model registration

Ref document number: 6688469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151