JP2018507650A - コンテンツの生成、送信、および/または、再生をサポートするための方法および装置 - Google Patents

コンテンツの生成、送信、および/または、再生をサポートするための方法および装置 Download PDF

Info

Publication number
JP2018507650A
JP2018507650A JP2017546157A JP2017546157A JP2018507650A JP 2018507650 A JP2018507650 A JP 2018507650A JP 2017546157 A JP2017546157 A JP 2017546157A JP 2017546157 A JP2017546157 A JP 2017546157A JP 2018507650 A JP2018507650 A JP 2018507650A
Authority
JP
Japan
Prior art keywords
image
environment
frame
content
visible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017546157A
Other languages
English (en)
Inventor
コール、デイビッド
モス、アラン・マッケイ
Original Assignee
ネクストブイアール・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ネクストブイアール・インコーポレイテッド filed Critical ネクストブイアール・インコーポレイテッド
Publication of JP2018507650A publication Critical patent/JP2018507650A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/001Arbitration of resources in a display system, e.g. control of access to frame buffer by video controller and/or main processor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2352/00Parallel handling of streams of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/02Graphics controller able to handle multiple formats, e.g. input or output formats
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling
    • G09G2360/125Frame memory handling using unified memory architecture [UMA]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

デフォルトビューイング位置から見える環境の表面のイメージと、デフォルトビューイング位置からは見えない表面、たとえば遮られた表面、のイメージとの取り込み、処理、および/または、使用をサポートするための方法および装置が説明される。いくつかの実施形態では、遮られたイメージコンテンツおよび遮られないイメージコンテンツは、1つまたは複数の異なるストリームフォーマットで再生装置に送信される。環境内のデフォルトビューイング位置からは見えないが、ユーザが、環境内のデフォルト位置に対応するデフォルトビューイング位置から他の位置に動くときに、デフォルトビューイング位置からオフセットされた位置からは見える表面のイメージの表示をサポートするために、再生装置は遮られたイメージのデータを使用する。1つのストリームフォーマットにしたがって、遮られたイメージコンテンツおよび遮られないイメージコンテンツが、同じフレーム内で通信される。他のストリームフォーマットにしたがって、遮られたイメージコンテンツおよび遮られないイメージコンテンツが、異なるフレーム内で通信される。

Description

関連出願
[0001] 本願は、2015年3月1日に出願された米国仮出願第62/126,701号、2015年3月1日に出願された米国仮出願第62/126,709号、および、2015年3月2日に出願された米国仮出願第62/127,215号の利益を主張するものであり、そのそれぞれは、参照によりその全体が本明細書に明示的に組み込まれる。
[0002] 本発明は、1つまたは複数の異なるコンテンツストリームフォーマットで通信され得るイメージコンテンツを生成し、送信し、および/または、使用するための方法および装置に関する。
[0003] コンテンツ取り込み方法は、通常、環境内の単一の位置からのコンテンツの取り込みに焦点を当てる。様々な表面が、単一のイメージ取り込み位置から、ビューからは遮られるなど、遮られ得る。たとえば、柱の背面は見えない可能性があり、または、箱の内面は見えない可能性がある。
[0004] 環境シミュレーションがより現実的になるにつれて、ディスプレイ装置のユーザは、シミュレートされた環境内で動くことができることを望む。たとえば、彼らが立ち上がる場合に、彼らは、箱の上面越しに見て、イメージが環境内で取り込まれた位置に対応する環境内のデフォルトビューイング位置からは見ることができなかった箱の内部を見ることができることを期待し得る。同様に、ユーザが、横に上体を曲げることによって自分の頭の位置を変更する場合、ユーザは、柱の回りを覗き見ることができることを期待し得る。
[0005] 残念ながら、環境内の単一の位置から取り込まれたイメージが、再生装置に供給される唯一のコンテンツである場合、環境内の単一の位置から取り込まれたイメージを使用してシミュレートされている環境内でユーザが自分の位置を変更するときにユーザが見ることを期待する、以前に遮られていたイメージコンテンツを、再生装置が示すことはできない。したがって、より現実的な環境シミュレーションを容易にするために、環境の遮られた部分のイメージを取り込み、通信し、および/または、使用する必要がある。送信ならびに再生に関する改善の必要があるが、すべての特徴と実施形態とが、送信側と再生側との両方に対処する必要はなく、いずれかに対する改善を提供する特徴が、有用であり有益である。
[0006] 上記から、環境の遮られた部分のイメージが取り込まれることを可能にし、環境の遮られた部分のイメージの少なくともいくつかの部分が再生装置に供給されることを可能にする方法および/または装置の必要があることを理解されたい。
[0007] すべての実施形態に関して必要または重大とは限らないが、遮られないイメージコンテンツと共に、遮られたイメージコンテンツを再生装置に送信する1つまたは複数の方法が、比較的にデータ効率のよい形でサポートされ得るならば、有用である。
[0008] 上記から、イメージを再生装置が、環境の遮られた部分に対応する少なくともいくつかのイメージコンテンツと共に、環境の遮られない部分を受け取り、および/または、使用することを可能にする方法および/または装置の必要があることをも理解されたい。
[0009] 再生をサポートするために、取り込まれたイメージを処理し、1つまたは複数のフォーマットでイメージを送信する方法と装置とが説明される。いくつかの実施形態でのイメージの処理および送信は、再生を容易にし、イメージが取り込まれた環境内に存在することのシミュレーションをユーザに提供することを、再生装置が可能にする形で実行される。必ずしもすべてではないがいくつかの実施形態において、十分なコンテンツが、環境内のデフォルト位置から見ることができなかったコンテンツをユーザが見られるように、ユーザが自分の位置を変更することを可能にし、表示されるコンテンツがビューア位置の変化を少なくとも部分的に反映するために、再生装置に送信される。
[0010] したがって、少なくともいくつかの特徴は、再生装置を使用してシミュレートされた環境内のビューイング位置の範囲をサポートする方法と装置とに向けられ、説明される。様々な実施形態では、環境は、第1の、たとえばデフォルトの、ビューイング位置からシミュレートされる。ユーザの頭位置、たとえば、頭の向きと位置、が、監視され、たとえば、ユーザの頭位置のシフトに起因する、デフォルトビューイング位置からの変化が、検出される。ユーザは、デフォルトビューイング位置が対応する位置に対するサポートされるビューイング位置の範囲内にある新しいビューイング位置に、自分の頭を動かす、たとえば、シフトする、ことを選択することができる。左または右と上下に頭の向きを変えることが、表示される部分が、デフォルトビューイング位置に対応するが、異なる頭の角度を考慮にいれないで、環境のどの部分がユーザに対して表示されるのかを変更することによってサポートされる。ユーザの頭は、デフォルトビューイング位置に留まるが、実際の環境内のデフォルトビューイング位置に位置決めされた1つまたは複数の立体視カメラ対によって取り込まれるイメージコンテンツが、描画され、ユーザに対して表示される。デフォルトビューイング位置の文脈でのイメージ描画は、環境の3D(3次元)モデル、デフォルトビューイング位置に対応して、たとえば、左目イメージと右目イメージとの対などのフレームと、デフォルトビューイング位置のコンテンツストリームからのイメージに対応するフレームを3Dモデル上に描画するのに使用されるUVマップとを含む第1のコンテンツストリームを使用してイメージを表示することを含み得、または、時に含む。
[0011] 検出された頭の回転は、デフォルトビューイング位置に対応するコンテンツストリームの異なる部分の表示の結果となるが、ユーザは、たとえば、左もしくは右、前もしくは後に上体を曲げること、および/または、立ち上がりもしくは座ることによって、自分の頭位置を変更することができる。そのような変化は、単純に頭の回転ではなく、デフォルトビューイング位置からの物理的なシフトまたはオフセットを表し、ビューイング位置の変化の結果となる。
[0012] デフォルトビューイング位置からの物理的なオフセット(ずれ)の場合に、ユーザは、デフォルトビューイング位置からはビューからは遮られていた環境の部分を見ることを期待し得る。たとえば、ユーザのデフォルトビューイング位置の左に位置決めされた支柱があったとすると、前に上体を曲げ、したがって、支柱に対して、ビューの位置および/または方向などのユーザのビューイング位置を変更することによって、ユーザは、以前にはビューから遮られていた環境の部分を見ることができることを期待し得る。柱が、通常は、デフォルトビューイング位置に対応するイメージを取り込むのに使用されるカメラへのそのようなイメージエリアの取り込みを妨げていたので、ビューから遮られていた環境の部分は、通常は、デフォルトビューイング位置に対応する左目ビューと右目ビューとを取り込むのに使用されるカメラの1つまたは複数の対などのカメラから入手可能ではない。
[0013] 様々な実施形態によれば、デフォルトビューイングエリアのためのコンテンツストリームを生成するのに使用されるイメージを取り込むのに使用されるカメラ以外の追加のカメラが、使用され、デフォルトビューイングエリアからのビューからは遮られた環境の部分を取り込む。カメラは、デフォルトビューイング位置に対応する左目ビューと右目ビューとを取り込むのに使用される1つまたは複数のカメラ対を含むカメラリグ上に取り付けられ得る。いくつかのそのような実施形態では、遮られたイメージエリアを取り込むのに使用されるカメラは、立体視カメラ対のカメラとは異なる1つまたは複数のタイプのものである。たとえば、遮られたイメージエリアを取り込むのに使用されるカメラは、立体視再生のために左目位置イメージと右目位置イメージとを取り込むのに使用されるカメラ対とは異なる位置でカメラリグに含まれる、ライトフィールドカメラまたはより低解像度のカメラであってよい。いくつかの実施形態において、1つまたは複数のライトフィールドカメラによって取り込まれたイメージは、イベントの間の環境のリアルタイムマッピングと環境の変化の検出とを可能にする環境奥行(深度)情報を提供するのに使用され、一方で、ユーザが自分の頭の位置をデフォルトビューイング位置から変更する場合に、立体視カメラ対によって取り込まれるイメージを補うのに使用され得るイメージをも提供する。
[0014] いくつかの実施形態では、デフォルトビューイング位置からのビューからは遮られた環境部分に対応するイメージデータは、デフォルトビューイング位置に対応する立体視イメージを取り込むのに使用されるカメラ対が載る同じカメラリグ上の様々な位置に配置された1つまたは複数のカメラによって取り込まれるが、他の実施形態では、イメージ部分は、関心を持たれている環境内の他の位置でカメラによって取り込まれ、あるいは、イメージは、デフォルトビューイング位置に対応するものとして提供されるイメージが取り込まれる時点とは異なる時点で取り込まれる。たとえば、遮られたイメージ部分に対応するイメージは、デフォルトビューイング位置に対応するイメージを取り込むのに使用されるカメラリグの左または右に配置された1つまたは複数のカメラによって取り込まれ得る。代替として、イベント中にデフォルトビューイング位置からのビューイングに対して一時的に妨害するもののことを知る場合に、イメージは、イベントのために加えられる横断幕または機器収納などの一時的に妨害するもの配置の前に取り込まれ、その後、遮られたイメージエリアのビューイングをサポートするためにイメージデータとして使用され得る。様々ないくつかの実施形態では、遮られたイメージエリアに対応するイメージデータは、デフォルトビューイング位置に対応するイメージデータとは異なる時間期間には対応しない場合があるが、遮られたイメージエリアは、重要なシーン情報を伝えない可能性が高く、多くの場合に、ユーザは、通常は遮られたイメージエリアのイメージデータが、表示される3Dシーンの他のエリアと同じ時点からのものではないことを実感しない。
[0015] 様々な実施形態では、たとえば、デフォルトビューイング位置から見ることのできないイメージコンテンツなどの遮られたイメージコンテンツは、遮られないイメージコンテンツに加えて再生装置に通信される。
[0016] 遮られたイメージコンテンツと遮られないイメージコンテンツとを再生装置に通信する様々な方法が、サポートされる。個々の実施形態は、遮られたイメージコンテンツと遮られないイメージコンテンツとを送信し、および/または、受信する複数の形をサポートする必要はないが、いくつかの実施形態では、コンテンツサーバと再生装置とは、そのような情報を通信し、受信する複数の方法をサポートする。
[0017] いくつかの実施形態では、遮られたイメージコンテンツと遮られないイメージコンテンツとは、共に、再生装置に送信されるフレームにパックされる。
[0018] 他の実施形態では、遮られたイメージコンテンツは、遮られたイメージコンテンツを通信するのに使用される補助コンテンツストリームとは別々である、たとえば、主コンテンツストリームなどの異なるコンテンツストリーム内で通信される。主コンテンツストリームと補助コンテンツストリームとは、たとえば、モデル化され得るスタジアム、コンサートホールなどの環境内で起こり得るスポーツイベント、コンサート、または、他のイベントなどのプログラムに対応するコンテンツを通信するのに使用されるプログラムストリーム内に多重化され得、しばしば多重化される。
[0019] 通常は遮られたイメージエリアに対応するイメージを表示するために、いくつかの実施形態では、補充イメージコンテンツストリームが、デフォルトビューイング位置からのビューからは遮られたイメージエリアに対応するイメージコンテンツを提供するために、すべてではなくいくつかの実施形態で、再生装置に与えられる。そのような補充コンテンツは、1つの、しかし多くの場合には複数の、環境の通常は遮られるエリアに対応するコンテンツを含むフレームの形とすることができる。遮られたイメージ部分に対応するイメージに加えて、遮られたイメージ部分のUVマップが、少なくともいくつかの実施形態で、遮られたイメージデータを提供するフレームのセグメントが環境の3Dモデルにどのようにマッピングされるのかを示す情報を与えられる。遮られたイメージ部分からのどのセグメントが使用されるのかは、ユーザによってなされるデフォルトビューイング位置への変更に依存することができ、いくつかの実施形態では依存する。所定の量までのデフォルトビューイング位置の変化がサポートされ得る。たとえば、1フィートまたはそれより多くの左または右へのビューイング位置の移動が、補充イメージデータによって提供される遮られたイメージ部分の使用を通してサポートされ得る。遮られたイメージ部分に対応するイメージデータは、デフォルトビューイング位置に対応するイメージデータと同じフレームレートまたはより低いフレームレートで、フレーム内で送られ得、いくつかの実施形態では送られる。いくつかの実施形態では、環境の通常は遮られる部分に対応する取り込まれたイメージ内の変化が検出され、新しい補充フレームが、必要な場合に、再生装置によって表示される更新された遮られたエリアイメージコンテンツを提供するために、検出された変化に応答して送られる。遮られたイメージ部分は、デフォルトビューイング位置に対応する環境のイメージと同じ解像度を有することができ、時に有する。
[0020] しかし、他の実施形態では、環境の通常は遮られる部分に対応するイメージは、デフォルトビューイング位置に対応するイメージを取り込むのに使用されるカメラ対によって取り込まれるイメージより低い解像度のものであってよい。これは、しばしば、Lytro(ライトロ)社製カメラなどのライトフィールドアレイを使用する1つまたは複数のカメラによって取り込まれるイメージが、通常は遮られたイメージ部分のイメージを取り込むのに使用される場合である。
[0021] イメージ処理システムおよび/またはイメージ送信システムが、遮られないイメージコンテンツおよび/または遮られたイメージコンテンツを通信する1つまたは複数の方法をサポートし得るが、すべての送信システムが、この中で説明されるすべての方法をサポートする必要はない。
[0022] 様々な実施形態の再生装置は、遮られないイメージコンテンツと遮られたイメージコンテンツとを受信し、および/または、使用することができる。再生装置は、そのようなコンテンツを供給するこの中で説明されるシステムからそのようなコンテンツを受信することができる。
[0023] 様々な特徴は、再生装置、および/または、再生装置を動作させる方法に向けられる。
[0024] 一実施形態では、再生装置は、遮られたイメージ部分と遮られないイメージ部分との両方を含むフレームを受信する。他の実施形態では、再生装置は、デフォルトビューイング位置に対応するイメージデータを含む、主フレームなどのフレームと、環境内のデフォルトビューイング位置からは見ることができなかった、環境の通常は遮られた部分に対応するイメージデータを提供する補助フレームなどのフレームとを受信する。遮られたコンテンツが受信され得る2つの異なる形が、異なるコンテンツストリームフォーマットに対応する。
[0025] デフォルトビューイング位置から新しいビューイング位置へのユーザの変化の検出に応答して、再生装置は、デフォルトビューイング位置に対応する受信されたコンテンツから生成される第1のイメージ部分と、通常は遮られたイメージ部分に対応する受信されたイメージコンテンツから生成される少なくとも第2のイメージ部分とを含むイメージを生成し、表示する。
[0026] 通常は遮られたイメージ部分に対応するコンテンツは、いくつかの実施形態で、遮られないイメージ部分と遮られたイメージ部分との両方を含むフレーム内で受信される。他の実施形態では、遮られたイメージデータは、デフォルトビューイング位置からはビューから通常は遮られる環境エリアのイメージを提供する補助内で受信される。表示される通常は遮られたイメージの1つまたは複数のどの部分かの選択は、デフォルトビューイング位置からの検出されたユーザのオフセットに基づいて決定される。
[0027] 遮られたイメージコンテンツと遮られないイメージコンテンツとを供給することによって、環境内の異なる位置に対応するいくつかのビューイング位置を含む、複数のビューイング位置が、コンテンツ再生中にサポートされ得る。
[0028] 多数の特徴および実施形態が、この概要で説明されたが、すべての実施形態が、上述された特徴のすべての使用を必要としまたは含むわけではなく、いくつかの実施形態は、上述された特徴のうちの1つまたは少数を含んでもよく、および/または、遮られたイメージ部分の通信および/または使用する上述の方法のうちの1つをサポートしてもよいことを理解されたい。多数の追加の特徴と実施形態と利益とが、以下の詳細な説明で議論される。
[0029] 図1は、カメラリグを較正するのに使用され得る較正ターゲットと共に、一実施形態にしたがって実装されたカメラリグを示す。 [0030] 図2は、カメラリグ内に取り付けられた、たとえば、立体視イメージデータを取り込む3対のカメラなどの3対のカメラを有するカメラリグを示す。 [0031] 図3は、いくつかの例示的な実施形態にしたがって実装された例示的な保護カバーを有する例示的なカメラリグを示す。 [0032] 図4は、いくつかの例示的な実施形態にしたがって実装された他の例示的なカメラリグを示す。 [0033] 図5は、いくつかの例示的な実施形態にしたがって実装されたさらに他の例示的なカメラリグを示す。 [0034] 図6は、本発明のいくつかの実施形態にしたがって実装された例示的なシステムを示す。 [0035] 図7Aは、いくつかの実施形態により例示的な処理システムを動作させる例示的な方法のフローチャートを示す、図7の第1の部分である。 [0036] 図7Bは、処理システムを動作させる例示的な方法のフローチャートを示す、図7の第2の部分である。 [0037] 図7Cは、処理システムを動作させる例示的な方法のフローチャートを示す、図7の第3の部分である。 [0038] 図7Dは、処理システムを動作させる例示的な方法のフローチャートを示す、図7の第4の部分である。 [0039] 図7は、図7A、7B、7C、および、7Dの組合せを備える。 [0040] 図8は、図7のフローチャートの方法の一部としていくつかの実施形態で実装される例示的なコンテンツ供給ルーチンのステップを示す。 [0041] 図9は、たとえば、遮られたイメージ部分を含まないストリームまたはダウンロードコンテンツなどを供給するのに使用される第1のストリームフォーマットを示す。 [0042] 図10は、たとえば、フレーム内に遮られないイメージ部分と遮られたイメージ部分とを含むストリームまたはダウンロードコンテンツなどを供給するのに使用される第2のストリームフォーマットを示す。 [0043] メインコンテンツストリームまたは主コンテンツストリームのフレーム内で送信される遮られないイメージ部分と、補助ストリーム内の遮られたイメージ部分とを含む、たとえば、ストリームまたはダウンロードコンテンツなどを供給するのに使用される第3のストリームフォーマットを示す。 [0044] 図12は、例示的な実施形態にしたがって実装された例示的な処理システムを示す。 [0045] 図13Aは、例示的な実施形態にしたがって例示的な描画および再生装置を動作させる例示的な方法のフローチャートを示す、図13の第1の部分である。 [0046] 図13Bは、描画および再生装置を動作させる例示的な方法のフローチャートを示す、図13の第2の部分である。 [0047] 図13は、図13Aと13Bとの組合せを備える。 [0048] 図14は、図13の方法の実行することの一部として本発明の再生装置によって実装される例示的な第1のストリームフォーマット再生ルーチンのステップを示す。 [0049] 図15Aは、図13の方法の実行することの一部として再生装置によって実装される例示的な第2のストリームフォーマット再生ルーチンのステップを示す、図15の第1の部分である。 [0050] 図15Bは、図13の方法を実行することの一部として再生装置によって実装される例示的な第2のストリームフォーマット再生ルーチンのステップを示す、図15の第2の部分である。 [0051] 図15は、図15Aと15Bとの組合せを備える。 [0052] 図16Aは、図13の方法を実行することの一部として再生装置によって実装される例示的な第3のストリームフォーマット再生ルーチンのステップを示す、図16の第1の部分である。 [0053] 図16Bは、図13の方法を実行することの一部として再生装置によって実装される例示的な第3のストリームフォーマット再生ルーチンのステップを示す、図16の第2の部分である。 [0054] 図16Cは、図13の方法を実行することの一部として再生装置によって実装される例示的な第3のストリームフォーマット再生ルーチンのステップを示す、図16の第3の部分である。 [0055] 図16Dは、図13の方法を実行することの一部として再生装置によって実施される例示的な第3のストリームフォーマット再生ルーチンのステップを示す、図16の第4の部分である。 [0056] 図16は、図16A、16B、16C、および、16Dの組合せを備える。 [0057] 図17は、3Dモデルをセグメントに分割するのに使用される線の交差点として示された複数のノードをもった、様々な実施形態で使用され得る例示的な3D環境メッシュモデルを示す。 [0058] 図18は、図17のメッシュモデルに対し、テクスチャを提供する、2Dフレームの部分のマッピングに使用され得る例示的なUVマップを示す。 [0059] 図19は、例示的な実施形態にしたがって実装された例示的な描画および再生装置を示す。
詳細な説明
[0060] 様々な特徴はパノラマ立体視イメージの分野に関連するもので、以下で議論される、カメラを含むカメラリグなどの様々なイメージング装置および/またはイメージング機器は、広範囲の応用のための重量と電力の要件を満足するが、小さいサイズの機器において合理的なコストで最小限の個数のカメラを使用して、高解像度で、高ダイナミックレンジで、高フレームレートの立体視360°パノラマビデオを取り込むのによく適合する。
[0061] 立体視360°パノラマビデオコンテンツは、仮想現実ディスプレイでの使用のためにますます需要がある。最終的なイメージの明瞭さにとって重要である4Kまたはそれより大きい解像度と、弱光コンテンツを記録するために重要である高ダイナミックレンジと、動きの速いコンテンツ(スポーツなど)において細部を記録するために重要である高フレームレートとでの立体視360°パノラマビデオコンテンツを生成するために、好適な品質のプロフェッショナルグレードの大型センサのアレイ、シネマティックカメラ、または、他のカメラが、しばしば必要とされる。
[0062] カメラアレイが、立体視仮想現実ディスプレイでのビューイングのための360°立体視コンテンツの取り込むために有用であるために、カメラアレイは、ビューアの頭がカメラと同一位置に配置されているかのようにビューアが見るであろうものに結果が近似するように、コンテンツを獲得すべきである。具体的には、立体視カメラの対は、それらの軸間分離が63mmという許容される人間モデル平均値から許容可能な差分(デルタ)以内になるように構成されるべきである。さらに、パノラマアレイの中心点からカメラレンズの入射瞳までの距離(別名、ノードオフセット(nodal offset))は、101mmという許容される人間モデル平均値から許容可能な差分以内になるように構成されるべきである。
[0063] カメラアレイが、それがコンパクトで目立ちすぎないものであるべきイベントや多くの客が観戦するスポーツを取り込むのに使用されるためには、カメラアレイは、広範に多様な位置に展開され、配送が必要とされるときに合理的なサイズのコンテナ内で配送されることを可能にする、比較的小さい物理的なフットプリントで構成されるべきである。
[0064] カメラアレイは、また、シーン要素が隣接するカメラの視野の外になるので、シーン要素が取りこまれない「死角(dead zone)」を最小にするべく、アレイの最小イメージング距離が小さく、たとえば、できる限り小さく、なるように設計されるべきである。
[0065] カメラアレイが、最大の光学ひずみが発生しがちな場所(レンズ画角が交差し、レンズの最大ひずみが発生する場所)に較正ターゲットを位置決めすることによって光学アライメントに関して較正され得るならば、有利である。最も効果のある較正ターゲットの位置決めを容易にするために、ターゲット位置は、リグ設計から定型的に決定されるべきであり、いくつかの実施形態では決定される。
[0066] 図1は、いくつかの実施形態で使用される例示的なカメラ構成100を示す。図4および5に示された支持構造は、いくつかの実施形態で使用される図示のカメラ対構成のよりよい理解を可能にするために、図1には示されない。いくつかの実施形態では、3つのカメラ対が、図1の例などのように使用されるが、すべてではないがいくつかの実施形態では、たとえば、リグのカメラ位置などのカメラアレイは、同時360°立体視ビデオをサポートするのに使用され得る合計6つのカメラのうちの2つだけが設けられる。カメラリグまたはアセンブリが、リグ内に取り付けられ得る6つすべてより少ないカメラで構成される場合、リグは、たとえば、前景イメージが取り込まれていないときにリグを回転することによって、より低い値の背景180°シーン要素の静止イメージを手動で取り込む一方で、依然として、リアルタイムで高い値の前景180°シーン要素を取り込むことができる。たとえば、いくつかの実施形態では、2カメラアレイが、カメラに対して相対的に0°の位置におけるプレイのフィールドで、フットボールゲームを取り込むのに使用される場合に、アレイは、ノードポイントの回りに120°位置と240°位置とに手動で回転される。これは、正面部分のリアルタイム立体視ビデオと左後方部分および右後方部分の静止イメージとを含むハイブリッド化されたパノラマを生成するのに使用されるように、スポーツゲームまたは試合のフィールドでのアクション、たとえば、前景、が、リアルタイムで取り込まれることを可能にし、サイドラインと観覧席、たとえば、背景エリア、が、立体視静止イメージとして取り込まれることを可能にする。このようにして、リグは、たとえば、360°シーンエリアの異なるビューが取り込まれるときの異なる地点間の垂直方向の中央点などのノード軸の回りに回転されるようにカメラリグを使用し、異なる時点で取り込まれる360°ビューのいくつかの部分を用いて360°ビューを取り込むのに使用され得る。代替的に、単一のカメラが、第2と第3のカメラ対取り付位置に取り付けられてもよく、モノ(非立体視)イメージコンテンツが、それらのエリアについて取り込まれ得る。
[0067] カメラコストが問題にされない他のケースでは、図1の例のように6つまでのカメラを保持するリグを用いて、リグ内の各位置に、2つよりも多くのカメラが取り付けられ得る。このようにして、コストに影響するカメラ展開は、取り込まれるべき性能と、6台のカメラなどの多数を搬送するユーザの必要性もしくは能力、または、たとえば、2台のカメラなどの6台より少ないカメラを搬送するユーザの能力に依存して達成され得る。いくつかの実施形態では、環境奥行マップが、カメラリグ100内のカメラによって取り込まれたイメージから生成される。
[0068] 図1は、較正ターゲット115と共に、時にリグまたはカメラアレイとも呼ばれる6(6台)カメラアセンブリ100を示す。図1に示されたカメラリグ100は、示された位置に、カメラ、合計6つのカメラのための立体視カメラ(101、103)、(105、107)、(109、111)の3つの対102、104、106を保持する支持構造(図4と5とに図示)を含む。支持構造は、カメラを支持し、カメラがその上に取り付けられる板が固定され得る、この中で取り付け板(図4の要素720を参照されたい)とも呼ばれる基部720を含む。支持構造は、プラスティック、金属、または、グラファイトもしくはガラスファイバなどの複合材料から作られ得、カメラの間の間隔と関係性とを示すのにも使用される三角形を形成する線によって表される。点線が交差する中心点は、必ずしもすべてではなくいくつかの実施形態において、カメラ対102、104、106がその回りに回転され得る中心ノード点を表す。中心ノード点は、いくつかの実施形態で、三角形の線によって表されるカメラ支持フレームがその回りに回転され得る、たとえば、三脚基部の、鉄製ロッド、または、ねじ付けされた中央マウントに対応する。支持フレームは、カメラがその中に取り付けられるプラスティックハウジングまたは図4と5とに示された三脚構造とすることができる。
[0069] 図1では、カメラの各対102、104、106は、異なるカメラ対の位置に対応する。第1のカメラ対102は、正面に面する位置に向かい、通常は、メインアクションが起こる前景をカバーすることが意味される0°に対応する。この位置は、通常、スポーツゲームがプレイされているフィールド、メインアクション/演技が起こる可能性が高いステージ、または、なんらかの他のエリアなどの関心を持たれているメインエリアに対応する。第2のカメラ対104は、120°カメラ位置(正面から約120°)に対応し、右後方ビューイングエリアを取り込むのに使用される。第3のカメラ対106は、240°ビューイング位置(正面から約240°に面する)で、左後方ビューイングエリアに対応する。3つのカメラ位置が、120°離れていることに留意されたい。
[0070] 各カメラビューイング位置は、図1の実施形態で1つのカメラ対を含み、各カメラ対は、イメージを取り込むのに使用される、左カメラと右カメラとを含む。左カメラは、時に左目イメージと呼ばれるものを取り込み、右カメラは、時に右目イメージと呼ばれるものを取り込む。イメージは、1回もしくは複数回で取り込まれるビューシーケンスまたは静止イメージの一部であってよい。通常、少なくともカメラ対102に対応する正面カメラ位置は、高品質ビデオカメラが設けられる。他のカメラ位置は、高品質ビデオカメラ、より低い品質のビデオカメラ、または、静止イメージもしくはモノイメージを取り込むのに使用される単一のカメラが設けられ得る。いくつかの実施形態では、第2と第3のカメラ形態は設けられないままにされ、カメラがその上に取り付けられる支持板が回転され、第1のカメラ対102が、3つすべてのカメラ位置に対応するイメージを異なる時に取り込むことを可能にする。いくつかのそのような実施形態では、左後方イメージと右後方イメージとが、取り込まれ、記憶され、その後、前方カメラ位置のビデオが、イベント中に取り込まれる。取り込まれたイメージは、リアルタイム、たとえば、イベントがまだ進行中である間、に、符号化され、1つまたは複数の再生装置にストリーミングされ得る。
[0071] 図1に示された第1のカメラ対102は、左カメラ101と右カメラ103とを含む。左カメラは、第1のカメラに固定された第1のレンズアセンブリ120を有し、右カメラ103は、右カメラ103に固定された第2のレンズアセンブリを有する。レンズアセンブリ120、120’は、広い角度の視野が取り込まれることを可能にするレンズを含む。いくつかの実施形態では、各レンズアセンブリ120、120’は、魚眼レンズを含む。したがって、カメラ102、103のそれぞれは、180°視野または約180°を取り込むことができる。いくつかの実施形態では、180°より小さいものが取り込まれるが、依然、いくつかの実施形態では、隣接するカメラ対から取り込まれるイメージに少なくともいくらかのオーバーラップがある。図1の実施形態では、カメラ対は、第1(0°)のカメラ取り付け位置、第2(120°)のカメラ取り付け位置、および、第3(240°)のカメラ取り付け位置のそれぞれに配置され、各対は、環境の少なくとも120度またはそれより大きいものを取り込むが、多くの場合に、各カメラ対は、環境の180°または約180°を取り込む。
[0072] 第2および第3のカメラ対104、106は、第1のカメラ対102と同じまたは類似するが、正面0°位置に関して120°と240°とのカメラ取り付け位置に配置される。第2のカメラ対104は、左カメラ105と左レンズアセンブリ122と右カメラ107と右カメラレンズアセンブリ122’とを含む。第3のカメラ対106は、左カメラ109と左レンズアセンブリ124と右カメラ111と右カメラレンズアセンブリ124’とを含む。
[0073] 図1では、Dは、カメラ101、103の第1の立体視対102の軸間距離を表す。図1の例では、Dは、平均的な人間の左目と右目の瞳孔の間の距離と同じであるか同等である117mmである。図1の破線150は、パノラマアレイの中心点から右カメラレンズ120’の入射瞳までの距離(別名、ノードオフセット)を示す。例である図1に対応する一実施形態内では、符号150によって示される距離は315mmであるが、他の距離が可能である。
[0074] 1つの特定の実施形態では、カメラリグ100のフットプリントは、比較的に小さい。そのような小さいサイズは、カメラリグが、ファンまたは出席者が通常位置するまたは位置付けられ得る座席位置などの観客の中に設置されることを可能にする。したがって、いくつかの実施形態で、カメラリグは、観客エリア内に設置され、ビューアが、そのような効果が望まれる場合に、観客のメンバであるという感覚をもつことを可能にする。いくつかの実施形態でのフットプリントは、いくつかの実施形態では中央支持ロッドを含む支持構造が取り付けられる、または、支持タワーが配置される基部のサイズに対応する。理解されるべきであるように、いくつかの実施形態でのカメラリグは、3対のカメラの間の中心点に対応する基部の中心点の回りで回転することができる。他の実施形態では、カメラは固定され、カメラアレイの中心の回りに回転しない。
[0075] カメラリグ100は、比較的に近くならびに別個の物体を取り込むことができる。1つの特定の実施形態では、カメラアレイの最小イメージング距離は、649mmであるが、他の距離が可能であり、この距離は何ら重要ではない。
[0076] カメラアセンブリの中心から第1と第3のカメラ部分のビューの交差点151までの距離は、第1と第2のカメラ対によって取り込まれるイメージを較正するために使用され得る例示的な較正距離を表す。1つの特定の例示的な実施形態では、レンズ画角が交差し、レンズの最大ひずみが発生する、最適な較正距離は743mmである。ターゲット115が、最大ひずみのエリアか、それをわずかに超えて配置されたカメラ対から既知の距離に配置され得ることに留意されたい。較正ターゲットは、既知の固定された較正パターンを含む。較正ターゲットは、カメラ対のカメラによって取り込まれるイメージのサイズを較正するのに使用され得、使用される。較正ターゲットのサイズおよび位置が、較正ターゲット115のイメージを取り込むカメラに相対的に既知であるので、そのような較正が可能である。
[0077] 図2は、図1に示されたカメラアレイ100のより詳細な図200である。カメラリグ100は、やはり6つのカメラと共に示されるが、いくつかの実施形態では、カメラリグ100は、たとえば、カメラ101と103とを含むカメラ対102などの2つのカメラだけが設けられる。図示されるように、カメラ対取り付け位置のそれぞれの間に120°の分離がある。たとえば、各カメラ対間の中心が、カメラ取り付け位置の方向に対応する場合を検討する。その場合に、第1のカメラ取り付け位置は0°に対応し、第2のカメラ取り付け位置は120°に対応し、第3のカメラ取り付け位置は240°に対応する。したがって、各カメラ取り付け位置は、120°だけ離される。これは、各カメラ対102、104、106の中心を通って伸びる中心線が延長されたとして、線の間の角度が測定される場合に見られ得る。
[0078] 図2の例では、カメラの対102、104、106は、カメラリグの中心点の回りを回転することができ、いくつかの実施形態では回転し、カメラリグ基部の位置を変更する必要なく、異なるビューが異なる時に取り込まれることを可能にする。すなわち、2つのカメラだけが設けられるが、カメラは、リグの中央支持体の回りに回転され、異なるシーンを異なるときに取り込むことを可能にされ得、図2に示されたリグを使用して360°シーン取り込みを可能にする。そのような構成は、立体視カメラのコストを前提としたコストの観点から特に望ましく、同じ視点からではあるが、スポーツイベントまたは他のイベント中のメインアクションを含む正面シーンが起こり得るときとは異なるときに取り込まれた背景を示すことが望ましくあり得る多くの応用例に好適である。たとえば、メインイベント中に示さないことが好ましい、イベント中に、物体がカメラの背後に置かれ得ることを考慮する。そのようなシナリオでは、イメージデータの360°セットを提供するために、後方イメージは、メインイベントの前に取り込まれ、メインイベントのリアルタイムで取り込まれるイメージと共に使用可能にされ得、時にそうされる。
[0079] 様々な特徴は、また、カメラ支持構造およびカメラ構成が、75mmから350mmの範囲内のノードオフセット距離を維持することができ、様々な実施形態で維持するという事実に関係する。1つの特定の実施形態では、315mmというノードオフセット距離が維持される。
[0080] 支持構造は、また、いくつかの実施形態で、400mm2から700mm2までの範囲内の全面積(別名、フットプリント)を維持する。1つの特定の実施形態では、640mm2の全面積(別名、フットプリント)が維持される。支持構造は、また、400mmから700mmまでの範囲内の最小イメージング距離を維持する。1つの特定の実施形態では、649mmの最小イメージング距離が維持される。1つの特定の実施形態では、アレイの最適較正距離は、レンズ画角が交差し、かつ、レンズの最大ひずみが発生するところである。1つの特定の例示的な実施形態では、この距離が743mmである。
[0081] 上述のように、様々な実施形態では、カメラアレイ、たとえば、リグ、は、より低い値の背景180°シーン要素の静止イメージを手動で取り込む一方で、高い値の前景180°シーン要素をリアルタイムで取り込む目的のために、同時の360°立体視ビデオのために通常必要とされる合計6台のカメラのうちの2台のみが設けられる。
[0082] 図3は、図1と図2のリグと同じまたは同様であるが、支持三脚を有さず、カメラ対の上に配置されたプラスティックカバー350を有する例示的なカメラリグ300を示す。プラスティックカバー350は、たとえば、三脚上に置かれたときに、カメラリグ300を持ち上げるか回転させるのに使用され得るハンドル310、312、314を含む。カメラリグ300は、カメラの3つの対を有して図示され、第1のカメラ対302は、レンズアセンブリ320、320’を有するカメラ301、303を含み、第2のカメラ対304は、レンズアセンブリ322、322’を有するカメラを含み、第3のカメラ対306は、レンズアセンブリ324、324’を有するカメラを含む。プラスティックカバー350は、1つまたは複数のスロットとねじ穴とを有する平らな板として実施され得る、取り付けプラットフォーム316に固定される。プラスティックカバー350は、カバー350の簡単な取外しまたは取り付けと、カメラ対のカメラへの簡単なアクセスとを可能にするために、手によって取り外されまたは締め付けられ得るナット、または、ねじ330、331を用いて基部に固定される。6つのカメラが、図3に示されたリグ300内に含まれるが、単一のカメラ対が含まれてもよく、および/または、カメラ対が取り付けられないその他のカメラ取り付け位置に1つまたは複数の個別のカメラを有して、単一のカメラ対が使用されてもよい。
[0083] 図4は、いくつかの例示的な実施形態にしたがって実装された例示的なカメラリグ801の1つのビューを表す図800を示す。いくつかが立体視カメラであるカメラのアレイが、カメラリグ801内に含まれる。図800内のカメラリグ801の図示のビューでは、カメラリグ801の一部だけが見えるが、カメラの同様の配置が、図800内で十分には見ることのできないカメラリグ801のその他の側(異なる面とも呼ばれる)に存在する。すべではなくいくつかの実施形態では、カメラリグ801は、頂部のプラスティック本体またはカバー805と底部の基部カバー842とによって固定された13台のカメラを含む。いくつかの実施形態では、これら13台のカメラのうちの8台は、対であるカメラ804、806、812、および814などの立体視カメラであるが、一方で、多数の他のカメラは、図800内で見えるカメラ802および810、ならびに、図800内で十分ではないが部分的には見えるカメラ815および820などのライトフィールドカメラである。カメラの様々な他の組合せが可能である。いくつかの実施形態では、カメラ825は、また、関心を持たれている環境の上半球のイメージを取り込むために、カメラリグ801の頂面840などのカメラリグ801の頂部に取り付けられる。プラスティック本体/カバー805は、カメラリグ801を持ち上げるか回転するのに使用され得るハンドル811、813、817を含む。
[0084] いくつかの実施形態では、カメラリグ801は、カメラリグ801のより長い側部の各々に、1つのライトフィールドカメラ(たとえば、カメラ802)と立体視カメラ対を形成する2つの他のカメラ(たとえば、カメラ804、806)とを含む。いくつかのそのような実施形態では、4つのそのようなより長い側部(4つの側部の面830、832、834、および、836とも呼ばれる)があり、より長い側部の各々は、たとえば、左側の1つのより長い側部836上のライトフィールドカメラ802と立体視カメラ対804、806などの1台のライトフィールドカメラと1つの立体視カメラ対とを有し、一方で、右側の1つのより長い側部830上の他のライトフィールドカメラ810と立体視カメラ対812、814とが図800内で見られ得る。他の2つの側部の面は、図800に十分には示されていないが、これらは、図8により詳細に示される。いくつかの実施形態では、カメラリグ801内の立体視カメラやライトフィールドカメラなどのカメラのうちの少なくともいくつかが、魚眼レンズを使用する。様々な実施形態では、カメラリグ801内のカメラの各々は、物体によって引き起こされ得る物理的な衝撃および/または損傷に対してカメラおよび/またはレンズを保護するために、対応するレンズ/カメラガードによって保護される。たとえば、カメラ802、804、および806は、それぞれ、ガード845、847、および、849によって保護される。同様に、カメラ810、812、および、814は、それぞれ、ガード850、852、および、854によって保護される。
[0085] 4つの側部の面830、832、834、および、836の各々にある立体視カメラ対とライトフィールドカメラに加えて、いくつかの実施形態では、カメラリグ801は、さらに、カメラリグ801の頂面840上に、たとえば、空、または、閉ざされた環境の場合には他の天井面に向かうなどの、上向き垂直方向に面するカメラ825を含む。いくつかのそのような実施形態では、カメラリグ801の頂面上のカメラ825は、ライトフィールドカメラである。図800内には示されていないが、いくつかの他の実施形態では、カメラリグ801の頂面840は、また、カメラ825に加えて、左目イメージと右目イメージとを取り込むための他の立体視カメラ対を含む。通常の状況では、カメラ825によって取り込まれる、スタジアム、劇場、コンサートホールなどの360°環境の上半球(空部分とも呼ばれる)は、アクションを含まず、および/または、静止のままであってよく、いくつかの場合には、他の環境部分がリグ801上の他のカメラによって取り込まれているのと同じレートで空部分を取り込むことが重要または望ましくあってもよい。
[0086] 1つの例示的なカメラアレイ配置が、カメラリグ801に関して図示され、上述されるが、いくつかの他の実施態様において、カメラリグ801の4つの面830、832、834、および、836上の立体視カメラの対(たとえば、カメラ804、806、および、812、814)の天辺に配置された単一のライトフィールドカメラ(たとえば、カメラ802および810など)だけの代わりに、カメラリグ801は、立体視カメラ対と共に配置されたライトフィールドカメラのアレイを含む。たとえば、いくつかの実施形態では、カメラリグ801のより長い側部の各々の立体視カメラ対の天辺に配置された3台のライトフィールドカメラがある。他の実施形態では、たとえば、立体視カメラ対の天辺に配置された3台のライトフィールドカメラの2つの行を有する、カメラリグ801のより長い側部の各々の立体視カメラ対の天辺に配置された6台のライトフィールドカメラがある。さらに、他の変形例では、図800に示されたタイプのカメラリグは、また、水平方向を指すカメラを有する4つの面830、832、834、836の代わりに、水平方向を指すカメラを有するカメラリグの3つの面があるように実装され得る。
[0087] いくつかの実施形態では、カメラリグ801は、垂直軸の回りに回転され得るように、支持構造に取り付けられ得る。様々な実施形態では、カメラリグ801は、たとえば、取り込まれるイベントが行われているスタジアム、講堂、または、他の場所などの関心を持たれている環境内に展開され得る。いくつかの実施形態では、カメラリグ801のライトフィールドカメラは、たとえば、関心を持たれている360°シーンエリアなどの関心を持たれている環境のイメージを取り込み、3D環境のシミュレーションと立体視イメージングコンテンツの表示とに使用され得る奥行マップを生成するのに使用される。
[0088] 図5は、いくつかの例示的実施形態にしたがって実装されたさらに他の例示的なカメラリグ1101のビューを表す図1100を示す。例示的なカメラリグ1101は、ほとんどや多くの態様においてカメラリグ801に類似し、カメラリグ801に関して上述されたものと同じまたは同様のカメラの構成を含む。カメラリグ1101は、カメラリグ801と同様な、4つの側部の面1130、1132、1134、1136と頂面1140とを含む。カメラリグ1101の4つの側部の面1130、1132、1134、1136の各々は、ライトフィールドカメラと立体視カメラ対の対とを含むカメラのアレイを含み、一方で、カメラリグの頂面1140は、カメラリグ801に関して図示され議論されたものと同様な少なくとも1台のカメラ装置1125を含む。しかし、カメラリグ1101は、さらに、5つの面1130、1132、1134、1136、および、1140の各々にあるカメラアレイに加えて、たとえば地面に向かう、垂直下方に面する少なくとも1台のカメラ1126を含む第6の底面1142を含む。いくつかのそのような実施形態では、垂直下方に面する底面カメラ1126および垂直上方に面する頂面カメラ1125は、ライトフィールドカメラである。いくつかの実施形態では、カメラ1125および1126の各々は、カメラリグ1101の頂面と底面1140、1142の対応する立体視カメラ対の一部である。
[0089] カメラリグ801および1101の立体視カメラは、たとえば、イベントの間に、立体視イメージングコンテンツを取り込むのに使用されるが、ライトフィールドカメラの使用は、関心を持たれているシーンエリアをスキャンすることを可能にし、ライトフィールドカメラによって取り込まれたシーンエリアの様々な部分の奥行マップを生成する(たとえば、関心を持たれているシーンのこれらの部分に対応する取り込まれたイメージから)。いくつかの実施形態では、シーンエリアの様々な部分の奥行マップは、シーンエリアの合成奥行マップを生成するために組み合わされ得る。そのような奥行マップおよび/または合成奥行マップは、立体視イメージングコンテンツを表示し、ビューアによって経験され得る3D環境をシミュレーションすることにおける使用のために、再生装置に提供され得、いくつかの実施形態では提供される。
[0090] 上述のカメラリグの立体視カメラは、たとえばイベントの間に、立体視イメージングコンテンツを取り込むのに使用されるが、ライトフィールドカメラの使用は、関心を持たれているシーンエリアをスキャンすることを可能にし、ライトフィールドカメラによって取り込まれたシーンエリアの様々な部分の奥行マップを生成する(関心を持たれているシーンのこれらの部分に対応する取り込まれたイメージから)。いくつかの実施形態では、シーンエリアの様々な部分の奥行マップは、シーンエリアの合成奥行マップを生成するために組み合わされ得る。そのような奥行マップおよび/または合成奥行マップは、立体視イメージングコンテンツを表示し、ビューアによって経験され得る3D環境のシミュレーションをすることにおける使用のために、再生装置に提供され得、いくつかの実施形態では提供される。
[0091] 立体視カメラを用いた組み合わせでのライトフィールドカメラの使用は、たとえば、撮影されているイベントの間など、環境測定とリアルタイムでの環境奥行マップ生成とを可能にし、したがって、環境測定の展開が、フットボールゲームなどのイベントの開始の前に時間的に先行してオフラインで実行される必要性を回避する。
[0092] 各イメージから生成される奥行マップは、マッピングされる環境の部分に対応するが、いくつかの実施形態では、個々のイメージから生成された奥行マップは、ライトフィールドカメラを使用してスキャンされた完結した環境の合成マップを形成するために、たとえば共に編み合されるなど、処理される。したがって、ライトフィールドカメラを使用することによって、比較的に完成された環境マップが生成され得、いくつかの実施形態では生成される。
[0093] ライトフィールドカメラの場合には、マイクロレンズのアレイが、獲得の後にイメージに再び焦点を合わせることができるのに十分な情報を取り込む。また、イメージ取り込みの後に、メインレンズの副開口(sub-aperture)内で視点をシフトすることが可能であり、効果的に複数のビューを入手する。ライトフィールドカメラの場合には、焦点ぼけと一致(defocus and correspondence)の両方からの奥行の手がかり(depth cue)が、単一の取り込みで同時に入手可能である。これは、立体視カメラによって取り込まれない遮られた情報/シーンの部分を埋めることを試みるときに有用であり得る。
[0094] ライトフィールドカメラ出力から生成される奥行マップは、現在のものであり、たとえば、立体視カメラによって取り込まれるコンサートまたはゲームなどの特定のイベントについて関心を持たれているスタジアムまたは他の環境内の変化を正確に測定する可能性が高い。さらに、立体視カメラが取り付けられる位置と同じ位置またはその近くから環境を測定することによって、環境マップは、少なくともいくつかの実施形態で、イベントを取り込むのに使用される立体視カメラの眺めから知覚される可能性が高いので、環境を正確に反映する。
[0095] いくつかの実施形態で、たとえば、立体視カメラ対の位置および/または視野が、ライトフィールドカメラのそれとはわずかに異なり得るので、および/または、立体視カメラからのビューをふさぐことに起因して、ライトフィールドカメラによって取り込まれたイメージは、立体視カメラ対によって取り込まれない環境の部分のために処理され、埋めるのに使用され得る。たとえば、ライトフィールドカメラが、立体視対の位置に相対して後ろ向きに面しているとき、ライトフィールドカメラは、前向きに面する立体視カメラ対に見えない後ろ向きに面するビューを取り込むことができる。いくつかの実施形態では、ライトフィールドカメラの出力は、立体視カメラ対によって取り込まれたイメージデータとは別々に、または。それと共に、再生装置に提供される。再生装置は、立体視カメラ対によって十分には取り込まれないシーンエリアの表示が表示されるべきである場合に、ライトフィールドカメラによって取り込まれたイメージのすべてまたは一部を使用することができる。さらに、ライトフィールドカメラによって取り込まれたイメージの一部は、立体視カメラ対の位置からのビューからは遮られたが、ユーザが、立体視カメラ対の位置に対応するデフォルトビューイング位置に相対して自分が左または右に頭をずらすときに見ることができると期待する、立体視イメージの部分を埋めるのに使用され得る。たとえば、ユーザが、自分のビューをふさぐ柱の周りをのぞき見る試みにおいて上体を左または右に曲げる場合に、いくつかの実施形態では、ライトフィールドカメラによって取り込まれた1つまたは複数のイメージからのコンテンツが、立体視カメラ対に見えないが、上体を左または右に曲げることによって再生中にユーザが達成するずらされた頭位置からユーザに見えると期待されるイメージコンテンツを提供するのに使用される。
[0096] 図1ないし9に示された様々な例示的なカメラリグは、たとえば、通常のカメラ、立体視カメラ対、ライトフィールドカメラなどの様々な異なるカメラを装備され得る。例示的なカメラリグは、本発明の特徴にしたがって様々な応用例をサポートするために、たとえば、装備されたカメラを使用して、たとえば、測定結果およびイメージなどの環境情報を取り込むために、様々な実施形態において使用される。
[0097] 図6は、本発明のいくつかの実施形態にしたがって実装された例示的なシステム6600を示す。システム600は、イメージ取り込み、イメージ処理、イメージングコンテンツ、環境モデル、および/または、テクスチャマップの配送などの、顧客宅内に設けられた生成装置/コンテンツプレーヤなどの1つまたは複数の顧客装置へのイメージ配送を含む、環境情報の測定と取り込みとをサポートする。システム600は、例示的なイメージング機器604、立体視イメージングシステム606、処理システム608、通信ネットワーク650、および、複数の顧客宅内610、…、612を含む。イメージング装置604は、1つまたは複数のライトフィールドカメラを含み、他方、立体視イメージングシステム606は、1つまたは複数の立体視カメラを含む。いくつかの実施形態で、イメージング装置604および立体視イメージングシステム606は、図1ないし5に関して前に議論されたカメラリグのいずれかであってよい例示的なカメラリグ602内に含まれる。カメラリグ602は、ライトフィールドカメラ機器と立体視イメージングシステム606とに加えて、追加のイメージング装置および/または環境測定装置を含むことができる。イメージング機器602は、本発明の特徴にしたがってイメージングコンテンツを取り込み、処理する。通信ネットワーク650は、たとえば、光ファイバ−同軸ケーブルハイブリッド(HFC:hybrid fiber-coaxial)ネットワーク、衛星ネットワーク、および/または、インターネットであってよい。
[0098] 処理システム608は、本発明にしたがって、1つまたは複数のライトフィールドカメラ604と立体視イメージングシステム606内に含まれる1つまたは複数の立体視カメラとから受信されたイメージングデータを処理するように構成される。処理システム608によって実行される処理は、たとえば、関心を持たれている環境の奥行マップを生成すること、3DメッシュモデルおよびUVマップを生成すること、たとえば1つまたは複数の異なるフォーマットでイメージを符号化することなど、環境内の1つまたは複数の位置に位置決めされた1つまたは複数のカメラ装置から受信されたイメージングコンテンツを処理すること、本発明の特徴にしたがって遮られたイメージデータを抽出すること、および、本発明の特徴にしたがって1つまたは複数の再生装置にイメージコンテンツならびに環境モデル情報とUVマップを通信することを含む。いくつかの実施形態では、処理システム608は、サーバを含むことができ、このサーバは、たとえば関心を持たれている環境に対応する奥行マップ、ならびに/または3D環境メッシュモデル、UVマップ、および/もしくはイメージングコンテンツなどの、コンテンツおよび/オーコンテンツを描画する際に使用される環境情報を求める要求に応答する。
[0099] 再生装置は、3D環境をシミュレートし、3Dイメージコンテンツを描画するのにそのような情報を使用することができ、いくつかの実施形態では使用する。
[00100] 処理システム608は、たとえば通信ネットワーク650を介して、1つまたは複数の顧客装置にイメージングデータおよび/または環境情報をストリーミング、たとえば送信、するように構成される。ネットワーク650を介して、処理システム608は、通信ネットワーク650を横断するリンク609によって図内で表されるように、顧客宅内610、612に配置された装置に情報を送り、および/または、情報を交換することができる。イメージングデータおよび/または情報は、1つまたは複数の再生装置への配送の前に符号化され得る。
[00101] 顧客宅内610、612の各々は、たとえば、システム600内に展開された立体視カメラ606および/または他のカメラによって取り込まれるなどのイメージングコンテンツを復号し、再生/表示するのに使用される複数の装置/プレイヤを含み得る。イメージングコンテンツは、通常、処理システム608によって再生装置に通信される前に、たとえばフォーマットされ、および/または、符号化されるなど、処理される。顧客宅内1 610は、表示装置620に結合された復号機器/再生装置622を含み、他方、顧客宅内N 612は、表示装置624に結合された復号機器/再生装置626を含む。いくつかの実施形態では、表示装置620、624は、ヘッドマウント立体視ディスプレイ装置である。いくつかの実施形態では、再生装置622、626は、3Dイメージングコンテンツを描画すること、3Dイメージングコンテンツをユーザに対して表示することにおいて、処理システム608から受信された環境モデル(3Dメッシュモデルとも呼ばれる)、UVマップ、および、イメージングコンテンツを受信し、使用する。
[00102] 様々な実施形態で、再生装置622、626は、対応する表示装置620、624上にイメージングコンテンツを表す。再生装置622、626は、立体視カメラによって取り込まれた立体視イメージングコンテンツを復号し、復号されたコンテンツを使用してイメージングコンテンツを生成し、表示装置620、624上に、たとえば3Dイメージングコンテンツなどのイメージングコンテンツを描画することのできる装置であってよい。
[00103] 図7A、7B、7C、7Dの組合せを備える図7は、たとえば環境モデルとUVマップ情報などの情報を生成し、環境内で取り込まれたコンテンツ対応イメージを生成し、ストリーミングするための方法700を示す。方法および装置は、イベントが進行中である間のリアルタイムでのコンテンツの取り込み、処理、および、ストリーミングをサポートすることができるが、非リアルタイムのコンテンツの生成とストリーミングのためにも使用され得る。イメージ取り込みからストリーミングまでの完結するプロセスとして図示されるが、ストリーミングのためのフォーマットでコンテンツを生成するためのイメージのモデル生成および処理は、コンテンツをストリーミングする機器またはシステムとは別のシステムによって実行され得ることを理解されたい。たとえば、一旦、コンテンツが、1つまたは複数のフォーマットで生成されると、そのコンテンツは、たとえば図7で説明されたように、コンテンツ要求を受信し、これに応答する1つまたは複数のサーバにロードされ得る。したがって、図7のステップは、単一のシステムが、ステップに関連付けられたコンテンツの生成とストリーミングとを実行する例を使用して説明されるが、方法700の異なる部分が、異なる装置によって実行され得、いくつかの実施形態では実行される。
[00104] 方法700は、ステップ702で、たとえば、図6または本願の他の図のいずれかに示されたものなどのコンテンツ処理およびストリーミングシステムが電源をオンにされて開始する。ステップ704では、システムは、たとえば奥行情報などの環境の形状を示す環境モデル情報を、1つまたは複数のソースから受信する。環境モデル情報は、イメージが取り込まれるべき環境の形状を測定した奥行情報であってよい。たとえば、情報は、環境内で起こるイベントのイメージがそれから取り込まれる、たとえばカメラまたは座席位置などのデフォルトビューイング位置から、スポーツスタジアムにおいて測定される奥行情報とすることができる。LIDARが、環境奥行測定をなすのに使用され得る。ライトフィールドカメラが、その代わりにまたはそれに加えて、奥行情報を取り込むのに使用され得る。追加の奥行情報が、たとえばデフォルトビューイング位置に配置されたカメラリグによって、取り込まれる光学イメージから入手され得る。スタジアムまたは環境の形状の静止モデル情報も、環境のモデルを生成するのに使用され得る。
[00105] 図4に示されたカメラリグのカメラを含むことができる1つまたは複数のソースからの、ステップ704で受信されたモデル情報の動作は、環境の1つまたは複数のモデルが生成されるステップ706に進む。いくつかの実施形態では、モデルは、メッシュモデルであり、メッシュは、たとえば取り込まれたイメージなどのテクスチャ(texture)が、再生中にユーザが見ることのできるイメージを生成するために適用され得る環境内の1つまたは複数の面をモデル化する。
[00106] 動作は、ステップ704から、1つまたは複数の環境モデルが生成されるステップ706に進む。環境は、たとえば1つまたは複数のカメラリグを使用することによってイメージが取り込まれ得る、スタジアム、劇場、屋外環境、または、任意の環境とすることができる。たとえば、図4または本願の他の図面のいずれかにおけるカメラリグが、環境のイメージを取り込むのに使用され得る。ステップ706は、ステップ708、710、および、712のうちの1つまたは複数、または、すべてを含む。
[00107] ステップ708では、たとえば第1の環境モデルなどの、デフォルトビューイング位置から見える環境の面のモデルが生成される。ステップ708で生成される第1のモデルは、デフォルトビューイング位置からなされたイメージおよび/または奥行測定、及び/または、環境の形状に関する静的情報から生成されるメッシュモデルであり得、時にそうある。第1のモデル、いくつかの実施形態では複数のモデルは、ノードによって接続されたセグメントのセット、したがって「メッシュモデル」と呼ばれるものとして、デフォルトビューイング位置から見える環境内の面をモデル化する。各セグメントは、たとえばイメージなどのテクスチャが、再生装置のユーザに対して表示されるイメージを生成することの一部として適用され得る面を表す。したがって、デフォルトビューイング位置から、環境の、たとえば壁、支持柱、ステージなどのモデル化される面に向かって外を見ている、デフォルトビューイング位置に位置する者によって知覚されるはずのものとしてモデル化される環境の形状を、第1のメッシュモデルは表す。
[00108] 理解されるべきであるように、デフォルトビューイング位置からは、たとえば環境内の物体の、いくつかの面は、デフォルトビューイング位置からは見えない可能性がある。デフォルト位置から、人が環境を観察するとき、または、カメラが環境のイメージを取り込むときに、そのような面がビューから遮られるので、そのような表面は「遮られた物体または面」と呼ばれる。したがって、本発明を説明する目的のために、遮られた面または物体は、デフォルトビューイング位置からは見えない物体または面とみなされ、他方、遮られない物体または面は、たとえば、ユーザがデフォルトビューイング位置から、左または右、上または下にずれることなく、自分の頭の向きを変えると、デフォルトビューイング位置から見える物体または表面とみなされる。たとえば、柱の裏側または柱の背後の物体は、それがデフォルトビューイング位置からは見えないのであれば、遮られた物体になる。遮られたイメージまたは遮られたイメージ部分は、遮られた面または物体のイメージ、または、遮られた面または物体のイメージの一部を指す。
[00109] スポーツイベントまたは他のイベントでのファンは、座席または他の一般的に固定されたビューイング位置からイベントの光景が呈せられる環境内でイベントを見ることに慣れている。コンテンツになる環境のイメージが取り込まれる位置は、スポーツイベントまたは他のイベントにおける座席位置に対応することができ、時に対応する。
[00110] イベントの参加者は、座席が割り当てられることに慣れているが、彼らは、イベントに参加している間に、座席で上体を左または右に曲げ、立ち上がりまたはしゃがみこむことにも慣れている。そのようなアクションは、通常、ビューアが自分の頭位置を変更し得る距離に制限され、ファンがイベントにおいて座っていたとする場合の頭の位置などのデフォルトビューイング位置からのシフトまたはオフセットとして考えられ得る。そのような動きは、しばしば、デフォルトビューイング位置からのビューから隠れた、すなわち遮られた、環境の部分を見る試みで行われる。ユーザの頭位置が変わり得るが、環境内のユーザの頭の位置が環境内で凡そ同じ位置のままである単純な頭の回転または頭の傾けとは異なって、デフォルトビューイング位置からの左または右、上または下へのオフセットは、通常、ファンまたはユーザが、デフォルトビューイング位置から見えなかった環境のいくつかの部分を見ることができるようになるという期待を伴う。
[00111] デフォルトビューイング位置から見える面をモデル化する第1の環境モデルは、通常、デフォルトビューイング位置からは見えない面に対応するセグメントおよび/またはノードを含まない。これは、ユーザがデフォルト位置に留まると仮定すると、自分が他の面を見る可能性が低く、使用される可能性が低い環境の部分についてのそのような細部を含めることが、データストレージおよび/またはデータ送信の観点から浪費になるからである。
[00112] オフセット位置へのビューイング位置の変化をサポートできない装置にとって、第1の環境モデルは、適当であり、環境内で取り込まれるコンテンツの再生をサポートする目的に好適である。しかし、装置が、デフォルト位置からのユーザのビューイング位置を変更するユーザの能力をサポートするために、たとえば、ユーザが自分のビューイング位置を変更する場合に見られ得る面などの追加の面に関するモデル情報が望ましい。たとえば、ビューイング位置を変更することによって、ユーザがその面を見ることができることを期待する場合、デフォルトビューイング位置からは見えない柱もしくは壁、または、箱の内側の面のすべてまたは一部をモデル化することが、有用である。たとえば、ユーザは、自分の頭を上に動かすことによって、デフォルトビューイング位置にいる間にその頂部を見ることはできるが、内部を見ることはできない自分の正面にある箱の中を覗き見ることができると期待する。また、ユーザが、上体を横に曲げ、自分の頭位置をデフォルトビューイング位置の左または右にずらすことによって、柱の背面または裏側の一部を見ることができると期待することを考慮する。上体を左または右に曲げることによって、または、立つこと、対、座ることによって、ユーザが見ることができる可能性が高い遮られた面は、環境の比較的に小さい部分である可能性が高い。しかし、現実的な仮想現実体験を提供するために、ユーザの頭の位置の変化を検出することに応答して、環境のそのような遮られた部分をユーザに正確に提示できることが望ましくあり得る。
[00113] 遮られた物体と面の表示をサポートするために、いくつかの実施形態では、第1のデフォルトビューイング位置からは見えない環境の部分をモデル化するステップ712で、補助モデル情報が生成される。補助モデル情報は、たとえばデフォルトビューイング位置からオフセットされた(ずれた)位置などの異なる位置において環境内に位置決めされたカメラまたは距離測定装置によって取り込まれたイメージに基づく、および/または、デフォルトビューイング位置からは見えない面の情報を含む細部にわたるスタジアムモデルなどの細部にわたる環境モデル情報に基づくとすることができる。多くのスタジアムおよび/または他の位置は、環境の正確な3Dモデルを生成するために様々な角度から詳細に測定されており、そのようなモデルは、リアルタイム測定が可能ではないときに、補助モデル情報の好適なソースになる。
[00114] 補助モデル情報は、デフォルトビューイング位置からは見えない少なくともいくつかの部分/面に対応するセグメントとノードとを含む環境のより詳細なモデルを生成するために第1のメッシュモデルと組み合わされ得る補充メッシュ情報の形であってよい。実施形態に応じて、補助モデル情報および第1の環境モデル情報は、ステップ710で行われるように、第2の環境モデルを形成するために組み合わされ得る。ステップ710で生成される第2の環境モデルは、デフォルトビューイング位置から見える面に対応するセグメントとノードと、デフォルトビューイング位置からは見えないが、たとえばデフォルトビューイング位置からオフセットされた第2の位置などの1つまたは複数の他の位置からは見える環境の部分に対応するセグメントとノードとも含む。
[00115] 第2の環境モデルは、遮られた環境コンテンツが表示されるべきでない場合であっても使用され得るが、装置が複数のビューイング位置をサポートできない場合に、再生装置が代替のビューイング位置をサポートする能力を欠くので、遮られたイメージ部分が表示されないから、第1のモデルの使用はより効果的である。これは、装置が、主コンテンツと遮られたコンテンツとを所望のフレームレートで復号するのに十分に強力ではない場合に、期待され得る。
[00116] しかし、ユーザが自分の頭位置をシフトし得る場合には、再生装置が、この中で時にメイン環境面または主環境面とも呼ばれる遮られないイメージ面、ならびに、遮られた面のための信頼できるモデル情報を有するように、第2の環境モデル、または、第1の環境モデルと補助情報との組合せを送ることが有用であり得る。以下で議論されるように、再生装置の能力、および/または、コンテンツが再生装置に供給されるフォーマットに応じて、i)第1の環境モデル、ii)第2の環境モデル、または、iii)第1の環境モデルと補助モデル情報との組合せ、を供給することが望ましい。第1の環境モデルと補助モデル情報とを供給される場合、受信する装置は、遮られない面ならびに少なくともいくつかの遮られた面をモデル化する情報を含む第2のモデルを生成するために、補助モデル情報内に含まれるノードとセグメントの情報に基づいて、第1のモデルを変更することができる。
[00117] ステップ706で生成された環境モデルおよび/またはモデル情報は、モデル化された環境に対応するコンテンツを再生することを求める再生装置に提供されるために利用可能であるように、ステップ714で、たとえばメモリまたは他の記憶などに記憶される。
[00118] 動作は、ステップ714から、1つまたは複数のUVマップが、第1または第2の環境モデル上にマッピングされるべきであるイメージコンテンツと共に使用されるために生成されるステップ716に進む。1つまたは複数のUVマップが生成されるかどうかは、1つまたは複数のフレーム、たとえば2Dイメージ、が、再生のために使用される環境モデルに適用されるためのテクスチャを通信するために、たとえば2Dイメージなどの1つまたは複数のフレームが使用されるかどうかに依存する。
[00119] テクスチャとして使用されるべきイメージコンテンツは、いくつかの実施形態で、1つまたは複数の環境モデルの中のセグメントに適用され得るテクスチャとして使用されるべき、デフォルトビューイング位置から、または、デフォルトビューイング位置からオフセットされた位置から取り込まれたイメージである。各UVマップは、どのようにして、2Dイメージを分割し、UVマップ内のセグメントを環境の3Dメッシュモデルの対応するセグメントにマッピングすべきかを示す。通常、UVマップの1つのセグメントは、3D環境モデルの1つのセグメントに対応する。
[00120] UVマップは、たとえば、単一のイメージがユーザの左目と右目との両方への表示のために送信される場合、モノイメージ(mono image)のために使用され得る。UVマップは、また、左目イメージを生成するために左目イメージコンテンツを3Dモデルにマッピングし、表示される右目イメージを生成するために右目イメージを3Dモデルにマッピングするのに使用され得る。そのような実施形態では、同じUVマップおよび3D環境モデルが、ステレオイメージ対の左目イメージと右目イメージとの両方のために使用され得るが、左目用の入力イメージは、右目イメージを生成するのに使用される入力イメージとは異なる。2Dイメージが符号化され、送信される形は、特定の実施形態に依存して変化し得る。いくつかのステレオの実施形態では、テクスチャとして使用されるべき環境の左目と右目の入力イメージは、異なるフレーム内で送信される。他の実施形態では、たとえば、一方のイメージがフレームの上部にあり、他方のイメージが第1のイメージの下にある状態で、または、たとえば、フレームの奇数ラインが左目イメージのために使用され、フレームの偶数ラインが右目イメージのために使用されて、左目と右目のイメージがインターレースされた形で通信される状態で、左目と右目のイメージの両方が単一のフレームに組み込まれる。UVマップの適用の前に、再生装置は、左目イメージと右目イメージとを分離し、その後、左目入力イメージを3Dマップにどのように適用すべきかを決定するためにUVマップを使用し、表示のための右目イメージを生成するため、右目入力イメージを3Dメッシュモデルにどのように適用すべきかを決定するために、別個に、2回目に、UVマップを使用し得る。
[00121] 左目と右目のイメージが、ステレオイメージ対の再生装置への送信のためにフレームの中にパックされ得る形は、様々な形のうちの1つで生じ得るので、本出願人は、可能な範囲で本願においてそのようなオプションの議論を限ることにする。
[00122] ステップ716は、ステップ718、720、および、722のうちの1つ、複数、または、すべてを含むことができる。ステップ718では、たとえばフレームなどの2Dイメージの諸部分を第1の環境マップにマッピングするための第1のUVマップが生成される。第1のUVマップを生成する際にマッピングされるべきフレームの諸部分は、デフォルトビューイング位置から見える環境の対応する諸部分のイメージである諸部分を含むことができ、通常は含む。第1のUVマップは、環境の360°ビューのためにあることができ、いくつかの実施形態ではそうであるが、環境のより小さい部分のためのものとすることができる。
[00123] ステップ720では、デフォルトビューイング位置から見える環境の部分に対応するイメージ部分を含み、また、デフォルトビューイング位置以外の1つまたは複数の位置から見える環境の遮られた部分に対応するイメージ部分も含むフレームの部分をマッピングするために、第2のUVマップが生成される。たとえば、フレームの大多数は、モデル化された環境の遮られないセグメントに適用されるべきテクスチャとしての使用のためにデフォルトビューイング位置から取り込まれた環境のイメージを通信することに専用にされ、たとえばフレームの底部などのより小さい他のものは、遮られた表面に対応するイメージを通信することに専用にされる。遮られた物体のためのテクスチャ情報を通信するのに使用されるフレームのセグメントのサイズは、遮られないイメージ部分を3Dモデルの同じサイズのセグメントにマッピングするのに使用されるUVマップ内のセグメントのサイズより小さいものとすることができ、時にそうである。その場合に、環境の遮られた部分のテクスチャを通信するために、送信されるフレームとUVマップの小さい部分の使用は、遮られないイメージ部分よりも低い解像度であるテクスチャに帰結する。しかし、遮られたイメージ部分について、遮られない部分よりもより低い解像度のテクスチャの使用は、遮られないイメージ部分が遮られたイメージ部分よりもはるかに高い可能性で見られるので、フレーム内の使用可能な画素の効率的な使用を可能にする。
[00124] 遮られないイメージデータと少量の遮られたイメージデータとの両方を通信するのに単一のフレームを使用することによって、遮られたイメージコンテンツの表示が、遮られないイメージデータだけを含むフレームが送信される場合と比較して、送信される必要があるデータの量を大幅に増加させることなく、サポートされ得る。フレーム内で遮られたイメージデータを遮られないイメージデータと共に送信することをサポートするために、遮られないイメージデータは、たとえば、遮られたデータが遮られないイメージデータと共にフレームにパックされない場合と比較して10%またはそれより少なく、わずかにダウンサンプリングされ得、時にダウンサンプリングされる。
[00125] 遮られたイメージデータを遮られないイメージデータと共にフレームの中にパックするのではなく、遮られたイメージデータは、モデル化された環境の遮られない部分に対応するイメージ部分などの遮られないイメージデータのフレームを通信する第1のコンテンツストリームと多重化される補助コンテンツストリーム内で送信されるフレームの中にパックされ得る。補助フレームが、遮られた面に対応するイメージ部分を通信するのに使用される場合に、ステップ722で、補助UVマップが、補助フレームの諸部分を、環境の遮られた部分に対応する3Dメッシュモデル内の諸セグメントにマッピングするために生成される。補助マップは、異なる主フレームに対応する部分を含むことができ、時に含む。たとえば、補助フレームの異なる1/5の部分が、たとえば主コンテンツストリーム内のM個のフレームのセットなどの主コンテンツストリームの異なるフレームと共に使用されるために、コンテンツを通信することができる。そのような場合に、単一の補助フレーム内のコンテンツが、フレーム時間に対応するイメージを生成するために、メッシュモデルへの適用の目的のために主フレーム内のコンテンツと組み合わされ得るように、補助フレームの異なる部分は、UVマップ内に含まれる情報に基づいて異なるときに使用される。
[00126] 異なるメッシュモデルが、第1、第2、および、第3のコンテンツストリーミングフォーマットの各々をサポートするために、ステップ716で生成されている状態で、動作は、たとえば、コンテンツを要求する再生装置に必要とされるごとに供給され得るようにメッシュモデル情報と共に、生成された第1のUVマップ、第2のUVマップ、および、補助UVマップがメモリ内に記憶されるステップ724に進む。
[00127] 動作は、ステップ724からステップ726に、接続するノードA 727を介してステップ729に進む。ステップ726は、たとえば環境内のデフォルトビューイング位置にあるカメラリグによって取り込まれたイメージの1つまたは複数のストリームなど、イメージコンテンツの処理の開始をマークする。したがって、取り込まれたイメージコンテンツが受信されるステップ726は、遮られないイメージコンテンツの受信に関連する。ステップ726では、処理システムは、デフォルトビューイング位置に配置された、第1のカメラ、または、第1のカメラと第2のカメラとを含む第1のカメラ対によって取り込まれたイメージコンテンツを受信する。モノイメージがサポートされる場合には、第1のカメラ単独で使用される。立体視イメージ取り込みがサポートされる場合には、第1のカメラが、たとえば左目イメージを取り込むのに使用され、第2のカメラが、たとえば右目イメージを取り込むのに使用される。
[00128] 動作は、ステップ726から、第1のカメラまたは第1のカメラ対から受信された、符号化されるべき受信されたイメージコンテンツが、たとえば、3D環境メッシュモデルのセグメント用のテクスチャとして使用されることを意図されたイメージデータを通信するのに使用されるフレームなどの第1のフレームでの包含のために選択されるステップ728に進む。ステップ728は、受信された1つまたは複数のイメージのクロッピング(縁を切り落とすこと)、および/または、再生装置に送信されるべき1つまたは複数のフレーム内に含まれる環境の異なる部分に対応する1つもしくは複数の受信されたイメージの異なる部分の抽出を含み得る。ステップ728で実行される選択は、1つまたは複数の受信されたイメージのどの部分が、モデル上にマッピングされるべきかを考慮に入れ、そのような部分が、送信されるべきフレーム内の包含のために選択される。
[00129] 動作は、ステップ728から、接続するノードB 730を介してステップ732と734に進む。ステップ732では、ステップ728で選択されたイメージコンテンツが、第1のフォーマットにしたがった符号化のためにフォーマットされる。このステップは、さらなるクロッピング、スケーリング、および/または、選択的解像度低下の実行、および/または、単一のフレーム内の包含のために異なるイメージからのコンテンツを組み合わせることを含むことができる。たとえば、左目イメージおよび右目イメージが単一のフレームの中にパックされる場合に、ステップ732は、イメージが、しばしばダウンサンプリングを伴い、同じフレーム内に配置され得るように、イメージをフォーマットする。左目イメージと右目イメージが別々のフレームとして送信されるべきである立体視の実施形態の場合には、ステップ732は、左目イメージと右目イメージとの両方を含む単一のフレームと対照的に、立体視フレーム対に、形成するイメージの対を出力する。
[00130] データ736は、ステップ732によって出力され、取り込まれたイメージ、複数のイメージから1つまたは複数の符号化されたフレームを生成するために、符号化がデータ736上で実行されるステップ741への入力として供給される、第1のフォーマットで符号化するためにフォーマットされたイメージまたはイメージ対を表す。動作は、ステップ741から、第1のストリームフォーマットを使用する第1のコンテンツストリーム、および/または、第3のコンテンツストリームフォーマットを使用する第3のコンテンツストリームでの可能性のある将来のストリーミングのために、第1のフォーマットでの1つまたは複数の符号化されたフレーム746が、たとえばメモリなどのコンテンツストアに記憶されるステップ744に進む。
[00131] ステップ728で選択された受信されたイメージコンテンツは、いくつかの実施形態で、第2のフォーマットでフレームを生成するための処理の対象にされる。第2のフォーマットでのフレームの生成は、ステップ734、740、742を含み、第2のカメラなどの代替のイメージソースからステップ731で抽出された遮られたイメージデータを使用する。第2のフォーマットのフレームは、通常は、第2のフォーマットのフレームの大部分を占める遮られない物体に対応するイメージ部分に加えて、たとえば遮られた物体のイメージの諸部分などの遮られたイメージデータを含む。
[00132] ステップ734では、単一のフレームが、環境の遮られない部分に対応するイメージ部分と環境の遮られた部分に対応するイメージ部分との両方を含む、第2のフレームフォーマットにしたがって符号化するために、イメージまたはイメージ対がフォーマットされる。ステップ734は、遮られたイメージコンテンツのために1つまたは複数のフレーム内にスペースを作るために、遮られないイメージ部分のすべの部分またはいくつかの部分のダウンサンプリングをすることを含み得る。したがって、第2のフレームフォーマットでは、画素数に関して同じサイズのフレームが、第1のフレームフォーマットと第2のフレームフォーマットとの両方のために使用されると仮定して、第1のフォーマットが使用されるときよりも少ない数の画素が、遮られない環境部分に専用とされ得る。ステップ734で生成された、符号化のためにフォーマットされたイメージまたはイメージ対は、ステップ740への入力として働くデータ738によって、図7Bにおいて表される。ステップ740への他の入力は、第2のフレームフォーマットにしたがってフレーム内に含められる遮られたイメージデータ762である。遮られたイメージデータ762の生成は、デフォルトビューイング位置からオフセットされ、したがって、少なくともいくつかの遮られた物体のイメージを取り込むことができる位置におけるカメラからの1つまたは複数のイメージの処理に関して、以下でさらに議論される。
[00133] ステップ740では、フォーマットされたイメージデータ738が、第2のフォーマットにしたがって符号化される1つまたは複数のフレームを生成するために、遮られたイメージデータ762と組み合わされる。1つのフレームがフレーム期間ごとに生成されるモノ、または、左目イメージおよび右目イメージが単一のフレームの中にパックされるステレオの場合に、単一のフレームが、各再生フレーム期間について生成される。異なるフレームが、左目イメージと右目イメージとを通信するのに使用される場合に、左目イメージおよび右目イメージが、立体視フレーム対を形成するためにステップ740で生成される。ステップ742では、ステップ742で生成された1つまたは複数のフォーマットされたフレームが符号化される。遮られないイメージ部分と遮られたイメージ部分との両方を含む、第2のフレームフォーマットでの1つまたは複数の符号化されたフレーム748は、ステップ744で、たとえば後続のコンテンツ要求への応答での使用のために、記憶される。
[00134] UVマップの生成と記憶との後に、処理は、接続するノードA 727を介してステップ729内のステップに進む。ステップ729は、ステップ732、734と並列に実行され得、並列に示されているが、遮られたイメージデータがステップ740で使用のために使用可能にされる限り、逐次的な実行もされ得る。
[00135] ステップ729では、1つまたは複数のイメージが、たとえば、前記デフォルトビューイング位置に配置された前記第1のカメラおよび/または前記第1のカメラ対とは異なる位置に配置された第3のカメラなどの追加のカメラから受信される。第3のカメラは、そのイメージ内で、デフォルトビューイング位置と主イメージ取り込み位置からのビューからは遮られた環境の少なくともいくつかの部分を取り込む。
[00136] ステップ731では、第1のカメラまたは第1のカメラ対から見えない環境の1つまたは複数の部分に対応する、たとえば遮られたイメージデータなどのイメージ部分が、第3のカメラから受信された1つまたは複数のイメージから抽出される。抽出される部分は、デフォルトビューイング位置からは見えない、柱の後ろ側、箱の内部、または、なんらかの他の面に対応し得る。抽出された遮られたイメージ部分は、遮られたセグメントである環境のセグメント用のテクスチャとして使用されることが意図された不連続イメージ部分であることができる。抽出された遮られたイメージセグメントの処理は、ステップ731から、接続するノードC 751を介して、図7Cに示されたステップ752に進む。ステップ752では、たとえば、ステップ731で入手された環境の1つまたは複数の遮られたセグメントのための抽出された遮られたイメージデータのセットから欠けているイメージデータに基づいて、遮られたデータが使用可能ではない、デフォルトビューイング位置からは見えないエリアに対応する環境モデルにおいて、なんらかのセグメント、遮られた環境セグメントがあるかどうかを決定するために、チェックが行われる。欠けている遮られたイメージデータがない場合には、抽出された遮られたイメージデータは揃っており、抽出された遮られたイメージデータは、ステップ761で、遮られたイメージデータ762として、たとえばステップ740などの1つまたは複数の他の処理ステップに供給される。
[00137] ステップ752で、遮られたイメージデータが、環境の遮られた部分に対応する環境モデル内のセグメントのいくつかについて欠けていると決定される場合には、動作は、ステップ752からステップ754に進む。ステップ754では、遮られたイメージ部分に含まれる環境および/または環境のイメージが、取り込まれたイメージコンテンツが使用可能ではない遮られたセグメントを埋めるために、環境の使用可能なイメージ部分からどのようにしてテクスチャを最もよく生成するかを決定するために分析される。いくつかの実施形態において、イメージコンテンツが使用可能ではないセグメントが、イメージコンテンツが使用可能である物体または面の一部であるかどうかを決定するために、エッジおよび/または物体検出が使用される。環境の取り込まれたイメージ内のエッジは、面および/または物体を識別するのに使用される。いくつかの実施形態では、たとえばイメージ部分などのテクスチャを供給するのではなく、再生装置が、イメージ部分が使用可能ではない遮られたセグメントをどのように埋めるべきかにおいて、命令が生成される。これは、同じ面または物体に対応する1つまたは複数の特定の遮られたイメージ部分の平均を取るかコピーをし、イメージデータが取り込まれなかったセグメントにテクスチャとして適用されるべき欠けているイメージ部分として結果のイメージコンテンツを使用する命令を含むことができ、いくつかの実施形態では含む。他の実施形態では、ステップ756で、たとえばイメージ部分などのテクスチャが、ステップ756で他の遮られたイメージ部分から生成され、その後、カメラによって取り込まれたかのように遮られたイメージデータ内に含められる。いくつかの実施形態では、遮られたイメージデータは、カメラによって取り込まれたが、たとえば、環境の隣接する遮られた部分に対応し得るなど、イメージが取り込まれなかった遮られたセグメントに直接には対応しない、環境の遮られた部分である。そのようなイメージデータは、それが欠けていると使用可能ではないので、遮られたイメージデータ内に含まれることは、コンテンツが、環境モデルのすべての遮られたイメージセグメントについて使用可能であるか否かを考慮することにより、第3のカメラからのイメージを処理する装置が、第3のカメラによって取り込まれるイメージへの直接アクセスをしない再生装置よりも、よりよい置換を行い、および/または、命令を提供することを可能にする。
[00138] 動作は、ステップ756から、生成された埋める命令、および/または、そのようなデータが欠けている遮られたイメージセグメントのために生成された置換イメージデータが、抽出された遮られたイメージデータと組み合わされるステップ760に進む。その後、遮られたイメージデータの生成されたセットは、ステップ740およびステップ735などの1つまたは複数の他のステップでの使用のために、ステップ761で、遮られたイメージデータ762として返される。
[00139] ステップ740で実行される処理は、既に説明されている。したがって、ここで、議論は、図7Bのステップ735での遮られたイメージデータの処理に移る。ステップ735では、遮られたイメージデータ762が、たとえば、デフォルトビューイング位置からは見えない遮られた物体に対応するイメージの小さい部分などの遮られたイメージ部分を含む、たとえば、補助フレームを生成することでの使用のために使用されるフォーマットなどの第3のフォーマットでの符号化のためにフォーマットされる。ステップ735では、遮られたイメージデータは、1つまたは複数の主フレームと共に使用されるために、たとえば、クロッピングされ、ダウンサンプリングされ、補助フレームまたは補助フレームの一部内で通信され得る画素データのセットの中に組み合わされるなど、フォーマットされる。遮られたイメージデータは、環境の遮られた部分のためのテクスチャとして使用される、第3のイメージから切り出されたもののセットとすることができる。これらの小さいイメージ部分は、遮られたイメージデータを送信するのに使用される画素の数について、それらのサイズを低減するためにダウンサンプリングされ得る。遮られたイメージデータが、ステップ735で、選択され、フォーマットされて、動作は、たとえば遮られた面に対応するスニペット(断片)または小さいイメージ部分などの遮られたイメージデータが、1つまたは複数の補助フレーム内に含まれるように構成されるステップ737に進む。環境の隣接する部分のイメージは、たとえば、それらが環境内で配置される場所と一致するようにお互いに隣接するなど、通常は、お互いに並んで配置される一方で、複数の物体に対応するイメージ部分の組合せである遮られたイメージデータは、補助フレームまたは補助フレーム部分内の使用可能なスペースの使用を最大化するように配置され得、時に配置される。したがって、遮られた物体に対応する補助イメージデータの場合に、フレーム内のイメージ部分の配置は、イメージ部分がテクスチャとして環境内で使用される場所を制御する補助フレームに関連付けられたUVマップを用いた、実際の環境内の遮られたイメージ部分の配置とは非常に異なり得る。
[00140] 補助フレーム内で、UVマップが、補助フレーム部分が環境モデルセグメントにどのようにマッピングされるべきかを示すUVマップによって提供される情報に基づいて、テクスチャなどのイメージがモデル化された環境内に適用される場所を制御するとの理解で、環境において隣り合わない物体に対応する画素は、時に、お互いの隣に配置される。同様に、遮られたイメージコンテンツが、第2のフォーマットで生成されたフレーム内に含まれる場合、遮られたイメージコンテンツが、環境メッシュモデルのどのセグメントにテクスチャとして適用されるのかを制御するそのようなフレームに関連して使用されるUVマップを用いて、隣接しない遮られた物体に対応する画素は、送信目的のためにフレーム内でお互いの隣に配置され得る。したがって、隣接する画素が、通常は、メッシュモデル内の隣接するセグメントに対応する、主イメージデータまたは遮られないイメージデータとは異なり、遮られたイメージデータに関して、フレーム内の隣接する画素は、たとえば、お互いに隣接しないデフォルトビューイング位置からは見えない遮られた物体面などの隣接しない面または物体に対応することができ、しばしば対応する。たとえば、柱の背後部分のイメージは、柱の背後部分および箱の内部が、環境内の異なる隣接しない位置に配置される場合であっても、補助データの場合にフレームまたはフレームの部分を形成するのに使用される遮られたイメージデータセット内で箱の内部のイメージの、隣接するなどのとなりに含まれ得る。したがって、ステップ737の一部としての遮られたイメージデータの配置において、実際の環境内の隣接するイメージ部分は、遮られたイメージデータの配置されたセット内で隣接しなくてもよく、環境内で隣接しない物体である遮られた物体のイメージは、補助フレーム、または、第2のフォーマットのフレーム内に含まれるイメージデータの遮られたセット内で、隣接するように配置されてもよい。
[00141] 遮られたイメージ部分が、遮られないイメージ部分よりも、モデル化される環境のはるかに小さい部分になる傾向があることを考慮すると、遮られたイメージデータが補助フレーム内で送られる場合、複数の異なる主フレームに対応する遮られたイメージデータは、単一の補助フレーム内に含められ得る。加えて、補助フレームサイズは、たとえば主フレームサイズより小さいなど、異なってよい。再生装置は、主ストリームの異なるフレームに対応する遮られたイメージデータを再生し、たとえば、遮られないイメージコンテンツストリームなどの主イメージコンテンツストリームの対応するフレームを用いて再生されたイメージデータを使用することができる。したがって、フレーム内の画素数について、たとえばより小さいなどの異なるフレームサイズを使用することによって、および/または、複数の異なる遮られないイメージフレームのための遮られたイメージデータを単一の補助フレームの中にパックすることによって、遮られたイメージコンテンツは、主コンテンツストリームを送信するのに必要とされるデータの量と比較して、相対的にわずかなオーバーヘッドをもって与えられ得る。いくつかの実施形態では、補助コンテンツストリームなどの遮られたイメージコンテンツストリームは、主の遮られないコンテンツストリームのデータレートの1/10またはそれより少ないデータレートを有する。補助フレームが、複数の主フレームに対する遮られたイメージコンテンツを含む場合、補助データストリームのフレームレートは、通常、主ストリームのフレームレートよりもわずかになる。いくつかの実施形態では、テクスチャとして使用される遮られたイメージデータを供給する補助コンテンツストリームのフレームレートは、主コンテンツストリームのフレームレートの1/5、1/10、または、少ない。
[00142] 1つまたは複数のフレームからの遮られたイメージコンテンツが、ステップ737で、1つまたは複数のフレーム内に配置されると、動作は、1つまたは複数の補助フレームが、記憶および/または送信のために、たとえば圧縮されるなど符号化されるステップ739に進む。そして、符号化された1つまたは複数の補助フレームは、将来のストリーミングおよび/または処理のために、ステップ744において記憶される。
[00143] 動作は、様々なフォーマットでストリームを生成するのに使用され得る符号化されたコンテンツが記憶されるステップ744から、接続するノードE 771を介して、図7Dのステップ772に進む。ステップ772では、異なるストリームフォーマットに対応するコンテンツセットが、コンテンツ要求に応答するコンテンツのストリーミングを容易にするために生成される。ステップ772は、ステップ773、777、783を含む。
[00144] ステップ773では、第1のコンテンツストリームフォーマットに対応する第1のコンテンツセット774が生成される。生成される第1のコンテンツセット774は、環境の遮られないセグメントに対応するセグメントを含む第1の環境モデル775と、環境に対応するイメージのフレームを第1の環境モデル775のセグメントにマッピングするための第1のUVマップ776と、コンテンツストリームとして送られ得る第1のフォーマットの符号化されたフレーム746とを含む。符号化されたフレーム746は、遮られたイメージコンテンツを含まない。コンテンツの第1のセット774は、遮られないイメージ部分に関連するコンテンツとマップとモデル情報とを含み、遮られたイメージ部分のための情報を含まないので、たとえば、処理能力制限の理由またはデータ送信制約の理由から、遮られないイメージ部分を処理し、表示するが、遮られたイメージ部分を処理せず、表示しない装置など、遮られたイメージデータの表示をサポートしない装置へのストリーミングによく適する。
[00145] ステップ777では、たとえば、第2のコンテンツストリームフォーマットに対応する、第2のコンテンツセット778は、たとえば、以前に作成された第2の環境モデル780、第2のUVマップ781、および、第2のフォーマットの1つまたは複数の符号化されたフレーム748とから生成される。第2のフォーマットのフレーム場合に、フレームは、遮られないイメージコンテンツと遮られたイメージコンテンツとの両方を含む。第2の環境モデル780は、環境の遮られない部分と環境の遮られた部分とに対応するセグメントを含む。第2のUVマップ781は、遮られないイメージ部分ならびに遮られたイメージ部分を、第2の環境モデル780にどのようにマッピングするかに関する情報を含む。したがって、第2のストリームフォーマットの場合に、遮られたイメージデータを有する個別のコンテンツストリームは送られないが、送られるフレームの部分は、第2の環境モデル780内の遮られた面に対応するイメージ部分を提供するのに使用される。第2のコンテンツストリームフォーマットは、送信するために、第1のコンテンツストリームフォーマットと同じまたはほぼ同じ量のデータを必要とし得るが、遮られたイメージデータを使用することのできない装置にとって、送信されるフレームの各々のより少ない部分などのより少ないデータが、遮られないイメージコンテンツを通信するために使用されるとした場合に可能であるものより、デフォルトビューイング位置から見える主イメージ部分のより良い品質を潜在的に可能にする、たとえば主イメージ部分などの遮られないイメージ部分のために、送信されるフレームのうちのより多くが使用されるので、第1のフォーマットでコンテンツストリームを受信することがよりよい。
[00146] ステップ783では、第3のコンテンツセット784が生成される。第3のコンテンツセット784は、第3のコンテンツストリームフォーマットに対応する。第3のコンテンツストリームフォーマットにしたがって、プログラムまたは他のコンテンツは、主コンテンツストリーム内の遮られないイメージコンテンツに対応するフレームと補助コンテンツストリーム内の遮られたイメージコンテンツを提供するのに使用されるフレームとの多重送信を使用してストリーミングされる。いくつかの実施形態では、各補助フレームは、複数の異なる主コンテンツストリームフレームと共に使用される遮られたイメージコンテンツを提供する。したがって、主コンテンツストリーム内で送信されるM個のフレームの各々について、1個のフレームが補助コンテンツストリーム内で送信され、Mは、1またはそれより大きく、しばしば、5または10より大きい。これは、はるかに少ない量の使用可能な帯域幅が、主ストリームではなく、たとえばいくつかの実施形態では遮られたイメージコンテンツなどの補助フレームを送信するために専用にされるからである。いくつかの実施形態では、補助コンテンツストリームは、主コンテンツストリームの1/5またはそれより少ないデータを必要とし、多くの場合に、遮られないイメージコンテンツストリームなどの主イメージコンテンツストリームの1/10またはそれより少ないデータを必要とする。
[00147] ステップ783は、いくつかの実施形態で、環境の遮られない部分と遮られた部分との両方のためのモデル情報を含む第3のストリームフォーマットと共に使用するための、環境モデル情報785を含むコンテンツセットを作成することを含む。いくつかの実施形態で、環境モデル情報785は、遮られないセグメントと遮られたセグメントとの両方を有する環境モデルを生成するために、組み合わせて使用され得る、第1の環境モデル情報775と補助モデル情報786とを含む。他の実施形態では、環境モデル情報785は、環境の遮られない部分と遮られた部分とに対応するセグメントを含む第2の環境モデル780を含む。コンテンツストリーム内に第2の環境モデル780を含めることによって、再生装置は、使用される環境モデルを作成するために第1の環境モデル情報775と補助モデル情報786とを組み合わせる必要がなく、遮られないセグメントと遮られたセグメントとを既に含む第2の環境モデル780に単純に依存することができる。
[00148] 第3のモデル情報に加えて、第3のコンテンツセット784は、第1のUVマップ776と、たとえば、遮られないイメージコンテンツを含むが、遮られたイメージ部分を含まないフォーマットなどの第1のフォーマットで符号化された1つまたは複数のフレーム746とを含む。第1のUVマップ776は、第1のフォーマットでのフレームの部分、すなわち、遮られないイメージ部分を、環境の遮られない部分に対応する第2の環境モデル780のセグメント上にマッピングするのに使用され得る。遮られないイメージコンテンツ746に加えて、第3のストリームフォーマットでは、遮られたイメージ部分が、補助コンテンツストリーム内で送られる補助フレーム内で通信される。したがって、第3のコンテンツセット784は、遮られたイメージ部分を、環境の遮られた部分に対応する第2の環境モデル780のセグメント上にマッピングするための補助UVマップ788を含む。そのような遮られたセグメントに関する情報は、コンテンツストリームが、第1の環境モデル情報775と、再生装置が第2の環境モデル780を生成することを可能にする補助モデル情報786とを含む場合に、補助モデル情報786内に含まれる。
[00149] ステップ772で、様々なストリームのためのコンテンツセットが生成され、記憶されて、それらは、ストリーミングのために使用可能である。所与のプログラムタイトルに関して理解されるべきであるように、対応するコンテンツは、コンテンツと、関連するモデル/UVマップ情報とを再生装置にストリーミングすることによって、第1のストリームフォーマット、第2のストリームフォーマット、または、第3のストリームフォーマットを使用して提供され得る。所与のプログラムタイトルに関して、複数の異なるコンテンツストリームが使用可能であり得るが、個々のコンテンツストリームは、特定のコンテンツ識別子によって識別され得る。再生装置は、たとえば、1つまたは複数のコンテンツセットが存在するプログラムを識別するプログラムタイトルまたは番号などのコンテンツ識別子を提供することと、たとえばコンテンツを提供するサーバなどの装置が、供給すべきコンテンツセット774、778、または、784を選択することを可能にすることとによって、コンテンツを要求することができ、あるいは、再生装置が、コンテンツ要求の中に、記憶されたコンテンツセット774、778、784のうちの特定の1つに対応するコンテンツセットまたはストリーム識別子を含めることにより、特定のストリームフォーマットでのコンテンツを要求することができる。
[00150] コンテンツ要求を容易にするために、ステップ791で、コンテンツセット774、778、784を作成し、記憶したシステムは、使用可能なコンテンツおよび/または使用可能なコンテンツストリームのリストを再生装置に通信するなど、発行する。使用可能なストリーム情報が、特定のコンテンツストリームフォーマットでの示されたタイトルに対応するコンテンツを識別するストリーム識別子を含むことができる一方で、使用可能なコンテンツのリストは、プログラムタイトルまたはプログラム識別子を含んでもよい。発行された使用可能なコンテンツ情報を受信する再生装置は、たとえば、コンテンツセット774、778、784を記憶し、要求に応答してストリーミングするサーバからなどのコンテンツを要求するのに、それを使用することができる。たとえば、遮られたイメージの表示をサポートしない装置が、コンテンツセット774を供給されて、および、単一のデコーダを有し、遮られたイメージの表示をサポートする第2の装置が、コンテンツセット778を供給されて、および、主ストリームデコーダと補助ストリームデコーダなどの複数のデコーダサポートする装置が、コンテンツセット784を供給されて、異なる能力を有する装置は、同じタイトルの異なるバージョンをストリーミングされ得、時にストリーミングされる。
[00151] 使用可能なタイトルのリストが、コンテンツ要求を行うことを容易にするために、ステップ791で再生装置に配布されて、動作は、「GOTO」ステップ793を介して、図8に示されたコンテンツ供給ルーチン900に進む。
[00152] 図8に示されたコンテンツ供給ルーチン900を議論する前に、供給され得るコンテンツストリームの様々なフォーマットの簡単な議論が、供給ルーチンを理解するのに役立ち得る。
[00153] 図9は、たとえば、デフォルトビューイング位置から見られ得るイメージに対応するコンテンツなどの、遮られたイメージ部分を含まないコンテンツを、たとえば、ストリーミングするまたはダウンロードするなど、供給するのに使用される第1のストリームフォーマット1000を示す。第1のフォーマットによれば、たとえば、ストリーミングされるイメージが取り込まれた場所に対応する環境のメッシュモデルなどの環境モデル1002が、フレーム1006の諸部分をマッピングするためのUVマップ1004と共に、環境モデルに与えられる。第1のストリームフォーマットでは、提供されるモデル1002、UVマップ1004、および、イメージコンテンツ1006は、たとえば、環境内のデフォルトビューイング位置から見える部分などの環境の遮られない部分に対応する。第1のストリームフォーマットは、たとえば、デフォルトビューイング位置からは見えない環境のエリアに対応するイメージの部分などの遮られたイメージコンテンツの通信を含まない。
[00154] 図10は、たとえば、デフォルトビューイング位置から見られ得るイメージに対応するコンテンツ、ならびに、デフォルトビューイング位置からは見られ得ないが、デフォルトビューイング位置からずらされた位置からは見えるイメージに対応するコンテンツなど、フレーム内に、遮られないイメージ部分と遮られたイメージ部分とを含むコンテンツを、ストリーミングするまたはダウンロードするなど供給するのに使用される第2のストリームフォーマット1050を示す。第2のフォーマットによれば、たとえば、ストリーミングされるべきイメージが取り込まれた場所に対応する環境のメッシュモデルなどの第2の環境モデル1052が、UVマップ1053と共に提供される。第2のフォーマットによれば、1つまたは複数のフレーム1057が、環境の遮られない部分に対応するイメージコンテンツ1058と、環境の遮られた部分に対応するイメージコンテンツ1060とを含むように符号化される。図10では、フレーム1057の上側部分は、遮られないイメージコンテンツを提供するよう図示され、フレームの下側部分が、遮られたイメージコンテンツを提供するよう図示されるが、たとえば、遮られたイメージコンテンツが、フレームの上部と下部、または、左部分と右部分との両方で提供されることなど、他の構成が可能である。いくつかの実施形態では、遮られたイメージコンテンツが、たとえば、フレームの左側と右側、下部と上部などの様々な位置に配置され得る一方で、遮られないイメージ部分は、フレーム1057内の連続するエリアに対応する。遮られないイメージデータのためにフレーム1057の連続部分を使用することは、必須ではないが、遮られないイメージ部分の抽出と環境モデルへの適用とを容易にすることができる。第2のストリームフォーマットでは、通信されるフレームが、主ビューイングエリアに対応する遮られないイメージコンテンツと遮られたイメージコンテンツとの両方を含むので、UVマップ1053は、遮られないイメージコンテンツのメッシュモデル1052のセグメントへのマッピングを示す第1の部分1054と、遮られたイメージ部分のメッシュモデル1052のセグメントへのマッピングを示す第2の部分1056とを含む。
[00155] 図11は、たとえば、メインコンテンツストリームまたは主コンテンツストリーム1210のフレーム内で送信される遮られないイメージ部分と、補助ストリーム1250内で送信される遮られたイメージ部分とを含むコンテンツを、ストリーミングするまたはダウンロードするなど供給するのに使用される第3のストリームフォーマット1200を示す。遮られないイメージコンテンツを供給するメインストリームのフレーム1212、1220と、遮られたイメージコンテンツを供給する対応する補助ストリームのフレーム1252との使用を容易にするために、再生装置は、第3のストリームフォーマットの一部として、環境の遮られない部分および遮られた部分のためのセグメントを含む、第2のメッシュモデル1203の形態での環境メッシュモデル情報、または、そのようなモデル1203を構築するのに十分な情報、または、そのようなモデルを形成するのに十分な情報1202を供給される。そのようなモデル1203を形成するのに十分な情報1202は、たとえば遮られない面など、デフォルトビューイング位置から見える面のメッシュモデル1242と、第2のメッシュモデル1203を生成するために、ノードおよび/またはセグメントをどのようにメッシュモデル1242に追加すべきかに関する情報を提供する補助メッシュモデル情報1244とを含む。
[00156] さらに、第3のストリームフォーマットの場合に、異なるフレームが、テクスチャとして使用されるべき主の遮られないイメージコンテンツを供給するのに使用され、補助ストリームが、テクスチャとして使用されるべき遮られたイメージコンテンツを提供するフレームを供給するのに使用されるので、個別のUVマップ1274、1275が提供される。UVマップ1274は、環境の遮られない部分に対応して、送信されるフレームのセグメントを第2のメッシュモデル1203のセグメント上にどのようにマッピングするかに関する情報を提供する。補助UVマップ1275は、送信される補助フレームのセグメントを、メッシュモデル1203の1つまたは複数の遮られないセグメントのうちのセグメント上にどのようにマッピングするかに関する情報を含む。
[00157] 図11の実施形態では、主の遮られないイメージコンテンツの各々M個のフレーム(1212、1220)(1232、1240)について、遮られたイメージコンテンツを有する1つの補助フレーム1252、1260が、生成され、補助コンテンツストリーム1250内に含められる。送信目的のために、プログラムに対応するメインストリーム1210のフレーム、および、同じプログラムに対応する補助ストリーム1250のフレームが、多重化され得、しばしば多重化される。したがって、プログラムに対応するコンテンツストリームは、メインストリーム1210に対応するデータと、補助ストリーム1250に対応するデータの他のセットとを含み得る。ストリーム1210、1250のコンテンツは、パケットを共に混合するマルチプレクサを用いてパケット化され得る、および、しばしばパケット化されるが、それらが対応するストリームは、異なるパケットのパケットヘッダ内に含まれる異なるストリームアイデアの使用から識別可能である。再生時に、ストリーム1210と1250のコンテンツは、各ストリームのパケットと共に通信されるストリーム識別情報に基づいて簡単に多重化解除(デマルチプレックス)され得る。
[00158] Mは、1またはそれより大きくすることができるが、それは、通常、遮られたイメージデータの量が、主フレームの各々についての主フレームデータの量の1/5またはそれより少ないので、5またはそれより大きい。メインストリーム1210が、補助ストリーム1250の各フレームに対してM個のフレームを含むので、メインストリーム1210のフレームレートは、補助ストリーム1250のフレームレートのM倍になる。単一の補助フレームが、複数のフレームのための補助イメージコンテンツを含む場合には、異なる主フレームF1 1212からFM 1220に対応する補助コンテンツは、事前に決定された形で、単一の補助フレームAF1 1252内に配置され得る。たとえば、図11に示されているように、補助フレームAF1 1252は、フレームF1 1262とM個のフレームの第1のセット内の他のフレームの各々とのための補助イメージコンテンツを含む。したがって、補助フレームAF1は、主フレームF1のための補助イメージデータ1262と、3つの点の使用によって表される第1のセット内の他のフレームのためのイメージデータと、主フレームFM 1220のための補助データ1265とを含む。
[00159] いくつかの実施形態では、再生装置は、メインと補助との符号化されたフレームを復号するために異なるデコーダを使用する。ハードウェアデコーダまたはグラフィックスプロセッサが、遮られないイメージデータを提供する主コンテンツストリームのフレーム1212、1220、1232、1240を復号するために、セルフォンなどの再生装置内でしばしば使用されるが、デコーダの汎用プロセッサが、補助ストリーム1250のより低いレートのフレームを復号するように構成される。ハードウェアデコーダが十分に高速である他の場合には、ハードウェアデコーダは、メインストリーム1210の符号化されたフレームと補助ストリームの符号化されたフレーム1250との復号の間で切り替えるように、再生装置内で使用され得る。メインストリームのフレームを復号するために使用されるデコーダよりも低速などのより低速のデコーダが、補助フレームを復号するのに使用され得ることを考慮すると、いくつかの実施形態で、主フレームのセット(1212、1220)に対応する補助フレーム1252は、補助イメージコンテンツが、それと共に使用される対応する主フレームと同時に、復号された形で使用可能であることを確実にするために、主フレームの対応するセットの前に再生装置に送られる。
[00160] 図8は、本発明の1つの例示的な実施形態にしたがってサーバによって実施され得るコンテンツ供給方法900を示す。例示的なコンテンツサーバの動作は、サーバが、たとえば、第1、第2、および、第3のストリームフォーマットの各々でコンテンツを記憶し、提供できる例の文脈で説明されるが、サーバが、すべてのフォーマットをサポートする必要はなく、実施形態に依存して、第1、第2、または、第3のフォーマットのうちの単一の1つ、または、3つのフォーマットのうちの2つをサポートしてもよいことを理解されたい。
[00161] 方法900は、ステップ902において、たとえば、供給ルーチンが、この方法を実装するコンテンツサーバのプロセッサによってロードされ、実行されることで開始する。動作は、開始ステップ902から、サーバが、たとえば、1つまたは複数の異なる顧客宅内にある再生システムおよび/または装置からの、コンテンツ要求を監視するステップ904に進む。
[00162] ステップ906では、コンテンツの要求が、再生装置から受信される。再生装置にとって使用可能な情報に応じて、装置は、どのフォーマットをストリーミングするかの選択をサーバに任せて、コンテンツ要求内で特定のコンテンツタイトルを示すことができ、または、再生装置は、たとえば、ユーザが選択したタイトルに対応し、再生装置によって選択されたコンテンツストリームフォーマットであるコンテンツストリームなどの特定のコンテンツストリームを識別することができる。コンテンツ要求内に含まれ、または、コンテンツ要求と共に送られる装置識別子から、または、再生装置によって提供される装置能力情報から、サーバは、再生装置が、遮られたデータの表示をサポートできるかどうかを決定することができ、そうである場合には、第1および/または第2のストリームフォーマットがサポートされ得るかどうかを決定することができる。サーバは、また、再生装置によって提供される情報から、または、サーバと再生装置との間のネットワーク接続の監視から、再生装置のために働くのに使用され得るチャネルのデータレートを知ることができる。
[00163] コンテンツ要求が受信されて、動作は、ステップ906からステップ908に進む。ステップ908では、サーバは、環境モデル情報、提供されるべき1つまたは複数のUVマップ、および、受信された要求に応答して再生装置にどの1つまたは複数のコンテンツストリームを供給すべきかを決定する。判断は、再生装置の能力および/またはコンテンツ配送のためにサポートされ得る再生装置へのデータレートに基づかれ得る。
[00164] ステップ908は、1つまたは複数のサブステップを含む。図8の例では、ステップ908は、受信されたコンテンツ要求が、特定のストリームフォーマットにおけるコンテンツを識別するコンテンツ識別子を含むかどうかを決定するためのチェックが行われるサブステップ910から始まる。たとえば、要求されたコンテンツに対応するストリーム識別子が、コンテンツ要求内に含まれていたとすると、問い910に対する答えは「yes」であり、動作はステップ910から922に進む。ステップ922では、使用されるべきストリームフォーマットが、コンテンツ要求内で示された特定のコンテンツストリームのストリームフォーマットと一致するようにセットされ、たとえば、使用されるストリームフォーマットは、特別に要求されたストリームのフォーマットと一致する、第1、第2、または、第3のストリームフォーマットのうちの1つに設定される。動作は、ステップ922からステップ930に進む。
[00165] コンテンツ要求が、特定のフォーマットを有するコンテンツストリームを特別には識別しない場合、動作は、ステップ910から、要求がそれから受信される再生装置が、遮られたイメージデータの処理と表示とをサポートするかどうかを決定するために、装置能力がチェックされるステップ912に進む。そのような決定は、たとえば、第1、第2、および/または、第3のストリームフォーマットのサポートを示す装置能力などの、要求内に含まれる装置能力情報に基づいて、および/または、受信された要求内に含まれる再生装置の識別子に基づいて能力情報を検索することによって、行われ得る。
[00166] ステップ912で、コンテンツを要求する再生装置が、遮られたイメージデータの処理と表示とをサポートしないと決定される場合には、動作は、ステップ912からステップ914に進む。ステップ914では、たとえば、遮られたイメージデータをサポートしないフォーマットなどの第1のストリームフォーマットが使用されるべきであることが決定される。その後、動作は、ステップ914から、使用されるべきストリームフォーマットが、第1のストリームフォーマットに設定されるステップ924に進み、その後、動作はステップ930に進む。
[00167] ステップ912で、要求を送った再生装置が、遮られたイメージコンテンツの処理と表示とをサポートすると決定される場合に、動作は、ステップ912から、主コンテンツストリームおよび補助コンテンツストリームが、たとえば、主ストリーム、補助ストリーム、および、オーディオストリームなどの1つまたは複数の他のストリームを含むプログラムストリームなどの多重化されたストリーム内で提供されるフォーマットなど、第3のストリームフォーマットでのコンテンツストリームの処理を再生装置がするかどうかを、サーバが決定するステップ916に進む。
[00168] 第3のフォーマットは、主フレームストリームと遮られたイメージコンテンツを提供する補助データストリームとの送信を含むので、それは、通常、コンテンツ配送をサポートするために、第2のデータストリームフォーマットより高いデータ送信レートを必要とする。ステップ916で、第3のストリームフォーマットが再生装置によってサポートされ得ると決定される場合、処理は、ステップ918に進む。ステップ918では、第3フォーマットでのコンテンツストリームのために必要とされるデータレートが、要求する再生装置にコンテンツを配送する際の使用のために利用可能かどうかを決定するために、チェックが行われる。これは、他の装置から受信されたデータレート情報に基づいて決定され、サーバによって決定され、および/または、コンテンツを要求する再生装置から報告され得る。ステップ918で、第3のストリームフォーマットのために必要とされるデータレートがサポートされ得ると決定される場合には、動作は、使用されるべきストリームフォーマットが、ステップ930に動作が進む前に、第3のストリームフォーマットに設定されるステップ926に進む。ステップ918で、第3のストリームフォーマットをサポートするために必要とされるデータレートが、要求がそこから受信される再生装置にとって使用可能ではないと決定される場合には、動作は、ステップ920に進む。また、ステップ920で、コンテンツを要求する再生装置が、第3のストリームフォーマットをサポートしないと決定された場合には、動作は、ステップ916から、第2のストリームフォーマットが使用されるべきであると決定されるステップ920に進む。動作はステップ920からステップ928に進む。ステップ928では、使用されるべきストリームフォーマットが、第2のストリームフォーマットに設定され、動作は、ステップ930に進む。
[00169] ステップ930では、使用されると決定されたストリームフォーマットおよび要求されたコンテンツに対応するコンテンツセットが、たとえばメモリから取り出されるなど、アクセスされる。使用されると決定されたストリームフォーマットが、第1のストリームフォーマットである場合、図9のコンテンツセットがアクセスされる。使用されると決定されたストリームフォーマットが、第2のストリームフォーマットである場合、図10のコンテンツセットがアクセスされる。使用されると決定されたストリームフォーマットが、第3のストリームフォーマットである場合、図11のコンテンツセットがアクセスされる。
[00170] 動作は、ステップ930から、アクセスされたコンテンツセットからの、たとえば1つまたは複数のUVマップなどのUVマップ情報が、再生装置に送られるステップ932に進む。動作は、ステップ932から、たとえば1つまたは複数の環境モデルなどの環境モデル情報が再生装置に送られるステップ934に進む。再生装置は、要求されたプログラムに対応するコンテンツのアクセスされたセットから送信されるフレームなどのコンテンツを使用してイメージを描画するために、送信されたUVマップ情報とモデル情報とを使用することができる。
[00171] ステップ934から、動作は、要求されたコンテンツに対応するフレームが、決定されたストリームフォーマットにしたがって送信されるステップ936に進む。第3のストリームフォーマットの場合には、第3のストリームフォーマットが使用されるときに実行されるステップ938において、メインイメージデータのフレームが、遮られたイメージデータを提供する補助フレームと多重化される。
[00172] 動作は、要求の監視が継続的に起こることを示すために、ステップ936からステップ904に進むように図示される。要求が受信される場合、それらは処理され、コンテンツが要求する再生装置に供給される。
[00173] 異なる装置およびそれらのコンテンツ要求のために働くことの結果として、図900のステップは、遮られたイメージデータの使用をサポートしない第1の装置からのコンテンツに応答して実装され得、その場合、ステップ936で、第1の装置は、第1のストリームフォーマットに対応するコンテンツストリームをストリーミングされる。第2のコンテンツストリームフォーマットと遮られたイメージデータの使用とをサポートするが、第3のフォーマットをサポートしない第2の装置は、同じコンテンツが要求されるが、ストリームフォーマットが指定されないときに、異なって応答される。たとえば、第2の装置が、第1の装置と同じプログラムを要求したとすると、第2の装置は、第2のストリームフォーマットにしたがうプログラムコンテンツストリームを提供される。高いデータレートと第3のコンテンツストリームフォーマットとをサポートする第3の装置が、同じプログラムを要求するとしたら、第3の装置は、サーバが、第3のコンテンツストリームフォーマットで要求されたプログラムコンテンツを提供して、応答される。したがって、サーバは、装置にコンテンツを配送するのに使用され得る装置能力および/またはデータレートに依存して、同時に、異なる装置に、異なるコンテンツストリームフォーマットで、同じプログラムに対応するコンテンツを供給することができ、時に供給する。図7と8とに関して説明された処理は、いくつかの実施形態では、プロセッサの制御の下で実行される。したがって、いくつかの実施形態では、イメージ処理システムは、図7と8とに示されたステップを実装するために処理システムを制御するように構成されたプロセッサを含む。送信ステップおよび受信ステップは、再生装置のインターフェース(送信器と受信器とを含む)を介して実行される。
[00174] 図12は、本発明の特徴にしたがう例示的な処理システム1700を示す。処理システム1700は、フローチャート700および/または900の方法の1つまたは複数のステップを実装するのに使用され得る。処理システム1700は、様々なフォーマットでイメージングコンテンツを符号化し、ストリーミングするのに使用され得る符号化機能を含む。例示的な処理システム1700は、システム600の処理システム608として使用され得る。
[00175] 処理システム1700は、本発明の特徴にしたがう3Dイメージの描画、記憶、および、送信および/またはコンテンツ出力に使用され得る環境モデル、UVマップ、および、イメージコンテンツを生成するのに使用され得、いくつかの実施形態では使用される。処理システム1700は、また、処理されおよび/または符号化されたイメージデータを、復号し、たとえばオペレータに、表示する能力を含むことができる。
[00176] システム1700は、ディスプレイ1702、入力装置1704、入出力(input/output:I/O)インターフェース1706、マルチプレクサ1707、プロセッサ1708、ネットワークインターフェース1710、および、メモリ1712を含む。システム1700の様々な構成要素は、データがシステム1700の構成要素の間で通信されることを可能にするバス1709を介して、共に結合される。
[00177] メモリ1712は、プロセッサ1708によって実行されるときに、本発明したがって、混成環境奥行マップ生成、環境奥行マップ調和、符号化、記憶、および、ストリーミング/送信および/または出力の動作を実装するようにシステム1700を制御する様々なルーチンとモジュールとを含む。
[00178] ディスプレイ装置1702は、イメージ、ビデオ、処理システム1700の構成に関する情報を表示するために、および/または、処理装置上で実行される処理の状況を示すために使用されるタッチスクリーンとすることができ、いくつかの実施形態ではそうである。ディスプレイ装置602がタッチスクリーンである場合に、ディスプレイ装置602は、追加の入力装置として、および/または、ボタンなどの個別の入力装置1706の代替として働く。入力装置1704は、たとえば、情報、データ、および/または、命令を入力するために使用され得るキーパッド、タッチスクリーン、または、同様の装置などとすることができ、いくつかの実施形態ではそうである。
[00179] I/Oインターフェース1706を介して、処理システム1700は、外部装置に結合され、たとえば、図に示されたカメラリグ801および/または他のカメラリグ、および/または、他の外部カメラなどの外部装置と情報や信号を交換することができる。I/Oインターフェース1606は、送信器と受信器とを含む。いくつかの実施形態では、I/Oインターフェース1706を介して、処理システム1700は、カメラリグ801などのカメラリグの一部であってよい、たとえば、立体視カメラ対および/またはライトフィールドカメラなどの様々なカメラによって取り込まれたイメージを受信する。いくつかの実施形態では、システム1700にイメージを提供するカメラは、異なる位置に位置決めされ、したがって、異なる位置から取り込まれた、関心を持たれている環境の諸部分のイメージを提供する。
[00180] マルチプレクサ1707は、多重化されたコンテンツストリーム1744を生成するために、イメージコンテンツを含む様々なフレームを多重化するように構成される。いくつかの実施形態で、マルチプレクサ1707は、第1のフォーマットのフレーム(たとえば、1732’)と補助フレーム(たとえば、1736’)とを多重化するように構成される。いくつかの実施形態では、マルチプレクサ1707は、第1のフレームと補助フレームとを多重化するように構成されることの一部として、多重化されたコンテンツストリームを受信する装置が、第1のフレームの前に前記補助フレームを受信するように、多重化されたコンテンツストリーム内で、第1のフレームの前に補助フレームを組み込むように構成される。
[00181] たとえばCPUなどのプロセッサ1708は、ルーチン1714を実行し、本発明にしたがって動作するようにシステム1700を制御するのに様々なモジュールを使用する。プロセッサ1708は、たとえば、たとえばフローチャート700および900で詳細に議論されたものなど、本発明による動作のセットを実行するように処理システムを制御することによってなどで、システム1700の全体的な全般的な動作を制御する責任を負う。様々な実施形態では、プロセッサ1708は、処理システム1700によって実行されるものとして議論された機能を実行するように構成される。
[00182] ネットワークインターフェース1710は、処理システム1700が、たとえば通信ネットワーク105などの通信ネットワーク上で外部装置に対し情報を受信し、および/または、通信することができることを可能にする。ネットワークインターフェース1710は、送信器1740と受信器1742とを含む。送信器1740は、処理システム1700が、様々な顧客装置に符号化されたイメージコンテンツを、たとえばブロードキャストする、および/または、ユニキャストするなど、送信することを可能にする。いくつかの実施形態で、処理システム1700は、送信器1740を介して顧客装置に、たとえば、180°前方部分、左後方部分、右後方部分などのシーンの異なる部分を送信する。さらに、いくつかの実施形態で、送信器1740を介して、処理システム1700は、また、個々の顧客装置に、環境奥行マップ、1つまたは複数の3D環境メッシュモデル、1つまたは複数のUVマップ、および/または、たとえば立体視イメージコンテンツなどのイメージコンテンツを送信する。いくつかの実施形態では、送信器1740は、1つまたは複数の再生装置に、主コンテンツストリーム内に第1のフレームを、補助コンテンツストリーム内に補助フレームを含む多重化されたコンテンツストリーム1744を送信するように構成される。
[00183] メモリ1712は、プロセッサ1708によって実行されるときに、本発明にしたがってシステム1700の動作を制御する様々なモジュールとルーチンとを含む。たとえばCPUなどのプロセッサ1708は、本発明にしたがって動作し、図7と8とのフローチャートの方法の1つまたは複数のステップを実装するようにシステム1700を制御するために、メモリ1712に記憶された、制御ルーチンを実行し、データ/情報を使用する。
[00184] メモリ1712は、制御ルーチン1714、および、主イメージエンコーダ1716、および、補助エンコーダ1717、および、ストリーミングコントローラ1720、および、3Dメッシュモデル生成および更新モジュール1722、および、UVマップ生成および更新モジュール1722、および、1つまたは複数のカメラによって取り込まれた関心を持たれている環境の受信されたイメージ1723、および、第1のフォーマットで複数のフレームの内のフレーム1732と、第2のフォーマットでの複数のフレームの内のフレーム1734と、第3のフォーマットでの複数のフレームの内の補助フレーム1736とを含むイメージコンテンツの生成されたフレーム、および、第1のフォーマットでの複数のフレームの内の符号化されたフレーム1732’と、第2のフォーマットでの複数のフレームの内の符号化されたフレーム1734’と、第3のフォーマットでの複数のフレームの内の符号化された補助フレーム1736’とを含む符号化されたイメージコンテンツ、および、多重化されたコンテンツストリーム1744、および、生成された環境メッシュモデル1746、および、生成されたUVマップ1752を含む。
[00185] いくつかの実施形態で、モジュールは、ソフトウェアモジュールとして実装される。他の実施形態で、モジュールは、たとえば、各モジュールが、そのモジュールが対応する機能を実行するための回路として実装されている個々の回路として、メモリ1712の外部においてハードウェアで実装される。さらに他の実施形態で、モジュールは、ソフトウェアとハードウェアとの組合せを使用して実装される。1つまたは複数のモジュールが、ソフトウェアモジュールまたはルーチンとして実装される実施形態では、モジュールおよび/またはルーチンは、本発明にしたがって動作し、フローチャート700および/または900に関して議論された1つまたは複数の動作を実装するようにシステム1700を制御するために、プロセッサ1708によって実行される。
[00186] 制御ルーチン1714は、処理システム1700の動作を制御するための装置制御ルーチンと通信ルーチンとを含む。主エンコーダ1716は、本発明の特徴にしたがって、たとえば、シーンおよび/または1つまたは複数のシーン部分の立体視イメージなどの受信されたイメージコンテンツを符号化するように構成された複数のエンコーダを含むことができ、いくつかの実施形態では含む。いくつかの実施形態では、主エンコーダ1716は、第1のフォーマットでの1つまたは複数のフレームを符号化し、第2のフォーマットで符号化された1つまたは複数のフレームを符号化するように構成される。第1と第2のフォーマットで符号化された1つまたは複数のフレーム1732’および1734’は、たとえば再生装置などの顧客装置にストリーミングするためにメモリに記憶される主エンコーダ1716の出力である。いくつかの実施形態で、補助エンコーダ1717は、第3のフォーマットでの1つまたは複数の符号化されたフレーム1736’を出力するために、第3のフォーマットで1つまたは複数のフレームを符号化するように構成される。符号化されたコンテンツは、いくつかの実施形態で、ネットワークインターフェース1710を介して1つまたは複数の異なる装置にストリーミングされ得る。
[00187] ストリーミングコントローラ1720は、たとえば、通信ネットワーク605上で、1つまたは複数の顧客再生装置に符号化されたイメージコンテンツを配送するために、符号化されたコンテンツのストリーミングを制御するように構成される。様々な実施形態で、ストリーミングコントローラ1720は、さらに、たとえばネットワークインターフェース1710を介して、1つまたは複数の顧客再生装置に、1つまたは複数の環境メッシュモデルとUVマップを、たとえば、送信器1740を介する制御するなど、通信するように構成される。
[00188] 3D環境メッシュモデル生成および更新モジュール1722は、フローチャート700に関して詳細に議論されたように、本発明の特徴による様々なタイプの3D環境メッシュモデルを生成するように構成される。いくつかの実施形態で、3D環境メッシュモデル生成および更新モジュール1722の出力である、生成された3Dメッシュモデル1746は、第1の環境メッシュモデル1747、第2の環境メッシュモデル1748、および、補助環境メッシュモデル情報1750を含んで、モジュール1722によって生成された1つまたは複数の3Dメッシュモデルを含む。UVマップ生成および更新モジュール1722は、対応する3D環境メッシュモデル上にフレームをラップすることに使用されるために、本発明の特徴にしたがってUVマップを生成するように構成される。UVマップ生成モジュール1722の出力である、生成されたUVマップ1752は、第1のUVマップ1754、第2のUVマップ1756、および、補助UVマップ1758を含む。いくつかの実施形態で、モジュールは、図7と8とで議論された様々なステップに対応する機能を実行するように構成される。
[00189] 受信されたイメージ1723は、たとえばリグ801内に含まれるカメラ、または、関心を持たれている環境内でイメージを取り込むために展開される他のカメラなどの1つまたは複数のカメラから受信されたイメージを含む。受信されたイメージ1723は、環境の部分に対応する第1のイメージ1726と、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、第2のカメラからの環境の部分に対応する第2のイメージ1728と、ここで、前記第2のイメージは、第1の位置から見える環境の部分に対応する第2の遮られないイメージ部分と前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージ1730とを含む、を含む。
[00190] いくつかの実施形態で、プロセッサ1708は、図7と8とに示されたステップを実装するようにイメージ処理ステム1700を制御するように構成される。送信ステップおよび受信ステップは、再生装置のインターフェース(送信器と受信器とを含む)を介して実行される。いくつかの実施形態で、プロセッサ1708は、環境の部分に対応する第1のイメージを(たとえば、インターフェース1706を介してまたは受信器1742を介して)受信するように、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージを(たとえば、インターフェース1706を介してまたは受信器1742を介して)受信するように、前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツと追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツとを含む第1のフレームを生成するように、および、記憶装置内に前記第1のフレームを(たとえば、メモリ1712内に)記憶し、または、他の装置に前記第1のフレームを送信するように、システム1700を制御するよう構成される。
[00191] 図13Aと13Bとの組合せを備える図13は、1つの例示的な実施形態で再生装置を動作させる方法のステップ1300を示す。いくつかの実施形態で、再生および描画システム1900が、フローチャート1300の方法のステップを実装するのに使用される。図13の例示的な実施形態では、再生装置は、再生装置が要求できる配送のために使用可能な様々なコンテンツストリームを示す、たとえば使用可能なコンテンツストリーム情報などの情報を受信する。
[00192] フローチャート1300の方法は、開始ステップ1302において、たとえば、ゲーム機、および、ディスプレイまたはヘッドマウントディスプレイアセンブリなどの再生装置が、電源をオンにされ、たとえば、イメージを描画することに使用されるテクスチャ情報、環境モデル情報、および/または、UVマップを表すフレームなどの3D関連のイメージデータと情報を受信し、記憶し、処理することを開始するように設定されることで開始する。動作は、開始ステップ1302から、異なるストリームフォーマットに対応するストリームのリストをオプションで含む使用可能なコンテンツストリームのリストを通信する情報が、たとえば処理システムから受信され、たとえばメモリに記憶されるステップ1304に進む。コンテンツのリストは、たとえば、再生装置が、再生のためにストリーミングされることを要求することができる、使用可能な、タイトルなどの、様々なコンテンツアイテムを示す情報などを含む。各タイトルは、様々なストリームフォーマットで使用可能であり得る。たとえば、異なるストリームフォーマットに対応するストリームのリストなどのストリームフォーマット情報が、処理システムによって再生装置に通信され得るが、いくつかの実施形態では、必ずそうであるとは限らない。
[00193] ステップ1306では、ユーザ入力を通常は監視する再生装置が、たとえばタイトルのユーザ選択などのコンテンツのユーザ選択を検出する。動作は、ステップ1306から、異なるストリームフォーマットでのストリームが、ユーザの選択されたコンテンツについて選択するために使用可能であるかどうかを、再生装置が決定する、たとえば、ユーザ選択されたコンテンツが1つよりも多くのストリームフォーマットで使用可能であるかどうかを、再生装置が決定するステップ1308に進む。再生装置は、ストリームフォーマット情報が再生装置によって受信されるとすれば、そのような情報に基づいて決定を行うことを可能にし得る。そのような情報が、再生装置から入手可能であり、ユーザ選択されたコンテンツが、複数のストリームフォーマットで使用可能であることを、装置が決定する場合、動作はステップ1310に進む。
[00194] まず、ステップ1310の経路に沿った処理を参照すると、ステップ1310では、再生装置は、装置能力情報および/または再生装置によってサポート可能な現在のデータレートに基づいて、たとえば異なるストリームフォーマット内の異なる使用可能なストリームから、要求されるコンテンツストリームを決定する。ステップ1310の一部として、いくつかの実施形態で、再生装置は、1312から1322までのうちの1つまたは複数を実行する。ステップ1312では、装置は、たとえば、装置能力、現在の処理能力および/またはハードウェアおよび/またはソフトウェアの使用可能性、または、他の制約に基づいて、遮られたイメージデータの処理および表示が再生装置によってサポートされるかどうかをチェックする。いかなる理由であれ、その時点で、遮られたイメージデータの処理および表示が再生装置によってサポートされないか、望まれないことが決定される場合、動作は、ステップ1312から、再生装置が、第1のストリームフォーマットが使用されるべきであり、したがって、ユーザ選択されたコンテンツのための第1のストリームフォーマットをサポートするストリームが要求されるべきであると決定し、判断するステップ1314に進む。
[00195] しかし、ステップ1312で、遮られたイメージデータの処理および表示が再生装置によってサポートされると決定される場合、動作は、ステップ1312から、再生装置が、第3のストリームフォーマットでのコンテンツストリームを処理することをサポートするかどうかが決定されるステップ1316に進み、ここで、たとえば、第3のストリームフォーマットは、メインのたとえば遮られないデータに対応するコンテンツを提供する第1のサブストリームと、遮られたデータに対応するコンテンツを提供する他のサブストリームを有するサブストリームの多重送信をサポートするフォーマットである。再生装置が、第3のストリームフォーマットをサポートしないと決定される場合、処理は、ステップ1316から、第2のストリームフォーマットが使用されることが決定されるステップ1318に進む。ステップ1316で、再生装置が、第3のストリームフォーマットをサポートすることが決定される場合、処理は、第3のストリームフォーマットでコンテンツストリームを受信し、処理するのに必要とされるデータレートが、所与のときにサポートされ得るかどうかを、装置がチェックするステップ1320に進む。そのようなデータレートがサポートされ得ると決定される場合、処理はステップ1320からステップ1322に進み、そうでない場合には、動作はステップ1318に進む。ステップ1322では、第3のストリームフォーマットが使用されるべきであることが決定され、それによって、決定ステップ1310を完了する。
[00196] 要求されるコンテンツストリームに関する決定に続いて、動作は、ステップ1310から、接続するノードA 1324を介して、ステップ1326に進む。ステップ1326では、再生装置は、ステップ1310によって決定されるように、たとえば、第1、第2、または、第3のストリームフォーマットなどの決定されたフォーマットでのユーザ選択されたコンテンツの要求を送信する。動作は、ステップ1326からステップ1330に進む。
[00197] ステップ1308に戻る。ステップ1308で、異なるストリームフォーマットでのストリームが、ユーザ選択されたコンテンツについて、選択するために使用可能でない場合、および/または、再生装置が、ストリームフォーマット情報の入手不能に起因してステップ1308の決定を行うことができない場合、動作は、ステップ1308から、接続するノードB 1309を介して、ステップ1328に進む。ステップ1328では、再生装置は、オプションとして、供給すべきコンテンツストリームのサーバ選択を容易にするための装置タイプ識別子および/または装置能力情報と共に、ユーザ選択されたコンテンツの要求を送信する。動作は、ステップ1328からステップ1330に進む。
[00198] ステップ1330では、コンテンツの要求に対する応答は、たとえば、ユーザ選択されたコンテンツの要求が受信されたことを認める処理サーバからなど、再生装置によって受信される。動作は、ステップ1330からステップ1332に進む。ステップ1332で、再生装置は、たとえば第1のストリームフォーマット、第2のストリームフォーマット、または、第3のストリームフォーマットに対応する、受信されるべきコンテンツストリームのフォーマットを決定する。受信されるストリームタイプを決定する際に、再生装置は、再生装置が、コンテンツストリームを受信し、復号し、処理することを可能にするために、そのハードウェア、ソフトウェア、および/または、ファームウェアを構成する。
[00199] コンテンツストリームが受信されるべきコンテンツストリームフォーマットのタイプに応じて、動作は、図示されているように、ステップ1333、1334、および、1335に対応する3つの経路のうちの1つに沿って進む。ユーザ選択されたコンテンツが、第1のストリームフォーマットでのコンテンツストリーム内で受信されるべきである場合、処理は、ステップ1332から、以下で詳述される図14に示された第1のストリームフォーマット再生ルーチンが呼び出されるステップ1333に進む。ユーザ選択されたコンテンツが、第2のストリームフォーマットでのコンテンツストリーム内で受信されるべきである場合、処理は、ステップ1332から、図15に示された第2のストリームフォーマット再生ルーチンが呼び出されるステップ1334に進む。ユーザ選択されたコンテンツが、第3のストリームフォーマットでのコンテンツストリーム内で受信されるべきである場合、処理はステップ1332から、図16に示された第3のストリームフォーマット再生ルーチンが呼び出されるステップ1335に進む。
[00200] 図14は、フローチャート1300の方法の実行の一部として本発明の再生装置によって呼び出され、実装される例示的な第1のストリームフォーマット再生ルーチン1400のステップを示す。ルーチン1400の処理は、ステップ1402において、再生装置が、第1のストリームフォーマット再生ルーチン1400を、実行するなど、呼び出すことで始まる。動作は、ステップ1402から、再生装置が、デフォルトビューイング位置において、ユーザの初期の頭の位置のデフォルト前方ビューイング位置を設定するステップ1404に進む。デフォルトビューイング位置は、ユーザが、たとえばデフォルトビューイング位置から見えるメインシーンエリアを含む、関心を持たれている環境内のシーンを見ることができる場所から前方に面するユーザの初期座席位置に対応し得る。
[00201] 動作は、ステップ1404からステップ1406に進む。ステップ1406では、再生装置は、たとえば、デフォルトビューイング位置から見られ得る表の3Dメッシュモデルなどの第1の環境モデルを受信する。動作は、ステップ1406から、たとえばフレーム内で通信されるイメージの部分の第1の環境モデルへのマッピングを示す情報を含むテクスチャマップなどの第1のUVマップが受信されるステップ1408に進み、そのイメージの部分は、デフォルトビューイング位置から見える部分である。
[00202] 動作は、ステップ1408からステップ1410に進む。ステップ1410では、再生装置が、第1のフォーマットで、たとえばイメージコンテンツの、フレームを通信する第1のコンテンツストリームからコンテンツを受信する。次に、ステップ1412で、再生装置は、たとえば、立体視イメージ対のフレームを受信する場合に、左目イメージと右目イメージとを再生することなど、1つまたは複数のイメージを再生するために、受信されたフレームを復号する。
[00203] 動作は、ステップ1412から、たとえば、所与のときの頭の位置など、ユーザの現在の頭位置が決定されるステップ1414に進む。動作は、ステップ1414から、再生装置が、環境の1つまたは複数のイメージを描画するステップ1416に進む。様々な実施形態では、イメージを描画することは、再生された左目イメージと右目イメージとの諸部分を第1の環境モデルの諸部分上にマッピングするために、受信されたUVマップを使用することを含む。次に、ステップ1418では、ユーザの現在の頭位置が対応するモデル化された環境内の位置から見える環境の1つまたは複数の描画されたイメージの部分が、たとえばディスプレイ装置上で、ユーザに対して表示される。したがって、このようにして、デフォルトビューイング位置から見える環境の諸部分に対応するイメージが描画され、ユーザに対して表示される。動作は、ループバックによって示されるように、ステップ1418からステップ1410に戻り得、様々なステップが、追加の受信されたコンテンツフレームのために繰り返され得る。
[00204] 図15Aと15Bとの組合せを備える図15が、フローチャート1300の方法を実行することの一部として、本発明のいくつかの実施形態で、再生装置によって呼び出され、実装される例示的な第2のストリームフォーマット再生ルーチン1500のステップを示す。第2のストリームフォーマット再生ルーチン1500は、いくつかの実施形態で、ユーザ選択されたコンテンツが、第2のストリームフォーマットでのコンテンツストリーム内で受信される場合に呼び出される。ルーチン1500の処理は、ステップ1502において、再生装置が、第2のストリームフォーマット再生ルーチン1500を、実行するなど、呼び出すことで開始する。動作は、ステップ1502から、再生装置が、デフォルトビューイング位置において、ユーザの初期の頭の位置のデフォルト前方ビューイング位置を設定するステップ1504に進む。動作は、ステップ1504からステップ1506に進む。ステップ1506では、再生装置が、たとえば、デフォルトビューイング位置から見られ得る面と、環境内のデフォルトビューイング位置から見られ得ない少なくともいくつかの部分との3Dメッシュモデルなどの第2の環境モデルを受信する。第1の3Dメッシュモデルと比較して、第2の環境モデルは、デフォルトビューイング位置から見られ得ない部分に対応する追加のデータを提供することに留意されたい。動作は、ステップ1506から、第2のフォーマットを有するフレーム内で通信されるイメージの諸部分を第2の環境モデルに対してマッピングすることを示す情報を含む第2のUVマップを、再生装置が受信するステップ1508に進み、そのイメージの諸部分は、デフォルトビューイング位置から見える環境の部分と、デフォルトビューイング位置からは見えないが、たとえばデフォルトビューイング位置からずれた1つまたは複数の他の位置からは見える環境の部分とのイメージである。いくつかの実施形態で、第2のUVマップは、デフォルト位置からは見えない1つまたは複数のセグメントのためのイメージコンテンツを、そのような遮られたセグメントのために供給されるイメージコンテンツがない場合、どのようにして生成すべきかに関する情報をオプションで含む。
[00205] 動作は、ステップ1508からステップ1510に進む。ステップ1510で、再生装置は、環境の少なくともいくつかの遮られた部分に対応するイメージ部分を含む、第2のフォーマットでフレームを通信する第2のコンテンツストリームから、コンテンツを受信する。次に、ステップ1512で、再生装置は、たとえば、立体視イメージ対のフレームを受信する場合に左目イメージと右目イメージとを再生することなど、1つまたは複数のイメージを再生するために、第2のコンテンツストリームの受信されたフレームを復号する。
[00206] 動作は、ステップ1512から、接続するノードA 1514を介して、ステップ1516に進む。ステップ1516では、再生装置は、たとえば、再生された左目イメージの諸部分を第2の環境モデルの諸部分上にマッピングするのに第2のUVを使用し、再生された右目イメージの諸部分を第2の環境モデルの諸部分上にマッピングするのに第2のUVを使用して、環境の1つまたは複数のイメージを描画する。
[00207] 動作はステップ1516からステップ1518に進む。ステップ1518では、たとえば所与のときの頭の位置など、ユーザの現在の頭の位置が決定される。次に、ステップ1520で、再生装置は、ユーザの現在の頭位置が、環境内のデフォルトビューイング位置からの位置における、オフセットなどのシフトを示すかどうかを決定する。たとえば、ユーザの決定された現在の頭の位置に基づいて、ユーザが、自分の頭を単純に回転しまたは傾けるのではなく、左、右、上、または、下に動いたかどうかが決定される。これは、ユーザの初期の頭の位置に対して相対的なユーザの現在の位置における検出された変化に基づいて決定され得る。ステップ1520の決定に基づいて、動作は、ステップ1522または1524のうちの1つに進む。
[00208] ステップ1520で、ユーザの現在の頭の位置が、環境内のデフォルトビューイング位置からの位置におけるシフトを示さないと決定される場合、動作は、ステップ1520から、再生装置が、たとえばデフォルト位置でのビューイング方向などのユーザの現在の頭の位置を考慮に入れて、モデル化された環境内のデフォルトビューイング位置から見える環境の1つまたは複数の描画されたイメージの一部を表示するステップ1522に進む。したがって、ユーザの現在の頭の位置のシフト/オフセットが検出されない場合、ユーザが、デフォルトビューイング位置から動いておらず、したがって、デフォルトビューイング位置から見える部分に対応するイメージコンテンツが表示されると、考えて差し支えない。いくつかの実施形態では、ステップ1522の一部として、デフォルトビューイング位置からのビューからは遮られたいくつかの環境セグメントを表示することなく、デフォルトビューイング位置から見える環境セグメントに対応するイメージ部分が表示されるステップ1523を、再生装置は実行する。動作は、図示されているように、ステップ1522から、接続するノードB 1526を介して、ステップ1510に戻り、様々なステップが、追加の受信されたコンテンツフレームのために繰り返され得る。
[00209] 一方、ステップ1520で、ユーザの現在の頭の位置が、環境内のデフォルトビューイング位置から位置におけるシフトを示すと決定される場合、動作は、ステップ1520から、再生装置が、たとえばデフォルトビューイング位置とは異なる位置でのビューイング方向など、ユーザの現在の頭の位置を考慮に入れて、デフォルトビューイング位置からオフセットされたモデル化された環境内のオフセットされた位置から見える環境の1つまたは複数の描画されたイメージの部分を表示するステップ1524に進む。いくつかの実施形態では、ステップ1524の一部として、再生装置は、デフォルトビューイング位置から見える環境セグメントに対応するイメージ部分が、デフォルトビューイング位置からのビューからは遮られた少なくともいくつかの環境セグメントと共に表示されるステップ1525を実行する。したがって、ユーザの現在の頭の位置のシフト/オフセットが検出される場合、再生装置は、デフォルトビューイング位置から見える部分に加えて、デフォルトビューイング位置からのビューからは遮られた少なくともいくつかの環境部分に対応するイメージコンテンツを表示するように構成される。動作は、図示されているように、ステップ1524から、接続するノードB 1526を介して、ステップ1510に戻り、様々なステップが、追加の受信されたコンテンツフレームのために繰り返され得る。
[00210] 図16Aと16Bと16Cと16Dとの組合せを備える図16は、フローチャート1300の方法を実行すること一部として、いくつかの実施形態で、再生装置によって呼び出され、実装される例示的な第3のストリームフォーマット再生ルーチン1600のステップを示す。第3のストリームフォーマット再生ルーチン1600は、いくつかの実施形態で、ユーザ選択されたコンテンツが、第3のストリームフォーマットで、コンテンツストリーム内で受信される場合に、呼び出される。ルーチン1600の処理は、ステップ1602において、再生装置が、第3のストリームフォーマット再生ルーチン1600を、実行するなど、呼び出すことで開始する。
[00211] 動作は、ステップ1602から、再生装置が、デフォルトビューイング位置において、ユーザの初期の頭の位置のデフォルト前方ビューイング位置を設定するステップ1604に進む。動作は、ステップ1604からステップ1606に進む。ステップ1606では、再生装置は、たとえば、デフォルトビューイング位置から見られ得る面の主の3Dメッシュモデル、および、第3の環境モデルを生成するために主メッシュモデルと組み合わされ得る補助などの補充メッシュモデル情報といった、デフォルトビューイング位置から見える面のためと、デフォルト位置からは見えない少なくともいくつかの面のためとの環境モデル情報を受信する。代替として、いくつかの実施形態で、再生装置は、デフォルトビューイング位置から見える環境面に対応するノードおよびセグメントと、デフォルトビューイング位置からは見えないが、デフォルト位置からオフセットされた異なるビューイング位置からは見えるいくつかの面に対応するノードおよびセグメントとを含む第3の環境モデルを受信する。
[00212] 動作は、いくつかの実施形態では、ステップ1606から、オプションのステップ1608に進む。ステップ1608は、再生装置が、第1の、たとえば主の、メッシュモデルを、デフォルト位置からは見えない少なくともいくつかの面に対応する補助環境情報と共に受信する実施形態で実行される。ステップ1608では、再生装置は、主メッシュモデルと、デフォルト位置からは見えない少なくともいくつかの面に対応する補助環境モデル情報とを組み合わせることによって、環境の第3のメッシュモデルを生成する。生成される第3のメッシュモデルは、デフォルトビューイング位置から見える環境の面と、デフォルト位置からは見えないが、デフォルトビューイング位置からオフセットされた位置などの異なる位置からは見えるいくつかの面とに対応するノードとセグメントとを含む。したがって、環境情報がどの形で受信されるかにかかわらず、再生装置は、デフォルトビューイング位置から見える面と、デフォルト位置からは見えない少なくともいくつかの面とのための環境モデル情報を得る。
[00213] 動作は、ステップ1608から(または、ステップ1608がスキップされる実施形態では、ステップ1606から)、接続するノードA 1610を介して、ステップ1612に進む。ステップ1612では、再生装置が、主UVマップと補助UVマップとを受信する。ステップ1612の一部として、いくつかの実施形態では、ステップ1614と1616とが実行される。ステップ1614では、再生装置は、たとえば第1のコンテンツストリームなどのメイン/主コンテンツストリームのフレーム内で通信されるイメージの部分の、デフォルトビューイング位置から見える面に対応する第3の環境モデルのセグメントに対するマッピングを示す情報を含む主UVマップを受信する。ステップ1616では、再生装置は、補助フレーム内で通信されるイメージ部分の、デフォルトビューイング位置からは見えないが、たとえばデフォルト位置からオフセットされた1つまたは複数の他の位置からは見える面に対応する第3の環境モデルのセグメントに対するマッピングを示す情報を含む補助UVマップを受信する。いくつかの実施形態では、補助UVマップは、主コンテンツストリーム内に含まれる1つまたは複数の異なるフレームについて、遮られた物体のためのマッピング情報を提供する。
[00214] 動作は、ステップ1612からステップ1620に進む。ステップ1620では、再生装置は、イメージコンテンツを通信する主フレームと補助フレームとの両方を提供する第3のストリームフォーマットに対応する多重化されたコンテンツストリームを受信する。ステップ1620でイメージコンテンツフレームを受信することの一部として、再生装置は、サブステップ1622で、主コンテンツストリームからフレームまたはフレームのセットを受信し、サブステップ1624で、補助コンテンツストリームから1つまたは複数のフレームを受信する。動作は、ステップ1620から、接続するノードB 1626を介して、ステップ1630に進む。
[00215] ステップ1630では、再生装置は、多重化されたコンテンツストリームを多重化解除し、たとえば復号などのさらなる処理のために主フレームと補助フレームとを出力する。よりよい理解を容易にするために、多重化されたコンテンツストリームに対して実行される多重化解除動作の出力は、多重化解除ステップ1630の結果である2つのデータセット1632と1642として図示される。たとえば主フレームなどのフレームの第1のセット1632は、デフォルトビューイング位置から見える部分に対応するイメージコンテンツのフレーム1からMまでを含み、他方、補助フレームセット1642は、デフォルトビューイング位置からは見えない部分に対応するイメージコンテンツの1つまたは複数の補助フレームを含む。2つのデータセット1632および1642は、いくつかの実施形態では、2つの異なるデコーダへの入力として働く。フレームの第1のセット1632は、デフォルトビューイング位置から見える部分に対応する主フレームによって通信されるデータを復号し、再生するように構成された専用のハードウェアデコーダであってよい主デコーダに供給される。ステップ1634に示されるように、主デコーダは、主フレームに対応するイメージコンテンツを復号するのに使用される。ステップ1634で主デコーダによって実行される復号の出力は、復号されたフレーム1 1638から復号されたフレームM 1640までを含む復号された主フレームのセット1636である。動作は、ステップ1634から、復号された主フレーム1636が入力として働くステップ1656に進む。
[00216] いくつかの実施形態では、1つまたは複数の補助フレーム1642は、ステップ1644に示された、デフォルトビューイング位置からは見えない部分に対応するイメージコンテンツの補助フレームによって通信されるデータを復号し、再生するのに再生装置が使用する副/補助デコーダに供給され、たとえば、遮られたイメージデータを提供する。ステップ1644で補助デコーダによって実行される復号の出力は、たとえば、1つまたは複数の主フレームのための環境の遮られたセグメントのイメージを提供する1つまたは複数のフレームなどの1つまたは複数の復号された補助フレーム1646である。図16の例では、1つまたは複数の復号された補助フレーム1646は、複数の主フレームに対応する遮られたイメージコンテンツを含む単一の復号された補助(aux)フレーム1648を含む。この例における復号された補助フレーム1648は、フレーム1のための遮られたイメージコンテンツ1650、フレーム2のための遮られたイメージコンテンツ1652、…、フレームMのための遮られたイメージコンテンツ1654をパックするようなフォーマットである。動作は、ステップ1634から、復号された補助(aux)フレーム1646が、入力として働くステップ1656に進む。
[00217] 図では、主デコーダ1920および副デコーダ1921の使用が図16Cに示されるが、いくつかの実施形態では、主デコーダ1920が、主フレームと補助フレームとの両方を復号するのに時分割ベースで使用される。そのような実施形態では、したがって、主デコーダ1920は、また、補助のフレームデコーダ1921として働く。そのような実施形態に関して、主フレームを復号することと補助フレームを復号することとの間での切り替えをサポートするのに必要とされるデコーダ再構成の量を最小にするために、同じサイズのものである主フレームと補助フレームを有することが有用である。
[00218] いくつかの他の実施形態では、主デコーダ1920は、たとえば、補助のデコーダとは別個のプロセッサまたはプロセッサコアとして実装されたデコーダなどの異なるデコーダである。いくつかの実施形態では、主デコーダは、専用ハードウェアビデオデコーダとして実装され、他方、補助デコーダは、セルフォンなどの再生装置の、CPUなどの、汎用プロセッサ上に実装される。補助デコーダは、主デコーダより、より低速であってよく、および/または、より低い処理能力を有してよい。いくつかの実施形態では、たとえば、補助のデコーダが主デコーダより強力はない場合、補助フレームは、主デコーダよりも、より小さいサイズを有し、および/または、より少ない画素を含む。これは、ソフトウェアを使用する補助のデコーダの実装を容易にし、あるいは、主デコーダより低強力のデコーダが、主デコーダのために使用される。これは、再生装置が、主デコーダとして使用され得るデコーダ回路またはグラフィックスプロセッサを含むセルフォンであり、補助のデコーダとして動作するように、たとえば記憶された命令の下で、構成され得る汎用プロセッサも含む場合に、特に役立つ。
[00219] ステップ1656では、たとえば、再生装置が、再生され復号された主フレーム内に含まれる1つまたは複数のイメージ部分を、第3の環境モデルの諸部分に対してマッピングするのに主UVマップを使用し、マッピングされた主フレームに対応する再生され復号された補助(aux)フレーム内に含まれるイメージ部分を、通常は遮られる第3の環境モデルの諸部分に対してマッピングするのに補助UVマップを使用して、再生装置は、環境の1つまたは複数のイメージを描画する。
[00220] 動作は、ステップ1656から、接続するノードC 1658を介して、ステップ1660に進む。ステップ1660では、たとえば所与のときの頭の位置などのユーザの現在の頭の位置が決定される。次に、ステップ1662では、再生装置は、ユーザの現在の頭の位置が、環境内のデフォルトビューイング位置からの位置における、たとえばオフセットなど、シフトを示すかどうかを決定し、たとえば、ユーザが、自分の頭を単純に回転しまたは傾けるのではなく、左、右、上、または、下に動いたかどうかを決定する。ステップ1662の決定に基づいて、動作は、ステップ1664または1668のうちの1つに進む。
[00221] ステップ1662で、ユーザの現在の頭の位置が、環境内のデフォルトビューイング位置からの位置のシフトを示さないと決定される場合、動作は、ステップ1662から、再生装置が、たとえばデフォルト位置におけるビューイング方向などのユーザの現在の頭の位置を考慮に入れて、モデル化される環境内のデフォルトビューイング位置から見える環境の1つまたは複数の描画されたイメージの一部をユーザに対して表示するステップ1664に進む。いくつかの実施形態では、ステップ1664の一部として、再生装置は、デフォルトビューイング位置からのビューからは遮られたいくつかの環境セグメントを表示することなく、デフォルトビューイング位置から見える環境セグメントに対応するイメージ部分が表示されるステップ1666を実行する。動作は、図示されるように、ステップ1664から、接続するノードD 1672を介して、ステップ1620に戻り、様々なステップが、追加の受信されたコンテンツフレームのために繰り返され得る。
[00222] ステップ1662で、ユーザの現在の頭の位置が、環境内のデフォルトビューイング位置からの位置におけるシフトを示すと決定される場合、動作は、ステップ1662から、再生装置が、たとえばデフォルトビューイング位置とは異なる位置におけるビューイング方向などのユーザの現在の頭の位置を考慮に入れて、デフォルトビューイング位置からオフセットされたモデル化される環境内のオフセット位置から見える環境の1つまたは複数の描画されたイメージの一部を表示するステップ1668に進む。いくつかの実施形態では、ステップ1668の一部として、再生装置は、デフォルトビューイング位置から見える環境セグメントに対応するイメージ部分が、デフォルトビューイング位置からのビューからは遮られた少なくともいくつかの環境セグメントと共に表示されるステップ1670を実行する。したがって、ユーザの現在の頭の位置のシフト/オフセットが検出される場合、再生装置は、デフォルトビューイング位置から見える部分に加えて、デフォルトビューイング位置からのビューからは遮られた少なくともいくつかの環境部分に対応するイメージコンテンツを表示するように構成される。動作は、図示されているように、ステップ1668から、接続するノードD 1672を介して、ステップ1620に戻り、様々なステップが、追加の受信されたコンテンツフレームのために繰り返され得る。
[00223] 図13に関して説明された処理は、再生装置のプロセッサの制御の下で実行される。したがって、いくつかの実施形態では、再生装置は、図13に示されたステップを実装するために再生装置を制御するように構成されたプロセッサを含む。送信ステップおよび受信ステップは、再生装置のインターフェース(送信器と受信器とを含む)を介して実行される。
[00224] いくつかの実施形態では、再生装置は、再生装置のプロセッサによって実行されたときに、図13に示されたステップを実装するために再生装置を制御する命令を含む。個別のプロセッサが実行可能なコードが、図13に示されたステップの各々のために含まれ得、時に含まれる。他の実施形態では、回路が、図13に示された個々のステップの各々のために再生装置内に含まれる。
[00225] 図17は、3Dモデルをセグメントに分割するのに使用される線の交差点として示された複数のノードでもって様々な実施形態で使用され得る例示的な3Dメッシュモデル2000を示す。図17のモデルが、3D空間内で示され、および、セグメントの形状が既知であるか、または、ノードを相互接続するためのルールが既知であるか、3Dモデル内で定義されると仮定して、3D空間内のメッシュ内のノードの位置を定義する[X,Y,Z] 座標のセットとして表現され得ることに留意されたい。いくつかの実施形態では、セグメントは、各ノードが直線によって予め定められた数の隣接するノードに接続することで、同じ数の辺を有するように予め定められる。図17の例では、モデル2000の頂部は、三角形セグメントのセットであり、他方、側面部分は、4辺をもった複数のセグメントによって形成される。たとえば、3辺をもったセグメントから形成される頂部と、4辺をもったセグメントによって形成される側面部分などの当該構成は、3Dモデルの部分を形成する情報に含まれるか、または、予め決定され得る。そのような情報は、メッシュモデル情報と共に、または、その一部として、顧客の描画および再生装置に提供される。
[00226] 図18は、時に2D UV空間と呼ばれるものにおけるフレームを、図18に示された3Dモデル2000に対してマッピングするのに使用され得る例示的なUVマップ2002を示す。UVマップ2002が、1対1のマッピング関係を有する3Dモデル2000と同じ数のノードとセグメントとを含むことに留意されたい。時にテクスチャと呼ばれるものを提供するが、通常は、シミュレートされた環境の3Dモデル2000内の位置 [0,0,0] に対応する位置において、実際の環境内のカメラリグの眺望がきく地点から取り込まれたイメージのコンテンツを含むフレームは、イメージ描画動作の一部として、マップ2002にしたがって3Dモデル2000上に、たとえばラップされるなど、適用され得る。
[00227] 図17と18とでは、強調のためにドットとして示された例示的なノードPは、他のメッシュノードの各々と同様に、UVマップ2002と3Dモデル2000との両方に現れる。ノードP[X,Y,Z] がノードP[U,V] に対応し、X、Y、Zは、X、Y、Z空間内のノードPの位置を指定し、U、Vは、2次元空間内の対応するノードPの位置を指定することに留意されたい。U、V対の各々は、たとえばフレームなどの2Dイメージテクスチャの単一の画素のX、Yを表す。囲む画素は、近くのU、V対の間で補間することによって、描画プロセス中に、2Dフレームから3Dメッシュにマッピングされる。
[00228] 図19は、たとえば処理システム608/1700など、図12のシステム600の1つまたは複数のサブシステムによってストリーミングされたコンテンツを受信し、復号し、表示するのに使用され得る、たとえばシステム1900などの例示的な再生装置を示す。例示的な描画および再生システム1900は、図12に示された描画および再生装置のいずれかとして使用され得る。様々な実施形態では、再生システム1900は、図13ないし16に示されたフローチャートに示された様々なステップを実行するのに使用される。
[00229] 描画および再生システム1900は、いくつかの実施形態で、3Dヘッドマウントディスプレイ1905を含み、および/または、これに結合される。システム1900は、受信された符号化されたイメージデータを復号し、顧客への表示のために3Dイメージコンテンツを生成する能力を含む。再生システム1900は、いくつかの実施形態で、家庭またはオフィスなどの顧客宅内位置に配置されるが、イメージ取り込みサイトにも配置され得る。再生システム1900は、本発明による受信動作、復号動作、描画動作、表示動作、および/または、他の動作を実行することができる。
[00230] 再生システム1900は、ディスプレイ1902、ディスプレイ装置インターフェース1903、ユーザ入力インターフェース装置1904、入出力(I/O)インターフェース1906、デマルチプレクサ1907、プロセッサ1908、ネットワークインターフェース1910、および、メモリ1912を含む。再生システム1900の様々な構成要素は、データがシステム1900の構成要素の間で通信されることを可能にするバス1909を介して、共に結合される。
[00231] いくつかの実施形態では、ディスプレイ1902は、破線の箱を使用して図示されているようなオプションの要素として含まれるが、いくつかの実施形態では、たとえばヘッドマウント立体視ディスプレイ装置などの外部ディスプレイ装置1905が、ディスプレイ装置インターフェース1903を介して、再生システム1900に結合され得る。ヘッドマウントディスプレイ1902は、ヘッドマウントディスプレイ1902を含むことができるOCULUS RIFT(商標)VR(仮想現実)ヘッドセットを使用して実装され得る。他のヘッドマウントディスプレイも使用され得る。たとえば、ユーザの左目および右目が、立体視コンテンツの場合に異なるイメージを提示されて、イメージコンテンツは、システム1900のディスプレイ装置上で提示される。たとえば、異なる目に対して単一のスクリーンの異なる部分上になど、単一のスクリーン上で左目と右目とに対して異なるイメージを表示することによって、単一のディスプレイが、ビューアの左目と右目とによって個別に知覚される左目イメージと右目イメージとを表示するのに使用され得る。様々な実施形態は、システム1900内で使用されるためにヘッドマウントディスプレイを企図するが、この方法およびシステムは、3Dイメージをサポートできるヘッドマウントでないディスプレイと共に使用されることも可能である。
[00232] 再生システム1900のオペレータは、ユーザ入力装置1904を介して、1つまたは複数のパラメータを制御し、および/または、入力を提供することができる。入力装置1904は、たとえば、情報、データ、および/または、命令を入力するために使用され得るキーパッド、タッチスクリーン、または、同様の装置とすることができ、いくつかの実施形態ではそうである。
[00233] 入出力(I/O)インターフェース1906を介して、再生システム1900は、外部装置に結合され、情報と信号を当該外部装置と交換することができる。いくつかの実施形態では、入出力(I/O)インターフェース1906を介して、再生システム1900は、たとえば立体視カメラ対および/または他のカメラなどの様々なカメラによって取り込まれたイメージを受信し、3DメッシュモデルとUVマップとを受信する。
[00234] デマルチプレクサ1907は、たとえば処理システム1700からの、多重化されたコンテンツストリーム内で通信されるイメージコンテンツに対応する多重化されたフレームを多重化解除するように構成される。いくつかの実施形態では、デマルチプレクサ1907は、多重化された主コンテンツストリームと補助コンテンツストリームとを多重化解除するように構成される。
[00235] たとえばCPUなどのプロセッサ1908は、本発明にしたがって動作するようにシステム1900を制御するために、ルーチン1914を実行し、様々なモジュールを使用する。プロセッサ1908は、たとえば本発明の特徴にしたがって様々な動作を実行するようにシステム1900を制御することによって、システム1900の全体的で全般的な動作を制御する責任を負う。様々な実施形態では、プロセッサ1908は、描画および再生システム1900によって実行されるものとして議論された機能を実行するように構成される。
[00236] ネットワークインターフェース1910は、再生システム1900が、たとえば通信ネットワーク650などの通信ネットワーク上で外部装置から情報を受信し、および/または、通信することができることを可能にする、送信器1911と受信器1913とを含む。いくつかの実施形態で、再生システム1900は、たとえばインターフェース1910によって、イメージコンテンツを含む符号化されたフレーム1924、3Dメッシュモデル1928、UVマップ1930を、通信ネットワーク650上で処理システム1700から受信する。
[00237] メモリ1912は、プロセッサ1908によって実行されたときに、本発明にしたがって動作を実行するように再生システム1900を制御する、ルーディンなどの様々なモジュールを含む。メモリ1912は、制御ルーチン1914、要求生成モジュール1916、受信された情報処理モジュール1917、頭の位置および/またはビューイング角度決定モジュール1918、主デコーダ1920、補助デコーダ1921、3Dイメージ生成モジュールとも呼ばれる3Dイメージレンダラ(描画器)1922、受信された符号化されたイメージコンテンツ1924、使用可能なプログラムの受信されたリスト1926、受信された3Dメッシュモデル1928、受信されたUVマップ1930、復号されたイメージコンテンツ1932、生成されたイメージコンテンツ1934、および、装置の能力情報1934を含む。
[00238] 制御ルーチン1914は、システム1900の動作を制御するために、装置制御ルーチンと通信ルーチンとを含む。要求生成モジュール1916は、たとえば再生のためのアイテムのユーザ選択に応じて、コンテンツの要求を生成するように構成される。受信された情報処理モジュール1917は、描画と再生における使用のためにシステム1900の適切な要素に受信された情報を提供するため、たとえばインターフェース1906および/または1910の受信器を介するなど、システム1900によって受信される、たとえば、イメージコンテンツ、オーディオデータ、環境モデル、UVマップなどの情報を処理するように構成される。頭の位置および/またはビューイング角度決定モジュール1918は、本発明の特徴にしたがって、たとえばヘッドマウントディスプレイの位置などのユーザの現在の頭の位置を決定するように構成される。
[00239] 主デコーダ1920は、メモリ内に記憶され、復号されたデータ1932内に含まれる第1のフォーマットでのフレームに対応する復号されたイメージデータを生成するために、たとえば処理システム1700から受信された第1のフォーマットの符号化されたフレーム(受信された符号化されたデータ1924内に含まれる)などの主コンテンツストリーム内で受信されたフレームを復号するように構成される。補助デコーダ1921は、復号されたデータ1932内に含まれる第3のフォーマットでのフレームに対応する復号されたイメージデータを生成するために、第3でフォーマットでの1つまたは複数の補助フレーム(受信された符号化されたデータ1924内に含まれる)を復号するように構成される。いくつかの実施形態では、補助デコーダ1921は、主デコーダ1920よりも低速である。
[00240] いくつかの他の実施形態では、主デコーダ1920は、環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツとの両方を含む受信された第1のフレームを復号するのに使用される。そのような実施形態では、復号されたイメージデータ1932は、遮られないイメージコンテンツと遮られたイメージコンテンツとの両方を含む1つまたは複数の復号されたフレームを含む。様々な実施形態では、符号化されたイメージコンテンツは、イメージ描画の前に復号される。
[00241] 3Dイメージレンダラ1922は、ディスプレイ1902および/またはディスプレイ装置1905上でのユーザへの表示のため、本発明の特徴にしたがって3Dイメージコンテンツを生成するために、復号されたイメージデータ1932を使用する。いくつかの実施形態では、3Dイメージレンダラ1922は、3Dメッシュモデルを使用して、受信されたイメージコンテンツの少なくともいくつかを描画するように構成される。いくつかの実施形態では、3Dイメージレンダラ1922は、さらに、受信されたイメージコンテンツ内に含まれるイメージを第1の3Dメッシュモデル上にどのようにラップすべきかを決定するのに第1のUVマップを使用するように構成される。生成されたイメージコンテンツ1934は、3Dイメージ描画モジュール1922の出力である。
[00242] 受信された3D環境メッシュモデル1928は、第1のメッシュモデル、第2のメッシュモデル1928、および、補助メッシュモデル情報を含むことができる。受信されたUVマップ1930は、第1のUVマップ、および/または、第2のUVマップ、および/または、補助UVマップを含む。受信された符号化されたイメージコンテンツ1924は、たとえば、環境内の第1の位置から見える関心を持たれている環境の部分に対応する遮られないイメージコンテンツの左目イメージおよび右目イメージの対のフレームと、第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツを含む1つまたは複数の補助フレームとを含む。いくつかの実施形態では、システム1900は、環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツとの両方を含む第1のフレームを受信する。したがって、いくつかの実施形態で、受信された符号化されたイメージコンテンツ1924は、遮られないイメージコンテンツと遮られたイメージコンテンツとの両方を含むフレームを含む。
[00243] 前に議論したように、第1のUVマップは、前記第1の位置から見える環境の部分に対応する環境の第1のモデルのセグメントに対する、遮られないイメージコンテンツを含むフレームの部分間のマッピングを示し、他方、補助UVマップは、前記第1の位置からは見えない前記環境の部分に対応する環境の第1のモデルのセグメントに対する、遮られたイメージコンテンツを含む補助フレームの部分間のマッピングを示す。受信されたものが、遮られないイメージコンテンツと遮られたイメージコンテンツとの両方を含む場合、フレームの諸部分と、たとえば第2の3Dメッシュモデルなどの対応する環境モデルのセグメントとの間のマッピングを示す、第2のUVマップが使用される。装置の能力情報1936は、再生装置1900が、第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツの表示をサポートすることができるかどうかを示し、および/または、再生装置1900によってサポートされ得るコンテンツストリームフォーマットを示す、システム1900の処理および/または表示能力に関する情報を含む。いくつかの実施形態では、装置の能力情報1936は、再生装置1900の能力を決定するために、たとえば処理システム1700によって、使用され得る識別子の形態である。
[00244] いくつかの実施形態では、モジュールのうちのいくつかは、プロセッサ1908内に、たとえば回路として、実装され、他のモジュールは、プロセッサの外部にあり、これに結合されて、たとえば回路として、実装される。代替として、回路として実装されるのではなく、モジュールのすべてまたはいくつかが、ソフトウェアで実装され、再生装置1900のメモリに記憶され得、たとえばプロセッサ1908などのプロセッサによって、モジュールが実行されるときにモジュールに対応する機能を実装するように、モジュールが再生装置1900の動作を制御する。さらに他の実施形態では、様々なモジュールは、たとえば、プロセッサ1908の外部の回路が、ソフトウェア制御の下で、モジュールの機能の一部を実行するように動作するプロセッサ1908に入力を提供することで、ハードウェアとソフトウェアとの組合せとして実装される。
[00245] 図19の例ではメモリ1912に含まれて図示されるが、メモリ1912内に含まれて図示されたモジュールは、たとえば個々の回路として、プロセッサ1908内に完全にハードウェアで実装され得、いくつかの実施形態では実装される。他の実施形態では、要素のいくつかが、プロセッサ1908内で、たとえば回路として実装され、他の要素は、たとえばプロセッサ1908の外部にあり、結合されて、回路として実装される。理解されるように、プロセッサ上のモジュールの、および/または、プロセッサの外部にあるいくつかのモジュールとの統合化のレベルは、設計事項のうちの1つとされ得る。
[00246] 図19の実施形態では、装置1900内のたとえばコンピュータなどの単一のプロセッサ1908として図示されるが、プロセッサ1908は、1つまたは複数のコンピュータなどの1つまたは複数のプロセッサとして実装され得ることを理解されたい。ソフトウェアで実施される場合に、モジュールは、プロセッサ1908によって実行されたときに、モジュールに対応する機能を実装するようにコンピュータなどのプロセッサを構成するコードを含む。いくつかの実施形態では、プロセッサ1908は、図19の例でメモリ1912内に図示されたモジュールの各々を実装するように構成される。モジュールがメモリ1912内に記憶される実施形態では、メモリ1912は、コンピュータプログラム製品であり、このコンピュータプログラム製品は、プロセッサ1908などの少なくとも1つのコンピュータに、モジュールが対応する機能を実装させるために、各モジュールのための個別のコードなどのコードを備える、たとえばコンピュータが読み取り可能な一時的でない媒体などのコンピュータが読み取り可能な媒体を備える。
[00247] 理解されるように、図19に示されたモジュールは、たとえば、フローチャート1300、1400、1500、および、1600に示され、および/または、説明されたものなど、本発明の方法の対応するステップの機能を実行するために、システム1900、または、プロセッサ1908などのその中の要素をそれぞれ、制御し、および/または、構成する。
[00248] 1つの例示的な実施形態では、プロセッサ1908は、環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツとを含む第1のフレームを、たとえば受信器1913を介して、受信し、ユーザの頭の位置を検出し、検出された頭の位置に応じて、環境の部分のイメージをディスプレイに出力するように、再生装置1900を制御するように構成される。
[00249] 本発明の異なる態様および特徴を示す様々な追加の例示的な実施形態が、ここで説明される。
[00250] イメージ処理システムを動作させる方法の実施形態1であって、方法は、
環境の部分に対応する第1のイメージを受信することと、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、
前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージを受信することと、
前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツと、追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツとを含む第1のフレームを生成することと、
記憶装置内に前記第1のフレームを記憶し、または、他の装置に前記第1のフレームを送信することと、
を備える。
[00251] イメージ処理システムを動作させる方法の実施形態2であって、方法の実施形態1が、さらに、前記第1のフレームの部分を、環境モデルのセグメントに対してマッピングするために使用されるUVマップを生成することを備える。
[00252] イメージ処理システムを動作させる方法の実施形態3であって、方法の実施形態1が、さらに、前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成することを備える。
[00253] イメージ処理システムを動作させる方法の実施形態4であって、方法の実施形態3において、前記UVマップは、前記第1のフレームの前記遮られないイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置から見える前記環境の部分に対応する前記環境モデルの第1のセグメントに対してマッピングする。
[00254] イメージ処理システムを動作させる方法の実施形態5であって、前記方法の実施形態4において、前記UVマップは、さらに、前記第1の遮られたイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置からは見えない前記環境の部分に対応する前記環境モデルの第2のセグメントに対してマッピングする。
[00255] イメージ処理システムを動作させる方法の実施形態6であって、方法の実施形態1において、
第1のイメージを受信することは、前記環境内の第1のカメラから前記第1のイメージを受信することを含み、
環境の追加のイメージを受信することは、前記第1のカメラが前記環境内で位置決めされる位置からオフセットされた(ずらされた)前記環境内の位置にあるカメラから前記追加のイメージを受信することを含む。
[00256] イメージ処理システムを動作させる方法の実施形態7であって、方法の実施形態6において、
前記第1のカメラは、前記第1のカメラと前記第2のカメラとを含む立体視カメラ対のカメラであり、
前記立体視カメラ対は、前記第1の位置に位置決めされており、
その方法は、さらに、
第2のカメラから、環境の部分に対応する第2のイメージを受信すること
を備え、
前記第2のイメージは、前記第1の位置から見える環境の部分に対応する第2の遮られないイメージ部分を含む。
[00257] イメージ処理システムを動作させる方法の実施形態8であって、方法の実施形態7は、さらに、前記第1のフレーム内に前記第2のイメージの少なくとも一部を含めることを備える。
[00258] イメージ処理システムを動作させる方法の実施形態9であって、方法の実施形態1において、
前記第1のフレームは、第2のフレームフォーマットであり、
その方法は、さらに、
第1のフレームフォーマットでフレームを生成することと、ここで、第1のフォーマットでの前記フレームは、前記第1のフレームの前記遮られないイメージ部分からのイメージコンテンツを含み、 環境の遮られた部分に対応するイメージコンテンツを含まず、
第1のフォーマットでの前記フレームを記憶装置内に記憶することと、
を備える。
[00259] イメージ処理システムを動作させる方法の実施形態10であって、方法の実施形態9において、
第1のフレームおよび第1のフォーマットでのフレームは、第1のプログラムに対応し、
その方法は、さらに、
遮られたイメージコンテンツの表示をサポートする第1の再生装置から、第1のプログラムに対応するコンテンツの第1の要求を受信することと、
コンテンツの前記第1の要求に応答して、第1の装置に第2のフォーマットで前記第1のフレームを送ることと、
を備える。
[00260] イメージ処理システムを動作させる方法の実施形態11であって、方法の実施形態10は、さらに、
第2のフォーマットで第1のフレームを送る前に、装置の能力情報から、第1の再生装置が、遮られたイメージコンテンツの表示をサポートすることを決定すること
を備える。
[00261] イメージ処理システムを動作させる方法の実施形態12であって、方法の実施形態10が、さらに、
遮られたイメージコンテンツの表示をサポートしない第2の再生装置から、第1のプログラムに対応するコンテンツの第2の要求を受信することと、
コンテンツの前記第2の要求に応答して、第2の再生装置に第1のフォーマットで前記フレームを送ることと、
を備える。
[00262] イメージ処理システムを動作させる方法の実施形態13であって、方法の実施形態12は、さらに、
第1のフォーマットでフレームを送る前に、第2の再生装置に対応する装置の能力情報から、第2の再生装置が、遮られたイメージコンテンツの表示をサポートしないことを決定すること
を備える。
[00263] イメージ処理システムを動作させる方法の実施形態14であって、方法の実施形態13において、第2のフォーマットでの前記第1のフレームおよび第1のフォーマットでのフレームは、同じサイズであり、同じ数の画素を含む。
[00264] イメージ処理システムを動作させる方法の実施形態15であって、方法の実施形態14は、さらに、
第1の位置からのビューからは遮られた環境の部分に対応するセグメントを含まない環境モデルを、第2の再生装置に送信することと、
第1のフォーマットのフレームの諸部分を、第1の位置からのビューからは遮られた環境の部分に対応するセグメントを含まない環境モデルに対してマッピングするために使用されるUVマップを、第2の再生装置に送信することと、
を備える。
[00265] 他の例示的な実施形態は、システム内での使用のためのコンピュータが読み取り可能な一時的でない媒体を含み、前記ンピュータが読み取り可能な一時的でない媒体は、コンピュータによって実行されるときに、
環境の部分に対応する第1のイメージを受信し、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、
前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージを受信し、
前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツと、追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツとを含む第1のフレームを生成し、
記憶装置内に前記第1のフレームを記憶し、または、他の装置に前記第1のフレームを送信する
ようにシステムを制御する、コンピュータが実行可能な命令を含む。
[00266] イメージ処理システムの実施形態1であって、プロセッサを備え、
プロセッサは、
環境の部分に対応する第1のイメージを受信し、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、
前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージを受信し、
前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツと、追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツとを含む第1のフレームを生成し、
記憶装置内に前記第1のフレームを記憶し、または、他の装置に前記第1のフレームを送信する
ように、前記イメージ処理システムを制御するように構成される。
[00267] イメージ処理システムの実施形態2であって、イメージ処理システムの実施形態1において、前記プロセッサは、さらに、前記第1のフレームの部分を、環境モデルのセグメントに対してマッピングするために使用されるUVマップを生成するように前記イメージ処理システムを制御するように構成される。
[00268] イメージ処理システムの実施形態3であって、イメージ処理システムの実施形態1において、前記プロセッサは、さらに、前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成するように前記イメージ処理システムを制御するように構成される。
[00269] イメージ処理システムの実施形態4であって、イメージ処理システムの実施形態3において、前記UVマップは、前記第1のフレームの前記遮られないイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置から見える前記環境の部分に対応する前記環境モデルの第1のセグメントに対してマッピングする。
[00270] イメージ処理システムの実施形態5であって、イメージ処理システムの実施形態4において、前記UVマップは、さらに、前記第1の遮られたイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置からは見えない前記環境の部分に対応する前記環境モデルの第2のセグメントに対してマッピングする。
[00271] イメージ処理システムの実施形態6であって、イメージ処理システムの実施形態1において、
前記第1のイメージは、前記環境内の第1のカメラから受信され、
前記追加のイメージは、前記第1のカメラが前記環境内で位置決めされる位置からオフセットされた前記環境内の位置にあるカメラから受信される。
[00272] イメージ処理システムの実施形態7であって、イメージ処理システムの実施形態6において、
前記第1のカメラは、前記第1のカメラと前記第2のカメラとを含む立体視カメラ対のカメラであり、
前記立体視カメラ対は、前記第1の位置に位置決めされ、
前記プロセッサは、さらに、第2のカメラから環境の部分に対応する第2のイメージを受信するように前記イメージ処理システムを制御するように構成され、
前記第2のイメージは、前記第1の位置から見える環境の部分に対応する第2の遮られないイメージ部分を含む。
[00273] イメージ処理システムの実施形態8であって、イメージ処理システムの実施形態7において、前記プロセッサは、さらに、前記第1のフレーム内に前記第2のイメージの少なくとも一部を含めるように前記イメージ処理システムを制御するように構成される。
[00274] イメージ処理システムの実施形態9であって、イメージ処理システムの実施形態1において、
前記第1のフレームは、第2のフレームフォーマットであり、
前記プロセッサは、さらに、
第1のフレームフォーマットでフレームを生成し、 ここで、第1のフォーマットでの前記フレームは、前記第1のフレームの前記遮られないイメージ部分からのイメージコンテンツを含み、環境の遮られた部分に対応するイメージコンテンツを含まず、
第1のフォーマットでの前記フレームを記憶装置内に記憶する
ように前記イメージ処理システムを制御するように構成される。
[00275] イメージ処理システムの実施形態10であって、イメージ処理システムの実施形態9において、
第1のフレームおよび第1のフォーマットでのフレームは、第1のプログラムに対応し、
前記プロセッサは、さらに、
遮られたイメージコンテンツの表示をサポートする第1の再生装置から、第1のプログラムに対応するコンテンツの第1の要求を受信し、
コンテンツの前記第1の要求に応答して、第1の装置に第2のフォーマットで前記第1のフレームを送る
ように前記イメージ処理システムを制御するように構成される。
[00276] イメージ処理システム実施形態11であって、イメージ処理システムの実施形態10において、前記プロセッサは、さらに、第2のフォーマットで第1のフレームを送る前に、装置の能力情報から、第1の再生装置が、遮られたイメージコンテンツの表示をサポートすることを決定するように前記イメージ処理システムを制御するように構成される。
[00277] イメージ処理システムの実施形態12であって、イメージ処理システムの実施形態10において、前記プロセッサは、さらに、
遮られたイメージコンテンツの表示をサポートしない第2の再生装置から、第1のプログラムに対応するコンテンツの第2の要求を受信し、
コンテンツの前記第2の要求に応答して、第2の再生装置に第1のフォーマットで前記フレームを送る
ように前記イメージ処理システムを制御するように構成される。
[00278] イメージ処理システムの実施形態13であって、イメージ処理システムの実施形態12において、前記プロセッサは、さらに、第1のフォーマットでフレームを送る前に、第2の再生装置に対応する装置の能力情報から、第2の再生装置が、遮られたイメージコンテンツの表示をサポートしないことを決定するように前記イメージ処理システムを制御するように構成される。
[00279] イメージ処理システムの実施形態14であって、イメージ処理システム実施形態13において、前記第2のフォーマットでの前記第1のフレームおよび第1のフォーマットでフレームは、同じサイズであり、同じ数の画素を含む。
[00280] イメージ処理システムの実施形態15であって、イメージ処理システム実施形態14において、前記プロセッサは、さらに、
第1の位置からのビューからは遮られた環境の部分に対応するセグメントを含まない環境モデルを、前記第2の再生装置に送信し、
前記第1のフォーマットの前記フレームの諸部分を、第1の位置からのビューからは遮られた環境の部分に対応するセグメントを含まない環境モデルに対してマッピングするために使用されるUVマップを、第2の再生装置に送信する
ように前記イメージ処理システムを制御するように構成される。
[00281] イメージ処理システムを動作させる方法の実施形態16であって、方法の実施形態16は、
環境の部分に対応する第1のイメージを受信することと、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、
前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツを含む第1のフレームを生成することと、
前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージを受信することと、
追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツを含む補助フレームを生成することと、
前記第1のフレームと前記補助フレームとを記憶装置内に記憶し、または、前記第1のフレームを他の装置に送信することと、
を備える。
[00282] イメージ処理システムを動作させる方法の実施形態17であって、方法の実施形態16は、さらに、
前記第1のフレームの部分の、前記第1の位置から見える前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す第1のUVマップを生成することと、
前記補助フレームの部分の、前記第1の位置からは見えない前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す補助UVマップを生成することと、
を備える。
[00283] イメージ処理システムを動作させる方法の実施形態18であって、方法の実施形態17は、さらに、前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成することを備える。
[00284] イメージ処理システムを動作させる方法の実施形態19であって、方法の実施形態16において、前記補助フレームは、前記第1のフレームよりも小さく、前記第1のフレームよりも少ない数の画素を含む。
[00285] イメージ処理システムを動作させる方法の実施形態20であって、方法の実施形態18は、さらに、
前記第1のフレームと前記補助フレームとを多重化することと、
主コンテンツストリーム内に前記第1のフレームを、補助コンテンツストリーム内に前記補助フレームを含む多重化されたコンテンツストリームを送信することと、
を備える。
[00286] イメージ処理システムを動作させる方法の実施形態21であって、方法の実施形態20において、前記第1のフレームと前記補助フレームとを多重化することは、前記多重化されたコンテンツストリームを受信する装置が、前記第1のフレームの前に前記補助フレームを受信するように、前記第1のフレームの前に、前記多重化されたコンテンツストリーム内に前記補助フレームを組み込むことを含む。
[00287] イメージ処理システムを動作させる方法の実施形態22であって、方法の実施形態20は、さらに、
環境の前記部分に対応する第2のイメージを受信することと、ここで、前記第2のイメージは、第2の遮られないイメージ部分を含み、
少なくとも第2の遮られたイメージ部分を含む環境の第2の追加のイメージを受信することと、
前記第2のイメージの前記第2の遮られないイメージ部分からのイメージコンテンツを含む第2のフレームを生成することと、
を備える。
[00288] イメージ処理システムを動作させる方法の実施形態23であって、方法の実施形態22において、補助フレームを生成することは、前記第1の遮られたイメージ部分と共に、前記補助フレーム内に、第2の追加のイメージの前記第2の遮られたイメージ部分からのイメージコンテンツを含めることを含む。
[00289] イメージ処理システムを動作させる方法の実施形態24であって、方法の実施形態23において、
前記補助フレームは、主コンテンツストリーム内のM個の異なるフレームに対応する遮られたイメージ部分を含み、Mはゼロでない整数であり、
補助フレームを生成することは、前記補助フレーム内に、第2の追加のイメージの前記第2の遮られたイメージ部分からのイメージコンテンツを含めることを含む。
[00290] イメージ処理システムを動作させる方法の実施形態25であって、方法の実施形態24において、前記補助フレームは、前記第1のフレームと同じサイズであり、前記第1のフレームと同じ数の画素を含む。
[00291] イメージ処理システムを動作させる方法の実施形態26であって、方法の実施形態16は、さらに、
遮られたイメージコンテンツの表示をサポートする第1の再生装置から、第1のプログラムに対応するコンテンツの第1の要求を受信することと、
コンテンツの前記第1の要求に応答して、第1の再生装置に、前記第1のフレームと補助フレームとを送ることと、
を備える。
[00292] イメージ処理システムを動作させる方法の実施形態27であって、方法の実施形態26は、さらに、第1のUVマップと補助UVマップとを第1の再生装置に送ることを備える。
[00293] イメージ処理システムを動作させる方法の実施形態28であって、方法の実施形態26は、さらに、第1のフレームと補助フレームとを送る前に、装置の能力情報から、第1の再生装置が、遮られたイメージコンテンツの再生をサポートすることを決定することを備える。
[00294] イメージ処理システムを動作させる方法の実施形態29であって、方法の実施形態26は、さらに、
遮られたイメージコンテンツの表示をサポートしない第2の再生装置から、第1のプログラムに対応するコンテンツの第2の要求を受信することと、
前記補助フレームを第2の再生装置に送ることなく、コンテンツの前記第2の要求に応答して、第2の再生装置に前記第1のフレームを送ることと、
を備える。
[00295] イメージ処理システムを動作させる方法の実施形態30であって、方法の実施形態26は、さらに、第1のUVマップを第2の再生装置に送ることを備えるが、補助UVマップを再生装置に送らない。
[00296] イメージ処理システムを動作させる方法の実施形態31であって、方法の実施形態29は、さらに、補助フレームを送ることなく第1のフレームを第2の再生装置に送る前に、装置の能力情報から、第2の再生装置が、遮られたイメージコンテンツの表示をサポートしないことを決定することを備える。
[00297] システム内での使用のためのコンピュータが読み取り可能な一時的でない媒体であって、前記コンピュータが読み取り可能な一時的でない媒体は、コンピュータによって実行されるときに、
環境の部分に対応する第1のイメージを受信し、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、
前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツを含む第1のフレームを生成し、
前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージを受信し、
追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツを含む補助フレームを生成し、
前記第1のフレームと前記補助フレームとを記憶装置内に記憶し、または、前記第1のフレームを他の装置に送信する
ようにシステムを制御するコンピュータ実行可能命令を含む。
[00298] イメージ処理システムの実施形態16は、
環境の部分に対応する第1のイメージを受信するように構成された受信器と、ここで、前記第1のイメージは、第1の位置から見える環境の部分に対応する遮られないイメージ部分を含み、
前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツを含む第1のフレームを生成するように構成されたプロセッサであって、
ここにおいて、前記受信器は、前記第1の位置からのビューからは遮られた環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む環境の追加のイメージを受信するようにさらに構成され、
ここにおいて、前記プロセッサは、さらに、追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツを含む補助フレームを生成するように構成される、
プロセッサと、
前記第1のフレームと前記補助フレームとを記憶するためのメモリ、または、前記第1のフレームを他の装置に送信するように構成される送信器と、
を備える。
[00299] イメージ処理システムの実施形態17であって、イメージ処理システムの実施形態16において、前記プロセッサは、さらに、
前記第1のフレームの諸部分の、前記第1の位置から見える前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す第1のUVマップを生成し、
前記補助フレームの諸部分の、前記第1の位置からは見えない前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す補助UVマップを生成する
ようにさらに構成される。
[00300] イメージ処理システムの実施形態18であって、イメージ処理システムの実施形態17において、前記プロセッサは、さらに、前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成するように構成される。
[00301] イメージ処理システムの実施形態19であって、イメージ処理システムの実施形態16において、前記補助フレームは、前記第1のフレームよりも小さく、前記第1のフレームよりも少ない数の画素を含む。
[00302] イメージ処理システムの実施形態20であって、
イメージ処理システムの実施形態18は、さらに、前記第1のフレームと前記補助フレームとを多重化するように構成されたマルチプレクサを備え、
前記送信器は、さらに、主コンテンツストリーム内に前記第1のフレームを、補助コンテンツストリーム内に前記補助フレームを含む多重化されたコンテンツストリームを送信するように構成される。
[00303] イメージ処理システムの実施形態21であって、イメージ処理システムの実施形態20において、前記マルチプレクサは、前記第1のフレームと前記補助フレームとを多重化するように構成されることの一部として、前記多重化されたコンテンツストリームを受信する装置が、前記第1のフレームの前に、前記補助フレームを受信するように、前記第1のフレームの前に、前記多重化されたコンテンツストリーム内で前記補助フレームを組み込むように構成される。
[00304] イメージ処理システムの実施形態22であって、イメージ処理システムの実施形態20において、
前記受信器は、さらに、環境の前記部分に対応する第2のイメージを受信するように構成され、ここで、前記第2のイメージは、第2の遮られないイメージ部分を含み、
前記受信器は、さらに、少なくとも第2の遮られたイメージ部分を含む環境の第2の追加のイメージを受信するようにさらに構成され、
前記プロセッサは、さらに、前記第2のイメージの前記第2の遮られないイメージ部分からのイメージコンテンツを含む第2のフレームを生成するように構成される。
[00305] イメージ処理システムの実施形態23であって、イメージ処理システムの実施形態22において、前記プロセッサは、さらに、補助フレームを生成するように構成されることの一部として、前記第1の遮られたイメージ部分と共に、前記補助フレーム内に、第2の追加のイメージの前記第2の遮られたイメージ部分からのイメージコンテンツを含めるように構成される。
[00306] イメージ処理システムの実施形態24であって、イメージ処理システムの実施形態23において、
前記補助フレームは、主コンテンツストリーム内のM個の異なるフレームに対応する遮られたイメージ部分を含み、Mはゼロでない整数であり、
前記プロセッサは、さらに、補助フレームを生成するように構成されることの一部として、前記補助フレーム内に、第2の追加のイメージの前記第2の遮られたイメージ部分からのイメージコンテンツを含めるように構成される。
[00307] イメージ処理システムの実施形態25であって、イメージ処理システムの実施形態24において、前記補助フレームは、前記第1のフレームと同じサイズであり、前記第1のフレームと同じ数の画素を含む。
[00308] イメージ処理システムの実施形態26であって、イメージ処理システムの実施形態16において、
前記受信器は、さらに、遮られたイメージコンテンツの表示をサポートする第1の再生装置から、第1のプログラムに対応するコンテンツの第1の要求を受信するように構成され、
前記送信器は、さらに、コンテンツの前記第1の要求に応答して、第1の再生装置に、前記第1のフレームと前記補助フレームとを送るように構成される。
[00309] イメージ処理システムの実施形態27であって、イメージ処理システムの実施形態26において、前記送信器は、さらに、第1のUVマップと補助UVマップとを、第1の再生装置に送るように構成される。
[00310] イメージ処理システムの実施形態28であって、前記プロセッサは、さらに、第1のフレームと補助フレームとが第1の再生装置に送られる前に、第1の再生装置に対応する装置の能力情報から、第1の再生装置が、遮られたイメージコンテンツの表示をサポートすることを決定するように構成される。
[00311] イメージ処理システムの実施形態29であって、
前記受信器は、さらに、遮られたイメージコンテンツの表示をサポートしない第2の再生装置から、第1のプログラムに対応するコンテンツの第2の要求を受信するように構成され、
前記送信器は、さらに、前記補助フレームを第2の再生装置に送ることなく、コンテンツの前記第2の要求に応答して、第2の再生装置に前記第1のフレームを送るように構成される。
[00312] イメージ処理システムの実施形態30であって、イメージ処理システムの実施形態26において、前記送信器は、さらに、第1のUVマップを第2の再生装置に送るように構成されるが、補助UVマップを再生装置に送らない。
[00313] イメージ処理システムの実施形態31であって、イメージ処理システムの実施形態29において、前記プロセッサは、さらに、第1のフレームが、補助フレームなしで第2の再生装置に送られる前に、第2の再生装置に対応する装置の能力情報から、第2の再生装置が遮られたイメージコンテンツの表示をサポートしないことを決定するように構成される。
[00314] コンテンツ再生装置を動作させる方法の実施形態1であって、その方法は、
環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツとを含む第1のフレームを受信することと、
ユーザの頭位置を検出することと、
検出された頭の位置に応じて、環境の部分のイメージをディスプレイに出力することと、
を備える。
[00315] コンテンツ再生装置を動作させる方法の実施形態2であって、方法の実施形態1において、
イメージをディスプレイに前記出力することは、
前記ユーザの頭の位置がデフォルト位置にあるときに第1の位置から見える環境の部分に対応するイメージ部分を出力することと、
前記ユーザの頭の位置が前記デフォルト位置からオフセットされた位置を示すときに、第1の位置からは見えない環境の少なくともいくつかの部分に対応するイメージ部分を出力することと、
を含む。
[00316] コンテンツ再生装置を動作させる方法の実施形態3であって、
方法の実施形態1は、さらに、フレームの部分と、環境のモデルのセグメントとの間のマッピングを示すUVマップを受信することを備え、
イメージをディスプレイに出力することは、第1のフレーム内に含まれるイメージ部分を、環境のモデルのセグメントに対してマッピングするためにUVマップを使用することによって生成された描画されたイメージの部分を出力することを含む。
[00317] コンテンツ再生装置を動作させる方法の実施形態4であって、
方法の実施形態3は、さらに、環境の前記モデルを受信することを備え、
前記モデルは、第1の位置から見える前記環境内の面に対応するセグメントと、第1の位置からは見えない前記環境の遮られた部分に対応する少なくともいくつかのセグメントとを含むメッシュモデルである。
[00318] コンテンツ再生装置を動作させる方法の実施形態5であって、方法の実施形態3において、
前記遮られないイメージコンテンツは、環境内の前記第1の位置において第1のカメラによって取り込まれたコンテンツを含み、
遮られたイメージコンテンツは、前記第1の位置からオフセットされた位置において前記環境内に配置された追加のカメラによって取り込まれる。
[00319] コンテンツ再生装置を動作させる方法の実施形態6であって、方法の実施形態4は、さらに、
使用可能なプログラムのリストを受信することと、
ここで、前記リストは、第1のプログラムのために、前記プログラムに対応するが、異なるストリームフォーマットであるストリームのリストを含み、
前記異なるストリームフォーマットの第1のものは、遮られたイメージコンテンツを含まないストリームフォーマットと、遮られたイメージコンテンツを含む第2のストリームフォーマットとを含み、
前記第1のプログラムを選択するユーザ入力を受信することと、
装置の能力情報に基づいて、ユーザ選択されたプログラムに対応するどのストリームを要求するべきかを選択することと、
を備える。
[00320] コンテンツ再生装置を動作させる方法の実施形態7であって、方法の実施形態6において、
前記再生装置は、遮られたイメージコンテンツの表示をサポートし、
選択する前記ステップは、遮られたイメージコンテンツを含むストリームを選択することを含み、
その方法は、さらに、ユーザ選択されたプログラムに対応する選択されたストリームの要求を、コンテンツサーバに送ることを備える。
[00321] コンテンツ再生装置を動作させる方法の実施形態8であって、方法の実施形態4は、さらに、
使用可能なプログラムのリストを受信することと、ここで、前記リストは、第1のプログラムを含み、
前記第1のプログラムを選択するユーザ入力を受信することと、
ストリームの要求をコンテンツサーバに送ることと、
を備える。
[00322] コンテンツ再生装置を動作させる方法の実施形態9であって、方法の実施形態8は、さらに、前記再生装置が、前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツの表示をサポートできることを示す装置の能力情報を、前記コンテンツサーバに通信することを備える。
[00323] コンテンツ再生装置を動作させる方法の実施形態10であって、方法の実施形態9において、
装置の能力情報を前記コンテンツサーバに通信することは、
i)再生装置の能力を決定するのに使用され得る識別子を、コンテンツサーバに提供すること、または
ii)再生装置によってサポートされ得るコンテンツストリームフォーマットを、コンテンツサーバに示すこと、
のうちの少なくとも1つを含む。
[00324] コンテンツ再生装置を動作させる方法の実施形態11であって、方法の実施形態10において、装置の能力情報を前記コンテンツサーバに通信することは、遮られたイメージデータが、遮られないイメージデータも含むフレーム内で送信されるコンテンツストリームフォーマットを、再生装置がサポートすることをコンテンツサーバに示すことを含む。
[00325] システム内での使用のためコンピュータが読み取り可能な一時的でない媒体であって、前記コンピュータが読み取り可能な一時的でない媒体は、コンピュータによって実行されるときに、
環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツとを含む第1のフレームを受信し、
ユーザの頭の位置を検出し、
検出された頭の位置に応じて、環境の部分のイメージをディスプレイに出力する
ようにシステムを制御する、コンピュータが実行可能な命令を含む。
[00326] コンテンツ再生装置の実施形態1は、
環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツとを含む第1のフレームを受信するように構成された受信器と、
プロセッサであって、
ユーザの頭の位置を検出し、
検出された頭の位置に応じて、環境の部分のイメージをディスプレイに出力する
ように前記コンテンツ再生装置を制御するように構成されたプロセッサと、
前記イメージを記憶するためのメモリと
を備える。
[00327] コンテンツ再生装置の実施形態2であって、コンテンツ再生装置の実施形態1において、イメージをディスプレイに出力することは、
前記ユーザの頭の位置がデフォルト位置にあるときに第1の位置から見える環境の部分に対応するイメージ部分を出力することと、
前記ユーザの頭の位置が前記デフォルト位置からオフセットされた位置を示すときに、第1の位置からは見えない環境の少なくともいくつかの部分に対応するイメージ部分を出力することと、
を含む。
[00328] コンテンツ再生装置の実施形態3であって、コンテンツ再生装置の実施形態1において、
前記受信器は、さらに、フレームの諸部分と環境のモデルのセグメントとの間のマッピングを示すUVマップを受信するようにさらに構成され、
イメージをディスプレイに出力することは、第1のフレーム内に含まれるイメージ部分を、環境のモデルのセグメントに対してマッピングするためにUVマップを使用することによって生成された描画されるイメージの部分を出力することを含む。
[00329] コンテンツ再生装置の実施形態4であって、コンテンツ再生装置の実施形態3において、
前記受信器は、さらに、環境の前記モデルを受信するように構成され、
前記モデルは、第1の位置から見える前記環境内の面に対応するセグメントと、第1の位置からは見えない前記環境の遮られた部分に対応する少なくともいくつかのセグメントとを含むメッシュモデルである。
[00330] コンテンツ再生装置の実施形態5であって、コンテンツ再生装置の実施形態3において、
前記遮られないイメージコンテンツは、環境内の前記第1の位置において第1のカメラによって取り込まれたコンテンツを含み、
遮られたイメージコンテンツは、前記第1の位置からオフセットされた位置において前記環境内に配置された追加のカメラによって取り込まれる。
[00331] コンテンツ再生装置実施形態6であって、コンテンツ再生装置の実施形態4において、
前記受信器は、使用可能なプログラムのリストを受信するようにさらに構成され、
前記リストは、第1のプログラムに関して、前記プログラムに対応するが、異なるストリームフォーマットであるストリームのリストを含み、
前記異なるストリームフォーマットの第1のものは、遮られたイメージコンテンツを含まないストリームフォーマットと、遮られたイメージコンテンツを含む第2のストリームフォーマットとを含み、
前記プロセッサは、さらに、
前記第1のプログラムを選択するユーザ入力を受信し、
装置能力情報に基づいて、ユーザ選択されたプログラムに対応するどのストリームを要求すべきかを選択する
ように前記コンテンツ再生装置を動作させるように構成される。
[00332] コンテンツ再生装置の実施形態7であって、
コンテンツ再生装置の実施形態6は、さらに、
ユーザ選択されたプログラムに対応する選択されたストリームの要求をコンテンツサーバに送るように構成された送信器
を備え、
前記再生装置は、遮られたイメージコンテンツの表示をサポートし、
前記プロセッサは、
ユーザ選択されたプログラムに対応するどのストリームを要求するべきかを選択するように前記コンテンツ再生装置を動作させるように構成され、
遮られたイメージコンテンツを含むストリームを選択するように前記コンテンツ再生装置を動作させるように構成される。
[00333] コンテンツ再生装置実施形態8であって、
コンテンツ再生装置実施形態4は、さらに、ストリームの要求をコンテンツサーバに送るように構成された送信器を備え、
前記受信器は、さらに、使用可能なプログラムのリストを受信するように構成され、
前記リストは第1のプログラムを含み、
前記プロセッサは、さらに、前記第1のプログラムを選択するユーザ入力を受信するように前記コンテンツ再生装置を動作させるように構成される。
[00334] コンテンツ再生装置の実施形態9であって、コンテンツ再生装置の実施形態8において、前記送信器は、さらに、前記再生装置が、前記第1の位置からは見えない前記環境の諸部分に対応する遮られたイメージコンテンツの表示をサポートできることを示す装置の能力情報を、前記コンテンツサーバに通信するように構成される。
[00335] コンテンツ再生装置の実施形態10であって、コンテンツ再生装置の実施形態9において、
装置の能力情報を前記コンテンツサーバに通信することは、
i)再生装置の能力を決定するのに使用され得る識別子をコンテンツサーバに提供すること、または
ii)再生装置によってサポートされ得るコンテンツストリームフォーマットを、コンテンツサーバに示すこと、
のうちの少なくとも1つを含む。
[00336] コンテンツ再生装置実施形態11であって、コンテンツ再生装置の実施形態10において、装置の能力情報を前記コンテンツサーバに通信することは、遮られないイメージデータも含むフレーム内で遮られたイメージデータが送信されるコンテンツストリームフォーマットを、再生装置がサポートすることを、コンテンツサーバに示すことを含む。
[00337] 第12の再生方法の実施形態と呼ばれる1つの例示的な実施形態は、コンテンツ再生装置を動作させる方法に向けられ、
この方法は、コンテンツ再生装置を、
環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツを含む第1のフレームを受信し、
前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツを含む補助フレームを受信し、
ユーザの頭の位置を検出し、
検出された頭の位置に応じて、環境の部分のイメージをディスプレイに出力する
ように動作させるステップを含む。第12の方法の実施形態の特徴を含む第13の方法の実施形態では、方法は、さらに、ディスプレイに出力することの一部として、
ユーザの前記頭の位置がデフォルト位置に対応するときに第1の位置から見える環境の部分に対応するイメージ部分をディスプレイに出力することと、
ユーザの頭の位置が前記第1の位置からオフセットされた位置に対応するときに、第1の位置からは見えない環境の少なくともいくつかの部分に対応するイメージ部分をディスプレイに出力することと、
をさらに含む。
[00338] 第12の再生方法の実施形態の特徴を含む第14の再生方法の実施形態では、その方法は、さらに、
前記第1の位置から見える前記環境の部分に対応する環境の第1のモデルのセグメントに対する、遮られないイメージコンテンツを含む第1のフレームの部分間のマッピングを示す第1のUVマップを受信することと、
前記第1の位置からは見えない前記環境の部分に対応する環境の前記第1のモデルのセグメントに対する、遮られたイメージコンテンツを含む補助フレームの部分間のマッピングを示す補助UVマップを受信することと、
を備える。
[00339] 第14の再生方法の実施形態の特徴を含む第15の再生方法の実施形態では、
環境のイメージ部分をディスプレイに出力することは、前記ユーザの頭が環境内の第1の位置に対応するデフォルト位置からオフセットされた位置に位置決めされるときに、
i)環境の第1のモデルのセグメントに対して、第1のフレーム内に含まれるイメージ部分をマッピングするのに第1のUVマップを使用することによって、および、
ii)前記第1の位置からは見えない環境の部分に対応する環境の第1のモデルのセグメントに対して、補助フレーム内に含まれるイメージ部分をマッピングするのに補助UVマップを使用することによって、
生成された描画されるイメージの部分を表示することを含む。第15の再生方法の実施形態の特徴を含む第16の再生方法の実施形態では、その方法は、さらに、前記第1のフレームを含む主コンテンツストリームと、前記補助フレームを含む補助コンテンツストリームとを含む多重化されたコンテンツストリーム内で前記第1のフレームと補助フレームとを受信することを含む。
[00340] 第16の再生方法の実施形態の特徴を含む第17の再生方法の実施形態では、その方法は、さらに、前記主コンテンツストリームと前記補助コンテンツストリームとを多重化解除することを含む。第17の再生装置の実施形態の特徴を含む第18の再生の実施形態では、主コンテンツストリームは、前記補助コンテンツストリーム内の各フレームに対してM個のフレームを含み、Mは1以上である。第18の再生方法の実施形態の特徴を含む第19の再生方法の実施形態では、Mは1より大きく、補助フレームは、前記主コンテンツストリーム内に含まれるM個のフレームのセット内の前記第1のフレームと少なくとも1つの追加のフレームとに対応する遮られたイメージコンテンツを含む。第19の再生方法の実施形態の特徴を含む第20の再生方法の実施形態では、
第1のフレームおよび補助フレームは、符号化された形で受信され、
前記方法は、
イメージ描画の前に、前記第1のフレームを復号するのに第1のデコーダを使用することと、
イメージ描画の前に、前記補助フレームを復号するのに、前記第1のデコーダとは異なる第2のデコーダを使用することと、
をさらに含む。
[00341] 第21の再生方法の実施形態では、第2のデコーダは、前記第1のデコーダよりも低速である。第18の再生方法の実施形態の特徴を含む第22の再生方法の実施形態では、補助フレームは、前記第1のフレームと、同じサイズであり、同じ数の画素を含む。第18の再生方法の実施形態の特徴を含む第23の再生方法の実施形態では、
第1のフレームおよび補助フレームは、符号化された形で受信され、
その方法は、さらに、イメージ描画の前に、前記第1のフレームと前記補助フレームとを復号するのに、時分割ベースでデコーダを使用することを含む。第14の再生方法の実施形態の特徴を含む第24の再生方法の実施形態では、その方法は、さらに、
環境内の前記第1の位置から見える環境の部分に対応するセグメントを含む第2の環境モデルを受信することと、
環境内の前記第1の位置からは見えない前記環境の遮られた部分に対応するセグメントに関する情報を提供する補助環境モデル情報を受信することと、
前記第1の環境モデルを生成するために第2の環境モデルを変更するのに補助環境モデル情報を使用することと、ここで、前記第1の環境モデルは、前記環境の遮られた部分に対応するセグメントと、前記環境の遮られない部分に対応するセグメントとを含み、
を含む。
[00342] コンテンツ再生装置の実施形態12は、
環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツを含む第1のフレームを受信するため、および、前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツを含む補助フレームを受信するための受信器と、
受信されたフレームを記憶するためのメモリと、
ユーザの頭の位置を検出し、検出された頭の位置に応じて、環境の部分のイメージをディスプレイに出力するように構成されたプロセッサと、
を備える。
[00343] コンテンツ再生装置の実施形態13であって、コンテンツ再生装置の実施形態12において、
プロセッサは、ディスプレイに出力することの一部として、
ユーザの前記頭の位置がデフォルト位置に対応するときに第1の位置から見える環境の部分に対応するイメージ部分を出力し、
ユーザの頭の位置が前記第1の位置からオフセットされた位置に対応するときに、第1の位置からは見えない環境の少なくともいくつかの部分に対応するイメージ部分を出力する
ように構成される。
[00344] コンテンツ再生装置の実施形態14であって、コンテンツ再生装置の実施形態12において、前記受信器は、また、
前記第1の位置から見える前記環境の部分に対応する環境の第1のモデルのセグメントに対する、遮られないイメージコンテンツを含む第1のフレームの部分間のマッピングを示す第1のUVマップを受信することと、
前記第1の位置からは見えない前記環境の部分に対応する環境の第1のモデルのセグメントに対する、遮られたイメージコンテンツを含む補助フレームの部分間のマッピングを示す補助UVマップを受信することと、
のためのものである。
[00345] コンテンツ再生装置の実施形態15であって、コンテンツ再生装置の実施形態14において、
プロセッサは、ディスプレイに出力することの一部として、
前記ユーザの頭が、環境内の第1の位置に対応するデフォルト位置からオフセットされた位置に位置決めされるときに、
i)第1のフレーム内に含まれるイメージ部分を、環境の第1のモデルのセグメントに対してマッピングするのに第1のUVマップを使用することと、および
ii)補助フレーム内に含まれるイメージ部分を、前記第1の位置からは見えない環境の部分に対応する環境の第1のモデルのセグメントに対してマッピングするのに補助UVマップを使用することと、
によって生成された描画されるイメージの部分を出力するように構成される。
[00346] コンテンツ再生装置の実施形態16であって、コンテンツ再生装置の実施形態15において、受信器は、前記第1のフレームを含む主コンテンツストリームと、前記補助フレームを含む補助コンテンツストリームとを含む多重化されたコンテンツストリーム内で前記第1のフレームと補助フレームとを受信する。
[00347] コンテンツ再生装置の実施形態17であって、コンテンツ再生装置の実施形態16は、さらに、前記主コンテンツストリームと前記補助コンテンツストリームとを多重化解除するためのデマルチプレクサを備える。
[00348] コンテンツ再生装置の実施形態18であって、コンテンツ再生装置の実施形態17において、前記主コンテンツストリームは、前記補助コンテンツストリーム内の各フレームに対してM個のフレームを含み、Mは1以上である。
[00349] コンテンツ再生装置の実施形態19、コンテンツ再生装置の実施形態18において、
Mは1より大きく、
前記補助フレームは、前記主コンテンツストリーム内に含まれるM個のフレームのセット内の前記第1のフレームと少なくとも1つの追加のフレームとに対応する遮られたイメージコンテンツを含む。
[00350] コンテンツ再生装置の実施形態20であって、コンテンツ再生装置の実施形態19において、
前記第1のフレームおよび前記補助フレームは、符号化された形で受信され、
前記コンテンツ再生装置は、
イメージ描画の前に、前記第1のフレームを復号する第1のデコーダと、
イメージ描画の前に、前記補助フレームを復号するための、前記第1のデコーダとは異なる第2のデコーダと、
を含む。
[00351] コンテンツ再生装置の実施形態21であって、コンテンツ再生装置の実施形態20において、前記第2のデコーダは、前記第1のデコーダよりも低速である。
[00352] コンテンツ再生装置の実施形態22であって、コンテンツ再生装置の実施形態18において、
前記第1のフレームおよび前記補助フレームは、符号化された形で受信され、
その方法は、さらに、イメージ描画の前に、前記第1のフレームと前記補助フレームとを復号するために、時分割ベースでデコーダを使用することを備える。
[00353] コンテンツ再生装置の実施形態23であって、コンテンツ再生装置の実施形態14において、
前記受信器は、また、
環境内の前記第1の位置から見える環境の部分に対応するセグメントを含む第2の環境モデルを受信することと、
環境内の前記第1の位置からは見えない前記環境の遮られた部分に対応するセグメントに関する情報を提供する補助環境モデル情報を受信することと、
前記第1の環境モデルを生成するために第2の環境モデルを変更するのに補助環境モデル情報を使用することと、ここで、前記第1の環境モデルは、前記環境の遮られた部分に対応するセグメントと、前記環境の遮られない部分に対応するセグメントとを含む、
ためのものである。
[00354] 他の例示的な実施形態は、コンテンツ再生装置のプロセッサによって実行されるときに、
環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツを含む第1のフレームを受信し、
前記第1の位置からは見えない環境の部分に対応する遮られたイメージコンテンツを含む補助フレームを受信し、
ユーザの頭の位置を検出し、
検出された頭の位置に応じて、環境の部分のイメージをディスプレイに出力する
ステップを実行するようにコンテンツ再生装置を制御する、コンピュータが実行可能な命令がその上に記憶されたコンピュータが読み取り可能な一時的でない媒体を含む。
[00355] ステップは例示的な順序で示されるが、多くの場合に、ステップの順序は、動作に不利な影響を及ぼさずに、変更され得ることを理解されたい。したがって、ステップの例示的な順序が正しい動作のために必要とされない限り、ステップの順序は、例示的であって、限定的ではないと考えられるべきである。
[00356] 様々な実施形態が議論されたが、必ずしもすべての実施形態が同じ特徴を含むとは限らず、説明された特徴のいくつかは不可欠ではなく、いくつかの実施形態では、望ましいものであり得ることを理解されたい。
[00357] 様々な範囲および例示的な値が説明されるが、範囲および値は例示的である。いくつかの実施形態では、値の範囲は、上で議論された範囲より20%大きい。他の実施形態では、範囲は、上で議論された例示的な範囲より20%小さい。同様に、特定の値は、上で特定された値よりも20%まで大きくてもよく、時にそうであり、他方、他の実施形態では、値は、上で特定された値よりも20%まで小さくある。さらに他の実施形態では、他の値が使用される。
[00358] 様々な実施形態の技法は、ソフトウェア、ハードウェア、および/または、ソフトウェアとハードウェアとの組合せを使用して実装され得る。様々な実施形態は、たとえばイメージデータ取り込みおよび処理システムなどの機器に向けられる。様々な実施形態は、たとえばイメージ取り込みおよび/またはイメージデータを処理する方法などの方法に向けられる。様々な実施形態は、また、方法の1つまたは複数のステップを実施するように機械を制御するための、機械が読み取り可能な命令を含む、たとえばROM、RAM、CD、ハードディスクなどの、コンピュータなどの機械が読み取り可能な一時的でない媒体に向けられる。
[00359] 本発明の様々な特徴は、モジュールを使用して実装される。そのようなモジュールは、ソフトウェアモジュールとして実装され得、いくつかの実施形態では実施される。他の実施形態では、モジュールは、ハードウェアで実装される。さらに他の実施形態では、モジュールは、ソフトウェアとハードウェアとの組合せを使用して実装される。いくつかの実施形態では、モジュールが、個々の回路として実装され、各モジュールは、モジュールが対応する機能を実行するための回路として実装される。異なるモジュールが、たとえばいくつかはハードウェアで、いくつかはソフトウェアで、いくつかはハードウェアとソフトウェアとの組合せを使用してなど、異なって実装されるいくつかの実施形態を含め、様々な実施形態が企図される。ルーチンおよび/またはサブルーチン、または、そのようなルーチンによって実行されるステップのいくつかが、汎用プロセッサ上で実行されるソフトウェアと対照的に、専用ハードウェア内で実装され得ることにも留意されたい。そのような実施形態は、本発明の範囲内に留まる。上述の方法または方法ステップの多くが、上述された方法のすべてまたは一部を実装するように、たとえば、追加のハードウェアを用いるかまたは用いない汎用コンピュータなどの機械を制御するために、たとえば、RAM、フロッピー(登録商標)ディスクなどのメモリ装置などの機械が読み取り可能な媒体内に含まれる、ソフトウェアなどの機械が実行可能な命令を使用して実装され得る。したがって、他のものもある中で、本発明は、たとえばプロセッサおよび関連するハードウェアなどの機械に、上述された方法のステップのうちの1つまたは複数を実行させる機械が実行可能な命令を含む、機械が読み取り可能な媒体に向けられる。
[00360] いくつかの実施形態は、立体視ビデオを符号化し、圧縮するようにコンピュータまたは他の装置を制御するための、たとえばコンピュータが実行可能な命令などのソフトウェア命令のセットを具現化するコンピュータが読み取り可能な一時的でない媒体に向けられる。他の実施形態は、プレイヤ側でビデオを復号し、圧縮解除するようにコンピュータまたは他の装置を制御するための、たとえばコンピュータが実行可能な命令などソフトウェア命令のセットを具現化するコンピュータが読み取り可能な媒体に向けられる。符号化および圧縮は、可能な個別の動作として述べられるが、符号化は、圧縮を実行するのに使用され得、したがって、符号化は、いくつかの実施形態において、圧縮を含み得ることを理解されたい。同様に、復号は、圧縮解除を含み得る。
[00361] 様々な実施形態では、処理システムのプロセッサは、例示的な説明された処理システムによって実行される方法ステップを実行するように処理システムを制御するように構成される。様々な実施形態では、再生装置のプロセッサは、本願で説明される方法のうちの1つまたは複数の、再生装置によって実行される、ステップを実装するように再生装置を制御するように構成される。
[00362] 上述された様々な実施形態の方法および装置に対する多数の追加の変形例が、上の説明に鑑みてこの技術に技量を有する者に明白になる。そのような変形例は、範囲内であると考えられるべきである。

Claims (60)

  1. イメージ処理システムを動作させる方法であって、
    環境の部分に対応する第1のイメージを受信することと、ここで、前記第1のイメージは、第1の位置から見える前記環境の部分に対応する遮られないイメージ部分を含み、
    前記第1の位置からのビューからは遮られた前記環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む前記環境の追加のイメージを受信することと、
    前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツと、前記追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツとを含む第1のフレームを生成することと、
    記憶装置内に前記第1のフレームを記憶し、または、他の装置に前記第1のフレームを送信することと、
    を備える方法。
  2. 前記第1のフレームの部分を、環境モデルのセグメントに対してマッピングするために使用されるUVマップを生成することをさらに備える、請求項1に記載の方法。
  3. 前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成することをさらに備える、請求項1に記載の方法。
  4. 前記UVマップは、前記第1のフレームの前記遮られないイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置から見える前記環境の部分に対応する前記環境モデルの第1のセグメントに対してマッピングする、請求項3に記載の方法。
  5. 前記UVマップは、さらに、前記第1の遮られたイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置からは見えない前記環境の部分に対応する前記環境モデルの第2のセグメントに対してマッピングする、請求項4に記載の方法。
  6. 第1のイメージを受信することは、前記環境内の第1のカメラから前記第1のイメージを受信することを含み、
    前記環境の追加のイメージを受信することは、前記第1のカメラが前記環境内で位置決めされる位置からオフセットされた、前記環境内の位置にあるカメラから前記追加のイメージを受信することを含む、
    請求項1に記載の方法。
  7. 前記第1のカメラは、前記第1のカメラと第2のカメラとを含む立体視カメラ対のカメラであり、
    前記立体視カメラ対は、前記第1の位置に位置決めされ、
    前記方法は、さらに、
    前記第2のカメラから環境の部分に対応する第2のイメージを受信すること
    を備え、
    前記第2のイメージは、前記第1の位置から見える前記環境の前記部分に対応する第2の遮られないイメージ部分を含む、
    請求項6に記載の方法。
  8. 前記第1のフレームは、第2のフレームフォーマットであり、
    前記方法は、さらに、
    第1のフレームフォーマットでフレームを生成することと、ここで、前記第1のフレームフォーマットでの前記フレームは、前記第1のフレームの前記遮られないイメージ部分からのイメージコンテンツを含み、前記環境の遮られた部分に対応するイメージコンテンツを含まず、
    前記記憶装置内に、前記第1のフレームフォーマットでの前記フレームを記憶することと、
    を備える、請求項1に記載の方法。
  9. 前記第1のフレームと前記第1のフレームフォーマットでの前記フレームは、第1のプログラムに対応し、
    前記方法は、さらに、
    遮られたイメージコンテンツの表示をサポートする第1の再生装置から、前記第1のプログラムに対応するコンテンツの第1の要求を受信することと、
    コンテンツの前記第1の要求に応答して、前記第1の再生装置に、前記第2のフレームフォーマットで前記第1のフレームを送ることと、
    を備える、請求項8に記載の方法。
  10. 遮られたイメージコンテンツの前記表示をサポートしない第2の再生装置から、前記第1のプログラムに対応するコンテンツの第2の要求を受信することと、
    コンテンツの前記第2の要求に応答して、前記第2の再生装置に、前記第1のフレームフォーマットで前記フレームを送ることと、
    をさらに備える、請求項9に記載の方法。
  11. システムでの使用のためのコンピュータが読み取り可能な一時的でない媒体であって、前記コンピュータが読み取り可能な一時的でない媒体は、コンピュータによって実行されるときに、
    環境の部分に対応する第1のイメージを受信し、ここで、前記第1のイメージは、第1の位置から見える前記環境の部分に対応する遮られないイメージ部分を含み、
    前記第1の位置からのビューからは遮られた前記環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む前記環境の追加のイメージを受信し、
    前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツと、前記追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツとを含む第1のフレームを生成し、
    記憶装置内に前記第1のフレームを記憶し、または、他の装置に前記第1のフレームを送信する
    ように前記システムを制御する、コンピュータが実行可能な命令を含む、コンピュータが読み取り可能な一時的でない媒体。
  12. イメージ処理システムであって、
    プロセッサを備え、
    プロセッサは、
    環境の部分に対応する第1のイメージを受信し、ここで、前記第1のイメージは、第1の位置から見える前記環境の部分に対応する遮られないイメージ部分を含み、
    前記第1の位置からのビューからは遮られた前記環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む前記環境の追加のイメージを受信し、
    前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツと、前記追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツとを含む第1のフレームを生成し、
    記憶装置内に前記第1のフレームを記憶し、または、他の装置に前記第1のフレームを送信する
    ように前記イメージ処理システムを制御するように構成される、イメージ処理システム。
  13. 前記プロセッサは、さらに、前記第1のフレームの部分を、環境モデルのセグメントに対してマッピングするために使用されるUVマップを生成するように前記イメージ処理システムを制御するように構成される、請求項12に記載のイメージ処理システム。
  14. 前記プロセッサは、さらに、前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成するように前記イメージ処理システムを制御するように構成される、請求項12に記載のイメージ処理システム。
  15. 前記UVマップは、前記第1のフレームの前記遮られないイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置から見える前記環境の部分に対応する前記環境モデルの第1のセグメントに対してマッピングし、
    前記UVマップは、さらに、前記第1の遮られたイメージ部分に対応する前記第1のフレーム内のイメージコンテンツを、前記第1の位置からは見えない前記環境の部分に対応する前記環境モデルの第2のセグメントに対してマッピングする、
    請求項14に記載のイメージ処理システム。
  16. イメージ処理システムを動作させる方法であって、
    環境の部分に対応する第1のイメージを受信することと、ここで、前記第1のイメージは、第1の位置から見える前記環境の部分に対応する遮られないイメージ部分を含み、
    前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツを含む第1のフレームを生成することと、
    前記第1の位置からのビューからは遮られた前記環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む前記環境の追加のイメージを受信することと、
    前記追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツを含む補助フレームを生成することと、
    前記第1のフレームと前記補助フレームとを記憶装置内に記憶し、または、前記第1のフレームを他の装置に送信することと、
    を備える方法。
  17. 前記第1のフレームの部分の、前記第1の位置から見える前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す第1のUVマップを生成することと、
    前記補助フレームの部分の、前記第1の位置からは見えない前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す補助UVマップを生成することと、
    をさらに備える、請求項16に記載の方法。
  18. 前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成することをさらに備える、請求項17に記載の方法。
  19. 前記補助フレームは、前記第1のフレームより小さく、前記第1のフレームより少ない数の画素を含む、請求項16に記載の方法。
  20. 前記第1のフレームと前記補助フレームとを多重化することと、
    主コンテンツストリーム内に前記第1のフレームを、補助コンテンツストリーム内に前記補助フレームを含む多重化されたコンテンツストリームを送信することと、
    をさらに備える、請求項18に記載の方法。
  21. 前記第1のフレームと前記補助フレームとを多重化することは、前記多重化されたコンテンツストリームを受信する装置が、前記第1のフレームの前に、前記補助フレームを受信するように、前記第1のフレームの前に、前記多重化されたコンテンツストリーム内に前記補助フレームを組み込むことを含む、請求項20に記載の方法。
  22. 前記環境の前記部分に対応する第2のイメージを受信することと、ここで、前記第2のイメージは、第2の遮られないイメージ部分を含み、
    少なくとも第2の遮られたイメージ部分を含む前記環境の第2の追加のイメージを受信することと、
    前記第2のイメージの前記第2の遮られないイメージ部分からのイメージコンテンツを含む第2のフレームを生成することと、
    をさらに備える、請求項20に記載の方法。
  23. 前記補助フレームを生成することは、
    前記第1の遮られたイメージ部分と共に、前記補助フレーム内に、前記第2の追加のイメージの前記第2の遮られたイメージ部分からのイメージコンテンツを含めること
    を含む、請求項22に記載の方法。
  24. 前記補助フレームは、前記主コンテンツストリーム内のM個の異なるフレームに対応する遮られたイメージ部分を含み、Mは、ゼロでない整数であり、
    前記補助フレームを生成することは、前記補助フレーム内に、前記第2の追加のイメージの前記第2の遮られたイメージ部分からのイメージコンテンツを含めることを含む、
    請求項23に記載の方法。
  25. 遮られたイメージコンテンツの表示をサポートする第1の再生装置から、第1のプログラムに対応するコンテンツの第1の要求を受信することと、
    コンテンツの前記第1の要求に応答して、前記第1のフレームと前記補助フレームとを、前記第1の再生装置に送ることと、
    をさらに備える、請求項16に記載の方法。
  26. システムでの使用のためのコンピュータが読み取り可能な一時的でない媒体であって、
    前記コンピュータが読み取り可能な一時的でない媒体は、コンピュータによって実行されるときに、
    環境の部分に対応する第1のイメージを受信し、ここで、前記第1のイメージは、第1の位置から見える前記環境の部分に対応する遮られないイメージ部分を含み、
    前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツを含む第1のフレームを生成し、
    前記第1の位置からのビューからは遮られた前記環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む前記環境の追加のイメージを受信し、
    前記追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツを含む補助フレームを生成し、
    前記第1のフレームと前記補助フレームとを記憶装置内に記憶し、または、前記第1のフレームを他の装置に送信する
    ように前記システムを制御する、コンピュータが実行可能な命令を含む、コンピュータが読み取り可能な一時的でない媒体。
  27. 環境の部分に対応する第1のイメージを受信するように構成された受信器と、ここで、前記第1のイメージは、第1の位置から見える前記環境の部分に対応する遮られないイメージ部分を含み、
    前記第1のイメージの前記遮られないイメージ部分からのイメージコンテンツを含む第1のフレームを生成するように構成されたプロセッサと、
    ここにおいて、前記受信器は、さらに、前記第1の位置からのビューからは遮られた前記環境の部分に対応する少なくとも第1の遮られたイメージ部分を含む前記環境の追加のイメージを受信するように構成され、
    ここにおいて、前記プロセッサは、さらに、前記追加のイメージの前記第1の遮られたイメージ部分からのイメージコンテンツを含む補助フレームを生成するように構成され、
    前記第1のフレームと前記補助フレームとを記憶するためのメモリ、または、前記第1のフレームを他の装置に送信するように構成された送信器と、
    を備えるイメージ処理システム。
  28. 前記プロセッサは、さらに、
    前記第1のフレームの部分の、前記第1の位置から見える前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す第1のUVマップを生成し、
    前記補助フレームの部分の、前記第1の位置からは見えない前記環境の部分に対応する環境モデルのセグメントに対するマッピングを示す補助UVマップを生成する
    ように構成される、請求項27に記載のイメージ処理システム。
  29. 前記プロセッサは、さらに、前記環境の遮られない面に対応するセグメントと、前記環境の遮られた面に対応するセグメントとを含む環境モデルを生成するように構成される、請求項28に記載のイメージ処理システム。
  30. 前記第1のフレームと前記補助フレームとを多重化するように構成されたマルチプレクサをさらに備え、
    前記送信器は、さらに、主コンテンツストリーム内に前記第1のフレームを、補助コンテンツストリーム内に前記補助フレームを含む多重化されたコンテンツストリームを送信するように構成され、
    前記マルチプレクサは、前記第1のフレームと前記補助フレームとを多重化するように構成されることの一部として、前記多重化されたコンテンツストリームを受信する装置が、前記第1のフレームの前に、前記補助フレームを受信するように、前記第1のフレームの前に、前記多重化されたコンテンツストリーム内で前記補助フレームを組み込むように構成される、
    請求項29に記載のイメージ処理システム。
  31. コンテンツの再生装置を動作させる方法であって、
    環境内の第1の位置から見える前記環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツとを含む第1のフレームを受信することと、
    ユーザの頭の位置を検出することと、
    前記検出された頭の位置に応じて、前記環境の部分のイメージをディスプレイに出力することと、
    を備える方法。
  32. イメージをディスプレイに前記出力することは、
    前記ユーザの頭の位置がデフォルト位置にあるときに前記第1の位置から見える前記環境の部分に対応するイメージ部分を出力することと、
    前記ユーザの頭の位置が前記デフォルト位置からオフセットされた位置を示すときに、前記第1の位置からは見えない前記環境の少なくともいくつかの部分に対応するイメージ部分を出力することと、
    を含む、請求項31に記載の方法。
  33. フレームの部分と、前記環境のモデルのセグメントとの間のマッピングを示すUVマップを受信することをさらに備え、
    イメージをディスプレイに出力することは、前記第1のフレーム内に含まれるイメージ部分を、前記環境の前記モデルのセグメントに対してマッピングするために、前記UVマップを使用することによって生成された描画されたイメージの部分を出力することを含む、
    請求項31に記載の方法。
  34. 前記環境の前記モデルを受信することをさらに備え、
    前記モデルは、前記第1の位置から見える前記環境内の面に対応するセグメントと、前記第1の位置からは見えない前記環境の遮られた部分に対応する少なくともいくつかのセグメントとを含むメッシュモデルである、
    請求項33に記載の方法。
  35. 前記遮られないイメージコンテンツは、前記環境内の前記第1の位置にある第1のカメラによって取り込まれたコンテンツを含み、
    前記遮られたイメージコンテンツは、前記第1の位置からオフセットされた位置において、前記環境内に配置された追加のカメラによって取り込まれる、
    請求項33に記載の方法。
  36. 前記方法は、さらに、
    使用可能なプログラムのリストを受信することと、ここで、前記リストは、第1のプログラムについて、前記プログラムに対応するが、異なるストリームフォーマットであるストリームのリストを含み、前記異なるストリームフォーマットの第1のものは、遮られたイメージコンテンツを含まないストリームフォーマットと、遮られたイメージコンテンツを含む第2のストリームフォーマットとを含み、
    前記第1のプログラムを選択するユーザ入力を受信することと、
    装置の能力情報に基づいて、ユーザ選択されたプログラムに対応するどのストリームを要求すべきかを選択することと、
    を備える、請求項34に記載の方法。
  37. 前記再生装置は、遮られたイメージコンテンツの表示をサポートし、
    選択するステップは、遮られたイメージコンテンツを含むストリームを選択することを含み、
    前記方法は、
    前記ユーザ選択されたプログラムに対応する選択された前記ストリームの要求を、コンテンツサーバに送ること
    をさらに備える、請求項36に記載の方法。
  38. 使用可能なプログラムのリストを受信することと、ここで、前記リストは、第1のプログラムを含み、
    前記第1のプログラムを選択するユーザ入力を受信することと、
    ストリームを求めて、コンテンツサーバに要求を送ることと、
    前記再生装置が、前記コンテンツサーバに、前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツの表示をサポートすることをできることを示す装置の能力情報を通信することと、
    をさらに備える、請求項34に記載の方法。
  39. システムでの使用のためのコンピュータが読み取り可能な一時的でない媒体であって、
    前記コンピュータが読み取り可能な一時的でない媒体は、コンピュータによって実行されるときに、
    環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツとを含む第1のフレームを受信し、
    ユーザの頭の位置を検出し、
    検出された前記頭の位置に応じて、前記環境の部分のイメージをディスプレイに出力する
    ように前記システムを制御する、コンピュータが実行可能な命令を含む、コンピュータが読み取り可能な一時的でない媒体。
  40. コンテンツ再生装置であって、
    環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツと、前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツとを含む第1のフレームを受信するように構成された受信器と、
    プロセッサであって、
    ユーザの頭の位置を検出し、
    検出された前記頭の位置に応じて、前記環境の部分のイメージをディスプレイに出力する
    ように前記コンテンツ再生装置を制御するように構成されたプロセッサと、
    前記イメージを記憶するためのメモリと、
    を備えるコンテンツ再生装置。
  41. イメージをディスプレイに出力することは、
    前記ユーザの頭の位置がデフォルト位置にあるときに前記第1の位置から見える前記環境の部分に対応するイメージ部分を出力することと、
    前記ユーザの頭の位置が前記デフォルト位置からオフセットされた位置を示すときに、前記第1の位置からは見えない前記環境の少なくともいくつかの部分に対応するイメージ部分を出力することと、
    を含む、請求項40に記載のコンテンツ再生装置。
  42. 前記受信器は、さらに、フレームの部分と前記環境のモデルのセグメントとの間のマッピングを示すUVマップを受信するように構成され、
    イメージをディスプレイに出力することは、前記第1のフレーム内に含まれるイメージ部分を、前記環境の前記モデルのセグメントに対してマッピングするために、前記UVマップを使用することによって生成された描画されたイメージの部分を出力することを含む、
    請求項40に記載のコンテンツ再生装置。
  43. 前記受信器は、さらに、前記環境の前記モデルを受信するように構成され、
    前記モデルは、前記第1の位置から見える前記環境内の面に対応するセグメントと、前記第1の位置からは見えない前記環境の遮られた部分に対応する少なくともいくつかのセグメントとを含むメッシュモデルである、
    請求項42に記載のコンテンツ再生装置。
  44. 前記遮られないイメージコンテンツは、前記環境内の前記第1の位置にある第1のカメラによって取り込まれたコンテンツを含み、
    前記遮られたイメージコンテンツは、前記第1の位置からオフセットされた位置において、前記環境内に配置された追加のカメラによって取り込まれる、
    請求項42に記載のコンテンツ再生装置。
  45. 前記受信器は、さらに、使用可能なプログラムのリストを受信するように構成され、
    前記リストは、第1のプログラムについて、前記プログラムに対応するが、異なるストリームフォーマットであるストリームのリストを含み、
    前記異なるストリームフォーマットの第1のものは、遮られたイメージコンテンツを含まないストリームフォーマットと、遮られたイメージコンテンツを含む第2のストリームフォーマットとを含み、
    前記プロセッサは、さらに、
    前記第1のプログラムを選択するユーザ入力を受信し、
    装置の能力情報に基づいて、ユーザ選択されたプログラムに対応するどのストリームを要求すべきかを選択する
    ように前記コンテンツ再生装置を動作させるように構成される、
    請求項43に記載のコンテンツ再生装置。
  46. コンテンツ再生装置を動作させる方法であって、
    環境内の第1の位置から見える前記環境の部分に対応する遮られないイメージコンテンツを含む第1のフレームを受信することと、
    前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツを含む補助フレームを受信することと、
    ユーザの頭の位置を検出することと、
    検出された前記頭の位置に応じて、前記環境の部分のイメージをディスプレイに出力することと、
    を備える方法。
  47. ディスプレイに出力することは、
    前記ユーザの前記頭の位置がデフォルト位置に対応するときに前記第1の位置から見える前記環境の部分に対応するイメージ部分を、前記ディスプレイに出力することと、
    前記ユーザの前記頭の位置が前記第1の位置からオフセットされた位置に対応するときに、前記第1の位置からは見えない前記環境の少なくともいくつかの部分に対応するイメージ部分を前記ディスプレイに出力することと、
    を含む、請求項46に記載の方法。
  48. 前記第1の位置から見える前記環境の部分に対応する前記環境の第1のモデルのセグメントに対する、遮られないイメージコンテンツを含む前記第1のフレームの部分間のマッピングを示す第1のUVマップを受信することと、
    前記第1の位置からは見えない前記環境の部分に対応する前記環境の前記第1のモデルのセグメントに対する、遮られたイメージコンテンツを含む前記補助フレームの部分間のマッピングを示す補助UVマップを受信することと、
    をさらに備える、請求項47に記載の方法。
  49. 前記環境のイメージ部分をディスプレイに出力することは、前記ユーザの頭が、前記環境内の前記第1の位置に対応するデフォルト位置からオフセットされた位置に位置決めされるときに、
    i)前記第1のフレーム内に含まれるイメージ部分を、前記環境の前記第1のモデルのセグメントに対してマッピングするのに前記第1のUVマップを使用すること、および、
    ii)前記補助フレーム内に含まれるイメージ部分を、前記第1の位置からは見えない前記環境の部分に対応する前記環境の前記第1のモデルのセグメントに対してマッピングするのに前記補助UVマップを使用すること、
    によって生成された描画されるイメージの部分を表示することを含む、請求項48に記載の方法。
  50. 前記第1のフレームを含む主コンテンツストリームと、前記補助フレームを含む補助コンテンツストリームとを含む多重化されたコンテンツストリーム内で前記第1のフレームと補助フレームとを受信することをさらに備える、請求項49に記載の方法。
  51. 前記主コンテンツストリームと前記補助コンテンツストリームとを多重化解除することをさらに備える、請求項50に記載の方法。
  52. 前記主コンテンツストリームは、前記補助コンテンツストリーム内の各フレームについてM個のフレームを含み、Mは1またはそれより大きい、請求項51に記載の方法。
  53. Mは1より大きく、
    前記補助フレームは、前記第1のフレームと前記主コンテンツストリーム内に含まれるM個のフレームのセット内の少なくとも1つの追加のフレームとに対応する遮られたイメージコンテンツを含む、請求項52に記載の方法。
  54. 前記第1のフレームおよび前記補助フレームは、符号化された形で受信され、
    前記方法は、さらに、
    イメージ描画の前に前記第1のフレームを復号するのに第1のデコーダを使用することと、
    イメージ描画の前に前記補助フレームを復号するのに前記第1のデコーダとは異なる第2のデコーダを使用することと、
    をさらに備える、
    請求項53に記載の方法。
  55. 前記補助フレームは、前記第1のフレームと、同じサイズであり、同じ個数の画素を含む、請求項52に記載の方法。
  56. 前記環境内の前記第1の位置から見える前記環境の部分に対応するセグメントを含む環境の第2のモデルを受信することと、
    前記環境内の前記第1の位置からは見えない前記環境の遮られた部分に対応するセグメントに関する情報を提供する補助環境モデル情報を受信することと、
    環境の前記第1のモデルを生成するために環境の前記第2のモデルを変更するのに前記補助環境モデル情報を使用することと、ここで、環境の前記第1のモデルは、前記環境の遮られた部分に対応するセグメントと、前記環境の遮られない部分に対応するセグメントとを含む、
    をさらに備える、請求項48に記載の方法。
  57. コンテンツ再生装置であって、
    環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツを含む第1のフレームを受信するため、および、前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツを含む補助フレームを受信するための受信器と、
    受信されたフレームを記憶するためのメモリと、
    プロセッサであって、
    ユーザの頭の位置を検出し、
    検出された前記頭の位置に応じて、前記環境の部分のイメージをディスプレイに出力する
    ように構成されたプロセッサと、
    を備えるコンテンツ再生装置。
  58. 前記プロセッサは、ディスプレイに出力することの一部として、
    前記ユーザの前記頭の位置がデフォルト位置に対応するときに前記第1の位置から見える前記環境の部分に対応するイメージ部分を出力し、
    前記ユーザの前記頭の位置が、前記第1の位置からオフセットされた位置に対応するときに、前記第1の位置からは見えない前記環境の少なくともいくつかの部分に対応するイメージ部分を出力する
    ように構成される、請求項57に記載のコンテンツ再生装置。
  59. 前記受信器は、また、
    前記第1の位置から見える前記環境の部分に対応する前記環境の第1のモデルのセグメントに対する、遮られないイメージコンテンツを含む前記第1のフレームの部分間のマッピングを示す第1のUVマップを受信し、
    前記第1の位置からは見えない前記環境の部分に対応する前記環境の前記第1のモデルのセグメントに対する、遮られたイメージコンテンツを含む前記補助フレームの部分間のマッピングを示す補助UVマップを受信する
    ためのものでもある、請求項57に記載のコンテンツ再生装置。
  60. コンピュータが読み取り可能な一時的でない媒体であって、
    コンテンツ再生装置のプロセッサによって実行されるときに、
    環境内の第1の位置から見える環境の部分に対応する遮られないイメージコンテンツを含む第1のフレームを受信するステップと、
    前記第1の位置からは見えない前記環境の部分に対応する遮られたイメージコンテンツを含む補助フレームを受信するステップと、
    ユーザの頭の位置を検出するステップと、
    検出された前記頭の位置に応じて、前記環境の部分のイメージをディスプレイに出力するステップと、
    を実行するように前記コンテンツ再生装置を制御する、コンピュータが実行可能な命令をその上に記憶されたコンピュータが読み取り可能な一時的でない媒体。
JP2017546157A 2015-03-01 2016-03-01 コンテンツの生成、送信、および/または、再生をサポートするための方法および装置 Pending JP2018507650A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562126709P 2015-03-01 2015-03-01
US201562126701P 2015-03-01 2015-03-01
US62/126,709 2015-03-01
US62/126,701 2015-03-01
US201562127215P 2015-03-02 2015-03-02
US62/127,215 2015-03-02
PCT/US2016/020299 WO2016140986A1 (en) 2015-03-01 2016-03-01 Methods and apparatus for supporting content generation, transmission and/or playback

Publications (1)

Publication Number Publication Date
JP2018507650A true JP2018507650A (ja) 2018-03-15

Family

ID=56798339

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017546168A Pending JP2018514968A (ja) 2015-03-01 2016-03-01 3d画像レンダリングにおいて環境測定を行うための、及び/又は、このような測定を使用するための方法及び装置
JP2017546157A Pending JP2018507650A (ja) 2015-03-01 2016-03-01 コンテンツの生成、送信、および/または、再生をサポートするための方法および装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017546168A Pending JP2018514968A (ja) 2015-03-01 2016-03-01 3d画像レンダリングにおいて環境測定を行うための、及び/又は、このような測定を使用するための方法及び装置

Country Status (7)

Country Link
US (9) US10033995B2 (ja)
EP (2) EP3266199B1 (ja)
JP (2) JP2018514968A (ja)
KR (1) KR20170127505A (ja)
CN (2) CN107430446A (ja)
CA (1) CA2977113A1 (ja)
WO (2) WO2016140986A1 (ja)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11277598B2 (en) * 2009-07-14 2022-03-15 Cable Television Laboratories, Inc. Systems and methods for network-based media processing
US9958843B2 (en) * 2012-11-07 2018-05-01 Hitachi, Ltd. System and program for managing management target system
TWI527434B (zh) * 2014-03-21 2016-03-21 國立臺灣大學 利用光場相機產生立體影像的方法及光場相機
CN106464785A (zh) 2014-05-20 2017-02-22 奈克斯特Vr股份有限公司 包括或用于一个或多个照相机的装置和方法
US10531071B2 (en) 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
US9832449B2 (en) 2015-01-30 2017-11-28 Nextvr Inc. Methods and apparatus for controlling a viewing position
US10362290B2 (en) 2015-02-17 2019-07-23 Nextvr Inc. Methods and apparatus for processing content based on viewing information and/or communicating content
KR102533555B1 (ko) 2015-02-17 2023-05-18 네버마인드 캐피탈 엘엘씨 감축된 해상도 이미지들을 생성 및 이용하고 및/또는 재생 또는 컨텐트 분배 디바이스에 이러한 이미지들을 통신하기 위한 방법들 및 장치
US9894350B2 (en) 2015-02-24 2018-02-13 Nextvr Inc. Methods and apparatus related to capturing and/or rendering images
CA2977113A1 (en) 2015-03-01 2016-09-09 Nextvr Inc. Methods and apparatus for making environmental measurements and/or using such measurements in 3d image rendering
US10368104B1 (en) * 2015-04-01 2019-07-30 Rockwell Collins, Inc. Systems and methods for transmission of synchronized physical and visible images for three dimensional display
US9930315B2 (en) 2015-04-29 2018-03-27 Lucid VR, Inc. Stereoscopic 3D camera for virtual reality experience
US10066933B2 (en) * 2015-05-04 2018-09-04 Facebook, Inc. Camera depth mapping using structured light patterns
US10785393B2 (en) 2015-05-22 2020-09-22 Facebook, Inc. Methods and devices for selective flash illumination
US9836845B2 (en) 2015-08-25 2017-12-05 Nextvr Inc. Methods and apparatus for detecting objects in proximity to a viewer and presenting visual representations of objects in a simulated environment
US10706621B2 (en) * 2015-11-30 2020-07-07 Photopotech LLC Systems and methods for processing image information
US11217009B2 (en) 2015-11-30 2022-01-04 Photopotech LLC Methods for collecting and processing image information to produce digital assets
US10210660B2 (en) * 2016-04-06 2019-02-19 Facebook, Inc. Removing occlusion in camera views
US10257501B2 (en) 2016-04-06 2019-04-09 Facebook, Inc. Efficient canvas view generation from intermediate views
CN107316273B (zh) * 2016-04-27 2021-05-18 深圳看到科技有限公司 全景图像采集装置及采集方法
US10298819B2 (en) 2016-07-20 2019-05-21 Nextvr Inc. Camera apparatus and methods which allow for filters to be used
US20180032638A1 (en) * 2016-07-27 2018-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Surface Analysis Systems and Methods of Generating a Comparator Surface Reference Model of a Multi-Part Assembly Using the Same
US10200672B2 (en) 2016-08-17 2019-02-05 Nextvr Inc. Methods and apparatus for capturing images of an environment
WO2018063957A1 (en) * 2016-09-30 2018-04-05 Silver VR Technologies, Inc. Methods and systems for virtual reality streaming and replay of computer video games
US10325391B2 (en) * 2016-11-21 2019-06-18 Qualcomm Incorporated Oriented image stitching for spherical image content
EP3545675A4 (en) * 2016-11-24 2020-07-01 The University of Washington CAPTURE AND RESTITUTION OF LIGHT FIELD FOR HEADSETS
CN206523701U (zh) * 2016-12-30 2017-09-26 深圳市大疆创新科技有限公司 可穿戴设备
US11252391B2 (en) 2017-03-06 2022-02-15 Nevermind Capital Llc Methods and apparatus for packing images into a frame and/or including additional content or graphics
US10567733B2 (en) 2017-03-06 2020-02-18 Nextvr Inc. Methods and apparatus for communicating and/or using frames including a captured image and/or including additional image content
US10742964B2 (en) 2017-04-04 2020-08-11 Nextvr Inc. Methods and apparatus for displaying images
US10509947B1 (en) 2017-04-11 2019-12-17 Zoox, Inc. Converting multi-dimensional data for image analysis
US10593042B1 (en) * 2017-04-11 2020-03-17 Zoox, Inc. Perspective conversion for multi-dimensional data analysis
US10777018B2 (en) * 2017-05-17 2020-09-15 Bespoke, Inc. Systems and methods for determining the scale of human anatomy from images
US10255949B2 (en) * 2017-05-31 2019-04-09 Verizon Patent And Licensing Inc. Methods and systems for customizing virtual reality data
US11176098B2 (en) * 2017-06-01 2021-11-16 Edx Technologies, Inc. Methods and systems for providing customized virtual and augmented realities
US10304251B2 (en) * 2017-06-15 2019-05-28 Microsoft Technology Licensing, Llc Virtually representing spaces and objects while maintaining physical properties
GB2563895B (en) * 2017-06-29 2019-09-18 Sony Interactive Entertainment Inc Video generation method and apparatus
CN107506236A (zh) * 2017-09-01 2017-12-22 上海智视网络科技有限公司 显示设备及其显示方法
US10460509B2 (en) * 2017-11-07 2019-10-29 Dolby Laboratories Licensing Corporation Parameterizing 3D scenes for volumetric viewing
WO2019118617A1 (en) * 2017-12-15 2019-06-20 Pcms Holdings, Inc. A method for using viewing paths in navigation of 360° videos
CA3033605C (en) * 2018-02-14 2021-11-23 Aaron Derouin Three-dimensional visual target acquisition systems
US10652567B2 (en) * 2018-03-28 2020-05-12 Apple Inc. Applications for decoder-side modeling of objects identified in decoded video data
US10735709B2 (en) 2018-04-04 2020-08-04 Nextvr Inc. Methods and apparatus for capturing, processing and/or communicating images
US10586343B1 (en) * 2018-06-01 2020-03-10 Facebook Technologies, Llc 3-d head mounted display based environmental modeling system
CN108616743B (zh) * 2018-06-04 2019-12-31 盎锐(上海)信息科技有限公司 用于生成3d模型的成像装置及方法
EP3588249A1 (en) 2018-06-26 2020-01-01 Koninklijke Philips N.V. Apparatus and method for generating images of a scene
US10861249B2 (en) * 2018-07-27 2020-12-08 The Q Digital Technologies, Inc. Methods and system for manipulating digital assets on a three-dimensional viewing platform
US11557060B2 (en) * 2018-11-05 2023-01-17 Wayfair Llc Systems and methods for scanning three-dimensional objects
CN109379579B (zh) * 2018-11-20 2020-03-17 四川长虹电器股份有限公司 一种实时采集光场真三维数据的处理方法
CN110059151B (zh) * 2019-04-26 2022-10-25 北京百度网讯科技有限公司 地图渲染方法、地图渲染装置、地图服务器和存储介质
CN110266955B (zh) * 2019-06-28 2021-01-26 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备以及存储介质
WO2021019723A1 (ja) * 2019-07-31 2021-02-04 日本電信電話株式会社 複合現実空間共有システム、共有情報管理サーバ、複合現実端末、複合現実空間共有方法および共有情報管理プログラム
CN111028350B (zh) * 2019-11-21 2022-05-20 大连理工大学 一种利用双目立体相机构建栅格地图的方法
WO2021108913A1 (en) * 2019-12-04 2021-06-10 Studio Thinkwell Montréal Inc. Video system, method for calibrating the video system and method for capturing an image using the video system
CN110996087B (zh) * 2019-12-10 2021-04-02 腾讯科技(深圳)有限公司 视频显示方法、装置
US11710247B2 (en) 2020-01-30 2023-07-25 Unity Technologies Sf System for image compositing including training with synthetic data
US11676252B2 (en) 2020-01-31 2023-06-13 Unity Technologies Sf Image processing for reducing artifacts caused by removal of scene elements from images
US20210274091A1 (en) 2020-02-28 2021-09-02 Weta Digital Limited Reconstruction of obscured views of captured imagery using arbitrary captured inputs
US11694313B2 (en) 2020-02-28 2023-07-04 Unity Technologies Sf Computer-generated image processing including volumetric scene reconstruction
US20210274092A1 (en) 2020-02-28 2021-09-02 Weta Digital Limited Reconstruction of obscured views in captured imagery using pixel replacement from secondary imagery
US11369874B2 (en) * 2020-04-29 2022-06-28 Lenovo (Singapore) Pte. Ltd. Rendering video game on display device using GPU in display device and video game data from second device
US11393179B2 (en) 2020-10-09 2022-07-19 Open Space Labs, Inc. Rendering depth-based three-dimensional model with integrated image frames
US11776210B2 (en) * 2021-01-22 2023-10-03 Sony Group Corporation 3D face modeling based on neural networks
KR20230079618A (ko) * 2021-11-29 2023-06-07 삼성전자주식회사 인체를 3차원 모델링하는 방법 및 장치
KR102421512B1 (ko) * 2022-03-14 2022-07-15 정현인 휴대용 입체촬영 카메라 및 시스템

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5187571A (en) * 1991-02-01 1993-02-16 Bell Communications Research, Inc. Television system for displaying multiple views of a remote location
US6111582A (en) 1996-12-20 2000-08-29 Jenkins; Barry L. System and method of image generation and encoding using primitive reprojection
US5963203A (en) * 1997-07-03 1999-10-05 Obvious Technology, Inc. Interactive video icon with designated viewing position
US6573907B1 (en) * 1997-07-03 2003-06-03 Obvious Technology Network distribution and management of interactive video and multi-media containers
US6262737B1 (en) * 1998-01-30 2001-07-17 University Of Southern California 3D mesh compression and coding
US6445398B1 (en) * 1998-02-04 2002-09-03 Corporate Media Partners Method and system for providing user interface for electronic program guide
US6476806B1 (en) * 1999-04-16 2002-11-05 Hewlett-Packard Company Method and apparatus for performing occlusion testing while exploiting frame to frame temporal coherence
US6574360B1 (en) * 1999-07-23 2003-06-03 International Business Machines Corp. Accelerated occlusion culling using directional discretized occluders and system therefore
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6970591B1 (en) * 1999-11-25 2005-11-29 Canon Kabushiki Kaisha Image processing apparatus
US6990228B1 (en) 1999-12-17 2006-01-24 Canon Kabushiki Kaisha Image processing apparatus
US6664961B2 (en) * 2000-12-20 2003-12-16 Rutgers, The State University Of Nj Resample and composite engine for real-time volume rendering
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US20020196250A1 (en) * 2001-06-20 2002-12-26 Gateway, Inc. Parts assembly for virtual representation and content creation
US6982715B2 (en) * 2002-07-26 2006-01-03 Intel Corporation Mesh compression process
CN100416613C (zh) * 2002-09-29 2008-09-03 西安交通大学 计算机网络环境智能化场景绘制装置系统及绘制处理方法
US7348989B2 (en) * 2003-03-07 2008-03-25 Arch Vision, Inc. Preparing digital images for display utilizing view-dependent texturing
EP1587035A1 (en) 2004-04-14 2005-10-19 Koninklijke Philips Electronics N.V. Ghost artifact reduction for rendering 2.5D graphics
GB2415344B (en) * 2004-06-14 2010-10-06 Canon Europa Nv Texture data compression and rendering in 3D computer graphics
GB2445008B (en) 2006-12-20 2008-12-31 Sony Comp Entertainment Europe Image compression and/or decompression
KR100914846B1 (ko) 2007-12-15 2009-09-02 한국전자통신연구원 2차원 환경에서 3차원 모델의 텍스쳐 맵 제작 방법 및시스템
JP2010028456A (ja) * 2008-07-18 2010-02-04 Sony Corp データ構造、再生装置および方法、並びにプログラム
MY155378A (en) 2008-07-24 2015-10-15 Koninkl Philips Electronics Nv Versatile 3-d picture format
KR101502362B1 (ko) 2008-10-10 2015-03-13 삼성전자주식회사 영상처리 장치 및 방법
US8451320B1 (en) 2009-01-23 2013-05-28 Next3D, Inc. Methods and apparatus for stereoscopic video compression, encoding, transmission, decoding and/or decompression
CN102318352B (zh) 2009-02-17 2014-12-10 皇家飞利浦电子股份有限公司 组合3d图像和图形数据
US8896592B2 (en) * 2009-08-21 2014-11-25 Align Technology, Inc. Digital dental modeling
US8610757B2 (en) 2009-08-24 2013-12-17 Next3D, Inc. Stereoscopic video encoding and decoding methods and apparatus
CN101661623B (zh) * 2009-10-21 2012-04-25 上海交通大学 基于线性规划的变形体三维跟踪方法
KR101313797B1 (ko) 2009-12-18 2013-10-01 한국전자통신연구원 머리 위치 추적을 이용한 입체 영상 표시 장치 및 이의 동작 방법
CN101794462A (zh) * 2010-03-12 2010-08-04 中山大学 一种基于纹理的三维网格模型变形方法及系统
US8896671B2 (en) * 2010-04-09 2014-11-25 3D-4U, Inc. Apparatus and method for capturing images
CN103080984B (zh) 2010-06-30 2017-04-12 巴里·林恩·詹金斯 确定从视区看去可见的网格多边形或所述网格多边形的分段的集合的方法及系统
GB2483434A (en) * 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
US8332900B2 (en) * 2010-12-01 2012-12-11 At&T Intellectual Property I, L.P. Method and system for performance metric analysis of video assets
US10109065B2 (en) 2011-01-25 2018-10-23 Qualcomm Incorporated Using occlusions to detect and track three-dimensional objects
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US9485494B1 (en) 2011-04-10 2016-11-01 Nextvr Inc. 3D video encoding and decoding methods and apparatus
US9407902B1 (en) 2011-04-10 2016-08-02 Nextvr Inc. 3D video encoding and decoding methods and apparatus
TR201819457T4 (tr) 2011-06-22 2019-01-21 Koninklijke Philips Nv Bir sunum ekranı için bir sinyal oluşturmak üzere yöntem ve cihaz.
CN103988226B (zh) * 2011-08-31 2017-09-26 Metaio有限公司 用于估计摄像机运动以及用于确定实境三维模型的方法
US20130129304A1 (en) * 2011-11-22 2013-05-23 Roy Feinson Variable 3-d surround video playback with virtual panning and smooth transition
US9204127B1 (en) 2012-01-17 2015-12-01 Nextvr Inc. Stereoscopic image processing methods and apparatus
CN102625126B (zh) * 2012-03-22 2014-10-15 北京工业大学 一种基于预测的三维网格编码方法
ITTO20120413A1 (it) 2012-05-08 2013-11-09 Sisvel Technology Srl Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione.
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
MX2013014965A (es) * 2012-05-24 2014-04-02 Panasonic Corp Dispositivo de recepcion, dispositivo de transmision, metodo de recepcion, y metodo de transmision.
US9621869B2 (en) 2012-05-24 2017-04-11 Sony Corporation System and method for rendering affected pixels
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
EP2670130B1 (en) * 2012-06-01 2019-03-27 Alcatel Lucent Method and apparatus for mixing a first video signal and a second video signal
US9059495B2 (en) 2012-06-05 2015-06-16 Jorge A. Ruiz-Cruz Compact multiport waveguide switches
US20140063198A1 (en) * 2012-08-30 2014-03-06 Microsoft Corporation Changing perspectives of a microscopic-image device based on a viewer' s perspective
GB2499694B8 (en) * 2012-11-09 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of image reconstruction
US20140172678A1 (en) 2012-12-14 2014-06-19 Craig Alan Stephens Institution simulation
US20140172689A1 (en) * 2012-12-14 2014-06-19 Rawllin International Inc. Fungible monetization of media
US10116911B2 (en) * 2012-12-18 2018-10-30 Qualcomm Incorporated Realistic point of view video method and apparatus
RU2546080C2 (ru) * 2012-12-25 2015-04-10 Пётр Павлович Кузнецов Способ визуализации функционального состояния индивида и система для реализации способа
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
EP2946551A4 (en) * 2013-01-15 2016-09-07 Imax Corp METHOD AND SYSTEM FOR MULTIPLEXING IMAGE FRAMES
US9336602B1 (en) * 2013-02-19 2016-05-10 Amazon Technologies, Inc. Estimating features of occluded objects
US9538160B1 (en) 2013-04-11 2017-01-03 Nextvr Inc. Immersive stereoscopic video acquisition, encoding and virtual reality playback methods and apparatus
US9536453B2 (en) 2013-05-03 2017-01-03 Brigham Young University Computer-implemented communication assistant for the hearing-impaired
US9424650B2 (en) * 2013-06-12 2016-08-23 Disney Enterprises, Inc. Sensor fusion for depth estimation
US9239436B2 (en) 2013-11-26 2016-01-19 Corning Cable Systems Llc Fiber optic plug having an articulated force structure to inhibit angular ferrule biasing during insertion into an optical receptacle, and related assemblies and methods
US20150172550A1 (en) 2013-12-16 2015-06-18 Motorola Mobility Llc Display tiling for enhanced view modes
US20150199572A1 (en) * 2014-01-16 2015-07-16 Qualcomm Incorporated Object tracking using occluding contours
CN104008569B (zh) * 2014-02-24 2016-03-02 惠州学院 一种基于深度视频的3d场景生成方法
US9699437B2 (en) 2014-03-03 2017-07-04 Nextvr Inc. Methods and apparatus for streaming content
US9779331B2 (en) * 2014-04-24 2017-10-03 Conduent Business Services, Llc Method and system for partial occlusion handling in vehicle tracking using deformable parts model
US20150310660A1 (en) * 2014-04-25 2015-10-29 Sony Computer Entertainment America Llc Computer graphics with enhanced depth effect
US9996976B2 (en) * 2014-05-05 2018-06-12 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
US9496000B2 (en) 2014-05-16 2016-11-15 Comcast Cable Communications, Llc Audio modification for adjustable playback rate
CN106464785A (zh) 2014-05-20 2017-02-22 奈克斯特Vr股份有限公司 包括或用于一个或多个照相机的装置和方法
US9918136B2 (en) 2014-05-29 2018-03-13 Nextvr Inc. Methods and apparatus for delivering content and/or playing back content
WO2016023519A1 (en) 2014-08-15 2016-02-18 Mediatek Inc. Method for managing multi-channel memory device to have improved channel switch response time and related memory control system
JP2017535985A (ja) 2014-09-03 2017-11-30 ネクストブイアール・インコーポレイテッド コンテンツを取り込み、ストリーミングし、および/または、再生するための方法および装置
JP2017532847A (ja) * 2014-09-09 2017-11-02 ノキア テクノロジーズ オーユー 立体録画及び再生
US10531071B2 (en) 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
US11218682B2 (en) 2015-01-21 2022-01-04 Nevermind Capital Llc Methods and apparatus for processing and or encoding images with negative parallax
EP3308215A2 (en) 2015-01-28 2018-04-18 NEXTVR Inc. Zoom related methods and apparatus
US9832449B2 (en) 2015-01-30 2017-11-28 Nextvr Inc. Methods and apparatus for controlling a viewing position
WO2016130997A1 (en) 2015-02-12 2016-08-18 Nextvr Inc. Methods and apparatus for making environmental measurements and/or using such measurements
US10362290B2 (en) 2015-02-17 2019-07-23 Nextvr Inc. Methods and apparatus for processing content based on viewing information and/or communicating content
KR102533555B1 (ko) 2015-02-17 2023-05-18 네버마인드 캐피탈 엘엘씨 감축된 해상도 이미지들을 생성 및 이용하고 및/또는 재생 또는 컨텐트 분배 디바이스에 이러한 이미지들을 통신하기 위한 방법들 및 장치
US9894350B2 (en) 2015-02-24 2018-02-13 Nextvr Inc. Methods and apparatus related to capturing and/or rendering images
EP3262614B1 (en) 2015-02-24 2018-12-12 NEXTVR Inc. Calibration for immersive content systems
CA2977113A1 (en) 2015-03-01 2016-09-09 Nextvr Inc. Methods and apparatus for making environmental measurements and/or using such measurements in 3d image rendering
US9821920B2 (en) 2015-08-18 2017-11-21 Nextvr Inc. Methods and apparatus for compensating for vehicular motion
US9836845B2 (en) 2015-08-25 2017-12-05 Nextvr Inc. Methods and apparatus for detecting objects in proximity to a viewer and presenting visual representations of objects in a simulated environment
WO2018014014A1 (en) 2016-07-15 2018-01-18 Nextvr Inc. Camera alignment and/or calibration methods and apparatus
US10298819B2 (en) 2016-07-20 2019-05-21 Nextvr Inc. Camera apparatus and methods which allow for filters to be used
US10200672B2 (en) 2016-08-17 2019-02-05 Nextvr Inc. Methods and apparatus for capturing images of an environment
US20180225537A1 (en) 2017-02-08 2018-08-09 Nextvr Inc. Methods and apparatus relating to camera switching and/or making a decision to switch between cameras
US20180249189A1 (en) 2017-02-08 2018-08-30 Nextvr Inc. Methods and apparatus for use in a system or device where switching between cameras may occur
US10567733B2 (en) 2017-03-06 2020-02-18 Nextvr Inc. Methods and apparatus for communicating and/or using frames including a captured image and/or including additional image content
US11252391B2 (en) 2017-03-06 2022-02-15 Nevermind Capital Llc Methods and apparatus for packing images into a frame and/or including additional content or graphics
US20180280656A1 (en) 2017-03-28 2018-10-04 Nextvr Inc. Virtual reality methods and apparatus which use or include brain activity sensors
US10742964B2 (en) 2017-04-04 2020-08-11 Nextvr Inc. Methods and apparatus for displaying images

Also Published As

Publication number Publication date
US20160253809A1 (en) 2016-09-01
US11272150B2 (en) 2022-03-08
US11870967B2 (en) 2024-01-09
CA2977113A1 (en) 2016-09-09
US20190082159A1 (en) 2019-03-14
US20190082158A1 (en) 2019-03-14
WO2016140934A3 (en) 2016-10-27
US10038889B2 (en) 2018-07-31
US10701331B2 (en) 2020-06-30
US10742948B2 (en) 2020-08-11
US20160253810A1 (en) 2016-09-01
EP3266199A1 (en) 2018-01-10
US10574962B2 (en) 2020-02-25
US20160255327A1 (en) 2016-09-01
US20200404236A1 (en) 2020-12-24
US20160255326A1 (en) 2016-09-01
EP3265999A4 (en) 2018-08-22
EP3265999A2 (en) 2018-01-10
US20160253839A1 (en) 2016-09-01
EP3266199B1 (en) 2019-09-18
JP2018514968A (ja) 2018-06-07
EP3266199A4 (en) 2018-07-18
KR20170127505A (ko) 2017-11-21
WO2016140934A2 (en) 2016-09-09
US10397538B2 (en) 2019-08-27
WO2016140986A1 (en) 2016-09-09
CN107431801A (zh) 2017-12-01
CN107430446A (zh) 2017-12-01
US10033995B2 (en) 2018-07-24
US20220191452A1 (en) 2022-06-16

Similar Documents

Publication Publication Date Title
US11870967B2 (en) Methods and apparatus for supporting content generation, transmission and/or playback
US11924394B2 (en) Methods and apparatus for receiving and/or using reduced resolution images