TW201921918A - 影像處理裝置及檔案生成裝置 - Google Patents

影像處理裝置及檔案生成裝置 Download PDF

Info

Publication number
TW201921918A
TW201921918A TW107131109A TW107131109A TW201921918A TW 201921918 A TW201921918 A TW 201921918A TW 107131109 A TW107131109 A TW 107131109A TW 107131109 A TW107131109 A TW 107131109A TW 201921918 A TW201921918 A TW 201921918A
Authority
TW
Taiwan
Prior art keywords
preamble
field
stream
depth
texture
Prior art date
Application number
TW107131109A
Other languages
English (en)
Inventor
高橋遼平
平林光浩
勝股充
浜田俊也
Original Assignee
日商索尼股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日商索尼股份有限公司 filed Critical 日商索尼股份有限公司
Publication of TW201921918A publication Critical patent/TW201921918A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本技術係有關於可適切地再生BV內容的影像處理裝置及檔案生成裝置。   一種影像處理裝置,係具備:檔案取得部,係取得檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在管理領域中係被儲存有:用來在構成3D物件內容的複數串流之中,選擇出對3D物件內容之再生而言為適切之串流所需之群組資訊;和檔案處理部,係基於群組資訊,來選擇3D物件內容之再生時所使用的複數串流。本技術係可適用於客戶端裝置。

Description

影像處理裝置及檔案生成裝置
本技術係有關於影像處理裝置及檔案生成裝置,尤其是有關於能夠再生3D物件內容的影像處理裝置及檔案生成裝置。
先前,一種被稱為鳥瞰內容(以下稱作BV(Birdview)內容)的內容,已為人知。
BV內容,係藉由將空間做3維性捕捉的技術也就是Volumetric Capturing所生成的3D模型。該3D模型,係使用例如頭戴式顯示器,就可進行周圍環顧觀賞。
此種BV內容係由複數BV串流所構成,BV串流係以紋理(texture)、網格(mesh)、及景深(depth)之3種類的資訊之組合而被編碼。
此處,網格或景深,係均為構成3D形狀所需之資料,藉由對該3D形狀貼上紋理,而構成3D模型。尤其是,3D模型係可藉由使用紋理和景深、或紋理和網格,來加以構成。甚至也可使用紋理、網格、及景深來構成3D模型。
在觀賞BV內容時,能夠滑順地環顧3D模型之周圍的觀賞體驗,最為重要。
順便一提,關於BV內容往ISOBMFF(ISO Base Media File Format)(例如參照非專利文獻1)的儲存,係將BV串流儲存在1個track(訊軌)、或複數個track中,並進行群組化的方法,已經在ISO/IEC 14496-15中有被規定。
此時,紋理或景深係以ISO/IEC 14496-10中所被規定之MVC(Multiview Video Coding) with depth、3D AVC(Advanced Video Coding)、或ISO/IEC 23008-2中所被規定之MV(Multiview) HEVC(High Efficiency Video Coding)、3D HEVC,而被編碼。 [先前技術文獻] [非專利文獻]
[非專利文獻1] ISO/IEC 14496-12 Information technology - Coding of audio-visual objects - P art12: ISO base media file format
[發明所欲解決之課題]
然而,在現時點的市面上的解碼器中,MVC with depth或MV HEVC等,一般並不支援。
因此,以HEVC或AVC這類一般的編解碼器來將紋理或景深予以編碼並進行運用,即使是泛用的解碼器也能夠將BV串流予以解碼,藉此以擴大可再生BV內容的客戶端的市占率,是被人們所期望。
在現況下,將HEVC或AVC使用於紋理或景深的編碼時,將BV串流儲存至track並予以群組化的方法並未被定義,無法讓客戶端來選擇對BV內容觀賞而言為適切的BV串流所被儲存的track。亦即,客戶端無法得知,在構成BV內容的複數BV串流之中,為了再生BV內容而必須的適切的BV串流之組合。
如以上,欲將紋理或景深以一般的解碼器所支援的HEVC或AVC來加以編碼,則無法選擇BV內容之再生所需之適切的BV串流所被儲存的track。換言之,無法適切地再生BV內容。
本技術係有鑑於此種狀況而研發,其目的在於,能夠適切地再生BV內容。 [用以解決課題之手段]
本技術之第1側面的影像處理裝置,係具備:檔案取得部,係取得檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊;和檔案處理部,係基於前記群組資訊,來選擇前記3D物件內容之再生時所使用的複數前記串流。
在本技術的第1側面中,具有用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊的檔案,會被取得;基於前記群組資訊,前記3D物件內容之再生時所使用的複數前記串流會被選擇。
本技術之第2側面的檔案生成裝置,係具備:檔案生成部,係生成檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊。
在本技術的第2側面中,具有用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊的檔案,會被生成。 [發明效果]
若依據本技術的第1側面及第2側面,則可適切地再生BV內容。
此外,並非一定限定於這裡所記載的效果,亦可為本揭露中所記載之任一效果。
以下,參照圖式,說明適用了本技術的實施形態。
〈第1實施形態〉 〈關於本技術〉   本技術係藉由將構成BV內容所必須之BV串流予以群組化,對客戶端告知對BV內容之再生而言為適切的BV串流之組合,藉此而可適切地再生BV內容。
尤其是,本技術係可適用於,使用到MPEG-DASH的BV內容再生、或ISOBMFF(ISO Base Media File Format)之檔案中的BV內容再生等。
例如在本技術中,藉由將MPD(Media Presentation Description)檔案予以擴充,使用MPEG-DASH來配送BV內容的情況下,可將參照構成BV內容的BV串流的Adaptation Set予以群組化。藉此,使用MPEG-DASH來配送BV內容的情況下,也是可以基於MPD檔案而讓客戶端得知對BV內容之再生而言為適切的BV串流之組合,可適切地再生BV內容。
又,在本技術中,係在使用MPEG-DASH來配送BV內容的情況下,藉由MPD檔案中的新的後設資料定義,亦即後述的descriptor等,而可隨應於傳輸頻帶或使用者之視野等,進行BV內容的高畫質化。
甚至,例如在本技術中是藉由將ISOBMFF予以擴充,在將構成BV內容的BV串流儲存至ISOBMFF的track(訊軌)之際,可將構成BV內容的track予以群組化。藉此,即使在用ISOBMFF的檔案來再生BV內容的情況下,仍可適切地再生BV內容。
除此以外,在本技術中,將BV串流儲存至ISOBMFF之track之際,可將複數BV串流儲存成1個track。
於是,以下針對本技術,做更詳細地說明。首先,在第1實施形態中,係以對使用到MPEG-DASH的BV內容配訊適用了本技術的情況為例來做說明。
如上述,BV內容,係藉由將空間做3維性捕捉的技術也就是Volumetric Capturing所生成的可做周圍環顧的3D模型。換言之,BV內容係為,可將所定之3D物件,亦即物件之3D模型,從該3D模型之周圍來進行環顧的內容。
在如此的BV內容中,例如如圖1所示般地,是由紋理或網格、景深等,來構成3D模型。
在圖1所示的例子中,如箭頭Q11所示,藉由使用複數個彼此互異之視點位置的紋理、與表示3D模型之形狀的網格,就可構成3D模型MDL11。
同樣地,如箭頭Q12所示,藉由使用複數個彼此互異之視點位置的紋理、與表示3D模型之形狀的複數個彼此互異之視點位置的景深,也可以構成3D模型MDL11。
此處,紋理(紋理資訊),係為例如將空間上的所定之位置當作視點位置時作為前景的3D模型所對應之被攝體、與作為背景的被攝體是被包含作為被攝體的彩色影像之影像資訊(紋理影像)。亦即,紋理係可以說是,將3D模型之各部位的色彩加以表示的色彩資訊。在BV內容中,例如關於1個視點位置的紋理是被視為1個BV串流。
又,網格係為,例如以3D模型(物件)上的數個部位為頂點,藉由將這些頂點間連成線以表示3D模型之形狀的多邊形網格等之形狀資訊(網格資訊)。在BV內容中,1個網格是被視為1個BV串流。
再者,景深係為,將例如空間上的所定之位置當作視點位置時,表示從該視點位置,到作為前景的3D模型所對應之被攝體、或作為背景的被攝體為止之距離的一種被稱為景深地圖的景深影像(景深資訊)。該景深亦為表示3D模型之形狀的形狀資訊。在BV內容中,例如關於1個視點位置的景深是被視為1個BV串流。
只要如此使用紋理、和網格或景深,就可構成3D模型MDL11。亦即,由於可從網格或景深來建構3D模型MDL11的3D形狀,因此只要對該3D形狀之各領域藉由紋理而附加色彩資訊,就可獲得彩色的3D模型MDL11。
此外,亦可使用紋理、網格、及景深來構成(建構)3D模型MDL11。
在BV內容中,一旦3D模型MDL11被構成,則身為觀賞者的使用者,係使用例如頭戴式顯示器,就可一面改變自身的視點位置,一面從其周圍環顧3D模型MDL11。
在觀賞BV內容時,能夠滑順地環顧3D模型之周圍的觀賞體驗,最為重要。為了以MPEG-DASH配訊來實現這點,例如客戶端係必須要為了構成BV內容而預先取得適切的所有BV串流之組合。
在本技術中,係藉由對客戶端告知對BV內容之再生而言為適切的BV串流之組合,以使得客戶端能夠選擇適切的BV串流而加以取得、處理,為了達成此目的,是將構成BV內容的BV串流予以群組化(Grouping)。
以下,將已被群組化的BV串流,亦即由複數BV串流所成之BV串流之群組,亦稱為BV群組。
此處假設,BV群組中係含有至少在BV內容之再生時所必須的BV串流。換言之,假設只要使用構成BV群組的BV串流之組合,就至少可以再生BV內容。
藉由將複數BV串流整合成1個BV群組,客戶端係只要至少取得構成BV群組的BV串流,就可再生BV內容。因此,客戶端係可容易地選擇或取得用來進行滑順的周圍環顧觀賞所必須之BV串流。
此外,在本技術中係假設,藉由Volumetric Capturing而被生成的BV內容之3D模型,係被編碼成為紋理、網格、景深、剪影。亦即,作為BV串流之種類,假設至少有紋理、網格、景深、及剪影。此處,所謂剪影(剪影資訊),係為將景深影像中的作為3D模型的被攝體(物件)之領域予以表示的剪影影像。
又,以下雖然是以景深或剪影係為影像資訊的情況為例做說明,但這些景深或剪影,係只要是能夠表示3D模型之形狀或3D模型之領域的資訊即可,並不一定要是影像資訊。甚至,以下為了使得BV串流之種類較為明確,也會記載為紋理之BV串流或景深之BV串流等。
〈關於BV群組之傳訊〉   接著說明如上的BV群組之傳訊。
此處,作為具體的例子,說明由紋理與網格來構成1個BV群組的情況。
由紋理與網格來構成1個BV群組時的優點及缺點,可舉出如下的點。
(優點1)   網格相較於景深,在客戶端側的解碼器處理負荷較低
(缺點1)   網格之BV串流相較於景深之BV串流,用來構成3D形狀所必須的總大小是比較大
又,由紋理和網格所成之BV群組之例子,示於圖2。
在圖2的例子中,在空間上的3D模型(物件)之位置,係有該3D模型的網格MS1,以圍繞3D模型之周圍的方式,視點位置每錯開90度地,具有4個紋理TX1乃至紋理TX4。
然後,由網格MS1、和紋理TX1乃至紋理TX4,構成1個BV群組。藉由該構成BV群組的BV串流,就可構成構成BV內容。
此外,各紋理或網格係可隨著傳輸路的頻寬等而做高畫質化。亦即,即使是相同的紋理或網格,仍可藉由位元速率適應,隨應於頻寬而取得較高位元速率的紋理或網格,藉此就可再生較高品質的BV內容。
又,亦可只有相當於觀賞BV內容之使用者之視野的紋理,做高畫質化。例如可將3D模型中的用來顯示使用者視野內領域所必須的紋理設成較高位元速率的紋理,將3D模型中的用來顯示使用者視野外領域所必須的紋理設成較低位元速率的紋理。藉由如此設計,即使在頻寬不怎麼夠的情況下,至少關於現時點的使用者之視野是可提示高品質的BV內容。
使用MPEG-DASH來配送BV內容的情況下,在如以上的BV群組之傳訊中,只要使用用來管理BV內容所需之媒體顯示管理檔案亦即MPD檔案即可。
例如如圖3所示,假設由網格MS11、和4個紋理TX11乃至紋理TX14,構成1個BV群組。在此種情況下,該BV群組的相關資訊係只要藉由圖4所示的MPD檔案來加以傳訊即可。
此外,此處是假設,紋理或網格,係分別是以個別的single track file的方式而被儲存。亦即,假設在1個Adaptation Set中,係描述有1個紋理或網格的相關資訊。
在圖4所示的MPD檔案中,箭頭W11所示的部分係為預先選取(Preselection),在該Preselection中係描述有,由1或複數個Adaptation Set所成之1個群組的相關資訊。亦即,Preselection,係為每一BV內容(BV群組)之資訊所被儲存的領域。
箭頭W12所示的部分、箭頭W13所示的部分、箭頭W14所示的部分,係分別為1個Adaptation Set,在這些Adaptation Set中係描述有1個紋理或網格的相關資訊。亦即,此處Adaptation Set係為BV串流的相關資訊所被儲存的領域。
又,在該例子中被設成「schemeIdUri=“urn:mpeg:dash:birdview:2017”」的必備屬性(EssentialProperty)或補充屬性(SupplementalProperty),是被新定義作為鳥瞰描述元(birdview descpriptor)。
該birdview descpriptor,係含有該birdview descpriptor的Preselection或Adaptation Set,是表示其係為BV內容所相關之Preselection或Adaptation Set的資訊。
換言之,birdview descpriptor係可以說是一種資訊,其係用來表示,Preselection或Adaptation Set中所被儲存之資訊係為BV內容的相關資訊,亦即Preselection或Adaptation Set所示之內容係為BV內容這件事情。
例如箭頭W11所示的Preselection中係被設有,如箭頭A11所示般地作為birdview descpriptor的被設成「schemeIdUri=“urn:mpeg:dash:birdview:2017”」的SupplementalProperty。藉此,客戶端係可掌握,箭頭W11所示的Preselection係為BV內容所相關之Preselection這件事情。
此外,以下將接受以MPEG-DASH所配訊之內容的客戶端,特別稱之為DASH客戶端。
又,被設成「schemeIdUri=“urn:mpeg:dash:texture:2017”」的EssentialProperty或SupplementalProperty,是被新定義作為表示這是紋理所相關之Preselection或Adaptation Set這件事情的資訊也就是紋理描述元(texture descriptor)。
例如箭頭W12所示的Adaptation Set的箭頭A12所示的部分、或箭頭W13所示的Adaptation Set的箭頭A13所示的部分中係被設有,作為texture descriptor的被設成「schemeIdUri=“urn:mpeg:dash:texture:2017”」的SupplementalProperty。藉此,客戶端係可掌握,箭頭W12所示的Adaptation Set、或箭頭W13所示的Adaptation Set,係為構成BV內容之紋理所相關之Adaptation Set這件事情。
再者,被設成「schemeIdUri=“urn:mpeg:dash:mesh:2017”」的EssentialProperty或SupplementalProperty,是被新定義作為表示這是網格所相關之Preselection或Adaptation Set這件事情的資訊也就是網格描述元(mesh descriptor)。
例如箭頭W14所示的Adaptation Set的箭頭A14所示的部分中係設有,作為mesh descriptor的被設成「schemeIdUri=“urn:mpeg:dash:mesh:2017”」的EssentialProperty。藉此,客戶端係可掌握,箭頭W14所示的Adaptation Set係為構成BV內容之網格所相關之的Adaptation Set這件事情。
以下,在不需要特別區分birdview descpriptor或texture descriptor、mesh descriptor等的情況下,則亦簡稱為descriptor。又,以下,在不需要特別區分EssentialProperty與SupplementalProperty的情況下,則亦簡稱為Property。
客戶端,係藉由參照descriptor,就可識別Preselection或Adaptation Set所參照之內容或BV串流的種類。
尤其是,texture descriptor、或mesh descriptor,係可說是表示Adaptation Set所對應之BV串流之種類的資訊。
這些birdview descpriptor或texture descriptor、mesh descriptor等之各descriptor,係亦可在Representation或SubRepresentation中做傳訊。亦即,亦可在Representation內或SubRepresentation內,描述descriptor。
此外,不支援EssentialProperty的schemeIdUri的DASH客戶端,係該Property中所被撰寫的Preselection或Adaptation Set、Representation等,必須要忽視。
亦即,在EssentialProperty中描述有上述的birdview descpriptor等之descpriptor的情況下,不支援該descpriptor的DASH客戶端,係必須要忽視此種含有descpriptor所被描述之EssentialProperty的Preselection或Adaptation Set等。
另一方面,不支援SupplementalProperty的schemeIdUri的DASH客戶端,係亦可忽視該Property值,而利用其Preselection或Adaptation Set、Representation等。亦即,不支援上述之descpriptor的DASH客戶端中,也是可以忽視此種被描述有descpriptor的SupplementalProperty,而將含有被描述有descpriptor之SupplementalProperty的Preselection或Adaptation Set等,加以利用。
甚至,在圖4所示的MPD檔案中,BV群組之群組化時,會使用到被MPEG-DASH所規定的Preselection要素。
此處,藉由在箭頭W11所示的Preselection要素的preselectionComponents屬性中,記載構成BV群組的Adaptation Set之id,而進行群組化。
亦即,在此例中,箭頭W11所示的Preselection的preselectionComponents之部分是被設成「preselectionComponents=“mesh tex1 tex2 tex3 tex4”」。
此處,preselectionComponents之部分中的「mesh」、「tex1」、「tex2」、「tex3」、及「tex4」,係為構成1個BV群組的BV串流所相關之Adaptation Set之id。
因此可知,藉由id為mesh的Adaptation Set、id為tex1的Adaptation Set、id為tex2的Adaptation Set、id為tex3的Adaptation Set、及id為tex4的Adaptation Set,構成了1個BV群組。更詳言之,由這些Adaptation Set所對應之BV串流,構成了1個BV群組。
在此例中,包含箭頭W12所示的Adaptation Set、箭頭W13所示的Adaptation Set、箭頭W14所示的Adaptation Set的5個Adaptation Set,係為構成1個BV群組的BV串流的Adaptation Set。
例如箭頭W14所示的,id為mesh的Adaptation Set,係為圖3的網格MS11之BV串流的相關資訊所被描述的Adaptation Set。
又,箭頭W12所示的,id為tex1的Adaptation Set,係為圖3的紋理TX11之BV串流的相關資訊所被描述的Adaptation Set。
同樣地,id為tex2乃至tex4的Adaptation Set之每一者,係分別為圖3的紋理TX12乃至紋理TX14之BV串流的相關資訊所被描述的Adaptation Set。
如此在MPD檔案的Preselection中係含有,將含有該Preselection所對應之構成1個BV群組的紋理或網格的相關資訊的Adaptation Set加以表示的,這些Adaptation Set之id。
Preselection,係為表示BV群組中所屬之BV串流,亦即構成同一3D模型所需之複數BV串流的群組資訊。
因此,在圖4的例子中,DASH客戶端係藉由參照Preselection,就可特定出,是如圖3所示般地,由1個網格MS11、和4個紋理TX11乃至紋理TX14來構成1個BV群組這件事情。
又,DASH客戶端係藉由參照Preselection、和各Adaptation Set之id,就可將構成BV群組的網格MS11或紋理TX11等的相關資訊所被描述的Adaptation Set,加以特定。
由以上可知,客戶端係在取得BV內容之際藉由參具有「schemeIdUri=“urn:mpeg:dash:birdview:2017”」之Property的Preselection要素的preselectionComponents屬性,就可容易選擇並取得BV內容之顯示(再生)時所必須之Adaptation Set。
又,關於紋理或網格的各Adaptation Set,可隨著傳輸路的頻寬而分別變更畫質。例如頻寬有餘裕時,藉由取得可較高畫質的紋理或網格之BV串流,就可將BV內容進行高畫質化。
亦即,Adaptation Set中係含有複數Representation。然後,在這些複數Representation之每一者中係描述有,雖然是相同的紋理或網格,但為複數種不同的位元速率,亦即複數種不同畫質的紋理或網格所相關之BV串流之每一者的相關資訊。
因此,客戶端係可從1個Adaptation Set中所含之複數Representation之中,隨應於傳輸路的頻寬等而選擇出1個Representation,取得該所選擇之Representation所對應之BV串流,就可獲得任意畫質的BV串流。
然後在圖4所示的例子中,被設成「schemeIdUri=“urn:mpeg:dash:bvcoverage:2017”」的schemeIdUri的EssentialProperty或SupplementalProperty,被新定義作為鳥瞰涵蓋範圍描述元(birdview coverage descriptor)。
該birdview coverage descriptor,係為表示Preselection或Adaptation Set中所被描述之資訊,亦即BV內容或紋理、網格等之可顯示領域的可顯示領域資訊。在圖4中,箭頭A15乃至箭頭A18之每一者所表示的SupplementalProperty之每一者,係為birdview coverage descriptor。
例如在birdview coverage descriptor中,可顯示領域係作為從3D模型之中心觀看到的球面上領域,而被傳訊。
此處,例如關於1個紋理的可顯示領域之例子,示於圖5。此外,圖5中,和圖3對應的部份,係標示同一符號,並適宜地省略其說明。
在圖5所示的例子中,以3D模型之中心位置為中心的球SP11之表面的領域,係為球面上領域。此處,將球SP11之中心位置,記作中心O。
現在假設,在空間上配置關於3D模型的紋理TX12。此外,紋理TX12的配置位置係被設成,例如從該紋理TX12的視點位置來觀看時,紋理TX12上的3D模型所對應之被攝體、與被配置在中心O的實際之3D模型做重疊的位置。
此時,以通過中心O及紋理TX12的端部分的直線,與球SP11相交的點所成之線為交界的領域,就成了紋理TX12的可顯示領域VR11。因此,通過中心O、與紋理TX12之任意的端部分之位置的直線,係一定會通過可顯示領域VR11的端部分。
如此的可顯示領域VR11,係為將空間上所被配置的紋理TX12投影至球SP11之球面上領域時的領域,是藉由紋理TX12而可顯示出被攝體之影像的領域。
如以上的球面上領域的可顯示領域,係例如圖6的箭頭E11所示般地,球SP11之中心O、與該中心O之中心為一致的球SP11上的4個圓,所圍繞而成的領域。此外,圖6中,和圖5對應的部份,係標示同一符號,並適宜地省略其說明。
在圖6的箭頭E12所示的部分,圖5所示的可顯示領域VR11會被呈現。此處,中心O係為3D模型之中心位置,中心O’係為可顯示領域VR11之中心位置。
回到圖4的說明,被當作birdview coverage descriptor的Property的value中係含有,將該Property所被包含之Preselection或Adaptation Set所對應之BV內容或紋理、網格等的可顯示領域加以表示的座標資訊或角度資訊。
此處,例如圖7所示的各參數係被描述在變成birdview coverage descriptor的Property的value中。亦即,可顯示領域資訊之語意係如圖7所示。
具體而言,參數「x」,係表示空間上的3D模型之中心位置的x座標。此外,此處假設,3D模型之中心位置,係藉由x座標、y座標、及z座標所成之3維正交座標系的座標而被表示。
又,參數「y」,係表示空間上的3D模型之中心位置的y座標,參數「z」,係表示空間上的3D模型之中心位置的z座標。
根據這些參數x、y、及z而定的3D模型之中心位置,為圖6所示的中心O之位置。3D模型之中心位置的座標,係在有複數BV內容存在之際,在決定這些BV內容之位置關係上是有用的。
參數「center_yaw」係表示,從3D模型之中心位置觀看時的表示可顯示領域之中心位置的偏擺角(yaw角)。又,參數「center_pitch」係表示從3D模型之中心位置觀看時的表示可顯示領域之中心位置的俯仰角(pitch角),參數「center_roll」係表示從3D模型之中心位置觀看時的可顯示領域之中心位置的翻滾角(roll角)。
根據這些偏擺角、俯仰角、及翻滾角,而決定球面上領域的可顯示領域之中心位置、與該可顯示領域之朝向(旋轉角度)。
亦即,例如根據偏擺角與俯仰角而決定圖6所示的中心O’之位置,根據翻滾角而決定圖6所示的可顯示領域VR11之旋轉角度。這裡所謂的旋轉角度係為,將圖6的中心O與中心O’連結而成的直線當作旋轉軸而使可顯示領域VR11做旋轉時的旋轉角度。
再者,參數「hor_range」係表示從3D模型之中心位置觀看時的可顯示領域之水平方向角度範圍,參數「ver_range」係表示從3D模型之中心位置觀看時的可顯示領域之垂直方向角度範圍。
因此,根據這些hor_range與ver_range,而決定球面上領域的可顯示領域的水平方向之幅度與垂直方向之幅度(高度)。例如在圖6的例子中,用虛線描繪的圖6中橫方向的箭頭係表示根據hor_range所決定的可顯示領域VR11的水平方向之幅度,用虛線描繪的圖6中縱方向的箭頭係表示根據ver_range所決定的可顯示領域VR11的垂直方向之幅度。
被當作birdview coverage descriptor的Property的value中,作為表示可顯示領域的資訊,係有上述的參數x、y、z、center_yaw、center_pitch、center_roll、hor_range、及ver_range,是以逗點區隔而被描述。亦即係為「value=”x,y,z,center_yaw,center_pitch,center_roll,hor_range,ver_range”」。
例如在圖4的例子中,Preselection要素中所被傳訊的箭頭A15所示的SupplementalProperty係為birdview coverage descriptor,其value之部分係為「0,0,0,0,0,0,360,120」。
該value的「0,0,0,0,0,0,360,120」之部分係為表示BV內容本身之可顯示的領域亦即可顯示領域的資訊。
此處,由「0,0,0,0,0,0,360,120」可知,BV內容的3D模型之中心位置的座標係為(0,0,0),其可顯示領域之中心位置及朝向,係為根據偏擺角「0度」、俯仰角「0度」、及翻滾角「0度」而定的位置及朝向。又可知,該3D模型的可顯示領域之範圍,係為球面上領域的水平方向360度且垂直方向120度之範圍。
此情況下,BV內容的可顯示領域,係並沒有涵蓋到球面上領域全體,亦即垂直方向與水平方向之全方位(全周圍)。可是,即使在如此情況下,關於紋理不足的部分,亦即沒有紋理的可顯示領域外之部分,係亦可由客戶端依照實作而進行補足處理,而進行可從360度之全周圍做環顧的BV內容顯示。
又,例如圖4的箭頭A16所示的SupplementalProperty中value之部分係為「0,0,0,-90,0,0,90,120」。由此可知,該SupplementalProperty所對應之紋理的可顯示領域之範圍,係從3D模型之中心位置的座標(0,0,0)來看,以根據偏擺角「-90度」及俯仰角「0度」而定的位置為中心,而為水平方向90度且垂直方向120度之範圍。再者,可知可顯示領域的旋轉角度(翻滾角)係為0度。
如此,藉由將birdview coverage descriptor予以傳訊,在客戶端側就可掌握BV內容本身或BV串流的可顯示領域。
藉此,客戶端,係例如可從複數個不同的可顯示領域之BV內容選擇出適切的BV內容,或可隨應於使用者的視點位置而從複數紋理只選擇出涵蓋使用者之視野的紋理等等。
又,藉由將birdview coverage descriptor予以傳訊,在客戶端側係可例如,在所取得的紋理之中,只針對涵蓋相當於使用者之視野之領域的紋理,會選擇較高畫質者。藉此,可適應於使用者之視野而達成BV內容的高畫質化。
此外,此處雖然說明了,在Property的value之部分中,將表示可顯示領域的各參數以逗點區隔而加以描述的例子,但各個參數亦可分別以個別之屬性值來做傳訊。此情況下,各參數不是在value中被描述,而是在1個元素之中以x=0、y=0等的方式而被描述。
又,在圖7所示的例子中,說明了從3D模型之中心位置觀看時藉由各參數來表現可顯示領域的情況。可是,亦可藉由從3D模型之外側觀看時的各參數來表現可顯示領域,並將這些參數予以傳訊。在此種情況下,例如可顯示領域資訊之語意係如圖8所示。
具體而言,參數「x」,係表示使用者的作為基準的視點位置的x座標。此處,使用者的作為基準的視點位置,係為被預先決定的位置。
又,參數「y」係表示空間上的使用者的作為基準的視點位置的y座標,參數「z」係表示空間上的使用者的作為基準的視點位置的z座標。
參數「center_yaw」係表示,從使用者的作為基準的視點位置觀看3D模型時的表示可顯示領域之中心位置的偏擺角(yaw角)。又,參數「center_pitch」係表示從使用者的作為基準的視點位置觀看3D模型時的表示可顯示領域之中心位置的俯仰角(pitch角),參數「center_roll」係表示從使用者的作為基準的視點位置觀看3D模型時的可顯示領域之中心位置之翻滾角(roll角),亦即可顯示領域的旋轉角度。
再者,參數「hor_range」係表示從使用者的作為基準的視點位置觀看3D模型時的可顯示領域之水平方向角度範圍,參數「ver_range」係表示從使用者的作為基準的視點位置觀看3D模型時的可顯示領域之垂直方向角度範圍。
〈檔案生成裝置之構成例〉   接下來說明,將以上所說明的MPD檔案、和對應於該MPD檔案之區段檔案予以生成的檔案生成裝置。
生成MPD檔案及區段檔案的檔案生成裝置,係例如圖9所示般地被構成。
圖9所示的檔案生成裝置11,係具有控制部21及檔案生成部22。該檔案生成裝置11,係將藉由MPEG-DASH等而被配訊的BV內容之BV串流的區段檔案與MPD檔案加以生成並上傳至伺服器。
控制部21,係控制檔案生成裝置11的全體動作。例如控制部21,係控制檔案生成部22,而生成BV串流所被儲存的區段檔案、或含有BV內容之後設資料的MPD檔案,或是將這些區段檔案或MPD檔案予以上傳等等。
檔案生成部22,係依照控制部21之控制而生成區段檔案或MPD檔案,並且將這些區段檔案或MPD檔案透過網路而上傳(發送)至伺服器。
檔案生成部22係具有:資料輸入部31、資料編碼・生成部32、MPD檔案生成部33、記錄部34、及上傳部35。
資料輸入部31,係將紋理或網格之生成時所必須之影像等之資料、可顯示領域資訊等之MPD檔案之生成時所必須之後設資料加以取得並供給至資料編碼・生成部32及MPD檔案生成部33。
資料編碼・生成部32,係基於從資料輸入部31所被供給的影像等之資料,而生成紋理或網格之BV串流,並且生成這些BV串流所被儲存之區段檔案,供給至記錄部34。
資料編碼・生成部32係具有:前處理部41、編碼部42、及區段檔案生成部43。
前處理部41,係基於資料輸入部31所被供給的影像等之資料,而生成紋理或網格之BV串流,供給至編碼部42。編碼部42,係將從前處理部41所被供給的BV串流予以編碼,將所得到的編碼資料,供給至區段檔案生成部43。
區段檔案生成部43,係基於從資料輸入部31所被供給的後設資料等,將從編碼部42所被供給的編碼資料以區段單位進行檔案化,將其結果所得之區段檔案,供給至記錄部34。
MPD檔案生成部33,係基於資料輸入部31所被供給的後設資料等,而生成含有BV內容、或構成該BV內容的紋理或網格之BV串流之相關資訊的MPD檔案,供給至記錄部34。此外,MPD檔案生成部33,係亦可將MPD檔案之生成時所必須的後設資料等,從區段檔案生成部43加以取得。
記錄部34,係將從MPD檔案生成部33所被供給的MPD檔案、及從區段檔案生成部43所被供給的區段檔案,予以記錄。
上傳部35,係從記錄部34讀出BV內容的MPD檔案及區段檔案並上傳至伺服器。亦即,上傳部35係成為,將MPD檔案及區段檔案發送至伺服器的通訊部而發揮機能。
此外,此處雖然說明,檔案生成裝置11係成為將MPD檔案及區段檔案上傳伺服器的裝置而發揮機能的例子,但檔案生成裝置11亦可成為伺服器而發揮機能。如此情況下,檔案生成裝置11的上傳部35,係透過網路而將MPD檔案及區段檔案發送至客戶端裝置。
〈上傳處理之說明〉   接著,說明檔案生成裝置11之動作。亦即,以下,參照圖10的流程圖,說明檔案生成裝置11所做的上傳處理。
於步驟S11中,資料輸入部31,係將BV串流之生成時所必須之影像等之資料、可顯示領域資訊等之MPD檔案之生成時所必須之後設資料加以取得並供給至資料編碼・生成部32及MPD檔案生成部33。
於步驟S12中,資料編碼・生成部32係生成區段檔案。
亦即,前處理部41,係基於資料輸入部31所被供給的影像等之資料,而生成紋理或網格之BV串流,供給至編碼部42。編碼部42,係將從前處理部41所被供給的BV串流予以編碼,將所得到的編碼資料,供給至區段檔案生成部43。
區段檔案生成部43,係基於從資料輸入部31所被供給的後設資料等,將從編碼部42所被供給的編碼資料進行檔案化,將其結果所得之區段檔案,供給至記錄部34。
於步驟S13中,MPD檔案生成部33,係基於從資料輸入部31所被供給的後設資料而生成MPD檔案,供給至記錄部34。
此處,MPD檔案中係含有:birdview descpriptor或texture descriptor、mesh descriptor、構成BV群組的BV串流所相關之Adaptation Set之id、birdview coverage descriptor等。具體而言,例如圖4所示的MPD檔案會被生成。
於步驟S14中,記錄部34,係將從MPD檔案生成部33所被供給的MPD檔案、及從區段檔案生成部43所被供給的區段檔案,予以記錄。
於步驟S15中,上傳部35,係在任意之時序上從記錄部34讀出MPD檔案及區段檔案並上傳至伺服器,結束上傳處理。
此外,MPD檔案及區段檔案的上傳之時序,係只要這些MPD檔案及區段檔案被記錄至記錄部34之後,則無論哪種時序均可。
如以上,檔案生成裝置11,係將MPD檔案及區段檔案予以生成,並上傳之。
尤其是,在檔案生成裝置11中係生成,在Preselection中含有構成BV群組的Adaptation Set之id的MPD檔案。
藉此,接受MPD檔案之供給的客戶端,係可簡單地特定出構成BV群組的BV串流之Adaptation Set。亦即,可簡單地特定出BV內容之再生時所必須之BV串流之組合。
其結果為,即使在BV內容是被MPEG-DASH配訊的情況下,於客戶端中,仍可取得BV內容之再生時所必須之BV串流,可適切地再生BV內容。
〈客戶端裝置之構成例〉   接下來,說明將已被檔案生成裝置11所上傳之MPD檔案或區段檔案從伺服器加以取得而進行BV內容之再生的客戶端裝置。適用了本技術的客戶端裝置,係例如圖11所示般地被構成。
圖11所示的客戶端裝置71,係為DASH客戶端,具有控制部81及再生處理部82。
控制部81,係控制客戶端裝置71的全體動作。例如控制部81,係控制再生處理部82,令其從伺服器取得MPD檔案或區段檔案,並且基於區段檔案而令BV內容被再生。
再生處理部82係依照控制部81之控制而將BV內容予以再生。再生處理部82係具有:計測部91、MPD檔案取得部92、MPD檔案處理部93、區段檔案取得部94、顯示控制部95、資料解析・解碼部96、及顯示部97。
計測部91,係計測客戶端裝置71與伺服器之間的網路之傳輸頻帶,將其計測結果供給至MPD檔案處理部93。MPD檔案取得部92,係從伺服器取得MPD檔案並供給至MPD檔案處理部93。
MPD檔案處理部93,係基於從MPD檔案取得部92所被供給的MPD檔案,來選擇要取得的BV串流,將其選擇結果供給至區段檔案取得部94。此外,在要取得的BV串流之選擇時,也會適宜利用從計測部91所被供給的計測結果、或從顯示控制部95所被供給的使用者的視點位置等。
區段檔案取得部94,係基於從MPD檔案處理部93所被供給的選擇結果,將BV內容之再生時所必須之BV串流所被儲存之區段檔案,從伺服器加以取得,並供給至資料解析・解碼部96。
顯示控制部95,係控制BV內容之再生(顯示)。例如顯示控制部95,係將觀賞BV內容的使用者的視點位置或視線方向之偵測結果加以取得,並供給至MPD檔案處理部93及資料解析・解碼部96。
資料解析・解碼部96,係基於從區段檔案取得部94所被供給的區段檔案,生成BV內容亦即3D模型之影像,供給至顯示部97。資料解析・解碼部96係具有:區段檔案處理部111、解碼部112、及顯示資訊生成部113。
區段檔案處理部111,係從區段檔案取得部94所被供給的區段檔案中,抽出BV串流之編碼資料,並供給至解碼部112。解碼部112,係將從區段檔案處理部111所被供給的編碼資料予以解碼,將其結果所得之BV串流,供給至顯示資訊生成部113。
顯示資訊生成部113,係基於從顯示控制部95所被供給的使用者的視點位置或視線方向之偵測結果、和從解碼部112所被供給的BV串流,而生成使用者的視點位置及視線方向所相應之3D模型的影像之資料,並供給至顯示部97。
顯示部97,係由例如液晶顯示面板等所成,基於從顯示資訊生成部113所被供給的資料,而將3D模型之影像、亦即BV內容,予以顯示(再生)。
〈BV內容再生處理之說明〉   接著,說明客戶端裝置71之動作。
亦即,以下係參照圖12的流程圖,說明客戶端裝置71所進行的BV內容再生處理。
於步驟S41中,MPD檔案取得部92,係從伺服器取得MPD檔案並供給至MPD檔案處理部93。亦即,已被伺服器所發送之MPD檔案,會被MPD檔案取得部92所接收。藉此,例如圖4所示的MPD檔案,會被取得。
於步驟S42中,MPD檔案處理部93,係從顯示控制部95取得使用者的視點位置。
例如顯示控制部95,係從未圖示的感測器等,取得使用者的視點位置及視線方向之偵測結果,供給至MPD檔案處理部93及顯示資訊生成部113。MPD檔案處理部93,係藉由如此取得從顯示控制部95所被輸出的資訊,以獲得使用者之視點位置。例如使用者之視點位置,係被設成3D模型所被配置之3維空間上的使用者的視點位置的座標資訊等。
於步驟S43中,計測部91,係計測客戶端裝置71與伺服器之間的傳輸頻帶,將其計測結果供給至MPD檔案處理部93。
步驟S44中,MPD檔案處理部93,係基於步驟S41中所被取得,從MPD檔案取得部92所被供給的MPD檔案,來識別BV群組,並從1或複數個BV群組之中,選擇出1個BV群組。
亦即,MPD檔案處理部93,係從MPD檔案中特定出birdview descpriptor所被傳訊之Preselection要素,亦即含有birdview descpriptor的Preselection要素,以識別該Preselection要素係為1個BV群組的要素。
又,MPD檔案處理部93,係從已被識別的1或複數個BV群組之中,選擇出1個BV群組來作為再生對象之BV群組。
此時,例如MPD檔案處理部93,係亦可參照Preselection中所含之birdview coverage descriptor,基於從顯示控制部95所被供給的使用者的視點位置,來選擇可顯示相當於使用者之視野之領域的BV群組。
於步驟S45中,MPD檔案處理部93係識別,步驟S44中所選擇之構成BV群組的BV串流的Adaptation Set。
亦即,MPD檔案處理部93,係在已選擇之BV群組的Preselection要素中,藉由preselectionComponents屬性中所被描述的Adaptation Set之id而被傳訊的,將BV串流予以參照的Adaptation Set,識別成為構成BV群組的BV串流的Adaptation Set。此時,BV群組的各Adaptation Set之種類,亦即是否為紋理之Adaptation Set、是否為網格之Adaptation Set等,係可根據藉由這些Adaptation Set而被傳訊的texture descriptor或mesh descriptor,而加以識別。
於步驟S46中,MPD檔案處理部93,係針對步驟S45中所被識別出來的BV群組之Adaptation Set,來選擇BV內容之再生時所使用的BV串流的Adaptation Set及Representation。
亦即,MPD檔案處理部93,係基於步驟S42中所得到的使用者的視點位置、或步驟S43中所得到的傳輸頻帶(頻寬),而從步驟S45中所被識別出來的BV群組之Adaptation Set之中,選擇出要取得的BV串流之Adaptation Set。
此時,例如MPD檔案處理部93係若考慮傳輸頻帶,而可取得BV群組的全部Adaptation Set的BV串流,則選擇這些全部Adaptation Set,針對各Adaptation Set而選擇適切位元速率的Representation。
又,亦可由MPD檔案處理部93來參照birdview coverage descriptor,基於使用者的視點位置,針對相當於使用者之視野領域的BV串流,以使得較高畫質(高位元速率)的BV串流會被選擇的方式,來選擇Representation。
再者,有時候也會因為傳輸頻帶之限制而無法取得所有BV群組之BV串流的情況。在此種情況下,亦可由MPD檔案處理部93去參照birdview coverage descriptor,而只有進行只有使用者之視野領域的BV內容顯示所必須之最低限度的BV串流之Adaptation Set會被選擇及取得。
MPD檔案處理部93,係一旦選擇BV群組的Adaptation Set及Representation,就將該選擇結果供給至區段檔案取得部94,並指示區段檔案之取得。藉此,被Adaptation Set及Representation所參照的BV串流之取得,會被指示。
於步驟S47中,區段檔案取得部94,係基於從MPD檔案處理部93所被供給的選擇結果,而將該選擇結果所表示的Adaptation Set及Representation之BV串流所被儲存之區段檔案,加以取得。
亦即,區段檔案取得部94,係依照從MPD檔案處理部93所被供給的選擇結果,而向伺服器要求區段檔案之送訊。然後,區段檔案取得部94,係將回應該要求而從伺服器所被發送過來的區段檔案予以接收並供給至區段檔案處理部111。
於步驟S48中,區段檔案處理部111,係從區段檔案取得部94所被供給的區段檔案中,抽出BV串流之編碼資料,並供給至解碼部112。
於步驟S49中,解碼部112,係將從區段檔案處理部111所被供給的編碼資料予以解碼,將其結果所得之紋理或網格之BV串流,供給至顯示資訊生成部113。
於步驟S50中,顯示部97係將BV內容予以再生,BV內容再生處理係結束。
亦即,顯示資訊生成部113,係基於從顯示控制部95所被供給的使用者的視點位置或視線方向之偵測結果、和從解碼部112所被供給的BV串流,而生成使用者的視點位置及視線方向所相應之3D模型的影像。具體而言,顯示資訊生成部113係基於紋理與網格而建構3D模型,藉此而生成使用者之視野所相應之3D模型的影像。
然後,顯示資訊生成部113,係將已生成之3D模型之影像供給至顯示部97,令3D模型之影像被顯示,藉此而再生BV內容。
如以上所述,客戶端裝置71係取得MPD檔案,參照MPD檔案的Preselection而識別BV群組,並且隨應於使用者的視點位置或傳輸頻帶而選擇BV群組、或構成該BV群組的任意之BV串流。
若使用如此構成BV群組的Adaptation Set之id所被包含之Preselection所被描述的MPD檔案,就可簡單地選擇BV群組或BV串流。藉此,可適切地再生BV內容。
〈第1實施形態的變形例1〉 〈關於追加的BV串流之取得〉   話說回來,以上係針對從構成BV群組的BV串流之中選擇出必要者的例子做了說明。
可是,亦可除了由紋理或網格之BV串流所構成的BV群組以外,還追加取得BV群組中所不包含的視點位置的紋理或景深之BV串流。亦即,亦可追加取得與BV群組之BV串流的視點位置不同視點位置的BV串流。
若除了BV群組以外還取得追加之BV串流,則可再生較高畫質的BV內容。
亦即,藉由增加可取得的紋理之數量,就不需要藉由補足來生成可顯示領域外之領域之紋理,因此可提升算圖時的BV內容之品質。又,可以不只網格,甚至還追加景深,以使得建構3D模型之際可獲得較高精度的3D形狀。
可追加取得紋理或景深之BV串流的情況,係考慮例如圖13所示的例子。
在圖13的例子中,如圖中左側所示,在空間上的3D模型之位置,係有該3D模型的網格MS21,以圍繞3D模型之周圍的方式,視點位置每錯開90度地,具有4個紋理TX21乃至紋理TX24。
然後,由網格MS21、和紋理TX21乃至紋理TX24,構成1個BV群組。
甚至,除了該BV群組之BV串流以外,如圖中中央所示般地以圍繞3D模型之周圍的方式使視點位置每次錯開90度,還有與紋理TX21乃至紋理TX24不同視點位置的4個紋理HTX21乃至紋理HTX24。甚至,在與這些紋理HTX21乃至紋理HTX24之每一者相同視點位置,還分別有景深HDP21乃至景深HDP24。
在客戶端側,可以追加取得這些紋理HTX21乃至紋理HTX24之BV串流、或景深HDP21乃至景深HDP24之BV串流。以下,將可追加取得的BV串流,特別稱作追加BV串流。
一旦有此種可追加取得之紋理,則例如圖中右側所示般地,可以使用與BV群組之紋理具有不同涵蓋範圍(可顯示領域)的紋理,而可再生較高畫質的BV內容。尤其是,在此例中,可以利用圍繞3D模型之周圍的,更多視點位置的紋理。
在使用MPEG-DASH來配送BV內容的情況下,如以上的追加BV串流也可配訊時,則只要使用MPD檔案來進行追加BV串流的相關資訊之傳訊即可。
例如如圖14所示,假設由網格MS31、和4個紋理TX31乃至紋理TX34,構成1個BV群組。
又,與紋理TX31乃至紋理TX34之每一者不同視點位置的追加之紋理HTX31乃至紋理HTX34,係可追加取得之。再者,與紋理HTX31乃至紋理HTX34之每一者的視點位置為相同視點位置的追加之景深HDP31乃至景深HDP34之每一者,也是可以取得。
此外,在圖14中,圖中左側所描繪的圓,係表示各BV串流亦即紋理或網格、景深的視點位置。
如此藉由網格MS31及紋理TX31乃至紋理TX34之各BV串流來構成1個BV群組,對該BV群組是可追加取得紋理HTX31乃至紋理HTX34及景深HDP31乃至景深HDP34之各BV串流的情況下,例如MPD檔案係變成如圖15及圖16所示。
此外,圖16係表示接續於圖15所示的MPD檔案之部分,亦即圖15的圖中下側所示部分之後的MPD檔案的剩餘之部分。在圖15及圖16中,為了明確表示1個MPD檔案是由這些圖所圖示,在圖15中係在下側記載有文字「下接圖16」,在圖16中係在上側記載有文字「上接圖15」。這些文字「下接圖16」及「上接圖15」,係沒有實際被描述在MPD檔案中。
又,於圖15及圖16所示的MPD檔案中,關於和圖4所示的例子相同之部分,因為是重複的所以適宜省略其說明。再者,此處是假設,紋理或網格、景深,係分別是以個別的single track file的方式而被儲存。
在圖15及圖16所示的MPD檔案中,箭頭W21所示的部分係為1個BV群組所相關的Preselection。
又,箭頭W22乃至箭頭W24之每一者所表示的Adaptation Set,係為構成BV群組的紋理或網格所相關之Adaptation Set。然後,含有箭頭W22乃至箭頭W24之每一者所表示的Adaptation Set的,構成1個BV群組的各BV串流之Adaptation Set之id,係被描述在箭頭W21所示的Preselection中。
亦即,箭頭W22乃至箭頭W24所表示的Adaptation Set,係為箭頭W21所示的Preselection中的preselectionComponents之部分所表示的,構成BV群組的BV串流的Adaptation Set。
此處,tex1乃至tex4,係為圖14的紋理TX31乃至紋理TX34的相關資訊所被描述的Adaptation Set之id,mesh係為圖14的網格MS31的相關資訊所被描述的Adaptation Set之id。
因此,根據箭頭W21所示的Preselection,可知是藉由紋理TX31乃至紋理TX34與網格MS31而構成了1個BV群組。
再者,箭頭W25乃至箭頭W28之每一者所表示的Adaptation Set係為,用來構成與由構成BV群組的BV串流所被構成的3D模型相同之3D模型所需之,與構成BV群組的BV串流不同的,高畫質化用的追加BV串流的相關資訊所被描述的Adaptation Set。
例如圖14所示的紋理HTX31乃至紋理HTX34的相關資訊所被描述的Adaptation Set之id係為hq_tex1乃至hq_tex4。又,圖14所示的景深HDP31乃至景深HDP34的相關資訊所被描述的Adaptation Set之id係為hq_dep1乃至hq_dep4。
在箭頭W25或箭頭W26所表示的追加之紋理所相關之Adaptation Set中係含有:表示這是紋理所相關之Adaptation Set這件事情的texture descriptor。
又,在此例中,被設成「schemeIdUri=“urn:mpeg:dash:depth:2017”」的EssentialProperty或SupplementalProperty,是被新定義作為表示這是景深所相關之Preselection或Adaptation Set這件事情的資訊也就是景深描述元(depth descriptor)。
客戶端,係藉由參照該depth descriptor就可識別出,含有depth descriptor的Preselection或Adaptation Set所參照的BV串流係為景深這件事情。此外,depth descriptor,係亦可在Representation或SubRepresentation中進行傳訊。
例如箭頭W27所示的Adaptation Set的箭頭A21所示的部分、或箭頭W28所示的Adaptation Set的箭頭A22所示的部分中係被設有,作為depth descriptor的被設成「schemeIdUri=“urn:mpeg:dash:depth:2017”」的EssentialProperty。
藉此,客戶端係可掌握,箭頭W27或箭頭W28所示的Adaptation Set係為構成BV內容之景深所相關之Adaptation Set這件事情。
又,在此例中,箭頭W21所示的Preselection及箭頭W22乃至箭頭W28所示的Adaptation Set中係分別被描述有,箭頭A23乃至箭頭A30所示的birdview coverage descriptor。
此外,birdview coverage descriptor,係亦可和紋理或網格同樣地適用於景深,此處是在景深之Adaptation Set中也有描述birdview coverage descriptor。
這些birdview coverage descriptor,係為上述的可顯示領域資訊,但在該可顯示領域資訊中,除了表示BV串流之可顯示領域的資訊以外,還含有表示所參照的BV串流之來源(素材)的source_id。
換言之,在birdview coverage descriptor,係除了可顯示領域資訊以外,還含有表示BV內容之來源的來源ID(source_id)。該source_id係可說是,表示使用BV串流而可再生的BV內容,亦即表示使用BV串流而可構成的3D模型的資訊。
在birdview coverage descriptor的value之部分的開頭,係被配置有source_id,接續該source_id之後係被配置有可顯示領域所相關之各參數。
因此,圖15及圖16所示之例子中的birdview coverage descriptor,係將圖4之例子中所示的birdview coverage descriptor予以擴充而成。
此處,圖15及圖16所示之例子中的birdview coverage descriptor之語意係如同圖17所示。
在圖17所示的例子中,參數「source_id」,係表示BV內容之來源的ID。因此,若source_id為相同,則BV內容之來源係為相同,因此若將具有相同source_id的BV串流加以組合,就可構成1個BV內容。
又,在圖17所示的例子中,source_id以外的其他參數,亦即參數「x」、「y」、「z」、「center_yaw」、「center_pitch」、「center_roll」、「hor_range」、及「ver_range」,係和圖7中的情況相同。
回到圖15及圖16的說明,在圖15及圖16所示的例子中被當作birdview coverage descriptor的Property的value中,上述的參數source_id、x、y、z、center_yaw、center_pitch、center_roll、hor_range、及ver_range,是以逗點區隔而被描述。亦即,birdview coverage descriptor的value之部分,係被設成「value=“source_id,x,y,z,center_yaw,center_pitch,center_roll,hor_range,ver_range”」。
尤其是,在此例中係每一Adaptation Set地,亦即每一BV串流地儲存birdview coverage descriptor,箭頭A23乃至箭頭A30所示的各birdview coverage descriptor中的source_id係全部都是「1」。因此,可以特定出,含有這些birdview coverage descriptor的Preselection或Adaptation Set,係全部都是有關於相同的BV內容這件事情。亦即可知,可從這些含有source_id「1」的Adaptation Set所對應之紋理或網格、追加之紋理、追加之景深,來構成同一BV內容。
如以上所述般地在還可以取得追加之BV串流的情況下,例如檔案生成裝置11係進行與參照圖10所說明的上傳處理相同之處理。
但是,在步驟S13中,如圖15及圖16所示般地,MPD檔案生成部33係生成,含有關於追加之紋理或追加之景深的Adaptation Set的MPD檔案。又,MPD檔案生成部33,係如圖15或圖16所示般地生成含有source_id的birdview coverage descriptor,描述在Preselection或Adaptation Set中。
然後,在還可以取得追加之BV串流的情況下,客戶端裝置71係進行和參照圖12所說明之BV內容再生處理相同之處理以再生BV內容。
但是,在步驟S45中,MPD檔案處理部93係不只BV群組之Adaptation Set或Representation,還會基於birdview coverage descriptor的source_id,將可對BV群組做追加的BV串流之Adaptation Set或Representation亦予以識別。此情況下,關於景深的Adaptation Set或Representation,係可藉由這些Adaptation Set中所含之depth descritptor而加以識別。
又,在步驟S46中,MPD檔案處理部93係從構成BV群組的Adaptation Set或Representation、及追加之BV串流的Adaptation Set或Representation之中,選擇出要取得之BV串流的Adaptation Set或Representation。
此時,MPD檔案處理部93,係基於使用者的視點位置或傳輸頻帶、birdview coverage descriptor的value中所含的source_id或表示可顯示領域的資訊(參數)等,來選擇要取得之BV串流的Adaptation Set或Representation。
具體而言,例如MPD檔案處理部93,係可將相當於使用者之視野領域的BV串流,做高畫質化。
又,MPD檔案處理部93係在傳輸頻帶尚有餘裕的情況下,可選擇與構成BV群組的紋理不同視點位置的追加之紋理的Representation、或使用者之視野所相應之高畫質化用的追加之景深的Representation。藉此,可進行較高畫質的BV內容再生。
〈第1實施形態的變形例2〉 〈關於BV串流的quality ranking〉   話說回來,上述的景深係藉由ISO/IEC 14496-10(MVC with depth, 3D AVC)或ISO/IEC 23008-2(Multiview HEVC, 3D HEVC)這類以AVC/HEVC為基礎的景深地圖之編碼,而被壓縮。
另一方面,在網格的編碼中,是藉由ISO/IEC 14496-16(Animation Framework eXtension)而將網格之頂點座標及頂點的結合資訊予以編碼。
如此在景深與網格之間,兩者的編解碼器(編碼方式)係為不同,因此單純只根據景深與網格之BV串流的位元速率,無法比較可由景深或網格之BV串流所構成的3D形狀之品質(quality)。
於是,若將表示由網格或景深所構成的3D形狀之品質的資訊也就是quality ranking予以傳訊,則在客戶端側,可隨應於傳輸頻帶等來選擇可構成適切品質(quality)之3D形狀的網格或景深,並取得之。
以下說明,將網格或景深的quality ranking予以傳訊的例子。此外,quality ranking,係不只在網格或景深,就連紋理之品質的傳訊、或將這些紋理或網格等予以組合而構成的BV內容之品質的傳訊時,也可使用。
將網格或景深的quality ranking予以傳訊的情況下,MPD檔案係變成例如圖18及圖19所示。此外,圖19係表示接續於圖18所示的MPD檔案之部分,亦即圖18的圖中下側所示部分之後的MPD檔案的剩餘之部分。在圖18及圖19中,為了明確表示1個MPD檔案是由這些圖所圖示,在圖18中係在下側記載有文字「下接圖19」,在圖19中係在上側記載有文字「上接圖18」。這些文字「下接圖19」及「上接圖18」,係沒有實際被描述在MPD檔案中。
又,於圖18及圖19所示的MPD檔案中,關於和圖15及圖16所示的例子相同之部分,因為是重複的所以適宜省略其說明。再者,此處是假設,紋理或網格、景深,係分別是以個別的single track file的方式而被儲存。
在圖18及圖19所示的MPD檔案中,箭頭W41乃至箭頭W48之每一者所示的Preselection或Adaptation Set,係和圖15及圖16的箭頭W21乃至箭頭W28之每一者所示的Preselection或Adaptation Set相同。
亦即,箭頭W41所示的部分係為1個BV群組所相關的Preselection,箭頭W42乃至箭頭W44之每一者所表示的Adaptation Set,係為構成BV群組的紋理或網格的Adaptation Set。
又,箭頭W45乃至箭頭W48之每一者所表示的Adaptation Set,係關於與BV群組相同BV內容的追加之紋理或景深的Adaptation Set。
再者,在此例中被設成「schemeIdUri=“urn:mpeg:dash:bvqualityranking:2017”」的EssentialProperty或SupplementalProperty,是被新定義作為表示BV串流之品質(quality)的資訊也就是品質排名描述元(quality ranking descriptor)。
在此例中,quality ranking descriptor係為,表示彼此互異的Adaptation Set中所含之Representation所對應之網格或景深間的相對性品質(quality ranking)的資訊。換言之,quality ranking descriptor係可以說是,用來再生同一BV內容所需之複數BV串流間的,表示各BV串流之相對性品質(quality)的品質資訊。尤其是,在quality ranking descriptor中,是按照網格或景深的可顯示領域內的每1或複數個領域地,將quality ranking予以傳訊。
例如quality ranking descriptor之語意細如圖20所示。
具體而言,參數「id」係表示quality ranking之id,quality ranking是在相同id的quality ranking descriptor之中以相對值而被傳訊。
參數「quality_ranking」,係表示quality ranking之值,quality_ranking之值為1以上的情況下,其值越小則表示越高的品質。又,quality_ranking之值為0的情況下,則quality ranking(排名)係為未定義。
參數「remaining_area_flag」,係為用來特定出參數「quality_ranking」所表示的quality ranking之值的適用範圍之領域所需之旗標資訊。
此處,若參數「remaining_area_flag」之值為0,則在quality ranking descriptor中係還含有參數「center_yaw」、「center_pitch」、「center_roll」、「hor_range」、及「ver_range」,藉由這些參數而將quality ranking所被傳訊之領域資訊予以傳訊。
換言之,參數「quality_ranking」所表示的quality ranking,係為關於參數「center_yaw」、「center_pitch」、「center_roll」、「hor_range」、及「ver_range」所表示之領域的quality ranking。
相對於此,參數「remaining_area_flag」之值若為1,則參數「quality_ranking」所表示的quality ranking係表示,這是相同Representation中quality ranking未被傳訊的剩餘之領域所相對的quality ranking。
此外,以下,網格或景深的可顯示領域內的,作為quality ranking之對象的領域,亦稱為對象領域。參數「remaining_area_flag」係可說是,表示quality ranking所被適用之對象領域的資訊。
參數「center_yaw」係表示,從3D模型之中心位置觀看時的表示對象領域之中心位置的偏擺角(yaw角)。又,參數「center_pitch」係表示從3D模型之中心位置觀看時的表示對象領域之中心位置的俯仰角(pitch角),參數「center_roll」係表示從3D模型之中心位置觀看時的對象領域之中心位置的翻滾角(roll角)、亦即對象領域的旋轉角度。
再者,參數「hor_range」係表示從3D模型之中心位置觀看時的對象領域之水平方向角度範圍,參數「ver_range」係表示從3D模型之中心位置觀看時的對象領域之垂直方向角度範圍。
藉由這些參數「center_yaw」、「center_pitch」、「center_roll」、「hor_range」、及「ver_range」,對象領域係被特定。亦即,對象領域,係和參照圖6所說明的可顯示領域中的情況同樣地,例如係為球的中心、和中心是與該中心一致的球上的4個圓所圍繞的領域,特別是對象領域係為與可顯示領域相同之領域、或是可顯示領域的一部分之領域。
此外,此處是以3D模型之內側,亦即從3D模型之中心觀看時的領域當作對象領域而進行傳訊,但亦可以3D模型之外側,亦即從作為所定之基準的視點位置觀看時的領域當作對象領域而進行傳訊。
例如參數「remaining_area_flag」之值為0的情況下,被當作quality ranking descriptor的Property的value中作為quality ranking的相關資訊,係有上述的參數id、quality_ranking、remaining_area_flag、center_yaw、center_pitch、center_roll、hor_range、及ver_range,是以逗點區隔而被描述。
亦即,例如quality ranking descriptor的value係被設成「value=“id,quality_ranking, remaining_area_flag, center_yaw,center_pitch, center_roll, hor_range,ver_range”」等。
相對於此,參數「remaining_area_flag」之值為1的情況下,被當作quality ranking descriptor的Property的value中,作為quality ranking的相關資訊,係有上述的參數id、quality_ranking、及remaining_area_flag,是以逗點區隔而被描述。
亦即,例如quality ranking descriptor的value係被設成「value=“id,quality_ranking, remaining_area_flag”」等。
在圖18及圖19所示的例子中,箭頭A41乃至箭頭A44之每一者所表示的SupplementalProperty,係為quality ranking descriptor。
例如在箭頭A41所表示的SupplementalProperty中,其value之部分係被設成「1,5,1」。
因此可知,該SupplementalProperty所對應之,Adaptation Set之id為mesh的Representation之網格的quality ranking之值係為「5」。
又,因為該SupplementalProperty中的remaining_area_flag之值為「1」,所以quality ranking之值「5」係成為網格的可顯示領域全體的quality ranking。亦即,可顯示領域全體都是對象領域。
又,例如箭頭A42所表示的SupplementalProperty,係為Adaptation Set之id為hq_dep1的Representation之景深的quality ranking descriptor,其value之部分係被設成「1,3,0,-90,0,0,90,120」。
因此可知,該SupplementalProperty所對應之追加之景深的對象領域係為,以從3D模型之中心位置來看根據偏擺角「-90度」、及俯仰角「0度」而定的位置為中心,翻滾角所表示的旋轉係為0度,而為水平方向90度且垂直方向120度之範圍的領域。又,可知該對象領域的quality ranking之值係為「3」。
然後可知,例如箭頭A43所表示的SupplementalProperty、及箭頭A44所表示的SupplementalProperty,係為Adaptation Set之id為hq_dep4的Representation之景深的quality ranking descriptor。
尤其可知,箭頭A43所表示的SupplementalProperty所對應之追加之景深之對象領域係為,以從3D模型之中心位置來看根據偏擺角「180度」及俯仰角「0度」而定的位置為中心,翻滾角所表示的旋轉係為0度,而為水平方向90度且垂直方向90度之範圍的領域。又,可知該對象領域的quality ranking之值係為「1」。
又,可知箭頭A44所表示的SupplementalProperty所對應之追加之景深之對象領域係為,Adaptation Set之id為hq_dep4的景深的可顯示領域中的,被箭頭A43所表示的SupplementalProperty所表示的對象領域以外之領域。然後可知,箭頭A44所表示的SupplementalProperty所對應之追加之景深之對象領域的quality ranking之值係為「5」。
由這些事情可知,在此例中,Adaptation Set之id為hq_dep1的Representation之景深,是比Adaptation Set之id為mesh的Representation之網格,在全部的領域中,品質都是比較高的。又可知,Adaptation Set之id為hq_dep4的Representation之景深,係只有根據偏擺角「180度」、俯仰角「0度」、翻滾角「0度」、水平方向角度範圍「90度」、及垂直方向角度範圍「90度」而定的領域,是比Adaptation Set之id為mesh的Representation之網格的品質還高。
如以上所述,quality ranking descriptor係為,針對網格或景深等之BV串流,表示每一對象領域之品質(quality ranking)的資訊,藉此可以比較網格與景深之品質。在客戶端中,基於此種quality ranking descriptor,可對網格追加取得適切的品質(quality ranking)之景深。
此外,此處雖然說明了,在Property的value之部分中,將表示quality ranking之值或對象領域的各參數以逗點區隔而加以描述的例子,但各個參數亦可分別以個別之屬性值來做傳訊。
又,亦可取代quality ranking之id,改為使用具有Representation的Adaptation Set的Viewpoint element來進行quality ranking所致之品質比較對象的BV串流之關連建立。此時,作為Property的shcemeIdUri是使用「shcemeIdUri=“urn:mpeg:dash:bvqualityrankinggroup:2017”」。然後若Property的value為相同則表示,對各Adaptation Set中所含之Representation,相對的quality ranking係被傳訊。
再者,在圖18及圖19所示的例子中,quality ranking descriptor是在Representation下被傳訊,但quality ranking descriptor 係亦可在Adaptation Set下或Sub Representation下、Preselection下被傳訊。
又,在quality ranking descriptor中亦可追加stream_type來作為參數。
例如假設1個Adaptation Set中含有紋理與網格、或紋理與景深的相關資訊,藉由該1個Adaptation Set所對應之BV串流,可構成BV內容。stream_type,係在如此情況下,是為了將針對紋理、網格、景深、及BV內容之每一者的quality ranking予以傳訊,而被使用。
若採用如此的stream_type,則客戶端在選擇為了提高BV內容之品質所必須之追加BV串流之際,可識別含有具有適切品質之BV串流(或BV內容)的相關資訊的Adaptation Set。
此處,quality ranking descriptor中所被追加的stream_type之語意,示於圖21。在此例中,stream_type係表示了,quality ranking所被傳訊的BV串流之種類。
具體而言,例如stream_type之值「0」係表示,quality ranking所被傳訊的BV串流之種類係為紋理。又,stream_type之值「1」係表示quality ranking所被傳訊的BV串流之種類係為景深或網格,stream_type之值「2」係表示quality ranking所被傳訊的BV串流之種類係為BV內容。
如以上所述,藉由MPD檔案而將quality ranking予以傳訊的情況下,例如檔案生成裝置11係進行和參照圖10所說明的上傳處理相同之處理。
但是,在步驟S13中,如圖18及圖19所示般地,MPD檔案生成部33係生成,含有追加之紋理或景深的Adaptation Set、及quality ranking descriptor的MPD檔案。
又,藉由MPD檔案而將quality ranking予以傳訊的情況下,客戶端裝置71,係進行和參照圖12所說明之BV內容再生處理相同之處理以再生BV內容。
此外,在步驟S44中,MPD檔案處理部93,係也可參照複數BV內容的quality ranking descriptor,基於各BV內容的quality ranking,從這些BV內容之BV群組之中,選擇出相當於使用者之視野的領域係為高畫質之BV內容的BV群組。
又,在步驟S45中,MPD檔案處理部93係不只BV群組的Adaptation Set或Representation,就連追加之BV串流的Adaptation Set或Representation也加以識別。
再者,在步驟S46中,MPD檔案處理部93係從構成BV群組的Adaptation Set或Representation、及追加之BV串流的Adaptation Set或Representation之中,選擇出要取得之BV串流的Adaptation Set或Representation。
此時,MPD檔案處理部93,係基於使用者的視點位置或傳輸頻帶、birdview coverage descriptor、quality ranking descriptor等,來選擇要取得之BV串流的Adaptation Set或Representation。
例如MPD檔案處理部93,係基於quality ranking descriptor等,而可將使用者之視野之領域所相當之BV串流予以高畫質化。又,傳輸頻帶有餘裕的情況下,則MPD檔案處理部93係可選擇使用者之視野所相應之追加之景深等的Representation,而進行較高畫質的BV內容再生。
〈第1實施形態的變形例3〉 〈關於剪影資訊之傳輸〉   此外,基於景深而構成3D形狀之際,可將前景亦即作為3D模型的物件、與背景做分離而進行處理時,可以使用剪影。
所謂剪影,係如上述,是表示景深影像中的作為3D模型的被攝體(物件)之領域的剪影影像等之資訊。這裡所謂的剪影影像係被設成,例如由作為像素值是具有1或0的像素所成之影像也就是遮罩資訊等。
此外,例如由具有所定之閾值以上之亮度值的像素所成之景深上之領域是被當作前景之領域的情況下,則亦可將該閾值當成剪影,但以下是假設剪影係為剪影影像而繼續說明。
在使用此種剪影的情況下,使用剪影與景深來構成只有前景的3D形狀,藉此具有可以削減處理量之優點。
將剪影之BV串流予以傳輸的情況下,例如圖22所示般地,剪影,係以剪影影像的方式而被傳輸。此外,亦可使得在景深影像內會含有剪影資訊,而將含有剪影資訊的景深予以傳輸。
在圖22所示的例子中,彼此互異之視點位置的景深DP41乃至景深DP44,和視點位置是與這些景深DP41乃至景深DP44相同的剪影SI41乃至剪影SI44,係被傳輸。
例如景深DP41和剪影SI41,係相相同視點位置之資訊,若使用剪影SI41,則可將景深DP41中的前景部分之領域予以特定(抽出)。
在客戶端中,藉由使用這些景深DP41乃至景深DP44與剪影SI41乃至剪影SI44,就可如箭頭Q41所示般地,將無背景,只有前景的3D模型的3D形狀,以較少的處理量而加以構成。然後,對如此所得之3D形狀貼上紋理,就可如箭頭Q42所示般地,獲得3D模型。
此處,例如圖14所示般地,假設是由網格MS31、和4個紋理TX31乃至紋理TX34來構成1個BV群組,而有追加之紋理HTX31乃至紋理HTX34與追加之景深HDP31乃至景深HDP34存在。
再者,假設除了這些網格MS31、紋理TX31乃至紋理TX34、紋理HTX31乃至紋理HTX34、及景深HDP31乃至景深HDP34以外,還如圖23所示般地有追加之剪影HSI41乃至剪影HSI44存在。此外,圖23中,和圖14對應的部份,係標示同一符號,並適宜地省略其說明。
在圖23所示的例子中,高畫質化用的追加之剪影HSI41乃至剪影HSI44,是被建立對應至追加之景深HDP31乃至景深HDP34。此處,剪影HSI41乃至剪影HSI44之每一者的視點位置,係與景深HDP31乃至景深HDP34之每一者的視點位置相同。
如此可以取得網格MS31、紋理TX31乃至紋理TX34、紋理HTX31乃至紋理HTX34、景深HDP31乃至景深HDP34、及剪影HSI41乃至剪影HSI44的情況下,例如MPD檔案係變成如圖24及圖25所示。
此外,圖25係表示接續於圖24所示的MPD檔案之部分,亦即圖24的圖中下側所示部分之後的MPD檔案的剩餘之部分。在圖24及圖25中,為了明確表示1個MPD檔案是由這些圖所圖示,在圖24中係在下側記載有文字「下接圖25」,在圖25中係在上側記載有文字「上接圖24」。這些文字「下接圖25」及「上接圖24」,係沒有實際被描述在MPD檔案中。
又,於圖24及圖25所示的MPD檔案中,關於和圖15及圖16所示的例子相同之部分,因為是重複的所以適宜省略其說明。再者,此處是假設,紋理或網格、景深、剪影,係分別是以個別的single track file的方式而被儲存。
在圖24及圖25所示的MPD檔案中,箭頭W61所示的部分係為1個BV群組所相關的Preselection,該Preselection係和圖15的箭頭W21所示的Preselection完全相同。
又,箭頭W62乃至箭頭W64之每一者所表示的Adaptation Set,係為構成BV群組的紋理或網格所相關之Adaptation Set。此處,箭頭W62乃至箭頭W64之每一者所表示的Adaptation Set,係和圖15的箭頭W22乃至箭頭W24之每一者所表示的Adaptation Set完全相同。
此處,tex1乃至tex4係為圖14的紋理TX31乃至紋理TX34所相關的Adaptation Set之id,mesh係為圖14的網格MS31所相關的Adaptation Set之id。然後,箭頭W61所示的Preselection要素的preselectionComponents屬性中,係被描述有mesh及tex1乃至tex4。
箭頭W65乃至箭頭W68之每一者所表示的Adaptation Set,係對應於圖16的箭頭W25乃至箭頭W28之每一者所表示的Adaptation Set。
亦即,箭頭W65乃至箭頭W68所表示的Adaptation Set,係為追加之紋理HTX31或紋理HTX34、景深HDP31、景深HDP34的相關資訊所被描述的Adaptation Set。
此外,箭頭W65及箭頭W66所表示的Adaptation Set,係和圖16的箭頭W25及箭頭W26所表示的Adaptation Set完全相同。
箭頭W69或箭頭W70所表示的Adaptation Set,係為追加之剪影HSI41或剪影HSI44的相關資訊所被描述的Adaptation Set。
此處,紋理HTX31乃至紋理HTX34的相關資訊所被描述的Adaptation Set之id係被設成hq_tex1乃至hq_tex4,景深HDP31乃至景深HDP34所相關的Adaptation Set之id係被設成hq_dep1乃至hq_dep4。
又,與景深HDP31乃至景深HDP34之每一者建立關連的剪影HSI41乃至剪影HSI44之每一者所相關的Adaptation Set之id,係被設成sil1乃至sil4。
再者,在此例中,被設成「schemeIdUri=“urn:mpeg:dash:silhouette:2017”」的EssentialProperty或SupplementalProperty,是被新定義作為表示這是剪影所相關的Adaptation Set這件事情的資訊也就是剪影描述元(silhouette descriptor)。
客戶端,係藉由參照該silhouette descriptor就可識別出,含有silhouette descriptor的Adaptation Set內的Representation係描述了剪影的相關資訊這件事情。此外,silhouette descriptor,係亦可在Representation或SubRepresentation中進行傳訊。
例如箭頭W69所示的Adaptation Set中,係被描述有Adaptation Set之id「sil1」,該Adaptation Set中係被描述有剪影HSI41的相關資訊。同樣地,箭頭W70所示的Adaptation Set中也是,係被描述有Adaptation Set之id「sil4」,該Adaptation Set中係被描述有剪影HSI44的相關資訊。
又,箭頭W69所示的Adaptation Set的箭頭A61所示的部分、或箭頭W70所示的Adaptation Set的箭頭A62所示的部分中係被設有,作為silhouette descriptor的被設成「schemeIdUri=“urn:mpeg:dash:silhouette:2017”」的EssentialProperty。
藉此,客戶端係可掌握,箭頭W69或箭頭W70所示的Adaptation Set係為構成BV內容之剪影所相關之Adaptation Set這件事情。
此外,雖然未例示但景深中含有剪影資訊的情況下,只要將schemeIdUri為「schemeIdUri=“urn:mpeg:dash:depthwithsilhouette:2017”」的EssentialProperty或SupplementalProperty,新定義作為depth with silhouette descriptor即可。此情況下,藉由depth with silhouette descriptor,就可將該depth with silhouette descriptor所被包含的Adaptation Set係為描述有剪影資訊所被包含的景深的相關資訊的這件事情,予以傳訊。
再者,在圖25所示的例子中,Representation內的associationId、和Representation內的associationType=“silh”會被使用,而將剪影的Representation、與該Representation所對應之景深的Representation,建立關連。
此處,associationId係為,將對應之景深與剪影,亦即將成對的景深與剪影建立對應(建立關連)所需之資訊(Id)。
又,associationType係為表示,與含有該associationType的Representation相對應的Representation的關連對應之種類的資訊。尤其是,此處「associationType=“silh”」係表示了,Representation的關連對應之種類係為剪影與景深之關係這件事情。
例如,在箭頭W67所示的Adaptation Set的箭頭A63所示的Representation內,作為id是被描述有「hq_dep1_1」。
同樣地,在箭頭W68所示的Adaptation Set的箭頭A64所示的Representation內,作為id是被描述有「hq_dep4_1」。
相對於此,在箭頭W69所示的Adaptation Set的箭頭A65所示的Representation內,係被描述有associationId「hq_dep1_1」與associationType「silh」。
又,在箭頭W70所示的Adaptation Set的箭頭A66所示的Representation內,係被描述有associationId「hq_dep4_1」與associationType「silh」。
因此,在客戶端中係可識別,id「hq_dep1_1」所被描述之箭頭A63所示的Representation,係為景深所相關者。
又,在客戶端中係可識別,associationId「hq_dep1_1」與「associationType=“silh”」所被描述之箭頭A65所示的Representation,係為與箭頭A63所示的Representation(景深)建立關連的剪影所相關者。這是因為,在箭頭A65所示的Representation中係被描述有,與箭頭A63所示的Representation內的id相同的值。
同樣地,在客戶端中係可識別,箭頭A64所示的Representation,係為景深所相關者,箭頭A66所示的Representation,係為與箭頭A64所示的Representation(景深)建立關連的剪影所相關者。
如以上所述若使用associationId與associationType,則在客戶端中,可識別景深、和與該景深建立關連(建立對應)的剪影,可取得這些景深或剪影。
如此可以取得追加之剪影的情況下,例如檔案生成裝置11係進行與參照圖10所說明的上傳處理相同之處理。
但是,在步驟S13中,如圖24及圖25所示般地,MPD檔案生成部33係生成,含有關於追加之紋理或景深、剪影的Adaptation Set的MPD檔案。
尤其是,在此情況下,MPD檔案生成部33,係如圖24或圖25所示般地在剪影所相關的Adaptation Set中描述silhouette descriptor,在剪影的Adaptation Set內的Representation中,係因應需要而描述associationId或associationType。
又,在還可以取得追加之剪影的情況下,客戶端裝置71係進行和參照圖12所說明之BV內容再生處理相同之處理以再生BV內容。
但是,在步驟S45中,MPD檔案處理部93係不只BV群組之Adaptation Set或Representation,還會基於birdview coverage descriptor的source_id或silhouette descriptor等,將可對BV群組做追加的BV串流之Adaptation Set或Representation亦予以識別。
尤其是,MPD檔案處理部93係藉由參照Representation內的associationId或associationType,就可識別追加之景深的Representation、和與該景深建立關連的追加之剪影的Representation。
此外,關於剪影的Adaptation Set或Representation,係可藉由Adaptation Set中所含之silhouette descriptor而加以識別。再者,在景深中含有剪影資訊的情況下,則可藉由上述的depth with silhouette descriptor,來識別含有剪影資訊的景深(附帶剪影之景深)的Adaptation Set或Representation。
又,在步驟S46中,MPD檔案處理部93係從構成BV群組的Adaptation Set或Representation、及追加之BV串流的Adaptation Set或Representation之中,選擇出要取得之BV串流的Adaptation Set或Representation。
此時,MPD檔案處理部93,係基於使用者的視點位置或傳輸頻帶、birdview coverage descriptor等,來選擇要取得之BV串流的Adaptation Set或Representation。例如MPD檔案處理部93,係可將相當於使用者之視野領域的BV串流予以高畫質化,或是在傳輸頻帶尚有餘裕的情況下,則隨應於使用者之視野等而選擇追加之紋理或景深、剪影的Representation等等。
〈第2實施形態〉 〈關於BV群組〉   此外,以上雖然說明了藉由紋理與網格而構成了1個BV群組的例子,但亦可藉由紋理與景深來構成1個BV群組。
例如藉由紋理與景深來構成1個BV群組的情況下,具有如下的優點及缺點。
(優點1)   景深之BV串流係相較於網格之BV串流,用來構成3D形狀所必須的總大小是比較小
(缺點1)   由於必須要在客戶端側進行網格化,因此客戶端側的處理負荷較高 (缺點2)   為了構成3D形狀,需要有複數個景深影像
又,由紋理和景深所成之BV群組之例子,示於圖26。此外,圖26中,和圖2對應的部份,係標示同一符號,並適宜地省略其說明。
在圖26的例子中,係以圍繞空間上的3D模型(物件)之周圍的方式而視點位置每錯開90度地,具有4個紋理TX1乃至紋理TX4、和與這些紋理相同視點位置的4個景深DP61乃至景深DP64。
亦即,景深DP61乃至景深DP64之每一者,係與紋理TX1乃至紋理TX4之每一者相同視點位置,紋理TX1乃至紋理TX4之每一者與景深DP61乃至景深DP64之每一者係為配對。
然後,由景深DP61乃至景深DP64、和紋理TX1乃至紋理TX4而構成了1個BV群組,藉由構成該BV群組的BV串流而可構成BV內容。
針對如此的紋理與景深所成之BV群組之傳訊,也是和上述的第1實施形態中的情況同樣地,只要使用媒體顯示管理檔案也就是MPD檔案即可。
例如如圖27所示,假設由4個紋理TX11乃至紋理TX14、和4個景深DP71乃至景深DP74,構成1個BV群組。此外,圖27中,和圖3對應的部份,係標示同一符號,並適宜地省略其說明。
此處,景深DP71乃至景深DP74之每一者的視點位置,係與紋理TX11乃至紋理TX14之每一者的視點位置相同。
使用MPEG-DASH來配送BV內容的情況下,如此的BV群組的相關資訊,係藉由例如圖28及圖29所示的MPD檔案來加以傳訊即可。
此外,圖29係表示接續於圖28所示的MPD檔案之部分,亦即圖28的圖中下側所示部分之後的MPD檔案的剩餘之部分。在圖28及圖29中,為了明確表示1個MPD檔案是由這些圖所圖示,在圖28中係在下側記載有文字「下接圖29」,在圖29中係在上側記載有文字「上接圖28」。這些文字「下接圖29」及「上接圖28」,係沒有實際被描述在MPD檔案中。
又,於圖28及圖29所示的MPD檔案中,關於和圖15及圖16所示的例子相同之部分,因為是重複的所以適宜省略其說明。再者,此處是假設,紋理或景深,係分別是以個別的single track file的方式而被儲存。
在圖28及圖29所示的MPD檔案中,箭頭W91所示的部分係為1個BV群組所相關的Preselection。
又,箭頭W92乃至箭頭W95之每一者所表示的Adaptation Set,係為構成BV群組的紋理或景深所相關之Adaptation Set。然後,含有箭頭W92乃至箭頭W95之每一者所表示的Adaptation Set的,構成1個BV群組的各BV串流之Adaptation Set之id,係被描述在箭頭W91所示的Preselection中。
此處,tex1乃至tex4,係為圖27的紋理TX11乃至紋理TX14的相關資訊所被描述的Adaptation Set之id。又,dep1乃至dep4係為圖27的景深DP71乃至景深DP74的相關資訊所被描述的Adaptation Set之id。
例如在箭頭W92所示的Adaptation Set中,作為該Adaptation Set之id是被描述有「tex1」,在箭頭W93所示的Adaptation Set中,作為該Adaptation Set之id是被描述有「tex4」。
又,在箭頭W94所示的Adaptation Set中,作為該Adaptation Set之id是被描述有「dep1」,在箭頭W95所示的Adaptation Set中,作為該Adaptation Set之id是被描述有「dep4」。
因此,根據箭頭W91所示的Preselection要素的preselectionComponents屬性中所被描述的「dep1 dep2 dep3 dep4 tex1 tex2 tex3 tex4」可知,藉由紋理TX11乃至紋理TX14和景深DP71乃至景深DP74而構成了1個BV群組。換言之,可知這些紋理或景深所對應之8個的Adaptation Set,是被群組化成為基本的1個BV群組。
又,箭頭W91所示的Preselection係含有,和圖15的箭頭W21所示的Preselection的情況相同的birdview descpriptor或birdview coverage descriptor。同樣地,例如在箭頭W92所示的Adaptation Set中係含有,和圖15的箭頭W22所示的Adaptation Set的情況相同的texture descriptor或birdview coverage descriptor。
再者,在箭頭W94所示的Adaptation Set或箭頭W95所示的Adaptation Set中係含有,和圖16的箭頭W27所示的Adaptation Set的情況相同的depth descritptor或birdview coverage descriptor。
例如在箭頭W94所示的Adaptation Set中,箭頭A81所示的EssentialProperty係為depth descritptor,箭頭A82所示的SupplementalProperty係為birdview coverage descriptor。
此外,birdview descpriptor或texture descriptor、depth descritptor之定義,係和上述的第1實施形態或第1實施形態的變形例1的情況相同。又,birdview coverage descriptor之定義係和上述的第1實施形態的變形例1的情況相同。
於此例中也是,關於構成BV群組的各紋理或景深,係可於客戶端側,隨應於傳輸頻帶,而選擇適切的位元速率的Representation等而可將紋理或景深予以高畫質化。
又,在客戶端中,藉由參照birdview coverage descriptor,亦可只將相當於使用者之視野的紋理或景深予以高畫質化。
再者,於客戶端中,亦可不必取得構成BV群組的所有紋理及景深,只選擇在顯示使用者之視野範圍時所必須的紋理與景深,取得這些已選擇之紋理及景深而進行算圖。這尤其是在傳輸頻帶(頻寬)受到限制,無法取得構成BV內容的所有BV串流時,特別有用。
如以上般地藉由紋理與景深來構成BV群組的情況下,例如檔案生成裝置11係可進行和參照圖10所說明的上傳處理相同之處理。
但是,在步驟S13中,如圖28及圖29所示般地,MPD檔案生成部33係生成,含有紋理或景深之Adaptation Set的MPD檔案。
又,在如此情況下,客戶端裝置71係進行和參照圖12所說明之BV內容再生處理相同之處理以再生BV內容。
此外,在步驟S45中,MPD檔案處理部93,係基於texture descriptor或depth descritptor,來識別構成BV群組的紋理與景深的Adaptation Set。
然後,在步驟S46中,MPD檔案處理部93,係從構成BV群組的紋理與景深的Adaptation Set或Representation之中,選擇出要取得的BV串流的Adaptation Set或Representation。此時,MPD檔案處理部93,係基於使用者的視點位置或傳輸頻帶、birdview coverage descriptor等,來選擇Adaptation Set或Representation。
〈第2實施形態的變形例1〉 〈關於追加的BV串流之取得〉   此外,如第2實施形態所說明,在BV群組是由紋理與景深所構成的情況下,亦可除了該BV群組,還追加取得BV群組中所不包含的視點位置的紋理或景深。
若除了BV群組以外還取得追加之BV串流,則可再生較高畫質的BV內容。
亦即,藉由增加可取得的紋理之數量,就不需要藉由補足來生成可顯示領域外之領域之紋理,因此可提升算圖時的BV內容之品質。又,藉由追加景深,在建構3D模型之際可獲得較高精度的3D形狀。
可追加取得紋理或景深的情況,係考慮例如圖30所示的例子。此外,圖30中,和圖26對應的部份,係標示同一符號,並適宜地省略其說明。
在圖30的例子中,如圖中左側所示,以圍繞空間上的3D模型之周圍的方式,視點位置每錯開90度地,由4個紋理TX1乃至紋理TX4和4個景深DP61乃至景深DP64而構成了1個BV群組。
甚至,除了該BV群組之BV串流以外,如圖中中央所示般地以圍繞3D模型之周圍的方式使視點位置每次錯開90度,還有與紋理TX1乃至紋理TX4不同視點位置的4個紋理TX51乃至紋理TX54。甚至,在與這些紋理TX51乃至紋理TX54之每一者相同視點位置,還分別有景深DP81乃至景深DP84。
在客戶端側,可將這些紋理TX51乃至紋理TX54之BV串流、或景深DP81乃至景深DP84之BV串流,作為追加BV串流而加以取得。
一旦有此種可追加取得之紋理,則例如圖中右側所示般地,可以使用與BV群組之紋理具有不同涵蓋範圍(可顯示領域)的紋理,而可再生較高畫質的BV內容。
尤其是,在此例中,除了紋理TX1乃至紋理TX4以外,還取得紋理TX51乃至紋理TX54,藉此,可利用圍繞3D模型之周圍的較多的視點位置的紋理。
在使用MPEG-DASH來配送BV內容的情況下,如以上的追加BV串流也可配訊時,在追加BV串流的相關資訊之傳訊時,只要使用MPD檔案即可。
例如如圖31所示,假設由4個紋理TX91乃至紋理TX94、和景深DP91乃至景深DP94,構成1個BV群組。
又,與紋理TX91乃至紋理TX94之每一者不同視點位置的追加之紋理HTX51乃至紋理HTX54之每一者的BV串流,係可追加取得之。再者,與紋理HTX51乃至紋理HTX54之每一者的視點位置為相同視點位置的追加之景深HDP51乃至景深HDP54之每一者的BV串流,也是可以取得。
此外,在圖31中,圖中左側所描繪的圓,係表示各BV串流亦即紋理或景深的視點位置。
如此藉由紋理TX91乃至紋理TX94和景深DP91乃至景深DP94來構成1個BV群組,對該BV群組可追加取得紋理HTX51乃至紋理HTX54及景深HDP51乃至景深HDP54的情況下,例如MPD檔案係變成如圖32及圖33所示。
此外,圖33係表示接續於圖32所示的MPD檔案之部分,亦即圖32的圖中下側所示部分之後的MPD檔案的剩餘之部分。在圖32及圖33中,為了明確表示1個MPD檔案是由這些圖所圖示,在圖32中係在下側記載有文字「下接圖33」,在圖33中係在上側記載有文字「上接圖32」。這些文字「下接圖33」及「上接圖32」,係沒有實際被描述在MPD檔案中。
又,於圖32及圖33所示的MPD檔案中,關於和圖15及圖16所示的例子相同之部分,因為是重複的所以適宜省略其說明。再者,此處是假設,紋理或景深,係分別是以個別的single track file的方式而被儲存。
在圖32及圖33所示的MPD檔案中,箭頭W111所示的部分係為1個BV群組所相關的Preselection。
又,箭頭W112乃至箭頭W115之每一者所表示的Adaptation Set,係為構成BV群組的紋理或景深所相關之Adaptation Set。然後,含有箭頭W112乃至箭頭W114之每一者所表示的Adaptation Set的,構成1個BV群組的各BV串流之Adaptation Set之id,係被描述在箭頭W111所示的Preselection中。
此處,tex1乃至tex4,係為圖31的紋理TX91乃至紋理TX94的相關資訊所被描述的Adaptation Set之id。又,dep1乃至dep4係為圖31的景深DP91乃至景深DP94的相關資訊所被描述的Adaptation Set之id。
因此,根據箭頭W111所示的Preselection要素的preselectionComponents屬性中所被描述的「dep1 dep2 dep3 dep4 tex1 tex2 tex3 tex4」可知,藉由紋理TX91乃至紋理TX94和景深DP91乃至景深DP94而構成了1個BV群組。
再者,箭頭W116乃至箭頭W119之每一者所表示的Adaptation Set,係為高畫質化用的追加BV串流的相關資訊所被描述的Adaptation Set。
例如圖31所示的紋理HTX51乃至紋理HTX54的相關資訊所被描述的Adaptation Set之id係為hq_tex1乃至hq_tex4。又,圖31所示的景深HDP51乃至景深HDP54的相關資訊所被描述的Adaptation Set之id係為hq_dep1乃至hq_dep4。
此外,於圖32及圖33所示的例子中,birdview descpriptor或texture descriptor、depth descritptor之定義,係和上述的第1實施形態或第1實施形態的變形例1的情況相同。又,birdview coverage descriptor之定義係和第1實施形態的變形例1、亦即圖15及圖16的情況相同。
箭頭W111所示的Preselection係含有,和圖15的箭頭W21所示的Preselection的情況相同的birdview descpriptor或birdview coverage descriptor。尤其是,箭頭W111所示的Preselection的箭頭A101所示的部分,係為birdview coverage descriptor,該birdview coverage descriptor中,作為表示所參照之BV串流之來源(素材)的source_id,是含有「1」。
又,在紋理所相關的Adaptation Set也就是箭頭W112或箭頭W113、箭頭W116、箭頭W117所示的Adaptation Set中,係含有texture descriptor。同樣地,在景深所相關的Adaptation Set也就是箭頭W114或箭頭W115、箭頭W118、箭頭W119所示的Adaptation Set中,係含有depth descritptor。
再者,箭頭W112乃至箭頭W119之每一者所示的Adaptation Set中的,箭頭A102乃至箭頭A109之每一者所示的部分,係為birdview coverage descriptor,在這些birdview coverage descriptor中,作為source_id係含有「1」。
因此,在客戶端側,可以識別(特定)出,可將箭頭W112乃至箭頭W119之每一者所示的Adaptation Set所對應之紋理或景深加以組合而構成1個BV內容這件事情。此時,例如隨應於使用者之視野而除了BV群組之BV串流以外,若還將source_id為相同的追加BV串流,亦即追加之紋理或景深也加以選擇及取得,則可實現較高畫質的BV內容再生。
如以上所述般地在可以取得追加之BV串流的情況下,例如檔案生成裝置11係進行與參照圖10所說明的上傳處理相同之處理。
但是,在步驟S13中,如圖32及圖33所示般地,MPD檔案生成部33係生成,含有關於追加之紋理或景深的Adaptation Set的MPD檔案。又,MPD檔案生成部33,係如圖32或圖33所示般地生成含有source_id的birdview coverage descriptor,描述在Preselection或Adaptation Set中。
然後,在可以取得追加之BV串流的情況下,客戶端裝置71係進行和參照圖12所說明之BV內容再生處理相同之處理以再生BV內容。
但是,在步驟S45中,MPD檔案處理部93係不只BV群組之Adaptation Set或Representation,還會基於birdview coverage descriptor的source_id,將可對BV群組做追加的BV串流之Adaptation Set或Representation亦予以識別。
又,在步驟S46中,MPD檔案處理部93係從構成BV群組的Adaptation Set或Representation、及追加之BV串流的Adaptation Set或Representation之中,選擇出要取得之BV串流的Adaptation Set或Representation。
此時,MPD檔案處理部93,係基於使用者的視點位置或傳輸頻帶、birdview coverage descriptor的value中所含的source_id或表示可顯示領域的資訊(參數)等,來選擇Adaptation Set或Representation。
此外,以上所說明的第2實施形態或第2實施形態的變形例1中也是,和第1實施形態的變形例3的情況相同地,也能夠還取得與景深建立關連的剪影。在此種情況下,在MPD檔案中係會描述有剪影所相關的Adaptation Set。
又,於第1實施形態或第2實施形態中,BV群組之群組化亦可不是使用Preselection而是使用Adaptation Set的Viewpoint要素來進行之。此時,於Viewpoint中是使用「shcemeIdUri=“urn:mpeg:dash:bvgroup:2017”」。此情況下,Viewpoint的value為相同值的Adaptation Set係表示這是可構成同一BV內容的BV串流。
甚至,在第1實施形態的變形例1或第2實施形態之變形1中,是將對於以Preselection而被傳訊的BV群組而可追加的BV串流,以birdview coverage descriptor的value中的source_id建立關連。可是,亦可取得source_id,改為藉由表示該BV串流所能追加之BV群組的Preselection之id的preselection_id,來建立關連。
例如在圖15所示的例子中,Preselection中的「bv_base」係為preselection_id,藉由將該preselection_id包含在birdview coverage descriptor中,就可將BV群組之BV串流、與追加BV串流,建立關連。
又,於第1實施形態或第1實施形態的變形例1、第2實施形態、第2實施形態的變形例1中,與birdview coverage descriptor同等之資訊,亦可不是使用SupplementalProperty或EssentialProperty,而是使用Preselection的Viewpoint要素或Adaptation Set的Viewpoint要素,來加以傳訊。此時,Viewpoint的schemeIdUri與Viewpoint的value之語意,係和上述的birdview coverage descriptor的情況相同。
除此以外,BV內容所相關之檔案之1個track中係亦可儲存紋理與網格、或紋理與景深,在可由1個Adaptation Set來構成BV內容的情況下,則亦可在該Adaptation Set中將birdview descriptor予以傳訊。
如以上所述,若依據第1實施形態乃至第2實施形態的變形例1中所說明的本技術,則可將紋理或網格、景深等之各種類之BV串流於DASH MPD層亦即MPD檔案中予以群組化,並將該BV群組予以傳訊。藉此,客戶端可容易地選擇或取得BV內容觀賞時所必須之BV串流。
而且,BV群組之BV串流,係可隨應於傳輸頻帶而適應性地變更畫質,可有效活用傳輸頻帶(頻寬)。
又,藉由附加BV串流的可顯示領域資訊,可取得相應於使用者之視野而為必須的追加BV串流,可由BV群組之BV串流和追加BV串流,來建構一部分為高畫質的3D模型。
〈第3實施形態〉 〈關於BV群組之傳訊〉   話說回來,以上係說明了,將構成BV內容的BV串流,在DASH MPD層而加以群組化的方法。可是,如此的BV串流之群組化,係亦可於ISOBMFF層中進行。
以下就以,將BV內容儲存至ISOBMFF,於ISOBMFF層中進行BV串流之群組化的情況為例來做說明。
在此種情況下,BV內容所被儲存之檔案,係為例如圖34所示的格式。
在圖34中,檔案FL11係為用來再生BV內容所需之檔案,例如檔案FL11係為基於ISOBMFF的MP4檔案等。
在此例中,在檔案FL11中係設有箭頭Q61所示的Movie Box(影片箱盒)、和箭頭Q62所示的Media Data Box(媒體資料箱盒)。
Media Data Box,係為用來再生BV內容所需之BV串流所被儲存的資料領域,Media Data Box中係被儲存有從1或複數個track(訊軌)所被參照的BV串流。然後,從1個track而參照1或複數個BV串流。以下,將track會去參照Media Data Box中所被儲存之BV串流這件事情,亦稱為track是將BV串流予以儲存。
此外,1個track中,係亦可被儲存有紋理或景深等之複數種類之中的1種類之BV串流,也可儲存2種類以上之BV串流。
又,Movie Box(moov),係為Media Data Box內的各track的相關資訊,亦即這裡係為Media Data Box中所被儲存之BV內容所相關之後設資訊所被儲存的領域。換言之,Movie Box係為用來管理BV內容所需之媒體顯示管理資訊所被儲存的管理領域。
更詳言之,Movie Box中係被儲存有track的相關資訊所被儲存之Track Box(trak),此處係對1個track設有1個Track Box。
然後,在該Track Box中係被儲存有,例如箭頭Q63所示的Track Group Box(trgr)、和箭頭Q64所示的Media Box(mdia)。
Track Group Box,係為1或複數個track所成之track group(訊軌群組)的相關資訊所被儲存的領域,藉由該Track Group Box而進行track之群組化,將群組共通之資訊予以傳訊。
Track Group Box中係被儲存有Track Group Type Box(track_group_type)。Track Group Type Box,係為ISOBMFF中所被規定者,是作為用來把具有相同特性的複數track予以群組化所需之工具而被利用。
又,在箭頭Q64所示的Media Box中係被儲存有Media Information Box(minf),然後,在該Media Information Box中係被儲存有,用來管理track所參照之BV串流之時間或位址等之資訊所需之Sample Table Box(stbl)。
在Sample Table Box中係被儲存有Sample Description Box(stsd),然後在其Sample Description Box中係被儲存有Sample Entry。
在該Sample Entry中係有箭頭Q65所示的Restricted Sample Entry(resv)、和箭頭Q66所示的Visual Sample Entry(coding name)。換言之,作為Sample Entry之種類,是存在有Restricted Sample Entry或Visual Sample Entry。
在Restricted Sample Entry中係被儲存有Restricted Scheme Information Box(rinf),該Restricted Scheme Information Box係為BV串流之解碼(decode)後的後段處理中所被使用的資訊所被儲存的領域。
此處,Restricted Scheme Information Box中係被儲存有Scheme Type Box(schm)與Scheme Information Box(schi),尤其是,Scheme Information Box中係被儲存有,BV串流之解碼後的後段處理中所被使用的資訊。
又,箭頭Q66所示的Visual Sample Entry (coding name),係為按照每一視訊編解碼器而定的資訊,例如若為HEVC則被設成hvc1等。在該Visual Sample Entry中係被儲存有,從track所被儲存的視訊序列之資訊。
此處,考慮在圖34所示的格式的檔案中,將構成BV群組的BV串流予以傳訊。
在本技術中,在圖34所示的格式之檔案之中,為了將track中所被儲存之紋理或景深係為構成BV內容的這件事情予以傳訊,而新定義了將Track Group Type Box予以擴充而成的Birdview Group Box。
在圖34所示的例子中,將Track Group Type Box予以擴充而成的Birdview Group Box,係被儲存在Track Group Box。
亦即,Birdview Group Box,係只被儲存在,構成BV內容的BV串流所被儲存之track所對應之Track Box中。
因此,在客戶端係藉由參照Track Box內的Birdview Group Box,就可識別BV內容之BV串流是被儲存在哪個track中。
此外,在1個track係亦可只儲存有紋理或景深,也可紋理與景深之雙方都有被儲存。
此處,Track Group Type Box之語法和語意示於圖35。
於圖35中,箭頭Q81所示的部分係表示Track Group Type Box之語法,箭頭Q82所示的部分係表示Track Group Type Box之語意。
Track Group Type Box,係為ISOBMFF中所被規定者,是用來把具有相同特性的複數track予以群組化所需之工具。此處,所謂track之特性(particular characteristics),係為例如隸屬於有可能同時再生之track所成之所定之群組(track group)的這類特性等。
Track Group Type Box中係含有Track Group Type Box,更詳言之,係為表示該Track Group Type Box所被儲存之Track Box所對應之track所具有之特性的資訊也就是track_group_id。亦即,track_group_id係為track所屬之track group之id。
因此,表示track group之種別(種類)的track_group_type係為相同,且具有相同track_group_id的track,係意味著是隸屬於同一track group中。
如上述,在本技術中,藉由將該Track Group Type Box予以擴充而成的Birdview Group Box而進行構成BV群組的BV串流之群組化。
將圖35所示的Track Group Type Box予以擴充所得的Birdview Group Box之語法,示於圖36。
在圖36所示的例子中,如箭頭Q91所示,track_group_type係被設成「“bvgp”」,該track_group_type係表示,track group之種別係為由構成BV群組的BV串流所被儲存之track所成之track group。
又,在圖36所示的Birdview Group Box中係被儲存有上述的track_group_id。隸屬於Birdview Group Box,具有相同track_group_id的track所儲存的BV串流,係意味著是構成同一BV內容。
因此,客戶端係根據Track Box內的Birdview Group Box之有無、和Birdview Group Box中所含之track_group_id,就可識別構成同一BV內容的BV串流所被儲存的track。
換言之,客戶端,係根據Track Box中是否有儲存Birdview Group Box,以及Birdview Group Box內的track_group_id,就可識別同一BV內容之BV串流,亦即構成BV群組的BV串流。由此可知,Birdview Group Box,係為表示用來再生同一BV內容所需之BV串流所被儲存的track的資訊,亦即可以說是表示構成同一3D模型所需之複數BV串流的群組資訊。
藉由設計成如此構成之檔案,例如可用HEVC或AVC這些一般的,亦即泛用的編解碼器來進行BV串流之編碼及解碼,且可實現能夠再生BV內容的BV串流之群組化。亦即,可適切地再生BV內容。
此外,圖36所示的Birdview Group Box中,係可儲存任意之Box。於是,亦可例如作為BV內容的可顯示領域資訊而新定義如圖37所示的Birdview Coverage Information Box,儲存在Birdview Group Box中。
於圖37中,箭頭Q101所示的部分係表示Birdview Coverage Information Box之語法,箭頭Q102所示的部分係表示Birdview Coverage Information Box之語意。
Birdview Coverage Information Box,係為表示BV內容之可顯示領域的資訊,相當於上述的birdview coverage descriptor。
此處,在Birdview Coverage Information Box中,作為表示可顯示領域的資訊(參數)係含有:「pos_x」、「pos_y」、「pos_z」、「center_yaw」、「center_pitch」、「center_roll」、「hor_range」、及「ver_range」。
具體而言,參數「pos_x」,係表示空間上的3D模型之中心位置的x座標。又,參數「pos_y」,係表示空間上的3D模型之中心位置的y座標,參數「pos_z」,係表示空間上的3D模型之中心位置的z座標。
這些參數pos_x、pos_y、及pos_z,係對應於圖7所示的birdview coverage descriptor之參數x、y、及z。
又,參數「center_yaw」係表示,從3D模型之中心位置觀看時的表示可顯示領域之中心位置的偏擺角(yaw角)。又,參數「center_pitch」係表示從3D模型之中心位置觀看時的表示可顯示領域之中心位置的俯仰角(pitch角),參數「center_roll」係表示從3D模型之中心位置觀看時的可顯示領域之中心位置的翻滾角(roll角)、亦即可顯示領域的旋轉角度。
再者,參數「hor_range」係表示從3D模型之中心位置觀看時的可顯示領域之水平方向角度範圍,參數「ver_range」係表示從3D模型之中心位置觀看時的可顯示領域之垂直方向角度範圍。
這些參數center_yaw、center_pitch、center_roll、hor_range、及ver_range,係和圖7所示的birdview coverage descriptor的情況相同。
因此,在客戶端中,藉由參照在Birdview Coverage Information Box中所被傳訊的各參數,就可特定(識別)出BV內容的可顯示領域。
此外,Birdview Group Box中沒有Birdview Coverage Information Box被傳訊的情況下,亦即沒有儲存Birdview Coverage Information Box的情況下,則亦可視為其係表示BV內容是涵蓋全周圍來作為可顯示領域。
又,例如檔案內也有可能儲存了可顯示領域彼此互異的複數BV內容之BV串流。在如此情況下,客戶端係藉由參照Birdview Coverage Information Box,就可從複數BV內容之中,選擇出使用者之視野所相應之適切的BV內容,亦即BV串流之群組而予以再生。
〈關於檔案生成裝置和客戶端裝置之動作〉   如以上般地,BV串流之群組化是於ISOBMFF層中被進行的情況下,例如檔案生成裝置11係可進行和參照圖10所說明的上傳處理相同之處理。
但是,在步驟S12中,區段檔案生成部43係基於從資料輸入部31所被供給的後設資料等,而將從編碼部42所被供給的BV串流之編碼資料予以檔案化,藉此而生成圖34所示的格式之檔案。此時,所被生成的檔案中係被儲存有圖36所示的Birdview Group Box或圖37所示的Birdview Coverage Information Box。
區段檔案生成部43,係一旦生成如此的檔案,就基於所得之檔案而生成區段檔案,並供給至記錄部34。
又,在步驟S13中,亦可生成在第1實施形態或第2實施形態等中所說明的MPD檔案,亦可生成一般的MPD檔案。
一旦如此生成了區段檔案和MPD檔案,則其後,步驟S14及步驟S15之處理會被進行而區段檔案與MPD檔案會被上傳,結束上傳處理。
此外,此處雖然說明BV內容之檔案是被MPEG-DASH配訊的例子,但所被生成的BV內容之檔案係亦可被儲存在可移除式記錄媒體等中等等。
又,BV串流之群組化是於ISOBMFF層中被進行的情況下,例如客戶端裝置71係進行圖38所示的BV內容再生處理。以下,參照圖38的流程圖,說明客戶端裝置71所進行的BV內容再生處理。
此外,步驟S81乃至步驟S83之處理,係和圖12之步驟S41乃至步驟S43之處理相同,因此省略其說明。
於步驟S84中,區段檔案取得部94,係進行和圖12的步驟S47相同之處理,從伺服器取得BV串流所被儲存之區段檔案,並供給至區段檔案處理部111。
此時,例如MPD檔案處理部93,係基於從MPD檔案取得部92所被供給的MPD檔案或傳輸頻帶之計測結果等,來選擇要取得的Representation,將其選擇結果供給至區段檔案取得部94。此處,例如基本上,所有的Adaptation Set是被視為應取得之Adaptation Set而被選擇,每一Adaptation Set地,傳輸頻帶之計測結果等所相應之位元速率的Representation會被選擇。
然後,區段檔案取得部94,係基於從MPD檔案處理部93所被供給的選擇結果,隨應於該選擇結果而取得區段檔案。
藉此,例如基於圖34所示的格式之檔案所被生成的區段檔案,會被取得。
此外,此處是針對BV內容之檔案是被MPEG-DASH配訊的例子加以說明。可是,BV內容之檔案,係亦可並非串流化形式,當然也可從伺服器整批被下載,也可從硬碟或可移除式記錄媒體等予以讀出。
於步驟S85中,區段檔案處理部111係基於從區段檔案取得部94所被供給的區段檔案,亦即BV內容之檔案,來選擇該檔案中所被儲存的BV串流所構成的BV群組。
例如區段檔案處理部111,係藉由參照BV內容之檔案中的Birdview Group Box,而識別該檔案中所被儲存的BV串流所成之BV內容,亦即BV群組。
具體而言,區段檔案處理部111,係將Birdview Group Box所被傳訊之track,且為相同track_group_id的track中所被儲存的BV串流,識別成為構成了1個BV群組的BV串流。
區段檔案處理部111,係從已被識別的BV內容(BV群組)之中,選擇出再生對象的BV內容。
此時,區段檔案處理部111,係參照例如Birdview Group Box中所被儲存之Birdview Coverage Information Box,而選擇可將相當於使用者之視野的領域予以顯示的BV群組,亦即在可顯示領域內包含有使用者之視野領域的BV群組。
於步驟S86中,區段檔案處理部111係識別,於步驟S85中所選擇之構成同一BV群組的track。亦即,如上述,相同track_group_id的track中所被儲存的BV串流,係被識別成為構成了1個BV群組的BV串流。此時,各track之種類,亦即track中所被儲存之BV串流之種類或各BV串流所被儲存之領域,係可根據例如後述的Birdview Information Box而加以識別。
於步驟S87中,區段檔案處理部111,係選擇BV內容之再生時所使用的track,從步驟S84中所取得的BV內容之檔案之中的已選擇之track,抽出已被編碼之BV串流,供給至解碼部112。此時,例如步驟S85中所選擇的構成BV群組的1或複數個track,係全部都被選擇。如此選擇track這件事情,可以說是選擇BV內容之再生時所使用的BV串流。
已被編碼之BV串流一旦被抽出,則其後,步驟S88及步驟S89之處理會被進行而結束BV內容再生處理,但這些處理係和圖12的步驟S49及步驟S50之處理相同,因此省略其說明。
如以上,客戶端裝置71,係參照已取得之檔案的Birdview Group Box,來識別檔案內的track,亦即由BV串流所成之BV群組(BV內容)。
藉此,於ISOBMFF之檔案中,也可簡單地識別以泛用的編解碼器而被編碼之BV串流所成之BV群組。藉此,可適切地再生BV內容。
〈第3實施形態的變形例1〉 〈關於track中所被儲存之BV串流資訊之傳訊〉   話說回來,第3實施形態中所說明之格式(形式)的檔案中,紋理或景深之BV串流是被儲存在track中,但作為其儲存方法的變異,係可考慮例如以下的3個方法。
首先,作為第1方法,係將各紋理個別地儲存在track中,針對景深也是個別地儲存在track中的方法。
又,第2方法係為,僅將複數紋理打包成1個影像,儲存在track中,並且同樣地僅將複數景深打包成1個影像,儲存在track中的方法。
第3方法係為,將複數紋理與景深打包成1個影像,儲存在1個track中的方法。
第2方法及第3方法,基本上是將影像資訊亦即複數BV串流予以排列配置,藉由將這些排列的BV串流予以合成而構成1個影像,將所得到的影像儲存至1個track中的方法。
此處,第2方法與第3方法之具體例,示於圖39。
在圖39中,箭頭Q81所示的部分係表示第2方法,箭頭Q82所示的部分係表示第3方法。
亦即,在第2方法中,如箭頭Q81所示般地8個紋理TX111乃至紋理TX118係被排列而合成,成為1個影像PX11。換言之,紋理TX111乃至紋理TX118係被打包成1個影像PX11。
然後,如此所得之影像PX11係被儲存至1個track中。
又,4個景深DP111乃至景深DP114被排列合成而成為1個影像PX12,該影像PX12係被儲存至1個track中。
相對於此,在第3方法中,8個紋理TX111乃至紋理TX118、和4個景深DP111乃至景深DP114係被排列合成而成為1個影像PX13,該影像PX13係被儲存至1個track中。
此外,以下係將紋理或景深予以打包所得到的,被儲存成track的1個影像,亦稱為儲存影像。又,儲存影像上的,1個BV串流之領域,亦即紋理或景深等之1個BV串流之影像之領域,亦稱為影像領域。
如以上,藉由將紋理或景深予以排列合成,就可將這些紋理或景深視為1個影像而儲存至track中。更詳言之,在BV串流之編碼時,儲存影像是藉由所定之編碼方式而被編碼,其結果所得之編碼資料係被儲存至track。又,在BV串流之解碼時,儲存影像之編碼資料係被解碼,從所得到之儲存影像抽出BV串流。藉此,在伺服器或客戶端中,是可將儲存影像,亦即構成儲存影像的紋理或景深,以HEVC或AVC這類泛用的編碼方式(編解碼器)予以編碼及解碼。
例如像是第2方法或第3方法般地,將複數紋理或景深打包而儲存至track的情況下,雖然串流取得時的可調性會喪失,但串流取得數較少,具有可削減網路處理負擔的優點。亦即,複數BV串流係被儲存在1個track中,因此雖然無法選擇性地取得數個BV串流,但可藉由1次的處理就能取得複數BV串流。
在本技術中,係為了考慮上述的第1方法乃至第3方法這3個案例而將track內所被儲存之BV串流之資訊予以傳訊,而新定義了Birdview Information Box。
該Birdview Information Box,係為BV串流之解碼(decode)後的算圖時所被使用的資訊,是將表示在track中所被儲存之串流中,紋理或景深是如何被打包的資訊,予以傳訊。
例如,Birdview Information Box係於圖34所示的檔案中,被儲存在由ISOBMFF所定義的Restricted Scheme Information Box(‘rinf’)、或Scheme Information Box(‘schi’)中。
此處,Birdview Information Box之語法例示於圖40,Birdview Information Box之語意示於圖41。
在圖40所示的例子中,Birdview Information Box中作為參數是含有:stream_num、streams_type、stream_left[i]、stream_top[i]、stream_width[i]、stream_height[i]、stream_type[i]、IntrinsicCameraParameters(i)、及ExtrinsicCameraParametersBox(i)。
如圖41所示,stream_num係表示track中所含之紋理或景深之合計數,亦即儲存影像中所含之BV串流之合計數。
streams_type係表示track中所被儲存之儲存影像的影像構成資訊。
亦即,此處若streams_type之值為0,則streams_type係表示在track內有紋理與景深之雙方存在。亦即,track內所被儲存之儲存影像中,係例如圖39的箭頭Q82所示般地含有紋理與景深。
streams_type之值為1的情況下,則streams_type係表示track內只有紋理存在,streams_type之值為2的情況下,則streams_type係表示track內只有景深存在。此外,streams_type之值「3」係視為預留。
尤其是streams_type之值為1或2的情況下,該streams_type係變成表示儲存影像內的各BV串流之種類的資訊。
stream_left[i]係表示,track內的儲存影像中所被打包之紋理或景深之各影像領域之左上像素之水平方向位置。stream_top[i]係表示,track內的儲存影像中所被打包之紋理或景深之各影像領域之左上像素之垂直方向位置。
stream_width[i]係表示,track內的儲存影像中所被打包之紋理或景深之各影像領域之寬度。又,stream_height[i]係表示,track內的儲存影像中所被打包之紋理或景深之各影像領域之高度。
根據以上的stream_left[i]、stream_top[i]、stream_width[i]、及stream_height[i],可以特定出儲存影像內的紋理或景深之影像領域之位置與大小,亦即哪個領域是影像領域。因此,這些stream_left[i]、stream_top[i]、stream_width[i]、及stream_height[i],係可說是用來特定出儲存影像上的BV串流之影像領域所需之資訊。
stream_type[i]係為表示track內的儲存影像中所被打包之各影像領域之類型,亦即影像領域中所被配置之BV串流之種類的資訊。例如stream_type[i]之值為0的情況下,則表示該影像領域係為紋理之影像領域,stream_type[i]之值為1的情況下,則表示該影像領域係為景深之影像領域。又,0或1以外的stream_type[i]之值係為預留。
此外,stream_type[i],係只有在streams_type之值為0的情況下,亦即儲存影像上有紋理之影像領域與景深之影像領域混合存在的情況下,會被儲存在Birdview Information Box中。
IntrinsicCameraParameters(i)係表示,關於track內的儲存影像中所被打包之紋理或景深的焦距或主點資訊這些內部攝影機參數。該IntrinsicCameraParameters(i),係被設成例如Multiview acquisition information SEI(Supplemental Enhancement Information)之資訊。
ExtrinsicCameraParametersBox(i)係表示,關於track內的儲存影像中所被打包之紋理或景深的攝影時的攝影機之旋轉或位置資訊這些外部攝影機參數。該ExtrinsicCameraParametersBox(i),係被設成例如Multiview acquisition information SEI之資訊等。
根據這些IntrinsicCameraParameters(i)與ExtrinsicCameraParametersBox(i),可以特定出對應的紋理或景深的可顯示領域(涵蓋範圍)。換言之,IntrinsicCameraParameters(i)與ExtrinsicCameraParametersBox(i),係可說是表示紋理或景深之可顯示領域的可顯示領域資訊。
stream_left[i]、stream_top[i]、stream_width[i]、stream_height[i]、stream_type[i]、IntrinsicCameraParameters(i)、及ExtrinsicCameraParametersBox(i),係位於儲存影像內的影像領域之數量有多少,就會被儲存多少筆。亦即,這些參數係每一影像領域地被儲存。
此外,stream_left[i]、stream_top[i]、stream_width[i]、及stream_height[i],係亦可不是以像素單位而被傳訊,而是被設成相對於track內所含之儲存影像全體之攝角的,各影像領域之位置或寬度、高度等的相對值。
此處,作為具體的例子,圖39所示的影像PX13被當成儲存影像而被儲存在1個track中時的Birdview Information Box之傳訊例,示於圖42。此外,圖42中,和圖39對應的部份,係標示同一符號,並適宜地省略其說明。
圖42所示的影像PX13被當成儲存影像而被儲存在1個track中的情況下,影像PX13係由8個紋理與4個景深所構成,且構成影像PX13的紋理或景深之影像領域之數量係為12。因此,Birdview Information Box中的stream_num之值係為12,streams_type之值係為0。
又,假設注目影像PX13的圖42中左上位置的紋理TX111,假設該紋理TX111的圖42中橫方向之寬度及高度,分別為480像素及960像素。
此情況下,關於紋理TX111,stream_left[i]之值係被設成0,stream_top[i]之值係被設成0,stream_width[i]之值係被設成480,stream_height[i]之值係被設成960,stream_type[i]之值係被設成0。
在客戶端中,藉由參照如此的Birdview Information Box,可將各track內的儲存影像中的紋理或景深之影像領域、或該影像領域之BV串流之種類予以特定,可從儲存影像中正確地抽出紋理或景深。
如以上所述,在1個track中將紋理或景深整合而予以儲存的情況下,為了至少可以建構出從特定視點位置觀看時的3D模型也會在track中儲存BV串流。藉由如此設計,在客戶端中係可選擇1個track,即使只使用該已選擇之track中所被儲存之BV串流,仍可再生BV內容。
Birdview Information Box有被傳訊的情況下,在檔案生成裝置11中,會進行和第3實施形態的情況相同之上傳處理。
但是,在步驟S12中,係生成例如含有如圖40所示的Birdview Information Box的檔案,基於該檔案而生成區段檔案。
又,Birdview Information Box有被傳訊的情況下,在客戶端裝置71中,會進行參照圖38所說明的BV內容再生處理。
此情況下,例如在步驟S86中,區段檔案處理部111係藉由參照Birdview Information Box,而可識別track中所被儲存之BV串流之種類。
又,在區段檔案處理部111中,藉由Birdview Information Box而不只可以識別各BV串流之種類,還可識別儲存影像上中的BV串流之領域(影像領域)。因此,區段檔案處理部111將這些識別結果供給至顯示資訊生成部113,藉此,顯示資訊生成部113係可從解碼後的儲存影像,抽出BV內容之再生時所必須之BV串流。
〈關於quality ranking之傳訊〉   又,亦可新定義Birdview Quality Ranking Box,而將track中所被儲存之BV串流、或表示BV內容之品質(quality)的資訊也就是quality ranking,予以傳訊。
例如Birdview Quality Ranking Box係將track中所被儲存之BV串流的quality ranking予以傳訊的情況下,則Birdview Quality Ranking Box係只要被儲存在Visual Sample Entry中即可。
此情況下,quality ranking係為表示,用來再生同一BV內容所需之BV串流所被儲存之track間,亦即用來再生同一BV內容所需之複數BV串流間的各BV串流之相對性品質(quality)的品質資訊。
又,例如Birdview Quality Ranking Box係將BV內容的quality ranking予以傳訊的情況下,則Birdview Quality Ranking Box係只要被儲存在Birdview Group Box中即可。
此情況下,quality ranking係為表示,複數BV內容間的各BV內容之相對性品質(quality)的品質資訊。
藉由如此設計,客戶端係可基於quality ranking,來選擇例如使用者之視野領域係為高畫質的構成BV內容的track(BV串流)等。
此處,Birdview Quality Ranking Box之語法及語意之例子示於圖43及圖44。
圖43係圖示了Birdview Quality Ranking Box之語法例。
在此例中,Birdview Quality Ranking Box中作為參數係含有:num_regions、remaining_area_flag、stream_type、quality_ranking、center_yaw、center_pitch、center_roll、hor_range、及ver_range。
此處參數quality_ranking係表示quality ranking之值,quality_ranking之值為1以上的情況下,其值越小則表示越高的品質。
又,其他參數之語意係如同圖44所示。
亦即,參數num_regions係為表示quality ranking所被傳訊之領域數的資訊。
參數remaining_area_flag係為,用來特定quality_ranking所表示的quality ranking之值的適用範圍之領域所需之旗標資訊。
此處,若參數remaining_area_flag之值為0,則quality ranking所被傳訊的各領域,亦即quality ranking之值的適用範圍的各領域,係為由參數center_yaw、center_pitch、center_roll、hor_range、及ver_range而定的領域。
相對於此,若參數remaining_area_flag之值為1,則Birdview Quality Ranking Box內所被描述的,從quality ranking所被傳訊的最初之領域,到倒數第2個領域為止的各領域,係為由參數center_yaw、center_pitch、center_roll、hor_range、及ver_range而定的領域。
然後,Birdview Quality Ranking Box內所被描述的,quality ranking所被傳訊的最後之領域,係為對應的BV串流的可顯示領域之中的,由所被傳訊之參數center_yaw、center_pitch、center_roll、hor_range、及ver_range而定的領域中所不包含的剩餘之領域部分之全部。亦即,BV串流的可顯示領域之中的,從quality ranking所被傳訊的最初之領域,到倒數第2個領域為止的各領域中所不包含的剩餘之領域,都是quality ranking所被傳訊的最後之領域。
此外,以下,紋理或景深之BV串流、或BV內容等的可顯示領域內的,quality ranking之對象的領域,亦稱為對象領域。參數remaining_area_flag,係可說是表示對象領域的資訊。
stream_type,係為表示quality ranking所被傳訊的領域之影像資訊,亦即對象領域之種類的資訊。例如stream_type之值為0的情況下,則表示該對象領域係為紋理之領域,stream_type之值為1的情況下,則表示該對象領域係為景深之領域。又,stream_type之值為2的情況下,則表示該對象領域係為BV內容之領域,stream_type之值「3」則為預留。
參數center_yaw係表示,從3D模型之中心位置觀看時的表示對象領域之中心位置的偏擺角(yaw角)。又,參數center_pitch係表示從3D模型之中心位置觀看時的表示對象領域之中心位置的俯仰角(pitch角),參數center_roll係表示從3D模型之中心位置觀看時的對象領域之中心位置的翻滾角(roll角)、亦即對象領域的旋轉角度。
再者,參數hor_range係表示從3D模型之中心位置觀看時的對象領域之水平方向角度範圍,參數ver_range係表示從3D模型之中心位置觀看時的對象領域之垂直方向角度範圍。
藉由這些參數center_yaw、center_pitch、center_roll、hor_range、及ver_range,而特定出對象領域。亦即,對象領域,係和參照圖6所說明的可顯示領域中的情況同樣地,例如係為球的中心、和中心是與該中心一致的球上的4個圓所圍繞的領域,特別是對象領域係為與可顯示領域相同之領域、或是可顯示領域的一部分之領域。
由以上可知,在Birdview Quality Ranking Box中,按照BV內容或BV串流中的可顯示領域內的1或複數個對象領域之每一者而分別傳訊quality ranking。
此外,此處是以3D模型之內側,亦即從3D模型之中心觀看時的領域當作對象領域而進行傳訊,但亦可以3D模型之外側,亦即從作為所定之基準的視點位置觀看時的領域當作對象領域而進行傳訊。
如以上所述,在Birdview Quality Ranking Box有被傳訊的情況下,在檔案生成裝置11中,會進行和第3實施形態的情況相同之上傳處理。
但是,在步驟S12中,係生成例如含有如圖43所示的Birdview Quality Ranking Box的檔案,基於該檔案而生成區段檔案。
又,Birdview Quality Ranking Box有被傳訊的情況下,在客戶端裝置71中,會進行參照圖38所說明的BV內容再生處理。
此情況下,在步驟S85中,例如區段檔案處理部111係可參照Birdview Group Box中所被儲存的Birdview Quality Ranking Box,而選擇相當於使用者之視野的領域為高畫質的BV群組。
同樣地,例如在步驟S87中也是,區段檔案處理部111係可參照Visual Sample Entry中所被儲存的Birdview Quality Ranking Box,而選擇相當於使用者之視野的領域係為高畫質的BV串流。
此外,亦可將例如圖37所示的Birdview Coverage Information Box,在圖34所示的Restricted Scheme Information Box(‘rinf’)或Scheme Information Box(‘schi’)中予以傳訊。
藉由如此設計,例如可將各track中所被儲存之BV串流,亦即只有紋理、或只有景深等之各BV串流的可顯示領域,予以傳訊。又,在1個track中儲存有構成BV內容的紋理與景深的情況下,則可將BV內容的可顯示領域予以傳訊。甚至,可以用track內的儲存影像中所被打包之,紋理或景深之影像領域之單位,而將可顯示領域予以傳訊。
〈第3實施形態的變形例2〉 〈關於剪影之儲存〉   又,藉由擴充上述的Birdview Information Box,亦可將第1實施形態的變形例3中所說明的剪影,亦即剪影影像,儲存至參照圖34所說明的檔案(file format)中。此外,關於剪影的有用性係如同第1實施形態的變形例3中所說明。
與紋理或景深同樣地,剪影也被整合而儲存在1個track中,藉此,雖然串流取得時的可調性會喪失,但串流取得數較少,具有可削減網路處理負擔的優點。
在track中儲存剪影的情況下,Birdview Information Box之語法,係和圖40所示相同,但其語意係變成例如圖45所示。
在圖45所示的例子中,stream_num係表示track中所含之紋理或景深、剪影之合計數,亦即儲存影像中所含之BV串流之合計數。
此外,此處,作為BV串流之種類是假設,除了只有剪影的BV串流以外,包含剪影的景深之BV串流也存在。以下,將包含有剪影的景深,特別稱作附帶剪影之景深。
此處在各track中係會儲存有:紋理、景深、附帶剪影之景深、及剪影之中的至少任1種類之BV串流。
又,streams_type係表示track中所被儲存之儲存影像的影像構成資訊。
此處,例如streams_type之值為0的情況下,則streams_type係表示在track內係有紋理、景深、附帶剪影之景深、及剪影之中的至少2者以上會存在。
又,streams_type之值為1的情況下,則streams_type係表示track內只有紋理存在,streams_type之值為2的情況下,則streams_type係表示track內只有景深存在。
streams_type之值為3的情況下,則streams_type係表示track內只有附帶剪影之景深存在,streams_type之值為4的情況下,則streams_type係表示track內只有剪影存在。此外,streams_type的其他之值(0乃至4以外之值)係被當成預留。
又,在圖45所示的例子中,stream_left[i]、stream_top[i]、stream_width[i]、及stream_height[i]係和圖41所示的例子相同。
stream_type[i]係為表示track內的儲存影像中所被打包之各影像領域之類型的資訊。例如stream_type[i]之值為0的情況下,則表示該影像領域係為紋理之影像領域,stream_type[i]之值為1的情況下,則表示該影像領域係為景深之影像領域。
stream_type[i]之值為3的情況下,則表示該影像領域係為附帶剪影之景深之影像領域,stream_type[i]之值為4的情況下,則表示該影像領域係為剪影之影像領域。又,0乃至4以外的stream_type[i]之值係為預留。
再者,IntrinsicCameraParameters(i)及ExtrinsicCameraParametersBox(i),係和圖41所示的例子相同。
在圖45所示的例子中,景深與剪影的ExtrinsicCameraParametersBox(i),亦即外部攝影機參數若為相同則,這些景深與剪影的視點位置等係為相同,亦即可顯示領域係為相同,係為成對的景深與剪影。
換言之,具有與所定景深相同外部攝影機參數的剪影,係為該所定景深所對應之剪影,若使用如此的剪影,則可從所定景深只抽出3D模型(前景)部分之資訊。因此,此情況下,外部攝影機參數係亦可說是與景深與剪影建立關連(建立對應)的資訊。
此外,只含剪影的track,與含有與該剪影建立關連之景深的track的關連建立(對應建立),係可使用ISOBMFF中所被規定之Track Reference Box來進行之。此情況下,在Track Reference Box中所被儲存之Track Reference Type Box中,會新定義reference_type=“silh”,只含剪影的track與含景深的track會被建立關連。
如以上所述,在附帶剪影之景深、或剪影也有被儲存在track中的情況下,在檔案生成裝置11中,會進行和第3實施形態的情況相同之上傳處理。
但是,在步驟S12中,係以例如圖45所示的語意而生成圖40所示的Birdview Information Box。然後,會生成含有所得到的Birdview Information Box,還有剪影或附帶剪影之景深等所被儲存之track等的檔案,基於該檔案而生成區段檔案。
又,在附帶剪影之景深、或剪影也有被儲存在track中的情況下,在客戶端裝置71中,會進行參照圖38所說明的BV內容再生處理。
此情況下,在步驟S89中,係除了紋理或景深以外,還會適宜地使用剪影,而生成用來再生BV內容所需之3D模型之影像。
〈第3實施形態的變形例3〉 〈關於BV串流之打包方法〉   順便一提,如第3實施形態的變形例1中所說明,將複數BV串流打包成1個串流(儲存影像)而儲存至track的情況下,藉由進行特定之打包可以獲得提升編碼效率、或可使得客戶端(使用者)之視野所相應之處理變得容易這些效果。
以下說明,BV串流的有效果的4個打包手法和其優點。此外,在任一手法中,打包資訊,亦即各BV串流的相關資訊等,都是可在Birdview Information Box中予以傳訊。
具體而言,作為BV串流的有效的打包手法,說明以下所示的第1打包手法乃至第4打包手法。
(第1打包手法)   將視點位置相近的紋理予以相鄰配置,並打包 (第2打包手法)   將紋理或景深之重要領域予以高解析度化而打包 (第3打包手法)   使得對應的紋理與景深會是相鄰的方式而將影像領域予以配置、打包 (第4打包手法)   使相同方向的紋理、景深、剪影會是相鄰的方式而將影像領域予以配置、打包
在這些打包手法之中,首先說明第1打包手法。
例如如圖46的箭頭Q101所示,假設以圍繞前景,亦即圍繞著作為3D模型的物件OBJ11之周圍的方式,配置攝影機CMR11乃至攝影機CMR18。
然後,假設藉由這些彼此互異位置的攝影機CMR11乃至攝影機CMR18來拍攝影像,攝影機CMR11乃至攝影機CMR18之每一者的視點位置所對應之紋理TX131乃至紋理TX138之每一者會被生成。此處,例如被攝影機CMR11所拍攝到的影像,就直接令作紋理TX131。
此情況下,在第1打包手法中,如箭頭Q102所示,將視點位置相近之紋理予以相鄰配置而進行打包,成為1個儲存影像。
尤其是,此處是在儲存影像上,在儲存影像上所被配置之紋理之中,將視點位置最相近的紋理彼此做相鄰配置。亦即,圖中從左側起按照紋理TX131乃至紋理TX138順序,往圖中右方向而將這些紋理予以排列而作為1個儲存影像。
此處,例如彼此相鄰而排列的紋理TX131和紋理TX132,係在紋理TX131乃至紋理TX138之中,彼此為視點位置最相近的紋理。
如此,若進行使視點位置相近之紋理彼此相鄰的打包,則例如藉由使得彼此相鄰的紋理間帶有參照關係而進行編碼(encode),就可提升編碼效率。
具體而言,例如上述的紋理TX131和紋理TX132,係由於視點位置相近,因此紋理TX131和紋理TX132之間的像素之像素值的差分係較小。於是,例如將儲存影像之紋理TX132之影像領域之部分進行編碼之際,藉由與紋理TX131保持參照關係,亦即使用紋理TX131和紋理TX132之差分來進行編碼,就可減少編碼所得的資料的編碼量。藉此,可提升編碼效率。
又,在儲存影像之編碼時,例如藉由將視點位置相近之紋理予以整合編碼成為HEVC tile,就可隨應於客戶端的視野,亦即使用者的視野,而將對應的紋理及視野周圍之紋理予以獨立地解碼(decode),進行算圖。此處,HEVC tile,係為可獨立進行編碼或解碼的處理單位。
此外,此處雖然是以紋理為例進行說明,但即使對於景深或剪影等,也是可以適用第1打包手法。
此外,雖然也可把實際用攝影機所拍攝到的影像本身當作紋理,但亦可由被攝影機所拍攝到的複數影像等而生成紋理等。例如亦可預先建構好3D模型,其後,基於所建構的3D模型,來生成以虛擬攝影機位置為視點位置的紋理或景深、剪影等。
接著說明第2打包手法。
假設例如如圖47所示般地,紋理TX131’、紋理TX132乃至紋理TX134、紋理TX135’及紋理TX136乃至紋理TX138係被打包成1個儲存影像。此外,圖47中,和圖46對應的部份,係標示同一符號,並適宜地省略其說明。
在圖47中,紋理TX131’及紋理TX135’,係為與圖46所示的紋理TX131及紋理TX135相同視點位置的紋理。
此處,紋理TX131’及紋理TX135’、與紋理TX131及紋理TX135,係彼此為只有紋理影像之大小,亦即只有解析度為不同的影像。
尤其是,紋理TX131’係為物件(3D模型)的前面(正面)之影像,紋理TX135’係為物件的背面之影像。
在此例中,假設3D模型的正面及背面,係係比其他側面等還要重要。
因此,此處係為,紋理TX131’或紋理TX135’的可顯示領域,係比其他紋理TX132乃至紋理TX134、或紋理TX136乃至紋理TX138的可顯示領域的重要度還高。
因此,紋理TX131’或紋理TX135’的解析度,係為比其他紋理TX132乃至紋理TX134、或紋理TX136乃至紋理TX138的解析度還高的解析度。亦即,紋理TX131’或紋理TX135’係為高解析度之紋理影像,紋理TX132乃至紋理TX134、或紋理TX136乃至紋理TX138,係為低解析度之紋理影像。
然後,這些紋理TX131’、紋理TX135’、紋理TX132乃至紋理TX134、及紋理TX136乃至紋理TX138係被排列而成為1個儲存影像。
如此在第2打包手法中,在儲存影像上係被配置有,解析度(大小)為彼此互異的紋理。藉由如此設計,可使重要領域變成高解析度而不損及使用者的觀賞體驗之品質,就可實現BV串流所被儲存之檔案的大小削減。這在例如經由網路的檔案傳輸之際,會是優點。
此外,此處雖然是以紋理為例進行說明,但即使對於景深或剪影等,也是可以適用第2打包手法。
接下來,說明第3打包手法。
在第3打包手法中,例如如圖48所示,彼此對應的紋理與景深,亦即視點位置(可顯示領域)為相同的紋理與景深係被相鄰配置,而進行打包。此外,圖48中,和圖46對應的部份,係標示同一符號,並適宜地省略其說明。
在圖48所示的例子中,紋理TX131、紋理TX133、紋理TX135、及紋理TX137,與這些紋理所對應之景深DP131乃至景深DP134,係被排列而成為1個儲存影像。
此處,尤其是,彼此對應的紋理TX131和景深DP131、紋理TX133和景深DP132、紋理TX135和景深DP133、及紋理TX137和景深DP134,係分別相鄰地而被配置。
此情況下,例如紋理TX131和景深DP131等,對應之紋理與景深的1個配對是被視為HEVC tile而進行儲存影像之編碼。
藉由如此設計,例如隨應於使用者之視野而將紋理與景深之1個配對予以獨立解碼時,可將解碼所得到的紋理與景深,只在它們的可顯示領域做立體顯示等,亦可用於BV內容再生以外之用途。例如即使是不支援BV內容再生的客戶端,只要有支援使用到景深的立體顯示,就可容易進行相應於視野的立體映像顯示。
再來,說明第4打包手法。
在第4打包手法中,例如如圖49所示般地,相同方向,亦即可顯示領域為略同的紋理、景深、及剪影係被相鄰排列而打包。此處,所謂相同方向,係從BV串流的視點位置來看,3D模型之方向為大略相同之方向的意思。
此外,圖49中,和圖46對應的部份,係標示同一符號,並適宜地省略其說明。
在圖49所示的例子中,紋理TX131、紋理TX133、紋理TX135、及紋理TX137,與這些紋理所對應之景深DP141乃至景深DP144及剪影SI141乃至剪影SI144,係被排列而成為1個儲存影像。
尤其是,例如彼此對應之,亦即方向相同的紋理TX131、景深DP141、及剪影SI141係為相鄰地而被配置。同樣地,彼此對應之紋理TX133、景深DP142、及剪影SI142,與紋理TX135、景深DP143、及剪影SI143,與紋理TX137、景深DP144、及剪影SI144,係分別相鄰地而被配置。
如此在第4打包手法中,在儲存影像上,紋理、與該紋理所對應之,亦即相同方向的景深及剪影,是被相鄰配置。
又,此處,相較於紋理,景深或剪影係為相對較低解析度。在3D模型構成時,紋理對於3D模型的畫質的貢獻係佔優勢,因此藉由把景深或剪影設成相對較低畫質,就可不損及使用者觀賞體驗之品質,而實現BV串流所被儲存之檔案之大小削減。
再者,藉由使編碼時所對應之景深與剪影帶有參照關係,可提升編碼效率。這在例如經由網路的檔案傳輸之際,會是優點。
〈關於影像領域之重新配置〉   甚至,也可例如預先決定好預設的打包手法,根據其而進行領域重新配置以實現其他打包。
作為具體的例子,例如亦可將上述的第1打包手法設為預先決定的打包手法,亦即預設之打包手法,然後適宜進行領域重新配置而不是以第1打包手法而是以第2打包手法來進行打包。
如此情況下,各打包手法中的BV串流之影像領域之配置,係變成例如圖50所示。此外,圖50中和圖46或圖47對應的部份,係標示同一符號,並適宜地省略其說明。
在圖50所示的例子中,通常,如圖中左側所示,相同解析度之紋理TX131乃至紋理TX138係被排列而成為1個儲存影像。亦即,以上述的第1打包手法進行打包。以下,將藉由第1打包手法而被生成的1個儲存影像,特別亦稱為投影圖像。
如此基本上,藉由第1打包手法而生成投影圖像,所得到的投影圖像係被儲存在track中。可是,隨著情況不同,有時候會想將一部分之紋理予以高解析度化。
如此情況下,各紋理之配置係被變更,亦即領域重新配置會被進行而如圖50中右側所示般地藉由第2打包手法而進行打包。亦即,紋理TX131及紋理TX135係被高解析度化,變成較高解析度的紋理TX131’及紋理TX135’。
然後,紋理TX131’、紋理TX132乃至紋理TX134、紋理TX135’及紋理TX136乃至紋理TX138係以與第1打包手法中的情況不同的配置而被排列,成為1個儲存影像。以下,將藉由第2打包手法而被生成的1個儲存影像,特別亦稱為打包圖像。
在此例中,track中所被儲存之儲存影像上的BV串流(紋理)之配置,係可被設成由預先決定的預設之第1打包手法而定的配置,或由第2打包手法而定的配置之任意一者。尤其是,在有進行領域重新配置的情況下,track中所被儲存之儲存影像係為打包圖像,該打包圖像上的紋理之配置,係為由第2打包手法而定的配置。
話說回來,投影圖像與打包圖像之間,係各紋理的配置位置之關係,亦即影像領域之位置關係,有所不同。
例如,投影圖像中的配置是被當作預設時,則在客戶端中,投影圖像上的紋理之配置係為已知。因此,在客戶端中,可從投影圖像正確抽出各紋理而進行算圖。
可是,領域重新配置有被進行而打包圖像是被儲存在track中時,則在客戶端中,進行算圖時,若無法特定儲存影像上的哪個領域是對應於哪個紋理,則無法正確地抽出紋理。
於是,在本技術中,在領域重新配置有被進行時,將表示重新配置前後的紋理的配置位置之關係的資訊,當作領域重新配置資訊而予以傳訊。
具體而言,例如在領域重新配置資訊之傳訊時,係只要使用如圖51所示般地被擴充的RegionWisePackingBox即可。
圖51所示的RegionWisePackingBox,係被儲存在例如Track Box、或Track Box內的任意之Box等中。在RegionWisePackingBox中係含有RegionWisePackingStruct,該RegionWisePackingStruct之語法係如圖52所示。
在圖52所示的RegionWisePackingStruct中,作為參數係被儲存有:num_regions、proj_picture_width、proj_picture_height、及packing_type[i]。又,在RegionWisePackingStruct係也儲存有RectRegionPacking(i)。
該RectRegionPacking(i)之語法,係例如圖53所示。
在圖53所示的RectRegionPacking(i)中,作為參數係被儲存有:content_type、stream_type、IntrinsicCameraParameters(i)、ExtrinsicCameraParametersBox(i)、proj_reg_width[i]、proj_reg_height[i]、proj_reg_top[i]、proj_reg_left[i]、packed_reg_width[i]、packed_reg_height[i]、packed_reg_top[i]、及packed_reg_left[i]。
RegionWisePackingBox,尤其是RegionWisePackingBox內的RegionWisePackingStruct係為領域重新配置資訊,RegionWisePackingStruct及RectRegionPacking(i)之語意係如同圖54所示。
亦即,參數num_regions係表示儲存影像內所含之影像領域之個數,亦即BV串流之領域之個數。
參數proj_picture_width係表示重新配置前的投影圖像之寬度,參數proj_picture_height係表示重新配置前的投影圖像之高度。
參數packing_type[i],係表示RegionWisePackingStruct中所含之第i個領域的region-wise packing,亦即第i個RectRegionPacking(i)所對應之BV串流之影像領域之種類。
具體而言,packing_type[i]之值為0的情況下,表示影像領域係為矩形領域,亦即係為矩形領域之打包。此外,0以外的packing_type[i]之值係為預留。
參數content_type係表示內容之類型。例如content_type之值為0的情況下,表示內容是全天球映像,content_type之值為1的情況下,表示內容係為Birdview映像,亦即BV內容。
參數stream_type,係表示影像領域的影像類型。
具體而言,stream_type之值為0的情況下,表示影像領域係為紋理(紋理影像),stream_type之值為1的情況下,表示影像領域係為景深(景深影像)。
又,stream_type之值為2的情況下,表示影像領域係為附帶剪影之景深(含剪影的景深影像),stream_type之值為3的情況下,表示影像領域係為剪影(剪影影像)。此外,0乃至3以外的stream_type之值係為預留。
在客戶端中,藉由參照該stream_type,就可特定出,在RegionWisePackingStruct中所被傳訊的第i個影像領域係為紋理或景深等,哪個種類之BV串流之領域。
參數IntrinsicCameraParameters(i)係表示,關於第i個影像領域的焦距或主點資訊這類內部攝影機參數。
該IntrinsicCameraParameters(i),係被設成例如Multiview acquisition information SEI之資訊。
參數ExtrinsicCameraParametersBox(i)係表示,關於第i個影像領域的攝影時的攝影機之旋轉或位置資訊這類外部攝影機參數。
該ExtrinsicCameraParametersBox(i),係被設成例如Multiview acquisition information SEI之資訊等。
根據這些IntrinsicCameraParameters(i)與ExtrinsicCameraParametersBox(i),可以特定出對應之影像領域中所被儲存之紋理或景深的可顯示領域(涵蓋範圍)。
參數proj_reg_width[i]係表示投影圖像的第i個影像領域之寬度,參數proj_reg_height[i]係表示投影圖像的第i個影像領域之高度。
又,參數proj_reg_top[i]係表示投影圖像的第i個影像領域之左上像素之垂直方向位置,參數proj_reg_left[i]係表示投影圖像的第i個影像領域之左上像素之水平方向位置。
根據這些參數proj_reg_width[i]、proj_reg_height[i]、proj_reg_top[i]、及proj_reg_left[i],可特定出第i個影像領域在投影圖像上的位置及大小。亦即,可特定出第i個影像領域的重新配置前的位置及大小。
因此,這些proj_reg_width[i]、proj_reg_height[i]、proj_reg_top[i]、及proj_reg_left[i],係可以說是,用來特定以預設之第1打包手法而定的配置來配置BV串流時的儲存影像(投影圖像)上的BV串流之影像領域所需之資訊。
參數packed_reg_width[i]係表示打包圖像的第i個影像領域之寬度,參數packed_reg_height[i]係表示打包圖像的第i個影像領域之高度。
又,參數packed_reg_top[i]係表示打包圖像的第i個影像領域之左上像素之垂直方向位置,參數packed_reg_left[i]係表示打包圖像的第i個影像領域之左上像素之水平方向位置。
根據這些參數packed_reg_width[i]、packed_reg_height[i]、packed_reg_top[i]、及packed_reg_left[i],可特定出第i個影像領域在打包圖像上的位置及大小。亦即,可特定出第i個影像領域的重新配置後的位置及大小。
因此,這些packed_reg_width[i]、packed_reg_height[i]、packed_reg_top[i]、及packed_reg_left[i],係可以說是,用來特定領域重新配置時的以第2打包手法而定的配置來配置BV串流時的儲存影像(打包圖像)上的BV串流之影像領域所需之資訊。
此處,作為具體的例子,圖50所示的打包圖像被當成儲存影像而被儲存在1個track中時的RegionWisePackingBox之傳訊例,示於圖55。此外,圖55中,和圖50對應的部份,係標示同一符號,並適宜地省略其說明。
在圖55所示的例子中,若為通常則是如箭頭Q131所示般地紋理係被排列而成為投影圖像,但藉由紋理之影像領域的重新配置,如箭頭Q132所示般地紋理係被重新排列而成為打包圖像。
此情況下,由於紋理等所構成的內容係為BV內容,因此RegionWisePackingBox中所被儲存之content_type之值係被設成表示BV內容的「1」。又,影像領域係被設成紋理之BV串流之領域,因此stream_type之值係被設成「0」。
又,假設注目於在投影圖像的圖中左端位置的紋理TX131,假設該紋理TX131的圖中橫方向之寬度及高度,分別為480像素及960像素。然後假設紋理TX131的左上像素之垂直方向位置係為表示投影圖像之最上部的「0」,紋理TX131的左上像素之水平方向位置係為表示投影圖像之最左部的「0」。
此情況下,關於重新配置前的紋理TX131之影像領域,RectRegionPacking(i)中的proj_reg_width[i]之值係被設成480,proj_reg_height[i]之值係被設成960,proj_reg_top[i]之值係被設成0,proj_reg_left[i]之值係被設成0。
又,紋理TX131的重新配置後的紋理係為紋理TX131’,該紋理TX131’的圖中橫方向之寬度及高度,係分別假設為960像素及1920像素。然後假設紋理TX131’的左上像素之垂直方向位置係為表示打包圖像之最上部的「0」,紋理TX131’的左上像素之水平方向位置係為表示打包圖像之最左部的「0」。
此情況下,關於重新配置後的紋理TX131之影像領域,RectRegionPacking(i)中的packed_reg_width[i]之值係被設成960,packed_reg_height[i]之值係被設成1920,packed_reg_top[i]之值係被設成0,packed_reg_left[i]之值係被設成0。
如此在客戶端中,藉由參照RegionWisePackingBox,就可特定出重新配置前的紋理TX131、與重新配置後的紋理TX131’之對應關係,或重新配置後的紋理TX131’在打包圖像上的位置與大小等。
此外,雖然這裡是以紋理為例來說明領域重新配置,但關於景深或剪影之影像領域也是可和紋理的情況相同地做領域重新配置。
在本技術中,藉由利用如此的RegionWisePackingBox,而可隨應於內容之特徵等來選擇適切的打包手法。
在進行如以上的第1打包手法乃至第4打包手法所致之打包、或影像領域之領域重新配置的情況下,在檔案生成裝置11中,會進行和第3實施形態的情況相同之上傳處理。
但是,在步驟S12中,係適宜地依照第1打包手法乃至第4打包手法、或影像領域之領域重新配置時的打包手法,而將BV串流打包成儲存影像,儲存在track中。
又,在領域重新配置有被進行的情況下,會生成RegionWisePackingBox所被儲存之檔案,基於該檔案而生成區段檔案。
再者,在進行第1打包手法乃至第4打包手法所致之打包、或影像領域之領域重新配置的情況下,在客戶端裝置71中,會進行參照圖38所說明的BV內容再生處理。
此情況下,例如影像領域之領域重新配置有被進行時,係於步驟S86中藉由區段檔案處理部111而參照RegionWisePackingBox而特定出重新配置前後的影像領域之配置關係。然後,基於該特定結果,顯示資訊生成部113係從track抽出紋理等之BV串流。
又,第1打包手法乃至第4打包手法所致之打包有被進行的情況下,則區段檔案處理部111,係參照Birdview Information Box,來識別各BV串流之影像領域。
如以上之第3實施形態乃至第3實施形態的變形例3所說明,將BV串流儲存至ISOBMFF之檔案的track之際也進行track之群組化,藉此就可容易選擇,將BV內容觀賞時所必須之BV串流予以儲存的track。
又,藉由將複數BV串流打包成1個串流,亦即1個儲存影像而儲存至track中,就可減少串流取得數,削減網路處理負擔。再者,藉由以如第3實施形態的變形例3所說明的打包手法來進行打包,就可提升編碼效率同時容易進行客戶端(使用者)之視野所相應之處理。
〈電腦之構成例〉   順便一提,上述一連串處理,係可藉由硬體來執行,也可藉由軟體來執行。在以軟體來執行一連串之處理時,構成該軟體的程式,係可安裝至電腦。此處,電腦係包含:被組裝在專用硬體中的電腦、或藉由安裝各種程式而可執行各種機能的例如通用之個人電腦等。
圖56係以程式來執行上述一連串處理的電腦的硬體之構成例的區塊圖。
於電腦中,CPU(Central Processing Unit) 501、ROM(Read Only Memory)502、RAM(Random Access Memory)503,係藉由匯流排504而被彼此連接。
在匯流排504上係還連接有輸出入介面505。輸出入介面505上係連接有:輸入部506、輸出部507、記錄部508、通訊部509、及驅動機510。
輸入部506,係由鍵盤、滑鼠、麥克風、攝像元件等所成。輸出部507係由顯示器、揚聲器等所成。記錄部508,係由硬碟或非揮發性記憶體等所成。通訊部509係由網路介面等所成。驅動機510係驅動:磁碟、光碟、光磁碟、或半導體記憶體等之可移除式記錄媒體511。
在如以上構成的電腦中,藉由CPU501而例如將記錄部508中所被記錄的程式透過輸出入介面505及匯流排504,而載入至RAM503裡並加以執行,就可進行上述一連串處理。
電腦(CPU501)所執行的程式,係可記錄在例如封裝媒體等之可移除式記錄媒體511中而提供。又,程式係可透過區域網路、網際網路、數位衛星播送這類有線或無線的傳輸媒體而提供。
在電腦中,程式係藉由將可移除式記錄媒體511裝著至驅動機510,就可透過輸出入介面505,安裝至記錄部508。又,程式係可透過有線或無線之傳輸媒體,以通訊部509接收之,安裝至記錄部508。除此以外,程式係可事前安裝在ROM502或記錄部508中。
此外,電腦所執行的程式,係可為依照本說明書所說明之順序而在時間序列上進行處理的程式,也可平行地,或呼叫進行時等必要之時序上進行處理的程式。
又,本技術的實施形態係不限定於上述實施形態,在不脫離本技術主旨的範圍內可做各種變更。
例如,本技術係亦可將1個機能透過網路而分擔給複數台裝置,採取共通進行處理的雲端運算之構成。
又,上述的流程圖中所說明的各步驟,係可由1台裝置來執行以外,亦可由複數台裝置來分擔執行。
甚至,若1個步驟中含有複數處理的情況下,該1個步驟中所含之複數處理,係可由1台裝置來執行以外,也可由複數台裝置來分擔執行。
甚至,本技術係亦可採取以下構成。
(1)   一種影像處理裝置,係具備:   檔案取得部,係取得檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊;和   檔案處理部,係基於前記群組資訊,來選擇前記3D物件內容之再生時所使用的複數前記串流。 (2)   如(1)所記載之影像處理裝置,其中,   前記管理領域中係被儲存有:表示前記3D物件內容之可顯示領域的資訊。 (3)   如(1)或(2)所記載之影像處理裝置,其中,   前記管理領域中係被儲存有:表示複數前記3D物件內容間的前記3D物件內容之相對品質的品質資訊。 (4)   如(1)乃至(3)之任一項所記載之影像處理裝置,其中,   前記訊軌中係被儲存有:藉由將複數前記串流予以排列配置而獲得的1個影像。 (5)   如(4)所記載之影像處理裝置,其中,   前記管理領域中係被儲存有:用來特定前記影像上的前記串流之領域所需之資訊。 (6)   如(4)或(5)所記載之影像處理裝置,其中,   前記管理領域中係含有:表示前記串流之種類的資訊。 (7)   如(6)所記載之影像處理裝置,其中,   前記串流之種類係為:紋理、景深、包含剪影的景深、或剪影。 (8)   如(4)乃至(7)之任一項所記載之影像處理裝置,其中,   於前記影像中,視點位置最相近的前記串流彼此是被相鄰配置。 (9)   如(4)乃至(7)之任一項所記載之影像處理裝置,其中,   前記影像中係被配置有:解析度彼此互異的前記串流。 (10)   如(4)乃至(7)之任一項所記載之影像處理裝置,其中,   於前記影像中,紋理之前記串流、與該前記紋理對應的景深之前記串流,是被相鄰配置。 (11)   如(4)乃至(7)之任一項所記載之影像處理裝置,其中,   於前記影像中,紋理之前記串流、與該前記紋理對應的景深之前記串流及剪影之前記串流,是被相鄰配置。 (12)   如(4)乃至(7)之任一項所記載之影像處理裝置,其中,   於前記影像上的前記串流之配置,係被設成預先決定之第1配置、或第2配置;   於前記影像上的前記串流之配置是被設成前記第2配置的情況下,前記管理領域中係含有:以前記第1配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊、和以前記第2配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊。 (13)   如(1)乃至(12)之任一項所記載之影像處理裝置,其中,   前記管理領域中係含有:表示為了再生同一前記3D物件內容所需之複數前記串流間的前記串流之相對品質的品質資訊。 (14)   如(13)所記載之影像處理裝置,其中,   在前記管理領域中,係按照前記串流之可顯示領域內的每1或複數個領域而含有前記品質資訊。 (15)   一種影像處理方法,係   由影像處理裝置,   取得檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊;   基於前記群組資訊,來選擇前記3D物件內容之再生時所使用的複數前記串流。 (16)   一種檔案生成裝置,係   具備:檔案生成部,係生成檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊。 (17)   如(16)所記載之檔案生成裝置,其中,   還具備:通訊部,係發送前記檔案。 (18)   如(15)或(16)所記載之檔案生成裝置,其中,   前記管理領域中係被儲存有:表示前記3D物件內容之可顯示領域的資訊。 (19)   如(16)乃至(18)之任一項所記載之檔案生成裝置,其中,   前記管理領域中係被儲存有:表示複數前記3D物件內容間的前記3D物件內容之相對品質的品質資訊。 (20)   如(16)乃至(19)之任一項所記載之檔案生成裝置,其中,   前記訊軌中係被儲存有:藉由將複數前記串流予以排列配置而獲得的1個影像。 (21)   如(20)所記載之檔案生成裝置,其中,   前記管理領域中係被儲存有:用來特定前記影像上的前記串流之領域所需之資訊。 (22)   如(20)或(21)所記載之檔案生成裝置,其中,   前記管理領域中係含有:表示前記串流之種類的資訊。 (23)   如(22)所記載之檔案生成裝置,其中,   前記串流之種類係為:紋理、景深、包含剪影的景深、或剪影。 (24)   如(20)乃至(23)之任一項所記載之檔案生成裝置,其中,   於前記影像中,視點位置最相近的前記串流彼此是被相鄰配置。 (25)   如(20)乃至(23)之任一項所記載之檔案生成裝置,其中,   前記影像中係被配置有:解析度彼此互異的前記串流。 (26)   如(20)乃至(23)之任一項所記載之檔案生成裝置,其中,   於前記影像中,紋理之前記串流、與該前記紋理對應的景深之前記串流,是被相鄰配置。 (27)   如(20)乃至(23)之任一項所記載之檔案生成裝置,其中,   於前記影像中,紋理之前記串流、與該前記紋理對應的景深之前記串流及剪影之前記串流,是被相鄰配置。 (28)   如(20)乃至(23)之任一項所記載之檔案生成裝置,其中,   於前記影像上的前記串流之配置,係被設成預先決定之第1配置、或第2配置;   於前記影像上的前記串流之配置是被設成前記第2配置的情況下,前記管理領域中係含有:以前記第1配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊、和以前記第2配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊。 (29)   如(16)乃至(28)之任一項所記載之檔案生成裝置,其中,   前記管理領域中係含有:表示為了再生同一前記3D物件內容所需之複數前記串流間的前記串流之相對品質的品質資訊。 (30)   如(29)所記載之檔案生成裝置,其中,   在前記管理領域中,係按照前記串流之可顯示領域內的每1或複數個領域而含有前記品質資訊。 (31)   一種檔案生成方法,係   由檔案生成裝置,   生成檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和用來構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊。
11‧‧‧檔案生成裝置
21‧‧‧控制部
22‧‧‧檔案生成部
31‧‧‧資料輸入部
32‧‧‧資料編碼・生成部
33‧‧‧MPD檔案生成部
33‧‧‧MPD檔案生成部
34‧‧‧記錄部
35‧‧‧上傳部
41‧‧‧前處理部
42‧‧‧編碼部
43‧‧‧區段檔案生成部
71‧‧‧客戶端裝置
81‧‧‧控制部
82‧‧‧再生處理部
91‧‧‧計測部
92‧‧‧MPD檔案取得部
93‧‧‧MPD檔案處理部
94‧‧‧區段檔案取得部
95‧‧‧顯示控制部
96‧‧‧資料解析・解碼部
97‧‧‧顯示部
111‧‧‧區段檔案處理部
112‧‧‧解碼部
113‧‧‧顯示資訊生成部
501‧‧‧CPU
502‧‧‧ROM
503‧‧‧RAM
504‧‧‧匯流排
505‧‧‧輸出入介面
506‧‧‧輸入部
507‧‧‧輸出部
508‧‧‧記錄部
509‧‧‧通訊部
510‧‧‧驅動機
511‧‧‧可移除式記錄媒體
[圖1]BV內容的說明圖。   [圖2]BV群組之例子的說明圖。   [圖3]BV群組之例子的說明圖。   [圖4]MPD檔案之例子的圖示。   [圖5]可顯示領域的說明圖。   [圖6]可顯示領域的說明圖。   [圖7]可顯示領域資訊之語意的圖示。   [圖8]可顯示領域資訊之語意的圖示。   [圖9]檔案生成裝置之構成例的圖示。   [圖10]上傳處理的說明用流程圖。   [圖11]客戶端裝置之構成例的圖示。   [圖12]BV內容再生處理的說明用流程圖。   [圖13]BV群組與追加BV串流之例子的說明圖。   [圖14]BV群組與追加BV串流之例子的說明圖。   [圖15]MPD檔案之例子的圖示。   [圖16]MPD檔案之例子的圖示。   [圖17]birdview coverage descriptor之語意的圖示。   [圖18]MPD檔案之例子的圖示。   [圖19]MPD檔案之例子的圖示。   [圖20]quality ranking descriptor之語意的圖示。   [圖21]stream_type之語意的圖示。   [圖22]剪影之傳輸的說明圖。   [圖23]與景深建立關連的剪影的說明圖。   [圖24]MPD檔案之例子的圖示。   [圖25]MPD檔案之例子的圖示。   [圖26]BV群組之例子的說明圖。   [圖27]BV群組之例子的說明圖。   [圖28]MPD檔案之例子的圖示。   [圖29]MPD檔案之例子的圖示。   [圖30]BV群組之例子的說明圖。   [圖31]BV群組之例子的說明圖。   [圖32]MPD檔案之例子的圖示。   [圖33]MPD檔案之例子的圖示。   [圖34]檔案格式例的圖示。   [圖35]Track Group Type Box之語法和語意的圖示。   [圖36]Birdview Group Box之語法例的圖示。   [圖37]Birdview Coverage Information Box之語法和語意之例子的圖示。   [圖38]BV內容再生處理的說明用流程圖。   [圖39]BV串流之打包的說明圖。   [圖40]Birdview Information Box之語法例的圖示。   [圖41]Birdview Information Box之語意例的圖示。   [圖42]Birdview Information Box之傳訊例的圖示。   [圖43]Birdview Quality Ranking Box之語法例的圖示。   [圖44]Birdview Quality Ranking Box之語意例的圖示。   [圖45]Birdview Information Box之語意例的圖示。   [圖46]第1打包手法的說明圖。   [圖47]第2打包手法的說明圖。   [圖48]第3打包手法的說明圖。   [圖49]第4打包手法的說明圖。   [圖50]領域重新配置的說明圖。   [圖51]RegionWisePackingBox之例子的圖示。   [圖52]RegionWisePackingStruct之例子的圖示。   [圖53]RectRegionPacking(i)之例子的圖示。   [圖54]RegionWisePackingStruct與RectRegionPacking(i)之語意例的圖示。   [圖55]RegionWisePackingBox之傳訊例的圖示。   [圖56]電腦之構成例的圖示。

Claims (20)

  1. 一種影像處理裝置,係具備:   檔案取得部,係取得檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊;和   檔案處理部,係基於前記群組資訊,來選擇前記3D物件內容之再生時所使用的複數前記串流。
  2. 如請求項1所記載之影像處理裝置,其中,   前記管理領域中係被儲存有:表示前記3D物件內容之可顯示領域的資訊。
  3. 如請求項1所記載之影像處理裝置,其中,   前記訊軌中係被儲存有:藉由將複數前記串流予以排列配置而獲得的1個影像。
  4. 如請求項3所記載之影像處理裝置,其中,   前記管理領域中係被儲存有:用來特定前記影像上的前記串流之領域所需之資訊。
  5. 如請求項3所記載之影像處理裝置,其中,   前記管理領域中係含有:表示前記串流之種類的資訊。
  6. 如請求項5所記載之影像處理裝置,其中,   前記串流之種類係為:紋理、景深、包含剪影的景深、或剪影。
  7. 如請求項3所記載之影像處理裝置,其中,   於前記影像中,視點位置最相近的前記串流彼此是被相鄰配置。
  8. 如請求項3所記載之影像處理裝置,其中,   前記影像中係被配置有:解析度彼此互異的前記串流。
  9. 如請求項3所記載之影像處理裝置,其中,   於前記影像上的前記串流之配置,係被設成預先決定之第1配置、或第2配置;   於前記影像上的前記串流之配置是被設成前記第2配置的情況下,前記管理領域中係含有:以前記第1配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊、和以前記第2配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊。
  10. 如請求項1所記載之影像處理裝置,其中,   前記管理領域中係含有:表示為了再生同一前記3D物件內容所需之複數前記串流間的前記串流之相對品質的品質資訊。
  11. 一種檔案生成裝置,係具備:   檔案生成部,係生成檔案,該檔案係具有:用來管理3D物件內容所需之資訊所被儲存的管理領域、和構成前記3D物件內容的串流所被儲存的訊軌所被儲存的資料領域,並且在前記管理領域中係被儲存有:用來在構成前記3D物件內容的複數前記串流之中,選擇出對前記3D物件內容之再生而言為適切之前記串流所需之群組資訊。
  12. 如請求項11所記載之檔案生成裝置,其中,   前記管理領域中係被儲存有:表示前記3D物件內容之可顯示領域的資訊。
  13. 如請求項11所記載之檔案生成裝置,其中,   前記訊軌中係被儲存有:藉由將複數前記串流予以排列配置而獲得的1個影像。
  14. 如請求項13所記載之檔案生成裝置,其中,   前記管理領域中係被儲存有:用來特定前記影像上的前記串流之領域所需之資訊。
  15. 如請求項13所記載之檔案生成裝置,其中,   前記管理領域中係含有:表示前記串流之種類的資訊。
  16. 如請求項15所記載之檔案生成裝置,其中,   前記串流之種類係為:紋理、景深、包含剪影的景深、或剪影。
  17. 如請求項13所記載之檔案生成裝置,其中,   於前記影像中,視點位置最相近的前記串流彼此是被相鄰配置。
  18. 如請求項13所記載之檔案生成裝置,其中,   前記影像中係被配置有:解析度彼此互異的前記串流。
  19. 如請求項13所記載之檔案生成裝置,其中,   於前記影像上的前記串流之配置,係被設成預先決定之第1配置、或第2配置;   於前記影像上的前記串流之配置是被設成前記第2配置的情況下,前記管理領域中係含有:以前記第1配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊、和以前記第2配置來配置前記串流時用來特定前記影像上的前記串流之領域所需之資訊。
  20. 如請求項11所記載之檔案生成裝置,其中,   前記管理領域中係含有:表示為了再生同一前記3D物件內容所需之複數前記串流間的前記串流之相對品質的品質資訊。
TW107131109A 2017-09-15 2018-09-05 影像處理裝置及檔案生成裝置 TW201921918A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017177382A JP2019054417A (ja) 2017-09-15 2017-09-15 画像処理装置およびファイル生成装置
JP2017-177382 2017-09-15

Publications (1)

Publication Number Publication Date
TW201921918A true TW201921918A (zh) 2019-06-01

Family

ID=65722752

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107131109A TW201921918A (zh) 2017-09-15 2018-09-05 影像處理裝置及檔案生成裝置

Country Status (7)

Country Link
US (1) US11710274B2 (zh)
EP (2) EP4017017A1 (zh)
JP (1) JP2019054417A (zh)
KR (1) KR102543309B1 (zh)
CN (1) CN111095938B (zh)
TW (1) TW201921918A (zh)
WO (1) WO2019054203A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2554877B (en) * 2016-10-10 2021-03-31 Canon Kk Methods, devices, and computer programs for improving rendering display during streaming of timed media data
US11823421B2 (en) * 2019-03-14 2023-11-21 Nokia Technologies Oy Signalling of metadata for volumetric video
US11831861B2 (en) * 2019-08-12 2023-11-28 Intel Corporation Methods for viewport-dependent adaptive streaming of point cloud content
US11677979B2 (en) * 2020-08-24 2023-06-13 Tencent America LLC Freeview video coding
CN116075805A (zh) * 2020-09-04 2023-05-05 松下电器(美国)知识产权公司 再现装置、发送装置、再现方法以及发送方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8538166B2 (en) 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
JP2011142586A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US10791315B2 (en) 2013-01-04 2020-09-29 Qualcomm Incorporated Signaling of spatial resolution of depth views in multiview coding file format
US10085034B2 (en) * 2013-07-12 2018-09-25 Sony Corporation Image coding apparatus and method
KR102304687B1 (ko) * 2013-07-22 2021-09-27 소니그룹주식회사 정보 처리 장치 및 방법
KR20150012206A (ko) 2013-07-24 2015-02-03 한국전자통신연구원 3차원 콘텐츠의 부호화 방법 및 장치
CN111223037A (zh) * 2013-09-11 2020-06-02 索尼公司 图像处理设备及方法
KR101953679B1 (ko) * 2014-06-27 2019-03-04 코닌클리즈케 케이피엔 엔.브이. Hevc-타일드 비디오 스트림을 기초로 한 관심영역 결정
US9922680B2 (en) * 2015-02-10 2018-03-20 Nokia Technologies Oy Method, an apparatus and a computer program product for processing image sequence tracks
EP3177005B1 (en) * 2015-03-30 2023-09-27 Rakuten Group, Inc. Display control system, display control device, display control method, and program
WO2017140948A1 (en) * 2016-02-17 2017-08-24 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
CN108702534B (zh) * 2016-02-22 2021-09-14 索尼公司 文件生成装置、文件生成方法以及再现装置和再现方法
GB2554877B (en) * 2016-10-10 2021-03-31 Canon Kk Methods, devices, and computer programs for improving rendering display during streaming of timed media data
US10511824B2 (en) * 2017-01-17 2019-12-17 2Sens Ltd. System device and methods for assistance in capturing stereoscopic video or images

Also Published As

Publication number Publication date
KR20200051599A (ko) 2020-05-13
EP4017017A1 (en) 2022-06-22
CN111095938A (zh) 2020-05-01
KR102543309B1 (ko) 2023-06-16
EP3684067B1 (en) 2022-03-16
EP3684067A1 (en) 2020-07-22
WO2019054203A1 (ja) 2019-03-21
CN111095938B (zh) 2024-03-01
US20200286283A1 (en) 2020-09-10
EP3684067A4 (en) 2020-07-22
JP2019054417A (ja) 2019-04-04
US11710274B2 (en) 2023-07-25

Similar Documents

Publication Publication Date Title
KR102307819B1 (ko) 레거시 및 몰입형 렌더링 디바이스를 위한 몰입형 비디오를 포맷팅하는 방법, 장치 및 스트림
JP6960528B2 (ja) メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム
JP7035401B2 (ja) 画像処理装置およびファイル生成装置
JP7399224B2 (ja) メディアコンテンツを送信するための方法、装置及びコンピュータプログラム
TW201921918A (zh) 影像處理裝置及檔案生成裝置
JP7151486B2 (ja) 生成装置、生成方法、再生装置および再生方法
US10846820B2 (en) Generation device, identification information generation method, reproduction device, and image generation method
TW201803358A (zh) 將沈浸式視訊格式化用於傳統及沈浸式顯像元件之方法、裝置及串流
KR102243666B1 (ko) 360도 비디오를 전송하는 방법, 360도 비디오를 수신하는 방법, 360도 비디오 전송 장치, 360도 비디오 수신 장치
JP7239029B2 (ja) 画像処理装置およびファイル生成装置
KR102413098B1 (ko) 영상 처리 방법 및 이를 이용한 영상 재생 장치
TW202344044A (zh) 多視像視訊彩現和製備多視像視訊快取的方法以及即時多視像視訊轉換的系統
TW202234882A (zh) 即時多視像視訊轉換方法和系統