CN111684823B - 发送装置、发送方法、处理装置以及处理方法 - Google Patents
发送装置、发送方法、处理装置以及处理方法 Download PDFInfo
- Publication number
- CN111684823B CN111684823B CN201980010999.9A CN201980010999A CN111684823B CN 111684823 B CN111684823 B CN 111684823B CN 201980010999 A CN201980010999 A CN 201980010999A CN 111684823 B CN111684823 B CN 111684823B
- Authority
- CN
- China
- Prior art keywords
- audio
- video
- viewpoint
- viewpoints
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005540 biological transmission Effects 0.000 title claims description 79
- 238000012545 processing Methods 0.000 title claims description 63
- 238000000034 method Methods 0.000 title claims description 25
- 238000003672 processing method Methods 0.000 title description 3
- 238000009877 rendering Methods 0.000 claims description 52
- 238000010586 diagram Methods 0.000 description 33
- 238000005516 engineering process Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 230000006978 adaptation Effects 0.000 description 12
- 238000012856 packing Methods 0.000 description 10
- AWSBQWZZLBPUQH-UHFFFAOYSA-N mdat Chemical compound C1=C2CC(N)CCC2=CC2=C1OCO2 AWSBQWZZLBPUQH-UHFFFAOYSA-N 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 239000012634 fragment Substances 0.000 description 6
- 238000004806 packaging method and process Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 101710086578 Chaperone protein gp12 Proteins 0.000 description 2
- 101700012268 Holin Proteins 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 2
- 101710102575 Pre-neck appendage protein Proteins 0.000 description 2
- 101710159453 Proximal tail tube connector protein Proteins 0.000 description 2
- 101710199973 Tail tube protein Proteins 0.000 description 2
- 101800000385 Transmembrane protein Proteins 0.000 description 2
- 241000405217 Viola <butterfly> Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 101710167800 Capsid assembly scaffolding protein Proteins 0.000 description 1
- 101001052021 Haemophilus phage HP1 (strain HP1c1) Probable tail fiber protein Proteins 0.000 description 1
- 101710099276 Probable metalloendopeptidase Proteins 0.000 description 1
- 101000802260 Pseudomonas phage D3112 Anti-CRISPR protein 31 Proteins 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26258—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Otolaryngology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Computer Security & Cryptography (AREA)
- General Health & Medical Sciences (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明使得能够容易地获取对应于宽视角图像的固定位置的音频输出。发送装置设置有用于发送空间音频数据和给定数量的登记视点的信息的发送器。例如,空间音频数据是基于场景的音频数据。另外,基于场景的音频数据可以表示HoA格式的每个分量。此外,视点信息可以包括表示视点位置的方位角(方位角信息)和仰角(仰角信息)。例如,发送器在对象音频的包中发送基于场景的音频数据和给定数量的登记视点的信息。
Description
技术领域
本技术涉及发送装置、发送方法、处理装置以及处理方法,并且更具体地,涉及发送基于场景的音频等的数据的发送装置。
背景技术
使用为宽视角提供的反射镜、透镜等捕获宽视角图像。在发送宽视角图像的运动图像数据的情况下,在接收侧,当在宽视角图像的固定位置处的图像被截取并显示时,还考虑使用立体声再现方法将语音输出互锁。作为立体声再现方法,基于场景的方法是已知的。非专利文献1描述了高保真度立体声响复制(基于场景的音频)。
引用列表
非专利文献
非专利文献1:Ryuichi Nishimura,“高保真度立体声响复制”,图像信息和电视工程师协会杂志,第68卷,第8期,第616至620页(2014年)
发明内容
本发明要解决的问题
本技术的目的是使得能够容易地获取对应于宽视角图像的固定位置的语音输出。
问题的解决方案
根据本技术的一方面,一种发送装置包括发送单元,被配置为发送空间语音数据和关于预定数量的登记视点的信息。
在本技术中,处理单元发送空间语音数据和关于预定数量的登记视点的信息。例如,关于视点的信息可以包括关于指示该视点的位置的方位角(方位角信息)和仰角(仰角信息)的信息。例如,空间语音数据可以是基于场景的音频数据。在这种情况下,例如,基于场景的音频的数据可以是HoA格式的每个分量。
例如,发送单元可以将基于场景的音频的数据和关于预定数量的登记视点的信息包括在对象音频的包中以进行发送。在这种情况下,例如,对象音频的包可以是MPEG-H音频流包。此外,在这种情况下,例如,发送单元可以将对象音频的包包括在ISOBMFF的容器中以进行发送。
以这种方式,在本技术中,发送空间语音数据和关于预定数量的登记视点的信息。因此,在接收侧,可以容易地获取与宽视角图像的固定位置相对应的语音输出。
注意,在本技术中,例如,可以对关于预定数量的登记视点的信息进行分组。以这种方式,通过在接收侧对信息进行分组,可以针对每个预期目的或每个用户获取对应于宽视角图像的固定位置的语音输出。
此外,根据本技术的另一方面,一种处理装置包括:获取单元,被配置为获取空间语音数据和关于预定数量的登记视点的信息;以及处理单元,被配置为通过基于关于登记视点的信息处理空间语音数据来获取输出语音数据。
在本技术中,通过获取单元获取空间语音数据和关于预定数量的登记视点的信息。例如,空间语音数据可以是基于场景的音频数据。在这种情况下,例如,基于场景的音频的数据可以是HoA格式的每个分量。然后,处理单元通过基于关于登记视点的信息处理空间语音数据来获取输出语音数据。例如,获取单元接收基于场景的音频的数据和关于预定数量的登记视点的信息,或者通过从媒体再现来获取基于场景的音频的数据和关于预定数量的登记视点的信息。
此外,例如,获取单元可以从接收到的对象音频的包中获取基于场景的音频的数据和关于预定数量的登记视点的信息。在这种情况下,例如,对象音频的包可以是MPEG-H音频流包。此外,例如,获取单元可以从被配置为通过基于视点信息处理宽视角图像的图像数据来获取显示图像数据的视频处理系统获取关于预定数量的登记视点的信息。
以这种方式,在本技术中,获取基于场景的音频的数据和关于预定数量的登记视点的信息,并且通过基于关于登记视点的信息处理基于场景的音频的数据来获取输出语音数据。由此,能够容易地获取与宽视角图像的固定位置对应的语音输出。
注意,在本技术中,例如,可以对预定数量的登记视点信息进行分组,并且处理单元可以使用基于用户属性或合同内容确定的组的视点信息。在这种情况下,可以以获取对应于用户的属性或合同内容的语音输出的方式执行限制。
此外,在本技术中,例如,还可以包括被配置为对通知用户当前视点的位置与由关于登记视点的信息指示的位置之间的关系进行控制的控制单元。在这种情况下,用户可以容易地将当前视点的位置移动到由关于登记视点的信息指示的位置。
本发明的效果
根据本技术,可以容易地获取对应于宽视角图像的固定位置的语音输出。注意,这里描述的效果不一定是限制性的,并且可以是本公开中描述的任何效果。
附图说明
[图1]是示出基于MPEG-DASH的流传输系统的配置示例的框图。
[图2]是示出在MPD文件中分级布置的结构之间的关系的示例的图。
[图3]是示出根据实施例的发送和接收系统的配置示例的框图。
[图4]是示意性地示出发送和接收系统的整个系统的配置示例的图。
[图5]是用于描述用于从球面表面捕获图像获取投影画面的平面包装的图。
[图6]是示出HEVC编码中的SPS NAL单元的结构示例的图。
[图7]是用于描述使截取位置的中心O(p,q)与投影画面的参考点RP(x,y)一致的图。
[图8]是示出渲染元数据的结构示例的图。
[图9]是示出图8所示的结构示例的主要信息的内容的图。
[图10]是用于描述图8所示的结构示例中的每一条信息的图。
[图11]是示出“video_viewpoint_grid()”的结构示例的图。
[图12]是示出图11所示的结构示例的主要信息的内容的图。
[图13]是用于描述作为登记视点的视点网格的图。
[图14]是用于描述视点网格的位置的图。
[图15]是用于描述按类别对视点网格进行分组的示例的图。
[图16]是示出图15所示的分组中的组1到3的用户的显示示例的图。
[图17]是示出视点网格的类别和子类别的具体示例的图。
[图18]是示出在MPEG-H 3D音频的发送数据中的音频帧的结构示例的图。
[图19]是示出“audio_viewpoint_grid()”的结构示例的图。
[图20]是示出图19所示的结构示例的主要信息的内容的图。
[图21]是示出作为传输流的视频MP4流的示例的图。
[图22]是示出与MP4流相对应的MPD文件的描述示例的图。
[图23]是示出在使用HMD和HMD扬声器观看和收听的情况下的示例的图。
[图24]是示出在使用HMD和房间扬声器观看和收听的情况下的示例的图。
[图25]是示出在使用诸如TV和房间扬声器的显示面板观看和收听的情况下的示例的图。
[图26]是示出音频解码器和音频渲染器的特定配置示例的图。
[图27]是用于描述将对应于观察点位置的HoA分量“W、X、Y和Z”转换为HoA分量“W”、X”、Y”和Z””的处理的图。
[图28]是用于描述被转换为经布置为围绕收听者的预定数量的扬声器的驱动信号的HoA分量“W”、X”、Y”和Z””的图。
[图29]是示出服务发送系统的配置示例的框图。
[图30]是示出服务接收装置的配置示例的框图。
具体实施方式
在下文中,对实施本发明的方式(在下文中,称之为实施例)进行描述。注意,将按以下顺序给出描述。
1.实施例
2.变型例
<1.实施例>
[基于MPEG-DASH的流传输系统的概述]
首先,将描述可以应用本技术的基于MPEG-DASH的流传输系统的概述。注意,可以通过广播或通信来执行传输。在下文中,将主要描述通过通信执行传输的示例。
图1示出了基于MPEG-DASH的流传输系统30的配置示例。在配置示例中,通过通信网络发送路径(通信发送路径)发送媒体流和媒体展现描述(MPD)文件。流传输系统30具有N个服务接收装置33-1、33-2…和33-N经由内容传输网络(CDN)34连接到DASH流文件服务器31和DASH MPD服务器32的配置。
DASH流文件服务器31基于预定内容(视频数据、音频数据、字幕数据等)的媒体数据来生成具有DASH规范的流分段(在下文中,将适当地称为“DASH分段”),并响应于来自服务接收装置的HTTP需求来发送该分段。DASH流文件服务器31可以是专用于流传输的服务器。此外,在一些情况下,网络服务器用作DASH流文件服务器31。
此外,响应于对经由CDN 34从服务接收装置33(33-1、33-2、…和33-N)发送的预定流的分段的需求,DASH流文件服务器31经由CDN 34将该流的分段发送到需求源接收装置。在这种情况下,参考在媒体展现描述(MPD)文件中描述的速率的值,服务接收装置33选择最佳速率的流,并且根据客户端所处的网络环境的状态来执行需求。
DASH MPD服务器32是生成用于获取在DASH流文件服务器31中生成的DASH分段的MPD文件的服务器。DASH MPD服务器32基于来自内容管理服务器(未示出)的内容元数据和在DASH流文件服务器31中生成的分段的地址(url)来生成MPD文件。注意,DASH流文件服务器31和DASH MPD服务器32在物理上可以是相同的。
在MPD的格式中,对于视频、音频等的每个流,使用称为表示(representation)的元素来描述每个属性。例如,在MPD文件中,针对具有针对相应表示的不同速率的多个视频数据流来描述相应速率。在服务接收装置33中,参考速率值,可以根据服务接收装置33所处的网络环境的状态如上所述地选择最佳流。
图2示出了在MPD文件中分级布置的结构之间的关系的示例。如图2的(a)所示,在作为整个MPD文件的媒体展现中存在以时间间隔分开的多个周期。例如,第一个周期从零秒开始,下一个周期从100秒开始,依此类推。
如图2的(b)所示,在每个周期中存在多个适配集。每个适配集取决于诸如视频或音频的媒体类型的差异,甚至对于相同媒体类型的语言的差异、观察点的差异等。如图2的(c)所示,在每个适配集中,存在多个表示。每个表示取决于流属性,诸如速率差。
如图2的(d)所示,每个表示包括分段信息。如图2的(e)所示,在该分段信息中,存在初始化分段和多个媒体分段,其中存在通过进一步精细地分离周期而获取的每个分段的信息。在每个媒体分段中,存在关于用于实际获取诸如视频或音频等分段数据的地址(url)的信息。
注意,可以在适配集中包括的多个表示之间自由地执行流的切换。因此,可以根据接收侧的网络环境的状态来选择具有最佳速率的流,并且可以执行非间歇视频传输。
[发送和接收系统的配置示例]
图3示出了根据实施例的发送和接收系统10的配置示例。发送和接收系统10包括服务发送系统100和服务接收装置200。在发送和接收系统10中,服务发送系统100对应于图1所示的上述流传输系统30的DASH流文件服务器31和DASH MPD服务器32。此外,在发送和接收系统10中,服务接收装置200对应于图1所示的上述流传输系统30的服务接收装置33(33-1、33-2、…、33-N)。
服务发送系统100通过通信网络发送路径传输DASH/MP4,即作为元文件的MPD文件,以及包括视频或音频等媒体流(媒体分段)的MP4(ISOBMFF)流(参见图1)。
视频MP4流包括视频流,该视频流包括通过对宽视角图像的图像数据进行编码而获取的编码图像数据。这里,宽视角图像是通过截取球面表面捕获图像的一部分或全部并执行平面包装而获取的投影画面,但是宽视角图像不限于此。
将渲染元信息插入视频流和/或容器的层中。通过在视频流的层中插入渲染元信息,可以不考虑容器的类型而动态地改变渲染元信息。该渲染元信息包括关于登记在分组中的预定数量的视频视点的信息,并且相应地包括关于预定数量的分组视频视点网格的信息。视点指示显示图像的中心位置,登记视点称为“视点网格”。这里,关于视点网格的信息包括关于方位角(方位角信息)和仰角(仰角信息)的信息。
此外,音频MP4流包括对象音频的包。在该实施例中,包括MPEG-H音频流包。该包包括基于场景的音频的数据、在分组之后登记的预定数量的音频视点信息片,并且因此包括关于预定数量的音频视点网格的信息。这里,基于场景的音频的数据是基于通过在某个位置收集声音而获取的音频数据,在用户面对360度的任意方向时产生的用于再现待输出的声音的数据。基于场景的音频的数据以声音听到的位置根据用户观看的方向而改变的方式形成用于再现语音的空间语音数据。
这里,关于预定数量的音频视点网格的信息与上述关于预定数量的视频视点网格的信息一一对应,并且每个信息通过视点网格ID与相应的信息相关联。在这种情况下,关于预定数量的音频视点网格的信息被认为与关于预定数量的视频视点网格的信息基本相同,但是可以考虑关于预定数量的音频视点网格的信息与关于预定数量的视频视点网格的信息部分或完全不同的情况。注意,在两条信息相同的情况下,也可以省略将关于音频视点网格的信息插入到MPEG-H音频流包中。
服务接收装置200接收通过通信网络发送路径从服务发送系统100发送的上述视频和音频的MP4(ISOBMFF)流(参见图1)。
服务接收装置200基于预定的视频视点网格信息,通过处理通过从视频MP4流中提取视频流并且对视频流进行解码而获取的宽视角图像的图像数据来获取显示图像数据。例如,服务接收装置200获取显示图像数据,在该显示图像数据中,将中心位置设置为由用户操作单元从基于用户的属性或合同内容而确定的组中的预定数量的视频视点网格中选择的预定视频视点网格。
此外,服务接收装置200基于关于预定音频视点网格的信息,通过对从音频MP4流中提取的MPEG-H音频流包中进一步提取的基于场景的音频的数据进行处理来获取输出语音数据。
在这种情况下,如上所述,使用与关于在已经获取显示图像数据时已经使用的视频视点网格信息相对应的音频视点网格信息。因此,获取与显示图像互锁的语音输出。注意,在关于音频视点网格的信息未包括在MPEG-H音频流包中的情况下,基于当已经获取显示图像数据时已经使用的关于视频视点网格的信息来获取输出语音数据。注意,下面的描述将假定MPEG-H音频流包包括关于音频视点网格的信息。
图4示意性地示出了发送和接收系统10的整个系统的配置示例。服务发送系统100包括360度相机102、平面包装单元103、视频编码器104、360度麦克风105、HoA转换单元106、音频编码器107、容器编码器108和存储器109。
360度相机102使用预定数量的相机捕获对象的图像,并获取宽视角图像。在本实施例中,360度相机102获取球面表面捕获图像(360°虚拟现实(VR)图像)的图像数据。例如,360度相机102使用背对背方法执行图像捕获,并且获取均使用鱼眼镜头捕获的具有180°或更大视角的超宽视角前表面图像和超宽视角背表面图像作为球面表面捕获图像。
平面包装单元103通过截取360度相机102获取的部分或全部球面表面捕获图像,并且执行平面包装,来获取投影画面。在这种情况下,选择例如等距柱状、交叉立方体等作为投影画面的格式类型。注意,在平面包装单元103中,根据需要对投影画面进行缩放,并且获取具有预定分辨率的投影画面。
图5的(a)示出了超宽视角前表面图像和超宽视角背表面图像的示例,其用作由相机102获取的球面表面捕获图像。图5的(b)示出了由平面包装单元103获取的投影画面的示例。该示例是投影画面的格式类型为等距柱状的情况的示例。此外,该示例是图5的(a)所示的每个图像以虚线示出的纬度截取的情况的示例。图5的(c)示出了在其上已经执行了缩放的投影画面的示例。
返回参见图4,视频编码器104例如对来自平面包装单元103的投影画面的图像数据执行诸如MPEG4-AVC或HEVC的编码,获取编码图像数据,并生成包括编码图像数据的视频流。将截取位置信息插入到视频流的SPS NAL单元中。例如,在HEVC编码中,“conformance_window”对应于截取位置信息,并且在MPEG4-AVC编码中,“frame_crop_offset”对应于截取位置信息。
图6示出HEVC编码中的SPS NAL单元的结构示例(语法)。“pic_width_in_luma_samples”的字段指示在投影画面的水平方向上的分辨率(像素大小)。“pic_height_in_luma_samples”的字段指示在投影画面的垂直方向上的分辨率(像素大小)。然后,当设置“conformance_window_flag”时,存在截取位置信息。将该截取位置信息视为其中在投影画面的左上设置基点(0,0)的偏移信息。
“conf_win_left_offset”字段指示截取位置的左端位置。“conf_win_right_offset”字段指示截取位置的右端位置。“conf_win_top_offset”字段指示截取位置的上端位置。“conf_win_bottom_offset”字段指示截取位置的下端位置。
在该实施例中,将由该截取位置信息指示的截取位置的中心设置为与投影画面的参考点一致。这里,当截取位置的中心由O(p,q)示出时,p和q可以分别由下面的公式表示。
p=(conf_win_right_offset-conf_win_left_offset)*1/2
+conf_win_left_offset
q=(conf_win_bottom_offset-conf_win_top_offset)*1/2
+conf_win_top_offset
图7示出使截取位置的中心O(p,q)与投影画面的参考点RP(x,y)一致。在图中所示的示例中,“projection_pic_size_horizontal”指示投影画面的水平像素大小,而“projection_pic_size_vertical”指示投影画面的垂直像素大小。注意,在配备有HMD的VR支持终端中,可以通过渲染投影画面来获取显示视图(显示图像),但是默认视图以参考点RP(x,y)为中心。
在这种情况下,例如,当投影画面包括多个区域时,该多个区域包括中心位置与参考点RP(x,y)相对应的默认区域,由截取位置信息指示的位置经设置与默认区域的位置一致。在这种情况下,由截取位置信息指示的截取位置的中心O(p,q)与投影画面的参考点RP(x,y)一致。
返回参见图4,视频编码器104将具有渲染元数据的SEI消息插入到访问单元(AU)的“SEI”的一部分中。图8示出渲染元数据(渲染元数据)的结构示例(语法)。图9示出了结构示例中的主要信息的内容(语义)。
“rendering_metadata_id”的16位字段是用于识别渲染元数据结构的ID。“rendering_metadata_length”的16位字段指示渲染元数据结构的字节大小。
“start_offset_sphere_latitude”、“start_offset_sphere_longitude”、“end_offset_sphere_latitude”,以及“end_offset_sphere_longitude”的相应16位字段指示在执行球面表面捕获图像的平面包装的情况下的截取范围的信息(参见图10的(a))。“start_offset_sphere_latitude”的字段指示从球面表面偏移的截取开始的纬度(垂直方向)。“start_offset_sphere_longitude”的字段指示从球面表面偏移的截取开始的经度(水平方向)。“end_offset_sphere_latitude”的字段指示从球面表面偏移的截取结束的纬度(垂直方向)。“end_offset_sphere_longitude”的字段指示从球面表面偏移的截取结束的经度(水平方向)。
“projection_pic_size_horizontal”和“projection_pic_size_vertical”的相应16位字段指示投影画面的大小信息(参见图10的(b))。“projection_pic_size_horizontal”的字段指示在投影画面的大小中从左上方开始的水平像素计数。“projection_pic_size_vertical”的字段指示在投影画面的大小中从左上方开始的垂直像素计数。
“scaling_ratio_horizontal”和“scaling_ratio_vertical”的相应16位字段指示来自投影画面的原始大小的缩放比率(参见图5的(b)和图5的(c))。“scaling_ratio_horizontal”的字段指示从投影画面的原始大小的水平缩放比率。“scaling_ratio_vertical”的字段指示从投影画面的原始大小的垂直缩放比率。
“reference_point_horizontal”和“reference_point_vertical”的相应16位字段指示投影画面的参考点RP(x,y)的位置信息(参见图10的(b))。“reference_point_horizontal”的字段指示参考点RP(x,y)的水平像素位置“x”。“reference_point_vertical”的字段指示参考点RP(x,y)的垂直像素位置“y”。
“format_type”的5位字段指示投影画面的格式类型。例如,“0”指示等距柱状、“1”指示交叉立方体、并且“2”指示分段的交叉立方体。
“backwardcompatible”的1位字段指示是否进行向后兼容设置,即,将由插入到视频流的层中的截取位置信息指示的截取位置的中心O(p,q)设置为与投影画面的参考点RP(x,y)一致(参见图7)。例如,“0”指示不进行向后兼容设置,而“1”指示进行向后兼容设置。“video_viewpoint_grid()”是存储关于分组的视点网格的信息的字段。
图11示出了“video_viewpoint_grid()”的结构示例(语法)。图12示出了结构示例中的主要信息的内容(语义)。“initial_viewpoint_grid_center_azimuth”的16位字段指示初始(默认)视点位置偏离参考点的方位角。“initial_viewpoint_grid_center_elevation”的16位字段指示初始(默认)视点位置偏离参考点的仰角。
“number_of_group”的8位字段指示组的数量。重复以下字段该数量的次数。“group_id”的8位字段指示组ID。“category”的8位字段指示组的类别(分类类型)。
“number_of_viewpoint_grids”的8位字段指示视点网格(viewpoint_grid)的数量。重复以下字段该数量的次数。“viewpoint_grid_id”的8位字段指示视点网格的ID。“sub_category”的8位字段指示一组视点网格中的类别。
“video_center_azimuth”的16位字段指示视点网格的方位角(方位角信息)。“video_center_elevation”的16位字段指示视点网格的仰角(仰角信息)。
这里,将描述视点网格。图13的(a)示出了平面转换图像。该图像由朝向风景的矩形包围,并且通过以将失真部分校正为适当图像的方式对上述投影画面执行转换处理而获取。
在附图所示的示例中,在该平面转换图像(宽视角图像)中,将八个视点VpA至VpH登记为视点网格。注意,以上描述假定基于方位角(方位角信息)和仰角(仰角信息)来识别每个视点网格的位置。然而,每个视点网格的位置(坐标值)也可以通过从参考点RP(x,y)偏移的像素来表示(参见图7)。如图13的(b)所示,在接收侧,通过从由A至H视点网格ID识别的相应视点网格中选择期望视点网格,可以显示具有与视点网格相对应的中心位置的图像。
图14是示出与图13的(a)的平面转换图像对应的球面表面图像的一部分的图。“C”指示对应于观看位置的中心位置。在附图所示的示例中,示出了与八个视点网格VpA至VpH相对应的相应位置的方位角和仰角θ。这里,方位角和仰角θ分别指示箭头方向的角度,箭头的基点位置的角度为0度。例如,如附图中所示的示例,将参考点(RP)的方位角设置为并且将参考点(RP)的仰角θ设置为θr=90°(π/2)。
图15的(a)示出了按类别对视点网格进行分组的示例。在附图中所示的示例中,组1包括三个视点网格VpC、VpD和VpG。此外,组2包括两个视点网格VpB和VpE。此外,组3包括三个视点网格VpA、VpF和VpH。图15的(b)示出了在图15的(a)的示例中通过组ID分类的类别和视点网格ID的列表。
图16的(a)示出了组1中的用户的显示示例。这里,如下所述,组1的用户是指基于用户的属性或合同内容允许使用组1中包括的视点网格的用户。这同样适用于其他组的用户。这同样适用于另一个示例。
附图中所示的示例示出了通过用户操作来选择视点网格VpD的状态,并且将具有与视点网格VpD相对应的中心位置的图像(显示范围D的图像,指的是与图15的(a)中所示的视点网格VpD相对应的点划线框)显示为主图像。然后,在附图所示的示例中,UI图像被叠加在主图像中而显示在右下位置。在该UI图像中,指示示出整个图像的范围的矩形区域m1,并且在该矩形区域m1中指示示出当前显示范围的矩形区域m2。此外,在该UI图像中,指示与当前显示范围对应的视点网格的ID为“D”,并且指示可选择视点网格的ID的“C”和“G”被进一步显示在矩形区域m1中的对应位置处。
图16的(b)示出了组2中的用户的显示示例。附图中所示的示例示出了通过用户操作来选择视点网格VpB的状态,并且将具有与视点网格VpB相对应的中心位置的图像(显示范围B的图像,指的是与图15的(a)中所示的视点网格VpB相对应的点划线框)显示为主图像。然后,在附图所示的示例中,UI图像被叠加在主图像中而显示在右下位置。在该UI图像中,指示示出整个图像的范围的矩形区域m1,并且在该矩形区域m1中指示示出当前显示范围的矩形区域m2。此外,在该UI图像中,指示与当前显示范围对应的视点网格的ID为“B”,并且指示可选择视点网格的ID的“E”被进一步显示在矩形区域m1中的对应位置处。
图16的(c)示出了组3中的用户的显示的示例。附图中所示的示例示出了通过用户操作来选择视点网格VpF的状态,并且将具有与视点网格VpF相对应的中心位置的图像(显示范围F的图像,指的是与图15的(a)中所示的视点网格VpF相对应的点划线框)显示为主图像。然后,在附图所示的示例中,UI图像被叠加在主图像中而显示在右下位置。在该UI图像中,指示示出整个图像的范围的矩形区域m1,并且在该矩形区域m1中指示示出当前显示范围的矩形区域m2。此外,在该UI图像中,指示与当前显示范围对应的视点网格的ID为“F”,示出可选择视点网格的ID的“A”和“H”被进一步显示在矩形区域m1中的对应位置处。
图17的(a)示出了按类别对视点网格进行分组的示例。在附图中所示的示例中,组1包括三个视点网格gp11、gp12,和gp13。此外,组2包括两个视点网格gp21和gp22。此外,组3包括一个视点网格gp31。
图17的(b)示出了与每个部分循环相对应的类别,并且进一步示出了当以管弦乐队的表演图像为目标时,与组中的每个视点网格相对应的子类别的具体示例。在附图中所示的示例中,组1的类别对应于弦乐器、组2的类别对应于管乐器,并且组3的类别对应于打击乐器。
然后,组1的视点网格gp11、gp12和gp13的子类别分别对应于小提琴、中提琴和低音提琴。此外,组2的视点网格gp21和gp22的子类别分别对应于长笛和小号。此外,组3的视点网格gp31的子类是定音鼓。
返回参见图4,360度麦克风105是收集来自360°所有方向的声音的麦克风。在该实施例中,360度麦克风105是高保真度立体声响复制麦克风。如通常已知的,高保真度立体声响复制麦克风包括四个或更多个麦克风,诸如四个麦克风盒体,其向外设置在规则四边形的相应表面上。这里,每个麦克风盒体基本上具有单向性。
高阶高保真度立体声响复制(HOA)转换单元106通过将通过360度麦克风105的四个麦克风盒体收集声音而获取的四个语音信号(听觉信号)分解为例如在球面表面上具有不同周期的正交分量,来获取作为基于场景的音频的数据的HoA格式的每个分量(在下文中,称之为“HoA分量”)。在本实施例中,在HoA转换单元106中,在以零阶和一阶的四个声音收集方向特性收集声音的情况下,通过四个麦克风盒体收集声音获取的声音信号被转换为信号表示。在这种情况下,零阶对应于由全向麦克风收集声音的情况,并且一阶对应于由双向麦克风在彼此正交的X、Y和Z轴方向上收集声音的情况。
这里,当通过四个麦克风盒体收集声音而获取的声音信号由Lb、Lf、Rb和Rf指示时,HoA分量“W、X、Y和Z”通过以下公式(1)获取。这里,W指示全向分量;并且X、Y和Z指示相应轴方向上的定向分量。
[公式1]
音频编码器107将由HOA转换单元106获取的HoA分量“W、X、Y和Z”以及关于预定数量的视点网格的信息包括到对象音频的包中。在本实施例中,在音频编码器107中,执行MPEG-H 3D音频的编码,并且将对象音频的包转换为MPEG-H音频流包。
图18示出在MPEG-H 3D音频的发送数据中的音频帧的结构示例的图。该音频帧包括多个MPEG音频流包。每个MPEG音频流包包括报头和净荷。
报头包括诸如包类型、包标签和包长度的信息。在净荷中,布置由报头的包类型定义的信息。在净荷信息中,存在与同步开始码对应的“Sync”,作为3D音频的发送数据的实际数据的“mpegh3daFrame()”,或指示该“mpegh3daFrame()”的配置等的“mpegh3daConfig()”。
在本实施例中,“mpegh3daDecoderConfig()”布置在“mpegh3daConfig()”中,并且“mpegh3daExtElementConfig()”、“HoAConfig()”和“HoADecoderConfig()”在本实施例中依次分层布置在“mpegh3daDecoderConfig()”中。然后,“HoAConfig()”包括诸如高保真度立体声响复制阶和HoA分量的数量的信息,并且“HoADecoderConfig()”包括关于HoA解码器配置的信息。
此外,“mpegh3daExtElement()”布置在“mpegh3daFrame()”中,并且“mpegh3daExtElement()”和“HoAFrame()”在该“mpegh3daExtElement()”中依次分层布置。然后,“HoAFrame()”包括作为基于场景的音频的数据的HoA分量。
此外,“mpegh3daConfigExtension()”布置在“mpegh3daConfig()”中,并且“mae_AudioSceneInfo()”、“mae_Data()”和“mae_AudioViewpointGrid()”在该“mpegh3daConfigExtension()”中依次分层布置。“mae_AudioViewpointGrid()”是存储关于分组的视点网格的信息的字段。注意,“mae_AudioViewpointGrid()”对应于“audio_viewpoint_grid()”(参见图19)。
图19示出了“audio_viewpoint_grid()”的结构示例(语法)。图20示出了结构示例中的主要信息的内容(语义)。“initial_viewpoint_grid_center_azimuth”的16位字段指示初始(默认)视点位置偏离参考点的方位角。“initial_viewpoint_grid_center_elevation”的16位字段指示初始(默认)视点位置偏离参考点的仰角。
“number_of_group”的8位字段指示组的数量。重复以下字段该数量的次数。“group_id”的8位字段指示组ID。“category”的8位字段指示组的类别(分类类型)。
“number_of_viewpoint_grids”的8位字段指示视点网格(viewpoint_grid)的数量。重复以下字段该数量的次数。“viewpoint_grid_id”的8位字段指示视点网格的ID。“sub_category”的8位字段指示一组视点网格中的类别。
“audio_center_azimuth”的16位字段指示视点网格的方位角(方位角信息)。“audio_center_elevation”的16位字段指示视点网格的仰角(仰角信息)。
返回参见图4,容器编码器108生成包括由视频编码器104获取的视频流和由音频编码器107获取的音频流的容器。在该实施例中,容器编码器108生成MP4流作为传输流。在这种情况下,关于视频,除了视频流的层之外,还将渲染元数据(参见图8)插入到容器的层中。注意,渲染元数据被认为仅被插入到任一个中。
图21示出了视频MP4流的示例。将整个服务流分片段并发送。每个随机访问周期具有从初始化分段(IS)开始,随后是框“styp”、“Segment index box(sidx)”、“Sub-segmentindex box(ssix)”、“Movie fragment box(moof)”以及“Media data box(mdat)”。
初始化分段(IS)具有基于ISO基础媒体文件格式(ISOBMFF)的框结构。在顶部,布置指示文件类型的“ftyp”框,随后布置用于控制的“moov”框。在该“moov”框中分层布置有“trak”框、“mdia”框、“minf”框、“stbl”框、“stsd”框以及“schi”框,并且将渲染元数据(Rendering_metadata)(参见图8)插入到该“schi”框中,将省略对其的详细描述。
分段类型信息被插入到“styp”框中。将每个轨迹的范围信息插入到“sidx”框中,指示“moof”/“mdat”的位置,并且还指示“mdat”中的每个样本(画面)的位置。在“ssix”框中插入轨迹的分段信息,执行I/P/B类型的分段。
将控制信息插入到“moof”框中。视频、音频等的信号(发送媒体)的实际对象自身被插入到“mdat”中。“moof”框和“mdat”框形成电影片段。因为将通过分片段发送媒体获取的分段插入到一个电影片段的“mdat”框中,所以插入到“moof”框中的控制信息变为关于该片段的控制信息。
在每个电影片段的“mdat”框中,布置预定数量的投影画面的编码图像数据(访问单元)。例如,该预定数量对应于画面的预定数量,并且是对应于一个GOP的数量。这里,每个访问单元包括NAL单元,诸如“VPS”、“SPS”、“PPS”、“PSEI”、“SLICE”或“SSEI”。注意,“VPS”或“SPS”仅被插入到例如GOP的开始画面中。
将关于用作截取位置信息的“conformance_window”的信息插入SPS NAL单元(参见图6)。此外,插入具有渲染元数据(Rendering_metadata)(参见图8)的SEI消息作为“SSEI”的NAL单元。
返回参见图4,已经由容器编码器108生成的视频和音频的MP4流通过存储器109被发送到服务接收装置200。图22是示出与这些MP4流相对应的MPD文件的描述示例的图。
在该MPD文件中,存在与视频MP4流相对应的适配集。
在该适配集中,通过描述“<AdaptationSet mimeType="video/mp4"codecs="hev1.xx.xx.Lxxx,xx,hev1.yy.yy.Lxxx,yy">"”,存在与视频流对应的适配集,指示视频流是以MP4文件结构提供的,并且已经过HEVC编码。
在该适配集中,表示存在。在该表示中,通过描述“<SupplementaryDescriptorschemeIdUri="urn:brdcst:video:vrviewgrid"value="1"/>”,指示关于视点网格的信息的存在。
此外,在该表示中,通过描述“width="3840"height="2160"frameRate="60"”,指示“codecs="hev1.xx.xx.L153,xx"”、“level=“0"”、分辨率、帧速率和编解码器类型,并且进一步指示等级“0”被分配作为标签信息。此外,通过描述“<BaseURL>videostreamVR.mp4</BaseURL>”,将该MP4流的位置目的地指示为“videostreamVR.mp4”。
在该MPD文件中,还存在与音频MP4流相对应的适配集。
在该适配集中,通过描述“<AdaptationSet mimeType="audio/mp4"codecs="mpegh.xx.xx.xx,xx">”,存在与该音频流相对应的适配集,指示该音频流是以MP4文件结构提供的,并且已经过MPEGH编码。
在该适配集中,表示存在。在该表示中,通过描述“<SupplementaryDescriptorschemeIdUri="urn:brdcst:audio:vrviewgrid"value="1"/>”,指示关于视点网格的信息的存在。此外,通过描述“<BaseURL>audiostreamVR.mp4</BaseURL>”,将该MP4流的位置目的地指示为“audiostreamVR.mp4”。
返回参见图4,服务接收装置200包括容器解码器203、视频解码器204、视频渲染器205、音频解码器207和音频渲染器208。
容器解码器203从已经从服务发送系统100发送的视频的MP4流中提取视频流,并将视频流发送到视频解码器204。视频解码器204通过对视频流进行解码处理获取投影画面(图像数据)。视频渲染器205通过对投影画面(图像数据)进行渲染处理来获取渲染图像(图像数据)。
在这种情况下,当用户从基于用户属性或合同内容确定的组中选择预定视点网格时,视频渲染器205获取具有与视点网格相对应的中心位置的显示图像数据。此时,基于叠加在主图像上的UI图像(参见图16),用户可以识别在整个图像的范围m1中的当前显示范围,并且此外,可以识别进一步可由其自身可选择的视点网格。基于该识别,用户可以选择任意视点网格并切换显示图像。
注意,在用户选择任意视点网格并切换显示图像之后,用户还可以将显示图像的中心位置从视点网格的位置移位。用户可以选择视点网格,还可以通过例如以下方式移位显示图像的中心位置。
图23示出在使用头戴式显示器(HMD)和HMD扬声器(头戴式耳机)观看和收听的情况下的示例。在这种情况下,如图23的(a)所示,通过佩戴HMD的用户以T1、T2和T3的顺序从左向右转动他/她的颈部,观察点变得更靠近视点网格,并且在T3所示的状态下,观察点处于观察点对应于视点网格的状态。图23的(b)示出当佩戴HMD的用户以T1、T2和T3的顺序从左向右转动他/她的颈部时获取的HMD屏幕的UI显示的示例。
在这种情况下,直到观察点对应于视点网格,视点网格的方向由箭头的方向指示,并且箭头的长度指示直到观看者视图对应于视点网格的到达程度。然后,当观察点对应于视点网格时,预定标记,诸如感叹号“!”显示在附图中所示的示例中。因此,用户可以将观察点平滑地移动到视点网格。
注意,如上所述,在通过UI显示引导用户的观察点的移动的同时,或者在没有通过HMD扬声器执行UI显示的情况下,可以通过叠加来自HMD扬声器的合成声音来给出引导,如“向右看大约45°。”、“向右看大约15°。”或“方向与视点网格一致。”以这种方式,通过由控制单元控制的用户通知当前视点的位置与由关于视点网格的信息指示的位置之间的关系(网格位置同步通知),用户可以容易地将当前视点的位置移动到由关于视点网格的信息指示的位置。这同样适用于其他示例。
注意,在用户执行用于使观察点对应于视点网格的收听转动操作的时段期间,视频渲染器205停止用于获取显示图像数据的渲染处理,或者甚至在这时段期间继续用于获取显示图像数据的渲染处理。注意,在图23的(b)的HMD屏幕上,标记“+”指示显示图像的中心位置,即,指示对应于观察点位置的视点。
此外,通过对应于音频渲染器208的观察点位置的渲染处理(稍后将描述),以对应于用户的观察点位置的方式调整来自HMD扬声器的声音的再现。在附图中所示的示例中,虚线a指示用户的视线方向(用户前方的方向)、点划线b指示用户收听到视点网格的声音的方向。例如,T1指示用户从前方方向向右旋转θs1的方向收听到视点网格的声音的状态。与此相反,T2指示用户从前方方向向右旋转θs2(<θs1)的方向收听到视点网格的声音的状态。此外,T3指示用户从其自身的前方方向收听到视点网格的声音的状态。
图24示出在使用头戴式显示器(HMD)和房间扬声器观看和收听的情况下的示例。注意,尽管附图中所示的示例示出了扬声器的数量为两个的情况,但是也可以提供三个或更多个扬声器。该示例类似于图23中的示例,除了房间扬声器被用来代替HMD扬声器之外。
同样在这种情况下,类似于图23中使用HMD扬声器的示例,通过对应于音频渲染器208的观察点位置的渲染处理(稍后将描述),以对应于用户的观察点位置的方式调整来自房间扬声器的声音的再现。在附图中所示的示例中,虚线a指示用户的视线方向(用户前方的方向),点划线b示出用户收听到视点网格的声音的方向。例如,T1指示用户从前方方向向右旋转θs1的方向收听到视点网格的声音的状态。与此相反,T2指示用户从前方方向向右旋转θs2(<θs1)的方向收听到视点网格的声音的状态。此外,T3指示用户从其自身的前方方向收听到视点网格的声音的状态。
图25示出了在使用诸如TV和房间扬声器的显示面板来观看和收听的情况下的示例。注意,尽管附图中所示的示例示出了扬声器的数量为两个的情况,但是也可以设置三个或更多个扬声器。在这种情况下,如图25的(a)所示,通过执行滚动操作,用户以T1、T2和T3的顺序移动视点网格的位置,并且在T3所示的状态下,观察点处于观察点对应于视点网格的状态。图25的(b)示出当用户执行滚动操作时获取的显示面板上的UI显示的示例。注意,滚动操作可以通过指示设备或语音UI输入来执行。
在这种情况下,直到视点网格对应于观察点,视点网格的方向由箭头的方向指示,并且箭头的长度指示直到观看者视图对应于视点网格的到达程度。然后,当视点网格对应于观察点时,预定标记,诸如感叹号“!”显示在附图中所示的示例中。因此,使用者可平滑地将视点网格移动至观察点。
注意,如上所述,在通过室内扬声器的UI显示引导用户的视点网格的移动的同时,或者在不执行UI显示的情况下,可以通过叠加来自室内扬声器的合成声音来给出引导,如“向右看大约45°。”、“向右看大约15°。”或“方向与视点网格一致。”
注意,在用户执行用于使视点网格对应于观察点的滚动操作的时段期间,视频渲染器205停止用于获取显示图像数据的渲染处理,或者甚至在这时段期间继续用于获取显示图像数据的渲染处理。注意,在图25的(b)的显示面板表面上,标记“+”指示显示图像的中心位置,即,指示对应于观察点位置的视点。
此外,通过与后面将描述的音频渲染器208的观察点位置相对应的渲染处理,以与用户的观察点位置相对应的方式调整来自室内扬声器的声音的再现。在附图中所示的示例中,虚线a指示用户的视线方向(用户前方的方向),点划线b示出用户收听到视点网格的声音的方向。例如,T1指示用户从前方方向向右旋转θs1的方向收听到视点网格的声音的状态。与此相反,T2指示用户从前方方向向右旋转θs2(<θs1)的方向收听到视点网格的声音的状态。此外,T3指示用户从其自身的前方方向收听到视点网格的声音的状态。
返回参考图4,容器解码器203从已经从服务发送系统100发送的音频MP4流中提取音频流,并将该音频流发送到音频解码器207。音频解码器207通过对音频流执行解码处理来获取作为基于场景的音频的数据的HoA分量和关于预定数目的视点网格的信息。
音频渲染器208基于关于视点网格(θ)的信息对HoA分量执行渲染处理,并且再现与视点网格对应的语音。在这种情况下,例如,当用户从基于如上所述的视频系统中的用户属性或合同内容所确定的组中选择预定视点网格时,基于与视点网格相对应的音频系统的视点网格来执行渲染处理,以及在将视点网格设置为观察点位置的情况下进行声音再现。因此,实现了图像和语音之间的互锁。
注意,尽管音频系统的视点网格基本上被设置为类似于视频系统的视点网格,但音频系统的视点网格被认为被设置为经移位。因此,在存在音频系统的视点网格的情况下,基于与所选择的视频系统的视点网格相对应的音频系统的视点网格来执行渲染处理。应当理解,在音频系统的视点网格不存在的情况下,认为基于视频系统的视点网格执行渲染处理。
注意,如上所述,除了用于执行对应于视点网格的语音的再现的渲染处理之外,即使在观察点位置不对应于视点位置的情况下,音频渲染器208也可以基于关于观察点位置(θ)的信息,执行对应于观察点位置的语音的再现。
图26示出音频解码器207和音频渲染器208的特定配置示例。音频解码器207通过解码音频MP4流来提取包括在MPEG-H音频流包(参见图18)中的“HoAConfig()”、“HoAFrame()”以及“mae_audio_viewpoint_grid()”。
音频渲染器208包括HoA帧转换器281、渲染器(渲染器1)282、HoA反向转换单元283和渲染器(渲染器2)284。在HoA帧转换器281中,基于“HoAConfig()”、“HoAFrame()”以及“mae_audio_viewpoint_grid()”,HoA分量“W、X、Y和Z”对应于一个帧,为每个音频帧获取预定数目的网格参数(关于视点网格的信息)。将预定数量的网格参数发送到控制单元。
由HoA帧转换器281获取的HoA分量“W、X、Y和Z”被提供给渲染器282。此外,将用作关于观察点位置(当观察点对应于视点网格时,与视点网格位置相同)的信息的方位角和仰角θ从控制单元提供给渲染器282。注意,控制单元基于来自检测用户的头部转动的头部轨迹传感器的输出或用户的滚动操作信息,获取观察点从视点网格的移位,并调整(θ)的值。
当将HoA分量“W、X、Y和Z”应用于某一观察点时,在观察点从x轴上的点P(r,0,0)改变到任意点S(r,θ',)的情况下,按照以下顺序获取HoA分量“W”、X”、Y”和Z””,其中x轴上的点P(r,0,0)从原点C的位置移位,原点C是图27中三个轴的交点。这里,获取θ'=π/2-θ。
[公式2]
接着,通过下面的公式(3)将HoA分量“W'、X'、Y'和Z'”转换为HoA分量“W”、X”、Y”和Z””,可以实现点Q在垂直表面上从点S改变θ'的声场再现。
[公式3]
最后,通过下面的公式(4)将HoA分量“W、X、Y和Z”转换为HoA分量“W”、X”、Y”和Z””,即可以实现S点的声场再现。
[公式4]
返回参见图26,在HoA反向转换单元283中,将用于再现与由渲染器282获取的观察点位置相对应的声音的HoA分量“W”、X”、Y”和Z””转换为布置成包围收听者的预定数量的扬声器的驱动信号。例如,通过下面的公式(5)至(8)将HoA分量“W”、X”、Y”和Z””转换为四个扬声器的驱动信号“LF、RF、LB以及RB”。
LF=W”+0.707(X”+Y”) (5)
RF=W”+0.707(X”-Y”) (6)
LB=W”+0.707(-X”+Y”) (7)
RB=W”+0.707(-X”-Y”) (8)
这里,如图28所示,四个扬声器等间隔地布置在水平表面上以包围收听者。在附图中,LF指示布置在收听者的左前侧的扬声器、RF指示布置在收听者的右前侧的扬声器、LB指示布置在收听者的左后侧的扬声器、并且RB指示布置在收听者的右后侧的扬声器。
在渲染器284中,基于已经由HoA反向转换单元283转换的预定数量的扬声器的驱动信号来生成预定信道的语音信号。例如,在使用HMD扬声器的情况下,通过卷积与每个扬声器的位置相对应的头部相关传输函数(HRTF)并相加,生成双耳信号。
注意,以上描述是通过将观察点从视点网格的移位包括到关于从控制单元提供到渲染器282的观察点位置(θ)的信息中来执行与观察点位置相对应的语音的再现的情况,但是当在渲染器284中基于预定数量的扬声器的驱动信号生成预定信道的语音信号时,观察点从视点网格的移位可以被认为是经调整的。
“服务发送系统的配置示例”
图29示出服务发送系统100的配置示例。服务发送系统100包括控制单元101、用户操作单元101a、360度相机102、平面包装单元103、视频编码器104、360度麦克风105、HoA转换单元106、音频编码器107、容器编码器108和包括存储器109的通信单元110。
控制单元101包括中央处理单元(CPU),并且基于控制程序来控制服务发送系统100的每个单元的操作。用户操作单元101a是用于用户执行各种操作的键盘、鼠标、触摸面板、遥控器等。
360度相机102使用预定数量的相机捕获对象的图像,并且获取球面表面捕获图像(360°VR图像)的图像数据。例如,360度相机102使用背对背方法执行图像捕获,并且获取均使用鱼眼镜头捕获的具有180°或更大视角的超宽视角前表面图像和超宽视角背表面图像作为球面表面捕获图像(参见图5的(a))。
平面包装单元103通过截取360度相机102获取的球面表面捕获图像的一部分或全部,并执行平面包装,获取矩形投影画面(参见图5的(b))。在这种情况下,选择例如等距柱状、交叉立方体等作为投影画面的格式类型。注意,在平面包装单元中,根据需要对投影画面执行缩放,并且获取具有预定分辨率的投影画面(参见图5的(c))。
视频编码器104例如对来自平面包装单元103的投影画面的图像数据执行诸如MPEG4-AVC或HEVC的编码,获取编码的图像数据,并且生成包括编码的图像数据的视频流。将截取位置信息插入到视频流的SPS NAL单元中(参见图6中关于“conformance_window”信息)。
此外,视频编码器104将具有渲染元数据(渲染元信息)的SEI消息插入到访问单元(AU)的“SEI”的一部分中。在渲染元信息中插入关于执行球面表面捕获图像的平面包装的情况下的截取范围的信息、关于投影画面的原始大小的缩放比率的信息、关于投影画面的格式类型的信息、指示是否进行了用于使截取位置的中心O(p,q)与投影画面的参考点RP(x,y)一致的向后兼容设置的信息等(参见图8)。
此外,该渲染元信息包括关于预定数量的分组视点网格的信息(参见图11)。关于视点网格的信息包括关于方位角(方位角信息)和仰角(仰角信息)的信息。
360度麦克风105是收集来自360°全方向的声音,并输出通过四个麦克风盒体收集声音而获取的语音信号Lb、Lf、Rb和Rf的高保真度立体声响复制麦克风。HOA转换单元106通过将由360度麦克风105获取的四个语音信号Lb、Lf、Rb和Rf分解为在球面表面上具有不同周期的正交分量(参见公式(1)),来获取作为基于场景的音频的数据的HoA分量“W、X、Y和Z”。
音频编码器107生成包括由HOA转换单元106获取的HoA分量“W、X、Y和Z”以及关于预定数量的视点网格的信息的MPEG-H音频流。在这种情况下,HoA分量“W、X、Y和Z”以及关于预定数量的视点网格的信息被包括在音频流包中(参见图18)。
容器编码器108生成包括由视频编码器104获取的视频流和由音频编码器107获取的音频流的MP4流作为传输流。在这种情况下,关于视频,渲染元数据(参见图8)也被插入到容器的层中(参见图21)。
包括在通信单元110中的存储器109累积在容器编码器108中生成的MP4流。通信单元110从服务接收装置200接收传输需求请求,并响应于传输需求请求向服务接收装置200发送MPD文件(参见图22)。服务接收装置200基于该MPD文件识别传输流的配置。此外,通信单元110从服务接收装置200接收对MP4流的传输需求,并将MP4流发送到服务接收装置200。
“服务接收装置的配置示例”
图30示出了服务接收装置200的配置示例。服务接收装置200包括控制单元201、UI单元201a、传感器单元201b、通信单元202、容器解码器203、视频解码器204、视频渲染器205、图像显示单元206、音频解码器207、音频渲染器208和语音输出单元209。
控制单元201包括中央处理单元(CPU),并且基于控制程序来控制服务接收装置200的每个单元的操作。UI单元201a用于执行用户界面,并且包括例如用于用户操作显示区域的移动的指示设备,用于用户输入语音以发出用于移动显示区域的语音指令的麦克风等。传感器单元201b包括用于获取用户状态和关于环境的信息的各种传感器,并且包括例如安装在头戴式显示器(HMD)上的姿势检测传感器等。
通信单元202在控制单元201的控制下接收对服务发送系统100的传输需求请求,并且响应于传输需求请求从服务发送系统100接收MPD文件(参见图22)。通信单元202将该MPD文件发送到控制单元201。控制单元201基于该MPD文件识别传输流的配置。
此外,通信单元202在控制单元201的控制下向服务发送系统100传输对于MP4流的传输需求(发送需求),并且响应于该需求从服务发送系统100接收视频和音频的MP4流。
这里,基于由安装在HMD上的陀螺仪传感器等获取的关于移动方向和移动量的信息,或基于以用户操作为基础的指示信息或用户的语音UI信息,控制单元101获取显示区域的移动的方向和速度,并且进一步获取关于视点网格的切换的信息。
此外,控制单元201包括用户识别功能。基于用户的属性(年龄、性别、兴趣、熟练程度、登录信息等)或合同内容,控制单元201识别用户的类型,并确定可由用户使用的一组视点网格。然后,控制单元201使视频渲染器205和音频渲染器208进入使用用户可以使用的组的视点网格的状态。
容器解码器203提取插入在视频MP4流的初始化分段(IS)中的渲染元数据(参见图8),并将渲染元数据发送到控制单元201。因此,控制单元201获取关于预定数量的分组视点网格的信息(视频系统)。
视频解码器204通过对视频流执行解码处理获取投影画面(图像数据)。此外,视频解码器204提取插入到视频流中的参数集和SEI消息,并将该参数集和SEI消息发送到控制单元201。该提取的信息包括关于插入在SPS NAL包中的截取位置“conformance_window”的信息,并且还包括具有渲染元数据的SEI消息(参见图8)。
在控制单元201的控制下,视频渲染器205通过对投影画面(或图像数据)执行渲染处理来获取渲染图像(图像数据)。在这种情况下,当用户从基于用户属性或合同内容确定的组中选择预定视点网格时,视频渲染器205获取具有与视点网格相对应的中心位置的显示图像数据。
基于叠加在主图像上的UI图像(参见图16),用户可以识别在整个图像的范围m1中的当前显示范围,并且此外,可以识别进一步由其自身可选择的视点网格。基于这种识别,用户可以选择任意视点网格并切换显示图像(参见图23、图24和图25)。图像显示单元206显示由视频渲染器205获取的渲染图像。
此外,容器解码器203从由通信单元202接收的视频MP4流中提取音频流,并将该音频流发送到音频解码器207。音频解码器207通过对音频流执行解码处理来获取作为基于场景的音频的数据的HoA分量和关于预定数量的分组视点网格(音频系统)的信息。音频解码器207将关于视点网格的信息发送到控制单元201。
在控制单元201的控制下,音频渲染器208基于关于视点网格(θ)的信息对HoA分量执行渲染处理,并且获取渲染语音(语音数据)。在这种情况下,如上所述,音频渲染器208基于对应于在视频系统中选择性使用的视点网格的语音系统的视点网格执行渲染处理,并且再现对应于当观察点位置对应于视点网格的时间的语音。语音输出单元209输出由音频渲染器208获取的渲染语音。语音输出单元209例如是HMD扬声器或房间扬声器(参见图23、图24和图25)。注意,在音频系统的视点网格不存在的情况下,可以基于视频系统的视点网格执行渲染处理。
如上所述,在图3所示的发送和接收系统10中,服务发送系统100发送作为基于场景的音频的数据的HoA分量和关于预定数量的视点网格的信息。因此,在接收侧,可以容易地获取与宽视角图像的固定位置相对应的语音输出。
此外,在图3所示的发送和接收系统10中,服务发送系统100发送关于分组的视点网格的信息。因此,在接收侧,可以针对每个预期目的或每个用户获取对应于宽视角图像的固定位置的语音输出。
此外,在图3所示的发送和接收系统10中,服务接收装置200获取作为基于场景的音频的数据的HoA分量和关于预定数量的视点网格的信息,并且基于关于视点网格的信息通过处理HoA分量来获取输出语音数据。因此,能够容易地获取与宽视角图像的固定位置对应的语音输出。
此外,在图3所示的发送和接收系统10中,服务接收装置200使用基于用户属性或合同内容确定的组的视点信息。因此,可以以获取对应于用户的属性或合同内容的语音输出的方式执行限制。
此外,在图3所示的发送和接收系统10中,服务接收装置200通过UI显示或语音来引导用户的观察点的移动。由此,能够容易地获取与宽视角图像的固定位置对应的语音输出。
<2.变型例>
注意,在上述实施例中,已经描述了容器是MP4(ISOBMFF)的示例。然而,本技术不限于容器是MP4的示例,并且即使容器是诸如MPEG-2TS或MMT的另一格式的容器,也可以类似地应用本技术。
此外,在上述实施例中,已经描述了使用零阶和一阶作为基于场景的音频的数据的HoA分量的示例,但是可以类似地考虑使用高阶分量的配置。
此外,在上述实施例中,从服务发送系统100接收作为基于场景的音频的数据的HoA分量和关于预定数量的登记视点网格的信息的示例,但是可以类似地考虑通过从记录媒体再现来获取作为基于场景的音频的数据的HoA分量和关于预定数量的登记视点网格的信息的配置。
此外,在上述实施例中,已经描述了既存在视频系统又存在音频系统的示例,但是可以考虑仅包括语音系统的配置。
此外,在上述实施例中,已经描述了包括服务发送系统100和服务接收装置200的发送和接收系统10的示例,但是可以应用本技术的发送和接收系统的配置不限于此。例如,也可以考虑将服务接收装置200的一部分改变为通过诸如高清晰度多媒体接口(HDMI)等数字接口连接的机顶盒和显示器的情况。注意,“HDMI”是注册商标。
此外,本技术还可以采用以下配置。
(1)一种发送装置,包括:
发送单元,被配置为发送空间语音数据和关于预定数量的登记视点的信息。
(2)根据上述(1)所述的发送装置,
其中,关于视点的信息包括关于指示视点的位置的方位角和仰角的信息。
(3)根据上述(1)或(2)所述的发送装置,
其中,对预定数量的登记视点信息进行分组。
(4)根据上述(1)至(3)中任一项所述的发送装置,
其中,空间语音数据是基于场景的音频的数据。
(5)根据上述(4)所述的发送装置,
其中,基于场景的音频的数据是HoA格式的每个分量。
(6)根据上述(4)或(5)所述的发送装置,
其中,发送单元将基于场景的音频的数据和关于预定数量的登记视点的信息包括在对象音频的包中以进行发送。
(7)根据上述(6)所述的发送装置,
其中,对象音频的包是MPEG-H音频流包。
(8)根据上述(6)或(7)所述的发送装置,
其中,发送单元将对象音频的包包括在ISOBMFF的容器中以进行发送。
(9)一种发送方法,包括:
由发送单元发送空间语音数据和关于预定数量的登记视点的信息的步骤。
(10)一种处理装置,包括:
获取单元,被配置为获取空间语音数据和关于预定数量的登记视点的信息;以及
处理单元,被配置为通过基于关于登记视点的信息处理空间语音数据来获取输出语音数据。
(11)根据上述(10)所述的处理装置,
其中,关于视点的信息包括关于指示视点位置的方位角和仰角的信息。
(12)根据上述(10)或(11)所述的处理装置,
其中,空间语音数据是基于场景的音频的数据。
(13)根据上述(12)所述的处理装置,
其中,基于场景的音频的数据是HoA格式的每个分量。
(14)根据上述(12)或(13)所述的处理装置,
其中,获取单元接收基于场景的音频的数据和关于预定数量的登记视点的信息,或者通过从媒体再现来获取基于场景的音频的数据和关于预定数量的登记视点的信息。
(15)根据上述(12)至(14)中任一项所述的处理装置,
其中,获取单元从所接收的对象音频的包获取基于场景的音频的数据和关于预定数量的登记视点的信息。
(16)根据上述(15)所述的处理装置,
其中,目标音频的包是MPEG-H音频流包。
(17)根据上述(10)至(16)中任一项所述的处理装置,
其中,获取单元从视频处理系统获取关于预定数量的登记视点的信息,该视频处理系统被配置为通过基于视点信息处理宽视角图像的图像数据来获取显示图像数据。
(18)根据上述(10)至(17)中任一项所述的处理装置,
其中,对关于预定数量的登记视点的信息进行分组,并且
处理单元使用基于用户的属性或合同内容确定的组的登记视点信息。
(19)根据上述(10)至(18)中任一项所述的处理装置,还包括
控制单元,被配置为对通知用户当前视点的位置与由关于登记视点的信息指示的位置之间的关系进行控制。
(20)一种处理方法,包括:
由获取单元获取空间语音数据和关于预定数量的登记视点的信息的步骤;以及
由处理单元通过基于关于登记视点的信息处理空间语音数据来获取输出语音数据的步骤。
本技术的主要特征在于,通过在接收侧发送空间语音数据和关于预定数量的登记视点的信息,可以容易地获取对应于宽视角图像的固定位置的语音输出(参见图18、图19和图28)。
参考符号列表
10 发送和接收系统
100 服务发送系统
101 控制单元
101a 用户操作单元
102 360度相机
103 平面包装单元
104 视频编码器
105 360度麦克风
106 HoA转换单元
107 音频编码器
108 容器编码器
109 存储器
110 通信单元
200 服务接收装置
201 控制单元
201a UI单元
201b 传感器单元
202 通信单元
203 容器解码器
204 视频解码器
205 视频渲染器
206 图像显示单元
207 音频解码器
208 音频渲染器
209 语音输出单元
281 HoA帧转换器
282,284 渲染器
283 HoA反向转换单元。
Claims (19)
1.一种发送装置,包括:
处理电路,被配置为生成容器,所述容器包括视频流和音频流,
所述视频流包括投影画面的编码的图像数据,并且
所述音频流包括编码的空间语音数据;
将渲染元数据插入所述容器中,所述渲染元数据包括指定一个或多个视频视点的视频视点语法、分别与所述一个或多个视频视点相关联的一个或多个视点标识符、以及所述一个或多个视频视点的对应坐标信息;并且
在所述音频流中插入音频视点语法,所述音频视点语法指定一个或多个音频视点、定义包括在所述音频视点语法中的所述一个或多个音频视点的数目的一个或多个参数、分别与所述一个或多个音频视点相关联的所述一个或多个视点标识符、以及所述一个或多个音频视点的对应坐标信息;以及
发送电路,被配置为将包括所述编码的图像数据、所述编码的空间语音数据、所述视频视点语法和所述音频视点语法的所述容器传输至接收设备,
其中,所述视频视点语法使所述接收从所述编码的图像数据生成主图像,所述主图像具有与所述一个或多个视频视点中所选的一个视频视点对应的中心位置,
所述音频视点语法使所述接收从所述编码的空间语音数据生成语音信号,所述语音信号具有与所述一个或多个音频视点中所选的一个音频视点对应的观测点位置,并且
所述一个或多个视频视点中所选的一个视频视点和所述一个或多个音频视点中所选的一个音频视点与相同的视点标识符相关联。
2.根据权利要求1所述的发送装置,
其中,所述一个或多个音频视点的所述坐标信息包括关于指示所述一个或多个音频视点的位置的方位角和仰角的信息。
3.根据权利要求1所述的发送装置,
其中,所述音频视点语法还将所述一个或多个音频视点布置为一个或多个组。
4.根据权利要求1所述的发送装置,
其中,所述空间语音数据是基于场景的音频的数据。
5.根据权利要求4所述的发送装置,
其中,所述基于场景的音频的所述数据是HoA格式的每个分量。
6.根据权利要求4所述的发送装置,
其中,所述基于场景的音频的所述数据和所述音频视点语法包括在所述音频流的包中。
7.根据权利要求6所述的发送装置,
其中,所述包是MPEG-H音频流包。
8.根据权利要求6所述的发送装置,
其中,所述包包括在ISOBMFF的所述容器中。
9.一种发送方法,包括:
生成容器,所述容器包括视频流和音频流,
所述视频流包括投影画面的编码的图像数据,并且
所述音频流包括编码的空间语音数据;
将渲染元数据插入所述容器中,所述渲染元数据包括指定一个或多个视频视点的视频视点语法、分别与所述一个或多个视频视点相关联的一个或多个视点标识符、以及所述一个或多个视频视点的对应坐标信息;并且
通过发送装置的处理电路,在所述音频流中插入音频视点语法,所述音频视点语法指定一个或多个音频视点、定义包括在所述音频视点语法中的所述一个或多个音频视点的数目的一个或多个参数、分别与所述一个或多个音频视点相关联的所述一个或多个视点标识符、以及所述一个或多个音频视点的对应坐标信息;以及
通过所述发送装置的发送电路,将包括所述编码的图像数据、所述编码的空间语音数据、所述视频视点语法和所述音频视点语法的所述容器传输至接收设备,
其中,所述视频视点语法使所述接收从所述编码的图像数据生成主图像,所述主图像具有与所述一个或多个视频视点中所选的一个视频视点对应的中心位置,
所述音频视点语法使所述接收从所述编码的空间语音数据生成语音信号,所述语音信号具有与所述一个或多个音频视点中所选的一个音频视点对应的观测点位置,并且
所述一个或多个视频视点中所选的一个视频视点和所述一个或多个音频视点中所选的一个音频视点与相同的视点标识符相关联。
10.一种处理装置,包括:
接收电路,被配置为
接收容器,所述容器包括视频流和音频流,
所述视频流包括投影画面的编码的图像数据,并且
所述音频流包括编码的空间语音数据;
从所述容器中获取渲染元数据,所述渲染元数据包括指定一个或多个视频视点的视频视点语法、分别与所述一个或多个视频视点相关联的一个或多个视点标识符、以及所述一个或多个视频视点的对应坐标信息;并且
从所述音频流中获取音频视点语法,所述音频视点语法指定一个或多个音频视点、定义包括在所述音频视点语法中的所述一个或多个音频视点的数目的一个或多个参数、分别与所述一个或多个音频视点相关联的所述一个或多个视点标识符、以及所述一个或多个音频视点的对应坐标信息;以及
从所述编码的图像数据生成主图像,所述主图像具有与所述一个或多个视频视点中所选的一个视频视点对应的中心位置,
从所述编码的空间语音数据生成语音信号,所述语音信号具有与所述一个或多个音频视点中所选的一个音频视点对应的观测点位置,
其中,所述一个或多个视频视点中所选的一个视频视点和所述一个或多个音频视点中所选的一个音频视点与相同的视点标识符相关联。
11.根据权利要求10所述的处理装置,
其中,所述一个或多个音频视点的所述坐标信息包括关于指示所述一个或多个音频视点的位置的方位角和仰角的信息。
12.根据权利要求10所述的处理装置,
其中,所述空间语音数据是基于场景的音频的数据。
13.根据权利要求12所述的处理装置,
其中,所述基于场景的音频的所述数据是HoA格式的每个分量。
14.根据权利要求12所述的处理装置,
其中,所述基于场景的音频的所述数据和所述音频视点语法从媒体接收。
15.根据权利要求12所述的处理装置,
其中,所述基于场景的音频的所述数据和所述音频视点语法包括在所述音频流的包中。
16.根据权利要求15所述的处理装置,
其中,所述包是MPEG-H音频流包。
17.根据权利要求10所述的处理装置,
其中,所述处理电路被配置为基于用户的属性或合同内容确定所述一个或多个视频视点中所选的一个视频视点和所述一个或多个音频视点中所选的一个音频视点。
18.根据权利要求10所述的处理装置,
所述处理电路还被配置为对通知用户当前视点的位置与由所述一个或多个视频视点中所选的一个视频视点指示的位置之间的关系进行控制。
19.一种处理方法,包括:
通过处理装置的接收电路接收容器,所述容器包括视频流和音频流,
所述视频流包括投影画面的编码的图像数据,并且
所述音频流包括编码的空间语音数据;
从所述容器中获取渲染元数据,所述渲染元数据包括指定一个或多个视频视点的视频视点语法、分别与所述一个或多个视频视点相关联的一个或多个视点标识符、以及所述一个或多个视频视点的对应坐标信息;并且
从所述音频流中获取音频视点语法,所述音频视点语法指定一个或多个音频视点、定义包括在所述音频视点语法中的所述一个或多个音频视点的数目的一个或多个参数、分别与所述一个或多个音频视点相关联的所述一个或多个视点标识符、以及所述一个或多个音频视点的对应坐标信息;以及
从所述编码的图像数据生成主图像,所述主图像具有与所述一个或多个视频视点中所选的一个视频视点对应的中心位置,
通过所述处理装置的处理电路,从所述编码的空间语音数据生成语音信号,所述语音信号具有与所述一个或多个音频视点中所选的一个音频视点对应的观测点位置,
其中,所述一个或多个视频视点中所选的一个视频视点和所述一个或多个音频视点中所选的一个音频视点与相同的视点标识符相关联。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-020564 | 2018-02-07 | ||
JP2018020564 | 2018-02-07 | ||
PCT/JP2019/002822 WO2019155930A1 (ja) | 2018-02-07 | 2019-01-28 | 送信装置、送信方法、処理装置および処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111684823A CN111684823A (zh) | 2020-09-18 |
CN111684823B true CN111684823B (zh) | 2022-07-01 |
Family
ID=67549404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980010999.9A Active CN111684823B (zh) | 2018-02-07 | 2019-01-28 | 发送装置、发送方法、处理装置以及处理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11341976B2 (zh) |
EP (1) | EP3751563A1 (zh) |
CN (1) | CN111684823B (zh) |
WO (1) | WO2019155930A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4016994A1 (en) * | 2019-10-01 | 2022-06-22 | Sony Group Corporation | Information processing device and information processing method |
GB2598751A (en) * | 2020-09-10 | 2022-03-16 | Nokia Technologies Oy | Spatial audio parameter encoding and associated decoding |
WO2024206201A1 (en) * | 2023-03-30 | 2024-10-03 | Cerence Operating Company | Natural speaker understanding |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005159592A (ja) * | 2003-11-25 | 2005-06-16 | Nippon Hoso Kyokai <Nhk> | コンテンツ送信装置およびコンテンツ受信装置 |
CN104065951A (zh) * | 2013-12-26 | 2014-09-24 | 北京金山网络科技有限公司 | 视频拍摄方法、视频播放方法及智能眼镜 |
WO2016002738A1 (ja) * | 2014-06-30 | 2016-01-07 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2016039287A1 (ja) * | 2014-09-12 | 2016-03-17 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
KR101646867B1 (ko) * | 2015-02-23 | 2016-08-09 | 서울과학기술대학교 산학협력단 | 마이크로폰 위치정보를 이용하는 ftv 입체음향 구현 장치 및 그 방법 |
WO2017195881A1 (ja) * | 2016-05-13 | 2017-11-16 | ソニー株式会社 | ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4757379A (en) * | 1986-04-14 | 1988-07-12 | Contour Dynamics | Apparatus and method for acquisition of 3D images |
WO2015008538A1 (ja) * | 2013-07-19 | 2015-01-22 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP7056554B2 (ja) * | 2016-03-29 | 2022-04-19 | ソニーグループ株式会社 | 情報処理装置、撮像装置、画像再生装置、および方法とプログラム |
-
2019
- 2019-01-28 US US16/966,294 patent/US11341976B2/en active Active
- 2019-01-28 WO PCT/JP2019/002822 patent/WO2019155930A1/ja unknown
- 2019-01-28 CN CN201980010999.9A patent/CN111684823B/zh active Active
- 2019-01-28 EP EP19751293.2A patent/EP3751563A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005159592A (ja) * | 2003-11-25 | 2005-06-16 | Nippon Hoso Kyokai <Nhk> | コンテンツ送信装置およびコンテンツ受信装置 |
CN104065951A (zh) * | 2013-12-26 | 2014-09-24 | 北京金山网络科技有限公司 | 视频拍摄方法、视频播放方法及智能眼镜 |
WO2016002738A1 (ja) * | 2014-06-30 | 2016-01-07 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2016039287A1 (ja) * | 2014-09-12 | 2016-03-17 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
KR101646867B1 (ko) * | 2015-02-23 | 2016-08-09 | 서울과학기술대학교 산학협력단 | 마이크로폰 위치정보를 이용하는 ftv 입체음향 구현 장치 및 그 방법 |
WO2017195881A1 (ja) * | 2016-05-13 | 2017-11-16 | ソニー株式会社 | ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3751563A4 (en) | 2020-12-16 |
US11341976B2 (en) | 2022-05-24 |
US20200372919A1 (en) | 2020-11-26 |
EP3751563A1 (en) | 2020-12-16 |
WO2019155930A1 (ja) | 2019-08-15 |
CN111684823A (zh) | 2020-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11109013B2 (en) | Method of transmitting 360-degree video, method of receiving 360-degree video, device for transmitting 360-degree video, and device for receiving 360-degree video | |
JP6657475B2 (ja) | 全方位ビデオを伝送する方法、全方位ビデオを受信する方法、全方位ビデオの伝送装置及び全方位ビデオの受信装置 | |
US11115641B2 (en) | Method of transmitting omnidirectional video, method of receiving omnidirectional video, device for transmitting omnidirectional video, and device for receiving omnidirectional video | |
CN109076255B (zh) | 发送、接收360度视频的方法及设备 | |
CN108702528B (zh) | 发送360视频的方法、接收360视频的方法、发送360视频的设备和接收360视频的设备 | |
US10893254B2 (en) | Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video, and apparatus for receiving 360-degree video | |
US10992961B2 (en) | High-level signaling for fisheye video data | |
CN111684823B (zh) | 发送装置、发送方法、处理装置以及处理方法 | |
WO2019139099A1 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
US11089285B2 (en) | Transmission device, transmission method, reception device, and reception method | |
US20190313074A1 (en) | Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video, and apparatus for receiving 360-degree video | |
WO2019181493A1 (ja) | 受信装置、受信方法、送信装置および送信方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |