CN105706164A - 发送设备、发送方法、接收设备和接收方法 - Google Patents

发送设备、发送方法、接收设备和接收方法 Download PDF

Info

Publication number
CN105706164A
CN105706164A CN201580002513.9A CN201580002513A CN105706164A CN 105706164 A CN105706164 A CN 105706164A CN 201580002513 A CN201580002513 A CN 201580002513A CN 105706164 A CN105706164 A CN 105706164A
Authority
CN
China
Prior art keywords
metadata
audio stream
audio
information
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580002513.9A
Other languages
English (en)
Other versions
CN105706164B (zh
Inventor
塚越郁夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN202110320124.8A priority Critical patent/CN113037768A/zh
Priority to CN202110321922.2A priority patent/CN113099291A/zh
Priority to CN202110319909.3A priority patent/CN113037767A/zh
Publication of CN105706164A publication Critical patent/CN105706164A/zh
Application granted granted Critical
Publication of CN105706164B publication Critical patent/CN105706164B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/561Adding application-functional data or data for application control, e.g. adding metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • H04N21/8113Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL

Abstract

为了使得能够容易地在接收侧核实元数据已被插入到音频流。发送具有元信息的元文件,该元信息用于在接收设备获取将元数据已插入其中的音频流。表示元数据已被插入到音频流的识别信息被插入到元文件。在接收侧,能够容易地从被插入到元文件的识别信息核实元数据已被插入到音频流。

Description

发送设备、发送方法、接收设备和接收方法
技术领域
本技术涉及一种发送设备、发送方法、接收设备和接收方法,并且更具体而言涉及一种与将元数据插入音频流并且传输所得到的音频流的技术有关的发送设备等。
背景技术
在过去,提出了将元数据插入音频流并且传输所得到的音频流的技术(例如,参见专利文献1)。
引用列表
专利文献
专利文献1:日本专利申请特开2012-010311号
发明内容
将由本发明解决的问题
例如,元数据定义在音频流的用户数据区域。但是,元数据不一定被插入到所有的音频流中。
本发明的目的在于使接收侧能够容易地识别出元数据被插入到音频流并从而提高处理的方便性。
解决问题的方案
本技术的构思在于一种发送设备,包括:
发送单元,发送包括元信息的元文件,所述元信息用于通过接收设备获得元数据被插入其中的音频流;以及
信息插入单元,将表示元数据插入到音频流的识别信息插入元文件。
在本技术中,发送单元发送包括元信息的元文件,所述元信息用于通过接收设备获得元数据被插入其中的音频流。例如,所述元数据可以是用于连接至预定网络服务的接入信息。在这种情况下,例如,所述元数据可以是表示URI信息的字符代码。
例如,发送单元可经由RF传输路径或通信网络传输路径发送元文件。进一步地,例如,发送单元可进一步发送预定格式的容器,容器包括元数据插入其中的音频流。在这种情况下,例如,所述容器可以是MP4(ISO/IEC14496-14:2003)。
信息插入单元将表示元数据插入音频流的识别信息插入元文件。例如,所述元文件可以是媒体呈现描述(MPD,媒体播放说明)文件。在这种情况下,例如,所述信息插入单元可使用“补充描述符(SupplementaryDescriptor)”将识别信息插入元文件。
如上所述,在本技术中,表示元数据插入音频流的识别信息被插入包括元信息的元文件,所述元信息用于在接收设备获得元数据被插入其中的音频流。因此,在接收侧,可容易地识别出元数据插入音频流。进一步地,例如,还能基于该识别执行提取被插入音频流的元数据的处理,并且可靠而没有浪费地获得元数据。
进一步地,本技术的另一个构思在于一种接收设备,包括:
接收单元,接收包括元信息的元文件,所述元信息用于获得元数据插入其中的音频流,其中,表示元数据插入音频流的识别信息插入到元文件中;以及
发送单元,经由预定传输路径将所述音频流连同表示元数据插入音频流的识别信息一起传输至外部设备。
在本技术中,接收单元接收包括元信息的元文件,所述元信息用于获得元数据插入其中的音频流。例如,所述元数据可以是用于连接至预定网络服务的接入信息。将表示元数据插入音频流的识别信息插入元文件。
例如,所述元数据可以是用于连接至预定网络服务的接入信息。例如,所述元文件可以是MPD文件,并且可使用“补充描述符”将识别信息插入元文件。
发送单元经由预定传输路径将所述音频流连同表示元数据插入音频流的识别信息一起传输至外部设备。例如,所述发送单元可通过将所述音频流和识别信息插入图像数据的空白时间段并且将所述图像数据传输至外部设备,来将所述音频流和识别信息发送至外部设备。例如,所述预定传输路径可以是高清晰度多媒体接口(HDMI)电缆。
如上文所描述的,在本技术中,将元数据插入其中的音频流连同表示元数据插入到音频流的识别信息一起传输至外部设备。因此,在外部设备侧,可能容易地识别出元数据插入到音频流。进一步地,例如,还能基于所述识别执行提取插入到音频流的元数据的处理,并且可靠而没有浪费地获得元数据。
本技术的另一种构思在于一种接收设备,包括接收单元,接收包括元信息的元文件,所述元信息用于获得元数据插入其中的音频流,其中,将表示元数据插入音频流的识别信息插入元文件;元数据提取单元,基于识别信息解码音频流并且提取元数据;以及处理单元,使用元数据执行处理。
在本技术中,接收单元接收包括元信息的元文件,所述元信息用于获得元数据插入其中的音频流。将表示元数据插入音频流的识别信息插入元文件。例如,所述元文件可以是MPD文件,并且可使用“补充描述符”将识别信息插入元文件。
元数据提取单元基于识别信息解码音频流并且提取元数据。处理单元使用元数据执行处理。例如,所述元数据可以是用于连接至预定网络服务的接入信息,并且处理单元可基于网络接入信息访问网络上的预定服务器。
如上文所描述的,在本技术中,基于插入到元文件中并且表示元数据插入音频流的识别信息从音频流提取元数据,并且将所述元数据用于处理。从而,能够可靠而没有浪费地获得插入到音频流中的元数据,并且适当地使用元数据执行处理。
进一步地,本技术的另一个构思在于一种发送设备,包括:
流生成单元,生成其中插入包括网络接入信息的元数据的音频流;以及
发送单元,发送包括所述音频流的预定格式的容器。
在本技术中,流生成单元生成其中插入包括网络接入信息的元数据的音频流。例如,通过对音频数据执行诸如AAC、AC3、AC4或MPEGH(3D音频)的编码,生成音频流,并且将元数据嵌入音频流的用户数据区域中。
发送单元发送包括音频流的预定格式的容器。在此,预定格式的容器是,例如,MP4、MPEG2-TS等。例如,元数据可以是表示URI信息的字符代码。
如上文所描述的,在本技术中,将包括网路接入信息的元数据嵌入音频流并传输。因此,例如,能使用音频流作为容器,简单地从广播站、递送服务器等传输网络接入信息,这样使得在接收侧使用网络接入信息。
本发明的效果
根据本技术,接收侧可容易地识别出元数据插入音频流。本文描述的效果仅仅是实例,且不一定受到限制并且可包括在本公开中描述的任何效果。
附图说明
[图1]为示出基于MPEG-DASH的流传递系统的示例性配置的方框图。
[图2]为示出在MPD文件中分层布置的结构关系实例的示意图。
[图3]为示出根据实施方式的收发系统的示例性配置的方框图。
[图4]为示出MPD文件描述实例的示意图。
[图5]为示出“补充描述符”的“schemeIdUri”的定义实例的示意图。
[图6]为描述传输流中的视频和音频接入单元的布置实例以及元数据插入音频流的插入频率的示意图。
[图7]为描述由“<baseURL>”表示的位置目的地的媒体文件实体的示意图。
[图8]为示出配备在服务传输系统上的DASH/MP4生成单元的示例性配置的方框图。
[图9]为示出AAC的音频帧的结构的示意图。
[图10]为示出当压缩格式是AAC时,元数据MD插入其中的“数据流元素(datastreamelement(DSE))”的配置的示意图。
[图11]为示出“metadata()”配置和该配置的主要信息内容的示意图。
[图12]为示出“SDO_payload()”配置的示意图。
[图13]为示出命令ID(cmdID)的值的意义的示意图。
[图14]为示出AC3的帧结构(AC3同步帧)的示意图。
[图15]为示出AC3的辅助数据的配置的示意图。
[图16]为示出AC4的简单传输层的结构的示意图。
[图17]为示出TOC(ac4_toc())和子流(ac4_substream_data())的示意性配置的示意图。
[图18]为示出布置在TOC(ac4_toc())中的“umd_info()”的配置的示意图。
[图19]为示出布置在子流(ac4_substream_data())中的“umd_payloads_substream()”的配置的示意图。
[图20]为示出MPEGH(3D音频)的传输数据中的音频帧(1024个采样)的结构的示意图。
[图21]为描述保持在“Config”中的各“Frame”的配置信息(config)与各“Frame”的对应的示意图。
[图22]为示出扩展元素(Ext_element)的类型(ExElementType)和值(Value)之间的对应关系的示意图。
[图23]为示出“userdataConfig()”的配置的示意图。
[图24]为示出“userdata()”的配置的示意图。
[图25]为示出配置收发系统的机顶盒的示例性配置的方框图。
[图26]为示出布置在数据岛周期中的音频信息帧数据包的示例性结构的示意图。
[图27]为示出配置收发系统的电视接收器的示例性配置的方框图。
[图28]为示出机顶盒的HDMI发送单元和电视接收器的HDMI接收单元的示例性配置的方框图。
[图29]为示出在通过TMDS信道传输图像数据时各种传输数据周期的示意图。
[图30]为描述在电视接收器中使用元数据的处理的具体实例的示意图。
[图31]为示出在电视接收器基于元数据接入网络服务时屏幕显示的过渡实例的示意图。
[图32]为示出根据实施方式的电视接收器中的音频输出系统的配置的方框图。
[图33]为示出电视接收器中的音频输出系统的另一个示例性配置的方框图。
[图34]为示出收发系统的另一个示例性配置的方框图。
[图35]为示出配备在服务传输系统上的TS生成单元的示例性配置的方框图。
[图36]为示出音频用户数据描述符的示例性结构的示意图。
[图37]为示出音频用户数据描述符的示例性结构中的主要信息的内容的示意图。
[图38]为示出传输流的示例性配置的示意图。
[图39]为示出配置收发系统的机顶盒的示例性配置的方框图。
[图40]为示出配置收发系统的电视接收器的示例性配置的方框图。
具体实施方式
在下文中,将描述执行本发明的模式(在下文中称为“实施方式”)。将以下面的顺序进行描述。
1.实施方式
2.变形例
<1.实施方式>
[基于MPEG-DASH的流传递系统的综述]
首先,将描述可应用本技术的基于MPEG-DASH的流传递系统的综述。
图1(a)示出了基于MPEG-DASH的流传递系统30A的示例性配置。在这个示例性配置中,媒体流和媒体呈现描述(MPD)文件经由通信网络传输路径进行传输。流传递系统30A被配置使得N个接收系统33-1、33-2、……和33-N经由内容传递网络(CDN)34连接至DASH流文件服务器31和DASHMPD服务器32。
DASH流文件服务器31基于预定内容的媒体数据(视频数据、音频数据、字幕数据等)生成DASH规格的流片段(下文适当地称为“DASH片段”),并且根据从接收系统作出的HTTP请求发送所述片段。DASH流文件服务器31可以是专用于流化的服务器并且也起网络服务器的作用。
DASH流文件服务器31根据经由CDN34从接收系统33(33-1、33-2……和33-N)发送的流的片段的请求,经由CDN34将预定流的片段传输至请求源的接收器。在这种情况下,接收系统33根据客户位于其中的网络环境的状态,参照在MPD文件中描述的速率值,选择最优速率的流并且做出请求。
DASHMPD服务器32是生成MPD文件的服务器,所述MPD文件用于获得在DASH流文件服务器31中生成的DASH片段。MPD文件基于从内容管理服务器(没有示出)接收的内容元数据和在DASH流文件服务器31中生成的片段的地址(url)而生成。DASH流文件服务器31和DASHMPD服务器32在物理上可以相同。
在MPD格式中,使用诸如针对各个流的表示(representation),如视频或者音频的元素来记述各个属性。例如,表示针对具有不同速率的每多个视频数据流而划分成,并且在MPD文件中记述其每一个速率。接收系统33可在虑以上描述的速率的值的情况下,根据接收系统33位于其中的网络环境的状态,选择最优的流。
图1(b)示出了基于MPEG-DASH的流传递系统30B的示例性配置。在这个示例性配置中,媒体流和MPD文件经由RF传输路径传输。流传递系统30B配置有广播传输系统36,与DASH流文件服务器31和DASHMPD服务器32以及M个接收系统35-1、35-2……和35-M连接。
在流传递系统30B的情况中,广播传输系统36通过广播波发送由DASH流文件服务器31生成的DASH规格的流片段(DASH片段)和由DASHMPD服务器32生成的MPD文件。
图2(a)到图2(d)示出了在MPD文件中分层布置的结构关系的实例。如图2(a)所示,整个MPD文件的媒体呈现包括以时间间隔划界的多个周期。例如,第一周期从第0秒开始,下一个周期从第100秒开始。
如图2(b)所示,一个周期包括多个表示。在所述多个表示中,有一组的表示与同一实体(substance)的具有不同流属性(例如,根据适配集(AdaptationSet)分组的不同速率)的媒体流有关。
如图2(c)所示,所述表示包括片段信息(SegmentInfo)。所述片段信息包括初始化片段和多个媒体片段,在这些片段中,描述通过划界小周期而获得的片段的信息,如图2(d)所示。例如,媒体片段包括用于实际获得诸如视频或音频的片段数据的地址信息(url)。
进一步地,可在根据适配集分组的多个表示中,自由地执行流切换。从而,可能根据接收系统位于其中的网络环境的状态选择最优速率的流并且执行无缝传递。
[收发系统的配置]
图3(a)和图3(b)示出了根据实施方式的收发系统的示例性配置。图3(a)的收发系统10包括服务传输系统100、机顶盒(STB)200和电视接收器(TV)300。机顶盒200与电视接收器300经由高清晰度多媒体接口(HDMI)电缆400连接。“HDMI”是注册商标。
在收发系统10中,服务传输系统100对应图1(a)中示出的流传递系统30A中的DASH流文件服务器31和DASHMPD服务器32。在收发系统10中,服务传输系统100对应图1(b)中示出的流传递系统30B中的DASH流文件服务器31、DASHMPD服务器32和广播传输系统36。
在收发系统10中,机顶盒(STB)200和电视接收器(TV)300对应图1(a)中示出的流传递系统30A的接收系统33(33-1、33-2、……和33-N)。在收发系统10中,机顶盒(STB)200和电视接收器(TV)300对应图1(b)中示出的流传递系统30B的接收系统35(35-1、35-2、……和35-M)。
图3(b)的收发系统10’包括服务传输系统100和电视接收器(TV)300。在收发系统10’中,服务传输系统100对应图1(a)中示出的流传递系统30A的DASH流文件服务器31和DASHMPD服务器32。在收发系统10’中,服务传输系统100对应图1(b)中示出的流传递系统30B的DASH流文件服务器31、DASHMPD服务器32和广播传输系统36。
在收发系统10’中,电视接收器(TV)300对应图1(a)中示出的流传递系统30A的接收系统33(33-1、33-2、……和33-N)。在收发系统10’中,电视接收器(TV)300对应图1(b)中示出的流传递系统30B的接收系统35(35-1、35-2、……和35-M)。
服务传输系统100经由RF传输路径或通信网络传输路径发送DASH/MP4,也就是充当元文件的MPD文件和包括诸如视频或音频的媒体流(媒体片段)的MP4。服务传输系统100将元数据插入音频流。例如,用于连接至预定网络服务的接入信息、预定内容信息等被认为是元数据。在这个实施方式中,插入用于连接至预定网络服务的接入信息。
服务传输系统100将表示元数据插入音频流的识别信息插入MPD文件。服务传输系统100使用例如“补充描述符”插入表示元数据插入音频流的识别信息。
图4示出了MPD文件的描述实例。“<AdaptationSetmimeType=“audio/mp4”group=“1”>”的描述表示,有用于音频流的适配集(AdaptationSet),为音频流提供MP4文件结构并且分配为组1。
"<SupplementaryDescriptorschemeIdUri=“urn:brdcst:AudioMetaContained"value=“true”/>”的描述表示元数据被插入音频流。除了现有标准中的现有定义之外,基于“SupplementaryDescriptor”,“schemeIdUri”可重新定义为广播或其他任何应用。如图5所示,“schemeIdUri=“urn:brdcst:AudioMetaContained””表示音频元信息已被包括,也就是,元数据插入音频流。例如,当“值”为“真”时,表示音频元信息被包括。当“值”为“假”时,表示音频元信息没有被包括。
“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:codecType”value=“mpegh”/>”的描述表示,音频的编码解码器为MPEG(3D音频)。如图5所示,“schemeIdUri=“urn:brdcst:codecType””表示编码解码器的类型。“值”实例包括“mpegh”、“AAC”、“AC3”和“AC4”。
“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:coordinatedControl”value=“true”/>”的描述表示,在多个媒体流中强调并提供网络连接必要的信息。如图5所示,“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:coordinatedControl””表示网络连接必要的信息通过多个媒体流的协调提供。例如,当“值”为“真”时,表示与另一个适配集的流协调提供网络连接信息。当“值”为“假”时,表示网络连接信息仅通过当前的适配集的流提供。
“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:type”value=“netlink”/>”的描述表示元信息的服务(servicebymeta)类型是网络连接。如图5所示,“schemeIdUri=“urn:brdcst:type””表示元信息的服务的类型。例如,当“值”为“netlink”时,表示元信息的服务类型是网络连接。
“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:metaInsertionFrequency”value=“1”/>”的描述表示以接入单元为单位提供元信息。如图5所示,“schemeIdUri=“urn:brdcst:metaInsertionFrequency””表示以接入单元为单位提供元信息的频率。例如,当“值”为“1”时,表示在一个接入单元生成一条用户数据条目。当“值”为“2”时,表示在一个接入单元生成多条用户数据条目。当“值”为“3”时,表示在由随机接入点划定的时间周期期间中生成一条或多条用户数据条目。
图6(a)示出了MP4中包含的视频和音频接入单元的布置实例。“VAU”表示视频接入单元。“AAU”表示音频接入单元。图6(b)示出了当设定“frequency_type=1”时一条用户数据条目(元数据)插入各个音频接入单元。
图6(c)示出了当设定“frequency_type=2”时多条用户数据(元数据)插入到一个音频接入单元。图6(d)示出了针对包括随机接入点的各组,当设定“frequency_type=3”时至少一条用户数据(元数据)插入到第一音频接入单元。
参照回图4,“<Representationid=“11”bandwidth=“128000”>”的描述表示设定“Representationid=“11””,并且有音频流的比特率为128kbps。“<baseURL>audio/jp/128.mp4</BaseURL>”的描述表示音频流的位置目的地是“audio/jp/128.mp4”。
“<AdaptationSetmimeType=“video/mp4”group=“2”>”的描述表示有用于视频流的适配集(AdaptationSet),视频流以MP4文件结构提供,并且分配为组2。
“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:VideoMetaContained”value=“true”/>”的描述表示元数据插入视频流。如图5所示,“schemeIdUri=“urn:brdcst:AudioMetaContained””表示视频元信息被包括,也就是,元数据插入视频流。例如,当“值”为“真”时,表示视频元信息被包括。当“值”为“假”时,表示视频元信息没有被包括。
“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:codecType”value=“hevc”/>”的描述表示视频流的编码解码器为HEVC。“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:coordinatedControl”value=“true”/>”的描述表示在多个媒体流中强调并提供网络连接必要的信息。
“<SupplementaryDescriptorschemeIdUri=“urn:brdcst:type”value=“netlink”/>”的描述表示元信息的服务类型是网络连接。<SupplementaryDescriptorschemeIdUri=“urn:brdcst:metaInsertionFrequency”value=“1”/>”的描述表示以接入单元为单位提供元信息。
“<Representationid=“21”bandwidth=“20000000”>”的描述表示设定“Representationid=“21””,并且有比特率为20Mbps的视频流。“<baseURL>video/jp/20000000.mp4</baseURL>”的描述表示视频流的位置目的地为“video/jp/20000000.mp4”。
在此,将描述由“<baseURL>”表示的位置目的地的媒体文件实体(mediafilesubstance)。例如,在非片段MP4的情况下,存在“url1”被定义为如图7(a)所示的情况。在这种情况下,首先布置描述文件类型的“ftyp”盒。“ftyp”盒表示文件是非片段MP4文件。其后,布置“moov”盒和“mdat”盒。“moov”盒包括所有的元数据,例如每个轨道(track)的报头信息、内容实体的元描述、时间信息等。“mdat”盒包括媒体数据体。
在片段MP4的情况下,例如,如图7(b)所示,有“url2”被定义的情况。在这种情况下,首先布置描述片段类型的“styp”盒。之后布置描述片段索引的“sidx”盒。其后,布置预定数目的电影片段。在此,电影片段配置有包括控制信息的“moof”盒和包括媒体数据体的“mdat”盒。由于通过使传输媒体成片段而获得的片段包括在一个电影片段的“mdat”盒中,包括在“moof”盒中的控制信息是与片段有关的控制信息。
进一步地,还考虑到“url1”与“url2”的组合。在这种情况下,例如,“url1”可设定为初始化片段,并且“url1”与“url2”可设定为一个服务的MP4。可替代地,“url1”与“url2”可结合一体并定义为如图7(c)所示的“url3”。
机顶盒200接收DASH/MP4,也就是,充当元文件的MPD文件和包括诸如视频或音频的媒体流(媒体片段)的MP4,其流经由RF传输路径或通信网络传输路径从服务传输系统100传输来。将用于连接至预定网络服务的接入信息作为元数据插入到包括在MP4中的音频流。使用“补充描述符”将表示元数据插入音频流的识别信息插入MPD文件。
机顶盒200经由HDMI电缆400将音频流连同表示元数据插入音频流的识别信息一起传输至电视接收器300。
在此,机顶盒200将音频流和识别信息插入通过解码视频流获得的图像数据的空白时间段,将所述图像数据传输至电视接收器300,并且将音频流和识别信息传输至电视接收器300。机顶盒200将识别信息插入例如音频信息帧数据包。
电视接收器300经由HDMI电缆400从图3(a)示出的收发系统10中的机顶盒200接收音频流以及表示元数据插入音频流的识别信息。换句话说,电视接收器300从顶盒200接收图像数据,在该图像数据中,音频流和识别信息插入空白时间段。
之后,电视接收器300基于识别信息解码音频流,提取元数据,并使用元数据执行处理。在这种情况下,电视接收器300基于充当元数据的预定网络服务信息接入网络上的预定服务器。
电视接收器300接收DASH/MP4,也就是,充当元文件的MPD文件和包括诸如视频或音频的媒体流(媒体片段)的MP4,其经由RF传输路径或通信网络传输路径从图3(b)示出的收发系统10’中的服务传输系统100传输来。将用于连接至预定网络服务的接入信息作为元数据插入包括在MP4中的音频流。使用“补充描述符”将表示元数据插入音频流的识别信息插入MPD文件。
之后,电视接收器300基于识别信息解码音频流,提取元数据,并使用元数据执行处理。在这种情况下,电视接收器300基于充当元数据的预定网络服务信息接入网络上的预定服务器。
[服务传输系统的DASH/MP4生成单元]
图8示出了配备在服务传输系统100上的DASH/MP4生成单元110的示例性配置。DASH/MP4生成单元110包括控制单元111、视频编码器112、音频编码器113和DASH/MP4格式器114。
控制单元111包括CPU111a,并且控制DASH/MP4生成单元110中的各单元。视频编码器112对图像数据SV执行诸如MPEG2、H.264/AVC或H.265/HEVC的编码,并且生成视频流(视频基本流)。图像数据SV的实例包括从诸如HDD的记录介质再生的图像数据以及由视频摄像机获得的实时图像数据。
音频编码器113根据诸如AAC、AC3、AC4、MPEGH(3D音频)的压缩格式对音频数据SA执行编码,并且生成音频流(音频基本流)。音频数据SA是对应图像数据SV的音频数据,并且音频数据SA的实例包括从诸如HDD的记录介质再生的音频数据或者由麦克风获得的实时音频数据。
音频编码器113包括音频编码块单元113a和音频组帧单元113b。被编码的块通过音频编码块单元113a生成并且通过音频组帧单元113b组帧。在这种情况下,被编码的块和组帧根据压缩格式而不同。
音频编码器113在控制单元111的控制下将元数据MD插入音频流。在这个实施方式中,元数据MD是用于连接至预定的网络服务的接入信息。在此,所有的服务,诸如音乐网络服务和音频视频网络服务都可以是预定的网络服务。在此,元数据MD嵌入音频流的用户数据区域。
DASH/MP4格式器114基于从视频编码器112输出的视频流和从音频编码器113输出的音频流生成包括充当内容的诸如视频或音频的媒体流(媒体片段)的MP4。DASH/MP4格式器114使用内容元数据、片段URL信息等生成MPD文件。在此,例如,将表示元数据插入音频流的识别信息插入MPD文件(见图4)。
将简要描述图8中示出的DASH/MP4生成单元110的操作。将图像数据SV提供给视频编码器112。视频编码器112对图像数据SV执行诸如H.264/AVC或H.265/HEVC的编码,并且生成包括被编码的视频数据的视频流。
将音频数据SA提供给音频编码器113。音频编码器113对音频数据SA执行诸如AAC、AC3、AC4、MPEGH(3D音频)的编码,并且生成音频流。
在这时,将元数据MD和用于将元数据MD嵌入用户数据区域的大小信息从控制单元111提供至音频编码器113。之后,音频编码器113将元数据MD嵌入音频流的用户数据区域。
将由视频编码器112生成的视频流提供至DASH/MP4格式器114。将由音频编码器113生成的、包括嵌入在用户数据区域的元数据MD的音频流提供至DASH/MP4格式器114。之后,DASH/MP4格式器114生成包括充当内容的诸如视频或音频的媒体流(媒体片段)的MP4。DASH/MP4格式器114使用内容元数据、片段URL信息等生成MPD文件。在这时,例如,将表示元数据插入音频流的识别信息插入MPD文件。
[各压缩格式的元数据MD的插入细节]
[AAC实例]
首先,将描述压缩格式是高级音频编码(AAC)的实例。图9示出了AAC音频帧的结构。所述音频帧包括多个元素。识别元素内容的3位标识符(ID)“id_syn_ele”布置在各元素的头部。
当“id_syn_ele”为“0×4”时,表示元素是充当用户数据可布置其中的数据流元素(DSE)。当压缩格式是AAC时,元数据MD插入DSE。图10示出了DSE(DataStreamElement())的配置(语法)。
4位字段的“element_instance_tag”表示DSE中的数据类型,且当DSE用作统一用户数据时,其值可为“0”。将“Data_byte_align_flag”设定为“1”,整个DSE是字节对准的。表示额外字节数目的“count”或“esc_count”的值根据用户数据的大小来适当地确定。将“metadata()”插入“data_stream_byte”字段。
图11(a)示出了“metadata()”的配置(语法),图11(b)示出了该配置的主要信息内容(语义)。32位字段的“userdata_identifier”通过设置预先定义的布置的值,表示音频用户数据。当“userdata_identifier”以“AAAA”表示用户数据时,包括8位字段的“metadata_type”。这个字段表示元数据的类型。例如,“0x08”表示元数据是用于连接至预定的网络服务的接入信息,并且所述接入信息包括在ATSC的“SDO_payload()”中。当是“0x08”时,包括“SDO_payload()”。在此,使用“ATSC”,但是可使用任何其他标准组织。
图12示出了“SDO_payload()”的配置(语法)。当命令ID(cmdID)小于“0x05”时,“URI_character”字段被包括。将表示用于连接至预定的网络的URI信息的字符代码插入这个字段。图13示出了命令ID(cmdID)的值的意义。“SDO_payload()”通过先进电视系统委员会标准(ATSC)标准化。
[AC3的实例]
接下来,将描述压缩格式是AC3的实例。图14示出了AC3帧(AC3同步帧)的结构。将音频数据SA编码,这样使得“Audblock5”的“mantissadata”、“AUX”和“CRC”的总大小不超过总大小的3/8。当压缩格式是AC3时,将元数据MD插入“AUX”区域。图15示出了AC3的辅助数据的配置(语法)。
当“auxdatae”为“1”时,“auxdata”被激活(enabled),并且由“auxdatal”的14个位(位单元)表示大小的数据定义在“auxbits”中。在这时,在“nauxbits”中描述“auxbits”的大小。在本技术中,“auxbits”的字段定义为“metadata()”。换句话说,图11(a)中示出的“metadata()”插入“auxbits”字段中,并且ATSC的包括用于连接至预定的网络服务的接入信息的“SDO_payload()”(见图12)根据图11(a)示出的语法结构布置在“data_byte”字段。
[AC4的实例]
接着,将描述压缩格式为AC4的实例。AC4是AC3的下一代音频编码格式之一。图16(a)示出了AC4简单传输层的结构。有同步字字段(synWord)、帧长(frameLength)字段、一个充当编码数据字段的“RawAc4Frame”字段和CRC字段。如图16(b)所示,“RawAc4Frame”字段包括布置在头部的目录表(TOC)字段和紧接其下的预定数目的子流(Substream)字段。
如图17(b)所示,子流(ac4_substream_data())包括元数据区域(metadata)并且“umd_payloads_substream()”字段布置在其中。包括用于连接至预定的网络的接入信息的ATSC的“SDO_payload()”(见图12)布置在“umd_payloads_substream()”字段。
进一步地,如图17(a)所示,TOC(ac4_toc())包括“ac4_presentation_info()”字段并且进一步包括“umd_info()”字段,该字段表示元数据插入“umd_payloads_substream())”字段。
图18示出了“umd_info()”的配置(语法)。“umd_version”字段表示版本号。“substream_index”表示索引值。定义版本号和索引值的组合以表示元数据插入“umd_payloads_substream())”字段。
图19示出了“umd_payloads_substream()”的配置(语法)。设定5位字段的“umd_payload_id”为除0以外的值。32位字段的“umd_userdata_identifier”通过设定预先定义的布置的值,表示音频用户数据。16位字段的“umd_payload_size”表示接下来字节的数目。当“umd_userdata_identifier”以“AAAA”表示用户数据时,包括8位字段的“umd_metadata_type”。这个字段表示元数据的类型。例如,“0x08”表示元数据是用于连接至预定的网络服务的接入信息并且该接入信息包括在ATSC的“SDO_payload()”中。当是“0x08”时,包括“SDO_payload()”(见图12)。
[MPEG的实例]
接着,将描述压缩格式为MPEGH(3D音频)的实例。图20示出了MPEGH(3D音频)传输数据中的音频帧(1024个采样)的结构。所述音频帧配置有多个MPEG音频流数据包(mpegAudioStreamPacket)。每一个MPEG音频流数据包配置有报头和有效载荷。
报头包括诸如数据包类型、数据包标签和数据包长度的信息。由报头的数据包类型定义的信息布置在有效载荷中。有效载荷信息包括对应同步开始代码的“SYNC”、服务3D音频的传输数据的实际数据的“Frame”以及表示“Frame”的配置的“Config”。
配置3D音频的传输数据的信道编码数据和目标编码数据包括在“Frame”中。在此,信道编码数据配置有编码采样数据,诸如单信道元素(SCE)、信道对元素(CPE)和低频元素(LFE)。目标编码数据配置有SCE的编码采样数据和用于利用位于任何位置处的扬声器来映射编码采样数据并且表现编码采样数据的元数据。元数据作为扩展元素(Ext_element)被包括。
在此,保持在“Config”中包括的每一个“Frame”的配置信息(config)和每一个“Frame”的对应关系如下。换句话说,如图21所示,使用ID(elemIdx)将每一个“Frame”的配置信息(config)登记在“Config”中,将每一个“Frame”以登记ID的顺序进行发送。数据包标签(PL)的值在在“Config”和与其对应的“Frame”中相同。
再参照图20,在这个实施方式中,包括用户数据(userdata)的元素(Ext_userdata)作为扩展数据(Ext_element)被重新定义。因此,在“Config”中重新定义元素(Ext_userdata)的配置信息(userdataConfig)。
图22示出了扩展元素(Ext_element)的类型(ExElementType)和其值(Value)之间的对应关系。在当前状态下,确定为0到7。由于128或更高的值对于MPEG之外的使用是可扩展的,例如,将128定义为“ID_EXT_userdata”类型的值。
图23(a)和图23(b)示出了“userdataConfig()”的配置(语法)。32位字段的“userdata_identifier”通过设定预先定义的布置的值,来表示音频用户数据。16位字段的“userdata_framelength”表示“audio_userdata()”的字节数目。图24示出了“audio_userdata()”的配置(语法)。当“userdataConfig()”的“userdata_identifier”以“AAAA”表示用户数据时,包括8位字段的“metadataType”。这个字段表示元数据的类型。例如,“0x08”表示元数据是用于连接至预定的网络服务的接入信息并且该接入信息包括在ATSC的“SDO_payload()”中。当是“0x08”时,“SDO_payload()”(见图12)被包括。
[机顶盒的示例性配置]
图25示出了机顶盒200的示例性配置。机顶盒200包括接收单元204、DASH/MP4分析单元205、视频解码器206、音频组帧单元207、HDMI发送单元208和HDMI终端209。机顶盒200进一步包括CPU211、闪速ROM212、DRAM213、内部总线214、远程控制器接收单元215和远程控制器发送器216。
CPU211控制机顶盒200的各单元的操作。闪速ROM212储存控制软件并保存数据。DRAM213配置CPU211的工作区域。CPU211激活从闪速ROM212读取的软件或者在DRAM213上展开数据并激活软件,并且控制机顶盒200的各单元。
远程控制器接收单元215接收从远程控制器发送器216发送的远程控制信号(远程控制器代码)并且将所述远程控制信号(远程控制器代码)提供至CPU211。CPU211基于远程控制器代码控制机顶盒200的各单元。CPU211、闪速ROM212和DRAM213连接至内部总线214。
接收单元204接收DASH/MP4,也就是,充当元文件的MPD文件和包括诸如视频或音频的媒体流(媒体片段)MP4,这些经由RF传输路径或通信网络传输路径从服务传输系统100传输来。将用于连接至预定的网络服务的接入信息作为元数据插入包括在MP4中的音频流。使用“补充描述符”将表示元数据插入音频流的识别信息插入MPD文件。
DASH/MP4分析单元205分析由接收单元204接收的MPD文件和MP4。DASH/MP4分析单元205提取包括在MPD文件中的MPD信息,并且将所述MPD信息传输至CPU211。在此,MPD信息还包括例如表示元数据插入音频流的识别信息。CPU211基于MPD信息控制获得视频和音频流的处理。DASH/MP4分析单元205从MP4提取诸如每一个轨道的报头信息、内容实体的元描述、时间信息等的元数据,并将提取的元数据传输至CPU211。
DASH/MP4分析单元205从MP4提取视频流,并且将提取的视频流传输至视频解码器206。视频解码器206对视频流执行解码处理,并且获得非压缩的图像数据。DASH/MP4分析单元205从MP4提取音频流,并且将提取的音频流传输至音频组帧单元207。音频组帧单元207对音频流执行组帧。
HDMI发送单元208根据符合HDMI的通信,通过HDMI终端209传输通过视频解码器206获得的非压缩图像和通过音频组帧单元207组帧的音频流。HDMI发送单元208封包图像数据和音频流以便通过HDMI的TMDS信道传输,并且将所得到的数据传输至HDMI终端209。
HDMI发送单元208在CPU211的控制下,插入表示元数据插入音频流的识别信息。HDMI发送单元208将音频流和识别信息插入图像数据的空白时间段。将具体描述HDMI发送单元209。
在这个实施方式中,HDMI发送单元208将识别信息插入布置在图像数据的空白时间段中的音频信息帧数据包。所述音频信息帧数据包布置在数据岛周期中。
图26示出了音频信息帧数据包的示例性结构。在HDMI中,与声音有关的补充信息可通过音频信息帧数据包从源设备传输至接收设备。
表示数据包类型的“PacketType”定义在第0字节,音频信息帧数据包设定为“0x84”。数据包数据定义的版本信息在第1字节中描述。表示数据包长度的信息在第2字节描述。在这实施方式中,1位标志信息“userdata_presence_flag”在第5字节的第5位定义。当标志信息为“1”时,表示元数据插入音频流。
当标志信息为“1”时,各种信息在第9字节定义,第7到第5位用作“metadata_type”字段,第4位用作“coordinated_control_flag”字段,第2位到第0位用作“frequency_type”字段。虽然省略了具体的描述,但各字段表示的信息与图4中示出的加到MPD文件上的各信息相同。
将简要描述机顶盒200的操作。接收单元204接收DASH/MP4,也就是,充当元文件的MPD文件和包括诸如视频或音频的媒体流(媒体片段)的MP4,这些经由RF传输路径或通信网络传输路径从服务传输系统100传输。如上文所描述的,将已接收的MPD文件和MP4提供至DASH/MP4分析单元205。
DASH/MP4分析单元205分析MPD文件和MP4。DASH/MP4分析单元205提取包括在MPD文件中的MPD信息,并且将所述MPD信息传输至CPU211。在此,MPD信息还包括例如表示元数据插入音频流的识别信息。DASH/MP4分析单元205从MP4提取诸如每一个轨道的报头信息、内容实体的元描述、时间信息等的元数据,并将提取的元数据传输至CPU211。
DASH/MP4分析单元205从MP4提取视频流,并且将视频流传输至视频解码器206。视频解码器206对视频流执行解码处理,并且获得非压缩的图像数据。将所述图像数据提供至HDMI发送单元208。DASH/MP4分析单元205从MP4提取音频流。所述音频流由音频组帧单元207组帧并被提供至HDMI发送单元208。之后,HDMI发送单元208封包图像数据和音频流并且将所得到的数据从HDMI终端209传输至HDMI电缆400。
HDMI发送单元208在CPU211的控制下,将表示元数据插入音频流的识别信息插入布置在图像数据的空白时间段中音频信息帧数据包。因此,将表示元数据插入音频流的识别信息从机顶盒200传输至HDMI电视接收器300。
[电视接收器的示例性配置]
图27示出了电视接收器300的示例性配置。电视接收器300包括接收单元306、DASH/MP4分析单元307、视频解码器308、视频处理电路309、面板驱动电路310和显示面板311。
电视接收器300包括音频解码器312、音频处理电路313、音频放大电路314、扬声器315、HDMI终端316、HDMI接收单元317和通信接口318。电视接收器300还包括CPU321、闪速ROM322、DRAM323、内部总线324、远程控制器接收单元315和远程控制器发送器316。
CPU321控制电视接收器300各个单元的操作。闪速ROM322储存控制软件并保存数据。DRAM323配置CPU321的工作区域。CPU321激活从闪速ROM322读取的软件或者在DRAM323上展开(develop)数据并激活软件,并且控制电视接收器300的各个单元。
远程控制器接收单元325接收从远程控制器发送器326传输的远程控制信号(远程控制器代码)并且将所述远程控制信号(远程控制器代码)提供至CPU321。CPU321基于远程控制器代码控制电视接收器300的各个单元。CPU321、闪速ROM322和DRAM323连接至内部总线324。
通信接口318在CPU321的控制下,执行与位于诸如互联网的网络上的服务器通信。通信接口318连接至内部总线324。
接收单元306接收DASH/MP4,也就是,充当元文件的MPD文件和包括诸如视频或音频的媒体流(媒体片段)的MP4,这些经由RF传输路径或通信网络传输路径从服务传输系统100传输来。将用于连接至预定的网络服务的接入信息作为元数据插入包括在MP4中的音频流。例如,使用“补充描述符”将表示元数据插入音频流的识别信息插入MPD文件。
DASH/MP4分析单元307分析由接收单元306接收的MPD文件和MP4。DASH/MP4分析单元307提取包括在MPD文件中的MPD信息,并且将所述MPD信息传输至CPU321。CPU321基于MPD信息控制获得视频和音频流的处理。DASH/MP4分析单元307从MP4提取诸如每一个轨道的报头信息、内容实体的元描述、时间信息等的元数据,并将提取的元数据传输至CPU321。
DASH/MP4分析单元307从MP4提取视频流,并且将提取的视频流传输至视频解码器308。视频解码器308对视频流执行解码处理,并且获得非压缩的图像数据。DASH/MP4分析单元307从MP4提取音频流,并且将提取的音频流传输至音频解码器312。
HDMI接收单元317根据符合HDMI的通信,经由HDMI电缆400,接收提供给HDMI终端316的图像数据和音频流。HDMI接收单元317提取插入图像数据的空白时间段的各种控制信息,并且将被提取的控制信息传输至CPU321。在此,控制信息还包括例如表示元数据插入音频流并且插入音频信息帧数据包(见图26)的识别信息。之后将具体描述HDMI接收单元317。
视频处理电路309通过对通过视频解码器308或HDMI接收单元316获得的图像数据或对通过通信接口318从网络服务器接收的图像数据执行缩放处理、合成处理等,获得显示图像数据。
面板驱动电路310基于通过视频处理电路308获得的显示图像数据驱动显示面板311。显示面板311配置有,例如液晶显示器(LCD)、有机电发光显示器(有机EL显示器)等。
音频解码器312通过对音频流执行解码处理获得非压缩音频数据,所述音频流通过DASH/MP4分析单元307提取或通过HDMI接收单元317获得。音频解码器312在CPU321的控制下,提取插入音频流的元数据,并且将被提取的元数据传输至CPU321。在这个实施方式中,元数据是用于连接至预定的网络服务的接入信息(见图12)。CPU321适当地使电视接收器300的各单元使用元数据执行处理。
将MPD信息从DASH/MP4分析单元307提供至CPU321。CPU321可基于包括在MPD信息中的识别信息,预先识别出元数据插入音频流,并且可控制音频解码器312使得元数据被提取。
音频处理电路313对通过音频解码器312获得的音频数据执行诸如D/A转化的必要处理。音频放大电路314放大从音频处理电路313输出的音频信号,并且将放大的音频信号提供给扬声器315。
将简要描述图27示出的电视接收器300的操作。接收单元306接收DASH/MP4,也就是,充当元文件的MPD文件和包括诸如视频或音频的媒体流(媒体片段)的MP4,这些经由RF传输路径或通信网络传输路径从服务传输系统100传输来。如上文所描述的,将接收到的MPD文件和MP4提供至DASH/MP4分析单元307。
DASH/MP4分析单元307分析MPD文件和MP4。之后,DASH/MP4分析单元307提取包括在MPD文件中的MPD信息,并且将提取的MPD信息传输至CPU321。在此,MPD信息还包括表示元数据插入音频流的识别信息。DASH/MP4分析单元307从MP4提取诸如每一个轨道的报头信息、内容实体的元描述、时间信息等的元数据,并将提取的元数据传输至CPU321。
DASH/MP4分析单元307从MP4提取视频流,并且将提取的视频流传输至视频解码器308。视频解码器308对视频流执行解码处理,并且获得非压缩的图像数据。将所述图像数据提供至视频处理电路309。DASH/MP4分析单元307从MP4提取音频流。将所述音频流提供至音频解码器312。
HDMI接收单元317根据符合HDMI的通信,经由HDMI电缆400,接收提供给HDMI终端316的图像数据和音频流。将所述图像数据提供至视频处理电路309。将所述音频流提供至音频解码器312。
HDMI接收单元317提取插入图像数据的空白时间段的各种控制信息,并且将被提取的控制信息传输至CPU321。在此,控制信息还包括例如表示元数据插入音频流并且插入音频信息帧数据包的识别信息。从而,CPU321基于所述识别信息控制音频解码器312的操作,使得从音频流提取元数据。
视频处理电路309通过对通过视频解码器308或HDMI接收单元317获得的图像数据或通过通信接口318从网络服务器接收的图像数据执行缩放处理、合成处理等,获得显示图像数据。在此,当接收并处理电视广播信号时,视频处理电路309处理通过视频解码器308获得的图像数据。另一方面,当通过HDMI接口连接机顶盒200时,频处理电路309处理通过HDMI接收单元317获得的图像数据。
将通过视频处理电路309获得的显示图像数据提供至面板驱动电路310。面板驱动电路310基于显示图像数据驱动显示面板311。结果,在显示面板311上显示对应显示图像数据的图像。
音频解码器312通过对音频流执行解码处理获得非压缩音频数据,所述音频流通过DASH/MP4分析单元307或HDMI接收单元316获得。在此,当接收并处理电视广播信号时,音频解码器312处理通过DASH/MP4分析单元307获得的音频流。另一方面,当通过HDMI接口连接机顶盒200时,音频解码器312处理通过HDMI接收单元317获得的音频流。
将通过音频解码器312获得的音频数据提供给音频处理电路313。音频处理电路313对音频数据执行诸如D/A转化的必要处理。音频数据由音频放大电路314放大并且被提供给扬声器315。结果,将对应显示面板311的显示图像的声音从扬声器315输出。
音频解码器312提取插入音频流的元数据。例如,如上文描述的,由基于识别信息检测出元数据插入音频流并且控制音频解码器312的操作的CPU321可靠地执行元数据提取处理,而没有浪费。
将如上文所描述的由音频解码器312提取的元数据传输至CPU321。CPU321适当地控制电视接收器300的各单元,这样使得使用元数据执行处理。例如,从网络上的服务器获得图像数据,并且执行多屏显示。
[HDMI发送单元和HDMI接收单元的示例性配置]
图28示出了在图25中示出的机顶盒200的HDMI发送单元(HDMI源)208和在图27中示出的电视接收器300的HDMI接收单元(HDMI接收设备)317的示例性配置。
HDMI发送单元208在有效图像周期(在下文中也合适地称为“有效视频周期”),通过多个信道沿一个方向将对应一个非压缩屏的图像的像素数据的差分信号传输至HDMI接收单元317。在此,有效图像周期是通过从范围为从特定垂直同步信号到下一个垂直同步信号的周期中减去水平空白时间段和垂直空白时间段而获得的周期。HDMI发送单元208在水平空白时间段或者垂直空白时间段中,通过多个信道沿一个方向,将对应至少附在图像上的音频数据或控制数据、其他辅助数据等的差分信号传输至HDMI接收单元317。
配置有HDMI发送单元208和HDMI接收单元317的HDMI系统的传输信道包括下面的传输信道。换句话说,有三个TMDS信道#0到#2作为传输信道,用于与像素时钟同步沿一个方向,连续地将像素数据和音频数据从HDMI发送单元208传输至HDMI接收单元317。进一步地,作为用于传输像素时钟的传输信道,有TMDS时钟信道。
HDMI发送单元208包括HDMI发送器81。例如,发送器81将非压缩图像的像素数据转化为对应的差分信号,并且沿一个方向通过多个信道(即三个TMDS信道#0、#1和#2)连续地(serially)将差分信号传输至通过HDMI电缆400而连接的HDMI接收单元317。
发送器81将附在非压缩图像上的音频数据、必要的控制数据、其他辅助数据等转化为对应的差分信号,并且沿一个方向通过三个TMDS信道#0、#1和#2连续地将差分信号传输至HDMI接收单元317。
进一步地,发送器81通过TMDS时钟信道,将与通过三个TMDS信道#0、#1和#2传输的像素数据同步的像素时钟传输至通过HDMI电缆400连接的HDMI接收单元317。在此,在像素时钟的一个时钟期间,将10位的像素数据通过一个TMDS信道#i(i=0、1和2)传输。
HDMI接收单元317接收对应在有效视频周期沿一个方向通过多个信道从HDMI发送单元208传输的像素数据的差分信号。HDMI接收单元317接收对应在水平空白时间段或垂直空白时间段沿一个方向通过多个信道从HDMI发送单元208传输的音频数据或控制数据的差分信号。
换句话说,HDMI接收单元317包括HDMI接收器82。HDMI接收器82接收以一个方向通过三个TMDS信道#0、#1和#2从HDMI发送单元208传输的对应像素数据的差分信号以及对应音频数据或控制数据的差分信号。在这种情况下,与通过TMDS时钟信道从HDMI发送单元208传输的像素时钟同步执行接收。
除了TMDS信道#0到#2和TMDS时钟信道外,HDMI系统的传输信道包括显示数据信道(DDC)83和称为CEC线84的传输信道。DDC83配置有包括在HDMI电缆400中的两条信号线(没有示出)。当HDMI发送单元208从HDMI接收单元317读取加强扩展显示识别数据(E-EDID)时,使用DDC83。
除了HDMI发送器81外,HDMI接收单元317包括EDID只读存储器(ROM)85,储存充当与其性能(配置/能力)有关的性能信息的E-EDID。HDMI发送单元208,例如根据来自CPU211(见图20)的请求,通过DDC83,从通过HDMI电缆400连接的HDMI接收单元317读取E-EDID。
HDMI发送单元208将读取的E-EDID传输至CPU211。CPU211在闪速ROM212或DRAM213中储存E-EDID。
CEC线84配置有包括在HDMI电缆400中的单线(没有示出),并且用于在HDMI发送单元208和HDMI接收单元317之间执行控制数据的双向通信。CEC线84配置控制数据线。
HDMI电缆400包括连接至称为热插拔检测(HPD)的引脚(pin)的线(HPD线)86。源设备可使用线86检测接收设备(sinkdevice)的连接。HPD线86用作HEAC-线,也配置为双向通信路径。HDMI电缆400包括电源线87,用于将电力从源设备供应至接收设备。HDMI电缆400进一步包括公用设施线88。公用设施线88用作HEAC+线,也配置为双向通信路径。
图29示出了当通过TMDS信道#0、#1和#2传输1920像素×1080行的图像数据时,各种传输数据周期。在视频领域中有三种周期,也就是视频数据周期17、数据岛周期18和控制周期19,在所述视频领域中传输数据根据传输数据的种类通过HDMI的三种TMDS信道#0、#1和#2进行传输。
在此,视频领域周期是范围从特定垂直同步信号的上升边(有效边)到下一个垂直同步信号的上升边的周期,并且所述区域周期被划分为水平空白时间段15(水平空白)、垂直空白时间段16(垂直空白)和有效像素周期14(有效视频),所述有效像素时间段14充当通过从视频领域周期减去水平空白时间段和垂直空白时间段获得的周期。
将视频数据周期17分配给有效像素周期14。在视频数据周期17中,传输配置非压缩屏的1920像素×1080行的图像数据的有效像素(有效像素)的数据。将数据岛周期18和控制周期19分配给水平空白时间段15和垂直空白时间段16。在数据岛周期18和控制周期19中,传输辅助数据。
换句话说,将数据岛周期18分配给水平空白时间段15的一部分和垂直空白时间段16的一部分。在数据岛周期18中,在辅助数据之中,传输与控制无关的数据的数据包,例如,传输音频数据的数据包。将控制周期19分配给水平空白时间段15的另一部分和垂直空白时间16的另一部分。在控制周期19中,在辅助数据之中,传输与控制相关的数据的数据包,例如,传输垂直同步信号、水平同步信号、控制数据包等。
接着,将参照图30描述使用电视接收器300中元数据的处理的具体实例。电视接收器300获得,例如初始服务器URL、网络服务识别信息、目标文件名、会话开始/结束命令、媒体记录/再生命令等作为元数据。在上文的描述中,元数据被描述为用于连接至预定的网络服务上的接入信息,但是假定其他必要的信息包括在元数据中。
充当网络客户端的电视接收器300使用初始服务器URL访问主服务器。之后,电视接收器300从主服务器获得信息,诸如流服务器URL、目标文件名、表示文件类型的MIME类型和媒体再生时间信息。
之后,电视接收器300使用流服务器URL访问流服务器。之后,电视接收器300指定目标文件名。在此,当以多路广播方式接收服务时,电视接收器300基于网络识别信息和服务识别信息指明节目的服务。
之后,电视接收器300根据会话开始/结束命令,开始或结束与流服务器的会话。进一步地,电视接收器300在与流服务器会话期间,使用媒体记录/再生命令从流服务器获得媒体数据。
在图30的实例中,分开布置主服务器和流服务器。但是,可一体地配置这些服务器。
图31(a)到图31(f)示出了当电视接收器300基于元数据访问网络服务时屏幕显示的过渡实例。图31(a)示出了没有图像在显示面板311上显示的状态。图31(b)示出了这样的状态,在该状态中,广播接收开始,与广播接收有关的主要内容以全屏显示形式显示在显示面板311上。
图31(c)示出了这样的状态,在该状态中,存在基于元数据对服务的接入,并且在电视接收器300和所述服务器之间开始会话。在这种情况下,与广播接收有关的主要内容的显示从全屏显示变为部分屏显示。
图31(d)示出了这样的状态,在该状态中,执行从服务器再生媒体,且网络服务内容1在显示面板311上与主要内容的显示并行显示。图31(e)示出了这样的状态,在该状态中,执行从服务器再生媒体,且与主要内容的显示并行的网络服务内容1一起,在主要内容的显示上叠加地在显示面板311上显示网络服务内容2。
图31(f)示出了这样的状态,在该状态中,从网络再生服务内容结束,并且电视接收器300和服务器之间的会话结束。在这种情况下,显示面板311回到与广播接收有关的主要内容以全屏形式显示的状态。
在图27中示出的电视接收器300包括扬声器315,并且具有这样的配置,在该配置中将由音频解码器312获得的音频数据经由音频处理电路313和音频放大电路314提供给扬声器315,从而如图32所示,将声音从扬声器315输出。
但是,如图33所示,电视接收器300可具有这样的配置,在该配置中,没有布置扬声器,并且将由DASH/MP4分析单元307或HDMI接收单元317获得的音频流从接口单元331提供给外部扬声器系统350。接口单元331是数字接口,诸如高清晰度多媒体接口(HDMI)、索尼飞利浦数字接口(SPDIF)或移动高清连接(MHL)。
在这种情况下,布置在外部扬声器系统350中的音频解码器351a对音频流执行解码处理,从而将声音从外部扬声器系统350输出。进一步地,即使电视接收器300配备有扬声器315(见图32),可将音频流从接口单元331提供至外部扬声器系统350(见图33)。
如上文描述的,在图3(a)和图3(b)中示出的收发系统10和10’中,服务传输系统100将表示元数据插入音频流的识别信息插入MPD文件。从而,接收侧(机顶盒200和电视接收器300)可容易地识别出元数据插入了音频流。
进一步地,在图3(a)中示出的收发系统10中,机顶盒200根据HDMI将元数据插入其中的音频流连同表示元数据插入音频流的识别信息一起传输至电视接收器300。从而,电视接收器300可容易地识别出元数据插入了音频流,并且基于所述识别通过执行插入音频流的元数据的提取处理,可靠地获得并使用元数据而没有浪费。
在图3(b)中示出的收发系统10’中,电视接收器300基于插入MPD文件的识别信息从音频流提取元数据,并且将所述元数据用于处理。从而,能够可靠地获得插入音频流的元数据而没有浪费,并且能够适当地使用元数据执行处理。
<2.变形例>
在实施方式中,收发系统10和10’处理DASH/MP4,但是同样考虑处理MPEG2-TS的实例。
[收发系统的配置]
图34(a)和图34(b)示出了处理MPEG2-TS的收发系统的示例性配置。图34(a)的收发系统10A包括服务传输系统100A、机顶盒(STB)200A和电视接收器(TV)300A。机顶盒(STB)200A与电视接收器300A经由HDMI电缆连接。图3(b)的收发系统10A’包括服务传输系统100A和电视接收器(TV)300A。
服务传输系统100A经由RF传输路径或通信网络传输路径发送MPEG2-TS的传输流。服务传输系统100A将元数据插入音频流。例如,用于连接至预定的网络服务的接入信息、预定的内容信息等被视为元数据。在此,与上文的实施方式类似,假定插入用于连接至预定的网络服务的接入信息。
服务传输系统100A将表示元数据插入音频流的识别信息插入容器的一层。服务传输系统100A在程序映射表(programmaptable,PMT)的控制下将识别信息作为描述符插入音频基本流。
机顶盒200A经由RF传输路径或通信网络传输路径接收从服务传输系统100A传输的传输流TS。视频流和音频流数据包括在传输流TS中。元数据插入音频流。
机顶盒200A经由HDMI电缆400将音频流连同表示元数据插入音频流的识别信息一起传输至电视接收器300A。
在此,机顶盒200A通过将所述音频流和识别信息插入通过解码视频流获得的图像数据的空白时间段并且将所述图像数据传输至电视接收器300A,来将所述音频流和识别信息传输至电视接收器300A。例如,机顶盒200A将识别信息插入音频信息帧数据包(见图26)。
电视接收器300经由HDMI电缆400从图34(a)示出的收发系统10A中的机顶盒200A接收音频流以及表示元数据插入音频流的识别信息。换句话说,电视接收器300A从顶盒200A接收图像数据,在该图像数据中,音频流和识别信息插入空白时间段。
之后,电视接收器300A基于识别信息解码音频流,提取元数据,并使用元数据执行处理。在这种情况下,电视接收器300A基于充当元数据的预定的网络服务信息,接入网络上预定的服务器。
进一步地,电视接收器300A经由RF传输路径或通信网络传输路径接收传输流TS,所述传输流TS自图34(b)示出的收发系统10A’中的服务传输系统100A发送。将用于连接至预定网络服务的接入信息作为元数据插入包括在传输流TS中的音频流。将表示元数据插入音频流的识别信息插入容器的一层。
之后,电视接收器300A基于识别信息解码音频流,提取元数据,并使用元数据执行处理。在这种情况下,电视接收器300A基于充当元数据的预定的网络服务信息,接入网络上预定的服务器。
[服务传输系统的TS生成单元]
图35示出了配备在服务传输系统100A上的TS生成单元110A的示例性配置。在图35中,以同样的参考标号表示对应图8中的部件。TS生成单元110A包括控制单元111、视频编码器112、音频编码器113和TS格式器114A。
控制单元111包括CPU111a,并且控制TS生成单元110A的各单元。视频编码器112对图像数据SV执行诸如MPEG2、H.264/AVC或H.265/HEVC的编码,并且生成视频流(视频基本流)。图像数据SV的实例包括从诸如HDD的记录介质再生的图像数据以及由视频摄像机获得的实时图像数据。
音频编码器113根据诸如AAC、AC3、AC4、MPEGH(3D音频)的压缩格式对音频数据SA执行编码,并且生成音频流(音频基本流)。音频数据SA是对应图像数据SV的音频数据,并且音频数据SA的实例包括从诸如HDD的记录介质再生的音频数据或者由扩音器获得的实时音频数据。
音频编码器113包括音频编码块单元113a和音频组帧单元113b。被编码的块通过音频编码块单元113a生成并且通过音频组帧单元113b组帧。在这种情况下,被编码的块和组帧根据压缩格式而不同。
音频编码器113在控制单元111的控制下将元数据MD插入音频流。例如,用于连接至预定网络服务的接入信息、预定的内容信息等被视为元数据MD。在此,与上文的实施方式类似,假定用于连接至预定的网络服务的接入信息被插入。
将元数据MD插入音频流的用户数据区域。虽然省略了具体的描述,但每一种压缩格式的元数据MD的插入都与上文的实施方式中DASH/MP4生成单元110的执行情况类似,并且“SOD_payload()”作为元数据MD插入(见图8到图24)。
TS格式器114A将从视频编码器112输出的视频流和从音频编码器113输出的音频流转化成PES数据包,执行到传输数据包的转换,执行多路复用,并且获得多路复用流的传输流。
TS格式器114A在PMT的控制下,插入表示元数据MD插入音频流的识别信息。使用音频用户数据描述符(audio_userdata_descriptor)执行识别信息的插入。之后将具体描述这个描述符。
将简要描述图35中示出的TS生成单元110A的操作。将图像数据SV提供给视频编码器112。视频编码器112对图像数据SV执行诸如H.264/AVC或H.265/HEVC的编码,并且生成包括被编码的视频数据的视频流。
将音频数据SA提供给音频编码器113。音频编码器113对音频数据SA执行诸如AAC、AC3、AC4、MPEGH(3D音频)的编码,并且生成音频流。
在这时,将元数据MD和用于将元数据MD嵌入用户数据区域的大小信息从控制单元111提供至音频编码器113。之后,音频编码器113将元数据MD嵌入音频流的用户数据区域。
将由视频编码器112生成的视频流提供至TS格式器114A。将由音频编码器113生成的包括嵌入在用户数据区域的元数据MD的音频流提供至TS格式器114A。
TS格式器114A获得传输流TS作为传输数据,这样使得从各编码器得到的流被打包并多路复用。TS格式器114A在PMT的控制下插入表示元数据MD插入音频流的识别信息。
[音频用户数据描述符的细节]
图36示出了音频用户数据描述符(audio_userdata_descriptor)的示例性结构(语法)。图37示出了示例性结构中的主要信息的内容(语义)。
8位字段的“descriptor_tag”表示描述符类型。在此,8位字段的“descriptor_tag”表示音频用户数据描述符。8位字段的“descriptor_length”表示描述符的长度(大小),并且表示随后字节的数目作为描述符的长度。
8位字段的“audio_codec_type”表示音频编码方案(压缩格式)。例如,“1”表示“MPEGH”,“2”表示“AAC”,以及“3”表示“AC3”“4”表示“AC4”。由于加上这个信息,在接收侧,可能容易地检测音频流中的音频数据的编码方案。
3位字段的“metadata_type”表示元数据的类型。例如,“1”表示包括用于连接至预定的网络服务的接入信息的ATSC的“SOD_payload()”布置在“userdata()”区域(field)。由于加上这个信息,在接收侧,可能容易地检测元数据的类型,也就是,例如其是什么元数据以及是否获得了所述元数据。
1位的“coordinated_control_flag”的标志信息表示元数据是否只插入音频流。例如,“1”表示元数据也插入另一个分量的流,“0”表示元数据只插入音频流。由于加上这个信息,在接收侧,可能容易地检测元数据是否只插入音频流。
3位字段的“frequency_type”表示元数据插入音频流的插入频率类型。例如“1”表示一条用户数据(元数据)插入在每个音频接入单元中。“2”表示多数条用户数据(元数据)插入一个音频接入单元。“3”表示至少一条用户数据(元数据)插入第一音频接入单元,每一组包括随机接入点。由于加上这个信息,在接收侧,可能容易地检测元数据插入音频流的插入频率。
[传输流TS的配置]
图38示出了传输流TS的示例性配置。在所述示例性配置中,具有由PID1表示的视频流的PES数据包“videoPES”,并且具有由PID2表示的音频流的PES数据包“audioPES”。PES数据包配置有PES报头(PES_header)和PES有效载荷(PES_payload)。将DTS和PTS的时间戳插入PES报头。在音频流的PES数据包的PES有效载荷中具有包括元数据的用户数据区域。
传输流TS包括PMT作为节目专用信息(PSI)。PSI是描述包括在传输流中的每个基本流所属的节目的信息。PMT包括描述与整个节目关联的信息的节目环(programloop)。
PMT进一步包括基本流环,包括与每一个基本流关联的信息。在这个示例性的配置中,具有对应视频流的视频基本流环(视频ES环),并且具有对应音频流的音频基本流环(音频ES环)。
在视频基本流环(视频ES环)中,诸如流类型和数据包标识符(PID)的信息与视频流关联布置,并且也布置了描述与视频流关联的信息的描述符。设定视频流的“stream_type”的值为“0x24”,如上文描述的,PID信息被视为表示分配给视频流的PES数据包“videoPES”的PID1。将HEVC描述符布置为其中一个描述符。
在音频基本流环(音频ES环)中,诸如流类型和包标识符(PID)的信息与音频流关联布置,并且也布置了描述与音频流关联的信息的描述符。设定音频流的“stream_type”的值为“0x11”,如上文描述的,PID信息被视为表示分配给音频流的PES数据包“audioPES”的PID2。将音频用户数据描述符(audio_userdata_descriptor)布置为其中一个描述符。
[机顶盒的示例性配置]
图39示出了机顶盒200A的示例性配置。在图39中,以同样的参考标号表示与图25中对应的部件。机顶盒200A经由RF传输路径或通信网络传输路径接收从服务传输系统100A发送的传输流TS。
TS分析单元205A从传输流TS提取视频流的数据包,并且将所述视频流的数据包传输至视频解码器206。视频解码器206重新配置来自由解多路复用器205提取的视频数据包的视频流,执行解码过程,并且获得非压缩的图像数据。TS分析单元205A从传输流TS提取音频流的数据包并且重新配置音频流。音频组帧单元207对如上文描述的被重新配置的音频流执行组帧。
还可以与从TS分析单元205A传输至音频组帧单元207的音频流的传输平行,通过音频解码器(没有示出)解码音频流并执行音频输出。
进一步地,TS分析单元205A从传输流TS提取各种描述符等,并且传输被提取的描述符等至CPU211。在此,描述符还包括音频用户数据描述符,充当表示元数据插入音频流的识别信息(见图36)。
虽然省略了具体的描述,图39示出的机顶盒200A的剩下部件与图25示出的机顶盒200的配置类似并且执行相似的操作。
[电视接收器的示例性配置]
图40示出了电视接收器300A的示例性配置。在图40中,以同样的参考标号表示与图27中对应的部件。接收单元306A经由RF传输路径或通信网络传输路径接收从服务传输系统100A传输的传输流TS。
TS分析单元307A从传输流TS提取视频流的数据包,并且将所述视频流的数据包传输至视频解码器308。视频解码器308重新配置来自由解多路复用器205提取的视频数据包的视频流,执行解码处理,并且获得非压缩的图像数据。TS分析单元307A从传输流TS提取音频流的数据包并且重新配置音频流。
进一步地,TS分析单元307A从传输流TS提取音频流的数据包并且重新配置音频流。TS分析单元307A从传输流TS提取各种描述符等,并且将被提取的描述符等传输至CPU321。在此,描述符还包括音频用户数据描述符,充当表示元数据插入音频流的识别信息(见图36)。
虽然省略了具体的描述,图40示出的电视接收器300A的剩下部件与图27示出电视接收器300的配置类似并且执行相似的操作。
如上文所描述的,在图34(a)和图34(b)所示的图像显示系统10A和10A’中,服务传输系统100A将元数据插入音频流并且将表示元数据插入音频流的识别信息插入容器的一层。从而,在接收侧(机顶盒200A和电视接收器300A),可能容易地识别出元数据插入音频流。
在图34(a)示出的图像显示系统10A中,机顶盒200A通过HDMI将元数据插入其中的音频流连同表示元数据插入音频流的识别信息一起传输至电视接收器300A。从而,电视接收器300A可容易地识别出元数据插入音频流并且可基于所述识别,通过执行提取插入音频流的元数据的处理,可靠地获得并使用元数据而没有浪费。
进一步地,在图34(b)示出的图像显示系统10A’中,电视接收器300A基于与音频流一起接收到的识别信息从音频流提取元数据,并且将提取的元数据用于处理。从而,能够可靠地获得插入音频流的元数据而没有浪费并且适当地使用元数据执行处理。
进一步地,在上面的实施方式中,机顶盒200被配置为将图像数据和音频流传输至电视接收器300。但是,可将图像数据和音频流传输至监控设备、放映机等,而不是电视接收器300。可使用具有接收功能的记录器、个人计算机等,而不是机顶盒200。
进一步地,在上面的实施方式中,机顶盒200和电视接收器300通过HDMI电缆400连接。但是,即使不管机顶盒200和电视接收器300以有线方式还是无线方式通过与HDMI相似的数字接口连接,都可同样应用本发明。
本技术还可以是下面的配置。
(1)一种发送设备,包括:
发送单元,发送包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流;以及
信息插入单元,将表示所述元数据插入所述音频流的识别信息插入所述元文件。
(2)根据(1)所述的发送设备,
其中,所述元数据是用于连接至预定网络服务的接入信息。
(3)根据(2)所述的发送设备,
其中,所述元数据是表示URI信息的字符代码。
(4)根据(1)到(3)中任一项所述的发送设备,
其中,所述元文件是MPD文件。
(5)根据(4)所述的发送设备,
其中,所述信息插入单元使用“补充描述符”将所述识别信息插入所述元文件。
(6)根据(1)到(5)中任一项所述的发送设备,
其中,所述发送单元经由RF传输路径或通信网络传输路径发送所述元文件。
(7)根据(1)到(6)中任一项所述的发送设备,
其中,所述发送单元进一步发送预定格式的容器,所述容器包括所述元数据插入其中的所述音频流。
(8)根据(7)所述的发送设备,
其中,所述容器是MP4。
(9)一种发送方法,包括:
发送步骤,通过发送单元发送包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流;以及
信息插入步骤,将表示所述元数据插入所述音频流的识别信息插入所述元文件。
(10)一种接收设备,包括:
接收单元,接收包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流,其中,将表示所述元数据插入所述音频流的识别信息插入所述元文件;以及
发送单元,经由预定传输路径将所述音频流连同表示所述元数据插入所述音频流的所述识别信息一起传输至外部设备。
(11)根据(10)所述的接收设备,
其中,所述元数据是用于连接至预定网络服务的接入信息。
(12)根据(10)或(11)所述的接收设备,
其中,所述元文件是MPD文件,并且
使用“补充描述符”将所述识别信息插入所述元文件。
(13)根据(10)到(12)中的任一项所述的接收设备,
其中,所述发送单元通过将所述音频流和所述识别信息插入图像数据的空白时间段并且将所述图像数据传输至所述外部设备,将所述音频流和所述识别信息传输至所述外部设备。
(14)根据(10)到(13)中的任一项所述的接收设备,
其中,所述预定的传输路径是高清晰度多媒体接口(HDMI)电缆。
(15)一种接收方法,包括:
接收步骤,通过接收单元接收包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流,其中,将表示所述元数据插入所述音频流的识别信息插入所述元文件;以及
发送步骤,经由预定传输路径将所述音频流连同表示所述元数据插入所述音频流的所述识别信息一起传输至外部设备。
(16)一种接收设备,包括:
接收单元,接收包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流,其中,将表示所述元数据插入所述音频流的识别信息插入所述元文件;
元数据提取单元,基于所述识别信息解码所述音频流并且提取所述元数据;以及
处理单元,使用元数据执行处理。
(17)根据(16)所述的接收设备,
其中,所述元文件是MPD文件,并且
使用“补充描述符”将所述识别信息插入所述元文件。
(18)根据(16)或(17)所述的接收设备,
其中,所述元数据是用于连接至预定网络服务的接入信息,并且
所述处理单元基于所述网络接入信息接入网络上的预定服务器。
(19)一种接收方法,包括:
接收步骤,通过接收单元接收包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流,其中,将表示所述元数据插入所述音频流的识别信息插入所述元文件;
元数据提取步骤,基于所述识别信息解码所述音频流并且提取所述元数据;以及
处理步骤,使用元数据执行处理。
(20)一种发送设备,包括:
流生成单元,生成包括将网络接入信息的元数据插入其中的音频流;以及
发送单元,发送预定格式的包括所述音频流的容器。
本技术的主要特征之一在于当元数据插入通过DASH/MP4传递的音频流时,将表示元数据插入音频流的识别信息插入MPD文件,并因此,在接收侧,能够容易地识别出元数据插入音频流(见图3和图4)。
符号的说明
10,10’,10A,10A’收发系统
14有效像素周期
15水平空白时间段
16垂直空白时间段
17视频数据周期
18数据岛周期
19控制周期
30A,30B基于MPEG-DASH的流传递系统
31DASH流文件服务器
32DASHMPD服务器
33,33-1到33-N接收系统
34CDN
35,35-1到35-M接收系统
36广播传输系统
81HDMI发送器
82HDMI接收器
83DDC
84CEC线
85EDIDROM
100,100A服务传输系统
110DASH/MP4生成单元
110ATS生成单元
111控制单元
111aCPU
112视频编码器
113音频编码器
113a音频编码块单元
113b音频组帧单元
114DASH/MP4格式器
114ATS格式器
200,200A机顶盒(STB)
204,204A接收单元
205DASH/MP4分析单元
205ATS分析单元
206视频解码器
207音频组帧单元
208HDMI发送单元
209HDMI终端
211CPU211
212闪速ROM
213DRAM
214内部总线
215远程控制器接收单元
216远程控制器发送器
300,300A电视接收器
306,306A接收单元
307DASH/MP4分析单元
307ATS分析单元
308视频解码器
309视频处理电路
310面板驱动电路
311显示面板
312音频解码器
313音频处理电路
314音频放大电路
315扬声器
316HDMI终端
317HDMI接收单元
318通信接口
321CPU
322闪速ROM
323DRAM
324内部总线
325远程控制器接收单元
326远程控制器发送器
350外部扬声器系统
400HDMI电缆

Claims (20)

1.一种发送设备,包括:
发送单元,发送包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流;以及
信息插入单元,将表示所述元数据插入到所述音频流的识别信息插入到所述元文件中。
2.根据权利要求1所述的发送设备,
其中,所述元数据是用于连接至预定网络服务的接入信息。
3.根据权利要求2所述的发送设备,
其中,所述元数据是表示URI信息的字符代码。
4.根据权利要求1所述的发送设备,
其中,所述元文件是MPD文件。
5.根据权利要求4所述的发送设备,
其中,所述信息插入单元使用“补充描述符”将所述识别信息插入到所述元文件中。
6.根据权利要求1所述的发送设备,
其中,所述发送单元经由RF传输路径或通信网络传输路径发送所述元文件。
7.根据权利要求1所述的发送设备,
其中,所述发送单元进一步发送预定格式的包括将所述元数据插入其中的所述音频流的容器。
8.根据权利要求7所述的发送设备,
其中,所述容器是MP4。
9.一种发送方法,包括:
发送步骤,通过发送单元发送包括元信息的元文件,所述元信息用于通过接收设备获得将元数据插入其中的音频流;以及
信息插入步骤,将表示所述元数据插入到所述音频流的识别信息插入到所述元文件中。
10.一种接收设备,包括:
接收单元,接收包括元信息的元文件,所述元信息用于获得将元数据插入其中的音频流,其中,表示所述元数据插入到所述音频流的识别信息被插入到所述元文件中;以及
发送单元,经由预定传输路径将所述音频流连同表示所述元数据插入到所述音频流的识别信息一起发送至外部设备。
11.根据权利要求10所述的接收设备,
其中,所述元数据是用于连接至预定网络服务的接入信息。
12.根据权利要求10所述的接收设备,
其中,所述元文件是MPD文件,并且
使用“补充描述符”将所述识别信息插入到所述元文件中。
13.根据权利要求10所述的接收设备,
其中,所述发送单元通过将所述音频流和所述识别信息插入到图像数据的空白时间段并且将所述图像数据发送至所述外部设备,
来将所述音频流和所述识别信息发送至所述外部设备。
14.根据权利要求10所述的接收设备,
其中,所述预定传输路径是高清晰度多媒体接口(HDMI)电缆。
15.一种接收方法,包括:
接收步骤,通过接收单元接收包括元信息的元文件,所述元信息用于获得将元数据插入其中的音频流,其中,表示所述元数据插入到所述音频流的识别信息被插入到所述元文件中;以及
发送步骤,经由预定传输路径将所述音频流连同表示所述元数据插入到所述音频流的识别信息一起发送至外部设备。
16.一种接收设备,包括:
接收单元,接收包括元信息的元文件,所述元信息用于获得将元数据插入其中的音频流,其中,表示所述元数据插入到所述音频流的识别信息被插入到所述元文件中;
元数据提取单元,基于所述识别信息解码所述音频流并且提取所述元数据;以及
处理单元,使用所述元数据执行处理。
17.根据权利要求16所述的接收设备,
其中,所述元文件是MPD文件,并且
使用“补充描述符”将所述识别信息插入到所述元文件中。
18.根据权利要求16所述的接收设备,
其中,所述元数据是用于连接至预定网络服务的接入信息,并且
所述处理单元基于网络接入信息接入网络上的预定服务器。
19.一种接收方法,包括:
接收步骤,通过接收单元接收包括元信息的元文件,所述元信息用于获得将元数据插入其中的音频流,其中,表示所述元数据插入到所述音频流的识别信息被插入到所述元文件中;
元数据提取步骤,基于所述识别信息解码所述音频流并且提取所述元数据;以及
处理步骤,使用所述元数据执行处理。
20.一种发送设备,包括:
流生成单元,生成将包括网络接入信息的元数据插入其中的音频流;以及
发送单元,发送预定格式的包括所述音频流的容器。
CN201580002513.9A 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法 Active CN105706164B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110320124.8A CN113037768A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN202110321922.2A CN113099291A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN202110319909.3A CN113037767A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014186155 2014-09-12
JP2014-186155 2014-09-12
PCT/JP2015/075313 WO2016039285A1 (ja) 2014-09-12 2015-09-07 送信装置、送信方法、受信装置および受信方法

Related Child Applications (3)

Application Number Title Priority Date Filing Date
CN202110319909.3A Division CN113037767A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN202110320124.8A Division CN113037768A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN202110321922.2A Division CN113099291A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法

Publications (2)

Publication Number Publication Date
CN105706164A true CN105706164A (zh) 2016-06-22
CN105706164B CN105706164B (zh) 2021-04-13

Family

ID=55459033

Family Applications (4)

Application Number Title Priority Date Filing Date
CN202110321922.2A Pending CN113099291A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN201580002513.9A Active CN105706164B (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN202110320124.8A Pending CN113037768A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN202110319909.3A Pending CN113037767A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202110321922.2A Pending CN113099291A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN202110320124.8A Pending CN113037768A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法
CN202110319909.3A Pending CN113037767A (zh) 2014-09-12 2015-09-07 发送设备、发送方法、接收设备和接收方法

Country Status (8)

Country Link
US (4) US10547701B2 (zh)
EP (1) EP3193330A4 (zh)
JP (4) JP6809221B2 (zh)
KR (4) KR102498740B1 (zh)
CN (4) CN113099291A (zh)
CA (1) CA2929052A1 (zh)
MX (1) MX2016005809A (zh)
WO (1) WO2016039285A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112351317A (zh) * 2020-10-13 2021-02-09 北京巨目智播科技有限公司 一种自适应播放终端播放方法及装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113099291A (zh) * 2014-09-12 2021-07-09 索尼公司 发送设备、发送方法、接收设备和接收方法
US10271094B2 (en) * 2015-02-13 2019-04-23 Samsung Electronics Co., Ltd. Method and device for transmitting/receiving media data
CN115841818A (zh) * 2018-02-22 2023-03-24 杜比国际公司 用于处理嵌入在mpeg-h 3d音频流中的辅媒体流的方法及设备
US10771828B2 (en) 2018-09-18 2020-09-08 Free Stream Media Corp. Content consensus management
US11416208B2 (en) * 2019-09-23 2022-08-16 Netflix, Inc. Audio metadata smoothing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103907344A (zh) * 2011-11-01 2014-07-02 索尼公司 再现设备,再现方法和程序
WO2014109321A1 (ja) * 2013-01-09 2014-07-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN104041111A (zh) * 2011-10-21 2014-09-10 弗兰霍菲尔运输应用研究公司 用于从服务器向客户端发送媒体内容的无线资源管理概念
CN104685894A (zh) * 2012-10-26 2015-06-03 英特尔公司 基于视频定向的多媒体适应

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7941553B2 (en) * 2002-10-18 2011-05-10 International Business Machines Corporation Method and device for streaming a media file over a distributed information system
CN1765130A (zh) * 2003-03-25 2006-04-26 松下电器产业株式会社 数据发送装置
JP4846352B2 (ja) 2005-11-28 2011-12-28 ソフトバンクBb株式会社 マルチメディア視聴システム及びマルチメディア視聴方法
JP5331814B2 (ja) * 2007-10-15 2013-10-30 トムソン ライセンシング バーストモードアクティビティを通信する装置および方法
KR20110014995A (ko) * 2008-06-06 2011-02-14 디브이엑스, 인크. 멀티미디어 파일용의 폰트 파일 최적화 시스템 및 방법
US8364657B2 (en) * 2008-10-31 2013-01-29 Disney Enterprises, Inc. System and method for providing media content
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
KR101786051B1 (ko) * 2009-11-13 2017-10-16 삼성전자 주식회사 데이터 제공 방법 및 장치와 데이터 수신 방법 및 장치
KR101786050B1 (ko) * 2009-11-13 2017-10-16 삼성전자 주식회사 데이터 전송 방법 및 장치
JP5577823B2 (ja) * 2010-04-27 2014-08-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2012010311A (ja) 2010-05-26 2012-01-12 Sony Corp 送信装置、送信方法、受信装置、受信方法および送受信システム
JP5510097B2 (ja) * 2010-06-16 2014-06-04 ソニー株式会社 信号伝送方法、信号送信装置および信号受信装置
US8468453B2 (en) * 2010-08-12 2013-06-18 Echostar Technologies L.L.C. User-selected media content blocking
US9116988B2 (en) * 2010-10-20 2015-08-25 Apple Inc. Temporal metadata track
TWI574565B (zh) 2011-03-31 2017-03-11 Sony Corp A transmitting apparatus, a transmitting method, a receiving apparatus, a receiving method, a computer-readable medium, and a broadcasting system
KR101719998B1 (ko) * 2011-12-12 2017-03-27 엘지전자 주식회사 미디어 컨텐트를 수신하는 장치 및 방법
CN103621075A (zh) * 2012-04-24 2014-03-05 索尼公司 图像数据发送装置、图像数据发送方法、图像数据接收装置和图像数据接收方法
WO2014007083A1 (ja) * 2012-07-02 2014-01-09 ソニー株式会社 送信装置、送信方法およびネットワーク装置
JP2014017741A (ja) 2012-07-10 2014-01-30 Sharp Corp コンテンツ送信装置、コンテンツ再生装置、コンテンツ配信システム、コンテンツ送信装置の制御方法、コンテンツ再生装置の制御方法、制御プログラムおよび記録媒体
US9191429B2 (en) * 2012-07-13 2015-11-17 Qualcomm Incorporated Dynamic resolution of content references for streaming media
US11290510B2 (en) * 2012-11-29 2022-03-29 Samsung Electronics Co., Ltd. Method and apparatus for encapsulation of motion picture experts group media transport assets in international organization for standardization base media files
CN107578781B (zh) * 2013-01-21 2021-01-29 杜比实验室特许公司 利用响度处理状态元数据的音频编码器和解码器
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
US9628528B2 (en) * 2013-07-19 2017-04-18 Electronics And Telecommunications Research Institute Apparatus and method for providing content
WO2015026136A1 (en) * 2013-08-20 2015-02-26 Lg Electronics Inc. Apparatus for transmitting media data via streaming service, apparatus for receiving media data via streaming service, method for transmitting media data via streaming service and method for receiving media data via streaming service
KR102273757B1 (ko) * 2014-01-03 2021-07-06 엘지전자 주식회사 방송 신호를 송신하는 장치, 방송 신호를 수신하는 장치, 방송 신호를 송신하는 방법 및 방송 신호를 수신하는 방법
US10476930B2 (en) * 2014-01-06 2019-11-12 Intel IP Corporation Client/server signaling commands for dash
US9866608B2 (en) * 2014-03-24 2018-01-09 Qualcomm Incorporated Processing continuous multi-period content
KR102315367B1 (ko) * 2014-06-20 2021-10-20 소니그룹주식회사 수신 장치, 수신 방법, 송신 장치, 및, 송신 방법
KR101788065B1 (ko) * 2014-06-25 2017-10-19 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
CN113099291A (zh) 2014-09-12 2021-07-09 索尼公司 发送设备、发送方法、接收设备和接收方法
US10325221B2 (en) * 2015-06-02 2019-06-18 Microsoft Technology Licensing, Llc Metadata tag description generation
JP6989172B2 (ja) * 2019-04-22 2022-01-05 株式会社ニイタカ 表面改質樹脂容器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104041111A (zh) * 2011-10-21 2014-09-10 弗兰霍菲尔运输应用研究公司 用于从服务器向客户端发送媒体内容的无线资源管理概念
CN103907344A (zh) * 2011-11-01 2014-07-02 索尼公司 再现设备,再现方法和程序
CN104685894A (zh) * 2012-10-26 2015-06-03 英特尔公司 基于视频定向的多媒体适应
WO2014109321A1 (ja) * 2013-01-09 2014-07-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱晓晨 等: ""基于HTTP的动态自适应流技术综述"", 《系统仿真学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112351317A (zh) * 2020-10-13 2021-02-09 北京巨目智播科技有限公司 一种自适应播放终端播放方法及装置

Also Published As

Publication number Publication date
US20160248870A1 (en) 2016-08-25
CN105706164B (zh) 2021-04-13
KR102498740B1 (ko) 2023-02-13
MX2016005809A (es) 2016-08-01
EP3193330A1 (en) 2017-07-19
KR20230022281A (ko) 2023-02-14
JP2022141686A (ja) 2022-09-29
CN113037768A (zh) 2021-06-25
EP3193330A4 (en) 2018-04-11
KR20220016285A (ko) 2022-02-08
CN113099291A (zh) 2021-07-09
CN113037767A (zh) 2021-06-25
US20200120175A1 (en) 2020-04-16
KR20240032178A (ko) 2024-03-08
KR102643537B1 (ko) 2024-03-06
JP7468575B2 (ja) 2024-04-16
JP2021057905A (ja) 2021-04-08
US11509737B2 (en) 2022-11-22
JP6809221B2 (ja) 2021-01-06
KR20170059915A (ko) 2017-05-31
US20210368019A1 (en) 2021-11-25
CA2929052A1 (en) 2016-03-17
US20230067389A1 (en) 2023-03-02
US10547701B2 (en) 2020-01-28
US11025737B2 (en) 2021-06-01
WO2016039285A1 (ja) 2016-03-17
KR102355472B1 (ko) 2022-01-26
JP2024050685A (ja) 2024-04-10
JPWO2016039285A1 (ja) 2017-06-22
JP7099510B2 (ja) 2022-07-12

Similar Documents

Publication Publication Date Title
JP7099510B2 (ja) 受信装置および受信方法
RU2687065C2 (ru) Устройство передачи, способ передачи, устройство приема и способ приема
WO2017099092A1 (ja) 送信装置、送信方法、受信装置および受信方法
CN107431834A (zh) 传输设备、传输方法、接收设备、以及接收方法
JP7218773B2 (ja) 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置
CN107615768A (zh) 发送装置、发送方法、接收装置和接收方法
CN108702533A (zh) 发送装置、发送方法、接收装置和接收方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant