JP2023054060A - 受信方法 - Google Patents

受信方法 Download PDF

Info

Publication number
JP2023054060A
JP2023054060A JP2023018499A JP2023018499A JP2023054060A JP 2023054060 A JP2023054060 A JP 2023054060A JP 2023018499 A JP2023018499 A JP 2023018499A JP 2023018499 A JP2023018499 A JP 2023018499A JP 2023054060 A JP2023054060 A JP 2023054060A
Authority
JP
Japan
Prior art keywords
signal
video
information
data
physical layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023018499A
Other languages
English (en)
Other versions
JP7494338B2 (ja
Inventor
和幸 高橋
Kazuyuki Takahashi
ブルース マイケル ロックラン
Bruce Michael Lachlan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JP2023054060A publication Critical patent/JP2023054060A/ja
Application granted granted Critical
Publication of JP7494338B2 publication Critical patent/JP7494338B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/06Receivers
    • H04B1/16Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/20Arrangements for broadcast or distribution of identical information via plural systems
    • H04H20/22Arrangements for broadcast of identical information via plural broadcast systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/11Arrangements for counter-measures when a portion of broadcast information is unavailable
    • H04H60/12Arrangements for counter-measures when a portion of broadcast information is unavailable wherein another information is substituted for the portion of broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4385Multiplex stream processing, e.g. multiplex stream decrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44245Monitoring the upstream path of the transmission network, e.g. its availability, bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/30Arrangements for simultaneous broadcast of plural pieces of information by a single channel

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】放送信号の切り替え時に、シームレスに再生を行うことができるようにする。【解決手段】受信装置は、複数の放送信号を受信し、放送信号に対する処理の結果に基づいて、複数の放送信号の中から、対象の放送信号を選択することで、放送信号の切り替え時に、シームレスに再生を行うことができる。本技術は、例えば、デジタルテレビ放送を受信可能な受信機に適用することができる。【選択図】図3

Description

本技術は、受信方法に関し、特に、放送信号の切り替え時に、シームレスに再生を行うことができるようにした受信方法に関する。
例えば、ワンセグ放送の番組とフルセグ放送の番組など、サイマル放送されている番組の複数の放送信号を受信可能な受信機が知られている(例えば、特許文献1参照)。
特開2008-300910号公報
ところで、受信機においては、サイマル放送されている放送番組の切り替えを行う場合などに、映像や音声の乱れが発生するときがある。そのため、受信する放送信号の切り替え時に、シームレスに再生を行うための提案が要請されていた。
本技術はこのような状況に鑑みてなされたものであり、放送信号の切り替え時に、シームレスに再生を行うことができるようにするものである。
本技術の第1の側面の受信装置は、複数の放送信号を受信する受信部と、前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する制御部とを備える受信装置である。
本技術の第1の側面の受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第1の側面のデータ処理方法は、上述した本技術の第1の側面の受信装置に対応するデータ処理方法である。
本技術の第1の側面の受信装置、及び、データ処理方法においては、複数の放送信号が受信され、前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号が選択される。
本技術の第2の側面の送信装置は、同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成する生成部と、前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する送信部とを備える送信装置である。
本技術の第2の側面の送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第2の側面のデータ処理方法は、上述した本技術の第2の側面の送信装置に対応するデータ処理方法である。
本技術の第2の側面の送信装置、及び、データ処理方法においては、同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報が生成され、前記映像境界情報が、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信される。
本技術の第1の側面、及び、第2の側面によれば、放送信号の切り替え時に、シームレスに再生を行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した伝送システムの一実施の形態の構成を示す図である。 送信装置の構成例を示す図である。 受信装置の構成例を示す図である。 シームレス再生の原理を説明する図である。 シームレス再生を行う受信装置の構成例を示す図である。 受信信号の品質と、放送信号の切り替えタイミングの例を示す図である。 物理層フレーム単位での制御を行う場合の物理層フレームと映像信号との関係を示す図である。 IP伝送方式を採用した場合のレイヤごとのデータ構造の例を示す図である。 L1基本情報のシンタックスの例を示す図である。 L1詳細情報のシンタックスの例を示す図である。 物理層とその上位層で取り扱われるデータの関係を示す図である。 BBパケット単位での制御を行う場合の物理層フレームと映像信号との関係を示す図である。 BBパケット単位での制御を行う場合のBBパケットと映像信号との関係を示す図である。 BBパケットの拡張ヘッダを説明する図である。 BBパケットの拡張ヘッダを説明する図である。 BBパケットの拡張ヘッダを説明する図である。 映像境界情報のシンタックスの例を示す図である。 階層単位での制御を行う場合の階層と映像信号との関係を示す図である。 映像境界情報を、放送に関する付加情報(AC)に配置する場合の例を示す図である。 受信信号の品質等に応じた復号対象の選択制御を説明する図である。 第1のシームレス再生処理の流れを説明するフローチャートである。 第2のシームレス再生処理の流れを説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.システムの構成
2.本技術の概要
3.本技術のシームレス再生制御
(1)物理層フレーム単位での制御
(2-1)BBパケット単位での制御(TDM)
(2-2)階層単位での制御(FDM)
(3)受信信号の品質等に応じた復号対象の選択制御
4.シームレス再生処理の流れ
5.変形例
6.コンピュータの構成
<1.システムの構成>
(伝送システムの構成例)
図1は、本技術を適用した伝送システムの一実施の形態の構成を示す図である。なお、システムとは、複数の装置が論理的に集合したものをいう。
図1において、伝送システム1は、送信装置10と受信装置20から構成される。この伝送システム1では、所定の放送方式に準拠したデータ伝送が行われる。
送信装置10は、所定の放送方式に対応した送信機であって、伝送路30を介してコンテンツを送信する。例えば、送信装置10は、放送番組等のコンテンツを構成する映像や音声等(のコンポーネント)とシグナリングを含む放送ストリームを、放送波として、伝送路30を介して送信する。
受信装置20は、所定の放送方式に対応した受信機であって、送信装置10から伝送路30を介して伝送されてくる、コンテンツを受信して出力する。例えば、受信装置20は、送信装置10からの放送波を受信して、放送ストリームに含まれる、コンテンツを構成する映像や音声等(のコンポーネント)とシグナリングを処理し、放送番組等のコンテンツの映像や音声を再生する。
なお、伝送システム1において、伝送路30は、地上波(地上波放送)のほか、例えば、放送衛星(BS:Broadcasting Satellite)や通信衛星(CS:Communications Satellite)を利用した衛星放送、あるいは、ケーブルを用いた有線放送(CATV)などであってもよい。
(送信装置の構成例)
図2は、図1の送信装置10の構成例を示す図である。
図2において、送信装置10は、コンポーネント処理部111、シグナリング処理部112、処理部113、及び変調部114から構成される。
コンポーネント処理部111は、そこに入力されるコンテンツを取得する。ここで、コンテンツは、映像や音声、字幕等のコンポーネントから構成される。また、コンテンツとしては、同一の又は対応する内容であって、例えば、画面解像度の異なるものや、音声のみのものを複数用意することができる。
コンポーネント処理部111は、コンテンツの映像や音声のデータを処理(例えば、符号化処理等)し、その結果得られる映像信号や音声信号を、処理部113に供給する。
シグナリング処理部112は、そこに入力される、受信装置20側での復調処理や再生処理等で用いられる制御情報を生成するためのデータを取得する。シグナリング処理部112は、制御情報用のデータに基づいて、シグナリング(制御情報)を生成し、処理部113に供給する。
処理部113は、コンポーネント処理部111から供給される映像信号や音声信号と、シグナリング処理部112から供給されるシグナリングに対し、必要な処理を施し、その結果得られる多重化ストリームを、変調部114に供給する。
変調部114は、処理部113から供給される多重化ストリームに対し、変調処理を行い、その結果得られる信号を、アンテナ121を介して、放送信号として送信する。
送信装置10は、以上のように構成される。なお、図2においては、説明の都合上、送信装置10が、あたかも1つの装置から構成されるように記載されているが、送信側の送信装置10は、図2のブロックの各機能を有する複数の装置から構成されるシステムとすることができる。
(受信装置の構成例)
図3は、図1の受信装置20の構成例を示す図である。
図3において、受信装置20は、制御部210、チューナ211、復調部212、フィルタ213、復号部214、及び出力部215から構成される。
制御部210は、例えば、CPU(Central Processing Unit)やマイクロプロセッサ等から構成される。制御部210は、受信装置20の各部の動作を制御する。
チューナ211は、制御部210からの制御に従い、アンテナ221を介して受信される所定の周波数帯域の放送信号を処理し、その結果得られる受信信号を、復調部212に供給する。
復調部212は、例えば、復調LSI(Large Scale Integration)等から構成される。復調部212は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる多重化ストリームを、フィルタ213に供給する。
フィルタ213は、制御部210からの制御に従い、復調部212から供給される多重化ストリームを処理し、その結果得られる映像信号や音声信号を、復号部214に供給する。
復号部214は、制御部210からの制御に従い、フィルタ213から供給される映像信号や音声信号を復号し、その結果得られる映像や音声のデータを出力部215に供給する。なお、フィルタ213や復号部214は、例えば、メインSoC(System On Chip)等から構成される。
出力部215は、例えば、出力インターフェース回路等から構成される。出力部215は、復号部214から供給される映像や音声のデータを処理し、表示装置(不図示)やスピーカ(不図示)などに出力する。これにより、受信装置20では、放送番組等のコンテンツが再生され、その映像や音声が出力される。
なお、図3においては、受信装置20が、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescence Display)等のディスプレイやスピーカを有するようにして、出力部215からのデータに応じた映像や音声を出力するようにしてもよい。
受信装置20は、以上のように構成される。
<2.本技術の概要>
例えば、日本等が採用する放送方式であるISDB-T(Integrated Services Digital Broadcasting - Terrestrial)においては、地上デジタルテレビ放送として、主に固定受信機向けの放送であり、12セグメントを使用したハイビジョン放送(以下、フルセグ放送という)と、主にモバイル受信機向けの放送であり、1セグメントを使用した「携帯電話・移動体端末向けの1セグメント部分受信サービス」(以下、ワンセグ放送という)が規定されている。また、地上デジタルテレビ放送では、フルセグ放送とワンセグ放送とで、同一の放送番組(コンテンツ)を放送するサイマル放送が行われる。
近年、携帯電話機やスマートフォンなど、地上デジタルテレビ放送のチューナを搭載したモバイル受信機として、ワンセグ放送に限らず、いわゆるフルセグ放送も受信可能なものが普及しつつある。
この種のモバイル受信機では、受信環境が良い場合には、フルセグ放送を受信する一方で、受信環境が悪い場合には、ワンセグ放送を受信するなど、その受信環境に応じて、受信する放送信号を切り替えることができるものがある。例えば、フルセグ放送は、HD解像度の映像(概ね1920×1080ピクセル前後の画面解像度に対応した映像)とされ、ワンセグ放送は、QVGA解像度の映像(概ね320×240ピクセル前後の画面解像度に対応した映像)とされる。
しかしながら、モバイル受信機では、受信環境に応じて受信する放送信号の切り替えを行う際に、例えば、フリーズやブロックエラーなどの映像や音声の乱れが発生する場合がある。このような現象が発生する原因の一つとして、例えば、放送システムのプロトコルスタックにおける物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られるGOP(Group of Pictures)構造の境界とが、一致していないことが挙げられる。
なお、GOPは、Iピクチャ、Bピクチャ、又はPピクチャにより構成され、少なくとも1枚のIピクチャを含むものである。また、Iピクチャは、現在の画像情報のみを使用して符号化された画像である。Bピクチャは、現在、過去及び未来の画像情報を使用して符号化された画像である。Pピクチャは、現在及び過去の画像情報を使用して符号化された画像である。
一方で、米国等が採用する放送方式であるATSC(Advanced Television Systems Committee)においては、次世代地上放送規格の1つであるATSC3.0の策定が進められている。ATSC3.0では、放送信号として、ビットレートやロバスト性が異なる複数の信号を用意することで、受信機において、受信環境に応じて受信する放送信号の切り替えを行うという運用が想定されている。
このような運用を行う場合には、例えば、4K解像度の映像(概ね4000×2000ピクセル前後の画面解像度に対応した映像)と音声を、高ビットレート、かつ低ロバスト性で伝送し、HD解像度の映像(概ね1920×1080ピクセル前後の画面解像度に対応した映像)と音声を、中ビットレート、かつ中ロバスト性で伝送し、音声のみを、低ビットレート、かつ高ロバスト性で伝送することができる。
この場合において、受信機の受信環境が良ければ、4K解像度の映像と音声の放送信号を選択して受信することができるが、受信機の受信環境が悪くなれば、HD解像度の映像と音声を選択するか、あるいは最悪の場合に音声のみを選択して受信することになる。その際に、例えば、4K解像度の映像とHD解像度の映像との切り替えで、フリーズ等の映像や音声の乱れが発生する場合があり、その原因の一つとして、物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られるGOP構造の境界とが一致していないことが挙げられる。
このように、放送信号の切り替え時に、物理層での信号の切り替えのタイミングと、その上位層の信号から得られる映像の境界とが一致していないと、映像や音声に乱れが発生するので、本技術では、このような点に着目して、放送信号の切り替え時に発生する映像や音声の乱れを抑制し、シームレスに再生を行うための提案を行う。
(シームレス再生の原理)
ここで、図4及び図5を参照して、本技術を適用したシームレス再生の原理を説明する。
図4には、横軸を時間とし、縦軸をC/N比(Carrier to Noise Ratio)としたときの受信信号の品質と、受信可能な放送信号との関係を示している。図4においては、時間の経過とともに、実線Lで表されたC/N比が変動している。
また、図4においては、受信装置20により受信可能な放送信号として、3種類の放送信号が用意され、それぞれの放送信号は、必要なビットレートとロバスト性が異なっている。すなわち、4K解像度の映像と音声を、高ビットレート、かつ低ロバスト性で伝送する放送信号を、図中の「4K」で表している。また、HD解像度の映像と音声を、中ビットレート、かつ中ロバスト性で伝送する放送信号を、図中の「HD」で表し、音声のみを、低ビットレート、かつ高ロバスト性で伝送する放送信号を、図中の「音声」で表している。
なお、ここでは具体的な値を示していないが、低ビットレート、中ビットレート、高ビットレートの順に、ビットレートが高くなることを意味している。また、低ロバスト性、中ロバスト性、高ロバスト性の順に、ロバスト性が高くなることを意味している。
ここで、C/N比が高ければ、伝送における雑音の影響が小さいので、受信信号の品質が良いと言える。一方で、C/N比が小さければ雑音の影響が大きいので、受信信号の品質が悪いと言える。そのため、図4に示すように、C/N比が高ければ、「4K」、「HD」、及び「音声」の放送信号を受信可能となるが、C/N比が低くなると、「HD」及び「音声」の放送信号が受信可能となり、さらにC/N比が低くなると、「音声」の放送信号しか受信できなくなる。
このように、受信装置20では、受信信号の品質に応じて、受信可能な放送信号が変化するため、受信信号の品質が良い場合に、「4K」の放送信号を受信していたときでも、受信信号の品質が悪くなると、「4K」の放送信号を受信できなくなって、「HD」の放送信号を受信することになる。逆に、受信装置20では、受信信号の品質が少し悪い場合に、「HD」の放送信号を受信していたときでも、受信信号の品質が良くなると、「4K」の放送信号を受信できるので、「4K」の放送信号を受信することになる。
すなわち、受信装置20では、C/N比の変動に応じて、受信する放送信号を切り替えるが、例えば、4K解像度の映像からHD解像度の映像に切り替える場合や、HD解像度の映像から4K解像度の映像に切り替える場合に、映像や音声の乱れが発生するときがあるのは、先に述べた通りである。そして、本技術では、放送信号の切り替え時に、映像や音声の乱れが発生することを抑制して、シームレスに再生を行うことができるようにする。
本技術のシームレス再生制御では、大別すると、映像の境界(RAP:Random Access Point)を示す情報である映像境界情報を用いるケースと、映像境界情報を用いないケースとに分けられる。
映像境界情報を用いるケースでは、物理層で処理される信号に、映像の境界(RAP)を示す情報である映像境界情報を含めるようにする。これにより、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。映像境界情報を用いるケースは、図6乃至図19を参照して説明する。
一方で、映像境界情報を用いないケースでは、受信可能な複数の放送信号のすべてを処理し、C/N比等の受信信号の品質を示す情報や、復調処理で得られる信号のエラーレートなどの情報に基づいて、復号対象の信号が選択されるようにする。図5には、映像境界情報を用いないケースを実現するための受信装置20の構成例を示している。図5に示すように、映像境界情報を用いないケースを採用する場合には、複数の放送信号を処理するために、複数系統の復調部212とフィルタ213が必要となる。映像境界情報を用いないケースは、図20を参照して説明する。
<3.本技術のシームレス再生制御>
次に、本技術のシームレス再生制御について説明するが、ここでは、まず、映像境界情報を用いるケースを説明する。
ここで、映像境界情報には、映像の境界(RAP)として、例えば、GOP周期における先頭の位置(Iピクチャの位置)を含めることができる。これにより、受信装置20では、受信信号の品質に応じて、対象の放送信号の切り替えのタイミングを、GOP構造の境界等の映像の境界(RAP)と一致させることができる。
(放送信号の切り替えタイミングの例)
図6には、横軸を時間とし、縦軸をC/N比としたときの受信信号の品質と、放送信号の切り替えのタイミングを示している。
図6においては、時間の経過とともに、実線Lで表されたC/N比が変動しているが、時刻t1の直前に、ユーザによって、チャネル(サービス)の選局操作が行われた場合を想定する。この場合において、時刻t1乃至時刻t2の間は、C/N比が高く、受信信号の品質が良いので、受信装置20では、「4K」の放送信号(図中の「S1」)が選択され、4Kの映像と音声が再生される。
その後、時刻t2において、C/N比が徐々に低下し、受信信号の品質が悪くなってきたとき、受信装置20では、「4K」の放送信号から、「HD」の放送信号(図中の「S2」)に切り替えられ、HDの映像と音声が再生される。このとき、受信装置20(の復調部212等)において、物理層で処理される信号には、映像境界情報が含まれているため、この映像境界情報に応じたタイミングで、物理層で処理される信号を切り替えることにより、そのタイミングが、上位層で処理される信号から得られる映像の境界(例えばGOP構造の境界)と一致することになる。
これにより、受信装置20において、後段の復号部214では、映像信号と音声信号を連続して復号することが可能となり、結果として、「4K」の放送信号(図中の「S1」)から、「HD」の放送信号(図中の「S2」)の切り替え時に、シームレスに再生を行うことができる。
その後、時刻t2乃至時刻t4の間においては、受信装置20では、受信信号の品質に応じて、「HD」の放送信号(図中の「S2」、「S3」)の選択が継続され、HDの映像と音声が再生される。
また、時刻t4において、C/N比が高くなり、受信信号の品質が良くなってきたとき、受信装置20ででは、「HD」の放送信号(図中の「S3」)から、「4K」の放送信号(図中の「S4」)に切り替えられ、4Kの映像と音声が再生される。このとき、受信装置20(の復調部212等)において、物理層で処理される信号に含まれる映像境界情報に応じたタイミングで、物理層で処理される信号が切り替えられることにより、そのタイミングが、上位層で処理される信号から得られる映像の境界(例えばGOP構造の境界)と一致することになる。
これにより、受信装置20において、後段の復号部214では、映像信号と音声信号を連続して復号することが可能となり、結果として、「HD」の放送信号(図中の「S3」)から、「4K」の放送信号(図中の「S4」)の切り替え時に、シームレスに再生を行うことができる。
以降の時間帯については、繰り返しになるので、その説明は省略するが、受信装置20では、受信信号の品質に応じて放送信号の切り替えを行うに際し、物理層で処理される信号に含まれる映像境界情報に従い、放送信号を切り替えることで、放送信号の切り替えのタイミングと映像の境界(RAP)とを一致させることが可能となり、シームレスに再生を行うことができる。
このように、受信装置20では、映像境界情報を用いることで、シームレスに再生を行うことができる。ここで、映像境界情報は、物理層で処理される信号として、例えば、物理層フレームのプリアンブルや、物理層のパケット(復調後のベースバンドのパケット)のヘッダ、放送に関する付加情報などに含めることができる。以下、映像境界情報の配置位置に応じた制御方法について説明する。
(1)物理層フレーム単位での制御
(物理層フレームと映像信号との関係)
図7は、受信信号の品質に応じた放送信号の切り替えを、データを伝送する単位である物理層フレーム単位で行う場合における、物理層フレームと映像信号との関係を示す図である。
ただし、図7の上段に、物理層フレームの構成を示し、図7の下段に、映像信号の構成を示している。また、図7において、時間の方向は、図中の左側から右側に向かう方向とされる。なお、これらの関係は、後述の対応する他の図でも同様とされる。
図7においては、3種類の放送信号を送信するために、「4K」の映像信号と音声信号、「HD」の映像信号と音声信号、及び「音声」の音声信号のストリームがそれぞれ用意されている。つまり、これらのストリームは、同一の又は対応する内容のコンテンツのストリームである。これらのストリームにおいて、図中の矢印P1,P2が示す位置が、例えば、GOP周期における先頭の位置(Iピクチャの位置)などの映像の境界(図中の「RAP」)となる。
これらのストリームは、放送信号として送信される場合、物理層フレーム単位で伝送される。例えば、ATSC3.0において、物理層フレームは、ブートストラップ(BS:Bootstrap)と、プリアンブル(Preamble)と、データ部(Data)から構成される。
なお、ブートストラップは、例えば、DVB-T2(Digital Video Broadcasting - Second Generation Terrestrial)のT2フレームを構成するP1シンボルに対応し、プリアンブルは、例えば、DVB-T2のT2フレームを構成するP2シンボルに対応している。したがって、ブートストラップは、プリアンブルであると言うこともできる。また、物理層フレームのフレーム長は、例えば、100~200msなどとされる。
物理層フレームにおいて、データ部には、PLP(Physical Layer Pipe)ごとにデータが含まれる。
すなわち、「4K」の映像信号と音声信号のストリームは、"1"であるPLPIDのPLP(以下、PLP#1とも記述する)として伝送される。そして、PLP#1で伝送される「4K」のストリームにおいて、図中の矢印P1が示す位置が、映像の境界(RAP)となるデータ4K-1は、その時間軸に従い、データ4K-11と、データ4K-12と、データ4K-13に分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれる。
「HD」の映像信号と音声信号のストリームは、"2"であるPLPIDのPLP(以下、PLP#2とも記述する)として伝送される。そして、PLP#2で伝送される「HD」のストリームにおいて、図中の矢印P1が示す位置が、映像の境界(RAP)となるデータHD-1は、その時間軸に従い、データHD-11と、データHD-12と、データHD-13に分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれる。
「音声」の音声信号のストリームは、"3"であるPLPIDのPLP(以下、PLP#3とも記述する)として伝送される。そして、PLP#3で伝送される「音声」のストリームにおいて、図中の矢印P1が示す位置が、映像の境界(RAP)に対応した位置となるデータA-1は、その時間軸に従い、データA-11と、データA-12と、データA-13に分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれる。
なお、繰り返しになるので、これ以上は説明しないが、図中の矢印P2が示す位置が映像の境界(RAP)となるデータ4K-2、データHD-2、及びデータA-2についても同様に、分割されたデータが、物理層フレームF-3以降の物理層フレーム(不図示)に含まれることになる。
このように、図7の例では、映像の境界の周期(例えばGOP周期)と、物理層フレームの周期の整数倍とが等しくなる関係を有している。そのため、例えば、GOP周期の先頭(Iピクチャ)等の映像の境界(RAP)に対応するデータ(データ4K-11、HD-11、及びA-11)を含む物理層フレーム(物理層フレームF-1)のプリアンブルに、映像の境界(RAP)を示す映像境界情報が含まれるようにすることで、当該物理層フレーム(物理層フレームF-1)が、映像の境界(RAP)に対応するデータを含むことを示すことができる。
これにより、受信装置20では、受信信号の品質に応じて放送信号を切り替える場合に、例えば、映像境界情報が含まれる物理層フレームF-1を処理することで、その切り替えのタイミングが、上位層で処理されるデータ4K-1やデータHD-1の映像の境界(図中の「RAP」)と一致することになる(図中の矢印P1が示す位置)。その結果、受信装置20において、例えば、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
また、物理層フレームのプリアンブルに含まれる映像境界情報を用いることで、例えば、1系統の回路(復調部212とフィルタ213)のみを動作させるだけで、シームレス再生が可能となるので、回路を最小限動作させて、低消費電力を実現することができる。例えば、復調LSIは、回路規模が大きく、消費電力が大きいので、1系統の回路のみの最小限の動作とすることでの低消費電力の効果は非常に大きなものとなる。
なお、詳細は後述するが、ATSC3.0では、トランスポート・プロトコルとして、ROUTEを用いる場合には、MPEG-DASHに準拠したストリーミング配信が行われることになるが、MPEG-DASHでは、映像や音声のストリームが、セグメントファイルとして伝送される。そして、セグメントファイルは、その先頭に、RAP(Random Access Point)を含んでいるので、図7の例で、映像の境界(RAP)は、セグメントファイルの先頭に相当し、セグメントファイル単位での切り替えを行うことで、シームレス再生が行われるとも言える。
(データ構造の例)
ところで、伝送方式として、現在広く普及しているMPEG2-TS(Transport Stream)方式ではなく、通信の分野で用いられているIP(Internet Protocol)パケットをデジタルテレビ放送に用いたIP伝送方式を導入することで、より高度なサービスを提供することが期待されている。例えば、次世代地上放送規格の1つであるATSC3.0では、IP伝送方式の採用が決定されている。
図8は、IP伝送方式を採用した場合のレイヤごとのデータ構造の例を示す図である。
図8においては、物理層であるレイヤ1(L1)と、レイヤ1の上位層であるレイヤ2(L2)と、レイヤ2の上位層であるレイヤ3(L3)が階層構造をなしている。
レイヤ3のデータとしては、IPパケットが処理される。IPパケットは、IPヘッダ(IP Header)とペイロード(Payload)から構成される。IPパケットのペイロードには、UDPパケットが格納される。すなわち、IPパケットは、IP/UDPパケットであるとも言える。IP/UDPパケットのペイロードには、コンテンツの映像や音声のデータ、制御情報としてのシグナリングのデータ等が格納される。
レイヤ2のデータとしては、Genericパケットが処理される。Genericパケットは、Genericヘッダ(Generic Header)とペイロード(Payload)から構成される。Genericパケットのペイロードには、1又は複数のIP/UDPパケットが配置され、カプセル化(encapsulation)される。
レイヤ1のデータとしては、BBパケット(Baseband Packet)が処理される。BBパケットは、BBPヘッダ(Baseband Packet Header)と、ペイロード(Payload)から構成される。BBパケットのペイロードには、1又は複数のGenericパケットが配置され、カプセル化される。また、レイヤ1においては、1又は複数のBBパケットをスクランブルして得られるデータ(Data)がFECフレーム(FEC Frame)にマッピングされ、物理層のエラー訂正用のパリティ(Parity)が付加される。
ここで、レイヤ1の物理層フレーム(Physical Frame)は、ブートストラップ(Bootstrap)と、プリアンブル(Preamble)と、データ部(Data)から構成される。そして、物理層フレームのデータ部には、複数のFECフレームに対して、ビットインターリーブを行った後に、マッピング処理を行い、さらに、時間方向と周波数方向にインターリーブを行うなどの物理層の処理(変調処理)が行われることで得られるデータがマッピングされる。
物理層フレームのプリアンブルには、シグナリングが含まれる。例えば、ATSC3.0では、プリアンブルに含まれるシグナリングとして、L1シグナリングが規定されている。L1シグナリングは、L1基本情報(L1 Basic Signaling)と、L1詳細情報(L1 Detail Signaling)から構成される。
ここで、L1基本情報とL1詳細情報とを比較すれば、L1基本情報は、200ビット程度のビットから構成されるが、L1詳細情報は、400~数千ビットから構成される点でそのサイズが異なっている。また、物理層フレームのプリアンブルでは、L1基本情報とL1詳細情報がその順に読み出されるため、L1詳細情報よりもL1基本情報のほうが先に読み出される。さらに、L1基本情報は、L1詳細情報と比べて、よりロバストに伝送される点でも異なっている。
(L1基本情報の構成)
図9は、L1基本情報(L1 Basic Signaling)のシンタックスの例を示す図である。
なお、L1基本情報については、下記の非特許文献1の「Table 9.2 L1-Basic Signaling Fields and Syntax」にその詳細な内容が記載されている。そのため、図9のシンタックスには、L1基本情報のうち、特に本技術に関係する部分を抜粋して記述している。
非特許文献1:ATSC Candidate Standard:Physical Layer Protocol (A/322) Doc. S32-230r45 6 April 2016
1ビットのL1B_RAP_EXIST_FLAGは、L1詳細情報に、映像境界情報が存在するかどうかを示すフラグである。
例えば、L1B_RAP_EXIST_FLAGとして、"0"が設定された場合、L1詳細情報に、映像境界情報が含まれていないことを示す。一方で、L1B_RAP_EXIST_FLAGとして、"1"が設定された場合、L1詳細情報に、映像境界情報が含まれていることを示す。
L1B_RAP_EXIST_FLAG以外の説明は、ここでは省略するものとする。
(L1詳細情報の構成)
図10は、L1詳細情報(L1 Detail Signaling)のシンタックスの例を示す図である。
なお、L1詳細情報については、上述した非特許文献1の「Table 9.8 L1-Detail Signaling Fields and Syntax」にその詳細な内容が記載されている。そのため、図10のシンタックスには、L1詳細情報のうち、特に本技術に関係する部分を抜粋して記述している。
例えば、図9のL1基本情報において、L1B_RAP_EXIST_FLAGとして、"1"が設定された場合、映像境界情報が存在していることを示しているので、図10のL1詳細情報には、映像境界情報として、1ビットのRAPと、8ビットのAdaptationSetが配置される。
1ビットのRAPは、該当の物理層フレームに、映像の境界(RAP)が含まれることを示すフラグである。例えば、RAPとして、"0"が設定された場合、該当の物理層フレームに、映像の境界(RAP)が含まれていないことを示す。
一方で、RAPとして、"1"が設定された場合、該当の物理層フレームに、映像の境界(RAP)が含まれていることを示す。すなわち、この場合、該当の物理層フレームのデータ部には、例えば、GOP周期における先頭の位置に配置されるIピクチャのデータが含まれることになる。
8ビットのAdaptationSetは、映像の境界(RAP)を含むAdaptationSetが指定される。ここで、AdaptationSetは、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)に準拠したストリーミング配信を行うために用いられる、MPD(Media Presentation Description)メタデータに記述されるAdaptationSet要素に対応している。
すなわち、MPDメタデータは、Period要素、AdaptationSet要素、及びRepresentation要素等が階層構造で記述されている。Period要素は、放送番組等のコンテンツの構成を記述する単位となる。AdaptationSet要素又はRepresentation要素は、映像や音声、字幕等のそれぞれのストリームごとに利用され、ぞれぞれのストリームの属性を記述できるようになっている。
具体的には、AdaptationSet要素は、各種のソースからエンコードされたストリームを表している。そして、当該ストリームを、例えばビットレート等のパラメトリックに応じて、受信装置20側で選択させるために、AdaptationSet要素内に、Representation要素を配置して、例えばビットレート等のパラメータが異なる複数の選択肢となるストリームを列挙している。通常、AdaptationSet要素やRepresentation要素は、映像や音声、字幕のストリームなど、単一のストリームに対応させている。
例えば、ATSC3.0では、トランスポート・プロトコルとして、ROUTE(Real-Time Object Delivery over Unidirectional Transport)を用いることが想定され、その場合には、MPEG-DASHに準拠したストリーミング配信が行われることになる。この場合、L1詳細情報に配置されるAdaptationSetにより、映像の境界(RAP)が含まれるストリームを特定することができる。
RAPと、AdaptationSet以外の説明は、ここでは省略するものとする。
なお、図9及び図10において、フォーマット(Format)として、uimsbf(unsigned integer most significant bit first)が指定された場合、ビット演算をして、整数として扱われることを意味している。
(物理層と上位層の関係)
図11は、物理層とその上位層で取り扱われるデータの関係を示す図である。
上述したように、ATSC3.0では、トランスポート・プロトコルとして、ROUTE(Real-Time Object Delivery over Unidirectional Transport)を用いることが想定されている。ここで、ROUTEは、バイナリファイルを一方向でマルチキャスト転送するのに適したプロトコルであるFLUTE(File Delivery over Unidirectional Transport)を拡張したプロトコルである。このROUTEセッションを利用して、映像や音声、字幕のコンポーネント、シグナリングなどを伝送することができる。
図11において、所定の周波数帯域(例えば6MHz)の放送ストリーム(Broadcast Stream)には、PLP#0,PLP#1,PLP#2が含まれる。PLP#0は、LLS(Low Level Signaling)のストリームを含む。ただし、LLSのストリームは、IPパケットに格納されて伝送される。
ここで、ATSC3.0では、シグナリングとして、LLS(Low Level Signaling)と、SLS(Service Layer Signaling)が規定されている。LLSは、SLSに先行して取得されるシグナリングであって、LLSに含まれる情報に従い、サービスごとのSLSが取得される。LLSとしては、例えば、SLT(Service List Table)等のメタデータが含まれる。SLTメタデータは、サービスの選局に必要な情報など、放送ネットワークにおけるストリームやサービスの構成を示す基本情報を含む。
PLP#1は、例えば、Service#1として提供される「4K」のストリームを含んでいる。「4K」のストリームは、映像信号(Video Segments)、音声信号(Audio Segments)、及びSLS(Service Signaling)を含み、SLTメタデータに含まれるIPアドレスやポート番号、PLP ID等により特定される。
SLSは、サービス単位のシグナリングである。SLSは、USBD(User Service Bundle Description),S-TSID(Service-based Transport Session Instance Description),MPD(Media Presentation Description)等のメタデータを含む。
USBDメタデータは、他のメタデータの取得先などの情報を含む。
S-TSIDメタデータは、LSID(LCT Session Instance Description)をATSC3.0向けに拡張したものであって、ROUTEプロトコルの制御情報である。また、S-TSIDメタデータは、ROUTEセッションで伝送されるEFDT(Extended FDT)を特定することができる。EFDTは、FLUTEで導入されていたFDT(File Delivery Table)を拡張したものであって、転送用の制御情報である。
MPDメタデータは、上述したように、MPEG-DASHに準拠したストリーミング配信を行うために用いられる、映像や音声のファイルの制御情報である。ここで、MPEG-DASHは、OTT-V(Over The Top Video)に従ったストリーミング配信規格であって、HTTP(Hypertext Transfer Protocol)をベースとしたストリーミングプロトコルを用いたアダプティブストリーミング配信に関する規格である。
このMPEG-DASHの規格では、映像や音声のファイルの制御情報であるメタデータを記述するためのマニフェストファイルと、動画のコンテンツを伝送するためのファイルフォーマットが規定されている。ここでは、前者のマニフェストファイルが、MPD(Media Presentation Description)と称され、後者のファイルフォーマットは、セグメントフォーマットとも称される。
また、トランスポート・プロトコルとして、ROUTEを用いる場合には、ストリーミングのファイルフォーマットとして、MP4ファイルフォーマットを用いることが想定される。MP4ファイルフォーマットは、ISO/IEC 14496-12で規定されているISOベースメディアファイルフォーマット(ISOBMFF:ISO Base Media File Format)の派生フォーマットである。
受信装置20においては、選局時に、あらかじめ取得されたSLTメタデータに従い、選局対象のサービス(Service#1)のIPアドレスやポート番号、PLP IDから、再生対象のストリームを特定する。また、受信装置20においては、再生対象のストリームについて、ROUTEセッションのLCTチャネルのうち、SLSチャネルで伝送されるMPDメタデータやS-TSIDメタデータが解析され、その解析結果に従い、AV(Audio Video)チャネルで伝送される映像と音声のストリーム(セグメントファイル)が取得される。これにより、受信装置20では、Service#1として提供される4Kの映像と音声が再生される。
なお、ATSC3.0では、トランスポート・プロトコルとして、ROUTEとともに、MMT(MPEG Media Transport)を用いることも想定されている。図11の例では、PLP#2で、Service#2として提供されるサービスが、MMT方式に対応している。
以上のように、物理層フレーム単位での制御では、物理層フレームのプリアンブルに、L1シグナリングとして、映像の境界(RAP)を示す映像境界情報を含めることで、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。これにより、受信装置20では、放送信号の切り替え時に、シームレスに再生を行うことができる。
なお、上述した物理層フレーム単位での制御の説明では、例えばATSC3.0など、複数の放送信号の多重化の方式として、時分割多重化方式(TDM:Time Division Multiplexing)が採用されている場合を説明したが、周波数分割多重化方式(FDM:Frequency Division Multiplexing)についても同様に行うことができる。
すなわち、周波数分割多重化方式(FDM)を採用した場合には、所定の周波数帯域(例えば6MHz)が、複数のセグメントに周波数分割され、1又は複数のセグメントごとの帯域を利用した階層伝送が行われる。この場合に、周波数分割で得られる、1又は複数のセグメントの周波数帯域からなる階層ごとに、例えば、「4K」、「HD」、「音声」など、同一の又は対応する内容のコンテンツを伝送することができる。
そして、このような周波数分割多重化方式(FDM)を採用した場合でも、物理層フレームのシグナリングとして、映像の境界(RAP)を示す情報である映像境界情報を含めることで、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。
例えば、ISDB-Tでは、周波数分割多重化方式(FDM)が採用され、1チャネルの周波数帯域(6MHz)が、13セグメントに周波数分割され、中心の1セグメントの周波数帯域を用いて、モバイル受信機向けのワンセグ放送の放送信号が伝送され、残りの12セグメントの周波数帯域を用いて、固定受信機向けの放送の放送信号が伝送される。この場合においても、映像の境界(RAP)を示す情報である映像境界情報を用いることで、例えば、モバイル受信機において、受信環境に応じて、フルセグ放送の放送信号と、ワンセグ放送の放送信号とを切り替える際に、映像や音声の乱れが生じることなく、シームレスに再生を行うことができる。
(2-1)BBパケット単位での制御(TDM)
ところで、上述の物理層フレーム単位での制御では、映像の境界の周期(例えばGOP周期)と、物理層フレームの周期の整数倍とが等しくなる関係を有することを前提に、プリアンブルのL1シグナリングに、映像境界情報を含めた。しかしながら、映像の境界の周期と、物理層フレームの周期の整数倍とが異なる場合には、物理層フレーム単位での制御を行うことはできない。そこで、次に、映像の境界の周期が、物理層フレームの周期の整数倍とはならない場合の制御方法について説明する。
ただし、複数の放送信号の多重化の方式として、時分割多重化方式(TDM)と周波数分割多重化方式(FDM)があるのは先に述べた通りであるが、ここでは、まず、図12乃至図17を参照して、時分割多重化方式(TDM)を採用した場合の制御方法を説明してから、図18乃至図19を参照して、周波数分割多重化方式(FDM)を採用した場合の制御方法についても説明する。
(物理層フレームと映像信号との関係)
図12は、受信信号の品質に応じた放送信号の切り替えを、復調後のベースバンドのパケットであるBBパケット単位で行う場合における、物理層フレームと映像信号との関係を示す図である。
図12においては、3種類の放送信号を送信するために、「4K」の映像信号と音声信号、「HD」の映像信号と音声信号、及び「音声」の音声信号のストリームがそれぞれ用意されている。つまり、これらのストリームは、同一の又は対応する内容のコンテンツのストリームである。これらのストリームにおいて、図中の矢印P1,P2が示す位置が、GOP周期における先頭の位置(Iピクチャの位置)など、映像の境界(図中の「RAP」)となる。
すなわち、PLP#1で伝送される「4K」のストリームは、矢印P1,P2が示す映像の境界(RAP)ごとに、異なるGOP周期となるので、例えば、データ4K-1と、データ4K-2と、データ4K-3は、異なるGOP周期用のデータとなる。同様に、PLP#2で伝送される「HD」のストリームにおいて、データHD-1と、データHD-2と、データHD-3は、異なるGOP周期用のデータとなる。
ここで、図12の例では、「4K」のストリームにおいて、データ4K-2は、時間軸に沿って分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれるが、GOP周期と、物理層フレームの周期の整数倍とが一致しないため、物理層フレームF-1のデータ4K-12には、PLP#1のデータとして、データ4K-2のほかに、データ4K-1の一部のデータが含まれる。
また、物理層フレームF-2のデータ4K-22には、PLP#1のデータとして、データ4K-2のデータのみが含まれる。さらに、物理層フレームF-3のデータ4K-23には、PLP#1のデータとして、データ4K-2のほかに、データ4K-3の一部のデータが含まれる。
「HD」のストリームにおいて、データHD-2は、時間軸に沿って分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれるが、GOP周期と、物理層フレームの周期の整数倍とが一致しないため、物理層フレームF-1のデータHD-12には、PLP#2のデータとして、データHD-2のほかに、データHD-1の一部のデータが含まれる。
また、物理層フレームF-2のデータHD-22には、PLP#2のデータとして、データHD-2のデータのみが含まれる。さらに、物理層フレームF-3のデータHD-23には、PLP#2のデータとして、データHD-2のほかに、データHD-3の一部のデータが含まれる。
「音声」のストリームにおいて、データA-2は、時間軸に沿って分けられ、物理層フレームF-1乃至F-3のデータ部にそれぞれ含まれるが、GOP周期と、物理層フレームの周期の整数倍とが一致しないため、物理層フレームF-1のデータA-12には、PLP#3のデータとして、データA-2のほかに、データA-1の一部のデータが含まれる。
また、物理層フレームF-2のデータA-22には、PLP#3のデータとして、データA-2のデータのみが含まれる。さらに、物理層フレームF-3のデータA-23には、PLP#3のデータとして、データA-2のほかに、データA-3の一部のデータが含まれる。
このように、図12の例では、映像の境界の周期(GOP周期)と、物理層フレームの周期の整数倍とが一致しない関係を有している。この場合、上述の物理層フレーム単位での制御を行っても、物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られる映像の境界(GOP構造の境界)とを一致させることはできない。
そこで、ここでは、物理層フレーム単位よりもさらに細かい単位であるBBパケット単位での制御を行うことで、映像の境界の周期(GOP周期)と、物理層フレームの周期の整数倍とが一致しない場合でも、物理層で処理される信号の切り替えのタイミングと、その上位層で処理される信号から得られる映像の境界(GOP構造の境界)とを一致させることができるようにする。
(BBパケットと映像信号との関係)
図13は、受信信号の品質に応じた放送信号の切り替えを、復調後のベースバンドのパケットであるBBパケット単位で行う場合における、BBパケットと映像信号との関係を示す図である。
図13において、上段の物理層フレームF-1乃至F-3は、図12に示した物理層フレームF-1乃至F-3に対応している。
すなわち、物理層フレームF-1のデータ4K-12には、PLP#1のデータとして、「4K」のストリームにおける、データ4K-1とデータ4K-2のデータが含まれる。また、物理層フレームF-1において、データHD-12には、PLP#2のデータとして、「HD」のストリームのデータHD-1とデータHD-2のデータが含まれ、データA-12には、PLP#3のデータとして、「音声」のストリームのデータA-1とA-2のデータが含まれる。
物理層フレームF-2や物理層フレームF-3など、物理層フレームF-1以降の物理層フレームについても同様に、「4K」、「HD」、及び「音声」のストリームのデータが、同一のGOP周期内のデータ又はGOP周期を跨いだデータとして含まれている。
ここで、物理層フレームF-1に注目すれば、そのデータ部に含まれるデータ4K-12は、BBパケット4K-12-1、BBパケット4K-12-2、及びBBパケット4K-12-3に対応している。つまり、上述の図8に示したように、BBパケットは、レイヤ1(物理層)のパケットであって、物理層フレームのデータ部を処理することで得られる1又は複数のパケット(復調後のベースバンドのパケット)である。したがって、物理層での処理において、BBパケット単位での制御を行うことで、物理層フレーム単位での制御を行う場合よりもさらに細かい単位で、映像の境界の周期(GOP周期)とのタイミングを合わせることが可能となる。
同様に、物理層フレームF-1のデータ部に含まれる、データHD-12は、BBパケットHD-12-1乃至HD-12-3に対応し、データA-12は、BBパケットA-12-1乃至A-12-3に対応している。そのため、物理層での処理において、BBパケット単位での制御を行うことで、映像の境界の周期(GOP周期)と、物理層フレームの周期の整数倍とが一致しない場合でも、映像の境界の周期(GOP周期)とのタイミングを合わせることが可能となる。
また、物理層フレームF-1のデータ部に含まれる複数のBBパケットのうち、データ4K-12のBBパケット4K-12-1に注目すれば、BBパケット4K-12-1は、BBPヘッダとペイロードから構成される。BBPヘッダには、ヘッダ(Header)のほか、オプショナルフィールド(Optional Field)と、拡張フィールド(Extension Field)を配置することができる。そして、このBBPヘッダに、映像の境界(RAP)を示す映像境界情報が含まれるようにすることで、当該BBPヘッダが付加されたBBパケットが、映像の境界(RAP)に対応するデータを含むことを示すことができる。
例えば、物理層フレームF-1のデータ部に含まれるデータ4K-12が、BBパケット4K-12-1乃至4K-12-3に対応する場合に、「4K」のストリーム(図12)のデータのうち、データ4K-1のデータが、BBパケット4K-12-1に格納され、データ4K-2のデータが、BBパケット4K-12-2と、BBパケット4K-12-3に格納されている場合を想定する。
この場合、BBパケット4K-12-2に格納されたデータ4K-2のデータが、GOP周期の先頭(Iピクチャ)等の映像の境界(RAP)に対応するデータに相当するので、このBBパケット4K-12-2のヘッダに、映像境界情報が含まれるようにすることで、当該BBパケット4K-12-2が、映像の境界(RAP)に対応するデータを含むことを示すことができる。
これにより、受信装置20では、受信信号の品質に応じて放送信号を切り替える場合に、例えば、映像境界情報が含まれるBBパケット4K-12-2を処理することで、その切り替えのタイミングが、上位層で処理されるデータ4K-2やデータHD-2の映像の境界(RAP)と一致することになる(図中の矢印P1が示す位置)。その結果、受信装置20において、例えば、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
また、BBパケットのヘッダに含まれる映像境界情報を用いることで、例えば、1系統の回路(復調部212とフィルタ213)のみを動作させるだけで、シームレス再生が可能となるので、回路を最小限動作させて、低消費電力を実現することができる。例えば、復調LSIは、回路規模が大きく、消費電力が大きいので、1系統の回路のみの最小限の動作とすることでの低消費電力の効果は非常に大きなものとなる。
なお、上述したように、ATSC3.0では、トランスポート・プロトコルとして、ROUTEを用いる場合には、MPEG-DASHに準拠したストリーミング配信が行われることになるが、MPEG-DASHでは、映像や音声のストリームが、セグメントファイルとして伝送される。そして、セグメントファイルは、その先頭に、RAPを含んでいるので、図12の例で、映像の境界(RAP)は、セグメントファイルの先頭に相当し、セグメントファイル単位での切り替えを行うことで、シームレス再生が行われるとも言える。
(映像境界情報をBBパケット拡張ヘッダに配置)
次に、図14乃至図17を参照して、映像境界情報を、BBパケット拡張ヘッダに配置する場合の例を説明する。
図14は、BBパケット(Baseband Packet)の構成を示している。図14において、BBパケットは、BBPヘッダとペイロード(Payload)から構成される。BBPヘッダには、1又は2バイトのヘッダ(Header)のほか、オプショナルフィールド(Optional Field)と、拡張フィールド(Extension Field)を配置することができる。
すなわち、ヘッダ(Header)において、1ビットのモード(MODE)として、"0"が設定された場合には、7ビットのポインタ情報(Pointer(LSB))が配置される。なお、ポインタ情報は、BBパケットのペイロードに配置されるGenericパケットの位置を示すための情報である。例えば、あるBBパケットに最後に配置されたGenericパケットのデータが、次のBBパケットに跨がって配置される場合に、ポインタ情報として、次のBBパケットの先頭に配置されるGenericパケットの位置情報を設定することができる。
また、モード(MODE)として、"1"が設定された場合には、7ビットのポインタ情報(Pointer(LSB))の他に、6ビットのポインタ情報(Pointer(MSB))と、2ビットのオプショナルフラグ(OPTI:OPTIONAL)が配置される。オプショナルフラグは、オプショナルフィールド(Optional Field)と、拡張フィールド(Extension Field)を配置して、ヘッダを拡張するかどうかを示す情報である。
すなわち、図15に示すように、オプショナルフィールドと拡張フィールドの拡張を行わない場合、オプショナルフラグには、"00"が設定される。また、1バイトのオプショナルフィールドと、拡張フィールドの拡張を行う場合、オプショナルフラグには、"01"が設定され、ショート拡張モードとなる(図中の枠A)。一方で、2バイトのオプショナルフィールドと、拡張フィールドの拡張を行う場合、オプショナルフラグは、"10"又は"11"が設定され、ロング拡張モード又はミックス拡張モードとなる(図中の枠B)。
オプショナルフィールドの先頭には、3ビットの拡張タイプ情報(EXT_TYPE)が設定される。このタイプ情報は、図16に示すように、拡張フィールドのタイプ(Extension type)に関する情報が設定される。
すなわち、拡張フィールドに、拡張レングス情報(EXT_Length(LSB))のカウンタを配置する場合、拡張タイプ情報には、"000"が設定される。また、拡張フィールドに、映像境界情報を配置する場合、拡張タイプ情報には、"001"が設定される。この映像境界情報には、RAP,AdaptationSet,Sequence Numberが含まれる。
図17には、BBパケットのヘッダに含まれる、映像境界情報のシンタックスの例を示している。
1ビットのRAPは、該当のBBパケットに、映像の境界(RAP)が含まれていることを示すフラグである。例えば、RAPとして、"0"が設定された場合、該当のBBパケットに、映像の境界(RAP)が含まれていないことを示す。
一方で、RAPとして、"1"が設定された場合、該当のBBパケットに、映像の境界(RAP)が含まれていることを示す。すなわち、この場合、該当のBBパケットのペイロードには、例えば、GOP周期における先頭の位置に配置されるIピクチャのデータが含まれることになる。
8ビットのAdaptationSetは、映像の境界(RAP)を含むAdaptationSetが指定される。上述したように、AdaptationSetは、MPEG-DASHに準拠したストリーミング配信を行うために用いられる、MPDメタデータに記述されるAdaptationSet要素に対応している。AdaptationSetにより、映像の境界(RAP)が含まれるストリームを特定することができる。
15ビットのSequence Numberは、BBパケットのシーケンス番号が指定される。このシーケンス番号は、映像の境界(RAP)の有無に関わらず、BBパケットごとに1ずつ加算される。なお、シーケンス番号を用いることで、例えば、異なるPLPの間で、対応するBBパケットを識別することが可能となる。
図16の説明に戻り、拡張フィールドに、プライベートユーザデータを配置する場合、拡張タイプ情報には、"110"が設定される。さらに、拡張フィールドをパディング(Padding)する場合、拡張タイプ情報には、"111"が設定される。なお、図16において、"010"~"101"の拡張タイプ情報は、将来の拡張用の領域(Reserved)となっている。
以上のように、時分割多重化方式(TDM)を採用した場合のBBパケット単位での制御では、BBパケットのヘッダに、映像の境界(RAP)を示す映像境界情報を含めることで、受信装置20では、この映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。これにより、受信装置20では、放送信号の切り替え時に、シームレスに再生を行うことができる。
(2-2)階層単位での制御(FDM)
次に、映像の境界の周期(GOP周期)が、物理層フレームの周期の整数倍と一致しない場合の制御方法として、複数の放送信号の多重化の方式に、周波数分割多重化方式(FDM)を採用した場合の制御方法について説明する。
(階層と映像信号との関係)
図18は、受信信号の品質に応じた放送信号の切り替えを、階層伝送を行う際の階層単位で行う場合における、階層と映像信号との関係を示す図である。
ここで、周波数分割多重化方式(FDM)を採用した場合には、所定の周波数帯域(例えば6MHz)が、複数のセグメントに周波数分割され、1又は複数のセグメントごとの帯域を利用した階層伝送を行うことができる。例えば、ISDB-Tでは、1チャネルの周波数帯域(6MHz)が、13セグメントに周波数分割され、中心の1セグメントの周波数帯域を用いて、モバイル受信機向けのワンセグ放送の放送信号が伝送され、残りの12セグメントの周波数帯域を用いて、固定受信機向けの放送の放送信号が伝送される。
図18の上段には、横方向を時間とし、縦方向を周波数としたときの、伝送システム1(図1)での階層伝送を行う際の各階層の構成を示している。図18の例では、周波数分割で得られる1又は複数のセグメントの周波数帯域を用いて、階層1、階層2、及び階層3の3つの階層が構成されている。
また、図18の下段には、上述の図7等と同様に、映像信号の構成を示しているが、「4K」の映像信号と音声信号のストリームが、階層1で伝送される。さらに、「HD」の映像信号と音声信号のストリームが、階層2で伝送され、「音声」の音声信号のストリームが、階層3で伝送されることになる。したがって、例えば、階層3よりも階層2のほうが、セグメント数が多い構成となり、階層2よりも階層1のほうが、セグメント数が多い構成となる。
ここで、「4K」、「HD」、及び「音声」の各ストリームにおいては、図中の矢印P1,P2が示す位置が、GOP周期における先頭の位置(Iピクチャの位置)等の映像の境界(RAP)となるが、階層ごとに、当該映像の境界(RAP)を示す映像境界情報が含まれるようにすることで、映像の境界(RAP)を特定することが可能となる。
これにより、受信装置20では、受信信号の品質に応じて放送信号を切り替える場合に、階層ごとに伝送される映像境界情報を処理(検出)することで、その切り替えのタイミングが、上位層で処理されるデータ4K-2やデータHD-2のGOP構造の境界(RAP)と一致することになる(図中の矢印P1が示す位置)。その結果、受信装置20において、例えば、階層1で伝送される「4K」の放送信号から、階層2で伝送される「HD」の放送信号に切り替えたり、あるいは階層2で伝送される「HD」の放送信号から、階層1で伝送される「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
(映像境界情報を放送に関する付加情報に配置)
次に、図19を参照して、映像境界情報を、放送に関する付加情報(AC)に配置する場合の例を説明する。
図19には、横方向をキャリア番号とし、縦方向をOFDMシンボル番号としたときのOFDMセグメントの構成を示している。ここで、OFDM(Orthogonal Frequency Division Multiplexing)(直交周波数分割多重)では、伝送帯域内に多数の直交するサブキャリア(副搬送波)が設けられ、デジタル変調が行われる。
図19のOFDMセグメントには、TMCCとACが含まれている。TMCC(Transmission Multiplexing Configuration Control)は、複数の伝送パラメータが混在する階層伝送において、受信装置20における復調処理や復号処理などを行うための伝送制御情報である。また、AC(Auxiliary Channel)は、放送に関する付加情報である。AC1は、すべてのセグメントに同一数存在している。例えば、この付加情報(AC(AC1))に、映像境界情報を含めることができる。
図19には、放送に関する付加情報(AC)に含まれる、映像境界情報のシンタックスの例が示されている。
1ビットのRAPは、該当のセグメントに、映像の境界(RAP)が含まれていることを示すフラグである。例えば、RAPとして、"1"が設定された場合、該当のセグメントに、映像の境界(RAP)が含まれていることを示す。
8ビットのAdaptationSetは、映像の境界(RAP)を含むAdaptationSetが指定される。AdaptationSetにより、映像の境界(RAP)が含まれるストリームを特定することができる。15ビットのSequence Numberは、シーケンス番号が指定される。
以上のように、周波数分割多重化方式(FDM)を採用した場合の階層単位(セグメント単位)での制御では、セグメント単位での指定が可能となる付加情報(AC)に、映像の境界(RAP)を示す映像境界情報が含まれるようにする。受信装置20では、この付加情報(AC)に含まれる映像境界情報に基づいて、対象の放送信号を切り替えることで、その切り替えのタイミングを、上位層で処理される信号から得られる映像の境界(RAP)と一致させることができる。これにより、受信装置20では、放送信号の切り替え時に、シームレスに再生を行うことができる。
なお、映像境界情報は、放送に関する付加情報(AC)に限らず、例えば、伝送制御情報(TMCC)などの他の制御情報に含めるようにしてもよい。
(3)受信信号の品質等に応じた復号対象の選択制御
次に、図20を参照して、映像境界情報を用いないケースを説明する。図20は、受信信号の品質等に応じた復号対象の選択制御を説明するための図である。
図20において、受信装置20は、チューナ211、復調部212-1乃至212-3、フィルタ213-1乃至213-3、選択部220、及び復号部214から構成されている。ただし、図20の受信装置20の構成例では、制御部210及び出力部215の記載を省略しているが、選択部220は、制御部210の機能の一部である。
チューナ211は、制御部210からの制御に従い、アンテナ221を介して受信される所定の周波数帯域の放送信号を処理し、その結果得られる受信信号を、復調部212-1乃至212-3に供給する。
ここで、送信装置10から送信される放送信号として、例えば、「4K」、「HD」、及び「音声」の放送信号が受信された場合には、「4K」の受信信号が、復調部212-1に供給され、「HD」の受信信号が、復調部212-2に供給され、「音声」の受信信号が、復調部212-3に供給される。
復調部212-1は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる「4K」のストリームをフィルタ213-1に供給する。フィルタ213-1は、制御部210からの制御に従い、復調部212-1からの「4K」のストリームを処理する。これにより、「4K」の映像信号や音声信号が得られる。
復調部212-2は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる「HD」のストリームをフィルタ213-2に供給する。フィルタ213-2は、制御部210からの制御に従い、復調部212-2からの「HD」のストリームを処理する。これにより、「HD」の映像信号や音声信号が得られる。
復調部212-3は、制御部210からの制御に従い、チューナ211から供給される受信信号に対し、復調処理を行い、その結果得られる「音声」のストリームをフィルタ213-3に供給する。フィルタ213-3は、制御部210からの制御に従い、復調部212-3からの「音声」のストリームを処理する。これにより、「音声」の音声信号が得られる。
このとき、制御部210には、チューナ211の処理で得られる処理結果と、復調部212-1乃至212-3の処理で得られる処理結果が供給される。制御部210は、チューナ211及び復調部212からの処理結果の少なくとも一方に基づいて、復号対象の信号を選択する。
すなわち、制御部210は、処理結果として、例えば、C/N比等の受信信号の品質を示す情報や、復調処理で得られる信号のエラーレートなどが得られるので、それらの情報に基づいて、復号対象の信号を選択することができる。制御部210は、復号対象の信号の選択結果に基づいて、選択部220を制御して、選択対象の信号が、復号部214に供給されるようにする。
制御部210は、復号対象の信号として、「4K」の信号が選択された場合、フィルタ213-1からの「4K」の映像信号や音声信号が、復号部214に供給されるようにする。復号部214は、フィルタ213-1から供給される「4K」の映像信号や音声信号を復号する。これにより、受信装置20では、4Kの映像と音声が再生される。
制御部210は、復号対象の信号として、「HD」の信号が選択された場合、フィルタ213-2からの「HD」の映像信号や音声信号が、復号部214に供給されるようにする。復号部214は、フィルタ213-2から供給される「HD」の映像信号や音声信号を復号する。これにより、受信装置20では、HDの映像と音声が再生される。
制御部210は、復号対象の信号として、「音声」の信号が選択された場合、フィルタ213-3からの「音声」の音声信号が、復号部214に供給されるようにする。復号部214は、フィルタ213-3から供給される「音声」の音声信号を復号する。これにより、受信装置20では、音声のみが再生される。
ここで、制御部210は、復号対象の信号を切り替える場合に、フィルタ213-1乃至213-3の処理で得られるセグメントファイルに関する情報(例えば、テンプレートやISOBMFFのタイムスタンプなど)に基づいて、MPDメタデータのAdaptationSet要素内に記述されるストリームを切り替えることで、映像や音声の乱れが発生することなく、ストリームを切り替えることができる。
その結果、受信装置20において、例えば、図20の下段に示すように、受信信号の品質に応じて、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。なお、ここで説明したセグメントファイルに関する情報と、MPDメタデータを用いてストリームを切り替える制御方法は一例であり、シームレス再生が可能であれば、他の制御方法を用いるようにしてもよい。
なお、図20の例では、復調部212とフィルタ213が、複数系統(3系統)設けられる場合の構成を例示したが、復調部212とフィルタ213が時分割で動作することで、1系統又はより少ない系統の復調部212とフィルタ213により同等の処理を行うことが可能である。
<4.シームレス再生処理の流れ>
次に、図21及び図22のフローチャートを参照して、図1の伝送システムで実現されるシームレス再生処理の流れを説明する。
(第1のシームレス再生処理)
まず、図21のフローチャートを参照して、第1のシームレス再生処理の流れを説明する。
この第1のシームレス再生処理は、映像境界情報を用いるケースに対応している。なお、図21において、ステップS111乃至S113の処理は、図1の送信装置10により実行される送信側の処理である。また、ステップS211乃至S220の処理は、図1の受信装置20により実行される受信側の処理である。
ステップS111において、シグナリング処理部112は、処理対象のストリームに応じて、映像の境界(RAP)を示す映像境界情報を生成する。
ステップS112において、変調部114は、処理部113により生成される多重化ストリームを処理し、物理層フレームを生成する。ただし、多重化ストリームには、例えば、「4K」、「HD」、及び「音声」のストリームなど、同一の又は対応する内容のコンテンツのストリームが含まれている。
また、変調部114は、処理対象のストリームに応じて、物理層フレーム単位、BBパケット単位、又は階層単位のいずれかの単位で、各コンテンツの映像の境界(RAP)を示す映像境界情報が含まれるように処理を行う。
すなわち、物理層フレーム単位での制御が行われる場合、物理層フレームのプリアンブルに含まれるL1シグナリングに、映像境界情報が含められる。また、BBパケット単位での制御が行われる場合、BBパケットのヘッダに、映像境界情報が含められる。さらに、階層単位(セグメント単位)での制御が行われる場合、放送に関する付加情報(AC)に、映像境界情報が含められる。
ステップS112の処理で生成された物理層フレームは、放送信号として、伝送路30を介して送信される(S113)。ただし、ここでは、説明の都合上、例えば、「4K」、「HD」、及び「音声」のストリームなど、同一の又は対応する内容のコンテンツのストリームが、ストリームごとに、複数の放送信号として送信されるとして表現する。
ステップS211において、チューナ211は、制御部210からの制御に従い、アンテナ221を介して、送信装置10から送信されてくる放送信号を受信する。
ステップS212において、制御部210は、ステップS211の処理で受信された放送信号(受信信号)の品質が変化したかどうかを判定する。ここでは、例えば、受信信号から得られるC/N比を、所定の閾値と比較することで、受信信号の品質を判定することができる。
ステップS212において、受信信号の品質が変化していないと判定された場合、処理は、ステップS213に進められる。ステップS213において、復調部212は、ステップS211の処理で受信された放送信号から得られる物理層フレームを処理する。物理層フレームから得られるデータは、フィルタ213により処理され、映像信号や音声信号が得られる。
ステップS214において、復号部214は、ステップS213の処理で得られる映像信号や音声信号を復号する。復号部214により復号された映像や音声のデータは、出力部215により出力され、例えば、HDの映像と音声が再生されることになる。
ステップS215においては、処理を終了するかどうかが判定される。ステップS215において、処理を終了しないと判定された場合、処理は、ステップS211に戻される。そして、ステップS212の判定処理で、受信信号の品質が変化したと判定されるまで、ステップS211乃至S215の処理が繰り返され、例えば、HDの映像と音声の再生が継続される。
その後、ステップS212において、受信信号の品質が変化したと判定された場合、処理は、ステップS216に進められる。ステップS216において、復調部212は、放送信号から得られる物理層フレームを処理する。
ステップS217において、復調部212は、制御部210からの制御に従い、ステップS216の処理で得られる、物理層で処理される信号に基づいて、映像境界情報の検出を行う。
すなわち、ここでは、物理層フレーム単位での制御が行われる場合、物理層フレームのプリアンブルに含まれるL1シグナリングから、映像境界情報が検出される。また、BBパケット単位での制御が行われる場合、BBパケットのヘッダから、映像境界情報が検出される。さらに、階層単位(セグメント単位)での制御が行われる場合、放送に関する付加情報(AC)から、映像境界情報が検出される。
ステップS218において、制御部210は、ステップS217の処理で得られる検出結果に基づいて、物理層で処理される信号から、映像境界情報が検出されたかどうかを判定する。
ステップS218において、映像境界情報が検出されていないと判定された場合、処理は、ステップS219に進められる。ステップS219において、復号部214は、ステップS216の処理で得られる映像信号や音声信号を復号する。復号部214により復号された映像や音声のデータは、出力部215により出力され、例えば、HDの映像と音声の再生が継続される。
ステップS219の処理が終了すると、処理は、ステップS216に戻される。そして、ステップS218の判定処理で、映像境界情報が検出されたと判定されるまで、ステップS216乃至S219の処理が繰り返され、例えば、HDの映像と音声の再生が継続される。
そして、ステップS218において、映像境界情報が検出されたと判定された場合、処理は、ステップS220に進められる。ステップS220において、制御部210は、チューナ211又は復調部212を制御して、送信装置10から受信する放送信号を切り替える。ここでは、例えば、受信信号の品質の変化に応じて、「HD」の放送信号から、「4K」の放送信号に切り替えられる。
ステップS220の処理で、放送信号が切り替えられると、処理は、ステップS213に進められる。ステップS213乃至S214においては、切り替え後の放送信号から得られる物理層フレームが処理され、映像信号や音声信号が復号されることで、例えば、4Kの映像と音声が再生され、同一のコンテンツの映像が、HD解像度の映像から、4K解像度の映像に切り替わる。
ここでは、ステップS218の判定処理によって、ステップS220の処理による、物理層で処理される信号の切り替えのタイミングと、ステップS214で処理される映像の境界(RAP)とが一致している。そのため、例えば、C/N比が高くなって、受信信号の品質が良くなったときに、HD解像度の映像から、4K解像度の映像に切り替えるに際し、映像や音声の乱れが生じることはなく、スムーズに再生が行われる。
なお、ステップS215の判定処理で、処理を終了すると判定されるまで、上述した処理が繰り返される。そして、ステップS215において、処理を終了すると判定された場合、図21の第1のシームレス再生処理は終了される。
以上、第1のシームレス再生処理の流れを説明した。
(第2のシームレス再生処理)
次に、図22のフローチャートを参照して、第2のシームレス再生処理の流れを説明する。
この第2のシームレス再生処理は、映像境界情報を用いないケースに対応している。なお、図22において、ステップS131乃至S132の処理は、図1の送信装置10により実行される送信側の処理である。また、ステップS231乃至S235の処理は、図1の受信装置20により実行される受信側の処理である。
ステップS131において、処理部113により生成される多重化ストリームを処理し、物理層フレームを生成する。ただし、多重化ストリームには、例えば、「4K」、「HD」、及び「音声」のストリームなど、同一の又は対応する内容のコンテンツのストリームが含まれている。
ステップS131の処理で生成された物理層フレームは、放送信号として、伝送路30を介して送信される(S132)。
ステップS231において、チューナ211は、制御部210からの制御に従い、アンテナ221を介して、送信装置10から送信されてくる放送信号を受信する。
ステップS232において、復調部212-1乃至212-3は、ステップS231の処理で受信された放送信号から得られる物理層フレームを処理する。物理層フレームから得られる信号は、フィルタ213-1乃至213-3により処理され、映像信号や音声信号が得られる。
ここでは、例えば、復調部212-1とフィルタ213-1により、「4K」の信号が処理される。また、例えば、復調部212-2とフィルタ213-2により、「HD」の信号が処理される、復調部212-3とフィルタ213-3により、「音声」の信号が処理される。
ステップS233において、制御部210は、例えば、C/N比等の受信信号の品質を示す情報や、復調処理で得られる信号のエラーレート等の情報に基づいて、フィルタ213-1乃至213-3から出力される信号の中から、復号対象の信号を選択する。
ステップS234において、復号部214は、ステップS233の処理で得られる復号対象の選択結果に基づいて、フィルタ213-1乃至213-3から出力される信号のいずれかの信号を復号する。
ここでは、例えば、復号対象の信号として、「4K」の信号が選択された場合、フィルタ213-1からの「4K」の映像信号や音声信号が復号される。これにより、受信装置20では、4Kの映像と音声が再生される。
また、例えば、復号対象の信号として、「HD」の信号が選択された場合、フィルタ213-2からの「HD」の映像信号や音声信号が復号される。これにより、受信装置20では、HDの映像と音声が再生される。また、例えば、復号対象の信号として、「音声」の信号が選択された場合、フィルタ213-3からの「音声」の音声信号が復号される。これにより、受信装置20では、音声のみが再生される。
ステップS235においては、処理を終了するかどうかが判定される。ステップS235において、処理を終了しないと判定された場合、処理は、ステップS231に戻り、ステップS231乃至S235の処理が繰り返される。
ステップS231乃至S235が繰り返されることで、ステップS233の処理で選択された復号対象の信号が復号されることになるが、復号対象の信号を切り替える場合には、制御部210が、フィルタ213-1乃至213-3の処理で得られるセグメントファイルに関する情報(例えば、テンプレートやISOBMFFのタイムスタンプなど)に基づいて、MPDメタデータのAdaptationSet要素内に記述されるストリームを切り替えることで、映像や音声の乱れが発生することなく、ストリームを切り替えることができる。
例えば、受信装置20においては、受信信号の品質等に応じて、「4K」の放送信号から「HD」の放送信号に切り替えたり、あるいは「HD」の放送信号から「4K」の放送信号に切り替えたりするときに、シームレスに再生を行うことができる。
なお、ステップS235の判定処理で、処理を終了すると判定された場合、図22の第2のシームレス再生処理は終了される。
以上、第2のシームレス再生処理の流れを説明した。
<5.変形例>
上述した説明としては、デジタルテレビ放送の規格として、日本等が採用する方式であるISDB(特に、ISDB-T)と、米国等で採用されている方式であるATSC(特に、ATSC3.0)を中心に説明したが、欧州の各国等が採用する方式であるDVB(Digital Video Broadcasting)などに適用するようにしてもよい。また、上述した説明では、IP伝送方式が採用されるATSC3.0を例にして説明したが、IP伝送方式に限らず、例えば、MPEG2-TS(Transport Stream)方式等の他の方式に適用するようにしてもよい。
また、デジタルテレビ放送の規格としては、地上波放送のほか、放送衛星(BS:Broadcasting Satellite)や通信衛星(CS:Communications Satellite)等を利用した衛星放送や、ケーブルテレビ(CATV)等の有線放送などの規格に適用することができる。
また、上述したシグナリングやパケットなどの名称は、一例であって、他の名称が用いられる場合がある。ただし、これらの名称の違いは、形式的な違いであって、対象のシグナリングやパケットなどの実質的な内容が異なるものではない。例えば、BBパケット(Baseband Packet)は、BBストリーム(Baseband Stream)などと称される場合がある。また、例えば、Genericパケットは、ALP(ATSC Link-layer Protocol)パケットなどと称される場合がある。また、フレームとパケットは、同じ意味で用いられる場合がある。
上述した説明では、コンテンツとして、放送番組を説明したが、それに限らず、例えば、動画や音楽のほか、例えば、電子書籍やゲーム、広告など、あらゆるコンテンツを含めることができる。また、放送番組に限らず、通信経由で配信されるコンテンツであってもよい。また、コンテンツを構成するコンポーネントの一部が、通信経由で配信されるようにしてもよい。
また、本技術は、伝送路として、放送網以外の伝送路、すなわち、例えば、インターネットや電話網等の通信回線(通信網)などを利用することを想定して規定されている所定の規格(デジタルテレビ放送の規格以外の規格)などにも適用することができる。その場合には、伝送システム1(図1)の伝送路30として、インターネットや電話網などの通信回線が利用され、送信装置10は、インターネット上に設けられたサーバとすることができる。そして、当該通信サーバと、受信装置20とが、伝送路30(通信回線)を介して双方向の通信を行うことになる。
<6.コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示す図である。
コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及び、ドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
以上のように構成されるコンピュータ1000では、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ1000では、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本技術は、以下のような構成をとることができる。
(1)
複数の放送信号を受信する受信部と、
前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する制御部と
を備える受信装置。
(2)
前記複数の放送信号は、同一の又は対応する内容のコンテンツをそれぞれ伝送しており、
前記制御部は、前記コンテンツの映像の境界を示す情報である映像境界情報に基づいて、対象の放送信号を切り替える
(1)に記載の受信装置。
(3)
前記複数の放送信号は、時分割多重化方式(TDM:Time Division Multiplexing)で伝送され、
前記映像境界情報は、復調後のベースバンドのパケットのヘッダに含まれる
(2)に記載の受信装置。
(4)
前記複数の放送信号は、周波数分割多重化方式(FDM:Frequency Division Multiplexing)で伝送され、
前記映像境界情報は、セグメント単位の付加情報に含まれる
(2)に記載の受信装置。
(5)
前記映像境界情報は、物理層フレームのプリアンブルに含まれる
(2)に記載の受信装置。
(6)
前記映像境界情報は、前記映像の境界を含むストリームを特定するための情報を含む
(2)乃至(5)のいずれかに記載の受信装置。
(7)
前記複数の放送信号を復調するための複数の復調部をさらに備え、
前記制御部は、前記複数の復調部の復調の結果に基づいて、対象の放送信号を切り替える
(1)に記載の受信装置。
(8)
前記映像境界情報は、GOP(Group of Pictures)の周期の先頭を示す情報である
(2)乃至(6)のいずれかに記載の受信装置。
(9)
前記複数の放送信号ごとに、ビットレートとロバスト性が異なる
(1)乃至(8)のいずれかに記載の受信装置。
(10)
受信装置のデータ処理方法において、
前記受信装置が、
複数の放送信号を受信し、
前記放送信号に対する処理の結果に基づいて、前記複数の放送信号の中から、対象の放送信号を選択する
ステップを含むデータ処理方法。
(11)
同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成する生成部と、
前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する送信部と
を備える送信装置。
(12)
前記複数の放送信号は、時分割多重化方式(TDM)で伝送され、
前記映像境界情報は、変調前のベースバンドのパケットのヘッダに含まれる
(11)に記載の送信装置。
(13)
前記複数の放送信号は、周波数分割多重化方式(FDM)で伝送され、
前記映像境界情報は、セグメント単位の付加情報に含まれる
(11)に記載の送信装置。
(14)
前記映像境界情報は、物理層フレームのプリアンブルに含まれる
(11)に記載の送信装置。
(15)
前記映像境界情報は、前記映像の境界を含むストリームを特定するための情報を含む
(11)乃至(14)のいずれかに記載の送信装置。
(16)
前記映像境界情報は、GOPの周期の先頭を示す情報である
(11)乃至(15)のいずれかに記載の送信装置。
(17)
前記複数の放送信号ごとに、ビットレートとロバスト性が異なる
(11)乃至(16)のいずれかに記載の送信装置。
(18)
送信装置のデータ処理方法において、
前記送信装置が、
同一の又は対応する内容のコンテンツの映像の境界を示す情報である映像境界情報を生成し、
前記映像境界情報を、前記コンテンツをそれぞれ伝送するための複数の放送信号に含めて送信する
ステップを含むデータ処理方法。
1 伝送システム, 10 送信装置, 20 受信装置, 30 伝送路, 111 コンポーネント処理部, 112 シグナリング処理部, 113 処理部, 114 変調部, 210 制御部, 211 チューナ, 212 復調部, 213 フィルタ, 214 復号部, 215 出力部, 1000 コンピュータ, 1001 CPU

Claims (9)

  1. 受信装置が、
    コンテンツを伝送する信号から、第1の層で伝送される情報であって前記第1の層と異なる第2の層で処理される前記コンテンツの映像の境界を示す情報である映像境界情報を検出し、
    前記信号の品質が変化した場合であって、前記信号から前記映像境界情報が検出されたとき、対象の信号を、第1の信号から、前記第1の信号と異なる第2の信号に切り替える
    受信方法。
  2. 前記信号から得られるC/N比(Carrier to Noise Ratio)に対する閾値判定により前記信号の品質が変化したと判定された場合に、前記信号から前記映像境界情報が検出されたとき、対象の信号を、前記第1の信号から前記第2の信号に切り替える
    請求項1に記載の受信方法。
  3. 前記コンテンツは、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)に準拠して配信され、
    前記映像境界情報は、MPD(Media Presentation Description)メタデータに記述されるAdaptationSet要素に対応した情報を含む
    請求項1に記載の受信方法。
  4. 前記信号は、時分割多重化方式(TDM:Time Division Multiplexing)で伝送され、
    前記映像境界情報は、復調後のベースバンドのパケットのヘッダに含まれる
    請求項1に記載の受信方法。
  5. 前記信号は、周波数分割多重化方式(FDM:Frequency Division Multiplexing)で伝送され、
    前記映像境界情報は、セグメント単位の付加情報に含まれる
    請求項1に記載の受信方法。
  6. 前記映像境界情報は、物理層フレームのプリアンブルに含まれる
    請求項1に記載の受信方法。
  7. 前記映像境界情報は、前記映像の境界を含むストリームを特定するための情報を含む
    請求項1に記載の受信方法。
  8. 前記映像境界情報は、GOP(Group of Pictures)の周期の先頭を示す情報である
    請求項1に記載の受信方法。
  9. 前記第1の信号と前記第2の信号は、ビットレートとロバスト性が異なる
    請求項1に記載の受信方法。
JP2023018499A 2016-06-30 2023-02-09 受信方法 Active JP7494338B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016130849 2016-06-30
JP2016130849 2016-06-30
PCT/JP2017/022247 WO2018003540A1 (ja) 2016-06-30 2017-06-16 受信装置、送信装置、及び、データ処理方法
JP2018525050A JP7011586B2 (ja) 2016-06-30 2017-06-16 受信装置
JP2022004340A JP7227407B2 (ja) 2016-06-30 2022-01-14 受信装置、及び送信装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022004340A Division JP7227407B2 (ja) 2016-06-30 2022-01-14 受信装置、及び送信装置

Publications (2)

Publication Number Publication Date
JP2023054060A true JP2023054060A (ja) 2023-04-13
JP7494338B2 JP7494338B2 (ja) 2024-06-03

Family

ID=

Also Published As

Publication number Publication date
US20190124397A1 (en) 2019-04-25
US11122331B2 (en) 2021-09-14
JP7227407B2 (ja) 2023-02-21
EP3481071A4 (en) 2019-05-08
EP3481071A1 (en) 2019-05-08
EP3481071B1 (en) 2022-07-27
JP7011586B2 (ja) 2022-01-26
WO2018003540A1 (ja) 2018-01-04
JPWO2018003540A1 (ja) 2019-04-18
JP2022044669A (ja) 2022-03-17

Similar Documents

Publication Publication Date Title
JP7227407B2 (ja) 受信装置、及び送信装置
CN109716777B (zh) 发送设备及其发送方法
US11343549B2 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
CA3001292C (en) Reception apparatus, transmission apparatus, and data processing method
EP2731346A2 (en) Micro-filtering of streaming entertainment content based on parental control setting
JP2022159360A (ja) 受信装置、及び、受信方法
US11490138B2 (en) Reception apparatus, reception method, transmission apparatus, and transmission method for indicating presence or absence of signaling information in a payload of a packet
US20180234111A1 (en) Wireless Transport Framework with Uncoded Transport Tunneling
JP7054673B2 (ja) 受信装置、及び、データ処理方法
WO2016166947A1 (en) Transmission device and method, reception device and method
US11444885B2 (en) Transmission device, transmission method, reception device, and reception method
US11044030B2 (en) Reception apparatus, transmission apparatus, and data processing method
JP7494338B2 (ja) 受信方法
KR101488068B1 (ko) 광고 내장 시스템, 광고 내장 방법, 및 그 기록매체
JP2018182762A (ja) 受信装置、テレビジョン装置、記憶媒体、受信方法、及びプログラム
CA3071560A1 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
Noland ATSC 3.0 Standards Usher in Next Gen TV Era
Whitaker et al. Progress Report of the Advanced Television Systems Committee

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240522