JPWO2020137766A1 - 送信装置、送信方法、符号化装置、符号化方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、符号化装置、符号化方法、受信装置および受信方法 Download PDF

Info

Publication number
JPWO2020137766A1
JPWO2020137766A1 JP2020563146A JP2020563146A JPWO2020137766A1 JP WO2020137766 A1 JPWO2020137766 A1 JP WO2020137766A1 JP 2020563146 A JP2020563146 A JP 2020563146A JP 2020563146 A JP2020563146 A JP 2020563146A JP WO2020137766 A1 JPWO2020137766 A1 JP WO2020137766A1
Authority
JP
Japan
Prior art keywords
image data
frame
mixing process
mixed
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020563146A
Other languages
English (en)
Inventor
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020137766A1 publication Critical patent/JPWO2020137766A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • H04N21/4381Recovering the multiplex stream from a specific network, e.g. recovering MPEG packets from ATM cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program

Abstract

混合処理された画像データの例えば素材伝送に当たって受信側での取り扱いを良好に行い得るようにする。所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを送信する。所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされている。各フレームの画像データにそれぞれ関連付けて混合処理に関する情報を含むメタデータさらに送信する。例えば、メタデータを、各フレームの画像データの少なくとも先頭を含むパケットのペイロードヘッダに挿入して送信する。また、例えば、メタデータを、各フレームの画像データを含むパケットに対応付けられたメタデータ専用パケットで送信する。

Description

本技術は、送信装置、送信方法、符号化装置、符号化方法、受信装置および受信方法に関し、詳しくは、混合処理された画像データを取り扱う送信装置等に関する。
従来から放送されているフレームレートでデコードを行う受信機において、ハイフレームレート(High Frame Rate)の放送を受信する場合、ストリームの部分的なデコードを行うと動きの連続性が損なわれて動画質の劣化が生じる。この動画質の劣化の主な原因は、部分デコードされたピクチャ同士の時間連続性が粗くなるため、速い動きに対する人間の眼の網膜投影が間欠的になることで生ずるストロービング(Strobing)であるといわれている。
ストロービングによる動画質の劣化を低減させるために、本出願人は、先に、基準となるフレーム周期でのピクチャについて、その前後のピクチャとの間で画素混合を行う技術を提案した(特許文献1参照)。この場合、従来の受信機において時間サブサンプルを行っても、動いた要素が部分デコードされる時間サンプルに反映されるので、ストロービングによる動画質劣化が低減される。
国際公開第2015/076277号
本技術の目的は、混合処理された画像データの例えば素材伝送に当たって受信側での取り扱いを良好に行い得るようにすることにある。
本技術の概念は、
所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを送信する送信部を備え、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
上記送信部は、各フレームの画像データにそれぞれ関連付けて、上記混合処理に関する情報を含むメタデータをさらに送信する
送信装置にある。
本技術において、送信部により、所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットが送信される。ここで、所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされている。例えば、パケットは、IP(Internet Protocol)ネットワークを利用した映像信号伝送に関する規格により規定されるフォーマットに準拠する、ようにされてもよい。この場合、例えば、規格は、SMPTE ST2022-6、あるいはSMPTE ST2110-20である、ようにされてもよい。例えば、混合処理を行う混合処理部をさらに備える、ようにされてもよい、
送信部により、各フレームの画像データにそれぞれ関連付けて、混合処理に関する情報を含むメタデータがさらに送信される。例えば、混合処理は、所定段の混合処理を含む、ようにされてもよい。また、例えば、混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報、キャプチャ時のカメラシャッター速度の情報、混合処理対象ピクチャのフレームレートの情報、混合処理後のフレームレートの情報、混合処理対象ピクチャを示す情報、混合する際のフィルタ演算係数の比率を示す情報の少なくともいずれかを含む、ようにされてもよい。
例えば、送信部は、メタデータを、各フレームの画像データのすくなくとも先頭を含むパケットのペイロードヘッダに挿入して送信する、ようにされてもよい。また、例えば、送信部は、メタデータを、各フレームの画像データを含むパケットに対応付けられたメタデータ専用パケットで送信する、ようにされてもよい。
このように本技術においては、所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットと共に、各フレームの画像データにそれぞれ関連付けて混合処理に関する情報を含むメタデータを送信するものである。そのため、混合処理された画像データの例えば素材伝送に当たって受信側での取り扱いを良好に行い得るようになる。
また、本技術の他の概念は、
所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する受信部を備え、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
上記受信部は、各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータをさらに受信し、
上記混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報を含み、
上記混合処理に関する情報に基づいて、上記所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、上記所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化する符号化部をさらに備える
符号化装置にある。
本技術において、受信部により、所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットが受信される。ここで、所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされている。また、受信部により、各フレームの画像データにそれぞれ関連付けされた混合処理に関する情報を含むメタデータがさらに受信される。ここで、混合処理に関する情報には、対応するフレームの画像データが混合処理されているか否かを示す情報が含まれている。
符号化部により、混合処理に関する情報に基づいて、所定フレーム周波数の画像データのうち混合処理されているフレームの画像データが基本レイヤの画像データとして符号化され、所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データが拡張レイヤの画像データとして符号化される。
このように本技術においては、混合処理されている所定フレーム周波数の画像データを混合処理に関する情報(対応するフレームの画像データが混合処理されているか否かを示す情報を含む)に基づいて符号化するものである。そのため、所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化することを、容易かつ適切に行い得るようになる。
また、本技術の他の概念は、
所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する受信部を備え、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
上記受信部は、各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータをさらに受信し、
上記混合処理に関する情報に基づいて上記所定フレーム周波数の画像データに対して逆混合処理を施して表示用画像データを得る処理部をさらに備える
受信装置にある。
本技術において、受信部により、所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットが受信される。ここで、所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされている。また、受信部により、各フレームの画像データにそれぞれ関連付けされた混合処理に関する情報を含むメタデータがさらに受信される。
処理部により、混合処理に関する情報に基づいて所定フレーム周波数の画像データに対して逆混合処理が施されて表示用画像データが得られる。
このように本技術においては、混合処理に関する情報に基づいて混合処理されている所定フレーム周波数の画像データに対して逆混合処理を施して表示用画像データを得るものである。そのため、逆混合処理を容易かつ適切に行って表示用画像データを得ることが可能となる。
放送フローと、撮影・制作と送出のステップに対応したシステム構成の一例を示す図である。 撮影・制作・送出の送信側と受信・表示の受信側を含む送受信システムの構成例を示す図である。 送信側の他の構成例を示す図である。 処理検査を行う編集装置の構成例を示す図である。 エンコーダにおける階層符号化におけるレイヤ振り分けを説明するための図である。 エンコーダにおける階層符号化におけるレイヤ振り分けを説明するための図である。 撮影時のシャッター率について説明するための図である。 シャッター速度(1/sec)と、伝送フレームレート(fps)と、シャッターアングル(degree)の対応関係の一例を示す図である。 混合処理の一例を説明するための図である。 混合処理の他の一例を説明するための図である。 混合処理のさらに他の一例を説明するための図である。 パケットの一例を示す図である。 RTPヘッダの構造例を示す図である。 RTPヘッダの構造例における主要な情報の内容を示す図である。 ペイロードヘッダの構造例を示す図である。 ペイロードヘッダの構造における主要な情報の内容を示す図である。 “shutter_blending()”の構造例を示す図である。 “shutter_blending()”の構造例における主要な情報の内容を示す図である。 メタデータの具体例について説明するための図である。 メタデータの具体例について説明するための図である。 メタデータの具体例について説明するための図である。 RTP伝送でピクチャが複数パケット(メディアパケット)で伝送される例を示す図である。 RTP伝送でピクチャが複数パケット(メディアパケット)で伝送される他の例を示す図である。 ペイロードヘッダの構造例を示す図である。 メタデータパケットのペイロードヘッダおよびペイロードの構造例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[放送フロー]
図1(a)は、放送フローを示している。放送フローは、素材映像の画像データを得るための撮影・制作のステップと、その素材映像の画像データを送信する送出ステップと、素材映像の画像データを受信して画像表示を行う受信・表示のステップからなる。
図1(b)は、撮影・制作と送出のステップに対応したシステム構成の一例を示している。例えば、スタジアムの撮像装置(以下、カメラ)でキャプチャされた素材映像の所定フレーム周波数の画像データが中継車に送信される。また、例えば、ドローンのカメラでキャプチャされた素材映像の所定フレーム周波数の画像データが中継車に送信される。また、例えば、映像素材サーバから素材映像として所定周波数の画像デーが中継車に送信される。
また、中継車で得られる編集後の素材映像の画像データは、中継局を介して、放送局に送信される。また、スタジオのカメラでキャプチャされた素材映像の所定フレーム周波数の画像データは、放送局に送信される。そして、この素材映像の所定フレーム周波数の画像データは符号化されて、放送局から放送波に載せて送信される。
上述の各素材映像の所定フレーム周波数の画像データは、SMPTE(Society of Motion Picture and Television Engineers)規格による伝送対象とされる。この場合、所定フレーム周波数の画像データをフレーム毎に所定数に分割し、それによって得られた各分割画像データをペイロードデータとして含むパケットが送信される。このパケットは、IP(Internet Protocol)ネットワークを利用した映像信号伝送に関する規格により規定されるフォーマットに準拠するものである。この場合の映像信号は、例えば番組素材映像の信号である。
この実施の形態において、素材映像の所定フレーム周波数の画像データに、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理が施される。この混合処理は、部分デコードから表示画を作成する受信機においてストロービングによる動画質の劣化を低減するために行われる。
この混合処理は、素材映像をキャプチャする撮像装置、例えばドローンのカメラ、スタジアムのカメラ、スタジオのカメラなどが備える混合処理部、例えばプリプロセッサ(PreProc)で行われる。または、撮像装置がキャプチャした素材映像を受信する装置、例えばドローン、映像素材サーバ、中継車、中継局などが備えるプリプロセッサで行われる。この混合処理は、1段階で行われるだけでなく、2段階、3段階、・・・で行われることもある。なお、ドローンのカメラ(またはドローン)、スタジアムのカメラ、映像素材サーバ、中継車、中継局、スタジオのカメラの全てがプリプロセッサを備えている必要はないが、少なくとも放送局に送られてくる素材映像の所定フレーム周波数の画像データに関しては混合処理が施されたものとされる。
混合処理が施された所定フレーム周波数の画像データが次段に送信される場合、各フレームの画像データにそれぞれ関連付けられて、混合処理に関する情報を含むメタデータが送信される。この混合処理に関する情報には、対応するフレームの画像データが混合処理をされているか否かを示す情報などが含まれる。
[送受信システム]
図2は、撮影・制作・送出の送信側と受信・表示の受信側を含む送受信システム10の構成例を示している。送信側は、カメラ(Camera)101と、放送局(Broadcasting center)102を有している。カメラ101は、図1(b)におけるドローンのカメラ、スタジアムのカメラ、スタジオのカメラ等に対応する。
カメラ101は、素材映像としての所定フレーム周波数の画像データをキャプチャし、プリプロセッサ101aでその所定フレーム周波数の画像データに対してフレーム毎に選択的に前および/または後ろのフレームの画像データを用いた混合処理をする。この場合、プリプロセッサ101aでは、必要に応じて、フレーム周波数のダウンコンバージョンの処理も行われる。
カメラ101の図示しない送信部は、上述の混合処理された所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られる分割画像データをペイロードデータとして含むパケットを放送局102に送信する。また、カメラ101の図示しない送信部は、各フレームの画像データに関連付けて、混合処理に関する情報を含むメタデータAを放送局102に送信する。
放送局102は、図示しない受信部で、カメラ101から送信されてくるパケットを受信し、混合処理された素材映像としての所定フレーム周波数の画像データを取得する。また、この受信部は、カメラ101から送信されてくるメタデータAを受信する。
放送局102は、HLP(High Level Parser)部102aで、各フレームの画像データに関連付けられているメタデータAの解釈を行うと共に、この解釈に基づいて、エンコーダ102bで、混合処理された素材映像としての所定フレーム周波数の画像データに対して、例えばHEVC(High Efficiency Video Coding)による階層符号化処理を行って、基本ストリームSTbと、第1拡張ストリームSTe1、第2拡張ストリームSTe2を得る。
この場合、エンコーダ102bは、例えば、所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化する。
放送局102は、図示しない送信部で、基本ストリームSTb、第1拡張ストリームSTe1および第2拡張ストリームSTe2を送信する。この場合、各ストリームの画像データに関連づけて、混合処理に関する情報を含むメタデータも送信する。例えば、各ピクチャ(フレーム)のアクセスユニット(AU)の“SEIs”の部分に、メタデータを含む、新規定義するSEIメッセージを挿入することで行われる。
なお、図示の例では、基本ストリームSTbの他に、第1拡張ストリームSTe1および第2拡張ストリームSTe2の2つの拡張ストリームを送信する例を示したが、拡張ストリームが1つ、あるいは3つ以上であることも考えられる。
受信側は、例えば、セットトップボックス211と、ディスプレイ212を有している。セットトップボックス211は、図示しない受信部で、基本ストリームSTb、第1拡張ストリームSTe1および第2拡張ストリームSTe2と、各ストリームの画像データに関連付けられている混合処理に関する情報を含むメタデータを受信する。
セットトップボックス211は、HLP部211aで、各フレームの画像データに関連付けて送られてくるメタデータを解釈する。また、セットトップボックス211は、デコーダ211bで、基本ストリームSTb、第1拡張ストリームSTe1および第2拡張ストリームSTe2に復号化処理を行って、例えば240Hzの画像データを得る。
セットトップボックス211は、図示しない送信部で、例えば、HDMI(High-Definition Multimedia Interface)等のデジタルインタフェースを用いて、240Hzの画像データと、各フレームに対応したメタデータを、ディスプレイ212に送信する。
ディスプレイ212は、図示しない受信部で、セットトップボックス211から送られてくる240Hzの画像データと、各フレームに対応したメタデータを、受信する。ディスプレイ212は、ポストプロセッサ212aで、240Hzの画像データのうち、混合処理されている基本レイヤの画像データに対して、メタデータに基づいて、逆混合処理を施して、混合前の画像データを得る。
また、ディスプレイ212は、ポストプロセッサ212aで得られた240Hzの画像データを、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部212bでフレーム補間処理を施してフレームレートを高めて、表示用画像データとする。
また、受信側は、例えば、セットトップボックス221と、ディスプレイ222を有している。セットトップボックス221は、図示しない受信部で、基本ストリームSTbおよび第1拡張ストリームSTe1と、各ストリームの画像データに関連付けられている混合処理に関する情報を含むメタデータを受信する。
セットトップボックス221は、HLP部221aで、各フレームの画像データに関連付けて送られてくるメタデータを解釈する。また、セットトップボックス221は、デコーダ221bで、基本ストリームSTbおよび第1拡張ストリームSTe1に復号化処理を行って、例えば120Hzの画像データを得る。
セットトップボックス221は、図示しない送信部で、例えば、HDMI等のデジタルインタフェースを用いて、120Hzの画像データと、各フレームに対応したメタデータを、ディスプレイ222に送信する。
ディスプレイ222は、図示しない受信部で、セットトップボックス221から送られてくる120Hzの画像データと、各フレームに対応したメタデータを、受信する。ディスプレイ222は、ポストプロセッサ222aで、120Hzの画像データのうち、混合処理されている基本レイヤの画像データに対して、メタデータに基づいて、逆混合処理を施して、混合前の画像データを得る。
また、ディスプレイ201Bは、ポストプロセッサ222aで得られた120Hzの画像データを、そのまま、あるいはMCFI部222bでフレーム補間処理を施してフレームレートを高めて、表示用画像データとする。
また、受信側は、例えば、セットトップボックス231と、ディスプレイ232を有している。セットトップボックス231は、図示しない受信部で、基本ストリームSTbを受信する。セットトップボックス231は、デコーダ231aで、基本ストリームSTbに復号化処理を行って、例えば60Hzの画像データを得る。セットトップボックス231は、図示しない送信部で、例えば、HDMI等のデジタルインタフェースを用いて、60Hzの画像データをディスプレイ232に送信する。
ディスプレイ232は、図示しない受信部で、セットトップボックス231から送られてくる60Hzの画像データを受信する。ディスプレイ232は、受信された60Hzの画像データを、そのまま、あるいはMCFI部232aでフレーム補間処理を施してフレームレートを高めて、表示用画像データとする。
なお、図示の例では、受信側として3系統を示しているが、これに限定されるものではない。例えば、系統数は拡張ストリームの数に応じて変わる可能性がある。
図3は、送信側の他の構成例を示している。図3において、図2と対応する部分には同一符号を付して示している。この送信側は、カメラ101と、編集装置(Production device)103と、放送局102を有している。カメラ101は、例えば、図1(b)におけるドローンのカメラ、スタジアムのカメラ等に対応する。編集装置103は、例えば、図1(b)における中継車、中継局等に対応する。
カメラ101は、素材映像としての所定フレーム周波数の画像データをキャプチャし、プリプロセッサ101aでその所定フレーム周波数の画像データに対してフレーム毎に選択的に前および/または後ろのフレームの画像データを用いた混合処理をする。この場合、プリプロセッサ101aでは、必要に応じて、フレーム周波数のダウンコンバージョンの処理も行われる。
カメラ101の図示しない送信部は、上述の混合処理された所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られる分割画像データをペイロードデータとして含むパケットを編集装置103に送信する。また、カメラ101の図示しない送信部は、各フレームの画像データに関連付けて、混合処理に関する情報を含むメタデータAを編集装置103に送信する。
編集装置103は、図示しない受信部で、カメラ101から送信されてくるパケットを受信し、混合処理された素材映像としての所定フレーム周波数の画像データを取得する。また、この受信部は、カメラ101から送信されてくるメタデータAを受信する。
編集装置103は、HLP部103aで、各フレームの画像データに関連付けられているメタデータAの解釈をし、この解釈に基づいて、プリプロセッサ103bでその所定フレーム周波数の画像データに対してフレーム毎に選択的に前および/または後ろのフレームの画像データを用いた混合処理をして、多段、ここでは2段の混合処理がされた所定フレーム周波数の画像データを得る。この場合、プリプロセッサ103bでは、必要に応じて、フレーム周波数のダウンコンバージョンの処理も行われる。
編集装置103の図示しない送信部は、上述の混合処理された所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られる分割画像データをペイロードデータとして含むパケットを放送局102に送信する。また、編集装置103の図示しない送信部は、各フレームの画像データに関連付けて、多段の混合処理に関する情報を含むメタデータBを放送局102に送信する。
放送局102は、図示しない受信部で、編集装置103から送信されてくるパケットを受信し、混合処理された素材映像としての所定フレーム周波数の画像データを取得する。また、この受信部は、編集装置103から送信されてくるメタデータBを受信する。
放送局102は、HLP部102aで、各フレームの画像データに関連付けられているメタデータBの解釈を行うと共に、この解釈に基づいて、エンコーダ102bで、混合処理された素材映像としての所定フレーム周波数の画像データに対して、例えばHEVCによる階層符号化処理を行って、基本ストリームSTbと、第1拡張ストリームSTe1、第2拡張ストリームSTe2を得る。
この場合、エンコーダ102bは、所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化する。
放送局102は、図示しない送信部で、基本ストリームSTb、第1拡張ストリームSTe1および第2拡張ストリームSTe2を送信する。この場合、各ストリームの画像データに関連づけて、混合処理に関する情報を含むメタデータも送信する。例えば、各ピクチャ(フレーム)のアクセスユニット(AU)の“SEIs”の部分に、メタデータを含む、新規定義するSEIメッセージを挿入することで行われる。
なお、図示の例では、基本ストリームSTbの他に、第1拡張ストリームSTe1および第2拡張ストリームSTe2の2つの拡張ストリームを送信する例を示したが、拡張ストリームが1つ、あるいは3つ以上であることも考えられる。
「処理検査」
上述していないが、ユーザは、編集装置103で、前段、ここではカメラ101から送られてくる画像データに対して、プリプロセッサ103bで混合処理を行うかどうかを、プリプロセッサ103bで混合処理をした後の画像データによる画質を見て判断することも考えられる。
その際、実際の放送におけるようにエンコーダ・デコーダを経た後に、ポストプロセッサで逆混合処理を行って得られた画像データによる表示画像の画質で判断する場合もある。また、その際、実際の放送におけるようにエンコーダ・デコーダを経た後の混合処理されたままの画像データによる表示画像の画質で判断する場合もある。さらに、その際、エンコーダ・デコーダを通さない非圧縮の混合処理された画像データによる表示画像の画質で判断する場合もある。
図4は、その場合における編集装置103の構成例を示している。編集装置103は、HLP部103aおよびプリプロセッサ103bの他に、エンコーダ103c、デコーダ103d、ポストプロセッサ103eおよび制作モニタ103fを有している。
プリプロセッサ103bで混合処理されて得られた所定周波数の画像データは第1の画像データとして制作モニタ103fに送られる。また、プリプロセッサ103で混合処理されて得られた所定周波数の画像データは、エンコーダ103cによる符号化およびデコーダ103dのよる復号化を経た後に第2の画像データとして制作モニタ103fに送られる。
また、デコーダ103dから得られる所定フレーム周波数の画像データは、ポストプロセッサ103eで逆混合処理が施された後に、第3の画像データとして制作モニタ103fに送られる。このポストプロセッサ103eにおける逆混合処理は、図示していないが、プリプロセッサ103bから出力されるメタデータBに基づいて行われる。
この構成例では、ユーザは、制作モニタ103fで、第1の画像データ、第2の画像データまたは第3の画像データを選択的に切り換えて、それぞれによる表示画像を見て、プリプロセッサ103bで混合処理を行うかどうかを判断することが可能となる。なお、プリプロセッサ103bで混合処理が行われない場合には、編集装置103から後段、ここでは放送局102に送られる画像データおよびメタデータBは、カメラ101から編集装置103に送られてくる画像データおよびメタデータAと同じものとなる。
「エンコーダにおける階層符号化におけるレイヤ振り分け」
上述したように、エンコーダ102bは、例えば、所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤ(Base layer)の画像データとして符号化し、所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤ(Enhanced layer)の画像データとして符号化をする。
エンコーダ102bに混合処理された所定フレーム周波数の画像データと共に送られてくる各フレームの画像データに対応付けされた混合処理に関する情報を含むメタデータには、対応するフレームの画像データが混合処理されているか否かを示す情報としての“Blending_flag”が含まれている。図5に示すように、エンコーダ102bにおけるレイヤ振り分け処理は、“Blending_flag”に基づいて行われる。
この場合、エンコーダ102bは、図6(a)に示すように、入力されるピクチャ(フレーム)の“Blending_flag”により、エンコーダ102bの参照・非参照バッファへの蓄積を切り替える。“Blending_flag=1”であれば、ピクチャの符号化で非参照バッファへ蓄積し、“Blending_flag=0”であれば、ピクチャの符号化で参照バッファへ蓄積する。
図6(b)に示すように、被参照バッファの基本レイヤ(Base layer)のピクチャは参照バッファの拡張レイヤ(Enhanced layer)のピクチャから参照されることが可能で、参照バッファの拡張レイヤのピクチャは他のピクチャから参照されることはない。
「撮影時のシャッター率」
撮影時のシャッター率について説明する。図7(a)は、240Hz(240 fps)のフレーム周波数で、1/240 secのシャッター速度で撮影した場合の画像データを示している。この画像データは、P1,P2,P3,P4の4フレーム区間が繰り返される構成となっている。
この場合、240Hzのフレーム間隔に対して、その全期間でシャッターが開いているので、シャッターアングル(シャッター率)αは、以下の数式(1)で表されるように、360 degree(100%)となる。
α=360*240/240=360 ・・・(1)
図7(b)は、240Hz(240 fps)のフレーム周波数で、1/300 secのシャッター速度で撮影した場合の画像データを示している。この画像データは、P1,P2,P3,P4の4フレーム区間が繰り返される構成となっている。
この場合、240Hzのフレーム間隔に対して、シャッターが開いている期間は1/300 secと短くなるため、シャッターアングル(シャッター率)αは、以下の数式(2)で表されるように、288 degree(80%)となる。
α=360*240/300=288 ・・・(2)
図8は、シャッター速度(1/sec)と、伝送フレームレート(fps)と、シャッターアングル(degree)の対応関係の一例を示している。一般的に、シャッターアングル(degree)は、以下の数式(3)で求められる。
シャッターアングル(degree)=360*(伝送フレームレート)*(シャッター速度)
・・・(3)
「混合処理」
混合処理は、上述したように、部分デコードから表示画を作成する受信機においてストロービングによる動画質の劣化を低減するために行われる。混合処理がされていない画像データは非互換モードの画像データであり、混合処理された画像データは低フレームレート互換モードの画像データとなる。
図9を参照して、混合処理の一例を説明する。図9(a)は、基本形である混合処理がされていない非互換モードの画像データを示している。この画像データは、240Hz(240 fps)のフレーム周波数で、1/240 secのシャッター速度で撮影した場合の画像データである。この画像データは、P1,P2,P3,P4の4フレーム(ピクチャ)区間が繰り返される構成となっている。この場合の各フレームのシャッターアングル(シャッター率)αは360 degree(100%)である(図7(a)参照)。
図9(b)は、混合処理された低フレームレート互換モードの240Hzの画像データを示している。この画像データは、Q1,Q2,Q3,Q4の4フレーム区間が繰り返される構成となっている。Q1,Q2,Q4のフレームの画像データは、それぞれ、P1,P2,P4のフレームの画像データと同じである。このQ1,Q2,Q4のフレームのシャッターアングル(シャッター率)αは360 degree(100%)である。
Q3のフレームの画像データは、P2,P3,P4のフレームの画像データをフィルタ演算して得られた混合画像データt(P2,P3,P4)である。この場合、Q3のフレームの画像データは、P2,P3,P4の3フレームの画素要素をフィルタ演算で混合して持つことになる。このQ3のフレームのシャッターアングル(シャッター率)βは、以下の数式(4)で表されるように、240Hzの1フレーム内に3フレームの画素要素が反映されているので、360*3 degree(300%)となる。
β=360*240/240*3=360*3 ・・・(4)
図9(c)は、受信側で、混合処理されているQ3のフレームの画像データを抽出して60Hz表示をする場合の画像データを示している。R3のフレームの画像データは、Q3のフレームの画像データを60Hzの時間間隔で表示するものとなる。このR3のフレームの画像データは、60Hzの時間幅において、元の240Hzの4スロットのうちP2,P3,P4の3スロットにあたるフレームの画素要素を合成して持つことになる。そのため、R3のフレームのシャッターアングル(シャッター率)γは、以下の数式(5)で表されるように、270 degree(75%)となる。
γ=360*60/240*3=270 ・・・(5)
図9(b)に示す混合処理された低フレームレート互換モードの画像データを受信側に送信する場合、エンコーダ102bでは、例えば、以下のように符号化が行われる。すなわち、基本ストリームSTbには、60Hz階層の画像データ(Q3のフレーム(ピクチャ)の画像データ参照)の符号化画像データが含まれる。また、第1拡張ストリームSTe1には、120Hz階層の画像データ(Q1のフレーム(ピクチャ)の画像データ参照)の符号化画像データが含まれる。また、第2拡張ストリームSte2には、240Hz階層の画像データ(Q2、Q4のフレーム(ピクチャ)の画像データ参照)の符号化画像データが含まれる。
なお、図9の例においては、撮影時のシャッターアングル(シャッター率)αが360 degree(100%)である例を示したが、他の例の場合であっても、同様に考えることができる。例えば、α=288 degreeの場合、β=288*3=864 degree、γ=288*3/4=216 degreeとなる。このことは、図9の例の場合だけでなく、以下の図10、図11の例においても同様である。
図10を参照して、混合処理の他の一例を説明する。図10(a)は、基本形である混合処理がされていない非互換モードの画像データを示している。この画像データは、240Hz(240 fps)のフレーム周波数で、1/240 secのシャッター速度で撮影した場合の画像データである。この画像データは、P1,P2,P3,P4の4フレーム(ピクチャ)区間が繰り返される構成となっている。この場合の各フレームのシャッターアングル(シャッター率)αは360 degree(100%)である(図7(a)参照)。
図10(b)は、混合処理された低フレームレート互換モードの120Hzの画像データを示している。この画像データは、S1,S3の2フレーム区間が繰り返される構成となっている。S1のフレームの画像データは、P1のフレームの画像データと同じである。このS1のフレームは120Hzの時間幅であり、これは240Hzの2スロットの時間幅に相当する。
このS1のフレームの画像データがP1,P2の2スロットの画素要素を含むのであればシャッターアングル(シャッター率)は360 degree(100%)となる。しかし、このS1のフレームの画像データはP1のスロットの画素要素だけを含むので、このS1のフレームのシャッターアングル(シャッター率)は180 degree(50%)である。
S3のフレームの画像データは、P2,P3,P4のフレームの画像データをフィルタ演算して得られた混合画像データt(P2,P3,P4)である。このS3のフレームは120Hzの時間幅であり、これは240Hzの2スロットの時間幅に相当する。このS3のフレームの画像データがP3,P4の2スロットの画素要素を含むのであればシャッターアングル(シャッター率)は360 degree(100%)となる。
しかし、このS3のフレームの画像データは、P3,P4の2スロットの他に、P2のスロットを加えた3スロットの画素要素も含む。そのため、このS3のフレームのシャッターアングル(シャッター率)βは、以下の数式(6)で表されるように、540 degree(150%)となる。
β=360*120/240*3=540 ・・・(6)
図10(c)は、受信側で、混合処理されているS3のフレームの画像データを抽出して60Hz表示をする場合の画像データを示している。T3のフレームの画像データは、S3のフレームの画像データを60Hzの時間間隔で表示するものとなる。このT3のフレームの画像データは、60Hzの時間幅において、元の240Hzの4スロットのうちP2,P3,P4の3スロットにあたるフレームの画素要素を合成して持つことになる。そのため、T3のフレームのシャッターアングル(シャッター率)γは、以下の数式(7)で表されるように、270 degree(75%)となる。
γ=360*60/240*3=270 ・・・(7)
図10(b)に示す混合処理された低フレームレート互換モードの画像データを受信側に送信する場合、エンコーダ102bでは、例えば、以下のように符号化が行われる。すなわち、基本ストリームSTbには、60Hz階層の画像データ(S3のフレーム(ピクチャ)の画像データ参照)の符号化画像データが含まれる。また、第1拡張ストリームSTe1には、120Hz階層の画像データ(S1のフレーム(ピクチャ)の画像データ参照)の符号化画像データが含まれる。この場合、第2拡張ストリームSte2は生成されない。
図11を参照して、混合処理のさらに他の一例を説明する。図11(a)は、基本形である混合処理がされていない非互換モードの画像データを示している。この画像データは、240Hz(240 fps)のフレーム周波数で、1/240 secのシャッター速度で撮影した場合の画像データである。この画像データは、P1,P2,P3,P4の4フレーム(ピクチャ)区間が繰り返される構成となっている。この場合の各フレームのシャッターアングル(シャッター率)αは360 degree(100%)である(図7(a)参照)。
図11(b)は、1段目の混合処理がされた低フレームレート互換モードの120Hzの画像データを示している。詳細説明は省略するが、この画像データは、上述の図10(b)に示す画像データと同じである。
図11(c)は、2段目の混合処理がされた低フレームレート互換モードの120Hzの画像データを示している。この画像データは、U1,U3の2フレーム区間が繰り返される構成となっている。U1のフレームの画像データは、S1のフレームの画像データと同じである。
U3のフレームの画像データは、S1,S3のフレームの画像データをフィルタ演算して得られた混合画像データt(S1,S3)である。このU3のフレームは120Hzの時間幅であり、これは240Hzの2スロットの時間幅に相当する。このU3のフレームの画像データがP3,P4の2スロットの画素要素を含むのであればシャッターアングル(シャッター率)は360 degree(100%)となる。
しかし、このU3のフレームの画像データは、P3,P4の2スロットの他に、P1,P2のスロットを加えた4スロットの画素要素も含む。そのため、このU3のフレームのシャッターアングル(シャッター率)βは、以下の数式(8)で表されるように、360*2 degree(200%)となる。
β=360*120/240*4=360*2 ・・・(8)
図11(d)は、受信側で、混合処理されているU3のフレームの画像データを抽出して60Hz表示をする場合の画像データを示している。W3のフレームの画像データは、U3のフレームの画像データを60Hzの時間間隔で表示するものとなる。このW3のフレームの画像データは、60Hzの時間幅において、元の240Hzの4スロットのうちその全てのスロットのフレームの画素要素を合成して持つことになる。そのため、W3のフレームのシャッターアングル(シャッター率)γは、以下の数式(9)で表されるように、360 degree(100%)となる。
γ=360*60/240*4=360 ・・・(9)
図11(c)に示す混合処理された低フレームレート互換モードの画像データを受信側に送信する場合、エンコーダ102bでは、例えば、以下のように符号化が行われる。すなわち、基本ストリームSTbには、60Hz階層の画像データ(U3のフレーム(ピクチャ)の画像データ参照)の符号化画像データが含まれる。また、第1拡張ストリームSTe1には、120Hz階層の画像データ(U1のフレーム(ピクチャ)の画像データ参照)の符号化画像データが含まれる。この場合、第2拡張ストリームSte2は生成されない。
「メタデータの送信」
上述したように、図2の送信側(撮影・制作・送出)において、混合処理された所定フレーム周波数の画像データをパケット化して次段に送信する際に、各フレームの画像データに関連付けて、混合処理に関する情報を含むメタデータの送信も行われる。
ここで、メタデータの送信は、上述したように、例えば、メタデータを、各フレームの画像データの少なくとも先頭を含むパケットのペイロードヘッダに挿入して送信する(第1の方法)、あるいはメタデータを、各フレームの画像データを含むパケットに対応付けられたメタデータ専用パケットで送信する(第2の方法)で、行われる。なお、メタデータの送信方法は、この第1の方法および第2の方法に限定されるものではない。以下、第1の方法および第2の方法の詳細を説明する。
「第1の方法」
この第1の方法は、メタデータを各フレームの画像データの少なくとも先頭を含むパケットのペイロードヘッダに挿入して送信するものである。
図12は、パケットの一例を示している。この例は、「ST 2022-6 Transport of High Bit Rate Media Signals over IP Networks(HBRMT)」として規格化されているものである。この規格は、SDI信号をIP伝送するための規格であり、SMPTE(米国映画テレビ技術者協会)がIPパケットを規定したものである。この規格の場合、ペイロードには、ビデオ、オーディオが混在して挿入される。
この規格では、SDIストリーム(ピクチャデータ)を1376バイト毎に区切ってメディアペイロード(Media Payload)として、ペイロードヘッダ(Payload Header)を付加後、12バイトのRTPヘッダをさらに付加してRTPパケットにカプセル化する。「SMPTEST 2022-6」の規格では、1080Pビデオを伝送する3G−SDIの非圧縮ストリームまでのIP伝送を規定する。なお、実際には、RTPパケットに、UDPヘッダが付加され、さらにIPパケットが付加され、IPパケットとして送信される。
図13は、RTPヘッダの構造例(Syntax)を示し、図14は、その構造例における主要な情報の内容(Semantics)を示している。バージョン番号(V)は、RTPのバージョンを示し、現在のバージョンは2である。パディングビット(P)は、ペイロードがパディングされている(1)か、パディングされていない(0)かを示す。
ヘッダ拡張ビット(X)は、拡張ヘッダが追加されている(1)か、追加されていない(0)かを示す。CSRCカウント(CC)は、CSRCリストの長さを示す。 ペイロードが複数のメディアストリームの合成である場合、各メディアストリームのSSRCのリストが貢献ソース(CSRC:Contributing Source)リストとして格納される。
マーカビット(M)は、使用するRTPプロファイルによって定義される重要なイベントの発生を示す。ストリームの開始、再開、終了などを表すために利用される。ペイロードタイプ(PT)は、ペイロードデータのメディアタイプの識別に使用され、RFC 3551で定められているメディア符号化方式を示す。例えば、値“98”は「ST2022-6」を示し、新規定義される“New_Value1”は「ST2110-20」を示し、新規定義される“New_Value2”は「メタデータ」を示す。
シーケンス番号は、パケットが送信される度に1ずつ増加される符号なしの16ビット整数値である。通常、初期値はランダムに設定される。パケットの欠落や整列目的で使用される。タイムスタンプは、ペイロードデータの先頭がサンプリングされた瞬間を表す。メディアの再生に使用される。値は、RTPパケットの伝送時に、パケットごとインクリメントされる。
同期ソース(SSRC)識別子は、パケット送信者のSSRCを示す。
図15は、ペイロードヘッダ(Payload Header)の構造例(Syntax)を示し、図16は、その構造例における主要な情報の内容(Semantics)を示している。このペイロードヘッダは、パケットのペイロードで伝送される中身の再生を受信側で同期をとって行えるように指定する情報である。
「Ext」の4ビットフィールドは、ペイロードヘッダの拡張ワード(4Byte で1ワード)数を表す。「F」の1ビットフィールドは、“1”でビデオフォーマットを含むことを示し、“0”でメタデータなどのビデオ以外であることを示す。ビデオ以外である場合は、以後の要素、「FRcount」、「R」、「FRAME」、「 FRATE」の値は、意味を持たない。
「VSID」の3ビットフィールドは、“0”で「primary」を示し、“1”で「protect」を示す。「FRcount」の8ビットフィールドは、映像フレームごとに増加する値を示す。「R」の2ビットフィールドは、ビデオタイムスタンプのリファレンスを示す。“00”は「not locked」を示し、“01”は「UTC」を示し、“10”は「private reference」を示す。
「S」の2ビットフィールドは、ペイロードがスクランブルされているかどうかを示す。“00”はスクランブル無を示す。「FEC」の3ビットフィールドは、使用する誤り訂正符号の種類を示す。“000”は「none」を示し、“001”は「column」を示し、“010”は「row&column」を示す。
「CF」の4ビットフィールドは、映像信号のクロック周波数を示す。“0x1”は27MHzを示す。「MAP」の4ビットフィールドは、SDIストリームの種類を示す。「FRAME」の8ビットフィールドは、映像信号のスキャン方式や画素数などの、組み合わせ指定する。
「FRATE」の8ビットフィールドは、映像信号のフレーム周波数を示す。「SAMPLE」の4ビットフィールドは、映像信号のクロマサンプリング構造を示す。「Video timestamp」の32ビットフィールドは、「CF」の値が0より大きいとき存在し、送受信間の映像信号同期のためのタイムスタンプで、精度は映像信号のクロック周波数で指定する値である。
このペイロードヘッダにおいて、「Ext」の値が0より大きいとき、「Header extension」のフィールドが、「Ext」の値で示されるワード数だけ存在する。このフィールドには、拡張タイプを示す「Extension type」の情報も含まれる。第1の方法では、この「Header extension」のフィールドに、混合処理に関する情報を含むメタデータとしての“shutter_blending()”が挿入される。
図17は、“shutter_blending()”の構造例(Syntax)を示し、図18は、その構造例における主要な情報の内容(Semantics)を示している。「metadata type」の8ビット領域は、メタデータタイプを示す。“0x0A”の場合、拡張領域を本シンタクス/セマンティクスのように定義する。
「shutter_blending_length」の8ビットフィールドは、次の要素からのバイトサイズを表す。「video_stream_id」の8ビットフィールドは、ターゲットのビデオストリームIDである。ビデオパケットの外側で用いる時のみ使用される。
「reference_shutter_speed_code」の4ビットフィールドは、リファレンスシャッター速度(主にキャプチャ時のカメラシャッター速度)の符号値である。例えば、“0x1”は1/24secを示し、“0x2”は1/25secを示し、“0x3”は1/30secを示し、“0x4”は1/50secを示し、“0x5”は1/60secを示し、“0x6”は1/100secを示し、“0x7”は1/120secを示し、“0x8”は1/180secを示し、“0x9”は1/200secを示し、“0xA”は1/240secを示す。
「number_of_blend_stages」の4ビットフィールドは、混合処理の段数を示す。値は1以上である。この段数分、以下の要素が繰り返し存在する。
「reference_framerate_code」の4ビットフィールドは、リファレンスフレームレート(=混合処理対象ピクチャのフレームレート)の符号値である。例えば、“0x1”は24fpsを示し、“0x2”は25fpsを示し、“0x3”は30fpsを示し、“0x4”は50fpsを示し、“0x5”は60fpsを示し、“0x6”は100fpsを示し、“0x7”は120fpsを示し、“0x8”は200fpsを示し、“0x9”は240fpsを示す。
「current_framerate_code」の4ビットフィールドは、現在のフレームレート(=混合処理後のピクチャのフレームレート)の符号値である。例えば、“0x1”は24fpsを示し、“0x2”は25fpsを示し、“0x3”は30fpsを示し、“0x4”は50fpsを示し、“0x5”は60fpsを示し、“0x6”は100fpsを示し、“0x7”は120fpsを示し、“0x8”は200fpsを示し、“0x9”は240fpsを示す。
「blending_flag」の1ビットフィールドは、混合処理されているか否かを示すブレンド・フラグである。“1”は混合処理がされえいることを示し、“0”は混合処理がされていないことを示す。ブレンド・フラグが“1”であるとき、以下の要素が存在する。
「blend_targets_code」の2ビットフィールドは、混合処理対象を示す。リファレンスフレームレートにおける、現ピクチャと混合するピクチャが、現ピクチャに対して前、後、前後両方のいずれかを示す。例えば、“10”は「前」を示し、“01”は「後」を示し、“11”は「前後両方」を示す。
「blend_coefficients_code」の4ビットフィールドは、ブレンド比(混合する際のフィルタ演算係数の比率)を示す符号値である。比率が大きい値を現ピクチャに対する重み付け係数とし、比率の小さい方を前後の混合対象ピクチャに対する重み付け係数とする。例えば、“0x1”は「1対1」を示し、“0x2”は「2対1」を示し、“0x3”は「4対1」を示し、“0x4”は「1対2対1」を示す。
「メタデータの具体例」
最初に、図9(b)に示す混合処理された低フレームレート互換モードの画像データを受信側に送信する場合におけるメタデータの具体例について説明する。図19(a)は、Q1,Q2,Q4のフレームの画像データに関連付けて送信されるメタデータ(メタデータA)の具体例を示している。この場合、リファレンスシャッター速度は1/240sec、リファレンスフレームレートは240fps、現在のフレームレートは240fpsであり、ブレンド・フラグは“0”、である。
この場合、受信側においては、リファレンスシャッター速度とリファレンスフレームレートからオリジナルのシャッターアングルが360 degree(100%)であることが分かる。また、現在のフレームレートがリファレンスフレームレートと同じであることから、当該フレームのシャッターアングルは360 degree(100%)であることが分かる。また、ブレンド・フラグにより、当該フレームの画像データは、混合処理されていないことが分かる。
図19(b)は、Q3のフレームの画像データに関連付けて送信されるメタデータ(メタデータA)の具体例を示している。この場合、リファレンスシャッター速度は1/240sec、リファレンスフレームレートは240fps、現在のフレームレートは240fpsであり、ブレンド・フラグは“1”、混合処理対象が前後両方、ブレンド比は1対2対1、である。
この場合、受信側においては、リファレンスシャッター速度とリファレンスフレームレートからオリジナルのシャッターアングルが360 degree(100%)であることが分かる。また、混合処理対象から、当該フレームの画像データは、前後両方のピクチャを混合処理対象として、3つのピクチャが1対2対1の比率で混合されたものであることが分かる。この混合処理によるシャッターアングルの換算は360*3=1080 degree(300%)になる。現在のフレームレートがリファレンスフレームレートと同じであることから、当該フレームのシャッターアングルは360 degree(100%)となることが分かる。
次に、図10(b)に示す混合処理された低フレームレート互換モードの画像データを受信側に送信する場合におけるメタデータの具体例について説明する。図20(a)は、S1のフレームの画像データに関連付けて送信されるメタデータ(メタデータA)の具体例を示している。この場合、リファレンスシャッター速度は1/240sec、リファレンスフレームレートは240fps、現在のフレームレートは120fpsであり、ブレンド・フラグは“0”、である。
この場合、受信側においては、リファレンスシャッター速度とリファレンスフレームレートからオリジナルのシャッターアングルが360 degree(100%)であることが分かる。また、現在のフレームレートの時間軸がリファレンスフレームレートの時間軸に対して2倍になるので、当該フレームのシャッターアングルは180 degree(50%)であることが分かる。また、ブレンド・フラグにより、当該フレームの画像データは、混合処理されていないことが分かる。
図20(b)は、S3のフレームの画像データに関連付けて送信されるメタデータ(メタデータA)の具体例を示している。この場合、リファレンスシャッター速度は1/240sec、リファレンスフレームレートは240fps、現在のフレームレートは120fpsであり、ブレンド・フラグは“1”、混合処理対象が前後両方、ブレンド比は1対2対1、である。
この場合、受信側においては、リファレンスシャッター速度とリファレンスフレームレートからオリジナルのシャッターアングルが360 degree(100%)であることが分かる。また、混合処理対象から、当該フレームの画像データは、前後両方のピクチャを混合処理対象として、3つのピクチャが1対2対1の比率で混合されたものであることが分かる。この混合処理によるシャッターアングルの換算は360*3=1080 degree(300%)になる。現在のフレームレートの時間軸がリファレンスフレームレートの時間軸に対して2倍になるので、当該フレームのシャッターアングルは540 degree(150%)となることが分かる。
次に、図11(c)に示す2段混合処理された低フレームレート互換モードの画像データを受信側に送信する場合におけるメタデータの具体例について説明する。図21(a),(b)は、図11(b)のS1,S3のフレームの画像データに関連付けて送信されるメタデータ(メタデータA)の具体例を示している。詳細説明は省略するが、これらのメタデータ(メタデータA)に関しては、上述した図20(a),(b)の説明と同様である。
図21(c)は、U1のフレームの画像データに関連付けて送信されるメタデータ(メタデータB)の具体例を示している。このメタデータ(メタデータB)には、図21(a)に示す1段目の混合処理に関する情報が含まれると共に、2段目の混合処理に関する情報が含まれる。2段目の混合処理に関して、リファレンスフレームレートは120fps、現在のフレームレートは120fpsであり、ブレンド・フラグは“0”、である。
この場合、受信側においては、現在のフレームレートがリファレンスフレームレートと同じであることから、S1フレームのシャッターアングルと同様に、当該フレームのシャッターアングルは360 degree(100%)であることが分かる。また、ブレンド・フラグにより、当該フレームの画像データは、混合処理されていないことが分かる。
図21(d)は、U3のフレームの画像データに関連付けて送信されるメタデータ(メタデータB)の具体例を示している。このメタデータ(メタデータB)には、図21(b)に示す1段目の混合処理に関する情報が含まれると共に、2段目の混合処理に関する情報が含まれる。2段目の混合処理に関して、リファレンスフレームレートは120fps、現在のフレームレートは120fpsであり、ブレンド・フラグは“1”、混合処理対象が前、ブレンド比は4対1、である。
この場合、混合処理対象から、当該フレームの画像データは、前のピクチャを混合処理対象として、2つのピクチャが4対1の比率で混合されたものであることが分かる。この混合処理により、当該フレームのシャッターアングルは、540+180=720 degree(200%)
となることが分かる。
図22は、RTP伝送でピクチャが複数パケット(メディアパケット)で伝送される例を示している。この例では、ピクチャが2つのRTPパケットに分割される様子を示しているが、これに限定されるものではなく、例えば、ピクチャの複数ラインが1パケットで送られ、一つのピクチャが複数のパケットで伝送されてもよい。また、この例では、全てのパケットのペイロードヘッダにメタデータが挿入される例を示しているが、少なくとも各フレームの画像データの先頭を含むパケットのペイロードヘッダに挿入されてあればよい。なお、この例では、ビデオのみを描いているが、実際は、ST2022−6はビデオ、オーディオが混在することを許している。
「第2の方法」
第2の方法は、メタデータを、各フレームの画像データを含むパケットに対応付けられたメタデータ専用パケットで送信するものである。
図23は、図22と同様に、RTP伝送でピクチャが複数パケット(メディアパケット)で伝送される例を示している。なお、この例では、図面の簡単化のために、UDPヘッダおよびOPヘッダの図示は省略している。
図23の例では、メディアパケットの他に、メタデータパケットが存在する。第2の方法においては、メタデータパケットを新規定義し、このメタデータパケットを利用して、各フレームにそれぞれ対応付けて混合処理に関する情報を含むメタデータを送信する。この場合、メタデータの対象ビデオパケットは、「video_stream_id」によって紐づけられる。また、対象ピクチャは、「Video_timestamp」で同期される。
図24は、この場合におけるペイロードヘッダの構造例(Syntax)を示している。このペイロードヘッダに、リザーブ領域、例えば「EMT-RESERVE」を利用して、「video_stream_id」を新規定義する。この「video_stream_id」は、番組配信においてユニークに決まる値を持つ。
そして、別の配信パケットと連携させることができる(図23参照)。
なお、詳細説明は省略するが、このペイロードヘッダのその他の構造は、図15に示す構造例と同様である。ただし、この場合、このペイロードヘッダにメタデータの挿入はない。なお、このペイロードヘッダには、「Video_timestamp」が存在する。
メタデータは、ビデオとは別のRTPパケットのペイロードで配信される。そして、「video_stream_id」と「Video_timestamp」により、対象となるビデオの各ピクチャに同期・関連付けることができる。この場合、RTPヘッダのPT(ペイロードタイプ)には、「New_value2」が入り、ペイロードヘッダの「F」には“0”が入り、ペイロードはビデオではないことを示す。「shutter_blending()」のフォーマットデータが、ペイロードの領域にそのまま挿入され伝送される。
図25は、メタデータパケットのペイロードヘッダおよびペイロードの構造例(Syntax)を示している。ペイロードヘッダ領域に、メタデータパケットの識別情報である「metadata start word」の32ビットフィールドと、「Video_timestamp」の32ビットフィールドが存在する。そして、ペイロード領域に、混合処理に関する情報を含むメタデータとしての“shutter_blending()”(図17参照)が挿入される。この“shutter_blending()”には、「video_stream_id」が存在する。
以上説明したように、図2、図3に示す送受信システム10の送信側(撮影・制作・送出)において、混合処理された所定フレーム周波数の画像データをパケット化して次段に送信する際に、各フレームの画像データに関連付けて、混合処理に関する情報を含むメタデータの送信も行われる。そのため、混合処理された画像データの例えば素材伝送に当たって受信側での取り扱いを良好に行い得るようになる。
<2.変形例>
なお、上述実施の形態においては、画像データ(ビデオデータ)をコンテナするパケットとして「ST 2022-6」規格のパケットを例にして説明をした。しかし、画像データをコンテナするパケットがその他のパケット、例えば「ST 2110-20」規格のパケットである場合にも、本技術を同様に適用できる。この「ST 2110-20」規格のパケットの場合には、ペイロードにビデオのみが挿入される。
また、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、本技術は、以下のような構成を取ることもできる。
(1)所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを送信する送信部を備え、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
上記送信部は、各フレームの画像データにそれぞれ関連付けて、上記混合処理に関する情報を含むメタデータをさらに送信する
送信装置。
(2)上記送信部は、上記メタデータを、上記各フレームの画像データの少なくとも先頭を含む上記パケットのペイロードヘッダに挿入して送信する
前記(1)に記載の送信装置。
(3)上記送信部は、上記メタデータを、上記各フレームの画像データを含む上記パケットに対応付けられたメタデータ専用パケットで送信する
前記(1)に記載の送信装置。
(4)上記混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報を含む
前記(1)から(3)のいずれかに記載の送信装置。
(5)上記混合処理に関する情報は、キャプチャ時のカメラシャッター速度の情報を含む
前記(1)から(4)のいずれかに記載の送信装置。
(6)上記混合処理に関する情報は、混合処理対象ピクチャのフレームレートの情報を含む
前記(1)から(5)のいずれかに記載の送信装置。
(7)上記混合処理に関する情報は、混合処理後のフレームレートの情報を含む
前記(1)から(6)のいずれかに記載の送信装置。
(8)上記混合処理に関する情報は、混合処理対象ピクチャを示す情報を含む
前記(1)から(7)のいずれかに記載の送信装置。
(9)上記混合処理に関する情報は、混合する際のフィルタ演算係数の比率を示す情報を含む
前記(1)から(8)のいずれかに記載の送信装置。
(10)上記混合処理は、所定段の混合処理を含む
前記(1)から(9)のいずれかに記載の送信装置。
(11)上記パケットは、IP(Internet Protocol)ネットワークを利用した映像信号伝送に関する規格により規定されるフォーマットに準拠する
前記(1)から(10)のいずれかに記載の送信装置。
(12)上記規格は、SMPTE ST2022-6である
前記(11)に記載の送信装置。
(13)上記規格は、SMPTE ST2110-20である
前記(11)に記載の送信装置。
(14)上記混合処理を行う混合処理部をさらに備える
前記(1)から(13)のいずれかに記載の送信装置。
(15)所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを送信する手順を有し、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
各フレームの画像データにそれぞれ関連付けて、上記混合処理に関する情報を含むメタデータを送信する手順をさらに有する
送信方法。
(16)所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する受信部を備え、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
上記受信部は、各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータをさらに受信し、
上記混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報を含み、
上記混合処理に関する情報に基づいて、上記所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、上記所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化する符号化部をさらに備える
符号化装置。
(17)所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する手順を有し、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータを受信する手順を有し、
上記混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報を含み、
上記混合処理に関する情報に基づいて、上記所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、上記所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化する手順をさらに有する
符号化方法。
(18)所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する受信部を備え、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
上記受信部は、各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータをさらに受信し、
上記混合処理に関する情報に基づいて上記所定フレーム周波数の画像データに対して逆混合処理を施して表示用画像データを得る処理部をさらに備える
受信装置。
(19)所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する手順を有し、
上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータを受信する手順と、
上記混合処理に関する情報に基づいて上記所定フレーム周波数の画像データに対して逆混合処理を施して表示用画像データを得る手順をさらに有する
受信方法。
10・・・送受信システム
101・・・カメラ
101a・・・プリプロセッサ
102・・・放送局
102a・・・HLP部
102b・・・エンコーダ
103・・・編集装置
103a・・・HLP部
103b・・・プリプロセッサ
211,221,231・・・セットトップボックス
211a,221a・・・HLP部
211b,221b,231a・・・デコーダ
212,222,232・・・ディスプレイ
212a,222a・・・ポストプロセッサ
212b,222b,232a・・・MCFI部

Claims (19)

  1. 所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを送信する送信部を備え、
    上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
    上記送信部は、各フレームの画像データにそれぞれ関連付けて、上記混合処理に関する情報を含むメタデータをさらに送信する
    送信装置。
  2. 上記送信部は、上記メタデータを、上記各フレームの画像データの少なくとも先頭を含む上記パケットのペイロードヘッダに挿入して送信する
    請求項1に記載の送信装置。
  3. 上記送信部は、上記メタデータを、上記各フレームの画像データを含む上記パケットに対応付けられたメタデータ専用パケットで送信する
    請求項1に記載の送信装置。
  4. 上記混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報を含む
    請求項1に記載の送信装置。
  5. 上記混合処理に関する情報は、キャプチャ時のカメラシャッター速度の情報を含む
    請求項1に記載の送信装置。
  6. 上記混合処理に関する情報は、混合処理対象ピクチャのフレームレートの情報を含む
    請求項1に記載の送信装置。
  7. 上記混合処理に関する情報は、混合処理後のフレームレートの情報を含む
    請求項1に記載の送信装置。
  8. 上記混合処理に関する情報は、混合処理対象ピクチャを示す情報を含む
    請求項1に記載の送信装置。
  9. 上記混合処理に関する情報は、混合する際のフィルタ演算係数の比率を示す情報を含む
    請求項1に記載の送信装置。
  10. 上記混合処理は、所定段の混合処理を含む
    請求項1に記載の送信装置。
  11. 上記パケットは、IP(Internet Protocol)ネットワークを利用した映像信号伝送に関する規格により規定されるフォーマットに準拠する
    請求項1に記載の送信装置。
  12. 上記規格は、SMPTE ST2022-6である
    請求項11に記載の送信装置。
  13. 上記規格は、SMPTE ST2110-20である
    請求項11に記載の送信装置。
  14. 上記混合処理を行う混合処理部をさらに備える
    請求項1に記載の送信装置。
  15. 所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを送信する手順を有し、
    上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
    各フレームの画像データにそれぞれ関連付けて、上記混合処理に関する情報を含むメタデータを送信する手順をさらに有する
    送信方法。
  16. 所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する受信部を備え、
    上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
    上記受信部は、各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータをさらに受信し、
    上記混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報を含み、
    上記混合処理に関する情報に基づいて、上記所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、上記所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化する符号化部をさらに備える
    符号化装置。
  17. 所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する手順を有し、
    上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
    各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータを受信する手順を有し、
    上記混合処理に関する情報は、対応するフレームの画像データが混合処理されているか否かを示す情報を含み、
    上記混合処理に関する情報に基づいて、上記所定フレーム周波数の画像データのうち混合処理されているフレームの画像データを基本レイヤの画像データとして符号化し、上記所定フレーム周波数の画像データのうち混合処理されていないフレームの画像データを拡張レイヤの画像データとして符号化する手順をさらに有する
    符号化方法。
  18. 所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する受信部を備え、
    上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
    上記受信部は、各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータをさらに受信し、
    上記混合処理に関する情報に基づいて上記所定フレーム周波数の画像データに対して逆混合処理を施して表示用画像データを得る処理部をさらに備える
    受信装置。
  19. 所定フレーム周波数の画像データをフレーム毎に所定数に分割して得られた分割画像データをペイロードデータとして含むパケットを受信する手順を有し、
    上記所定フレーム周波数の画像データは、フレーム毎に選択的に前および/または後のフレームの画像データを用いた混合処理がされており、
    各フレームの画像データにそれぞれ関連付けされた、上記混合処理に関する情報を含むメタデータを受信する手順と、
    上記混合処理に関する情報に基づいて上記所定フレーム周波数の画像データに対して逆混合処理を施して表示用画像データを得る手順をさらに有する
    受信方法。
JP2020563146A 2018-12-28 2019-12-18 送信装置、送信方法、符号化装置、符号化方法、受信装置および受信方法 Pending JPWO2020137766A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862786022P 2018-12-28 2018-12-28
US62/786,022 2018-12-28
PCT/JP2019/049713 WO2020137766A1 (ja) 2018-12-28 2019-12-18 送信装置、送信方法、符号化装置、符号化方法、受信装置および受信方法

Publications (1)

Publication Number Publication Date
JPWO2020137766A1 true JPWO2020137766A1 (ja) 2021-11-11

Family

ID=71124321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563146A Pending JPWO2020137766A1 (ja) 2018-12-28 2019-12-18 送信装置、送信方法、符号化装置、符号化方法、受信装置および受信方法

Country Status (7)

Country Link
US (2) US11234044B2 (ja)
EP (1) EP3905702A1 (ja)
JP (1) JPWO2020137766A1 (ja)
KR (1) KR20210107678A (ja)
CN (1) CN113273218A (ja)
BR (1) BR112021012268A2 (ja)
WO (1) WO2020137766A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6921966B2 (ja) * 2017-01-27 2021-08-18 アパリオ グローバル ソリューションズ (アーゲーエス) アーゲー 物理ディスプレイの代替画像コンテンツを異なる視聴者に伝えるための方法およびシステム
CN114666595A (zh) 2019-03-11 2022-06-24 杜比实验室特许公司 帧速率可伸缩视频编码

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101405968B1 (ko) * 2007-06-28 2014-06-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US20100169318A1 (en) * 2008-12-30 2010-07-01 Microsoft Corporation Contextual representations from data streams
CA3042107C (en) 2009-11-03 2023-03-07 Fosun Orinove Pharmatech, Inc. Ire-1.alpha. inhibitors
US20130100248A1 (en) 2011-05-11 2013-04-25 Shinya Kadono Video transmitting apparatus and video transmitting method
JP6141741B2 (ja) 2013-10-09 2017-06-07 株式会社キャタラー 燃料電池用電極触媒及びその製造方法
US10542259B2 (en) * 2013-11-22 2020-01-21 Sony Corporation Transmission device, transmission method, reception device, and reception method
CN105493505B (zh) * 2014-06-19 2019-08-06 微软技术许可有限责任公司 统一的帧内块复制和帧间预测模式
JP6489789B2 (ja) * 2014-10-16 2019-03-27 株式会社ミクニ ポンプ及び燃料噴射装置
EP3300381B1 (en) 2015-05-19 2021-03-10 Sony Corporation Image processing device, image processing method, reception device and transmission device
CN107925767A (zh) * 2015-09-10 2018-04-17 索尼公司 发送设备、发送方法,接收设备和接收方法
EP3923586A1 (en) * 2015-09-30 2021-12-15 Sony Group Corporation Reception device and reception method
JP6589554B2 (ja) * 2015-10-26 2019-10-16 日産自動車株式会社 電動車両の制御方法、及び、制御装置
CN109076256A (zh) * 2016-04-12 2018-12-21 索尼公司 发送设备、发送方法、接收设备和接收方法
JP7026450B2 (ja) * 2017-04-24 2022-02-28 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP6982990B2 (ja) * 2017-06-19 2021-12-17 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法

Also Published As

Publication number Publication date
EP3905702A1 (en) 2021-11-03
KR20210107678A (ko) 2021-09-01
WO2020137766A1 (ja) 2020-07-02
US11843822B2 (en) 2023-12-12
US20200213657A1 (en) 2020-07-02
CN113273218A (zh) 2021-08-17
BR112021012268A2 (pt) 2021-08-31
US20220182705A1 (en) 2022-06-09
US11234044B2 (en) 2022-01-25

Similar Documents

Publication Publication Date Title
US8046815B2 (en) Optical network for bi-directional wireless communication
US8599876B2 (en) Method of transmission of digital images and reception of transport packets
US10965949B2 (en) Carriage systems encoding or decoding JPEG 2000 video
JP2017098978A (ja) データ処理方法およびビデオ送信方法
US20090177952A1 (en) Transcoder and receiver
US11843822B2 (en) Transmission apparatus, transmission method, encoding apparatus, encoding method, reception apparatus, and reception method
US20180255272A1 (en) Transmission device, transmission method, reception device, and reception method
JP7026450B2 (ja) 送信装置、送信方法、受信装置および受信方法
US7020205B1 (en) Sending progressive video sequences suitable for MPEG and other data formats
US7890986B2 (en) System and method for reducing channel change time
WO2019087789A1 (ja) 送信装置、送信方法、受信装置および受信方法
KR20120062545A (ko) 비디오 스트림의 패킷화 방법 및 장치
US20240163502A1 (en) Transmission apparatus, transmission method, encoding apparatus, encoding method, reception apparatus, and reception method
JP2009088820A (ja) 映像・音声信号伝送方法及びその伝送装置
KR100710393B1 (ko) 압축 스트림의 복호방법
US11483565B2 (en) Receiving apparatus, receiving method, transmitting apparatus, and transmitting method
US9479823B2 (en) Transmitting device and receiving device
WO2018092642A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP2003264831A (ja) 動画像符号化・復号化システム及び方法、符号化装置、復号化装置並びにプログラム
JP2006109513A (ja) 符号化装置および方法、並びに記録媒体