JP6305279B2 - 映像圧縮装置および映像再生装置 - Google Patents

映像圧縮装置および映像再生装置 Download PDF

Info

Publication number
JP6305279B2
JP6305279B2 JP2014171964A JP2014171964A JP6305279B2 JP 6305279 B2 JP6305279 B2 JP 6305279B2 JP 2014171964 A JP2014171964 A JP 2014171964A JP 2014171964 A JP2014171964 A JP 2014171964A JP 6305279 B2 JP6305279 B2 JP 6305279B2
Authority
JP
Japan
Prior art keywords
video
bit stream
bitstream
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014171964A
Other languages
English (en)
Other versions
JP2016046778A (ja
Inventor
昭行 谷沢
昭行 谷沢
知也 児玉
知也 児玉
中條 健
健 中條
俊一 権藤
俊一 権藤
浅野 渉
渉 浅野
孝幸 伊東
孝幸 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014171964A priority Critical patent/JP6305279B2/ja
Priority to US14/835,890 priority patent/US10341660B2/en
Publication of JP2016046778A publication Critical patent/JP2016046778A/ja
Application granted granted Critical
Publication of JP6305279B2 publication Critical patent/JP6305279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/37Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability with arrangements for assigning different transmission priorities to video input data or to video coded data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Description

実施形態は、映像圧縮および映像再生に関する。
近年、Webページに配信する映像の画質をネットワーク(例えば、インターネット)の帯域に応じて変化させることによって当該映像を途切れなく再生する、アダプティブストリーミング技術が開発されている。一般的に、インターネットの帯域(接続速度)は、ユーザ数、周辺環境などの種々の要因により不定期に変動するが、当該帯域を予測し、利用可能な帯域に見合ったビットストリームを適応的に選択して配信することで、画質劣化を抑制しながら映像を安定的に再生することが可能となる。
アダプティブストリーミング技術は、ダイナミック型およびスタティック型に大別される。ダイナミック型のアダプティブストリーミング技術によれば、映像サーバは、映像クライアントからの要求に応じて、配信用のビットストリームを適応的に生成する。ダイナミック型のアダプティブストリーミング技術は、1対1の映像配信に好適であるが、映像サーバは要求に応じてリアルタイムに映像を圧縮する必要がある。他方、スタティック型のアダプティブストリーミング技術によれば、映像クライアントは、映像サーバに準備されている複数のビットストリームから配信用のビットストリームを、帯域予測によって導出された利用可能な帯域に基づいて適応的に選択して要求する。スタティック型のアダプティブストリーミング技術は、1対多の映像配信に好適であるが、映像サーバはビットレートの異なる複数のビットストリームを予め準備する必要がある。
通常、ユーザの映像に対する注目度は画面内で一様ではない。従って、映像配信において、例えばROI(Region Of Interest)などの特定領域の画質を他の領域に比べて優先的に高めることは、表示映像の主観画質を効率的に向上させる観点から有用である。しかしながら、従来のスタティック型のアダプティブストリーミング技術において係る局所的な画質制御を実現するためには、映像サーバにおいて相当数のビットストリームを準備する必要がある。特に、上記特定領域を任意に選択できるようにする場合には、ビットストリームの総数は膨大になるおそれがある。ビットストリームの総数が増加するほど、必要な圧縮装置の数、ストレージの容量などが増加するので、映像サーバのコストは増加することになる。
特開2013−229806号公報 特開2007−235314号公報
実施形態は、スタティック型のアダプティブストリーミング技術において局所的な画質制御を実現することを目的とする。
実施形態によれば、映像圧縮装置は、第1の圧縮部と、第2の圧縮部と、分離部と、通信部とを含む。第1の圧縮部は、第1の映像を圧縮することによって第1のビットストリームを生成する。第2の圧縮部は、第2の映像に複数の領域を設定し、当該複数の領域の各々が独立して復号可能であるように当該第2の映像を当該領域毎に圧縮することによって、第2のビットストリームを得る。分離部は、第2のビットストリームを領域単位で分離することによって、分離された第2のビットストリームを得る。通信部は、領域の一部または全部である特定領域を示す領域情報を受信し、分離された第2のビットストリームから当該特定領域に対応するビットストリームを選択して送信する。
第1の実施形態に係る映像配信システムを例示するブロック図。 第1の実施形態に係る映像圧縮装置を例示するブロック図。 映像符号化方式の説明図。 スライスの説明図。 タイルの説明図。 図2の映像圧縮装置において生成される第1のビットストリームを例示する図。 図2の映像圧縮装置において生成される分離された第1のビットストリームを例示する図。 第1の実施形態に係る映像再生装置を例示するブロック図。 スタティック型のアダプティブストリーミング技術に付随する帯域予測の説明図。 図8の映像再生装置によって受信される第1のビットストリームを例示する図。 図8の映像再生装置によって受信される第2のビットストリームを例示する図。 結合ビットストリームを例示する図。 第1の実施形態に係る映像配信システムの動作の説明図。 図2の映像圧縮装置によって行われる映像圧縮処理を例示するフローチャート。 図2の映像圧縮装置によって行われる映像配信処理を例示するフローチャート。 図8の映像再生装置によって行われる映像要求処理を例示するフローチャート。 図8の映像再生装置によって行われる映像再生処理を例示するフローチャート。 図1の表示装置によって行われるユーザ要求作成処理を例示するフローチャート。 第2の実施形態に係る映像圧縮装置を例示するブロック図。 第2の実施形態に係る映像再生装置を例示するブロック図。 図20の映像再生装置によって生成される結合ビットストリームを例示する図。 図21の変形例を示す図。 第2の実施形態に係る映像配信システムの動作の説明図。 図19の映像圧縮装置によって行われる映像圧縮処理を例示するフローチャート。 図20の映像再生装置によって行われる映像再生処理を例示するフローチャート。 第3の実施形態に係る映像圧縮装置を例示するブロック図。 第3の実施形態に係る映像再生装置を例示するブロック図。 入力I/Fに対する入力座標情報に基づいてユーザ要求領域を特定する処理の説明図。 入力I/Fに対する入力座標情報に基づいてユーザ要求領域を特定する処理の説明図。 入力I/Fに対する入力座標情報に基づいてユーザ要求領域を特定する処理の説明図。
以下、図面を参照しながら実施形態の説明が述べられる。
なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号が付され、重複する説明は基本的に省略される。また、「映像」という用語は、「画像」、「画素」、「画像信号」、「絵」、「画像データ」などという用語として適宜読み替えられてよい。さらに、「圧縮」という用語は、「符号化」という用語として適宜読み替えられてもよい。
(第1の実施形態)
図1に例示されるように、第1の実施形態に係る映像配信システム100は、撮像装置110と、映像圧縮装置200と、チャネル120と、映像再生装置300と、表示装置130とを含む。
撮像装置110は、第1の映像11および第2の映像12を生成する。なお、第1の映像11および第2の映像12は、同一の映像であってもよいし、異なる映像であってもよい。撮像装置110は、第1の映像11および第2の映像12を映像圧縮装置200へと出力する。撮像装置110は、典型的には、カメラまたはイメージセンサに相当し、被写体を光学的に撮影することによって(自然)映像としての静止画像または動画像を生成する。しかしながら、撮像装置110は、ビデオゲームなどで用いられるコンピュータグラフィクス(CG)映像または当該CG映像と自然映像との合成映像を生成する任意の映像生成装置に置き換えられてもよい。或いは、撮像装置110は、図示されない他の撮像装置または映像生成装置によって生成された映像を保存するビデオストレージに置き換えられてもよい。
図1に示されるように、撮像装置110は、メモリ111と、イメージセンサ112と、CPU(Central Processing Unit)113と、出力I/F(Interface)114と、通信部115を含む。
メモリ111には、CPU113によって実行されるプログラム、通信部115によってやり取りされるデータなどが一時的に保存される。イメージセンサ112は、被写体を光学的に撮影することによって映像信号を生成する。
CPU113は、プログラムを実行することによって、種々の機能部として動作する。具体的には、CPU113は、イメージセンサ112によって生成された映像信号をディジタルフォーマットへと変換したり、デモザイキング処理を行ったりする。出力I/F114は、例えば映像圧縮装置200などの外部装置へと映像を出力する。通信部115は、外部装置とデータをやり取りする。
なお、図1に示される撮像装置110の各要素は適宜削除することは可能であるし、図示されない要素を適宜付加することも可能である。例えば、通信部115が映像圧縮装置200へ映像を送信するのであれば、出力I/F114を削除してもよい。他方、映像を撮像装置110の内部に保存する必要がある場合には、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などのストレージを付加してもよい。
映像圧縮装置200は、第1の映像11および第2の映像12を撮像装置110から受け取る。映像圧縮装置200は、第1の映像11および第2の映像12に後述される複数の領域をそれぞれ設定し、当該第1の映像11および第2の映像12をそれぞれ圧縮することによって、第1のビットストリーム13および第2のビットストリーム14を得る。なお、映像圧縮装置200は、設定した複数の領域の各々が独立して復号可能であるように、第1の映像11および第2の映像12をそれぞれ圧縮する。各領域が独立して復号可能であることとは、ある領域の圧縮データが他のいかなる領域の圧縮データも必要とせずに復号できることを意味する。映像圧縮装置200は、第1のビットストリーム13および第2のビットストリーム14を上記領域単位で分離することによって、分離された第1のビットストリーム15−1および分離された第2のビットストリーム15−2を得る。映像圧縮装置200は、分離された第1のビットストリーム15−1および分離された第2のビットストリーム15−2を保存しておく。
映像圧縮装置200は、チャネル120を介して、ビットストリーム送信要求および後述される領域情報を映像再生装置300から受信すると、当該領域情報に対応するビットストリームを前述の分離された第1のビットストリーム15−1および分離された第2のビットストリーム15−2から選択する。それから、映像圧縮装置200は、チャネル120を介して、選択したビットストリームを映像再生装置300へと送信する。
図1に示されるように、映像圧縮装置200は、メモリ211と、CPU212と、入出力I/F213と、通信部214を含む。
メモリ211には、CPU212によって実行されるプログラム、通信部214によってやり取りされるデータなどが一時的に保存される。CPU212は、プログラムを実行することによって、種々の機能部として動作する。具体的には、CPU212は、例えば後述される映像圧縮処理および映像配信処理を行ってもよい。
入出力I/F213は、例えば撮像装置110などの外部装置から映像を入力したり、映像再生装置300などの外部装置へとビットストリームを出力したりする。通信部214は、外部装置とデータをやり取りする。
なお、図1に示される映像圧縮装置200の各要素は適宜削除することは可能であるし、図示されない要素を適宜付加することも可能である。例えば、通信部214が撮像装置110から映像を受信したり、映像再生装置300へビットストリームを送信したりするのであれば、入出力I/F213を削除してもよい。他方、映像またはビットストリームを映像圧縮装置200の内部に保存するために、HDDまたはSSDなどのストレージを付加してもよい。
なお、映像圧縮装置200は、適宜機能分割することが可能である。例えば、映像圧縮装置200は前述の機能の一部(映像圧縮機能)を担当し、当該映像圧縮装置とは別体の映像配信装置が前述の機能の残部(映像配信機能)を担当してもよい。
チャネル120は、映像圧縮装置200および映像再生装置300の間を接続するネットワークである。チャネル120は、情報伝送に利用可能な様々な通信資源を意味する。チャネル120は、有線チャネルであってもよいし、無線チャネルであってもよいし、両者の混合チャネルであってもよい。チャネル120は、例えば、インターネット網、地上放送網、衛星放送網などであってよい。また、チャネル120は、例えば、ケーブルを用いた通信、電波通信、PHS(Personal Handy−phone System)、3G(3rd Generation)、4G(4th Generation)、LTE(Long Term Evolution)、ミリ波通信、レーダ通信などの種々の通信向けのチャネルであってもよい。
映像再生装置300は、チャネル120を介して、ビットストリーム送信要求および領域情報を映像圧縮装置200へと送信する。そして、映像再生装置300は、チャネル120を介して、上記ビットストリーム送信要求および領域情報に応じたビットストリーム(第1のビットストリーム33−1および第2のビットストリーム33−2の少なくとも一方)を受信する。このビットストリームは、映像圧縮装置200によって領域単位で分離されており、映像再生装置300は当該ビットストリームを結合することによって結合ビットストリーム34を得る。映像再生装置300は、結合ビットストリーム34を復号することによって、復号映像35を得る。映像再生装置300は、復号映像35を表示装置130へと出力する。
図1に示されるように、映像再生装置300は、メモリ311と、CPU312と、入出力I/F313と、通信部314を含む。
メモリ311には、CPU312によって実行されるプログラム、通信部314によってやり取りされるデータなどが一時的に保存される。CPU312は、プログラムを実行することによって、種々の機能部として動作する。具体的には、CPU312は、例えば後述される映像要求処理および映像再生処理を行ってもよい。
入出力I/F313は、例えば映像圧縮装置200などの外部装置からビットストリームを入力したり、表示装置130などの外部装置へと復号映像を出力したりする。通信部314は、外部装置とデータをやり取りする。
なお、図1に示される映像再生装置300の各要素は適宜削除することは可能であるし、図示されない要素を適宜付加することも可能である。例えば、通信部314が映像圧縮装置200からビットストリームを受信したり、表示装置130へ復号映像を送信したりするのであれば、入出力I/F313を削除してもよい。他方、ビットストリームまたは復号映像を映像再生装置300の内部に保存するために、HDDまたはSSDなどのストレージを付加してもよい。
表示装置130は、映像再生装置から復号映像35を受け取り、当該復号映像35を表示する。表示装置130は、典型的には、ディスプレイ、テレビ受像機またはビデオモニタに相当する。なお、表示装置130は、映像表示機能に加えて入力I/F機能を持つ、タッチパネルなどであってもよい。
図1に示されるように、表示装置130は、メモリ131と、ディスプレイ132と、CPU133と、入力I/F134と、通信部135とを含む。
メモリ131には、CPU133によって実行されるプログラム、通信部135によってやり取りされるデータなどが一時的に保存される。ディスプレイ132は映像を表示する。
CPU133は、プログラムを実行することによって、種々の機能部として動作する。具体的には、CPU133は、表示装置130から受け取った復号映像35を拡大または縮小する。
入力I/F134は、ユーザが例えば映像再生装置300に対するユーザ要求32を入力するためのインターフェースである。入力I/F134は、例えば、マウス、タッチパッド、タッチパネル、タッチペンなどであってよい。通信部135は、外部装置とデータをやり取りする。
なお、図1に示される表示装置130の各要素は適宜削除することは可能であるし、図示されない要素を適宜付加することも可能である。例えば、復号映像35を表示装置130の内部に保存する必要がある場合には、HDDまたはSSDなどのストレージを付加してもよい。
図2に例示されるように、映像圧縮装置200は、第1の圧縮部201と、第2の圧縮部202と、分離部203と、記憶部204と、通信部205とを含む。
第1の圧縮部201は、撮像装置110から第1の映像11を受け取る。第1の圧縮部201は、第1の映像11に複数の領域を設定する。そして、第1の圧縮部201は、設定した複数の領域の各々が独立して復号可能であるように、第1の映像11を領域毎に圧縮することによって第1のビットストリーム13を得る。第1の圧縮部201は、第1のビットストリーム13を分離部203へと出力する。
以降の説明において、圧縮映像データはビットストリームの形式で取り扱われ、「ビットストリーム」の用語は基本的には圧縮映像データを指す。なお、圧縮音声データ、映像に関する情報、再生方式に関する情報、チャネルに関する情報、多重化方式に関する情報などがビットストリームの形式で取り扱われてもよい。
ビットストリームは、マルチメディアコンテナに格納されてもよい。マルチメディアコンテナとは、映像、音声などの圧縮データ(すなわち、ビットストリーム)を格納するためのファイルフォーマットである。マルチメディアコンテナは、例えばMPEG(Moving Picture Experts Group)−2 System、MP4(MPEG−4 Part 14)、MPEG−DASH(Dynamic Adaptive Streaming over HTTP)、ASF(Advanced Systems Format)などにおいて規定されているものでよい。また、圧縮データは複数のビットストリームまたはセグメントを含むが、セグメント毎に1つのファイルを作成してもよいし、複数のセグメント毎に1つのファイルを作成してもよい。
第2の圧縮部202は、撮像装置110から第2の映像12を受け取る。第2の圧縮部202は、第2の映像12に複数の領域を設定する。そして、第2の圧縮部202は、設定した複数の領域の各々が独立して復号可能であるように、第2の映像12を領域毎に圧縮することによって第2のビットストリーム14を得る。第2の圧縮部202は、第2のビットストリーム14を分離部203へと出力する。
なお、第1のビットストリーム13および第2のビットストリーム14は、ビットレートにおいて異なる。例えば、第1のビットストリーム13のビットレートは1Mbpsであり、第2のビットストリーム14のビットレートは5Mbpsである。ここで、第1の映像11および第2の映像12が同一であるならば、第2のビットストリーム14の復号映像は、第1のビットストリーム13の復号映像に比べて通常は高画質となる。
第1の圧縮部201が第1の映像11に含まれる第1のピクチャに設定する領域の第1の分割法、ならびに、第2の圧縮部202が第2の映像12に含まれる第2のピクチャ(例えば、第1のピクチャと同一時刻のピクチャ)に設定する領域の第2の分割法は、共通であることが好ましい。
第1の分割法は第1の映像11の中で固定であってもよいし可変であってもよい。同様に、第2の分割法は第2の映像12の中で固定であってもよいし可変であってもよい。例えば、第1の分割法および第2の分割法は、第1の映像11および第2の映像12の映像フォーマット(例えば、サイズ、フレームレートなど)に応じてそれぞれ変更されてよい。第1の分割法および第2の分割法は、ユーザの設定に従って決定されてもよいし、例えばシステムのリソースなどに応じて自動的に変更されてもよい。
なお、スタティック型のアダプティブストリーミングでは、配信用のビットストリームを特定のランダムアクセスポイントにおいて切り替え可能である。故に、第1の分割法および第2の分割法は、好ましくは、隣接するランダムアクセスポイント間に位置するピクチャ(すなわち、セグメントの途中)では変更されない。換言すれば、第1の分割法および第2の分割法は、好ましくは、ランダムアクセスポイントに位置するピクチャにおいて変更される。
第1の圧縮部201および第2の圧縮部202がサポートする映像符号化方式(コーデック)は特に限定されないが、典型的なコーデックでは、図3に例示されるように符号化対象画像21が所定のブロック単位で符号化される。図3の例では、符号化対象ブロック23は、ラスタスキャン順で決定される。故に、符号化対象ブロック23よりも上側の列に位置するブロックおよび符号化対象ブロック23と同列かつ左側に位置するブロックが、符号化済み領域22に相当する。
前述のように、第1の圧縮部201は、設定した複数の領域の各々が独立して復号可能であるように第1の映像11を領域毎に圧縮し、第2の圧縮部202は、設定した複数の領域の各々が独立して復号可能であるように第2の映像12を領域毎に圧縮する。
領域は、図4に例示されるスライス24に相当してもよい。スライスは、ITU−T(International Telecommunication Union Telecommunication Standardization Sector)とISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)との共同で勧告された、ITU−T REC. H.264およびISO/IEC 14496−10(以下、単に「H.264」と称する)において規定されている。任意のスライスは、他のスライスから影響を受けないので、独立に圧縮することができる。そして、任意のスライスは独立して復号可能である。すなわち、任意のスライスのビットストリームと他のスライスのビットストリームとの間に依存関係がないので、他のスライスのビットストリームを必要とせずに任意のスライスを復号することが可能である。
或いは、領域は、図5に例示されるタイル25に相当してもよい。タイルは、ITU−TとISO/IECとの共同で勧告された、ITU−T REC. H.265、及びISO/IEC 23008−2(以下、単に「HEVC」と称する)において規定されている。HEVCは、前述のH.264の符号化効率を大幅に向上させたコーデックであり、前述のスライス分割に加えてタイル分割が利用可能である。タイルは、符号化対象画像を任意の矩形状に分割した領域である。
タイル分割には、2種類の方式が用意されている。第1の方式によれば、符号化対象画像はタイル分割され、各タイルがさらにスライス分割される。第2の方式によれば、符号化対象画像はスライス分割され、各スライスはさらにタイル分割される。タイル分割の方式に関わらず、各タイルまたは各スライスは、独立して復号可能であるようにタイル単位またはスライス単位で圧縮可能である。図5の例によれば、符号化対象画像が4つのタイルへと分割され、各タイルが1つのスライスへと分割されている。図5に示される「0」、「1」、「2」、「3」は、タイルを識別する情報(タイル番号とも呼ばれる)である。以降の説明では、係る分割法が採用されるものとする。
H.264およびHEVCによれば、圧縮データはNAL(Network Adstration Layer)ユニットと呼ばれるパケット毎にまとめてシステムレイヤで伝送される。システムレイヤでは、データはNALユニット毎に取り扱われる。そして、(映像再生装置300に含まれる)デコーダは、所与のNALユニットのヘッダ情報またはマルチメディアコンテナの情報に基づいて、当該NALユニットの内容を大まかに知ることができる。各スライスは、個別のNALユニットとしてまとめられ、かつ、独立に復号可能である。従って、デコーダは、圧縮映像データとしてのビットストリームを必ずしも全て復号する必要はなく、必要なNALユニットを抽出して復号すればよい。
分離部203は、第1の圧縮部201から第1のビットストリーム13を受け取り、第2の圧縮部202から第2のビットストリーム14を受け取る。分離部203は、第1のビットストリーム13を領域単位で分離し、それぞれ形式を整える(例えば適切なヘッダ情報を付加する)ことで、分離された第1のビットストリーム15−1を生成する。分離された第1のビットストリーム15−1は、領域毎のビットストリームを含む。同様に、分離部203は、第2のビットストリーム14を領域単位で分離し、それぞれ形式を整えることによって、分離された第2のビットストリーム15−2を生成する。分離された第2のビットストリーム15−2は、領域毎のビットストリームを含む。分離部203は、分離ビットストリーム15(これは、分離された第1のビットストリーム15−1および分離された第2のビットストリーム15−2を含む)を記憶部204へと出力する。
具体的には、分離部203は、図6に例示される第1のビットストリーム13を領域(タイル)単位で分離し、それぞれ形式を整えることで、図7に例示される分離された第1のビットストリーム15−1を生成する。第1のビットストリーム13は、「Head」と記載されたヘッダ情報に対応するNALユニットと、領域(図6の例ではタイル)毎の圧縮映像データに対応するNALユニットとを含む。ヘッダ情報は、SPS(Sequence Parameter Set)、VPS(Video Parameter Set)、PPS(Picture Parameter Set)、VUI(Video Usability Information)などのピクチャに関するハイレベルのシンタクス情報を含む。
前述のように、各タイルは1つのスライスに分割される。故に、図6の例によれば、第1のビットストリーム13は、所与の時刻(t)に関連付けられる4つのタイルの圧縮データに対応するNALユニット(すなわち、Tile1−0(t)、Tile1−1(t)、Tile1−2(t)およびTile1−3(t))を含む。例えば、フレームレートが60フレーム/秒である映像に対して1秒毎にランダムアクセスポイントが設定されているならば、各ビットストリームは相異なる時刻に関連付けられる合計60枚のピクチャの圧縮データを含み、ピクチャ毎に4つのタイルの圧縮データに対応するNALユニットを含む。
なお、図6の例では、タイルの圧縮データに対応するNALユニットは、Tile1−0(t)、Tile1−1(t)、Tile1−2(t)およびTile1−3(t)の順で配列されているが、これらの順序は特に限定されない。各タイルの圧縮データに対応するNALユニットは時刻およびタイル番号に基づいて一意に識別することができるので、これらがどのような順序で配列されていたとしてもデコーダは所望のNALユニットを復号できる。
なお、ここでは複数の時刻に1つのHeadを付ける例を示しているが、時刻毎にHeadを付けることも可能であるし、Tile毎にHeadを付けることも可能である。
分離された第1のビットストリーム15−1は、図7の例によれば、タイル0の第1のビットストリーム15−1−0、タイル1の第1のビットストリーム15−1−1、タイル2の第1のビットストリーム15−1−2およびタイル3の第1のビットストリーム15−1−3を含む。各タイルのビットストリームは、ヘッダ情報(「Head」)と、当該タイルの圧縮データに対応するNALユニットとを含む。
記憶部204には、分離ビットストリーム15が保存される。分離ビットストリーム15は、通信部205によって必要に応じて記憶部204から読み出される。記憶部204は、例えばHDD、SSD、種々のメモリなどによって実装される。
通信部205は、所定の通信プロトコルに従い、外部装置(例えば、映像再生装置300)とチャネル120を介して通信データ16をやり取りする。通信データ16は、例えば、記憶部204から読み出された配信用のビットストリームであってもよいし、外部装置からのビットストリーム送信要求および領域情報であってもよい。具体的には、通信部205は、チャネル120を介して、外部装置からのビットストリーム送信要求および領域情報を受信すると、記憶部204に記憶されているビットストリームのうち当該領域情報に対応するビットストリームを読み出す。通信部205は、チャネル120を介して、読み出されたビットストリームを映像再生装置300へと送信する。
なお、図2の例では、記憶部204には、分離ビットストリーム15が保存される。しかしながら、記憶部204には、分離ビットストリーム15の代わりに第1のビットストリーム13および第2のビットストリーム14が保存されてもよい。この場合には、通信部205が外部装置からのビットストリーム送信要求および領域情報を受信してから、記憶部204から第1のビットストリーム13および第2のビットストリーム14が読み出され、分離部203が分離ビットストリーム15を生成する。
図2の映像圧縮装置200は、図14に例示されるように映像圧縮処理を行う。図14の映像圧縮処理は、映像圧縮装置200が撮像装置110から第1の映像11および第2の映像12を受け取ることで開始する。
第1の圧縮部201および第2の圧縮部202は、第1の映像11および第2の映像12に対してそれぞれ複数の領域を設定する(ステップS11)。さらに、第1の圧縮部201および第2の圧縮部202は、第1の映像11および第2の映像12に対してそれぞれ目標ビットレートを設定する(ステップS12)。
第1の圧縮部201は、ステップS12において設定した目標ビットレートに従い、ステップS11において設定した複数の領域の各々が独立して復号可能であるように、第1の映像11を圧縮することによって、第1のビットストリーム13を生成する(ステップS13)。他方、第2の圧縮部202は、ステップS12において設定した目標ビットレートに従い、ステップS11において設定した複数の領域の各々が独立して復号可能であるように、第2の映像12を圧縮することによって、第2のビットストリーム14を生成する(ステップS14)
分離部203は、ステップS13において生成された第1のビットストリーム13およびステップS14において生成された第2のビットストリーム14をそれぞれ領域単位で分離し、それぞれ形式を整えることで、分離ビットストリーム15を生成する(ステップS15)。記憶部204には、ステップS15において生成された、分離ビットストリーム15が保存され(ステップS16)、図14の映像圧縮処理は終了する。
図2の映像圧縮装置200は、図15に例示されるように映像配信処理を行う。
通信部205は、チャネル120を介して、ビットストリーム送信要求および領域情報を受信する(ステップS21)。通信部205は、ステップS21において受信した領域情報に従って、分離された第2のビットストリーム15−2から当該領域情報の示す特定領域のビットストリームを選択し、分離された第1のビットストリーム15−1から当該特定領域とは異なる領域のビットストリームを選択する(ステップS22)。
通信部205は、チャネル120を介して、ステップS22において選択したビットストリームを映像再生装置300へと送信し(ステップS23)、図15の映像配信処理は終了する。
図8に例示されるように、映像再生装置300は、通信部301と、ストリーム制御部302と、結合部303と、第1の復号部304とを含む。
通信部301は、所定の通信プロトコルに従い、外部装置(例えば、映像圧縮装置200)とチャネル120を介して通信データ31をやり取りする。通信データ31は、例えば、ストリーム制御部302からのビットストリーム送信要求および領域情報であってもよいし、外部装置からの配信用のビットストリーム(例えば、第1のビットストリーム33−1および第2のビットストリーム33−2)であってもよい。具体的には、通信部301は、ストリーム制御部302からの制御に従って、チャネル120を介してビットストリーム送信要求および領域情報を映像圧縮装置200へと送信する。通信部301は、チャネル120を介して第1のビットストリーム33−1および第2のビットストリーム33−2を受信すると、当該第1のビットストリーム33−1および第2のビットストリーム33−2をストリーム制御部302へと出力する。
ストリーム制御部302は、通信部301によって受信されたビットストリームなどの情報に基づいてチャネル120の帯域予測を行うことによって、利用可能な帯域(すなわち、チャネル120を介して取得できるデータサイズ(ビットレート))を導出する。ストリーム制御部302は、少なくとも利用可能な帯域に基づいて、画質向上用のビットストリーム(例えば、分離された第2のビットストリーム15−2)から送信を要求する特定領域を識別する情報(例えば、特定領域に対応するタイル番号またはスライス番号)を含む領域情報を生成する。なお、ストリーム制御部302は、利用可能な帯域に加えてユーザ要求32に基づいて、領域情報を生成してもよい。ストリーム制御部302は、通信部301に、ビットストリーム送信要求および領域情報を送信させる。ストリーム制御部302は、通信部301から第1のビットストリーム33−1および第2のビットストリーム33−2を受け取ると、当該第1のビットストリーム33−1および第2のビットストリーム33−2を結合部303へと出力する。
具体的には、ストリーム制御部302は、スタティック型のアダプティブストリーミング技術に付随する帯域予測を行う。係る帯域予測によれば、過去の受信ビットストリームのデータサイズ(ビットレート)、その受信時間などに基づいて、将来に受信可能なビットストリームのデータサイズ(ビットレート)を予測することができる。
一般的なスタティック型のアダプティブストリーミング技術によれば、図9に例示されるように、帯域予測によって導出された利用可能な帯域に基づいて、配信用のビットストリームがセグメント単位で適応的に選択される。図9の例では、ビットレートの異なるビットストリームA、ビットストリームBおよびビットストリームCが選択可能である。ビットストリームAのビットレートは最も低く、ビットストリームCのビットレートは最も高い。
例えば、次のセグメントについて利用可能な帯域が広くなると予測される場合には、次のセグメントでは現行のセグメントよりも高いビットレートを持つビットストリームが選択されるかもしれない。他方、次のセグメントについて利用可能な帯域が狭くなると予測される場合には、次のセグメントでは現行のセグメントよりも低いビットレートを持つビットストリームが選択されるかもしれない。このように配信用のビットストリームを適応的に選択することで、帯域の変動に関わらず映像を途切れなく再生することが可能となる。なお、図9に例示される一般的なスタティック型のアダプティブストリーミング技術は、Webブラウザ向けの映像配信において既に活用されている。
第1の映像11および第2の映像12に対してそれぞれ設定された領域の総数をMとし、第1のビットストリーム13のビットレートをN[Mbps]とし、第2のビットストリーム14のビットレートをO[Mbps]とし、帯域予測によって導出された利用可能な帯域をP[Mbps]とし、分離された第1のビットストリーム15−1から送信を要求する領域の総数をTとすると、ストリーム制御部302は下記数式(1)が満足するようにTを定める必要がある。
Figure 0006305279
数式(1)において左辺は、送信を要求するビットストリームの合計データサイズを表す。数式(1)において(M−T)は、分離された第2のビットストリーム15−2から送信を要求する領域の総数を表す。前述のように、第2のビットストリーム14のビットレートは第1のビットストリーム13のビットレートに比べて高いので、分離された第2のビットストリーム15−2は画質向上用のビットストリームに相当する。従って、数式(1)を満足させるTの最小値を用いることで、利用可能な帯域の下で復号映像35の画質を最大化させることができる。
なお、上記数式(1)では、帯域を最大限活用するために、分離された第1のビットストリーム15−1から送信を要求する領域の総数(T)と分離された第2のビットストリーム15−2から送信を要求する領域(すなわち、特定領域)の総数(M−T)との和がMに一致すると仮定している。故に、送信を要求する領域は、好ましくは、分離された第1のビットストリーム15−1と分離された第2のビットストリーム15−2との間で重複しない。係る重複が存在する場合には、表示映像(すなわち、復号映像35)において表示不可能(データなし)領域が発生する。
T>1の場合には、ストリーム制御部302は、分離された第2のビットストリーム15−2からいずれの領域の送信を要求するかを選択する必要がある。ここで、ストリーム制御部302はユーザの注目度が高い領域を特定領域として優先的に選択することによって、表示映像の主観画質を効率的に向上させることができる。
例えば、ストリーム制御部302は、特定領域として優先的に選択する領域(以下、優先領域と呼ばれる)を自動的に若しくはユーザ要求32に基づいて予め定めておいてもよい。優先領域の総数をSとし、下記数式(2)が満足しない場合には、ストリーム制御部302は優先領域を全て特定領域として選択可能である。他方、数式(2)が満足する場合には、ストリーム制御部302は優先領域をさらに絞り込む必要がある。
Figure 0006305279
或いは、ストリーム制御部302は、各領域の優先度を自動的に若しくはユーザ要求32に基づいて計算し、領域と優先度とを対応付ける優先度リストを作成してもよい。この場合に、ストリーム制御部302は、優先度が最も高い領域から第(M−T)番目に高い領域までを特定領域として選択する。なお、優先度リストは、動的に更新されてもよいし、固定であってもよい。
例えば、第1の映像11および第2の映像12が固定カメラによって撮影された監視映像に相当し、監視対象が予め固定されているかもしれない。この場合には、各領域の優先度を画角に応じて算出し、算出された優先度を固定的に利用してもよい。
また、一般的に、ユーザの視線は画面の端に比べて画面の中心に集まりやすいので、ストリーム制御部302は、例えば画面中心(或いは他の所定位置)からの距離が小さい領域ほど優先度が高くなるように優先度を算出してもよい。同様に、一般的に、ユーザの視線は静止したオブジェクトに比べて動きのあるオブジェクトに集まりやすいので、ストリーム制御部302は、動きのあるオブジェクトを含む領域およびその周辺領域の優先度がより高くなるように優先度を算出してもよい。
さらに、ストリーム制御部302は、過去の受信ビットストリームを復号することによって得られた圧縮パラメータに基づいて、各領域の優先度を算出してもよい。圧縮パラメータは、例えば、符号量、量子化パラメータ、動き情報(例えば、動きベクトル)、予測モード情報などである。(映像圧縮装置200に含まれる)エンコーダは、圧縮するのが難しい領域、動きの激しい領域、テクスチャが細かい領域、過去の映像に対して変化の生じた領域、当該エンコーダが何らかの理由で重要であると判断した領域などに大きな符号量を割り当てたと考えられる。故に、ストリーム制御部302は、例えば過去に割り当てられた符号量が大きい領域ほど優先度が高くなるように優先度を算出してもよい。
前述のように、ストリーム制御部302は、利用可能な帯域に加えてユーザ要求32に基づいて領域情報を生成してもよい。ユーザは、外部装置(例えば、表示装置130)を介してユーザ要求32を入力できる。ユーザ要求32は、通信データ31の一部として通信部301によって受信されてもよい。
ユーザ要求32は、例えば、ユーザが高画質での視聴を要求したユーザ要求領域を識別する情報(例えば、ユーザ要求領域に対応するタイル番号またはスライス番号、ユーザによって指定された座標情報など)であってもよい。ストリーム制御部302は、ユーザ要求32の示すユーザ要求領域を前述の優先領域に含めてもよいし、当該ユーザ要求領域の優先度がより高くなるように優先度を算出してもよい。或いは、ストリーム制御部302は、ユーザ要求32の示すユーザ要求領域からの距離が小さい領域ほど優先度が高くなるように優先度を算出してもよい。
ユーザ要求32は、外部装置(例えば表示装置130)によって作成された、領域と優先度とを対応付ける優先度リストであってもよい。具体的には、表示装置130は以下に説明されるようにユーザ要求32としての優先度リストを作成できる。
ユーザは、入力I/F134を操作することにより、高画質での視聴を要求する領域を指定する。ユーザは、ディスプレイ132に復号映像35が表示されている間に入力I/F134を操作してもよい。ユーザ要求32としての優先度リストを作成するためには、入力I/F134は、ユーザが画面内の任意のポイントを指定することを可能にする入力デバイスであればよい。
例えば図28に示されるように、ユーザは、入力I/F134としてのマウスをクリックすることにより、高画質での視聴を要求するポイント(例えば、ユーザが注目するオブジェクトなどの任意の1点)を指定してもよい。図28の例によれば、表示装置130は、入力座標情報(例えば、クリック時のマウスポインタの座標情報)を検出し、当該入力座標情報の属する領域を判定することによって、1つのユーザ要求領域を特定する。
表示装置130は、特定されたユーザ要求領域の優先度がより高くなるように優先度を算出してもよい。但し、図28の例によれば、特定されるユーザ要求領域は1つである。故に、各領域のサイズが小さい場合には、ユーザが注目するオブジェクトなどがユーザ要求領域に収まらないおそれがある。
そこで、表示装置130は、ユーザ要求領域からの距離が小さい領域ほど優先度が高くなるように優先度を算出してもよい。このように優先度を算出することで、表示装置130はユーザ要求領域およびその周辺領域を高画質で表示しやすくなる。さらに、表示装置130は、前述の圧縮パラメータをさらに考慮して各領域の優先度を算出してもよい。例えば、ユーザ要求領域の圧縮パラメータと類似する圧縮パラメータに関連付けられる領域は、当該ユーザ要求領域と同一のオブジェクトを表す可能性が高い。他方、ユーザ要求領域の圧縮パラメータと非類似の圧縮パラメータに関連付けられる領域は、当該ユーザ要求領域とは異なるオブジェクトを表すかもしれない。例えば、ユーザ要求領域が動きのあるオブジェクトを表す場合に、静止した背景を表す領域の圧縮パラメータは当該ユーザ要求領域の圧縮パラメータとは大きく異なるであろう。故に、表示装置130は、係る圧縮パラメータ間の類似性を考慮し、ユーザ要求領域とは異なるオブジェクトを表す周辺領域の優先度が不必要に高く算出されることを予防可能である。
或いは、図29に示されるように、ユーザは、入力I/F134としてのマウスを操作することにより、高画質での視聴を要求する領域の輪郭線を指定してもよい。輪郭線は、直線であってもよいし、曲線であってもよいし、直線および曲線の組み合わせであってもよい。図29の例によれば、表示装置130は、入力座標情報(例えば、輪郭線の座標情報)を検出し、当該入力座標情報のいずれかが属する領域と当該領域によって囲まれる領域とを判定することによって、1以上のユーザ要求領域を特定する。
表示装置130は、特定されたユーザ要求領域の優先度がより高くなるように優先度を算出してもよい。図29の例によれば、ユーザが注目するオブジェクトなどが収まるようにユーザ要求領域を指定することが可能となる。
図28および図29の例では、ユーザ要求領域は画面内の1つのロケーションに集中する。故に、このようにユーザ要求領域を指定することは、例えば1人のユーザが1つのオブジェクトに注目するケースで有用である。他方、例えば1人のユーザが複数のオブジェクトに注目するケース、複数のユーザが個別のオブジェクトに注目するケースなどでは、ユーザ要求領域は画面内の複数のロケーションに分散することが好ましいかもしれない。
例えば図30に示されるように、ユーザは、入力I/F134としてのタッチパネルをなぞることにより、高画質での視聴を要求する相異なる領域の輪郭線をそれぞれ指定してもよい。なお、1人のユーザが複数の輪郭線を指定してもよいし、複数人のユーザが個別の輪郭線を指定してもよい。複数人のユーザが個別の輪郭線を指定する場合には、各ユーザが個別のタッチパネル(すなわち、入力I/F134)を操作してもよい。輪郭線は、直線であってもよいし、曲線であってもよいし、直線および曲線の組み合わせであってもよい。図30の例によれば、表示装置130は、入力座標情報(例えば、各輪郭線の座標情報)を検出し、当該入力座標情報のいずれかが属する領域と当該領域によって囲まれる領域とを判定することによって、1以上のユーザ要求領域を特定する。
表示装置130は、特定されたユーザ要求領域の優先度がより高くなるように優先度を算出してもよい。なお、複数人のユーザが個別の輪郭線を指定する場合には、ユーザ毎に優先度を重み付けすることも可能である。例えば、表示装置130は、あるユーザによって指定された輪郭線に基づいて特定されたユーザ要求領域に割り当てられる優先度に比べて、別のユーザによって指定された輪郭線に基づいて特定されたユーザ要求に割り当てる優先度が高くなるように優先度を算出してもよい。図30の例によれば、ユーザ要求領域を画面内の複数のロケーションに分散させることが可能となる。
表示装置130は、好ましくは、ユーザ要求32のデフォルト値(例えば、初期優先度リスト)を予め設定する。ユーザが入力I/F134を操作するまで、表示装置130はこのデフォルト値をユーザ要求32として映像再生装置300へと出力してもよい。ストリーム制御部302は、このユーザ要求32を利用することで、ユーザが入力I/F134を操作しない場合であっても、ユーザの注目度が高くなりやすい領域(例えば、画面中心に近い領域)を特定領域として優先的に選択し、表示映像の主観画質を効率的に向上させることができる。
図1の表示装置130は、図18に例示されるようにユーザ要求作成処理を行う。図18のユーザ要求作成処理は、表示装置130以外の外部装置によって行われてもよいし、映像再生装置300によって行われてもよい。
表示装置130は、最初に、ユーザ要求32のデフォルト値を設定する(ステップS71)。例えば、表示装置130は、画面中心からの距離が小さい領域ほど優先度が高くなるように優先度を算出し、領域と優先度を対応付ける初期優先度リストを作成してもよい。ステップS71において設定されたデフォルト値は、ユーザが入力I/F134を操作するまでユーザ要求32として映像再生装置300によって利用される。
ステップS71の後に、ユーザが入力I/F134を操作すると、表示装置130は当該入力I/F134に対する入力座標情報を検出する(ステップS72)。表示装置130は、ステップS72において検出した入力座標情報に基づいてユーザ要求領域を特定する(ステップS73)。表示装置130は、ステップS73において特定したユーザ要求領域に基づいて各領域の優先度を算出し、領域と優先度とを対応付ける優先度リストを作成する(ステップS74)。表示装置130が優先度リストをユーザ要求32として映像再生装置300へと出力し、図18のユーザ要求作成処理は終了する。
結合部303は、ストリーム制御部302から第1のビットストリーム33−1および第2のビットストリーム33−2を受け取る。結合部303は、領域単位のビットストリームに相当する第1のビットストリーム33−1および第2のビットストリーム33−2を結合し、形式を整える(例えば適切なヘッダ情報を付加する)ことで、ピクチャ単位のビットストリームに相当する結合ビットストリーム34を生成する。すなわち、結合部303は分離部203の逆処理を行う。結合部303は、結合ビットストリーム34を第1の復号部304へと出力する。
具体的には、結合部303は、図10に例示される第1のビットストリーム33−1および図11に例示される第2のビットストリーム33−2を結合することによって、図12に例示される結合ビットストリーム34を生成する。図10、図11および図12の例では、ストリーム制御部302は、分離された第1のビットストリーム15−1からタイル0のビットストリームの送信を要求し、分離された第2のビットストリーム15−2からタイル1、タイル2およびタイル3のビットストリームの送信を要求している。なお、図10、図11および図12の例では、ストリーム制御部302が送信を要求した領域は分離された第1のビットストリーム15−1と分離された第2のビットストリーム15−2との間で重複しないので、帯域は有効活用されている。
図10の第1のビットストリーム33−1は、タイル0の第1のビットストリーム33−1−0を含んでいるがタイル1、タイル2およびタイル3の第1のビットストリームを含んでいない。他方、図11の第2のビットストリーム33−2は、タイル1の第2のビットストリーム33−2−1、タイル2の第2のビットストリーム33−2−2およびタイル3の第2のビットストリーム33−2−3を含んでいるがタイル0の第2のビットストリームを含んでいない。そして、図12の結合ビットストリーム34は、分離された第1のビットストリーム15−1に由来するタイル0の圧縮データと、分離された第2のビットストリーム15−2に由来するタイル1、タイル2およびタイル3の圧縮データを含む。
第1の復号部304は、結合部303から結合ビットストリーム34を受け取る。第1の復号部304は、結合ビットストリーム34を復号することによって、復号映像35を生成する。第1の復号部304は、第1の圧縮部201および第2の圧縮部202と共通のコーデックを用いる。第1の復号部304は、復号映像35を外部装置(例えば、表示装置130)へと出力する。復号映像35は、外部装置のバッファに保存され、ユーザによる視聴のために適時に表示される。
図8の映像再生装置300は、図16に例示されるように映像要求処理を行う。図16の映像要求処理が開始すると、ストリーム制御部302は、ネットワークの帯域予測を行うことによって、利用可能な帯域を導出する(ステップS31)。
ストリーム制御部302は、ステップS31において導出した利用可能な帯域を超えないように、分離された第1のビットストリーム15−1および分離された第2のビットストリーム15−2のそれぞれから送信を要求する領域数を設定する(ステップS32)。
ストリーム制御部302は、ステップS32において設定した領域数に従い、優先度リストを用いて、分離された第2のビットストリーム15−2から送信を要求する特定領域を選択し、当該特定領域を識別する領域情報を設定する(ステップS33)。
ストリーム制御部302は、通信部301に、ビットストリーム送信要求およびステップS33において設定した領域情報を送信させ(ステップS34)、図16の映像要求処理は終了する。
図8の映像再生装置300は、図17に例示されるように映像再生処理を行う。
通信部301は、チャネル120を介して、第1のビットストリーム33−1および第2のビットストリーム33−2を受信する(ステップS41)。
結合部303は、ステップS41において受信された第1のビットストリーム33−1および第2のビットストリーム33−2を結合し、形式を整えることで、結合ビットストリーム34を生成する(ステップS42)。
第1の復号部304は、ステップS42において生成された結合ビットストリーム34を復号することによって、復号映像35を生成する(ステップS43)。さらに、第1の復号部304がステップS43において生成した復号映像35を外部装置(例えば、表示装置130)へと出力し(ステップS44)、図17の映像再生処理は終了する。
第1の実施形態に係る映像配信システムは図13に例示されるように動作する。図13の例では、第1の映像11および第2の映像12がそれぞれ63個のタイルに分割され、第1のビットストリーム13のビットレートが1Mbpsであり、第2のビットストリーム14のビットレートが5Mbpsである。前述のように、記憶部204には、第1のビットストリーム13および第2のビットストリーム14をそれぞれタイル単位で分離することによって得られる、分離された第1のビットストリーム15−1および分離された第2のビットストリーム15−2が保存される。
ストリーム制御部302は、上記数式(1)を満足するTの最小値が59であると導出する。それから、ストリーム制御部302は、例えば優先度リストに基づいて4個の特定領域を選択し、選択された特定領域を識別する領域情報を生成する。前述のように、ストリーム制御部302は、領域の優先度に従って特定領域を選択することにより、表示映像の主観画質を効率的に向上させることができる。ストリーム制御部302は、通信部301に、ビットストリーム送信要求および領域情報を送信させる。
結果的に、通信部301は、分離された第2のビットストリーム15−2から特定領域に相当する4個のタイルのビットストリームを受信し、分離された第1のビットストリーム15−1から特定領域とは異なる59個のタイルのビットストリームを受信する。すなわち、第1のビットストリーム33−1および第2のビットストリーム33−2は、図13において点描で示されるタイルのビットストリームを含まない。結合部303は、第1のビットストリーム33−1および第2のビットストリーム33−2を結合することによって結合ビットストリーム34を生成する。第1の復号部304は、結合ビットストリーム34を復号することによって、復号映像35を生成する。復号映像35のビットレートは、約1.2(=59×1/63+4×5/63)Mbpsと概算できるが、ストリーム制御部302は利用可能な帯域の増減に応じて特定領域の数を調整することにより復号映像35のビットレートを柔軟に変更できる。
なお、ストリーム制御部302は、例えば各領域の過去のビットレートの累積値を用いて領域毎のビットレート予測を行うことにより、より微小なビットレート変動向けのアダプティブストリーミング技術を実現してもよい。
以上説明したように、第1の実施形態に係る映像配信システムにおいて、映像圧縮装置は、第1の映像および第2の映像に対して複数の領域を設定し、当該複数の領域の各々が独立して復号可能であるように当該第1の映像および第2の映像を領域毎に圧縮することによって、第1のビットストリームおよび第2のビットストリームを生成する。映像圧縮装置は、第1のビットストリームおよび第2のビットストリームを前述の領域単位で分離するので、映像再生装置は当該領域単位で第1のビットストリームまたは第2のビットストリームを選択して要求できる。故に、このシステムによれば、映像圧縮装置が膨大なビットストリームを用意しなくても、映像再生装置は利用可能な帯域に応じて送信を要求するビットストリームのデータサイズを柔軟に変更できるので画質劣化を抑制しながら映像を安定的に再生できる。
さらに、映像再生装置は、画質向上用のビットストリームから送信を要求する領域(特定領域)を利用可能な帯域の下で任意に選択可能である。従って、このシステムによれば、画質向上用のビットストリームからユーザの注目度が高い領域を優先的に特定領域として選択することで、表示映像の主観画質を効率的に向上させることができる。
(第2の実施形態)
第2の実施形態に係る映像配信システムは、図1の映像配信システム100のうち映像圧縮装置200および映像再生装置300を映像圧縮装置400および映像再生装置500へとそれぞれ変形したシステムに相当する。
映像圧縮装置400および映像再生装置500は、SVC(Scalable Vide Coding)を行う。SVC(階層符号化とも呼ばれる)は、ベースレイヤおよび1以上の拡張レイヤを用いて映像を階層的に符号化する。各拡張レイヤは、ベースレイヤまたはより下層の拡張レイヤを参照することで高効率に予測符号化することができる。以降の説明では、映像圧縮装置400および映像再生装置500は、標準化済みであるH.264のSVC方式を用いると仮定されるが、例えば、標準化作業中であるHEVCのSVC方式、多視点符号化(MVC:Multi−view Video Coding)方式などを用いてもよい。
図19に例示されるように、映像圧縮装置400は、第1の圧縮部401と、第2の圧縮部402と、分離部403と、記憶部404と、通信部205と、変換部406とを含む。
変換部406は、撮像装置110から第1の映像11を受け取る。変換部406は、第1の映像11に対して所定の変換を適用することによって、第1の変換映像41を生成する。変換部406は、第1の変換映像41を第2の圧縮部402へと出力する。
所定の変換は、例えば、(1)解像度の拡大または縮小、(2)フレームレートの増加または削減、(3)インターレース映像からプログレッシブ映像を生成するためのI(Interlace)/P(Progressive)変換(デインタレース処理とも呼ばれる)またはその逆のP/I変換、(4)画素ビット長(画素深度、ダイナミックレンジなどと呼ぶこともできる)の拡大または縮小、(5)色空間の変更、(6)画角の変更、ならびに、(7)幾何学的変換、のうち一部または全部に相当してもよい。所定の変換は、映像圧縮装置400および映像再生装置500によって提供されるスケーラビリティの種別に応じて決定することができる。映像圧縮装置400および映像再生装置500は、例えば、解像度スケーラビリティ、時間スケーラビリティ(または、フレームレートスケーラビリティ)、ダイナミックレンジスケーラビリティ、色空間スケーラビリティ、コーデックスケーラビリティなどを提供可能である。
なお、映像圧縮装置400および映像再生装置500によって提供されるスケーラビリティの種別次第で、変換部406は省略されてもよい。例えば、映像圧縮装置400および映像再生装置500が、画質スケーラビリティ、ビットレートスケーラビリティ、PSNR(Peak Signal−to−Noise Ratio)スケーラビリティなどを提供する場合には、変換部406を省略可能である。
コーデックスケーラビリティとは、第1の圧縮部401と第2の圧縮部402とで異なるコーデック、すなわち圧縮規格や圧縮方法、を利用できることを指す。たとえば、HEVCのスケーラブル拡張機能を利用すれば、第1の圧縮部401のコーデックをH.264とし、第2の圧縮部402のコーデックをHEVCのスケーラブル拡張機能とした構成を実現できる。
第1の圧縮部401は、変換部406から第1の変換映像41を受け取る。第1の圧縮部401は、第1の変換映像41を圧縮することによって第1のビットストリーム43を得る。第1のビットストリーム43はベースレイヤに相当する。第1の圧縮部401は、第1のビットストリーム43を記憶部404へと出力する。さらに、第1の圧縮部401は、圧縮処理の一部である局所復号処理(参照画像生成処理と呼ぶこともできる)を行うことによって第1の復号映像47を生成し、第2の圧縮部402へと出力する。この第1の復号映像47は、符号化歪などを無視すれば、第1の変換映像41と等しい。
第2の圧縮部402は、撮像装置110から第2の映像12を受け取り、第1の圧縮部401から第1の復号映像47を受け取る。第2の圧縮部402は、第2の映像12に複数の領域を設定する。そして、第2の圧縮部402は、設定した複数の領域の各々が独立して復号可能であるように、第2の映像12を領域毎に第1の復号映像47に基づいて圧縮することによって第2のビットストリーム44を得る。第2のビットストリーム44は拡張レイヤに相当する。第2の圧縮部402は、第2のビットストリーム44を分離部403へと出力する。
第2の圧縮部402は、前述したとおり第1の圧縮部401と異なるコーデックを利用してもよい。例えば、第1の圧縮部401がH.264に従って第1の変換映像41を圧縮し、第2の圧縮部402がHEVCのスケーラブル拡張機能に従って第2の映像12を圧縮してもよい。
第2の圧縮部402は、前述の所定の変換の逆変換を必要に応じて第1の復号映像47に適用してもよい。なお、係る逆変換は、第2の圧縮部402の代わりに、第1の圧縮部401および第2の圧縮部402の間に挿入される図示されない逆変換部によって行われてもよい。
具体的には、第1の映像11および第2の映像12が同一の映像(例えば、3840×2160画素サイズの4K映像)であって、所定の変換が解像度の縮小に相当するならば、映像圧縮装置400および映像再生装置500は解像度スケーラビリティおよびPSNRスケーラビリティを提供できる。この場合に、第2の圧縮部402は、第1の復号映像47(例えば、1920×1080画素サイズのHD映像に相当)の解像度を拡大することで参照画像を生成し、当該参照画像を用いて第2の映像12を予測符号化する。解像度の縮小は、第1のビットストリーム43のビットレートの削減を容易にするので、狭帯域伝送に有効である。
第1の映像11および第2の映像12が同一の映像であって、所定の変換がフレームレートの削減に相当するならば、映像圧縮装置400および映像再生装置500は時間スケーラビリティを提供できる。なお、変換部406は、第1の映像11に対して、フレームドロップを適用することで、または、低域通過型のフィルタを時間方向に適用することで、フレームレートの削減を行ってもよい。この場合に、第2の圧縮部402は、第1の復号映像47のフレームレートを増加させる(例えば、第1の復号映像47に対してフレーム補間を適用する)ことで参照画像を生成し、当該参照画像を用いて第2の映像12を予測符号化する。
第1の映像11および第2の映像12が同一のプログレッシブ映像であって、所定の変換がPI変換に相当するとする。なお、変換部406は、奇数フレームと偶数フレームとで異なる位相を用いて第1の映像11の縦解像度をダウンコンバートする(例えば、低域通過型のフィルタを時間方向に適用する)ことでPI変換を行ってもよい。この場合に、第2の圧縮部402は、第1の復号映像47にIP変換を適用することで参照画像を生成し、当該参照画像を用いて第2の映像12を予測符号化する。
第1の映像11および第2の映像12が同一の映像であって、所定の変換が画素ビット長の縮小に相当するならば、映像圧縮装置400および映像再生装置500はダイナミックレンジスケーラビリティを提供できる。なお、変換部406は、第1の映像11の画素ビットを例えば2ビット右シフトすることで第1の映像11の画素ビット長を2ビット縮小してもよい。この場合に、第2の圧縮部402は、第1の復号映像47の画素ビット長を拡大する(例えば、第1の復号映像47の画素ビット長を例えば丸め処理を考慮して2ビット左シフトする)ことで参照画像を生成し、当該参照画像を用いて第2の映像12を予測符号化する。
第1の映像11および第2の映像12が同一の映像であって、所定の変換が色空間の変更に相当するとするならば、映像圧縮装置400および映像再生装置500は色空間スケーラビリティを提供できる。例えば、第1の映像11がITU−R BT.2020によって勧告される色空間(以降、単に「BT.2020の色空間」と称する)上の画像信号に相当し、第1の復号映像47がITU−R BT.709(以降、単に「BT.709の色空間」と称する)によって勧告される色空間上の画像信号に相当するとする。この場合に、第2の圧縮部402は、第1の復号映像47の色空間をITU−R BT.2020の色空間へと変更することで参照画像を生成し、当該参照画像を用いて第2の映像12を予測符号化する。
第1の映像11および第2の映像12が同一の映像であって、所定の変換が所定領域の切り出し(すなわち、画角の変更)であってもよい。所定領域は、好ましくは、ユーザの注目度が高い(または高くなりやすい)領域(例えば、監視対象領域、または、前述の特定領域、ユーザ要求領域若しくは優先領域など)である。この場合に、第2の圧縮部402は、第1の復号映像47を参照画像として用いてもよいし、第1の復号映像47の画角補正を行うことで参照画像を生成してもよい。第2の圧縮部402は、参照画像を用いて第2の映像12を予測符号化する。
画角補正は、所定領域の切り出しによって欠損した領域に対して画素値をパディングする処理であってもよい。パディング処理に用いられる画素値は、第1の映像11における上記欠損した領域の画素値に基づいて決定されてよい。また、パディング処理に用いられる画素値を示す情報が第2のビットストリーム44に埋め込まれてもよい。第2のビットストリーム44に係る情報を埋め込むことにより、映像再生装置500は第2の圧縮部402と同様の画角補正を行うことができる。変換部406が画角の変更を行うと、第2の圧縮部402における符号化効率は低くなりやすいが、利用可能な帯域が狭い場合には表示対象がピクチャ全体から上記所定領域へと制限されるので画質の劣化を抑制可能であるし、利用可能な帯域が広い場合には広画角かつ高解像度の映像を表示可能である。
映像圧縮装置400および映像再生装置500は、複数のスケーラビリティの組み合わせを提供することもできる。例えば、映像圧縮装置400および映像再生装置500は、解像度スケーラビリティおよび色空間スケーラビリティの組み合わせを提供してもよい。例えば、第1の復号映像47がフルハイビジョン放送の映像(すなわち、BT.709の色空間を持つHDTVサイズのインターレース映像)に相当し、第2の映像12が4K放送の映像(すなわち、BT.2020の色空間を持つ4Kサイズのプログレッシブ映像)に相当するとする。この場合に、第2の圧縮部402は、第1の復号映像47に対して、色空間の変更、解像度の拡大およびIP変換を適用することで参照画像を生成し、当該参照画像を用いて第2の映像12を予測符号化する。
或いは、映像圧縮装置400および映像再生装置500は、時間スケーラビリティ、解像度スケーラビリティおよびPSNRスケーラビリティの組み合わせを提供してもよい。第1の映像11および第2の映像12が同一の映像(例えば、3840×2160画素サイズかつ60fpsの4K映像)であって、所定の変換が解像度の縮小およびフレームレートの削減に相当するとする。この場合に、第2の圧縮部402は、第1の復号映像47(例えば、1920×1080画素サイズかつ30fpsのHD映像に相当)の解像度を拡大し、フレームレートを増加させることで参照画像を生成し、当該参照画像を用いて第2の映像12を予測符号化する。解像度の縮小およびフレームレートの削減は、第1のビットストリーム43のビットレートの削減を容易にするので、狭帯域伝送に有効である。
映像圧縮装置400および映像再生装置500は、本実施形態において例示されていないスケーラビリティを提供してもよい。上記所定の変換は、スケーラビリティに応じて適宜変更されてよい。また、映像圧縮装置400および映像再生装置500は本実施形態において例示されているスケーラビリティを提供する場合であっても、上記所定の変換は例示されたものに限定されない。例えば、映像圧縮装置400および映像再生装置500がダイナミックレンジスケーラビリティを提供する場合に、変換部406はビットシフトの代わりにガンマ変換を用いて画素ビット長を拡大または縮小してもよい。
なお、変換部406は、第1の映像11の代わりに第2の映像12に対して所定の変換を適用することによって、第2の変換映像を生成してもよい。例えば、変換部406は、第2の映像12の解像度を減少させたり、第2の映像12の所定領域を切り出したりすることによって、第2の変換映像を生成してもよい。変換部406が第2の映像12に対して係る変更を行うことにより、利用可能な帯域が狭い場合にもピクチャ全体の表示が可能であるし、利用可能な帯域が広い場合には上記所定の領域を高画質化することができる。
分離部403は、第2の圧縮部402から第2のビットストリーム44を受け取る。分離部403は、第2のビットストリーム44を領域単位で分離し、それぞれ形式を整える(例えば適切なヘッダ情報を付加する)ことによって、分離された第2のビットストリーム45を生成する。分離された第2のビットストリーム45は、領域毎のビットストリームを含む。分離部403は、分離された第2のビットストリーム45を記憶部404へと出力する。
なお、分離部403は、図19に示されるように、第1のビットストリーム43を分離しない。前述のように第1のビットストリーム43はベースレイヤに相当しており、SVC方式においてデコーダはベースレイヤを取得しない限り拡張レイヤを正しく復号できない。故に、映像再生装置500は、基本的にはピクチャの全域について第1のビットストリーム43の送信を要求するので、分離部403は第1のビットストリーム43を分離する必要がない。
但し、分離部403は、分離部203と同様に、第1のビットストリーム43を領域単位で分離してもよい。仮に、映像再生装置500が一部の領域について第1のビットストリーム43の送信を要求しなければ、当該領域は復号不可能であるから復号映像に欠損領域が生じてしまう。この場合に、映像再生装置500は、欠損領域を補てんする処理を行ってもよい。
記憶部404には、第1のビットストリーム43および分離された第2のビットストリーム45が保存される。第1のビットストリーム43および分離された第2のビットストリーム45は、通信部205によって必要に応じて記憶部404から読み出される。記憶部404は、例えばHDD、SSD、種々のメモリなどによって実装される。
なお、図19の例では、記憶部404には、分離された第2のビットストリーム45が保存される。しかしながら、記憶部404には、分離された第2のビットストリーム45の代わりに第2のビットストリーム44が保存されてもよい。この場合には、通信部205が外部装置からのビットストリーム送信要求および領域情報を受信してから、記憶部404から第2のビットストリーム44が読み出され、分離部403が分離された第2のビットストリーム45を生成する。
図19の映像圧縮装置400は、図24に例示されるように映像圧縮処理を行う。図24の例では、簡単化のために変換部406に関する説明は省略されている。図24の映像圧縮処理は、映像圧縮装置400が撮像装置110から第1の映像11および第2の映像12を受け取ることで開始する。
第2の圧縮部402は、第2の映像12に対して複数の領域を設定する(ステップS51)。さらに、第1の圧縮部401および第2の圧縮部402は、第1の映像11(或いは第1の変換映像41)および第2の映像12に対してそれぞれ目標ビットレートを設定する(ステップS52)。なお、第1のビットストリーム43は基本的にピクチャの全域について要求されるベースレイヤに相当するので、第1の映像11に対する目標ビットレートは適切な範囲で抑制しておくことが望ましい。
第1の圧縮部401は、ステップS52において設定した目標ビットレートに従い、第1の映像11(或いは第1の変換映像41)を圧縮することによって、ベースレイヤに相当する第1のビットストリーム43および第1の復号映像47を生成する(ステップS53)。
他方、第2の圧縮部402は、ステップS52において設定した目標ビットレートに従い、ステップS51において設定した複数の領域の各々が独立して復号可能であるように、ステップS53において生成された第1の復号映像47に基づいて第2の映像12を圧縮することによって、拡張レイヤに相当する第2のビットストリーム44を生成する(ステップS54)。
分離部403は、ステップS54において生成された第2のビットストリーム44を領域単位で分離し、それぞれ形式を整えることで、分離された第2のビットストリーム45を生成する(ステップS55)。
記憶部204には、ステップS53において生成された第1のビットストリーム43と、ステップS55において生成された、分離された第2のビットストリーム45が保存され(ステップS56)、図24の映像圧縮処理は終了する。
図20に例示されるように、映像再生装置500は、通信部301と、ストリーム制御部502と、結合部503と、第1の復号部504と、第2の復号部505とを含む。
ストリーム制御部502は、ストリーム制御部302と同様に、通信部301によって受信されたビットストリームなどの情報に基づいてチャネル120の帯域予測を行うことによって、利用可能な帯域を導出する。ストリーム制御部502は、少なくとも利用可能な帯域に基づいて、画質向上用のビットストリーム(例えば、分離された第2のビットストリーム45)から送信を要求する特定領域を識別する情報を含む領域情報を生成する。なお、ストリーム制御部502は、利用可能な帯域に加えてユーザ要求32に基づいて、領域情報を生成してもよい。ストリーム制御部502は、通信部301に、ビットストリーム送信要求および領域情報を送信させる。ストリーム制御部502は、通信部301から第1のビットストリーム53−1および第2のビットストリーム53−2を受け取ると、当該第1のビットストリーム53−1を第1の復号部504へと出力し、第2のビットストリーム53−2を結合部503へと出力する。
第2の映像12に対して設定された領域の総数をMとし、第1のビットストリーム43のビットレートをN[Mbps]とし、第2のビットストリーム44のビットレートをO[Mbps]とし、帯域予測によって導出された利用可能な帯域をP[Mbps]とし、分離された第2のビットストリーム45から送信を要求する領域(すなわち、特定領域)の総数をWとすると、ストリーム制御部502は下記数式(3)が満足するようにWを定める必要がある。
Figure 0006305279
数式(3)において左辺は、送信を要求するビットストリームの合計データサイズを表す。前述のように、第2のビットストリーム44は拡張レイヤに相当するので、分離された第2のビットストリーム45は画質向上用のビットストリームに相当する。故に、数式(3)を満足させるWの最大値を用いることで、利用可能な帯域の下で第2の復号映像55−2の画質を最大化させることができる。なお、ベースレイヤに相当する第1のビットストリーム43を取得できればピクチャ全域の復号は可能であるから、利用可能な帯域が狭い時にはW=0であってもよい。
W>1の場合には、分離された第2のビットストリーム45からいずれの領域の送信を要求するかを選択する必要がある。ここで、ユーザの注目度が高い領域を特定領域として優先的に選択することによって、表示映像の主観画質を効率的に向上させることができる。例えば、ストリーム制御部502は、前述の優先領域を自動的に若しくはユーザ要求32に基づいて、予め定めておいてもよい。優先領域の総数をSとし、下記数式(4)が満足しない場合には、ストリーム制御部502は優先領域を全て特定領域として選択可能である。他方、数式(4)が満足する場合には、ストリーム制御部502は優先領域をさらに絞り込む必要がある。
Figure 0006305279
或いは、ストリーム制御部502は、各領域の優先度を自動的に若しくはユーザ要求32に基づいて計算し、領域と優先度とを対応付ける優先度リストを作成してもよい。この場合に、ストリーム制御部502は、優先度が最も高い領域から第W番目に高い領域までを特定領域として選択する。なお、優先度リストは、第1の実施形態と同様の技法によって作成可能である。
結合部503は、ストリーム制御部502から第2のビットストリーム53−2を受け取る。結合部503は、領域単位のビットストリームに相当する第2のビットストリーム53−2を結合し、形式を整える(例えば適切なヘッダ情報を付加する)ことで、ピクチャ単位のビットストリームに相当する結合ビットストリーム54を生成する。すなわち、結合部503は分離部403の逆処理を行う。結合部503は、結合ビットストリーム54を第2の復号部505へと出力する。
結合部503は、第2のビットストリーム53−2が一部の領域のビットストリームを含まない場合には、当該領域が欠損した状態の結合ビットストリーム54を生成してもよい。しかしながら、パケットロスを考慮せずに設計されたSVCデコーダは、拡張レイヤのビットストリームに欠損がある場合に、欠損部分を受け取るまで復号処理を保留するおそれがある。第2の復号部505が係るSVCデコーダに相当するならば、一部の領域が欠損した状態の結合ビットストリーム54を受け取ったとしても、復号処理を保留して映像の再生を停止するかもしれない。このような事態を防止するために、結合部503は、第2のビットストリーム53−2が一部の領域のビットストリームを含まない場合には、結合ビットストリーム54において当該領域の圧縮データの代わりに所定のビットストリームを補填してもよい。
例えば、結合部503は、第2のビットストリーム53−2が一部の領域のビットストリームを含まない場合には、当該領域をスキップ領域として取り扱ってもよい。スキップ領域とは、H.264またはHEVCにおいて規定されるスキップモードが設定された領域を意味する。スキップ領域は、他の領域の予測画像をコピーすることによって復号される。具体的には、第2の復号部505は、第1の復号映像55−1に含まれる対応領域をスキップ領域にコピーすればよい。
なお、映像圧縮装置400が、所定のビットストリームを映像再生装置500へと送信してもよい。例えば、通信部205が、ビットストリーム送信要求および領域情報を受信すると、当該領域情報に基づいて特定領域に対応するビットストリームを分離された第2のビットストリーム45から選択して送信するとともに当該特定領域とは異なる領域について上記所定のビットストリームを送信してもよい。映像圧縮装置400が所定のビットストリームを送信すれば、第2のビットストリーム53−2のビットレートは増加するものの、結合部503による補填処理を省略できる。
具体的には、結合部503は、第2のビットストリーム53−2を結合することによって、図21または図22に例示される結合ビットストリーム54を生成する。これらの例では、ストリーム制御部502は、分離された第2のビットストリーム45から、タイル1、タイル2およびタイル3のビットストリームの送信を要求している。第2のビットストリーム53−2は、タイル1のビットストリーム53−2−1、タイル2のビットストリーム53−2−2およびタイル3のビットストリーム53−2−3を含んでいるがタイル0のビットストリームを含んでいない。
図21の結合ビットストリーム54は、分離された第2のビットストリーム45に由来するタイル1、タイル2およびタイル3の圧縮データを含むものの、タイル0の圧縮データが欠損している。しかしながら、第2の映像12は各領域を独立に復号可能であるように圧縮されているので、第2の復号部505は結合ビットストリーム54に基づいてタイル1、タイル2およびタイル3をそれぞれ復号できる。そして、第2の復号部505は、タイル0を復号できないので、当該タイル0には第1の復号映像55−1(すなわち、ベースレイヤの映像)の対応領域の映像をコピーする。
図22の結合ビットストリーム54は、分離された第2のビットストリーム45に由来するタイル1、タイル2およびタイル3の圧縮データを含み、タイル0がスキップ領域として取り扱われている。前述のように、第2の復号部505は結合ビットストリーム54に基づいてタイル1、タイル2およびタイル3をそれぞれ復号できる。そして、タイル0はスキップ領域に相当するので、第2の復号部505は当該タイル0には第1の復号映像55−1の対応領域の映像をコピーする。
第1の復号部504は、ストリーム制御部502から第1のビットストリーム53−1を受け取る。第1の復号部504は、第1のビットストリーム53−1を復号することによって、第1の復号映像55−1を生成する。第1の復号部504は、第1の圧縮部401と共通のコーデックを用いる。第1の復号部504は、第1の復号映像55−1を外部装置(例えば、表示装置130)へと出力する。第1の復号映像55−1は、外部装置のバッファに保存され、ユーザによる視聴のために適時に表示される。
第2の復号部505は、結合部503から結合ビットストリーム54を受け取る。第2の復号部505は、結合ビットストリーム54を復号することによって、第2の復号映像55−2を生成する。第2の復号部505は、第2の圧縮部402と共通のコーデックを用いる。第2の復号部505は、第2の復号映像55−2を外部装置(例えば、表示装置130)へと出力する。第2の復号映像55−2は、外部装置のバッファに保存され、ユーザによる視聴のために適時に表示される。
なお、第1の復号部504および第2の復号部505は、第1の復号映像55−1および第2の復号映像55−2の一方を外部装置へ出力しなくてもよい。例えば、第2のビットストリーム53−2を受信できない場合には第1の復号部504が第1の復号映像55−1を出力し、第2のビットストリーム53−2を受信できる場合には第2の復号部505が第2の復号映像55−2を出力してもよい。
図20の映像再生装置500は、図25に例示されるように映像再生処理を行う。
通信部301は、チャネル120を介して、第1のビットストリーム53−1および第2のビットストリーム53−2を受信する(ステップS61)。
結合部303は、ステップS61において受信された、拡張レイヤに相当する第2のビットストリーム53−2を結合し、形式を整えることで、結合ビットストリーム54を生成する(ステップS62)。
第1の復号部504は、ステップS61において受信された、ベースレイヤに相当する第1のビットストリーム53−1を復号することによって、第1の復号映像55−1を生成する(ステップS63)。
第2の復号部505は、ステップS62において生成された、拡張レイヤに相当する結合ビットストリーム54をステップS63において生成された第1の復号映像55−1に基づいて復号することによって、第2の復号映像55−2を生成する(ステップS64)。
さらに、第1の復号部504および第2の復号部505がステップS63およびステップS64においてそれぞれ生成した第1の復号映像55−1および第2の復号映像55−2を外部装置(例えば、表示装置130)へと出力し(ステップS65)、図25の映像再生処理は終了する。
第2の実施形態に係る映像配信システムは図23に例示されるように動作する。図23の例では、第2の映像12が63個のタイルに分割され、第1のビットストリーム43のビットレートが1Mbpsであり、第2のビットストリーム44のビットレートが5Mbpsである。前述のように、記憶部404には、第1のビットストリーム43と、第2のビットストリーム44をタイル単位で分離することによって得られる、分離された第2のビットストリーム45とが保存される。
ストリーム制御部502は、上記数式(3)を満足するWの最大値が例えば4であると導出する。ストリーム制御部502は、例えば優先度リストに基づいて4個の特定領域を選択し、選択された特定領域を識別する領域情報を生成する。前述のように、ストリーム制御部502は、領域の優先度に従って特定領域を選択することにより、表示映像の主観画質を効率的に向上させることができる。ストリーム制御部502は、通信部301に、ビットストリーム送信要求および領域情報を送信させる。
結果的に、通信部301は、第1のビットストリーム43を受信し、分離された第2のビットストリーム45から特定領域に相当する4個のタイルのビットストリームを受信する。すなわち、第2のビットストリーム53−2は、図23において点描で示されるタイルのビットストリームを含まない。結合部503は、第2のビットストリーム53−2を結合することによって結合ビットストリーム54を生成する。第1の復号部504は、第1のビットストリーム53−1を復号することによって、第1の復号映像55−1を生成する。第2の復号部505は、第1の復号映像55−1に基づいて結合ビットストリーム54を復号することによって、第2の復号映像55−2を生成する。第2の復号映像55−2のビットレートは、約1.3(=1+4×5/63)Mbpsと概算できるが、ストリーム制御部502は利用可能な帯域の増減に応じて特定領域の数を調整することにより、第2の復号映像55−2のビットレートを柔軟に変更できる。
例えば、利用可能な帯域が増加した場合に、ストリーム制御部502は、上記数式(3)を満足するWの最大値が例えば12であると導出するかもしれない。この場合に、第2の復号映像55−2のビットレートは、約2(=1+12×5/63)Mbpsと概算できる。
以上説明したように、第2の実施形態に係る映像配信システムは、前述の第1の実施形態に係る映像配信システムをSVC向けに変形したシステムに相当する。従って、この映像配信システムによれば、第1の実施形態と同一または類似の効果に加えて種々のスケーラビリティを提供することができる。
(第3の実施形態)
第3の実施形態に係る映像配信システムは、図1の映像配信システム100のうち映像圧縮装置200および映像再生装置300を映像圧縮装置600および映像再生装置700へとそれぞれ変形したシステムに相当する。映像圧縮装置600および映像再生装置700は差分符号化を行う。
図26に例示されるように、映像圧縮装置600は、第1の圧縮部401と、第2の圧縮部602と、分離部403と、記憶部404と、通信部205と、変換部406と、減算器607とを含む。
図26の第1の圧縮部401は、第1の復号映像47を第2の圧縮部402の代わりに減算器607へと出力する点で図19の第1の圧縮部401とは異なる。図26の分離部403は、第2のビットストリーム44の代わりに第2のビットストリーム64を分離する点で図19の分離部403とは異なる。
減算器607は、撮像装置110から第2の映像12を受け取り、第1の圧縮部401から第1の復号映像47を受け取る。減算器607は、第2の映像12から第1の復号映像47を減算することによって、差分映像62を生成する。減算器607は、差分映像62を第2の圧縮部602へと出力する。
第2の圧縮部602は、減算器607から差分映像62を受け取る。第2の圧縮部602は、差分映像62に複数の領域を設定する。そして、第2の圧縮部602は、設定した複数の領域の各々が独立して復号可能であるように、差分映像62を領域毎に圧縮することによって第2のビットストリーム64を得る。第2の圧縮部602のコーデックは、H.264であってもよいし、HEVCであってもよい。第2の圧縮部602は、第2のビットストリーム64を分離部403へと出力する。
図27に例示されるように、映像再生装置700は、通信部301と、ストリーム制御部502と、結合部503と、第1の復号部504と、第2の復号部705と、加算器706とを含む。
図27の第1の復号部504は、第2の復号部505の代わりに加算器706へと第1の復号映像55−1を出力する点で図20の第1の復号部504とは異なる。
第2の復号部705は、結合部503から結合ビットストリーム54を受け取る。第2の復号部705は、結合ビットストリーム54を復号することによって、復号差分映像76を生成する。第2の復号部705は、第2の圧縮部602と共通のコーデックを用いる。第2の復号部705は、復号差分映像76を加算器706へと出力する。
加算器706は、第1の復号部504から第1の復号映像55−1を受け取り、第2の復号部705から復号差分映像76を受け取る。加算器706は、第1の復号映像55−1および復号差分映像76を加算することによって、第2の復号映像75−2を生成する。加算器706は、第2の復号映像75−2を外部装置(例えば、表示装置130)へと出力する。第2の復号映像75−2は、外部装置のバッファに保存され、ユーザによる視聴のために適時に表示される。
なお、第1の復号部504および加算器706は、第1の復号映像55−1および第2の復号映像75−2の一方を外部装置へ出力しなくてもよい。例えば、第2のビットストリーム53−2を受信できない場合には第1の復号部504が第1の復号映像55−1を出力し、第2のビットストリーム53−2を受信できる場合には加算器706が第2の復号映像75−2を出力してもよい。
以上説明したように、第3の実施形態に係る映像配信システムは、H.264またはHEVCをエンコーダおよびデコーダのコーデックとして利用できる。従って、この映像配信システムによれば、第2の実施形態に比べて広く流通しているエンコーダおよびデコーダを用いて当該第2の実施形態と同一または類似の効果を得ることができる。
なお、前述の第1の実施形態乃至第3の実施形態の説明において、映像圧縮装置は、2種類のビットストリームを用意しているが、3種類以上のビットストリームを用意してもよい。映像圧縮装置が用意するビットストリームが増加するほど、当該映像圧縮装置のコストは増加するが、映像再生装置は送信を要求するビットストリームをより柔軟に選択できるので帯域をより有効に活用することができる。
例えば、図2の映像圧縮装置200に第3の圧縮部が付加されてもよい。第3の圧縮部は、第1の映像11および第2の映像12とは異なる目標ビットレートを第3の映像に設定し、第3のビットストリームを生成する。
或いは、図19の映像圧縮装置400に、第2の圧縮部402とは異なる拡張レイヤを生成するための第3の圧縮部が付加されてもよい。例えば、第2の圧縮部402はPSNRスケーラビリティを提供するための第1の拡張レイヤを生成し、第3の圧縮部は解像度スケーラビリティを提供するための第2の拡張レイヤを生成してもよい。第2の圧縮部402および第3の圧縮部は並列に用意されてもよいし、一方が他方にカスケード接続されてもよい。
第2の圧縮部402および第3の圧縮部が並列に用意される場合には、映像再生装置500は、第2の圧縮部402および第3の圧縮部によってそれぞれ生成される第1の拡張レイヤおよび第2の拡張レイヤを任意に(例えば、ユーザ要求32に基づいて)選択できる。
第2の圧縮部402が第3の圧縮部にカスケード接続される場合には、第3の圧縮部は第2の圧縮部402によって生成された第1の拡張レイヤに基づいて第2の拡張レイヤを高効率に生成できる。
さらに、前述の第1の実施形態乃至第3の実施形態を適宜組み合わせることもできる。係る組み合わせによっても第1の実施形態乃至第3の実施形態と同一または類似の効果を得ることができる。
上記各実施形態において説明された映像圧縮装置および映像再生装置は、CPU、LSI(Large−Scale Integration)チップ、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェアを用いて実現可能である。また、映像圧縮装置および映像再生装置は例えばCPUなどのプロセッサにプログラムを実行させることによって(すなわち、ソフトウェアによって)実現可能である。また、撮像装置は、これらのハードウェアまたはソフトウェアに加えてイメージセンサを組み合わせることによって実装可能である。表示装置は、これらのハードウェアまたはソフトウェアに加えディスプレイを組み合わせることによって実装可能である。
上記各実施形態の処理の少なくとも一部は、汎用のコンピュータを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
11・・・第1の映像
12・・・第2の映像
13,33−1,43,53−1・・・第1のビットストリーム
14,33−2,44,53−2,64・・・第2のビットストリーム
15・・・分離ビットストリーム
15−1・・・分離された第1のビットストリーム
15−2,45・・・分離された第2のビットストリーム
16,31・・・通信データ
21・・・符号化対象画像
22・・・符号化済み領域
23・・・符号化対象ブロック
24・・・スライス
25・・・タイル
32・・・ユーザ要求
34,54・・・結合ビットストリーム
35・・・復号映像
41・・・第1の変換映像
47,55−1・・・第1の復号映像
55−2,75−2・・・第2の復号映像
62・・・差分映像
76・・・復号差分映像
100・・・映像配信システム
110・・・撮像装置
111,131,211,311・・・メモリ
112・・・イメージセンサ
113,133,212,312・・・CPU
114・・・出力I/F
115,135,205,214,301,314・・・通信部
120・・・チャネル
130・・・表示装置
132・・・ディスプレイ
134・・・入力I/F
200,400,600・・・映像圧縮装置
201,401・・・第1の圧縮部
202,402,602・・・第2の圧縮部
203,403・・・分離部
204,404・・・記憶部
213,313・・・入出力I/F
300,500,700・・・映像再生装置
302,502・・・ストリーム制御部
303,503・・・結合部
304,504・・・第1の復号部
406・・・変換部
505,705・・・第2の復号部
607・・・減算器
706・・・加算器

Claims (12)

  1. 第1の映像を圧縮することによって第1のビットストリームを生成する第1の圧縮部と、
    第2の映像に複数の領域を設定し、当該複数の領域の各々が独立して復号可能であるように当該第2の映像を当該領域毎に圧縮することによって、第2のビットストリームを得る第2の圧縮部と、
    前記第2のビットストリームを前記領域単位で分離することによって、分離された第2のビットストリームを得る分離部と、
    前記領域の一部または全部である特定領域を示す領域情報を受信し、前記分離された第2のビットストリームから当該特定領域に対応するビットストリームを選択して送信する通信部と
    を具備し、
    前記第1の圧縮部は、前記第1の映像に前記複数の領域を設定し、当該複数の領域の各々が独立して復号可能であるように当該第1の映像を当該領域毎に圧縮することによって、前記第1のビットストリームを生成し、
    前記分離部は、前記第1のビットストリームを前記領域単位で分離することによって、分離された第1のビットストリームを得て、
    前記通信部は、前記分離された第1のビットストリームから前記特定領域とは異なる領域に対応するビットストリームを選択して送信し、
    前記領域情報は、映像再生装置において高画質での視聴が要求された1以上の要求領域を識別する情報に基づいて、前記要求領域からの距離が小さい領域ほど高く算出される優先度の降順に前記特定領域が選択されるように生成される、
    映像圧縮装置。
  2. 第1の映像を圧縮することによって第1のビットストリームを生成する第1の圧縮部と、
    第2の映像に複数の領域を設定し、当該複数の領域の各々が独立して復号可能であるように当該第2の映像を当該領域毎に圧縮することによって、第2のビットストリームを得る第2の圧縮部と、
    前記第2のビットストリームを前記領域単位で分離することによって、分離された第2のビットストリームを得る分離部と、
    前記領域の一部または全部である特定領域を示す領域情報を受信し、前記分離された第2のビットストリームから当該特定領域に対応するビットストリームを選択して送信する通信部と
    を具備し、
    前記第1の圧縮部は、前記第1の映像を圧縮することによって前記第1のビットストリームおよび第1の復号映像を生成し、
    前記第2の圧縮部は、前記第1の復号映像に基づいて前記第2の映像を圧縮し、
    前記領域情報は、映像再生装置において高画質での視聴が要求された1以上の要求領域を識別する情報に基づいて、前記要求領域からの距離が小さい領域ほど高く算出される優先度の降順に前記特定領域が選択されるように生成される、
    映像圧縮装置。
  3. 第1の映像を圧縮することによって第1のビットストリームを生成する第1の圧縮部と、
    第2の映像に複数の領域を設定し、当該複数の領域の各々が独立して復号可能であるように当該第2の映像を当該領域毎に圧縮することによって、第2のビットストリームを得る第2の圧縮部と、
    前記第2のビットストリームを前記領域単位で分離することによって、分離された第2のビットストリームを得る分離部と、
    前記領域の一部または全部である特定領域を示す領域情報を受信し、前記分離された第2のビットストリームから当該特定領域に対応するビットストリームを選択して送信する通信部と、
    第3の映像から第1の復号映像を減算することによって前記第2の映像を生成する減算器と
    を具備し、
    前記第1の圧縮部は、前記第1の映像を圧縮することによって前記第1のビットストリームおよび前記第1の復号映像を生成し、
    前記領域情報は、映像再生装置において高画質での視聴が要求された1以上の要求領域を識別する情報に基づいて、前記要求領域からの距離が小さい領域ほど高く算出される優先度の降順に前記特定領域が選択されるように生成される、
    映像圧縮装置。
  4. 第1の映像を圧縮することによって第1のビットストリームを生成する第1の圧縮部と、
    第2の映像に複数の領域を設定し、当該複数の領域の各々が独立して復号可能であるように当該第2の映像を当該領域毎に圧縮することによって、第2のビットストリームを得る第2の圧縮部と、
    前記第2のビットストリームを前記領域単位で分離することによって、分離された第2のビットストリームを得る分離部と、
    前記領域の一部または全部である特定領域を示す領域情報を受信し、前記分離された第2のビットストリームから当該特定領域に対応するビットストリームを選択して送信する通信部と
    を具備し、
    前記第1の映像および前記第2の映像が同一の映像であり、
    前記領域情報は、映像再生装置において高画質での視聴が要求された1以上の要求領域を識別する情報に基づいて、前記要求領域からの距離が小さい領域ほど高く算出される優先度の降順に前記特定領域が選択されるように生成される、
    映像圧縮装置。
  5. 第3の映像に対して、(a)解像度の拡大または縮小、(b)フレームレートの増加または削減、(c)画素ビット長の拡大または縮小、(d)幾何学的変換、ならびに、(e)画角の変更、のうち一部または全部を適用することによって、前記第1の映像を生成する変換部をさらに具備する、請求項1乃至請求項4のいずれか1項の映像圧縮装置。
  6. 前記特定領域は、(a)前記第1のビットストリームおよび前記第2のビットストリームの少なくとも一方のビットレート、(b)前記第1のビットストリームおよび前記第2のビットストリームの少なくとも一方に含まれる量子化パラメータ、動き情報および予測モード情報のうち少なくとも1つ、(c)前記第2の映像に含まれる監視対象、(d)ユーザ要求、ならびに、(e)画面内の所定位置からの距離、のうち一部または全部に基づいて決定される、請求項1乃至請求項4のいずれか1項の映像圧縮装置。
  7. 前記第1の圧縮部および前記第2の圧縮部のコーデックは、H.264、HEVC、H.264のSVC方式およびHEVCのSVC方式のいずれかであり、
    前記複数の領域は、前記第2の映像に対して、(a)スライス分割、(b)タイル分割、または、(c)スライス分割およびタイル分割の両方のいずれかを適用することによって得られる、
    請求項1乃至請求項4のいずれか1項の映像圧縮装置。
  8. 独立して復号可能な領域単位で分離された第2のビットストリームから送信を要求する特定領域を選択し、当該特定領域を示す領域情報を生成する制御部と、
    前記領域情報を送信し、前記領域単位で分離された第1のビットストリームのうち少なくとも一部の領域に対応するビットストリームと前記第2のビットストリームのうち前記特定領域に対応するビットストリームとを受信する通信部と、
    前記第1のビットストリームのうち前記少なくとも一部の領域に対応するビットストリームと前記第2のビットストリームのうち前記特定領域に対応するビットストリームとを結合することによって結合ビットストリームを得る結合部と、
    前記結合ビットストリームを復号することによって復号映像を得る復号部と
    を具備し、
    前記制御部は、高画質での視聴が要求された1以上の要求領域を識別する情報に基づいて、前記要求領域からの距離が小さい領域ほど高く算出される優先度の降順に前記特定領域が選択されるように前記領域情報を生成する、
    映像再生装置。
  9. 前記制御部は、利用可能な帯域を予測し、当該利用可能な帯域に基づいて前記特定領域の総数を決定する、請求項8の映像再生装置。
  10. 独立して復号可能な領域単位で分離された第2のビットストリームから送信を要求する特定領域を選択し、当該特定領域を示す領域情報を生成する制御部と、
    前記領域情報を送信し、第1のビットストリームと前記第2のビットストリームのうち前記特定領域に対応するビットストリームとを受信する通信部と、
    前記第1のビットストリームを復号することによって第1の復号映像を得る第1の復号部と、
    前記第2のビットストリームのうち前記特定領域に対応するビットストリームを結合することによって結合ビットストリームを得る結合部と、
    前記結合ビットストリームを前記第1の復号映像に基づいて復号することによって第2の復号映像を得る第2の復号部と
    を具備し、
    前記制御部は、高画質での視聴が要求された1以上の要求領域を識別する情報に基づいて、前記要求領域からの距離が小さい領域ほど高く算出される優先度の降順に前記特定領域が選択されるように前記領域情報を生成する、
    映像再生装置。
  11. 前記第2の復号部は、前記第2の復号映像のうち前記特定領域とは異なる領域に前記第1の復号映像の対応領域の映像をコピーする、請求項10の映像再生装置。
  12. 前記結合部は、前記特定領域とは異なる領域に対応するビットストリームの代わりに所定のビットストリームを補填することによって前記結合ビットストリームを得る、請求項10の映像再生装置。
JP2014171964A 2014-08-26 2014-08-26 映像圧縮装置および映像再生装置 Active JP6305279B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014171964A JP6305279B2 (ja) 2014-08-26 2014-08-26 映像圧縮装置および映像再生装置
US14/835,890 US10341660B2 (en) 2014-08-26 2015-08-26 Video compression apparatus and video playback apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014171964A JP6305279B2 (ja) 2014-08-26 2014-08-26 映像圧縮装置および映像再生装置

Publications (2)

Publication Number Publication Date
JP2016046778A JP2016046778A (ja) 2016-04-04
JP6305279B2 true JP6305279B2 (ja) 2018-04-04

Family

ID=55404105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014171964A Active JP6305279B2 (ja) 2014-08-26 2014-08-26 映像圧縮装置および映像再生装置

Country Status (2)

Country Link
US (1) US10341660B2 (ja)
JP (1) JP6305279B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3036689B8 (en) * 2013-10-25 2020-11-11 MediaTek Inc. Method and apparatus for processing picture having picture height not evenly divisible by slice height and/or slice width not evenly divisible by pixel group width
US20170105023A1 (en) * 2015-10-08 2017-04-13 Qualcomm Incorporated Signaling of updated video regions
JP6861484B2 (ja) * 2016-07-25 2021-04-21 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム
US10743003B1 (en) 2016-09-01 2020-08-11 Amazon Technologies, Inc. Scalable video coding techniques
US10743004B1 (en) 2016-09-01 2020-08-11 Amazon Technologies, Inc. Scalable video coding techniques
KR101763921B1 (ko) 2016-10-21 2017-08-01 (주)플럭스플래닛 컨텐츠 스트리밍 시스템 및 방법
CN106534774A (zh) * 2016-10-27 2017-03-22 四川九洲电器集团有限责任公司 一种图像传输系统
EP3565259A1 (en) * 2016-12-28 2019-11-06 Panasonic Intellectual Property Corporation of America Three-dimensional model distribution method, three-dimensional model receiving method, three-dimensional model distribution device, and three-dimensional model receiving device
JP2019022132A (ja) * 2017-07-20 2019-02-07 日本放送協会 映像伝送装置、映像受信装置及びそれらのプログラム
US20190141352A1 (en) * 2017-11-03 2019-05-09 Electronics And Telecommunications Research Institute Tile-based 360 vr video encoding method and tile-based 360 vr video decoding method
GB2572770B (en) * 2018-04-09 2022-11-02 Canon Kk Method and apparatus for encoding or decoding video data with frame portions
WO2019208677A1 (ja) * 2018-04-27 2019-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法および復号方法
US10862940B1 (en) * 2018-07-31 2020-12-08 Glance Networks, Inc. Low latency live video on a communication session
US10779017B2 (en) * 2018-12-10 2020-09-15 Warner Bros. Entertainment Inc. Method and system for reducing drop-outs during video stream playback

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4157740B2 (ja) * 2002-08-30 2008-10-01 富士通株式会社 画像伝送装置、画像伝送方法及びソフトウェアプログラム
US9743078B2 (en) * 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
JP2007235314A (ja) 2006-02-28 2007-09-13 Sanyo Electric Co Ltd 符号化方法
US8351513B2 (en) * 2006-12-19 2013-01-08 Allot Communications Ltd. Intelligent video signal encoding utilizing regions of interest information
US8315466B2 (en) * 2006-12-22 2012-11-20 Qualcomm Incorporated Decoder-side region of interest video processing
KR101771990B1 (ko) 2009-05-21 2017-09-05 삼성전자주식회사 디지털 방송 송신기, 디지털 방송 수신기 및 그들의 스트림 구성 및 처리 방법
JP5339290B2 (ja) * 2009-11-12 2013-11-13 日本電信電話株式会社 映像多重化装置、映像多重化方法、及びプログラム
JP5487074B2 (ja) 2010-03-18 2014-05-07 日本電信電話株式会社 映像伝送方法、及び映像伝送システム
JP2011217272A (ja) * 2010-04-01 2011-10-27 Canon Inc 映像処理装置及びその制御方法
JP5478346B2 (ja) 2010-04-15 2014-04-23 日本電信電話株式会社 形式変換装置、映像配信装置、多重化装置、形式変換方法、映像配信方法、及びプログラム
JP5351094B2 (ja) * 2010-06-01 2013-11-27 日本電信電話株式会社 画像符号化方法,画像符号化装置および画像符号化プログラム
CN104137043A (zh) * 2011-09-30 2014-11-05 瑞艾利缇盖特(Pty)有限公司 用于在图形用户界面(gui)上进行人机交互的方法
WO2013077236A1 (en) * 2011-11-21 2013-05-30 Canon Kabushiki Kaisha Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and storage medium
JP2012085350A (ja) * 2011-12-22 2012-04-26 Fujifilm Corp 画像処理装置、画像処理方法、及びプログラム
JP2013229806A (ja) 2012-04-26 2013-11-07 Toshiba Corp 遠隔点検装置および監視装置
EP2680527A1 (en) * 2012-06-28 2014-01-01 Alcatel-Lucent Adaptive streaming aware node, encoder and client enabling smooth quality transition
JP6069929B2 (ja) * 2012-07-25 2017-02-01 富士通株式会社 画像選択方法、画像選択装置、符号化装置、画像選択システム、画像選択プログラム、符号化プログラム、及び画像符号化選択プログラム
JP2013051737A (ja) * 2012-11-14 2013-03-14 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
GB2513303B (en) * 2013-04-16 2017-06-07 Canon Kk Method and device for partitioning an image
JP2015061197A (ja) 2013-09-18 2015-03-30 株式会社東芝 画像符号化装置、画像復号装置及び画像伝送システム
EP3089452A4 (en) * 2013-12-26 2017-10-25 Samsung Electronics Co., Ltd. Inter-layer video decoding method for performing subblock-based prediction and apparatus therefor, and inter-layer video encoding method for performing subblock-based prediction and apparatus therefor

Also Published As

Publication number Publication date
US20160065993A1 (en) 2016-03-03
JP2016046778A (ja) 2016-04-04
US10341660B2 (en) 2019-07-02

Similar Documents

Publication Publication Date Title
JP6305279B2 (ja) 映像圧縮装置および映像再生装置
US10893278B2 (en) Video bitstream generation method and device for high-resolution video streaming
US20210144404A1 (en) Apparatus, a method and a computer program for volumetric video
JP5089658B2 (ja) 送信装置及び送信方法
US9148646B2 (en) Apparatus and method for processing video content
KR102304687B1 (ko) 정보 처리 장치 및 방법
JP2016092837A (ja) 映像圧縮装置、映像再生装置および映像配信システム
KR20170005366A (ko) 고 해상도 영상에서의 영상 추출 장치 및 방법
JP2014171097A (ja) 符号化装置、符号化方法、復号装置、および、復号方法
US9560356B2 (en) Image processing apparatus, image processing method, and image processing system
JP6006680B2 (ja) 映像配信装置及び映像配信プログラム
JP5941000B2 (ja) 映像配信装置及び映像配信方法
KR101941789B1 (ko) 뷰포트와 타일 크기에 기초한 가상 현실 비디오 전송
US9628769B2 (en) Apparatus and method for generating a disparity map in a receiving device
US10609383B2 (en) Video compression using down-sampling patterns in two phases
JP5812028B2 (ja) 映像処理装置および映像処理方法
JP2023536585A (ja) 閲覧方向に基づくビットストリームのランダムアクセスのサポート
US9743034B2 (en) Video transmitting/receiving device and video display device
JP2018011197A (ja) 映像配信装置、映像符号化装置、映像配信方法、映像符号化方法、映像配信プログラム及び映像符号化プログラム
JP7296219B2 (ja) 受信装置、送信装置、及びプログラム
JP2005176068A (ja) 動画像配信システム及びその方法
JP5592913B2 (ja) 映像符号化装置、映像符号化方法及び映像符号化プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R151 Written notification of patent or utility model registration

Ref document number: 6305279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151