JP2014075688A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2014075688A
JP2014075688A JP2012221956A JP2012221956A JP2014075688A JP 2014075688 A JP2014075688 A JP 2014075688A JP 2012221956 A JP2012221956 A JP 2012221956A JP 2012221956 A JP2012221956 A JP 2012221956A JP 2014075688 A JP2014075688 A JP 2014075688A
Authority
JP
Japan
Prior art keywords
picture
moving image
unit
encoded stream
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012221956A
Other languages
English (en)
Inventor
Satoshi Tsujii
訓 辻井
Tetsutada Yoshino
哲真 芳野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012221956A priority Critical patent/JP2014075688A/ja
Publication of JP2014075688A publication Critical patent/JP2014075688A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】動画シーケンスを冗長的に提供することなく、高解像度の動画をよりユーザにとって扱い易い形式で記録し又は再生することを可能とすること。
【解決手段】ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化する符号化部と、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成する生成部と、を備える画像処理装置を提供する。
【選択図】図2

Description

本開示は、画像処理装置及び画像処理方法に関する。
近年、1920×1080ドットのフルHDを超える解像度を有する、3840×2160ドット又は4096×2160ドットのQFHD(Quad Full High Definition)の4K動画を記録し及び再生する装置が実用化されている。さらに、将来には、7680×4320ドット又は8192×4320ドットの8K動画をも記録し及び再生する装置が実現されるであろう。これら動画のビットレートは、例えばMPEG2方式、AVC(Advanced Video Coding)方式又はHEVC(High Efficiency Video Coding)方式などのコーデックを用いて圧縮され得る。しかし、仮に高い圧縮効率を得ることができたとしても、4K動画又は8K動画のビットレートは、一般的な(例えば民生用の)記録装置の転送レート又はネットワークの通信レートを上回ると想定される。4K動画又は8K動画のビットレートにマッチするほど高い転送レートを有する記録装置は、通常は高価であり、一般のユーザにとって利用可能ではない。
下記特許文献1は、高解像度の動画の伝送及び編集に多くの時間が掛かるという問題に着目し、1つの入力映像から生成される高解像度の動画シーケンスと低解像度の動画シーケンスとを別々に符号化して、2つの符号化ストリームを互いに対応付けて記録する技術を提案している。
特許第3876892号公報
しかしながら、上記特許文献1により提案されている技術では、高解像度の動画シーケンスとは別に低解像度の動画シーケンスが冗長的に存在する。そのため、全体としてのデータサイズは大きくなり、記録媒体のコストが増加し得る。記録された低解像度の動画シーケンスのみを再生する場合には、例えばネットワークの通信レートが不足するという問題は解決するものの、ユーザにとって4K動画又は8K動画という高解像度の動画を体験する機会は失われる。
従って、動画シーケンスを冗長的に提供することなく、高解像度の動画をよりユーザにとって扱い易い形式で記録し又は再生することを可能とする仕組みが提供されることが望ましい。
本開示によれば、ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化する符号化部と、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成する生成部と、を備える画像処理装置が提供される。
また、本開示によれば、ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより符号化された動画の符号化ストリームのうちの、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを選択的に取得する取得部と、前記取得部により取得される符号化ストリームから前記動画を少なくとも部分的に復号する復号部と、を備える画像処理装置が提供される。
また、本開示によれば、ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化することと、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成することと、を含む画像処理方法が提供される。
また、本開示によれば、ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより符号化された動画の符号化ストリームのうちの、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを選択的に取得することと、取得された符号化ストリームから前記動画を少なくとも部分的に復号することと、を含む画像処理方法が提供される。
本開示に係る技術によれば、動画シーケンスを冗長的に提供することなく、高解像度の動画をよりユーザにとって扱い易い形式で記録し又は再生することが可能となる。
一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 図1に示した画像処理装置の動画の記録に関連する論理的な機能構成の一例を示すブロック図である。 記録される動画のストリーム構成の一例について説明するための説明図である。 記録される動画のストリーム構成の他の例について説明するための説明図である。 一実施形態に係る動画の符号化から記録までの処理の流れの一例を示すフローチャートである。 図1に示した画像処理装置の動画の再生に関連する論理的な機能構成の一例を示すブロック図である。 再生される動画のストリーム構成の一例について説明するための説明図である。 再生される動画のストリーム構成の他の例について説明するための説明図である。 一実施形態に係る動画の復号から再生までの処理の流れの一例を示すフローチャートの前半部である。 一実施形態に係る動画の復号から再生までの処理の流れの一例を示すフローチャートの後半部である。 一実施形態に係るファイル構成の基本的なアイディアについて説明するための説明図である。 管理ファイルのファイルフォーマットの一例について説明するための説明図である。 管理ファイル内のサンプル記述エントリのシンタックスの一例について説明するための説明図である。 管理ファイル内のメタサンプルのシンタックスの一例について説明するための説明図である。 再生制御情報のシンタックスの一例について説明するため説明図である。 フルレート再生の一例について説明するため説明図である。 図13に例示したフルレート再生における再生制御情報の内容について説明するため説明図である。 簡易再生の一例について説明するため説明図である。 簡易再生の他の例について説明するため説明図である。 図16に例示した簡易再生における再生制御情報の内容について説明するため説明図である。 第1の応用例における装置の論理的な機能構成の一例を示すブロック図である。 第2の応用例における装置の論理的な機能構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
1−1.装置の例
1−2.ハードウェア構成例
2.動画の記録
2−1.機能構成例
2−2.記録処理の流れ
3.動画の再生
3−1.機能構成例
3−2.再生処理の流れ
4.ファイル構成
4−1.基本的な構成
4−2.記録のための情報
4−3.再生のための情報
5.応用例
5−1.第1の応用例
5−2.第2の応用例
6.まとめ
<1.概要>
[1−1.装置の例]
本開示に係る技術は、動画を記録し又は再生する様々な形態の画像処理装置に適用可能である。そのいくつかの例は、デジタルビデオカメラ、デジタルビデオレコーダ、デジタルテレビジョン装置、PC(Personal Computer)、スマートフォン、メディアサーバ及びメディアプレーヤなどである。それら装置に内蔵される画像処理用のモジュールとして、本開示に係る技術が実現されてもよい。次項では、デジタルビデオカメラを例にとって、一実施形態に係る画像処理装置のハードウェア構成の一例を説明する。
[1−2.ハードウェア構成例]
図1は、一実施形態に係る画像処理装置10のハードウェア構成の一例を示すブロック図である。図1を参照すると、画像処理装置10は、撮像モジュール11、画像処理エンジン13、フレームメモリ15、エンコーダ17、第1のメディアドライバ19、第2のメディアドライバ21、第1の記録媒体23、第2の記録媒体25、デコーダ27、表示モジュール29、入力モジュール31、通信モジュール33及びシステムコントローラ35を備える。
撮像モジュール11は、レンズ、撮像素子、AD変換器及び光学系の制御機構などを含む。撮像モジュール11は、被写体を連続的に撮像することにより動画シーケンスを生成する。画像処理エンジン13は、必要に応じて、ホワイトバランス、手ぶれ補正又は特殊なエフェクト処理(セピア化、モノクロ化など)などのユーザにより指定され得る任意の処理を、動画シーケンスに含まれる画像の各々について実行するプロセッサである。フレームメモリ15は、画像処理装置10により処理される画像を一時的に記憶する。
エンコーダ17及びデコーダ27は、動画圧縮用のコーデックを実装するモジュールである。本実施形態において、エンコーダ17及びデコーダ27は、フレーム内(イントラ)予測及びフレーム間(インター)予測を含む予測符号化に基づく1つ以上のコーデックをサポートする。予測符号化に基づくコーデックとは、例えば、MPEG2方式、AVC方式又はHEVC方式などであってよい。エンコーダ17は、動画圧縮用のコーデックに従って、動画シーケンスを符号化する。デコーダ27は、動画圧縮用のコーデックに従って、1つ以上の符号化ストリームから動画シーケンスを復号する。

第1のメディアドライバ19は、第1の記録媒体23へのファイルの書込み及び第1の記録媒体23からのファイルの読出しを遂行するドライバである。第2のメディアドライバ21は、第2の記録媒体25へのファイルの書込み及び第2の記録媒体25からのファイルの読出しを遂行するドライバである。これらメディアドライバ19、21は、内部にバッファを有し、ファイルの書込み及び読出しのタイミングを調整する。メディアドライバ19、21は、インターリーブ/デインターリーブ及び誤り訂正符号化/復号などの固有の機能を有していてもよい。第1の記録媒体23及び第2の記録媒体25は、例えば、半導体メモリ、光ディスク又はハードディスクなどの任意の種類の記録媒体であってよい。第1の記録媒体23及び第2の記録媒体25は、装置に内蔵されてもよく、着脱可能であってもよい。
表示モジュール29は、画面、表示素子、DA変換器及び表示回路などを含む。表示モジュール29は、表示順(display order)で画像を表示することにより、動画を再生する。入力モジュール31は、タッチセンサ、ボタン、スイッチ又はホイールなどの入力デバイスを含み、ユーザが画像処理装置10を操作し又は画像処理装置10へ情報を入力するために使用される。通信モジュール33は、画像処理装置10と他の装置との間の有線又は無線の通信接続を確立する。システムコントローラ35は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当し、画像処理装置10の機能全般を制御する。
図1に示したように、画像処理装置10は、少なくとも2つの記録媒体23、25を有する。画像処理装置10において符号化される動画シーケンスの第1の部分は第1の記録媒体23に書込まれ、第2の部分は第2の記録媒体25に書込まれる。即ち、データの書込み先が2つの記録媒体23、25へ分散するため、各部分のビットレートが書込み時の転送レートを超過する可能性は減少する。
動画が再生される際には、再生の目的に応じて、第1の記録媒体23からの第1の部分のみの再生、並びに、第1の記録媒体23及び第2の記録媒体25からの第1の部分及び第2の部分の双方の再生が選択可能である。本明細書では、前者を簡易再生、後者をフルレート再生という。例えば、遠隔の表示装置において動画が再生される場合に、ネットワークの通信レートが十分でなければ簡易再生が、通信レートが十分であればフルレート再生が選択され得る。また、ユーザは、動画を編集する場合に、簡易再生を通じて編集すべき範囲をおおまかに絞り込み、絞り込まれた範囲についてのみフルレート再生を実行することにより、読み込み時の転送レートの不足を原因とする待ち時間を回避することができる。
次節では、このような画像処理装置10における動画の記録のための構成について詳細に説明する。さらに次の節では、画像処理装置10における動画の再生のための構成について詳細に説明する。
<2.動画の記録>
[2−1.機能構成例]
図2は、図1に示した画像処理装置10の動画の記録に関連する論理的な機能構成の一例を示すブロック図である。図2を参照すると、画像処理装置10は、符号化制御部40、画像取得部42、前処理部44、符号化部46、ファイル生成部48及び書込み部50を備える。なお、説明の簡明さのために、本節では、音声の記録などの付随的な機能の説明は省略する。
(1)符号化制御部
符号化制御部40は、画像取得部42、前処理部44、符号化部46、ファイル生成部48及び書込み部50の動作を制御する。例えば、符号化制御部40は、ユーザからの記録開始の指示に応じて、画像取得部42に動画シーケンスの取得を開始させる。また、符号化制御部40は、ユーザからの記録終了の指示に応じて、画像取得部42に動画シーケンスの取得を終了させる。動画シーケンスのフレームレート、解像度、コーデックの種類及びファイル形式などの様々なパラメータが、符号化制御部40により設定されてよい。符号化制御部40は、本開示に係る技術に従って符号化された動画シーケンスを2つの記録媒体に書込むか又は1つの記録媒体にのみ書込むかを、解像度の設定又はユーザからの指示に応じて切り替えてもよい。
(2)画像取得部
画像取得部42は、撮像モジュール11(又はその他の動画ソース)から、動画シーケンスSqを取得する。動画シーケンスSqは、撮像順(表示順)で配列された複数のピクチャ(画像)を含む。画像取得部42は、取得した動画シーケンスSqを前処理部44へ出力する。
(3)前処理部
前処理部44は、図1に示した画像処理エンジン13を用いて、画像取得部42から入力される動画シーケンスSqに含まれるピクチャの各々を対象として、ホワイトバランス、手ぶれ補正又は特殊なエフェクト処理などの任意の処理を実行する。なお、前処理部44による処理は省略されてもよい。
(4)符号化部
符号化部46は、予測符号化に基づく動画圧縮用のコーデックに従って、前処理部44から入力される動画シーケンスSqを符号化することにより、符号化シーケンスCSqを生成する。より具体的には、符号化部46は、所定の数のピクチャごとに、GOP(Group Of Picture)構造を設定する。GOP構造は、各ピクチャへのピクチャタイプの割当てを定義する。第1のピクチャタイプは、ピクチャ内でイントラ予測のみが使用される(即ち、インター予測が使用されないため、他のピクチャを参照することなく符号化される)Iピクチャ(Intra Picture)である。第2のピクチャタイプは、インター予測が使用されるPピクチャ(Predictive Picture)及びBピクチャ(Bi-predictive/Bi-directional Picture)の一方又は双方である。1つのGOP構造に含まれるピクチャタイプは、典型的には、2種類(例えば、Iピクチャ及びPピクチャ)又は3種類(例えば、Iピクチャ、Pピクチャ及びBピクチャ)である。そして、符号化部46は、Iピクチャについてはイントラ予測のみを使用して予測画像を生成し、予測誤差について直交変換、量子化及び可逆符号化等の処理を実行する。また、符号化部46は、Pピクチャ及びBピクチャについてはインター予測を使用して予測画像を生成し、予測誤差について直交変換、量子化及び可逆符号化等の処理を実行する。符号化部46は、このような符号化処理の結果として生成される符号化シーケンスCSqを、ファイル生成部48へ出力する。
(5)ファイル生成部
ファイル生成部48は、符号化部46から入力される符号化シーケンスCSqから、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームS1と、第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームS2とを、別個のストリームとして生成する。本実施形態において、第1の符号化ストリームS1は、符号化されたIピクチャのビットストリームを含み、第2の符号化ストリームS2は、符号化されたPピクチャ及びBピクチャの少なくとも一方のビットストリームを含む。ファイル生成部48は、第1の符号化ストリームS1を第1の動画ファイルF1の動画トラックに格納する。また、ファイル生成部48は、第2の符号化ストリームS2を第2の動画ファイルF2の動画トラックに格納する。さらに、ファイル生成部48は、各ピクチャのピクチャタイプ及び表示順を示すメタデータを、メタデータ用トラックに格納する。なお、ここでのトラックとの用語は、格納される個々のデータが時間軸と関連付けられることを意味する。本実施形態では、メタデータ用トラックは、第1の動画ファイルF1及び第2の動画ファイルF2とは異なる管理ファイルFc内に存在するものとする。しかしながら、かかる例に限定されず、メタデータ用トラックは、例えば第1の動画ファイルF1内に存在してもよい。
図3Aは、画像処理装置10により記録される動画のストリーム構成の一例について説明するための説明図である。図3Aの上段には、動画シーケンスSqが示されており、動画シーケンスSq内の15個のピクチャごとに1つのGOP構造が設定されている。1つのGOP構造は、1つのIピクチャ、4つのPピクチャ及び10個のBピクチャを含む。ファイル生成部48は、このような動画シーケンスSqが符号化された後、符号化シーケンスCSqから、第1の符号化ストリームS1及び第2の符号化ストリームS2を生成する。図3Aの中段には、符号化されたIピクチャのみを含む第1の符号化ストリームS1が示されている。図3Aの下段には、符号化されたPピクチャ及びBピクチャを含む第2の符号化ストリームS2が示されている。なお、図中では、説明の簡明さのために、符号化されたピクチャは表示順で配列されている。しかしながら、実際には、各GOP内のピクチャは、符号化の際にピクチャ間の参照関係に応じて符号化順(復号順)に並び替えられる。
画像処理装置10により記録される動画のストリーム構成は、図3Aの例に限定されない。図3Bの上段には、動画シーケンスSqが再び示されている。図3Bの中段に示した第1の符号化ストリームS3は、符号化されたIピクチャ及びPピクチャを含む。Pピクチャは、インター予測においてIピクチャ又はPピクチャを参照することにより符号化される。Pピクチャのインター予測において、Bピクチャは参照されない。図3Bの下段に示した第2の符号化ストリームS4は、符号化されたBピクチャのみを含む。Bピクチャは、インター予測においてIピクチャ、Pピクチャ又は他のBピクチャを参照することにより符号化される。
一般的な知識として、上述したGOP構造を用いて平均的なシーンを符号化すると、Iピクチャ、Pピクチャ及びBピクチャの符号量の比は、5対2対1になると言われている。この前提の下では、図3Aの例のように符号化されたIピクチャのみを含む第1の符号化ストリームS1の符号量は、元の符号化シーケンス全体の符号量の63%程度に抑制される。
(6)書込み部
書込み部50は、図1に示した第1のメディアドライバ19を用いて、ファイル生成部48により生成される第1の動画ファイルF1及び管理ファイルFcを第1の記録媒体23に書込む。また、書込み部50は、図1に示した第2のメディアドライバ21を用いて、ファイル生成部48により生成される第2の動画ファイルF2を第2の記録媒体25に書込む。第1の動画ファイルF1及び第2の動画ファイルF2の書込みは、並列的に行われ得る。ここで書込まれるファイルのファイル構成の例について、後に詳細に説明する。
[2−2.記録処理の流れ]
図4は、一実施形態に係る動画の符号化から記録までの処理の流れの一例を示すフローチャートである。なお、ここでは、図3Aに例示したようなストリーム構成で動画が記録されるものとする。
図4を参照すると、まず、符号化部46は、動画シーケンスSqに1つのGOP構造を設定する(ステップS11)。次に、符号化部46は、GOP構造内で符号化順に並び替えられたピクチャのうち、未処理の先頭の1つのピクチャ(以下、カレントピクチャという)を取得する(ステップS13)。次に、符号化部46は、カレントピクチャがIピクチャであるか否かを判定する(ステップS15)。
ステップS15において、カレントピクチャがIピクチャである場合には、符号化部46は、インター予測を使用することなく、カレントピクチャを符号化する(ステップS17)。ファイル生成部48は、符号化部46により符号化されたカレントピクチャのビットストリームをバッファリングする(ステップS19)。また、ファイル生成部48は、管理ファイルFcを更新する(ステップS21)。例えば、カレントピクチャのピクチャタイプ及び表示順を示すメタデータが、管理ファイルFcに格納される。その後、処理中のGOP構造内に次のIピクチャが存在する場合には、処理はステップS13に戻り、次のIピクチャについて上述した処理が繰り返される。次のIピクチャが存在しない場合には、処理はステップS33へ進む。
ステップS15において、カレントピクチャがIピクチャでない(Pピクチャ又はBピクチャである)場合には、符号化部46は、インター予測を使用して、カレントピクチャを符号化する(ステップS25)。ファイル生成部48は、符号化部46により符号化されたカレントピクチャのビットストリームをバッファリングする(ステップS27)。また、ファイル生成部48は、管理ファイルFcを更新する(ステップS29)。その後、処理中のGOP構造内に次のPピクチャ又はBピクチャが存在する場合には、処理はステップS13に戻り、次のPピクチャ又はBピクチャについて上述した処理が繰り返される。次のPピクチャ又はBピクチャが存在しない場合には、処理はステップS35へ進む。
GOP構造内の全てのIピクチャが符号化されると、書込み部50は、第1の記録媒体23に生成される第1の動画ファイルF1へ、Iピクチャのピクチャサンプル(ビットストリームの実体)を書込む(ステップS33)。また、GOP構造内の全てのPピクチャ及びBピクチャが符号化されると、書込み部50は、第2の記録媒体25に生成される第2の動画ファイルF2へ、Pピクチャ及びBピクチャのピクチャサンプルを書込む(ステップS35)。
その後、動画シーケンスSq内に未処理のピクチャが残っている場合には(ステップS37)、処理はステップS11に戻り、動画シーケンスSqに次のGOP構造が設定される。全てのピクチャの符号化及び記録が終了すると、図4のフローチャートは終了する。
<3.動画の再生>
[3−1.機能構成例]
図5は、図1に示した画像処理装置10の動画の再生に関連する論理的な機能構成の一例を示すブロック図である。図5を参照すると、画像処理装置10は、復号制御部60、読取り部62、ストリーム取得部64、復号部66及び再生部68を備える。なお、説明の簡明さのために、本節では、音声の再生などの付随的な機能の説明は省略する
(1)復号制御部
復号制御部60は、読取り部62、ストリーム取得部64、復号部66及び再生部68の動作を制御する。例えば、復号制御部60は、ユーザからの再生開始の指示に応じて、読取り部62に記録媒体からの動画ファイルの読取りを開始させ、復号された動画を再生部68に再生させる。また、復号制御部60は、ユーザからの再生終了の指示に応じて、再生部68に動画の再生を終了させる。再生の種別(簡易再生/フルレート再生)、スピード(何倍速か)及び時間的範囲などの様々なパラメータが、復号制御部60により指示されてよい。復号制御部60は、ユーザからの指示に従って、簡易再生及びフルレート再生のいずれかを指示してもよい。その代わりに、復号制御部60は、動画の再生条件に応じて、簡易再生及びフルレート再生のいずれかを指示してもよい。動画の再生条件は、例えば、ハードウェアの性能(プロセッサの処理速度又は利用可能なメモリ容量など)、達成可能な通信レート及びコンテンツの種類のうち少なくとも1つを含み得る。
(2)読取り部
読取り部62は、第1の記録媒体23に記録されている1つ以上の動画の管理ファイルFcを読取り、読取った管理ファイルFcを復号制御部60へ出力する。復号制御部60は、管理ファイルFcを参照することにより、各動画が簡易再生及びフルレート再生をサポートしているかを識別する。また、読取り部62は、簡易再生かフルレート再生かに関わらず、図1に示した第1のメディアドライバ19を用いて、第1の動画ファイルF1を第1の記録媒体23から読取り、読取った第1の動画ファイルF1をストリーム取得部64へ出力する。また、読取り部62は、フルレート再生が指示された場合に、図1に示した第2のメディアドライバ21を用いて、第2の動画ファイルF2を第2の記録媒体25から読取り、読取った第2の動画ファイルF2をストリーム取得部64へ出力する。第1の動画ファイルF1及び第2の動画ファイルF2の読取りは、並列的に行われ得る。
(3)ストリーム取得部
ストリーム取得部64は、再生される動画の第1の符号化ストリームS1及び第2の符号化ストリームS2を選択的に取得する。上述したように、第1の符号化ストリームS1は、第1のピクチャタイプを有するピクチャのビットストリームを含み、第2の符号化ストリームS2は、第2のピクチャタイプを有するピクチャのビットストリームを含む。ここでは、第1の符号化ストリームS1は符号化されたIピクチャのみのビットストリームを、第2の符号化ストリームS2は符号化されたPピクチャ及びBピクチャのビットストリームをそれぞれ含むものとする。
より具体的には、ストリーム取得部64は、簡易再生かフルレート再生かに関わらず、第1の動画ファイルF1の動画トラックから、第1の符号化ストリームS1を取得する。また、ストリーム取得部64は、フルレート再生が指示された場合に、第2の動画ファイルF2の動画トラックから、第2の符号化ストリームS2を取得する。ストリーム取得部64は、簡易再生が指示された場合には、第1の符号化ストリームS1を復号部66へ出力する。また、ストリーム取得部64は、フルレート再生が指示された場合には、第1の符号化ストリームS1及び第2の符号化ストリームS2の双方を、復号部66へ出力する。さらに、ストリーム取得部64は、各ピクチャのピクチャタイプ及び表示順を示すメタデータを管理ファイルFc内のメタデータ用トラックから取得し、取得したメタデータを復号部66へ出力する。
(4)復号部
復号部66は、ストリーム取得部64により取得される符号化ストリームから動画シーケンスを少なくとも部分的に復号する。より具体的には、復号部66は、簡易再生が指示された場合には、第1の符号化ストリームS1からIピクチャを復号することにより、Iピクチャのみを含む動画シーケンスsSqを生成する。この場合、復号部66は、Pピクチャ及びBピクチャを復号しない。Iピクチャの復号に際して、復号部66は、可逆復号、逆量子化及び逆直交変換等の処理を実行することによりビットストリームから復元される予測誤差を、イントラ予測のみを使用して生成される予測画像に加算する。そして、復号部66は、生成した動画シーケンスsSqを再生部68へ出力する。一方、復号部66は、フルレート再生が指示された場合には、第1の符号化ストリームS1からIピクチャを復号し、第2の符号化ストリームS2からPピクチャ及びBピクチャを復号することにより、Iピクチャ、Pピクチャ及びBピクチャを含む動画シーケンスSqを生成する。Pピクチャ及びBピクチャの復号に際して、復号部66は、可逆復号、逆量子化及び逆直交変換等の処理を実行することによりビットストリームから復元される予測誤差を、インター予測を使用して生成される予測画像に加算する。インター予測においては、復号済みのIピクチャも参照される。そして、復号部66は、生成した動画シーケンスSqを再生部68へ出力する。
(5)再生部
再生部68は、復号部66により復号される動画を再生する。より具体的には、再生部68は、簡易再生が指示された場合には、復号部66から入力される動画シーケンスsSqに含まれるIピクチャのみを、表示モジュール29の画面に表示させる。簡易再生において、再生部68は、Pピクチャ及びBピクチャの表示タイミングで直前のIピクチャの表示を維持させてもよい。この場合、動画は、低フレームレートで再生されることになる。その代わりに、簡易再生において、再生部68は、Pピクチャ及びBピクチャの表示タイミングで後続するIピクチャを前倒して再生してもよい。この場合、動画のいわゆる早見が可能となる。復号制御部60は、例えばユーザからの指示に従って、低フレームレートでの再生又は早見のいずれかを再生部68に指示してもよい。一方、再生部68は、フルレート再生が指示された場合には、復号部66から入力される動画シーケンスSqに含まれるIピクチャ、Pピクチャ及びBピクチャを、表示モジュール29の画面に表示させる。
図6Aは、再生される動画のストリーム構成の一例について説明するための説明図である。図6Aの上段には、符号化されたIピクチャのみを含む第1の符号化ストリームS1が示されている。図6Aの中段には、符号化されたPピクチャ及びBピクチャを含む第2の符号化ストリームS2が示されている。図6Aの下段には、動画シーケンスSqが示されている。復号部66は、フルレート再生において、第1の符号化ストリームS1及び第2の符号化ストリームS2に含まれるIピクチャ、Pピクチャ及びBピクチャを復号し、このような動画シーケンスSqを再構築する。なお、図中では、説明の簡明さのために、符号化ストリーム内でピクチャは表示順で配列されている。しかしながら、実際には、復号前のピクチャはピクチャ間の参照関係に応じて復号順に配列されており、復号後に表示順に並び替えられる。
画像処理装置10により再生される動画のストリーム構成は、図6Aの例に限定されない。図6Bの上段に示した第1の符号化ストリームS3は、符号化されたIピクチャ及びPピクチャを含む。図6Bの中段に示した第2の符号化ストリームS4は、符号化されたBピクチャのみを含む。図6Bの下段には、第1の符号化ストリームS3及び第2の符号化ストリームS4から復号されるIピクチャ、Pピクチャ及びBピクチャを含む動画シーケンスSqが示されている
[3−2.再生処理の流れ]
図7A及び図7Bは、一実施形態に係る動画の復号から再生までの処理の流れの一例を示すフローチャートである。なお、ここでは、図6Aに例示したようなストリーム構成で動画が記録されているものとする。
図7Aを参照すると、まず、ストリーム取得部64は、指定された動画のメタデータを、管理ファイルFc内のメタデータ用トラックから取得する(ステップS51)。そして、ストリーム取得部64は、取得したメタデータを復号部66へ出力する。
その後の処理は、復号制御部60により簡易再生及びフルレート再生のいずれが指示されたかに依存して分岐する(ステップS53)。簡易再生が指示された場合には、ストリーム取得部64は、第1の記録媒体23から読み取られる動画ファイルF1の動画トラックから、第1の符号化ストリームS1を取得する(ステップS55)。そして、ストリーム取得部64は、取得した第1の符号化ストリームS1を復号部66へ出力する。一方、フルレート再生が指示された場合には、ストリーム取得部64は、第1の記録媒体23から読み取られる動画ファイルF1の動画トラックから第1の符号化ストリームS1を取得すると共に、第2の記録媒体25から読み取られる動画ファイルF2の動画トラックから、第2の符号化ストリームS2を取得する(ステップS57)。そして、ストリーム取得部64は、第1の符号化ストリームS1及び第2の符号化ストリームS2の双方を、復号部66へ出力する。
次に、復号部66は、管理ファイルFcから取得されたメタデータを参照し、復号すべき動画シーケンスのGOP構造を認識する(ステップS59)。次に、図7Bを参照すると、復号部66は、メタデータを使用して、復号順で未処理の先頭のピクチャ(以下、カレントピクチャという)を識別する(ステップS61)。その後の処理は、カレントピクチャがIピクチャであるか否かに依存して分岐する(ステップS63)。
カレントピクチャがIピクチャである場合、復号部66は、第1の符号化ストリームS1からピクチャサンプルを取得し(ステップS67)、インター予測を使用することなくピクチャサンプルからカレントピクチャを復号する(ステップS69)。
カレントピクチャがIピクチャではない場合において、フルレート再生が指示されたときは、復号部66は、第2の符号化ストリームS2からピクチャサンプルを取得し(ステップS71)、インター予測を使用してカレントピクチャを復号する(ステップS73)。ステップS71及びS73の処理は、簡易再生が指示された場合には実行されない(ステップS65)。
復号部66によりカレントピクチャが復号されると、再生部68は、メタデータにより示される表示順に従って、復号されたピクチャを再生する(ステップS75)。表示タイミングが到来していないピクチャは、一時的にバッファリングされ得る。一方、再生部68は、簡易再生が指示された場合のPピクチャ又はBピクチャの表示タイミングにおいて、これらピクチャを表示する代わりにオフセットを挿入し得る(ステップS77)。
その後、復号制御部60により再生を終了すべきか否かが判定され、再生が終了されない場合には次のピクチャについてステップS61以降の処理が繰り返される(ステップS79)。一方、再生が終了される場合には、図7A及び図7Bのフローチャートは終了する。
<4.ファイル構成>
[4−1.基本的な構成]
本節では、上述した動画の記録及び再生の仕組みを実現するためのファイル構成について説明する。
図8は、本実施形態におけるファイル構成の基本的なアイディアについて説明するための説明図である。図8の上段には管理ファイルFcが示されている。管理ファイルFcは、ヘッダ領域Rc1及びデータ領域Rc2を有する。管理ファイルFcのヘッダ領域Rc1は、第1の動画ファイルF1への参照情報Ref1、第2の動画ファイルF2への参照情報Ref2及びメタデータに関連する定義情報Defを含む。
第1の動画ファイルF1は、ヘッダ領域R11及びデータ領域R12を有する。第1の動画ファイルF1のデータ領域R12は、動画トラックTr1を含む。動画トラックTr1には、第1の符号化ストリームS1の一連のピクチャサンプルが格納される。第2の動画ファイルF2は、ヘッダ領域R21及びデータ領域R22を有する。第2の動画ファイルF2のデータ領域R22は、動画トラックTr2を含む。動画トラックTr2には、第2の符号化ストリームS2の一連のピクチャサンプルが格納される。
管理ファイルFcのデータ領域Rc2は、メタデータ用トラックTr3を含む。メタデータ用トラックTr3には、第1の動画ファイルF1及び第2の動画ファイルF2内のピクチャサンプルの各々についてのメタデータが格納される。図8の例では、第2の動画ファイルF2内のピクチャサンプルSa1、Sa3及びSa4についてのメタデータMd1、Md3及びMd4、並びに第1の動画ファイルF1内のピクチャサンプルSa2についてのメタデータMd2が、メタデータ用トラックTr3に格納されている。メタデータの各々は、例えば、各ピクチャのピクチャタイプ及びGOP内の表示順を示し得る。
動画ファイルF1及びF2並びに管理ファイルFcは、既存のいかなる種類のマルチメディアファイルフォーマットに従って生成されてもよい。例えば、QuickTime(登録商標)フォーマット及びQuickTimeベースのMP4フォーマットは、データを時間軸と関連付けて記録するためのトラックという概念を有する。動画の符号化ストリームは、動画トラックに格納され得る。さらに、本実施形態では、上述したように、管理ファイルFc内のメタデータ用トラックにメタデータが格納される。かかる構成によれば、既存のトラックの概念をわずかに拡張するだけで、メタデータを時間軸と関連付けて記録する仕組みを少ないコストで実現することができる。
[4−2.記録のための情報]
図9は、管理ファイルのファイルフォーマットの一例について説明するための説明図である。ここでは、一例として、管理ファイルFcのフォーマットは、QuickTimeフォーマットの拡張として定義されるものとする。QuickTimeフォーマットでは、データは、アトム(MP4においてはボックス)と呼ばれるオブジェクトに格納され、オブジェクト単位で記録される。1つのファイル内でアトムはツリー構造を形成し、親アトムは子アトムを含む。各アトムのタイプは、アルファベット4文字の識別子によって識別される。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しないアトムは、図示されていない。
図9の例において、管理ファイルFcのヘッダ領域Rc1は、moov(movie)アトムに相当する。データ領域Rc2は、mdat(media data)アトムに相当する。moovアトムは、第1の符号化ストリームS1の動画トラックに対応するtrak(track)アトムTa1、第2の符号化ストリームS2の動画トラックに対応するtrakアトムTa2、及びメタデータ用トラックに対応するtrakアトムTa3を含む。trakアトムTa3は、trakアトムTa1への参照情報を有するtref(track reference)アトムRef1及びtrakアトムTa2への参照情報を有するtrefアトムRef2を含む。
さらに、trakアトムTa3内のmdia(media)アトムは、stsd(sample description)アトム内に、3つのサンプル記述エントリEn1、En2及びEn3を含む。これらサンプル記述エントリEn1、En2及びEn3は、mdatアトム内に格納されるメタデータの種類及び形式を宣言するために使用される。例えば、サンプル記述エントリEn1は、Bピクチャのためのメタデータがmdatアトム内に格納されることを宣言する(data_format=“meta_type1”)。サンプル記述エントリEn2は、Iピクチャのためのメタデータがmdatアトム内に格納されることを宣言する(data_format=“meta_type2”)。サンプル記述エントリEn3は、Pピクチャのためのメタデータがmdatアトム内に格納されることを宣言する(data_format=“meta_type3”)。このようにstsdアトムがピクチャタイプごとに別々のサンプル記述エントリを含むことにより、デコーダは、各動画がどのようなピクチャタイプを有するピクチャから構成されているのか(例えば、I/Pのみなのか、I/P/Bなのか、など)を、メタデータ用トラックの実体をスキャンすることなく迅速に把握することができる。
mdatアトムは、メタデータ用トラックの実体に相当するアトムTr3を含む。当該アトムTr3は、個々のピクチャサンプルにそれぞれ対応する一連のメタサンプルMd1、Md2、Md3、Md4、…を含む。メタサンプルMd1は、サンプル記述エントリEn1により宣言された形式で記述される、ピクチャサンプルSa1(図8参照)についてのメタデータを含む。メタサンプルMd2は、サンプル記述エントリEn2により宣言された形式で記述される、ピクチャサンプルSa2についてのメタデータを含む。メタサンプルMd3は、サンプル記述エントリEn1により宣言された形式で記述される、ピクチャサンプルSa3についてのメタデータを含む。メタサンプルMd4は、サンプル記述エントリEn3により宣言された形式で記述される、ピクチャサンプルSa4についてのメタデータを含む。各メタサンプルは、例えばmoovアトム内のstbl(sample table)アトム内に含まれるstts(time-to-sample)アトム(図示せず)によって、メディア時間の時間軸に関連付られる。
図10は、管理ファイルFc内のサンプル記述エントリのシンタックスの一例について説明するための説明図である。図10のシンタックスSyn1は、stsdアトムのシンタックスを示している。シンタックスSyn1は、フィールド“Number of Entries”により示される数のサンプル記述エントリ(“Meta Sample Description entry”)を含む。シンタックスSyn2は、サンプル記述エントリのシンタックスを示している。シンタックスSyn2内のフィールド“Data Format”は、mdatアトム内に格納されるメタデータの種類についての宣言であり、本実施形態では、“meta_type1”、“meta_type2”及び“meta_type3”のいずれかの値を示す。シンタックスSyn2内のユーザ定義フィールド“Meta ID”は、フィールド“Data Format”により宣言された種類のメタデータの形式を示す。図10の例では、メタデータの各々は、ピクチャタイプ(Picture Type)、表示順(Display Order)及びサンプル内のピクチャ数(Number of Pictures)のうちの1つ以上を記述し得る。
図11は、管理ファイルFc内のメタサンプルのシンタックスの一例について説明するための説明図である。図11のシンタックスSyn3は、1つのメタサンプルのシンタックスを示している。シンタックスSyn3は、ピクチャタイプ、サンプル内のピクチャ数、及び各ピクチャの表示順をそれぞれ示すフィールドを含む。ピクチャタイプは、“I”、“P”及び“B”のいずれかの値を示す。1つのGOP構造が15個のピクチャを含む場合には、表示順は、0〜14のいずれかの値を示す。例えば、図8を再び参照すると、メタサンプル(メタデータ)Md1において、ピクチャタイプは“B”、ピクチャ数は“2”、表示順は“1”及び“2”を示し得る。メタサンプルMd2において、ピクチャタイプは“I”、ピクチャ数は“1”、表示順は“3”を示し得る。なお、メタサンプルのシンタックスはかかる例に限定されない。例えば、ピクチャ数を示すフィールドが省略され、サンプル内の先頭のピクチャの表示順のみが示されてもよい。
復号部66は、このような管理ファイルFc内のメタデータを参照し、動画シーケンス内の各ピクチャを対応するピクチャサンプルから復号順で復号した後、復号したピクチャを表示順に並び替える。復号の対象でないピクチャは、ピクチャタイプを参照することにより判定され、スキップされ得る。
[4−3.再生のための情報]
(1)再生制御情報
復号制御部60は、動画の再生を制御するために、どのストリームから復号されるピクチャをいつ表示すべきかを時間軸に沿って示す再生制御情報を生成し得る。一例として、再生制御情報は、QuickTimeフォーマットのedts(edit)アトムとして生成されてよい。
図12は、再生制御情報のシンタックスの一例について説明するため説明図である。図12を参照すると、シンタックスSyn4は、フィールド“Number of Entries”により示される数のエントリ(“Edit List entry”)を含む。シンタックスSyn5は、各エントリのシンタックスを示している。再生制御情報の各エントリは、セグメント時間長(Segment duration)、メディア時間(Media time)及びメディアレート(Media rate)を記述し得る。セグメント長フィールドは、当該セグメントの時間長を示す。メディア時間フィールドは、メディア時間における当該セグメントの開始時刻を示す。メディアレートは、当該セグメントの再生スピードを示す。以下、フルレート再生における再生制御情報及び簡易再生における再生制御情報の具体的なデータ例について説明する。
(2)フルレート再生
図13は、フルレート再生の一例について説明するため説明図である。図13の上段には、第1の動画ファイルF1内の動画トラックに格納される第1の符号化ストリームS1、及び第2の動画ファイルF2内の動画トラックに格納される第2の符号化ストリームS2が示されている。第1の符号化ストリームS1は、ピクチャI2、I17、…を含む。第2の符号化ストリームS2は、ピクチャB0、B1、P5、B3、B4、P8、B6、B7、P11、B9、B10、P14、B12、B13、B15、B16、…を含む。なお、ここでピクチャに付与されている符号のアルファベットはピクチャタイプを、数字は表示順をそれぞれ表す。
管理ファイルFc内のメタデータは、これらピクチャをメディア時間の時間軸と関連付ける。例えば、図13の中段に示したように、ピクチャB0及びB1は、時刻0〜Tm1に関連付けられる。ピクチャI2は、時刻Tm1〜Tm2に関連付けられる。ピクチャB3及びB4は、時刻Tm2〜Tm3に関連付けられる。ピクチャP5は、時刻Tm3〜Tm4に関連付けられる。
図13の下段には、再生時間(Playback Time)の時間軸に沿った各ピクチャの表示タイミングが示されている。ここに示したフルレート再生は、図14に示すような再生制御情報に従って制御され得る。図14を参照すると、edtsアトムEd1は、2つのelst(edit list)アトムEl1及びEl2を含む。
elstアトムEl1は、4つのエントリを有する。第1のエントリ#1のセグメント時間長はオフセット(あるいは空白セグメント)を意味する特殊な値“FFFF”を、メディア時間はゼロをそれぞれ示す。第2のエントリ#2のセグメント時間長はTp2とTp1との時間差を、メディア時間はTm1をそれぞれ示す。第3のエントリ#3のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はTm2をそれぞれ示す。第4のエントリ#4のセグメント時間長はTp12とTp11との時間差を、メディア時間はTm11をそれぞれ示す。メディアレートは、一例として、全てのエントリについて、通常のスピードでの再生を意味する“1”に設定されてよい。
elstアトムEl2は、11個のエントリを有する。第1のエントリ#1のセグメント時間長はTp1を、メディア時間はゼロをそれぞれ示す。第2のエントリ#2のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はTm1をそれぞれ示す。第3のエントリ#3のセグメント時間長はTp3とTp2との時間差を、メディア時間はTm2をそれぞれ示す。第4のエントリ#4のセグメント時間長はTp4とTp3との時間差を、メディア時間はTm3をそれぞれ示す。第5のエントリ#5のセグメント時間長はTp5とTp4との時間差を、メディア時間はTm4をそれぞれ示す。第6のエントリ#6のセグメント時間長はTp6とTp5との時間差を、メディア時間はTm5をそれぞれ示す。第7のエントリ#7のセグメント時間長はTp7とTp6との時間差を、メディア時間はTm6をそれぞれ示す。第8のエントリ#8のセグメント時間長はTp8とTp7との時間差を、メディア時間はTm7をそれぞれ示す。第9のエントリ#9のセグメント時間長はTp9とTp8との時間差を、メディア時間はTm8をそれぞれ示す。第10のエントリ#10のセグメント時間長はTp10とTp9との時間差を、メディア時間はTm9をそれぞれ示す。第11のエントリ#11のセグメント時間長はTp11とTp10との時間差を、メディア時間はTm10をそれぞれ示す。
このような再生制御情報に従って、再生部68は、図13の下段に示したような動画シーケンスのフルレート再生を実行し得る。
(3)簡易再生
簡易再生は、例えば、図14に示したelstアトムEl1のみを使用することにより実行され得る。図15は、簡易再生の一例について説明するため説明図である。図15の上段には、第1の符号化ストリームS1が再び示されている。第1の符号化ストリームS1は、ピクチャI2、I17、…を含む。簡易再生の場合、第2の符号化ストリームS2は取得されない。管理ファイルFc内のメタデータは、図15の中段に示したように、ピクチャI2を時刻Tm1〜Tm2に、ピクチャI17を時刻Tm11〜Tm12にそれぞれ関連付ける。図15の下段には、簡易再生の様子が示されている。ここでは、elstアトムEl1に従って、時刻0〜Tp1においてオフセットが挿入され、時刻Tp1〜Tp2においてピクチャI2が表示され、時刻Tp2〜Tp11においてオフセットが挿入され、時刻Tp11〜Tp12においてピクチャI17が表示される。
図16は、簡易再生の他の例について説明するため説明図である。ここでは、図3Bに例示したようなストリーム構成を前提とし、符号化されたIピクチャ及びPピクチャを含む第1の符号化ストリームS3からの簡易再生が実行される。図16の上段には、第1の符号化ストリームS3が示されている。第1の符号化ストリームS3は、ピクチャI2、P5、P8、P11、P14、I17、…を含む。簡易再生の場合、第2の符号化ストリームS4は取得されない。管理ファイルFc内のメタデータは、図16の中段に示したように、ピクチャI2を時刻Tm1〜Tm2に、ピクチャP5を時刻Tm3〜Tm4に、ピクチャP8を時刻Tm5〜Tm6に、ピクチャP11を時刻Tm7〜Tm8に、ピクチャP14を時刻Tm9〜Tm10に、ピクチャI17を時刻Tm11〜Tm12にそれぞれ関連付ける。ここでの簡易再生は、図17に示すような再生制御情報に従って制御され得る。
図17を参照すると、elstアトムEl3が示されている。elstアトムEl3は、12個のエントリを有する。第1のエントリ#1のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はゼロをそれぞれ示す。第2のエントリ#2のセグメント時間長はTp2とTp1との時間差を、メディア時間はTm1をそれぞれ示す。
第3のエントリ#3のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はTm2をそれぞれ示す。第4のエントリ#4のセグメント時間長はTp4とTp3との時間差を、メディア時間はTm3をそれぞれ示す。第5のエントリ#5のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はTm4をそれぞれ示す。第6のエントリ#6のセグメント時間長はTp6とTp5との時間差を、メディア時間はTm5をそれぞれ示す。第7のエントリ#7のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はTm6をそれぞれ示す。第8のエントリ#8のセグメント時間長はTp8とTp7との時間差を、メディア時間はTm7をそれぞれ示す。第9のエントリ#9のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はTm8をそれぞれ示す。第10のエントリ#10のセグメント時間長はTp10とTp9との時間差を、メディア時間はTm9をそれぞれ示す。第11のエントリ#11のセグメント時間長はオフセットを意味する値“FFFF”を、メディア時間はTm10をそれぞれ示す。第12のエントリ#12のセグメント時間長はTp12とTp11との時間差を、メディア時間はTm11をそれぞれ示す。図16の下段には、簡易再生の様子が示されている。ここでは、elstアトムEl3に従って、Iピクチャ及びPピクチャのみが表示される。
<5.応用例>
上述したように、本開示に係る技術は、動画を記録し又は再生する様々な形態の画像処理装置に適用可能である。本節では、その2つの応用例について説明する。
[5−1.第1の応用例]
第1の応用例において、本開示に係る技術は、携帯端末100により実現される。携帯端末100は、無線又は有線の通信チャネルを介して外部のコンテンツサーバから取得される動画シーケンスを再生する端末である。携帯端末100は、動画の再生条件に応じて、再生の種別を切り替える。図18は、第1の応用例における装置の論理的な機能構成の一例を示すブロック図である。図18を参照すると、携帯端末100は、再生制御部160、通信部162、ストリーム取得部164、復号部166、再生部168及びユーザインタフェース部170を備える。
(1)再生制御部
再生制御部160は、通信部162、ストリーム取得部164、復号部166及び再生部168の動作を制御する。例えば、再生制御部160は、ユーザからの再生開始の指示に応じて、動画ファイルの配信を要求する要求信号を、通信部162からコンテンツサーバSvへ送信させる。
再生制御部160は、動画の再生条件に応じて、再生の種別を切り替える。例えば、再生制御部160は、携帯端末100とコンテンツサーバSvとの間の通信チャネルChにおいて達成可能な通信レートが十分に高くない場合には、管理ファイルFc及び第1の動画ファイルF1のみの配信を要求する。その代わりに、再生制御部160は、再生しようとする動画のビットレートと比較して携帯端末100のハードウェアの性能が十分に高くない場合に、管理ファイルFc及び第1の動画ファイルF1のみの配信を要求してもよい。また、再生制御部160は、動画の受信のために課金される通信料を抑制することをユーザが望む場合に、管理ファイルFc及び第1の動画ファイルF1のみの配信を要求してもよい。これらのケースでは、再生制御部160は、再生部168に動画の簡易再生を実行させる。
一方、再生制御部160は、通信チャネルChにおいて達成可能な通信レートが十分に高い場合には、管理ファイルFc及び第1の動画ファイルF1に加えて、第2の動画ファイルF2の配信を要求する。その代わりに、再生制御部160は、再生しようとするコンテンツの種類が高フレームレートでの再生に適している場合(例えば、シネマではなくスポーツの動画である場合など)に、管理ファイルFc及び第1の動画ファイルF1に加えて、第2の動画ファイルF2の配信を要求してもよい。これらのケースでは、再生制御部160は、再生部168に動画のフルレート再生を実行させる。
(2)通信部
通信部162は、無線又は有線の通信チャネルChを介して、コンテンツサーバSvと通信する。例えば、通信部162は、簡易再生かフルレート再生かに関わらず、第1の動画ファイルF1をコンテンツサーバSvから受信し、受信した第1の動画ファイルF1をストリーム取得部164へ出力する。また、通信部162は、フルレート再生が指示された場合に、第2の動画ファイルF2をコンテンツサーバSvから受信し、受信した動画ファイルF2をストリーム取得部164へ出力する。また、通信部162は、コンテンツサーバSvから管理ファイルFcを受信する。
(3)ストリーム取得部
ストリーム取得部164は、再生される動画の第1の符号化ストリームS1及び第2の符号化ストリームS2を選択的に取得する。より具体的には、ストリーム取得部164は、簡易再生かフルレート再生かに関わらず、通信部162により受信される第1の動画ファイルF1の動画トラックから、第1の符号化ストリームS1を取得する。また、ストリーム取得部164は、フルレート再生が指示された場合に、通信部162により受信される第2の動画ファイルF2の動画トラックから、第2の符号化ストリームS2を取得する。さらに、ストリーム取得部164は、各ピクチャのピクチャタイプ及び表示順を示すメタデータを管理ファイルFc内のメタデータ用トラックから取得する。
(4)復号部
復号部166は、簡易再生が指示された場合には、第1の符号化ストリームS1からIピクチャを復号することにより、Iピクチャのみを含む動画シーケンスsSqを生成する。そして、復号部166は、生成した動画シーケンスsSqを再生部168へ出力する。一方、復号部166は、フルレート再生が指示された場合には、第1の符号化ストリームS1からIピクチャを復号し、第2の符号化ストリームS2からPピクチャ及びBピクチャを復号することにより、Iピクチャ、Pピクチャ及びBピクチャを含む動画シーケンスSqを生成する。そして、復号部166は、生成した動画シーケンスSqを再生部168へ出力する。
(5)再生部
再生部168は、簡易再生が指示された場合には、復号部166から入力される動画シーケンスsSqに含まれるIピクチャのみを、再生制御情報に従って表示順で画面に表示させる。一方、再生部168は、フルレート再生が指示された場合には、復号部166から入力される動画シーケンスSqに含まれるIピクチャ、Pピクチャ及びBピクチャを、再生制御情報に従って表示順で画面に表示させる。
(6)ユーザインタフェース部
ユーザインタフェース部170は、動画の再生に関連するユーザ入力を検出する。例えば、ユーザインタフェース部170は、再生開始の指示、再生終了の指示、再生すべき動画の指定、再生の種別の指定、及び再生条件の設定などに対応するユーザ入力を検出し得る。
第1の応用例によれば、様々な動画の再生条件に応じて、動画の再生の種別が簡易再生とフルレート再生との間で切り替えられる。従って、高解像度の動画のビットレートが再生条件に見合わないことを原因する再生時の待ち時間の発生若しくはエラーの発生を回避し、又は過剰な通信料が課金されることを防止することができる。
[5−2.第2の応用例]
第2の応用例において、本開示に係る技術は、動画編集装置200により実現される。動画編集装置200は、ユーザが動画を編集する際に利用する装置である。図19は、第2の応用例における装置の論理的な機能構成の一例を示すブロック図である。図19を参照すると、動画編集装置200は、編集制御部240、符号化部246、ファイル処理部248、読み書き部250、復号部266、再生部268及びユーザインタフェース部270を備える。
(1)編集制御部
編集制御部240は、符号化部246、ファイル処理部248、読み書き部250、復号部266、再生部268及びユーザインタフェース部270の動作を制御することにより、動画編集アプリケーションを機能させる。例えば、編集制御部240は、編集の対象の動画を再生部268に再生させる。但し、本応用例において、編集制御部240は、ユーザにより編集点が指定される前の段階では、簡易再生(プレビュー)を指示する。そして、簡易再生によって表示される動画を閲覧したユーザにより動画の編集点が指定されると、編集制御部240は、指定された編集点を含む限定された時間的範囲内の動画のフルレート再生を指示する。
(2)符号化部
符号化部246は、図2に示した符号化部46の機能を有する。符号化部246は、予測符号化に基づく動画圧縮用のコーデックに従って、編集された動画シーケンスを符号化することにより、符号化シーケンスを生成する。そして、符号化部246は、生成した符号化シーケンスを、ファイル処理部248へ出力する。
(3)ファイル処理部
ファイル処理部248は、図2に示したファイル生成部48及び図5に示したストリーム取得部64の機能を有する。ファイル処理部248は、編集された動画が記録される際には、符号化部246から入力される符号化シーケンスから、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成する。また、ファイル処理部248は、編集される動画の再生のために、当該動画の第1の符号化ストリーム及び第2の符号化ストリームを選択的に取得する。
(4)読み書き部
読み書き部250は、図2に示した書込み部50及び図5に示した読取り部62の機能を有する。読み書き部250は、編集された動画が記録される際には、ファイル処理部248により生成される第1の動画ファイルF1及び管理ファイルFcを第1の記録媒体23に、第2の動画ファイルF2を第2の記録媒体25にそれぞれ書込む。また、読み書き部250は、編集される動画の再生のために、第1の記録媒体23に記録されている管理ファイルFcを読取り、読取った管理ファイルFcを編集制御部240へ出力する。また、読み書き部250は、簡易再生かフルレート再生かに関わらず、第1の動画ファイルF1を第1の記録媒体23から読取り、読取った第1の動画ファイルF1をファイル処理部248へ出力する。また、読み書き部250は、フルレート再生が指示された場合に、第2の動画ファイルF2を少なくとも部分的に第2の記録媒体25から読取り、読取った第2の動画ファイルF2をファイル処理部248へ出力する。
(5)復号部
復号部266は、簡易再生が指示された場合には、第1の符号化ストリームS1からIピクチャを復号することにより、Iピクチャのみを含む動画シーケンスsSqを生成する。そして、復号部266は、生成した動画シーケンスsSqを再生部268へ出力する。一方、復号部266は、フルレート再生が指示された場合には、第1の符号化ストリームS1からIピクチャを復号し、第2の符号化ストリームS2からPピクチャ及びBピクチャを復号することにより、指示された時間的範囲内のIピクチャ、Pピクチャ及びBピクチャを含む動画シーケンスSqを生成する。そして、復号部266は、生成した動画シーケンスSqを再生部268へ出力する。
(5)再生部
再生部268は、簡易再生が指示された場合には、復号部266から入力される動画シーケンスsSqに含まれるIピクチャのみを、再生制御情報に従って表示順で画面に表示させる。一方、再生部268は、フルレート再生が指示された場合には、復号部266から入力される動画シーケンスSqに含まれるIピクチャ、Pピクチャ及びBピクチャを、再生制御情報に従って表示順で画面に表示させる。
(6)ユーザインタフェース部
ユーザインタフェース部270は、動画の編集に関連するユーザ入力を検出する。例えば、ユーザインタフェース部270は、編集すべき動画の指定、編集点の指定、フルレート再生すべき時間的範囲の指定、編集内容の選択、編集の実行及び編集された動画の記録などに対応するユーザ入力を検出し得る。
第2の応用例によれば、動画編集の場面において、高解像度の動画をユーザが簡易再生によって大ざっぱに把握した上で、編集のために必要な時間的範囲の動画のみをフルレートで再生することが可能となる。従って、高解像度の動画をユーザが体験する機会を失うことなく、動画編集の際にユーザを悩ませる待ち時間を短縮することができる。
動画の編集は、本開示に係る技術に従って分割された符号化ストリームの結合を含んでもよい。符号化ストリームの結合の指示がユーザインタフェース部270により検出されると、ファイル処理部248は、第1の符号化ストリーム及び第2の符号化ストリームを結合することにより、全てのピクチャタイプを有するピクチャを含む単一の結合符号化ストリームを生成する。そして、ファイル処理部248は、生成した単一の結合符号化ストリームを、単一の動画ファイルの動画トラックに格納する。ファイル処理部248は、ユーザにより指定される時間的範囲に相当する動画の一部分を対象として、第1及び第2の符号化ストリームを結合してもよい。それにより、ユーザは、データサイズの大きい動画全体へのアクセスのために長い時間待つことなく、所望の範囲の単一の高解像度動画ファイルを入手することができる。
<6.まとめ>
ここまで、図1〜図19を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、動画の記録の際には、予測符号化に関連する第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとが、1つの動画シーケンスから別個のストリームとして生成される。動画の再生の際には、これら第1及び第2の符号化ストリームが選択的に取得され、取得された符号化ストリームから動画シーケンスが少なくとも部分的に復号される。従って、高解像度の動画のビットレートが記録装置の転送レートを超過し又は当該ビットレートがネットワークの通信レートを超過する結果として動画の取り扱いが困難となることを、未然に回避することができる。また、上述した実施形態によれば、動画は低解像度化されないため、ユーザにとって高解像度の動画を体験する機会が失われることがない。また、動画シーケンスが冗長的に提供されるわけではないため、比較的小さい管理ファイル分のサイズを除き、全体としてのデータサイズは増大しない。
また、上述した実施形態によれば、第1の符号化ストリームは、第2の符号化ストリームに含まれるピクチャを参照することなく復号可能なピクチャのみを含む。従って、簡易再生の際には、第2の符号化ストリームにアクセスすることなく、第1の符号化ストリームに含まれるピクチャのみを再生することができる。また、上述した実施形態によれば、第1及び第2の符号化ストリームは、別個の動画ファイルの動画トラックにそれぞれ格納される。従って、簡易再生のために第1の符号化ストリームを含む動画ファイルのみを独立して処理することができる。
また、上述した実施形態によれば、各ピクチャのピクチャタイプを示すメタデータが、メタデータ用トラックに格納される。従って、第1及び第2の符号化ストリームを処理する際に参照されるメタデータを保持する仕組みを、既存のマルチメディアファイルフォーマットによりサポートされるトラックの概念を拡張することにより、少ないコストで実現することができる。メタデータが動画ファイルとは異なる管理ファイル内に格納される場合には、データサイズの小さい管理ファイルにアクセスするだけで、個々の動画が簡易再生をサポートするかを判別することができる。
また、上述した実施形態によれば、第1の符号化ストリームを含む第1の動画ファイルは第1の記録媒体に、第2の符号化ストリームを含む第2の動画ファイルは第2の記録媒体に書込まれる。従って、1つの動画シーケンスから生成される2つの符号化ストリームを並列的に記録媒体に書込み、及びそれら符号化ストリームを並列的に読取ることが可能となる。それにより、動画データへのアクセスに要する時間は短縮される。
なお、本明細書において説明した様々な処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる非一時的な(non-transitory)媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化する符号化部と、
第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成する生成部と、
を備える画像処理装置。
(2)
前記第1のピクチャタイプは、インター予測が使用されないIピクチャであり、
前記第2のピクチャタイプは、インター予測が使用されるPピクチャ及びBピクチャの少なくとも一方である、
前記(1)に記載の画像処理装置。
(3)
前記生成部は、前記第1の符号化ストリームを第1の動画ファイルの動画トラックに格納し、前記第2の符号化ストリームを第2の動画ファイルの動画トラックに格納する、前記(1)又は前記(2)に記載の画像処理装置。
(4)
前記生成部は、各ピクチャのピクチャタイプを示すメタデータを、メタデータ用トラックに格納する、前記(3)に記載の画像処理装置。
(5)
前記生成部は、各ピクチャの表示順を示すメタデータを、前記メタデータ用トラックにさらに格納する、前記(4)に記載の画像処理装置。
(6)
前記生成部は、前記第1の動画ファイル及び前記第2の動画ファイルとは異なる管理ファイル内の前記メタデータ用トラックに、前記メタデータを格納する、前記(4)又は前記(5)に記載の画像処理装置。
(7)
前記画像処理装置は、
前記第1の動画ファイルを第1の記録媒体に書込み、前記第2の動画ファイルを第2の記録媒体に書込む書込み部、
をさらに備える、前記(3)〜(6)のいずれか1項に記載の画像処理装置。
(8)
ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより符号化された動画の符号化ストリームのうちの、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを選択的に取得する取得部と、
前記取得部により取得される符号化ストリームから前記動画を少なくとも部分的に復号する復号部と、
を備える画像処理装置。
(9)
前記第1のピクチャタイプは、インター予測が使用されないIピクチャであり、
前記第2のピクチャタイプは、インター予測が使用されるPピクチャ及びBピクチャの少なくとも一方である、
前記(8)に記載の画像処理装置。
(10)
前記取得部は、前記第1の符号化ストリームを第1の動画ファイルの動画トラックから取得し、前記第2の符号化ストリームを第2の動画ファイルの動画トラックから取得する、前記(8)又は前記(9)に記載の画像処理装置。
(11)
前記取得部は、各ピクチャのピクチャタイプを示すメタデータを、メタデータ用トラックから取得する、前記(10)に記載の画像処理装置。
(12)
前記取得部は、各ピクチャの表示順を示すメタデータを、前記メタデータ用トラックからさらに取得する、前記(11)に記載の画像処理装置。
(13)
前記取得部は、前記第1の動画ファイル及び前記第2の動画ファイルとは異なる管理ファイル内の前記メタデータ用トラックから、前記メタデータを取得する、前記(11)又は前記(12)に記載の画像処理装置。
(14)
前記画像処理装置は、前記復号部により復号される前記動画を再生する再生部、をさらに備え、
前記復号部は、前記動画の簡易再生が指示された場合に、前記第1の符号化ストリームのみから前記動画を復号する、
前記(8)〜(13)のいずれか1項に記載の画像処理装置。
(15)
前記画像処理装置は、前記動画の再生条件に応じて、前記動画の簡易再生を指示し又は前記動画のフルレート再生を指示する制御部、をさらに備え、
前記復号部は、前記動画のフルレート再生が指示された場合には、前記第1の符号化ストリーム及び前記第2の符号化ストリームから前記動画を復号する、
前記(14)に記載の画像処理装置。
(16)
前記制御部は、フルレートで再生すべき範囲をユーザに指定させ、
前記復号部は、前記ユーザにより指定された範囲内の前記動画を、前記第1の符号化ストリーム及び前記第2の符号化ストリームから復号する、
前記(15)に記載の画像処理装置。
(17)
前記画像処理装置は、前記動画をユーザに編集させるためのユーザインタフェース部、をさらに備え、
前記復号部は、前記動画の編集点をユーザに指定させる際に再生される動画を、前記第1の符号化ストリームのみから復号する、
前記(8)〜(13)のいずれか1項に記載の画像処理装置。
(18)
前記画像処理装置は、
前記ユーザインタフェース部を介して前記ユーザにより指定される範囲に相当する前記動画の一部分の単一の符号化ストリームを、前記第1の符号化ストリーム及び前記第2の符号化ストリームを結合することにより生成する処理部、
をさらに備える、前記(17)に記載の画像処理装置。
(19)
ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化することと、
第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成することと、
を含む画像処理方法。
(20)
ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより符号化された動画の符号化ストリームのうちの、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを選択的に取得することと、
取得された符号化ストリームから前記動画を少なくとも部分的に復号することと、
を含む画像処理方法。
(21)
画像処理装置を制御するコンピュータを、
ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化する符号化部と、
第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成する生成部と、
として機能させるためのプログラム。
(22)
画像処理装置を制御するコンピュータを、
ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより符号化された動画の符号化ストリームのうちの、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを選択的に取得する取得部と、
前記取得部により取得される符号化ストリームから前記動画を少なくとも部分的に復号する復号部と、
として機能させるためのプログラム。
10,100,200 画像処理装置
40,60,160,240 制御部
46,246 符号化部
48,248 ファイル生成部(ファイル処理部)
50,250 書込み部(読み書き部)
64,164,248 ストリーム取得部(ファイル処理部)
66,166,266 復号部
68,168,268 再生部
170,270 ユーザインタフェース部
23 第1の記録媒体
25 第2の記録媒体
S1,S3 第1の符号化ストリーム
S2,S4 第2の符号化ストリーム
F1 第1の動画ファイル
F2 第2の動画ファイル
Fc 管理ファイル

Claims (20)

  1. ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化する符号化部と、
    第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成する生成部と、
    を備える画像処理装置。
  2. 前記第1のピクチャタイプは、インター予測が使用されないIピクチャであり、
    前記第2のピクチャタイプは、インター予測が使用されるPピクチャ及びBピクチャの少なくとも一方である、
    請求項1に記載の画像処理装置。
  3. 前記生成部は、前記第1の符号化ストリームを第1の動画ファイルの動画トラックに格納し、前記第2の符号化ストリームを第2の動画ファイルの動画トラックに格納する、請求項1に記載の画像処理装置。
  4. 前記生成部は、各ピクチャのピクチャタイプを示すメタデータを、メタデータ用トラックに格納する、請求項3に記載の画像処理装置。
  5. 前記生成部は、各ピクチャの表示順を示すメタデータを、前記メタデータ用トラックにさらに格納する、請求項4に記載の画像処理装置。
  6. 前記生成部は、前記第1の動画ファイル及び前記第2の動画ファイルとは異なる管理ファイル内の前記メタデータ用トラックに、前記メタデータを格納する、請求項4に記載の画像処理装置。
  7. 前記画像処理装置は、
    前記第1の動画ファイルを第1の記録媒体に書込み、前記第2の動画ファイルを第2の記録媒体に書込む書込み部、
    をさらに備える、請求項3に記載の画像処理装置。
  8. ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより符号化された動画の符号化ストリームのうちの、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを選択的に取得する取得部と、
    前記取得部により取得される符号化ストリームから前記動画を少なくとも部分的に復号する復号部と、
    を備える画像処理装置。
  9. 前記第1のピクチャタイプは、インター予測が使用されないIピクチャであり、
    前記第2のピクチャタイプは、インター予測が使用されるPピクチャ及びBピクチャの少なくとも一方である、
    請求項8に記載の画像処理装置。
  10. 前記取得部は、前記第1の符号化ストリームを第1の動画ファイルの動画トラックから取得し、前記第2の符号化ストリームを第2の動画ファイルの動画トラックから取得する、請求項8に記載の画像処理装置。
  11. 前記取得部は、各ピクチャのピクチャタイプを示すメタデータを、メタデータ用トラックから取得する、請求項10に記載の画像処理装置。
  12. 前記取得部は、各ピクチャの表示順を示すメタデータを、前記メタデータ用トラックからさらに取得する、請求項11に記載の画像処理装置。
  13. 前記取得部は、前記第1の動画ファイル及び前記第2の動画ファイルとは異なる管理ファイル内の前記メタデータ用トラックから、前記メタデータを取得する、請求項11に記載の画像処理装置。
  14. 前記画像処理装置は、前記復号部により復号される前記動画を再生する再生部、をさらに備え、
    前記復号部は、前記動画の簡易再生が指示された場合に、前記第1の符号化ストリームのみから前記動画を復号する、
    請求項8に記載の画像処理装置。
  15. 前記画像処理装置は、前記動画の再生条件に応じて、前記動画の簡易再生を指示し又は前記動画のフルレート再生を指示する制御部、をさらに備え、
    前記復号部は、前記動画のフルレート再生が指示された場合には、前記第1の符号化ストリーム及び前記第2の符号化ストリームから前記動画を復号する、
    請求項14に記載の画像処理装置。
  16. 前記制御部は、フルレートで再生すべき範囲をユーザに指定させ、
    前記復号部は、前記ユーザにより指定された範囲内の前記動画を、前記第1の符号化ストリーム及び前記第2の符号化ストリームから復号する、
    請求項15に記載の画像処理装置。
  17. 前記画像処理装置は、前記動画をユーザに編集させるためのユーザインタフェース部、をさらに備え、
    前記復号部は、前記動画の編集点をユーザに指定させる際に再生される動画を、前記第1の符号化ストリームのみから復号する、
    請求項8に記載の画像処理装置。
  18. 前記画像処理装置は、
    前記ユーザインタフェース部を介して前記ユーザにより指定される範囲に相当する前記動画の一部分の単一の符号化ストリームを、前記第1の符号化ストリーム及び前記第2の符号化ストリームを結合することにより生成する処理部、
    をさらに備える、請求項17に記載の画像処理装置。
  19. ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより、複数のピクチャを含む動画を符号化することと、
    第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを、別個のストリームとして生成することと、
    を含む画像処理方法。
  20. ピクチャタイプに応じてイントラ予測とインター予測とを切り替えることにより符号化された動画の符号化ストリームのうちの、第1のピクチャタイプを有するピクチャを含む第1の符号化ストリームと、前記第1のピクチャタイプとは異なる第2のピクチャタイプを有するピクチャを含む第2の符号化ストリームとを選択的に取得することと、
    取得された符号化ストリームから前記動画を少なくとも部分的に復号することと、
    を含む画像処理方法。
JP2012221956A 2012-10-04 2012-10-04 画像処理装置及び画像処理方法 Pending JP2014075688A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012221956A JP2014075688A (ja) 2012-10-04 2012-10-04 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012221956A JP2014075688A (ja) 2012-10-04 2012-10-04 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2014075688A true JP2014075688A (ja) 2014-04-24

Family

ID=50749562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012221956A Pending JP2014075688A (ja) 2012-10-04 2012-10-04 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2014075688A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520176A (ja) * 2014-05-30 2017-07-20 トムソン ライセンシングThomson Licensing 高フレームレートタイル化圧縮技法
JP2019016850A (ja) * 2017-07-04 2019-01-31 ヒロテック株式会社 映像伝送方法および映像伝送システムならびに送信装置および受信装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520176A (ja) * 2014-05-30 2017-07-20 トムソン ライセンシングThomson Licensing 高フレームレートタイル化圧縮技法
JP2019016850A (ja) * 2017-07-04 2019-01-31 ヒロテック株式会社 映像伝送方法および映像伝送システムならびに送信装置および受信装置

Similar Documents

Publication Publication Date Title
US7231132B1 (en) Trick-mode processing for digital video
KR101737325B1 (ko) 멀티미디어 시스템에서 멀티미디어 서비스의 경험 품질 감소를 줄이는 방법 및 장치
JPH05153577A (ja) 動画像復号化装置
US8184700B2 (en) Image decoder
JP2005175997A (ja) 復号化装置、電子機器、コンピュータ、復号化方法、プログラム及び記録媒体
JP2014192589A (ja) 動画像データ配信装置、方法、プログラム、及びシステム
JP2006254366A (ja) 画像処理装置、カメラシステム、ビデオシステム、ネットワークデータシステム、並びに、画像処理方法
JP4915208B2 (ja) ストリームデータ再生システム
JP5120981B2 (ja) 特殊再生用のビデオデータの生成方法
JP2008283432A (ja) 画像記録再生装置
JP2005303925A (ja) ストリームデータ送信装置、ストリームデータ受信装置およびそれらの処理をコンピュータに実行させるための処理プログラムを記録した記録媒体
JP2014075688A (ja) 画像処理装置及び画像処理方法
JP4902854B2 (ja) 動画像復号化装置、動画像復号化方法、動画像復号化プログラム、動画像符号化装置、動画像符号化方法、動画像符号化プログラム、及び動画像符号化復号化装置
JPH08256332A (ja) 情報の伝送方法
JP4462559B2 (ja) トリック再生用コンテンツ作成方法および装置、トリック再生用圧縮動画データ送出方法および装置、およびトリック再生用コンテンツ作成用プログラム
JP2007109329A (ja) 画像データ記録装置、画像データ再生装置、画像データ記録方法、プログラム及び記録媒体
JP2008283276A (ja) 撮像装置
JP2006303611A (ja) 映像処理装置,映像処理方法,およびコンピュータプログラム
JP2013118519A (ja) 画像処理装置
JP2011146847A (ja) 画像再生制御装置、画像再生制御方法および撮像装置
JPWO2009122925A1 (ja) 動画像変換装置、動画像配信システム、動画像変換方法及びプログラム
CN117579843B (zh) 视频编码处理方法及电子设备
WO2020054190A1 (ja) 変換装置、復号装置、変換方法および復号方法
KR101336820B1 (ko) 다채널 트릭 모드에 특화된 복호화 장치 및 방법
JP2011139291A (ja) 画像再生制御装置、画像再生制御方法および撮像装置