JP6198514B2 - 符号化装置及びその制御方法 - Google Patents

符号化装置及びその制御方法 Download PDF

Info

Publication number
JP6198514B2
JP6198514B2 JP2013164395A JP2013164395A JP6198514B2 JP 6198514 B2 JP6198514 B2 JP 6198514B2 JP 2013164395 A JP2013164395 A JP 2013164395A JP 2013164395 A JP2013164395 A JP 2013164395A JP 6198514 B2 JP6198514 B2 JP 6198514B2
Authority
JP
Japan
Prior art keywords
pack
data
video
chip
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013164395A
Other languages
English (en)
Other versions
JP2015035656A (ja
Inventor
浩二 磨田
浩二 磨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013164395A priority Critical patent/JP6198514B2/ja
Publication of JP2015035656A publication Critical patent/JP2015035656A/ja
Application granted granted Critical
Publication of JP6198514B2 publication Critical patent/JP6198514B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、特に、マルチチップ構成に用いて好適な符号化装置及びその制御方法に関する。
近年、記憶媒体にディスク媒体やハードディスク、メモリを用いてハイビジョン記録を行うビデオカメラが製品化されている。これらのビデオカメラは、小型で持ち運びも容易であり、かつ高画質の映像を記録できるため、今後ますます普及していくと思われる。このような機器では、ハイビジョン記録を行うため、記録時にはMPEG4 part−10:AVC(ISO/IEC 14496−10、別名H.264)のような圧縮符号化されたビデオストリームで記録媒体に映像を保存する。
今後は、高解像度のスーパーハイビジョンの記録や、解像度を落とさずに高速フレームレートで記録を行うビデオカメラが登場することが予想される。これらの記録を実現するためには、圧縮符号化の処理能力を向上させることが不可欠である。処理能力を向上させる手法の1つに、マルチチップ構成があり、このマルチチップ構成は、圧縮符号化を行うチップを複数備えるものである。例えばハイビジョン60フレーム/秒の記録が可能な圧縮符号化チップを4チップ備えるビデオカメラは、ハイビジョンの4倍の解像度である4Kの60フレーム/秒の記録を行うことができる。さらに、ハイビジョンの240フレーム/秒という高速フレームレートで記録を行うこともできる。
このように従来の符号化装置は、入力映像の圧縮符号化を行うチップを複数備えている。特許文献1には、各チップが生成された映像ストリームを、多重化部を備えるチップに転送し、多重化部は、各チップから転送された映像ストリームをコンテナにパッキングする符号化装置が開示されている。
特開平9−130801号公報
前述した従来技術の構成では、映像の圧縮符号化処理は、各チップによって符号化の分散処理を達成できるが、多重化部に入力される映像ストリームのデータ量は、各チップが生成した映像ストリームの合計である。このため、多重化部がコンテナを形成する際に発生する、映像ストリームを読み出すデータ量、およびパックデータを書き込むデータ量がシングルチップと比較して膨大となり、多重化部のメモリバスの帯域を大量に消費してしまうという問題がある。
本発明は前述の問題点に鑑み、マルチチップ構成で映像ストリームを多重化する際に、メモリバスの帯域の消費を軽減できるようにすることを目的としている。
本発明に係る符号化装置は、各々が集積回路を有する複数のチップを備え、入力された映像データを分割して前記複数のチップに振り分け、前記複数のチップでそれぞれ映像データの符号化およびパック処理を行うとともに、前記複数のチップでそれぞれ生成されたパックデータの音声パケットに対して音声ストリームを挿入する符号化装置であって、前記複数のチップはそれぞれ、前記振り分けられた映像データを圧縮符号化して映像ストリームを生成する符号化手段と、前記符号化手段によって符号化された映像ストリームを所定のフォーマットに多重化して映像パケットと音声パケットとを含むパックデータを生成するパック手段と、他のチップにおいて前記符号化手段による符号化処理で生成された映像ストリームの発生符号量とデコード時刻を含む情報を前記他のチップから受信する受信手段と、前記他のチップで生成された他のパックデータを前記他のチップから受け取る受取手段とを備え、前記パック手段は、前記受信手段により前記他のチップから受信された情報を用いて、前記映像ストリームと時刻が連続するように、前記他のチップでパックデータを生成する処理をエミュレートして他のパックデータを仮想的に生成し、前記仮想的な他のパックデータと時刻が連続するように、新たな映像ストリームから新たなパックデータを生成することを特徴とする。
本発明によれば、マルチチップ構成で映像ストリームを多重化する際に、メモリバスの帯域の消費を分散し、帯域を有効活用することができる。
本発明の第1の実施形態に係る符号化装置の構成例を示すブロック図である。 第1の実施形態において生成されるパックデータの詳細な構成例を示す図である。 第1の実施形態において、複数のチップを用いてパック処理を行った場合のパックデータの一例を示す図である。 第1の実施形態におけるパック部による処理手順の一例を示すフローチャートである。 本発明の第2の実施形態に係る符号化装置の構成例を示すブロック図である。 第2の実施形態において生成されるパックデータの詳細な構成例を示す図である。 第2の実施形態において、複数のチップを用いてパック処理を行った場合のパックデータの一例を示す図である。
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係る符号化装置10の構成例を示すブロック図である。
図1において、本実施形態に係る符号化装置10は、動画像データの符号化処理を行う符号化部を複数備えている。当該複数の符号化部は、各々が集積回路を有する複数のチップ(LSIチップ等)の形態で存在する。これらの複数のチップは、入力された映像データ及び音声データを圧縮符号化して映像ストリームを生成した後に、所定のフォーマット(コンテナ形式)にパックし、記録や伝送する制御を行う機能を有する。本実施形態では、複数の例として、2つの符号化チップを備える構成を例に説明するが、3つ以上であっても同様に実現可能である。また、所定のコンテナ形式は、MPEG−2 TS(以下、TSと呼ぶ)形式とする。
<符号化処理>
映像入力部108は、撮像装置等より映像信号を入力して分割し、それぞれの映像データを第1のチップ100及び第2のチップ110へ出力する。音声入力部109は、マイク等より音声データを入力し、第1のチップ100へ出力する。
第1のチップ100は、第1の映像符号化部101、第1のパック部102、第1のメモリ103、第1のパック情報通知部104、第1のパックデータ送受信部105、第1の音声符号化部106、及び第1の音声挿入部107を備えている。以下、第1のチップ100の各構成について説明する。
第1の映像符号化部101は、映像入力部108より入力された映像データを、符号化単位のブロックであるマクロブロックごとにフレーム間の動き予測および動き補償を行う。その後、直交変換及び量子化を行い、さらにエントロピー符号化して映像ストリームを生成する。第1のパック情報通知部104は、第1の映像符号化部101で生成された映像ストリームの発生符号量と、第1の映像符号化部101で生成された映像ストリームのデコード時刻との情報を第2のチップ110へ通知する。
第1のパック部102は、第1の映像符号化部101で生成された映像ストリームと、第2のチップ110の第2のパック情報通知部114から通知された情報とを入力する。そして、第2のチップ110の多重化処理を仮想的にエミュレートしながら、第1の映像符号化部101で生成された映像ストリームを所定のコンテナ形式にパックして、第1のメモリ103に出力する。パック処理の仮想的実施(エミュレート)処理の詳細については後述する。
ここで、第1のパック部102が生成するパックデータについて、図2を参照しながら説明する。図2は、本実施形態におけるパックデータの構成例を示す図である。
図2(a)には、第1のパック部102が生成するパックデータの一例を示している。パックデータは、図2(b)に示すように映像ストリームを含むVideoパケットと、音声ストリームを含むAudioパケットとから構成される。
また、Videoパケット及びAudioパケットの詳細な構成については、図2(c)に示すようにVideoパケットは、TSヘッダと映像ストリームとから構成されるが、Audioパケットは、TSヘッダとスタッフィングデータとから構成される。Audioパケットは、後述する第1の音声挿入部107によりパックデータに音声ストリームとして挿入される。
第1のパックデータ送受信部105は、後述する第2のチップ110の第2のパックデータ送受信部115から送信されたパックデータを受け取り、第1のメモリ103へ出力する。第1の音声符号化部106は、音声入力部109より入力された音声データを所定の形式に符号化し、音声ストリームを第1のメモリ103へ出力する。
第1の音声挿入部107は、第1のメモリ103上のパックデータからAudioパケットを検索し、Audioパケットに対して、第1のパック部102で詰められたスタッフィングデータを上書きするように、音声ストリームを挿入する。また、第1のパックデータ送受信部105で受け取ったパックデータに対しても、同様の処理を行う。音声ストリームの挿入後、パックデータは記録媒体120に記録される。
第2のチップ110は、第2の映像符号化部111、第2のパック部112、第2のメモリ113、第2のパック情報通知部114、第2のパックデータ送受信部115、第2の音声符号化部116、及び第2の音声挿入部117を備えている。以下、第2のチップ110の各構成について説明する。
第2の映像符号化部111は、映像入力部108より入力された映像データを、符号化単位ブロックであるマクロブロックごとにフレーム間の動き予測および動き補償を行う。その後、直交変換及び量子化を行い、さらにエントロピー符号化して映像ストリームを生成する。第2のパック情報通知部114は、第2の映像符号化部111で生成された映像ストリームの発生符号量と、第2の映像符号化部111で生成された映像ストリームのデコード時刻との情報を第1のチップ100へ通知する。
第2のパック部112は、第2の映像符号化部111で生成された映像ストリームと、第1のチップ100の第1のパック情報通知部104から通知された情報とを入力する。そして、第1のチップ100の多重化処理を仮想的にエミュレートしながら、第2の映像符号化部111で生成された映像ストリームを所定のコンテナ形式にパックして、第2のメモリ113に出力する。
なお、第2のパック部112が生成するパックデータについては、第1のパック部102が生成するパックデータと同様である。すなわち、Videoパケットは、TSヘッダと映像ストリームとから構成され、Audioパケットは、TSヘッダとスタッフィングデータとから構成される。第2のパックデータ送受信部115は、第2のメモリ113に含まれるパックデータを、第1のチップ100のパックデータ送受信部105へ送信する。なお、本実施形態の第2のチップ110には、第2の音声符号化部116及び第2の音声挿入部117が含まれているが、これらの構成は特に処理を行わないものとする。また、これらの構成を第2のチップ110に含まないようにしてもよい。
<他チップのエミュレート処理>
図3は、1個のパック部でパック処理を行った場合、及び複数のチップを用いてパック処理を行った場合のパックデータの一例を示す図である。以下、図3(a)に示す映像ストリームをパック処理する例について説明する。
図3(b)には、第1のパック部102で生成したパックデータの一例を示しており、図3(c)には、第2のパック部112で生成したパックデータの一例を示している。また、図3(d)には、1つのパック部で全ての映像ストリームを多重化した場合のパックデータの一例を示している。図3(e)には、各パックデータに含まれるVideoパケット及びAudioパケットの一例を示している。
複数のチップを用いてパック処理を行う場合には、図3(b)及び図3(c)に示すように、映像ストリーム(VES_1-1、VES_1-3)は第1のチップ100で生成され、映像ストリーム(VES_2-2)は第2のチップ110で生成される。
一方、1個のパック部で映像ストリーム(VES_1-1、VES_2-2、VES_1-3)を多重化する場合は、まず、映像ストリーム(VES_1-1)を入力して多重化し、パックデータ(Ref_PackData1)を生成する。次に映像ストリームVES_1-2を入力し、パックデータ(Ref_PackData1)と時刻が連続するようにパックデータ(Ref_PackData2)を生成する。そして、最後に映像ストリーム(VES_1-3)を入力し、パックデータ(Ref_PackData2)と時刻が連続するようにパックデータ(Ref_PackData3)を生成する。図3(e)に示すように、パックデータ(Ref_PackData1)は、映像パケットの映像ストリーム(VES_1-1)と、スタッフィングデータが挿入された音声パケットとから構成される。同様に、パックデータ(Ref_PackData2)は、映像パケットの映像ストリーム(VES_2-2)と、スタッフィングデータが挿入された音声パケットとから構成される。
次に、第1のチップ100及び第2のチップ110を用いて、図3(d)に示したパックデータ(Ref_PackData1、Ref_PackData2、Ref_PackData3)と同等のパックデータを生成する方法について説明する。
まず、図3(b)に示すように、第1のパック部102は、映像ストリーム(VES_1-1)を入力して多重化し、パックデータ(PackData1)を生成する。次に、第2のチップ110から通知されたパック情報から映像ストリーム(VES_2-2)の発生符号量の情報を受け取り、仮想的に2番目のパックデータを生成する処理をエミュレートする。そして、最後に、映像ストリーム(VES_1-3)を入力して、前記エミュレートした2番目のパックデータに接続するようにパックデータ(PackData3)を生成する。
上記エミュレート処理では、映像ストリーム(VES_2-2)の入力及びパックデータの出力を行わずに、パケットのヘッダ情報に含まれる時刻情報を更新するように、仮想的に多重化処理を行う。これにより、映像ストリーム(VES_2-2)の多重化処理を実際に行った場合と、時刻情報を同等の状態に決定することができる。1個のパック部で生成した場合のパックデータ(Ref_PackData1、Ref_PackData3)と、第1のパック部で生成したパックデータ(PackData1、PackData3)とでは、それぞれ同一となる。
一方、図3(c)に示すように、第2のパック部112は、第1のチップ100から通知されたパック情報から映像ストリーム(VES_1-1)の発生符号量の情報を受け取る。そして、仮想的に1番目のパックデータを生成する処理をエミュレートする。次に、映像ストリーム(VES_2-2)を入力して多重化し、パックデータ(PackData2)を生成する。最後に、第1のチップ100から通知された映像ストリーム(VES_1-3)の発生符号量の情報を受け取り、パックデータ(PackData2)に接続するように、仮想的に3番目のパックデータを生成する処理をエミュレートする。
第1のパック部102と同様に、上記エミュレート処理では、映像ストリーム(VES_1-1)の入力及びパックデータの出力を行わずに、パケットのヘッダ情報に含まれる時刻情報を更新するように、仮想的に多重化処理を行う。これにより、映像ストリームVES_1-1の多重化処理を実際に行った場合と、時刻情報を同等の状態に決定することができる。同様に、映像ストリーム(VES_1-3)の入力及びパックデータの出力を行わずに、パケットのヘッダ情報に含まれる時刻情報を更新するように、仮想的に多重化処理を行う。そして、映像ストリーム(VES_1-3)の多重化処理を実際に行った場合と、時刻情報を同等の状態にする。1個のパック部で生成した場合のパックデータ(Ref_PackData2)と、第2のパック部112で生成したパックデータ(PackData2)とでは、同一となる。
図4は、本実施形態におけるパック部による処理手順の一例を示すフローチャートである。以下、第1のパック部102のパック処理を例に説明する。
まず、S401において、第2のチップ110の第2のパック情報通知部114よりパック情報を取得する必要があるかどうかを判定する。この判定では、第1のチップ100で生成された映像ストリームのデコード時刻と、第2のチップ110から転送されたパック情報に含まれるデコード時刻とを比較する。この比較の結果、第1のチップ100で生成された映像ストリームのデコード時刻の方が早い場合は第2のチップ110の情報を待つ必要が無いため、S405へ進む。一方、そうでない場合はS402へ進む。
S402においては、第2のチップ110のパック情報が更新されているか否かを判定する。この判定の結果、パック情報が更新されている場合はS403へ進み、そうでない場合はパック情報の更新待ちとなるため、S401へ戻る。
S403においては、第2のチップ110の第2のパック情報通知部114よりパック情報を取得する。そして、S404において、パック情報に含まれる発生符号量の情報を用いて、前述のようにパック処理をエミュレートする。一方、S401の判定の結果、第1のチップ100で生成された映像ストリームのデコード時刻の方が早い場合は、S405において、映像ストリームのパック処理を行う。そして、S406において、記録が終了しているかどうか判定する。この判定の結果、記録が終了している場合は処理を終え、そうでない場合はS401に戻る。
以上のように本実施形態によれば、マルチチップ構成において、自身のチップで生成された映像ストリームについてはそのままパックデータにし、他チップで生成された映像ストリームについては、パック情報を用いてパック処理をエミュレートするようにした。これにより、1個のパック部で各映像ストリームを順番に多重化してパックデータを生成したものと同等のパックデータを生成することができる。また、多重化処理中の映像ストリームのリード/ライトで消費されるメモリバスの帯域を、各チップで分散させることができる。
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。
図5は、本実施形態に係る符号化装置50の構成例を示すブロック図である。本実施形態は、第1の実施形態の構成と比べて、第1の音声挿入部107及び第2の音声挿入部117の代わりに、第1の音声転送部501及び第2の音声転送部511を備えている。なお、その他の構成については図1と同様の構成であるため、説明は省略する。図5において、第1の音声転送部501は、第1の音声符号化部106で生成された音声ストリームを、第2のチップ110へ転送する。なお、本実施形態の第2のチップ110には、第2の音声転送部511が含まれているが、この構成は特に処理を行わないものとする。また、この構成を第2のチップ110に含まないようにしてもよい。
次に、第1のパック部102が生成するパックデータについて、図6を参照しながら説明する。図6は、本実施形態におけるパックデータの構成例を示す図である。
図6(a)には、第1のパック部102が生成するパックデータを示している。パックデータは、図6(b)に示すように、映像ストリームを含むVideoパケットと、音声ストリームを含むAudioパケットとから構成される。
また、Videoパケットの詳細な構成については、図6(c)に示すように第1の実施形態と同様である。このことから、第1のパック部102による映像ストリームの処理については第1の実施形態と同様である。一方、音声ストリームの処理については、本実施形態ではスタッフィングデータを挿入するのではなく、図6(c)に示すように、第1のパック部102は第1の音声符号化部106にて生成された音声ストリームをパックする。また、第2のパック部112による映像ストリームの処理についても第1の実施形態と同様である。第2のパック部112による音声ストリームの処理は、スタッフィングデータを挿入するのではなく、第1の音声転送部501にて転送された音声ストリームをパックする。
<他チップのエミュレート処理>
図7は、1個のパック部でパック処理をした場合、及び複数のチップを用いてパック処理を行った場合のパックデータの一例を示す図である。以下、図7(a)及び図7(b)に示す音声ストリームと、図7(c)に示す映像ストリームとをパック処理する例について説明する。
図7(d)には、第1のパック部102で生成したパックデータの一例を示しており、図7(e)には、第2のパック部112で生成したパックデータの一例を示している。また、図7(f)には、1つのパック部で全ての映像ストリームを多重化した場合のパックデータの一例を示している。図7(g)には、各パックデータに含まれるVideoパケット及びAudioパケットの一例を示している。なお、図7(a)に示す音声ストリーム(AES-1)は、第1の音声符号化部106で生成された音声ストリームである。また、図7(b)に示す音声ストリーム(AES-2)は、第1の音声転送部501から第2のチップ110へ転送された音声ストリームであり、音声ストリーム(AES-1)と同一のデータである。
複数のチップを用いてパック処理を行う場合には、図7(d)及び図7(e)に示すように、映像ストリーム(VES_1-1、VES_1-3)は第1のチップ100で生成され、映像ストリーム(VES_2-2)は第2のチップ110で生成さる。
一方、1個のパック部で、映像ストリーム(VES_1-1、VES_2-2、VES_1-3)と、音声ストリーム(AES-1)とをパックする場合は、以下の手順によりパックデータを生成する。まず、映像ストリーム(VES_1-1)と音声ストリーム(AES-1)とを入力して多重化し、パックデータ(Ref_PackData1)を生成する。次に、映像ストリーム(VES_1-2)と音声ストリーム(AES-1)とを入力し、パックデータ(Ref_PackData1)と時刻が連続するようにパックデータ(Ref_PackData2)を生成する。最後に、映像ストリーム(VES_1-3)と音声ストリーム(AES-1)とを入力し、パックデータ(Ref_PackData2)と時刻が連続するようにパックデータ(Ref_PackData3)を生成する。図7(g)に示すように、パックデータ(Ref_PackData1)は、映像ストリーム(VES_1-1)と、音声ストリーム(AES-1)とから構成される。同様に、パックデータ(Ref_PackData2)は、映像ストリーム(VES_2-2)と、音声ストリーム(AES-1)とから構成される。
次に、次に、第1のチップ100及び第2のチップ110を用いて、図7(f)に示すパックデータ(Ref_PackData1、Ref_PackData2、Ref_PackData3)と同等のパックデータを生成する方法について説明する。
まず、図7(d)に示すように、第1のパック部102は、映像ストリーム(VES_1-1)と音声ストリーム(AES-1)とを入力して多重化し、パックデータ(PackData1)を生成する。次に、第2のチップ110から通知されたパック情報から映像ストリーム(VES_2-2)の発生符号量の情報を受け取り、仮想的に2番目のパックデータを生成する処理をエミュレートする。最後に、映像ストリーム(VES_1-3)と音声ストリーム(AES-1)とを入力して、前記エミュレートした2番目のパックデータに時間的に接続するようにパックデータ(PackData3)を生成する。
上記エミュレート処理では、映像ストリーム(VES_2-2)及び音声ストリーム(AES-1)の入力とパックデータの出力とを行わずに、パケットのヘッダ情報に含まれる時刻情報を更新するように、仮想的に多重化処理を行う。これにより、映像ストリーム(VES_2-2)及び音声ストリーム(AES-1)の多重化処理を実際に行った場合と、時刻情報を同等の状態にすることができる。1個のパック部で生成した場合のパックデータ(Ref_PackData1、Ref_PackData3)と、第1のパック部102で生成したパックデータ(PackData1、PackData3)とでは、それぞれ同一となる。
一方、図7(e)に示すように、第2のパック部112は、第1のチップ100から通知されたパック情報から映像ストリーム(VES_1-1)の発生符号量の情報を受け取る。そして、仮想的に1番目のパックデータを生成する処理をエミュレートする。次に、映像ストリーム(VES_2-2)と音声ストリーム(AES-2)とを入力して多重化し、時間的に接続するようにパックデータ(PackData2)を生成する。最後に、第1のチップ100から通知された映像ストリーム(VES_1-3)の発生符号量の情報を受け取り、パックデータ(PackData2)に時間的に接続するように、仮想的に3番目のパックデータを生成する処理をエミュレートする。
第1のパック部102と同様に、上記エミュレート処理では、映像ストリーム(VES_1-1)及び音声ストリーム(AES-2)の入力とパックデータの出力とを行わない。そして、パケットのヘッダ情報に含まれる時刻情報を更新するように、仮想的に多重化処理を行う。これにより、映像ストリーム(VES_1-1)及び音声ストリーム(AES-2)の多重化処理を実際に行った場合と、時刻情報を同等の状態にすることができる。同様に、映像ストリーム(VES_1-3)及び音声ストリーム(AES-2)の入力とパックデータの出力とを行わずに、パケットのヘッダ情報に含まれる時刻情報を更新するように、仮想的に多重化処理を行う。そして、映像ストリーム(VES_1-3)及び音声ストリーム(AES-2)の多重化処理を実際に行った場合と、時刻情報を同等の状態にする。また、前述したように、音声ストリーム(AES-1、AES-2)は互いに同一データである。このため、1個のパック部で生成した場合のパックデータ(Ref_PackData2)と、第2のチップ110のパック部112で生成したパックデータ(PackData2)とでは、同一となる。
以上のように本実施形態によれば、マルチチップ構成において、各々自身のチップで生成された映像ストリームと、音声ストリームとを、各チップ内のパック部でパックデータにすることができる。第1の実施形態と比較して、第1のチップ100における音声挿入処理が担っていた処理を、各チップのパック部で行うため、第1のチップ100の処理負荷を減らし、各チップで処理負荷を分散することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 第1の映像符号化部
102 第1のパック部
104 第1のパック情報通知部
111 第2の映像符号化部
112 第2のパック部
114 第2のパック情報通知部

Claims (4)

  1. 各々が集積回路を有する複数のチップを備え、入力された映像データを分割して前記複数のチップに振り分け、前記複数のチップでそれぞれ映像データの符号化およびパック処理を行うとともに、前記複数のチップでそれぞれ生成されたパックデータの音声パケットに対して音声ストリームを挿入する符号化装置であって、
    前記複数のチップはそれぞれ、
    前記振り分けられた映像データを圧縮符号化して映像ストリームを生成する符号化手段と、
    前記符号化手段によって符号化された映像ストリームを所定のフォーマットに多重化して映像パケットと音声パケットとを含むパックデータを生成するパック手段と、
    他のチップにおいて前記符号化手段による符号化処理で生成された映像ストリームの発生符号量とデコード時刻を含む情報を前記他のチップから受信する受信手段と、
    前記他のチップで生成された他のパックデータを前記他のチップから受け取る受取手段とを備え、
    前記パック手段は、前記受信手段により前記他のチップから受信された情報を用いて、前記映像ストリームと時刻が連続するように、前記他のチップでパックデータを生成する処理をエミュレートして他のパックデータを仮想的に生成し、前記仮想的な他のパックデータと時刻が連続するように、新たな映像ストリームから新たなパックデータを生成することを特徴とする符号化装置。
  2. 前記パック手段は、前記音声パケットにスタッフィングデータを含むパックデータを生成することを特徴とする請求項に記載の符号化装置。
  3. 前記パック手段は、前記音声パケットに符号化された音声ストリームを含むパックデータを生成することを特徴とする請求項1または2に記載の符号化装置。
  4. 各々が集積回路を有する複数のチップを備え、入力された映像データを分割して前記複数のチップに振り分け、前記複数のチップでそれぞれ映像データの符号化およびパック処理を行うとともに、前記複数のチップでそれぞれ生成されたパックデータの音声パケットに対して音声ストリームを挿入する符号化装置の制御方法であって、
    前記振り分けられた映像データを圧縮符号化して映像ストリームを生成する符号化工程と、
    前記符号化工程において符号化された映像ストリームを所定のフォーマットに多重化して映像パケットと音声パケットとを含むパックデータを生成するパック工程と、
    他のチップにおいて前記符号化工程における符号化処理で生成された映像ストリームの発生符号量とデコード時刻を含む情報を前記他のチップから受信する受信工程と、
    前記他のチップで生成された他のパックデータを前記他のチップから受け取る受取工程とを備え、
    前記パック工程においては、前記他のチップから受信された情報を用いて、前記映像ストリームと時刻が連続するように、前記他のチップでパックデータを生成する処理をエミュレートして他のパックデータを仮想的に生成し、前記仮想的な他のパックデータと時刻が連続するように、新たな映像ストリームから新たなパックデータを生成することを特徴とする符号化装置の制御方法。
JP2013164395A 2013-08-07 2013-08-07 符号化装置及びその制御方法 Expired - Fee Related JP6198514B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013164395A JP6198514B2 (ja) 2013-08-07 2013-08-07 符号化装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013164395A JP6198514B2 (ja) 2013-08-07 2013-08-07 符号化装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2015035656A JP2015035656A (ja) 2015-02-19
JP6198514B2 true JP6198514B2 (ja) 2017-09-20

Family

ID=52543909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013164395A Expired - Fee Related JP6198514B2 (ja) 2013-08-07 2013-08-07 符号化装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP6198514B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3891035B2 (ja) * 2002-05-17 2007-03-07 日本電信電話株式会社 メディア多重装置およびこれを用いる符号化装置
JP4838341B2 (ja) * 2009-09-28 2011-12-14 Nttエレクトロニクス株式会社 符号化システム及び符号化装置
JP2011151784A (ja) * 2009-12-25 2011-08-04 Panasonic Corp 動画像多重化装置、映像音声記録装置及び動画像多重化方法
JP5791451B2 (ja) * 2011-09-29 2015-10-07 キヤノン株式会社 符号化装置およびプログラム
JP5947641B2 (ja) * 2012-07-06 2016-07-06 キヤノン株式会社 動画像符号化装置及びその制御方法、コンピュータプログラム

Also Published As

Publication number Publication date
JP2015035656A (ja) 2015-02-19

Similar Documents

Publication Publication Date Title
CN102792689B (zh) 能够进行增量压缩以及对运动估计和元数据的修改以用于将图像呈现给远程显示器
US10951914B2 (en) Reliable large group of pictures (GOP) file streaming to wireless displays
JP6040282B2 (ja) 拡張されたビデオストリームを復号するための方法および装置
TWI499275B (zh) 用於視頻傳輸的方法和系統
US10085017B2 (en) Bandwidth saving architecture for scalable video coding spatial mode
JP7471725B2 (ja) 画像処理方法、装置、電子機器及びコンピュータプログラム
CN102907096A (zh) 用于发送和接收分层编码视频的方法和设备
KR102362513B1 (ko) 타임 슬라이스 영상을 생성하는 서버, 방법 및 사용자 단말
TW200810563A (en) Encoding apparatus, decoding apparatus, encoding method, decoding method, program of encoding method, program of decoding method, recording medium in which program of encoding method is recorded, and recording medium in which program of deocding method i
JP5395307B2 (ja) 動画像復号化装置および動画像復号化方法
TW201813387A (zh) 低延遲視頻編碼之裝置與方法
TWI559748B (zh) 用於視訊編解碼器的延伸預測模式及效能之方法及系統
CN102017636A (zh) 影像的解码
JP6013547B2 (ja) 画像符号化装置および画像符号化方法
JP2013223250A6 (ja) Hevc nalユニットシンタックス構造の拡張
JP6198514B2 (ja) 符号化装置及びその制御方法
US9064294B2 (en) Image processing apparatus and method
KR100970992B1 (ko) 그래픽스 가속을 통한 고화질 영상의 스테레오스코픽 다중화 및 저비율 압축 전송 장치 및 그 방법과 그 프로그램 소스를 저장한 기록매체
WO2015065804A1 (en) Method and apparatus for decoding an enhanced video stream
KR20130101900A (ko) 전자 장치 및 인코딩 방법
CN113190476A (zh) 数据传输方法和装置
JP2023507815A (ja) 符号化及び復号化方法並びに装置
Huang et al. Design and Implementation of Ultra-Low Delay Video Codec System Based on ZYNQ
JP6753097B2 (ja) 符号化システム、符号化装置、再生装置及び符号化方法
JP2009038704A (ja) 撮影データ記録装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170822

R151 Written notification of patent or utility model registration

Ref document number: 6198514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees