JP3555168B2 - Video decoding device - Google Patents

Video decoding device Download PDF

Info

Publication number
JP3555168B2
JP3555168B2 JP8308794A JP8308794A JP3555168B2 JP 3555168 B2 JP3555168 B2 JP 3555168B2 JP 8308794 A JP8308794 A JP 8308794A JP 8308794 A JP8308794 A JP 8308794A JP 3555168 B2 JP3555168 B2 JP 3555168B2
Authority
JP
Japan
Prior art keywords
frame
divided
header
code
code string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8308794A
Other languages
Japanese (ja)
Other versions
JPH07298263A (en
Inventor
敏志 近藤
佳也 竹村
良二 山口
宏之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP8308794A priority Critical patent/JP3555168B2/en
Priority to GB9422628A priority patent/GB2283876B/en
Publication of JPH07298263A publication Critical patent/JPH07298263A/en
Priority to US08/854,758 priority patent/US5815209A/en
Application granted granted Critical
Publication of JP3555168B2 publication Critical patent/JP3555168B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、画面を複数の領域に分割し、各領域毎に符号化/復号化を行う動画像の符号化方法および符号化装置および復号化方法および復号化装置に関するものである。
【0002】
【従来の技術】
近年、H.261、MPEGなどの動画像信号に対する高能率符号化方法の標準化が行われ、これらの方法が広く用いられている。しかしながら、このような方法をハイビジョンのように画素数の多い動画像に適用する場合、一台の符号化器/復号化器では実時間で全画面を処理することは困難である。そこで画面を複数の領域に分割し、各領域毎に符号化/復号化を行う方法が提案されている。
【0003】
この符号化方法において、生成した符号列を一つにまとめる方法としては、各領域の符号列を単純に連結する方法、各領域の符号列の先頭にマーカコードを挿入して連結する方法などが提案されている。
【0004】
【発明が解決しようとする課題】
しかしながら上記の従来の方法では、符号化方法と復号化方法で分割方法が異なる場合や分割数が異なる場合には、符号列を復号化できないという問題が生じる。また、分割画面毎の符号列は規格のシンタックスを満足していても、各分割画面の符号列をまとめた全体の符号列を規格のシンタックスを満足せず、互換性の点で問題が生じる。
【0005】
本発明は、上記の従来の問題点を解決するもので、画面を複数の領域に分割し符号化を行う場合でも、画面を分割せずに符号化を行う場合と同じシンタックスとなる符号列を生成する動画像の符号化方法および符号化装置、および画面を分割せずに符号化し生成した符号列と同じシンタックスの符号列を入力とし、この符号列を分割して複数の復号化器で復号化を行い、全画面の動画像を再生する動画像の復号化方法および復号化装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
この目的を達成するために本発明の動画像の符号化方法は、画面を複数の領域に分割し、画面の左上端部を含む領域では分割画面の符号列の先頭部に画面用のヘッダを付加して、前記画面の左上端部を含む領域以外の領域では分割画面の符号列の先頭部に画面用のヘッダを付加せずに、各領域毎に画面分割の境界および画面間で分離された符号列を生成し、前記分離された符号列を画面を分割せずに符号化する順に画面分割の境界および画面間で連結し、全画面の符号列を生成する構成を有している。
【0007】
また本発明の動画像の符号化装置は、入力画像の画面を複数の領域に分割する画面分割器と、前記画面分割器により得た分割画面の時系列を符号化し、かつ画面分割の境界および画面間で制御信号を出力する符号化器群と、前記符号化器が出力する符号列を蓄えるメモリと、前記符号化器が生成した符号列の出力先の前記メモリを切り替える出力切替器と、前記メモリ群の出力群を切り替えて出力する符号列合成器と、前記符号化器により出力された制御信号により、前記符号化器から出力される符号列が画面分割の境界および画面間で分離されるように前記出力切替器を制御し、かつ前記メモリ群の出力を全画面の符号列を生成する順に画面分割の境界および画面間で連結するように前記符号列合成器を制御する分割制御器とを具備した構成を有している。
【0008】
また本発明の動画像の復号化方法は、動画像の符号列を入力とし、あらかじめ定めておいた画面の分割方法に基づき、前記符号列のヘッダの位置情報により、画面の階層以上のヘッダは画面の左上端部を含む領域の符号列として扱い、前記符号列を分割画面の各領域に対応するように分割して分割符号列を生成し、前記分割符号列毎に分割画面を復号化し、得られた分割画面群を合成して全画面の動画像を再生する構成を有している。
【0009】
また本発明の動画像の復号化装置は、入力符号列中の画面の階層以上のヘッダを復号化し、さらに画面より下の階層のヘッダを検索して検出時に画面内の位置情報を得てヘッダ情報を出力するヘッダ検出器と、入力符号列を複数に分割する符号列分割器と、前記符号列分割器の入力を遅延させる遅延器と、あらかじめ定めておいた画面の分割方法に基づき、前記ヘッダ検出器が得たヘッダの位置情報により、画面の階層以上のヘッダは画面の左上端部を含む領域の符号列として扱い、入力符号列が直前の符号列とは異なる領域に属するときに入力符号列の出力先を切替え、分割画面の各領域に対応した分割符号列を出力するように前記出力切替器を制御する分割制御器と、前記ヘッダ検出器が復号化した画面の階層以上のヘッダの情報を用いて、前記分割制御器により分割された分割符号列を復号化する復号化器群と、前記復号化器群により復号化された分割画面群を全画面に合成する画面合成器とを具備した構成を有している。
【0010】
【作用】
この構成によって、動画像の画面を複数の領域に分割し、各領域毎に動画像を符号化する場合でも、画面を分割せずに符号化した場合の符号列と同じシンタックスの符号列を生成することができる。また、動画像の符号列を復号化する場合、入力符号列が画面を分割せずに符号化して得た符号列であっても、分割して各分割符号列を復号化し、全画面の動画像を得ることができる。このため、符号列のシンタックスは画面分割数および画面分割方法に依存せず、符号化装置と復号化装置とで画面分割数や画面分割方法が異なる場合でも、正しく復号化を行うことができる。また、符号化時に各分割画面で生成する符号列が規格のシンタックスを満足していれば、各分割画面の符号列をまとめた全体の符号列も規格のシンタックスを満足し、互換性を保つことができる。
【0011】
【実施例】
以下本発明の実施例について、図面を参照しながら説明する。本実施例では、符号化方法として、H.261やMPEGのように16×16程度の画素の集合(以下、マクロブロックと呼ぶ)を単位として符号化を行う方法を考え、画面の単位はフレームとし、画面を3分割する場合を例として取り上げる。
【0012】
まず、本発明の動画像の符号化方法の第一の実施例を図1を用いて説明する。図1は、動画像中のフレーム1とフレーム14を符号化する方法を示した模式的なパターン図である。ここでフレーム1とフレーム14は、符号列の順序で連続したフレームであるとする。
【0013】
まず各フレームを縦に3分割する。この操作により、フレーム1は分割フレーム2、3、4に、フレーム14は分割フレーム15、16、17に分割される。符号化は各分割領域毎に行う。各分割フレームは、符号列を生成する際の単位として、水平方向に連続したマクロブロックの集合(以下、スライスと呼ぶ)に分割される。ここでは、スライスの長さは分割フレームの水平方向の長さと同じであるとする。この操作により分割フレーム2は、上からスライス5、8と順に分割され、最終スライスはスライス11となる。分割フレーム3、4、15、16、17についても同様にスライスに分割される。
【0014】
分割フレーム2は、フレームの左上端のマクロブロック、すなわちフレーム1の先頭のマクロブロックを含んでいる。そこで、フレーム1が動画像の符号列の先頭フレームである場合や、フレームの集合の先頭フレームである場合などのように、ヘッダが付けられる場合にはまずそれらの場合に応じたヘッダを生成する。そしてそのヘッダを生成するしないに関わらず、フレーム1のヘッダ22を生成する。続いてスライス5が符号化されて符号列5aに、スライス8が符号化されて符号列8aとなる。ただし、各スライスの符号列にはスライスのヘッダが含まれているとする。その後、順にスライスの符号化が行われ、最後にスライス11が符号化され符号列11aとなる。
【0015】
分割フレーム3はフレームの左上端のマクロブロックを含んでいないため、フレームのヘッダは生成されない。したがって、まずスライス6が符号化されて符号列6aに、続いてスライス9が符号化されて符号列9aとなる。その後、順にスライスの符号化が行われ、最後にスライス12が符号化され符号列12aとなる。また分割フレーム4は、分割フレーム3と同様にフレームの左上端のマクロブロックを含んでいないため、フレームのヘッダは生成されない。よって、符号列7a、10aと符号列が順に生成され、最後に符号列13aが生成される。
【0016】
次に分割フレーム15、16、17に関しても分割フレーム2、3、4と同様に符号化が行われる。この際、分割フレーム15はフレームの左上端のマクロブロックを含んでいるため、先頭のスライス18の符号列18aの直前にフレーム14のヘッダ22が付加される。分割フレーム15は分割フレーム2と同じ領域であるため、分割フレーム15の符号列は分割フレーム2の符号列に続いて生成される。また、分割フレーム16の先頭のスライス19の符号列19a、および分割フレーム17の先頭のスライス20の符号列20aの直前にはフレームのヘッダは付加されない。
【0017】
以上の操作により、各分割領域の符号列が図1(b)のように生成される。フレームの左の領域の符号列は、分割フレームの動画像を符号化した場合の符号列となる。また、その他の領域の符号列は、分割フレームの動画像を符号化した場合の符号列からフレーム以上の階層のヘッダを取り除いたものとなる。
【0018】
さらにこれらの符号列をフレーム分割の境界およびフレーム間でスライス毎に連結する。すなわちフレーム1では、先頭からスライス5、6、7、8の順に各スライスに対応した符号列5a、6a、7a、8aを連結する。そしてフレーム1の最終スライス13の符号列13aの後に、フレーム14の先頭スライス14の符号列14aを連結する。これにより、図1(c)の符号列を生成することができる。この符号列の順序は、フレーム1、フレーム14を分割せずに符号化した場合の順序と同じである。
【0019】
次に、本発明の動画像の符号化方法の第二の実施例を図2を用いて説明する。図2は、動画像中のフレーム31とフレーム45を符号化する方法を示した模式的なパターン図である。
【0020】
まず各フレームを横に3分割する。この操作により、フレーム31は分割フレーム32、33、34に、フレーム45は分割フレーム46、47、48に分割される。符号化は各分割領域毎に行う。この際、各分割フレームを符号列を生成する際の単位としてスライスに分割する。この操作により分割フレーム32は、順にスライス35、36、37、38に分割される。分割フレーム33、34、46、47、48についても同様にスライスに分割される。
【0021】
分割フレーム32は、フレーム31の左上端のマクロブロックを含んでいる。そこで、フレーム31が動画像の符号列の先頭フレームである場合や、フレームの集合の先頭フレームである場合などのように、ヘッダが付けられる場合にはまずそれらの場合に応じたヘッダを生成する。そしてそのヘッダを生成するしないに関わらず、フレーム31のヘッダ58を生成する。続いてスライス35、36、37、38が順に符号化され、それぞれ符号列35a、36a、37a、38aとなる。ただし、各スライスの符号列にはスライスのヘッダが含まれているとする。
【0022】
分割フレーム33はフレームの左上端のマクロブロックを含んでいないため、フレームのヘッダは生成されない。したがって、まずスライス39が符号化されて符号列39aに、続いてスライス40、41が符号化されてそれぞれ符号列40a、41aとなる。また分割フレーム34は、分割フレーム33と同様にフレームの左上端のマクロブロックを含んでいないため、フレームのヘッダは生成されない。よって、符号列42a、43a、44aが順に生成される。
【0023】
次にフレーム45の分割フレーム46、47、48に関しても、分割フレーム32、33、34と同様に符号化が行われる。この際、分割フレーム45はフレームの左上端のマクロブロックを含んでいるため、先頭のスライス49の符号列49aの直前にフレーム45のヘッダ59が付加される。また、分割フレーム47の先頭のスライス52の符号列52a、および分割フレーム48の先頭のスライス54の符号列54aの直前にはフレームのヘッダは付加されない。
【0024】
以上の操作により、各分割領域の符号列が図2(b)のように生成される。フレームの上の領域の符号列は、分割フレームの動画像を符号化した場合の符号列となる。また、その他の領域の符号列は、分割フレームの動画像を符号化した場合の符号列からフレーム以上の階層のヘッダを取り除いたものとなる。
【0025】
さらにこれらの符号列をフレーム分割の境界およびフレーム間でスライス毎に連結する。すなわち、フレーム31では、スライス38の符号列38aの後にスライス39の符号列39aを連結し、スライス41の符号列41aの後にスライス42の符号列42aを連結する。また、スライス44の符号列44aの後に、フレーム45の先頭スライス49の符号列49aを連結する。これにより、図2(c)の符号列を生成することができる。この符号列の順序は、フレーム31、フレーム45を分割せずに符号化した場合の順序と同じである。
【0026】
以上より、フレームを複数の領域に分割し、各分割フレーム毎にフレーム分割の境界およびフレーム間で分離された符号列を生成し、フレームの左上端部を含む分割フレームでは符号列を生成する際にフレームの先頭部にフレームのヘッダを付加し、フレームを分割せずに符号化する順に分離された符号列をフレーム分割の境界およびフレーム間で連結すると、シンタックス的に全フレームの動画像を符号化したと見なせる符号列を生成することができることがわかる。
【0027】
次に本発明の動画像の符号化装置の実施例を図1と図3を用いて説明する。図3は、画面分割器61、符号化器62、63、64、出力切替器65、66、67、メモリ68、69、70、71、72、73、符号列合成器74、分割制御器75から構成される動画像の符号化装置のブロック図である。
【0028】
まず、入力画像76が画面分割器61に入力される。画面分割器61は、分割制御器75によって出力される画面分割制御信号84によりフレームの分割方法を決定し、入力フレームを分割し、分割画像信号77、78、79を出力する。ここでは、図1(a)のようにフレームを縦に3分割する場合を考え、分割された画像信号は、フレームの左の領域から順に分割画像信号77、78、79となるとする。すなわち、分割画像信号77は分割フレーム2、15を、分割画像信号78は分割フレーム3、16を、分割画像信号79は分割フレーム4、17を含む。この分割画像信号77、78、79はそれぞれ符号化器62、63、64に入力される。符号化器62、63、64は分割制御器75から、分割フレームの大きさや符号化の条件を符号化制御信号85として受け取る。そして各符号化器は分割画像信号の符号化を行う。符号化器62は、フレームの左上端のマクロブロックを含んでいる領域を符号化するので、フレームの先頭毎にフレーム用のヘッダを付加する。また、符号化対象のフレームが動画像の先頭であったり、フレームの集合の先頭フレームである場合には、さらにその前にヘッダを付加する。例えば、分割フレーム2を符号化するときには、フレーム1のヘッダ21を生成する。
【0029】
このようにして、分割画像信号に対する符号列80、81、82を生成する。符号列の構成は図1(b)の通りであり、符号列80がフレームの左の領域の符号列に、符号列81がフレームの中央の領域の符号列に、符号列82がフレームの右の領域の符号列に対応する。これらの符号列の出力先のメモリは、出力切替器により切り替わる。この様子を符号化器62が生成する符号列80を例として説明する。符号化器62は、フレーム分割の境界または分割フレームの最後の符号列を出力し終わった後に、符号列分離信号86を分割制御器75に対して出力する。分割制御器75は符号列分離信号86を受け取ると、符号化器62に対応する出力切替器65に出力切替制御信号87を送る。この出力切替制御信号87により出力切替器65は、符号列80の出力先のメモリを切り替える。すなわち、出力切替制御信号87を受け取る前にメモリ68に符号列を出力していたとすると、出力切替信号を受け取った後は、符号列をメモリ69に出力するようになる。例えば、スライス5の符号列5aがメモリ68に出力されていたとすると、スライス8の符号列8aはメモリ69に出力されるようになる。このようにして、符号化器62で生成された符号列は、フレーム分割の境界やフレーム間で分離されてメモリに入力される。同様の動作により、符号化器63で生成された符号列81は、出力切替器66によりメモリ70、71に、符号化器64で生成された符号列82は、出力切替器67によりメモリ72、73に入力される。
【0030】
このようにしてメモリ68、69、70、71、72、73に入力された符号列は、符号列合成器74により一つの符号列83にまとめられて出力される。符号列合成器74は、符号列合成制御信号88により符号列を連結していく。この符号列合成制御信号88は、フレームの分割方法にしたがって、メモリ内の符号列をフレームを分割しない場合の符号列の順に連結するように指示する信号である。例えば、メモリ68〜73に、それぞれスライスの符号列5a、8a、6a、9a、7a、10aが蓄えられているとすると、符号列合成器74はこれらのスライスの符号列を5a、6a、7a、8a、9a、10aの順にメモリから読みとり出力する。これにより、図1(c)のように符号列が生成される。
【0031】
以上のような動作により、本発明の動画像の符号化装置により、画面を分割して複数の符号化器で並列に符号化処理を行いながらも、画面を分割しない場合の符号列と同じシンタックスの符号列を生成することができる。
【0032】
次に、本発明の動画像の第一の復号化方法の第一の実施例を図4を参照しながら説明する。図4は、動画像の符号列を複数に分割して復号化する方法を示した模式的なパターン図である。ここでは、入力符号列中の2フレーム分の符号列を復号化する場合を示している。
【0033】
図4(a)は入力符号列を示す。ヘッダ91、104は、フレームの階層以上のヘッダである。スライスの符号列は、ヘッダと画像データの符号列に分かれる。例えば、スライスの符号列94はスライスのヘッダ92と、画像データの符号列93からなる。その他のスライスの符号列95〜103、105〜113についても同様である。この入力符号列を水平方向に分割した分割フレームに対応するように3分割する。これは、スライスのヘッダに含まれている画面上の位置情報を復号化することにより行う。すなわち、入力符号列の先頭からスライスのヘッダを検索し、ヘッダを検出した時点でそのスライスの位置情報を得る。そして、その位置情報によりどの分割フレームに属するかを決定し、直前のスライスとは異なる分割フレームに属する場合は、そのスライスのヘッダの先頭で符号列を分割する。直前のスライスと同じ分割フレームに属する場合には、符号列の分割は行わない。ただし、フレームの階層以上用のヘッダ91、104は、フレームの上の領域の符号列に含む。
【0034】
ここでは、入力符号列を図4(d)の分割フレーム115〜117、119〜121に対応するように分割する。まず、スライスのヘッダ92を検出し、その位置情報を復号化することにより、スライスの符号列94が分割フレーム115の領域に属することがわかる。同様に、スライスの符号列95〜97もヘッダの位置情報を復号化することにより、分割フレーム115の領域に属することがわかる。よって、スライスの符号列94〜97に対しては符号列の分割は行わない。次にスライスの符号列98のヘッダを検出し、その位置情報を復号化することによりスライスの符号列98が分割フレーム116の領域に属し、直前の領域とは異なる領域に属する符号列であることがわかる。よって、スライスの符号列98のヘッダの先頭部で符号列の分割を行う。スライスの符号列98〜100は分割フレーム116の領域に属するので、この間での符号列の分割は行わない。そして同様の方法によりスライスの符号列101のヘッダの先頭部で符号列の分割を行う。以後、ヘッダ104、スライスの符号列108、110のヘッダの先頭部で符号列の分割を行い、図4(b)のように各領域に対応した3つの分割符号列が得られる。
【0035】
続いて各分割符号列毎に復号化を行う。フレームの上の領域の符号列を復号化することにより、分割フレーム115、119が、中央の領域の符号列を復号化することにより、分割フレーム116、120が、下の領域の符号列を復号化することにより、分割フレーム117、121が得られる。そして、得られた分割フレーム115、116、117を合成してフレーム114が、分割フレーム119、120、121を合成してフレーム118が得られる。
【0036】
次に、本発明の動画像の第一の復号化方法の第二の実施例を図4を用いて説明する。第二の復号化方法が第一の復号化方法と異なる点は、図4(a)の入力符号列から図4(c)に示すような各領域に対応する符号列に分割することである。この様子を以下で説明する。
【0037】
まず入力符号列のヘッダの検索を行い、フレームの階層以上のヘッダを検出した場合には、そのヘッダを各領域の符号列に分配する。この動作は、スライスのヘッダを検出するまで続く。これにより、すべての分割符号列にフレームの階層以上のヘッダが含まれることになる。その後、スライスのヘッダを検出すると、スライスのヘッダの位置情報により、第一の復号化方法と同様にスライスの符号列の分割を行っていく。
【0038】
図4(d)に示す分割フレーム115〜117、119〜121の領域に対応するように入力符号列を分割する場合を考える。図4(a)の入力符号列では、まずヘッダ91が検出される。ヘッダ91はフレームの階層以上のヘッダであるので、各領域の符号列に分配される。スライスの符号列94〜103の分割方法は、第一の実施例で説明した通りである。次にヘッダ104を検出すると、ヘッダ104はフレームの階層以上のヘッダであるので各領域の符号列に分配される。その後、スライスの符号列105〜113は、第一の実施例で説明した方法で分割する。その結果、図4(c)のような各領域毎の符号列が得られる。なお、図4(c)を復号化して得られた分割フレームを合成し、全画面の動画像を得る方法は第一の復号化方法と同様である。
【0039】
以上より、本発明の第一の動画像の復号化方法により、フレームを分割しないで符号化して得た動画像の符号列を分割して復号化し、得られた分割フレームを合成することによって、元の動画像を得ることができることがわかる。
【0040】
次に、本発明の第一の動画像の復号化装置の第一の実施例を図4と図5を用いて説明する。図5は、ヘッダ検出器131、分割制御器132、遅延器133、符号列分割器134、復号化器135、136、137、画面合成器138から構成される動画像の復号化装置のブロック図である。ここでは、フレームを図4(d)の分割フレーム115〜117の領域に対応するように水平方向に3分割し、フレームの上の領域を復号化器135が、中央の領域を復号化器136が、下の領域を復号化器137が復号化する場合を考える。
【0041】
入力符号列139はヘッダ検出器131と遅延器133に同時に入力される。ヘッダ検出器131は、入力符号列139のフレームの階層以上のヘッダの復号化およびスライスのヘッダの検索を行う。スライスのヘッダを検出すると、そのヘッダの位置情報を復号化し、それをヘッダ情報信号148として分割制御器132に対して出力する。分割制御器132は、あらかじめ定めておいたフレームの分割方法に基づき、ヘッダ検出器131が検出したスライスが、直前のスライスとは異なる分割領域に属するときには、符号列分割制御信号149を符号列分割器134に出力する。符号列分割器134は、分割制御器132から符号列分割制御信号149を受けると、遅延器を通過した入力符号列140の出力先を切り替える。すなわち、ある時点で符号列分割器134が入力符号列140を分割符号列141として復号化器135に出力していた場合、ここで分割制御器132から符号列分割制御信号149が入力されると、入力符号列140の出力先を切替え、分割符号列142として復号化器136に出力する。入力符号列140の出力先を切り替える際に、ヘッダ検出器131で検出したスライスのヘッダが出力先を切り替えた後の分割符号列に含まれるように、遅延器133で入力符号列139が符号列分割器134に入力するのを遅らせている。
【0042】
以上の動作を図4(a)の入力符号列が入力された場合について説明する。この場合、ヘッダ検出器131はまずヘッダ91の復号化を行う。このヘッダ91は復号化器135に入力される。続いてスライスのヘッダの検索を行い、スライスのヘッダ92を検出する。スライスのヘッダ92の位置情報を復号化することにより、スライスの符号列94が分割フレーム115の領域に属することがわかる。よって、符号列分割器134は入力符号列140をヘッダ91に続いて復号化器135に出力する。同様に、スライスの符号列95〜97もヘッダの位置情報を復号化することにより、分割フレーム115の領域に属することがわかる。よって、スライスの符号列94〜97に対しては、符号列分割器134は符号列の分割は行わず、復号化器135に対して出力する。次にスライスの符号列98のヘッダを検出し、その位置情報を復号化する。これによりスライスの符号列98が分割フレーム116の領域に属し、直前の領域とは異なる領域に属する符号列であることがわかる。よって、分割制御器132は符号列分割器134に対して符号列分割制御信号149を出力する。符号列分割器134は、符号列分割制御信号149により、入力符号列140の出力先を復号化器136に切り替える。遅延器133により入力符号列139は遅延されているため、この切替はスライスの符号列98のヘッダの先頭部で行われる。スライスの符号列98〜100は分割フレーム116の領域に属するので、この間での符号列の分割は行われず、これらの符号列は復号化器136に出力される。そして同様の方法により符号列分割器134はスライスの符号列101のヘッダの先頭部で符号列の分割を行い、入力符号列140の出力先を復号化器137に切り替える。以後、ヘッダ104、スライスの符号列108、110のヘッダの先頭部で符号列の分割を行い、図4(b)のような各領域に対応した3つの分割符号列が得られる。
【0043】
このようにして分割された分割符号列141、142、143は、それぞれ復号化器135、136、137により復号化される。復号化時には、フレームの階層以上のヘッダ情報が必要となるが、これはヘッダ検出器により復号化されているので、その情報と分割方法を分割制御器132から復号化情報信号150として受け取る。復号化された分割画像信号144、145、146は、画面合成器138により全フレームに合成され、出力画像147となる。この際、画面合成器138は、画面合成の方法を分割制御器132より、画面合成制御信号151として得る。
【0044】
次に、本発明の第一の動画像の復号化装置の第二の実施例を図4と図5を用いて説明する。第二の実施例が第一の実施例と異なる点は、図4(a)の入力符号列から図4(c)に示すように各領域に対応する符号列に分割し、フレームの階層以上のヘッダを各復号化器が復号化することである。この動作を以下で説明する。
【0045】
まずヘッダ検出器131は、入力符号列139のヘッダの検索を行う。検出したヘッダがフレームの階層以上のヘッダであるとき、分割制御器132は符号列分割器134がそのヘッダを復号化器135、136、137のすべてに分配するように符号列分割制御信号149を出力する。続いてスライスのヘッダを検出すると、そのヘッダの位置情報を復号化し、それをヘッダ情報信号148として分割制御器132に対して出力する。分割制御器132がスライスの符号列を分割する方法は、第一の実施例と同じである。次のフレームの階層以上のヘッダを検出すると、符号列分割器はそのヘッダを再び復号化器135、136、137のすべてに分配する。そして、次のスライスのヘッダを検出すると、ヘッダの位置情報により符号列の分割を行っていく。この方法は、第一の実施例で述べた方法と同様である。
【0046】
図4(a)の入力符号列が入力された場合には、ヘッダ検出器131はまずヘッダ91を検出する。ヘッダ91はフレームの階層以上のヘッダであるので、符号列分割器134は、復号化器135、136、137のすべてに対してヘッダ91を出力する。次にスライスの符号列94のヘッダ92を検出すると、符号列分割器134は入力符号列140を復号化器135だけに対して出力する。その後のフレーム114に属するスライスの符号列の分割方法は第一の実施例と同じである。そして、ヘッダ104を検出すると、ヘッダ104はフレームの階層以上のヘッダであるので、符号列分割器134はヘッダ104を復号化器135、136、137に対して出力する。その後のスライスの符号列の分割方法は第一の実施例と同じである。以上の動作により図4(c)の分割符号列が得られる。
【0047】
図4(c)の分割符号列を復号化器135、136、137により復号化する場合、各分割符号列141、142、143にフレームの階層以上のヘッダがあるため、復号化情報は各復号化器がこのヘッダを復号化することにより得られる。よって、第一の実施例のように分割制御器132から復号化情報を得る必要はない。なお、復号化器135、136、137により得られた分割フレームの画面合成器138による画面合成処理は第一の実施例と同様である。
【0048】
以上より、本発明の第一の動画像の復号化装置により、入力符号列のヘッダの位置情報により入力符号列を分割し、分割した符号列に対して並列に復号化を行い、復号化された分割画像を合成して全画面の動画像を得ることができることがわかる。
【0049】
次に、本発明の第二の動画像の復号化装置の実施例を図4と図6を用いて説明する。図6は、遅延器161、符号列分割器162、メモリ163、入力切替器164、第一の復号化器である復号化器165、第二の復号化器である復号化器166、167、画面合成器168、分割制御器169から構成される動画像の復号化装置のブロック図である。ここでは、入力符号列170として図4(a)の符号列が入力されたとし、フレームを水平方向に3分割し、フレームの上の領域を復号化器165が、中央の領域を復号化器166が、下の領域を復号化器167が復号化するとする。
【0050】
入力符号列170は、入力切替器164と遅延器161に同時に入力される。入力符号列170は、入力切替器164に読み込まれると同時に遅延器161にも同じデータが読み込まれる。すなわち、入力切替器164が入力符号列170を読み込まないときには、遅延器161にも入力符号列170は読み込まれない。入力切替器164は、入力符号列170と符号列分割器162により出力された分割符号列172とを入力とし、その一方を復号化器165に出力する。初期状態では、入力切替器164は入力符号列170を出力する。入力切替器164が入力符号列170を出力している間は、復号化器165は入力符号列170のフレームの階層以上のヘッダ情報を復号化し、スライスのヘッダを検索する。分割制御器169は、あらかじめ定めておいたフレームの分割方法に基づき、復号化器165が検出したスライスが、直前のスライスとは異なる分割領域に属するときには、それを符号列分割器162に対して符号列分割制御信号179として出力する。先頭のスライスの符号列94は、フレームの上の領域に属するので、分割符号列172として符号列分割器162が出力するように符号列分割制御信号179を送る。
【0051】
符号列分割器162は、符号列分割制御信号179を受け取ると、遅延器161を通した入力符号列171の出力先を切り替える。すなわち、ある時点で符号列分割器162が入力符号列171を分割符号列172としてメモリ163に出力していた場合、ここで分割制御器169から符号列分割制御信号179が入力されると、入力符号列171の出力先を切替え、分割符号列173として復号化器166に出力する。入力符号列171の出力先を切り替える際に、復号化器165で検出したスライスのヘッダが出力先を切り替えた後の分割符号列に含まれるように遅延器161で、入力符号列170が符号列分割器162に入力するのを遅らせている。
【0052】
復号化器165はさらにスライスヘッダの検出を続け、1フレーム分の入力符号列の分割が終了した時点で、ヘッダ情報信号182を分割制御器169に出力する。分割制御器169は、復号化器165からヘッダ情報信号182を受けると、入力切替制御信号180により、メモリに蓄えられた符号列を復号化器165に出力するように入力切替器164の入力を切り替える。そして復号化器165は、メモリに蓄えられた符号列の復号化を行う。また、復号化器166、167は、復号化器165がスライスのヘッダを検出している間も復号化を行うことができる。復号化時には、フレームの階層以上のヘッダ情報が必要となるが、これは復号化器165により復号化されているので、その情報と分割方法を分割制御器169より、復号化情報信号181として受け取る。復号化された分割画像信号175、176、177は、それぞれ分割フレーム115、116、117に対応し、画面合成器168により全フレームに合成され、フレーム114が出力画像178として出力される。この際、画面合成器168は、画面合成の方法を分割制御器169より、画面合成制御信号183として得る。
【0053】
1フレームの復号化が終わると、分割制御器169は入力切替器164の入力を入力符号列170に切替える。そして復号化器165により、次のフレームの階層以上のヘッダの復号化、スライスのヘッダの検出が行われ、入力符号列が分割されて復号化処理が続けられる。
【0054】
以上の動作を図4(a)の入力符号列を入力した場合について説明する。初期状態では入力切替器164は、入力符号列170を選択し、符号列分割器162はメモリ163に対して符号列を出力する。復号化器165は、まずヘッダ91を復号化し、次にスライスのヘッダの検索を行う。スライスのヘッダ92を検出すると、スライスのヘッダ92の位置情報を復号化することにより、スライスの符号列94が分割フレーム115の領域に属することがわかる。よって、符号列分割器162は入力符号列170をヘッダ91に続いてメモリ163に出力する。同様に、スライスの符号列95〜97もヘッダの位置情報を復号化することにより、分割フレーム115の領域に属することがわかる。よって、スライスの符号列94〜97に対しては、符号列分割器162は符号列の分割は行わず、メモリ163に対して出力を行う。次に復号化器165はスライスの符号列98のヘッダを検出し、その位置情報を復号化する。これによりスライスの符号列98が分割フレーム116の領域に属し、直前の領域とは異なる領域に属する符号列であることがわかる。よって、分割制御器169は符号列分割器162に対して符号列分割制御信号179を出力する。符号列分割器162は、符号列分割制御信号179により、入力符号列170の出力先を復号化器166に切り替える。遅延器133により入力符号列170は遅延されているため、この切替はスライスの符号列98のヘッダの先頭部で行われる。スライスの符号列98〜100は分割フレーム116の領域に属するので、この間での符号列の分割は行われず、これらの符号列は復号化器166に出力される。そして同様の方法により符号列分割器162はスライスの符号列101のヘッダの先頭部で符号列の分割を行い、入力符号列170の出力先を復号化器167に切り替える。すなわち、スライスの符号列94〜97を分割符号列172として符号列分割器162が出力した後に、スライスの符号列98をヘッダを検出すると、符号列分割器162は入力符号列を分割符号列173として出力するようになる。
【0055】
復号化器165がヘッダ104を検出した時点で、フレーム114の符号列をすべて分割したことになる。よって、分割制御器169は入力切替制御信号180により、入力切替器164の入力としてメモリ163の出力を選択させる。この時点で、メモリ163には、スライスの符号列94〜97が蓄えられ、復号化器166にはスライスの符号列98〜100が、復号化器167にはスライスの符号列101〜103が入力されていることになる。そして、復号化器165、166、167はそれぞれに入力された分割符号列の復号化を行う。復号化された分割フレーム115、116、117は、画面合成器168によりフレーム114に合成される。
【0056】
1フレームの復号化が終了すると、入力切替器164は入力を入力符号列170に切替え、再び復号化器165によりフレームの階層以上のヘッダの復号化、およびスライスのヘッダの検索を行い、入力符号列の分割を行う。この分割により、分割フレーム119の領域に対応してスライスの符号列105〜107が、分割フレーム120の領域に対応してスライスの符号列108、109が、分割フレーム121の領域に対応してスライスの符号列110〜113が、分割符号列として得られる。そして分割符号列を復号化することにより、分割フレーム119、120、121が得られ、これらを合成してフレーム118が得られる。
【0057】
以上より、本発明の第二の動画像の復号化装置により、入力符号列を分割して並列に復号化を行い、復号化された分割画像を合成して全画面の動画像を得ることができることがわかる。
【0058】
次に、本発明の第二の動画像の復号化方法の実施例を図4と図7を用いて説明する。図7は、動画像の符号列を複数に分割して復号化する方法において、分割された符号列を示す模式的なパターン図である。ここでは、フレーム118はフレーム114を参照フレームとして用いて符号化されており、フレーム118は他のフレームから参照されていないとする。
【0059】
図4(a)を入力符号列とする。この入力符号列を図4(d)に示すように、水平方向に分割した分割フレームに対応するように分割する。符号列の分割は、復号化時の参照がおよぶ範囲を考慮して行う。例えば、フレーム118のフレーム114に対する参照の範囲が、上下左右に1マクロブロック分であるとする。このとき、フレーム114の符号列を分割する場合、分割フレームの範囲を上下に1マクロブロック分だけ拡大した領域の符号列が各分割符号列内に分配されるように分割する。分割フレーム115は、スライス94a、95a、96a、97aを含むが、分割フレーム119から分割フレーム115への参照が、スライス98a、99aにおよぶため、分割フレーム115の分割符号列に、スライスの符号列98、99を含ませる。同様にして、分割フレーム116に対応する分割符号列には、スライスの符号列96、97、101、102を含み、分割フレーム117に対応する分割符号列117には、スライスの符号列100を含む。フレーム118は他のフレームからの参照には用いられないので、符号列の分割は、第一の復号化装置の実施例と同様に行う。
【0060】
このようにして分割した符号列を図7(a)に示す。各分割領域の分割符号列を復号化すると、図7(b)のように分割フレーム191、192、193、119、120、121が得られる。分割フレーム191、192、193の重複部分を削除して分割フレーム115、116、117を合成することにより、フレーム114が得られる。また、分割フレーム119、120、121は重複部分がないので、そのまま合成しフレーム118を得ることができる。
【0061】
以上より、本発明の第二の動画像の復号化方法により、入力符号列を分割して並列に復号化を行い、復号化された分割画像を合成して全画面の動画像を得ることができることがわかる。
【0062】
次に本発明の第三の復号化装置の実施例を図4、7、8を用いて説明する。図8は、ヘッダ検出器131、分割制御器132、遅延器133、符号列分割器134、復号化器135、136、137、画面合成器138、ヘッダ情報解析器201から構成される動画像の復号化装置のブロック図である。ここではフレームを水平方向に3分割し、フレームの上の領域を復号化器135が、中央の領域を復号化器136が、下の領域を復号化器137が復号化する場合を考える。
【0063】
入力符号列139はヘッダ検出器131と遅延器133に同時に入力される。ヘッダ検出器131は、入力符号列139のフレームの階層以上のヘッダの復号化およびスライスのヘッダの検索を行う。すなわち、図4(a)の符号列が入力された場合には、まずヘッダ91の復号化を行う。ヘッダ検出器131は、このヘッダ情報148を分割制御器132、ヘッダ情報解析器201に出力する。ヘッダ情報解析器201は、フレームの参照関係から各フレームが他のフレームから参照される範囲を決定し、それを動き補償情報信号202として分割制御器132に出力する。
【0064】
ヘッダ検出器132は続いてスライスのヘッダを検出すると、そのヘッダの位置情報を復号化し、それをヘッダ情報信号148として分割制御器132に出力する。分割制御器132は、あらかじめ定めておいたフレームの分割方法およびヘッダ情報解析器201から得た動き補償の範囲に基づき、入力符号列の分割方法を決定する。例えばフレーム118が上下左右1マクロブロックの動き補償によりフレーム114を参照して符号化され、フレーム118は他のフレームから参照されていないとする。この場合、フレーム114の符号列は動き補償の範囲を考慮して分割される。分割フレーム119の分割フレーム115に対する参照は、スライス98a、99aにおよぶ。また、分割フレーム120の分割フレーム116に対する参照は、スライス96a、97a、101a、102aに、分割フレーム121の分割フレーム117に対する参照は、スライス100aにおよぶ。
【0065】
分割制御器132は、このように動き補償の範囲を決定し、符号列分割制御信号149を符号列分割器134に出力することにより、入力符号列139を分割していく。スライスの符号列94、95は他の領域からの参照には用いられないので、復号化器135にのみ出力する。スライスの符号列96、97は、他の領域である分割フレーム120からの参照を受けるので、復号化器135、136に出力する。分割フレーム116のスライスの符号列である98、99は、他の領域である分割フレーム119からの参照に用いられるので、復号化器135、136に出力する。同様にしてスライスの符号列100〜103についても動き補償を考慮して分割を行い、各復号化器に入力する。また、フレーム118の符号列に関しては、動き補償を考慮せずに分割フレーム119、120、121に対応するように符号列を分割する。その結果、各符号化器に入力される符号列は図7(a)となる。
【0066】
図7(a)の符号列を復号化器135、136、137が復号化するときには、各領域毎に復号化で必要となる参照画像の符号列が入力されているので、他の復号化器のメモリにアクセスすることなく復号化を行うことができる。復号化により、復号化器135では分割フレーム191、119が、復号化器136では分割フレーム192、120が、復号化器137では分割フレーム193、121が得られる。画面合成器138は、画面合成制御信号151により分割フレームの重複部分を削除し合成する。これにより、分割フレーム191、192、193より115、116、117が合成されフレーム114が、分割フレーム119、120、121が合成されフレーム118が得られる。
【0067】
以上より、本発明の第三の動画像の復号化装置により、入力符号列を分割して並列に復号化を行い、復号化された分割画像を合成して全画面の動画像を得ることができることがわかる。
【0068】
次に、本発明の第四の動画像の復号化装置の実施例を図4、7、9を用いて説明する。図9は、遅延器161、符号列分割器162、メモリ163、入力切替器164、第一の復号化器である復号化器165、第二の復号化器である復号化器166、167、画面合成器168、分割制御器169、ヘッダ情報解析器211から構成される動画像の復号化装置のブロック図である。ここでは、入力符号列170として図4(a)の符号列が入力されたとし、フレームを水平方向に3分割し、フレームの上の領域を復号化器165が、中央の領域を復号化器166が、下の領域を復号化器167が復号化するとする。
【0069】
入力符号列170は、入力切替器164と遅延器161に同時に入力される。入力切替器164は、入力符号列170と符号列分割器162により出力された分割符号列172を入力とし、その一方を復号化器165に出力する。初期状態では、入力切替器164は入力符号列170を出力する。入力切替器164が入力符号列170を出力している間は、復号化器165は入力符号列170のフレームの階層以上のヘッダ情報を復号化し、スライスのヘッダを検索する。すなわち、まずヘッダ91を復号化する。復号化器165は、このヘッダ情報信号182を分割制御器169、ヘッダ情報解析器211に出力する。ヘッダ情報解析器211は、フレームの参照関係から各フレームが他のフレームから参照される範囲を決定し、それを動き補償情報信号212として分割制御器169に出力する。
【0070】
復号化器165は続いてスライスのヘッダの検索を行う。スライスのヘッダ92を検出すると、そのヘッダの位置情報を復号化し、それをヘッダ情報信号182として分割制御器169に通知する。分割制御器169は、あらかじめ定めておいたフレームの分割方法およびヘッダ情報解析器211より得た動き補償の範囲に基づき、入力符号列の分割方法を決定する。この分割方法は、本発明の第三の復号化装置の実施例で述べた方法と同様である。
【0071】
分割制御器132は、決定した分割方法に基づいて符号列分割制御信号149を符号列分割器134に出力することにより、入力符号列139を分割していく。本発明の第三の復号化装置の実施例で述べた方法によりフレーム114の符号列を分割し終わると、復号化器165はヘッダ情報信号182を分割制御器169に出力する。分割制御器169は、復号化器165からヘッダ情報信号182を受けると、入力切替制御信号180により、メモリに蓄えられた符号列を復号化器165に出力するように入力を切り替える。この時点で、メモリ163には、スライスの符号列94〜99が蓄えられ、復号化器166にはスライスの符号列96〜102、復号化器167にはスライスの符号列100 〜103が入力されていることになる。そして、復号化器165は、メモリに蓄えられた符号列の復号化を行う。また、復号化器166、167は、復号化器165がスライスのヘッダを検出している間も復号化を行うことができる。復号化時には、フレームの階層以上のヘッダ情報が必要となるが、これは復号化器165により復号化されているので、その情報と分割方法を分割制御器169より、復号化情報信号181として受け取る。また各復号化器165、166、167は、分割符号列を復号化して得た画像のみを参照画像として用いることにより復号化を行う。
【0072】
復号化された分割画像信号175、176、177は、それぞれ分割フレーム191、192、193に対応し、画面合成器168により全フレームに合成され、フレーム114が出力画像178として出力される。この際、画面合成器168は、画面合成の方法を分割制御器169より、画面合成制御信号183として受け取り、分割フレームの重複部分を削除して合成する。よって、分割フレーム191、192、193は、それぞれ分割フレーム115、116、117となり合成される。
【0073】
1フレームの復号化が終わると、分割制御器169は入力切替器164の入力を入力符号列170に切替える。そして復号化器165により、ヘッダ104の復号化、スライスのヘッダの検出が行われ、入力符号列が分割される。フレーム118は他の画面から参照されていないので、入力符号列を分割する時に動き補償の範囲を考慮する必要はない。よって、メモリ163にはスライスの符号列105〜107が、復号化器166にはスライスの符号列108、109が、復号化器167にはスライスの符号列110〜113が分割符号列として入力される。復号化器165はフレーム118の符号列の分割が終わると、ヘッダ情報信号182により分割制御器169に伝える。分割制御器169は入力切替器164の入力をメモリの出力に切り替える。そして、復号化器165、166、167は分割符号列の復号化を行う。復号化された分割フレーム119、120、121は重複部分がないのでそのまま画面合成器168で合成され、フレーム118が出力画像178として出力される。
【0074】
以上より、本発明の第四の動画像の復号化装置により、入力符号列を分割して並列に復号化を行い、復号化された分割画像を合成して全画面の動画像を得ることができることがわかる。
【0075】
なお、本実施例では画面の単位としてフレームの場合を説明したが、これはフィールドであってもよい。
【0076】
また、図1を用いて説明した実施例では、スライスの長さは分割画面の水平方向の長さと同じである必要はなく、分割画面の水平方向の長さよりも短いスライスであってもよい。
【0077】
また、スライスの分割の方法は、各分割画面により自由に決定してよい。
また、本実施例では画面を水平分割と垂直分割で分割する場合を説明したが、これは十字分割などでもよい。
【0078】
また、本実施例では画面を3分割する場合を説明したが、これは任意の分割数であってもよい。
【0079】
また、本実施例では基本となる符号化方法として、H.261、MPEGのようにマクロブロックを単位として符号化を行う方法を用いた場合を説明したが、これはヘッダに画面の位置情報を含む符号化方法であれば他の符号化方法でもよい。
【0080】
また、本発明の第二の復号化方法では、画面の階層以上のヘッダは画面の左上端部を含む領域の分割符号列に含ませたが、これは本発明の第一の復号化方法の第二の実施例で説明したように、すべての分割符号列に含ませてもよい。
【0081】
また、本発明の第二、第三、第四の復号化装置では、画面の階層以上のヘッダは画面の左上端部を含む領域を復号化する復号化器のみに入力したが、これは本発明の第一の復号化器の第二の実施例で説明したように、すべての復号化器に入力してもよい。
【0082】
【発明の効果】
以上のように本発明は、符号化時には、画面を複数の領域に分割し、画面の左上端部を含む領域では分割画面の符号列の先頭部に画面用のヘッダを付加して、各領域毎に画面分割の境界および画面間で分離された符号列を生成し、前記分離された符号列を画面を分割せずに符号化する順に画面分割の境界および画面間で連結し、全画面の符号列を生成する。また復号化時には、動画像の符号列を入力とし、あらかじめ定めておいた画面の分割方法に基づき、前記符号列のヘッダの位置情報により、画面の階層以上のヘッダは画面の左上端部を含む領域の符号列として扱い、前記符号列を分割画面の各領域に対応するように分割して分割符号列を生成し、前記分割符号列毎に分割画面を復号化し、得られた分割画面群を合成して全画面の動画像を再生する。したがって、符号化時に生成する符号列を画面を分割せずに符号化した場合の符号列と同じシンタックスにすることができる。また復号化時には、入力符号列が画面を分割せずに符号化して得た符号列であっても、分割して復号化することができる。このため、符号列のシンタックスは画面分割数および画面分割方法に依存せず、符号化装置と復号化装置とで画面分割数または画面分割方法が異なる場合でも、正しく復号化を行うことができる。
【図面の簡単な説明】
【図1】本発明の動画像の符号化方法の一実施例の模式的なパターン図
【図2】本発明の動画像の符号化方法の一実施例の模式的なパターン図
【図3】本発明の動画像の符号化装置の一実施例のブロック図
【図4】本発明の第一の動画像の復号化方法の一実施例の模式的なパターン図
【図5】本発明の第一の動画像の復号化装置の一実施例のブロック図
【図6】本発明の第二の動画像の復号化装置の一実施例のブロック図
【図7】本発明の第二の動画像の復号化方法の一実施例の模式的なパターン図
【図8】本発明の第三の動画像の復号化装置の一実施例のブロック図
【図9】本発明の第四の動画像の復号化装置の一実施例のブロック図
【符号の説明】
1、14 フレーム
2〜4、15〜17 分割フレーム
5〜13、18〜20 スライス
5a〜13a、18a〜20a スライスの符号列
21、22 ヘッダ
31、45 フレーム
32〜34、46〜48 分割フレーム
35〜44、49〜57 スライス
35a〜44a、49a〜57a スライスの符号列
58、59 ヘッダ
61 画面分割器
62〜64 符号化器
65〜67 出力切替器
68〜73 メモリ
74 符号列合成器
75 分割制御器
91、104 ヘッダ
92 スライスのヘッダ
93 画像データの符号列
94〜103、105〜113 スライスの符号列
94a〜103a、105a〜113a スライス
114、118 フレーム
115〜117、119〜121 分割フレーム
131 ヘッダ検出器
132 分割制御器
133 遅延器
134 符号列分割器
135〜137 復号化器
138 画面合成器
161 遅延器
162 符号列分割器
163 メモリ
164 入力切替器
165〜167 復号化器
168 画面合成器
169 分割制御器
201、211 ヘッダ情報解析器
[0001]
[Industrial applications]
The present invention relates to a moving picture coding method and a coding apparatus, and a decoding method and a decoding apparatus that divide a screen into a plurality of regions and perform coding / decoding for each region.
[0002]
[Prior art]
In recent years, H.A. H.261, MPEG and other high-efficiency encoding methods for moving image signals have been standardized, and these methods are widely used. However, when such a method is applied to a moving image having a large number of pixels, such as a high-definition television, it is difficult for one encoder / decoder to process the entire screen in real time. Therefore, a method has been proposed in which a screen is divided into a plurality of regions and encoding / decoding is performed for each region.
[0003]
In this encoding method, as a method of combining the generated code strings into one, a method of simply connecting the code strings of each area, a method of inserting a marker code at the beginning of the code string of each area and connecting them, and the like. Proposed.
[0004]
[Problems to be solved by the invention]
However, the above-described conventional method has a problem that a code string cannot be decoded when the encoding method and the decoding method use different division methods or when the number of divisions differs. In addition, even though the code sequence for each divided screen satisfies the standard syntax, the entire code sequence combining the code sequences for each divided screen does not satisfy the standard syntax, and there is a problem in compatibility. Occurs.
[0005]
The present invention solves the above-mentioned conventional problems. Even when a screen is divided into a plurality of regions and coding is performed, a code sequence having the same syntax as that when coding without dividing the screen is performed. A method and apparatus for encoding a moving image for generating a video signal, and a code string having the same syntax as a code string generated by coding without dividing a screen, and dividing the code string into a plurality of decoders It is an object of the present invention to provide a moving picture decoding method and a decoding apparatus for decoding a full-screen moving picture.
[0006]
[Means for Solving the Problems]
In order to achieve this object, the moving image encoding method of the present invention divides a screen into a plurality of regions, and in a region including the upper left end of the screen, adds a screen header at the beginning of the code string of the divided screen. In addition, in an area other than the area including the upper left end of the screen, a header for the screen is not added to the leading part of the code string of the divided screen. And generating a code string for the entire screen by connecting the separated code strings to boundaries between screen divisions and between the screens in the coding order without dividing the screen.
[0007]
Further, the moving picture encoding apparatus of the present invention is a screen divider that divides a screen of an input image into a plurality of regions, and encodes a time series of the divided screen obtained by the screen divider, and performs screen division boundaries and An encoder group that outputs a control signal between screens, a memory that stores a code string output by the encoder, and an output switch that switches the memory that outputs the code string generated by the encoder. A code string synthesizer that switches and outputs the output group of the memory group, and a control signal output from the encoder separates a code string output from the encoder between screen division boundaries and between screens. Controller for controlling the output switching device as described above, and controlling the code string synthesizer so as to connect the outputs of the memory group to a boundary between screen divisions and between the screens in the order of generating a full screen code string. Structure with The it has.
[0008]
Further, the moving picture decoding method of the present invention, in which a code string of a moving picture is input, and based on a predetermined screen dividing method, the header information of a screen layer or higher is determined by the position information of the code string header. Treat as a code string of the area including the upper left end of the screen, generate a divided code string by dividing the code string to correspond to each area of the divided screen, decode the divided screen for each divided code string, It has a configuration in which the obtained divided screen groups are combined to reproduce a moving image of the entire screen.
[0009]
Further, the moving picture decoding apparatus of the present invention decodes a header of a screen layer or higher in an input code string, further searches a header of a layer lower than the screen, obtains position information in the screen at the time of detection, and obtains a header. A header detector that outputs information, a code sequence divider that divides the input code sequence into a plurality, a delay device that delays the input of the code sequence divider, and a screen division method that is determined in advance, According to the position information of the header obtained by the header detector, the headers on the screen hierarchy and above are treated as a code string of the area including the upper left corner of the screen, and input when the input code string belongs to a different area from the immediately preceding code string. A division controller that switches the output destination of the code sequence and controls the output switch so as to output a divided code sequence corresponding to each area of the divided screen; and a header of a screen hierarchy or higher decoded by the header detector. Using information from A decoder group for decoding the divided code string divided by the division controller, and a screen combiner for combining the divided screen group decoded by the decoder group into an entire screen. Have.
[0010]
[Action]
With this configuration, even when a screen of a moving image is divided into a plurality of regions and a moving image is encoded for each region, a code sequence having the same syntax as a code sequence when encoding without dividing the screen is used. Can be generated. Also, when decoding a code sequence of a moving image, even if the input code sequence is a code sequence obtained by encoding without dividing the screen, the input code sequence is divided and each divided code sequence is decoded, and the moving image of the entire screen is decoded. An image can be obtained. For this reason, the syntax of the code string does not depend on the number of screen divisions and the method of dividing the screen. Even when the number of screen divisions and the method of dividing the screen differ between the encoding device and the decoding device, decoding can be performed correctly. . In addition, if the code string generated in each divided screen at the time of encoding satisfies the standard syntax, the entire code string combining the code strings of each divided screen also satisfies the standard syntax, and compatibility is improved. Can be kept.
[0011]
【Example】
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, H.264 is used as the encoding method. Considering a method of performing encoding using a set of pixels of about 16 × 16 (hereinafter, referred to as a macroblock) as a unit, such as H.261 or MPEG, a screen unit is a frame and a screen is divided into three parts as an example. .
[0012]
First, a first embodiment of a moving picture coding method according to the present invention will be described with reference to FIG. FIG. 1 is a schematic pattern diagram showing a method of encoding frames 1 and 14 in a moving image. Here, it is assumed that the frame 1 and the frame 14 are continuous frames in the order of the code string.
[0013]
First, each frame is vertically divided into three. With this operation, frame 1 is divided into divided frames 2, 3, and 4, and frame 14 is divided into divided frames 15, 16, and 17. Encoding is performed for each divided area. Each divided frame is divided into a set of macroblocks that are continuous in the horizontal direction (hereinafter, referred to as a slice) as a unit when a code string is generated. Here, it is assumed that the length of the slice is the same as the length of the divided frame in the horizontal direction. With this operation, the divided frame 2 is divided into slices 5 and 8 in order from the top, and the final slice is slice 11. The divided frames 3, 4, 15, 16, and 17 are similarly divided into slices.
[0014]
The divided frame 2 includes the macroblock at the upper left corner of the frame, that is, the top macroblock of the frame 1. Therefore, when a header is added, such as when the frame 1 is the first frame of a code string of a moving image or the first frame of a set of frames, a header corresponding to those cases is first generated. . Then, regardless of whether the header is generated, the header 22 of the frame 1 is generated. Subsequently, the slice 5 is encoded into a code string 5a, and the slice 8 is encoded into a code string 8a. However, it is assumed that the code string of each slice includes the header of the slice. Thereafter, slice encoding is performed in order, and finally, the slice 11 is encoded to become a code string 11a.
[0015]
Since the divided frame 3 does not include the macroblock at the upper left corner of the frame, no frame header is generated. Therefore, first, the slice 6 is encoded into a code string 6a, and subsequently, the slice 9 is encoded into a code string 9a. Thereafter, slice encoding is performed in order, and finally, the slice 12 is encoded to become a code string 12a. Similarly to the divided frame 3, the divided frame 4 does not include the macroblock at the upper left corner of the frame, so that no frame header is generated. Therefore, the code strings 7a and 10a and the code string are generated in order, and finally the code string 13a is generated.
[0016]
Next, encoding is performed on the divided frames 15, 16, and 17, similarly to the divided frames 2, 3, and 4. At this time, since the divided frame 15 includes the macroblock at the upper left corner of the frame, the header 22 of the frame 14 is added immediately before the code string 18a of the leading slice 18. Since the divided frame 15 is the same area as the divided frame 2, the code sequence of the divided frame 15 is generated following the code sequence of the divided frame 2. The header of the frame is not added immediately before the code string 19a of the first slice 19 of the divided frame 16 and the code string 20a of the first slice 20 of the divided frame 17.
[0017]
By the above operation, a code string of each divided area is generated as shown in FIG. The code sequence in the left region of the frame is a code sequence when a moving image of the divided frame is encoded. The code strings in the other areas are obtained by removing the headers of the layers above the frame from the code string when the moving image of the divided frame is encoded.
[0018]
Further, these code strings are connected for each slice between boundaries of frame division and between frames. That is, in frame 1, the code strings 5a, 6a, 7a, and 8a corresponding to each slice are connected in the order of slices 5, 6, 7, and 8 from the top. Then, after the code sequence 13a of the last slice 13 of the frame 1, the code sequence 14a of the first slice 14 of the frame 14 is connected. Thus, the code sequence shown in FIG. 1C can be generated. The order of the code string is the same as the order when the frame 1 and the frame 14 are encoded without being divided.
[0019]
Next, a second embodiment of the moving picture coding method according to the present invention will be described with reference to FIG. FIG. 2 is a schematic pattern diagram showing a method of encoding the frames 31 and 45 in a moving image.
[0020]
First, each frame is horizontally divided into three. With this operation, the frame 31 is divided into the divided frames 32, 33, and 34, and the frame 45 is divided into the divided frames 46, 47, and. Encoding is performed for each divided area. At this time, each divided frame is divided into slices as a unit for generating a code string. With this operation, the divided frame 32 is sequentially divided into slices 35, 36, 37, and 38. The divided frames 33, 34, 46, 47 and 48 are similarly divided into slices.
[0021]
The divided frame 32 includes the macroblock at the upper left corner of the frame 31. Therefore, when a header is added, such as when the frame 31 is the first frame of a code string of a moving image or the first frame of a set of frames, a header corresponding to those cases is first generated. . Then, regardless of whether the header is generated, the header 58 of the frame 31 is generated. Subsequently, the slices 35, 36, 37, and 38 are sequentially encoded, and become code strings 35a, 36a, 37a, and 38a, respectively. However, it is assumed that the code string of each slice includes the header of the slice.
[0022]
Since the divided frame 33 does not include the macroblock at the upper left corner of the frame, no frame header is generated. Therefore, first, the slice 39 is encoded to be a code string 39a, and then the slices 40 and 41 are encoded to be code strings 40a and 41a, respectively. Since the divided frame 34 does not include the macroblock at the upper left corner of the frame, similarly to the divided frame 33, no frame header is generated. Therefore, the code strings 42a, 43a, and 44a are sequentially generated.
[0023]
Next, encoding is performed on the divided frames 46, 47 and 48 of the frame 45 in the same manner as the divided frames 32, 33 and 34. At this time, since the divided frame 45 includes the macroblock at the upper left end of the frame, the header 59 of the frame 45 is added immediately before the code string 49a of the leading slice 49. The header of the frame is not added immediately before the code string 52a of the first slice 52 of the divided frame 47 and the code string 54a of the first slice 54 of the divided frame 48.
[0024]
By the above operation, the code string of each divided area is generated as shown in FIG. The code sequence in the region above the frame is a code sequence when a moving image of the divided frame is encoded. The code strings in the other areas are obtained by removing the headers of the layers above the frame from the code string when the moving image of the divided frame is encoded.
[0025]
Further, these code strings are connected for each slice between boundaries of frame division and between frames. That is, in the frame 31, the code string 39a of the slice 39 is connected after the code string 38a of the slice 38, and the code string 42a of the slice 42 is connected after the code string 41a of the slice 41. After the code sequence 44a of the slice 44, the code sequence 49a of the first slice 49 of the frame 45 is concatenated. As a result, the code sequence shown in FIG. 2C can be generated. The order of the code string is the same as the order when the frame 31 and the frame 45 are encoded without being divided.
[0026]
As described above, when a frame is divided into a plurality of regions, a code string separated between frames and boundaries between frames is generated for each divided frame, and a code string is generated for a divided frame including the upper left end of the frame. When the header of the frame is added to the beginning of the frame and the code strings separated in the order of encoding without dividing the frame are connected at the boundary of frame division and between frames, the moving images of all frames are syntactically It can be seen that a code string that can be regarded as encoded can be generated.
[0027]
Next, an embodiment of a moving picture coding apparatus according to the present invention will be described with reference to FIGS. FIG. 3 shows a screen divider 61, encoders 62, 63, 64, output switches 65, 66, 67, memories 68, 69, 70, 71, 72, 73, a code string synthesizer 74, and a division controller 75. 1 is a block diagram of a moving picture encoding device composed of
[0028]
First, the input image 76 is input to the screen divider 61. The screen divider 61 determines a frame division method based on the screen division control signal 84 output by the division controller 75, divides an input frame, and outputs divided image signals 77, 78, and 79. Here, it is assumed that the frame is vertically divided into three as shown in FIG. 1A, and the divided image signals are assumed to be divided image signals 77, 78 and 79 in order from the left region of the frame. That is, the divided image signal 77 includes the divided frames 2 and 15, the divided image signal 78 includes the divided frames 3 and 16, and the divided image signal 79 includes the divided frames 4 and 17. The divided image signals 77, 78, 79 are input to the encoders 62, 63, 64, respectively. The encoders 62, 63, 64 receive the size of the divided frames and the encoding conditions from the division controller 75 as the encoding control signal 85. Each encoder encodes the divided image signal. The encoder 62 encodes an area including the macroblock at the upper left corner of the frame, and thus adds a frame header to each head of the frame. If the encoding target frame is the first frame of a moving image or the first frame of a set of frames, a header is added before the first frame. For example, when encoding the divided frame 2, the header 21 of the frame 1 is generated.
[0029]
In this way, code strings 80, 81, and 82 for the divided image signals are generated. The configuration of the code sequence is as shown in FIG. 1B. The code sequence 80 is the code sequence in the left region of the frame, the code sequence 81 is the code sequence in the central region of the frame, and the code sequence 82 is the right sequence in the frame. Corresponding to the code string in the region of. The output memories of these code strings are switched by an output switch. This will be described with reference to a code string 80 generated by the encoder 62 as an example. The encoder 62 outputs the code string separation signal 86 to the division controller 75 after outputting the boundary of frame division or the last code string of the divided frame. Upon receiving the code string separation signal 86, the division controller 75 sends an output switching control signal 87 to the output switch 65 corresponding to the encoder 62. The output switching control signal 87 causes the output switch 65 to switch the output destination memory of the code string 80. That is, if the code string is output to the memory 68 before receiving the output switching control signal 87, the code string is output to the memory 69 after receiving the output switching signal. For example, if the code string 5a of slice 5 has been output to the memory 68, the code string 8a of slice 8 will be output to the memory 69. In this manner, the code string generated by the encoder 62 is input to the memory after being separated into frame division boundaries and between frames. By the same operation, the code sequence 81 generated by the encoder 63 is stored in the memories 70 and 71 by the output switch 66, and the code sequence 82 generated by the encoder 64 is stored in the memory 72 by the output switch 67. 73 is input.
[0030]
The code strings input to the memories 68, 69, 70, 71, 72, 73 in this manner are combined into one code string 83 by the code string synthesizer 74 and output. The code string synthesizer 74 connects the code strings by a code string synthesis control signal 88. The code string synthesis control signal 88 is a signal for instructing to link the code strings in the memory in the order of the code strings when the frame is not divided according to the frame division method. For example, assuming that the code strings 5a, 8a, 6a, 9a, 7a, 10a of slices are stored in the memories 68 to 73, the code string synthesizer 74 stores the code strings of these slices in 5a, 6a, 7a. , 8a, 9a, 10a in that order from the memory. As a result, a code string is generated as shown in FIG.
[0031]
With the above operation, the moving picture encoding apparatus of the present invention divides a screen and performs encoding processing in parallel by a plurality of encoders, but also performs the same synchronizing as a code string when the screen is not divided. A code sequence of the tax can be generated.
[0032]
Next, a first embodiment of a first moving picture decoding method according to the present invention will be described with reference to FIG. FIG. 4 is a schematic pattern diagram illustrating a method of dividing a code string of a moving image into a plurality of parts and decoding the divided part. Here, a case is shown in which a code string for two frames in the input code string is decoded.
[0033]
FIG. 4A shows an input code string. The headers 91 and 104 are headers higher than the frame layer. The code string of the slice is divided into a header and a code string of image data. For example, the slice code sequence 94 includes a slice header 92 and image data code sequence 93. The same applies to the code strings 95 to 103 and 105 to 113 of the other slices. This input code string is divided into three so as to correspond to the divided frames divided in the horizontal direction. This is performed by decoding the position information on the screen included in the header of the slice. That is, the header of the slice is searched from the beginning of the input code string, and the position information of the slice is obtained when the header is detected. Then, it is determined which divided frame belongs to the position information, and if it belongs to a divided frame different from the previous slice, the code string is divided at the head of the header of the slice. If it belongs to the same divided frame as the immediately preceding slice, the code string is not divided. However, the headers 91 and 104 for the frame hierarchy and above are included in the code string in the area above the frame.
[0034]
Here, the input code string is divided so as to correspond to the divided frames 115 to 117 and 119 to 121 in FIG. First, by detecting the header 92 of the slice and decoding the position information, it is found that the code sequence 94 of the slice belongs to the area of the divided frame 115. Similarly, it can be seen that the code strings 95 to 97 of the slice also belong to the area of the divided frame 115 by decoding the position information of the header. Therefore, the code string is not divided for the code strings 94 to 97 of the slice. Next, by detecting the header of the code string 98 of the slice and decoding the position information, the code string 98 of the slice belongs to the area of the divided frame 116 and belongs to a different area from the immediately preceding area. I understand. Therefore, the code string is divided at the head of the header of the slice code string 98. Since the code strings 98 to 100 of the slice belong to the area of the divided frame 116, the code string is not divided between them. In a similar manner, the code string is divided at the head of the header of the code string 101 of the slice. Thereafter, the code string is divided at the header of the header 104 and the header of the slice code strings 108 and 110, and three divided code strings corresponding to each area are obtained as shown in FIG. 4B.
[0035]
Subsequently, decoding is performed for each divided code string. By decoding the code sequence in the upper region of the frame, the divided frames 115 and 119 decode the code sequence in the central region, and the divided frames 116 and 120 decode the code sequence in the lower region. As a result, divided frames 117 and 121 are obtained. The obtained divided frames 115, 116, and 117 are combined to obtain a frame 114, and the divided frames 119, 120, and 121 are combined to obtain a frame 118.
[0036]
Next, a second embodiment of the first moving picture decoding method of the present invention will be described with reference to FIG. The difference between the second decoding method and the first decoding method is that the input code string shown in FIG. 4A is divided into code strings corresponding to respective regions as shown in FIG. 4C. . This will be described below.
[0037]
First, the header of the input code string is searched, and when a header higher than the frame layer is detected, the header is distributed to the code strings of each area. This operation continues until a slice header is detected. As a result, all divided code strings include a header of a frame or higher. Thereafter, when the header of the slice is detected, the code sequence of the slice is divided according to the position information of the header of the slice in the same manner as in the first decoding method.
[0038]
Consider a case where the input code string is divided so as to correspond to the regions of the divided frames 115 to 117 and 119 to 121 shown in FIG. In the input code string of FIG. 4A, first, the header 91 is detected. Since the header 91 is a header of a layer of the frame or higher, it is distributed to a code string of each area. The method of dividing the slice code strings 94 to 103 is as described in the first embodiment. Next, when the header 104 is detected, the header 104 is distributed to a code string of each area because the header 104 is a header of a frame layer or higher. Thereafter, the code strings 105 to 113 of the slice are divided by the method described in the first embodiment. As a result, a code string for each area as shown in FIG. The method of synthesizing the divided frames obtained by decoding FIG. 4C to obtain a full-screen moving image is the same as the first decoding method.
[0039]
From the above, by the first moving image decoding method of the present invention, by dividing and decoding a code sequence of a moving image obtained by encoding without dividing a frame, and combining the obtained divided frames, It can be seen that the original moving image can be obtained.
[0040]
Next, a first embodiment of a first moving picture decoding apparatus according to the present invention will be described with reference to FIGS. FIG. 5 is a block diagram of a moving image decoding apparatus including a header detector 131, a division controller 132, a delay unit 133, a code string divider 134, decoders 135, 136, and 137, and a screen synthesizer 138. It is. Here, the frame is horizontally divided into three so as to correspond to the regions of the divided frames 115 to 117 in FIG. 4D, and the upper region of the frame is decoded by the decoder 135, and the center region is decoded by the decoder 136. However, consider the case where the decoder 137 decodes the lower region.
[0041]
The input code string 139 is input to the header detector 131 and the delay unit 133 at the same time. The header detector 131 decodes the header of the input code string 139 at a frame level or higher and searches for the header of the slice. When the header of the slice is detected, the position information of the header is decoded and output to the division controller 132 as a header information signal 148. When the slice detected by the header detector 131 belongs to a divided region different from the immediately preceding slice, based on a predetermined frame division method, the division controller 132 divides the code sequence division control signal 149 into a code sequence. Output to the container 134. Upon receiving the code string division control signal 149 from the division controller 132, the code string divider 134 switches the output destination of the input code string 140 that has passed through the delay unit. That is, if the code sequence divider 134 outputs the input code sequence 140 as the divided code sequence 141 to the decoder 135 at a certain time, the code sequence division control signal 149 is input from the division controller 132 here. , And switches the output destination of the input code string 140 to output the divided code string 142 to the decoder 136. When the output destination of the input code sequence 140 is switched, the input code sequence 139 is converted by the delay unit 133 so that the header of the slice detected by the header detector 131 is included in the divided code sequence after the output destination is switched. The input to the divider 134 is delayed.
[0042]
The above operation will be described for the case where the input code string in FIG. In this case, the header detector 131 first decodes the header 91. This header 91 is input to the decoder 135. Subsequently, the slice header is searched, and the slice header 92 is detected. By decoding the position information of the slice header 92, it can be seen that the code sequence 94 of the slice belongs to the area of the divided frame 115. Therefore, the code sequence divider 134 outputs the input code sequence 140 to the decoder 135 following the header 91. Similarly, it can be seen that the code strings 95 to 97 of the slice also belong to the area of the divided frame 115 by decoding the position information of the header. Therefore, the code sequence divider 134 does not divide the code sequence for the code sequences 94 to 97 of the slice, and outputs the code sequence to the decoder 135. Next, the header of the code string 98 of the slice is detected, and its position information is decoded. Thus, it can be seen that the code sequence 98 of the slice belongs to the region of the divided frame 116 and belongs to a region different from the immediately preceding region. Accordingly, the division controller 132 outputs a code sequence division control signal 149 to the code sequence divider 134. The code sequence divider 134 switches the output destination of the input code sequence 140 to the decoder 136 according to the code sequence division control signal 149. Since the input code string 139 is delayed by the delay unit 133, this switching is performed at the head of the header of the code string 98 of the slice. Since the code strings 98 to 100 of the slice belong to the area of the divided frame 116, the code string is not divided between them, and these code strings are output to the decoder 136. Then, in a similar manner, the code sequence divider 134 divides the code sequence at the head of the header of the slice code sequence 101 and switches the output destination of the input code sequence 140 to the decoder 137. Thereafter, the code string is divided at the header 104 and the header of the slice code strings 108 and 110, and three divided code strings corresponding to each area as shown in FIG. 4B are obtained.
[0043]
The divided code strings 141, 142, and 143 thus divided are decoded by the decoders 135, 136, and 137, respectively. At the time of decoding, header information of a frame layer or higher is required. Since this is decoded by a header detector, the information and the division method are received as a decoded information signal 150 from the division controller 132. The decoded divided image signals 144, 145, and 146 are combined into all frames by the screen combiner 138, and become an output image 147. At this time, the screen synthesizing unit 138 obtains the screen synthesizing method from the division controller 132 as the screen synthesizing control signal 151.
[0044]
Next, a second embodiment of the first moving picture decoding apparatus according to the present invention will be described with reference to FIGS. The second embodiment is different from the first embodiment in that the input code string shown in FIG. 4A is divided into code strings corresponding to respective regions as shown in FIG. Is decoded by each decoder. This operation will be described below.
[0045]
First, the header detector 131 searches for a header of the input code string 139. When the detected header is a header of the frame hierarchy or higher, the division controller 132 outputs the code sequence division control signal 149 so that the code sequence divider 134 distributes the header to all of the decoders 135, 136, and 137. Output. Subsequently, when the header of the slice is detected, the position information of the header is decoded and output to the division controller 132 as a header information signal 148. The method by which the division controller 132 divides the code sequence of the slice is the same as in the first embodiment. Upon detecting a header at or above the level of the next frame, the code sequence divider distributes the header again to all of the decoders 135, 136, and 137. When the header of the next slice is detected, the code string is divided based on the position information of the header. This method is the same as the method described in the first embodiment.
[0046]
When the input code string of FIG. 4A is input, the header detector 131 first detects the header 91. Since the header 91 is a header of the frame hierarchy or higher, the code sequence divider 134 outputs the header 91 to all of the decoders 135, 136, and 137. Next, upon detecting the header 92 of the code sequence 94 of the slice, the code sequence divider 134 outputs the input code sequence 140 to only the decoder 135. The method of dividing the code string of the slice belonging to the subsequent frame 114 is the same as in the first embodiment. When the header 104 is detected, the header 104 is a header of a frame layer or higher, so that the code sequence divider 134 outputs the header 104 to the decoders 135, 136, and 137. The method of dividing the code string of the subsequent slice is the same as in the first embodiment. By the above operation, the divided code string of FIG. 4C is obtained.
[0047]
When the divided code strings in FIG. 4C are decoded by the decoders 135, 136, and 137, each of the divided code strings 141, 142, and 143 has a header that is higher than the layer of the frame. The header is obtained by decoding the header. Therefore, there is no need to obtain the decoding information from the division controller 132 as in the first embodiment. The screen combining process of the divided frames obtained by the decoders 135, 136, and 137 by the screen combiner 138 is the same as in the first embodiment.
[0048]
As described above, according to the first moving picture decoding apparatus of the present invention, the input code string is divided based on the position information of the header of the input code string, and the divided code strings are decoded in parallel. It can be seen that the divided images can be combined to obtain a full-screen moving image.
[0049]
Next, an embodiment of a second moving picture decoding apparatus according to the present invention will be described with reference to FIGS. FIG. 6 shows a delay unit 161, a code string divider 162, a memory 163, an input switch 164, a decoder 165 as a first decoder, and decoders 166 and 167 as a second decoder. It is a block diagram of the decoding apparatus of the moving image comprised from the screen synthesizer 168 and the division | segmentation controller 169. Here, it is assumed that the code sequence shown in FIG. 4A is input as the input code sequence 170, the frame is divided into three in the horizontal direction, and the area above the frame is decoded by the decoder 165, and the center area is decoded by the decoder. Suppose that the decoder 167 decodes the region 166 below.
[0050]
The input code string 170 is input to the input switch 164 and the delay 161 at the same time. The input code string 170 is read into the input switch 164 and the same data is read into the delay 161 at the same time. That is, when the input switch 164 does not read the input code string 170, the input code string 170 is not read into the delay unit 161. The input switch 164 receives the input code string 170 and the divided code string 172 output from the code string divider 162 as inputs, and outputs one of them to the decoder 165. In the initial state, the input switch 164 outputs the input code string 170. While the input switch 164 is outputting the input code string 170, the decoder 165 decodes the header information of the frame of the input code string 170 or higher, and searches for the slice header. When the slice detected by the decoder 165 belongs to a divided area different from the immediately preceding slice based on a frame dividing method determined in advance, the division controller 169 sends the detected slice to the code sequence divider 162. This is output as a code string division control signal 179. Since the code sequence 94 of the first slice belongs to the region above the frame, the code sequence division control signal 179 is transmitted so that the code sequence divider 162 outputs the code sequence as a divided code sequence 172.
[0051]
Upon receiving the code string division control signal 179, the code string divider 162 switches the output destination of the input code string 171 through the delay unit 161. That is, when the code sequence divider 162 outputs the input code sequence 171 as the divided code sequence 172 to the memory 163 at a certain point in time, if the code sequence division control signal 179 is input from the division controller 169, the input The output destination of the code string 171 is switched and output to the decoder 166 as the divided code string 173. When switching the output destination of the input code sequence 171, the delay unit 161 converts the input code sequence 170 into a code sequence so that the slice header detected by the decoder 165 is included in the divided code sequence after the output destination is switched. The input to the divider 162 is delayed.
[0052]
The decoder 165 further continues to detect the slice header, and outputs the header information signal 182 to the division controller 169 when the division of the input code string for one frame is completed. Upon receiving the header information signal 182 from the decoder 165, the division controller 169 uses the input switch control signal 180 to input the input of the input switch 164 so as to output the code sequence stored in the memory to the decoder 165. Switch. Then, the decoder 165 decodes the code string stored in the memory. In addition, the decoders 166 and 167 can perform decoding while the decoder 165 detects the header of the slice. At the time of decoding, the header information of the frame layer or higher is required. Since this is decoded by the decoder 165, the information and the division method are received as the decoded information signal 181 from the division controller 169. . The decoded divided image signals 175, 176, and 177 correspond to the divided frames 115, 116, and 117, respectively, are combined into all frames by the screen combiner 168, and the frame 114 is output as the output image 178. At this time, the screen synthesizer 168 obtains a screen synthesis method from the division controller 169 as a screen synthesis control signal 183.
[0053]
When the decoding of one frame is completed, the division controller 169 switches the input of the input switch 164 to the input code string 170. Then, the decoder 165 decodes the header of the layer higher than the layer of the next frame and detects the header of the slice, divides the input code string, and continues the decoding processing.
[0054]
The above operation will be described for the case where the input code string of FIG. In the initial state, the input switch 164 selects the input code string 170, and the code string divider 162 outputs the code string to the memory 163. The decoder 165 first decodes the header 91, and then searches for a slice header. When the slice header 92 is detected, by decoding the position information of the slice header 92, it can be seen that the code sequence 94 of the slice belongs to the area of the divided frame 115. Therefore, the code sequence divider 162 outputs the input code sequence 170 to the memory 163 following the header 91. Similarly, it can be seen that the code strings 95 to 97 of the slice also belong to the area of the divided frame 115 by decoding the position information of the header. Therefore, the code sequence divider 162 does not divide the code sequence for the code sequences 94 to 97 of the slice, and outputs the code sequence to the memory 163. Next, the decoder 165 detects the header of the code string 98 of the slice, and decodes the position information. Thus, it can be seen that the code sequence 98 of the slice belongs to the region of the divided frame 116 and belongs to a region different from the immediately preceding region. Therefore, division controller 169 outputs code sequence division control signal 179 to code sequence divider 162. The code sequence divider 162 switches the output destination of the input code sequence 170 to the decoder 166 according to the code sequence division control signal 179. Since the input code string 170 is delayed by the delay unit 133, this switching is performed at the head of the header of the code string 98 of the slice. Since the code strings 98 to 100 of the slice belong to the area of the divided frame 116, the code string is not divided between them, and these code strings are output to the decoder 166. In a similar manner, the code sequence divider 162 divides the code sequence at the beginning of the header of the slice code sequence 101 and switches the output destination of the input code sequence 170 to the decoder 167. That is, after the code string divider 162 outputs the code strings 94 to 97 of the slice as the divided code string 172 and detects the header of the code string 98 of the slice, the code string divider 162 converts the input code string into the divided code string 173. Will be output.
[0055]
When the decoder 165 detects the header 104, it means that the entire code string of the frame 114 has been divided. Therefore, the division controller 169 selects the output of the memory 163 as the input of the input switch 164 according to the input switching control signal 180. At this time, the code strings 94 to 97 of the slice are stored in the memory 163, the code strings 98 to 100 of the slice are input to the decoder 166, and the code strings 101 to 103 of the slice are input to the decoder 167. It will be. Then, the decoders 165, 166, and 167 decode the divided code strings input thereto. The decoded divided frames 115, 116, and 117 are combined with the frame 114 by the screen combiner 168.
[0056]
When the decoding of one frame is completed, the input switch 164 switches the input to the input code string 170, and the decoder 165 again decodes the header of the frame layer or higher, and searches for the header of the slice. Perform column splitting. By this division, the code strings 105 to 107 of the slice corresponding to the area of the divided frame 119, and the code strings 108 and 109 of the slice corresponding to the area of the divided frame 120 become slices corresponding to the area of the divided frame 121. Are obtained as divided code strings. Then, by decoding the divided code string, divided frames 119, 120, and 121 are obtained, and these are combined to obtain a frame 118.
[0057]
As described above, the second moving picture decoding apparatus of the present invention can divide an input code string and perform decoding in parallel, combine decoded decoded pictures to obtain a full-screen moving picture. We can see that we can do it.
[0058]
Next, an embodiment of the second moving picture decoding method according to the present invention will be described with reference to FIGS. FIG. 7 is a schematic pattern diagram showing a divided code string in a method of dividing and decoding a code string of a moving image into a plurality. Here, it is assumed that the frame 118 is encoded using the frame 114 as a reference frame, and the frame 118 is not referred to by another frame.
[0059]
FIG. 4A is an input code string. This input code string is divided so as to correspond to the divided frame divided in the horizontal direction, as shown in FIG. The division of the code string is performed in consideration of a range that can be referred to at the time of decoding. For example, it is assumed that the reference range of the frame 118 with respect to the frame 114 is one macroblock vertically, horizontally, and horizontally. At this time, when the code sequence of the frame 114 is divided, the code sequence is divided such that the code sequence of the region obtained by expanding the range of the divided frame vertically by one macroblock is distributed in each divided code sequence. The divided frame 115 includes slices 94a, 95a, 96a, and 97a. Since the reference from the divided frame 119 to the divided frame 115 extends to the slices 98a and 99a, the divided code sequence of the divided frame 115 includes the code sequence of the slice. 98 and 99 are included. Similarly, the divided code sequence corresponding to the divided frame 116 includes the code sequences 96, 97, 101, and 102 of the slice, and the divided code sequence 117 corresponding to the divided frame 117 includes the code sequence 100 of the slice. . Since the frame 118 is not used for reference from another frame, the code string is divided in the same manner as in the first decoding device.
[0060]
FIG. 7A shows the code string thus divided. When the divided code string of each divided area is decoded, divided frames 191, 192, 193, 119, 120, and 121 are obtained as shown in FIG. The frame 114 is obtained by deleting the overlapping portions of the divided frames 191, 192, and 193 and combining the divided frames 115, 116, and 117. In addition, since the divided frames 119, 120, and 121 have no overlapping portion, the frames 118 can be obtained by directly synthesizing them.
[0061]
As described above, according to the second moving image decoding method of the present invention, it is possible to divide an input code string and perform decoding in parallel, and combine the decoded divided images to obtain a full-screen moving image. We can see that we can do it.
[0062]
Next, an embodiment of the third decoding device of the present invention will be described with reference to FIGS. FIG. 8 shows a moving image composed of a header detector 131, a division controller 132, a delay unit 133, a code sequence divider 134, decoders 135, 136, and 137, a screen synthesizer 138, and a header information analyzer 201. It is a block diagram of a decoding device. Here, it is assumed that the frame is divided into three parts in the horizontal direction, and the upper region of the frame is decoded by the decoder 135, the center region is decoded by the decoder 136, and the lower region is decoded by the decoder 137.
[0063]
The input code string 139 is input to the header detector 131 and the delay unit 133 at the same time. The header detector 131 decodes the header of the input code string 139 at a frame level or higher and searches for the header of the slice. That is, when the code string of FIG. 4A is input, first, the header 91 is decoded. The header detector 131 outputs the header information 148 to the division controller 132 and the header information analyzer 201. The header information analyzer 201 determines a range in which each frame is referred to from other frames based on the reference relation of the frames, and outputs the determined range to the division controller 132 as a motion compensation information signal 202.
[0064]
When the header detector 132 subsequently detects the header of the slice, it decodes the position information of the header and outputs it to the division controller 132 as a header information signal 148. The division controller 132 determines an input code string division method based on a predetermined frame division method and a range of motion compensation obtained from the header information analyzer 201. For example, it is assumed that the frame 118 is encoded with reference to the frame 114 by the motion compensation of one vertical, horizontal, and right macroblock, and the frame 118 is not referred to by another frame. In this case, the code sequence of the frame 114 is divided in consideration of the range of motion compensation. The reference to the divided frame 115 of the divided frame 119 extends to the slices 98a and 99a. The reference to the divided frame 116 of the divided frame 120 extends to the slices 96a, 97a, 101a, and 102a, and the reference to the divided frame 117 of the divided frame 121 extends to the slice 100a.
[0065]
The division controller 132 divides the input code sequence 139 by determining the range of motion compensation in this way and outputting the code sequence division control signal 149 to the code sequence divider 134. Since the code strings 94 and 95 of the slice are not used for reference from another area, they are output only to the decoder 135. The code strings 96 and 97 of the slices are output to the decoders 135 and 136 because they are referenced from the divided frame 120 which is another area. Since the code strings 98 and 99 of the slices of the divided frame 116 are used for reference from the divided frame 119 which is another area, they are output to the decoders 135 and 136. Similarly, the slice code strings 100 to 103 are also divided in consideration of motion compensation and input to each decoder. Further, the code sequence of the frame 118 is divided so as to correspond to the divided frames 119, 120, and 121 without considering the motion compensation. As a result, the code string input to each encoder is as shown in FIG.
[0066]
When the decoders 135, 136, and 137 decode the code sequence of FIG. 7A, the code sequence of the reference image required for decoding is input for each region. Decryption can be performed without accessing the memory. By the decoding, the decoder 135 obtains the divided frames 191 and 119, the decoder 136 obtains the divided frames 192 and 120, and the decoder 137 obtains the divided frames 193 and 121. The screen synthesizer 138 deletes and combines the overlapping portions of the divided frames according to the screen synthesis control signal 151. As a result, 115, 116, and 117 are synthesized from the divided frames 191, 192, and 193, and the frame 114 is synthesized, and the divided frames 119, 120, and 121 are synthesized to obtain the frame 118.
[0067]
As described above, the third moving image decoding apparatus of the present invention can divide an input code string and perform decoding in parallel, combine decoded decoded images to obtain a full-screen moving image. We can see that we can do it.
[0068]
Next, an embodiment of a fourth moving picture decoding apparatus according to the present invention will be described with reference to FIGS. FIG. 9 shows a delay unit 161, a code sequence divider 162, a memory 163, an input switch 164, a decoder 165 as a first decoder, and decoders 166 and 167 as a second decoder. FIG. 3 is a block diagram of a moving image decoding apparatus including a screen synthesizer 168, a division controller 169, and a header information analyzer 211. Here, it is assumed that the code sequence shown in FIG. 4A is input as the input code sequence 170, the frame is divided into three in the horizontal direction, and the area above the frame is decoded by the decoder 165, and the center area is decoded by the decoder. Suppose that the decoder 167 decodes the region 166 below.
[0069]
The input code string 170 is input to the input switch 164 and the delay 161 at the same time. The input switch 164 receives the input code sequence 170 and the divided code sequence 172 output from the code sequence divider 162 as inputs, and outputs one of them to the decoder 165. In the initial state, the input switch 164 outputs the input code string 170. While the input switch 164 is outputting the input code string 170, the decoder 165 decodes the header information of the frame of the input code string 170 or higher, and searches for the slice header. That is, first, the header 91 is decoded. The decoder 165 outputs the header information signal 182 to the division controller 169 and the header information analyzer 211. The header information analyzer 211 determines a range in which each frame is referred to from other frames based on the reference relation of the frames, and outputs the determined range to the division controller 169 as the motion compensation information signal 212.
[0070]
Subsequently, the decoder 165 searches the header of the slice. When the header 92 of the slice is detected, the position information of the header is decoded, and this is notified to the division controller 169 as a header information signal 182. The division controller 169 determines an input code string division method based on a predetermined frame division method and the range of motion compensation obtained from the header information analyzer 211. This dividing method is the same as the method described in the third embodiment of the present invention.
[0071]
The division controller 132 divides the input code sequence 139 by outputting a code sequence division control signal 149 to the code sequence divider 134 based on the determined division method. When the code string of the frame 114 is divided by the method described in the third embodiment of the decoding device of the present invention, the decoder 165 outputs the header information signal 182 to the division controller 169. Upon receiving the header information signal 182 from the decoder 165, the division controller 169 switches the input so that the code sequence stored in the memory is output to the decoder 165 by the input switching control signal 180. At this time, the code strings 94 to 99 of the slice are stored in the memory 163, the code strings 96 to 102 of the slice are input to the decoder 166, and the code strings 100 to 103 of the slice are input to the decoder 167. Will be. Then, the decoder 165 decodes the code string stored in the memory. In addition, the decoders 166 and 167 can perform decoding while the decoder 165 detects the header of the slice. At the time of decoding, the header information of the frame layer or higher is required. Since this is decoded by the decoder 165, the information and the division method are received as the decoded information signal 181 from the division controller 169. . Each of the decoders 165, 166, and 167 performs decoding by using only an image obtained by decoding the divided code string as a reference image.
[0072]
The decoded divided image signals 175, 176, and 177 correspond to the divided frames 191, 192, and 193, respectively, are combined into all the frames by the screen combiner 168, and the frame 114 is output as the output image 178. At this time, the screen synthesizer 168 receives the screen synthesis method from the division controller 169 as the screen synthesis control signal 183, and deletes the overlapping portion of the divided frames and synthesizes them. Therefore, the divided frames 191, 192, and 193 become the divided frames 115, 116, and 117, respectively, and are synthesized.
[0073]
When the decoding of one frame is completed, the division controller 169 switches the input of the input switch 164 to the input code string 170. Then, the decoder 165 decodes the header 104, detects the header of the slice, and divides the input code string. Since the frame 118 is not referred to from other screens, it is not necessary to consider the range of motion compensation when dividing the input code string. Therefore, the slice code strings 105 to 107 are input to the memory 163, the slice code strings 108 and 109 are input to the decoder 166, and the slice code strings 110 to 113 are input to the decoder 167 as the split code strings. You. When the division of the code string of the frame 118 is completed, the decoder 165 notifies the division controller 169 by the header information signal 182. The division controller 169 switches the input of the input switch 164 to the output of the memory. Then, the decoders 165, 166, and 167 decode the divided code string. Since the decoded divided frames 119, 120, and 121 have no overlapping portion, they are synthesized by the screen synthesizer 168 as they are, and the frame 118 is output as the output image 178.
[0074]
As described above, the fourth moving image decoding apparatus of the present invention can divide an input code string and perform decoding in parallel, combine decoded decoded images to obtain a full-screen moving image. We can see that we can do it.
[0075]
In the present embodiment, a case where a frame is used as a unit of a screen has been described, but this may be a field.
[0076]
In the embodiment described with reference to FIG. 1, the length of the slice does not need to be the same as the horizontal length of the divided screen, and may be a slice shorter than the horizontal length of the divided screen.
[0077]
The method of dividing the slice may be freely determined depending on each divided screen.
Further, in the present embodiment, the case where the screen is divided by the horizontal division and the vertical division has been described, but this may be a cross division.
[0078]
Further, in this embodiment, the case where the screen is divided into three is described, but this may be an arbitrary number of divisions.
[0079]
In this embodiment, H.264 is used as a basic encoding method. 261, the case of using a method of performing coding in units of macroblocks such as MPEG has been described, but this may be another coding method as long as the coding method includes the position information of the screen in the header.
[0080]
Also, in the second decoding method of the present invention, the headers of the screen hierarchy and higher are included in the divided code string of the area including the upper left end of the screen, but this is the same as the first decoding method of the present invention. As described in the second embodiment, it may be included in all divided code strings.
[0081]
Also, in the second, third, and fourth decoding devices of the present invention, the headers at or above the screen layer are input only to the decoder that decodes the region including the upper left corner of the screen. As described in the second embodiment of the first decoder of the present invention, the data may be input to all decoders.
[0082]
【The invention's effect】
As described above, according to the present invention, at the time of encoding, a screen is divided into a plurality of areas, and in an area including the upper left end of the screen, a screen header is added to the head of the code string of the divided screen, Generates a code string separated between screen division boundaries and screens for each screen, and concatenates the separated code strings between screen division boundaries and between screens in the order of encoding without dividing the screen. Generate a code sequence. Also, at the time of decoding, a code string of a moving image is input, and based on a predetermined screen division method, a header at a layer higher than the screen includes the upper left end of the screen according to position information of the header of the code string. Treat as a code string of an area, generate a divided code string by dividing the code string so as to correspond to each area of the divided screen, decode the divided screen for each of the divided code strings, and obtain the obtained divided screen group. Combine and play back the full-screen moving image. Therefore, it is possible to have the same syntax as the code string generated when encoding the code string without dividing the screen. At the time of decoding, even if the input code string is a code string obtained by encoding without dividing the screen, it can be divided and decoded. For this reason, the syntax of the code string does not depend on the number of screen divisions and the screen division method, and decoding can be performed correctly even when the number of screen divisions or the screen division method differs between the encoding device and the decoding device. .
[Brief description of the drawings]
FIG. 1 is a schematic pattern diagram of an embodiment of a moving image encoding method according to the present invention.
FIG. 2 is a schematic pattern diagram of an embodiment of a moving image encoding method according to the present invention.
FIG. 3 is a block diagram of an embodiment of a moving picture encoding apparatus according to the present invention.
FIG. 4 is a schematic pattern diagram of an embodiment of a first moving picture decoding method according to the present invention;
FIG. 5 is a block diagram of an embodiment of a first moving picture decoding apparatus according to the present invention;
FIG. 6 is a block diagram of an embodiment of a second moving picture decoding apparatus according to the present invention;
FIG. 7 is a schematic pattern diagram of an embodiment of a second moving picture decoding method according to the present invention;
FIG. 8 is a block diagram of an embodiment of a third moving picture decoding apparatus according to the present invention.
FIG. 9 is a block diagram of an embodiment of a fourth moving picture decoding apparatus according to the present invention;
[Explanation of symbols]
1,14 frames
2-4, 15-17 divided frame
5-13, 18-20 slices
5a to 13a, 18a to 20a Code string of slice
21, 22 header
31, 45 frames
32-34, 46-48 split frame
35-44, 49-57 slices
35a-44a, 49a-57a Code sequence of slice
58, 59 header
61 screen divider
62-64 encoder
65-67 output switch
68-73 memory
74 code string synthesizer
75 split controller
91, 104 header
92 slice header
93 Code string of image data
94-103, 105-113 Slice code string
94a-103a, 105a-113a slice
114, 118 frames
115-117, 119-121 Divided frame
131 header detector
132 split controller
133 delay unit
134 code string divider
135-137 Decoder
138 Screen Synthesizer
161 delay unit
162 code sequence divider
163 memory
164 input switch
165-167 Decoder
168 Screen Synthesizer
169 division controller
201, 211 header information analyzer

Claims (4)

入力符号列中の動画像全体のヘッダ、フレーム集合のヘッダ、またはフレームのヘッダ(以下、大ヘッダと言う)を復号化し、さらに前記フレームを構成するスライスに付加されるスライスヘッダを検出して、フレーム内のどの位置の画像データであるかを示す位置情報を出力するヘッダ検出器と、
前記入力符号列を複数の分割符号列に分割する符号列分割器と、
前記符号列分割器の入力を遅延させる遅延器と、
前記フレームを水平方向に複数の領域に分割し前記大ヘッダを前記フレームの左上端部を含む領域の分割符号列と共に出力し、前記ヘッダ検出器で得られた前記位置情報を含むスライスの符号列(以下、復号化対象スライスの符号列と言う)が、前記復号化対象スライスの符号列の直前に復号化されたスライスの符号列とは異なる領域に属するときに、前記入力符号列の出力先を切替え、前記復号化対象スライスの符号列が属する領域に対応した分割符号列を出力するように前記符号列分割器を制御する分割制御器と、
前記符号列分割器から出力された分割符号列を、前記ヘッダ検出器が復号化した前記大ヘッダの情報を用いて、復号化する復号化器群と、
前記復号化器群により復号化された分割画面群をフレームに合成する画面合成器とを具備することを特徴とする動画像の復号化装置。
Decoding the header of the entire moving image, the header of a frame set, or the header of a frame (hereinafter, referred to as a large header) in the input code string, and further detecting a slice header added to a slice constituting the frame; A header detector that outputs position information indicating which position in the frame the image data is ;
And code stream divider for dividing the input code string into a plurality of divided code string,
A delay unit for delaying an input of the code sequence divider;
The frame is divided into a plurality of regions in the horizontal direction, the large header is output together with a divided code string of a region including an upper left end of the frame , and a code of a slice including the position information obtained by the header detector is output. When a sequence (hereinafter, referred to as a code sequence of the current slice) belongs to a different region from the code sequence of the slice decoded immediately before the code sequence of the current slice, the output of the input code sequence is output. A division controller for controlling the code sequence divider so as to output a divided code sequence corresponding to an area to which the code sequence of the decoding target slice belongs ;
A decoder group that decodes the divided code string output from the code string divider using the information of the large header decoded by the header detector,
A moving image decoding apparatus, comprising: a screen synthesizer for synthesizing a divided screen group decoded by the decoder group into a frame.
前記分割制御器は、他のフレームの復号化で参照フレームとして用いられる参照フレームに対しては、当該フレームの各領域の符号列に、前記他のフレームから参照されるスライスの符号列を付加した分割符号列を出力し、
前記他のフレームから参照されないフレームに対しては、符号列を当該フレームの各領域に対応するように分割して分割符号列を出力するように前記符号列分割器を制御し、
前記復号化器群は、前記符号列分割器により出力された分割符号列を復号化することにより得た画像のみを参照して復号化し、
前記画面合成器は、前記復号化器群により復号化された画像から、前記付加したスライスの符号列に対応する部分を削除してフレームに合成することを特徴とする請求項1記載の復号化装置。
For the reference frame used as a reference frame in decoding of another frame , the division controller adds a code sequence of a slice referenced from the other frame to a code sequence of each region of the frame . Output the divided code string,
For a frame that is not referenced from the other frames , the code string divider is controlled to output a divided code string by dividing a code string so as to correspond to each region of the frame ,
The group of decoders, decoding with reference to only the image obtained by decoding the divided code string output by the code string divider,
2. The decoding apparatus according to claim 1, wherein the screen synthesizer deletes a portion corresponding to the code string of the added slice from an image decoded by the group of decoders and synthesizes the image into a frame . apparatus.
前記ヘッダ検出器の動作を前記復号化器群のうちの1つの復号化器が兼ねることを特徴とする請求項1または2記載の動画像の復号化装置。3. The moving picture decoding apparatus according to claim 1, wherein one of the decoder groups operates as the header detector. 画面の左上端部を含む領域以外の領域の符号列にも前記大ヘッダを含ませ、前記大ヘッダの復号化を前記復号化器が行う請求項3記載の動画像の復号化装置。 Wherein in the code string in the region other than the region including the upper left end of the screen included a large header, the decoding apparatus of the moving image according to claim 3, wherein said decoder group decoding of the large header performed.
JP8308794A 1993-11-09 1994-04-21 Video decoding device Expired - Fee Related JP3555168B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP8308794A JP3555168B2 (en) 1994-04-21 1994-04-21 Video decoding device
GB9422628A GB2283876B (en) 1993-11-09 1994-11-09 Encoding and decoding code sequences and frames
US08/854,758 US5815209A (en) 1993-11-09 1997-05-12 Encoding method, an encoding apparatus, a decoding method and a decoding apparatus for a moving picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8308794A JP3555168B2 (en) 1994-04-21 1994-04-21 Video decoding device

Publications (2)

Publication Number Publication Date
JPH07298263A JPH07298263A (en) 1995-11-10
JP3555168B2 true JP3555168B2 (en) 2004-08-18

Family

ID=13792409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8308794A Expired - Fee Related JP3555168B2 (en) 1993-11-09 1994-04-21 Video decoding device

Country Status (1)

Country Link
JP (1) JP3555168B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3662129B2 (en) 1997-11-11 2005-06-22 松下電器産業株式会社 Multimedia information editing device
EP0987897A3 (en) 1998-08-25 2005-07-13 Matsushita Electric Industrial Co., Ltd. Moving picture synthesizing device
JP2009124209A (en) * 2007-11-12 2009-06-04 Sony Corp Information processing apparatus and method
JP2010183305A (en) 2009-02-05 2010-08-19 Sony Corp System and method for signal processing
TWI562644B (en) 2012-01-30 2016-12-11 Samsung Electronics Co Ltd Method for video decoding in spatial subdivisions and computer-readable recording medium
US20140362098A1 (en) * 2013-06-10 2014-12-11 Sharp Laboratories Of America, Inc. Display stream compression

Also Published As

Publication number Publication date
JPH07298263A (en) 1995-11-10

Similar Documents

Publication Publication Date Title
US5815604A (en) Interactive image manipulation
JP3228874B2 (en) Method and apparatus for dividing compressed digital video bit stream and method and apparatus for decoding the same
JP3662129B2 (en) Multimedia information editing device
US5694173A (en) Video data arranging method and video data encoding/decoding apparatus
US6414972B1 (en) Signal decoding method, signal decoding apparatus, signal multiplexing method, signal multiplexing apparatus, and recording medium
US5815209A (en) Encoding method, an encoding apparatus, a decoding method and a decoding apparatus for a moving picture
KR100334364B1 (en) On screen display processor
GB2299237A (en) Video decoding apparatus
JP3189031B2 (en) Data rate conversion method and apparatus
JP2000102007A (en) Multi-media information synthesizer and compressed video signal generator
JP3555168B2 (en) Video decoding device
JPH11122610A (en) Image coding method, image decoding method and system for them
JPH08149466A (en) Moving image processing method and processor therefor
JP2002314998A (en) Method for reducing format concurrently and method for decoding encoded video signal
KR980012962A (en) Screen synthesizer
JP4355914B2 (en) Multi-view image transmission system and method, multi-view image compression device and method, multi-view image decompression device and method, and program
JP3401762B2 (en) Image compression encoding / decoding method, image compression encoding / decoding device, image compression encoding / transmission method, image compression encoding / transmission system, and recording medium recording image compression encoding / decoding program
JPH11239347A (en) Image data coder and image data coding method
JP2000341587A (en) Device and method for image processing
JPH0923436A (en) Moving picture compression method and picture communication equipment
JP3004763B2 (en) Video signal multiplex decoder
KR970057937A (en) Object Oriented MPEG2 Video Encoder and Decoder
JP3880597B2 (en) Multimedia information editing device
JPH089377A (en) Image signal encoder and image signal decoder
JP3880596B2 (en) Multimedia information editing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040503

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100521

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110521

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110521

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees