JP2019097076A - 映像符号化装置及び映像復号装置 - Google Patents

映像符号化装置及び映像復号装置 Download PDF

Info

Publication number
JP2019097076A
JP2019097076A JP2017226151A JP2017226151A JP2019097076A JP 2019097076 A JP2019097076 A JP 2019097076A JP 2017226151 A JP2017226151 A JP 2017226151A JP 2017226151 A JP2017226151 A JP 2017226151A JP 2019097076 A JP2019097076 A JP 2019097076A
Authority
JP
Japan
Prior art keywords
video
unit
time
stream
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017226151A
Other languages
English (en)
Inventor
俊枝 三須
Toshie Misu
俊枝 三須
林田 哲哉
Tetsuya Hayashida
哲哉 林田
市ヶ谷 敦郎
Atsuro Ichigaya
敦郎 市ヶ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017226151A priority Critical patent/JP2019097076A/ja
Publication of JP2019097076A publication Critical patent/JP2019097076A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】複数のストリームにより時間スケーラブルな符号化伝送を行う際に、符号化効率の向上及びシステムの簡素化を実現する。【解決手段】映像符号化装置1の時間分割部11は、入力映像Fを時間分割して第一出力F(2t)及び第二出力F(2t−1)を生成し、第一映像符号化部12は、第一出力F(2t)を符号化して第一ストリームB(2t)を出力する。時間内挿部14は、第一ストリームB(2t)の復号映像D(2t)等に基づいて、内挿により予測画像P(2t−1)を生成し、第二映像符号化部16は、第二出力F(2t−1)と予測画像P(2t−1)との間の残差である予測残差画像E(2t−1)を符号化して第二ストリームB(2t−1)を出力する。【選択図】図1

Description

本発明は、映像を符号化してストリームを出力する映像符号化装置、及び入力したストリームを復号して符号化前の映像を復元する映像復号装置に関する。
従来、ある解像度及びフレームレートの映像を符号化する際に、演算回路規模の縮小、処理の高速化、既存装置の活用等の目的のため、より解像度及びフレームレートの低い映像を対象として処理を行う映像処理技術が知られている。
この映像処理技術は、解像度またはフレームレートの低い映像を対象とする映像符号化装置と映像復号装置とを複数対向させて使用することにより、映像を空間的または時間的に分割して処理するものである。
例えば、7680×4320画素の映像(8K映像)を、4つの3840×2160画素の映像(4K映像)に分割して伝送する場合、4K映像用の映像符号化装置及び映像復号装置を1対として、4対の装置により4対向で映像伝送を行うことが可能である。
画像を4分割する手法としては、例えば、水平及び垂直方向にそれぞれ2分割するスクエアディビジョン方式、2×1画素を単位としてタイル状に間引いた4つの位相の映像に分割するツーサンプルインターリーブ方式が用いられる。
また、フレームレート120Hzの映像を奇数フレームのみの映像及び偶数フレームのみの映像に分割する手法(以下、時間分割方式という。)が知られている。この時間分割方式では、60Hz用の映像符号化装置及び映像復号装置を1対として、2対の装置により2対向で映像伝送が行われる。
また、順次走査の映像を2系統の飛越走査の映像に分割する手法(以下、インタレース化方式という。)が知られている。このインタレース化方式では、飛越走査用の映像符号化装置及び映像復号装置を1対として、2対の装置により2対向で映像伝送が行われる。
さらに、デュアルグリーン方式の映像を、2種類の4:2:2カラーサンプリングの映像に分割する手法(以下、デュアルグリーン映像サンプリング方式という。)が知られている。デュアルグリーン方式の映像は、青及び赤の画素密度が等しく、かつ緑の画素密度が青及び赤の2倍であり、左上が緑(G1)、右上が赤(R)、左下が青(B)、右下が緑(G2)の2×2画素を単位としてタイル状に画素配置した映像である。
G1の全ての画素、1画素おきにサブサンプルしたRの画素、及び1画素おきにサブサンプルしたBの画素からなる映像を第1の4:2:2カラーサブサンプリング映像とし、G2の全ての画素、第1の4:2:2カラーサブサンプリング映像に含まれないR,Bの画素からなる映像を第2の4:2:2カラーサブサンプリング映像とする。
デュアルグリーン映像サンプリング方式は、デュアルグリーン方式の映像を、第1の4:2:2カラーサブサンプリング映像と第2の4:2:2カラーサブサンプリング映像とに分割するものである。このデュアルグリーン映像サンプリング方式では、第1及び第2の4:2:2カラーサブサンプリング映像用の映像符号化装置及び映像復号装置をそれぞれ1対として、2対の装置により2対向で映像伝送が行われる。
これらの画像分割手法を含む複数の手法を、伝送対象の映像に応じてフレーム単位またはブロック単位に適応的に切り替える技術が開示されている(例えば特許文献1を参照)。
この特許文献1の映像符号化装置は、映像の複数フレーム間の相関を解析して画像分割手法を定めるパラメータを設定し、パラメータに基づいて画像を分割し、分割後の画像毎に符号化を行い、複数のビットストリーム及びパラメータを出力する。また、映像復号装置は、複数のビットストリーム及びパラメータを入力し、複数のビットストリームのそれぞれを復号し、パラメータに基づいて、複数のビットストリームを多重化し、符号化前の映像を復元する。
特許第6101069号公報
しかしながら、前述のスクエアディビジョン方式によれば、画像に十字状の分割ラインを生じ、映像符号化の劣化に起因して分割ラインを境に画質差を生じると、分割ラインがアーティファクトとして見えてしまうことがある。
また、前述のツーサンプルインターリーブ方式によれば、画素間引きに起因する折り返し歪に起因してジャギー及びモアレを生じ、符号化の難易度が上がって符号化効率が低下することがある。
また、前述の時間分割方式によれば、映像の有する時間相関が低下し、フレーム間予測を用いる符号化方式においては符号化効率が低下することがある。また、対向間に画質差を生じると、復号側では時間合成によってフリッカを生じることがある。
また、インタレース化方式によれば、ライン間引きに起因するジャギー及びモアレによって符号化効率が低下することがある。また、対向間に画質差を生じると、復号側では順次走査化によって櫛状のアーティファクトを生じることがある。
また、デュアルグリーン映像サンプリング方式によれば、ツーサンプルインターリーブ方式と同様に、符号化効率が低下することがある。
さらに、特許文献1の技術によれば、フレーム単位またはブロック単位に、劣化の生じ難い画像分割手法を選択することで、画質劣化を抑えることが可能である。しかし、映像符号化装置は、いずれの画像分割手法を選択したかを示すパラメータを映像復号装置へ送信する必要がある。このため、符号化処理及び復号処理に加え、映像以外の補助的な情報であるパラメータを伝送するシグナリング処理が必要となり、処理負荷が高くなってしまう。
ところで、前述の時間分割方式において、例えば120Hzの映像の符号化伝送を行うために、当該映像を奇数フレーム及び偶数フレームに分割し、60Hz用の映像符号化装置及び映像復号装置を1対として、2対の装置により2対向で映像伝送を行う場合がある。
この時間分割方式では、1つのストリームのみで60Hzの映像を復元し、2つのストリームにより120Hzの映像を復元することができるから、2つのストリームにより2つのフレームレートに対応する時間スケーラブルな符号化伝送が可能である。しかし、奇数フレーム及び偶数フレームのそれぞれに対して符号化を行う必要があるから、ビットレートが高くなり、符号化効率が低下してしまう。
また、120Hzの映像の符号化伝送を行うために、分割した一方の奇数フレームについては符号化を行い、他方の偶数フレームについては、偶数フレームと奇数フレームとの間の残差に対して符号化を行い、2対の装置により2対向で映像伝送を行う場合もある。
この時分割方式では、前述の場合と同様に、60Hzの映像及び120Hzの映像を復元することができるから、2つのストリームにより2つのフレームレートに対応する時間スケーラブルな符号化伝送が可能である。この場合、符号化が行われた残差のストリームのビットレートは、静止画像の場合に低くなる。しかし、動画像の場合は、当該ビットレートは高くなり、符号化効率が低下してしまう。
このように、時間分割方式を用いて符号化伝送を行う場合に、符号化効率の低下を防ぐことが所望されていた。また、前述の特許文献1の技術では、符号化処理及び復号処理以外にシグナリング処理を必要とするが、このシグナリング処理を削除してシステムを簡素化することが所望されていた。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、複数のストリームにより複数のフレームレートに対応する時間スケーラブルな符号化伝送を行う際に、符号化効率の向上及びシステムの簡素化を実現可能な映像符号化装置及び映像復号装置を提供することにある。
前記課題を解決するために、請求項1の映像符号化装置は、符号化対象の映像を偶数フレーム及び奇数フレームに時間方向に分割する時間分割部と、前記時間分割部により分割された前記偶数フレーム及び前記奇数フレームのうち一方のフレームを符号化し、第一ストリームを出力する第一映像符号化部と、前記第一映像符号化部により出力された前記第一ストリームを復号し、復号映像を生成する第一映像復号部と、前記第一映像復号部により生成された前記復号映像に基づいて、前記時間分割部により分割された前記偶数フレーム及び前記奇数フレームのうち他方のフレームに対応するフレームを、予測画像として生成する予測部と、前記時間分割部により分割された前記他方のフレームと前記予測部により生成された前記予測画像との間の残差を、予測残差画像として生成する減算部と、前記減算部により生成された前記予測残差画像を符号化し、第二ストリームを出力する第二映像符号化部と、を備えたことを特徴とする。
請求項1の映像符号化装置によれば、第二ストリームは、予測残差画像の符号化により生成されるから、その圧縮率を向上させることができる。また、復号側は、第一ストリームを復号することで、元の映像に対して1/2のフレームレートの映像を得ることができ、さらに第二ストリームを復号することで、元の映像と同じフレームレートの映像を得ることができるから、復号のためのパラメータを伝送しなくて済む。
また、請求項2の映像符号化装置は、請求項1に記載の映像符号化装置において、前記予測部が、前記第一映像復号部により生成された前記復号映像における時系列の複数のフレームに基づいて、画素毎に平均値を算出し、前記予測画像を生成する、ことを特徴とする。
請求項2の映像符号化装置によれば、予測画像は、復号映像のフレーム間の線形演算により生成されるから、演算量を削減することができる。
また、請求項3の映像符号化装置は、請求項1に記載の映像符号化装置において、前記予測部が、前記第一映像復号部により生成された前記復号映像における時系列の複数のフレームに基づいて、動きを推定して動きベクトルを求め、前記複数のフレームのうち1以上のフレーム及び前記動きベクトルに基づいて、前記予測画像を生成する、ことを特徴とする。
請求項3の映像符号化装置によれば、映像内の被写体の動きを考慮した予測画像が生成されるから、予測残差画像のエントロピーを低減することができる。
さらに、請求項4の映像復号装置は、映像が符号化された第一ストリーム及び第二ストリームを入力し、前記第一ストリーム及び前記第二ストリームを復号する映像復号装置において、前記第一ストリームを復号し、前記映像の偶数フレーム及び奇数フレームのうち一方のフレームの復号映像を、第一復号映像として生成する第一映像復号部と、前記第一映像復号部により生成された前記第一復号映像に基づいて、前記偶数フレーム及び前記奇数フレームのうち他方のフレームに対応するフレームを、予測画像として生成する予測部と、前記第二ストリームを復号し、前記他方のフレームに対応する復号残差画像を生成する第二映像復号部と、前記予測部により生成された前記予測画像に、前記第二映像復号部により生成された前記復号残差画像を加算し、第二復号映像を生成する加算部と、前記第一映像復号部により生成された前記第一復号映像及び前記加算部により生成された前記第二復号映像を時間多重する時間多重部と、を備えたことを特徴とする。
請求項4の映像復号装置によれば、第一ストリームを復号することで、元の映像に対して1/2のフレームレートの第一復号映像を得ることができる。また、第二ストリームを復号し、第一復号映像及び第二復号映像を時間多重することで、元の映像と同じフレームレートの映像を得ることができる。復号のためのパラメータは不要である。また、第二ストリームから復号残差画像が生成されるから、第二ストリームは、予測残差画像の符号化により生成された圧縮率の高いストリームであるといえる。つまり、映像復号装置は、データ量の少ない第二ストリームを入力するから、復号処理の負荷を低減することができる。
また、請求項5の映像復号装置は、請求項4に記載の映像復号装置において、前記予測部が、前記第一映像復号部により生成された前記第一復号映像における時系列の複数のフレームに基づいて、画素毎に平均値を算出し、前記予測画像を生成する、ことを特徴とする。
請求項5の映像復号装置によれば、予測画像は、第一復号映像のフレーム間の線形演算により生成されるから、演算量を削減することができる。
また、請求項6の映像復号装置は、請求項4に記載の映像復号装置において、前記予測部が、前記第一映像復号部により生成された前記第一復号映像における時系列の複数のフレームに基づいて、動きを推定して動きベクトルを求め、前記複数のフレームのうち1以上のフレーム及び前記動きベクトルに基づいて、前記予測画像を生成する、ことを特徴とする。
請求項6の映像復号装置によれば、映像内の被写体の動きを考慮した予測画像が生成されるから、予測残差画像のエントロピーを低減することができる。
以上のように、本発明によれば、複数のストリームにより複数のフレームレートに対応する時間スケーラブルな符号化伝送を行う際に、符号化効率の向上及びシステムの簡素化を実現することができる。
実施例1の映像符号化装置の構成例を示すブロック図である。 実施例1において、線形内挿を行う時間内挿部の構成例を示すブロック図である。 実施例1において、動き補償予測による時間内挿を行う時間内挿部の入出力を説明する図である。 実施例1において、動き補償予測による時間内挿を行う時間内挿部の構成例を示すブロック図である。 実施例1の動きベクトル[U,V]を説明する図である。 実施例1の映像復号装置の構成例を示すブロック図である。 実施例2の映像符号化装置の構成例を示すブロック図である。 実施例2において、動き補償予測による時間外挿を行う時間外挿部の入出力を説明する図である。 実施例2において、動き補償予測による時間外挿を行う時間外挿部の構成例を示すブロック図である。 実施例2の動きベクトル[U,V]を説明する図である。 実施例2の映像復号装置の構成例を示すブロック図である。
以下、本発明を実施するための形態について図面を用いて詳細に説明する。実施例1は、映像を時間分割して2つの分割映像を生成し、一方の分割映像を符号化して送信し、他方の分割映像については、内挿により一方の分割映像に対応する予測画像を生成して予測残差を求め、予測残差を符号化して送信する例である。実施例2は、実施例1において、内挿により予測画像を生成する代わりに、外挿により予測画像を生成する例である。
〔実施例1〕
まず、実施例1について説明する。前述のとおり、実施例1は、映像を時間分割して2つの分割映像を生成し、一方の分割映像を符号化して送信し、他方の分割映像については、内挿処理により予測画像を生成して予測残差を求め、予測残差を符号化して送信する例である。
(符号化側/実施例1)
図1は、実施例1の符号化装置の構成例を示すブロック図である。この映像符号化装置1は、時間分割部11、第一映像符号化部12、第一映像復号部13、時間内挿部(予測部)14、減算部15及び第二映像符号化部16を備えている。映像符号化装置1は、入力映像Fを入力し、時間分割処理及び符号化処理等を行い、第一ストリーム及び第二ストリームを後述する映像復号装置2へ出力する。入力映像Fの第TフレームをF(T)とし、その画像座標[x,y]の画素値をF(T,x,y)とする。Tは、フレーム番号であり整数とする。
時間分割部11は、符号化対象の入力映像Fを入力し、入力映像Fを時間方向に交互に分割し、偶数フレームの第一出力F(2t)を第一映像符号化部12に出力すると共に、奇数フレームの第二出力F(2t−1)を減算部15に出力する。tは0以上の整数とする。
入力映像Fの最初のフレームをF(0)とし、F(−1)は全画素0(モノクロ映像にあってはスカラー値0、カラー映像にあっては零ベクトル)とする。すなわち、t=0,1,2,・・・の各時点において、時間分割部11は、(第一出力,第二出力)として(F(0),0),(F(2),F(1)),(F(4),F(3)),・・・を出力する。
尚、入力映像Fの最終フレーム番号が奇数の場合には、時間分割部11が出力する偶数フレームの第一出力F(2t)が存在しない。このため、時間分割部11は、第一出力F(2t)として全画素0(モノクロ映像にあってはスカラー値0、カラー映像にあっては零ベクトル)を出力する。例えば、入力映像Fの最終フレームがF(99)である場合、時間分割部11は、t=50の時点において、(第一出力,第二出力)=(0,F(99))を出力する。
第一映像符号化部12は、時間分割部11から第一出力F(2t)を入力し、第一出力F(2t)を符号化して符号列(以下、ストリームという。)を生成する。そして、第一映像符号化部12は、第一ストリームB(2t)を第一映像復号部13及び後述する映像復号装置2へ出力する。
第一映像符号化部12における符号化は、好ましくはエントロピー符号化を含む圧縮符号化方式によるものとする。第一映像符号化部12における符号化方式は、動画像用の符号化方式であってもよいし、静止画像用の符号化方式であってもよい。例えば、JPEG、JPEG 2000、MPEG-1、MPEG-2、MPEG-4、MPEG-4 AVC、MPEG-H HEVC、Motion JPEG、Motion JPEG 2000、GIF、PNG等の任意の圧縮符号化方式が用いられる。
第一映像復号部13は、第一映像符号化部12から第一ストリームB(2t)を入力し、第一ストリームB(2t)を復号して復号映像D(2t)を生成し、復号映像D(2t)を時間内挿部14に出力する。第一映像復号部13における復号は、第一映像符号化部12と同一の方式の復号アルゴリズムによるものとする。
尚、第一映像符号化部12により復号映像D(2t)が生成される場合には、映像符号化装置1は第一映像復号部13を備える必要がない。この場合、第一映像符号化部12は、復号映像D(2t)を生成し、復号映像D(2t)を時間内挿部14に出力する。
また、第一映像符号化部12及び第一映像復号部13において遅延時間αを生じる場合には、第一映像復号部13は、復号映像D(2(t−α))を時間内挿部14に出力する。遅延時間αは0以上の整数とする。
時間内挿部14は、内部に過去の復号映像D(2t)を記憶するための画像バッファを有している。時間内挿部14は、第一映像復号部13から復号映像D(2t)を入力し、復号映像D(2t)を画像バッファに格納し、画像バッファから例えば過去の復号映像D(2t−2)を読み出す。
時間内挿部14は、複数時点の復号映像D(2t)等(例えば、復号映像D(2t),D(2t−2))に基づいて、時間内挿の時間補間処理を行う。そして、時間内挿部14は、時刻2t−1の時点に相当するフレームの予測値を生成し、予測値を予測画像P(2t−1)として減算部15に出力する。時間内挿部14の詳細については後述する。
これにより、複数時点の偶数フレームの復号映像D(2t)等から、時刻2t−1における奇数フレームの復号映像D(2t−1)に対応する予測画像P(2t−1)が生成される。
尚、第一映像符号化部12及び第一映像復号部13において遅延時間αを生じ、時間内挿部14において遅延時間βを生じる場合には、時間内挿部14は、予測画像P(2(t−d)−1)を減算部15に出力する。遅延時間d=α+βである。遅延時間α,βは0以上の整数とする。
第一映像符号化部12、第一映像復号部13及び時間内挿部14において遅延時間dを生じる場合、映像符号化装置1は、時間分割部11と減算部15との間に遅延部を備える。遅延部は、時間分割部11から第二出力F(2t−1)を入力し、第二出力F(2t−1)を遅延時間dだけ遅延させ、第二出力F(2(t−d)−1)を減算部15に出力する。これにより、減算部15において、時間内挿部14から入力する予測画像P(2(t−d)−1)と遅延部から入力する第二出力F(2(t−d)−1)とを時間同期させることができる。
減算部15は、時間分割部11から第二出力F(2t−1)を入力すると共に、時間内挿部14から予測画像P(2t−1)を入力する。そして、減算部15は、第二出力F(2t−1)から予測画像P(2t−1)を減算する(第二出力F(2t−1)と予測画像P(2t−1)との間の残差を求める)。減算部15は、減算結果である差異に基づく信号を予測残差画像E(2t−1)として生成する。減算部15は、予測残差画像E(2t−1)を第二映像符号化部16に出力する。
例えば、減算部15は、以下の式にて、第二出力F(2t−1)から予測画像P(2t−1)を画素位置毎に減算し、減算結果を予測残差画像E(2t−1)として生成する。
Figure 2019097076
E(2t−1,x,y)は、予測残差画像E(2t−1)における画像座標[x,y]の画素値である。F(2t−1,x,y)は、第二出力F(2t−1)における画像座標[x,y]の画素値であり、P(2t−1,x,y)は、予測画像P(2t−1)における画像座標[x,y]の画素値である。
また、他の例として、減算部15は、後段の第二映像符号化部16における信号のダイナミックレンジを考慮して、以下の式にて、第二出力F(2t−1)及び予測画像P(2t−1)に基づいて、予測残差画像E(2t−1)を生成する。
Figure 2019097076
Lは、第二映像符号化部16に入力可能な信号の階調数とする。Mは、第二映像符号化部16に入力可能な信号の最小値とする。また、演算X%Yは、整数Xを自然数Yで割った余りを求める演算である。
また、他の例として、減算部15は、以下の式にて、第二出力F(2t−1)及び予測画像P(2t−1)に基づいて、予測残差画像E(2t−1)を生成する。
Figure 2019097076
第二映像符号化部16は、減算部15から予測残差画像E(2t−1)を入力し、予測残差画像E(2t−1)を符号化してストリームを生成し、第二ストリームB(2t−1)を、後述する映像復号装置2へ出力する。
第二映像符号化部16における符号化は、好ましくはエントロピー符号化を含む圧縮符号化方式によるものとする。第二映像符号化部16における符号化方式は、動画像用の符号化方式であってもよいし、静止画像用の符号化方式であってもよい。例えば、JPEG、JPEG 2000、MPEG-1、MPEG-2、MPEG-4、MPEG-4 AVC、MPEG-H HEVC、Motion JPEG、Motion JPEG 2000、GIF、PNG等の任意の圧縮符号化方式が用いられる。
尚、第二映像符号化部16は、第一映像符号化部12と同一の圧縮符号化方式にて符号化を行うようにしてもよいし、異なる圧縮符号化方式にて符号化を行うようにしてもよい。
(時間内挿部14)
次に、図1に示した時間内挿部14について詳細に説明する。前述のとおり、時間内挿部14は、複数時点の復号映像D(2t)等に基づいて、時間内挿の時間補間処理を行い、時刻2t−1の予測画像P(2t−1)を生成する。以下、時間内挿部14について、線形内挿を行う場合及び動き補償予測による時間内挿を行う場合を例に挙げて説明する。
(線形内挿)
まず、線形内挿を行う時間内挿部14について説明する。線形内挿を行う時間内挿部14は、以下の式にて、時刻2tの復号映像D(2t)及び時刻2t−2の復号映像D(2t−2)に基づいて相加平均を算出し(すなわち線形内挿を行い)、時刻2t−1の予測画像P(2t−1)を求める。
Figure 2019097076
図2は、実施例1において、線形内挿を行う時間内挿部14の構成例を示すブロック図である。この時間内挿部14は、遅延部31及び平均部32を備えている。
遅延部31は画像バッファを有している。遅延部31は、第一映像復号部13から復号映像D(2t)を入力し、復号映像D(2t)を画像バッファに格納し、復号映像D(2t)の時刻tを1時点(フレーム数では2フレーム分)だけ遅延させる。そして、遅延部31は、2フレーム分遅延させた復号映像D(2t−2)を平均部32に出力する。遅延部31の画像バッファに格納された復号映像D(2t)は、2フレーム分遅延させた復号映像D(2t−2)として平均部32により読み出される。
平均部32は、第一映像復号部13から復号映像D(2t)を入力すると共に、遅延部31から復号映像D(2t−2)を入力する。そして、平均部32は、復号映像D(2t),D(2t−2)に基づいて、前記式(4)に示したとおり、画素毎の相加平均を演算し、その結果を予測画像P(2t−1)として減算部15に出力する。
このように、図2に示した時間内挿部14は、復号映像D(2t),D(2t−2)を用いて線形内挿の演算を行い、予測画像P(2t−1)を求めるようにした。これにより、予測画像P(2t−1)を求めるための演算量を削減することができる。
(動き補償予測による時間内挿)
次に、図1に示した時間内挿部14について、動き補償予測による時間内挿を行う場合を説明する。動き補償予測による時間内挿を行う時間内挿部14は、時刻2tの復号映像D(2t)及び時刻2t−2の復号映像D(2t−2)に基づいて、時刻2t−1のフレームを基準とした動きベクトル[U,V]を算出する。そして、時間内挿部14は、復号映像D(2t)及び/または復号映像D(2t−2)と、動きベクトル[U,V]とに基づいて、時刻2t−1の予測画像P(2t−1)を求める。
図3は、動き補償予測による時間内挿を行う時間内挿部14の入出力を説明する図である。図3に示すように、動き補償予測による時間内挿を行う時間内挿部14により、時刻2tの復号映像D(2t)及び時刻2t−2の復号映像D(2t−2)が入力され、時刻2t,2t−2の間の時刻2t−1における予測画像P(2t−1)が出力される。
図4は、実施例1において、動き補償予測による時間内挿を行う時間内挿部14の構成例を示すブロック図である。この時間内挿部14は、遅延部33、動き推定部34及び動き補償部35を備えている。遅延部33は、図2に示した遅延部31と同一であるから、ここでは説明を省略する。
動き推定部34は、第一映像復号部13から復号映像D(2t)を入力すると共に、遅延部33から復号映像D(2t−2)を入力する。そして、動き推定部34は、時刻2tの復号映像D(2t)及び時刻2t−2の復号映像D(2t−2)に基づいて、時刻2t−1のフレームを基準とした画像全体または部分画像領域毎の動きベクトル[U,V]を算出する。動き推定部34は、動きベクトル[U,V]を動き補償部35に出力する。
例えば、動き推定部34は、復号映像D(2t)及び復号映像D(2t−2)に基づいて、以下の式にて、ブロックマッチングにより動きベクトル[U(2t−1,x,y),V(2t−1,x,y)]を算出する。具体的には、動き推定部34は、時刻2t−1のフレーム上の画像座標[x,y]に関して点対称に、復号映像D(2t),D(2t−2)上に部分領域対のマッチングをとり、画素値の誤差の最小値を演算することで、動きベクトル[U(2t−1,x,y),V(2t−1,x,y)]を求める。
Figure 2019097076
動きベクトル[U(2t−1,x,y),V(2t−1,x,y)]は、時刻2t−1のフレームにおける画像座標[x,y]の動きベクトルである。関数Q(X,Y)は、XとYとの間の誤差を評価する関数である。また、領域Bはブロックの形状と大きさを定義し、領域Sは探索領域を定義する。
前記式(5)において、関数Qは、例えば以下の式に示す二乗誤差が用いられる。
Figure 2019097076
また、関数Qは、他の例として以下の式に示す絶対値誤差が用いられる。
Figure 2019097076
前記式(5)において、領域Bは、例えばa≦bかつc≦dなる整数a,b,c,dに対し、以下のように定義することができる。
Figure 2019097076
例えばa=−4、b=+4、c=−4、d=+4とすれば、領域Bは、9×9画素の正方領域となる。
前記式(5)において、領域Sは、例えば「e≦fかつg<h」または「e<fかつg≦h」なる整数e,f,g,hに対し、以下のように定義することができる。
Figure 2019097076
例えばe=−4、f=+4、g=−4、h=+4とすれば、領域Sは、水平方向±4画素以内かつ垂直方向±4画素以内の探索領域となる。
図5は、動きベクトル[U,V]を説明する図である。図5に示すように、復号映像D(2t)の時刻2tと復号映像D(2t−2)の時刻2t−2との間に、仮想的に時刻2t−1のフレーム(以下、仮想フレームという。)を想定する。
前記式(5)の演算は、仮想フレーム上の画像座標[x,y]が相対的に復号映像D(2t)のどこに対応するかを示す動きベクトル[U(2t−1,x,y),V(2t−1,x,y)]を求めるものである。図5に示すように、仮想フレーム上の画像座標[x,y]に関して点対称に、復号映像D(2t),D(2t−2)上に部分領域対(図5のa1,a2)がとられる。この部分領域対における画素値の誤差の最小値を演算することで、動きベクトル[U,V]が求められる。
尚、動き推定部34は、前記式(5)の演算を、一部の画像座標[x,y]のみに行うようにしてもよい。この場合、動き推定部34は、一部の画像座標[x1,y1]について前記式(5)の演算を行い、動きベクトル[U,V]を算出し、一部の画像座標[x1,y1]に対して当該演算結果の動きベクトル[U,V]を採用する。そして、動き推定部34は、前記式(5)の演算を行わなかった他の画像座標[x2,y2]に対して、最近傍の画像座標[x1,y1]における演算結果の動きベクトル[U,V]を採用する。
図4に戻って、動き補償部35は、第一映像復号部13から復号映像D(2t)を入力すると共に、遅延部33から復号映像D(2t−2)を入力し、さらに動き推定部34から動きベクトル[U,V]を入力する。
動き補償部35は、復号映像D(2t)及び/または復号映像D(2t−2)と、動きベクトル[U,V]とに基づいて、予測画像P(2t−1)を生成し、予測画像P(2t−1)を減算部15に出力する。
例えば、動き補償部35は、復号映像D(2t)及び動きベクトル[U,V]を用いる場合には、以下の式にて、予測画像P(2t−1)を生成する。
Figure 2019097076
また、他の例として、動き補償部35は、復号映像D(2t−2)及び動きベクトル[U,V]を用いる場合には、以下の式にて、予測画像P(2t−1)を生成する。
Figure 2019097076
また、他の例として、動き補償部35は、復号映像D(2t),D(2t−2)及び動きベクトル[U,V]を用いる場合には、以下の式にて、予測画像P(2t−1)を生成する。
Figure 2019097076
rは0<r<1なる実定数であり、典型的にはr=0.5とする。
このように、図4に示した時間内挿部14は、偶数フレームの復号映像D(2t),D(2t−2)に基づいて、動きベクトル[U,V]を算出する。そして、時間内挿部14は、偶数フレームの復号映像D(2t)及び/または復号映像D(2t−2)と、動きベクトル[U,V]とに基づいて、奇数フレームの予測画像P(2t−1)を求めるようにした。
これにより、映像内の被写体の動きを考慮しているから、精度の高い予測画像P(2t−1)を得ることができ、入力映像Fが静止画像の場合に加え、動画像であったとしても、予測画像P(2t−1)は第二出力F(2t−1)に近くなる。そして、後段の減算部15により算出される予測残差画像E(2t−1)のエントロピーを低減することができ、さらに後段の第二映像符号化部16の符号化により生成される第二ストリームB(2t−1)のデータ量を低減することができる。したがって、符号化効率を向上させることができる。
以上のように、実施例1の映像符号化装置1によれば、時間分割部11は、入力映像Fを時間分割して第一出力F(2t)及び第二出力F(2t−1)を生成し、第一映像符号化部12は、第一出力F(2t)を符号化して第一ストリームB(2t)を出力する。
時間内挿部14は、第一ストリームB(2t)の復号映像D(2t)等に基づいて、内挿により予測画像P(2t−1)を生成する。そして、第二映像符号化部16は、第二出力F(2t−1)と予測画像P(2t−1)との間の残差である予測残差画像E(2t−1)を符号化して第二ストリームB(2t−1)を出力する。
これにより、入力映像Fの符号化伝送の際に、入力映像Fに対してフレームレートが1/2倍の第一出力F(2t)を符号化した第一ストリームB(2t)と、予測残差画像E(2t−1)を符号化した第二ストリームB(2t−1)とが出力される。
第一映像符号化部12に対応する復号部(後述する第一映像復号部21)を備えた後述する映像復号装置2は、第一ストリームB(2t)を入力することで、入力映像Fに対してフレームレートが1/2倍の視聴可能な絵柄の映像を復号することができる。また、第二映像符号化部16に対応する復号部(後述する第二映像復号部23)も備え、さらに時間内挿部14及び減算部15に対応する構成部(後述する時間内挿部22及び加算部24)も備えた後述する映像復号装置2は、第一ストリームB(2t)及び第二ストリームB(2t−1)を入力することで、元の入力映像Fを復号することができる。
したがって、第一ストリームB(2t)及び第二ストリームB(2t−1)により、第一ストリームB(2t)の符号化方式に対して互換性を保ちつつ、入力映像Fのフレームレート及びその1/2倍のフレームレートに対応する時間スケーラブルな符号化伝送を実現することができる。
また、第二ストリームB(2t−1)の元となる予測残差画像E(2t−1)は、時刻2t−1における第二出力F(2t−1)と予測画像P(2t−1)との間の残差画像であるから、第二ストリームB(2t−1)の圧縮率を向上させることができる。つまり、第二ストリームB(2t−1)のデータ量が低減するから、ビットレートを低くして帯域を狭くすることができ、符号化効率を向上させることができる。
ここで、予測残差画像E(2t−1)を符号化した第二ストリームB(2t−1)の代わりに、入力映像Fに対してフレームレートが1/2倍の第二出力F(2t−1)を符号化したストリームが出力される場合、または、時刻2tの第一出力F(2t)と時刻2t−1の第二出力F(2t−1)との間の残差画像を符号化したストリームが出力される場合を想定する。この場合、予測残差画像E(2t−1)を符号化した第二ストリームB(2t−1)の方が、想定したストリームよりもデータ量が低減することは明らかであるから、符号化効率が向上する。
また、後述する映像復号装置2は、映像符号化装置1に備えた時間内挿部14と共通の構成部(後述する時間内挿部22)を備えることで、第一ストリームB(2t)及び第二ストリームB(2t−1)を復号して元の映像を得ることができる。この場合、元の映像を得るために、これらのストリーム以外にシグナリング(復号のためのパラメータの伝送)を必要としない。したがって、映像符号化装置1は、第一ストリームB(2t)及び第二ストリームB(2t−1)を出力すればよく、シグナリングが不要であるから、システムの簡素化を実現することができる。
(復号側/実施例1)
図6は、実施例1の映像復号装置2の構成例を示すブロック図である。この映像復号装置2は、第一映像復号部21、時間内挿部(予測部)22、第二映像復号部23、加算部24及び時間多重部25を備えている。映像復号装置2は、図1に示した映像符号化装置1から第一ストリームB(2t)及び第二ストリームB(2t−1)を入力し、復号処理及び時間多重処理を行い、復号映像を出力する。
第一映像復号部21は、図1に示した映像符号化装置1から第一ストリームB(2t)を入力し、第一ストリームB(2t)に対し、図1に示した第一映像復号部13と同一の処理を行い、復号映像D(2t)を生成する。そして、第一映像復号部21は、復号映像D(2t)を時間内挿部22及び時間多重部25に出力する。
時間内挿部22は、図1に示した時間内挿部14と同一であり、その構成等は図2〜図5に示したとおりであるから、ここでは説明を省略する。時間内挿部22は、複数時点の復号映像D(2t)等に基づいて、時間内挿により予測画像P(2t−1)を生成し、予測画像P(2t−1)を加算部24に出力する。
第二映像復号部23は、図1に示した映像符号化装置1から第二ストリームB(2t−1)を入力し、第二ストリームB(2t−1)を復号して復号残差画像G(2t−1)を生成し、復号残差画像G(2t−1)を加算部24に出力する。第二映像復号部23における復号は、図1に示した第二映像符号化部16と同一の方式の復号アルゴリズムによるものとする。
加算部24は、時間内挿部22から予測画像P(2t−1)を入力すると共に、第二映像復号部23から復号残差画像G(2t−1)を入力する。そして、加算部24は、予測画像P(2t−1)に復号残差画像G(2t−1)を加算して復号映像D(2t−1)を生成し、復号映像D(2t−1)を時間多重部25に出力する。
例えば、図1に示した減算部15が前記式(1)の演算を行った場合、加算部24は、以下の式にて、予測画像P(2t−1)に復号残差画像G(2t−1)を画素位置毎に加算し、復号映像D(2t−1)を生成する。
Figure 2019097076
D(2t−1,x,y)は、復号映像D(2t−1)における画像座標[x,y]の画素値である。P(2t−1,x,y)は、予測画像P(2t−1)における画像座標[x,y]の画素値であり、G(2t−1,x,y)は、復号残差画像G(2t−1)における画像座標[x,y]の画素値である。
また、他の例として、図1に示した減算部15が前記式(2)の演算を行った場合、加算部24は、以下の式にて復号映像D(2t−1)を生成する。
Figure 2019097076
前述のとおり、Lは、図1に示した第二映像符号化部16に入力可能な信号の階調数、Mは、図1に示した第二映像符号化部16に入力可能な信号の最小値、演算X%Yは、整数Xを自然数Yで割った余りを求める演算である。
また、他の例として、図1に示した減算部15が前記式(3)の演算を行った場合、加算部24は、以下の式にて復号映像D(2t−1)を生成する。
Figure 2019097076
時間多重部25は、第一映像復号部21から復号映像D(2t)を入力すると共に、加算部24から復号映像D(2t−1)を入力する。そして、時間多重部25は、偶数フレームの復号映像D(2t)及び奇数フレームの復号映像D(2t−1)を時間方向に交互に配して多重化し、偶数フレーム及び奇数フレームを交互に順に並べた復号映像を生成し、復号映像を出力する。
以上のように、実施例1の映像復号装置2によれば、第一映像復号部21は、第一ストリームB(2t)を復号して復号映像D(2t)を生成し、第二映像復号部23は、第二ストリームB(2t−1)を復号して復号残差画像G(2t−1)を生成する。
時間内挿部22は、復号映像D(2t)等に基づいて、内挿により予測画像P(2t−1)を生成する。そして、時間多重部25は、復号映像D(2t)と、予測画像P(2t−1)及び復号残差画像G(2t−1)の加算結果である復号映像D(2t−1)とを時間多重し、元の映像を生成する。
これにより、第一ストリームB(2t)から、元の入力映像Fに対してフレームレートが1/2倍の視聴可能な絵柄の映像を得ることができる。また、第一ストリームB(2t)及び第二ストリームB(2t−1)から元の入力映像Fを得ることができる。
したがって、第一ストリームB(2t)及び第二ストリームB(2t−1)により、第一ストリームB(2t)の符号化方式に対して互換性を保ちつつ、入力映像Fのフレームレート及びその1/2倍のフレームレートに対応する時間スケーラブルな符号化伝送を実現することができる。例えば120Hz,60Hzの時間スケーラブルな符号化伝送を実現することができ、映像復号装置2において、120Hz,60Hzの映像を復元することができる。
また、第二ストリームB(2t−1)は、映像符号化装置1において、時刻2t−1における第二出力F(2t−1)と予測画像P(2t−1)との間の残差画像が符号化されたストリームである。これにより、第二ストリームB(2t−1)のデータ量は少なくなり、ビットレートを低くして帯域を狭くすることができ、映像符号化装置1において符号化効率を向上させることができる。したがって、映像復号装置2は、圧縮率が高くデータ量の少ない第二ストリームB(2t−1)を入力するから、復号処理の負荷を低減することができる。
ここで、予測残差画像E(2t−1)が符号化された第二ストリームB(2t−1)の代わりに、入力映像Fに対してフレームレートが1/2倍の第二出力F(2t−1)が符号化されたストリームを入力する場合、または、時刻2tの第一出力F(2t)と時刻2t−1の第二出力F(2t−1)との間の残差画像が符号化されたストリームを入力する場合を想定する。この場合、予測残差画像E(2t−1)が符号化された第二ストリームB(2t−1)の方が、想定したストリームよりもデータ量が低減することは明らかである。したがって、映像符号化装置1において符号化効率が向上し、映像復号装置2において復号処理の負荷が低減する。
また、予測画像P(2t−1)は、第一ストリームB(2t)のみを用いて、当該ストリームを復号することで生成される。この場合、予測画像P(2t−1)を生成するために、当該ストリーム以外にシグナリングを受ける必要がない(復号のためのパラメータは必要ない)。したがって、映像復号装置2は、復号のために第一ストリームB(2t)及び第二ストリームB(2t−1)を入力すればよく、シグナリングを受ける必要がないから、システムの簡素化を実現することができる。
〔実施例2〕
次に、実施例2について説明する。前述のとおり、実施例2は、映像を時間分割して2つの分割映像を生成し、一方の分割映像を符号化して送信し、他方の分割映像については、外挿処理により予測画像を生成して予測残差を求め、予測残差を符号化して送信する例である。前述の実施例1とこの実施例2とを比較すると、実施例1は内挿処理により予測画像を生成するのに対し、実施例2は外挿処理により予測画像を生成する点で相違する。
(符号化側/実施例2)
図7は、実施例2の符号化装置の構成例を示すブロック図である。この映像符号化装置3は、時間分割部41、第一映像符号化部12、第一映像復号部13、時間外挿部(予測部)42、減算部15及び第二映像符号化部16を備えている。映像符号化装置3は、入力映像Fを入力し、時間分割処理及び符号化処理等を行い、第一ストリームB(2t)及び第二ストリームB(2t+1)を、後述する映像復号装置4へ出力する。
時間分割部41は、符号化対象の入力映像Fを入力し、入力映像Fを時間方向に交互に分割し、偶数フレームの第一出力F(2t)を第一映像符号化部12に出力すると共に、奇数フレームの第二出力F(2t+1)を減算部15に出力する。
t=0,1,2,・・・の各時点において、時間分割部41は、(第一出力,第二出力)として(F(0),F(1)),(F(2),F(3)),(F(4),F(5)),・・・を出力する。
尚、入力映像Fの最終フレーム番号が偶数の場合には、時間分割部41が出力する奇数フレームの第二出力F(2t+1)が存在しない。このため、時間分割部41は、第二出力F(2t+1)として全画素0を出力する。例えば、入力映像Fの最終フレームがF(100)である場合、時間分割部11は、t=50の時点において、(第一出力,第二出力)=(F(100),0)を出力する。
第一映像符号化部12及び第一映像復号部13は、図1に示した第一映像符号化部12及び第一映像復号部13と同一であるから、ここでは説明を省略する。第一映像符号化部12は、第一ストリームB(2t)を、後述する映像復号装置4へ出力する。
時間外挿部42は、内部に過去の復号映像D(2t)を記憶するための画像バッファを有している。時間外挿部42は、第一映像復号部13から復号映像D(2t)を入力し、復号映像D(2t)を画像バッファに格納し、画像バッファから例えば過去の復号映像D(2t−2)を読み出す。
時間外挿部42は、複数時点の復号映像D(2t)等(例えば、復号映像D(2t),D(2t−2))に基づいて、時間外挿の時間補間処理を行う。そして、時間外挿部42は、時刻2t+1の時点に相当するフレームの予測値を生成し、予測値を予測画像P(2t+1)として減算部15に出力する。時間外挿部42の詳細については後述する。
これにより、複数時点の偶数フレームの復号映像D(2t)等から、時刻2t+1における奇数フレームの復号映像D(2t+1)に対応する予測画像P(2t+1)が生成される。
尚、第一映像符号化部12及び第一映像復号部13において遅延時間αを生じ、時間外挿部42において遅延時間γを生じる場合には、時間外挿部42は、予測画像P(2(t−d)+1)を減算部15に出力する。遅延時間d=α+γである。遅延時間α,γは0以上の整数とする。
第一映像符号化部12、第一映像復号部13及び時間外挿部42において遅延時間dを生じる場合、映像符号化装置3は、時間分割部41と減算部15との間に遅延部を備える。遅延部は、時間分割部41から第二出力F(2t+1)を入力し、第二出力F(2t+1)を遅延時間dだけ遅延させ、第二出力F(2(t−d)+1)を減算部15に出力する。これにより、減算部15において、時間外挿部42から入力する予測画像P(2(t−d)+1)と遅延部から入力する第二出力F(2(t−d)+1)とを時間同期させることができる。
減算部15は、時間分割部41から第二出力F(2t+1)を入力すると共に、時間外挿部42から予測画像P(2t+1)を入力する。減算部15は、図1に示した減算部15(入出力信号の時刻は2t−1である。)と比較すると、第二出力F(2t+1)及び予測画像P(2t+1)の時刻が2時点進んでいる以外は同一であるから、ここでは説明を省略する。減算部15は、予測残差画像E(2t+1)を第二映像符号化部16に出力する。
第二映像符号化部16は、減算部15から予測残差画像E(2t+1)を入力する。第二映像符号化部16は、図1に示した第二映像符号化部16(入出力信号の時刻は2t−1である。)と比較して、予測残差画像E(2t+1)の時刻が2時点進んでいる以外は同一であるから、ここでは説明を省略する。第二映像符号化部16は、第二ストリームB(2t+1)を、後述する映像復号装置4へ出力する。
(時間外挿部42)
次に、図7に示した時間外挿部42について詳細に説明する。前述のとおり、時間外挿部42は、複数時点の復号映像D(2t)等(例えば、復号映像D(2t),D(2t−2))に基づいて、時間外挿の時間補間処理を行い、時刻2t+1の予測画像P(2t+1)を生成する。
(動き補償予測による時間外挿)
以下、図7に示した時間外挿部42について、動き補償予測による時間外挿を行う場合を説明する。動き補償予測による時間外挿を行う時間外挿部42は、時刻2tの復号映像D(2t)及び時刻2t−2の復号映像D(2t−2)に基づいて、時刻2t+1のフレームを基準とした動きベクトル[U,V]を算出する。そして、時間外挿部42は、復号映像D(2t)及び/または復号映像D(2t−2)と、動きベクトル[U,V]とに基づいて、時刻2t+1の予測画像P(2t+1)を求める。
図8は、動き補償予測による時間外挿を行う時間外挿部42の入出力を説明する図である。図8に示すように、動き補償予測による時間外挿を行う時間外挿部42により、時刻2tの復号映像D(2t)及び時刻2t−2の復号映像D(2t−2)が入力され、時刻2tから1時点(1フレーム)進んだ時刻2t+1の予測画像P(2t+1)が出力される。
図9は、実施例2において、動き補償予測による時間外挿を行う時間外挿部42の構成例を示すブロック図である。この時間外挿部42は、遅延部43、動き推定部44及び動き補償部45を備えている。遅延部43は、図2に示した遅延部31及び図4に示した遅延部33と同一であるから、ここでは説明を省略する。
動き推定部44は、第一映像復号部13から復号映像D(2t)を入力すると共に、遅延部43から復号映像D(2t−2)を入力する。そして、動き推定部44は、時刻2tの復号映像D(2t)及び時刻2t−2の復号映像D(2t−2)に基づいて、時刻2t+1のフレームを基準とした画像全体または部分画像領域毎の動きベクトル[U,V]を算出する。動き推定部44は、動きベクトル[U,V]を動き補償部45に出力する。
例えば、動き推定部44は、復号映像D(2t)及び復号映像D(2t−2)に基づいて、以下の式にて、ブロックマッチングにより動きベクトル[U(2t+1,x,y),V(2t+1,x,y)]を算出する。具体的には、動き推定部44は、時刻2t+1のフレーム上の画像座標[x,y]を起点として直線を伸ばした復号映像D(2t),D(2t−2)上に部分領域対のマッチングをとり、画素値の誤差の最小値を演算することで、動きベクトル[U(2t+1,x,y),V(2t+1,x,y)]を求める。
Figure 2019097076
動きベクトル[U(2t+1,x,y),V(2t+1,x,y)]は、時刻2t+1のフレームにおける画像座標[x,y]の動きベクトルである。前述のとおり、関数Q(X,Y)は、XとYとの間の誤差を評価する関数である。また、領域Bはブロックの形状と大きさを定義し、領域Sは探索領域を定義する。
図10は、動きベクトル[U,V]を説明する図である。図10に示すように、復号映像D(2t)の時刻2tから1時点進めた時刻2t+1に、仮想的に時刻2t+1のフレーム(以下、仮想フレームという。)を想定する。
前記式(16)の演算は、仮想フレーム上の画像座標[x,y]が相対的に復号映像D(2t)のどこに対応するかを示す動きベクトル[U(2t+1,x,y),V(2t+1,x,y)]を求めるものである。図10に示すように、仮想フレーム上の画像座標[x,y]を起点として復号映像D(2t),D(2t−2)へ直線を伸ばした場合に、復号映像D(2t),D(2t−2)上に部分領域対(図10のb1,b2)がとられる。この部分領域対における画素値の誤差の最小値を演算することで、動きベクトル[U,V]が求められる。
尚、動き推定部44は、前記式(16)の演算を、一部の画像座標[x,y]のみに行うようにしてもよい。この場合、動き推定部44は、一部の画像座標[x1,y1]について前記式(16)の演算を行い、動きベクトル[U,V]を算出し、一部の画像座標[x1,y1]に対して当該演算結果の動きベクトル[U,V]を採用する。そして、動き推定部44は、前記式(16)の演算を行わなかった他の画像座標[x2,y2]に対して、最近傍の画像座標[x1,y1]における演算結果の動きベクトル[U,V]を採用する。
図9に戻って、動き補償部45は、第一映像復号部13から復号映像D(2t)を入力すると共に、遅延部43から復号映像D(2t−2)を入力し、さらに動き推定部44から動きベクトル[U,V]を入力する。
動き補償部45は、復号映像D(2t)及び/または復号映像D(2t−2)と、動きベクトル[U,V]とに基づいて、予測画像P(2t+1)を生成し、予測画像P(2t+1)を減算部15に出力する。
例えば、動き補償部45は、復号映像D(2t)及び動きベクトル[U,V]を用いる場合には、以下の式にて、予測画像P(2t+1)を生成する。
Figure 2019097076
また、他の例として、動き補償部45は、復号映像D(2t−2)及び動きベクトル[U,V]を用いる場合には、以下の式にて、予測画像P(2t+1)を生成する。
Figure 2019097076
また、他の例として、動き補償部45は、復号映像D(2t),D(2t−2)及び動きベクトル[U,V]を用いる場合には、以下の式にて、予測画像P(2t+1)を生成する。
Figure 2019097076
sは0<s<1なる実定数であり、好ましくは0<s≦0.5である。例えば、s=0.25とする。
このように、図9に示した時間外挿部42は、偶数フレームの復号映像D(2t),D(2t−2)に基づいて、動きベクトル[U,V]を算出する。そして、時間外挿部42は、偶数フレームの復号映像D(2t)及び/または復号映像D(2t−2)と、動きベクトル[U,V]とに基づいて、奇数フレームの予測画像P(2t+1)を求めるようにした。
これにより、映像内の被写体の動きを考慮しているから、精度の高い予測画像P(2t+1)を得ることができ、入力映像Fが静止画像の場合に加え、動画像であったとしても、予測画像P(2t+1)は第二出力F(2t+1)に近くなる。そして、後段の減算部15により算出される予測残差画像E(2t+1)のエントロピーを低減することができ、さらに後段の第二映像符号化部16の符号化により生成される第二ストリームB(2t+1)のデータ量を低減することができる。したがって、符号化効率を向上させることができる。
以上のように、実施例2の映像符号化装置3によれば、時間分割部41は、入力映像Fを時間分割して第一出力F(2t)及び第二出力F(2t+1)を生成し、第一映像符号化部12は、第一出力F(2t)を符号化して第一ストリームB(2t)を出力する。
時間外挿部42は、第一ストリームB(2t)の復号映像D(2t)等に基づいて、外挿により予測画像P(2t+1)を生成する。そして、第二映像符号化部16は、第二出力F(2t+1)と予測画像P(2t+1)との間の残差である予測残差画像E(2t+1)を符号化して第二ストリームB(2t+1)を出力する。
これにより、入力映像Fの符号化伝送の際に、入力映像Fに対してフレームレートが1/2倍の第一出力F(2t)を符号化した第一ストリームB(2t)と、予測残差画像E(2t+1)を符号化した第二ストリームB(2t+1)とが出力される。
後述する映像復号装置4は、実施例1と同様に、第一ストリームB(2t)を入力することで、入力映像Fに対してフレームレートが1/2倍の視聴可能な絵柄の映像を復号することができる。また、第二映像符号化部16に対応する復号部(後述する第二映像復号部23)も備え、さらに時間外挿部42及び減算部15に対応する構成部(後述する時間外挿部46及び加算部24)も備えた後述する映像復号装置4は、第一ストリームB(2t)及び第二ストリームB(2t+1)を入力することで、元の入力映像Fを復号することができる。
したがって、第一ストリームB(2t)及び第二ストリームB(2t+1)により、第一ストリームB(2t)の符号化方式に対して互換性を保ちつつ、入力映像Fのフレームレート及びその1/2倍のフレームレートに対応する時間スケーラブルな符号化伝送を実現することができる。
また、実施例1と同様に、第二ストリームB(2t+1)の圧縮率を向上させることができる。つまり、第二ストリームB(2t+1)のデータ量が低減するから、ビットレートを低くして帯域を狭くすることができ、符号化効率を向上させることができる。
また、後述する映像復号装置4は、映像符号化装置3に備えた時間外挿部42と共通の構成部(後述する時間外挿部46)を備えることで、第一ストリームB(2t)及び第二ストリームB(2t+1)から元の映像を復号することができる。この場合、元の映像を復号するために、これらのストリーム以外にシグナリング(復号のためのパラメータの伝送)を必要としない。したがって、映像符号化装置3は、第一ストリームB(2t)及び第二ストリームB(2t+1)を出力すればよく、シグナリングが不要であるから、システムの簡素化を実現することができる。
また、実施例2の映像符号化装置3の時間外挿部42は、予測画像P(2t+1)を生成する際に、予測画像P(2t+1)の時刻2t+1に対して過去の復号映像D(2t),D(2t−2)を用いる。これに対し、実施例1の映像符号化装置1の時間内挿部14では、予測画像P(2t−1)を生成する際に、予測画像P(2t−1)の時刻2t−1に対して未来の復号映像D(2t)及び過去の復号映像D(2t−2)を用いる。このため、実施例2の映像符号化装置3では、予測画像P(2t+1)を生成する際に過去のデータのみが必要であるから、未来のデータも必要とする実施例1に比べ、時間合わせのためのバッファが不要となり、遅延が小さくなる。
(復号側/実施例2)
図11は、実施例2の映像復号装置4の構成例を示すブロック図である。この映像復号装置4は、第一映像復号部21、時間外挿部(予測部)46、第二映像復号部23、加算部24及び時間多重部47を備えている。映像復号装置4は、図7に示した映像符号化装置3から第一ストリームB(2t)及び第二ストリームB(2t+1)を入力し、復号処理及び時間多重処理を行い、復号映像を出力する。
第一映像復号部21は、図7に示した映像符号化装置3から第一ストリームB(2t)を入力する。第一映像復号部21は、図6に示した第一映像復号部21と同一であるから、ここでは説明を省略する。第一映像復号部21は、復号映像D(2t)を時間外挿部46及び時間多重部47に出力する。
時間外挿部46は、図7に示した時間外挿部42と同一であり、その構成等は図8〜図10に示したとおりであるから、ここでは説明を省略する。時間外挿部46は、複数時点の復号映像D(2t)等に基づいて、時間外挿により予測画像P(2t+1)を生成し、予測画像P(2t+1)を加算部24に出力する。
第二映像復号部23は、図7に示した映像符号化装置3から第二ストリームB(2t+1)を入力する。第二映像復号部23は、図6に示した第二映像復号部23(入出力信号の時刻は2t−1である。)と比較して、第二ストリームB(2t+1)及び復号残差画像G(2t+1)の時刻が2時点進んでいる以外は同一であるから、ここでは説明を省略する。第二映像復号部23は、復号残差画像G(2t+1)を加算部24に出力する。
加算部24は、時間外挿部46から予測画像P(2t+1)を入力すると共に、第二映像復号部23から復号残差画像G(2t+1)を入力する。加算部24は、図6に示した加算部24(入出力信号の時刻は2t−1である。)と比較して、予測画像P(2t+1)及び復号残差画像G(2t+1)の時刻が2時点進んでいる以外は同一であるから、ここでは説明を省略する。加算部24は、復号映像D(2t+1)を時間多重部47に出力する。
時間多重部47は、第一映像復号部21から復号映像D(2t)を入力すると共に、加算部24から復号映像D(2t+1)を入力する。そして、時間多重部47は、偶数フレームの復号映像D(2t)及び奇数フレームの復号映像D(2t+1)を時間方向に交互に配して多重化し、偶数フレーム及び奇数フレームを交互に順に並べた復号映像を生成し、復号映像を出力する。
以上のように、実施例2の映像復号装置4によれば、第一映像復号部21は、第一ストリームB(2t)を復号して復号映像D(2t)を生成し、第二映像復号部23は、第二ストリームB(2t+1)を復号して復号残差画像G(2t+1)を生成する。
時間外挿部46は、復号映像D(2t)等に基づいて、外挿により予測画像P(2t+1)を生成する。そして、時間多重部47は、復号映像D(2t)と、予測画像P(2t+1)及び復号残差画像G(2t+1)の加算結果である復号映像D(2t+1)とを時間多重し、元の映像を復号する。
これにより、第一ストリームB(2t)から、元の入力映像Fに対してフレームレートが1/2倍の視聴可能な絵柄の映像を復号することができる。また、第一ストリームB(2t)及び第二ストリームB(2t+1)から元の入力映像Fを復号することができる。
したがって、第一ストリームB(2t)及び第二ストリームB(2t+1)により、第一ストリームB(2t)の符号化方式に対して互換性を保ちつつ、入力映像Fのフレームレート及びその1/2倍のフレームレートに対応する時間スケーラブルな符号化伝送を実現することができる。例えば120Hz,60Hzの時間スケーラブルな符号化伝送を実現することができ、映像復号装置4において、120Hz,60Hzの映像をそれぞれ復号することができる。
また、実施例1と同様に、第二ストリームB(2t+1)のデータ量は少なくなり、ビットレートを低くして帯域を狭くすることができ、映像符号化装置3において符号化効率を向上させることができる。したがって、映像復号装置4は、圧縮率が高くデータ量の少ない第二ストリームB(2t+1)を入力するから、復号処理の負荷を低減することができる。
また、予測画像P(2t+1)は、第一ストリームB(2t)のみを用いて、当該ストリームを復号することで生成される。この場合、予測画像P(2t+1)を生成するために、当該ストリーム以外にシグナリングを受ける必要がない(復号のためのパラメータは必要ない)。したがって、映像復号装置4は、復号のために第一ストリームB(2t)及び第二ストリームB(2t+1)を入力すればよく、シグナリングを受ける必要がないから、システムの簡素化を実現することができる。
以上、実施例1,2を挙げて本発明を説明したが、本発明は前記実施例1,2に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、実施例1の映像符号化装置1の時間内挿部14及び映像復号装置2の時間内挿部22は、偶数フレームの復号映像D(2t)に基づいて、奇数フレームの予測画像P(2t−1)を生成するようにした。これに対し、時間内挿部14,22は、奇数フレームの復号映像D(2t−1)に基づいて、偶数フレームの予測画像P(2t)を生成するようにしてもよい。
この場合、映像符号化装置1の減算部15は、第一出力F(2t)から予測画像P(2t)を減算して予測残差画像E(2t)を生成する。そして、第一映像符号化部12は、予測残差画像E(2t)を符号化して第一ストリームB(2t)を生成し、第二映像符号化部16は、第二出力F(2t−1)を符号化して第二ストリームB(2t−1)を生成する。
また、実施例2の映像符号化装置3の時間外挿部42及び映像復号装置4の時間外挿部46は、偶数フレームの復号映像D(2t)に基づいて、奇数フレームの予測画像P(2t+1)を生成するようにした。これに対し、時間外挿部42,46は、奇数フレームの復号映像D(2t+1)に基づいて、偶数フレームの予測画像P(2t)を生成するようにしてもよい。
この場合、映像符号化装置3の減算部15は、第一出力F(2t)から予測画像P(2t)を減算して予測残差画像E(2t)を生成する。そして、第一映像符号化部12は、予測残差画像E(2t)を符号化して第一ストリームB(2t)を生成し、第二映像符号化部16は、第二出力F(2t+1)を符号化して第二ストリームB(2t+1)を生成する。一方で、実施例1,2の映像復号装置2,4は、偶数フレームの予測画像P(2t)を生成し、予測画像P(2t)に復号残差画像G(2t)を加算して復号映像D(2t)を生成するようにしてもよい。
また、実施例1の映像符号化装置1の時間内挿部14及び映像復号装置2の時間内挿部22は、2つの時系列の復号映像D(2t),D(2t−2)に基づいて、予測画像P(2t−1)を生成するようにした。これに対し、時間内挿部14,22は、3つ以上の時系列の復号映像D(2t),D(2t−2)等に基づいて、予測画像P(2t−1)を生成するようにしてもよい。
また、実施例2の映像符号化装置3の時間外挿部42及び映像復号装置4の時間外挿部46は、2つの時系列の復号映像D(2t),D(2t−2)に基づいて、予測画像P(2t+1)を生成するようにした。これに対し、時間外挿部42,46は、3つ以上の時系列の復号映像D(2t),D(2t−2)等に基づいて、予測画像P(2t+1)を生成するようにしてもよい。
また、実施例1の映像符号化装置1の時間内挿部14及び映像復号装置2の時間内挿部22は、復号映像D(2t),D(2t−2)に基づいた内挿により、予測画像P(2t−1)を生成するようにした。また、実施例2の映像符号化装置3の時間外挿部42及び映像復号装置4の時間外挿部46は、復号映像D(2t),D(2t−2)に基づいた外挿により、予測画像P(2t+1)を生成するようにした。これに対し、時間内挿部14,22及び時間外挿部42,46に代わる新たな時間内外挿部は、復号映像D(2t),D(2t−2)等に基づいた内挿及び外挿により、それぞれ予測画像P(2t−1),P(2t+1)を生成するようにしてもよい。
また、実施例1,2の映像符号化装置1,3は、入力映像Fを入力し、時間分割処理及び符号化処理等を行い、第一ストリームB(2t)及び第二ストリームB(2t−1),B(2t+1)をそれぞれ映像復号装置2,4へ出力するようにした。これに対し、映像符号化装置1,3は、入力映像Fに対して時間分割処理及び符号化処理等を行い、3つ以上の所定数のストリームを生成し、映像復号装置2,4へ出力するようにしてもよい。
この場合、実施例1,2の映像復号装置2,4は、3つ以上の所定数のストリームを入力し、復号処理及び時間多重処理等を行い、復号映像を出力する。これにより、例えば3つのストリームを用いることにより、120Hz,60Hz,30Hzの時間スケーラブルな符号化伝送を実現することができ、映像復号装置2,4において、120Hz,60Hz,30Hzの映像をそれぞれ復号することができる。
尚、本発明の実施例1の映像符号化装置1及び映像復号装置2、並びに実施例2の映像符号化装置3及び映像復号装置4のハードウェア構成としては、通常のコンピュータを使用することができる。映像符号化装置1,3及び映像復号装置2,4は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
映像符号化装置1に備えた時間分割部11、第一映像符号化部12、第一映像復号部13、時間内挿部14、減算部15及び第二映像符号化部16の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、映像復号装置2に備えた第一映像復号部21、時間内挿部22、第二映像復号部23、加算部24及び時間多重部25の各機能、映像符号化装置3に備えた時間分割部41、第一映像符号化部12、第一映像復号部13、時間外挿部42、減算部15及び第二映像符号化部16の各機能、並びに、映像復号装置4に備えた第一映像復号部21、時間外挿部46、第二映像復号部23、加算部24及び時間多重部47の各機能についても同様である。
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
1,3 映像符号化装置
2,4 映像復号装置
11,41 時間分割部
12 第一映像符号化部
13,21 第一映像復号部
14,22 時間内挿部(予測部)
42,46 時間外挿部(予測部)
15 減算部
16 第二映像符号化部
23 第二映像復号部
24 加算部
25,47 時間多重部
31,33,43 遅延部
32 平均部
34,44 動き推定部
35,45 動き補償部

Claims (6)

  1. 符号化対象の映像を偶数フレーム及び奇数フレームに時間方向に分割する時間分割部と、
    前記時間分割部により分割された前記偶数フレーム及び前記奇数フレームのうち一方のフレームを符号化し、第一ストリームを出力する第一映像符号化部と、
    前記第一映像符号化部により出力された前記第一ストリームを復号し、復号映像を生成する第一映像復号部と、
    前記第一映像復号部により生成された前記復号映像に基づいて、前記時間分割部により分割された前記偶数フレーム及び前記奇数フレームのうち他方のフレームに対応するフレームを、予測画像として生成する予測部と、
    前記時間分割部により分割された前記他方のフレームと前記予測部により生成された前記予測画像との間の残差を、予測残差画像として生成する減算部と、
    前記減算部により生成された前記予測残差画像を符号化し、第二ストリームを出力する第二映像符号化部と、
    を備えたことを特徴とする映像符号化装置。
  2. 請求項1に記載の映像符号化装置において、
    前記予測部は、
    前記第一映像復号部により生成された前記復号映像における時系列の複数のフレームに基づいて、画素毎に平均値を算出し、前記予測画像を生成する、ことを特徴とする映像符号化装置。
  3. 請求項1に記載の映像符号化装置において、
    前記予測部は、
    前記第一映像復号部により生成された前記復号映像における時系列の複数のフレームに基づいて、動きを推定して動きベクトルを求め、前記複数のフレームのうち1以上のフレーム及び前記動きベクトルに基づいて、前記予測画像を生成する、ことを特徴とする映像符号化装置。
  4. 映像が符号化された第一ストリーム及び第二ストリームを入力し、前記第一ストリーム及び前記第二ストリームを復号する映像復号装置において、
    前記第一ストリームを復号し、前記映像の偶数フレーム及び奇数フレームのうち一方のフレームの復号映像を、第一復号映像として生成する第一映像復号部と、
    前記第一映像復号部により生成された前記第一復号映像に基づいて、前記偶数フレーム及び前記奇数フレームのうち他方のフレームに対応するフレームを、予測画像として生成する予測部と、
    前記第二ストリームを復号し、前記他方のフレームに対応する復号残差画像を生成する第二映像復号部と、
    前記予測部により生成された前記予測画像に、前記第二映像復号部により生成された前記復号残差画像を加算し、第二復号映像を生成する加算部と、
    前記第一映像復号部により生成された前記第一復号映像及び前記加算部により生成された前記第二復号映像を時間多重する時間多重部と、
    を備えたことを特徴とする映像復号装置。
  5. 請求項4に記載の映像復号装置において、
    前記予測部は、
    前記第一映像復号部により生成された前記第一復号映像における時系列の複数のフレームに基づいて、画素毎に平均値を算出し、前記予測画像を生成する、ことを特徴とする映像復号装置。
  6. 請求項4に記載の映像復号装置において、
    前記予測部は、
    前記第一映像復号部により生成された前記第一復号映像における時系列の複数のフレームに基づいて、動きを推定して動きベクトルを求め、前記複数のフレームのうち1以上のフレーム及び前記動きベクトルに基づいて、前記予測画像を生成する、ことを特徴とする映像復号装置。
JP2017226151A 2017-11-24 2017-11-24 映像符号化装置及び映像復号装置 Pending JP2019097076A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017226151A JP2019097076A (ja) 2017-11-24 2017-11-24 映像符号化装置及び映像復号装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017226151A JP2019097076A (ja) 2017-11-24 2017-11-24 映像符号化装置及び映像復号装置

Publications (1)

Publication Number Publication Date
JP2019097076A true JP2019097076A (ja) 2019-06-20

Family

ID=66973182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017226151A Pending JP2019097076A (ja) 2017-11-24 2017-11-24 映像符号化装置及び映像復号装置

Country Status (1)

Country Link
JP (1) JP2019097076A (ja)

Similar Documents

Publication Publication Date Title
JP6633694B2 (ja) 多視点信号コーデック
JP4195011B2 (ja) 立体ビデオの符号化及び復号化方法、符号化及び復号化装置
US7899115B2 (en) Method for scalably encoding and decoding video signal
KR101442608B1 (ko) 영상을 효율적으로 부호화/복호화하는 방법 및 장치
JP2014171097A (ja) 符号化装置、符号化方法、復号装置、および、復号方法
JP2008278547A (ja) 順方向予測インターレース映像フレームのフィールド用の動きベクトルの予測
KR20060088461A (ko) 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
JPWO2011046008A1 (ja) 動画像符号化装置、および、動画像復号装置
JP2005510984A (ja) デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化
KR20120095611A (ko) 다시점 비디오 부호화/복호화 방법 및 장치
US9036918B2 (en) Image processing apparatus and image processing method
KR101423655B1 (ko) 필드 픽쳐 부호화/복호화 장치 및 그 방법
US20120195381A1 (en) Image processing apparatus and method for processing image
US20060120459A1 (en) Method for coding vector refinement information required to use motion vectors in base layer pictures when encoding video signal and method for decoding video data using such coded vector refinement information
KR101445791B1 (ko) 움직임 벡터 변환을 이용한 비월 주사 영상 부호화/복호화방법 및 장치
KR20060069227A (ko) 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
KR100587952B1 (ko) 좌우영상의 비대칭적 크기로의 축소에 의한 보상을 수행하는 영상 부호화/복호화 장치 및 그 방법
JP2019097076A (ja) 映像符号化装置及び映像復号装置
JP2014140108A (ja) 画像処理装置、画像符号化装置及び画像処理方法
KR20060059770A (ko) 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
JP2002010267A (ja) 動きベクトル変換装置及び方法
JP4556286B2 (ja) 動きベクトル変換装置及び方法
JP5742048B2 (ja) カラー動画像構造変換方法及びカラー動画像構造変換装置
JP6099104B2 (ja) カラー動画像構造変換方法及びカラー動画像構造変換装置
JP2001309389A (ja) 動きベクトル変換装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211227