JP4764706B2 - 動画像変換装置 - Google Patents

動画像変換装置 Download PDF

Info

Publication number
JP4764706B2
JP4764706B2 JP2005341009A JP2005341009A JP4764706B2 JP 4764706 B2 JP4764706 B2 JP 4764706B2 JP 2005341009 A JP2005341009 A JP 2005341009A JP 2005341009 A JP2005341009 A JP 2005341009A JP 4764706 B2 JP4764706 B2 JP 4764706B2
Authority
JP
Japan
Prior art keywords
motion
motion vector
picture
block
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005341009A
Other languages
English (en)
Other versions
JP2006186979A (ja
Inventor
浩 池田
昌樹 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2005341009A priority Critical patent/JP4764706B2/ja
Publication of JP2006186979A publication Critical patent/JP2006186979A/ja
Application granted granted Critical
Publication of JP4764706B2 publication Critical patent/JP4764706B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、符号化された動画像の符号列を変換する動画像変換装置に関し、特に、異なる動き補償予測方式で符号化された動画像の符号列への変換における変換効率の向上に関する。
近年、動画像のデジタル化が進み、動画像がデジタルデータとしてネット等で伝送され、媒体に記録されるようになっている。
これら動画像の色、精細さ、動きの滑らかさ等の要求を満たす為に、そのデータ量は増大しており、通信回線が高速化し蓄積媒体も大容量化してはいるものの、動画像データの圧縮技術が求められた。
そこで、例えば、現行テレビからハイビジョンまでのテレビジョン放送等の高画質の実現を目標としたMPEG−2規格、モバイルやインターネットでの利用の為に高圧縮率の実現を目標とするMPEG−4規格などの符号化圧縮方式が開発された。
これらは、それぞれの特徴に応じた用途を有するが、利用者にとっては、相互に動画像を変換できることが望まれる。例えば、MPEG−2規格で録画したテレビ番組をMPEG−4規格のデータに変換して携帯再生装置で見ること等が可能となるからである。
通常、これらのデータ変換は、変換前のデータ、例えばMPEG−2規格で符号化されたデータを一旦完全に復号し、その復号された動画像を変換後のデータ形式、例えばMPEG−4規格で再度符号化することで行われる。
しかし、この変換方法は、従来からある符号化装置と復号装置とをつなげることで実現できるという利点はあるものの、基本的に動画像の再生時間分の時間がかかってしまうため、HDD(Hard Disk Drive)からDVD(Digital Versatile Disk)などへの高速ダビングに慣れているユーザにとっては利便性が大幅に劣ることになる。
そこで、変換前の符号化データの一部を再利用することでデータ変換の時間の短縮化が図られた。
この変換方法は、変換前後の符号化処理が基本的に同じであることが前提となり、例えば、MPEG−2から、その上位規格のMPEG−4へのデータ変換では動きベクトルの再利用がなされ、動きベクトル探索処理にかかる処理時間のカットにより、変換時間の大幅な短縮化が図られた。
しかし、その逆、すなわちMPEG−4からMPEG−2へのデータ変換では、動きベクトルの再利用が出来ない場合が生じ得る。
というのは、MPEG−2では、その上位規格のMPEG−4がサポートしているブロックサイズや動きベクトル等に関する仕様の全てをサポートしているわけではないからである。具体的には、MPEG−2でサポートしているブロックサイズは16画素×16画素のみであるが、MPEG−4では、加えて8画素×8画素のブロックをサポートしている。さらに、MPEG−2では、動きベクトルが1/2画素精度までしか認められていないが、MPEG−4では1/4画素精度まで認められている。
これらの違いを解決してデータ変換を行う技術が開発されている(特許文献1)。解決方法を簡単に説明すると、8画素×8画素ブロック4つから得られる4つの動きベクトルから、対応する16画素×16画素ブロックの1つの動きベクトルを算出し、また、1/4画素精度での動きベクトルの近傍で再探索を行い、1/2画素精度での動きベクトルを求め利用することで、データ変換を実現している。
最近、これらのMPEG−2規格、MPEG−4規格に加え、これらと符号化処理が基本的に同じであるMPEG−4/AVC規格(非特許文献1)が新たに標準化された。
このMPEG−4/AVC規格は、MPEG−2が対象とするテレビジョン放送などからMPEG−4が対象とするモバイルやインターネットでも適用でき、QCIF(Quarter CIF:180画素×144ライン)〜HD(High Definition:1920画素×1080ライン)サイズの画像までを取り扱うことが可能なスケーラブルな規格であり、加えて、他の規格に比べて極めて高い圧縮率を実現する規格である。
従って、MPEG−4/AVC規格が普及すれば、従来のDVD等の製品と高い親和性を誇るMPEG−2規格、MPEG−4規格との間での動画像変換装置の需要が高まることが予測される。
特開平11−275592 ITU−T H.264規格書
しかし、MPEG−4/AVC規格は、その仕様がMPEG−4と異なる部分があるため、上記技術を持ってしてもMPEG−4/AVCからMPEG−2へのデータ変換を行うことが出来ず、変換処理の時間を短縮することができない。
そこで、本発明は、MPEG−4/AVC規格からMPEG−2規格、MPEG−4/AVC規格からMPEG−4規格等といった異なる符号化方式間でのデータ変換を短時間で行うことが出来る動画像変換装置の提供を目的とする。
上記目的を達成するために、本発明に係る動画変換装置は、第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画像変換装置であって、第1動画像データに含まれるブロックの1以上の動きベクトルの中から、そのブロックの第2の動き補償予測方式における動きベクトルとなるべき条件を満たす動きベクトルを選出する選出手段と、第2の動き補償予測方式に従った符号化を行う符号化手段であって、前記選出手段により選出された各動きベクトルを用いてブロックの符号化を行う符号化手段とを備えることを特徴とする。
上記構成の動画変換装置は、変換前の符号化方式で符号化されたブロックの動きベクトルが、変換後の符号化方式での条件に合致するとして選ばれた場合には、変換前の動きベクトルを用いて変換後の符号化方式で符号化を行うので、従来のような動き探索により動きベクトルを求める必要がなくなり、データ変換の処理時間を短縮することができるようになる。
また、前記符号化手段は、前記選出された各動きベクトルを用いた符号化においては、動き探索により特定した動きベクトルを用いる代わりに、前記選出された各動きベクトルをそのまま用いて符号化を行うこととしてもよい。
これにより、動き探索をまったく行わずに、変換前の動きベクトルをそのまま用いる事ができるので、変換処理にかかる時間を大幅に短縮する事が出来るようになる。
また、前記符号化手段は、前記選出された各動きベクトルを用いた符号化においては、各動きベクトルが指す参照画像上の位置を基準とする所定の探索範囲であって、当該動きベクトルが示す参照ブロックを含む探索範囲について動き探索を行い、当該動きベクトルを用いる代わりに、動き探索の結果得られる動きベクトルを用いてブロックの符号化を行うこととしてもよい。
これにより、変換前の動きベクトルを基準とする所定の探索範囲のみを探索して動きベクトルを求めるので、動きベクトルに頼らずに、広範囲から探索を行う従来の場合と比べて、探索範囲を絞り込むことができて、探索にかかる計算量を少なくすることができ、変換処理にかかる時間を大幅に短縮する事が出来るようになる。
また、前記選出手段が選出する動きベクトルが満たすべき条件は、ブロックの参照画像の符号化タイプを制限するものであり、前記選出手段は、前記条件を満たす動きベクトルを選出することとしてもよい。
また、前記選出手段が選出する動きベクトルが満たすべき条件は、ブロックの参照画像の符号化タイプを制限するものであり、前記選出手段は、第1動画像データに含まれるブロックの動きベクトルの参照画像が前記条件を満たさない場合には、その参照画像を前記条件を満たす参照画像に替えて、その動きベクトルを選出することとしてもよい。
これにより、変換前の動きベクトルをそのまま用いて、変換後の符号化方式において参照が許される参照画像にある参照ブロックを予測信号として用いる、また、変換後の符号化方式において参照が許される別の参照画像にある参照ブロックを予測信号として用いるので、動きベクトル探索のための計算が不要となり、処理時間を短縮することができるようになる。
また、前記符号化手段は、前記選出された各動きベクトルを用いた符号化においては、各動きベクトルが指す参照画像上の位置を基準とする所定の探索範囲であって、当該動きベクトルが示す参照ブロックを含む探索範囲について動き探索を行い、当該動きベクトルを用いる代わりに、動き探索の結果得られる動きベクトルを用いてブロックの符号化を行うこととしてもよい。
これにより、参照が許される別の参照画像上で、変換前の第1動画像中の動きベクトルを基準とする所定の探索範囲を探索して動きベクトルを求めるので、一から動きベクトルを探索する場合よりも探索範囲を絞りこむことができ、処理時間を短縮することができる。
また、前記選出手段が選出する動きベクトルが満たすべき条件は、ブロックの動きベクトルが1つである場合は、その動きベクトルの参照画像は当該ブロックの含まれる画像より前に表示される画像であることであり、前記選出手段は、第1動画像データに含まれるブロックの動きベクトルの1つが前記条件を満たす場合には、その動きベクトルを選出することとしてもよい。
また、前記選出手段が選出する動きベクトルが満たすべき条件は、ブロックの動きベクトルが2つである場合には、そのうちの1の動きベクトルの参照画像は当該ブロックの含まれる画像より前に表示される画像であることであり、他の動きベクトルの参照画像は当該ブロックの含まれる画像より後に表示される画像であることであり、前記選出手段は、第1動画像データに含まれるブロックの動きベクトルの2つが前記条件を満たす場合には、その2つの動きベクトルを選出することとしてもよい。
また、前記選出手段が選出する動きベクトルが満たすべき条件は、画像の表示順序において、ブロックが含まれる画像と当該ブロックの参照画像との間に表示される画像の符号化タイプが所定のタイプであることであり、前記選出手段は、第1動画像データに含まれるブロックの動きベクトルの参照画像が前記条件を満たす場合には、その動きベクトルを選出することとしてもよい。
また、前記選出手段が選出する動きベクトルが満たすべき条件は、ブロックの参照画像が、当該ブロックの含まれる画像の表示から、表示時間順で最も近い過去のPピクチャ又はIピクチャの画像、あるいは最も近い将来のPピクチャ又はIピクチャの画像、あるいは当該ブロックの含まれる画像であることであり、前記選出手段は、第1動画像データに含まれるブロックの動きベクトルの参照画像が前記条件を満たす場合には、その動きベクトルを選出することとしてもよい。
また、第1動画像データに含まれるブロックの動きベクトルの数が2つであり、 前記選出手段は、前記条件を満たす動きベクトルを1つだけ選出した場合、前記符号化手段は、当該1つの動きベクトルを用いてブロックの符号化を行うとともに、当該ブロックの動き予測のタイプを示す情報を、2つの動きベクトルを用いる動き予測のタイプから1つの動きベクトルを用いる動き予測のタイプに変更することとしてもよい。
また、前記条件は、ブロックの参照ブロックが、当該参照ブロックの含まれる参照画像内にすべて存在することであり、前記選出手段は、第1動画像データに含まれるブロックの動きベクトルの参照ブロックが前記条件を満たす場合には、その動きベクトルを選出することとしてもよい。
また、前記選出手段は、選出されなかった動きベクトルのうち、その動きベクトルを補正することによって補正後の動きベクトルの参照ブロックが参照画像内に存在することとなる場合には、当該補正後の動きベクトルを選出することとしてもよい。
これにより、変換前の動きベクトルのうち、変換後の符号化方式に適合する動きベクトルを選べるので、選んだ動きベクトルを再利用して符号化することが出来るようになる。
また、第1の動き補償予測方式は、MPEG4−AVC規格に則ったものであることとしてもよい。
これにより、MPEG−4/AVC規格で符号化したデータを、他の規格で符号化したデータの形式と同じ形式に変換することができる。
また、第2の動き補償予測方式は、MPEG2規格又はMPEG4規格に則ったものであることとしてもよい。
これにより、MPEG−4/AVC規格などの規格で符号化したデータを、MPEG−2規格で符号化したデータの形式と同じ形式に変換することができる。
また、第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画像変換方法は、第1動画像データに含まれるブロックの1以上の動きベクトルの中から、そのブロックの第2の動き補償予測方式における動きベクトルとなるべき条件を満たす動きベクトルを選出する選出ステップと、第2の動き補償予測方式に従った符号化を行う符号化ステップであって、前記選出ステップにより選出された各動きベクトルを用いてブロックの符号化を行う符号化ステップとを含むことを特徴とする。
また、コンピュータプログラムを実行可能な装置に、第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画変換処理を行わせるためのコンピュータプログラムは、第1動画像データに含まれるブロックの1以上の動きベクトルの中から、そのブロックの第2の動き補償予測方式における動きベクトルとなるべき条件を満たす動きベクトルを選出する選出ステップと、第2の動き補償予測方式に従った符号化を行う符号化ステップであって、前記選出ステップにより選出された各動きベクトルを用いてブロックの符号化を行う符号化ステップとを含むことを特徴とする。
また、コンピュータプログラムを記録したコンピュータ読取可能な記録媒体であって、前記コンピュータプログラムは、コンピュータプログラムを実行可能な装置に、第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画変換処理を行わせるためのコンピュータプログラムであって、第1動画像データに含まれるブロックの1以上の動きベクトルの中から、そのブロックの第2の動き補償予測方式における動きベクトルとなるべき条件を満たす動きベクトルを選出する選出ステップと、第2の動き補償予測方式に従った符号化を行う符号化ステップであって、前記選出ステップにより選出された各動きベクトルを用いてブロックの符号化を行う符号化ステップとを含むことを特徴とする。
また、第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画像変換装置の集積回路は、第1動画像データに含まれるブロックの1以上の動きベクトルの中から、そのブロックの第2の動き補償予測方式における動きベクトルとなるべき条件を満たす動きベクトルを選出する選出手段と、第2の動き補償予測方式に従った符号化を行う符号化手段であって、前記選出手段により選出された各動きベクトルを用いてブロックの符号化を行う符号化手段と を備えることを特徴とする。
<実施形態1>
<概要>
本発明にかかる動画像変換装置は、MPEG−4/AVC規格で符号化されたデータを、MPEG−2規格で符号化したデータの形式に変換する装置であり、この変換の際に動きベクトルを再利用することを特徴としている。これらの符号化方式は、動き補償予測方式であるという点で符号化の基本を同じくすることから、符号化データの共通の構成要素である動きベクトルの再利用を行う。
MPEG符号化処理においては、動きベクトル探索処理量が非常に大きくなるという特徴があることから、動きベクトル探索処理を減らすことは、符号化処理時間の大幅な短縮となり、利便性が大きく向上することになる。
まず、ここで、MPEG−4/AVC規格とMPEG−2規格の動きベクトルの相違について図23〜図26を用いて説明しておく。
<MPEG−4/AVC規格とMPEG2規格の相違>
MPEG−4/AVCとMPEG−2のビデオストリームについて、図を用いて簡単に説明する。これらのビデオストリームは、基本的に同じ形をしている。
<ビデオストリーム>
図23は、ビデオストリームのデータ構造を示す図である。
ビデオストリームは、画像の空間周波数成分に基づいて圧縮されており、画面上の数画素を一つの圧縮単位としている。その圧縮単位をマクロブロックといい、画面は複数のマクロブロックで構成される。図24は、1画面が(0,0)〜(i,j)のマクロブロックで構成されている図である。
このマクロブロックは、例えば、縦16画素×横16画素からなり、復号時にも1個単位で復号処理がなされる。
図23の第1段目は、ビデオストリームの構成を示す。
ビデオストリームは、複数のGOP(Group of Picture)で、構成され(1段目の図参照)、GOPは、Iピクチャ、Bピクチャ、Pピクチャという3つのタイプのピクチャデータ(図中のI,P,B)を1以上含み、先頭には必ずIピクチャが存在する(2段目の図参照)。
さらに、各ピクチャデータは、ピクチャヘッダと、複数のスライスから構成され(3段目の図参照)、ピクチャヘッダにはピクチャタイプが含まれる。このピクチャタイプは、ピクチャデータがIピクチャであるか、Bピクチャ、Pピクチャであるかを示す。
ただし、MPEG−4/AVCでは、ピクチャタイプそのものが入っているのではなく、ピクチャに含まれるスライスタイプが入っており、それらのスライスタイプからピクチャタイプを求めることになる。
スライスは、スライスヘッダと、複数のマクロブロックとを有し(4段目の図参照)、スライスヘッダにはスライスタイプが含まれる。このスライスタイプは、スライスデータがIスライスであるか、Bスライス、Pスライスであるかを示す。
ただし、このスライスタイプは、MPEG−4/AVCのデータにのみ存在する。すなわち、MPEG−4/AVCでは、ピクチャに複数タイプのスライスが存在するが、MPEG−2では、1種類のスライスタイプのみが存在する。
次に、マクロブロック2300は、マクロブロックタイプ2310、動き情報2320および画面間予測誤差2330とで構成される。
マクロブロックタイプは、このマクロブロックが画面間予測が必要なものか否か、また、1方向参照なのか2方向参照なのか等の情報を表すものであり、このタイプによって動き情報の形式も異なることになる。
動き情報は、参照するピクチャを特定する参照ピクチャ2321と、動きベクトル2322とで構成される。
図では、2方向参照の動き情報の例を示している。「ref.idx0」と「ref.idx1」とは、参照ピクチャを示す番号であり、「mv0」と「mv1」とは、参照ピクチャそれぞれにおける動きベクトルを表す。
ただし、この動き情報の例はMPEG−4/AVC規格におけるものであり、MPEG−2規格では、参照ピクチャを示す番号であるところの「ref.idx0」等は存在しない。MPEG−2では、参照可能なピクチャが決まっている為、データとして持っておく必要が無いからである。
本発明では、MPEG−4/AVCの動きベクトルを再利用して、MPEG−2の動きベクトルを作成するが、利用できる動きベクトルによっては、マクロブロックタイプや参照ピクチャが変更される。
画面間予測誤差2330は、参照画像と対象画像の差分を表す。
<I/P/Bピクチャ>
ここで、Iピクチャとは、自画面内の情報のみを用いた符号化により得られる画面であり、Pピクチャとは1画面との1方向予測符号化によって得られる画面であり、Bピクチャとは2画面との2方向予測符号化によって得られる画面をいう。
また、Iピクチャに含まれるマクロブロックはすべて、(1)自画面内の情報のみで得られるマクロブロックであり、Pピクチャに含まれるマクロブロックは(1)自画面内の情報のみで得られるマクロブロックと(2)1画面との1方向予測符号化によって得られるマクロブロックとで構成され、Bピクチャに含まれるマクロブロックは(1)自画面内の情報のみで得られるマクロブロックと(2)1画面との1方向予測符号化によって得られるマクロブロックと(3)2画面との2方向予測符号化によって得られる画面とで構成される。これらの種類を表すのが、マクロブロックタイプである(図23参照)。
このマクロブロックタイプのうち、MPEG−4/AVCとMPEG−2とでサポートしているものに違いがあるため、この違いを解消することが、本発明の目的ともいえる。これらの違いについては、以下の<動きベクトルの相違>で説明する。
また、MPEG−4/AVCでは、I/P/Bの各スライスも上述したピクチャと同じタイプのマクロブロックで構成され、IピクチャはIスライスのみ、PピクチャはIスライスとPスライスとで構成され、BピクチャはIスライスとPスライスとBスライスとで構成される。従って、MPEG−4/AVCのピクチャもMPEG−2のピクチャもそれぞれ同じタイプのマクロブロックを含む事となるため、本実施形態では、ピクチャで説明することとする。
尚、実際のMPEG−4/AVCではスライス単位で処理を行っていることから、スライス単位で本発明を実施してもよい。
<動きベクトルの相違>
MPEG−4/AVCとMPEG−2との動きベクトルの相違は、参照画像選択の自由度の違いである。MPEG−4/AVCでは圧縮率を上げるために参照画像の選択の幅を広げている。
図25は、MPEG−2の動きベクトル例を示したものであり、図25(a)は、Pピクチャの例であり、図25(b)は、Bピクチャの例である。図26は、MPEG−4/AVCの動きベクトル例を示したものであり、図26(a)と図26(b)はBピクチャの例である。これらの図において「I/P/B」等は、IピクチャまたはPピクチャまたはBピクチャ等を表すものとし、また、矢印は、参照ブロックの方から対象ブロックを指すものとする(図5等においても同様。)。
まず、Iピクチャは、時間方向の動き予測を行わずに自画面内だけで独立して符号化して得られることから、これらの規格間で変換は可能である。
ただし、MPEG−2のIピクチャを構成するマクロブロックは、すべて自マクロブロックのみで符号化が可能である(非参照)が、MPEG−4/AVCのIピクチャを構成するマクロブロックは、この非参照のマクロブロックのほかに、自画面内の他のマクロブロック(左上、上、右上、左)を参照して対象ブロックを符号化するマクロブロックがある(画面内予測)。
データ変換の際には、この画面内予測タイプのマクロブロックを非参照タイプのマクロブロックに変換する。この場合は対象のマクロブロックのみを符号化するだけでよいため、少ない処理時間で変換が可能である。
次に、Pピクチャ及びBピクチャに関しては、規格間で大きく3つの相違点がある。
1つは、参照画像とすることができるピクチャの種類が異なることであり、2つは、参照画像とできるピクチャの時間的距離であり、3つは、時間的方向である。
ピクチャの種類で言えば、MPEG−2は、IピクチャまたはPピクチャでなければならない(図25(a)参照)が、MPEG−4/AVCでは、Bピクチャも参照画像とすることが可能である(図26(a)参照)。
また、参照画像とできるピクチャの時間的距離としては、MPEG−2では、時間的に直近のピクチャに限られる。例えば、MPEG−2のPピクチャは、「最も近い過去のIピクチャあるいはPピクチャ」を参照画像とする必要がある(図25(a)参照)。
しかし、MPEG−4/AVCでは、Pピクチャの場合は、直近の16枚分のピクチャを参照画像とすることが可能であり、例えば、Bピクチャは、過去、将来のそれぞれ16枚分のピクチャを参照画像とすることが可能である(図26(a)参照)。
さらに、時間的方向の制約としては、MPEG−2のBピクチャでは、前方向及び後方に一枚ずつ参照画像を選択する必要がある。例えば、Bピクチャのブロックに対する動きベクトル2本のうち、1本は「時間順で最も近い過去のPピクチャあるいはIピクチャ」を参照画像とし、他の1本を「時間順で最も近い将来のPピクチャあるいはIピクチャ」を参照画像とする必要があった(図25(b)参照)。
しかし、MPEG−4/AVCでは、前方向から2枚、あるいは後方向から2枚を参照画像として選択することも可能である(図26(b)参照)。
これらの違いをマクロブロックタイプを基にまとめると、次のようになる。
尚、この表での「前方」とは、時間的に前方のピクチャを参照する前方参照を意味し、「後方」とは、時間的に後方のピクチャを参照する後方参照を意味するものとする。
Figure 0004764706
本発明は、これらの相違をふまえ、動きベクトルを再利用し、データの変換を行っている。
以下、本発明の実施形態における動画像変換装置について、図面を用いて説明する。
<機能>
図1は、動画像変換装置の構成を示すブロック図である。
同図において動画像変換装置100は、外部から入力されるMPEG−4/AVC形式の動画像をMPEG−2形式の動画像に変換して出力する装置であって、復号部10、符号化部20及び動きベクトル構成部30から構成される。
復号部10はMPEG−4/AVC形式の動画像データを入力とし、復号する。また、復号部20は、復号部10で復号された動画像を入力とし、MPEG−2形式の動画像データに符号化する。
ここでの復号部10は、各機能部は従来の復号装置と基本的に同じである。但し、本発明に特有の処理を行う為のデータの流れがあり(太線矢印)、これらについては、後述する動きベクトル構成部30の説明において述べる。
符号化部20は、従来の符号化部と比べ、動きベクトル探索を行う機能部がない点が特徴である。本発明が動きベクトルを再利用することを特徴とするため、従来のような動きベクトルの探索を行う必要がないからである。
その代わりに、動きベクトル構成部30が新たに設けられている。
動きベクトル構成部30は、MPEG−4/AVC形式の動画像に含まれる動きベクトル等が再利用できるかどうかを判定し、判定結果に応じて動き補償予測部28に再利用のためのデータや指示を送る。
以下、まず復号部10及び符号化部20の構成を簡単に説明し、続いて動きベクトル構成部30について説明する。
<復号部10>
復号部10は、可変長復号部11、逆量子化部12、逆直交変換部13、加算部14、フレームメモリ15及び動き補償部16から構成される。
可変長復号部11は、MPEG−4/AVC形式により符号化された動画像の符号列が外部より入力されると、可変長復号を行い、ピクチャタイプ、マクロブロックタイプ、動き情報、量子化係数等を分離する。
逆量子化部12及び逆直交変換部13は、分離されたブロック毎の量子化係数に対して逆量子化及び逆直交変換を行ってブロック毎の画素データを得る。
加算部14は、マクロブロックタイプが示す符号化の種類によって、ブロック毎の画素データをそのまま、あるいは動き補償部16からの予測信号を加えて出力する。
フレームメモリ15は、加算部14からの出力のうち、参照画像として用いるための画面に相当する画素データを蓄積する。
動き補償部16は、動き補償予測されたブロックについて、可変長復号部11から得られる動き情報とフレームメモリ15に蓄積された参照画像とから当該ブロックの予測信号を求め、その予測信号を加算部14に出力する。
フレームメモリ15に蓄積する画像データについては、後の<復号部10のフレームメモリ15の内容>で詳しく説明する。
<符号化部20>
符号化部20は、減算部21、直交変換部22、量子化部23、逆量子化部24、逆直交変換部25、加算部26、フレームメモリ27、動き補償予測部28及び可変長符号化部29から構成される。
減算部21は、加算部14から入力されるブロックの画素データをそのまま、あるいは動き補償予測部28からの予測信号との減算によって残差信号を出力する。
直交変換部22及び量子化部23は、減算部21からのブロックデータを直交変換及び量子化して出力する。
逆量子化部24、逆直交変換部25及び加算部27は、逆直交変換及び逆量子化及び予測信号の加算によりブロックの画素データを復元してフレームメモリ27に出力する。
フレームメモリ27は、復元されたブロックの画素データからなる参照画像を記憶保持する。
動き補償予測部28は、動き補償予測の対象のブロックについて、予測信号及び動きベクトルを求め、予測信号を減算部21と加算部26とに出力し、動きベクトルを可変長符号化部29へ出力する。
動き補償予測部28が動きベクトルを求める際の処理方法は、一般的には、動き探索により参照画像上から動きベクトルを求める方法である。
しかし、本発明では、その他に、動きベクトル構成部30により出力される動きベクトルをそのまま、あるいはその動きベクトルを基準とする周辺の画像を参照画像上から探索して求める方法によっても動きベクトルを求める。
可変長符号化部29は、量子化部23より出力されるブロックデータと動き補償予測部28より出力される動きベクトル及びマクロブロックタイプを可変長符号化し、その結果のMPEG−2形式の符号化列を出力する。
<復号部10のフレームメモリ15の内容>
次に、復号部10のフレームメモリ15に記憶されている参照画像について、図27と図28とを用いて説明する。
本実施形態では、動きベクトル構成部30で、動きベクトルが再利用するか否かを判定するが、フレームメモリ15は、その判定の際に必要な情報を記憶している。
図27は、フレームメモリ15に格納される画像の関係を示す図である。
図27(a)は、GOPに含まれる複数のピクチャを表す図であり、図27(b)は、ピクチャの表示順を表す図であり、図27(c)は、フレームメモリを表す図である。
GOP内のピクチャは、表示順ではなく、復号時に参照が可能な順に並んでいる。例えば、「B5」は「I1」「B3」を参照ピクチャとしているため、「I1」「B3」は「B5」より前に位置している(図27(a)参照)が、表示は「B5」が「B3」より前である(図27(b)参照)などである。
このGOP内のピクチャ順で復号されて、所定数のピクチャがフレームメモリに格納される。
例えば、所定数が6である場合には、6つのピクチャがフレームメモリに格納され、表示順序が管理される。また、「B5」が対象ピクチャである場合には、他のピクチャに参照ピクチャ番号が昇順に振られる(図27(b)参照)。
フレームメモリに格納されたピクチャは、後続のピクチャから参照されるピクチャである「参照ピクチャ」と、後続のピクチャでは参照されないが表示されるべき順序に並べ替えて表示されるタイミングまで一時的に格納される「非参照ピクチャ」とに分類される。例えば、B5は非参照ピクチャで、「I1」と「B3」は参照ピクチャである(図27(c)参照)。
参照ピクチャは、参照されなくなれば、非参照ピクチャとなり、表示すべき順序で順次表示されていく。
ここでのピクチャは、図24に示すような、復号された複数のマクロブロックで構成されており、これらの画像データのほか、管理用のデータも格納している。
図28は、フレームメモリに格納されている参照ピクチャの管理用データの例を示す図である。
図28(a)は、参照ピクチャリスト2800の例を表す図である。
この参照ピクチャリスト2800は、フレームメモリに格納されている参照ピクチャを管理するもので、フレームメモリに格納されているものとする。また、この参照ピクチャリスト2800の内容は、ピクチャが表示されたり、新しいピクチャが格納された時点で、更新される。
参照ピクチャリスト2800は、表示順序2801、ピクチャタイプ2802および格納アドレス2803で構成される。
表示順序2801は、対象ブロックが参照ピクチャ2321を特定するための識別番号である。例えば、図27(b)においては、「B5」に含まれるマクロブロックの参照ピクチャ2321は、「ref.idx0」が「1」、「ref.idx1」が「4」となる(図23参照)。
この参照番号は、対象ピクチャを基準として、表示順に昇順で振られており、対象ブロックの前方のピクチャか後方のピクチャかがわかる、所定の法則で振られているものとする。尚、この方法は、図27(b)の方法に限られない。
ピクチャタイプ2802は、このピクチャの符号化タイプを表し、ピクチャデータのピクチャタイプ(図23第3段目参照)が格納される。
アドレス2803は、画像データ(図24参照)が格納されているフレームメモリ内のアドレスを表す。
図28(b)は、マクロブロックアドレスリスト2820の例を示す図である。
マクロブロックを特定するマクロブロック位置2821と、そのブロックの画像データが格納されているフレームメモリ15内のアドレス2822とで構成される。通常、ピクチャの画像データは連続領域に格納されることから、格納アドレス2803があれば各マクロブロックのアドレスは求めることが可能であるが、本実施形態では、説明の便宜上、マクロブロックアドレスリスト2820を持っているものとする。
符号化部20のフレームメモリ27の内容もほぼ同じである。異なるのは、ピクチャタイプ2802を記憶していない点である。符号化においては、不要だからである。
<動きベクトル構成部30>
動きベクトル構成部30は、判定部31、プログラム記憶部32及び予測制御部33から構成される。
プログラム記憶部32は、動き補償予測部28の処理方法を決定するためのプログラムを予め記憶する。
判定部31は、プログラム記憶部32に記憶されているプログラムを実行することにより、動き補償予測部28に行わせるべき処理方法を決定し、決定した処理方法に応じた指示を予測制御部33に行わせる。予測制御部33は、決定された処理方法に応じて動き補償予測部28に指示を与える。
より具体的に言うと、判定部31は、動き情報2320を可変長復号部11から受信し、その中の動きベクトル2322(図23参照)と、参照ピクチャ2321のピクチャタイプ2802(図28参照)とを基に、新しい動き情報を作成し、符号化部10は、この新しい動き情報で符号化処理を行う。
ピクチャタイプ2802は、可変長復号部11から送られてフレームメモリ15に一旦格納されていたものから、該当するピクチャのピクチャタイプを取得する。
以下に動きベクトル構成部30の処理を詳しく説明する。
図2〜4は、プログラム記憶部32に記憶されるプログラムの手順を示すフローチャートである。各図中のA〜Eの記号は、結合子であり、図面間の同じ記号の結合子どうしが結合して1つのフローチャートを表している。
プログラムの内容は、簡単には、ステップ(1):MPEG−4/AVC形式の動画像におけるマクロブロックと、それに対応する参照画像との組み合わせの関係を特定し、ステップ(2):その関係がMPEG−2形式で規定されている関係についての条件に適合するかどうかを判定し、ステップ(3):判定結果に応じて動き補償予測部28に行わせるべき処理方法を決定する、というものである。図面との対応は、上記(1)が図2全体に対応し、上記(2)が図3のステップS301〜S304及び図4のステップS401〜S404に対応し、上記(3)が図3のステップS305〜S312及び図4のステップS405〜S410に対応する。
AUデリミタ(Access Unit Delimiter)とは、ピクチャの先頭に付されて、先頭位置を示すものである。このAUデリミタには、そのピクチャに含まれるスライスのスライスタイプを示す情報であるprimary_pic_typeが含まれる。これを利用して、判定部31は、可変長復号されたデータの中に、AUデリミタが存在する場合には、それに含まれるprimary_pic_typeを取得し、primary_pic_typeが示すスライスタイプからピクチャタイプを特定する。
スライスタイプは、スライス内のマクロブロックの符号化モードを限定するものである。より詳しくは、Pスライスは、画面内符号化及び参照ピクチャ1枚を用いた画面間予測符号化を行うスライスである。Bスライスは、画面内符号化及び参照ピクチャを1枚又は2枚用いた画面間予測符号化を行うスライスである。Iスライスは、画面内符号化のみを行うスライスである。MPEG−4/AVCでは、スライス毎にスライスの種類を示すスライスタイプが付され、1つのピクチャ内に単一又は複数のスライスタイプが含まれる。そこで、判定部31は、ピクチャ内の全てのスライスが同一のスライスタイプであれば、そのスライスタイプをピクチャタイプとする。例えば、すべてのスライスがPスライスであれば、そのピクチャをPピクチャと特定し、すべてのスライスがIスライスであれば、そのピクチャをIピクチャと特定する。
ピクチャに複数のスライスが混在する場合には、判定部31は、Bスライスが含まれている場合にはBピクチャと特定し、Bスライスが含まれずにPスライスが含まれている場合にはPピクチャと特定する。例えば、ピクチャにI、P、Bスライスが含まれている場合、判定部31は、Bスライスが含まれていることにより、Bピクチャと特定する。I、Pスライスが含まれており、Bスライスが含まれていない場合には、Pスライスが含まれていることによりPピクチャと特定する。
ピクチャタイプの特定は、上記の方法に限らない。例えば、判定部31は、可変長復号部11により分離される各種データのうち、ピクチャ内の各スライスからスライスタイプを取得して取得されたスライスタイプからピクチャタイプを特定してもよい。このとき、ピクチャ内の全てのスライスタイプを取得する必要はなく、ピクチャ内のスライスタイプを順次取得する過程で1つでもBスライスがあれば、Bピクチャと特定するよう構成してもよい。
このようにしてピクチャタイプを特定すると、次に判定部31は、ステップS202、S205、S206において、可変長復号により分離された符号化情報から、対象ブロックのマクロブロック2300(図23参照)を取得し、マクロブロックタイプ2310あるいはサブマクロブロックタイプを取得してそれらに示されている予測モードを判断する。
ピクチャの先頭でピクチャタイプを判断したら、その後はAUデリミタが現れるまで、そのピクチャタイプの特定は行わない。
まず、対象ブロックがPピクチャであるか否か(ステップS201)、Bピクチャであるか否か(ステップS204)を判断し、対象ブロックが含まれるピクチャのピクチャタイプ「I/P/B」を振り分ける。
Iピクチャである場合には(ステップS204:NO)、再利用する動きベクトルは存在しないため、動きベクトルを利用しない処理に移る(D)
Pピクチャである場合(ステップS201:YES)には、予測モードが画面間予測であるか否か(ステップS202)を判断し、画面間予測であれば(ステップS202:YES)、フレームメモリ15から動きベクトルの参照画像の取得を行う(ステップS203)。
ここで、参照画像の取得は、マクロブロック2300の参照ピクチャ2321に対応する表示順序2801の格納アドレス2803(図28参照)から画面データを取得することで行う。また、同時に参照ピクチャリスト2800も取得する。
画面内予測か非参照であれば(ステップS202:NO)、再利用する動きベクトルは存在しないため、動きベクトルを利用しない処理に移る(D)。
Bピクチャである場合には(ステップS204:YES)、予測モードが画面間予測であるか否か(ステップS205)を判断し、画面間予測である場合には、さらに、1方向参照か否か(2方向参照)(ステップS206)を判断し、それぞれ動きベクトルの参照画像の取得を行なう(ステップS207、ステップS208)。
以下、ピクチャタイプごとに説明する。
(Pピクチャの場合)
まず、Pピクチャの場合(A)について説明する(図3参照)。
ステップS301において判定部31は、Pピクチャの対象ブロックと参照画像との関係がMPEG−2形式の規定に適合するかどうかを判定する。
ここにおいて、Pピクチャのブロックと参照画像についてのMPEG−2の規定は、「参照画像が、対象ブロックのピクチャから時間順で最も近い過去のPピクチャあるいはIピクチャであること」である。
すなわち、ステップS203でフレームメモリから取得した参照ピクチャリスト2800を参照し、該当する参照画像のピクチャタイプ2802が「P/I」であれば適合すると判断する。
また、該当する参照画像の表示順序2801より小さい番号のピクチャタイプ2802がすべて「B」であれば、時間的に最も近いと判断する。例えば、図27(b)において、参照画像の参照ピクチャ番号が「1」の場合、参照ピクチャ番号「0」のピクチャタイプ、すなわち、表示順序2801が「3」のピクチャタイプ2802が「B」であれば、時間的に最も近いと判断される。
このピクチャタイプ2802を参照してピクチャタイプの適合を判断する方法と、表示順序2803から時間的にもっとも近い判断する方法は、以下の適合判定においても同じである。
判定の結果、適合する場合は、参照可能であると判断し(ステップS302:YES)、動きベクトル等をMPEG−2の符号化に利用するために、ステップS305に進む。
適合せずに参照不可能と判断した場合は(ステップS302:NO)、動きベクトルを利用しない処理(ステップ309)に進む。
(Bピクチャ:1方向参照)
次に、Bピクチャで、1方向参照の場合(B)について説明する(図3参照)。
ステップS303において判定部31は、Bピクチャの対象ブロックと1方向参照の参照画像との関係について、MPEG−2の条件に適合するかどうかを判定する。ここにおいて、Bピクチャのマクロブロックと1枚の参照画像についてのMPEG−2の規定は、「参照画像が、対象ブロックのピクチャから時間順で最も近い過去のPピクチャ又はIピクチャであること」である。
判定の結果、適合する場合は、参照可能であると判断し(ステップS304:YES)、動きベクトル等MPEG−2の符号化に利用するために、ステップS307に進む。
適合せずに参照不可能と判断した場合は(ステップS304:NO)、動きベクトルを利用しない処理(ステップ309)に進む。
(Bピクチャ:2方向参照)
次に、Bピクチャで、2方向参照の場合(C)について説明する(図4参照)。
ステップS401において判定部31は、Bピクチャの対象ブロックと2方向参照の参照画像との関係について、MPEG−2の条件に適合するかどうかを判定する。ここにおいて、Bピクチャのブロックと2枚の参照画像についてのMPEG−2の規定は、「2枚参照画像のうち、一方の参照画像が、対象ブロックのピクチャから時間順で最も近い過去のPピクチャあるいはIピクチャであり、他方の参照画像が、対象ブロックのピクチャから時間順で最も近い将来のPピクチャあるいはIピクチャであること」である。
この判定において判定部31は、以下に示すように、判定の結果をステップS402、S403、S404及びその他(E)の4種類に分類する。
まず1つ目は、1つ参照画像のみが、最も近い過去または将来のI/Pピクチャである。
2つ目は、2つの参照画像ともに、最も近い過去または将来のI/またはPピクチャである。
また、3つ目は、1つが最も近い過去のI/Pピクチャで、1つが最も近い将来のI/Pピクチャである。
4つ目は、その他、すなわち、2つの参照画像ともに適合しない場合である。
ステップS402において、2枚の参照画像のうち1枚がMPEG−2の規定に適合すると判定した場合、ステップS405に処理を進める。
ステップS403において、2枚の参照画像のどちらもMPEG−2の規定に適合し、かつ、2枚とも前方参照又は2枚とも後方参照である場合、判定部31は、ステップS407に処理を進める。
ステップS404において、2枚の参照画像のどちらもMPEG−2の規定に適合し、かつ、一方の参照画像が前方参照で他方の参照画像が後方参照である場合、判定部31は、ステップS409に処理を進める。
その他(ステップS404:NO)の場合は、(E)へ進む。
(ステップ(3))
最後に、判定部は、ステップ(2)における判定結果に応じて、動き補償予測部28に行わせるべき処理方法を決定し、決定に応じて予測制御部33が動き補償予測部28に処理方法を指示する。
以下、ピクチャタイプごとに説明する。
(Pピクチャ)
MPEG−4/AVCにおけるPピクチャの対象ブロックに対する参照画像が、対象ブロックのピクチャから時間順で最も近い過去のPピクチャあるいはIピクチャである場合には、判定部31は、動き補償予測部28に、その動きベクトルを再利用させることを決定する(ステップS305)。再利用とはつまり、動き補償予測部28が、参照画像から動き探索によって動きベクトルを探索する代わりに、MPEG−4/AVCの動きベクトルをMPEG−2の動きベクトルとしてそのまま利用して符号化することを意味する。
この場合、判定部31は、MPEG−4/AVCにおけるマクロブロックタイプ(画面間参照)を、MPEG−2でも維持することを決定する(ステップS306、図5参照)。
(Bピクチャ:1方向参照)
また、MPEG−4/AVCにおけるBピクチャのブロックに対する1枚の参照画像が、対象ブロックのピクチャから時間順で最も近い過去又は将来のPピクチャ又はIピクチャである場合には、判定部31は、動き補償予測部28に、その動きベクトルを再利用させることを決定する(ステップS307)。
この場合、判定部31は、MPEG−4/AVCにおけるマクロブロックタイプ(一方向参照)を、MPEG−2でも維持することを決定する(ステップS308、図5参照)。
(Bピクチャ:2方向参照)
また、MPEG−4/AVCにおけるBピクチャのブロックに対する2枚の参照画像のうちの1枚のみが、対象ブロックのピクチャから時間順で最も近い過去又は未来のPピクチャあるいはIピクチャである場合には、判定部31は、動き補償予測部28に、その動きベクトルを再利用させることを決定する(ステップS405)。
この場合、判定部31は、MPEG−2におけるマクロブロックタイプを1方向参照にすることを決定する(ステップS406、図9参照)。
また、MPEG−4/AVCにおけるBピクチャのブロックに対する2枚の参照画像がいずれも、対象ブロックのピクチャから時間順で最も近い過去又は未来のPピクチャあるいはIピクチャである場合であって、参照方向がどちらも前方参照か又はどちらも後方参照である場合には、判定部31は、どちらか1つの動きベクトルを選択し、それを再利用させることを決定する(ステップS407)。
動きベクトルの選択は、例えば、対応するブロックの残差信号の値が小さい方を選択するよう構成してもよいし、動きベクトルが小さい方を選択するよう構成してもよい。
この場合、判定部31は、MPEG−2におけるマクロブロックタイプを1方向参照にすることを決定する(ステップS408、図10参照)。
また、MPEG−4/AVCにおけるBピクチャのブロックに対する2枚の参照画像がいずれも、対象ブロックのピクチャから時間順で最も近い過去又は未来のPピクチャあるいはIピクチャである場合であって、一方が前方参照で他方が後方参照である場合には、判定部31は、2つの動きベクトルを再利用させることを決定する(ステップS409)。
この場合、判定部31は、MPEG−4/AVCにおけるマクロブロックタイプ(両方向参照)を、MPEG−2でも維持することを決定する(ステップS410、図7参照)。
なお、Bピクチャの対象ブロックに対する参照画像が、MPEG−2の規定に適合しない場合には、判定部31は、対象ブロックの動きベクトルを利用しないことを決定し、MPEG−2におけるマクロブロックタイプを画面間参照なしにする(ステップS309、S310、図6および図8参照)。
(Iピクチャ)
Iピクチャの対象ブロック、及び、P/Bピクチャにおける非参照、画面内予測の対象ブロックについては、判定部31は、動きベクトルを利用しないことを決定(ステップS311)し、またMPEG−4/AVCのマクロブロックタイプ(画面間参照なし)をMPEG−2でも維持することを決定する(ステップS312)。
予測制御部33は、判定部31の決定に応じて、動き補償予測部28に、動きベクトル、マクロブロックタイプ、どの画像を参照画像とするかを示す情報等を送り、それらを利用して符号化を行うよう指示する。
具体的には、動きベクトルを再使用できる場合には、動き情報2320を、動き補償予測部28に送信し、再使用できない場合は、その旨を通知することになる。
(動作例)
次に、マクロブロックと参照画像との関係を示す例の図をあげて、動作を説明する。
ある動画像を本発明にかかる変換装置で変換した場合の入力となる画像を図(a)に、出力となる画像を図(b)に示す。
図(a)、図(b)ともに、同じ動画像が左から右へ表示順に並ぶものとする。図(a)は、対象ブロックについての、MPEG−4/AVC形式における参照ブロックとの関係を示しており、図(b)は、図(a)と同じ対象ブロックについての変換後のMPEG−2形式における参照画像との関係を示している。図5〜図22まで、同様である。
まず、典型的なパターンを、図5〜図10を用いて説明する。
図5は、1方向参照の場合の、動きベクトル利用のケースである。
このケースは、Pピクチャの場合と、Bピクチャの1方向参照の場合が該当する。
図5(a)において、右方のPピクチャの対象ブロックは(ステップS201;YES)、前方参照の画面間予測により(ステップS202;YES)、左方のIピクチャを参照画像として、その参照ブロックを参照しており、この参照関係は、MPEG−2の規定に適合する(ステップS302;YES)。このときの動きベクトルはMV1である。
この場合、符号化部20の動き補償予測部28は、予測制御部33からの指示に従って、Pピクチャの対象ブロックに対し、図5(b)に示すように図5(a)と同じ動きベクトルMV1をそのまま利用して、それを動き探索により得られる動きベクトルの代わりに用いて符号化し、またマクロブロックタイプを画面間参照とする。
図6は、マクロブロックタイプの変更を伴う、動きベクトル利用不可のケースである。
このケースは、Pピクチャの場合と、Bピクチャの1方向参照の場合が該当する。
図7は、2方向参照の場合の、動きベクトル利用のケースである。
このケースは、Bピクチャの2方向参照の場合が該当する。
図7(a)においては、対象ブロックのピクチャがBピクチャであって(ステップS204;YES)、両方向参照の画面間予測をし(ステップS205;YES、ステップS206;NO)、どちらの参照画像もMPEG−2の規定において参照可能である(ステップS404;YES)。よって図7(b)に示すように2つの動きベクトルMV1、MV2を利用し(ステップS409)、マクロブロックタイプを両方向参照とする(ステップS410)。
図8は、2方向参照の場合の、2つの動きベクトル利用不可のケースである。
このケースは、Bピクチャの2方向参照の場合が該当する。
図8(a)においては、Bピクチャにある対象ブロックは、2つのBピクチャを参照するが、MPEG−2ではBピクチャを参照画像とすることはできない(ステップS204→S205→S206→S208→S401→S402→S403→S404;NO)。
よって動き補償予測部28は、同図(b)に示すように、同図(a)における動きベクトルを利用せず、マクロブロックタイプを画面間参照なしとして符号化する(ステップS309、S310)。
図9は、マクロブロックタイプの変更を伴う、動きベクトル利用のケースである。
このケースは、Bピクチャの2方向参照の場合が該当する。
図9(a)においては、Bピクチャにある対象ブロックは、IピクチャとBピクチャを参照する。MPEG−2においてはIピクチャの参照は許されるが、Bピクチャの参照は許されない(ステップS204→S205→S206→S208→S401→S402;YES)。
よって動き補償予測部28は、同図(b)に示すように、Iピクチャを参照する動きベクトルMV1を利用し、マクロブロックタイプを1方向の画面間参照とする(ステップS305、S306)。
図10は、マクロブロックタイプの変更を伴う、一部の動きベクトル利用不可のケースである。
このケースは、Bピクチャの2方向参照の場合が該当する。
図10(a)においては、Bピクチャにある対象ブロックは、前方のIピクチャにある2つの参照ブロック1及び2を参照する。MPEG−2においては、前方の2つの画像を参照すること、あるいは、後方の2つの画像を参照することは許されていない(ステップS204→S205→S206→S208→S401→S402→S403;YES)。
よって動き補償予測部28は、図10(b)に示すように、2つの動きベクトルMV1、MV2のうちの一方であるMV1を選択して再利用し、マクロブロックタイプを前2方向参照から前方向参照に替えて符号化する(ステップS407、S408)。
<変形例1>
実施形態1では、動きベクトルの再利用に関して、典型的なパターンを説明したが、動きベクトルの再利用が可能な場合であっても、まったくそのままでは利用できない場合や、そのまま利用しない方がよい場合がある。
前者のそのまま利用できない場合の例を図11を用いて説明し、後者のそのまま利用しない方がよい場合の例を図12を用いて説明する。
まず、そのまま利用できない場合としては、画素精度の問題があげられる。
すなわち、MPEG−4/AVCでは、画素精度が1/4であり、MPEG−2では1/2であるからである。
図11(a)は図9(a)と同じ状況であり、Bピクチャの2つのベクトルのうち、1つのみを再利用するケースであるが、この例に限られないのはもちろんである。
ここでMPEG−4/AVCでは動きベクトルの画素精度が1/4であり、MPEG−2では画素精度が1/2である。よって、動き補償予測部28は、図11(b)に示すように、図11(a)の動きベクトルMV1が1/4画素単位で指定されていたら、動きベクトルMV1を1/2精度に丸める補正を行い、その結果得られる動きベクトルMV3を利用して符号化する。この処理は、動きベクトル構成部30で行い、新しい動きベクトルを動き補償予測部28に送信する。または、動き補償予測部28で、行うこととしてもよい。
次に、そのまま利用しない方がよい場合としては、マクロブロックタイプが変更される場合があげられる。
図12(a)は図9(a)と同じ状況であり、Bピクチャの2つのベクトルのうち、1つのみを再利用するケースであり、マクロブロックタイプが変更となるケースである。
2方向参照の場合、2つの参照ブロック(参照ブロック1および参照ブロック2)の平均をとることで最適な予測画像を得るようになっている。すなわち、少ないデータ量である画面間予測誤差2330(図23参照)を得ることができる。
しかし、1つの参照ブロックとすることで、予測画像が変わり、予測画像からの誤差が予想以上に大きくなってしまう可能性がある。
誤差が大きくなる可能性がある場合には、動きベクトルを再度探索し最適な新しい動きベクトルを得る方がよいが、動きベクトル探索の処理量が多いという欠点がある。
そこで、再利用しようとする動きベクトル(MV1)の参照ブロックの近傍のみを再探索範囲とすることで、最適な新しい動きベクトルを得るとともに、処理時間を大幅に短縮することができるようになる。
図12(b)に示すように、参照画像上のMV1が指す参照ブロック1の位置を基準とする所定の範囲を再探索することにより、他の動きベクトルMV3を検出し、その動きベクトルMV3を利用して符号化する。
より詳しくは、動き補償予測部28は、参照ブロック1の座標位置を中心としてx及びy方向に例えば±30画素の探索範囲を広げ、その探索範囲の中から動き探索により予測誤差がより小さいブロックを検出し、そのブロックを指す動きベクトルをMV3とする。
動きベクトル構成部30は、参照画像と参照ブロックを指定し、参照ブロックの近傍の再検索を行う旨の指示を動き補償予測部28に出すことになる。
動きベクトルの探索範囲に含まれる参照ブロックのデータの求め方として、例えば、動きベクトル構成部30で、次のように求めることも可能である。
図29は、対象ブロックと、その近傍のマクロブロックを表す図である。ここで、例えば、探索範囲1に含まれるマクロブロックのデータは、(2,2)、(2,3)等の8つと対象ブロック(3,3)である。
マクロブロックのデータは、フレームメモリ27のマクロブロックアドレスリスト2820を参照することで、容易に得ることができる。例えば、マクロブロック位置2821が「(0,2)」であれば、アドレス2822「addr02」から1ブロック分のデータを読込めばよい。
同様に、探索範囲2の場合も、その範囲が含まれるマクロブロック(1,1)等を読込む。
<変形例2>
ここでは、実施形態1で動きベクトルの再利用が不可と判断される場合であっても、その動きベクトルの参照ブロックを変えることで、再利用を可能とする場合を説明する。
参照ブロックを変えることで、予測誤差が増えることが考えられるが、動きベクトルの再探索処理を行う必要がないという利点がある。
図13(a)は、図9(a)と同じ状況である。
図9(b)では、動きベクトル「MV2」を捨てて、動きベクトル「MV1」だけを利用して符号化している。
これに対し、図13(b)に示すように、動きベクトル「MV2」の代わりに動きベクトル「MV3」を利用して符号化してもよい。
動きベクトル「MV3」は動きベクトル「MV2」と同じ空間座標を指す同じ値であるが、指している参照画像が、元の参照画像と時間的に近いIピクチャまたはPピクチャである点が異なる。
時間的に近い画像は、画像の画素値が類似している可能性が高いからである。
動き補償予測部28は、参照画像3を、対象ブロックとの関係がMPEG−2の規定に適合する画像の中から選択する。この処理は、動きベクトル構成部30で行うこととしてもよい。
参照ブロック3は、対象ブロックとの誤差が大きくなる可能性があるので、参照ブロック3の周辺の所定範囲を探索して、誤差が小さい参照ブロックを見つけるように構成してもよい(後述の図21参照)。
<実施形態2>
実施形態1では、フレームの例を扱ってきたが、図14〜16のようにフィールド構造に適用してもよい。
フィールドとは、1枚のフレーム(画面)を2つに分けたものであり、奇数番目の走査線の集合であるTopフィールドと、偶数番目の走査線の集合であるBottomフィールドの2つである。
例えば、通常のテレビでは、TopフィールドとBottomフィールドを交互に表示する方式が採用されており、インターレース方式と呼ばれている。
このような画面構造の場合、1枚のフィールドを1枚のフレームのように扱って、符号化を行うことが可能である。
すなわち、フィールドをフレームに置き換えて、実施形態1で説明したようなデータ形式の変換、すなわち、高圧縮の符号化方式で作成された動画像データをMPEG−2のデータに変換することが可能になる。
ここで、MPEG−2規格の仕様をみてみると、Pピクチャ、Iピクチャともに、自フィールド双方から、参照画像の双方のフィールドを参照することが可能である。加えて、Iピクチャの場合は、BottomフィールドのマクロブロックはTopフィールドを参照できることとなっている。
詳細には、MPEG−2のフィールド構造において、参照画像として認められるのは、符号化対象のピクチャがIピクチャの場合は、Topフィールドは参照不可、Bottomフィールドに限りトップフィールドを参照可能であり、Pピクチャの場合は、Topフィールド、Bottomフィールドとも時間順で最も近い過去のPピクチャあるいはIピクチャの両フィールドを参照可能であり、Bピクチャの場合は、Topフィールド、Bottomフィールドとも、1つは時間順で最も近い過去のPピクチャあるいはIピクチャの両フィールドを参照可能、1つは時間順で最も近い将来のPピクチャあるいはIピクチャの両フィールドを参照可能である。この制約は、MPEG−4でも同様である。
従って、現在のMPEG−4/AVCと同様な制限で、参照画像のフレーム参照を可能とするような規格においては、実施形態1と同様な変換が可能となる。
例えば、図14の例では、参照画像が「Iピクチャのボトムフィールド」と「Bピクチャのトップフィールド」であり、MPEG−2の参照画像としては、前者だけが参照可能である。よって、マクロブロックタイプを1方向参照に変更することで前者を参照画像として動きベクトルを再利用することが可能となる。
現在、MPEG−2規格では、MPEG−4/AVC規格においてほど自由な、フレーム間の参照はサポートされていないが、将来サポートされる場合が考えられる。
というのは、MPEG−2、MPEG−4以降に登場する動画像符号化方式では、MPEG−4/AVCのように、圧縮率を上げるために参照画像の自由度が上がる傾向になることが予想されるからである。
予想される符号化方式の1つとして、現在のMPEG−2規格に加えて、BピクチャのBottomフィールドは同フレームのTopフィールドを参照できるが、MPEG2と同様、他のBピクチャを参照できない、といった方式が考えられる。
すなわち、この方式は、MPEG−2の参照画像の制約よりは自由度を高くし、MPEG−4/AVCの制約よりは自由度の低い、動画像符号化方式といえるものである。
MPEG−4/AVCのように、参照画像の候補を最大16フレーム(32ピクチャ)まで可能とすると、復号時に参照画像をメモリに残しておく必要があるため、デコーダに要求されるメモリ量が多くなるなど、負荷がかかるようになるためである。
MPEG−4/AVCから、このような参照画像の制約を持つ動画像符号化方式への変換の方法について図15に示す。
図15の例は、参照画像がBピクチャであるので、動きベクトルは利用せずに、同一フレーム内のフィールド参照のみを再利用する例である。
MPEG−2のような制約を持つ符号化方式Aでは、対象画面がBピクチャであるので、いずれの動きベクトルも再利用はできないが、「BピクチャのBottomフィールドは同フレームのTopフィールドを参照できる」という制約を持つ符号化方式Bでは、同一フレーム内のフィールド参照の動きベクトルは再利用が可能となる。
図15では、予想される符号化形式の1つとして、MPEG−2の参照画像の制約に加えて、同フレーム内であれば参照可能という符号化方式を想定して説明を行ったが、他のいかなる参照画像を持つ符号化方式においても、同様の説明が成り立つ。
例えば、上述した予想される符号化形式の1つ(符号化方式B)で符号化された動画像から、MPEG−2に変換する際にも同様のことが考えられる。この場合の例として、図16に示すように2つの動きベクトルのうち、1つの動きベクトルだけが再利用可能となる。MPEG−2では、Bピクチャの同フレーム内参照はできないためである。図16(a)は、上記符号化方式Bでの動きベクトルを表し、図16(b)は、MPEG−2での動きベクトルを表す。
<実施形態3>
実施形態1では、MPEG−4/AVC形式のデータ内に存在する動きベクトルの再利用について説明したが、本実施形態では、データ内に存在しないが、マクロブロックを復号する際に動的に求められる動きベクトルを再利用する場合について説明する。
MPEG−4/AVCでは、動きベクトルがなくても参照画像を参照することができるダイレクトモードが定義されている。
ダイレクトモードは、圧縮効率を上げる為に設けられたものであり、動き情報を他のブロックの動き情報から予測生成する符号化モードである。すなわち、動き情報に関するデータの量を減らすことができる。
MPEG−2では、ダイレクトモードがサポートされておらず、MPEG−4/AVCからの変換において、再利用する動きベクトルがないので参照画像を参照させることができない。
本実施形態は、MPEG−4/AVCの復号時に算出した仮想的な動きベクトルをMPEG−2の動きベクトルとして利用するものである。すなわち、MPEG−4/AVCでは存在していなかった動きベクトルを算出してMPEG−2で付加することとなる。
ダイレクトモードには2種類あり、それぞれに図17と図18を用いて説明する。
図17を用いて、1つ目のダイレクトモードの動き情報生成について説明する。
1つ目のダイレクトモードは、周辺位置のマクロブロックの動きベクトル情報を利用して、対象となるマクロブロックの動きベクトルを仮想的に求めるスペーシャルダイレクトモードである。
スペーシャルダイレクトモードは、基本的に、対象ブロックの左側のマクロブロック1701と上のマクロブロック1702と右上のマクロブロック1703との3つのマクロブロックを利用して予測を行う。
予測の方法は、これら3つのマクロブロック(1701、1702、1703)の動きベクトルの中で、時間的に最も近い過去の参照画像を指す動きベクトルと、時間的に最も近い将来の動きベクトルとを選択し、対象ブロックの仮想動きベクトルとして予測する。対象ブロックは、2方向参照となる。
図17(a)では、3つのマクロブロックの動きベクトルは、それぞれに、マクロブロック1701は「MV5」、マクロブロック1702は「MV1」、マクロブロック1703は「MV2」となる。
その中で、時間的に最も近い過去の参照画像を指す動きベクトル「MV1」と、時間的に最も近い将来の動きベクトル「MV2」とを選択し、そのまま対象ブロックの動きベクトルとする。
例えば、対象ブロックの動きベクトルは、「MV3」と「MV4」とになる(図17(b)参照)。
「MV3」はベクトルとしての値は「MV1」と同じで、「MV4」も「MV2」と同じである。また、参照画像は「MV1」「MV2」と同じ参照画像1と参照画像2である。参照画像と動きベクトルから、参照ブロック1と参照ブロック2が定まることになる。
次に、図18を用いて、2つ目のダイレクトモードの動き情報生成について説明する。
2つ目のダイレクトモードは、周辺時間のマクロブロックの動き情報を利用して、対象ブロックの動きベクトルを仮想的に求めるテンポラルダイレクトモードである。
テンポラルダイレクトモードは、基本的に、時間的に最も近い将来の参照画像(参照画像2)において、対象ブロックと同じ位置のマクロブロック1801を指す動きベクトルから、対象のマクロブロックに対する動きベクトルを推測して、対象ブロックの仮想動きベクトルを求める。対象ブロックは、2方向参照となる。
仮想動きベクトルの求め方は、マクロブロック1801の動きベクトル「MV1」を参照画像1〜参照画像2の時間間隔と参照画像1〜対象画像の時間間隔との比から、「MV2」と「MV3」を求める。
この求めた「MV2」と「MV3」を、対象ブロックの動きベクトルとする。この場合、「MV2」の参照ブロックは、マクロブロック1802と同じ参照画像1の参照ブロック1となり、「MV3」の参照ブロックは、マクロブロック1801と同じ参照画像2の参照ブロック2となる。
<実施形態4>
本実施形態では、動きベクトルを再利用する場合、動きベクトルの参照画像のタイプ「I/P」と、時間方向の要件は満たしているが、参照ブロックの画面での位置の要件が満たされていない場合について、図19と図20を用いて説明する。
MPEG−4/AVCでは、参照画像の考え方が画面外まで拡張されているので、動きベクトルが画面外にはみ出したマクロブロックを参照していてもよい。例えば、図19の参照画像1のマクロブロック1901である。
画面外の領域は、画面外が一番端の画素で埋められていることを想定して参照する。
一方、MPEG−2では、動きベクトルが常に画面内だけを参照している必要がある。
例えば、2方向参照の対象ブロックであって、図19(a)のように動きベクトル「MV1」のみが画面外を参照しているような場合には、画面内に収まっている参照ブロック2の動きベクトル「MV2」のみが再利用できることになるが、この例の場合は、後方参照となるため再利用が出来ない。
また、すべての動きベクトルが、画面外を参照している場合も、再利用することが出来ない。
そこで、図20に示すように、画面外の参照が画面内の参照になるように動きベクトルを補正することで、MPEG−2で参照可能となる。
この場合、MPEG−2では、当初想定していた参照ブロック(参照ブロック1)と異なる参照ブロック(参照ブロック2)を利用することになるので、予測画像からの誤差が発生する可能性がある。
そのような場合を想定して、実施形態1で説明したように、領域の再探索などを行って、可能な限り予測画像からの誤差の発生を減らすような処理を行うようにしてもよい(図12参照)。
<補足>
以上、本発明の実施形態について説明したが、本発明は上記形態に限らず、以下のようにしてもよい。
(1)実施形態では、基本的に、参照ブロックの含まれる参照画像は、変えないで動きベクトルの再利用を行うこととしているが、参照画像を変えることで、動きベクトルの再利用を行うこととしてもよい。ここで説明するケースは、図13で説明した場合の、発展形といえる。
その例を図21に示す。
図21(a)では、参照画像(参照画像1)がBピクチャであるので、再利用することは出来ない。しかし、Pピクチャを参照画像(参照画像2)とすることで、この動きベクトル「MV1」の再利用が可能となる場合がある。
しかし、この場合、予測画像との誤差が大きくなる場合があるので、Pピクチャの参照ブロックの近傍を探索範囲として再探索し、新しい参照ブロック(参照ブロック2)と新しい動きベクトル「MV2」を求めることとしてもよい(図21(b)参照)。
また、図21の例では、参照画像のみを変えることとしていたが、参照画像とともに、再探索せずに参照ブロックの位置を変えることとしてもよい。
その例を図22に示す。
図22(b)では、参照画像をPピクチャ(参照画像2)に変更し、さらに、動きベクトル「MV1」を参照画像1〜参照画像2の時間間隔と参照画像1〜対象画像の時間間隔との比から、参照ブロックを移動する位置を決めて、新しい参照ブロック(参照ブロック2)を求める。
この場合も、予測画像との誤差が大きくなる場合があるので、Pピクチャの参照ブロックの近傍を探索範囲として再探索し、新しい動きベクトル「MV2」を求めることとしてもよい。
(2)実施形態では、MPEG−4/AVCからMPEG−2への変換を想定して説明を行ったが、本発明は、これらの符号化方式に限定されるものではなく、動きベクトルに関する制約が異なる符号化方式間の変換であれば、どのような符号化方式でもよい。
例えば、MPEG−4/AVCからMPEG−4への変換、MPEG−4/AVCからVC1への変換、MPEG−4/AVCからAVS(Audio Video coding Standard of China)への変換、MPEG−4/AVCメインプロファイルからMPEG−4/AVCベースラインプロファイルへの変換であってもよいし、その他の符号化方式間の変換であってもよい。
また、実施形態では、ピクチャからピクチャへの変換を記載しているが、スライスからスライス、ピクチャからスライスへの変換としてもよい。
(3)実施形態では、MPEG−4/AVCからMPEG−2への変換を説明したが、例えば、MPEG−2からMPEG−4/AVCへの変換を行う場合もあり得る。
MPEG−2とMPEG−4/AVCの相違として、動きベクトルの探索範囲の違いがある。MPEG−4/AVCに規定される動きベクトルの最大探索範囲の方がMPEG−2の最大探索範囲よりも小さい。
MPEG−2からMPEG−4/AVCへの変換を行う場合において、動画像変換装置は、MPEG−2のブロックについての動きベクトルが、MPEG−4/AVCに規定される最大探索範囲内に入るか否かによって、動きベクトルを利用するか否かを決定するよう構成してもよい。
またこのとき、動きベクトルが、MPEG−4/AVCに規定される最大探索範囲内に入らない動きベクトルについては、最大探索範囲内に収まるように動きベクトルをずらすことによって、動きベクトルを再利用するよう構成してもよい。
(4)動画像変換装置100は、図1の各構成要素の全部又は一部を、1チップ又は複数チップの集積回路で実現してもよいし、コンピュータのプログラムで実現してもよいし、その他どのような形態で実施してもよい。
判定部31は、プログラム記憶部32に記憶されているプログラムを実行することにより、動き補償予測部28に行わせるべき処理方法を決定するよう構成されているが、この構成の代わりに論理回路を用いて構成してもよい。その論理回路は、可変長復号部11により分離される各種データから、スライスタイプやマクロブロックタイプ、参照画像に関する情報等、判定に必要な情報を入力信号として、それら入力信号に応じて動き補償予測部28に行わせるべき処理方法を示す出力信号を出力する。
(5)またコンピュータプログラムの場合、メモリカード、CD−ROMなどいかなる記録媒体に書き込まれたものをコンピュータに読み込ませて実行させる形にしてもよいし、ネットワークを経由してプログラムをダウンロードして実行させる形にしてもよい。
(6)上記実施形態では、スライス単位の動画像データをピクチャ単位の動画像データに変換する例を記載しているが、スライス単位からスライス単位、ピクチャ単位からピクチャ単位の変換においても、本発明の概念を適用することができる。
(7)動画像変換装置100は、図1の各構成要素の全部又は一部をLSIで構成してもよい。
本発明は、動画像の変換処理を行うAV機器に適用することができる。
動画像変換装置の構成を示すブロック図である。 プログラム記憶部32に記憶されるプログラムの手順を示すフローチャート(その1)である。 プログラム記憶部32に記憶されるプログラムの手順を示すフローチャート(その2)である。 プログラム記憶部32に記憶されるプログラムの手順を示すフローチャート(その3)である。 1方向参照を保持する場合の動作例を示す図である。 1方向参照を非画面間参照とする場合の動作例を示す図である。 2方向参照を保持する場合の動作例を示す図である。 2方向参照を非画面間参照とする場合の動作例を示す図である。 2方向参照(前方、後方)を1方向参照とする場合の動作例を示す図である。 2方向参照(前方、前方)を1方向参照とする場合の動作例を示す図である。 画素精度1/4から1/2へ変換する場合の動作例を示す図である。 動きベクトル再探索の場合の動作例を示す図である。 参照画像をピクチャタイプの異なる画像とする場合の動作例を示す図である。 フィールド間参照の場合の動作例を示す図である。 同一フレームにおけるフィールド間参照の場合の動作例を示す図である。 フィールド間参照の場合の動作例を示す図である。 スペーシャルダイレクトモードから2方向参照とする場合の動作例を示す図である。 テンポラルダイレクトモードから2方向参照とする場合の動作例を示す図である。 画面外ブロックを参照する場合の動作例を示す図である。 画面外の参照ブロックを画面内に移動した場合の動作例を示す図である。 参照画面をピクチャタイプの異なる画面にした場合の再探索の動作例を示す図である。 参照ブロックを他の画面に移した場合の再探索の動作例を示す図である。 MPEG符号化データの構成例を表す図である。 1画面とマクロブロックの関係を示す図である。 MPEG−2の動きベクトルの例を示す図である。 MPEG−4/AVCの動きベクトルの例を示す図である。 フレームメモリ内のピクチャの関連を示す図である。 フレームメモリ内のピクチャを管理するテーブル例を示す図である。 再探索時のマクロブロック選択方法例を示す図である。
符号の説明
10 復号部
11 可変長復号部
12 逆量子化部
13 逆直交変換部
14 加算部
15 フレームメモリ
16 動き補償部
20 符号化部
21 減算部
22 直交変換部
23 量子化部
24 逆量子化部
25 逆直交変換部
26 加算部
27 フレームメモリ
28 動き補償部
30 動きベクトル構成部
31 判定部
32 プログラム記憶部
33 予測制御部
100 動画像変換装置

Claims (6)

  1. 第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画像変換装置であって、
    第2の動き補償予測方式の規格上の規定で、参照画像とすることができる画像には符号化したときの符号化タイプに制限があり、
    第1動画像データに含まれるブロックの1以上の動きベクトルの中から、前記制限を満たす参照画像を指し示す動きベクトルを選出する選出手段と、
    前記選出手段により選出された各動きベクトルを前記第2の動き補償予測方式における動きベクトルとしてそのまま用いてブロックの符号化を行う符号化手段と
    を備え、
    第1動画像データに含まれるブロックの動きベクトルの数が2つであり、
    前記選出手段で、前記条件を満たす動きベクトルを1つだけ選出した場合、
    前記符号化手段は、当該1つの動きベクトルをそのまま用いてブロックの符号化を行うとともに、当該ブロックの動き予測のタイプを示す情報を、2つの動きベクトルを用いる動き予測のタイプから1つの動きベクトルを用いる動き予測のタイプに変更することを特徴とする動画像変換装置。
  2. 記選出手段は、第1動画データに含まれるブロックの2つの動きベクトルのいずれもが前方参照であるか、またはいずれもが後方参照である場合に、前記2つの動きベクトルのうちいずれか一方を選出することを特徴とする請求項に記載の動画像変換装置。
  3. 第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画像変換方法であって、
    第2の動き補償予測方式の規格上の規定で、参照画像とすることができる画像には符号化したときの符号化タイプに制限があり、
    第1動画像データに含まれるブロックの1以上の動きベクトルの中から、前記制限を満たす参照画像を指し示す動きベクトルを選出する選出ステップと、
    前記選出ステップにより選出された各動きベクトルを前記第2の動き補償予測方式における動きベクトルとしてそのまま用いてブロックの符号化を行う符号化ステップと
    を含み、
    第1動画像データに含まれるブロックの動きベクトルの数が2つであり、
    前記選出ステップで、前記条件を満たす動きベクトルを1つだけ選出した場合、
    前記符号化ステップは、当該1つの動きベクトルをそのまま用いてブロックの符号化を行うとともに、当該ブロックの動き予測のタイプを示す情報を、2つの動きベクトルを用いる動き予測のタイプから1つの動きベクトルを用いる動き予測のタイプに変更することを特徴とする動画像変換方法
  4. コンピュータプログラムを実行可能な装置に、第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画変換処理を行わせるためのコンピュータプログラムであって、
    第2の動き補償予測方式の規格上の規定で、参照画像とすることができる画像には符号化したときの符号化タイプに制限があり、
    第1動画像データに含まれるブロックの1以上の動きベクトルの中から、前記制限を満たす参照画像を指し示す動きベクトルを選出する選出ステップと、
    前記選出ステップにより選出された各動きベクトルを前記第2の動き補償予測方式における動きベクトルとしてそのまま用いてブロックの符号化を行う符号化ステップと
    を含み、
    第1動画像データに含まれるブロックの動きベクトルの数が2つであり、
    前記選出ステップで、前記条件を満たす動きベクトルを1つだけ選出した場合、
    前記符号化ステップは、当該1つの動きベクトルをそのまま用いてブロックの符号化を行うとともに、当該ブロックの動き予測のタイプを示す情報を、2つの動きベクトルを用いる動き予測のタイプから1つの動きベクトルを用いる動き予測のタイプに変更することを特徴とするコンピュータプログラム
  5. コンピュータプログラムを記録したコンピュータ読取可能な記録媒体であって、前記コンピュータプログラムは、
    コンピュータプログラムを実行可能な装置に、第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画変換処理を行わせるためのコンピュータプログラムであって、
    第2の動き補償予測方式の規格上の規定で、参照画像とすることができる画像には符号化したときの符号化タイプに制限があり、
    第1動画像データに含まれるブロックの1以上の動きベクトルの中から、前記制限を満たす参照画像を指し示す動きベクトルを選出する選出ステップと、
    前記選出ステップにより選出された各動きベクトルを前記第2の動き補償予測方式における動きベクトルとしてそのまま用いてブロックの符号化を行う符号化ステップと
    を含み、
    第1動画像データに含まれるブロックの動きベクトルの数が2つであり、
    前記選出ステップで、前記条件を満たす動きベクトルを1つだけ選出した場合、
    前記符号化ステップは、当該1つの動きベクトルをそのまま用いてブロックの符号化を行うとともに、当該ブロックの動き予測のタイプを示す情報を、2つの動きベクトルを用いる動き予測のタイプから1つの動きベクトルを用いる動き予測のタイプに変更することを特徴とする。
  6. 第1の動き補償予測方式に従って符号化された第1動画像データを第2の動き補償予測方式に従って符号化されたデータと同形式の第2動画像データに変換する動画像変換装置
    の集積回路であって、
    第2の動き補償予測方式の規格上の規定で、参照画像とすることができる画像には符号化したときの符号化タイプに制限があり、
    第1動画像データに含まれるブロックの1以上の動きベクトルの中から、前記制限を満たす参照画像を指し示す動きベクトルを選出する選出手段と、
    前記選出手段により選出された各動きベクトルを前記第2の動き補償予測方式における動きベクトルとしてそのまま用いてブロックの符号化を行う符号化手段と
    を備え、
    第1動画像データに含まれるブロックの動きベクトルの数が2つであり、
    前記選出手段で、前記条件を満たす動きベクトルを1つだけ選出した場合、
    前記符号化手段は、当該1つの動きベクトルをそのまま用いてブロックの符号化を行うとともに、当該ブロックの動き予測のタイプを示す情報を、2つの動きベクトルを用いる動き予測のタイプから1つの動きベクトルを用いる動き予測のタイプに変更することを特徴とする集積回路
JP2005341009A 2004-11-30 2005-11-25 動画像変換装置 Expired - Fee Related JP4764706B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005341009A JP4764706B2 (ja) 2004-11-30 2005-11-25 動画像変換装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004347429 2004-11-30
JP2004347429 2004-11-30
JP2005341009A JP4764706B2 (ja) 2004-11-30 2005-11-25 動画像変換装置

Publications (2)

Publication Number Publication Date
JP2006186979A JP2006186979A (ja) 2006-07-13
JP4764706B2 true JP4764706B2 (ja) 2011-09-07

Family

ID=36739687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005341009A Expired - Fee Related JP4764706B2 (ja) 2004-11-30 2005-11-25 動画像変換装置

Country Status (1)

Country Link
JP (1) JP4764706B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008244993A (ja) * 2007-03-28 2008-10-09 Renesas Technology Corp トランスコーディングのための装置および方法
JP5207693B2 (ja) * 2007-09-18 2013-06-12 キヤノン株式会社 画像符号化装置及び画像符号化方法
JP4892450B2 (ja) 2007-10-17 2012-03-07 パナソニック株式会社 画像符号化装置および画像符号化方法
JP5213964B2 (ja) * 2008-11-07 2013-06-19 三菱電機株式会社 動画像符号化装置及び動画像復号装置
WO2010079797A1 (ja) * 2009-01-08 2010-07-15 日本電気株式会社 画像変換装置と方法及びプログラム
JP5709492B2 (ja) * 2010-12-01 2015-04-30 三菱電機株式会社 画像符号化方式変換装置および画像符号化方式変換プログラム
JP5853757B2 (ja) * 2012-02-21 2016-02-09 富士通株式会社 動画像符号化装置及び動画像符号化方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11275592A (ja) * 1998-01-22 1999-10-08 Victor Co Of Japan Ltd 動画像符号列変換装置及びその方法
GB2369952B (en) * 2001-03-10 2002-12-04 Ericsson Telefon Ab L M Transcoding of video signals
US20040057521A1 (en) * 2002-07-17 2004-03-25 Macchina Pty Ltd. Method and apparatus for transcoding between hybrid video CODEC bitstreams
EP1618744B1 (en) * 2003-04-17 2007-09-05 Koninklijke Philips Electronics N.V. Video transcoding

Also Published As

Publication number Publication date
JP2006186979A (ja) 2006-07-13

Similar Documents

Publication Publication Date Title
US20220321907A1 (en) Method and device for video image processing
US9693075B2 (en) Picture encoding device, picture encoding method, picture encoding program, picture decoding device, picture decoding method, and picture decoding program
RU2310231C2 (ru) Пространственно-временное прогнозирование для двунаправлено прогнозируемых (в) изображений и прогнозирование вектора движения для компенсации движения множественных изображений с помощью эталона
JP4542447B2 (ja) 画像の符号化/復号化装置、符号化/復号化プログラム及び符号化/復号化方法
JP5368631B2 (ja) 画像符号化方法、装置、及びプログラム
US9277220B2 (en) Image coding apparatus including a geometric-transformation motion compensation prediction unit utilizing at least two prediction modes out of four prediction modes
US9197903B2 (en) Method and system for determining a macroblock partition for data transcoding
US7933335B2 (en) Moving picture conversion apparatus
CN101325710B (zh) 视频编码中具有多种成本计算方法的运动细化引擎及方法
JP4764706B2 (ja) 動画像変換装置
JP2007067731A (ja) 符号化方法
TW201909637A (zh) 影像預測解碼方法
TWI790662B (zh) 一種編解碼方法、裝置及其設備
WO2012098845A1 (ja) 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
US8594192B2 (en) Image processing apparatus
JP5983430B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP2024019406A (ja) アフィンコーディングされたブロックに対するオプティカルフローを用いた予測洗練化のための方法および装置
US20160134888A1 (en) Video encoding apparatus, video encoding method, video decoding apparatus, and video decoding method
JP2007329528A (ja) 動きベクトル復号化方法および復号化装置
JP4708821B2 (ja) 動画像符号化装置及びその制御方法、コンピュータプログラム及び記憶媒体
KR20230145097A (ko) 공간 국소 조명 보상
JP5322956B2 (ja) 画像符号化装置および画像符号化方法
JP2013110517A (ja) 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム
JP4760551B2 (ja) 動きベクトル復号化方法および復号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110307

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees