JP2008278091A - 動画像記録方法及びその装置 - Google Patents

動画像記録方法及びその装置 Download PDF

Info

Publication number
JP2008278091A
JP2008278091A JP2007117962A JP2007117962A JP2008278091A JP 2008278091 A JP2008278091 A JP 2008278091A JP 2007117962 A JP2007117962 A JP 2007117962A JP 2007117962 A JP2007117962 A JP 2007117962A JP 2008278091 A JP2008278091 A JP 2008278091A
Authority
JP
Japan
Prior art keywords
block
motion vector
motion
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007117962A
Other languages
English (en)
Other versions
JP4788649B2 (ja
Inventor
Hiroo Ito
伊藤浩朗
Tomokazu Murakami
村上智一
Isao Karube
軽部勲
Masashi Takahashi
高橋昌史
Yuto Komatasu
小松佑人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007117962A priority Critical patent/JP4788649B2/ja
Priority to US12/108,025 priority patent/US8711936B2/en
Publication of JP2008278091A publication Critical patent/JP2008278091A/ja
Application granted granted Critical
Publication of JP4788649B2 publication Critical patent/JP4788649B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】より圧縮効率の良い動画像記録方法及びその装置を実現する。
【解決手段】ブロックの動きベクトルを算出するブロック単位動き探索ステップと、ブロック単位動き探索ステップにて算出した動きベクトルのうち、類似する動きベクトルを有するブロックを類似動き領域として設定する類似動き領域設定ステップと、類似動き領域設定ステップにおいて設定した類似動き領域に含まれる各ブロックの有する動きベクトルを用いて、代表動きベクトルを算出する代表動きベクトル算出ステップと、類似動き領域の各ブロックについて、代表動きベクトル算出ステップで算出した代表動きベクトルまたは各ブロックの有する動きベクトルのいずれのベクトルを用いるかを選択する選択ステップと、類似動き領域の各ブロックについて、選択ステップの選択結果に基づいて選択した動きベクトルと動きベクトルを用いて生成した各ブロックの予測画像とを、符号化データとして生成する。
【選択図】 図6

Description

本発明は、動画像を記録する動画像記録方法及びその装置に関する。
特許文献1には、動画像の符号化対象フレームをブロック単位で分割し、参照画像からそれぞれのブロックについての予測画像と、各ブロックのおのおの参照画像への動きベクトルとを生成する動画像符号化技術において、動きベクトルの類似性に基づいて複数のブロックを複数の領域に分割し、各領域においてそれぞれの領域内のブロックが有する動きベクトルから予測ベクトルを生成し、各ブロックについて予測ベクトルとの差分ベクトルを生成して出力する技術が開示されている。
特開2005−124001 また、非特許文献1には、動画像データを高能率に符号化して記録あるいは伝送する方式として、H.264/AVC(Adbanced Video Coding)規格等が定められている。ここで、非特許文献1の第147頁、第148頁(式8-208、式8-209)には、予測ベクトルの算出方法が規定されている。
ITU-T Rec. H.264"Advanced Video Coding for generic audiovisual services" pp.147-148 (03/2005)
上記特許文献1に示す動画符号化技術は、動きベクトルの類似性に基づいて複数のブロックを複数の領域に分割し、それぞれの領域内のブロックが有する動きベクトルから予測ベクトルを生成し、その差分を符号化することにより、符号化データ量の低減を試みている。
しかし、このような予測ベクトルの生成方法は、非特許文献1に示すような既存の符号化規格に規定されていない。
したがって、上記特許文献1に示す動画符号化技術により符号化されたデータは、既存の符号化規格に対応する復号化装置では復号化することができないという課題があった。
本発明は、上記課題を鑑みてなされたものであり、本発明の目的は、動きベクトルの類似性を用いて圧縮効率を向上しながら、既存の符号化規格に対応する復号化装置でも復号化を行うことができる符号化データを生成する動画像記録方法及びその装置を実現することにある。
上記目的を達成するために、本発明の一実施の態様は、例えば特許請求の範囲に記載されたように構成すればよい。
本発明によれば、より圧縮効率が良く、かつ既存の符号化規格に対応する復号化装置でも復号化を行うことができる符号化データを生成する動画像記録方法及びその装置を実現することが可能になる。
以下、本発明の実施例を、図面を参照して説明する。
また、各図面において同一の符号が付されている構成要素は同一の機能を有することとする。
本明細書の各記載及び各図面において示されるフローチャートにおける「ステップ」という表現は、適宜「S」という表記で省略して記載する。
また、本明細書の各記載及び各図面において示される「発生符号量」とは、本発明の各実施例における方法及び装置において画像符号化後のデータ量を示す。
また、本明細書の各記載及び各図面において示される「従来の符号化処理」、「従来の動き探索」もしくは「従来の動きベクトル」とは、代表ベクトルによる動きベクトルの置換を行わない符号化処理に係るものを意味する。
図12は、本発明の実施例1に係る動画像記録装置の構成ブロック図である。図12の動画像記録装置(1200)は、例えば、チューナ部(1202)、デマルチプレクサ部(1203)、映像デコーダ部(1204)、音声デコーダ部(1205)、映像出力部(1206)、音声出力部(1207)、エンコーダ(150)、録画再生制御部(1209)、蓄積部(1210)、外部入力部(1211)、制御部(1212)、記憶部(1213)とを備える。
以下に、動画像記録装置(1200)の動作について説明する。
なお、動画像記録装置(1200)の各構成要素の動作は、例えば、以下の記載の通り各構成要素の自律的な動作としても良い。また、動画像記録装置(1200)の備える制御部(1212)が、記憶部(1213)が記憶するソフトウェアと協働することにより実現しても構わない。
まず、動画像記録装置(1200)における再生動作について説明する。まず、再生対象信号が放送信号である場合は、例えば、テレビジョン信号などを含む放送波などを受信するアンテナ(1201)からの信号がチューナ部(1202)に入力される。次に、チューナ部(1202)は当該信号の復調等を行う。また、再生対象信号が外部入力信号の場合は、例えば、動画像記録装置(1200)に接続される外部機器等から外部入力部(1211)に入力される。
次に、デマルチプレクサ部(1203)は、チューナ部(1202)が復調した信号、または外部入力部(1211)に入力された信号から、必要な符号化ストリームを分離する。ここで、デマルチプレクサ部(1203)が分離した符号化ストリームのうち、映像についての符号化ストリームは映像デコーダ(1204)が復号化し、再生する。また、映像デコーダ(1204)が再生した映像信号は、画像出力部(1206)が、外部に接続される映像再生機器等に出力する。また、デマルチプレクサ部(1203)が分離した符号化ストリームのうち、音声についての符号化ストリームは音声デコーダ(1205)が復号化し、再生する。また、音声デコーダ(1205)が再生した音声信号は、音声出力部(1207)が、外部に接続される音声再生機器等に出力する。
次に、動画像記録装置(1200)の記録動作について説明する。動画像記録装置(1200)の記録動作は、例えば、以下の処理方法が考えられる。
第1の処理方法は、デマルチプレクサ部(1203)から分離された符号化ストリームを録画再生制御部(1209)が蓄積部(1210)に蓄積する方法である。この場合は、符号化ストリームは復号されることなく、蓄積部(1210)に蓄積される。
第2の処理方法は、デマルチプレクサ部(1203)から分離された符号化ストリームを、一度、映像デコーダ(1204)または音声デコーダ(1205)が復号化し、その後エンコーダ(150)が再度符号化し、当該符号化した信号を録画再生制御部(1209)が蓄積部(1210)に蓄積する方法である。
第3の処理方法は、外部入力部(1211)から非圧縮の映像信号または音声信号が入力された場合に、エンコーダ(150)が符号化し、当該符号化した信号を録画再生制御部(1209)が蓄積部(1210)に蓄積する方法である。
なお、エンコーダ(150)の処理の詳細については後述する。
蓄積部(1210)に記録したデータの再生処理は、例えば、録画再生制御部(1209)が蓄積部(1210)からデマルチプレクサ(1203)に出力させたのち、映像デコーダ(1204)、音声デコーダ(1205)などで再生する。
また、図示は省略するが、録画再生制御部(1209)から、直接映像デコーダ(1204)、音声デコーダ(1205)に出力してもよい。この場合は、デマルチプレクサ(1203)における処理を省略でき、処理量を低減するという効果がある。
なお、実施例に係る画像出力部(1206)と音声出力部(1207)は一体として構成しても構わない。この場合は、映像信号と音声信号を一本のケーブルで出力するコネクタなどを備えることにより、ユーザーがより簡便に機器の接続を行うことができる。
次に、本発明の実施例1に係る動画像記録装置(1200)のエンコーダ(150)について説明する。図1は、本発明の実施例1に係るエンコーダ(150)の構成ブロック図である。
図1に示すエンコーダ(150)は入力部(130)、減算器(100)、DCT部(101)、量子化部(102)、逆量子化部(104)、IDCT部(105)、加算部(106)、フレームメモリ(107)、ブロック単位動き探索部(108)、予測画像生成部(109)、類似動き領域設定部(110)、代表動きベクトル算出部(111)、予測画像生成部(112)、選択部(113)、可変長符号化部(103)、出力部(140)、制御部(160)、記憶部(170)を備える。また、ここでブロック単位動き探索部(108)、予測画像生成部(109)、類似動き領域設定部(110)、代表動きベクトル算出部(111)、予測画像生成部(112)、選択部(113)は、動き補償部(120)を構成する。上記の各部はハードウェアによって構成されてもよいし、ソフトウェアによって構成されていてもよい。また、ハードウェアとソフトウェアを組み合わせたモジュールであってもよい。以下の説明では、ハードウェアとして説明する。
以下に、図1に示したエンコーダの動作について説明する。
なお、エンコーダ(150)の各構成要素の動作は、例えば、以下の記載の通り各構成要素の自律的な動作としても良い。また、エンコーダ(150)の備える制御部(160)が、記憶部(170)が記憶するソフトウェアと協働することにより実現しても構わない。
まず、エンコーダ(150)の入力部(130)に映像信号が入力される。ここで、当該入力映像信号は、符号化されてない映像信号である。例えば、非圧縮映像や、符号化された映像を再度復号化した映像などである。次に、減算器(100)は、入力映像の画像ブロックから予測画像ブロックを減算する減算処理を行う。ここで、当該予測画像ブロックは、後述する選択部(113)から出力される。次に、減算器(100)は、当該減算処理によって生成された差分画像信号を出力する。次に、DCT部(101)は、減算器(100)から出力される差分画像信号を画像ブロック毎に直交変換し、量子化部(102)に出力する。量子化部(102)は入力されたDCT変換データを量子化する。量子化部(102)は、量子化したデータを可変長符号化部(103)に出力する。可変長符号化部(103)は当該量子化されたデータを可変長符号化する。次に、出力部(140)が、当該可変長符号化されたデータを伝送回線にあわせて出力する。
一方、量子化部(102)は、量子化したデータを逆量子化部(104)にも出力する。ここで、逆量子化部(104)は量子化データを逆量子化し、IDCT部(105)に出力する。IDCT部(105)は当該逆量子化したデータを逆直交変換して差分画像ブロックとして復元し、加算器(106)に出力する。ここで、加算器(106)は、当該復元された差分画像ブロックに、選択部(113)から出力される予測画像ブロックを加算して、復号画像ブロックを生成する。次に、フレームメモリ(107)は、当該復号画像ブロックを格納する。当該復号画像ブロックは、次に符号化する入力画像に対する参照画像として用いる。
次に、入力画像を画面間予測符号化する際に、フレームメモリ(107)は、当該復号画像ブロックを、参照画像としてブロック単位動き探索部(108)に出力する。ここで、ブロック単位動き探索部(108)は、入力部(130)から取得する入力画像と、フレームメモリ(107)から取得する当該復号画像ブロックをもちいて、入力画像に対して動き探索を行う。当該ブロック単位動き探索部(108)の動き探索処理の詳細は後述する。ブロック単位動き探索部(108)は、当該動き探索を行うことにより、動きベクトル(MV_block)をブロック単位で求める。以下、これをブロック単位動きベクトルと呼ぶ。予測画像生成部(109)はブロック単位動き探索部(108)で求めたブロック単位動きベクトルから予測画像を生成する。類似動き領域設定部(110)はブロック単位動き探索部(108)で求めたブロック単位動きベクトルの中から動きベクトルが類似した領域を類似動き領域として設定する。当該類似動き領域設定部(110)の設定処理の詳細は後述する。
次に、代表動きベクトル算出部(111)は類似動き領域設定部(110)に含まれる複数ブロックに共通に使用する代表動きベクトル(MV_global)を算出する。当該代表動きベクトル算出部(111)の代表動きベクトル(MV_global)の選択処理の詳細は後述する。予測画像生成部(112)は、代表動きベクトル算出部(111)で求めた代表動きベクトルを用いて、当該類似動き領域についての予測画像を生成する。選択部(113)は、予測画像生成部(109)で生成される予測画像と予測画像生成部(112)で生成される予測画像のいずれか片方を選択して減算器(100)に出力する。また、あわせてブロック単位動き探索部(108)で選択したブロック単位動きベクトル(MV_blk)と代表動きベクトル算出部(111)で求めた代表動きベクトル(MV_global)のうち、いずれか上記で選択された動きベクトルと後述する予測ベクトルとの差分動きベクトルの情報を、可変長符号化部(103)に出力する。可変長符号化部(103)は上記差分動きベクトル情報を量子化部(102)から出力される残差データとともに可変長符号化して出力する。
次に、ブロック単位動き探索部(108)の動き探索処理について説明する。ブロック単位動き探索部(108)では、符号化対象画像を同一画面内の符号化済み画像を参照画像として利用する画面内予測符号化モードと、時間軸上で前後の画面を参照画像として利用する動き補償画面間予測符号化モードの2つの符号化モードとを適応的に用いる。
本実施例においては、このうちブロック単位動き探索部(108)が動き補償画面間予測符号化モードを用いる場合の動作について説明する。
図2は、本発明の実施例1に係るブロック単位動き探索部(108)の動き探索処理の一例を示した図である。ブロック単位動き探索部(108)は、図2(a)に示すように、符号化対象画像201の符号化対象ブロック203について参照画像202からの動き量(動きベクトル204)を推定して予測画像205を生成し、符号化対象ブロック203と予測画像205との予測誤差を算出する。次に、ブロック単位動き探索部(108)は、所定の探索範囲206において動き探索を動きベクトルを変更しながら、当該予測誤差が小さくなる動きベクトルを算出する。
このとき、動きベクトルは周囲のブロックの動きベクトルと強い相関がある。これを利用して、ブロック単位動き探索部(108)では、図2(b)に示すように周囲のブロックの動きベクトルから予測ベクトルを生成し、当該予測ベクトルを動き探索処理に使用する。また、算出した各符号化対象ブロックの動きベクトルを符号化する際に、当該予測ベクトルとの差分値のみを符号化することで符号化する情報量の削減を行うことができる。
ここで、図2(b)に示す予測ベクトルの生成処理は、以下に示すH.264/AVC規格などの従来の方式を用いる。ここで、従来の方式と同じ予測ベクトルの生成処理を用いることにより、生成した符号化ストリームが、既存の復号化装置においても復号化することができる。
まず、図2(b)に示すように、ブロック単位動き探索部(108)は、ブロック単位動きベクトルを求める前に、隣接ブロックでの動きベクトルを用いて予測ベクトル(mv_pred)を求める。具体的には、例えば、符号化対象ブロックに対して左に隣接するブロックA、上に隣接するブロックB、右上に隣接するブロックCでの動きベクトルを各々mvA、mvB、mvCとした時、予測ベクトル(mv_pred)を数式1のように求める。
Figure 2008278091
次に、ブロック単位動き探索部(108)は、予測ベクトル(mv_pred)をもとに、図2(a)に示すような動き探索を行う。
例えば、数式2のようなコスト関数で算出されるコスト値(JMOTION)が最小となる動きベクトルを符号化対象ブロックの動きベクトル(MV_block)として選択する。
Figure 2008278091
ここで、DDFDは符号化対象画像と予測画像の絶対値誤差和(Sum of Absolute Difference:SAD)または符号化対象画像と予測画像の2乗誤差和(Sum of Square Difference:SSD)を、RMOTIONは動きベクトル情報の符号量を示す。また、λMOTIONは上記RMOTIONに対する重み付け係数であり、一例として量子化パラメータ(QP)を変数として以下の数式3で算出される値が用いられる。
Figure 2008278091
上記、数式3は、動き補償画面間予測符号化手法において、参照画像の中から最適な動きベクトルを選択する手法として、例えば、JM(Joint Model)と呼ばれる標準化委員会の提供するリファレンスソフトウェアにて定義されているものである。
当該コスト関数による動きベクトルの選択の処理の詳細については、例えば、以下の参考文献に開示されている技術を用いればよい。
(参考文献1)「Rate-Distortion Optimization for Video Compression", IEEE Signal Processing Magazine, vol. 15, no. 6, pp.74-90, (November, 1998).
上記の数式2、数式3を用いたコスト関数による動きベクトルの選択処理については一例であり、当該方法を用いなくとも、他の方法で評価しても構わない。
上記のように動き探索を行うことにより、ブロック単位動き探索部(108)では、符号化による画像圧縮効率がより良くなる動きベクトルを算出することが可能である。
次に、類似動き領域設定部(110)の設定処理の詳細の一例を、図3のフローチャートに沿って説明する。
まず最初に、類似動き領域設定部(110)は、現在のブロックから見て左隣接ブロックの有無を判定する(S301)。左隣接ブロックがない場合(S301の判定結果が“NO”の時)は後述のステップ305(S305)に移行する。左隣接ブロックがある場合(S301の判定結果が“YES”の時)、類似動き領域設定部(110)は、左隣接ブロックのブロック単位動きベクトル(MV_block_left)と現ブロックのブロック単位動きベクトル(MV_block_curr)の差分値(MV_diff)を算出する(S302)。差分値を算出する一例として、上記の各ブロック単位動きベクトルを以下の数式4、数式5に示すようにx成分とy成分に分離し、数式6に示すように各成分どうしの絶対値和として求めることで算出可能である。また絶対値和の代わりに2乗和を用いてもよい。
Figure 2008278091
Figure 2008278091
Figure 2008278091
ここで、類似動き領域設定部(110)は、数式6で算出したベクトル差分値(MV_diff)をあらかじめ定めておいた閾値と比較する(S303)。差分値が閾値以下であれば(S303の判定結果が“YES”の時)現ブロックを左隣接ブロックの類似領域であると判定する(S304)。
一方、差分値が閾値より大きい場合は(S303の判定結果が“NO”の時)、ステップ305(S305)に移行する。類似動き領域設定部(110)は、ステップ305(S305)において、現ブロックから見て上隣接ブロックの有無を判定する。上隣接ブロックがない場合(S305の判定結果が“NO”の時)はステップ309(S309)に移行する。類似動き領域設定部(110)は、上隣接ブロックがある場合(S305の判定結果が“YES”の時)は、上隣接ブロックのブロック単位動きベクトル(MV_block_upper)と現ブロックのブロック単位動きベクトル(MV_block_curr)の差分値(MV_diff)を算出する(S306)。当該差分値の算出は上述の数式4〜数式6において(MV_block_left)を(MV_block_upper)で置き換えることにより可能である。ここで、類似動き領域設定部(110)は、算出したベクトル差分値(MV_diff)をあらかじめ定めておいた閾値と比較する(S307)。差分値が閾値以下であれば(S307の判定結果が“YES”の時)現ブロックを上隣接ブロックの類似領域であると判定する(S308)。一方、差分値が閾値より大きい場合は(S307の判定結果が“NO”の時)、ステップ309(S309)に移行する。
次に、類似動き領域設定部(110)は、現ブロックが画面内の最後のブロックであるかを判定する(S309)。現ブロックが画面内の最後のブロックでなければ(S309の判定結果が“NO”の時)、次のブロックに移行し(S310)、再び(S301)からの処理を実施する。一方、現ブロックが画面内の最後のブロックの時(S309の判定結果が“YES”の時)は処理を終了する。
上記のように類似動き領域の設定処理を行うことにより、動きベクトルの類似する複数のブロックを一の類似動き領域として設定することが可能となる。
次に、代表動きベクトル算出部(111)による、類似動き領域についての代表動きベクトル(MV_global)の選択処理の詳細の一例を、図4、図5を用いて説明する。
図4は、1画面分の各ブロックについてブロック単位動き探索を行った際のブロック単位動きベクトルを示したものである。図4において、点線で囲まれた領域(40)は類似動き領域設定部(110)により類似動き領域として選択された領域であることを示す。図4では、block_A〜block_Eの5つのブロックが類似領域として選択されている。
この5つのブロックのブロック単位動きベクトルをそれぞれMVblockA〜MVblockEとした時、例えば、代表動きベクトル算出部(111)各ブロックの動きベクトルのx成分、y成分についての平均値を算出し、これを代表動きベクトルとすることで算出する。平均値をもちいる場合は、より簡便な方法で代表動きベクトルを定めることができる。また、平均値の代わりにx成分、y成分についての中央値を代表動きベクトルとしてもよい。中央値を用いる場合は、類似動き領域について、統計的な分布を考慮することが可能となる。
いずれの場合も、類似領域に含まれる複数のブロックの動きベクトルを変数とした関数による出力ベクトルを当該類似の代表動きベクトルとすればよい。これにより、類似領域に含まれる複数のブロックのそれぞれの動きベクトルに類似したベクトルを代表動きベクトルとすることが可能となる。
また代表動きベクトルの別の算出方法の例として、代表動きベクトル算出部(111)は、類似動き領域内の一のブロックについてのブロック単位動きベクトルを、当該類似動き領域の代表動きベクトルとした場合の当該類似動き領域コスト(各ブロックについてのコストの合計)を算出し、当該コストを各ブロックのブロック単位動きベクトルについて算出して比較することにより、一のブロック単位動きベクトルを代表動きベクトルとして算出しても良い。
この場合、図4の例においては、代表動きベクトル算出部(111)は、MVblockA〜MVblockEのそれぞれを、block_A〜block_Eにあてはめた時のコスト値をそれぞれ算出し、コスト値が最小となるベクトルを代表動きベクトルとすればよい。このように、既存の動きベクトルからコスト値が最も最小となる動きベクトルを選択することにより、発生符号量(画像符号化後のデータ量)を抑制することが可能な代表動きベクトルを比較的簡便に算出することができる。
図5は代表動きベクトル算出部(111)が、上記いずれかの処理により算出した代表動きベクトルを当該類似動き領域(40)内の各ブロックの(block_A〜block_E)動きベクトルに設定した状態を示す。なお、図4、図5では類似動き領域が画面内に1つのみ存在する場合の動作例を示したものであるが、画面内に類似動き領域が複数存在する場合も、各類似動き領域ごとに同様の処理を行い、代表動きベクトルを算出すればよい。
上記のように代表動きベクトル算出処理を行うことにより、類似動き領域について一の代表動きベクトルを設定することが可能となる。
次に、図1に示すエンコーダ(150)における動き補償部(120)における処理のフローチャートの一例を図6に示す。
まず最初に、ブロック単位動き探索部(108)は入力画像に対してブロック単位での動き探索を行う。ここで、コスト値が最小となるブロック単位動きベクトル(MV_block)を算出する(S601)。また、この時のコスト値をブロック単位コスト値(Cost_block)として算出する。次に、予測画像生成部(109)はブロック単位動き探索部(108)で求めたブロック単位動きベクトルから予測画像(pred_pic_block)を生成する(S602)。ここで、ステップ601およびステップ602に関して画面内の全てのブロックについて処理が終了したか判定し(S603)、処理が終了していないブロックがあれば次のブロックに移行して(S604)、再びステップ601およびステップ602の処理を行う。当該ステップ603の判定処理は、例えばブロック単位動き探索部(108)または制御部(160)が行えばよい。
次に、ステップ603で画面内の全てのブロックについて処理が終了していれば、類似動き領域設定部(110)による類似動き領域設定処理(S605)に移る。ステップ605の詳細な処理は、図3のフローチャートに示したとおりである。次に、ステップ605により設定された類似動き領域について、代表動きベクトル算出部(111)が代表動きベクトル(MV_global)を算出する(S606)。また、代表動きベクトル算出部(111)は、さらに、算出された代表動きベクトルを用いて動き予測をした際のコスト値(Cost_global)を求める(S606)。当該ステップ606の処理の詳細は、前述の図4、図5の説明にて示したとおりである。次に、予測画像生成部(112)が、ステップ606で算出された代表動きベクトルに基づいて予測画像(pred_pic_global)を生成する(S607)。
ここで、ステップ606およびステップ607に関して画面内の全ての類似動き領域について処理が終了したか判定し(S608)、処理が終了していない類似動き領域があれば次の類似動き領域に移行して(S609)、再びステップ606およびステップ607の処理を行う。
次に、ステップ610において、選択部(113)が、類似動き領域毎に、またはブロック毎に、ステップ601〜ステップ604におけるブロック単位の動き補償処理(動き探索処理および予測画像生成処理)の方式を採用するか、ステップ606〜ステップ609における類似動き領域単位の動き補償処理(動き探索処理および予測画像生成処理)の方式を採用するかを選択する(S610)。また、ステップ610においては、さらに選択部(113)は、選択した動き補償方式により算出した予測画像を減算器(100)へ出力し、選択した動き補償方式により算出した動きベクトルについての情報を可変長符号化部103に出力する(S610)。なお、当該ステップ610の詳細については後述する。
以上の選択部(113)によるステップ610の処理が終了すると、動き補償部(120)の処理が終了する。
次に、上述の図6のステップ610についての詳細を図7を用いて説明する。ここで、図7はステップ610における動き補償方式の選択を類似動き領域毎に行う場合の一例を示している。
図7に示されるステップは、いずれも選択部(113)が行う。まずステップ701では、画面内の一の類似動き領域を構成するブロックの数が1であるか否かを判定する(S701)。当該類似動き領域を構成するブロックの数が1である場合(S701の判定結果が“YES”の時)はステップ704に移行し、予測画像生成部(109)で生成された類似動き領域に含まれる各ブロックの予測画像(pred_pic_block)を類似動き領域に含まれる各ブロックの出力予測画像(pred_pic)に設定し、また類似動き領域に含まれる各ブロックのブロック単位動きベクトル(MV_block)を、各ブロックの出力動きベクトル(MV)に設定する(S704)。
一方、ステップ701において当該類似動き領域を構成するブロックの数が1でない場合(S701の判定結果が“NO”の時)は、ステップ702に移行し、ブロック単位動きベクトルを用いて算出(S601)したブロック単位コスト値(Cost_block)の当該類似動き領域に含まれるブロックについての合計(Sum_Cost_block)と、代表動きベクトルを用いて算出(S606)した類似動き領域のコスト値(Cost_global)との大小比較を行う(S702)。ここで、類似動き領域のコスト値(Cost_global)がブロック単位コスト値の合計(Sum_Cost_block)より小さい場合(S702の判定条件が“YES”の時)ステップ703に移行する。このとき、予測画像生成部(112)で生成された類似動き領域に含まれる各ブロックの予測画像(pred_pic_global)を類似動き領域に含まれる各ブロックの出力予測画像(pred_pic)に設定し、また代表動きベクトル(MV_global)を類似動き領域に含まれる各ブロックに共通の出力動きベクトル(MV)に設定する(S703)。逆に類似動き領域のコスト値(Cost_global)がブロック単位コスト値の合計(Sum_Cost_block)以上の場合(S702の判定条件が“NO”の時)はステップ704に移行する。なお、ステップ704の内容は上述の通りである。
次に、ステップ705においては、ステップ703もしくはステップ704により設定した出力予測画像を減算器(100)へ出力する(S705)。また、図2の説明に示した予測ベクトル(MV_pred)と、ステップ703もしくはステップ704により設定した各ブロックの出力動きベクトルとの差分動きベクトル(MV_diff)を可変長符号化部(103)へ出力する(S705)。
次に、画面内の全ての類似動き領域について処理が終了したか判定する(S706)。処理が終了していない類似動き領域があれば次の類似動き領域に移行し(S707)、再びステップ701〜ステップ705までの処理を行う。ステップ706において画面内の全ての類似動き領域について処理が終了していれば処理を終了する。
なお、図7のフローチャートにおいて、選択部(113)がステップ703を選択した類似動き領域については、当該類似動き領域に含まれる動きベクトルがすべて共通の代表動きベクトル(MV_global)となる。このとき、数式1に示した予測ベクトルの算出方法の性質により、同一の動きベクトルを有するブロックの領域においては、右下に位置するブロックが有する予測ベクトルほど、当該同一の動きベクトルに近づき、当該領域の大きさによっては予測ベクトルは当該同一の動きベクトルに収束することになる。
したがって、本実施例に係る当該類似動き領域のブロックのうち、右下方向のブロックほど、予測ベクトル(MV_pred)が代表動きベクトル(MV_global)に近づいていくことになる。
これにより、各ブロックの出力動きベクトル(MV)と予測ベクトルとの差分動きベクトル(MV_diff)を小さくすることが可能である。すなわち、一の類似動き領域において、一のブロックについて代表動きベクトルを出力すれば、前記一の類似動き領域に含まれる他のブロックについては、前記一のブロックの動きベクトルを基準とした0差分ベクトルを出力すればよく、送信する動きベクトルのデータ量が非常に小さくなる。よって、可変長符号化部(103)より出力される動きベクトルに関する発生符号量を低減することができる。さらに、ステップ702においてコスト比較を行った結果に基づいて動き補償方式を選択しているため、可変長符号化部(103)より出力される発生符号量のうち、量子化部(102)から出力される入力画像と予測画像との残差データに係る発生符号量と動きベクトルに関する発生符号量の合計についても、より低い発生符号量を選択して出力することが可能となる。
以上説明した、本発明の実施例1に係る動画像記録装置(1200)の動作の具体例の一例を、図13を用いて説明する
図13の情報処理装置(1305)において、画像信号データ(例えば、バイナリファイルからなる。)を生成し、プログラマブル信号発生器(1308)により、動画像記録装置(1303)に適した信号に変換する。これを動画像記録装置(1303)に入力し、動画像記録装置(1303)により、画像符号化処理を行う。次に動画像記録装置(1303)から出力される符号化ストリームを情報処理装置(1306)に入力する。もしくは、動画像記録装置(1303)により、リムーバブルメディア(1309)に記録した符号化ストリームを情報処理装置(1306)において読み取り処理を行う。このとき、情報処理装置(1306)では、読み取った符号化ストリーム内の動きベクトルデータ、データ量などを解析できる。
ここで説明する入力画像の具体例は、例えば、異なる速度で落下する物体の輪郭が重なるシーンの映像における両物体の輪郭部の映像である。このときの入力画像と出力結果の一例を、以下に説明する。
まず、情報処理装置(1305)で生成する画像信号データについて図14を用いて説明する(以下、図14の画像信号データは「入力画像1」と表記する。)。図14は、入力画像1に含まれる2つのフレーム(またはフィールド)の画像について、重畳して記載している。波線よりも上の部分(1401)が前フレームの部分を示し、波線よりも下の部分(1402)が現フレームの部分を示している。以下、本図の右方向がx方向、上方向がy方向として説明する。
図に示される各四角は画像ブロックであり、当該画像ブロックに記載されるA〜Jの記号は、それぞれ固有のブロック画像であることを示している。例えば、輝度信号や色度信号から構成されている。また、現フレーム(1402)の画像ブロックE、Jの右側にも、それぞれのブロックに固有の画像がM個のブロック分だけ格納されている。当該画像ブロックに対応する画像ブロックが前フレーム(1401)の画像ブロックE、Jの右側にも格納されている。以下、当該右側のブロックおよび画像ブロックA〜Jをブロック群(1406)と示す。
ここで、ブロックサイズは、本図においては、例として4×4であるとして説明する。その他16×16、8×8のブロックでも構わない。これは、符号化処理のシンタックスにあわせて設定すればよい。
ここで、ブロック画像B’はブロック画像Bとに対して差分画像の差分データ量が非常に小さい画像である。同じくブロック画像C’はブロック画像Cに対して、差分画像が非常に小さい画像であり、ブロック画像D’はブロック画像Dに対して、差分画像が非常に小さい画像である。ここで、A〜Jの記号が記載されていないブロックは輝度信号や色度信号が0の状態である。
また、入力画像1において、現フレームも前フレームもブロック画像F〜Jは一列に整列しているが、両フレーム間における当該ブロック画像F〜J間の距離はNブロックである。
したがって、画像ブロックA〜JのうちB、C、D以外の画像ブロックが、前フレームにおいては、現フレームに対してNブロック分y方向の位置に存在している。画像ブロックB、C、Dは、他のブロックと異なり、前フレームにおいては、現フレームに対してN+2ブロック分y方向の位置に存在している。また、前フレームにおいて、現フレームの画像ブロックB、C、DのそれぞれNブロック分y方向の位置には画像ブロックB’、C’、D’が存在している。
ここで、入力画像1の現フレームについて、前フレームを参照画像として、従来の動き探索を行うと、図の矢印1403〜1405に示すような動きベクトルが算出される。すなわち、従来の動きベクトル探索では、画像ブロックの差分値が小さくなるように予測画像ブロックを決定するため、前フレームに現フレームと同一の画像ブロックがあれば、前フレームにおける同一画像のブロックが予測画像として選択される。
したがって、本図においては、現フレームの画像ブロックAを始点とする動きベクトル1403は、前フレームの画像ブロックAを終点とする動きベクトルであり、y方向の大きさNブロック分のベクトルである。また、現フレームの画像ブロックFを始点とする動きベクトル1404は、前フレームの画像ブロックFを終点とする動きベクトルであり、y方向の大きさNブロック分のベクトルである。図示は省略するが、現フレームの画像ブロックE、G、H、I、Jについても、y方向の大きさがNブロック分のベクトルが算出される。また、現フレームの画像ブロックE、Jの右側の各ブロックについても、y方向の大きさがNブロック分のベクトルが算出される。
これに対し、画像ブロックBについては、現フレームの画像ブロックBを始点とし、前フレームの画像ブロックBを終点とするy方向の大きさN+2ブロック分の動きベクトル1405が算出される。図示は省略するが、同様に、画像ブロックCについては、現フレームの画像ブロックCを始点とし、前フレームの画像ブロックCを終点とする、y方向の大きさN+2ブロック分の動きベクトルが算出される。同様に、画像ブロックDについては、現フレームの画像ブロックDを始点とし、前フレームの画像ブロックDを終点とする、y方向の大きさN+2ブロック分の動きベクトルが算出される。
すなわち、図14の入力画像1の現フレームは、第1の動きベクトルを有する複数のブロックからなる第1のブロック群(B、C、D)と、第2の動きベクトルを有する複数のブロックからなる第2のブロック群(A、D,E、G、H、I、J他)から構成される矩形のブロック群(1406)が存在する。
また、図14の入力画像1の前フレームには、現フレームにおける第2のブロック群の各ブロックから第2の動きベクトル分だけ移動した位置に前記第2のブロック群の各ブロックと同一の画像が存在し、現フレームにおける第1のブロック群の各ブロックから第1の動きベクトル分だけ移動した位置に前記第1のブロック群の各ブロックと同一の画像が存在する。
また、図14の入力画像1の前フレームには、現フレームにおける第1のブロック群の各ブロックから第2の動きベクトル分だけ移動した位置に前記第1のブロック群の各ブロックとの差分の小さい画像(B’、C’、D’)が存在することとなる。
以上説明した入力画像1について従来の符号化処理を行った場合に、出力される符号化ストリームが有する際の動きベクトルデータ、予測ベクトル(mv_pred)データ、差分動きベクトルデータ、差分画像データについて、図15を用いて説明する。
図15には、入力画像1の現フレームのブロック群(1406)について、従来の符号化処理を行った場合の(a)動きベクトルデータ、(b)予測ベクトル(mv_pred)データ、(c)差分動きベクトルデータ、(d)差分画像データを示している(以下、図15のデータは「出力結果1」と表記する)。
ここで、本図におけるベクトルの値の表記について説明する。入力画像1では、探索により取得される各動きベクトルがy方向のみであるので、出力結果1の(a)動きベクトルデータ、(b)予測ベクトル(mv_pred)データ、(c)差分動きベクトルデータの各値は、動きベクトル(x,y)のうち、yの値のみを記載したものである。ここで、(b)予測ベクトル(mv_pred)データは、上記の数式1を用いて算出したデータである。また、(c)差分動きベクトルデータは、(a)動きベクトルデータから、(b)予測ベクトル(mv_pred)データを減算したものであり、出力される符号化データに含まれるものである。さらに、(d)差分画像データは、符号化対象画像ブロック(現フレームのブロック)と予測画像(前フレームのブロックで動きベクトルが指すブロック)との差分のデータ量である。本図においては、動きベクトル1ブロック分のデータ量に相当する差分画像データ量を1として表記している。
図15に示す従来の符号化処理の出力結果(出力結果1)においては、(c)差分動きベクトルデータのデータ量の合計(絶対値の和)は、(5+M)×N+10となり、(d)差分画像データのデータ量の合計(絶対値の和)は0となる。したがって、符号化処理により発生する差分データの合計は、(5+M)×N+10となる。
これに対し、入力画像1に実施例1に係る符号化処理を行った場合の(a)〜(d)の結果(以下、図15のデータは「出力結果2」と表記する)は図16に示すとおりとなる。
まず、本発明の実施例1においては、類似動き領域を算出する。ここで、類似動き領域の算出において用いる閾値は、各装置の実施の形態により異なるものであるが、本画像信号データにおいては、現フレームのブロック群(1406)を一つの類似動きブロックと判定させる必要がある。
したがって、入力画像1における画像ブロックB〜Dの動きベクトルは、できるだけブロック群(1406)の他の画像ブロックの有する動きベクトルNとの差が少ないように設定する必要がある。図15の例では、一例として画像ブロックB〜Dの動きベクトルのN+2としているが、N+1としても構わない。
このように、画像ブロックB〜Dを、他の画像ブロックの動きベクトルと異ならせ、かつ、その差を小さくすることにより、実施例1の符号化処理において、現フレームのブロック群(1406)を一の類似動き領域とすることができる。
さらに実施例1の符号化処理では、図15の従来の(a)動きベクトルデータから、代表動きベクトルを算出する。ここで、図4、図5の説明にて記載したように、代表動きベクトルは、同一類似動き領域内の各動きベクトルの中央値、平均値などから算出する。ここで、図15の(a)の場合では、M=2の場合、同一類似動き領域内の動きベクトルは、N+2が3個、Nが11個となる。このとき、中央値はN、平均値は、N+0.4となり、小数点以下四捨五入するとNとなる。また、小数点以下四捨五入を行わなくとも、Mの値を大きくすることにより平均値をNに近似することが可能である。
以上のような場合、図15の(a)の動きベクトルデータを用いて、本実施例による代表動きベクトル算出方法により代表動きベクトルを算出すると、y方向の大きさNの動きベクトルが代表動きベクトルとして算出される。
ここで、本実施例の符号化処理おいては、図16の(a)に示すように、同一類似動き領域内のすべての動きベクトルを代表動きベクトルに置換する。具体的には、現フレームの画像ブロックB,C,Dの動きベクトルについて、図15(a)では大きさN+2であるところ、図16の(a)では、いずれも大きさNに置換している。この結果、出力結果2では、ブロック群(1406)(同一類似動きベクトル)内の(a)動きベクトルデータはいずれもNとなり、(b)予測ベクトル(mv_pred)データ、(c)差分動きベクトルデータ、(d)差分画像データは、それぞれ図16に示すとおりとなる。
この結果、図16に示す本実施例に係る符号化処理の出力結果(出力結果2)においては、(c)差分動きベクトルデータのデータ量の合計(絶対値の和)は、(5+M)×Nとなり、(d)差分画像データのデータ量の合計(絶対値の和)は3となる。したがって、符号化処理により発生する差分データの合計は、(5+M)×N+3となり、従来の符号化処理による差分データの合計である(5+M)×N+10よりも、データ量が低減されている。
以上において一例を説明した図14の画像信号データの前フレームおよび現フレームを図13の情報処理装置(1305)で生成し、動画像記録装置(1303)に入力し、本実施例の動画像記録装置(1303)から出力される符号化ストリームを情報処理装置(1306)で解析する。このとき、例えば従来の動画像記録装置による結果である図15の出力結果1に比べて、本図16に示す実施例の出力結果2では、データ量が低減される。
またこのとき、図16に示す結果を示した場合に、当該動画像記録装置(1303)において、さらに別の信号を入力した場合の動作例を以下に説明する。
図17において、図14と同じ符号が付されているものは、同一のものである。よって、図17に示す入力画像2では、前フレームのブロック(1701)が図14の画像ブロックB’ではなく、画像ブロックXに替わっている。ここで、画像ブロックXは画像ブロックB’と異なり、画像ブロックBとの差分画像の差分データ量が非常に大きい画像である。
すなわち、図17の入力画像2の現フレームは、入力画像1と同じく、第1の動きベクトルを有する複数のブロックからなる第1のブロック群(B、C、D)と、第2の動きベクトルを有する複数のブロックからなる第2のブロック群(A、D,E、G、H、I、J他)から構成される矩形のブロック群(1406)の存在する。
また、図17の入力画像2の前フレームには、入力画像1と同じく、現フレームにおける第2のブロック群の各ブロックから第2の動きベクトル分だけ移動した位置に前記第2のブロック群の各ブロックと同一の画像が存在し、現フレームにおける第1のブロック群の各ブロックから第1の動きベクトル分だけ移動した位置に前記第1のブロック群の各ブロックと同一の画像が存在する。
また、図17の入力画像2の前フレームには、入力画像1と異なり、現フレームにおける第1のブロック群の一部のブロック(C、D)については、各ブロックから第2の動きベクトル分だけ移動した位置に前記一部のブロック(C、D)との差分の小さい画像(C’、D’)が存在し、現フレームにおける第1のブロック群の他のブロック(B)から第2の動きベクトル分だけ移動した位置には、前記他のブロック(B)との差分が大きい画像(X)が存在する。
ここで、図17の入力画像2に対して図16の(a)に示す代表ベクトルの置換を行った場合の、(a)動きベクトルデータ、(b)予測ベクトル(mv_pred)データ、(c)差分動きベクトルデータ(d)差分画像データは図18に示す通りとなる。
図18のデータ(以下、「出力結果3」と表記する)のうち、(a)動きベクトルデータ、(b)予測ベクトル(mv_pred)データ、(c)差分動きベクトルデータは、図16と変らないが、(d)差分画像データは、現フレームのブロック(1801)すなわち画像ブロックBについての差分画像データ量が大きくなっている。本図の例では、画像ブロックBについての差分画像データ量が20の場合を示している。
ここで、このデータ量が大きくなった理由は、図18(a)に示すように、現フレームの画像ブロックBについて大きさN+2のベクトルを、大きさNの代表ベクトルに置換したことにより、現フレームの画像ブロックBについての予測画像が、前フレームの画像ブロックXとなったことに起因する。
このとき、図18に示す出力結果3においては、(c)差分動きベクトルデータのデータ量の合計(絶対値の和)は、(5+M)×Nとなり、(d)差分画像データのデータ量の合計(絶対値の和)は22となる。したがって、符号化処理により発生する差分データの合計は、(5+M)×N+22となる。したがって、このままでは従来の符号化処理による差分データの合計である(5+M)×N+10よりも、差分データの合計が大きくなってしまうはずである。
ここで、動画像記録装置(1303)が本実施例に係る動画像記録装置(1200)である場合は、類似動き領域の各動きベクトルについて代表動きベクトルによる置換を行うと、従来の符号化処理よりも、差分データの合計が大きくなってしまう入力信号に対しては、図7に示す類似動き領域単位の選択処理を行うことにより、当該類似動き領域については、従来の符号化処理に変更する。したがって、図17に示す入力画像2を動画像記録装置(1303)に入力した場合、情報処理装置(1306)が解析した結果は、図18に示す出力結果3ではなく、図15に示す出力結果1となる。
以上説明した選択処理により、本実施例の動画像記録装置(1200)は、代表ベクトルへの置換により、差分データが大きくなってしまう画像が入力された場合にも、その差分データの増加を防止することが可能である。
以上説明した入力画像と出力結果の関係を図20のフローチャートで説明する。
まず、ステップ2001にて、フローチャートをスタートし、ステップ2002にて、図14に示す入力画像1を動画像記録装置(1303)に入力する。動画像記録装置(1303)が従来の符号化処理を行うものであれば、図15に係る出力結果1が出力される。(S2004)。
ここで、動画像記録装置(1303)が本実施例の動画像記録装置(1200)である場合には、図15に係る出力結果1が出力される。(S2004)。
なお、以上の動作の説明は、本発明の実施例1に係る動画像記録装置(1200)について行ったが、当該動画像記録装置(1200)の有するエンコーダ(150)のみの動作についても入力画像と出力結果の関係は、上記の説明と同じである。
但し、本発明の実施例1に係るエンコーダ(150)は図1に示される各部を有するハードウェアにでもよく、また図1に示す制御部(160)が、記憶部(170)が記憶するソフトウェアと協働することによりによっても実現することが可能である。したがって、実施例1に係るエンコーダ(150)は、ソフトウェアエンコーダ(1301)の場合と、ハードウェアエンコーダ(1302)の場合がある。
よって、図13においては以下の場合においても、上記の動画像記録装置(1200)の入力画像と出力結果の関係と同様の結果となる。
すなわち、ソフトウェアエンコーダ(1301)の場合は、情報処理装置(1305)において、ソフトウェアエンコーダ(1301)に適応する画像信号データ(例えば、バイナリファイルからなる。)を生成し、ソフトウェアエンコーダ(1301)により、画像符号化処理を行う。次にソフトウェアエンコーダ(1301)から出力される符号化ストリームを情報処理装置(1306)入力する。最後に情報処理装置(1306)が、入力された符号化ストリーム内の動きベクトルデータ、データ量などを解析する。この場合も、上記の動画像記録装置(1200)の入力画像と出力結果の関係と同様の結果となる。
また、ハードウェアエンコーダ(1302)の場合は、情報処理装置(1305)において、画像信号データ(例えば、バイナリファイルからなる。)を生成し、再生装置(1307)により、ハードウェアエンコーダ(1302)に適した信号に変換する。これをハードウェアエンコーダ(1302)に入力し、ハードウェアエンコーダ(1302)により、画像符号化処理を行う。次にハードウェアエンコーダ(1302)から出力される符号化ストリームを情報処理装置(1306)入力する。最後に情報処理装置(1306)が、入力された符号化ストリーム内の動きベクトルデータ、データ量などを解析する。の場合も、上記の動画像記録装置(1200)の入力画像と出力結果の関係と同様の結果となる。
以上説明した本発明の実施例1に係る動画像記録装置の有するエンコーダによれば、従来の予測ベクトルの生成方法を用いながら、符号化対象ブロックについて、動きベクトルが類似する度合いに基づいて領域を設定し、当該領域ごとに動きベクトルを共通化する。
これにより、動きベクトルに関する発生符号量を低減して、より圧縮効率が良く、かつ既存の符号化規格に対応する復号化装置でも復号化を行うことができる符号化データを生成するエンコーダを実現することが可能になる。
また、動きベクトルが類似する領域ごとに動きベクトルを共通化する方式と、従来の動き補償方式とを比較して選択することにより、全体の発生符号量(画像符号化後のデータ量)を従来の方式と比べて低減することが可能となる。
また、本発明の実施例1に係る動画像記録装置の有するエンコーダは、従来の予測ベクトルの生成方法を用いながら、符号化対象ブロックについて、動きベクトルが類似する度合いに基づいて領域を設定し、当該領域ごとに動きベクトルを共通化する。
これにより、動きベクトルに関する発生符号量を低減して、より圧縮効率が良く、かつ既存の符号化規格に対応する復号化装置でも復号化を行うことができる符号化データを生成できる。
また、以上説明した本発明の実施例1に係る動画像記録装置(1200)は、入力した符号化ストリームに圧縮効率の高い画像符号化処理を行う。これにより、デマルチプレクサ部(1203)で分離された符号化ストリームよりも、よりデータ量の小さい符号化ストリームを生成することができ、蓄積部(1210)に蓄積するデータ量を低減できる。これにより、従来例と同一画質で記録する場合あっても、デマルチプレクサ部(1203)分離された符号化ストリームをそのまま蓄積する従来例の場合よりも、本発明の実施例1に係る動画像記録装置(1200)は、録画時間をより長くすることが可能となる。
また、本発明の実施例1に係る動画像記録装置(1200)は、蓄積部(1210)をハードディスクドライブ(磁気ディスク)やフラッシュメモリー(半導体記録媒体)とし、動画像記録装置(1200)をレコーダとして構成しても良い。この場合は、ハードディスクドライブ(磁気ディスク)やフラッシュメモリー(半導体記録媒体)に、圧縮効率の良い録画処理を行うことができる。これにより同一容量のハードディスクドライブ(磁気ディスク)やフラッシュメモリー(半導体記録媒体)であってもより長時間の録画が可能なレコーダを実現できる。
また、本発明の実施例1に係る動画像記録装置(1200)は、例えば、蓄積部(1210)に替えて、図12に示すリムーバルメディア(1215)に対して、符号化した画像データを書きこみ処理、読み取り処理を行うリムーバルメディア読みとり/書きこみ部(1214)を備えても良い。なお、リムーバルメディア読みとり/書きこみ部(1214)の記録・再生動作は、録画再生制御部(1209)を介して行われる。この場合は、リムーバルメディア(1215)に圧縮効率の良い録画を行うことが可能となり、リムーバルメディア(1215)の容量をより好適に利用する動画像記録装置が実現できる。
また、復号化後のデータを出力する画像出力部(1206)や音声出力部(1207)のほかに、例えば、図12に示す出力部(1216)を設けてもよい。このとき、エンコーダ(150)が符号化し、蓄積部(1210)が蓄積している符号化ストリームを、録画再生制御部(1209)が取得して出力部(1216)から外部機器に出力させてもよい。この場合、動画像記録装置(1200)は、画像圧縮装置となり、同画質でも、従来の符号化技術よりもデータ量の小さい符号化ストリームを出力することが可能となる。これにより、外部機器に出力する通信帯域の節約などが可能となる。
また、本発明の実施例1に係る動画像記録装置は、従来の予測ベクトルの生成方法を用いながら、符号化対象ブロックについて、動きベクトルが類似する度合いに基づいて領域を設定し、当該領域ごとに動きベクトルを共通化する。これにより、動きベクトルに関する発生符号量を低減して、より圧縮効率が良く、かつ既存の符号化規格に対応する復号化装置でも復号化を行うことができる符号化データを生成する動画像記録装置を実現することが可能になる。
以上説明した本発明の実施例1に係る動画像記録装置によれば、入力された画像信号を蓄積部に記録する際に、画像符号化後のデータ量をより低減し、圧縮効率をより良くすることができる。例えば、これにより、より長時間の録画を可能とする動画像記録装置が実現できる。
また、本発明の実施例1に係る動画像記録装置よれば、既存の符号化規格に対応する復号化装置でも復号化を行うことができ、かつデータ量の小さい符号化データを出力することが可能な動画像記録装置を実現できる。
次に、本発明の実施例2について説明する。
本発明の実施例2は、実施例1の動画像記録装置(1200)のうち、エンコーダ(150)が、構成及び動作が異なるエンコーダ(850)に換わったものである。その他の構成及び動作は実施例1と同じである。
図8は、本発明の実施例2に係るエンコーダ(850)の構成ブロック図である。
なお、以下の説明において、実施例1にて説明した構成要素と同一の符号が付されている構成要素は同一の機能を有するので、説明は省略する。
図8に示すエンコーダ(850)は、図1に示すエンコーダ(150)にはない動き再探索部(814)を有する動き補償部(820)を備える。
以下に、動き再探索部(814)の動作について説明する。動き再探索部(814)は代表動きベクトル算出部(111)で求めた代表動きベクトル(MV_global)を中心として、類似動き領域設定部(110)に含まれる複数ブロックについて再度動き探索を行い、コスト値が最小となる動きベクトル(re_MV_global)を求める。以下、これを再探索動きベクトル(re_MV_global)と呼ぶ。実施例2に係るエンコーダ(850)においては、動き再探索部(814)以降の処理においては、実施例1に係るエンコーダ(150)における代表動きベクトル(MV_global)をすべて再探索動きベクトル(re_MV_global)に置き換えて処理を行う。
ここで、動き再探索部(814)の選択処理の詳細の一例を、図9を用いて説明する。図9は、図2(a)に示される参照画像202と符号化対象画像201を重ねて示した図である。ここで、動き再探索部(814)は類似動き領域単位で動き探索を行う点が図2と異なる。よって図9においては、符号化対象画像201上で類似動き領域を構成するblock_A〜block_Eについて、参照画像202上で代表動きベクトル(MV_global)が示す位置を中心に動き探索を行う。例えば、代表動きベクトルが指す参照画像202上の予測画像領域(91)である場合、探索範囲(92)ついて動き探索を行う。このとき、動き再探索部(814)は、探索範囲(92)に示す領域内において当該再度探索を行い、符号化コストが最小となる動きベクトルを再探索動きベクトル(re_MV_global)として算出する。
ここで、実施例1において用いる代表動きベクトル(MV_global)は、類似領域に含まれる複数のブロックの動きベクトルもとに求めたものである。これに対し、実施例2において用いる再探索動きベクトル(re_MV_global)は符号化コストの観点から、再度最適なベクトルを選択するものである。よって、再探索動きベクトル(re_MV_global)を用いて生成された予測画像は、代表動きベクトル(MV_global)を用いて生成された予測画像よりもさらに高精度となり、量子化部(102)から出力される入力画像と予測画像との残差データの残差量は、実施例1に比べ、実施例2の方が小さくなる。これにより可変長符号化部(103)における発生符号量(画像符号化後のデータ量)は低減される。
次に、図8に示すエンコーダ(850)における動き補償部(820)における処理のフローチャートの一例を図10に示す。
ここで、図10のステップ1001〜1005は、図6のステップ601〜605と同様のステップであるため、説明を省略する。
次に、ステップ1006の代表動きベクトル(MV_global)の算出処理についても、ステップ606と同様であるが、ステップ1006では、ステップ606と異なり、代表動きベクトル算出部(111)は、類似動き領域のコスト値(Cost_global)の算出は行わない(S1006)。次に、ステップ1007進む。
ステップ1007では、動き再探索部(814)が上記代表動きベクトルを中心として動き再探索を行い、類似動き領域のコスト値(Cost_global)が最小となる動きベクトル(re_MV_global)を算出する(S1007)。次に、ステップ1008では、予測画像生成部(112)が、ステップ1007で算出された再探索動きベクトル(re_MV_global)に基づいて予測画像(pred_pic_global)を生成する(S1008)。
以降の図10のステップ1009〜1011については、図6のステップ608〜610と同様のステップであるが、いずれも代表動きベクトル(MV_global)については、再探索動きベクトル(re_MV_global)に置き換えて処理する。
また、ステップ1011の詳細の処理についても、図7に示されるフローチャートの処理を行えばよい。この場合も、代表動きベクトル(MV_global)については、再探索動きベクトル(re_MV_global)に置き換えて処理する。
以上説明した、本発明の実施例2に係る動画像記録装置の動作について、例えば、図13において実施例1と同様の入力信号を入力した場合の出力結果は、図15で算出される代表動きベクトル(MV_global)が、再探索動きベクトル(re_MV_global)に置換されて異なるものとなり、その結果として、例えば図16に示される出力結果2の合計差分データ量が、実施例1の合計差分データ量よりも低減される。入力画像と出力結果の関係のその他の点については、実施例1と同様である。
なお、本発明の実施例2に係る動画像記録装置の有するエンコーダのみの動作についても、図13における入力画像と出力結果の関係は、上記実施例2に係る動画像記録装置の説明と同じである。
以上説明した本発明の実施例2の動画像記録装置の有するエンコーダによれば、再探索によって求めた再探索動きベクトル(re_MV_global)を代表動きベクトル(MV_global)に代えて用いる。これにより、実施例1で用いる動きベクトルよりも差分データ量が小さくなる動きベクトルを用いることが可能となり、実施例1の動画像記録装置の有するエンコーダよりも、画像符号化後のデータ量を低減し、画像符号化の圧縮効率をより良くすることができる。
また、本発明の実施例2に係る動画像記録装置は、再探索によって求めた再探索動きベクトル(re_MV_global)を代表動きベクトル(MV_global)に代えて用いる。これにより、実施例1で用いる動きベクトルよりも差分データ量が小さくなる動きベクトルを用いることが可能となり、
実施例1の動画像記録装置よりも、画像符号化後のデータ量を低減し、画像符号化の圧縮効率をより良く記録することが可能となる。したがって、実施例2に係る動画像記録装置では、実施例1の動画像記録装置よりも長時間の録画を可能とし、かつ既存の符号化規格に対応する復号化装置でも復号化を行うことができる符号化データを生成する動画像記録装置が実現できる。
次に、本発明の実施例3について説明する。
本発明の実施例3は、実施例1または実施例2の動画像記録装置(1200)のうち、エンコーダの選択部(113)の動作が異なるものである。その他の構成及び動作は実施例1または実施例2と同じである。
ここで、本発明の実施例3の選択部(113)は、実施例1または実施例2の選択部(113)において、類似動き領域単位のループ処理で行われていた処理フローチャートを、ブロック単位のループ処理に変更したものである。以下、図11を用いて説明する。
図11に本発明の実施例3に係る選択部(113)におけるフローチャートの一例を示す。まず、実施例1におけるエンコーダの選択部(113)の処理を、ブロック単位のループ処理に変更した場合を説明する。
まずステップ1101では、画面内の一のブロックが、ブロックを2以上含む類似動き領域に含まれるか否かを判定する(S1101)。当該ブロックがブロックを2以上含む類似動き領域に含まれない場合(S1101の判定結果が“NO”の時)はステップ1104に移行し、予測画像生成部(109)で生成された当該ブロックの予測画像(pred_pic_block)を当該ブロックの出力予測画像(pred_pic)に設定し、また当該ブロックのブロック単位動きベクトル(MV_block)を、当該ブロックの出力動きベクトル(MV)に設定する(S1104)。
一方、ステップ1101において当該ブロックがブロックを2以上含む類似動き領域に含まれる場合(S1101の判定結果が“YES”の時)は、ステップ1102に移行し、ブロック単位コスト値(Cost_block)の当該類似動き領域に含まれるブロックのコスト値(Cost_block)と、類似動き領域のコスト値(Cost_global)のうちの当該ブロック位置におけるブロック単位のコスト値(Cost_global_per_block)との大小比較を行う(S1102)。ここで、類似動き領域のコスト値(Cost_global)のうち当該ブロック位置におけるブロック単位のコスト値(Cost_global_per_block)がブロック単位のコスト値(Cost_block)より小さい場合(S1102の判定条件が“YES”の時)ステップ1103に移行する。このとき、予測画像生成部(112)で生成された予測画像(pred_pic_global)を当該ブロックの出力予測画像(pred_pic)に設定し、また代表動きベクトル(MV_global)を当該ブロックの出力動きベクトル(MV)に設定する(S1103)。
逆に類似動き領域のコスト値(Cost_global)のうち当該ブロック位置におけるブロック単位のコスト値(Cost_global_per_block)がブロック単位のコスト値(Cost_block)以上の場合(S1102の判定条件が“NO”の時)はステップ1104に移行する。なお、ステップ1104の内容は上述の通りである。
次に、ステップ1105においては、ステップ1103もしくはステップ1104により設定した出力予測画像を減算器(100)へ出力する(S1105)。また、図2の説明に示した予測ベクトル(MV_pred)と、ステップ1103もしくはステップ1104により設定した各ブロックの出力動きベクトルとの差分動きベクトル(MV_diff)を可変長符号化部(103)へ出力する(S1105)。
次に、画面内の全ての類似動き領域について処理が終了したか判定する(S1106)。処理が終了していない類似動き領域があれば次の類似動き領域に移行し(S1107)、再びステップ1101〜ステップ1105までの処理を行う。またステップ1106で画面内の全てのブロックについて処理が終了していれば処理を終了する。
なお、図11のフローチャートにおいては、実施例1とは異なり、選択部(113)はブロックごとに、動き補償方式を選択している。よって、同一の類似動き領域内でも代表動きベクトル(MV_global)を有するブロックと、ブロック単位動きベクトル(MV_block)とを有するブロックが存在することになる。しかし、この場合においても、ステップ1102においてコスト比較を行った結果に基づき、より発生符号量が低くなる動き補償方式を選択しているため、可変長符号化部(103)から出力される発生符号量(画像符号化後のデータ量)を低減することが可能となる。これにより、圧縮効率をより良くすることができる。
なお、図11に示したフローチャートは、実施例1におけるエンコーダの選択部(113)の処理を、ブロック単位のループ処理に変更した場合を説明した。これに対し、実施例2におけるエンコーダの選択部(113)の処理を、ブロック単位のループ処理に変更した場合については、ステップ1103において、設定する代表動きベクトル(MV_global)を、実施例2において用いる再探索動きベクトル(re_MV_global)に置き換えることにより実現できる。
以上説明した本発明の実施例3に係る動画像記録装置(1200)の動作の具体例について、上記の実施例と同様に、入力画像と出力結果を用いて説明する。
まず、図13において、本実施例に係る動画像記録装置(1303)に、例えば図14の入力画像1を入力すると、例えば図16の出力結果2が出力される。これは、実施例1と同じである。
しかし、図13において本実施例に係る動画像記録装置(1303)に、例えば図17の入力画像2を入力すると、例えば図19に示す出力結果4が得られる。この点が実施例1と相違する。以下にこれを説明する。
まず、既に説明したとおり、実施例1もしくは、実施例2に係る動画像記録装置では、図17の入力画像2を入力した場合は、図15に示す出力結果1が選択されて出力される。この出力結果1において、動きベクトルの大きさがN+2となる各ブロック(B、C、D)についての差分データ量(差分ベクトルデータ量と差分画像データ量の合計)は、図15に示すように、いずれもN+2である。
次に、図17の入力画像2を入力した際に、ブロック(B、C、D)をすべて代表ベクトルに置換したと仮定したときの出力結果である図18の出力結果3においては、すべてのブロックにおける動きベクトルを代表ベクトルに置換しており、この場合は、図18に示すとおり、ブロックBについての差分データ量はN+20、ブロックC、Dについての差分データ量はN+1となる。
ここで、本実施例に係る符号化処理においては、図11に示すブロック単位の選択処理を行っているため、ブロックB、C、Dにのそれぞれについて、図15に示す出力結果1と図18に示す出力結果3との差分データ量を比較し、差分データ量が少ないほうの結果の動きベクトルを選択する。
ブロックBについては、出力結果1の差分データ量はN+2、出力結果3の差分データ量はN+20であり、出力結果1の動きベクトル(従来方法の動きベクトル)の方が、出力結果3の動きベクトル(代表動きベクトル)よりも差分データ量が小さいため、出力結果1の動きベクトルが選択される。
また、ブロックC、Dについては、出力結果1の差分データ量はN+2、出力結果3の差分データ量はN+1であり、出力結果3の動きベクトル(代表動きベクトル)の方が、出力結果1の動きベクトル(従来方法の動きベクトル)よりも差分データ量が小さいため、出力結果3の動きベクトルが選択される。
以上の選択の結果から、本実施例に係る符号化処理による結果は、図19に示す出力結果4ようになものとなる。
この結果、図19に示す本実施例に係る符号化処理の出力結果(出力結果4)では、においては、(c)差分動きベクトルデータのデータ量の合計(絶対値の和)は、(5+M)×N+2となり、(d)差分画像データのデータ量の合計(絶対値の和)は2となる。したがって、符号化処理により発生する差分データの合計は、(5+M)×N+4となり、従来の符号化処理による差分データの合計である(5+M)×N+10よりも、データ量が低減されている。
以上説明した入力画像と出力結果の関係を図20のフローチャートで説明する。
ステップ2005より前のフローは、実施例1もしくは実施例2と同じである。本実施例の動画像記録装置に、入力画像2が入力された場合(S2005)には、図19に出力結果4が出力される(S2008)。
なお、以上の動作の説明は、本実施例に係る動画像記録装置について行ったが、当該動画像記録装置の有するエンコーダのみの動作についても、図13における入力画像と出力結果の関係は、上記本実施例に係る動画像記録装置の説明と同じである。
以上説明した本発明の実施例3の動画像記録装置の有するエンコーダによれば、各類似動き領域において用いる代表動きベクトルを、領域単位での動き探索により取得する動きベクトルに置き換えることにより、実施例1に係るエンコーダに比べて、各類似動き領域についてより発生符号量の低い動きベクトルを用いることが可能となる。これにより、実施例1に係るエンコーダに比べて、画像符号化後のデータ量をより低減することができる。
また、本発明の実施例3に係る動画像記録装置は、各類似動き領域において用いる代表動きベクトルを、領域単位での動き探索により取得する動きベクトルに置き換えることにより、実施例1に係る動画像記録装置に比べて、各類似動き領域についてより発生符号量の低い動きベクトルを用いることが可能となる。これにより、実施例1の動画像記録装置よりも、画像符号化後のデータ量を低減し、画像符号化の圧縮効率をより良く記録することが可能となる。これにより、実施例1の動画像記録装置よりも長時間の録画を可能とし、かつ既存の符号化規格に対応する復号化装置でも復号化を行うことができる符号化データを生成する動画像記録装置が実現できる。
本発明の実施例に係るエンコーダの構成の一例を示すブロック図である。 本発明の実施例に係る動き探索動作の一例の説明図である。 本発明の実施例に係る動き補償部の処理フローチャートの一例を示す図である。 本発明の実施例に係る動き探索結果の一例を示す図である。 本発明の実施例に係る代表動きベクトルの設定結果の一例を示す図である。 本発明の実施例に係る動き補償部の処理フローチャートの一例を示す図である。 本発明の実施例に係る選択部の処理フローチャートの一例を示す図である。 本発明の実施例に係るエンコーダの構成の一例を示すブロック図である。 本発明の実施例に係る動き探索動作の一例の説明図である。 本発明の実施例に係る動き補償部の処理フローチャートの一例を示す図である。 本発明の実施例に係る動き補償部の処理フローチャートの一例を示す図である。 本発明の実施例に係る動画像記録装置の構成の一例を示すブロック図である。 本発明の実施例に係る画像符号化処理の確認方法の一例を示す図である。 本発明の実施例に係る入力画像の一例を示す図である。 従来の動画像記録装置に係る出力結果の一例を示す図である。 本発明の実施例に係る出力結果の一例を示す図である。 本発明の実施例に係る入力画像の一例を示す図である。 本発明の実施例に係る出力結果の一例を示す図である。 本発明の実施例に係る出力結果の一例を示す図である。 本発明の実施例に係る画像符号化処理の確認方法のフローチャートの一例を示す図である。
符号の説明
100…減算器、101…DCT部、102…量子化部、103…可変長符号化部、104…逆量子化部、105…IDCT部、105…加算器、107…フレームメモリ、108…ブロック単位動き探索部、109…予測画像生成部、110…類似動き領域設定部、111…代表動きベクトル算出部、112…予測画像生成部、113…選択部、120…動き補償部、130…入力部、140…出力部、150…エンコーダ、160…制御部、170…記憶部、814…動き再探索部、820…動き補償部
850…エンコーダ、1200…動画像記録装置、1201…アンテナ、1202…チューナ、1203…デマルチプレクサ部、1204…映像デコーダ、1205…音声デコーダ、1206…画像映像出力部、1207…音声出力部、1208…エンコーダ、1209…録画再生制御部、1210…蓄積部、1211…外部入力部、1212…制御部、1213…記憶部、1301…ソフトウェアエンコーダ、1302…ハードウェアエンコーダ、1303…動画像記録装置、1305…情報処理装置、1306…情報処理装置、1307…再生装置、1308…プログラマブル信号発生器、1309…リムーバブルメディア

Claims (20)

  1. 入力画像に対して画面間予測を用いた符号化処理を行い動画像を記録する動画像記録方法であって、
    前記入力画像に対してブロック単位で動き探索を行い、各ブロックの動きベクトルを算出するブロック単位動き探索ステップと、
    前記ブロック単位動き探索ステップにて算出した動きベクトルのうち、類似する動きベクトルを有するブロックを類似動き領域として設定する類似動き領域設定ステップと、
    前記類似動き領域設定ステップにおいて設定した類似動き領域に含まれる各ブロックの有する動きベクトルを用いて、代表動きベクトルを算出する代表動きベクトル算出ステップと、
    前記類似動き領域の各ブロックについて、前記代表動きベクトル算出ステップで算出した前記代表動きベクトルまたは前記各ブロックの有する動きベクトルのいずれのベクトルを用いるかを選択する選択ステップと、
    前記類似動き領域の各ブロックについて、前記選択ステップの選択結果に基づいて選択した動きベクトルと、前記動きベクトルを用いて生成した各ブロックの予測画像とを用いて、符号化データを生成する符号化データ生成ステップとを備えることを特徴とする動画像記録方法。
  2. 請求項1に記載される動画像記録方法であって、
    前記選択ステップは、前記類似動き領域の各ブロックについて前記代表動きベクトルを用いることを選択した場合に、前記類似動き領域の各ブロックの動きベクトルを前記代表動きベクトルに置換することを特徴とする動画像記録方法。
  3. 請求項1に記載される動画像記録方法であって、
    前記ブロック単位動き探索ステップで算出した動きベクトルを用いた場合の、各ブロックの符号化コストを算出するブロック単位コスト算出ステップと、
    前記代表動きベクトルを用いたときの、各類似動き領域の符号化コストを算出する類似動き領域コスト算出ステップとをさらに備え、
    前記選択ステップは、前記類似動き領域の有する複数のブロックについて、前記ブロック単位コスト算出ステップで算出した前記複数のブロックの符号化コストの合計と、前記類似動き領域コスト算出ステップで算出した前記類似動き領域の符号化コストとを比較した結果に基づいて、
    前記類似動き領域の各ブロックについて、前記代表動きベクトル算出ステップで算出した前記代表動きベクトルまたは前記各ブロックの有する動きベクトルのいずれのベクトルを用いるかを選択することを特徴とする動画像記録方法。
  4. 請求項3に記載される画像符号化方法であって、
    前記選択ステップは、前記類似動き領域の符号化コストが前記複数のブロックの符号化コストの合計よりも小さい場合に、前記類似動き領域の各ブロックの動きベクトルを前記代表動きベクトルに置換することを特徴とする動画像記録方法。
  5. 請求項1に記載される動画像記録方法であって、
    前記類似動き領域設定ステップは、入力画像のブロックの動きベクトルと、前記ブロックの隣接ブロックの動きベクトルとの差分値をもちいて、前記ブロックを前記隣接ブロックと同一の類似動き領域に含めるか否かを決定することを特徴とする動画像記録方法。
  6. 請求項1に記載される動画像記録方法であって、
    前記代表動きベクトル算出ステップは、前記類似動き領域に含まれる複数のブロックの有する動きベクトルを変数とする関数による出力ベクトルを、前記類似動き領域についての代表動きベクトルとすることを特徴とする動画像記録方法。
  7. 請求項6に記載される動画像記録方法であって、
    前記類似動き領域に含まれる複数のブロックの有する動きベクトルを変数とする関数による出力ベクトルは、前記類似動き領域に含まれる複数のブロックの有する動きベクトルのx成分、y成分についての平均値または中央値により生成したベクトルであることを特徴とする動画像記録方法。
  8. 請求項1に記載される動画像記録方法であって、
    前記代表動きベクトル算出ステップのあとに、前記代表動きベクトル算出ステップで求めた動きベクトルを用いて、前記類似動き領域について類似動き領域単位での動き探索を行う領域動き探索ステップをさらに備え、
    前記領域動き探索ステップで算出した動きベクトルを用いて前記代表動きベクトルを更新し、
    前記選択ステップでは、該更新した代表動きベクトルを用いることを特徴とする動画像記録方法。
  9. 入力画像を符号化して記録する動画像記録装置であって、
    前記入力画像を入力する入力部と、
    前記入力部から入力された入力画像を符号化するエンコーダと、
    前記エンコーダにより符号化された映像信号を蓄積する蓄積部とを備え、
    前記エンコーダは、前記入力画像に対してブロック単位で動き探索を行い、各ブロックの動きベクトルを算出するブロック単位動き探索部と、前記ブロック単位動き探索部が算出した動きベクトルのうち、類似する動きベクトルを有するブロックを類似動き領域として設定する類似動き領域設定部と、前記類似動き領域設定部が設定した類似動き領域について、前記類似動き領域に含まれる各ブロックの有する動きベクトルを用いて、代表動きベクトルを算出する代表動きベクトル算出部と、前記類似動き領域について、前記代表動きベクトル算出部が算出した前記代表動きベクトルまたは前記各ブロックの有する動きベクトルのいずれのベクトルを用いるかを選択する選択部とを有し、前記類似動き領域の各ブロックについて、前記選択部の選択結果に基づいて選択した動きベクトルと前記選択した動きベクトルを用いて生成した各ブロックの予測画像とを出力し、前記選択した動きベクトルと前記予測画像とを用いて符号化処理を行うことを特徴とする動画像記録装置。
  10. 請求項9に記載される動画像記録装置であって、
    前記選択部は、前記類似動き領域について前記代表動きベクトルを用いることを選択した場合に、前記類似動き領域の各ブロックの動きベクトルを前記代表動きベクトルに置換することを特徴とする動画像記録装置。
  11. 請求項9に記載される動画像記録装置であって、
    前記ブロック単位動き探索部は、さらに算出した動きベクトルを用いた場合の各ブロックの符号化コストを算出し、
    前記代表動きベクトル算出部は、前記代表動きベクトルを用いたときの、各類似動き領域の符号化コストを算出し、
    前記選択部は、類似動き領域の有する複数のブロックについて、前記ブロック単位動き探索部が算出した各ブロックの前記符号化コストの合計と、前記代表動きベクトル算出部が算出した前記類似動き領域の符号化コストとを比較した結果に基づいて、前記代表動きベクトル算出部が算出した前記代表動きベクトルを用いるか用いないかを選択することを特徴とする動画像記録装置。
  12. 請求項11に記載される動画像記録装置であって、
    前記選択部は、前記類似動き領域の符号化コストよりも前記複数のブロックの符号化コストの合計が小さい場合に、前記類似動き領域の各ブロックの動きベクトルを前記代表動きベクトルに置換することを特徴とする動画像記録装置。
  13. 請求項9に記載される動画像記録装置であって、
    前記類似動き領域設定部は、入力画像のブロックの動きベクトルと、前記ブロックの隣接ブロックの動きベクトルとの差分値をもちいて、前記ブロックを前記隣接ブロックと同類似動き領域に含めるか否かを決定することを特徴とする動画像記録装置。
  14. 請求項9に記載される動画像記録装置であって、
    前記代表動きベクトル算出部は、前記類似動き領域に含まれる複数のブロックの有する動きベクトルを変数とする関数による出力ベクトルを、前記類似動き領域についての代表動きベクトルとすることを特徴とする動画像記録装置。
  15. 請求項14に記載される動画像記録装置であって、
    前記類似動き領域に含まれる複数のブロックの有する動きベクトルを変数とする関数による出力ベクトルは、前記類似動き領域に含まれる複数のブロックの有する動きベクトルのx成分、y成分についての平均値または中央値からなるベクトルであることを特徴とする動画像記録装置。
  16. 請求項9に記載される動画像記録装置であって、
    前記代表動きベクトル算出部が求めた、前記類似動き領域についての動きベクトルを用いて、前記類似動き領域について類似動き領域単位での動き探索を行う動き再探索部をさらに備え、
    前記動き再探索部は算出した動きベクトルを用いて前記代表動きベクトルを更新し、
    前記選択部は、該更新された代表動きベクトルを用いることを特徴とする動画像記録装置。
  17. 入力画像を符号化して出力する動画像記録装置であって、
    前記入力画像を入力する入力部と、
    前記入力部から入力された入力画像を符号化するエンコーダと、
    前記エンコーダにより符号化された符号化データを出力する出力部と備え、
    前記入力部に、それぞれ固有の画像を有する複数の画像ブロックからなる第1の画像ブロック群と、それぞれ固有の画像を有する複数の画像ブロックからなり、前記第1の画像ブロック群に隣接する第2の画像ブロック群とからなる現フレームと、前記現フレームにおける前記第1の画像ブロック群の各画像ブロックから第1の動きベクトル分だけ移動した位置に前記第1の画像ブロック群の各画像ブロックと同一の画像が配置され、前記現フレームにおける前記第2の画像ブロック群の各画像ブロックから第2の動きベクトル分だけ移動した位置に前記第2の画像ブロック群の各画像ブロックと同一の画像が配置される前フレームとからなる第1の入力画像を入力した場合に、
    前記出力部から出力される符号化データは、各画像ブロックについての動きベクトルのデータを含み、
    前記符号化データにおける前記現フレームの第1の画像ブロック群と第2の画像ブロック群とが有する各画像ブロックについての動きベクトルは、共通の動きベクトルであることを特徴とする動画像記録装置。
  18. 請求項17に示す動画像記録装置であって、
    前記共通の動きベクトルは、前記第1の動きベクトルもしくは前記第2の動きベクトルのいずれか一のベクトルであることを特徴とする動画像記録装置。
  19. 請求項17に示す動画像記録装置であって、
    前記共通の動きベクトルは、前記第2の動きベクトルであって、
    前記第1の入力画像は、前記現フレームに第1の画像ブロック群のうちひとつの画像ブロックである第1の画像ブロックと、前記前フレームに前記第1の画像ブロックの位置から第2の動きベクトル分だけ移動した位置に配置される第2の画像ブロックとを有し、
    前記入力部に、前記第1の入力画像の前記前フレームにおいて、前記第2の画像ブロックを、前記第2の画像ブロックよりも前記第1の画像ブロックとの差分画像データ量が大きい第3の画像ブロックに置換した前フレームと、前記第1の入力画像と同じ現フレームとからなる第2の入力画像を入力した場合に、
    前記出力部から出力される符号化データおける前記現フレームの前記第1の画像ブロック群が有する各画像ブロックについての動きベクトルは、いずれも前記第1の動きベクトルであり、
    前記符号化データにおける前記現フレームの前記第2の画像ブロック群が有する各画像ブロックについての動きベクトルは、いずれも前記第2の動きベクトルであることを特徴とする動画像記録装置。
  20. 請求項17に示す動画像記録装置であって、
    前記共通の動きベクトルは、前記第2の動きベクトルであって、
    前記第1の入力画像は、前記現フレームに第1の画像ブロック群のうちひとつの画像ブロックである第1の画像ブロックと、前記前フレームに前記第1の画像ブロックの位置から第2の動きベクトル分だけ移動した位置に配置される第2の画像ブロックとを有し、
    前記入力部に、前記第1の入力画像の前記前フレームにおいて、前記第2の画像ブロックを、前記第2の画像ブロックよりも前記第1の画像ブロックとの差分画像データ量が大きい第3の画像ブロックに置換した前フレームと、前記第1の入力画像と同じ現フレームとからなる第2の入力画像を入力した場合に、
    前記出力部から出力される符号化データにおける前記現フレームの第1の画像ブロックについての動きベクトルは、前記第1の動きベクトルであり、
    前記符号化データにおける前記現フレームの第1の画像ブロック群が有するブロックのうち、第1の画像ブロック以外の各ブロック及び第2の画像ブロック群が有する各画像ブロックについての動きベクトルは、いずれも前記第2の動きベクトルであることを特徴とする動画像記録装置。
JP2007117962A 2007-04-27 2007-04-27 動画像記録方法及びその装置 Active JP4788649B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007117962A JP4788649B2 (ja) 2007-04-27 2007-04-27 動画像記録方法及びその装置
US12/108,025 US8711936B2 (en) 2007-04-27 2008-04-23 Method of and apparatus for recording motion picture, which generate encoded data with higher compression efficiency using a motion vector similarity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007117962A JP4788649B2 (ja) 2007-04-27 2007-04-27 動画像記録方法及びその装置

Publications (2)

Publication Number Publication Date
JP2008278091A true JP2008278091A (ja) 2008-11-13
JP4788649B2 JP4788649B2 (ja) 2011-10-05

Family

ID=39886946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007117962A Active JP4788649B2 (ja) 2007-04-27 2007-04-27 動画像記録方法及びその装置

Country Status (2)

Country Link
US (1) US8711936B2 (ja)
JP (1) JP4788649B2 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064396A1 (ja) * 2008-12-03 2010-06-10 株式会社日立製作所 動画像復号化方法および動画像符号化方法
JPWO2011125211A1 (ja) * 2010-04-08 2013-07-08 株式会社東芝 画像符号化方法及び画像復号化方法
JPWO2011125256A1 (ja) * 2010-04-08 2013-07-08 株式会社東芝 画像符号化方法及び画像復号化方法
JP2013219805A (ja) * 2013-06-03 2013-10-24 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014017853A (ja) * 2013-09-11 2014-01-30 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014017848A (ja) * 2010-04-08 2014-01-30 Toshiba Corp 画像復号化方法、装置、及びプログラム
JP2014090459A (ja) * 2013-12-10 2014-05-15 Toshiba Corp 画像符号化方法及び画像復号化方法
JP5509398B1 (ja) * 2014-01-23 2014-06-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP2014131295A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014131293A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014131294A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2015019426A (ja) * 2014-10-01 2015-01-29 株式会社東芝 画像符号化方法及び画像復号化方法
JP2015053729A (ja) * 2014-11-17 2015-03-19 株式会社東芝 画像符号化方法及び画像復号化方法
KR101543138B1 (ko) * 2011-03-09 2015-08-07 가부시끼가이샤 도시바 동화상 부호화 방법 및 동화상 복호화 방법
JP2016129387A (ja) * 2016-02-17 2016-07-14 株式会社東芝 画像符号化方法及び画像復号化方法
US9521417B2 (en) 2011-11-01 2016-12-13 Hitachi Kokusai Electric, Inc. Video encoding device using predicted motion vector for blocks of different size
JP2017085616A (ja) * 2016-12-16 2017-05-18 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018023126A (ja) * 2017-08-31 2018-02-08 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018057016A (ja) * 2017-11-13 2018-04-05 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018186536A (ja) * 2018-07-02 2018-11-22 株式会社東芝 画像符号化方法及び画像復号化方法
JP2020025308A (ja) * 2019-10-21 2020-02-13 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036703A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036704A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP7399332B2 (ja) 2019-10-21 2023-12-15 株式会社東芝 画像符号化方法及び画像復号化方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8320455B2 (en) 2009-03-05 2012-11-27 Qualcomm Incorporated System and method to process motion vectors of video data
CN104065961B (zh) * 2009-03-23 2016-05-11 株式会社Ntt都科摩 图像预测编码装置及其方法、图像预测解码装置及其方法
KR101459714B1 (ko) * 2009-10-28 2014-11-13 에스케이텔레콤 주식회사 공간 분할을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20110071047A (ko) * 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
CN106101717B (zh) * 2010-01-12 2019-07-26 Lg电子株式会社 视频信号的处理方法和设备
WO2012011432A1 (ja) 2010-07-20 2012-01-26 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
CN105847831B (zh) 2010-11-23 2019-08-09 Lg电子株式会社 视频编码装置和视频解码装置
WO2012096173A1 (ja) 2011-01-12 2012-07-19 パナソニック株式会社 動画像符号化方法および動画像復号化方法
EP2664144A1 (en) * 2011-01-14 2013-11-20 Motorola Mobility LLC Temporal block merge mode
EP2664146A1 (en) * 2011-01-14 2013-11-20 Motorola Mobility LLC Joint spatial and temporal block merge mode for hevc
WO2012097376A1 (en) * 2011-01-14 2012-07-19 General Instrument Corporation Spatial block merge mode
MX2013008691A (es) * 2011-02-10 2013-08-21 Panasonic Corp Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
JP6108309B2 (ja) 2011-02-22 2017-04-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
KR101878008B1 (ko) 2011-03-03 2018-07-13 선 페이턴트 트러스트 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
US9635374B2 (en) * 2011-08-01 2017-04-25 Apple Inc. Systems and methods for coding video data using switchable encoders and decoders
US9531990B1 (en) * 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US8737824B1 (en) 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
KR101939628B1 (ko) * 2012-05-30 2019-01-17 삼성전자주식회사 모션 검출 방법 및 모션 검출기
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
US9609343B1 (en) 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
GB2522844A (en) * 2014-01-29 2015-08-12 Sony Corp Data encoding and decoding
WO2019064934A1 (ja) * 2017-09-27 2019-04-04 日本電気株式会社 動画像符号化装置、動画像符号化方法および動画像符号化プログラム
CN110677668B (zh) 2018-07-01 2022-06-21 北京字节跳动网络技术有限公司 空间运动压缩

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879767A (ja) * 1994-07-05 1996-03-22 Ricoh Co Ltd 動きベクトル符号化および復号化方式
JPH08140098A (ja) * 1994-11-10 1996-05-31 Matsushita Electric Ind Co Ltd 動き補償符号化装置
JPH10290463A (ja) * 1997-02-14 1998-10-27 Nippon Telegr & Teleph Corp <Ntt> 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
JP2005124001A (ja) * 2003-10-17 2005-05-12 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2006246396A (ja) * 2005-03-07 2006-09-14 Toshiba Corp 動画像処理装置、動画像処理方法、及び動画像処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09154138A (ja) 1995-05-31 1997-06-10 Toshiba Corp 動画像符号化/復号化装置
DE69619002T2 (de) 1995-03-10 2002-11-21 Toshiba Kawasaki Kk Bildkodierungs-/-dekodierungsvorrichtung
US20040081238A1 (en) * 2002-10-25 2004-04-29 Manindra Parhy Asymmetric block shape modes for motion estimation
KR100999091B1 (ko) * 2003-11-17 2010-12-07 삼성전자주식회사 임의 크기의 가변 블록을 이용한 영상 압축 방법 및 장치
JP2007180808A (ja) * 2005-12-27 2007-07-12 Toshiba Corp 映像符号化装置、映像復号化装置、及び映像符号化方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879767A (ja) * 1994-07-05 1996-03-22 Ricoh Co Ltd 動きベクトル符号化および復号化方式
JPH08140098A (ja) * 1994-11-10 1996-05-31 Matsushita Electric Ind Co Ltd 動き補償符号化装置
JPH10290463A (ja) * 1997-02-14 1998-10-27 Nippon Telegr & Teleph Corp <Ntt> 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
JP2005124001A (ja) * 2003-10-17 2005-05-12 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2006246396A (ja) * 2005-03-07 2006-09-14 Toshiba Corp 動画像処理装置、動画像処理方法、及び動画像処理プログラム

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11134263B2 (en) 2008-12-03 2021-09-28 Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US9906808B2 (en) 2008-12-03 2018-02-27 Hitachi Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US9560368B2 (en) 2008-12-03 2017-01-31 Hitachi Maxell, Ltd. Moving picture decoding method and moving picture encoding method
JP5277257B2 (ja) * 2008-12-03 2013-08-28 株式会社日立製作所 動画像復号化方法および動画像符号化方法
US10382775B2 (en) 2008-12-03 2019-08-13 Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US10764599B2 (en) 2008-12-03 2020-09-01 Maxell, Ltd. Moving picture decoding method and moving picture encoding method
WO2010064396A1 (ja) * 2008-12-03 2010-06-10 株式会社日立製作所 動画像復号化方法および動画像符号化方法
US11546627B2 (en) 2008-12-03 2023-01-03 Maxell, Ltd. Moving picture decoding method and moving picture encoding method
US10779001B2 (en) 2010-04-08 2020-09-15 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US11889107B2 (en) 2010-04-08 2024-01-30 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
JP2014017848A (ja) * 2010-04-08 2014-01-30 Toshiba Corp 画像復号化方法、装置、及びプログラム
US10999597B2 (en) 2010-04-08 2021-05-04 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
JP5368631B2 (ja) * 2010-04-08 2013-12-18 株式会社東芝 画像符号化方法、装置、及びプログラム
JP5367161B2 (ja) * 2010-04-08 2013-12-11 株式会社東芝 画像符号化方法、装置、及びプログラム
US10715828B2 (en) 2010-04-08 2020-07-14 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10560717B2 (en) 2010-04-08 2020-02-11 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10542281B2 (en) 2010-04-08 2020-01-21 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US11265574B2 (en) 2010-04-08 2022-03-01 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10091525B2 (en) 2010-04-08 2018-10-02 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10009623B2 (en) 2010-04-08 2018-06-26 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9906812B2 (en) 2010-04-08 2018-02-27 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9538181B2 (en) 2010-04-08 2017-01-03 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
JPWO2011125256A1 (ja) * 2010-04-08 2013-07-08 株式会社東芝 画像符号化方法及び画像復号化方法
JPWO2011125211A1 (ja) * 2010-04-08 2013-07-08 株式会社東芝 画像符号化方法及び画像復号化方法
US9794587B2 (en) 2010-04-08 2017-10-17 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9900594B2 (en) 2011-03-09 2018-02-20 Kabushiki Kaisha Toshiba Image encoding and decoding method with predicted and representative motion information
US11290738B2 (en) 2011-03-09 2022-03-29 Kabushiki Kaisha Toshiba Image encoding and decoding method with a merge flag and motion vectors
US11647219B2 (en) 2011-03-09 2023-05-09 Kabushiki Kaisha Toshiba Image encoding and decoding method with merge flag and motion vectors
US11323735B2 (en) 2011-03-09 2022-05-03 Kabushiki Kaisha Toshiba Image encoding and decoding method with a merge flag and motion vectors
US11303917B2 (en) 2011-03-09 2022-04-12 Kabushiki Kaisha Toshiba Image encoding and decoding method with a merge flag and motion vectors
US11303918B2 (en) 2011-03-09 2022-04-12 Kabushiki Kaisha Toshiba Image encoding and decoding method with a merge flag and motion vectors
KR101543213B1 (ko) 2011-03-09 2015-08-07 가부시끼가이샤 도시바 동화상 부호화 방법 및 동화상 복호화 방법
US10841606B2 (en) 2011-03-09 2020-11-17 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
KR101543138B1 (ko) * 2011-03-09 2015-08-07 가부시끼가이샤 도시바 동화상 부호화 방법 및 동화상 복호화 방법
US10511851B2 (en) 2011-03-09 2019-12-17 Kabushiki Kaisha Toshiba Image encoding and decoding method with merge flag and motion vectors
US9521417B2 (en) 2011-11-01 2016-12-13 Hitachi Kokusai Electric, Inc. Video encoding device using predicted motion vector for blocks of different size
JP2013219805A (ja) * 2013-06-03 2013-10-24 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014017853A (ja) * 2013-09-11 2014-01-30 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014090459A (ja) * 2013-12-10 2014-05-15 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014131296A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014131294A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014131295A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP5509398B1 (ja) * 2014-01-23 2014-06-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP2014131293A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2015019426A (ja) * 2014-10-01 2015-01-29 株式会社東芝 画像符号化方法及び画像復号化方法
JP2015053729A (ja) * 2014-11-17 2015-03-19 株式会社東芝 画像符号化方法及び画像復号化方法
JP2016129387A (ja) * 2016-02-17 2016-07-14 株式会社東芝 画像符号化方法及び画像復号化方法
JP2017085616A (ja) * 2016-12-16 2017-05-18 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018023126A (ja) * 2017-08-31 2018-02-08 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018057016A (ja) * 2017-11-13 2018-04-05 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018186536A (ja) * 2018-07-02 2018-11-22 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036704A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP2020025308A (ja) * 2019-10-21 2020-02-13 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036703A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP7399332B2 (ja) 2019-10-21 2023-12-15 株式会社東芝 画像符号化方法及び画像復号化方法

Also Published As

Publication number Publication date
US20080267292A1 (en) 2008-10-30
JP4788649B2 (ja) 2011-10-05
US8711936B2 (en) 2014-04-29

Similar Documents

Publication Publication Date Title
JP4788649B2 (ja) 動画像記録方法及びその装置
US11228784B2 (en) Decoding method and apparatuses with candidate motion vectors
US10708598B2 (en) Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US11233987B2 (en) Encoding method, decoding method, encoding apparatus, decoding apparatus, and encoding and decoding apparatus
JP6887550B2 (ja) 画像予測復号方法
KR102523002B1 (ko) 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
JP4767991B2 (ja) 画像符号化方法および画像符号化装置
KR102036771B1 (ko) 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
EP1746842A1 (en) Image information encoding device and image information encoding method
US20050207496A1 (en) Moving picture coding apparatus
CN110870316B (zh) 视频编码和解码中低复杂度双向帧内预测的方法和装置
EP1322121A2 (en) Video encoder and decoder with improved motion detection precision
CN110999288A (zh) 图像处理器和图像处理方法
WO2012098845A1 (ja) 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
JP7483988B2 (ja) 画像コーディングシステムにおいてコンストラクテッドアフィンmvp候補を使用するアフィン動き予測に基づいた画像デコード方法及び装置
CN112740663B (zh) 图像预测方法、装置以及相应的编码器和解码器
JP4284265B2 (ja) 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法
US6353683B1 (en) Method and apparatus of image processing, and data storage media
JP5298140B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
JP2006246277A (ja) 再符号化装置、再符号化方法、および再符号化用プログラム
JP2016158282A (ja) 動画像予測復号方法及び動画像予測復号装置
US20090279610A1 (en) Method and apparatus for encoding/decoding with interlace scanning based motion vector transformation
JP7248013B2 (ja) 復号方法、復号装置、符号化装置及びプログラム
JP2020058075A (ja) 動画像予測符号化装置、動画像予測復号装置、動画像予測符号化方法、動画像予測復号方法及び記録媒体
CN111247804B (zh) 图像处理的方法与装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110704

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140729

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4788649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250