JP2011147130A - 動き推定のための技術 - Google Patents

動き推定のための技術 Download PDF

Info

Publication number
JP2011147130A
JP2011147130A JP2011004871A JP2011004871A JP2011147130A JP 2011147130 A JP2011147130 A JP 2011147130A JP 2011004871 A JP2011004871 A JP 2011004871A JP 2011004871 A JP2011004871 A JP 2011004871A JP 2011147130 A JP2011147130 A JP 2011147130A
Authority
JP
Japan
Prior art keywords
motion vector
metric
reference frame
current block
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011004871A
Other languages
English (en)
Other versions
JP5248632B2 (ja
Inventor
Yi-Jen Chiu
チウ イー−ジェン
Lidong Xu
シュイ リードーン
Wenhao Zhang
ジャーン ウエンハオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/657,168 external-priority patent/US20110002387A1/en
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2011147130A publication Critical patent/JP2011147130A/ja
Application granted granted Critical
Publication of JP5248632B2 publication Critical patent/JP5248632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】ビデオデコーダの双予測フレーム又は予測フレームにおいて再構成された参照ピクチャに基づいて動き推定(ME)を適用する。
【解決手段】予測フレームについては、投影動き推定が、現在の入力ブロックについての動きベクトル(MV)を得るように実行される。双予測フレームにおいては、投影動き推定(ME)及びミラー動き推定の両方が、現在の入力ブロックについての動きベクトル(MV)を得るように実行される。メトリックが用いられ、探索経路内にあるMV0及びMV1の各々の対についてのメトリックを決定し、そのメトリックは、第1メトリック、第2メトリック及び第3メトリックの組み合わせに基づいている。第1メトリックは時間的フレーム相関性に基づき、第2メトリックは参照ブロックの空間的に隣接するブロックに基づき、そして第3メトリックは現在のブロックの空間的に隣接するブロックに基づいている。
【選択図】図1

Description

Advanced Video Codec(AVC)としても知られているH.264及びMPEG−4 Part 10は、産業界で広く追求されることが期待されているITU−T/ISOビデオ圧縮規格である。H.264規格は、Joint Video Team(JVT)により準備され、VCEG(Video Coding Expert Group)として知られているITU−T SG16 Q.6を有し、また、MPEG(Motion Picture Wxpert Group)として知られているISO/IEC JTC1/SC29/WG11も有する。H.264は、デジタルテレビDigital TV(DTV)放送、Direct Broadcast Satellite(DBS)ビデオ、Digital Subscriber Line(DSL)ビデオ、Interactive Storage Media(ISM)、Multimedia Messaging(MMM)、Digital Terrestrial TV Broadcast(DTTB)及びRemote Video Surveillance(RVS)の領域におけるアプリケーションのためにデザインされる。
ビデオ符号化における動き推定は、ビデオフレーム間の時間的冗長性を除去又は低減することにより、ビデオ圧縮性能を改善するように用いられることが可能である。
入力ブロックを符号化するために、従来の動き推定は、参照フレームの特定の検索ウィンドウにおけるエンコーダにおいて実行されることが可能である。これは、入力ブロックと参照フレームにおける参照フレームとの間の差分絶対値の和(SAD)を最小化する動きベクトルの決定を可能にする。動きベクトル(MV)情報は、その場合、動き補償のためのデコーダに送信されることが可能である。その動きベクトルは、端数画素単位について決定されることが可能であり、補間フィルタが端数画素値を計算するように用いられることが可能である。
元の入力フレームがデコーダで有効でない場合、デコーダにおける動き推定(ME)は、再構成された参照フレームを用いて実行されることが可能である。予測フレーム(Pフレーム)を符号化するとき、順方向の参照バッファにおいて複数の参照フレームが存在することが可能である。双予測フレーム(Bフレーム)を符号化するとき、順方向のバッファにおいて複数の参照フレームが、そして逆方向の参照バッファにおいて少なくとも1つの参照フレームが存在することが可能である。Bフレーム符号化のために、ミラー動き推定(ME)又は投影動き推定(ME)が、動きベクトル(MV)を得るように実行されることが可能である。予測フレーム(Pフレーム)符号化のために、投影動き推定(ME)が、動きベクトルを得るように実行されることが可能である。
他のコンテキストでは、1つ又はそれ以上のフレームにおけるブロックに関して、前に復号化された有効な画素において動き推定を実行することにより、ブロックに基づいた動きベクトルがビデオデコーダにおいて生成されることが可能である。有効な画素は、例えば、現在のフレームの一連の走査符号化順序における空間的に隣接するブロック、前に復号化されたフレームにおけるブロック、又は階層符号化が用いられたときの低階層においてダウンサンプリングされたフレームにおけるブロック等であることが可能である。有効な画素は代替として、上記のブロックの組み合わせであることが可能である。
従来のビデオ符号化システムにおいては、動き推定は、現在の符号化ブロックの予測のための動きベクトルを決定するようにエンコーダ側で実行され、それらの動きベクトルは、バイナリストリームに対して符号化され、現在の復号化ブロックの動き補償のためにデコーダ側に送信される必要がある。一部の最新のビデオ符号化規格、例えば、H.264/AVCにおいては、マクロブロック(MB)は符号化のためにより小さいブロックに区分されることが可能であり、動きベクトルは各々の副区分されたブロックに割り当てられることが可能である。その結果、マクロブロックが4x4ブロックに区分される場合、予測符号化マクロブロックについては最大16個の動きベクトルまで、双予測符号化マクロブロック(MB)については最大32個の動きベクトルまで存在する。その結果、実質的な帯域幅は、エンコーダからデコーダに動きベクトル情報を送信するように用いられる。
ミラー動き推定MEを用いて双予測フレームにおける現在のブロックについての動きベクトルを決定する実施形態の実施例を示す図である。 2つの順方向の参照フレームに基づいて予測フレームにおける現在のブロックについての動きベクトルを決定する投影動き推定の実施例を示す図である。 拡張された参照ブロックを示す図である。 現在のブロックの空間的に隣接するブロックを示す図である。 実施形態に従った処理を示す図である。 動きベクトルを決定するように用いられる実施形態を示す図である。 自己動きベクトル導出モジュールを有する例示としてのH.264ビデオエンコーダアーキテクチャを示す図である。 自己動きベクトル導出モジュールを有するH.264ビデオデコーダを示す図である。
ディジタルビデオクリップは複数の連続的なビデオフレームを有する。連続的なフレームにおけるオブジェクト又は背景の動きが滑らかな軌道を描くことが可能であり、連続的なフレームにおける動きは比較的強い時間的相関性を有することが可能である。この相関性を用いることにより、動きベクトルが、再構成された参照ピクチャから動きを推定することによって現在の符号化ブロックについて導出されることが可能である。デコーダにおける動きベクトルの決定は、エンコーダにおいて実行される動き推定と比較して、送信帯域幅を低減することが可能である。
元の入力画素情報がデコーダにおいて有効でない場合、デコーダにおける動き推定は、再構成された参照フレームと、現在のフレームの有効な再構成されたブロックとを用いて実行されることが可能である。ここで、用語“有効な”は、ブロックが現在のブロックに先行して再構成されていることを意味する。予測フレームを符号化するとき、順方向の参照バッファには複数の参照フレームが存在し得る。双予測フレームを符号化するとき、順方向の参照バッファにおいて複数の参照フレームと、逆方向の参照バッファにおいて少なくとも1つの参照フレームとが存在し得る。
次に、一実施形態に従って、現在のブロックについて動きベクトルを得るように、デコーダにおいて動き推定を実行することについて説明する。双予測フレーム符号化のために、ミラー動き推定又は投影動き推定が、動きベクトルを決定するように実行されることが可能である。予測フレーム符号化のために、投影動き推定が、動きベクトルを決定するように実行されることが可能である。用語“フレーム”及び“ピクチャ”は、当業者が理解できるように、ここでは置き換え可能であるように用いられることに留意されたい。
エンコーダから動きベクトルを受信することに代えて、復号化ブロックについて動きベクトルを決定するように、デコーダについての種々の実施形態を提供する。デコーダ側の動き推定は、時間的フレーム相関性、及び参照ブロックの空間的に隣接するブロック及び現在のブロックの空間的に隣接するブロックに基づいて実行されることが可能である。例えば、動きベクトルは、参照バッファにおける2つの再構成されたピクチャ間でデコーダ側動き探索を実行することにより決定されることが可能である。予測ピクチャにおけるブロックについて、投影動き推定(ME)が用いられ、双予測ピクチャにおけるブロックについて、投影動き推定及びミラー動き推定の両方が用いられることが可能である。また、動き推定は、ブロックタイプの副区分に関して実行されることが可能である。符号化効率は、デコーダ側動き探索についての適応的な探索領域を適用することにより効果を上げることが可能である。例えば、探索領域を決定する技術について、2009年10月20日に出願された米国特許出願公開第12/582,061号明細書において開示されている。
図1は、ミラー動き推定を用いて、双予測フレームにおいて現在のブロックについての動きベクトルを決定する実施形態の実施例を示している。図1の実施形態においては、順方向参照フレーム120と逆方向参照フレーム130との間の2つの双予測フレーム110及び115が存在し得る。フレーム110は現在の符号化フレームであり得る。現在のブロック140を符号化するときに、ミラー動き推定が、参照フレーム120及び130の探索ウィンドウ160及び170のそれぞれにおいて探索を実行することにより動きベクトルを得るように実行されることが可能である。上記のように、現在の入力ブロックがデコーダにおいて有効でない場合、ミラー動き推定が、それら2つの参照フレームにより実行されることが可能である。
図2は、2つの順方向参照フレーム、即ち、順方向Ref0(参照フレーム220として示されている)及び順方向Ref1(参照フレーム230として示されている)に基づいて、予測フレームにおいて現在のブロックについての動きベクトルを決定する投影動き推定の実施例を示している。それらの参照フレームは、現在のフレーム210における目的ブロック240についての動きベクトルを導出するように用いられることが可能である。探索ウィンドウ270は参照フレーム220において指定されることが可能であり、探索経路は探索ウィンドウ270において指定されることが可能である。探索経路における各々の動きベクトルMV0について、その投影動きベクトルMV1は、参照フレーム230の探索ウィンドウ260において決定されることが可能である。動きベクトル、即ち、MV0及びその関連動きベクトルMV1の各々の対について、差分絶対値の和等のメトリックが、(1)参照フレーム220においてMV0が向いている参照ブロック280と、(2)参照フレーム230においてMV1が向いている参照ブロック250との間で計算されることが可能である。そのメトリックについての最適値、例えば、最小のSAD(差分絶対値の和)を得る動きベクトルMV0が、その場合、目的ブロック240についての動きベクトルとして選択されることが可能である。
図1及び2に関して説明しているシナリオについての動きベクトルを決定する技術については、2009年9月25日に出願された米国特許出願公開第121/566,823号明細書の図2及び4に示されている。
動きベクトルの例示としての探索については、米国特許出願公開第121/566,823号明細書の処理300及び500に示されているように処理することが可能である。次に、本明細書の図1のシナリオについての動きベクトルを決定する処理の要約を提供する。探索ウィンドウは順方向参照フレームにおいて指定されることが可能である。この探索ウィンドウは、エンコーダ及びデコーダの両方において同じであることが可能である。探索経路は、順方向探索ウィンドウにおいて指定されることが可能である。エンコーダ及びデコーダが同じ探索経路を辿る限り、ここでは、フル探索スキーム又は何れかの高速探索スキームが用いられることが可能である。探索経路におけるMV0について、そのミラー動きベクトルMV1は、逆方向探索ウィンドウで得られることが可能である。ここでは、関連時間期間中に動き軌道が相対的に短い直線であることを前提としている。差分絶対値の和(SAD)等のメトリックが、(i)順方向参照フレームにおいてMV0が向いている参照ブロックと、(ii)逆方向参照フレームにおいてMV1が向いている参照ブロックとの間で計算されることが可能である。それらの参照ブロックは、図1に参照番号150及び180のそれぞれで示されている。何れかの付加的な動きベクトルMV0がその探索経路に存在するかどうかについての判定が行われることが可能である。それが好適である場合、その処理は繰り返され、各々のMV0が関連するMV1を有する場合に、2つ以上のMV0が得られる。更に、各々のそのような関連する対について、例えば、差分絶対値の和(SAD)等のメトリックが得られる。そのメトリック、即ち、最小のSAD等について所望の値を生成するMV0が選択されることが可能であるが、それに限定されるものではない。このMV0は、その場合、現在のブロックについての動きを予測するように用いられることが可能である。
次に、本明細書の図2のシナリオについての動きベクトルを決定する処理の要約を提供する。探索ウィンドウが、第1順方向参照フレームにおいて指定されることが可能である。このウィンドウは、エンコーダ及びデコーダの両方において同じであることが可能である。探索経路はこの探索ウィンドウで指定されることが可能である。例えば、ここでは、フル探索スキーム又は高速探索スキームが用いられ、従って、エンコーダ及びデコーダは同じ探索経路を辿ることが可能である。探索経路における動きベクトルMV0について、その投影動きベクトルMV1は、第2探索ウィンドウで得られることが可能である。ここでは、動き軌道はこの短い経路において直線であることを前提としている。SAD等のメトリックが、(i)第1参照フレームにおいてMV0が向いている参照ブロックと、(ii)第2参照フレームにおいてMV1が向いている参照ブロックとの間で計算されることが可能である。探索経路に残っていて、未だに考慮されていない、何れかの付加的な動きベクトルMV0が存在するかどうかについての判定が行われることが可能である。少なくとも1つのMV0が残っている場合、その処理が繰り返され、他のMV0については、対応する投影動きベクトルMV1が決定されることが可能である。このようにして、MV0及びMV1の対の集合が決定され、メトリック、例えば、SADが各々の対について計算されることが可能である。複数のMV0の1つが選択され、その選択されたMV0は、そのメトリックについて望ましい値、例えば、最小のSADを得るが、それに限定されるものではない。SADメトリックが0であることが理論的に最適な値であるため、SADメトリックについての最小の有効な値、即ち、0に近い値は好適なモードを示す。このMV0は、その場合、現在のブロックについての動きを予測するように用いられる。
種々の実施形態においては、動きベクトルを決定するように、2つの参照フレームにおける2つのミラーブロック間の又は2つの投影ブロック間の差分絶対値の和が決定される。現在のブロックのサイズはMxN個の画素であり、現在のブロックの位置は、現在のブロックの最左上画素の座標により表される。種々の実施形態においては、参照フレームRにおける動きベクトルがMV=(mv_x,mv_y)であり、他の参照フレームRにおける対応する動きベクトルがMV=(mv_x,mv_y)であるとき、動き探索メトリックは、次式(1)を用いて決定される。
J=J+α+α (1)
ここで、Jは、(i)順方向参照フレームにおいてMV0が向いている参照ブロックと、逆方向参照フレーム(又は、図2のシナリオにおける第2順方向参照フレーム)においてMV1が向いている参照ブロックとの間で計算され、2009年9月25日に出願された米国特許出願公開第12/566,823号明細書において開示されている差分絶対値の和を表し、
は、参照ブロックの空間的に隣接するブロックに基づく拡張されたメトリックであり、Jは、現在のブロックの空間的に隣接するブロックに基づく拡張されたメトリックであり、この場合、α及びαは2つの重み係数である。重み係数α及びαは、シミュレーションにより決定されることが可能であり、デフォルトは1に設定される。
式(1)により値J、例えば、最小値のSADについての最適値を得る動きベクトルMV0が、その場合、現在のブロックについての動きベクトルとして選択されることが可能である。動きベクトルMV0は、次式
MV1=(d/d)xMV0
に従って定義される関連動きベクトルMV1を有し、
ここで、現在のブロックが双予測ピクチャ内にあるとき、dは、現在のフレームのピクチャと図1に示されている順方向参照フレームとの間の距離を表し、
現在のブロックが予測ピクチャ内にあるとき、dは、現在のフレームのピクチャと図2に示されている第1順方向参照フレームとの間の距離を表し、
現在のブロックが双予測ピクチャ内にあるとき、dは、現在のフレームのピクチャと図1に示されている逆方向参照フレームとの間の距離を表し、そして
現在のブロックが予測ピクチャ内にあるとき、dは、現在のフレームのピクチャと図2に示されている第2順方向参照フレームとの間の距離を表す。
図1のシナリオについては、現在のブロックについて得られた動きベクトルMV0及びMV1の対が与えられる場合、順方向予測P0(MV0)はMV0により得られることが可能であり、逆方向予測P1(MV1)はMV1により得られることが可能であり、そして双方向予測がMV0及びMV1の両方により得られることが可能である。双方向予測は、例えば、P0(MV0)及びP1(MV1)の平均、又は重み付け平均(P0(MV0)*d1+P1(MV1)*d0)/(d0+d1)であることが可能である。代替機能が、双方向予測を得るように用いられることが可能である。実施形態においては、エンコーダ及びデコーダは同じ予測方法を用いることが可能である。実施形態においては、選択される予測方法は、規格仕様において識別される又は符号化されたビットストリームにおいて信号が送られることが可能である。
図2のシナリオにおいては、現在のブロックについての予測が異なる方法で得られることが可能である。それらの予測は、例えば、P0(MV0)、P1(MV1)、(P0(MV0)+P1(MV1))/2又は(P0(MV0)*d1+P1(MV1)*d0/(d0+d1)であることが可能である。他の実施形態においては、他の機能が用いられることが可能である。それらの予測は、エンコーダ及びデコーダの両方において同じ方法で得られることが可能である。実施形態においては、予測方法は、規格仕様において識別される又は符号化ビットストリームにおいて信号が送られることが可能である。
種々の実施形態においては、Jは次式を用いて決定されることが可能である。
Figure 2011147130
ここで、N及びMは現在のブロックのx寸法及びy寸法のそれぞれであり、
は第1順方向参照フレームであり、R(x+mv_x+i,y+mv_y+j)は位置(x+mv_x+i,y+mv_y+j)のRにおける画素値であり、
は、ミラー動き推定(ME)についての第1逆方向参照フレーム又は投影動き推定についての第2順方向参照フレームであり、R(x+mv_x+i,y+mv_y+j)は位置(x+mv_x+i,y+mv_y+j)のRにおける画素値であり、
mv_xは、参照フレームRのx方向における現在のブロックについての動きベクトルであり、
mv_yは、参照フレームRのy方向における現在のブロックについての動きベクトルであり、
mv_xは、参照フレームRのx方向における現在のブロックについての動きベクトルであり、
mv_yは、参照フレームRのy方向における現在のブロックについての動きベクトルである。
動きベクトルが端数画素位置の方を向いているとき、画素値が、補間により、例えば、H.264/AVC規格仕様において規定されている双一次補間又は6タップ補間により得られる。
変数Jの説明は、図3を参照して行う。図3は、拡張された参照ブロックを示している。MxN個の参照ブロック302が、W、W、H及びHのそれぞれである拡張された縁サイズにより4つの縁において拡張されている。従って、図1及び2のシナリオで動きベクトルを決定するように用いられる参照フレームR及びRにおける参照ブロックの各々は、図3の実施例に従って拡張される。一部の実施形態においては、メトリックJは次式を用いて計算される。
Figure 2011147130
ここで、M及びNは元の参照ブロックの寸法である。拡張された参照ブロックの寸法は(M+W+W)x(N+H+H)であることに留意されたい。
変数Jの説明は、図4を参照して行う。図4は、現在のブロック402の空間的に隣のブロックを示している。変数Jについては、参照ブロックとは対照的である現在のブロックを参照して説明されることに留意されたい。現在のブロックは新しいピクチャに位置付けられる。ブロック402はMxN個の画素の現在のブロックである。ブロックの復号化はラスタ走査順序にあるため、復号化された4つの有効な空間的に隣の領域、即ち、左隣領域A、上隣領域A、左上隣領域A及び右上隣領域Aを有することが可能である。現在のブロックが複数のフレーム境界にあるとき又は親マクロブロック(MB)の上境界又は左境界にないとき、空間的に隣接する領域の一部は現在のブロックについて有効でない。有効性フラグが、4つの領域についてγ、γ、γ及びγとして定義される。領域のフラグが1に等しい場合には、その領域は有効であり、領域のフラグが0に等しい場合には、その領域は有効でない。その場合、有効な空間領域は、次式のように、現在のブロックについてAavailと定義される。
avail=γ+γ+γ+γ
従って、メトリックJは次式のように計算される。
Figure 2011147130
ここで、C(x,y)は、現在のブロックを境界付ける領域内の現在のフレームにおける画素であり、ω及びωは、新しいピクチャと、参照フレーム0及び1との間のフレーム距離に従って設定される、若しくは0.5に設定されることが可能である2つの重み係数である。
Rxが新しいピクチャを表す場合、等しい重みは、RからRまでの距離がRからRまでの距離に等しい場合に生じる。RからRまでの距離がRからRまでの距離と異なる場合、重み係数は、それに応じて、重み付けの違いに基づいて設定される。
実施形態においては、図4のパラメータが、次式のように設定されるが、それらに限定されるものではない。
Figure 2011147130
図5は、実施形態に従った処理を表している。ブロック502は、現在のブロックが双予測ピクチャ内にあるときの順方向参照フレームにおける、又は現在のブロックが予測ピクチャ内にあるときの第1順方向参照フレームにおける、探索ウィンドウを指定する段階である。この探索ウィンドウは、エンコーダ及びデコーダの両方において同じであることが可能である。
ブロック504は、順方向探索ウィンドウにおける探索経路を指定する段階を有する。ここでは、エンコーダ及びデコーダが同じ探索経路を辿る限り、フル探索スキーム又は何れかの高速探索スキームが用いられる。
ブロック506は、探索経路における各々のMV0について、(1)第2参照フレームについての探索ウィンドウにおける動きベクトルMV1と、(2)第1参照フレームにおける参照ブロック及びMV1が向いている第2参照フレームにおける参照ブロックに基づくメトリックとを決定する段階を有する。探索経路におけるMV0について、現在のブロックが双予測ピクチャ内にあるとき、ミラー動きベクトルMV1は、逆方向探索ウィンドウにおいて得られる。探索経路におけるMV0について、現在のブロックが予測ピクチャ内にあるとき、投影動きベクトルMV1は、第2順方向参照フレームについての探索ウィンドウにおいて得られる。ここで、動き軌道は関連時間期間中、相対的に短い直線であることを前提とすることが可能である。MV1は、MV0の次式の関数として得られ、ここでは、d0及びd1は、現在のフレームとそれぞれの参照フレームの各々との間の距離である。
MV1=(d/d)xMV0
ブロック508は、最も好ましいメトリックを有する動きベクトルMV0を選択することを有する。例えば、上記のメトリックJが決定され、メトリックJの最小値に関連するMV0が選択される。このMV0は、その場合、現在のブロックについての動きを予測するように用いられることが可能である。
図6は、動きベクトルを決定するように用いられる実施形態を示している。システム600は、コンピュータプログラムロジック640を記憶することが可能である1つ又はそれ以上のコンピュータ読み出し可能媒体を有することが可能であるメモリの本体610及びプロセッサ620を有することが可能である。メモリ610は、例えば、ハードディスクドライブ、コンパクトディスクドライブ等の取り外し可能媒体、又は読み出し専用メモリ(ROM)ドライブとして実施されることが可能である。メモリは、プロセッサ620によりネットワークを介して遠隔的にアクセスされることが可能である。プロセッサ620及びメモリ610は、バス等の当業者に知られている複数の技術のうちの何れかを用いる通信におけるものであることが可能である。メモリ610に含まれている論理は、プロセッサ620により読み出されて、実行されることが可能である。I/O630として集合的に示されている1つ又はそれ以上のI/Oポート及び/又はI/O装置はまた、プロセッサ620及びメモリ610に接続されることが可能である。I/Oポートは、無線通信インタフェースのための1つ又はそれ以上のアンテナを有することが可能であり、又は有線通信インタフェースを有することが可能である。
コンピュータプログラム論理640は動き推定論理660を有することが可能である。動き推定論理は、実行されるときに、上記の動き推定処理を実行することが可能である。動き推定論理660は、例えば、実行されるときに、上記の動作を実行する投影動き推定論理を有することが可能である。論理660は、例えば、ミラー動き推定論理、現在のブロックの時間的又は空間的隣接ブロックに基づいて動き推定を実行する論理、又は現在のブロックに対応する下層ブロックに基づいて動き推定を実行する論理、も有する、又は代替として有することが可能である。
その処理を実行する動き推定論理660に先行して、探索範囲ベクトルが生成されることが可能である。この探索範囲ベクトルは、探索範囲計算論理650により上記のように実行されることが可能である。探索計算のために実行される技術については、例えば、2009年10月20日に出願された米国出願公開第12/582,061号明細書に記載されている。一旦、探索範囲ベクトルが生成されると、このベクトルは、動き推定論理660により実行される探索を境界付けるように用いられることが可能である。
探索範囲ベクトルの決定を実行する論理は、より大きいコーデックアーキテクチャで用いられる自己動きベクトル導出モジュールに組み込まれることが可能である。図7は、自己動きベクトル導出モジュール740を有することが可能である例示としてのH.264ビデオエンコーダアーキテクチャ700を示していて、ここで、H.264haビデオコーデック規格である。現在のビデオ情報は、複数のフレームの形で現在のビデオブロック710から提供されることが可能である。現在のビデオは、差分ユニット711に渡されることが可能である。差分ユニット711は、動き補償段階722及び動き推定段階718を有することが可能である差分パルスコード変調(Differential Pulse Code Modulation:DPCM)(コアビデオ符号化とも呼ばれる)ループの一部であることが可能である。そのループはまた、イントラ予測段階720及びイントラ補間段階724を有することが可能である。一部の場合、インループデブロッキングフィルタ726も、そのループで用いられることが可能である。
現在のビデオ710は、差分ユニット711及び動き推定段階718に供給されることが可能である。動き補償段階722又はイントラ補間段階724は、その場合に、残り(residual)を生成するように現在のビデオから減算されることが可能である、スイッチ723を介しての出力を生成することが可能である。その残りは、その場合、変換/量子化段階712で変換されて、量子化され、そしてブロック714におけるエントロピー符号化を受ける。その結果、チャネル出力がブロック716で得られる。
動き補償段階722又は内部補間段階724の出力が、逆量子化ユニット730及び逆変換ユニット732からの入力を受け入れることも可能である加算器733に供給されることが可能である。後者の2つのユニットは、変換/量子化段階712の変換及び量子化を取り消す。逆変換ユニット732は、逆量子化されて、逆変換された情報をそのループに戻すように供給することが可能である。
自己動きベクトル導出モジュール740は、動きベクトルの導出のために上記の処理を実行することが可能である。自己動きベクトル導出モジュール740は、インループデブロッキングフィルタ726の出力を受け入れることが可能であり、動き補償段階722に出力を供給することが可能である。
図8は、自己動きベクトル導出モジュール810を備えたH.264ビデオデコーダ800を示している。ここでは、図7のエンコーダ700のためのデコーダ800は、エントロピー復号化ユニット840に結合されたチャネル入力838を有することが可能である。復号化ユニット840からの出力は、逆量子化ユニット842及び逆変換ユニット844に、並びに自己動きベクトル導出モジュール810に供給されることが可能である。自己動きベクトル導出モジュール810は動き補償ユニット848に結合されることが可能である。エントロピー復号化ユニット840の出力は、切り換えスイッチ823に供給することが可能であるイントラ補間ユニット854にも供給されることが可能である。逆変換ユニット844と、スイッチ823により選択される動き補償ユニット848かイントラ補間ユニット854のどちらかとからの情報は、その場合、まとめられ、インループデブロッキングユニット846に供給され、イントラ補間ユニットに戻るように供給されることが可能である。インループデブロッキングユニット846の出力は、その場合、自己動きベクトル導出モジュール810に供給されることが可能である。
自己動きベクトル導出モジュールはビデオエンコーダに位置付けられ、ビデオデコーダ側と同期することが可能である。自己動きベクトル導出モジュールは、代替として、一般ビデオコーデックアーキテクチャに適用されることが可能であり、H.264符号化アーキテクチャに限定されるものではない。従って、動きベクトルは、エンコーダからデコーダに送信されるのではなく、そのことは送信帯域幅を節約することができる。
種々の実施形態は、ビデオコーデックシステムの符号化効率を改善するように自己動きベクトル(MV)導出モジュールのデコーダ側動き推定(ME)のための空間的−時間的組み合わせ動き探索を用いる。
本明細書で述べているグラフィクス技術及び/又は処理技術は、種々のハードウェアアーキテクチャにおいて実施されることが可能である。例えば、グラフィクス機能及び/又はビデオ機能は、チップセット内に統合されることが可能である。代替として、別個のグラフィクスプロセッサ及び/又はビデオプロセッサが用いられることが可能である。他の実施形態においては、グラフィクス機能及び/又はビデオ機能は、マルチコアプロセッサを有する汎用目的のプロセッサにより実施されることが可能である。他の実施形態においては、それらの機能は、消費者のエレクトロニクス装置で実施されることが可能である。
本発明の実施形態は、マザーボード、ハードワイヤード論理、メモリ装置により記憶されているソフトウェアを用いて、そしてマイクロプロセッサ、ファームウェア、ASIC(特定用途向け集積回路)及び/又はFPGA(Field Programmable Gate Array)により実行される1つ又はそれ以上のマイクロチップ又は集積回路の何れか又はそれらの組み合わせとして実施されることが可能である。用語“論理”は、例示として、ソフトウェア又はハードウェア並びに/若しくはソフトウェア及びハードウェアの組み合わせを有することが可能である。
本発明の実施形態は、例えば、コンピュータ、複数のコンピュータのネットワーク又は他の電子装置等の1つ又はそれ以上の機械により実行されるときに、本発明の実施形態に従った動作を実行する1つ又はそれ以上の機械においてもたらされる機器実行可能命令が記憶されている1つ又はそれ以上の機械読み出し可能媒体を有することが可能であるコンピュータプログラムプロダクトとして提供されることが可能である。機械読み出し可能媒体には、フロッピー(登録商標)ディスク、光ディスク、CD−ROM(Compact Disc−Read Only Memories)、光磁気ディスク、ROM(読み出し専用メモリ)、RAM(ランダムアクセスメモリ)、EPROM(消去可能プログラマブルROM)、EEPROM(電気的消却・プログラマブルROM)、磁気カード又は光カード、フラッシュメモリ、若しくは他の種類の機械実行可能命令を記憶するために適切な媒体又は機械読み出し可能媒体があるが、それらに限定されるものではない。
添付図及び上記の詳述は、本発明の実施例を与えるものである。それらにおいては異なる機能要素として示されているが、当業者は、それらの要素の1つ又はそれ以上が単一の機能要素にうまく組み合わされることが可能であることを理解することができる。代替として、特定の要素は複数の機能要素に分割されることが可能である。1つの実施形態における要素が他の実施形態に付加されることが可能である。更に、何れかのフローチャートの段階は、示されている順序で実行される必要はなく、それらの段階の全てが実行される必要はない。また、他の段階に依存しない段階は、他の段階と並列して実行されることが可能である。しかしながら、本発明の範囲は、それらの特定の実施例に決して限定されるものではない。明細書に明示的に記載されているか否かに拘わらず、構造、寸法、材料使用等の種々の変形が可能である。本発明の範囲については、同日提出の特許請求の範囲に記載されている。

Claims (20)

  1. コンピュータにより実行される方法であって:
    ビデオデコーダにおいて、第1参照フレームにおける探索ウィンドウを指定する段階;
    前記第1参照フレームの前記探索ウィンドウにおける探索経路を指定する段階;
    各々の動きベクトルMV0が現在のブロックから前記探索ウィンドウにおける参照ブロックの方を向いている、前記探索経路における各々の動きベクトルMV0について、第2参照フレームにおいて参照ブロックの方を向いている対応する第2の動きベクトルMV1を決定する段階であって、前記対応する第2の動きベクトルMV1は前記動きベクトルMV0の関数である、段階;
    前記探索経路にある前記動きベクトルMV0及び前記第2の動きベクトルMV1の対の各々についてのメトリックを決定する段階であって、前記メトリックは第1メトリック、第2メトリック及び第3メトリックの組み合わせを有し、前記第1メトリックは時間的フレーム相関性に基づき、前記第2メトリックは前記参照ブロックの空間的に隣接するブロックに基づき、そして前記第3メトリックは前記現在のブロックの空間的に隣接するブロックに基づいている、段階;
    前記メトリックについての前記動きベクトルMV0の対応する値が所望の値である前記動きベクトルMV0を選択する段階であって、前記選択された動きベクトルMV0は現在のブロックについての動きベクトルとして用いられる、段階;並びに
    表示のためのピクチャを備える段階であって、表示のための前記ピクチャは前記選択された動きベクトルMV0の一部に基づいている、段階;
    を有する方法。
  2. 請求項1に記載の方法であって、メトリックを決定する前記段階は:
    前記第1メトリック、前記第2メトリック及び前記第3メトリックの重み平均を決定する段階;
    を有する方法。
  3. 請求項1又は2に記載の方法であって、メトリックを決定する前記段階は:
    次式
    Figure 2011147130
    に基づいて前記第1メトリックを決定する段階であって、ここで、N及びMは前記現在のブロックのy寸法及びx寸法のそれぞれであり、Rは第1順方向参照フレームを有し、R(x+mv_x+i,y+mv_y+j)は位置(x+mv_x+i,y+mv_y+j)のRにおける画素値であり、Rはミラー動き推定についての第1逆方向参照フレーム又は投影動き推定についての第2順方向参照フレームを有し、R(x+mv_x+i,y+mv_y+j)は位置(x+mv_x+i,y+mv_y+j)のRにおける画素値を有し、mv_xは参照フレームRのx方向における現在のブロックについての動きベクトルを有し、mv_yは参照フレームRのy方向における現在のブロックについての動きベクトルを有し、mv_xは参照フレームRのx方向における現在のブロックについての動きベクトルを有し、mv_yは参照フレームRのy方向における現在のブロックについての動きベクトルを有する、段階;
    を有する方法。
  4. 請求項1乃至3の何れか一項に記載の方法であって、メトリックを決定する前記段階は:
    次式
    Figure 2011147130
    に基づいて前記第2メトリックを決定する段階;
    を有する方法。
  5. 請求項1乃至4の何れか一項に記載の方法であって、メトリックを決定する前記段階は:
    次式
    Figure 2011147130
    に基づいて前記第3メトリックを決定する段階であって、ここで、Aavailは前記現在のブロックの周囲の領域を有し、C(x,y)は前記現在のブロックを境界付ける領域内の現在のフレームにおける画素を有し、ω及びωは、新しいピクチャと参照フレーム0及び1との間のフレーム距離に従って設定される2つの重み係数である、段階;
    を有する方法。
  6. 請求項1乃至5の何れか一項に記載の方法であって、前記現在のブロックは双予測ピクチャ内にあり、前記第1順方向参照フレームは順方向参照フレームを有し、前記第2順方向参照フレームは逆方向参照フレームを有する、方法。
  7. 請求項1乃至6の何れか一項に記載の方法であって、前記現在のブロックは予測ピクチャ内にあり、前記第1順方向参照フレームは第1順方向参照フレームを有し、前記第2順方向参照フレームは第2順方向参照フレームを有する、方法。
  8. 請求項1乃至7の何れか一項に記載の方法であって、前記メトリックは差分絶対値の和であり、前記所望の値は差分絶対値の最小の和である、方法。
  9. 請求項1乃至8の何れか一項に記載の方法であって:
    エンコーダにおいて、第3参照フレームにおいて第2探索ウィンドウを指定し、前記第3参照フレームの前記第2探索ウィンドウにおいて第2探索経路を指定することにより、前記現在のブロックについての動きベクトルを決定する段階;
    各々の動きベクトルMV2が前記現在のブロックから前記第2探索ウィンドウにおける参照ブロックの方を向いている、前記第2探索経路における各々の動きベクトルMV2について、第4参照フレームにおける参照ブロックの方を向いている対応する第2動きベクトルMV3を決定する段階;
    前記第2探索経路にある動きベクトルMV2及び前記第2動きベクトルMV3の各々の対についてのメトリックを決定する段階であって、前記メトリックは第1メトリック、第2メトリック及び第3メトリックの組み合わせを有する、段階;並びに
    前記メトリックについての前記動きベクトルMV2の対応する値が所望の値である前記動きベクトルMV2を選択する段階であって、前記選択された動きベクトルMV2は前記現在のブロックについての動きベクトルとして用いられる、段階;
    を更に有する、方法。
  10. 探索経路において各々の動きベクトルMV0を決定する論理であって、各々のMV0は現在のブロックから探索ウィンドウにおける参照ブロックの方を向いている、論理;
    第2参照フレームにおいて参照ブロックの方を向いている対応する第2の動きベクトルMV1を決定する論理であって、前記対応する第2の動きベクトルMV1はMV0の関数である、論理;
    前記探索経路にある動きベクトルMV0及び前記対応する第2の動きベクトルMV1の各々の対についてのメトリックを決定する論理であって、前記メトリックは、第1メトリック、第2メトリック及び第3メトリックの組み合わせを有し、前記第1メトリックは時間的フレーム相関性に基づき、第2メトリックは前記参照ブロックの空間的に隣接するブロックに基づき、そして第3メトリックは前記現在のブロックの空間的に隣接するブロックに基づく、論理;並びに
    前記メトリックの前記動きベクトルMV0の対応する値が所望の値である前記MV0を選択する論理であって、前記選択された動きベクトルMV0は、前記現在のブロックについての動きベクトルとして用いられる、論理;
    を有するビデオデコーダ。
  11. 請求項10に記載のビデオデコーダであって:
    前記第1参照フレームにおいて前記探索ウィンドウを指定する論理;
    前記第1参照フレームの前記探索ウィンドウにおいて前記探索経路を指定する論理;及び
    前記第2参照フレームにおいて探索ウィンドウを指定する論理;
    を更に有する、ビデオデコーダ。
  12. 請求項10又は11に記載のビデオデコーダであって、メトリックを決定するように、前記論理は:
    次式
    Figure 2011147130
    に基づいて前記第1メトリックを決定するためのものであって、ここで、N及びMは前記現在のブロックのy寸法及びx寸法のそれぞれであり、mv_xは参照フレームRのx方向における現在のブロックについての動きベクトルを有し、mv_yは参照フレームRのy方向における現在のブロックについての動きベクトルを有し、mv_xは参照フレームRのx方向における現在のブロックについての動きベクトルを有し、mv_yは参照フレームRのy方向における現在のブロックについての動きベクトルを有する;
    ビデオデコーダ。
  13. 請求項10乃至12の何れか一項に記載のビデオデコーダであって、メトリックを決定するように、前記論理は:
    次式
    Figure 2011147130
    に基づいて前記第2メトリックを決定するものである;
    方法。
  14. 請求項10乃至13の何れか一項に記載の方法であって、メトリックを決定するように、前記論理は:
    次式
    Figure 2011147130
    に基づいて前記第3メトリックを決定するものであって、ここで、Aavailは前記現在のブロックの周囲の領域を有し、C(x,y)は前記現在のブロックを境界付ける領域内の現在のフレームにおける画素を有し、ω及びωは、新しいピクチャと参照フレーム0及び1との間のフレーム距離に従って設定される2つの重み係数である;
    ビデオデコーダ。
  15. 請求項10乃至14の何れか一項に記載のビデオデコーダであって、前記現在のブロックは双予測ピクチャ内にあり、前記第1順方向参照フレームは順方向参照フレームを有し、前記第2順方向参照フレームは逆方向参照フレームを有する、ビデオデコーダ。
  16. 請求項10乃至15の何れか一項に記載のビデオデコーダであって、前記現在のブロックは予測ピクチャ内にあり、前記第1順方向参照フレームは第1順方向参照フレームを有し、前記第2順方向参照フレームは第2順方向参照フレームを有する、ビデオデコーダ。
  17. ディスプレイ;
    メモリ;並びに
    前記ディスプレイに通信可能に結合されたプロセッサであって、該プロセッサは、
    各々の動きベクトルMV0が現在のブロックから探索ウィンドウにおける参照ブロックの方を向いていて、探索経路において各々の動きベクトルMV0を決定し、
    第2参照フレームにおいて参照ブロックの方を向いている対応する第2の動きベクトルMV1が動きベクトルMV0の関数であり、前記対応する第2の動きベクトルMV1を決定し、
    前記探索経路にある動きベクトルMV0及び前記対応する第2の動きベクトルMV1の対の各々についてのメトリックは、第1メトリック、第2メトリック及び第3メトリックの組み合わせを有し、前記第1メトリックは時間的フレーム相関性に基づき、前記第2メトリックは前記参照ブロックの空間的に隣接するブロックに基づき、そして前記第3メトリックは前記現在のブロックの空間的に隣接するブロックに基づいていて、前記メトリックを決定し、
    前記メトリックについての前記動きベクトルMV0の対応する値が所望の値である前記動きベクトルMV0が選択され、前記選択された動きベクトルMV0は前記現在のブロックについての動きベクトルとして用いられる、プロセッサ;
    を有するシステム。
  18. 請求項17に記載のシステムであって:
    前記プロセッサに通信可能に結合された無線ネットワークインタフェース;
    を更に有する、システム。
  19. 請求項17又は18に記載のシステムであって、メトリックを決定するように、前記プロセッサは:
    次式
    Figure 2011147130
    に基づいて前記第1メトリックを決定し、
    次式
    Figure 2011147130
    に基づいて前記第2メトリックを決定し、そして
    次式
    Figure 2011147130
    に基づいて前記第3メトリックを決定し、
    ここで、N及びMは前記現在のブロックのy寸法及びx寸法のそれぞれであり、mv_xは参照フレームRのx方向における現在のブロックについての動きベクトルを有し、mv_yは参照フレームRのy方向における現在のブロックについての動きベクトルを有し、mv_xは参照フレームRのx方向における現在のブロックについての動きベクトルを有し、mv_yは参照フレームRのy方向における現在のブロックについての動きベクトルを有し、
    availは前記現在のブロックの周囲の領域を有し、C(x,y)は前記現在のブロックを境界付ける領域内の現在のフレームにおける画素を有し、ω及びωは、新しいピクチャと参照フレーム0及び1との間のフレーム距離に従って設定される2つの重み係数である;
    システム。
  20. 請求項17乃至19の何れか一項に記載のシステムであって:
    前記現在のブロックが双予測ピクチャ内にあるとき、前記第1順方向参照フレームは順方向参照フレームを有し、前記第2順方向参照フレームは逆方向参照フレームを有し、
    前記現在のブロックが予測ピクチャ内にあるとき、前記第1順方向参照フレームは第1順方向参照フレームを有し、前記第2順方向参照フレームは第2順方向参照フレームを有する、
    システム。
JP2011004871A 2010-01-14 2011-01-13 動き推定のための技術 Active JP5248632B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/657,168 US20110002387A1 (en) 2009-07-03 2010-01-14 Techniques for motion estimation
US12/657,168 2010-01-14

Publications (2)

Publication Number Publication Date
JP2011147130A true JP2011147130A (ja) 2011-07-28
JP5248632B2 JP5248632B2 (ja) 2013-07-31

Family

ID=44461814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011004871A Active JP5248632B2 (ja) 2010-01-14 2011-01-13 動き推定のための技術

Country Status (5)

Country Link
JP (1) JP5248632B2 (ja)
KR (2) KR101388902B1 (ja)
CN (1) CN102340664B (ja)
DE (1) DE102011008630A1 (ja)
TW (1) TW201204054A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200054A (ja) * 2016-04-27 2017-11-02 日本電信電話株式会社 映像符号化装置、映像符号化方法及び映像符号化プログラム
JP2020526109A (ja) * 2017-06-30 2020-08-27 ホアウェイ・テクノロジーズ・カンパニー・リミテッド マルチリファレンス予測のための動きベクトルの精密化

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US8462852B2 (en) 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
JP5721851B2 (ja) 2010-12-21 2015-05-20 インテル・コーポレーション Dmvd処理のシステムおよび方法の改善
TWI476640B (zh) 2012-09-28 2015-03-11 Ind Tech Res Inst 時間資料序列的平滑化方法與裝置
US11025947B2 (en) * 2018-11-29 2021-06-01 Mediatek Inc. Method and apparatus for generating motion field motion vectors for blocks of current frame in on-the-fly manner

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011029863A (ja) * 2009-07-24 2011-02-10 Hitachi Consumer Electronics Co Ltd 復号化処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100508798B1 (ko) * 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
EP1411729B1 (en) 2002-04-19 2016-03-23 Panasonic Intellectual Property Corporation of America Motion vector calculating method
KR20050122496A (ko) * 2004-06-24 2005-12-29 삼성전자주식회사 B-픽쳐의 효율적인 부호화 및 복호화 방법
WO2006033953A1 (en) * 2004-09-16 2006-03-30 Thomson Licensing Video codec with weighted prediction utilizing local brightness variation
US8693540B2 (en) * 2005-03-10 2014-04-08 Qualcomm Incorporated Method and apparatus of temporal error concealment for P-frame
US7756348B2 (en) * 2006-10-30 2010-07-13 Hewlett-Packard Development Company, L.P. Method for decomposing a video sequence frame
US20090323807A1 (en) * 2008-06-30 2009-12-31 Nicholas Mastronarde Enabling selective use of fractional and bidirectional video motion estimation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011029863A (ja) * 2009-07-24 2011-02-10 Hitachi Consumer Electronics Co Ltd 復号化処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7012003269; Murakami,T., and Saito,S.: 'Advanced B Skip Mode with Decoder-side Motion Estimation' ITU - Telecommunications Standardization SectorSTUDY GROUP 16 Question 6Video Coding Experts Group ( , 20090411 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200054A (ja) * 2016-04-27 2017-11-02 日本電信電話株式会社 映像符号化装置、映像符号化方法及び映像符号化プログラム
JP2020526109A (ja) * 2017-06-30 2020-08-27 ホアウェイ・テクノロジーズ・カンパニー・リミテッド マルチリファレンス予測のための動きベクトルの精密化
US11463726B2 (en) 2017-06-30 2022-10-04 Huawei Technologies Co., Ltd. Apparatus and method for motion vector refinement for multi-reference prediction
US11683520B2 (en) 2017-06-30 2023-06-20 Huawei Technologies Co, , Ltd. Motion vector refinement for multi-reference prediction

Also Published As

Publication number Publication date
KR101388902B1 (ko) 2014-04-24
JP5248632B2 (ja) 2013-07-31
CN102340664B (zh) 2014-11-26
TW201204054A (en) 2012-01-16
KR20120105396A (ko) 2012-09-25
DE102011008630A1 (de) 2011-09-01
CN102340664A (zh) 2012-02-01
KR20110083567A (ko) 2011-07-20

Similar Documents

Publication Publication Date Title
JP5248632B2 (ja) 動き推定のための技術
JP5061179B2 (ja) 照明変化補償動き予測符号化および復号化方法とその装置
EP1993292B1 (en) Dynamic image encoding method and device and program using the same
JP4685636B2 (ja) 復号化装置、符号化装置、補間フレーム生成システム、集積回路装置、復号化プログラムおよび符号化プログラム
US20110002387A1 (en) Techniques for motion estimation
CN113784132B (zh) 用于帧间预测的运动向量舍入、截取和存储的方法和装置
US20060222074A1 (en) Method and system for motion estimation in a video encoder
US20060222075A1 (en) Method and system for motion estimation in a video encoder
GB2474745A (en) Calculating motion estimation search range vector (SR) based on a vector mean value
WO2010008654A1 (en) Speculative start point selection for motion estimation iterative search
JP2007329693A (ja) 画像符号化装置、及び画像符号化方法
GB2477033A (en) Decoder-side motion estimation (ME) using plural reference frames
JP2006054857A (ja) 3d分解を用いてフレームシーケンスを符号化および復号する方法、使用方法、装置、およびコンピュータプログラム
KR20130119465A (ko) 블록 기반의 샘플링 코딩 시스템
EP2314066A1 (en) Simple next search position selection for motion estimation iterative search
JP5560009B2 (ja) 動画像符号化装置
JP2009027759A (ja) 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
KR101623064B1 (ko) 영상 부호화 장치, 영상 부호화 방법 및 영상 부호화 프로그램
JP2024016288A (ja) ビデオコーディングにおけるデコーダ側動きベクトル補正のための方法および装置
Kamp et al. Fast decoder side motion vector derivation for inter frame video coding
JP2009027446A (ja) 画像処理方法および画像処理装置
WO2012090425A1 (ja) 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
WO2011099242A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2020053725A (ja) 予測画像補正装置、画像符号化装置、画像復号装置、及びプログラム
JP6273828B2 (ja) 画像符号化装置、画像符号化方法、画像復号装置、及び画像復号方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130410

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250