JP6605726B2 - 直前のフレームの動きベクトルパーティショニング - Google Patents

直前のフレームの動きベクトルパーティショニング Download PDF

Info

Publication number
JP6605726B2
JP6605726B2 JP2018519384A JP2018519384A JP6605726B2 JP 6605726 B2 JP6605726 B2 JP 6605726B2 JP 2018519384 A JP2018519384 A JP 2018519384A JP 2018519384 A JP2018519384 A JP 2018519384A JP 6605726 B2 JP6605726 B2 JP 6605726B2
Authority
JP
Japan
Prior art keywords
region
partitioning
prediction
motion vector
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018519384A
Other languages
English (en)
Other versions
JP2019500766A (ja
Inventor
バンコスキー、ジェームズ
ムケルジー、デバーガ
シュー、ヤオウー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019500766A publication Critical patent/JP2019500766A/ja
Application granted granted Critical
Publication of JP6605726B2 publication Critical patent/JP6605726B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

コンピューティングデバイスを使用したビデオ信号の符号化または復号化に関する。
デジタルビデオストリームは、典型的には、一連のフレームすなわち静止画像を使用して映像を表現する。各フレームは、色、輝度、または画素の他の属性の値を示す情報を含み得る多数のブロックを含む。ビデオストリーム内のデータ量は大きく、ビデオの送信および記憶は、かなりのコンピューティングリソースまたは通信リソースを使用する。ビデオデータに含まれる大量のデータにより、送信および記憶のために高性能圧縮が必要とされる。ブロックベースのコーデックでは、これは動きベクトルを使用する予測を含む予測技術を含む。
本開示は概して、1つまたは複数の動きベクトルによって調整される前のフレームのパーティショニングに基づいて現在のフレームのパーティショニングを可能にする直前のフレームの動きベクトルパーティショニング(motion vector partitioning)を使用して、ビデオストリームデータなどのビジュアルデータを符号化および復号化することに関する。概して言えば、新たなブロックの動きベクトルによってカバーされる動きベクトルの1つによって前のフレームのパーティションをシフトすることによって、ブロックが予測のための別の領域に区分される。
本明細書におけるビデオ信号を符号化または復号化する方法の1つの態様は、ビデオシーケンス内の現在のフレームの前のフレームのうちの少なくとも一部の第1のパーティショニングを決定することを含む。ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、フレームは、複数の画素を有する少なくとも1つの領域に区分される。その方法はまた、第1のパーティショニングから第1の領域のうちの少なくとも1つの予測サブ領域を予測する動きベクトルを使用して第1のパーティショニングを第2のパーティショニングに変更すること、および第2のパーティショニングを使用して現在のフレームのうちの現在の領域を符号化または復号化することを含む。
本明細書で説明される一態様の装置は、プロセッサと、命令を格納する非一時的メモリとを備え、命令は、ビデオシーケンス内の現在のフレームの前のフレームのうちの少なくとも一部の第1のパーティショニングを決定することと、第1のパーティショニングから第1の領域のうちの少なくとも1つの予測サブ領域を予測する動きベクトルを使用して第1のパーティショニングを第2のパーティショニングに変更することと、第2のパーティショニングを使用して現在のフレームのうちの現在の領域を符号化または復号化することとを含む方法をプロセッサに実行させる。
本明細書における別の態様の装置は、ビデオ信号を符号化する装置であり、ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、各フレームは複数のブロックに区分され、各ブロックは複数の画素を有する。その装置は、プロセッサと、命令を格納する非一時的メモリとを備え、その命令は、ビデオシーケンス内の現在のフレームの前のフレームのうちの少なくとも一部の第1のパーティショニングを決定することと、フレーム内で第1のブロックの境界を識別する位置を、第1のブロックの予測サブブロックを予測する動きベクトルによって移動させることにより第1のパーティショニングを第2のパーティショニングに変更して新たなブロックを識別することと、第1のパーティショニングによって定義される第1のブロックのうちの少なくとも1つの予測サブブロックを予測する動きベクトルを用いて、その位置において新たなブロックの境界内に包囲される第1のパーティショニングを、新たなブロックと少なくとも部分的に重なるフレームの予測サブブロックの動きベクトルによって修正することと、第2のパーティショニングを用いて現在のフレームのうち、第1のブロックと同じ位置にある現在のブロックを符号化することをプロセッサに実行させる。
本発明は、コンピュータデバイスを使用してビデオ信号を符号化または復号化する方法または装置の観点においても理解することができ、ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、フレームは、複数の画素を有する少なくとも1つの領域に区分され、その方法は、ビデオシーケンス内の現在のフレームのうちの現在の領域の予測のために参照フレームのうちの少なくとも一部の第1のパーティショニングを決定するステップと、第1のパーティショニングから現在のフレームと隣接するかあるいは異なる現在のフレームのうちの第1の領域の予測サブ領域を少なくとも予測する動きベクトルを用いて第1のパーティショニングを第2のパーティショニングに細分化するステップと、第2のパーティショニングを使用して現在のフレームのうちの現在の領域を符号化または復号化するステップとを含む。第1のパーティショニングは、典型的には、第1の領域の1つまたは複数の予測サブ領域と重なり、1つまたは複数の予測サブ領域をカバーし、または1つまたは複数の予測サブ領域を含む。
本開示のこれらおよび他の態様は、以下の詳細な説明、添付の特許請求の範囲および添付の図面においてさらに詳細に記載される。
本明細書の記載は、以下に記載される添付の図面を参照し、いくつかの図面に亘って同様の参照番号が同様の構成を参照している。
ビデオ符号化および復号化システムの概略図。 送信局または受信局を具体化することができるコンピューティングデバイスの一例のブロック図。 符号化され、続いて復号化されるビデオストリームの図。 本明細書の教示の一態様によるビデオ圧縮システムのブロック図。 本明細書の教示の別の態様によるビデオ圧縮解除システムのブロック図。 直前のフレームの動きベクトルパーティショニングを使用して領域を符号化または復号化するプロセスのフローチャート図。 図6の処理を説明するために使用される一例を示す図。 図6の処理を説明するために使用される他の例を示す図。
ビデオストリームは、ビデオストリームを送信または格納するのに必要な帯域幅を低減するために、様々な技術によって圧縮され得る。ビデオストリームは、圧縮を含むビットストリームに符号化され、その後、復号化器に送信され、復号化器はビデオストリームを復号化または圧縮解除して、視聴または後処理するために準備する。ビデオストリームの符号化は、ビデオ品質とビットストリームサイズとの間のトレードオフを行うパラメータを含むことができ、復号化されたビデオストリームの知覚される品質を高めるようにすると、ビットストリームを送信または格納するのに必要なビット数が増加する。
優れた圧縮性能を達成する1つの技法は、空間的補償予測および/または動き補償予測によってビデオ信号の空間的および時間的相関を利用する。インター予測は、例えば、動きベクトルを使用して、符号化されるべき現在のブロックに似ている、以前に符号化され復号化されたブロックを識別する。動きベクトルおよび2つのブロック間の差を符号化することによって、復号化器は現ブロックを再作成することができる。
ブロックを復号化するために使用されるビットストリームのヘッダ内に含まれるデータの量を最小にするためには、できるだけ大きなブロックを符号化することが多くの場合望ましい。しかしながら、大きなブロックは望ましいものの、特にブロック内に多くの動きがある場合には、より大きな量の歪みが生じる可能性がある。このため、ブロック内のオブジェクトをよりよく一致させるために、より大きなブロックをいくつかの小さいブロックに区分することがある。例えば、16×16画素ブロックまたはそれ以上のブロックは、予測のための4×4画素のサイズのブロックまで区分され得る。マスク、ウェッジなどの他の技法を使用してフレームを区分化することは、同じ性質を示す。本明細書におけるブロックによるパーティショニングの説明は、フレームパーティショニングの出力の一例に過ぎない。
現在、各フレームはスクラッチから、すなわち前のフレームのパーティショニングに関係なく、区分されている。対照的に、本明細書の教示は、直前のフレームのパーティショニングがフレーム内の動きベクトルによってシフトされて、毎回フレーム全体を再区分化するのではなく、新たなパーティショニングを生成するオプションを説明する。概して、ブロック(またはフレームによって区分される前の領域)は、例えば、前のフレームのパーティション(単数または複数)をシフトすることによって(例えば、新たな領域またはブロックの動きベクトルによってカバーされる動きベクトルの1つによって)別の領域に区分される。新たな領域の各々は、それ自体の動きベクトルを有することができ、これにより、フレームの非正方形領域に対するモードおよび動きベクトルを分離することが可能になる。新たなフレームが有効となるように前のフレームのパーティショニングを変更するために動きベクトルを使用することによって、(計算時間を含む)予測コストが低減され得る。さらなる詳細は、本明細書の教示が使用され得る環境の最初の説明の後に記載される。
図1は、ビデオ符号化及び復号化システム100の概略図である。送信局102は、例えば、図2に記載されているようなハードウェアの内部構成を有するコンピュータとすることができる。しかしながら、送信局102の他の適切な実施形態も可能である。例えば、送信局102の処理を複数の装置に分散させることができる。
ネットワーク104は、ビデオストリームの符号化および復号化のために、送信局102および受信局106を接続することができる。具体的には、ビデオストリームを送信局102で符号化することができ、符号化されたビデオストリームを受信局106で復号化することができる。ネットワーク104は、例えばインターネットであってもよい。ネットワーク104は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、仮想プライベートネットワーク(VPN)、携帯電話ネットワーク、または送信局102から、この例では、受信局106にビデオストリームを転送する任意の他の手段とすることができる。
受信局106は、一例では、図2に記載されたようなハードウェアの内部構成を有するコンピュータとすることができる。しかしながら、受信局106の他の適切な実施形態も可能である。例えば、受信局106の処理を複数の装置に分散させることができる。
ビデオ符号化および復号化システム100の他の実施形態も可能である。例えば、一実施形態はネットワーク104を省略することができる。別の実施形態では、ビデオストリームを符号化し、後で受信局106またはメモリを有する任意の他の装置に送信するために格納することができる。一実施形態では、受信局106は、符号化されたビデオストリームを(例えば、ネットワーク104、コンピュータバス、および/または何らかの通信経路を介して)受信し、後の復号化のためにビデオストリームを記憶する。一実施形態では、ネットワーク104を介して符号化されたビデオを伝送するためにリアルタイム転送プロトコル(RTP:real-time transport protocol)が使用される。別の実施形態では、ハイパーテキスト転送プロトコル(HTTP:Hypertext Transfer Protocol)などのRTP以外の転送プロトコルが使用されてもよい。別の実施形態では、ハイパーテキスト転送プロトコル(HTTP)ベースのビデオストリーミングプロトコル等のRTP以外の転送プロトコルが使用されてもよい。
ビデオ会議システムで使用される場合、例えば、送信局102および/または受信局106は、以下に説明するように、ビデオストリームを符号化および復号化する能力を含むことができる。例えば、受信局106は、ビデオ会議サーバ(例えば、送信局102)から符号化されたビデオビットストリームを受信して復号化および視聴し、さらにそのビデオビットストリームを他の参加者による復号化および視聴のために符号化してビデオ会議サーバに送信するビデオ会議参加者とし得る。
図2は、送信局または受信局を実施することができるコンピューティングデバイス200の一例のブロック図である。例えば、コンピューティングデバイス200は、図1の送信局102および受信局106の一方または両方を実施することができる。コンピューティングデバイス200は、複数のコンピューティングデバイスを含むコンピューティングシステムの形態、または例えば、携帯電話、タブレットコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、デスクトップコンピュータなどの単一のコンピューティングデバイスの形態とすることができる。
コンピューティングデバイス200内のCPU202は、中央処理装置とすることができる。代替的に、CPU202は、現在存在するか、または今後開発される情報を操作または処理することができる任意の他のタイプのデバイスまたは複数のデバイスであってもよい。開示された実施態様は、図示のような単一のプロセッサ、例えばCPU202で実施することができるが、複数のプロセッサを使用して速度と効率の利点を達成することができる。
コンピューティングデバイス200内のメモリ204は、実施形態では読み出し専用メモリ(ROM)デバイスまたはランダムアクセスメモリ(RAM)デバイスであってもよい。任意の他の適切なタイプの記憶装置をメモリ204として使用することができる。メモリ204は、CPU202がバス212を使用してアクセスするコードおよびデータ206を含むことができる。メモリ204は、オペレーティングシステム208およびアプリケーションプログラム210をさらに含むことができ、アプリケーションプログラム210は、本明細書に記載された方法をCPU202が実行するのを可能にする少なくとも1つのプログラムを含む。例えば、アプリケーションプログラム210は、アプリケーション1〜Nを含むことができ、アプリケーション1〜Nは、本明細書で説明する方法を実行するビデオ符号化アプリケーションをさらに含む。コンピューティングデバイス200はまた、例えば、モバイルコンピューティングデバイスと共に使用されるメモリカードとすることができる二次ストレージ214を含むことができる。ビデオ通信セッションは、かなりの量の情報を含み得るので、それらは、二次ストレージ214に全体的または部分的に記憶され、処理のために必要に応じてメモリ204にロードされる。
コンピューティングデバイス200は、ディスプレイ218などの1つまたは複数の出力デバイスを含むこともできる。ディスプレイ218は、一例では、ディスプレイを、タッチ入力を感知するように動作可能なタッチセンシティブエレメントと組み合わせたタッチセンシティブディスプレイであってもよい。ディスプレイ218は、バス212を介してCPU202に接続することができる。ユーザがコンピューティングデバイス200をプログラムするかまたは他の方法で使用することを可能にする他の出力デバイスが、ディスプレイ218に加えて、またはディスプレイ218に代えて設けられてもよい。出力デバイスがディスプレイであるか、またはディスプレイを含む場合、ディスプレイは、液晶ディスプレイ(LCD)、陰極線管(CRT)ディスプレイ、または有機LED(OLED)などの発光ダイオード(LED)ディスプレイを含む様々な方法で実施することができる。
コンピューティングデバイス200は、コンピューティングデバイス200を操作するユーザの画像等の画像を検出することができる、例えば、カメラなどの撮像デバイス220、または現在または将来開発される任意の他の撮像デバイス220を含むか、または撮像デバイス220と通信することができる。撮像デバイス220は、コンピューティングデバイス200を操作するユーザの方に向けられるように配置することができる。一例では、撮像デバイス220の位置および光軸は、視野が、ディスプレイ218に直接隣接する領域であって、その領域からディスプレイ218が視認可能な領域を含むように構成することができる。
コンピューティングデバイス200は、コンピューティングデバイス200の近くの音を感知することができる、例えば、マイクロホンなどの音声感知デバイス222、または現在または今後開発される任意の他の音声感知デバイスを含むか、または音声感知デバイス222と通信することができる。音声感知デバイス222は、コンピューティングデバイス200を操作するユーザの方に向けられ、かつユーザがコンピューティングデバイス200を操作している間にユーザによって発せられた例えば音声、他の発話を受信するように構成することができる。
図2は、コンピューティングデバイス200のCPU202およびメモリ204が単一のユニットに統合されていることを示しているが、他の構成を利用することもできる。CPU202の動作は、直接的にまたはローカルエリアネットワークまたは他のネットワークを介して接続することができる複数のマシン(各マシンは1つまたは複数のプロセッサを有する)にわたって分散させることができる。メモリ204は、ネットワークベースのメモリのような複数のマシンに分散するか、またはコンピューティングデバイス200の動作を実行する複数のマシンにおけるメモリとすることができる。本明細書では単一のバスとして示されているが、コンピューティングデバイス200のバス212は、複数のバスから構成することができる。さらに、二次ストレージ214は、コンピューティングデバイス200の他の構成要素に直接接続されるか、またはネットワークを介してアクセスされ、かつメモリカードなどの単一の統合されたユニットまたは複数のメモリカードなどの複数のユニットを含むことができる。従って、コンピューティングデバイス200は、多種多様な構成で実施することができる。
図3は、符号化され、続いて復号化されるビデオストリーム300の一例の図である。ビデオストリーム300は、ビデオシーケンス302を含む。次のステージでは、ビデオシーケンス302はいくつかの隣接フレーム304を含む。3つのフレームが隣接フレーム304として示されているが、ビデオシーケンス302は任意の数の隣接フレーム304を含むことができる。隣接フレーム304はさらに、個々のフレーム、例えばフレーム306に細分化することができる。次のステージでは、フレーム306は、一連のプレーンまたはセグメント308に分割することができる。セグメント308は、例えば、並列処理を可能にするフレームのサブセットとすることができる。セグメント308は、ビデオデータを別々の色に分離することができるフレームのサブセットとすることができる。例えば、カラービデオデータのフレーム306は、輝度プレーン(luminance plane)および2つの色度プレーン(chrominance plane)を含むことができる。セグメント308は、異なる解像度でサンプリングすることができる。
フレーム306がセグメント308に分割されているか否かにかかわらず、フレーム306は、さらに、フレーム306内の例えば16×16画素に対応するデータを含むことができるブロック310に細分化されてもよい。ブロック310は、1つまたは複数のプレーンの画素データからのデータを含むように構成される。ブロック310は、4×4画素、8×8画素、16×8画素、8×16画素、16×16画素、またはそれ以上等の任意の他の適切なサイズであってもよい。フレーム306のパーティショニングによって生じるブロック310または他の領域は、以下により詳細に説明するように、本明細書の教示に従って区分されてもよい。すなわち、符号化される領域は、より小さなサブブロックまたは領域に区分されるより大きな領域であってもよい。より詳細には、符号化されるべき現在の領域は、例えば、異なる予測モードを使用して符号化されるより小さい画素のグループに分割されてもよい。これらの画素のグループは、本明細書では、予測サブブロック、予測サブ領域、または予測ユニットと称される。場合によっては、領域が1つの予測モードのみを使用して符号化されるときに、符号化される領域全体を包含する1つのみの予測サブ領域が存在する。特に明記しない限り、以下の図4および図5におけるブロックの符号化および復号化の説明は、より大きな領域の予測サブブロック、予測サブ領域または予測ユニットに等しく適用される。
図4は、一実施形態による符号化器400のブロック図である。符号化器400は、例えばメモリ204などのメモリに格納されたコンピュータソフトウェアプログラムを提供するなどして、上述のように送信局102内で実施することができる。コンピュータソフトウェアプログラムは、CPU202等のプロセッサよる実行時に、送信局102に図4で説明した方法でビデオデータを符号化させる機械命令を含むことができる。符号化器400は、例えば、送信局102に含まれる専用のハードウェアとして実施することもできる。符号化器400は、ビデオストリーム300を入力として使用してフォワードパス(実線の接続線で示す)において様々な機能を実行して、符号化または圧縮されたビットストリーム420を生成するイントラ予測/インター予測ステージ402、変換ステージ404、量子化ステージ406、およびエントロピー符号化ステージ408を有する。符号化器400は、将来のブロックの符号化のためのフレームを再構成する再構成パス(点線の接続線で示す)をも含む。図4において、符号化器400は、再構成パスにおいて様々な機能を実行する以下のステージ、逆量子化ステージ410、逆変換ステージ412、再構成ステージ414、およびループフィルタリングステージ416を有する。符号化器400の他の構成的な変形例を使用してビデオストリーム300を符号化することができる。
ビデオストリーム300が符号化のために提示されると、各フレーム306は例えばブロックのような複数の画素(例えば、領域)の単位で処理される。イントラ予測/インター予測ステージ402において、ブロックは、イントラフレーム予測(イントラ予測とも称する)またはインターフレーム予測(ここではインター予測とも呼ばれる)を用いて符号化することができる。いずれの場合でも、予測ブロックを形成することができる。イントラ予測の場合、予測(または予測子)ブロックが、以前に符号化され、かつ再構成された現在のフレーム内のサンプルから形成され得る。インター予測の場合、予測ブロックは、1つまたは複数の以前に構築された参照フレーム内のサンプルから形成され得る。
次に、引き続き図4を参照して、イントラ予測/インター予測ステージ402において予測ブロックが現在のブロックから減算され、残差ブロック(残差とも呼ばれる)が生成される。変換ステージ404は、ブロックベースの変換を使用して、残差を、例えば周波数領域の変換係数に変換する。このようなブロックベースの変換には、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)および非対称離散サイン変換(ADST:Asymmetric Discrete Sine Transform)が含まれる。他のブロックベースの変換も可能である。さらに、異なる変換の組み合わせを単一の残差に適用することができる。変換の適用の一例では、DCTは残差ブロックを周波数係数に変換し、ここで、変換係数値は空間周波数に基づいている。行列の左上の最低周波数(DC)係数、および行列の右下の最高周波数係数。予測ブロックのサイズ、したがって結果の残差ブロックは、変換ブロックのサイズと異なる可能性があることは注目に値する。例えば、残差ブロックまたは領域は、別々の変換が適用されるより小さいブロック領域に分割されてもよい。
量子化ステージ406は、変換係数を量子化値または量子化レベルを使用して量子化変換係数と呼ばれる離散量子値に変換する。例えば、変換係数は、量子化値で除算され、切り捨てられてもよい。次に、量子化された変換係数は、エントロピー符号化ステージ408によってエントロピー符号化される。エントロピー符号化は、トークンツリーおよびバイナリツリーを含む任意の数の技術を使用して実行されてもよい。例えば、使用される予測のタイプ、変換タイプ、動きベクトルおよび量子化値を含み得る、ブロックを復号化するために使用される他の情報とともに、エントロピー符号化された係数は、圧縮されたビットストリーム420に出力される。圧縮されたビットストリーム420は、符号化されたビデオストリームまたは符号化されたビデオビットストリームとも称され、これらの用語は本明細書では互換的に使用される。
符号化器400および復号化器500(以下に説明する)の両方が、圧縮されたビットストリーム420を復号化するために同じ参照フレームを使用することを確実にするために、図4における再構成パス(点線の接続線で示す)が使用される。再構成パスは、逆量子化ステージ410で量子化された変換係数を逆量子化すること、および逆変換ステージ412で逆量子化された変換係数を逆変換して微分残差ブロック(微分残差とも称される)を生成することを含む以下により詳細に説明される復号化プロセス中に行われる機能と同様の機能を実行する。再構成ステージ414において、イントラ予測/インター予測ステージ402で予測された予測ブロックを微分残差に加えて、再構成されたブロックが作成される。ブロック化アーチファクトなどの歪みを低減するために、ループフィルタリングステージ416が再構成されたブロックに適用される。
符号化器400の他の変形例を使用して圧縮されたビットストリーム420を符号化することができる。例えば、非変換ベースの符号化器400は、あるブロックまたはフレームに関して変換ステージ404を使用せずに残差信号を直接量子化することができる。別の実施形態では、符号化器400は、量子化ステージ406と逆量子化ステージ410とを組み合わせて単一のステージにすることができる。符号化器400は、この技法に従って任意のサイズまたは形状の画素のグループを符号化することができる。したがって、符号化される画素のグループは、より一般的には、領域と称される。
図5は、別の実施形態による復号化器500のブロック図である。復号化器500は、例えば、メモリ204に格納されたコンピュータソフトウェアプログラムを提供することによって、受信局106で実施することができる。コンピュータソフトウェアプログラムは、CPU202などのプロセッサによる実行時に、受信局106に、図5において説明した方法でビデオデータを復号化させる機械命令を含む。復号化器500は、例えば、送信局102または受信局106に含まれるハードウェアで実施することもできる。
復号化器500は、上述の符号化器400の再構成パスと同様に、一例では、様々な機能を実行して圧縮されたビットストリーム420から出力ビデオストリーム516を生成するための以下のステージ、エントロピー復号化ステージ502、逆量子化ステージ504、逆変換ステージ506、イントラ予測/インター予測ステージ508、再構成ステージ510、ループフィルタリングステージ512、およびデブロッキングフィルタリングステージ514を含む。圧縮されたビットストリーム420を復号化するために復号化器500の他の構造的な変形例を使用することができる。
圧縮されたビットストリーム420が復号化のために提示されると、圧縮されたビットストリーム420内のデータ要素が、エントロピー復号化ステージ502によって復号化されて、一組の量子化変換係数が生成される。逆量子化ステージ504は、(例えば、量子化された変換係数に量子化値を乗算することにより)量子化された変換係数を逆量子化し、逆変換ステージ506は、選択された変換タイプを使用して逆量子化された変換係数を逆変換して、符号化器400における逆変換ステージ412によって生成されたものと同一である微分残差を生成する。圧縮されたビットストリーム420から復号化されたヘッダ情報を使用して、復号化器500は、イントラ予測/インター予測ステージ508を用いて、例えばイントラ予測/インター予測ステージ402において符号化器400で生成されたのと同じ予測ブロックを作成する。再構成ステージ510において、予測ブロックを微分残差に加えて再構成ブロックが作成される。ループフィルタリングステージ512は、ブロッキングアーチファクトを低減するために再構成されたブロックに適用される。再構成されたブロックに他のフィルタリングを適用することができる。この例では、ブロッキング歪みを低減するためにデブロッキングフィルタリングステージ514が再構成ブロックに適用され、その結果が出力ビデオストリーム516として出力される。出力ビデオストリーム516は、復号化されたビデオストリームとも呼ばれ、用語は本明細書では互換的に使用される。
復号化器500の他の変形例を使用して、圧縮されたビットストリーム420を復号化することができる。例えば、復号化器500は、デブロッキングフィルタリングステージ514を用いずに出力ビデオストリーム516を生成することができる。説明を簡単にするためにブロックを参照して説明されているが、復号化器500は、この技法に従って、任意のサイズまたは形状の画素のグループ(例えば、領域)を復号化することができる。
上記で簡単に説明したように、直前のフレームの動きベクトルパーティショニングによって(即ち、動きベクトルを使用して直前のフレームのパーティショニングを調整することによって)、フレームまたはフレームの領域は、符号化または復号化のために区分され得る。概して、領域は、新たな領域の動きベクトルによってカバーされる動きベクトルの1つによって前のフレームパーティションをシフトすることによって別の領域に分割される。
図6は、本開示の一実施形態による、直前のフレームの動きベクトルパーティショニングによって領域を符号化または復号化するプロセス600のフローチャート図である。この方法またはプロセス600は、ビデオストリームの符号化または復号化を支援するコンピューティングデバイス200などのシステムにおいて実施することができる。プロセス600は、例えば、送信局102または受信局106などのコンピューティングデバイスによって実行されるソフトウェアプログラムとして実施することができる。ソフトウェアプログラムは、メモリ204などのメモリに格納され、CPU202のようなプロセッサによる実行時に、コンピューティングデバイスにプロセス600を実行させる機械可読命令を含むことができる。プロセス600は、ハードウェアの全体または一部を使用して実施することもできる。上述したように、いくつかのコンピューティングデバイスは、複数のメモリおよび複数のプロセッサを有してもよく、プロセス600のステップまたは動作は、この場合、異なるプロセッサおよび異なるメモリを使用して分散されてもよい。本明細書で単数の「プロセッサ」および「メモリ」という用語を使用することは、1つのプロセッサまたは1つのメモリのみを有するのみならず、必ずしもすべての記載されたステップではないが、いくつかのステップの実行にそれぞれ使用されてもよい複数のプロセッサまたは複数のメモリを有するコンピューティングデバイスを含む。
説明を簡単にするために、プロセス600は、一連のステップまたは動作として示され説明されている。しかしながら、本開示によるステップおよび動作は、様々な順序でおよび/または同時に進行することができる。さらに、本開示に従うステップまたは動作は、本明細書に提示および記載されていない他のステップまたは動作と共に進行することができる。さらに、開示された主題に従って方法を実施するために、図示された全てのステップまたは動作が必要とされるわけではない。プロセス600は、入力信号の各フレームの各ブロックに対して繰り返されてもよい。いくつかの実施形態では、プロセス600に従って、1つまたは複数のフレームのいくつかのブロックのみが処理される。例えば、プロセス600を実行するとき、イントラ予測モードを使用して符号化されたブロックが省略されてもよい。
プロセス600が符号化プロセスである場合、入力信号は、例えばビデオストリーム300とすることができる。入力信号は、プロセス600を実行するコンピュータによって任意の数の方法で受信される。例えば、入力信号は、撮像デバイス220によって取り込まれるか、またはバス212に接続された入力を介して別のデバイスから受信される。入力信号は、別の実施形態では、二次ストレージ214から取得することができる。他の受信方法および他の入力信号のソースも可能である。例えば、プロセス600が復号化プロセスである場合、入力信号は、圧縮されたビットストリーム420などの符号化されたビットストリームであってもよい。
入力信号を使用して、602において領域の第1のパーティショニングが決定される。これは、ビデオシーケンス内の現在のフレームの前のフレームのうちの少なくとも一部の第1のパーティショニングを決定することを含むことができる。
プロセス600が符号化プロセスである場合、第1のパーティショニングの決定は、レート歪み計算を使用することを組み込むことができる。例えば、フレームがビデオシーケンス内の第1のフレームである場合、第1のパーティショニングは、フレームをブロックに区分化し、例えば、図4の符号化処理による最低のレート歪み値から決定されるように、複数の利用可能な予測モードの中からブロックに対する最適な予測モードを決定することにより行われる。一例では、ブロックは16×16画素ブロックであり、利用可能な予測モードは、8×16画素、16×8画素、8×8画素、8×4画素、4×8画素、および4×4画素のサイズを有するブロックおよびブロックのサブブロックに対するいくつかのイントラ予測およびインター予測モードを含み得る。別の例では、フレームはビデオシーケンスの第1のフレームではない。そのような場合、第1のパーティショニングは、前のフレーム(例えば、フレームの前の、ビデオシーケンスにおける直前のフレーム)のパーティショニングに基づいて、本明細書で説明するように決定されてもよい。
プロセス600が復号化プロセスである場合、第1のパーティショニングの決定は、図5に関して説明したような符号化されたビデオビットストリームからフレームを復号化することを含むことができる。復号化されるフレームは、一実施形態において符号化器によって決定されたパーティショニングに従って復号化される。
プロセス600が符号化プロセスであろうと復号化プロセスであろうと、第1のパーティショニングは、フレームの第1の領域のうちの少なくとも1つの予測サブ領域を定義する。第1のパーティショニングは、604において動きベクトルを使用して変更される。一実施形態において、第1のパーティショニングの変更は、第1のパーティショニングから第1の領域のうちの少なくとも1つの予測サブ領域を予測する動きベクトルを使用して第1のパーティショニングを第2のパーティショニングに変更することを含む。場合によっては、これは、フレーム内の第1の領域の位置を動きベクトルによって移動させ、次いで、新たな領域の位置の境界内に包囲される第1のパーティショニングを、新たな領域と少なくとも部分的に重なる予測サブ領域の少なくとも1つの動きベクトルによって修正することにより達成される。他の場合、これは、第1の領域の境界内に包囲される第1のパーティショニングを動きベクトルによって修正することにより達成される。
図7A〜図7Cは、図6のプロセス600を説明するために使用される一例の図である。より具体的には、図7A〜図7Cは、プロセス600の604における第1のパーティショニングを変更することを説明する。この例は、ブロックとしての形成を有する領域が生じるパーティショニングを示しているため、ブロックという用語が使用される。しかしながら、図7A〜図7Cを参照するプロセス600の説明は、矩形形状を有している領域や、あるいは矩形形状を有していない領域に適用され得る。
図7Aは、ビデオシーケンス内の現在のフレームの前のフレームの第1のパーティショニング700の一部を示す。ブロックベースのパーティショニングのこの例では、第1のブロック702は、単に1つの予測サブブロックに区分される。すなわち、第1のブロック702は、図7Aの第1のブロック702の境界内の矢印によって表される単一の動きベクトルを使用して予測される。第1のパーティショニング700のいくつかの他の予測サブブロックが図7Aに示されている。具体的には、3つの他のブロックの予測サブブロックが、例としてラベル付けされている。
第1のブロック702の上にあるブロックは、4つの等しいサイズの予測サブブロックに区分され、そのうちの2つは、予測サブブロック706および予測サブブロック708とラベル付けされている。予測サブブロック706は、図7Aの予測サブブロック706の境界内の矢印によって示された動きベクトルを使用して予測され、予測サブブロック708は、図7Aの予測サブブロック708の境界内の矢印によって示される動きベクトルを使用して予測される。予測サブブロック706,708の動きベクトルは異なるか、またはそれらが表すブロックの一部は単一のサブブロックとして示され得る。第1のブロック702の上のブロックの残りの2つのサブブロックは、異なる予測モードおよび/または異なる動きベクトルを使用して符号化される。
上にあるブロックの右側のブロックも4つの等しいサイズの予測サブブロックに区分され、そのうちの1つは、予測サブブロック710とラベル付けされている。予測サブブロック710は、図7Aの予測サブブロック710の境界内の点によって示されるようにイントラ予測を使用して予測される。このブロックの残りの予測サブブロックは、ここでは使用されていないので、この例ではラベル付けされていないが、それぞれが異なる予測モードおよび/または異なる動きベクトルを用いて符号化されてもよい。
第1のブロック702の右側のブロックは、2つの等しいサイズの予測サブブロックに区分され、そのうちの1つは、予測サブブロック712とラベル付けされている。予測サブブロック712は、図7Aの予測サブブロック712の境界内の点によって示されるようにイントラ予測を使用して予測される。このブロックの残りの予測サブブロックは、ここでは使用されていないが、異なる予測モードを使用して符号化されるので、この例ではラベル付けされていない。
第1のブロック702は、16×16画素ブロック、32×32画素ブロック、または他のサイズのブロックであってもよい。第1のブロック702が例えば16×16画素のブロックである場合、予測サブブロック706,708,710はそれぞれ8×8画素を含み、予測サブブロック712は8×16画素である。
上述のように、第1のパーティショニングは、第1のパーティショニングからの第1の領域のうちの少なくとも1つの予測サブ領域を予測する動きベクトルを用いて第2のパーティショニングに変更することができる。図7A〜図7Cの例において、これは、フレーム内の第1の領域(ここではブロック)の位置を動きベクトルによって移動させ、次に、新たな位置の境界内に包囲される第1のパーティショニングを、新たな位置と少なくとも部分的に重なる予測サブ領域の少なくとも1つの動きベクトルによって修正することにより達成される。図7Aに示すように、第1のブロック702は、新たなブロック704によって示される位置に移動される。新たなブロック704の境界内に包囲される第1のパーティショニングは、第1のブロック702、予測サブブロック706,708,710、および予測サブブロック712を含む。新たなブロック704と少なくとも部分的に重なる予測サブブロックの動きベクトルは、第1のブロック702および予測サブブロック706,708の動きベクトルを含む。図7Bは、新たなブロック704の境界内の隣接する予測ブロックまたはサブブロック間の頂点720,722によって画定された境界が別の動きベクトルによって調整される第1のパーティショニングの変更を示す。使用される動きベクトルは、最大または最小の動きベクトルのような利用可能な動きベクトルのうちの1つのみであってもよく、また平均または加重平均などの利用可能な動きベクトルの組み合わせとすることができる。加重平均は、動きベクトルの各々を使用して予測された新たなブロック704の一部(例えば、領域全体の画素数)に基づいてもよい。図7Cは、5つの予測サブブロック732〜740を含む新たなブロック704に関して結果的に生じた第2のパーティショニング730を示す。
より概略的に説明すると、図7A〜図7Cは、第1のパーティショニングの変更が、更新された位置がフレームの領域の一部(例えば、予測サブ領域の一部)と重なる動きベクトルを使用して第1の領域の外周部をフレーム内の更新された位置に調整することを含むプロセスを示す。次いで、領域の一部のコーナーまたは頂点(およびそれらの境界も含む)が、同じ動きベクトル(または異なる動きベクトル)によって更新された位置内で移動されて第1のパーティショニングが第2のパーティショニングに変更される。
図8Aおよび図8Bは、図6のプロセス600を説明するために使用される別の例の図である。この場合、動きベクトルを用いて第1のパーティショニングを変更することは、第1の領域の境界内に包囲される第1のパーティショニングを動きベクトルによって修正することにより達成される。図8Aおよび図8Bは、複数のブロックに区分化することを示しており、これらの領域はブロックとして参照される。図8Aにおいて、ブロック800は4つの予測サブブロックに区分され、そのうちの1つは動きベクトル802を使用して予測され、残りの3つはイントラ予測される。この場合、変更された第2のパーティショニングがブロック810について示され、図7Bのように、予測サブブロック間の交点(コーナーまたは頂点)が動きベクトル802によって移動されて第1のパーティショニングが第2のパーティショニングに変更される。
パーティショニングを変更するために使用される動きベクトルの間の選択は、例えば予測モードまたは動きベクトル値に基づいて発見的手法で決定されるか、または異なる技術をテストし、符号化されるブロック(およびフレーム)に最適なものを選択することによって実験的に決定することができる。図6に従って処理されるフレームの各ブロックに関するパーティショニングを変更するために使用される技術は、復号化器が後続フレームの同じパーティショニングを生成するように、ビットストリーム内のフラグまたは他の識別子によって識別され得る。これは、同じ技術がフレームに使用されている範囲で、フレームヘッダーで送信することができる。代替的に、または追加的に、領域またはセグメント単位でパーティショニングを変更するために使用される動きベクトルが、復号化器によって使用される領域(たとえば、ブロック)またはセグメントヘッダで送信することができる。いくつかの実施形態では、復号化器が新たなパーティショニングを生成できるように、領域、セグメントまたはフレームのパーティショニングが直前のフレームの動きベクトルパーティショニングを使用して実行されたことを示すために、モード識別子のみが符号化器から送信される必要がある。これらの実施形態の変形形態では、プロセス600は符号化器でのみ実行され、復号化器は、例えば図5に従ってビットストリーム内に位置する区分された領域を復号化することができる。
変更された第2のパーティショニングが決定されると、606において、第2のパーティショニングが現在のフレームの現在の領域を符号化または復号化するために使用される。現在の領域は、第1の領域と同じ位置とすることができる。例えば、現在の領域および第1の領域は、同じ位置にあるブロックであってもよい。同じ位置にある領域は、異なるフレーム内の同じ画素座標を有する。あるいは、現在の領域は、現在のフレーム内で、一例における第1のブロック702の動きベクトルなどの動きベクトルによって第1の領域位置からシフトされてもよい。現在の領域を符号化することは、現在の領域の予測サブ領域のための残差を生成し、現在の領域の復号化に必要な情報を用いて符号化されたビットストリームに残差を符号化することによって、第2のパーティショニングの予測サブ領域を符号化することを含む。例えば、符号化プロセスは、図4に関して説明したように、変換ステージ404、量子化ステージ406、およびエントロピー符号化ステージ408を使用して残差を処理することを含むことができる。各予測サブ領域に関する残差は、各々の最良のモードのための利用可能な予測モードの網羅的テストによって決定されるか、または第1の領域の前の予測モードに基づくより小さい予測モードのリストから決定された個々についての予測モードを使用して生成されてもよい。
プロセス600が復号化プロセスである場合、変更されたパーティショニングを使用して、残差を復号化するために現在の領域の各予測サブ領域の残差のサイズを決定し、次いで、各々について同様のサイズの予測領域を生成して残差を加算して現在の領域を再構成する。例えば、復号化プロセスは、図5に関して説明したように、エントロピー復号化ステージ502、逆量子化ステージ504、および逆変換ステージ506を使用して残差を処理することを含むことができる。次に、図5に関しても説明したように、現在の領域が再構成ステージ510で再構成される。
プロセス600は、ブロックベースのパーティショニング手法を使用して形成された矩形形状の予測サブブロックを用いる特定の例に関してこれまで説明したが、フレームに関して様々なパーティショニング手法から生成される領域と共にプロセス600を使用することができる。プロセス600は、例えば、動きベクトルによってシフトされた直前のフレームに対するマスクを使用することによって、マスクを使用して良好に動作する。別個に予測される2つの全体的に連続した画素領域の間に境界を有するマスクでは、第1のパーティショニングは第1の領域の2つの予測サブ領域を規定し、第2のパーティショニングは2つの更新された予測サブ領域を含み、更新された予測サブ領域の境界は、動きベクトルによって第1の領域内で移動された元の予測サブ領域間の境界である。すなわち、例えば、第1のパーティショニングは、マスクを使用して第1の領域の2つの予測サブ領域を規定し、2つの予測サブ領域の各々は、マスク内の境界の反対側にある。次に、第1のパーティショニングを変更することは、動きベクトルによってマスク内の境界を移動させて、予測のための更新された境界を生成して、更新されたマスクが予測のために使用されるとき、第2のパーティショニングが、更新された境界の反対側に2つの更新された予測サブ領域を含むようにすることを含む。ウェッジ、カラー、残差、および3つの動きベクトルモードのマスクを使用するパーティショニング技法から生成される領域は、プロセス600による直前のフレームの動きベクトルパーティショニングからすべての利点を得ることができる。
新たなフレームを有効にするために動きベクトルを使用して前のフレームのパーティショニングを変更することにより、新たなフレームを符号化するときのパーティショニングに伴う計算を最小限に抑えることができる。本明細書の教示は、フレーム全体を再区分化するのを回避し、フレームの新たに定義された領域が独自の動きベクトルおよび/または符号化モードを有し、非正方形の画素のブロックのための別個のモードおよび動きベクトルを許可することを可能にする柔軟性を有するオプションを提供する。これは、圧縮の良好な予測を提供するのに役立つ。
上述の符号化および復号化の態様は、符号化および復号化技術のいくつかの例を示す。しかしながら、符号化および復号化は、特許請求の範囲で使用されるそれらの用語として圧縮、圧縮解除、変換、または任意の他の処理またはデータの変更を意味し得ることを理解されたい。
「例」という語は、本明細書では、例、事例、または実例としての役割を意味するものとして使用される。本明細書において「例」と記載された任意の態様または設計は、必ずしも他の態様または設計に対して好ましいまたは有利であるとして解釈されるべきではない。むしろ、「例」という言葉の使用は、具体的な方法で概念を提示することを意図している。本出願で使用される場合、用語「または」は、排他的な「または」ではなく、包括的な「または」を意味することが意図される。即ち、他に明記されていない限り、あるいは文脈から明らかでない限り、「XはAまたはBを含む」とは、任意の自然な包含的置換(natural inclusive permutations)を意味することを意図する。即ち、「XはAまたはBを含む」は、XがAを含む場合、XがBを含む場合、またはXがAおよびBの両方を含む場合のいずれにおいても満足される。さらに、本出願および添付の特許請求の範囲で使用される冠詞「a」および「an」は、他に明記されない限り、または単数形に向けられる文脈から明らかでない限り、「1つまたは複数」を意味すると一般に解釈されるべきである。さらに、「実施形態」または「一実施形態」という用語の使用は、そのように記載されない限り、同じ実施形態または実施を意味することを意図するものではない。
送信局102および/または受信局106(ならびに、符号化器400および復号化器500が含む、それに記憶され、かつ/またはそれによって実行されるアルゴリズム、方法、命令など)の実施形態は、ハードウェア、ソフトウェア、またはそれらの任意の組み合わせにおいて実現することができる。ハードウェアは、例えば、コンピュータ、知的財産(IP)コア、特定用途向け集積回路(ASIC:application-specific integrated circuits)、プログラマブル論理アレイ、光プロセッサ、プログラマブル論理コントローラ、マイクロコード、マイクロコントローラ、サーバ、マイクロプロセッサ、デジタル信号プロセッサ、または他の適切な回路を含むことができる。特許請求の範囲において、「プロセッサ」という用語は、前述のハードウェアのいずれかを単独でまたは組み合わせて含むものとして理解されるべきである。用語「信号」および「データ」は互換的に使用される。さらに、送信局102および受信局106の一部は、必ずしも同じ方法で実施される必要はない。
さらに、一態様では、例えば、送信局102または受信局106は、実行時に、本明細書に記載された個々の方法、アルゴリズム、および/または命令をのうちのいずれかを実行するコンピュータプログラムを備えた汎用コンピュータまたは汎用プロセッサを使用して実施することができる。加えて、または代替的に、例えば、本明細書に記載された方法、アルゴリズム、または命令のいずれかを実行するための他のハードウェアを含むことができる専用コンピュータ/プロセッサを利用することができる。
送信局102および受信局106は、例えば、ビデオ会議システム内のコンピュータ上で実施することができる。あるいは、送信局102はサーバ上で実施することができ、受信局106はサーバとは別のハンドヘルド通信デバイスのようなデバイス上で実施することができる。この場合、送信局102は、符号化器400を使用してコンテンツを符号化されたビデオ信号に符号化し、符号化されたビデオ信号を通信デバイスに送信することができる。通信デバイスは、復号化器500を使用して符号化されたビデオ信号を復号化することができる。あるいは、通信デバイスは、通信デバイス上に局所的に格納されたコンテンツ、例えば、送信局102によって送信されなかったコンテンツを復号化することができる。他の適切な送信および受信の実施方式が利用可能である。例えば、受信局106は、ポータブル通信デバイスではなく、一般に固定のパーソナルコンピュータであってもよく、かつ/または符号化器400を含むデバイスは、復号化器500を含んでもよい。
さらに、本発明の実施形態の全部または一部は、例えば有形のコンピュータ使用可能またはコンピュータ可読媒体からアクセス可能なコンピュータプログラム製品の形態を取ることができる。コンピュータ使用可能またはコンピュータ可読媒体は、例えば、任意のプロセッサによって使用されるプログラムを有形に包含、格納、通信、または輸送することができる任意のデバイスであり得る。媒体は、例えば、電子、磁気、光学、電磁気、または半導体デバイスであり得る。他の適切な媒体も利用可能である。
上述した実施形態、実施例及び態様は、本発明の理解を容易にするために記載されており、本発明を限定するものではない。本発明は、添付の特許請求の範囲内に含まれる様々な改変および均等の構成を包含することを意図しており、その範囲は、法律で許容されるようなすべての改変および均等の構造を包含するように最も広い解釈が与えられる。

Claims (22)

  1. コンピューティングデバイスを使用してビデオ信号を符号化する方法であって、前記ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、前記複数のフレームの各々は、複数の画素を有する少なくとも1つの領域に分割され、
    前記ビデオシーケンス内の現在のフレームの前のフレームのうちの第1の領域の第1のパーティショニングを決定するステップであって、前記第1のパーティショニングが前記第1の領域のうちの1つまたは複数の予測サブ領域を定義する、前記決定するステップと、
    記第1のパーティショニングを変更して第2のパーティショニングを提供するステップであって各フレームは複数のブロックに分割され、前記第1の領域は、前記現在のフレームの前のフレームのうちの第1のブロックであり、前記現在の領域は、前記現在のフレームのうちの現在のブロックであり、前記第1のパーティショニングの変更は、
    前記第1の領域のうちの少なくとも1つの予測サブ領域を予測する動きベクトルを用いて前記第1のブロックの外周部を、新たな領域を定義する更新された位置に調整するステップと、
    前記更新された位置の外周部内で前記複数のブロックのうちの一部の頂点を、前記新たな領域と少なくとも部分的に重なる予測サブ領域の少なくとも1つの動きベクトルによって移動させて前記第2のパーティショニングを提供するステップと
    を含む、前記第1のパーティショニングを変更して第2のパーティショニングを提供するステップと、
    前記第2のパーティショニングを使用して前記現在のフレームのうちの現在の領域を符号化するステップと
    を含む方法。
  2. コンピューティングデバイスを使用してビデオ信号を復号化する方法であって、前記ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、前記複数のフレームの各々は、複数の画素を有する少なくとも1つの領域に分割され、
    前記ビデオシーケンス内の現在のフレームの前のフレームのうちの第1の領域の第1のパーティショニングを決定するステップであって、前記第1のパーティショニングが前記第1の領域のうちの1つまたは複数の予測サブ領域を定義する、前記決定するステップと、
    前記第1のパーティショニングを変更して第2のパーティショニングを提供するステップであって、各フレームは複数のブロックに分割され、前記第1の領域は、前記現在のフレームの前のフレームのうちの第1のブロックであり、前記現在の領域は、前記現在のフレームのうちの現在のブロックであり、前記第1のパーティショニングの変更は、
    前記第1の領域のうちの少なくとも1つの予測サブ領域を予測する動きベクトルを用いて前記第1のブロックの外周部を、新たな領域を定義する更新された位置に調整するステップと、
    前記更新された位置の外周部内で前記複数のブロックのうちの一部の頂点を、前記新たな領域と少なくとも部分的に重なる予測サブ領域の少なくとも1つの動きベクトルによって移動させて前記第2のパーティショニングを提供するステップと
    を含む、前記第1のパーティショニングを変更して第2のパーティショニングを提供するステップと、
    前記第2のパーティショニングを使用して前記現在のフレームのうちの現在の領域を復号化するステップと
    を含む方法。
  3. 前記現在のフレームのうちの前記現在の領域、および前記現在のフレームの前のフレームのうちの前記第1の領域は、同じ位置にあるマクロブロックなどのブロックである、請求項1または2に記載の方法。
  4. 前記第1のパーティショニングは、前記第1の領域のうちの2つの予測サブ領域を定義し、
    前記第2のパーティショニングは、2つの更新された予測サブ領域を含み、前記2つの更新された予測サブ領域間の境界は、前記第1の領域内で前記動きベクトルによって移動された前記第1のパーティショニングの前記2つの予測サブ領域間の境界である、請求項1乃至3のいずれか一項に記載の方法。
  5. 前記動きベクトルは、前記第1の領域の前記2つの予測サブ領域のうちの1つのみの動きベクトルである、請求項に記載の方法。
  6. 前記動きベクトルは、前記第1の領域の前記2つの予測サブ領域の各々の動きベクトルを組み合わせた平均の動きベクトルである、請求項に記載の方法。
  7. 前記第1のブロックは単一の予測サブ領域によって定義され、前記更新された位置内の前記第2のパーティショニングは複数の予測サブ領域を含む、請求項1または請求項2に記載の方法。
  8. 前記更新された位置は、前記第1のブロックの一部に加えて、少なくとも3つのブロックの一部と重なり、前記動きベクトルは、前記更新された位置によって包囲される最大の動きベクトルである、請求項1乃至7のいずれか1項に記載の方法。
  9. 前記更新された位置は、前記第1のブロックの一部に加えて、少なくとも3つのブロックの一部と重なり、前記動きベクトルは、前記更新された位置によって包囲される動きベクトルの平均である、請求項1乃至7のいずれか1項に記載の方法。
  10. 前記第1のパーティショニングは、前記第1の領域の4つの予測サブ領域を含み、前記第1のパーティショニングの変更は、前記4つの予測サブ領域間の交点を前記動きベクトルによって移動させて前記第1のパーティショニングを前記第2のパーティショニングに変更するステップを含む、請求項1乃至9のいずれか1項に記載の方法。
  11. 前記第2のパーティショニングの使用は、前記第2のパーティショニングによる前記現在のフレームのうちの前記現在の領域の各予測サブ領域について、
    前記予測サブ領域のための予測領域を生成するステップと、
    前記予測領域を用いて残差領域を算出するステップと、
    符号化されたビットストリーム内で前記残差領域を符号化するステップと
    を含む、請求項1に記載の方法。
  12. 前記第1のパーティショニングを変更するのに使用される前記動きベクトルを、符号化されたビットストリーム内で符号化器から復号化器に伝達するステップをさらに含む、請求項1乃至11のいずれか1項に記載の方法。
  13. ビデオ信号を符号化するための装置であって、前記ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、各フレームは少なくとも1つの領域に分割され、各領域は複数の画素を有し、前記装置は、
    前記ビデオシーケンス内の現在のフレームの前のフレームのうちの第1の領域の第1のパーティショニングを決定し、前記第1のパーティショニングは前記第1の領域のうちの1つまたは複数の予測サブ領域を定義し、
    前記第1の領域の境界を識別する位置を、前記第1の領域の少なくとも1つの予測サブ領域を予測する動きベクトルによって移動させて新たな領域を識別し、
    前記位置において前記新たな領域の境界内に包囲される前記第1のパーティショニングを、前記新たな領域と少なくとも部分的に重なる予測サブ領域の少なくとも1つの動きベクトルによって修正して第2のパーティショニングを提供し、
    前記第2のパーティショニングを使用して前記現在のフレームのうちの現在の領域を符号化す
    ように構成されている、装置。
  14. ビデオ信号を復号化するための装置であって、前記ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、各フレームは少なくとも1つの領域に分割され、各領域は複数の画素を有し、前記装置は、
    前記ビデオシーケンス内の現在のフレームの前のフレームのうちの第1の領域の第1のパーティショニングを決定し、前記第1のパーティショニングは前記第1の領域のうちの1つまたは複数の予測サブ領域を定義し、
    前記第1の領域の境界を識別する位置を、前記第1の領域の少なくとも1つの予測サブ領域を予測する動きベクトルによって移動させて新たな領域を識別し、
    前記位置において前記新たな領域の境界内に包囲される前記第1のパーティショニングを、前記新たな領域と少なくとも部分的に重なる予測サブ領域の少なくとも1つの動きベクトルによって修正して第2のパーティショニングを提供し、
    前記第2のパーティショニングを使用して前記現在のフレームのうちの現在の領域を復号化する
    ように構成されている、装置。
  15. 前記第1のパーティショニングは、マスクを使用して前記第1の領域の2つの予測サブ領域を定義し、前記2つの予測サブ領域は前記マスク内の境界の両側にあり、
    前記第1のパーティショニングの変更は、前記動きベクトルによって前記マスク内で境界を移動させて、更新された境界を生成し、前記第2のパーティショニングが前記更新された境界の両側に2つの更新された予測サブ領域を含むようにすることを含む、請求項13または請求項14に記載の装置。
  16. 前記新たな領域と少なくとも部分的に重なる予測サブ領域の前記少なくとも1つの動きベクトルは、前記第1の領域の少なくとも1つの予測サブ領域を予測する前記動きベクトルである、請求項13または請求項14に記載の装置。
  17. 前記新たな領域と少なくとも部分的に重なる予測サブ領域の前記少なくとも1つの動きベクトルは、前記新たな領域と少なくとも部分的に重なる少なくとも2つの予測サブ領域の個々の動きベクトルの組み合わせである、請求項13または請求項14に記載の装置。
  18. 前記装置は、前記第2のパーティショニングによる前記現在の領域の各予測サブ領域について、
    前記現在の領域の前記予測サブ領域に関連する残差のサブ領域を復号化することと、
    前記予測サブ領域のための予測領域を生成することと、
    前記残差のサブ領域を前記予測領域と組み合わせることと
    により前記第2のパーティショニングを使用するように構成されている、請求項14に記載の装置。
  19. 前記動きベクトルは、前記第1の領域の少なくとも2つの予測サブ領域の個々の動きベクトルの組み合わせである、請求項13乃至18のいずれか1項に記載の装置。
  20. ビデオ信号を符号化するための装置であって、前記ビデオ信号は、ビデオシーケンスを定義する複数のフレームを含み、各フレームは複数のブロックに区分され、各ブロックは複数の画素を有し、前記装置は、
    前記ビデオシーケンス内の現在のフレームの前のフレームのうちの第1のブロックの第1のパーティショニングを決定し、
    前記現在のフレームの前のフレーム内で前記第1のブロックの境界を識別する位置を、前記第1のブロックの予測サブブロックを予測する動きベクトルによって移動させ新たなブロックを識別し、
    前記位置において前記新たなブロックの境界内に包囲される前記第1のパーティショニングを、前記新たなブロックと少なくとも部分的に重なる前記現在のフレームの前のフレームの予測サブブロックの少なくとも1つの動きベクトルによって修正して第2のパーティショニングを提供し、
    前記第2のパーティショニングを使用して前記現在のフレームのうち、前記第1のブロックと同じ位置にある現在のブロックを符号化するように構成されている、装置。
  21. 請求項1乃至12のいずれか1項に記載のステップを実行するように構成された装置。
  22. プロセッサと、命令を格納する非一時的メモリとを備えた装置であって、前記命令は、前記プロセッサに請求項1乃至12のいずれか1項に記載のステップを実施させるか、あるいは請求項13乃至20のいずれか1項に記載の装置を実行に移させる、装置。
JP2018519384A 2016-01-29 2016-12-22 直前のフレームの動きベクトルパーティショニング Active JP6605726B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/011,415 US10306258B2 (en) 2016-01-29 2016-01-29 Last frame motion vector partitioning
US15/011,415 2016-01-29
PCT/US2016/068220 WO2017131904A1 (en) 2016-01-29 2016-12-22 Last frame motion vector partitioning

Publications (2)

Publication Number Publication Date
JP2019500766A JP2019500766A (ja) 2019-01-10
JP6605726B2 true JP6605726B2 (ja) 2019-11-13

Family

ID=57799843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018519384A Active JP6605726B2 (ja) 2016-01-29 2016-12-22 直前のフレームの動きベクトルパーティショニング

Country Status (9)

Country Link
US (2) US10306258B2 (ja)
JP (1) JP6605726B2 (ja)
KR (1) KR102120135B1 (ja)
CN (1) CN107027032B (ja)
AU (1) AU2016389093B2 (ja)
CA (1) CA3001888C (ja)
DE (2) DE202016008177U1 (ja)
GB (1) GB2547091B (ja)
WO (1) WO2017131904A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6895247B2 (ja) * 2016-10-06 2021-06-30 日本放送協会 符号化装置、復号装置及びプログラム
US10469867B2 (en) 2017-04-21 2019-11-05 Zenimax Media Inc. Systems and methods for player input motion compensation by anticipating motion vectors and/or caching repetitive motion vectors
WO2019000443A1 (zh) * 2017-06-30 2019-01-03 华为技术有限公司 一种帧间预测的方法及装置
US10805629B2 (en) * 2018-02-17 2020-10-13 Google Llc Video compression through motion warping using learning-based motion segmentation
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
CN112040243B (zh) 2018-06-04 2021-06-29 华为技术有限公司 获取运动矢量的方法和装置
US10516885B1 (en) * 2018-07-11 2019-12-24 Tencent America LLC Method and apparatus for video coding
EP3664451B1 (en) 2018-12-06 2020-10-21 Axis AB Method and device for encoding a plurality of image frames
CN117915081A (zh) 2019-01-02 2024-04-19 北京字节跳动网络技术有限公司 视频处理的方法
CN113647105A (zh) * 2019-01-28 2021-11-12 Op方案有限责任公司 指数分区的帧间预测
KR20210118154A (ko) * 2019-01-28 2021-09-29 오피 솔루션즈, 엘엘씨 적응형 개수의 영역들을 갖는 기하학적 파티셔닝에서의 인터 예측
US11758133B2 (en) * 2019-10-31 2023-09-12 Apple Inc Flexible block partitioning structures for image/video compression and processing

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62104283A (ja) 1985-10-31 1987-05-14 Kokusai Denshin Denwa Co Ltd <Kdd> 動画像伝送における差分復号信号の雑音低減装置
IT1232109B (it) 1989-06-21 1992-01-23 Cselt Centro Studi Lab Telecom Procedimento e dispositivo di riconoscimento del contorno di immagini in movimento
JP3037383B2 (ja) 1990-09-03 2000-04-24 キヤノン株式会社 画像処理システム及びその方法
DE69126585T2 (de) 1990-09-20 1998-01-02 Nippon Electric Co Verfahren und Gerät zur Kodierung von bewegten Bildsignalen
GB2266023B (en) 1992-03-31 1995-09-06 Sony Broadcast & Communication Motion dependent video signal processing
US6614847B1 (en) * 1996-10-25 2003-09-02 Texas Instruments Incorporated Content-based video compression
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
US5969772A (en) 1997-10-30 1999-10-19 Nec Corporation Detection of moving objects in video data by block matching to derive a region motion vector
US7277486B2 (en) 2002-05-03 2007-10-02 Microsoft Corporation Parameterization for fading compensation
US7756348B2 (en) 2006-10-30 2010-07-13 Hewlett-Packard Development Company, L.P. Method for decomposing a video sequence frame
US8520845B2 (en) * 2007-06-08 2013-08-27 Intel Corporation Method and apparatus for expansion key generation for block ciphers
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
WO2009051668A2 (en) 2007-10-12 2009-04-23 Thomson Licensing Methods and apparatus for video encoding and decoding geometrically partitioned bi-predictive mode partitions
EP2081386A1 (en) 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
JP5286805B2 (ja) 2008-01-31 2013-09-11 沖電気工業株式会社 動きベクトル検出装置及び方法、動画像符号化装置及び方法、並びに、動画像復号化装置及び方法
KR100939917B1 (ko) 2008-03-07 2010-02-03 에스케이 텔레콤주식회사 움직임 예측을 통한 부호화 시스템 및 움직임 예측을 통한부호화 방법
US20090320081A1 (en) 2008-06-24 2009-12-24 Chui Charles K Providing and Displaying Video at Multiple Resolution and Quality Levels
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
EP2280550A1 (en) 2009-06-25 2011-02-02 Thomson Licensing Mask generation for motion compensation
US8358691B1 (en) * 2009-10-30 2013-01-22 Adobe Systems Incorporated Methods and apparatus for chatter reduction in video object segmentation using a variable bandwidth search region
US9473792B2 (en) 2009-11-06 2016-10-18 Texas Instruments Incorporated Method and system to improve the performance of a video encoder
KR20110061468A (ko) 2009-12-01 2011-06-09 (주)휴맥스 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
KR101484280B1 (ko) 2009-12-08 2015-01-20 삼성전자주식회사 임의적인 파티션을 이용한 움직임 예측에 따른 비디오 부호화 방법 및 장치, 임의적인 파티션을 이용한 움직임 보상에 따른 비디오 복호화 방법 및 장치
WO2011096770A2 (ko) 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
US8879632B2 (en) 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
CN102845062B (zh) * 2010-04-12 2015-04-29 高通股份有限公司 用于几何运动分割的定点实施方案
CN106162172B (zh) * 2010-04-13 2020-06-02 Ge视频压缩有限责任公司 解码器及方法、编码器及方法、产生和解码数据流方法
EP2569942A1 (en) 2010-05-11 2013-03-20 Telefonaktiebolaget LM Ericsson (publ) Video signal compression coding
JP5541364B2 (ja) 2010-09-30 2014-07-09 富士通株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、画像復号プログラム、及び画像符号化プログラム
EP3703373B1 (en) * 2010-10-08 2024-04-17 GE Video Compression, LLC Picture coding supporting block partitioning and block merging
US20120147961A1 (en) 2010-12-09 2012-06-14 Qualcomm Incorporated Use of motion vectors in evaluating geometric partitioning modes
US10027982B2 (en) 2011-10-19 2018-07-17 Microsoft Technology Licensing, Llc Segmented-block coding
EP2597872A3 (en) 2011-11-23 2013-12-25 Humax Co., Ltd. Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
CA2871668A1 (en) 2012-04-24 2013-10-31 Lyrical Labs Video Compression Technology, LLC Macroblock partitioning and motion estimation using object analysis for video compression
US20130287109A1 (en) * 2012-04-29 2013-10-31 Qualcomm Incorporated Inter-layer prediction through texture segmentation for video coding
US20130329800A1 (en) 2012-06-07 2013-12-12 Samsung Electronics Co., Ltd. Method of performing prediction for multiview video processing
US9549182B2 (en) 2012-07-11 2017-01-17 Qualcomm Incorporated Repositioning of prediction residual blocks in video coding
CN104704827B (zh) * 2012-11-13 2019-04-12 英特尔公司 用于下一代视频的内容自适应变换译码
KR20150143585A (ko) 2013-04-23 2015-12-23 퀄컴 인코포레이티드 비디오 코딩에서 예측 잔차 블록들의 재배치
GB2520002B (en) 2013-11-04 2018-04-25 British Broadcasting Corp An improved compression algorithm for video compression codecs
US9986236B1 (en) 2013-11-19 2018-05-29 Google Llc Method and apparatus for encoding a block using a partitioned block and weighted prediction values
TWI536811B (zh) 2013-12-27 2016-06-01 財團法人工業技術研究院 影像處理方法與系統、解碼方法、編碼器與解碼器
KR102457810B1 (ko) 2014-03-19 2022-10-21 삼성전자주식회사 3d 영상에 관련된 블록의 파티션 경계에서 필터링 수행 방법
US10554965B2 (en) 2014-08-18 2020-02-04 Google Llc Motion-compensated partitioning
CN108293125B (zh) 2014-11-14 2020-08-07 华为技术有限公司 一种数字图像处理系统和方法
US9838710B2 (en) 2014-12-23 2017-12-05 Intel Corporation Motion estimation for arbitrary shapes
US10469841B2 (en) 2016-01-29 2019-11-05 Google Llc Motion vector prediction using prior frame residual

Also Published As

Publication number Publication date
DE102016125379A1 (de) 2017-08-03
US20190268618A1 (en) 2019-08-29
US10798408B2 (en) 2020-10-06
DE202016008177U1 (de) 2017-06-06
US20170223377A1 (en) 2017-08-03
DE102016125379B4 (de) 2022-10-13
GB2547091A (en) 2017-08-09
CN107027032B (zh) 2020-01-03
GB201621923D0 (en) 2017-02-08
KR102120135B1 (ko) 2020-06-08
AU2016389093A1 (en) 2018-04-19
CA3001888C (en) 2021-01-12
US10306258B2 (en) 2019-05-28
GB2547091B (en) 2019-09-25
AU2016389093B2 (en) 2019-05-09
KR20180053372A (ko) 2018-05-21
WO2017131904A1 (en) 2017-08-03
JP2019500766A (ja) 2019-01-10
CN107027032A (zh) 2017-08-08
CA3001888A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6605726B2 (ja) 直前のフレームの動きベクトルパーティショニング
CA3008890C (en) Motion vector reference selection through reference frame buffer tracking
WO2017131908A1 (en) Dynamic reference motion vector coding mode
JP6761033B2 (ja) 前フレーム残差を用いた動きベクトル予測
US10506240B2 (en) Smart reordering in recursive block partitioning for advanced intra prediction in video coding
CN110169068B (zh) Dc系数符号代码化方案
CN112203088B (zh) 用于非基带信号代码化的变换选择
CN110741641B (zh) 用于视频压缩的方法和装置
US10506256B2 (en) Intra-prediction edge filtering
WO2018169571A1 (en) Segmentation-based parameterized motion models
US20170302965A1 (en) Adaptive directional loop filter
EP3701722A1 (en) Same frame motion estimation and compensation
WO2019018011A1 (en) VIDEO CODING USING FRAME ORIENTATION
CN110169059B (zh) 视频代码化的复合预测
WO2019036080A1 (en) ESTIMATION OF CONSTRAINED MOTION FIELD FOR INTERPRETING
US10567772B2 (en) Sub8×8 block processing
US10110914B1 (en) Locally adaptive warped motion compensation in video coding
JP2020522185A (ja) 複合動き補償予測

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191016

R150 Certificate of patent or registration of utility model

Ref document number: 6605726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250