JP2018513627A - 画像符号化/復号方法および関連装置 - Google Patents
画像符号化/復号方法および関連装置 Download PDFInfo
- Publication number
- JP2018513627A JP2018513627A JP2017551284A JP2017551284A JP2018513627A JP 2018513627 A JP2018513627 A JP 2018513627A JP 2017551284 A JP2017551284 A JP 2017551284A JP 2017551284 A JP2017551284 A JP 2017551284A JP 2018513627 A JP2018513627 A JP 2018513627A
- Authority
- JP
- Japan
- Prior art keywords
- image
- current image
- random access
- current
- access point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 141
- 230000001419 dependent effect Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 description 36
- 230000008569 process Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 8
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000003672 processing method Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 101100086436 Caenorhabditis elegans rap-1 gene Proteins 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 2
- 101100420081 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) rps-0 gene Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241001674048 Phthiraptera Species 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/142—Detection of scene cut or scene change
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/23—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/87—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
現在の画像を取得するステップと、
知識ベースから、現在の画像のK個の参照画像を選択するステップであって、ここで、知識ベース内の少なくとも1つの画像は、現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、ステップと、
K個の参照画像に従って、現在の画像を復号するステップとを含む。
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
現在の画像を取得するステップと、
知識ベースから、現在の画像のK個の参照画像を選択するステップであって、ここで、知識ベース内の少なくとも1つの画像は、現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、ステップと、
K個の参照画像に従って、現在の画像を符号化するステップとを含む。
第2の態様の第3の可能な実施では、知識ベースは、現在の画像が属するビデオシーケンス内のキー画像を含み、現在の画像が属するビデオシーケンス内のキー画像は、現在の画像が属するビデオシーケンス内のシーンカット画像および/または背景画像を含む。
現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、または、
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
現在の画像を取得するように構成される取得ユニットと、
知識ベースから、現在の画像のK個の参照画像を選択するように構成される参照ユニットであって、ここで、知識ベース内の少なくとも1つの画像は、現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、参照ユニットと、
K個の参照画像に従って、現在の画像を復号するように構成される復号ユニットとを含む。
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
現在の画像を取得するように構成される取得ユニットと、
知識ベースから、現在の画像のK個の参照画像を選択するように構成される参照ユニットであって、ここで、知識ベース内の少なくとも1つの画像は、現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、参照ユニットと、
K個の参照画像に従って、現在の画像を符号化するように構成される符号化ユニットとを含む。
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
現在の画像を取得するように構成される取得ユニット610と、
知識ベースから、現在の画像のK個の参照画像を選択するように構成される参照ユニット620であって、ここで、知識ベース内の少なくとも1つの画像は、現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、参照ユニット620と、
K個の参照画像に従って、現在の画像を復号するように構成される復号ユニット630とを含んでよい。
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
プロセッサ702およびストレージ703を含んでよい。プロセッサ702は、バス701を使用することによって、ストレージ703に結合および接続される。
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
プロセッサ902およびストレージ903を含んでよい。プロセッサ902は、バス901を使用することによって、ストレージ903に結合および接続される。プロセッサ902は、ストレージ903内のコードまたは命令を呼び出して、現在の画像を取得し、知識ベースから、現在の画像のK個の参照画像を選択し、K個の参照画像に従って、現在の画像を符号化し、ここで、知識ベース内の少なくとも1つの画像は、現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である。
現在の画像が従属レイヤに配置される場合、現在の画像が配置されるランダムアクセスセグメントは、現在の画像が配置されるビデオレイヤにおいて、現在の画像の前の最も近いランダムアクセスポイントから、現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、現在の画像のX個の参照画像の前の最も近いランダムアクセスポイントから、X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、現在の画像が配置されるランダムアクセスセグメントは、現在の画像の前の最も近いランダムアクセスポイントにおける画像を含むが、現在の画像の後の最も近いランダムアクセスポイントにおける画像を含まず、現在の画像が配置されるランダムアクセスセグメントは、X個の参照画像の前の最も近いランダムアクセスポイントにおける画像を含むが、X個の参照画像の後の最も近いランダムアクセスポイントにおける画像を含まず、X個の参照画像は、従属レイヤ以外の別のビデオレイヤにある現在の画像の参照画像である。
620 参照ユニット
630 復号ユニット
702 プロセッサ
703 ストレージ
810 取得ユニット
820 参照ユニット
830 符号化ユニット
902 プロセッサ
903 ストレージ
Claims (57)
- 画像復号方法であって、
現在の画像を取得するステップと、
知識ベースから、前記現在の画像のK個の参照画像を選択するステップであって、前記知識ベース内の少なくとも1つの画像は、前記現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、ステップと、
前記K個の参照画像に従って、前記現在の画像を復号するステップとを含む方法。 - 前記知識ベース内の少なくとも1つの画像は、第2のビデオビットストリームを復号することによって取得される、請求項1に記載の方法。
- 知識ベースから、前記現在の画像のK個の参照画像を選択する前記ステップは、前記知識ベースから、前記現在の画像が属する第1のビデオビットストリームを復号することによって取得される、前記現在の画像の参照画像索引に基づいて、前記現在の画像の前記K個の参照画像を選択するステップを含む、請求項1または2に記載の方法。
- 前記参照画像索引と一致する参照画像は、前記現在の画像が配置される前記ランダムアクセスセグメントの前の再構成画像である、請求項3に記載の方法。
- 前記方法は、前記参照画像索引と一致する参照画像が、前記第2のビデオビットストリームから見つからない場合、サーバから、前記参照画像索引と一致する参照画像を含む前記第2のビデオビットストリームの増分ビットストリームを要求し、前記第2のビデオビットストリームの前記増分ビットストリームを復号して、前記参照画像索引と一致する前記参照画像を取得し、前記参照画像索引と一致する前記取得された参照画像を、前記現在の画像の参照画像として使用するステップをさらに含む、請求項3または4に記載の方法。
- 前記現在の画像の前記参照画像索引は、参照画像の番号、参照画像の画像特徴および/または前記現在の画像の画像特徴を示す、請求項3、4または5に記載の方法。
- 前記参照画像索引が、前記現在の画像の前記画像特徴を示す場合、前記K個の参照画像の画像特徴は、前記現在の画像の前記画像特徴と一致する、請求項6に記載の方法。
- 前記画像特徴は、尺度不変特徴変換SIFTおよび/または加速堅牢特徴SURFを含む、請求項6または7に記載の方法。
- 前記知識ベースは、前記現在の画像が属するビデオシーケンス内のキー画像を含み、前記現在の画像が属する前記ビデオシーケンス内の前記キー画像は、前記現在の画像が属する前記ビデオシーケンス内のシーンカット画像および/または背景画像を含む、請求項1乃至8のいずれか1項に記載の方法。
- 前記シーンカット画像は、前記現在の画像が属する前記第2のビデオビットストリームまたは前記第1のビデオビットストリームを復号することによって取得され、または、前記背景画像は、前記現在の画像が属する前記第2のビデオビットストリームまたは前記第1のビデオビットストリームを復号することによって取得され、または、前記背景画像は、前記現在の画像が属する前記第1のビデオビットストリーム内の復号されたビデオシーケンスに対して背景モデリングを実行することによって取得される、請求項9に記載の方法。
- 前記K個の参照画像に従って、前記現在の画像を復号する前記ステップは、前記K個の参照画像を、前記現在の画像の参照画像リストに追加し、前記参照画像リスト内の参照画像に従って、前記現在の画像を復号するステップを含む、請求項1乃至10のいずれか1項に記載の方法。
- 前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、または、
前記現在の画像が従属レイヤに配置される場合、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、前記現在の画像の前記X個の参照画像の前の最も近いランダムアクセスポイントから、前記X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記X個の参照画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記X個の参照画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記X個の参照画像は、前記従属レイヤ以外の別のビデオレイヤにある前記現在の画像の参照画像である、請求項1乃至11のいずれか1項に記載の方法。 - 画像符号化方法であって、
現在の画像を取得するステップと、
知識ベースから、前記現在の画像のK個の参照画像を選択するステップであって、前記知識ベース内の少なくとも1つの画像は、前記現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、ステップと、
前記K個の参照画像に従って、前記現在の画像を符号化するステップとを含む方法。 - 前記K個の参照画像の画像特徴は、前記現在の画像の画像特徴と一致する、請求項13に記載の方法。
- 前記画像特徴は、尺度不変特徴変換SIFTおよび/または加速堅牢特徴SURFを含む、請求項14に記載の方法。
- 前記知識ベースは、前記現在の画像が属するビデオシーケンス内のキー画像を含み、前記現在の画像が属する前記ビデオシーケンス内の前記キー画像は、前記現在の画像が属する前記ビデオシーケンス内のシーンカット画像および/または背景画像を含む、請求項13乃至15のいずれか1項に記載の方法。
- 前記シーンカット画像は、前記現在の画像が属する前記ビデオシーケンスに対してシーンカット検出を実行することによって取得され、または、前記背景画像は、前記現在の画像が属する前記ビデオシーケンスに対して背景モデリングを実行することによって取得される、請求項16に記載の方法。
- 前記知識ベース内の少なくとも1つの画像は、第2のビデオビットストリームを復号することによって取得され、または、前記知識ベース内の少なくとも1つの画像は、前記現在の画像を符号化することによって取得される第1のビデオビットストリームを復号することによって取得される、請求項13乃至17のいずれか1項に記載の方法。
- 前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、または、
前記現在の画像が従属レイヤに配置される場合、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、前記現在の画像の前記X個の参照画像の前の最も近いランダムアクセスポイントから、前記X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記X個の参照画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記X個の参照画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記X個の参照画像は、前記従属レイヤ以外の別のビデオレイヤにある前記現在の画像の参照画像である、請求項13乃至18のいずれか1項に記載の方法。 - 画像復号装置であって、
現在の画像を取得するように構成される取得ユニットと、
知識ベースから、前記現在の画像のK個の参照画像を選択するように構成される参照ユニットであって、前記知識ベース内の少なくとも1つの画像は、前記現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、参照ユニットと、
前記K個の参照画像に従って、前記現在の画像を復号するように構成される復号ユニットとを含む装置。 - 前記知識ベース内の少なくとも1つの画像は、第2のビデオビットストリームを復号することによって取得される、請求項20に記載の装置。
- 前記参照ユニットは、具体的には、前記知識ベースから、前記現在の画像が属する第1のビデオビットストリームを復号することによって取得される、前記現在の画像の参照画像索引に基づいて、前記現在の画像の前記K個の参照画像を選択するように構成される、請求項20または21に記載の装置。
- 前記参照画像索引と一致する参照画像は、前記現在の画像が配置される前記ランダムアクセスセグメントの前の再構成画像である、請求項22に記載の装置。
- 前記参照ユニットは、前記参照画像索引と一致する参照画像が、前記第2のビデオビットストリームから見つからない場合、サーバから、前記参照画像索引と一致する参照画像を含む前記第2のビデオビットストリームの増分ビットストリームを要求し、前記第2のビデオビットストリームの前記増分ビットストリームを復号して、前記参照画像索引と一致する前記参照画像を取得し、前記参照画像索引と一致する前記取得された参照画像を、前記現在の画像の参照画像として使用するようにさらに構成される、請求項22または23に記載の装置。
- 前記現在の画像の前記参照画像索引は、参照画像の番号、参照画像の画像特徴および/または前記現在の画像の画像特徴を示す、請求項22、23または24に記載の装置。
- 前記参照画像索引が、前記現在の画像の前記画像特徴を示す場合、前記K個の参照画像の画像特徴は、前記現在の画像の前記画像特徴と一致する、請求項25に記載の装置。
- 前記画像特徴は、尺度不変特徴変換SIFTおよび/または加速堅牢特徴SURFを含む、請求項25または26に記載の装置。
- 前記知識ベースは、前記現在の画像が属するビデオシーケンス内のキー画像を含み、前記現在の画像が属する前記ビデオシーケンス内の前記キー画像は、前記現在の画像が属する前記ビデオシーケンス内のシーンカット画像および/または背景画像を含む、請求項20乃至27のいずれか1項に記載の装置。
- 前記シーンカット画像は、前記現在の画像が属する前記第2のビデオビットストリームまたは前記第1のビデオビットストリームを復号することによって取得され、または、前記背景画像は、前記現在の画像が属する前記第2のビデオビットストリームまたは前記第1のビデオビットストリームを復号することによって取得され、または、前記背景画像は、前記現在の画像が属する前記第1のビデオビットストリーム内の復号されたビデオシーケンスに対して背景モデリングを実行することによって取得される、請求項28に記載の装置。
- 前記復号ユニットは、具体的には、前記K個の参照画像を、前記現在の画像の参照画像リストに追加し、前記参照画像リスト内の参照画像に従って、前記現在の画像を復号するように構成される、請求項20乃至29のいずれか1項に記載の装置。
- 前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、または、
前記現在の画像が従属レイヤに配置される場合、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、前記現在の画像の前記X個の参照画像の前の最も近いランダムアクセスポイントから、前記X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記X個の参照画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記X個の参照画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記X個の参照画像は、前記従属レイヤ以外の別のビデオレイヤにある前記現在の画像の参照画像である、請求項20乃至30のいずれか1項に記載の装置。 - 画像符号化装置であって、
現在の画像を取得するように構成される取得ユニットと、
知識ベースから、前記現在の画像のK個の参照画像を選択するように構成される参照ユニットであって、前記知識ベース内の少なくとも1つの画像は、前記現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、参照ユニットと、
前記K個の参照画像に従って、前記現在の画像を符号化するように構成される符号化ユニットとを含む装置。 - 前記K個の参照画像の画像特徴は、前記現在の画像の画像特徴と一致する、請求項32に記載の装置。
- 前記画像特徴は、尺度不変特徴変換SIFTおよび/または加速堅牢特徴SURFを含む、請求項33に記載の装置。
- 前記知識ベースは、前記現在の画像が属するビデオシーケンス内のキー画像を含み、前記現在の画像が属する前記ビデオシーケンス内の前記キー画像は、前記現在の画像が属する前記ビデオシーケンス内のシーンカット画像および/または背景画像を含む、請求項32乃至34のいずれか1項に記載の装置。
- 前記シーンカット画像は、前記現在の画像が属する前記ビデオシーケンスに対してシーンカット検出を実行することによって取得され、または、前記背景画像は、前記現在の画像が属する前記ビデオシーケンスに対して背景モデリングを実行することによって取得される、請求項35に記載の装置。
- 前記知識ベース内の少なくとも1つの画像は、第2のビデオビットストリームを復号することによって取得され、または、前記知識ベース内の少なくとも1つの画像は、前記現在の画像を符号化することによって取得される第1のビデオビットストリームを復号することによって取得される、請求項32乃至36のいずれか1項に記載の装置。
- 前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、または、
前記現在の画像が従属レイヤに配置される場合、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、前記現在の画像の前記X個の参照画像の前の最も近いランダムアクセスポイントから、前記X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記X個の参照画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記X個の参照画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記X個の参照画像は、前記従属レイヤ以外の別のビデオレイヤにある前記現在の画像の参照画像である、請求項32乃至37のいずれか1項に記載の装置。 - ストレージおよび前記ストレージに結合されるプロセッサを含む画像復号装置であって、
前記プロセッサは、現在の画像を取得し、知識ベースから、前記現在の画像のK個の参照画像を選択し、前記K個の参照画像に従って、前記現在の画像を復号するように構成され、前記知識ベース内の少なくとも1つの画像は、前記現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、装置。 - 前記知識ベース内の少なくとも1つの画像は、第2のビデオビットストリームを復号することによって取得される、請求項39に記載の装置。
- 前記参照ユニットは、具体的には、前記知識ベースから、前記現在の画像が属する第1のビデオビットストリームを復号することによって取得される、前記現在の画像の参照画像索引に基づいて、前記現在の画像の前記K個の参照画像を選択するように構成される、請求項39または40に記載の装置。
- 前記参照画像索引と一致する参照画像は、前記現在の画像が配置される前記ランダムアクセスセグメントの前の再構成画像である、請求項41に記載の装置。
- 前記参照ユニットは、前記参照画像索引と一致する参照画像が、前記第2のビデオビットストリームから見つからない場合、サーバから、前記参照画像索引と一致する参照画像を含む前記第2のビデオビットストリームの増分ビットストリームを要求し、前記第2のビデオビットストリームの前記増分ビットストリームを復号して、前記参照画像索引と一致する前記参照画像を取得し、前記参照画像索引と一致する前記取得された参照画像を、前記現在の画像の参照画像として使用するようにさらに構成される、請求項41または42に記載の装置。
- 前記現在の画像の前記参照画像索引は、参照画像の番号、参照画像の画像特徴および/または前記現在の画像の画像特徴を示す、請求項41、42または43に記載の装置。
- 前記参照画像索引が、前記現在の画像の前記画像特徴を示す場合、前記K個の参照画像の画像特徴は、前記現在の画像の前記画像特徴と一致する、請求項44に記載の装置。
- 前記画像特徴は、尺度不変特徴変換SIFTおよび/または加速堅牢特徴SURFを含む、請求項44または45に記載の装置。
- 前記知識ベースは、前記現在の画像が属するビデオシーケンス内のキー画像を含み、前記現在の画像が属する前記ビデオシーケンス内の前記キー画像は、前記現在の画像が属する前記ビデオシーケンス内のシーンカット画像および/または背景画像を含む、請求項39乃至46のいずれか1項に記載の装置。
- 前記シーンカット画像は、前記現在の画像が属する前記第2のビデオビットストリームまたは前記第1のビデオビットストリームを復号することによって取得され、または、前記背景画像は、前記現在の画像が属する前記第2のビデオビットストリームまたは前記第1のビデオビットストリームを復号することによって取得され、または、前記背景画像は、前記現在の画像が属する前記第1のビデオビットストリーム内の復号されたビデオシーケンスに対して背景モデリングを実行することによって取得される、請求項47に記載の装置。
- 前記復号ユニットは、具体的には、前記K個の参照画像を、前記現在の画像の参照画像リストに追加し、前記参照画像リスト内の参照画像に従って、前記現在の画像を復号するように構成される、請求項39乃至48のいずれか1項に記載の装置。
- 前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、または、
前記現在の画像が従属レイヤに配置される場合、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、前記現在の画像の前記X個の参照画像の前の最も近いランダムアクセスポイントから、前記X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記X個の参照画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記X個の参照画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記X個の参照画像は、前記従属レイヤ以外の別のビデオレイヤにある前記現在の画像の参照画像である、請求項39乃至49のいずれか1項に記載の装置。 - ストレージおよび前記ストレージに結合されるプロセッサを含む画像符号化装置であって、
前記プロセッサは、現在の画像を取得し、知識ベースから、前記現在の画像のK個の参照画像を選択し、前記K個の参照画像に従って、前記現在の画像を符号化するように構成され、前記知識ベース内の少なくとも1つの画像は、前記現在の画像が配置されるランダムアクセスセグメントに属さず、Kは1以上の整数である、装置。 - 前記K個の参照画像の画像特徴は、前記現在の画像の画像特徴と一致する、請求項51に記載の装置。
- 前記画像特徴は、尺度不変特徴変換SIFTおよび/または加速堅牢特徴SURFを含む、請求項52に記載の装置。
- 前記知識ベースは、前記現在の画像が属するビデオシーケンス内のキー画像を含み、前記現在の画像が属する前記ビデオシーケンス内の前記キー画像は、前記現在の画像が属する前記ビデオシーケンス内のシーンカット画像および/または背景画像を含む、請求項51乃至53のいずれか1項に記載の装置。
- 前記シーンカット画像は、前記現在の画像が属する前記ビデオシーケンスに対してシーンカット検出を実行することによって取得され、または、前記背景画像は、前記現在の画像が属する前記ビデオシーケンスに対して背景モデリングを実行することによって取得される、請求項54に記載の装置。
- 前記知識ベース内の少なくとも1つの画像は、第2のビデオビットストリームを復号することによって取得され、または、前記知識ベース内の少なくとも1つの画像は、前記現在の画像を符号化することによって取得される第1のビデオビットストリームを復号することによって取得される、請求項51乃至55のいずれか1項に記載の装置。
- 前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、または、
前記現在の画像が従属レイヤに配置される場合、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像が配置されるビデオレイヤにおいて、前記現在の画像の前の最も近いランダムアクセスポイントから、前記現在の画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、X個の参照画像が配置されるビデオレイヤにおいて、前記現在の画像の前記X個の参照画像の前の最も近いランダムアクセスポイントから、前記X個の参照画像の後の最も近いランダムアクセスポイントまで、復号順で配列されている画像を含み、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記現在の画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記現在の画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記現在の画像が配置される前記ランダムアクセスセグメントは、前記X個の参照画像の前の前記最も近いランダムアクセスポイントにおける画像を含むが、前記X個の参照画像の後の前記最も近いランダムアクセスポイントにおける画像を含まず、前記X個の参照画像は、前記従属レイヤ以外の別のビデオレイヤにある前記現在の画像の参照画像である、請求項51乃至56のいずれか1項に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510150090.7 | 2015-03-31 | ||
CN201510150090.7A CN104768011B (zh) | 2015-03-31 | 2015-03-31 | 图像编解码方法和相关装置 |
PCT/CN2016/077396 WO2016155576A1 (zh) | 2015-03-31 | 2016-03-25 | 图像编解码方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018513627A true JP2018513627A (ja) | 2018-05-24 |
JP6549246B2 JP6549246B2 (ja) | 2019-07-24 |
Family
ID=53649570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017551284A Active JP6549246B2 (ja) | 2015-03-31 | 2016-03-25 | 画像符号化/復号方法および関連装置 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10917638B2 (ja) |
EP (2) | EP3264767B1 (ja) |
JP (1) | JP6549246B2 (ja) |
KR (1) | KR102114715B1 (ja) |
CN (1) | CN104768011B (ja) |
WO (1) | WO2016155576A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104768011B (zh) | 2015-03-31 | 2018-03-06 | 浙江大学 | 图像编解码方法和相关装置 |
EP3371974B1 (en) | 2015-11-06 | 2024-05-01 | Microsoft Technology Licensing, LLC | Flexible reference picture management for video encoding |
CN107634928B (zh) * | 2016-07-18 | 2020-10-23 | 华为技术有限公司 | 一种码流数据的处理方法及装置 |
CN107635142B (zh) * | 2016-07-18 | 2020-06-26 | 浙江大学 | 一种视频数据的处理方法及装置 |
CN107634930B (zh) * | 2016-07-18 | 2020-04-03 | 华为技术有限公司 | 一种媒体数据的获取方法和装置 |
US20180109812A1 (en) * | 2016-10-14 | 2018-04-19 | Media Tek Inc. | Block partitioning using tree structures |
CN108243339B (zh) | 2016-12-27 | 2021-02-26 | 浙江大学 | 图像编解码方法及装置 |
US10922551B2 (en) * | 2017-10-06 | 2021-02-16 | The Nielsen Company (Us), Llc | Scene frame matching for automatic content recognition |
CN108184113B (zh) * | 2017-12-05 | 2021-12-03 | 上海大学 | 一种基于图像间参考的图像压缩编码方法和系统 |
WO2019201239A1 (en) * | 2018-04-17 | 2019-10-24 | Mediatek Inc. | Method and apparatus of neural network for video coding |
CN110876083B (zh) * | 2018-08-29 | 2021-09-21 | 浙江大学 | 指定参考图像的方法及装置及处理参考图像请求的方法及装置 |
CN111405291B (zh) * | 2019-01-02 | 2021-10-19 | 浙江大学 | 视频编解码方法与装置 |
CN111416977B (zh) * | 2019-01-07 | 2024-02-09 | 浙江大学 | 视频编码器、视频解码器及相应方法 |
CN111416981B (zh) * | 2019-01-07 | 2023-06-02 | 浙江大学 | 视频图像解码、编码方法及装置 |
CN111416976B (zh) * | 2019-01-08 | 2023-12-08 | 浙江大学 | 视频解码方法、视频编码方法、装置、设备及存储介质 |
WO2020156054A1 (zh) * | 2019-02-03 | 2020-08-06 | 华为技术有限公司 | 视频解码方法、视频编码方法、装置、设备及存储介质 |
CN111526368B (zh) * | 2019-02-03 | 2021-09-03 | 华为技术有限公司 | 视频解码方法、视频编码方法、装置、设备及存储介质 |
US20220360771A1 (en) * | 2019-09-23 | 2022-11-10 | Interdigital Vc Holdings France, Sas | Prediction for video encoding and decoding using external reference |
CN113301341A (zh) * | 2021-05-27 | 2021-08-24 | 上海国茂数字技术有限公司 | 基于知识图像的视频编码方法、装置及可读存储介质 |
US11956441B2 (en) * | 2021-12-23 | 2024-04-09 | Ati Technologies Ulc | Identifying long term reference frame using scene detection and perceptual hashing |
WO2023143331A1 (zh) * | 2022-01-25 | 2023-08-03 | 阿里巴巴(中国)有限公司 | 一种面部视频编码方法、解码方法及装置 |
CN115052160B (zh) * | 2022-04-22 | 2023-07-07 | 江西中烟工业有限责任公司 | 基于云数据自动下载的图像编码方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010004434A (ja) * | 2008-06-23 | 2010-01-07 | Sharp Corp | 動画像記録装置、動画像再生装置、動画像削除装置、動画像記録方法、動画像再生方法、動画像削除方法及びそれら方法を実行可能なプログラム |
WO2010106670A1 (ja) * | 2009-03-19 | 2010-09-23 | 富士通株式会社 | 画像符号化装置、画像符号化制御方法および画像符号化プログラム |
JP2012085216A (ja) * | 2010-10-14 | 2012-04-26 | Sony Computer Entertainment Inc | 動画再生装置、情報処理装置および動画再生方法 |
JP2013168941A (ja) * | 2012-02-16 | 2013-08-29 | Robert Bosch Gmbh | 画像データを表示するためのビデオシステム及び方法及びコンピュータプログラムならびに符号化装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100491530B1 (ko) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
CN101389034B (zh) * | 2007-09-14 | 2010-06-09 | 华为技术有限公司 | 一种图像编/解码方法、装置及一种图像处理方法、系统 |
CN101534112A (zh) | 2008-03-14 | 2009-09-16 | 富士迈半导体精密工业(上海)有限公司 | 开关装置 |
CN101534442B (zh) | 2009-04-13 | 2011-01-12 | 腾讯科技(深圳)有限公司 | 视频编码系统及方法 |
CN101729898B (zh) | 2009-11-16 | 2011-06-15 | 中国人民解放军国防科学技术大学 | 视频编码、解码方法与视频编码、解码装置 |
US10051264B2 (en) * | 2012-04-20 | 2018-08-14 | Qualcomm Incorporated | Marking reference pictures in video sequences having broken link pictures |
US20140003799A1 (en) * | 2012-06-30 | 2014-01-02 | Divx, Llc | Systems and methods for decoding a video sequence encoded using predictions that include references to frames in reference segments from different video sequences |
KR102259794B1 (ko) | 2012-09-13 | 2021-06-02 | 엘지전자 주식회사 | 영상 부호화/복호화 방법 및 장치 |
US20140086557A1 (en) * | 2012-09-25 | 2014-03-27 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
US20140086328A1 (en) * | 2012-09-25 | 2014-03-27 | Qualcomm Incorporated | Scalable video coding in hevc |
US9723321B2 (en) | 2012-10-08 | 2017-08-01 | Samsung Electronics Co., Ltd. | Method and apparatus for coding video stream according to inter-layer prediction of multi-view video, and method and apparatus for decoding video stream according to inter-layer prediction of multi view video |
US8879858B1 (en) * | 2013-10-01 | 2014-11-04 | Gopro, Inc. | Multi-channel bit packing engine |
WO2015056158A1 (en) * | 2013-10-14 | 2015-04-23 | Nokia Technologies Oy | Multi-layer hypothetical reference decoder |
US9807407B2 (en) * | 2013-12-02 | 2017-10-31 | Qualcomm Incorporated | Reference picture selection |
KR102551609B1 (ko) * | 2014-11-27 | 2023-07-05 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
CN104768011B (zh) * | 2015-03-31 | 2018-03-06 | 浙江大学 | 图像编解码方法和相关装置 |
-
2015
- 2015-03-31 CN CN201510150090.7A patent/CN104768011B/zh active Active
-
2016
- 2016-03-25 EP EP16771331.2A patent/EP3264767B1/en active Active
- 2016-03-25 KR KR1020177027420A patent/KR102114715B1/ko active IP Right Grant
- 2016-03-25 EP EP20208246.7A patent/EP3866469A1/en active Pending
- 2016-03-25 JP JP2017551284A patent/JP6549246B2/ja active Active
- 2016-03-25 WO PCT/CN2016/077396 patent/WO2016155576A1/zh active Application Filing
-
2017
- 2017-09-21 US US15/711,555 patent/US10917638B2/en active Active
-
2021
- 2021-02-03 US US17/167,072 patent/US11303888B2/en active Active
-
2022
- 2022-03-08 US US17/689,724 patent/US11889058B2/en active Active
-
2023
- 2023-12-25 US US18/395,726 patent/US20240129455A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010004434A (ja) * | 2008-06-23 | 2010-01-07 | Sharp Corp | 動画像記録装置、動画像再生装置、動画像削除装置、動画像記録方法、動画像再生方法、動画像削除方法及びそれら方法を実行可能なプログラム |
WO2010106670A1 (ja) * | 2009-03-19 | 2010-09-23 | 富士通株式会社 | 画像符号化装置、画像符号化制御方法および画像符号化プログラム |
JP2012085216A (ja) * | 2010-10-14 | 2012-04-26 | Sony Computer Entertainment Inc | 動画再生装置、情報処理装置および動画再生方法 |
JP2013168941A (ja) * | 2012-02-16 | 2013-08-29 | Robert Bosch Gmbh | 画像データを表示するためのビデオシステム及び方法及びコンピュータプログラムならびに符号化装置 |
Non-Patent Citations (15)
Title |
---|
"ISO/IEC FDIS 14496-15:2013(E)", JPN6019018986, 22 January 2014 (2014-01-22), pages 71 - 8, ISSN: 0004040566 * |
SIWEI MA, ET AL.: ""OVERVIEW OF IEEE 1857 VIDEO CODING STANDARD"", PROCEEDINGS OF 2013 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP 2013), JPN6018031963, 18 September 2013 (2013-09-18), pages 1500 - 1504, XP032965920, ISSN: 0003859634, DOI: 10.1109/ICIP.2013.6738308 * |
SM SHEN, ET AL., "RESTRICTED MULTIPLE REFERENCE FRAMES WITH LONG TERM FRAME BUFFER", vol. Document: VCEG-O49, JPN6018031959, 30 November 2001 (2001-11-30), pages 1 - 7, ISSN: 0003859630 * |
TOBY WALKER, ET AL., "FILE FORMAT FOR JVT VIDEO BASED ON MP4", vol. Document: JVT-C143, JPN6018031960, 17 January 2005 (2005-01-17), pages 1 - 5, ISSN: 0003949174 * |
VASCONCELOS, N., ET AL.: ""Library-based coding: a representation for efficient video compression and retrieval"", PROCEEDINGS OF IEEE DATA COMPRESSION CONFERENCE 1997 (DCC'97), JPN6018031964, 27 March 1997 (1997-03-27), pages 1 - 10, ISSN: 0003859635 * |
WENQING DAI, "EFFICIENT H.264 VIDEO CODING WITH A WORKING MEMORY OF OBJECTS", JPN6018031957, 22 December 2009 (2009-12-22), pages 1 - 63, ISSN: 0003859628 * |
XIANGUO ZHANG, ET AL.: ""Background-Modeling-Based Adaptive Prediction for Surveillance Video Coding"", IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. 23, no. 2, JPN6018031965, 11 December 2013 (2013-12-11), pages 769 - 784, XP011536818, ISSN: 0003859636, DOI: 10.1109/TIP.2013.2294549 * |
大久保 晴代(外2名): "「ビデオCDオーサリングシステム」", NATIONAL TECHNICAL REPORT, vol. 42, no. 5, JPN6018051815, 18 October 1996 (1996-10-18), JP, pages 83 - 89, ISSN: 0003949179 * |
大久保 榮 監修, 「インプレス標準教科書シリーズ 改訂三版H.264/AVC教科書」, vol. 第1版, JPN6018051813, 1 January 2009 (2009-01-01), JP, pages 169 - 180, ISSN: 0003949177 * |
大久保榮監修, 「インプレス標準教科書シリーズ H.265/HEVC教科書」, vol. 初版, JPN6018031961, 21 October 2013 (2013-10-21), JP, pages 130 - 135, ISSN: 0003859632 * |
大久保榮監修, 「インプレス標準教科書シリーズ 改訂三版H.264/AVC教科書」, vol. 第1版, JPN6018031962, 1 January 2009 (2009-01-01), JP, pages 311 - 323, ISSN: 0003949175 * |
大久保榮監修, 「インプレス標準教科書シリーズ 改訂三版H.264/AVC教科書」, vol. 第1版, JPN6019018987, 1 January 2009 (2009-01-01), JP, pages 169 - 180, ISSN: 0004040572 * |
小野定康(外2名), 「ユビキタス技術 動画像の高能率符号化−MPEG-4とH.264−」, vol. 第1版, JPN6018031966, 20 April 2005 (2005-04-20), JP, pages 113 - 114, ISSN: 0003859637 * |
戸内 順一, 「新 図解人工知能入門」, vol. 初版, JPN6018051811, 20 February 2010 (2010-02-20), JP, pages 14 - 15, ISSN: 0003949176 * |
社団法人映像情報メディア学会編, 「総合マルチメディア選書 MPEG」, vol. 第1版, JPN6018031958, 20 April 1996 (1996-04-20), JP, pages 75 - 79, ISSN: 0003949173 * |
Also Published As
Publication number | Publication date |
---|---|
EP3866469A1 (en) | 2021-08-18 |
US10917638B2 (en) | 2021-02-09 |
KR20170122800A (ko) | 2017-11-06 |
US20240129455A1 (en) | 2024-04-18 |
EP3264767A4 (en) | 2018-02-21 |
EP3264767A1 (en) | 2018-01-03 |
US20180014012A1 (en) | 2018-01-11 |
US11889058B2 (en) | 2024-01-30 |
US11303888B2 (en) | 2022-04-12 |
JP6549246B2 (ja) | 2019-07-24 |
WO2016155576A1 (zh) | 2016-10-06 |
US20220191476A1 (en) | 2022-06-16 |
US20210168356A1 (en) | 2021-06-03 |
CN104768011B (zh) | 2018-03-06 |
CN104768011A (zh) | 2015-07-08 |
EP3264767B1 (en) | 2021-01-20 |
KR102114715B1 (ko) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6549246B2 (ja) | 画像符号化/復号方法および関連装置 | |
US20200244986A1 (en) | Picture prediction method and related apparatus | |
KR102010510B1 (ko) | 비디오 이미지 인코딩 방법, 비디오 이미지 디코딩 방법, 인코딩 장치, 및 디코딩 장치 | |
CN112585966A (zh) | 以基于历史的运动向量为基础的帧间预测方法及其装置 | |
JP7101818B2 (ja) | マージモードでのビデオ符号化/復号のための方法および装置 | |
CN111971960B (zh) | 用于基于帧间预测模式处理图像的方法及其装置 | |
WO2015192780A1 (en) | Method and apparatus of candidate generation for single sample mode in video coding | |
TW201713116A (zh) | 在區塊內複製模式中之參考圖像清單結構 | |
KR20220057639A (ko) | 픽처 예측 방법 및 픽처 예측 장치 | |
GB2492778A (en) | Motion compensated image coding by combining motion information predictors | |
CN109076234A (zh) | 图像预测方法和相关设备 | |
BR122021009778A2 (pt) | Método e aparelho de decodificação de imagens com base em predição de movimento afim usando lista de candidatos a mvp afim no sistema de codificação de imagens | |
JP2021517798A (ja) | インター予測モードに基づいた映像処理方法及びそのための装置 | |
CN110708557A (zh) | 解码器中的视频解码方法和设备、计算机设备 | |
CN112385213A (zh) | 基于帧间预测模式处理图像的方法和用于该方法的设备 | |
CN104956676A (zh) | 层间语法预测控制 | |
CN111903123B (zh) | 基于帧间预测模式的图像处理方法和用于该方法的装置 | |
TW201338553A (zh) | 用於評估要轉換成被跳過巨集區塊的巨集區塊候選者的方法、系統和電腦程式產品 | |
EP3840382A1 (en) | Inter-frame prediction method and device, and video encoder and video decoder | |
CN117859329A (zh) | 用于基于块的视频编解码的符号预测 | |
CN115955572A (zh) | 编码方法、解码方法、电子设备和计算机可读存储介质 | |
JP2012142845A (ja) | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190527 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6549246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |