JP7189272B2 - 多視点信号コーデック - Google Patents
多視点信号コーデック Download PDFInfo
- Publication number
- JP7189272B2 JP7189272B2 JP2021088847A JP2021088847A JP7189272B2 JP 7189272 B2 JP7189272 B2 JP 7189272B2 JP 2021088847 A JP2021088847 A JP 2021088847A JP 2021088847 A JP2021088847 A JP 2021088847A JP 7189272 B2 JP7189272 B2 JP 7189272B2
- Authority
- JP
- Japan
- Prior art keywords
- view
- coded block
- parameters
- data
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 description 74
- 230000011218 segmentation Effects 0.000 description 40
- 238000012937 correction Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 26
- 230000000153 supplemental effect Effects 0.000 description 22
- 238000000605 extraction Methods 0.000 description 21
- 239000000872 buffer Substances 0.000 description 15
- 230000002123 temporal effect Effects 0.000 description 13
- 238000013139 quantization Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 230000011664 signaling Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000000295 complement effect Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000003491 array Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013213 extrapolation Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/197—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/88—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
-現在部分についての符号化パラメータが、例えば映像141の共通位置にありかつ時間的に整列された部分の対応する符号化パラメータから(又はウェッジレット分割線を予測するための映像141の再構成されたバージョンのような、映像141の他の特定のデータから)、採用もしくは予測されるべきか否か、又はどの部分が採用もしくは予測されるべきかについての指示
-採用もしくは予測されるべきである場合に、予測においては符号化パラメータの残余
-採用もしくは予測されるべきでない場合に、現在部分についての全ての符号化パラメータであって、奥行き/視差マップデータ161の事前に再構成された部分の符号化パラメータと比較された予測残余として信号化されても良い、符号化パラメータ
-必ずしも全ての符号化パラメータが上述のように予測/採用されるべきではない場合に、現在部分についての符号化パラメータの残りの部分であって、奥行き/視差マップデータ161の事前に再構成された部分の符号化パラメータと比較された予測残余として信号化されても良い、符号化パラメータの残りの部分。
-現在部分についての符号化パラメータが、例えば映像141の共通位置にありかつ時間的に整列された部分の対応する符号化パラメータから、採用もしくは予測されるべきか否か、又はどの部分が採用もしくは予測されるべきかについての指示
-採用もしくは予測されるべき場合に、予測においては符号化パラメータの残余
-採用もしくは予測されるべきでない場合に、現在部分についての全ての符号化パラメータであって、映像142の事前に再構成された部分の符号化パラメータと比較された予測残余として信号化されても良い、符号化パラメータ
-必ずしも全ての符号化パラメータが上述のように予測/採用されるべきではない場合に、現在部分についての符号化パラメータの残りの部分であって、映像142の事前に再構成された部分の符号化パラメータと比較された予測残余として信号化されても良い、符号化パラメータの残りの部分
-データストリーム18内での信号化は、現在部分74aについて、例えば動きベクトル78のようなその部分のための対応する符号化パラメータが、データストリームから全く新たに読み込まれるべきか、空間的に予測されるべきか、又は第1視点121の映像141もしくは奥行き/視差マップ161の共通位置部分の動きベクトルから予測されるべきか、について信号化されても良く、それに応じて、復号化分枝106v,2がデータストリーム18から動きベクトル78を全部抽出するか、採用するか、又は予測することによって作動してもよく、予測する場合には、さらにデータストリーム18から現在部分74aのための符号化パラメータに関する予測誤差データを抽出してもよい。
p1(x1,y1)=p2(x2,y2) (1)
この場合、二つの画素の位置(x1,y1)と(x2,y2)とは、例えば視点2から視点1への二次元の視差ベクトル、即ち成分dx,21(x2,y2)と成分dy,21(x2,y2)とを有するd21(x2,y2)によって接続される。従って、次式が成り立つ。
(x1,y1)=(x2+dx,21(x2,y2),y2+dy,21(x2,y2)) (2)
式(1)と(2)を組み合わせると、次式(3)となる。
p1(x2+dx,21(x2,y2),y2+dy,21(x2,y2))=p2(x2,y2) (3)
-補足的データのためにも使用される、例えば映像データからの、共通の動きベクトル及び視差ベクトル
-補足的データのためにも使用される、例えば映像データ分割(partitioning)からの、共通のブロック分割構造
-予測モード
-例えばある輝度ブロック内の直線のような、輝度及び/又は色度情報における、エッジ及び輪郭データ。このデータは、補足的データの非矩形ブロック分割のために使用される。その分割はウェッジレットと呼ばれ、所定の角度と位置とを有する一つの直線によって、一つのブロックを二つの領域へと分割する。
[請求項1]
データストリーム(18)から得られた第1符号化パラメータ(461,481,501)に従って、多視点信号(10)の第1の事前に再構成された部分から第1視点(121)の現在部分を予測し、かつ前記データストリーム(18)に含まれた第1補正データ(421,422)を使用して前記第1視点(121)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記多視点信号(10)の前記第1視点(121)を再構成する手段(106v,1,106d,1)であって、前記第1の事前に再構成された部分は前記第1視点(121)の現在部分の再構成よりも前に復号器によって前記データストリーム(18)から再構成されたものである、手段(106v,1,106d,1)と、
前記第1符号化パラメータから第2符号化パラメータを少なくとも部分的に採用し又は予測する手段と、
前記第2符号化パラメータに従って、多視点信号(10)の第2の事前に再構成された部分から第2視点の現在部分を予測し、かつ前記データストリーム(18)に含まれた第2補正データ(423,424)を使用して前記第2視点(122)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記多視点信号(10)の前記第2視点(122)を再構成する手段(106v,2,106d,2)であって、前記第2の事前に再構成された部分は前記第2視点(122)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段(106v,2,106d,2)と、
を備える復号器。
[請求項2]
請求項1に記載の復号器において、
前記第1視点と前記第2視点とから中間視点(102)を抽出する手段(108)をさらに備える復号器。
[請求項3]
請求項1又は2に記載の復号器において、
前記第1視点(121)と前記第2視点(122)のそれぞれが、個別のカメラ位置からキャプチャーされた映像(141,142)と、関連する奥行き/視差マップデータ(161,162)とを備える復号器。
[請求項4]
請求項3に記載の復号器において、
前記第1符号化パラメータの第1部分(461,481,501)に従って、前記多視点信号(10)の第3の事前に再構成された部分から前記第1視点(121)の前記映像(141)の現在部分を予測し、かつ前記データストリーム(18)に含まれた第1補正データ(421,422)の第1サブセット(421)を使用して前記第1視点(121)の前記映像(141)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記第1視点(121)の前記映像(141)を再構成する手段(106v,1)であって、前記第3の事前に再構成された部分は前記第1視点(121)の前記映像(141)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段(106v,1)と、
前記第1符号化パラメータの前記第1部分から前記第1符号化パラメータの第2部分を少なくとも部分的に採用し又は予測する手段と、
前記第1符号化パラメータの前記第2部分に従って、前記多視点信号(10)の第4の事前に再構成された部分から前記第1視点(121)の前記奥行き/視差マップデータ(161)の現在部分を予測し、かつ前記第1補正データの第2サブセット(422)を使用して前記第1視点(121)の前記奥行き/視差マップデータ(161)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記第1視点(121)の前記奥行き/視差マップデータ(161)を再構成する手段(106d,1)であって、前記第4の事前に再構成された部分は前記第1視点(121)の前記奥行き/視差マップデータ(161)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段(106d,1)と、
を備える復号器。
[請求項5]
請求項4に記載の復号器において、
前記第1符号化パラメータは前記第1視点(121)の前記映像(141)のフレームのセグメンテーションを定義し、前記復号器は、前記第1視点(121)の前記奥行き/視差マップデータ(161)を再構成するに際して、前記第1視点(121)の前記映像(141)のフレームのセグメンテーションを前記第1視点(121)の前記奥行き/視差マップデータ(161)の前セグメンテーションとして使用することを特徴とする、復号器。
[請求項6]
請求項4に記載の復号器において、
前記復号器は、前記第1視点(121)の前記映像の現在フレーム(v1,t)の再構成された部分を使用して、ウェッジレット分割線(70)の位置を予測し、
前記データストリーム(18)から前記第1視点の前記奥行き/視差マップデータ(161)を再構成するに当り、前記ウェッジレット分割線と合致するように、前記第1視点の前記映像の現在フレーム(v1,t)と関連した前記第1視点の前記奥行き/視差マップデータ(161)の奥行き/視差マップの現在部分(d1,t)の境界を設定する、ことを特徴とする復号器。
[請求項7]
請求項4~6のいずれかに記載の復号器において、
前記第1視点(121)の前記映像の第1の事前に再構成された部分(v1,t-1)から前記第1視点(121)の前記映像の現在部分(60a)を予測する手段であって、前記第1の事前に再構成された部分(v1,t-1)は前記第1視点の前記映像の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段と、
前記第1視点(121)の前記奥行き/視差マップデータの第1の事前に再構成された部分(d1,t-1)から前記第1視点(121)の前記奥行き/視差マップデータの現在部分(66a)を予測する手段であって、前記第1の事前に再構成された部分(d1,t-1)は前記第1視点(121)の前記奥行き/視差マップデータの現在部分(66a)の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段と、
を備える復号器。
[請求項8]
請求項3~7のいずれかに記載の復号器において、
前記第1符号化パラメータから前記第2符号化パラメータの第1部分を少なくとも部分的に採用し又は予測する手段と、
前記第2符号化パラメータの第1部分に従って、前記多視点信号(10)の第5の事前に再構成された部分から前記第2視点(122)の前記映像(142)の現在部分を予測し、かつ前記データストリーム(18)に含まれた第2補正データの第1サブセット(423)を使用して前記第2視点(122)の前記映像(142)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記第2視点(122)の前記映像(142)を再構成する手段(106v,2)であって、前記第5の事前に再構成された部分は前記第2視点(122)の前記映像(142)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段(106v,2)と、
前記第1符号化パラメータから、及び/又は前記第2符号化パラメータの前記第1部分から、前記第2符号化パラメータの第2部分を少なくとも部分的に採用し又は予測する手段と、
前記第2符号化パラメータの前記第2部分に従って、前記多視点信号(10)の第6の事前に再構成された部分から前記第2視点(122)の前記奥行き/視差マップデータ(162)の現在部分を予測し、かつ前記第2補正データの第2サブセット(424)を使用して前記第2視点(122)の前記奥行き/視差マップデータ(162)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記第2視点(122)の前記奥行き/視差マップデータ(162)を再構成する手段(106d,2)であって、前記第6の事前に再構成された部分は前記第2視点(122)の前記奥行き/視差マップデータ(162)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段(106d,2)と、
を備える復号器。
[請求項9]
請求項8に記載の復号器において、
前記復号器は、
前記データストリーム(18)から前記第1視点(121)の前記奥行き/視差マップデータ(161)を再構成(106d,1)するに当り、前記第1視点の前記奥行き/視差マップデータ(161)における第1のウェッジレット分割線(70)を使用し、
前記第2視点の前記奥行き/視差マップデータ(162)における第2のウェッジレット分割線のための予測値として前記第1のウェッジレット分割線(70)を使用し、又は前記第1のウェッジレット分割線(70)を第2のウェッジレット分割線として採用し、
前記データストリーム(18)から前記第2視点の前記奥行き/視差マップデータ(162)を再構成するに当り、前記第2のウェッジレット分割線と合致するように、前記第2視点の前記映像の現在フレーム(v2,t)と関連した前記第2視点の前記奥行き/視差マップデータ(162)の奥行き/視差マップ(d2,t)の現在部分の境界を設定する、ことを特徴とする復号器。
[請求項10]
請求項8又は9に記載の復号器において、
前記第2視点(122)の前記映像(142)の第1の事前に再構成された部分(v2,t-1)から、又は前記第1視点(121)の前記映像(141)の第2の事前に再構成された部分(v1,t)から、前記第2視点(122)の前記映像(142)の現在部分(74a;74b)を予測する手段であって、前記第1の事前に再構成された部分(v2,t-1)は前記第2視点(122)の前記映像(142)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものであり、前記第2の事前に再構成された部分(v1,t)は前記第2視点(122)の前記映像(142)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段と、
前記第2視点(122)の前記奥行き/視差マップデータ(162)の第1の事前に再構成された部分(d2,t-1)から、又は前記第1視点(121)の前記奥行き/視差マップデータ(161)の第2の事前に再構成された部分(d1,t)から、前記第2視点(122)の前記奥行き/視差マップデータ(162)の現在部分(80a;80b)を予測する手段であって、前記第1の事前に再構成された部分(d2,t-1)は前記第2視点(122)の前記奥行き/視差マップデータ(162)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものであり、前記第2の事前に再構成された部分(d1,t)は前記第2視点の前記奥行き/視差マップデータの現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、手段と、
を備える復号器。
[請求項11]
請求項8~10のいずれかに記載の復号器において、
前記第2視点(122)の前記映像の現在フレーム(v2,t)におけるエッジ(72)を検出し、前記エッジ(72)に沿って延びるようにウェッジレット分割線(70)を決定する手段と、
前記データストリーム(18)から前記第2視点の前記奥行き/視差マップデータ(162)を再構成するに当り、前記ウェッジレット分割線と合致するように、前記第2視点の前記映像の現在フレーム(v2,t)と関連した前記第2視点の前記奥行き/視差マップデータ(162)の奥行き/視差マップの現在部分(d2,t)の境界を設定する手段と、を備える復号器。
[請求項12]
請求項11に記載の復号器において、
前記データストリーム(18)から前記第2視点の前記奥行き/視差マップデータ(162)を再構成する際に、前記現在部分が所属するセグメントのユニット内でセグメント毎に、前記セグメントのために予測パラメータの個別のセットを使用して、予測を実行することを特徴とする、復号器。
[請求項13]
請求項11又は12に記載の復号器において、
前記ウェッジレット分割線(70)は直線であり、前記復号器は、前記第2視点の前記奥行き/視差マップデータ(162)の前セグメンテーションのブロック(66c)を前記ウェッジレット分割線(70)に沿って分割するものであり、2つの隣接するセグメント(72a,72b)は、前セグメンテーションのブロック(66c)を同時に形成するウェッジレット形セグメントである、ことを特徴とする復号器。
[請求項14]
請求項1~13のいずれかに記載の復号器において、
前記第1と第2の符号化パラメータはそれぞれ、前記第1視点の現在部分の予測と前記第2視点の現在部分の予測とを制御する、第1と第2の予測パラメータであることを特徴とする復号器。
[請求項15]
請求項1~14のいずれかに記載の復号器において、
前記現在部分とは、それぞれ前記第1視点と前記第2視点との前記映像のフレームのセグメンテーションのセグメントであることを特徴とする復号器。
[請求項16]
請求項1~15のいずれかに記載の復号器において、
前記復号器は、
前記第1視点(121)の現在部分を第1の空間解像度で予測しかつ補正することによって、前記データストリームから前記多視点信号(10)の前記第1視点(121)を再構成し、
前記第2視点(122)の現在部分を前記第1の空間解像度より低い第2の空間解像度で予測しかつ補正し、しかる後に前記第2視点(122)の再構成された現在部分を前記第2の空間解像度から前記第1の空間解像度へとアップサンプリングすることによって、前記データストリームから前記多視点信号(10)の前記第2視点(122)を再構成する、ことを特徴とする復号器。
[請求項17]
請求項16に記載の復号器において、
前記第1符号化パラメータから前記第2符号化パラメータを少なくとも部分的に採用し又は予測する際に、前記第1の空間解像度と第2の空間解像度との比率にしたがって前記第1符号化パラメータをスケーリングすることを特徴とする復号器。
[請求項18]
次の(1)~(3)を実行することによって多視点信号の第1視点をデータストリームへ符号化する手段と、
(1)第1符号化パラメータを決定すること、
(2)前記第1符号化パラメータに従って、前記多視点信号の第1の事前に符号化された部分から前記第1視点の現在部分を予測すること、及び第1補正データを得るために前記第1視点の現在部分の予測の予測誤差を決定することであって、前記第1の事前に符号化された部分は前記第1視点の現在部分の符号化よりも前に前記符号器によって前記データストリーム内に符号化されたものである、
(3)前記第1符号化パラメータと前記第1補正データとを前記データストリーム内へ挿入すること、
次の(4)~(6)を実行することによって前記多視点信号の第2視点を前記データストリームへ符号化する手段と、
(4)前記第1符号化パラメータから第2符号化パラメータを採用し又は予測することによって前記第2符号化パラメータを決定すること、
(5)前記第2符号化パラメータに従って、前記多視点信号の第2の事前に符号化された部分から前記第2視点の現在部分を予測すること、及び前記データストリーム内に含まれた第2補正データを得るために前記第2視点の現在部分の予測の予測誤差を決定することであって、前記第2の事前に符号化された部分は前記第2視点の現在部分の符号化よりも前に前記符号器によって前記データストリーム内に符号化されたものである、
(6)前記第2補正データを前記データストリーム内へ挿入すること、
を含む符号器。
[請求項19]
第1部分と第2部分とを含むデータストリームであって、
前記第1部分はその中へ多視点信号の第1視点が符号化されたものであり、前記第1部分は第1補正データと第1符号化パラメータとを含み、前記第1符号化パラメータに従って、前記第1視点の現在部分が前記多視点信号の第1の事前に符号化された部分から予測可能であり、前記第1の事前に符号化された部分は前記第1視点の前記現在部分の符号化よりも前に前記データストリーム内へ符号化されたものであり、前記第1視点の現在部分の予測の予測誤差は前記第1補正データを使用して補正可能であり、
前記第2部分はその中へ多視点信号の第2視点が符号化されたものであり、前記第2部分は第2補正データを含み、前記第1符号化パラメータから予測可能又は採用可能な第2符号化パラメータに従って、前記第2視点の現在部分が前記多視点信号の第2の事前に符号化された部分から予測可能であり、前記第2の事前に符号化された部分は前記第2視点の前記現在部分の符号化よりも前に前記データストリーム内へ符号化されたものであり、前記第2視点の現在部分の予測の予測誤差は前記第2補正データを使用して補正可能である、データストリーム。
[請求項20]
データストリーム(18)から得られた第1符号化パラメータ(461,481,501)に従って、多視点信号(10)の第1の事前に再構成された部分から第1視点(121)の現在部分を予測し、かつ前記データストリーム(18)に含まれた第1補正データ(421,422)を使用して前記第1視点(121)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記多視点信号(10)の前記第1視点(121)を再構成するステップ(106v,1,106d,1)であって、前記第1の事前に再構成された部分は前記第1視点(12)の現在部分の再構成よりも前に復号器によって前記データストリーム(18)から再構成されたものである、ステップ(106v,1,106d,1)と、
前記第1符号化パラメータから第2符号化パラメータを少なくとも部分的に採用し又は予測するステップと、
前記第2符号化パラメータに従って、多視点信号(10)の第2の事前に再構成された部分から第2視点の現在部分を予測し、かつ前記データストリーム(18)に含まれた第2補正データ(423,424)を使用して前記第2視点(122)の現在部分の予測の予測誤差を補正することによって、前記データストリーム(18)から前記多視点信号(10)の前記第2視点(122)を再構成するステップ(106v,2,106d,2)であって、前記第2の事前に再構成された部分は前記第2視点(122)の現在部分の再構成よりも前に前記復号器によって前記データストリーム(18)から再構成されたものである、ステップ(106v,2,106d,2)と、
を備える復号化方法。
[請求項21]
次の(1)~(3)を実行することによって多視点信号の第1視点をデータストリームへ符号化するステップと、
(1)第1符号化パラメータを決定すること、
(2)前記第1符号化パラメータに従って、前記多視点信号の第1の事前に符号化された部分から前記第1視点の現在部分を予測すること、及び第1補正データを得るために前記第1視点の現在部分の予測の予測誤差を決定することであって、前記第1の事前に符号化された部分は前記第1視点の現在部分の符号化よりも前に前記符号器によって前記データストリーム内に符号化されたものである、
(3)前記第1符号化パラメータと前記第1補正データとを前記データストリーム内へ挿入すること、
次の(4)~(6)を実行することによって前記多視点信号の第2視点を前記データストリームへ符号化するステップと、
(4)前記第1符号化パラメータから第2符号化パラメータを採用し又は予測することによって前記第2符号化パラメータを決定すること、
(5)前記第2符号化パラメータに従って、前記多視点信号の第2の事前に符号化された部分から前記第2視点の現在部分を予測すること、及び前記データストリーム内に含まれた第2補正データを得るために前記第2視点の現在部分の予測の予測誤差を決定することであって、前記第2の事前に符号化された部分は前記第2視点の現在部分の符号化よりも前に前記符号器によって前記データストリーム内に符号化されたものである、
(6)前記第2補正データを前記データストリーム内へ挿入すること、
を含む符号化方法。
[請求項22]
コンピュータ上で作動するときに、請求項20又は21に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
Claims (21)
- 多視点映像を生成するために、符号化済み映像データストリームを復号化する復号器であって、
前記復号器は視点復号器を含み、前記視点復号器は、
プロセッサを使用して、多視点映像信号の第1視点における第1符号化ブロックに関連する第1情報をデータストリームから抽出し、ここで、前記第1情報は、前記第1符号化ブロックの動きパラメータが、(a)他の符号化パラメータとは独立して前記データストリームから読み出されるべきか、又は(b)前記多視点映像信号の第2視点に配置された第2符号化ブロックの1つ以上の符号化パラメータを再使用するべきかを示すことができ、
前記第1符号化ブロックの動きパラメータが他の符号化パラメータとは独立して前記データストリームから読み出されるべきであると前記第1情報が示している場合に、前記プロセッサを使用して、前記第1符号化ブロックの動きパラメータを前記データストリームから抽出し、
前記第1符号化ブロックの動きパラメータが前記第2視点における第2符号化ブロックの1つ以上の符号化パラメータを再使用するべきであると前記第1情報が示している場合に、前記プロセッサを使用して、前記第2符号化ブロックの動きパラメータを含む1つ以上の符号化パラメータを受信し、前記プロセッサを使用して、前記第2符号化ブロックの動きパラメータに基づいて前記第1符号化ブロックの動きパラメータを予測し、かつ前記第1符号化ブロックの動きパラメータに関連する予測誤差データを抽出し、
前記プロセッサを使用して、(i)前記第1符号化ブロックの抽出され又は予測された動きパラメータと、(ii)前記第1符号化ブロックの動きパラメータが1つ以上の符号化パラメータを再使用するべきであると前記第1情報が示している場合には前記予測誤差データと、に基づいて、前記第1符号化ブロックの予測を生成し、
前記プロセッサを使用して、前記データストリームから前記第1符号化ブロックに関連する残差データを取得し、かつ
前記プロセッサを使用して、前記多視点映像の第1視点における映像フレームの一部分を生成するために、前記第1符号化ブロックの予測と前記残差データとを使用して、前記第1符号化ブロックを再構成するよう構成される、
復号器。 - 前記第1視点と前記第2視点は、それぞれ異なるタイプの情報成分を含む、請求項1に記載の復号器。
- 前記異なるタイプの情報成分は、映像及び前記映像に対応する奥行きマップを含む、請求項2に記載の復号器。
- 前記第1符号化ブロックは映像データを含み、かつ前記第2符号化ブロックからの1つ以上の符号化パラメータの第1サブセットに基づいて再構成される、請求項3に記載の復号器。
- 前記第1符号化ブロックは奥行きデータを含み、かつ前記第2符号化ブロックからの1つ以上の符号化パラメータの第2サブセットに基づいて再構成される、請求項4に記載の復号器。
- 前記視点復号器はさらに、
前記第1視点における第1の奥行き符号化ブロックを、前記第1の奥行き符号化ブロックに関連する第1エッジに基づいて再構成するよう構成され、前記復号器はさらに別の視点復号器を備え、前記別の視点復号器は、
前記第1エッジに基づいて前記第2視点の第2の奥行き符号化ブロックに関連する第2エッジを予測し、かつ
前記第2エッジに基づいて前記第2視点の前記第2の奥行き符号化ブロックを再構成するよう構成される、
請求項3に記載の復号器。 - 前記第1符号化ブロックは第1空間解像度に従って再構成され、前記第2符号化ブロックは第2空間解像度に従って再構成される、請求項1に記載の復号器。
- 前記復号器は、前記第1符号化ブロックと前記第2符号化ブロックとに基づいて中間符号化ブロックを生成するようさらに構成される、請求項1に記載の復号器。
- 前記復号器は、前記第1視点と前記第2視点とに基づいて中間視点を生成するようさらに構成される、請求項1に記載の復号器。
- 前記第1情報は、前記第1符号化ブロックの動きパラメータが前記第1視点の事前に再構成された部分の動きパラメータから予測されるべきであるとさらに示すことができ、その場合に、前記視点復号器は、
前記プロセッサを使用して、前記事前に再構成された部分の動きパラメータを取得し、かつ前記プロセッサを使用して、前記事前に再構成された部分の動きパラメータに基づいて前記第1符号化ブロックの動きパラメータを予測するように構成される、請求項1に記載の復号器。 - 前記1つ以上の符号化パラメータは映像パラメータと奥行きパラメータとを含み、その両方が前記第2視点における第2符号化ブロックに関連する、請求項1に記載の復号器。
- 多視点映像をデータストリームへ符号化する符号器であって、前記符号器は視点符号器を含み、前記視点符号器は、
プロセッサを使用して、多視点映像信号の第1視点における第1符号化ブロックに関連する第1情報を前記データストリームへ符号化するよう構成され、ここで、前記第1情報は、前記第1符号化ブロックの動きパラメータが、(a)他の符号化パラメータとは独立して前記データストリームから読み出されるべきか、又は(b)前記多視点映像信号の第2視点に配置された第2符号化ブロックの1つ以上の符号化パラメータを再使用するべきかを示すことができ、
前記第1符号化ブロックの動きパラメータが他の符号化パラメータとは独立して前記データストリームから読み出されるべきであると前記第1情報が示している場合に、前記プロセッサを使用して、前記第1符号化ブロックの動きパラメータを前記データストリームへ符号化し、
前記第1符号化ブロックの動きパラメータが前記第2視点における第2符号化ブロックからの1つ以上の符号化パラメータを再使用するべきであると前記第1情報が示している場合に、前記プロセッサを使用して、前記第2視点における第2符号化ブロックの動きパラメータと前記第1符号化ブロックの動きパラメータに関連する予測誤差データとを含む1つ以上の符号化パラメータを前記データストリームへ符号化し、
前記プロセッサを使用して、前記第1符号化ブロックの動きパラメータに少なくとも基づいて前記第1符号化ブロックの予測を生成し、
前記プロセッサを使用して、前記第1符号化ブロックと前記第1符号化ブロックの予測との差に基づいて、前記第1符号化ブロックに関連する残差データを決定し、かつ
前記プロセッサを使用して、前記第1符号化ブロックに関連する前記残差データを前記データストリームへ符号化し、前記第1符号化ブロックは、前記多視点映像の第1視点における映像フレームの一部分を生成するために、前記第1符号化ブロックの予測と前記予測誤差データと前記残差データとを使用して再構成される、
符号器。 - 前記第1情報は、前記第1符号化ブロックの動きパラメータが前記第1視点の事前に再構成された部分の動きパラメータから予測されるべきであるとさらに示すことができ、その場合に、前記視点符号器は、
前記プロセッサを使用して、前記事前に再構成された部分の動きパラメータを前記データストリームへ符号化するように構成される、請求項12に記載の符号器。 - 前記第1視点と前記第2視点は、それぞれ異なるタイプの情報成分を含む、請求項12に記載の符号器。
- 前記異なるタイプの情報成分は、映像及び前記映像に対応する奥行きマップを含む、請求項14に記載の符号器。
- 前記第1符号化ブロックは映像データを含み、かつ前記第2符号化ブロックからの1つ以上の符号化パラメータの第1サブセットに基づいて再構成される、請求項15に記載の符号器。
- 前記第1符号化ブロックは奥行きデータを含み、かつ前記第2符号化ブロックからの1つ以上の符号化パラメータの第2サブセットに基づいて再構成される、請求項16に記載の符号器。
- 前記符号器は、前記第1視点と前記第2視点とに基づいて中間視点を符号化するようさらに構成される、請求項12に記載の符号器。
- 多視点映像を生成するために、符号化済み映像データストリームを復号化する方法であって、
多視点映像信号の第1視点における第1符号化ブロックに関連する第1情報をデータストリームから抽出するステップであって、前記第1情報は、前記第1符号化ブロックの動きパラメータが、(a)他の符号化パラメータとは独立して前記データストリームから読み出されるべきか、又は(b)前記多視点映像信号の第2視点に配置された第2符号化ブロックの1つ以上の符号化パラメータを再使用するべきかを示すことができる、ステップと、
前記第1符号化ブロックの動きパラメータが他の符号化パラメータとは独立して前記データストリームから読み出されるべきであると前記第1情報が示している場合に、前記第1符号化ブロックの動きパラメータを前記データストリームから抽出するステップと、
前記第1符号化ブロックの動きパラメータが前記第2視点における第2符号化ブロックの1つ以上の符号化パラメータを再使用するべきであると前記第1情報が示している場合に、前記第2符号化ブロックの動きパラメータを含む1つ以上の符号化パラメータを受信し、前記第2符号化ブロックの動きパラメータに基づいて前記第1符号化ブロックの動きパラメータを予測し、かつ前記第1符号化ブロックの動きパラメータに関連する予測誤差データを抽出するステップと、
(i)前記第1符号化ブロックの抽出され又は予測された動きパラメータと、(ii)前記第1符号化ブロックの動きパラメータが1つ以上の符号化パラメータを再使用するべきであると前記第1情報が示している場合には前記予測誤差データと、に基づいて、前記第1符号化ブロックの予測を生成するステップと、
前記データストリームから前記第1符号化ブロックに関連する残差データを取得するステップと、
前記多視点映像の第1視点における映像フレームの一部分を生成するために、前記第1符号化ブロックの予測と前記残差データとを使用して、前記第1符号化ブロックを再構成するステップと、
を含む方法。 - 多視点映像をデータストリームへ符号化する方法あって、
多視点映像信号の第1視点における第1符号化ブロックに関連する第1情報を前記データストリームへ符号化するステップであって、前記第1情報は前記第1符号化ブロックの動きパラメータが、(a)他の符号化パラメータとは独立して前記データストリームから読み出されるべきか、又は(b)前記多視点映像信号の第2視点に配置された第2符号化ブロックの1つ以上の符号化パラメータを再使用するべきかを示すことができる、ステップと、
前記第1符号化ブロックの動きパラメータが他の符号化パラメータとは独立して前記データストリームから読み出されるべきであると前記第1情報が示している場合に、前記第1符号化ブロックの動きパラメータを前記データストリームへ符号化するステップと、
前記第1符号化ブロックの動きパラメータが前記第2視点における第2符号化ブロックからの1つ以上の符号化パラメータを再使用するべきであると前記第1情報が示している場合に、前記第2視点における第2符号化ブロックの動きパラメータと前記第1符号化ブロックの動きパラメータに関連する予測誤差データとを含む1つ以上の符号化パラメータを前記データストリームへ符号化するステップと、
前記第1符号化ブロックの動きパラメータに少なくとも基づいて前記第1符号化ブロックの予測を生成するステップと、
前記第1符号化ブロックと前記第1符号化ブロックの予測との差に基づいて、前記第1符号化ブロックに関連する残差データを決定するステップと、
前記第1符号化ブロックに関連する残差データを前記データストリームへ符号化するステップであって、前記第1符号化ブロックは、前記多視点映像の第1視点における映像フレームの一部分を生成するために、前記第1符号化ブロックの予測と前記予測誤差データと前記残差データとを使用して再構成される、ステップと、
を含む方法。 - コンピュータ又はプロセッサ上で作動するときに、請求項19又は20に記載の方法を実行するためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022192690A JP7491985B2 (ja) | 2010-08-11 | 2022-12-01 | 多視点信号コーデック |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US37278510P | 2010-08-11 | 2010-08-11 | |
US61/372,785 | 2010-08-11 | ||
JP2019224106A JP6892493B2 (ja) | 2010-08-11 | 2019-12-12 | 多視点信号コーデック |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019224106A Division JP6892493B2 (ja) | 2010-08-11 | 2019-12-12 | 多視点信号コーデック |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022192690A Division JP7491985B2 (ja) | 2010-08-11 | 2022-12-01 | 多視点信号コーデック |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021141602A JP2021141602A (ja) | 2021-09-16 |
JP7189272B2 true JP7189272B2 (ja) | 2022-12-13 |
Family
ID=44504420
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013523622A Pending JP2013533714A (ja) | 2010-08-11 | 2011-08-11 | 多視点信号コーデック |
JP2015113047A Active JP6100833B2 (ja) | 2010-08-11 | 2015-06-03 | 多視点信号コーデック |
JP2017031692A Active JP6356286B2 (ja) | 2010-08-11 | 2017-02-23 | 多視点信号コーデック |
JP2018112539A Active JP6633694B2 (ja) | 2010-08-11 | 2018-06-13 | 多視点信号コーデック |
JP2019224106A Active JP6892493B2 (ja) | 2010-08-11 | 2019-12-12 | 多視点信号コーデック |
JP2021088847A Active JP7189272B2 (ja) | 2010-08-11 | 2021-05-27 | 多視点信号コーデック |
JP2022192690A Active JP7491985B2 (ja) | 2010-08-11 | 2022-12-01 | 多視点信号コーデック |
Family Applications Before (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013523622A Pending JP2013533714A (ja) | 2010-08-11 | 2011-08-11 | 多視点信号コーデック |
JP2015113047A Active JP6100833B2 (ja) | 2010-08-11 | 2015-06-03 | 多視点信号コーデック |
JP2017031692A Active JP6356286B2 (ja) | 2010-08-11 | 2017-02-23 | 多視点信号コーデック |
JP2018112539A Active JP6633694B2 (ja) | 2010-08-11 | 2018-06-13 | 多視点信号コーデック |
JP2019224106A Active JP6892493B2 (ja) | 2010-08-11 | 2019-12-12 | 多視点信号コーデック |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022192690A Active JP7491985B2 (ja) | 2010-08-11 | 2022-12-01 | 多視点信号コーデック |
Country Status (14)
Country | Link |
---|---|
US (6) | US9648298B2 (ja) |
EP (3) | EP2604036B1 (ja) |
JP (7) | JP2013533714A (ja) |
KR (9) | KR101781254B1 (ja) |
CN (4) | CN107257484B (ja) |
DK (1) | DK2604036T3 (ja) |
ES (1) | ES2671596T3 (ja) |
HK (3) | HK1244141A1 (ja) |
HU (1) | HUE037750T2 (ja) |
NO (1) | NO2604036T3 (ja) |
PL (1) | PL2604036T3 (ja) |
PT (1) | PT2604036T (ja) |
TR (1) | TR201807638T4 (ja) |
WO (1) | WO2012020092A1 (ja) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
EP2084913B1 (en) | 2006-10-25 | 2019-02-20 | GE Video Compression, LLC | Quality scalable coding |
CN107257484B (zh) | 2010-08-11 | 2020-05-12 | Ge视频压缩有限责任公司 | 解码器、编码器、用于解码的方法和用于编码的方法 |
BR112013023302A2 (pt) | 2011-03-18 | 2016-12-20 | Sony Corp | aparelho e método de processamento de imagem |
CN103748881A (zh) * | 2011-08-31 | 2014-04-23 | 索尼公司 | 图像处理设备和图像处理方法 |
CA2842150A1 (en) | 2011-08-31 | 2013-03-07 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
KR102036175B1 (ko) | 2011-11-11 | 2019-10-24 | 지이 비디오 컴프레션, 엘엘씨 | 적응적 분할 코딩 |
EP3657788B1 (en) | 2011-11-11 | 2021-08-04 | GE Video Compression, LLC | Effective prediction using partition coding |
EP2777286B1 (en) | 2011-11-11 | 2017-01-04 | GE Video Compression, LLC | Effective wedgelet partition coding |
EP2777284B1 (en) | 2011-11-11 | 2018-09-05 | GE Video Compression, LLC | Effective wedgelet partition coding using spatial prediction |
WO2013146507A1 (ja) * | 2012-03-30 | 2013-10-03 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
US9503702B2 (en) * | 2012-04-13 | 2016-11-22 | Qualcomm Incorporated | View synthesis mode for three-dimensional video coding |
US20130329800A1 (en) * | 2012-06-07 | 2013-12-12 | Samsung Electronics Co., Ltd. | Method of performing prediction for multiview video processing |
US9648347B1 (en) * | 2012-06-14 | 2017-05-09 | Pixelworks, Inc. | Disparity postprocessing and interpolation for motion estimation and motion correction |
JP6046246B2 (ja) * | 2012-07-02 | 2016-12-14 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 3dビデオコーディングのための深度マップのイントラコーディング |
JP2014027448A (ja) * | 2012-07-26 | 2014-02-06 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
KR20230080500A (ko) * | 2013-01-04 | 2023-06-07 | 지이 비디오 컴프레션, 엘엘씨 | 효율적인 확장가능한 코딩 개념 |
US20140301463A1 (en) * | 2013-04-05 | 2014-10-09 | Nokia Corporation | Method and apparatus for video coding and decoding |
KR102327617B1 (ko) * | 2013-04-08 | 2021-11-17 | 지이 비디오 컴프레션, 엘엘씨 | 효율적인 다-시점/계층 코딩을 허용하는 코딩 개념 |
CN104427291B (zh) * | 2013-08-19 | 2018-09-28 | 华为技术有限公司 | 一种图像处理方法及设备 |
US9544601B2 (en) * | 2013-10-15 | 2017-01-10 | Qualcomm Incorporated | Wedgelet pattern extension for depth intra coding |
KR101483053B1 (ko) * | 2013-12-27 | 2015-01-19 | 연세대학교 산학협력단 | 영상 합성 방법, 장치 및 시스템 |
WO2015101640A1 (en) * | 2014-01-03 | 2015-07-09 | Ge Video Compression, Llc | Wedgelet-based coding concept |
US10368097B2 (en) * | 2014-01-07 | 2019-07-30 | Nokia Technologies Oy | Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures |
US20170019683A1 (en) * | 2014-03-20 | 2017-01-19 | Nippon Telegraph And Telephone Corporation | Video encoding apparatus and method and video decoding apparatus and method |
US9939253B2 (en) * | 2014-05-22 | 2018-04-10 | Brain Corporation | Apparatus and methods for distance estimation using multiple image sensors |
US10194163B2 (en) | 2014-05-22 | 2019-01-29 | Brain Corporation | Apparatus and methods for real time estimation of differential motion in live video |
US9713982B2 (en) | 2014-05-22 | 2017-07-25 | Brain Corporation | Apparatus and methods for robotic operation using video imagery |
WO2015194915A1 (ko) | 2014-06-20 | 2015-12-23 | 삼성전자 주식회사 | 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치 |
US10055850B2 (en) | 2014-09-19 | 2018-08-21 | Brain Corporation | Salient features tracking apparatus and methods using visual initialization |
CN106105218B (zh) * | 2014-10-08 | 2019-04-09 | Lg电子株式会社 | 在3维视频编码中处理相机参数的方法 |
CN105872539B (zh) | 2015-02-08 | 2020-01-14 | 同济大学 | 图像编码方法和装置及图像解码方法和装置 |
US10200666B2 (en) * | 2015-03-04 | 2019-02-05 | Dolby Laboratories Licensing Corporation | Coherent motion estimation for stereoscopic video |
CN107211128B (zh) | 2015-03-10 | 2021-02-09 | 苹果公司 | 自适应色度下采样和色彩空间转换技术 |
US10197664B2 (en) | 2015-07-20 | 2019-02-05 | Brain Corporation | Apparatus and methods for detection of objects using broadband signals |
CN106210741B (zh) * | 2016-09-10 | 2018-12-21 | 天津大学 | 一种基于视点间相关性的深度视频编码算法 |
US10796464B2 (en) * | 2017-08-25 | 2020-10-06 | Siemens Healthcare Gmbh | Selective image reconstruction |
US20190045198A1 (en) * | 2017-12-28 | 2019-02-07 | Intel Corporation | Region adaptive data-efficient generation of partitioning and mode decisions for video encoding |
US10880531B2 (en) * | 2018-01-31 | 2020-12-29 | Nvidia Corporation | Transfer of video signals using variable segmented lookup tables |
US11265579B2 (en) * | 2018-08-01 | 2022-03-01 | Comcast Cable Communications, Llc | Systems, methods, and apparatuses for video processing |
US11665365B2 (en) * | 2018-09-14 | 2023-05-30 | Google Llc | Motion prediction coding with coframe motion vectors |
US10971192B2 (en) * | 2018-11-07 | 2021-04-06 | Genetec Inc. | Methods and systems for detection of anomalous motion in a video stream and for creating a video summary |
GB201905400D0 (en) * | 2019-04-16 | 2019-05-29 | V Nova Int Ltd | Video coding technology |
US20220277164A1 (en) * | 2021-02-26 | 2022-09-01 | Qualcomm Incorporated | Technologies for image signal processing and video processing |
WO2022246999A1 (en) * | 2021-05-26 | 2022-12-01 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Multiview video encoding and decoding |
US20230237730A1 (en) * | 2022-01-21 | 2023-07-27 | Meta Platforms Technologies, Llc | Memory structures to support changing view direction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008053746A1 (fr) | 2006-10-30 | 2008-05-08 | Nippon Telegraph And Telephone Corporation | Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme |
WO2009091383A2 (en) | 2008-01-11 | 2009-07-23 | Thomson Licensing | Video and depth coding |
WO2010043773A1 (en) | 2008-10-17 | 2010-04-22 | Nokia Corporation | Sharing of motion vector in 3d video coding |
JP2010525724A (ja) | 2007-04-25 | 2010-07-22 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号をデコーディング/エンコーディングする方法および装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4258879B2 (ja) * | 1999-03-08 | 2009-04-30 | パナソニック株式会社 | 画像符号化方法とその装置、画像復号化方法とその装置、コンピュータに画像符号化方法および画像復号化方法を実現させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP5199123B2 (ja) * | 2006-01-12 | 2013-05-15 | エルジー エレクトロニクス インコーポレイティド | 多視点ビデオの処理 |
ATE523861T1 (de) * | 2006-10-04 | 2011-09-15 | Koninkl Philips Electronics Nv | Bildverbesserung |
US7756348B2 (en) | 2006-10-30 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Method for decomposing a video sequence frame |
WO2008133910A2 (en) * | 2007-04-25 | 2008-11-06 | Thomson Licensing | Inter-view prediction with downsampled reference pictures |
US8351685B2 (en) | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
CN101933329B (zh) * | 2008-02-05 | 2013-05-29 | 汤姆逊许可公司 | 视频编码和解码中用于隐性块分割的方法与设备 |
CN101330631A (zh) * | 2008-07-18 | 2008-12-24 | 浙江大学 | 一种立体电视系统中深度图像的编码方法 |
WO2010043373A1 (en) | 2008-10-14 | 2010-04-22 | Nec Europe Ltd. | Method for providing error indication information at an end device |
WO2011046607A2 (en) * | 2009-10-14 | 2011-04-21 | Thomson Licensing | Filtering and edge encoding |
WO2012006299A1 (en) * | 2010-07-08 | 2012-01-12 | Dolby Laboratories Licensing Corporation | Systems and methods for multi-layered image and video delivery using reference processing signals |
CN107257484B (zh) * | 2010-08-11 | 2020-05-12 | Ge视频压缩有限责任公司 | 解码器、编码器、用于解码的方法和用于编码的方法 |
EP2625854A1 (en) * | 2010-10-08 | 2013-08-14 | Dolby Laboratories Licensing Corporation | Scalable frame compatible multiview encoding and decoding methods |
US8787459B2 (en) * | 2010-11-09 | 2014-07-22 | Sony Computer Entertainment Inc. | Video coding methods and apparatus |
-
2011
- 2011-08-11 CN CN201710260904.1A patent/CN107257484B/zh active Active
- 2011-08-11 KR KR1020147021820A patent/KR101781254B1/ko active IP Right Grant
- 2011-08-11 KR KR1020217038030A patent/KR102472533B1/ko active IP Right Grant
- 2011-08-11 CN CN201710261293.2A patent/CN107277550B/zh active Active
- 2011-08-11 WO PCT/EP2011/063852 patent/WO2012020092A1/en active Application Filing
- 2011-08-11 PT PT117416008T patent/PT2604036T/pt unknown
- 2011-08-11 JP JP2013523622A patent/JP2013533714A/ja active Pending
- 2011-08-11 KR KR1020237034100A patent/KR20230145537A/ko active Application Filing
- 2011-08-11 HU HUE11741600A patent/HUE037750T2/hu unknown
- 2011-08-11 EP EP11741600.8A patent/EP2604036B1/en active Active
- 2011-08-11 KR KR1020137006006A patent/KR101483380B1/ko active IP Right Grant
- 2011-08-11 KR KR1020187030649A patent/KR102051771B1/ko active IP Right Grant
- 2011-08-11 KR KR1020177026007A patent/KR101913993B1/ko active IP Right Grant
- 2011-08-11 KR KR1020197034902A patent/KR102185765B1/ko active IP Right Grant
- 2011-08-11 PL PL11741600T patent/PL2604036T3/pl unknown
- 2011-08-11 EP EP21167004.7A patent/EP3905681A1/en active Pending
- 2011-08-11 KR KR1020227041455A patent/KR102588146B1/ko active IP Right Grant
- 2011-08-11 NO NO11741600A patent/NO2604036T3/no unknown
- 2011-08-11 KR KR1020207033953A patent/KR102331748B1/ko active IP Right Grant
- 2011-08-11 EP EP18160288.9A patent/EP3349464B1/en active Active
- 2011-08-11 ES ES11741600.8T patent/ES2671596T3/es active Active
- 2011-08-11 TR TR2018/07638T patent/TR201807638T4/tr unknown
- 2011-08-11 DK DK11741600.8T patent/DK2604036T3/en active
- 2011-08-11 CN CN201180049014.7A patent/CN103155558B/zh active Active
- 2011-08-11 CN CN201710261052.8A patent/CN107257485B/zh active Active
-
2013
- 2013-02-08 US US13/762,608 patent/US9648298B2/en active Active
-
2015
- 2015-06-03 JP JP2015113047A patent/JP6100833B2/ja active Active
-
2016
- 2016-12-21 US US15/386,634 patent/US10110903B2/en active Active
-
2017
- 2017-02-23 JP JP2017031692A patent/JP6356286B2/ja active Active
-
2018
- 2018-03-13 HK HK18103511.4A patent/HK1244141A1/zh unknown
- 2018-04-03 HK HK18104449.9A patent/HK1245546A1/zh unknown
- 2018-04-11 HK HK18104763.7A patent/HK1245547A1/zh unknown
- 2018-06-13 JP JP2018112539A patent/JP6633694B2/ja active Active
- 2018-09-21 US US16/137,992 patent/US10674134B2/en active Active
-
2019
- 2019-12-12 JP JP2019224106A patent/JP6892493B2/ja active Active
-
2020
- 2020-04-24 US US16/857,608 patent/US11330242B2/en active Active
-
2021
- 2021-05-27 JP JP2021088847A patent/JP7189272B2/ja active Active
-
2022
- 2022-04-07 US US17/715,757 patent/US11843757B2/en active Active
- 2022-12-01 JP JP2022192690A patent/JP7491985B2/ja active Active
-
2023
- 2023-12-11 US US18/534,932 patent/US20240106997A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008053746A1 (fr) | 2006-10-30 | 2008-05-08 | Nippon Telegraph And Telephone Corporation | Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme |
JP2010525724A (ja) | 2007-04-25 | 2010-07-22 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号をデコーディング/エンコーディングする方法および装置 |
WO2009091383A2 (en) | 2008-01-11 | 2009-07-23 | Thomson Licensing | Video and depth coding |
WO2010043773A1 (en) | 2008-10-17 | 2010-04-22 | Nokia Corporation | Sharing of motion vector in 3d video coding |
Non-Patent Citations (3)
Title |
---|
Han-Suh KOO, et.al.,"Motion Information Inferring Scheme for Multi-View Video Coding",IEICE Trans. Commun.,2008年04月,Vol.E91-B, No.4,pp.1247-1250 |
Jungdong Seo, et.al.,"MOTION INFORMATION SHARING MODE FOR DEPTH VIDEO CODING",Proceedings of the 3DTV-CON 2010,2010年06月,pp.1-4 |
Wen-Nung Lie, et.al.,"INTERMEDIATE VIEW SYNTHESIS FROM BINOCULAR IMAGES FOR STEREOSCOPIC APPLICATIONS",Proc. of The 2001 IEEE Int. Symp. on Circuits and Systems(ISCAS 2001),Vol.5,2001年,pp.287-290 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7189272B2 (ja) | 多視点信号コーデック | |
WO2013021023A1 (en) | View synthesis compliant signal codec |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210625 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20220523 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220525 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7189272 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |