TWI523497B - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
TWI523497B
TWI523497B TW101139090A TW101139090A TWI523497B TW I523497 B TWI523497 B TW I523497B TW 101139090 A TW101139090 A TW 101139090A TW 101139090 A TW101139090 A TW 101139090A TW I523497 B TWI523497 B TW I523497B
Authority
TW
Taiwan
Prior art keywords
motion vector
unit
block
adjacent
information
Prior art date
Application number
TW101139090A
Other languages
English (en)
Other versions
TW201330630A (zh
Inventor
Kazushi Sato
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of TW201330630A publication Critical patent/TW201330630A/zh
Application granted granted Critical
Publication of TWI523497B publication Critical patent/TWI523497B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Description

影像處理裝置及方法
本揭露係有關於影像處理裝置及方法,尤其是有關於,在運動向量的編碼或解碼中,可藉由管線(pipeline)處理來提升處理效率的影像處理裝置及方法。
近年來,將影像資訊以數位方式加以處理,此時,為了高效率的資訊傳輸、積存之目的,利用影像資訊特有的冗長性,採用藉由離散餘弦轉換等之正交轉換和運動補償而進行壓縮的編碼方式,來將影像予以壓縮編碼的裝置,正逐漸普及。該編碼方式中係例如有MPEG(Moving Picture Experts Group)等。
尤其是,MPEG2(ISO/IEC 13818-2),係被定義來作為通用影像編碼方式,係為網羅了跳躍掃描影像及依序掃描影像之雙方、以及標準解析度影像及高精細影像的標準。例如,MPEG2係目前正被廣泛使用於專業用途及商業用途之廣泛應用。藉由使用MPEG2壓縮方式,例如,若為具有720×480像素的標準解析度之跳躍掃描影像,則指派了4至8Mbps的編碼量(位元速率)。又,藉由使用MPEG2壓縮方式,例如,若為具有1920×1088像素的高解析度之跳躍掃描影像,則指派了18至22 Mbps的編碼量(位元速率)。藉此,可實現高壓縮率和良好的畫質。
雖然MPEG2係主要是以適合播送用之高畫質編碼為 對象,但並不支援比MPEG1還低之編碼量(位元速率)、亦即高壓縮率的編碼方式。隨著攜帶型終端的普及,今後此類編碼方式的需求會逐漸增加,對應於此而進行了MPEG4編碼方式的標準化。關於影像編碼方式,在1998年12月成為ISO/IEC 14496-2而其規格已被承認為國際標準。
作為標準化的時程,在2003年3月係有H.264及MPEG-4 Part10(Advanced Video Coding,以下記作H.264/AVC)此一國際標準。
然後,作為該H.264/AVC的擴充,包含有RGB或4:2:2、4:4:4這類,業務用所必須之編碼工具、或MPEG-2所規定之8x8DCT或量化矩陣的FRExt(Fidelity Range Extension)之標準化,已經在2005年2月完成。藉此,成為了使用H.264/AVC而連電影中所包含之底片雜訊都能良好呈現的編碼方式,逐漸被使用於Blu-Ray Disc(商標)等廣泛之應用。
然而,最近,欲壓縮高解析度電視(Hi-Vision)影像的4倍也就是4000×2000像素左右的影像,或者,欲在網際網路這類受限的傳輸容量之環境下配送高解析度電視影像,對更高壓縮率編碼的需求日益增高。因此,在前述的ITU-T旗下的VCEG(=Video Coding Expert Group)中,持續進行有關改善編碼效率之檢討。
作為所述的編碼效率改善方案之1,為了改善AVC中的使用中間值預測的運動向量之編碼,除了AVC中所被 定義之藉由中間值預測而求出的“Spatial Predictor”以外,還將“Temporal Predictor”及“Spatio-Temporal Predictor”之任一者,當作預測運動向量,適應性地運用(以下亦稱作MV競爭(MVCompetition))係被提出(例如,參照非專利文獻1)。
此外,在AVC中,在將預測運動向量資訊加以選擇之際,會使用一種稱作JM(Joint Model)的被AVC之參照軟體所實作的High Complexity Mode或Low Complexity Mode所致之成本函數值。
亦即,將使用預測運動向量資訊時的成本函數值予以算出,進行最佳預測運動向量資訊之選擇。在影像壓縮資訊中,用來表示對各個區塊要使用哪個預測運動向量資訊之相關資訊的旗標資訊,會被傳輸。
順便一提,將巨集區塊尺寸設成16像素×16像素,這對次世代編碼方式為對象的像是UHD(Ultra High Definition;4000像素x2000像素)這類大畫面而言,恐怕並非最佳。
於是,目前為了比AVC更加提升編碼效率,由ITU-T、和ISO/IEC之共同標準化團體亦即JCTVC(Joint Collaboration Team-Video Coding),正在進行一種稱作HEVC(High Efficiency Video Coding)的編碼方式的標準化。
在該HEVC方式中,作為與AVC之巨集區塊等同之處理單位,而定義有編碼單元(CU(Coding Unit))。 該CU係不像AVC的巨集區塊那樣尺寸是被固定成16×16像素,而是在各個序列中,在影像壓縮資訊中被指定。又,在各個序列中係還被規定有CU的最大尺寸(LCU=Largest Coding Unit)和最小尺寸(SCU=Smallest Coding Unit)。甚至,CU係還會被分割成,作為畫面內或是畫面間預測之處理單位的領域(圖像單位之影像的部分領域)亦即預測單元(Prediction Unit(PU)),又還可以被分割成,作為正交轉換之處理單位的領域(圖像單位之影像的部分領域)亦即變形單元(Transform Unit(TU))。
又,在非專利文獻2中,係可將量化參數QP,以Sub-LCU單位進行傳輸。至於要用多少大小的Coding Unit來傳輸量化參數,則是隨每一圖像而在影像壓縮資訊中指定。又,影像壓縮資訊中所含之關於量化參數的資訊,係用各自的Coding Unit單位而加以傳輸。
再者,作為運動資訊的編碼方式之1,還提出有一種稱作Motion Partition Merging的手法(以下亦稱作合併模式(Merge mode))(例如,參照非專利文獻2)。在此手法中,係若該當區塊的運動資訊是與周邊區塊的運動資訊相同,則僅傳輸旗標資訊,在解碼之際,使用該周邊區塊之運動資訊來重建該當區塊的運動資訊。
順便一提,在非專利文獻3中係提議,在上述的MVCompetition或Merge mode下,在求出處理對象亦即該當PU的Spatial predicor之際,在該當PU所相鄰之PU 當中,將以所定位置關係而相鄰的PU的運動向量,當作候補。
具體而言,該當PU的左下相鄰之PU亦即A0的運動向量,和該當PU的左方相鄰之PU當中、位於A0上方位置之PU亦即A1的運動向量,會被視為候補。又,該當PU的左上相鄰之PU亦即B2的運動向量,和該當PU的右上相鄰之PU亦即B0的運動向量,和該當PU的上方相鄰之PU當中、位於B0左鄰位置之PU亦即B1的運動向量,會被視為候補。
然後,依照A0、A1之順序、以及B0、B1、B2之順序,進行掃描,在偵測到該當PU之運動向量資訊、和具有同等之參照畫格的運動向量資訊之時點上,結束掃描。
〔先前技術文獻〕 〔非專利文獻〕
〔非專利文獻1〕 Joel Jung,Guillaume Laroche, "Competition-Based Scheme for Motion Vector Selection and Coding", VCEG-AC06, ITU-Telecommunications Standardization SectorSTUDY GROUP 16 Question 6Video Coding Experts Group (VCEG) 29th Meeting: Klagenfurt, Austria, 17-18 July, 2006
〔非專利文獻2〕 Martin Winken, Sebastian Bosse, Benjamin Bross, Philipp Helle, Tobias Hinz, Heiner Kirchhoffer, Haricharan Lakshman, Detlev Marpe, Simon Oudin, Matthias Preiss, Heiko Schwarz, Mischa Siekmann, Karsten Suehring, and Thomas Wiegand, “Description of video coding technology proposed by Fraunhofer HHI”, JCTVC-A116, April, 2010
〔非專利文獻3〕 Minhua Zhou, “A Scalable motion vector competition and simplified MVP calculation”, JCTVC-D055, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 4th Meeting: Daegu, KR, 20-28 July, 2011
然而,在非專利文獻3的提議中,必須要等待上述的相鄰PU當中、對位於右上之PU的運動向量資訊被確定,才能進行對該當PU之處理。因此,於MVCompetition或是Merge mode中,若將求出Spatial predicor之處理藉由管線而加以實現,則位於右上之PU有可能會變成延遲的主因。
本揭露係有鑑於此種狀況而研發,目的在於,在運動向量之編碼或解碼中,藉由管線處理來提升處理效率。
本揭露之一側面的影像處理裝置,係具備:相鄰運動向量資訊設定部,係以影像之目前區塊之運動向量之解碼 時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;和預測運動向量生成部,係使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被前記相鄰運動向量資訊設定部禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;和運動向量解碼部,係使用前記目前區塊的預測運動向量,來解碼前記目前區塊的運動向量。
前記預測運動向量生成部係可藉由管線(pipeline)來進行,對前記目前區塊的空間預測向量之生成處理、和對前記目前區塊的掃描順序之下一區塊的空間預測向量之生成處理。
前記預測運動向量生成部係可使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量,來生成前記目前區塊的空間預測向量。
前記預測運動向量生成部係可使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量、和以前記上部區塊為對象,而為前記第1區塊以外之第2區塊之運動向量,來生成前記目前區塊的空間預測向量。
前記第2區塊係為,以前記上部區塊為對象,而為前記第1區塊之左鄰位置的區塊。
前記第2區塊係為,以前記上部區塊為對象,而為前記目前區塊的水平方向之長度的中央附近之位置的區塊。
前記相鄰運動向量資訊設定部係可以最大編碼單位,來禁止前記右上區塊之運動向量之使用。
還具備:邊界判定部,係判定前記目前區塊之邊界是否為最大編碼單位之邊界;前記相鄰運動向量資訊設定部係可只有在被前記邊界判定部認定是最大編碼單位之邊界的情況下,禁止前記右上區塊之運動向量之使用。
前記相鄰運動向量資訊設定部係可依照,用來識別是否以預測單位來禁止前記右上區塊之運動向量之使用、或是否以最大編碼單位來禁止前記右上區塊之運動向量之使用的識別資訊,來禁止前記右上區塊之運動向量之使用。
本揭露之一側面的影像處理方法,係由影像處理裝置,以影像之目前區塊之運動向量之解碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;使用前記目前區塊的預測運動向量,來解碼前記目前區塊的運動向量。
本揭露之另一側面的影像處理裝置,係具備:相鄰運動向量資訊設定部,係以影像之目前區塊之運動向量之編碼時所使用的預測運動向量為對象,而生成空間預測運動 向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;和預測運動向量生成部,係使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被前記相鄰運動向量資訊設定部禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;和運動向量編碼部,係使用前記目前區塊的預測運動向量,來編碼前記目前區塊的運動向量。
前記預測運動向量生成部係可藉由管線(pipeline)來進行,對前記目前區塊的空間預測向量之生成處理、和對前記目前區塊的掃描順序之下一區塊的空間預測向量之生成處理。
前記預測運動向量生成部係可使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量,來生成前記目前區塊的空間預測向量。
前記預測運動向量生成部係可使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量、和以前記上部區塊為對象,而為前記第1區塊以外之第2區塊之運動向量,來生成前記目前區塊的空間預測向量。
前記第2區塊係為,以前記上部區塊為對象,而為前記第1區塊之左鄰位置的區塊。
前記第2區塊係為,以前記上部區塊為對象,而為前 記目前區塊的水平方向之長度的中央附近之位置的區塊。
前記相鄰運動向量資訊設定部係可以最大編碼單位,來禁止前記右上區塊之運動向量之使用。
還具備:邊界判定部,係判定前記目前區塊之邊界是否為最大編碼單位之邊界;前記相鄰運動向量資訊設定部係可只有在被前記邊界判定部認定是最大編碼單位之邊界的情況下,禁止前記右上區塊之運動向量之使用。
可以還具備:識別資訊設定部,係設定識別資訊其係用來識別,是否以預測單位來禁止前記右上區塊之運動向量之使用、或是否以最大編碼單位來禁止前記右上區塊之運動向量之使用;和傳輸部,係將已被前記識別資訊設定部所設定之識別資訊、和編碼串流,予以傳輸。
本揭露之另一側面的影像處理方法,係由影像處理裝置,以影像之目前區塊之運動向量之編碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;使用前記目前區塊的預測運動向量,來編碼前記目前區塊的運動向量。
於本揭露之一側面中,以影像之目前區塊之運動向量之解碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,會禁止使用在前記目前區塊之右上相鄰位 置的右上區塊之運動向量;使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被禁止使用之前記目前區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量。然後,會使用前記目前區塊的預測運動向量,來解碼前記目前區塊的運動向量。
於本揭露之另一側面中,以影像之目前區塊之運動向量之編碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,會禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量。然後,會使用前記目前區塊的預測運動向量,來編碼前記目前區塊的運動向量。
此外,上述的影像處理裝置,係可為獨立的裝置,也可為構成1台影像編碼裝置或影像解碼裝置的內部區塊。
若依據本揭露之一側面,則可將影像予以解碼。尤其是,可藉由管線處理來提升處理效率。
若依據本揭露之其他側面,則可將影像予以編碼。尤其是,可藉由管線處理來提升處理效率。
以下,說明用以實施本揭露的形態(以下稱作實施形 態)。此外,說明係用以下順序來進行。
1.第1實施形態(影像編碼裝置(PU單位之控制))
2.第2實施形態(影像解碼裝置(PU單位之控制))
3.第3實施形態(LCU單位之控制)
4.第4實施形態(多視點影像編碼.多視點影像解碼裝置)
5.第5實施形態(階層影像編碼.階層影像解碼裝置)
6.第6實施形態(電腦)
7.應用例
<1.第1實施形態> 〔影像編碼裝置〕
圖1係影像編碼裝置的主要構成例的區塊圖。
圖1所示的影像編碼裝置100,係例如使用依照HEVC(High Efficiency Video Coding)方式的預測處理,來將影像資料予以編碼。
如圖1所示,影像編碼裝置100係具有:A/D轉換部101、畫面排序緩衝區102、演算部103、正交轉換部104、量化部105、可逆編碼部106、積存緩衝區107、逆量化部108、及逆正交轉換部109。又,影像編碼裝置100係具有:演算部110、去區塊濾波器111、畫格記憶體112、選擇部113、畫面內預測部114、運動預測.補償部115、預測影像選擇部116、及速率控制部117。
影像編碼裝置100係還具有運動向量編碼部121及相鄰運動向量資訊設定部122。
A/D轉換部101,係將所被輸入之影像資料進行A/D轉換,將轉換後的影像資料(數位資料),供給至畫面排序緩衝區102而記憶之。畫面排序緩衝區102係將已記憶之顯示順序的畫格的影像,隨應於GOP(Group Of Picture),排序成編碼所需之畫格順序,將已排列畫格順序的影像,供給至演算部103。又,畫面排序緩衝區102,係也將畫格順序排序過的影像,供給至畫面內預測部114及運動預測.補償部115。
演算部103,係將從畫面排序緩衝區102所讀出之影像,減去透過預測影像選擇部116而從畫面內預測部114或運動預測.補償部115所供給之預測影像,將其差分資訊,輸出至正交轉換部104。
又,例如,若是進行畫面間編碼的影像,則演算部103係由從畫面排序緩衝區102所讀出之影像,減去從運動預測.補償部115所供給之預測影像。
正交轉換部104,係對從演算部103所供給之差分資訊,實施離散餘弦轉換或卡忽南.拉維(Karhunen-Loeve)轉換等。此外,此正交轉換之方法係為任意。正交轉換部104,係將該轉換係數,供給至量化部105。
量化部105,係將從正交轉換部104所供給之轉換係數,進行量化。量化部105,係基於從速率控制部117所供給之編碼量的目標值之相關資訊,來設定量化參數,進 行其量化。此外,此量化之方法係為任意。量化部105係將已被量化之轉換係數,供給至可逆編碼部106。
可逆編碼部106,係於量化部105中將已被量化之轉換係數以任意之編碼方式進行編碼。係數資料,係在速率控制部117的控制之下而被量化,因此該編碼量係會成為速率控制部117所設定的目標值(或是近似於目標值)。
又,可逆編碼部106係將表示畫面內預測之模式的資訊等,從畫面內預測部114加以取得,並將表示畫面間預測之模式的資訊或差分運動向量資訊等,從運動預測.補償部115加以取得。
可逆編碼部106,係將這些各種資訊以任意之編碼方式進行編碼,成為編碼資料(亦稱為編碼串流)的標頭資訊的一部分(進行多工化)。亦即,可逆編碼部106係亦為設定標頭資訊的設定部。可逆編碼部106,係將編碼所得到之編碼資料,供給至積存緩衝區107而積存之。
作為可逆編碼部106的編碼方式,可舉例如可變長度編碼或算術編碼等。作為可變長度編碼,係可舉出例如H.264/AVC方式所制定的CAVLC(Context-Adaptive Variable Length Coding)等。作為算術編碼,係可舉出例如CABAC(Context-Adaptive Binary Arithmetic Coding)等。
積存緩衝區107,係將從可逆編碼部106所供給之編碼資料,予以暫時保持。積存緩衝區107,係在所定之時序上,將所保持的編碼資料,而輸出至例如後段未圖示的 記錄裝置(記錄媒體)或傳輸路徑等。亦即,積存緩衝區107係亦為將編碼資料予以傳輸的傳輸部。
又,於量化部105中被被量化過的轉換係數,係也被供給至逆量化部108。逆量化部108係將該已被量化之轉換係數,以對應於量化部105所做之量化的方法,進行逆量化。該逆量化之方法,係只要是對應於量化部105所做之量化處理的方法,則可為任意之方法。逆量化部108,係將所得到之轉換係數,供給至逆正交轉換部109。
逆正交轉換部109,係將從逆量化部108所供給之轉換係數,以正交轉換部104所做之正交轉換處理所對應的方法,進行逆正交轉換。該逆正交轉換之方法,係只要是對應於正交轉換部104所做之正交轉換處理的方法,則可為任意。已被逆正交轉換之輸出(已被復原之差分資訊),係被供給至演算部110。
演算部110係對從逆正交轉換部109所供給之逆正交轉換結果亦即已被復原之差分資訊,加算上透過預測影像選擇部116而從畫面內預測部114或運動預測.補償部115所送來的預測影像,獲得局部性解碼之影像(解碼影像)。該解碼影像,係被供給至去區塊濾波器111或畫格記憶體112。
去區塊濾波器111,係對從演算部110所供給之解碼影像,適宜進行去區塊濾波器處理。例如,去區塊濾波器111,係藉由對解碼影像進行去區塊濾波器處理,以去除解碼影像的區塊失真。
去區塊濾波器111,係將濾波器處理結果(濾波器處理後之解碼影像),供給至畫格記憶體112。此外,如上述,從演算部110所輸出的解碼影像,係可不透過去區塊濾波器111就供給至畫格記憶體112。亦即,去區塊濾波器111所做的濾波器處理係可省略。
畫格記憶體112,係將所被供給之解碼影像加以記憶,在所定之時序上,將所記憶之解碼影像當作參照影像,供給至選擇部113。
選擇部113係選擇從畫格記憶體112所供給之參照影像的供給目標。例如,若為畫面間預測,則選擇部113係將從畫格記憶體112所供給之參照影像,供給至運動預測.補償部115。
畫面內預測部114係使用透過選擇部113而從畫格記憶體112所供給之參照畫格亦即處理對象圖像內的像素值,進行基本而言以預測單元(PU)為處理單位來生成預測影像的Intra預測(畫面內預測)。畫面內預測部114,係以事前準備的複數畫面內預測模式,來進行該畫面內預測。
畫面內預測部114係以身為候補之所有畫面內預測模式來生成預測影像,使用從畫面排序緩衝區102所供給之輸入影像來評估各預測影像的成本函數值,選擇最佳模式。畫面內預測部114,係一旦選擇了最佳的畫面內預測模式,就將該最佳模式所生成之預測影像,供給至預測影像選擇部116。
又,如上述,畫面內預測部114係亦可將表示已被採用之畫面內預測模式的畫面內預測模式資訊等,適宜地供給至可逆編碼部106,令其被編碼。
運動預測.補償部115,係使用從畫面排序緩衝區102所供給之輸入影像、和透過選擇部113而從畫格記憶體112所供給之參照影像,而基本而言是以PU為處理單位,來進行運動預測(畫面間預測)。運動預測.補償部115,係將已被偵測出之運動向量供給至運動向量編碼部121,並且隨應於已被偵測出之運動向量來進行運動補償處理,生成預測影像(畫面間預測影像資訊)。運動預測.補償部115,係以事前準備的複數畫面間預測模式,來進行此種畫面間預測。
運動預測.補償部115,係以候補之所有畫面間預測模式,來生成預測影像。運動預測.補償部115係生成,對象領域之運動向量、和來自運動向量編碼部121之對象領域之預測運動向量的差分亦即差分運動向量。又,運動預測.補償部115,係使用從畫面排序緩衝區102所供給之輸入影像、和已生成之差分運動向量之資訊等,來評估各預測影像的成本函數值,選擇最佳模式。運動預測.補償部115,係一旦選擇了最佳的畫面間預測模式,就將該最佳模式所生成之預測影像,供給至預測影像選擇部116。
運動預測.補償部115,係在將表示已被採用之畫面間預測模式的資訊、或編碼資料予以解碼之際,將以該畫 面間預測模式來進行處理所必需的資訊等,供給至可逆編碼部106而編碼之。作為必要之資訊係例如,已被生成之差分運動向量的資訊、或作為預測運動向量資訊的表示預測運動向量之索引的旗標等。
預測影像選擇部116,係選擇對演算部103或演算部110供給預測影像的供給來源。例如,若為畫面間編碼時,則預測影像選擇部116係選擇運動預測.補償部115作為預測影像之供給來源,將從該運動預測.補償部115所供給之預測影像,供給至演算部103或演算部110。
速率控制部117,係基於積存緩衝區107中所積存之編碼資料的編碼量,以不會發生溢位或下溢之方式,控制量化部105的量化動作之速率。
運動向量編碼部121,係將已被運動預測.補償部115所求出的運動向量,加以記憶。運動向量編碼部121,係將對象領域之運動向量,予以預測。亦即,運動向量編碼部121係生成,運動向量的編碼或解碼所需使用的預測運動向量(predictor)。此外,所謂關於運動向量的對象領域(目前區塊),係為對象PU(以下亦適宜稱作該當PU)。
此處,作為預測運動向量之種類,係有時間預測運動向量(temporal predictor)、和空間預測運動向量(spacial predictor)。時間預測運動向量,係為使用對象領域之時間上相鄰的相鄰領域之運動向量所生成的預測運動向量。空間預測運動向量,係為使用對象領域之空間上 相鄰的相鄰領域之運動向量所生成的預測運動向量。
具體而言,運動向量編碼部121係使用對象領域(目前區塊)的時間上相鄰之相鄰領域(相鄰區塊)的運動向量,來生成時間預測運動向量。又,運動向量編碼部121,係在對象領域之空間上相鄰的相鄰領域當中,使用未被相鄰運動向量資訊設定部122禁止使用的相鄰領域之運動向量,來生成空間預測運動向量。運動向量編碼部121,係將已生成之預測運動向量當中被認為最佳的最佳預測運動向量,供給至運動預測.補償部115及相鄰運動向量資訊設定部122。
相鄰運動向量資訊設定部122,係對運動向量編碼部121,設定在對象領域的空間性相鄰之相鄰領域當中,使用哪個相鄰領域之運動向量,或禁止哪個相鄰領域之運動向量之使用。具體而言,相鄰運動向量資訊設定部122係對運動向量編碼部121,禁止使用相對於對象領域而在右上相鄰位置的相鄰領域之運動向量。
此外,於本實施形態中,所謂運動向量之預測係表示生成預測運動向量之處理,所謂運動向量之編碼係表示生成預測運動向量,使用已生成之預測運動向量來求出差分運動向量之處理,來進行說明。亦即,運動向量的編碼處理,係包含有運動向量之預測處理。同樣地,所謂運動向量之解碼,係表示生成預測運動向量,使用已生成之預測運動向量來重建運動向量之處理,來進行說明。亦即,運動向量的解碼處理,係包含有運動向量之預測處理。
又,相鄰於上述對象領域的相鄰領域,係亦為在對象領域周邊位置的周邊領域,以下兩者的文意係意味著相同領域來做說明。
此外,於圖1的例子中雖然例示了,相鄰運動向量資訊設定部122是被設在運動向量編碼部121之外的例子,但亦可構成為,相鄰運動向量資訊設定部122係被包含在運動向量編碼部121中。
〔運動向量之中間值預測〕
圖2係為AVC方式中所實現的運動向量之中間值預測的說明圖。
圖2所示的各直線,係表示運動補償區塊的邊界。
又,於圖2中,E係表示今後所要編碼的該當運動補償區塊,A至D係分別表示已被編碼完畢的相鄰於E的運動補償區塊。
現在,假設X=A,B,C,D,E,令對X的運動向量資訊為mvx。
首先,使用關於運動補償區塊A、B、及C的運動向量資訊,將對運動補償區塊E的預測運動向量資訊pmvE,藉由中間值運算,如下式(1)般地加以生成。
【數1】pmvE=med(mvA,mvB,mvC)………(1)
運動補償區塊C的相關資訊,若因為位於像框之端部 等理由而為不可利用(unavailable)時,則以運動補償區塊D的相關資訊來代用之。
影像壓縮資訊中,作為對運動補償區塊E之運動向量資訊而被編碼的資料mvdE,係使用pmvE,而被生成如下式(2)。
【數2】mvdE=mvE-pmvE………(2)
此外,實際的處理係對運動向量資訊的水平方向及垂直方向之各個成分,獨立地進行處理。
〔多重參照畫格〕
又,在AVC方式中,規定有一種稱作Multi-Reference Frame(多重(複數)參照畫格)的、在MPEG2或H.263等先前之影像編碼方式中所未規定的方式。
使用圖3來說明,AVC方式中所規定的多重參照畫格(Multi-Reference Frame)。
亦即,MPEG-2或H.263,若為P圖像,則藉由僅參照畫格記憶體中所儲存的1張參照畫格,來進行運動預測.補償處理。相對於此,在AVC方式中,如圖3所示,有複數個參照畫格被儲存在記憶體,每一巨集區塊都可參照不同之記憶體。
〔直接模式〕
雖然因為上述的多重參照畫格,B圖像時的運動向量資訊的資訊量會膨大,但在AVC方式中係準備有一種稱作Direct Mode(直接模式)的模式。
在該直接模式中,運動向量資訊係未被儲存在影像壓縮資訊中。在影像解碼裝置中,係從周邊區塊之運動向量資訊,或是參照畫格中的與處理對象區塊相同位置之區塊亦即Co-Located區塊的運動向量資訊,算出該當區塊的運動向量資訊。
在直接模式(Direct Mode)中係存在有Spatial Direct Mode(空間直接模式)、和Temporal Direct Mode(時間直接模式)之2種類,可隨每一切片來做切換。
在空間直接模式(Spatial Direct Mode)下,係如下式(3)所示般地,將處理對象運動補償區塊E的運動向量資訊mvE予以算出。
mvE=pmvE………(3)
亦即,藉由Median(中間值)預測所生成的運動向量資訊,係被適用於該當區塊。
以下係使用圖4,說明時間直接模式(Temporal Direct Mode)。
於圖4中,將L0參照圖像中的位於與該當區塊相同空間上之位址的區塊,令作Co-Located區塊,將Co-Located區塊的運動向量資訊,令作mvcol。又,令該當圖像與L0參照圖像在時間軸上之距離為TDB,令L0參照圖像與L1參照圖像在時間軸上之距離為TDD
此時,該當圖像中的L0之運動向量資訊mvL0及L1之運動向量資訊mvL1,係如以下的式(4)及式(5)而被算出。
此外,在AVC影像壓縮資訊中,由於表示時間軸上之距離的資訊TD係不存在,因此使用POC(Picture Order Count),來進行上述式(4)及式(5)的演算。
又,在AVC影像壓縮資訊中,直接模式(Direct Mode)係可以用16×16像素巨集區塊單位、或8×8像素區塊單位來加以定義。
〔運動向量之MV競爭〕
順便一提,如參照圖2所說明,為了改善使用中間值預測的運動向量之編碼,在非專利文獻1中係提出如以下所述的方法。
亦即,除了AVC中所被定義之藉由中間值預測而求出的“Spatial Predictor(空間預測運動向量)”以外,還可將以下所述的“Temporal Predictor(時間預測運動向 量)”及“Spatio-Temporal Predictor(時間與空間之預測運動向量)”之任一者,當作預測運動向量,適應性地加以使用。該提議的方法,係在AVC中被稱作MV競爭(MVCompetition)。相對於此,在HEVC中,被稱作Advanced Motion Vector Prediction(AMVP),以下將該提議之方法,稱作AMVP來說明。
於圖5中,將“mvcol”,視為針對該當區塊的Co-Located區塊所對應的運動向量資訊。又,將mvtk(k=0至8)視為其周邊區塊之運動向量資訊,各個預測運動向量資訊(Predictor),係由以下式(6)至(8)所定義。此外,所謂針對該當區塊的Co-Located區塊,係指在該當圖像所參照的參照圖像中,xy座標是與該當區塊相同的區塊。
Temporal Predictor:【數5】mvtm5=median{mvcol,mvt0,...,mvt3}………(6)
【數6】mvtm9=median{mvcol,mvt0,...,mvt8}………(7)
Spatio-Temporal Predictor:【數7】mvspt=median{mvcol,mvcol,mva,mvb,mvc}………(8)
在影像編碼裝置100中,關於各個區塊,將使用各個預測運動向量資訊時的成本函數值予以算出,進行最佳預測運動向量資訊之選擇。在影像壓縮資訊中,用來表示對各個區塊要使用哪個預測運動向量資訊之相關資訊(索引)的旗標,會被傳輸。
〔編碼單元〕
順便一提,將巨集區塊尺寸設成16像素×16像素,這對次世代編碼方式為對象的像是UHD(Ultra High Definition;4000像素×2000像素)這類大畫面而言,並非最佳。
於是,在AVC方式中,雖然規定了巨集區塊和子巨集區塊所致之階層構造,但例如,在HEVC方式中,如圖6所示,係被規定有編碼單元(CU(Coding Unit))。
CU係亦稱作Coding Tree Block(CTB),是擔任和AVC方式中的巨集區塊同樣的角色,係為圖像單位的影像之部分領域。相對於後者係被固定成16×16像素之大小,前者的大小並非固定,而是在各個序列中,在影像壓縮資訊中做指定。
例如,在輸出的編碼資料中所含之序列參數集(SPS(Sequence Parameter Set))裡頭,規定了CU的最大尺寸(LCU(Largest Coding Unit))與最小尺寸((SCU(Smallest Coding Unit))。
在各個LCU內,係在不低於SCU之尺寸的範圍內, 藉由設成split-flag=1,就可分割成更小尺寸的CU。在圖6的例子中,LCU的大小係為128,最大階層深度係為5。2N×2N之大小的CU,係當split_flag之值為「1」時,就被分割成下1個階層的N×N之大小的CU。
甚至,CU係還會被分割成,作為畫面內或是畫面間預測之處理單位的領域(圖像單位之影像的部分領域)亦即預測單元(Prediction Unit(PU)),又還可以被分割成,作為正交轉換之處理單位的領域(圖像單位之影像的部分領域)亦即變形單元(Transform Unit(TU))。目前,在HEVC方式中,除了4×4及8×8以外,還可使用16×16及32×32正交轉換。
如以上的HEVC方式,定義CU,以該CU為單位來進行各種處理的此種編碼方式的情況下,可以想成AVC方式的巨集區塊係相當於LCU,區塊(子區塊)係相當於CU。又,AVC方式中的運動補償區塊,係可想成相當於PU。只不過,CU係具有階層構造,其最上位階層的LCU的尺寸,係例如128×128像素,一般是被設定成比AVC方式的巨集區塊還大。
因此,以下假設LCU係也包含了AVC方式之巨集區塊,CU係也包含了AVC方式之區塊(子區塊)。
〔運動分割區之合併〕
順便一提,作為運動資訊的編碼方式之1而被提出有,如圖7所示,一種稱作Motion Partition Merging的 手法(合併模式)。於該手法中,係有MergeFlag、和MergeLeftFlag這2個flag,是被當成合併模式之相關資訊亦即合併資訊而被傳輸。
MergeFlag=1係表示,該當領域X之運動資訊是和該當領域上方相鄰之周邊領域T、或是該當領域左方相鄰之周邊領域L的運動資訊相同。此時,在合併資訊中係會包含有MergeLeftFlag而被傳輸。MergeFlag=0係表示,該當領域X之運動資訊是與周邊領域T及周邊領域L之任一運動資訊均不同。此時,該當領域X之運動資訊會被傳輸。
若該當領域X之運動資訊是和周邊領域L之運動資訊相同,則MergeFlag=1、且MergeLeftFlag=1。若該當領域X之運動資訊是和周邊領域T之運動資訊相同,則MergeFlag=1、且MergeLeftFlag=0。
〔空間預測運動向量(spatial predictor)〕
在參照圖5而上述的AMVP或是參照圖7而上述的合併模式中,作為預測運動向量(predictor)之候補,會生成空間預測運動向量(spacial predictor)與時間預測運動向量(temporal predictor)。
接著,參照圖8,說明空間預測運動向量之生成處理。在圖8的例子中,圖示了處理之對象領域亦即該當PU(目前區塊),和相對於該當PU以所定位置關係而相鄰的PU(區塊)A0、A1、B0、B1、B2
A0係為該當PU的左下相鄰之PU,A1係為該當PU的左方相鄰之PU當中位於A0上方位置之PU。B2係為該當PU的左上相鄰之PU,B0係為該當PU的右上相鄰之PU,B1係為該當PU的上方相鄰之PU當中位於B0左鄰位置之PU。
此外,A0、A1係總稱為,位於該當PU之Left(左)位置的PU。同樣地,B1、B2係總稱為,位於該當PU之Top(上)位置的PU。相對於此,B0係稱為,位於該當PU之Top-right(右上)位置的PU。
又,所謂相鄰於該當PU的左方或上方,係指對該當PU的左方或上方以面(邊)來銜接之意,所謂相鄰於該當PU的左上、左下、右上,係指對該當PU以點(1地點)來銜接之意。
然後,在非專利文獻3中係提出,這些(A0、A1、B0、B1、B2)的相鄰PU的運動向量,是被當成該當PU的空間預測運動向量之候補,而被使用於該當PU的空間預測運動向量之生成。
具體而言,依照A0、A1之順序的掃描,是用以下程序而進行,在偵測到該當PU之運動向量資訊、和具有同等之參照畫格的運動向量資訊的時點上,該掃描就會結束。又,同樣地,依照B0、B1、B2之順序的掃描,是用以下程序而進行,在偵測到該當PU之運動向量資訊、和具有同等之參照畫格的運動向量資訊的時點上,該掃描就會結束。
其後,從A0、A1所偵測出來的運動向量資訊係被當成左相鄰PU的空間預測運動向量資訊,從B0、B1、B2所偵測出來的運動向量資訊係被當成上相鄰PU的空間預測運動向量資訊。然後,左相鄰PU的空間預測運動向量資訊、上相鄰PU的空間預測運動向量資訊、另外偵測出來的時間預測運動向量資訊會被當成候補,從該候補之中選擇出較佳者,藉此而生成預測運動向量。
接著說明掃描的程序。首先,第1步,為了探索是否有與該當PU之運動向量資訊係為List、參照畫格資訊皆相同者存在,而進行掃描。第2步,為了探索是否有與該當PU之運動向量資訊係為List不同、但參照畫格資訊相同者存在,而進行掃描。
第3步,為了探索是否有與該當PU之運動向量資訊係為List相同、但參照畫格資訊不同者存在,而進行掃描。第4步,為了探索是否有與該當PU之運動向量資訊係為List、參照畫格資訊皆不同者存在,而進行掃描。
此處,如上述,為了對該當PU進行預測運動向量之生成處理,所持有之對該當PU的右上相鄰之PU亦即B0的運動向量資訊必須要確定。
因此,若將運動向量的編碼或解碼處理,亦即,在AMVP或是Merge mode下求出空間預測運動向量之處理,藉由管線來加以實現,則右上相鄰之PU亦即B0,恐怕會成為延遲的主因。
〔本技術的空間預測運動向量之生成方法〕
於是,在運動向量編碼部121中,係在AMVP或Merge mode下求出該當PU的空間預測運動向量之際,會禁止圖8所示的該當PU的右上相鄰之PU亦即B0的運動向量之使用。
亦即,在運動向量編碼部121中,係如圖9所示,僅會使用相對於該當PU而位於Top位置之PU亦即B1、B2及位於Left位置之PU亦即A0、A1的運動向量資訊,來進行運動向量的編碼處理。
於圖9的例子中係圖示了,該當PU的左下相鄰之PU亦即A0、該當PU的左方相鄰之PU當中位於下端位置之PU亦即A1、該當PU的左上相鄰之PU亦即B2、該當PU的上方相鄰之PU當中位於右端位置之PU亦即B1
圖9之例子的該當PU的相鄰領域,係只有該當PU之Top-right(右上)位置之PU亦即B0被排除這點,是和圖8的例子不同。
又,在運動向量編碼部121中,係亦可對圖9所示的相鄰PU做追加,使用圖10或圖11所示的該當PU之上部相鄰的上相鄰PU亦即B3或B4。如此,藉由增加候補,就可抑制編碼效率的降低。
於圖10的例子中,圖示了圖9之例子的相對於該當PU而位於Top位置之PU亦即B1、B2及位於Left位置之PU亦即A0、A1以外,還圖示了相對於該當PU而位於Top位置之PU亦即B3
該B3係為該當PU的上部相鄰之PU,係為該當PU的上部相鄰之PU當中、位於右端位置之PU亦即B1的左鄰位置之PU。
在圖10的例子中,由於B3係位於B1之左鄰位置,因此只要在進行B1之偵測後,立刻對相鄰之B3進行存取即可,因此位址計算所需的演算量可以很低。
於圖11的例子中,圖示了圖9之例子的相對於該當PU而位於Top位置之PU亦即B1、B2及位於Left位置之PU亦即A0、A1以外,還圖示了相對於該當PU而位於Top位置之PU亦即B4
該B4係為該當PU的上部相鄰之PU,係為該當PU的上部相鄰之PU當中、位於該當PU之水平長度之中央附近之位置的PU。
此外,由於PU的長度係為4,8,16,…,因此在其長度的中央並非像素,而是像素與像素之間的位置。因此,位於該當PU之水平長度之中央位置的,一定會是單一的PU。
如圖10所示之例子,在緊臨於B1的B3上,想定運動資訊也是近似的。相對於此,在圖11的例子中,在運動資訊,係可從更具多變性的PU群中,選擇運動資訊。藉此,可提升編碼效率。
〔管線處理〕
接著,使用圖12所示之位置關係的PU,參照圖13, 說明和先前比較時的本技術之處理。
在圖12的例子中,係圖示了該當PU亦即PU0、PU0的上方相鄰之PU-2、PU0的右上相鄰之PU-1。此外,在圖12的例子中,為了說明的方便,PU-2、PU-1、PU0係以相同尺寸來圖示。
這些PU,係如圖13的A及圖13的B所示,是依照PU-2、PU-1、PU0之順序,來進行運動向量的編碼或解碼處理。
在非專利文獻3所提出的方法中,如圖13的A所示,在還沒到達在比t0所開始的PU-2之處理的結束時點t2還要後面的t3以前,PU-1之處理係無法開始。同樣地,在還沒到達在比t3所開始的PU-1之處理的結束時點t6還要後面的t7以前,PU0之處理係無法開始。此外,PU0之處理,係在t9的時點上結束。
相對於此,在本技術的方法中,如圖13的B所示,在比t0所開始的PU-2之處理的結束時點t2還要前面的t1上,就可開始PU-1之處理。同樣地,在比t1所開始的PU-1之處理的結束時點t5還要前面的t4上,就可開始PU0之處理。藉此,PU0之處理係可在比圖13之A的PU之結束時點t9在時間上更早的時點t8上結束。
如以上所述,在本技術的方法中,可藉由管線來實現運動向量的編碼或解碼時的空間預測運動向量之生成處理,因此可建構出更高速動作的電路。
此外,在圖13的B中係圖示了,PU-1之處理係可在 比PU-2之處理結束時點更為前面就開始。然而,實際上,在本技術的情況下,PU-1之處理仍然是,由於PU-1中的A1之位置的PU的運動向量未被儲存,因此和圖13的A同樣地,若PU-2之處理尚未結束,就不會被開始。如此,本技術之方法係在PU-1與PU0之位置關係上,具有效果。亦即,本技術係隨著對象領域與相鄰領域之位置關係,來做適用。
〔運動向量編碼部之構成例〕
圖14係運動向量編碼部121之主要構成例的區塊圖。此外,在圖14的例子中,未被包含在運動向量編碼部121的部份,係以虛線表示。
圖14之例子的運動向量編碼部121,係含有運動向量編碼部131-1及131-2、時間相鄰運動向量共用緩衝區132、以及空間相鄰運動向量共用緩衝區133所構成。
運動向量編碼部131-1係進行例如圖12所示的PU-2、PU0、…之預測運動向量生成處理。運動向量編碼部131-2係進行例如圖12所示的PU-1、PU1、…之預測運動向量生成處理。亦即,運動向量編碼部131-1及131-2,係只有處理對象的PU不同,基本上是同樣的構成。此外,以下,運動向量編碼部131-1及131-2係在沒有必要個別區分的情況下,簡稱為運動向量編碼部131。
運動向量編碼部131-1係含有:空間相鄰運動向量內建緩衝區141-1、候補預測運動向量生成部142-1、成本函 數值算出部143-1、及最佳預測運動向量決定部144-1所構成。
運動向量編碼部131-2係含有:空間相鄰運動向量內建緩衝區141-2、候補預測運動向量生成部142-2、成本函數值算出部143-2、及最佳預測運動向量決定部144-2所構成。
此外,以下,空間相鄰運動向量內建緩衝區141-1及141-2係在沒有必要個別區分的情況下,簡稱為空間相鄰運動向量內建緩衝區141。候補預測運動向量生成部142-1及142-2係在沒有必要個別區分的情況下,簡稱為候補預測運動向量生成部142。成本函數值算出部143-1及143-2係在沒有必要個別區分的情況下,簡稱為成本函數值算出部143。最佳預測運動向量決定部144-1及144-2係在沒有必要個別區分的情況下,簡稱為最佳預測運動向量決定部144。
被運動預測.補償部115所探索到的該當PU的運動向量之資訊,係被供給至成本函數值算出部143。被運動預測.補償部115最終決定的運動向量之資訊,係被供給至時間相鄰運動向量共用緩衝區132、空間相鄰運動向量共用緩衝區133、及空間相鄰運動向量內建緩衝區141。
時間相鄰運動向量共用緩衝區132,係由記憶體所構成,是被運動向量編碼部131-1及131-2所共用。時間相鄰運動向量共用緩衝區132,係將來自運動預測.補償部115的運動向量資訊,當作時間上相鄰的時間相鄰領域的 運動向量之資訊而加以積存。此外,所謂時間上相鄰之領域,係在時間軸上不同之圖像中,位於與該當領域相同空間位址的領域。
時間相鄰運動向量共用緩衝區132係讀出,將針對該當PU之時間上相鄰之時間相鄰PU所求出之運動向量加以表示的資訊,並將所讀出之資訊(時間相鄰運動向量資訊),供給至候補預測運動向量生成部142。
空間相鄰運動向量共用緩衝區133,係由行緩衝區所構成,是被運動向量編碼部131-1及131-2所共用。空間相鄰運動向量共用緩衝區133,係將來自運動預測.補償部115的運動向量資訊,當作空間上相鄰的空間相鄰領域的運動向量之資訊而加以積存。空間相鄰運動向量共用緩衝區133係讀出,將該當PU之空間性相鄰的空間相鄰PU當中,對左方相鄰之左相鄰PU(例如圖9的A0、A1)所求出之運動向量加以表示的資訊。空間相鄰運動向量共用緩衝區133,係將所讀出之資訊(空間相鄰運動向量資訊),供給至候補預測運動向量生成部142。
空間相鄰運動向量內建緩衝區141,係由行緩衝區所構成。空間相鄰運動向量內建緩衝區141,係將來自運動預測.補償部115的運動向量資訊,當作空間上相鄰的空間相鄰領域的運動向量之資訊而加以積存。
空間相鄰運動向量內建緩衝區141係讀出,將該當PU之空間性相鄰的空間相鄰PU當中,對上方相鄰之上相鄰PU(例如圖10的B1、B2、B3)所求出之運動向量加以 表示的資訊。此時,空間相鄰運動向量內建緩衝區141,係將該當PU之資訊,供給至相鄰運動向量資訊設定部122。由於對應於此而會從相鄰運動向量資訊設定部122供給禁止讀出的PU之資訊,因此空間相鄰運動向量內建緩衝區141係不會讀出上相鄰PU當中被相鄰運動向量資訊設定部122禁止的PU(例如圖8的B0)的運動向量。空間相鄰運動向量內建緩衝區141,係將所讀出之資訊(空間相鄰運動向量資訊),供給至候補預測運動向量生成部142。此外,亦可為,例如,圖10的B3的運動向量的讀出指示,也是由相鄰運動向量資訊設定部122來進行。
候補預測運動向量生成部142,係基於AMVP或合併模式所致之方法,使用來自空間相鄰運動向量共用緩衝區132的左相鄰PU的空間相鄰運動向量資訊,生成該當PU之候補的空間預測運動向量。又,候補預測運動向量生成部142,係基於AMVP或合併模式所致之方法,使用來自空間相鄰運動向量內建緩衝區141的上相鄰PU的空間相鄰運動向量資訊,生成該當PU之候補的空間預測運動向量。此外,在空間相鄰運動向量內建緩衝區141中,上相鄰PU的空間相鄰運動向量資訊,係被相鄰運動向量資訊設定部122控制讀出。候補預測運動向量生成部142,係將已生成之候補空間預測向量加以表示的資訊,供給至成本函數值算出部143。
候補預測運動向量生成部142,係基於AMVP或合併 模式所致之方法,參照來自時間相鄰運動向量共用緩衝區132的時間相鄰運動向量資訊,生成該當PU之候補的時間預測運動向量。候補預測運動向量生成部142,係將已生成之候補時間預測向量加以表示的資訊,供給至成本函數值算出部143。
成本函數值算出部143,係算出各候補預測運動向量的相關之成本函數值,將所算出的成本函數值,連同候補預測運動向量之資訊,一起供給至最佳預測運動向量決定部144。
最佳預測運動向量決定部144,係將來自成本函數值算出部143的成本函數值為最小的候補預測運動向量,當作對該當PU的最佳預測運動向量,將其資訊供給至運動預測.補償部115。
此外,運動預測.補償部115,係使用來自最佳預測運動向量決定部144的最佳預測運動向量之資訊,生成與運動向量之差分亦即差分運動向量,針對各預測模式而算出成本函數值。運動預測.補償部115,係在其中,將成本函數值最小的預測模式,決定成畫面間最佳預測模式。
運動預測.補償部115,係將畫面間最佳預測模式的預測影像,供給至預測影像選擇部116。此外,運動預測.補償部115,係將已生成之差分運動向量資訊,供給至可逆編碼部106。
相鄰運動向量資訊設定部122,係一旦從空間相鄰運動向量內建緩衝區141收取了該當PU之資訊,則將該當 PU的上相鄰PU當中、禁止運動向量之使用的PU的位址之資訊,供給至空間相鄰運動向量內建緩衝區141。此外,此時,因應需要(例如圖10或圖11的情況),亦可將該當PU的上相鄰PU當中、許可運動向量之使用的PU的位址之資訊,供給至空間相鄰運動向量內建緩衝區141。
〔編碼處理之流程〕
接著說明如以上之影像編碼裝置100所執行的各處理的流程。首先,參照圖15的流程圖,說明編碼處理的流程例。
於步驟S101中,A/D轉換部101係將所輸入之影像進行A/D轉換。於步驟S102中,畫面排序緩衝區102係將已被A/D轉換之影像加以記憶,進行從各圖像之顯示順序往編碼之順序的排序。於步驟S103中,畫面內預測部114係進行畫面內預測模式的畫面內預測處理。
於步驟S104中,運動預測.補償部115、運動向量編碼部121、及相鄰運動向量資訊設定部122,係進行以畫面間預測模式來進行運動預測或運動補償的畫面間運動預測處理。關於該畫面間運動預測處理的細節,將參照圖16而於後述。
藉由步驟S104之處理,該當PU的運動向量會被探索,藉由管線處理,該當PU的各預測運動向量會被生成,其中,對該當PU最佳的預測運動向量會被決定。然 後,最佳畫面間預測模式會被決定,最佳畫面間預測模式的預測影像會被生成。
已被決定的最佳畫面間預測模式的預測影像與成本函數值,係從運動預測.補償部115供給至預測影像選擇部116。又,已被決定之最佳畫面間預測模式之資訊或將被認為最佳的預測運動向量之索引加以表示的資訊、表示預測運動向量與運動向量之差分的資訊,也被供給至可逆編碼部106,於後述的步驟S114中,進行可逆編碼。
於步驟S105中,預測影像選擇部116係基於從畫面內預測部114及運動預測.補償部115所輸出之各成本函數值,來決定最佳模式。亦即,預測影像選擇部116係選擇畫面內預測部114所生成之預測影像、和運動預測.補償部115所生成之預測影像的任一方。
此外,作為預測影像之選擇方式的例子,可舉出一種稱作JM(Joint Model)的AVC方式之參照軟體(被公開在http://iphome.hhi.de/suehring/tml/index.htm)中所實作的方法。
在JM中,係可選擇以下所述的High Complexity Mode與、Low Complexity Mode之2種類的模式判定方法。兩者皆是分別算出關於預測模式的成本函數值,將使其呈最小的預測模式,選擇成為對該當子巨集區塊、或該當巨集區塊的最佳模式。
High Complexity Mode下的成本函數,係如以下式(9)所示。
此處,Ω係為用來將該當區塊乃至巨集區塊進行編碼所需之候補模式的全體集合,D係為以該當預測模式進行編碼時,解碼影像與輸入影像的差分能量。λ係為作為量化參數之函數而被給予之Lagrange未定乘數。R係為,包含正交轉換係數,以該當模式進行編碼時的總編碼量。
亦即,以High Complexity Mode進行編碼時,為了算出上記參數D及R,必須要以所有的候補模式,先一度進行試行編碼處理,需要較高的演算量。
Low Complexity Mode下的成本函數,係如以下式(10)所示。
此處,D係和High Complexity Mode的情況不同,係為預測影像與輸入影像的差分能量。QP2Quant(QP)係作為量化參數QP之函數而被給予,HeaderBit係為,不包含正交轉換係數,而是運動向量、模式這類屬於Header中之資訊的相關之編碼量。
亦即,在Low Complexity Mode下,雖然關於各個候補模式需要進行預測處理,但不需要用到解碼影像,因此不必進行到編碼處理。因此,可以比High Complexity Mode低的演算量來實現。
回到圖15,於步驟S106中,演算部103係演算出被步驟S102之處理所排序過的影像、與被步驟S105之處理所選擇之預測影像的差分。差分資料係相較於原始的影像 資料,資料量是較為減少。因此,相較於把影像直接進行編碼的情形,可壓縮資料量。
於步驟S107中,正交轉換部104係將步驟S106之處理所生成的差分資訊,進行正交轉換。具體而言,會進行離散餘弦轉換、卡忽南.拉維轉換等之正交轉換,而輸出轉換係數。
於步驟S108中,量化部105係使用來自速率控制部117的量化參數,將步驟S107之處理所得到的正交轉換係數,進行量化。
被步驟S108之處理所量化之差分資訊,係如以下所述般地被局部性解碼。亦即,於步驟S109中,逆量化部108係將步驟S108之處理所生成的已被量化之正交轉換係數(亦稱作量化係數),以量化部105之特性所對應的特性,進行逆量化。於步驟S110中,逆正交轉換部109係將步驟S109之處理所得到之正交轉換係數,以正交轉換部104之特性所對應之特性,進行逆正交轉換。
於步驟S111中,演算部110係將預測影像,加算至已被局部性解碼的差分資訊,生成已被局部性解碼之影像(對應於往演算部103輸入的影像)。於步驟S112中,去區塊濾波器111係對步驟S111之處理所得到的局部性解碼影像,適宜進行去區塊濾波器處理。
於步驟S113中,畫格記憶體112係將藉由步驟S112之處理而施行過去區塊濾波器處理的解碼影像,加以記憶。此外,畫格記憶體112中係還有未被去區塊濾波器 111進行濾波器處理之影像,從演算部110進行供給並記憶之。
於步驟S114中,可逆編碼部106係將藉由步驟S108之處理而被量化之轉換係數,進行編碼。亦即,對於差分影像,進行可變長度編碼或算術編碼等之可逆編碼。
又,此時,可逆編碼部106係將已被步驟S105之處理所選擇的預測影像之關於預測模式的資訊,加以編碼,附加至差分影像編碼所得之編碼資料。亦即,可逆編碼部106係亦將從畫面內預測部114所供以之最佳畫面內預測模式資訊、或從運動預測.補償部115所供給之相應於最佳畫面間預測模式之資訊等,加以編碼,附加至編碼資料。
此外,當藉由步驟S105之處理而選擇了畫面間預測模式的預測影像時,步驟S104中所算出的差分運動向量之資訊或用來表示預測運動向量之索引的旗標,也會被編碼。
於步驟S115中,積存緩衝區107係將步驟S114之處理所得到的編碼資料,加以積存。積存緩衝區107所積存之編碼資料,係被適宜讀出,透過傳輸路徑或記錄媒體而傳輸至解碼側。
於步驟S116中,速率控制部117係基於被步驟S115之處理而積存在積存緩衝區107中的編碼資料的編碼量(發生編碼量),控制量化部105的量化動作之速率,使其不會發生溢位或下溢。又,速率控制部117,係將量化 參數的相關資訊,供給至量化部105。
一旦步驟S116的處理結束,則編碼處理就會結束。
〔畫面間運動預測處理之流程〕
其次,參照圖16的流程圖,說明圖15之步驟S104中所執行的畫面間運動預測處理之流程例。
於步驟S131中,運動預測.補償部115係進行關於各畫面間預測模式的運動探索。被運動預測.補償部115所探索到的該當PU的運動向量資訊,係被供給至成本函數值算出部143。
於步驟S132中,運動向量編碼部131係基於參照圖5或圖7而上述的AMVP或合併模式所致之方法,來生成該當PU的預測運動向量。該預測運動向量生成處理的細節,將參照圖17而於後述。
藉由步驟S132之處理,參照來自空間相鄰運動向量共用緩衝區132的左相鄰PU的相鄰運動向量資訊,生成要作為該當PU之候補的空間候補預測運動向量。參照基於相鄰運動向量資訊設定部122之控制而被供給的來自空間相鄰運動向量內建緩衝區141的上相鄰PU之相鄰運動向量資訊,生成要作為該當PU之候補的空間候補預測運動向量。然後,參照來自時間相鄰運動向量共用緩衝區132的時間相鄰運動向量資訊,生成要作為該當PU之候補的時間候補預測運動向量。
已生成之預測運動向量之資訊,係被當作候補預測運 動向量資訊而進行供給,算出關於該候補預測運動向量的成本函數值,決定對該當PU的最佳預測運動向量,已被決定之資訊,會被供給至運動預測.補償部115。
運動預測.補償部115,係於步驟S133中,使用來自最佳預測運動向量決定部144的最佳預測運動向量資訊,生成與運動向量之差分亦即差分運動向量,算出關於各畫面間預測模式的成本函數值。此外,作為成本函數,係可使用上述式(9)或式(10)。
於步驟S134中,運動預測.補償部115係在各預測模式當中,將成本函數值呈最小的預測模式,決定成最佳畫面間預測模式。運動預測.補償部115,係於步驟S135中,生成最佳畫面間預測模式的預測影像,供給至預測影像選擇部116。此外,最佳畫面間預測模式的運動向量資訊,係為了生成下個PU的預測運動向量,而被供給至時間相鄰運動向量共用緩衝區132、空間相鄰運動向量共用緩衝區133、空間相鄰運動向量內建緩衝區141。
於步驟S136中,運動預測.補償部115係將最佳畫面間預測模式之相關資訊,供給至可逆編碼部106,使最佳畫面間預測模式之相關資訊被編碼。
此外,最佳畫面間預測模式之相關資訊,係為例如,最佳畫面間預測模式之資訊、最佳畫面間預測模式的差分運動向量資訊、最佳畫面間預測模式的參照圖像資訊、及表示預測運動向量之索引的旗標等。
對應於步驟S136的處理,而被供給的這些資訊,係 於圖15的步驟S114中,而被編碼。
〔預測運動向量生成處理之流程〕
其次,參照圖17的流程圖,說明圖16之步驟S132中所執行的畫面間運動預測處理之流程例。此外,於圖17的例子中,為了明示管線所致之處理,而將運動向量編碼部131-1所做的處理與運動向量編碼部131-2所做的處理分開表示。只不過,步驟S156之處理,係為時間相鄰運動向量共用緩衝區132及空間相鄰運動向量共用緩衝區133之處理,因此一起表示。
亦即,在圖17的例子中,由運動向量編碼部131-1所執行的對PU-2、PU0、…之預測運動向量生成處理,係示於左側。另一方面,由運動向量編碼部131-2所執行的對PU-1、PU1、…之預測運動向量生成處理,係示於右側。
又,在圖17之例子中,為了明示哪個步驟所儲存的運動向量資訊是用於哪個步驟,而以虛線來表示。
於步驟S151-1中,候補預測運動向量生成部142-1,係決定位於該當PU-2的top(上)位置的空間預測運動向量。亦即,在後述的步驟S155-1中,是在空間相鄰運動向量內建緩衝區141-1裡,儲存已處理之上相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰運動向量內建緩衝區141-1,基於相鄰運動向量資訊設定部122之控制,在該當PU-2之上方相鄰的上相鄰PU當中,讀出所定 PU之運動向量資訊。例如,從空間相鄰運動向量內建緩衝區141-1,讀出圖10的B1、B2、B3的運動向量資訊,已被讀出之運動向量資訊,係被供給至候補預測運動向量生成部142-1。
候補預測運動向量生成部142-1,係使用上相鄰PU之運動向量資訊,如參照圖8所上述,例如,圖10的B1、B3、B2之順序來進行掃描,決定位於該當PU-2之top(上)位置的空間預測運動向量。已被決定之空間預測運動向量資訊,係被供給至成本函數值算出部143-1。
於步驟S152-1中,候補預測運動向量生成部142-1,係決定位於該當PU-2的left(左)位置的空間預測運動向量。亦即,在後述的步驟S156中,是在空間相鄰運動向量共用緩衝區133裡,儲存已處理之左相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰運動向量共用緩衝區133,在該當PU-2之左方相鄰的左相鄰PU當中,讀出所定PU之運動向量資訊。例如,從空間相鄰運動向量共用緩衝區133,讀出圖10的A0、A1的運動向量資訊,已被讀出之運動向量資訊,係被供給至候補預測運動向量生成部142-1。
候補預測運動向量生成部142-1,係使用左相鄰PU之運動向量資訊,如參照圖8所上述,例如,圖10的A0、A1之順序來進行掃描,決定位於該當PU-2之left(左)位置的空間預測運動向量。已被決定之空間預測運動向量資訊,係被供給至成本函數值算出部143-1。
於步驟S153-1中,候補預測運動向量生成部142-1,係決定該當PU-2的時間性相鄰的時間預測運動向量。亦即,在後述的步驟S156中,是在時間相鄰運動向量共用緩衝區132裡,儲存已處理之時間相鄰PU之運動向量資訊。如虛線箭頭所示,從時間相鄰運動向量共用緩衝區132,讀出所定之PU之運動向量資訊,已被讀出之運動向量資訊,係被供給至候補預測運動向量生成部142-1。
候補預測運動向量生成部142-1,係使用時間相鄰PU之運動向量資訊,決定該當PU-2的時間預測運動向量。已被決定之時間預測運動向量資訊,係被供給至成本函數值算出部143-1。
成本函數值算出部143-1,係針對各候補預測運動向量資訊而算出成本函數值,將所算出的成本函數值,和候補預測運動向量資訊,供給至最佳預測運動向量決定部144-1。此外,成本函數值的算出,係會使用圖16的步驟S131中從運動預測.補償部115所供給的該當PU之運動向量資訊。又,作為成本函數,係例如可使用上述式(9)或式(10)。
於步驟S154-1中,最佳預測運動向量決定部144-1,係將來自成本函數值算出部143-1的成本函數值為最小的候補預測運動向量,決定成對該當PU-2的最佳預測運動向量。最佳預測運動向量決定部144-1,係將對該當PU-2的最佳預測運動向量之資訊,供給至運動預測.補償部115。
對應於此,運動預測.補償部115,係生成對象領域之運動向量與來自最佳預測運動向量決定部144-1之對象領域之預測運動向量的差分亦即差分運動向量。又,運動預測.補償部115,係使用來再畫面排序緩衝區102的輸入影像或差分運動向量之資訊等,在上述的圖16的步驟S133中評估各預測影像的成本函數值,再步驟S134中選擇最佳模式。然後,運動預測.補償部115係將最佳模式的運動向量資訊,供給至時間相鄰運動向量共用緩衝區132、空間相鄰運動向量共用緩衝區133、空間相鄰運動向量內建緩衝區141-1。
於步驟S155-1中,空間相鄰運動向量內建緩衝區141-1係將該當PU-2的運動向量資訊,當作下個PU所需的空間相鄰運動向量資訊而加以儲存。
於步驟S156中,時間相鄰運動向量共用緩衝區132,係將該當PU-2的運動向量資訊,當作之後的PU所需的時間相鄰運動向量資訊而加以儲存。同樣地,空間相鄰運動向量共用緩衝區133,係將該當PU-2的運動向量資訊,當作之後的PU所需的空間相鄰運動向量資訊而加以儲存。
另一方面,於步驟S151-2中,候補預測運動向量生成部142-2,係決定位於該當PU-1的top(上)位置的空間預測運動向量。亦即,在後述的步驟S155-2中,是在空間相鄰運動向量內建緩衝區141-2裡,儲存已處理之上相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰 運動向量內建緩衝區141-2,基於相鄰運動向量資訊設定部122之控制,在該當PU-1之上方相鄰的上相鄰PU當中,讀出所定PU之運動向量資訊。例如,從空間相鄰運動向量內建緩衝區141-2,讀出圖10的B1、B2、B3的運動向量資訊,已被讀出之運動向量資訊,係被供給至候補預測運動向量生成部142-2。
候補預測運動向量生成部142-2,係使用上相鄰PU之運動向量資訊,如參照圖8所上述,例如,圖10的B1、B3、B2之順序來進行掃描,決定位於該當PU-1之top(上)位置的空間預測運動向量。已被決定之空間預測運動向量資訊,係被供給至成本函數值算出部143-2。
於步驟S152-2中,候補預測運動向量生成部142-2,係決定位於該當PU-1的left(左)位置的空間預測運動向量。亦即,在後述的步驟S156中,是在空間相鄰運動向量共用緩衝區133裡,儲存已處理之左相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰運動向量共用緩衝區133,在該當PU-1之左方相鄰的左相鄰PU當中,讀出所定PU之運動向量資訊。例如,從空間相鄰運動向量共用緩衝區133,讀出圖10的A0、A1的運動向量資訊,已被讀出之運動向量資訊,係被供給至候補預測運動向量生成部142-2。
候補預測運動向量生成部142-2,係使用左相鄰PU之運動向量資訊,如參照圖8所上述,例如,圖10的A0、A1之順序來進行掃描,決定位於該當PU-1之left(左 )位置的空間預測運動向量。已被決定之空間預測運動向量資訊,係被供給至成本函數值算出部143-2。
於步驟S153-2中,候補預測運動向量生成部142-2,係決定該當PU-1的時間性相鄰的時間預測運動向量。亦即,在後述的步驟S156中,是在時間相鄰運動向量共用緩衝區132裡,儲存已處理之時間相鄰PU之運動向量資訊。如虛線箭頭所示,從時間相鄰運動向量共用緩衝區132,讀出所定之PU之運動向量資訊,已被讀出之運動向量資訊,係被供給至候補預測運動向量生成部142-2。
候補預測運動向量生成部142-2,係使用時間相鄰PU之運動向量資訊,決定該當PU-1的時間預測運動向量。已被決定之時間預測運動向量資訊,係被供給至成本函數值算出部143-2。
成本函數值算出部143-2,係針對各候補預測運動向量資訊而算出成本函數值,將所算出的成本函數值,和候補預測運動向量資訊,供給至最佳預測運動向量決定部144-2。此外,成本函數值的算出,係會使用圖16的步驟S131中從運動預測.補償部115所供給的該當PU之運動向量資訊。又,作為成本函數,係可使用上述式(9)或式(10)。
於步驟S154-2中,最佳預測運動向量決定部144-2,係將來自成本函數值算出部143-2的成本函數值為最小的候補預測運動向量,決定成對該當PU-1的最佳預測運動向量。最佳預測運動向量決定部144-2,係將對該當PU-1 的最佳預測運動向量之資訊,供給至運動預測.補償部115。
對應於此,運動預測.補償部115,係生成對象領域之運動向量與來自最佳預測運動向量決定部144-2之對象領域之預測運動向量的差分亦即差分運動向量。又,運動預測.補償部115,係使用來再畫面排序緩衝區102的輸入影像或差分運動向量之資訊等,在上述的圖16的步驟S133中評估各預測影像的成本函數值,再步驟S134中選擇最佳模式。然後,運動預測.補償部115係將最佳模式的運動向量資訊,供給至時間相鄰運動向量共用緩衝區132、空間相鄰運動向量共用緩衝區133、空間相鄰運動向量內建緩衝區141-2。
於步驟S155-2中,空間相鄰運動向量內建緩衝區141-2係將該當PU-1的運動向量資訊,當作下個PU所需的空間相鄰運動向量資訊而加以儲存。
於步驟S156中,時間相鄰運動向量共用緩衝區132,係將該當PU-1的運動向量資訊,當作之後的PU所需的時間相鄰運動向量資訊而加以儲存。同樣地,空間相鄰運動向量共用緩衝區133,係將該當PU-1的運動向量資訊,當作之後的PU所需的空間相鄰運動向量資訊而加以儲存。
如以上,在該當PU的運動向量的編碼所需使用的預測運動向量之生成處理中,就會禁止該當PU之右上位置的PU之運動向量資訊之使用。
藉此,在步驟S155-1之處理之後,運動向量編碼部131-1係即使步驟S155-2的運動向量編碼部131-2所進行的對PU-1之處理尚未結束,仍可立刻進行對下個PU0之處理。亦即,如參照圖13所上述,可進行管線所致之處理。
<2.第2實施形態> 〔影像解碼裝置〕
接著,說明如以上所被編碼而成之編碼資料(編碼串流)的解碼。圖18係對應於圖1的影像編碼裝置100的影像解碼裝置的主要構成例的區塊圖。
圖18所示的影像解碼裝置200,係將影像編碼裝置100所生成的編碼資料,以對應於其編碼方法的解碼方法而進行解碼。此外,影像解碼裝置200係和影像編碼裝置100同樣地,對每一預測單元(PU)進行畫面間預測。
如圖18所示的影像解碼裝置200,係具有:積存緩衝區201、可逆解碼部202、逆量化部203、逆正交轉換部204、演算部205、去區塊濾波器206、畫面排序緩衝區207、及D/A轉換部208。又,影像解碼裝置200係具有:畫格記憶體209、選擇部210、畫面內預測部211、運動預測.補償部212、及選擇部213。
再者,影像解碼裝置200係具有:運動向量解碼部221、及相鄰運動向量資訊設定部222。
積存緩衝區201,係將所被傳輸過來的編碼資料加以 收取的收取部。積存緩衝區201,係將所被傳輸過來的編碼資料加以收取、積存,在所定之時序上將該編碼資料供給至可逆解碼部202。對編碼資料係附加有預測模式資訊、運動向量差分資訊、預測運動向量之索引等之解碼上所必需的資訊。可逆解碼部202,係將從積存緩衝區201所供給的、已被圖1之可逆編碼部106所編碼的資訊,以對應於可逆編碼部106之編碼方式的方式,進行解碼。可逆解碼部202,係將解碼所得之差分影像的已被量化之係數資料,供給至逆量化部203。
又,可逆解碼部202係在最佳預測模式中判定是畫面內預測模式被選擇還是畫面間預測模式被選擇,將該最佳預測模式之相關資訊,在畫面內預測部211及運動預測.補償部212之內,供給至判定為已被選擇的模式的那一方。亦即,例如,在影像編碼裝置100若選擇畫面間預測模式來作為最佳預測模式,則其最佳預測模式之相關資訊會被供給至運動預測.補償部212。
逆量化部203,係將可逆解碼部202解碼所得之已被量化之係數資料,以圖1之量化部105的量化方式所對應之方式進行逆量化,將所得到的係數資料,供給至逆正交轉換部204。
逆正交轉換部204係以對應於圖1之正交轉換部104之正交轉換方式的方式,將從逆量化部203所供給之係數資料,進行逆正交轉換。逆正交轉換部204係藉由此逆正交轉換處理,獲得影像編碼裝置100中被正交轉換前之殘 差資料所對應的解碼殘差資料。
逆正交轉換所得到的解碼殘差資料,係被供給至演算部205。又,對演算部205,係透過選擇部213,而從畫面內預測部211或是運動預測.補償部212,供給著預測影像。
演算部205,係將該解碼殘差資料與預測影像進行加算,獲得影像編碼裝置100之演算部103進行預測影像減算前的影像資料所對應之解碼影像資料。演算部205,係將該解碼影像資料,供給至去區塊濾波器206。
去區塊濾波器206,係對所被供給之解碼影像,適宜實施去區塊濾波器處理,將其供給至畫面排序緩衝區207。去區塊濾波器206,係藉由對解碼影像進行去區塊濾波器處理,以去除解碼影像的區塊失真。
去區塊濾波器206,係將濾波器處理結果(濾波器處理後之解碼影像),供給至畫面排序緩衝區207及畫格記憶體209。此外,從演算部205所輸出的解碼影像,係可不透過去區塊濾波器206就供給至畫面排序緩衝區207或畫格記憶體209。亦即,去區塊濾波器206所做的濾波器處理係可省略。
畫面排序緩衝區207,係進行影像的排序。亦即,藉由圖1的畫面排序緩衝區102而被排序成編碼所需之順序的畫格之順序,係被排序成原本的顯示順序。D/A轉換部208,係將從畫面排序緩衝區207所供給之影像進行D/A轉換,輸出至未圖示之顯示器而顯示之。
畫格記憶體209,係將所被供給之解碼影像加以記憶,在所定之時序上,或是基於畫面內預測部211或運動預測.補償部212等之外部的要求,將所記憶之解碼影像當作參照影像,供給至選擇部210。
選擇部210係選擇從畫格記憶體209所供給之參照影像的供給目標。選擇部210係當將已被畫面內編碼之影像進行解碼時,將從畫格記憶體209所供給之參照影像,供給至畫面內預測部211。又,選擇部210係當將已被畫面間編碼之影像進行解碼時,將從畫格記憶體209所供給之參照影像,供給至運動預測.補償部212。
對畫面內預測部211係從可逆解碼部202適宜供給著,將標頭資訊解碼所得之表示畫面內預測模式的資訊等。畫面內預測部211係以圖1之畫面內預測部114中所使用的畫面內預測模式,使用從畫格記憶體209所取得之參照影像來進行畫面內預測,生成預測影像。畫面內預測部211,係將已生成之預測影像,供給至選擇部213。
運動預測.補償部212,係將標頭資訊解碼所得之資訊(最佳預測模式資訊、參照影像資訊等),從可逆解碼部202加以取得。
運動預測.補償部212,係以從可逆解碼部202所取得之最佳預測模式資訊所示的畫面間預測模式,使用從畫格記憶體209所取得之參照影像來進行畫面間預測,生成預測影像。此外,此時,運動預測.補償部212係使用已被運動向量解碼部221所重建的運動向量資訊,來進行畫 面間預測。
選擇部213係將來自畫面內預測部211的預測影像或來自運動預測.補償部212的預測影像,供給至演算部205。然後,在演算部205中,使用運動向量而被生成之預測影像與來自逆正交轉換部204的解碼殘差資料(差分影像資訊)會被加算,而解碼出原始的影像。亦即,運動預測.補償部212、可逆解碼部202、逆量化部203、逆正交轉換部204、演算部205係亦為,使用運動向量,將編碼資料予以解碼,生成原始影像的解碼部。
運動向量解碼部221,係在標頭資訊解碼所得到的資訊當中,將預測運動向量之索引之資訊和差分運動向量之資訊,從可逆解碼部202加以取得。此處,所謂預測運動向量之索引係用來表示,對於各個PU,在時間性相鄰之相鄰領域當中,是藉由哪個相鄰領域之運動向量而進行了運動向量之預測處理(預測運動向量之生成)。差分運動向量的相關資訊,係為表示差分運動向量之值的資訊。
運動向量解碼部221,係使用預測運動向量之索引所示的PU的運動向量,來重建預測運動向量。尤其是,當預測運動向量之索引所示的PU,係為空間上相鄰於對象領域的空間相鄰領域的情況下,運動向量解碼部221,係使用未被相鄰運動向量資訊設定部222禁止使用的相鄰領域之運動向量,來生成空間預測運動向量。運動向量解碼部221,係又藉由將已重建之預測運動向量、和來自可逆解碼部202的差分運動向量進行加算,以重建運動向量, 將已重建之運動向量之資訊,供給至運動預測.補償部212。
相鄰運動向量資訊設定部222,係設定在對象領域的空間性相鄰之相鄰領域當中,使用哪個相鄰領域之運動向量,或禁止哪個相鄰領域之運動向量之使用。具體而言,相鄰運動向量資訊設定部222係禁止相對於對象領域而在右上相鄰位置的相鄰領域之運動向量之使用。
此外,運動向量解碼部221及相鄰運動向量資訊設定部222中的關連於本技術的基本之動作原理,係和圖1的運動向量編碼部121及相鄰運動向量資訊設定部122相同。只不過,在圖1所示的影像編碼裝置100中,係在從候補預測運動向量資訊選擇出對各個PU最佳者之際,對空間預測運動向量來適用本技術。
另一方面,在圖18所示的影像解碼裝置200中,係有對於各個PU,是使用哪個預測運動向量來進行過編碼資訊的相關資訊(預測運動向量之索引),會從編碼側被送過來。因此,在影像解碼裝置200中,係在進行了空間預測運動向量所致之編碼的情況下,適用本技術。
〔運動向量解碼部之構成例〕
圖19係運動向量解碼部221之主要構成例的區塊圖。此外,在圖19的例子中,未被包含在運動向量解碼部221的部份,係以虛線表示。
圖19之例子的運動向量解碼部221,係含有運動向量 解碼部231-1及231-2、時間相鄰運動向量共用緩衝區232、以及空間相鄰運動向量共用緩衝區233所構成。
運動向量解碼部231-1係進行包含例如圖12所示的PU-2、PU0、…之預測運動向量生成(重建)處理的運動向量重建處理。運動向量解碼部231-2係進行包含例如圖12所示的PU-1、PU1、…之預測運動向量生成(重建)處理的運動向量重建處理。亦即,運動向量解碼部231-1及231-2,係只有處理對象的PU不同,基本上是同樣的構成。此外,以下,運動向量解碼部231-1及231-2係在沒有必要個別區分的情況下,簡稱為運動向量解碼部231。
運動向量解碼部231-1,係含有:預測運動向量資訊緩衝區241-1、差分運動向量資訊緩衝區242-1、預測運動向量重建部243-1、及運動向量重建部244-1所構成。運動向量解碼部231-1,係還含有空間相鄰運動向量內建緩衝區245-1所構成。
運動向量解碼部231-2,係含有:預測運動向量資訊緩衝區241-2、差分運動向量資訊緩衝區242-2、預測運動向量重建部243-2、及運動向量重建部244-2所構成。運動向量解碼部231-2,係還含有空間相鄰運動向量內建緩衝區245-2所構成。
此外,以下,預測運動向量資訊緩衝區241-1及241-2係在沒有必要個別區分的情況下,簡稱為預測運動向量資訊緩衝區241。差分運動向量資訊緩衝區242-1及241-2係在沒有必要個別區分的情況下,簡稱為差分運動向量資 訊緩衝區242。預測運動向量重建部243-1及243-2係在沒有必要個別區分的情況下,簡稱為預測運動向量重建部243。運動向量重建部244-1及244-2係在沒有必要個別區分的情況下,簡稱為運動向量重建部244。空間相鄰運動向量內建緩衝區245-1及245-2係在沒有必要個別區分的情況下,簡稱為空間相鄰運動向量內建緩衝區245。
時間相鄰運動向量共用緩衝區232,係由記憶體所構成,是被運動向量解碼部231-1及231-2所共用。時間相鄰運動向量共用緩衝區232,係將來自運動向量重建部244的運動向量資訊,當作時間上相鄰的時間相鄰領域的運動向量之資訊而加以積存。此外,所謂時間上相鄰之領域,係在時間軸上不同之圖像中,位於與該當領域相同空間位址的領域。
時間相鄰運動向量共用緩衝區232係讀出,將針對該當PU之時間上相鄰之時間相鄰PU所求出之運動向量加以表示的資訊,並將所讀出之資訊(時間相鄰運動向量資訊),供給至預測運動向量重建部244。
空間相鄰運動向量共用緩衝區233,係由行緩衝區所構成,是被運動向量解碼部231-1及231-2所共用。空間相鄰運動向量共用緩衝區233,係將來自運動向量重建部244的運動向量資訊,當作空間上相鄰的空間相鄰領域的運動向量之資訊而加以積存。空間相鄰運動向量共用緩衝區233係讀出,將該當PU之空間性相鄰的空間相鄰PU當中,對左方相鄰之左相鄰PU(例如圖9的A0、A1)所 求出之運動向量加以表示的資訊。空間相鄰運動向量共用緩衝區233,係將所讀出之資訊(空間相鄰運動向量資訊),供給至預測運動向量重建部244。
預測運動向量資訊緩衝區241,係將已被可逆解碼部202所解碼之對象領域(PU)的預測運動向量之索引加以表示之資訊(以下稱作預測運動向量之資訊),予以積存。預測運動向量資訊緩衝區241,係將該當PU的預測運動向量之資訊予以讀出,供給至預測運動向量重建部243。
差分運動向量資訊緩衝區242,係將已被可逆解碼部202所解碼之對象領域(PU)的差分運動向量之資訊,予以積存。差分運動向量資訊緩衝區242,係將該當PU的差分運動向量之資訊予以讀出,供給至運動向量重建部244。
預測運動向量重建部243,係將來自預測運動向量資訊緩衝區241的該當PU的預測運動向量之索引所示的預測運動向量,基於AMVP或合併模式所致之方法,予以重建。預測運動向量重建部243,係將已重建之預測運動向量之資訊,供給至運動向量重建部244。
亦即,預測運動向量重建部243,係當該當PU之預測運動向量之索引是表示上相鄰PU之空間預測運動向量時,則使用來自空間相鄰運動向量內建緩衝區245的該當PU之空間性相鄰的上相鄰PU之空間相鄰運動向量資訊,來生成該當PU的空間預測運動向量。此外,在空間相鄰 運動向量內建緩衝區245中,上相鄰PU的空間相鄰運動向量資訊,係被相鄰運動向量資訊設定部222控制讀出。
預測運動向量重建部243,係當該當PU之預測運動向量之索引是表示左相鄰PU之空間預測運動向量時,則使用來自空間相鄰運動向量共用緩衝區233的該當PU之空間性相鄰的左相鄰PU之空間相鄰運動向量資訊,來生成該當PU的空間預測運動向量。然後,預測運動向量重建部243,係當該當PU之預測運動向量之索引是表示時間預測運動向量時,則使用來自時間相鄰運動向量共用緩衝區232的該當PU之時間上相鄰的時間相鄰運動向量資訊,來生成該當PU的時間預測運動向量。
運動向量重建部244,係將來自差分運動向量資訊緩衝區242之資訊所示的該當PU的差分運動向量,和已被重建之該當PU的預測運動向量進行加算,以重建運動向量。運動向量重建部244,係將已被重建之表示運動向量之資訊,供給至運動預測.補償部212、空間相鄰運動向量內建緩衝區245、空間相鄰運動向量共用緩衝區233、及時間相鄰運動向量共用緩衝區232。
空間相鄰運動向量內建緩衝區245,係由行緩衝區所構成。空間相鄰運動向量內建緩衝區245係將已被運動向量重建部244所重建之運動向量資訊,當作相同圖像內的日後之PU的預測運動向量資訊所需的空間相鄰運動向量資訊而加以積存。
空間相鄰運動向量內建緩衝區245係讀出,將該當 PU之空間性相鄰的空間相鄰PU當中,對上方相鄰之上相鄰PU(例如圖10的B1、B2、B3)所求出之運動向量加以表示的資訊。此時,空間相鄰運動向量內建緩衝區245,係將該當PU之資訊,供給至相鄰運動向量資訊設定部222。由於對應於此而會從相鄰運動向量資訊設定部222供給禁止讀出的PU之資訊,因此空間相鄰運動向量內建緩衝區245係不會讀出上相鄰PU當中被相鄰運動向量資訊設定部222禁止的PU(例如圖8的B0)的運動向量。空間相鄰運動向量內建緩衝區245,係將所讀出之資訊(空間相鄰運動向量資訊),供給至預測運動向量重建部243。此外,亦可為,例如,圖10的B3的運動向量的讀出指示,也是由相鄰運動向量資訊設定部222來進行。
相鄰運動向量資訊設定部222,係一旦從空間相鄰運動向量內建緩衝區245收取了該當PU之資訊,則將該當PU的上相鄰PU當中、禁止運動向量之使用的PU的位址之資訊,供給至空間相鄰運動向量內建緩衝區245。此外,此時,因應需要(例如圖10或圖11的情況),亦可將該當PU的上相鄰PU當中、許可運動向量之使用的PU的位址之資訊,也供給至空間相鄰運動向量內建緩衝區245。
此外,運動預測.補償部212,係使用該已被運動向量重建部244所重建之該當PU的運動向量,以從可逆解碼部202所取得之最佳預測模式資訊所示的畫面間預測模式,使用參照影像來生成預測影像。
〔解碼處理之流程〕
接著說明如以上之影像解碼裝置200所執行的各處理的流程。首先,參照圖20的流程圖,說明解碼處理的流程例。
解碼處理一旦開始,則於步驟S201中,積存緩衝區201係將所被傳輸過來的編碼串流,加以積存。於步驟S202中,可逆解碼部202係將從積存緩衝區201所供給之編碼串流(已被編碼之差分影像資訊),加以解碼。亦即,已被圖1之可逆編碼部106所編碼的I圖像、P圖像、以及B圖像,會被解碼。
此時,標頭資訊等之編碼串流中所含有的差分影像資訊以外的各種資訊,也被解碼。可逆解碼部202,係取得例如預測模式資訊、差分運動向量之資訊、及表示預測運動向量之索引的旗標等。可逆解碼部202,係將已取得之資訊,供給至對應的部。
於步驟S203中,逆量化部203係將藉由步驟S202之處理所得到的已被量化之正交轉換係數,進行逆量化。於步驟S204中,逆正交轉換部204係將步驟S203中已被逆量化之正交轉換係數,進行逆正交轉換。
於步驟S205中,可逆解碼部202係基於步驟S202中已解碼之最佳預測模式之相關資訊,來判定處理對象之編碼資料是否有被畫面內編碼。若判定為有被畫面內編碼,則處理係前進至步驟S206。
於步驟S206中,畫面內預測部211係取得畫面內預測模式資訊。於步驟S207中,畫面內預測部211係使用步驟S206中所取得的畫面內預測模式資訊來進行畫面內預測,生成預測影像。
又,於步驟S206中,處理對象之編碼資料未被畫面內編碼,亦即,被判定為是已被畫面間編碼的情況下,則處理係前進至步驟S208。
於步驟S208中,運動向量解碼部221、及相鄰運動向量資訊設定部222係進行運動向量重建處理。關於該運動向量重建處理的細節,將參照圖21而於後述。
藉由步驟S208之處理,參照已被解碼之預測運動向量的相關資訊,藉由管線處理,生成該當PU的預測運動向量。亦即,來自預測運動向量資訊緩衝區241的該當PU的預測運動向量之索引所示的預測運動向量,會被重建。然後,已被重建之該當PU的預測運動向量會被使用,重建運動向量,已被重建之運動向量,係被供給至運動預測.補償部212。
更具體而言,來自預測運動向量資訊緩衝區241的該當PU的預測運動向量之索引,是表示左方之空間預測運動向量時,參照來自空間相鄰運動向量共用緩衝區233的左相鄰PU的相鄰運動向量資訊,重建該當PU的預測運動向量。來自預測運動向量資訊緩衝區241的該當PU的預測運動向量之索引,是表示上方之空間預測運動向量時,參照基於相鄰運動向量資訊設定部222之控制而供給 的來自空間相鄰運動向量內建緩衝區245的上相鄰PU的相鄰運動向量資訊,重建該當PU的預測運動向量。然後,來自預測運動向量資訊緩衝區241的該當PU的預測運動向量之索引,是表示時間預測運動向量時,參照來自時間相鄰運動向量共用緩衝區232的時間相鄰運動向量資訊,重建該當PU的預測運動向量。
於步驟S209中,運動預測.補償部212,係使用已被步驟S208之處理所重建的運動向量,來進行畫面間運動預測處理,生成預測影像。已生成之預測影像,係被供給至選擇部213。
於步驟S210中,選擇部213係將步驟S207或步驟S209中所生成的預測影像,加以選擇。於步驟S211中,演算部205係對步驟S204中被逆正交轉換所得到之差分影像資訊,加算至步驟S210中所選擇的預測影像。藉此,原本的影像就被解碼。亦即,會使用運動向量,生成預測影像,所被生成之預測影像與來自逆正交轉換部204的差分影像資訊會被加算,而解碼出原始的影像。
於步驟S212中,去區塊濾波器206,係對步驟S211中所得到之解碼影像,適宜進行去區塊濾波器處理。
於步驟S213中,畫面排序緩衝區207係進行,已在步驟S212中被濾波器處理的影像之排序。亦即,已被影像編碼裝置100的畫面排序緩衝區102為了進行編碼而排序過的畫格之順序,會被排序成原本的顯示順序。
於步驟S214中,D/A轉換部208係將步驟S213中將 畫格之順序予以排序過的影像,進行D/A轉換。該影像係被輸出至未圖示的顯示器,而顯示出影像。
於步驟S215中,畫格記憶體209係將已在步驟S212中被濾波器處理的影像,加以記憶。
一旦步驟S215的處理結束,則解碼處理就會結束。
〔運動向量重建處理之流程〕
其次,參照圖21的流程圖,說明圖20之步驟S208中所執行的運動向量重建處理之流程例。此外,該運動向量重建處理係為,使用從編碼側所發送過來而已被可逆解碼部202所解碼之資訊,來將運動向量予以解碼之處理。
又,於圖21的例子中,為了明示管線所致之處理,而將運動向量解碼部231-1所做的處理與運動向量解碼部231-2所做的處理分開表示。只不過,步驟S237之處理,係為時間相鄰運動向量共用緩衝區232及空間相鄰運動向量共用緩衝區233之處理,因此一起表示。
亦即,在圖21的例子中,由運動向量解碼部231-1所執行的對PU-2、PU0、…之運動向量重建處理,係示於左側。另一方面,由運動向量解碼部231-2所執行的對PU-1、PU1、…之運動向量重建處理,係示於右側。
又,在圖21之例子中,為了明示哪個步驟所儲存的運動向量資訊是用於哪個步驟,而以虛線來表示。
於圖20的步驟S202中,可逆解碼部202係將已被解碼之參數之資訊等,逐一供給至對應的部。
於步驟S231-1中,預測運動向量資訊緩衝區241-1,係在已被解碼的參數之資訊當中,取得表示關於預測運動向量的索引的資訊(預測運動向量資訊),將已取得之資訊予以積存。然後,預測運動向量資訊緩衝區241-1,係以所定之時序,將預測運動向量資訊,供給至預測運動向量重建部243-1。
此外,此時,差分運動向量資訊緩衝區242-1,係在已被解碼的參數之資訊當中,將差分運動向量之資訊加以取得,將已取得之資訊予以積存。然後,差分運動向量資訊緩衝區242-1,係將差分運動向量之資訊,供給至運動向量重建部244-1。
於步驟S232-1中,預測運動向量重建部243-1,係基於參照圖5或圖7而上述的MVP或合併模式所致之方法,重建該當PU-2的時間預測運動向量。亦即,在後述的步驟S237中,是在時間相鄰運動向量共用緩衝區232裡,儲存已處理之時間相鄰PU之運動向量資訊。如虛線箭頭所示,從時間相鄰運動向量共用緩衝區232,讀出所定之PU之運動向量資訊,已被讀出之運動向量資訊,係被供給至預測運動向量重建部243-1。
預測運動向量重建部243-1,係使用來自時間相鄰運動向量共用緩衝區232的該當PU-2之時間上相鄰的時間相鄰運動向量資訊,來生成該當PU-2的時間預測運動向量。
於步驟S233-1中,預測運動向量重建部243-1,係基 於AMVP或合併模式所致之方法,重建該當PU-2的Top(上)之預測運動向量。亦即,在後述的步驟S236-1中,是在空間相鄰運動向量內建緩衝區245-1裡,儲存已處理之上相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰運動向量內建緩衝區245-1,基於相鄰運動向量資訊設定部222之控制,在該當PU-2之上方相鄰的上相鄰PU當中,讀出所定PU之運動向量資訊。例如,從空間相鄰運動向量內建緩衝區245-1,讀出圖10的B1、B2、B3的運動向量資訊,已被讀出之運動向量資訊,係被供給至預測運動向量重建部243-1。
預測運動向量重建部243-1,係使用來自空間相鄰運動向量內建緩衝區245-1的該當PU之空間性相鄰的上相鄰PU之空間相鄰運動向量資訊,來生成該當PU-2的空間預測運動向量。
此外,於空間相鄰運動向量內建緩衝區245-1中,上相鄰PU的空間相鄰運動向量資訊之讀出,係受相鄰運動向量資訊設定部222所控制。
具體而言,空間相鄰運動向量內建緩衝區245-1係讀出,將該當PU-2之空間性相鄰的空間相鄰PU當中,對上方相鄰之上相鄰PU(例如圖10的B1、B2、B3)所求出之運動向量加以表示的資訊。此時,空間相鄰運動向量內建緩衝區245-1係將該當PU-2之資訊,供給至相鄰運動向量資訊設定部222,在對應於其而被供給的上相鄰PU當中,不會讀出被禁止的PU(例如圖8的B0)的運動向 量。空間相鄰運動向量內建緩衝區245-1,係將如以上所述而讀出之資訊(空間相鄰運動向量資訊),供給至預測運動向量重建部243-1。
於步驟S234-1中,預測運動向量重建部243-1,係基於AMVP或合併模式所致之方法,重建該當PU-2的left(左)之預測運動向量。亦即,在後述的步驟S237中,是在空間相鄰運動向量共用緩衝區233裡,儲存已處理之左相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰運動向量共用緩衝區233,在該當PU-2之左方相鄰的左相鄰PU當中,讀出所定PU之運動向量資訊。例如,從空間相鄰運動向量共用緩衝區233,讀出圖10的A0、A1的運動向量資訊,已被讀出之運動向量資訊,係被供給至預測運動向量重建部243-1。
預測運動向量重建部243-1,係使用來自空間相鄰運動向量共用緩衝區233的該當PU之空間性相鄰的左相鄰PU之空間相鄰運動向量資訊,來生成該當PU-2的空間預測運動向量。
此外,步驟S232-1乃至步驟S234-1之處理,係基於來自預測運動向量資訊緩衝區241-1的該當PU-2的預測運動向量之索引而進行的處理,實際上只有其中1個步驟的處理會被執行。此外,步驟S232-1乃至S234-1之處理,係參照圖22而於後面詳述。預測運動向量重建部243-1,係將已重建之預測運動向量之資訊,供給至運動向量重建部244-1。
於步驟S235-1中,運動向量重建部244-1,係將運動向量予以重建。亦即,運動向量重建部244-1,係將來自差分運動向量資訊緩衝區242-1之資訊所示的該當PU-2的差分運動向量,和已被重建之該當PU-2的預測運動向量進行加算,以重建運動向量。運動向量重建部244-1,係將已被重建之表示運動向量之資訊,供給至運動預測.補償部212、空間相鄰運動向量內建緩衝區245-1、空間相鄰運動向量共用緩衝區233、以及時間相鄰運動向量共用緩衝區232。
於步驟S236-1中,空間相鄰運動向量內建緩衝區245-1係將該當PU-2的運動向量資訊,當作下個PU所需的空間相鄰運動向量資訊而加以儲存。
於步驟S237中,時間相鄰運動向量共用緩衝區232,係將該當PU-2的運動向量資訊,當作之後的PU所需的時間相鄰運動向量資訊而加以儲存。同樣地,空間相鄰運動向量共用緩衝區233,係將該當PU-2的運動向量資訊,當作之後的PU所需的空間相鄰運動向量資訊而加以儲存。
另一方面,於步驟S231-2中,預測運動向量資訊緩衝區241-2,係在已被解碼的參數之資訊當中,取得表示關於預測運動向量的索引的資訊(預測運動向量資訊),將已取得之資訊予以積存。然後,預測運動向量資訊緩衝區241-2,係以所定之時序,將預測運動向量資訊,供給至預測運動向量重建部243-2。
此外,此時,差分運動向量資訊緩衝區242-2,係在已被解碼的參數之資訊當中,將差分運動向量之資訊加以取得,將已取得之資訊予以積存。然後,差分運動向量資訊緩衝區242-2,係將差分運動向量之資訊,供給至運動向量重建部244-2。
於步驟S232-2中,預測運動向量重建部243-2,係基於AMVP或合併模式所致之方法,生成該當PU-1的時間預測運動向量。亦即,在後述的步驟S237中,是在時間相鄰運動向量共用緩衝區232裡,儲存已處理之時間相鄰PU之運動向量資訊。如虛線箭頭所示,從時間相鄰運動向量共用緩衝區232,讀出所定之PU之運動向量資訊,已被讀出之運動向量資訊,係被供給至預測運動向量重建部243-2。
預測運動向量重建部243-2,係使用來自時間相鄰運動向量共用緩衝區232的該當PU-1之時間上相鄰的時間相鄰運動向量資訊,來生成該當PU-1的時間預測運動向量。
於步驟S233-2中,預測運動向量重建部243-2,係基於AMVP或合併模式所致之方法,生成該當PU-1的Top(上)之預測運動向量。亦即,在後述的步驟S236-2中,是在空間相鄰運動向量內建緩衝區245-2裡,儲存已處理之上相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰運動向量內建緩衝區245-2,基於相鄰運動向量資訊設定部222之控制,在該當PU-1之上方相鄰的上相 鄰PU當中,讀出所定PU之運動向量資訊。例如,從空間相鄰運動向量內建緩衝區245-2,讀出圖10的B1、B2、B3的運動向量資訊,已被讀出之運動向量資訊,係被供給至預測運動向量重建部243-2。
預測運動向量重建部243-2,係使用來自空間相鄰運動向量內建緩衝區245-2的該當PU之空間性相鄰的上相鄰PU之空間相鄰運動向量資訊,來生成該當PU-1的空間預測運動向量。
此外,於空間相鄰運動向量內建緩衝區245-2中,上相鄰PU的空間相鄰運動向量資訊之讀出,係受相鄰運動向量資訊設定部222所控制。
具體而言,空間相鄰運動向量內建緩衝區245-2係讀出,將該當PU-1之空間性相鄰的空間相鄰PU當中,對上方相鄰之上相鄰PU(例如圖10的B1、B2、B3)所求出之運動向量加以表示的資訊。此時,空間相鄰運動向量內建緩衝區245-2係將該當PU-1之資訊,供給至相鄰運動向量資訊設定部222,在對應於其而被供給的上相鄰PU當中,不會讀出被禁止的PU(例如圖8的B0)的運動向量。空間相鄰運動向量內建緩衝區245-2,係將如以上所述而讀出之資訊(空間相鄰運動向量資訊),供給至預測運動向量重建部243-2。
於步驟S234-2中,預測運動向量重建部243-2,係基於AMVP或合併模式所致之方法,生成該當PU-1的left(左)之預測運動向量。亦即,在後述的步驟S237中, 是在空間相鄰運動向量共用緩衝區233裡,儲存已處理之左相鄰PU之運動向量資訊。如虛線箭頭所示,從空間相鄰運動向量共用緩衝區233,在該當PU-1之左方相鄰的左相鄰PU當中,讀出所定PU之運動向量資訊。例如,從空間相鄰運動向量共用緩衝區233,讀出圖10的A0、A1的運動向量資訊,已被讀出之運動向量資訊,係被供給至預測運動向量重建部243-2。
預測運動向量重建部243-2,係使用來自空間相鄰運動向量共用緩衝區233的該當PU之空間性相鄰的左相鄰PU之空間相鄰運動向量資訊,來生成該當PU-1的空間預測運動向量。
此外,步驟S232-2乃至步驟S234-2之處理,係基於來自預測運動向量資訊緩衝區241-2的該當PU-1的預測運動向量之索引而進行的處理,實際上只有其中1個步驟的處理會被執行。此外,步驟S232-2乃至S234-2之處理,係參照圖22而於後面詳述。預測運動向量重建部243-2,係將已重建之預測運動向量之資訊,供給至運動向量重建部244-2。
於步驟S235-2中,運動向量重建部244-2,係將運動向量予以重建。亦即,運動向量重建部244-2,係將來自差分運動向量資訊緩衝區242-2之資訊所示的該當PU-1的差分運動向量,和已被重建之該當PU-1的預測運動向量進行加算,以重建運動向量。運動向量重建部244-2,係將已被重建之表示運動向量之資訊,供給至運動預測.補 償部212、空間相鄰運動向量內建緩衝區245-2、空間相鄰運動向量共用緩衝區233、及時間相鄰運動向量共用緩衝區232。
於步驟S236-2中,空間相鄰運動向量內建緩衝區245-2係將該當PU-1的運動向量資訊,當作下個PU所需的空間相鄰運動向量資訊而加以儲存。
於步驟S237中,時間相鄰運動向量共用緩衝區232,係將該當PU-1的運動向量資訊,當作之後的PU所需的時間相鄰運動向量資訊而加以儲存。同樣地,空間相鄰運動向量共用緩衝區233,係將該當PU-1的運動向量資訊,當作之後的PU所需的空間相鄰運動向量資訊而加以儲存。
此外,在合併模式的情況下,由於差分運動向量資訊係不會從編碼側送來,已被重建之預測運動向量會成為運動向量,因此步驟S235-1及步驟S235-2的運動向量之重建處理係被略過。
〔預測運動向量重建處理之流程〕
接著,參照圖22的流程圖,整體說明圖21之步驟S232-1乃至步驟S234-1、及步驟S232-2乃至步驟S234-2中所執行的預測運動向量重建處理的流程例。
預測運動向量重建部243,係於步驟S251中,判定來自預測運動向量資訊緩衝區241的該當PU的預測運動向量之索引所示者,是否為時間預測運動向量。
於步驟S251中,若判定為是時間預測運動向量,則處理係前進至步驟S252。
於步驟S252中,預測運動向量重建部243係將時間預測運動向量予以重建。此外,步驟S252的處理,係和上述圖21之步驟S232-1及步驟S232-2之處理為相同之處理,因此省略詳細說明。
於步驟S251中,若判定為不是時間預測運動向量,則處理係前進至步驟S253。預測運動向量重建部243,係於步驟S253中,判定來自預測運動向量資訊緩衝區241的該當PU的預測運動向量之索引所示者,是否為Top之空間預測運動向量。
於步驟S253中,若判定為是Top之空間預測運動向量,則處理係前進至步驟S254。
於步驟S254中,預測運動向量重建部243係將Top之空間預測運動向量予以重建。此外,步驟S254的處理,係和上述圖21之步驟S233-1及步驟S233-2之處理為相同之處理,因此省略詳細說明。
於步驟S253中,若判定為不是Top之空間預測運動向量,則處理係前進至步驟S255。於步驟S255中,預測運動向量重建部243係將left之空間預測運動向量予以重建。此外,步驟S255的處理,係和上述圖21之步驟S234-1及步驟S234-2之處理為相同之處理,因此省略詳細說明。
如以上,在該當PU的運動向量的解碼處理、亦即預 測運動向量的重建處理中,就會禁止該當PU之右上位置的PU之運動向量資訊之使用。
藉此,例如,在步驟S236-1之處理之後,運動向量解碼部231-1係即使步驟S236-2的運動向量解碼部231-2所進行的對PU-1之處理尚未結束,仍可立刻進行對下個PU0之處理。亦即,如參照圖13所上述,可進行管線所致之處理。
藉由如上進行各處理,影像解碼裝置200係可將影像編碼裝置100所編碼之編碼資料予以正確地解碼,可實現編碼效率之提升。
亦即,在影像解碼裝置200中,係於該當PU的運動向量之解碼處理、亦即預測運動向量之重建處理中,該當PU之右上位置的PU之運動向量資訊之使用係被禁止。
藉此,就可有效率地進行管線所致之處理,可提升處理效率。
<3.第3實施形態> 〔LCU單位之控制〕
此外,在上記說明中,雖然是以PU為控制的單位來說明,但亦可不是PU而是以LCU為控制的單位。亦即,亦可以最大編碼單位的LCU單位,來禁止LCU之右上位置的PU(圖8之B0)之使用。
若再次參照圖8來說明,則只有在該當PU的上及右邊界是LCU邊界的情況下,會禁止B0之使用。亦即,在 含有該當PU的LCU中,只有在該當PU是位於LCU之右上位置的PU的情況下,B0之使用才會被禁止。
藉此,就可以用LCU單位來進行管線處理。
此外,LCU單位之情況下,判定該當PU之邊界是否為LCU之邊界的判定部,係可被構成在相鄰運動向量資訊設定部122及222內,亦可被構成在運動向量編碼部131及運動向量解碼部231內。又,判定該當PU之邊界是否為LCU之邊界的處理,亦可由空間相鄰運動向量內建緩衝區141及245來做判定。
再次參照圖13來說明。圖13所示的例子係為PU為相同尺寸時的例子,但實際上PU係很可能是以各種尺寸而被設定。因此,以PU單位進行控制時,各PU的處理時間的長度,例如,圖13所示的PU-2的處理時間之長度(t0乃至t2)、PU-1的處理時間之長度(t1乃至t5)、及PU0的處理時間之長度(t4乃至t8),有可能會發生參差(變動)。
相對於此,在以LCU單位進行控制時,LCU的處理時間之長度,係為相同(沒有參差)。因此,以LCU單位來控制處理時,會比以PU單位來控制處理時,管線處理的控制係較為容易。
此外,作為典型的例子,雖然使用LCU而上述,但只要是能消除上述處理時間之長度之參差的單位,則即使是LCU以外的單位,本技術也能適用。
又,亦可設定識別資訊,來識別以預測單位(PU單 位)來進行、或以最大編碼單位(LCU單位)來進行禁止右上領域之運動向量之使用的處理。
該識別資訊,係在編碼側,以欲控制之單位來設定,連同編碼串流一起被傳輸。例如,欲以切片單位來進行控制時,則在切片標頭中設定該識別資訊。例如,欲以圖像單位來進行控制時,則在圖像參數集裡設定該識別資訊。欲以序列單位來進行控制時,則在切片參數集裡設定該識別資訊。
然後,於解碼側,該識別資訊會連同編碼串流一起被收取,依照所收取的識別資訊,禁止右上領域之運動向量的使用。
如以上,在預測運動向量的重建處理中,對象領域(PU或LCU)的右上位置的PU之運動向量資訊之使用係被禁止。
藉此,就可有效率地進行管線所致之處理,可提升處理效率。
此外,於上記說明中,雖然以依照HEVC的情況為例子來說明,但本技術係只要是進行AMVP或合併模式所致之運動向量資訊的編碼處理及解碼處理的裝置即可,就算是使用其他編碼方式的裝置,仍可適用。
又,本技術係可適用於,例如,將像是MPEG、H.26x等這類藉由離散餘弦轉換等之正交轉換與運動補償所壓縮而成的影像資訊(位元串流),透過衛星播送、有線電視、網際網路、或行動電話機等之網路媒介而收訊時所使 用的影像編碼裝置及影像解碼裝置。又,本技術係可適用於,在光、磁碟、及快閃記憶體這類記憶媒體上進行處理之際所使用的影像編碼裝置及影像解碼裝置。再者,本技術係亦可適用於,這些影像編碼裝置及影像解碼裝置等中所含有的運動預測補償裝置。
<4.第4實施形態> 〔對多視點影像編碼.多視點影像解碼之適用〕
上述一連串處理,係可適用於多視點影像編碼.多視點影像解碼。圖23係圖示多視點影像編碼方式之一例。
如圖23所示,多視點影像,係含有複數視點之影像,該複數視點當中的所定1個視點之影像,係被指定成基礎視點的影像。基礎視點之影像以外的各視點之影像,係被當成非基礎視點之影像。
在進行如圖23所示的多視點影像編碼時,在各視點(同一視點)中,可以設定禁止使用預測向量之生成或重建時的所定領域(亦即上述對象領域之右上位置的右上領域)的運動向量資訊。又,在各視點(不同視點)中,亦可適用在其他視點上所被設定的所定領域之運動向量資訊的使用禁止。
此時,在基礎視點中所被設定的運動向量之使用禁止,是在至少1個非基礎視點中被適用。或者,例如,在非基礎視點(view_id=i)中所被設定的運動向量之使用禁止,是在基礎視點及非基礎視點(view_id=j)之至少任意 一方中被適用。
甚至,亦可設定識別資訊,來識別在各視點(同一視點)中,以預測單位來進行、或以最大編碼單位來進行禁止所定領域之運動向量之使用的處理。又,亦可共用識別資訊,來識別在各視點(不同視點)中,以預測單位來進行、或以最大編碼單位來進行禁止在其他視點上所被設定之所定領域之運動向量之使用的處理。
此時,在基礎視點中所被設定的識別資訊,是被至少1個非基礎視點所使用。或者,例如,在非基礎視點(view_id=i)中所被設定的識別資訊,是在基礎視點及非基礎視點(view_id=j)之至少任意一方中被使用。
藉此,就可有效率地進行管線所致之處理,可提升處理效率。
〔多視點影像編碼裝置〕
圖24係上述進行多視點影像編碼的多視點影像編碼裝置的圖示。如圖24所示,多視點影像編碼裝置600係具有:編碼部601、編碼部602、及多工化部603。
編碼部601,係將基礎視點影像予以編碼,生成基礎視點影像編碼串流。編碼部602,係將非基礎視點影像予以編碼,生成非基礎視點影像編碼串流。多工化部603,係將編碼部601中所生成之基礎視點影像編碼串流,和編碼部602中所生成之非基礎視點影像編碼串流,進行多工化,生成多視點影像編碼串流。
對該多視點影像編碼裝置600的編碼部601及編碼部602,可適用影像編碼裝置100(圖1)。此時,多視點影像編碼裝置600,係將編碼部601所設定之識別資訊、和編碼部602所設定之識別資訊,加以設定並傳輸。
此外,亦可將如上述而由編碼部601所設定的識別資訊,設定成讓編碼部601及編碼部602共用而被傳輸。反之,亦可將編碼部602所設定的識別資訊,設定成讓編碼部601及編碼部602共用而被傳輸。
〔多視點影像解碼裝置〕
圖25係上述進行多視點影像解碼的多視點影像解碼裝置的圖示。如圖25所示,多視點影像解碼裝置610係具有:逆多工化部611、解碼部612、及解碼部613。
逆多工化部611,係將基礎視點影像編碼串流與非基礎視點影像編碼串流所多工化而成的多視點影像編碼串流,進行逆多工化,抽出基礎視點影像編碼串流、和非基礎視點影像編碼串流。解碼部612,係將已被逆多工化部611所抽出的基礎視點影像編碼串流予以解碼,獲得基礎視點影像。解碼部613,係將已被逆多工化部611所抽出的非基礎視點影像編碼串流予以解碼,獲得非基礎視點影像。
對該多視點影像解碼裝置610的解碼部612及解碼部613,可適用影像解碼裝置200(圖18)。此時,多視點影像解碼裝置610,係使用編碼部601所設定、解碼部 612所解碼之識別資訊、和編碼部602所設定、解碼部613所解碼之識別資訊,來進行處理。
此外,有時候會將如上述而由編碼部601(或編碼部602)所設定的識別資訊,設定成讓編碼部601及編碼部602共用而被傳輸。此情況下,在多視點影像解碼裝置610中,係使用由編碼部601(或編碼部602)所設定、由解碼部612(或解碼部613)所解碼之識別資訊,來進行處理。
<5.第5實施形態> 〔階層影像編碼.階層影像解碼之適用〕
上述一連串處理,係可適用於階層影像編碼.階層影像解碼。圖26係圖示多視點影像編碼方式之一例。
如圖26所示,階層影像,係含有複數階層(解析度)之影像,該複數解析度之中的所定1個階層的影像,係被指定成基礎圖層之影像。基礎圖層影像以外的各階層之影像,係被當成非基礎圖層之影像。
在進行如圖26所示的階層影像編碼(空間可調性)的情況下,在各圖層(同一圖層)中,可設定預測向量之生成或重建時的所定領域之運動向量資訊的使用禁止。又,在各圖層(不同圖層)中,可適用在其他圖層上所被設定的所定領域之運動向量資訊的使用禁止。
此時,在基礎圖層中所被設定的運動向量之使用禁止,是在至少1個非基礎圖層中被使用。或者,例如,在 非基礎圖層(layer_id=i)中所被設定的運動向量之使用禁止,是在基礎圖層及非基礎圖層(layer_id=j)之至少任意一方中被使用。
甚至,亦可設定識別資訊,來識別在各圖層(同一圖層)中,以預測單位來進行、或以最大編碼單位來進行禁止所定領域之運動向量之使用的處理。又,亦可共用識別資訊,來識別在各圖層(不同圖層)中,以預測單位來進行、或以最大編碼單位來進行禁止在其他視點上所被設定之所定領域之運動向量之使用的處理。
此時,在基礎圖層中所被設定的識別資訊,是被至少1個非基礎圖層所使用。或者,例如,在非基礎圖層(layer_id=i)中所被設定的識別資訊,是在基礎圖層及非基礎圖層(layer_id=j)之至少任意一方中被使用。
藉此,就可有效率地進行管線所致之處理,可提升處理效率。
〔階層影像編碼裝置〕
圖27係上述進行階層影像編碼的階層影像編碼裝置的圖示。如圖27所示,階層影像編碼裝置620係具有:編碼部621、編碼部622、及多工化部623。
編碼部621,係將基礎圖層影像予以編碼,生成基礎圖層影像編碼串流。編碼部622,係將非基礎圖層影像予以編碼,生成非基礎圖層影像編碼串流。多工化部623,係將編碼部621中所生成之基礎圖層影像編碼串流,和編 碼部622中所生成之非基礎圖層影像編碼串流,進行多工化,生成階層影像編碼串流。
對該階層影像編碼裝置620的編碼部621及編碼部622,可適用影像編碼裝置100(圖1)。此時,階層影像編碼裝置620,係將編碼部621所設定之識別資訊、和編碼部622所設定之識別資訊,加以設定並傳輸。
此外,亦可將如上述而由編碼部621所設定的識別資訊,設定成讓編碼部621及編碼部622共用而被傳輸。反之,亦可將編碼部622所設定的識別資訊,設定成讓編碼部621及編碼部622共用而被傳輸。
〔階層影像解碼裝置〕
圖28係上述進行階層影像解碼的階層影像解碼裝置的圖示。如圖28所示,階層影像解碼裝置630係具有:逆多工化部631、解碼部632、及解碼部633。
逆多工化部631,係將基礎圖層影像編碼串流與非基礎圖層影像編碼串流所多工化而成的階層影像編碼串流,進行逆多工化,抽出基礎圖層影像編碼串流、和非基礎圖層影像編碼串流。解碼部632,係將已被逆多工化部631所抽出的基礎圖層影像編碼串流予以解碼,獲得基礎圖層影像。解碼部633,係將已被逆多工化部631所抽出的非基礎圖層影像編碼串流予以解碼,獲得非基礎圖層影像。
對該階層影像解碼裝置630的解碼部632及解碼部633,可適用影像解碼裝置200(圖18)。此時,階層影 像解碼裝置630,係使用編碼部621所設定、解碼部632所解碼之識別資訊、和編碼部622所設定、解碼部633之識別資訊,來進行處理。
此外,有時候會將如上述而由編碼部621(或編碼部622)所設定的識別資訊,設定成讓編碼部621及編碼部622共用而被傳輸。此情況下,在階層影像解碼裝置630中,係使用由編碼部621(或編碼部622)所設定、由解碼部632(或解碼部633)所解碼之識別資訊,來進行處理。
<6.第6實施形態> 〔電腦〕
上述一連串處理,係可藉由硬體來執行,也可藉由軟體來執行。在以軟體來執行一連串之處理時,構成該軟體的程式,係可安裝至電腦。此處,電腦係包含:被組裝在專用硬體中的電腦、或藉由安裝各種程式而可執行各種機能的通用之個人電腦等。
於圖29中,係以程式來執行上述一連串處理的電腦的硬體之構成例的區塊圖。
於電腦800中,CPU(Central Processing Unit)801、ROM(Read Only Memory)802、RAM(Random Access Memory)803,係藉由匯流排804而被彼此連接。
在匯流排804上係還連接有輸出入介面805。輸出入介面805上係連接有:輸入部806、輸出部807、記憶部 808、通訊部809、及驅動機810。
輸入部806,係由鍵盤、滑鼠、麥克風等所成。輸出部807係由顯示器、揚聲器等所成。記憶部808,係由硬碟或非揮發性記憶體等所成。通訊部809係由網路介面等所成。驅動機810係驅動:磁碟、光碟、光磁碟、或半導體記憶體等之可移除式媒體811。
在如以上構成的電腦中,藉由CPU801而例如將記憶部808中所記憶之程式透過輸出入介面805及匯流排804,而載入至RAM803裡並加以執行,就可進行上述一連串處理。
電腦800(CPU801)所執行的程式,係可記錄在例如封裝媒體等之可移除式媒體811中而提供。又,程式係可透過區域網路、網際網路、數位衛星播送這類有線或無線的傳輸媒介而提供。
在電腦中,程式係藉由將可移除式媒體811裝著至驅動機810,就可透過輸出入介面805,安裝至記憶部808。又,程式係可透過有線或無線之傳輸媒體,以通訊部809接收之,安裝至記憶部808。除此以外,程式係可事前安裝在ROM802或記憶部808中。
此外,電腦所執行的程式,係可為依照本說明書所說明之順序而在時間序列上進行處理的程式,也可平行地、或呼叫進行時等必要之時序上進行處理的程式。
此外,在本說明書中,雖然記述記錄媒體中所記錄之程式的步驟,是按照記載的順序而在時間序列上順序進行 之處理,但當然並不一定要是時間序列上的處理,亦包含平行或個別執行之處理。
又,於本說明書中,所謂的系統,係指由複數設備(裝置)所構成之裝置全體。
又,於以上說明中,亦可將以1個裝置(或處理部)做說明的構成加以分割,成為複數裝置(或處理部)而構成之。反之,亦可將以上說明中以複數裝置(或處理部)做說明的構成總結成1個裝置(或處理部)而構成之。又,對各裝置(或各處理部)之構成,當然亦可附加上述以外之構成。再者,若系統全體的構成或動作是實質上相同,則亦可使某個裝置(或處理部)之構成的一部分被包含在其他裝置(或其他處理部)之構成中。亦即,本技術係不限定於上述的實施形態,在不脫離本技術主旨的範圍內可做各種變更。
上述實施形態所述之影像編碼裝置及影像解碼裝置,係可應用於衛星播送、有線TV等之有線播送、網際網路上的配送、及藉由蜂巢基地台通訊而對終端支配送等的送訊機或是收訊機,在光碟、磁碟及快閃記憶體等之媒體中記錄影像的記錄裝置、或從這些記憶媒體中再生出影像的再生裝置等各式各樣的電子機器。以下說明4個應用例。
<7.應用例> 〔第1應用例:電視受像機〕
圖30係圖示了適用上述實施形態的電視裝置的概略 構成之一例。電視裝置900係具備:天線901、選台器902、解多工器903、解碼器904、映像訊號處理部905、顯示部906、聲音訊號處理部907、揚聲器908、外部介面部909、控制部910、使用者介面911、及匯流排912。
選台器902,係從透過天線901所接收之播送訊號中,抽出所望頻道之訊號,並將所抽出之訊號予以解調。然後,選台器902係將解調所得到之編碼位元串流,輸出至解多工器903。亦即,選台器902係將影像所被編碼而成的編碼串流予以接收,具有電視裝置900中的傳輸手段之功能。
解多工器903係從編碼位元串流中分離出視聽對象之節目的映像串流及聲音串流,將所分離之各串流,輸出至解碼器904。又,解多工器903,係從編碼位元串流中抽出EPG(Electronic Program Guide)等輔助性資料,將所抽出的資料,供給至控制部910。此外,解多工器903係當編碼位元串流是有被擾頻時,則亦可進行去擾頻。
解碼器904,係將從解多工器903所輸入的映像串流及聲音串流,予以解碼。然後,解碼器904係將解碼處理所生成之映像資料,輸出至映像訊號處理部905。又,解碼器904係將解碼處理所生成之聲音資料,輸出至聲音訊號處理部907。
映像訊號處理部905,係將從解碼器904所輸入之映像資料予以再生,在顯示部906上顯示出映像。又,映像訊號處理部905,係亦可將透過網路而供給之應用程式畫 面,顯示在顯示部906。又,映像訊號處理部905,係亦可針對映像資料,隨應於設定,而進行例如雜訊去除等之追加的處理。甚至,映像訊號處理部905係亦可生成例如選單、按鈕或游標等之GUI(Graphical User Interface)的影像,將所生成之影像重疊至輸出影像。
顯示部906,係受從映像訊號處理部905所供給之驅動訊號所驅動,在顯示裝置(例如液晶顯示器、電漿顯示器或OELD(Organic ElectroLuminescence Display)(有機EL顯示器)等)之映像面上,顯示出映像或影像。
聲音訊號處理部907,係針對從解碼器904所輸入的聲音資料,進行D/A轉換及增幅等之再生處理,使聲音從揚聲器908輸出。又,聲音訊號處理部907,係亦可針對聲音資料,進行雜訊去除等之追加的處理。
外部介面909,係為用來連接電視裝置900與外部機器或網路所需的介面。例如,透過外部介面909所接收之映像串流或聲音串流,係亦可被解碼器904所解碼。亦即,外部介面909係亦為將影像所被編碼而成的編碼串流予以接收,具有電視裝置900中的傳輸手段之功能。
控制部910係具有CPU等之處理器、以及RAM及ROM等之記憶體。記憶體係記憶著,被CPU所執行之程式、程式資料、EPG資料、及透過網路所取得之資料等。被記憶體所記憶的程式,係例如在電視裝置900啟動時被CPU讀取、執行。CPU係藉由執行程式,而隨應於從例如使用者介面911所輸入的操作訊號,來控制電視裝置900 的動作。
使用者介面911,係和控制部910連接。使用者介面911係具有例如,用來讓使用者操作電視裝置900所需的按鈕及開關、以及遙控訊號的收訊部等。使用者介面911,係偵測透過這些構成要素而由使用者所做之操作,生成操作訊號,將所生成之操作訊號,輸出至控制部910。
匯流排912,係將選台器902、解多工器903、解碼器904、映像訊號處理部905、聲音訊號處理部907、外部介面909及控制部910,彼此連接。
在如此構成的電視裝置900中,解碼器904係具有上述實施形態所述之影像解碼裝置的機能。藉此,電視裝置900上的影像解碼之際,在運動向量之解碼中,可藉由管線處理來提升處理效率。
〔第2應用例:行動電話機〕
圖31係圖示了適用上述實施形態的行動電話機的概略構成之一例。行動電話機920係具備:天線921、通訊部922、聲音編解碼器923、揚聲器924、麥克風925、攝影機部926、影像處理部927、多工分離部928、記錄再生部929、顯示部930、控制部931、操作部932、及匯流排933。
天線921係被連接至通訊部922。揚聲器924及麥克風925係被連接至聲音編解碼器923。操作部932,係被 連接至控制部931。匯流排933係將通訊部922、聲音編解碼器923、攝影機部926、影像處理部927、多工分離部928、記錄再生部929、顯示部930、及控制部931,彼此連接。
行動電話機920,係在包含語音通話模式、資料通訊模式、攝影模式及電視電話模式的各種動作模式下,進行聲音訊號之收送訊、電子郵件或影像資料之收送訊、影像之攝影、及資料之記錄等動作。
於語音通話模式中,由麥克風925所生成的類比聲音訊號,係被供給至聲音編解碼器923。聲音編解碼器923,係將類比聲音訊號轉換成聲音資料,將已被轉換之聲音資料,進行A/D轉換並壓縮。然後,聲音編解碼器923係將壓縮後的聲音資料,輸出至通訊部922。通訊部922,係將聲音資料進行編碼及調變,生成送訊訊號。然後,通訊部922係將已生成之送訊訊號,透過天線921而發送至基地台(未圖示)。又,通訊部922係將透過天線921所接收之無線訊號進行增幅及頻率轉換,取得收訊訊號。然後,通訊部922,係將收訊訊號進行解調及及而生成聲音資料,將已生成之聲音資料,輸出至聲音編解碼器923。聲音編解碼器923,係將聲音資料進行解壓縮及D/A轉換,生成類比聲音訊號。然後,聲音編解碼器923係將已生成之聲音訊號,供給至揚聲器924而輸出聲音。
又,在資料通訊模式下,例如,控制部931係隨應於使用者透過操作部932所做的操作,來生成構成電子郵件 的文字資料。又,控制部931係將文字顯示在顯示部930。又,控制部931,係隨應於透過操作部932而從使用者下達的送訊指示而生成電子郵件資料,將已生成之電子郵件資料,輸出至通訊部922。通訊部922,係將電子郵件資料進行編碼及調變,生成送訊訊號。然後,通訊部922係將已生成之送訊訊號,透過天線921而發送至基地台(未圖示)。又,通訊部922係將透過天線921所接收之無線訊號進行增幅及頻率轉換,取得收訊訊號。然後,通訊部922係將收訊訊號進行解調及解碼以復原出電子郵件資料,將已復原之電子郵件資料,輸出至控制部931。控制部931,係令顯示部930顯示出電子郵件的內容,同時,令電子郵件資料被記憶至記錄再生部929的記憶媒體。
記錄再生部929,係具有可任意讀寫的記憶媒體。例如,記憶媒體係可為RAM或快閃記憶體等之內建型的記憶媒體,亦可為硬碟、磁碟、光磁碟、光碟、USB(Unallocated Space Bitmap)記憶體、或記憶卡等之外部裝著型的記憶媒體。
又,於攝影模式中,例如,攝影機部926係拍攝被攝體而生成影像資料,將已生成之影像資料,輸出至影像處理部927。影像處理部927,係將從攝影機部926所輸入之影像資料予以編碼,使編碼串流被記憶至記錄再生部929的記憶媒體中。
又,於電視電話模式中,例如,多工分離部928係將 已被影像處理部927所編碼之映像串流、和從聲音編解碼器923所輸入之聲音串流,進行多工化,將已多工化之串流,輸出至通訊部922。通訊部922,係將串流進行編碼及調變,生成送訊訊號。然後,通訊部922係將已生成之送訊訊號,透過天線921而發送至基地台(未圖示)。又,通訊部922係將透過天線921所接收之無線訊號進行增幅及頻率轉換,取得收訊訊號。這些送訊訊號及收訊訊號中係可含有編碼位元串流。然後,通訊部922係將收訊訊號進行解調及解碼以復原出串流,將已復原之串流,輸出至多工分離部928。多工分離部928係從所被輸入之串流中,分離出映像串流及聲音串流,將映像串流輸出至影像處理部927、將聲音串流輸出至聲音編解碼器923。影像處理部927,係將映像串流予以解碼,生成映像資料。映像資料係被供給至顯示部930,藉由顯示部930而顯示出一連串之影像。聲音編解碼器923,係將聲音串流進行解壓縮及D/A轉換,生成類比聲音訊號。然後,聲音編解碼器923係將已生成之聲音訊號,供給至揚聲器924而輸出聲音。
在如此構成的行動電話機920中,影像處理部927係具有上述實施形態所述之影像編碼裝置及影像解碼裝置的機能。藉此,在行動電話機920上的影像之編碼及解碼之際,於運動向量的編碼或解碼中,可藉由管線處理來提升處理效率。
〔第3應用例:記錄再生裝置〕
圖32係圖示了適用上述實施形態的記錄再生裝置的概略構成之一例。記錄再生裝置940係例如,將所接收之播送節目的聲音資料及映像資料進行編碼,而記錄至記錄媒體。又,記錄再生裝置940係亦可,例如,將從其他裝置所取得之聲音資料及映像資料進行編碼,而記錄至記錄媒體。又,記錄再生裝置940係例如,隨應於使用者之指示,將記錄媒體中所記錄之資料,在監視器及揚聲器上進行再生。此時,記錄再生裝置940,係將聲音資料及映像資料予以解碼。
記錄再生裝置940係具備:選台器941、外部介面942、編碼器943、HDD(Hard Disk Drive)944、碟片驅動機945、選擇器946、解碼器947、OSD(On-Screen Display)948、控制部949、及使用者介面950。
選台器941,係從透過天線(未圖示)所接收之播送訊號中,抽出所望頻道之訊號,並將所抽出之訊號予以解調。然後,選台器941係將解調所得到之編碼位元串流,輸出至選擇器946。亦即,選台器941係具有記錄再生裝置940中的傳輸手段之功能。
外部介面942,係為用來連接記錄再生裝置940與外部機器或網路所需的介面。外部介面942係可為例如IEEE1394介面、網路介面、USB介面、或快閃記憶體介面等。例如,透過外部介面942所接收之映像資料及聲音資料,係被輸入至編碼器943。亦即,外部介面942係具 有記錄再生裝置940中的傳輸手段之功能。
編碼器943,係當從外部介面942所輸入之映像資料及聲音資料是未被編碼的情況下,則將映像資料及聲音資料予以編碼。然後,編碼器943係將編碼位元串流,輸出至選擇器946。
HDD944,係將映像及聲音等之內容資料所被壓縮而成的編碼位元串流、各種程式及其他資料,記錄在內部的硬碟裡。又,HDD944係在映像及聲音之再生時,將這些資料從硬碟中讀出。
碟片驅動機945,係對所裝著之記錄媒體,進行資料記錄及讀出。被裝著在碟片驅動機945的記錄媒體,係可為例如DVD碟片(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)或Blu-ray(註冊商標)碟片等。
選擇器946,係在映像及聲音之記錄時,係選擇從選台器941或編碼器943所輸入的編碼位元串流,將已選擇之編碼位元串流,輸出至HDD944或碟片驅動機945。又,選擇器946,係在映像及聲音之再生時,將從HDD944或碟片驅動機945所輸入之編碼位元串流,輸出至解碼器947。
解碼器947,係將編碼位元串流予以解碼,生成映像資料及聲音資料。然後,解碼器947係將已生成之映像資料,輸出至OSD948。又,解碼器947係將已生成之聲音資料,輸出至外部的揚聲器。
OSD948,係將從解碼器947所輸入之映像資料予以再生,顯示出映像。又,OSD948係亦可對所顯示之映像,重疊上例如選單、按鈕或游標等之GUI的影像。
控制部949係具有CPU等之處理器、以及RAM及ROM等之記憶體。記憶體係記憶著CPU所執行的程式、及程式資料等。被記憶體所記憶的程式,係例如在記錄再生裝置940啟動時被CPU讀取、執行。CPU係藉由執行程式,而隨應於從例如使用者介面950所輸入的操作訊號,來控制記錄再生裝置940的動作。
使用者介面950,係和控制部949連接。使用者介面950係具有例如,用來讓使用者操作記錄再生裝置940所需的按鈕及開關、以及遙控訊號的收訊部等。使用者介面950,係偵測透過這些構成要素而由使用者所做之操作,生成操作訊號,將所生成之操作訊號,輸出至控制部949。
在如此構成的記錄再生裝置940中,編碼器943係具有上述實施形態所述之影像編碼裝置的機能。又,解碼器947係具有上述實施形態所述之影像解碼裝置的機能。藉此,在記錄再生裝置940上的影像之編碼及解碼之際,於運動向量的編碼或解碼中,可藉由管線處理來提升處理效率。
〔第4應用例:攝像裝置〕
圖33係圖示了適用上述實施形態的攝像裝置的概略 構成之一例。攝像裝置960係拍攝被攝體而生成影像,將影像資料進行編碼,而記錄至記錄媒體。
攝像裝置960係具備:光學區塊961、攝像部962、訊號處理部963、影像處理部964、顯示部965、外部介面966、記憶體967、媒體驅動機968、OSD969、控制部970、使用者介面971、及匯流排972。
光學區塊961係被連接至攝像部962。攝像部962係被連接至訊號處理部963。顯示部965係被連接至影像處理部964。使用者介面971係被連接至控制部970。匯流排972係將影像處理部964、外部介面966、記憶體967、媒體驅動機968、OSD969、及控制部970,彼此連接。
光學區塊961,係具有對焦透鏡及光圈機構等。光學區塊961,係使被攝體的光學像,成像在攝像部962的攝像面。攝像部962,係具有CCD(Charge Coupled Device )或CMOS(Complementary Metal Oxide Semiconductor)等之影像感測器,將成像在攝像面的光學像,藉由光電轉換而轉換成電氣訊號的影像訊號。然後,攝像部962係將影像訊號,輸出至訊號處理部963。
訊號處理部963,係對從攝像部962所輸入的影像訊號進行KNEE補正、γ補正、色彩補正等各種相機訊號處理。訊號處理部963,係將攝影機訊號處理後的影像資料,輸出至影像處理部964。
影像處理部964,係將從訊號處理部963所輸入的影像資料予以編碼,生成編碼資料。然後,影像處理部 964,係將已生成之編碼資料,輸出至外部介面966或媒體驅動機968。又,影像處理部964,係將從外部介面966或媒體驅動機968所輸入之編碼資料予以解碼,生成影像資料。然後,影像處理部964係將已生成之影像資料,輸出至顯示部965。又,影像處理部964,係亦可將從訊號處理部963所輸入的影像資料,輸出至顯示部965而顯示出影像。又,影像處理部964,係亦可將從OSD969所取得之顯示用資料,重疊至對顯示部965輸出的影像上。
OSD969係生成例如選單、按鈕或游標等之GUI的影像,將所生成之影像,輸出至影像處理部964。
外部介面966,係被構成為例如USB輸出入端子。外部介面966,係例如在影像的列印時,將攝像裝置960與印表機做連接。又,外部介面966上係因應需要而連接有驅動機。驅動機上係裝著有例如磁碟或光碟等之可移除式媒體,從可移除式媒體所讀出的程式,係可被安裝至攝像裝置960。甚至,外部介面966係還可被構成為連接LAN或網際網路等之網路的網路介面。亦即,外部介面966係具有攝像裝置960中的傳輸手段之功能。
被裝著至媒體驅動機968的記錄媒體,係可為例如磁碟、光磁碟、光碟、或半導體記憶體等之可任意讀寫之可移除式媒體。又,亦可被構成為,記錄媒體是對媒體驅動機968固定裝著,例如,內建型硬碟機或SSD(Solid State Drive)這類非可移除式的記憶部。
控制部970係具有CPU等之處理器、以及RAM及 ROM等之記憶體。記憶體係記憶著CPU所執行的程式、及程式資料等。被記憶體所記憶的程式,係例如在攝像裝置960啟動時被CPU讀取、執行。CPU係藉由執行程式,而隨應於從例如使用者介面971所輸入的操作訊號,來控制攝像裝置960的動作。
使用者介面971,係和控制部970連接。使用者介面971係具有例如,用來讓使用者操作攝像裝置960所需的按鈕及開關。使用者介面971,係偵測透過這些構成要素而由使用者所做之操作,生成操作訊號,將所生成之操作訊號,輸出至控制部970。
在如此構成的攝像裝置960中,影像處理部964係具有上述實施形態所述之影像編碼裝置及影像解碼裝置的機能。藉此,在攝像裝置960上的影像之編碼及解碼之際,於運動向量的編碼或解碼中,可藉由管線處理來提升處理效率。
此外,在本說明書中係說明了,預測運動向量之索引、差分運動向量資訊、及用來識別禁止右上領域之運動向量之使用的單位所需的識別資訊等之各種資訊,係被多工化至編碼串流,從編碼側傳輸至解碼側的例子。然而,這些資訊的傳輸手法係不限定於所述例子。例如,這些資訊係亦可不被多工化至編碼位元串流,而是以與編碼位元串流建立關連之個別資料的方式而被傳輸或記錄。此處,「建立關連」之用語係意味著,位元串流中所含之影像(切片或區塊等,亦可為影像之一部分)和該當影像所對 應之資訊進行解碼時使其能夠彼此連結的意思。亦即,資訊係可有別於影像(或位元串流)而在另外的傳輸路徑上進行傳輸。又,資訊係亦可有別於影像(或位元串流)而被記錄在另外的記錄媒體(或是同一記錄媒體的其他記錄區域)。甚至,資訊和影像(或位元串流),係亦可以例如複數畫格、1畫格、或畫格內之一部分等之任意單位,而彼此關連。
以上雖然一面參照添附圖面一面詳細說明了本揭露的理想實施形態,但本揭露並非限定於所述例子。只要是本揭露所屬技術領域中具有通常知識者,自然可於申請專利範圍中所記載之技術思想的範疇內,想到各種變更例或修正例,而這些當然也都屬於本揭露的技術範圍。
此外,本技術係亦可採取如下之構成。
(1)一種影像處理裝置,其特徵為,具備:相鄰運動向量資訊設定部,係以影像之目前區塊之運動向量之解碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;和預測運動向量生成部,係使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被前記相鄰運動向量資訊設定部禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;和運動向量解碼部,係使用前記目前區塊的預測運動向 量,來解碼前記目前區塊的運動向量。
(2)如前記(1)所記載之影像處理裝置,其中,前記預測運動向量生成部係藉由管線(pipeline)來進行,對前記目前區塊的空間預測向量之生成處理、和對前記目前區塊的掃描順序之下一區塊的空間預測向量之生成處理。
(3)如前記(1)或(2)所記載之影像處理裝置,其中,前記預測運動向量生成部係使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量,來生成前記目前區塊的空間預測向量。
(4)如前記(1)或(2)所記載之影像處理裝置,其中,前記預測運動向量生成部係使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量、和以前記上部區塊為對象,而為前記第1區塊以外之第2區塊之運動向量,來生成前記目前區塊的空間預測向量。
(5)如前記(4)所記載之影像處理裝置,其中,前記第2區塊係為,以前記上部區塊為對象,而為前記第1區塊之左鄰位置的區塊。
(6)如前記(4)所記載之影像處理裝置,其中,前記第2區塊係為,以前記上部區塊為對象,而為前 記目前區塊的水平方向之長度的中央附近之位置的區塊。
(7)如前記(1)至(6)之任一項所記載之影像處理裝置,其中,前記相鄰運動向量資訊設定部,係以最大編碼單位,禁止前記右上區塊之運動向量之使用。
(8)如前記(7)所記載之影像處理裝置,其中,還具備:邊界判定部,係判定前記目前區塊之邊界是否為最大編碼單位之邊界;前記相鄰運動向量資訊設定部,係只有在被前記邊界判定部認定是最大編碼單位之邊界的情況下,禁止前記右上區塊之運動向量之使用。
(9)如前記(7)所記載之影像處理裝置,其中,前記相鄰運動向量資訊設定部係依照,用來識別是否以預測單位來禁止前記右上區塊之運動向量之使用、或是否以最大編碼單位來禁止前記右上區塊之運動向量之使用的識別資訊,來禁止前記右上區塊之運動向量之使用。
(10)一種影像處理方法,其特徵為,由影像處理裝置,以影像之目前區塊之運動向量之解碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被禁止使用之前記右上區塊之 運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;使用前記目前區塊的預測運動向量,來解碼前記目前區塊的運動向量。
(11)一種影像處理裝置,其特徵為,具備:相鄰運動向量資訊設定部,係以影像之目前區塊之運動向量之編碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;和預測運動向量生成部,係使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被前記相鄰運動向量資訊設定部禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;和運動向量編碼部,係使用前記目前區塊的預測運動向量,來編碼前記目前區塊的運動向量。
(12)如前記(11)所記載之影像處理裝置,其中,前記預測運動向量生成部係藉由管線(pipeline)來進行,對前記目前區塊的空間預測向量之生成處理、和對前記目前區塊的掃描順序之下一區塊的空間預測向量之生成處理。
(13)如前記(11)或(12)所記載之影像處理裝置,其中,前記預測運動向量生成部係使用,以前記目前區塊的 空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量,來生成前記目前區塊的空間預測向量。
(14)如前記(11)或(12)所記載之影像處理裝置,其中,前記預測運動向量生成部係使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量、和以前記上部區塊為對象,而為前記第1區塊以外之第2區塊之運動向量,來生成前記目前區塊的空間預測向量。
(15)如前記(14)所記載之影像處理裝置,其中,前記第2區塊係為,以前記上部區塊為對象,而為前記第1區塊之左鄰位置的區塊。
(16)如前記(14)所記載之影像處理裝置,其中,前記第2區塊係為,以前記上部區塊為對象,而為前記目前區塊的水平方向之長度的中央附近之位置的區塊。
(17)如前記(11)至(16)之任一項所記載之影像處理裝置,其中,前記相鄰運動向量資訊設定部,係以最大編碼單位,禁止前記右上區塊之運動向量之使用。
(18)如前記(17)所記載之影像處理裝置,其中,還具備:邊界判定部,係判定前記目前區塊之邊界是否為最大編碼單位之邊界;前記相鄰運動向量資訊設定部,係只有在被前記邊界 判定部認定是最大編碼單位之邊界的情況下,禁止前記右上區塊之運動向量之使用。
(19)如前記(17)所記載之影像處理裝置,其中,還具備:識別資訊設定部,係設定識別資訊其係用來識別,是否以預測單位來禁止前記右上區塊之運動向量之使用、或是否以最大編碼單位來禁止前記右上區塊之運動向量之使用;和傳輸部,係將已被前記識別資訊設定部所設定之識別資訊、和編碼串流,予以傳輸。
(20)一種影像處理方法,其特徵為,由影像處理裝置,以影像之目前區塊之運動向量之編碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;使用前記目前區塊的預測運動向量,來編碼前記目前區塊的運動向量。
100‧‧‧影像編碼裝置
101‧‧‧A/D轉換部
102‧‧‧畫面排序緩衝區
103‧‧‧演算部
104‧‧‧正交轉換部
105‧‧‧量化部
106‧‧‧可逆編碼部
107‧‧‧積存緩衝區
108‧‧‧逆量化部
109‧‧‧逆正交轉換部
110‧‧‧演算部
111‧‧‧去區塊濾波器
112‧‧‧畫格記憶體
113‧‧‧選擇部
114‧‧‧畫面內預測部
115‧‧‧運動預測.補償部
116‧‧‧預測影像選擇部
117‧‧‧速率控制部
121‧‧‧運動向量編碼部
122‧‧‧相鄰運動向量資訊設定部
131、131-1、131-2‧‧‧運動向量編碼部
132‧‧‧時間相鄰運動向量共用緩衝區
133‧‧‧空間相鄰運動向量共用緩衝區
141、141-1、141-2‧‧‧空間相鄰運動向量內建緩衝區
142、142-1、142-2‧‧‧候補預測運動向量生成部
143、143-1、143-2‧‧‧成本函數值算出部
144、144-1、144-2‧‧‧最佳預測運動向量決定部
155‧‧‧最佳預測運動向量決定部
200‧‧‧影像解碼裝置
201‧‧‧積存緩衝區
202‧‧‧可逆解碼部
203‧‧‧逆量化部
204‧‧‧逆正交轉換部
205‧‧‧演算部
206‧‧‧去區塊濾波器
207‧‧‧畫面排序緩衝區
208‧‧‧D/A轉換部
209‧‧‧畫格記憶體
210‧‧‧選擇部
211‧‧‧畫面內預測部
212‧‧‧運動預測.補償部
213‧‧‧選擇部
221‧‧‧運動向量解碼部
222‧‧‧相鄰運動向量資訊設定部
231、231-1、231-2‧‧‧運動向量編碼部
232‧‧‧時間相鄰運動向量共用緩衝區
233‧‧‧空間相鄰運動向量共用緩衝區
241、241-1、241-2‧‧‧預測運動向量資訊緩衝區
242、242-1、242-2‧‧‧差分運動向量資訊緩衝區
243、243-1、243-2‧‧‧預測運動向量重建部
244、244-1、244-2‧‧‧運動向量重建部
245、245-1、245-2‧‧‧空間相鄰運動向量緩衝區
600‧‧‧多視點影像編碼裝置
601‧‧‧編碼部
602‧‧‧編碼部
603‧‧‧多工化部
610‧‧‧多視點影像解碼裝置
611‧‧‧逆多工化部
612‧‧‧解碼部
613‧‧‧解碼部
620‧‧‧階層影像編碼裝置
621‧‧‧編碼部
622‧‧‧編碼部
623‧‧‧多工化部
630‧‧‧階層影像解碼裝置
631‧‧‧逆多工化部
632‧‧‧解碼部
633‧‧‧解碼部
800‧‧‧電腦
801‧‧‧CPU
802‧‧‧ROM
803‧‧‧RAM
804‧‧‧匯流排
805‧‧‧輸出入介面
806‧‧‧輸入部
807‧‧‧輸出部
808‧‧‧記憶部
809‧‧‧通訊部
810‧‧‧驅動機
811‧‧‧可移除式媒體
900‧‧‧電視裝置
901‧‧‧天線
902‧‧‧選台器
903‧‧‧解多工器
904‧‧‧解碼器
905‧‧‧映像訊號處理部
906‧‧‧顯示部
907‧‧‧聲音訊號處理部
908‧‧‧揚聲器
909‧‧‧外部介面
910‧‧‧控制部
911‧‧‧使用者介面
912‧‧‧匯流排
920‧‧‧行動電話機
921‧‧‧天線
922‧‧‧通訊部
923‧‧‧聲音編解碼器
924‧‧‧揚聲器
925‧‧‧麥克風
926‧‧‧攝影機部
927‧‧‧影像處理部
928‧‧‧多工分離部
929‧‧‧記錄再生部
930‧‧‧顯示部
931‧‧‧控制部
932‧‧‧操作部
933‧‧‧匯流排
940‧‧‧記錄再生裝置
941‧‧‧選台器
942‧‧‧外部介面
943‧‧‧編碼器
944‧‧‧HDD
945‧‧‧碟片驅動機
946‧‧‧選擇器
947‧‧‧解碼器
948‧‧‧OSD
949‧‧‧控制部
950‧‧‧使用者介面
960‧‧‧攝像裝置
961‧‧‧光學區塊
962‧‧‧攝像部
963‧‧‧訊號處理部
964‧‧‧影像處理部
965‧‧‧顯示部
966‧‧‧外部介面
967‧‧‧記憶體
968‧‧‧媒體驅動機
969‧‧‧OSD
970‧‧‧控制部
971‧‧‧使用者介面
979‧‧‧匯流排
〔圖1〕影像編碼裝置的主要構成例的區塊圖。
〔圖2〕中間值運算的說明圖。
〔圖3〕多重參照畫格的說明圖。
〔圖4〕時間性直接模式的說明圖。
〔圖5〕運動向量編碼方法的說明圖。
〔圖6〕編碼單元之構成例的說明圖。
〔圖7〕Motion Partition Merging的說明圖。
〔圖8〕先前的空間預測運動向量之生成方法的說明圖。
〔圖9〕本技術的空間預測運動向量之生成方法的說明圖。
〔圖10〕本技術的空間預測運動向量之其他生成方法的說明圖。
〔圖11〕本技術的空間預測運動向量之另一其他生成方法的說明圖。
〔圖12〕管線處理之說明所使用的PU之位置關係的圖示。
〔圖13〕管線處理的說明圖。
〔圖14〕運動向量編碼部的主要構成例的區塊圖。
〔圖15〕編碼處理之流程例的說明用流程圖。
〔圖16〕畫面間運動預測處理之流程例的說明用流程圖。
〔圖17〕預測運動向量生成處理之流程例的說明用流程圖。
〔圖18〕影像解碼裝置的主要構成例的區塊圖。
〔圖19〕運動向量解碼部的主要構成例的區塊圖。
〔圖20〕解碼處理之流程例的說明用流程圖。
〔圖21〕運動向量重建處理之流程例的說明用流程圖。
〔圖22〕預測運動向量重建處理之流程例的說明用流程圖。
〔圖23〕多視點影像編碼方式之例子的圖示。
〔圖24〕適用了本技術的多視點影像編碼裝置的主要構成例之區塊圖。
〔圖25〕適用了本技術的多視點影像解碼裝置的主要構成例之區塊圖。
〔圖26〕階層影像編碼方式之例子的圖示。
〔圖27〕適用了本技術的階層影像編碼裝置的主要構成例之區塊圖。
〔圖28〕適用了本技術的階層影像解碼裝置的主要構成例之區塊圖。
〔圖29〕電腦的主要構成例的區塊圖。
〔圖30〕電視裝置之概略構成之一例的區塊圖。
〔圖31〕行動電話機之概略構成之一例的區塊圖。
〔圖32〕記錄再生裝置之概略構成之一例的區塊圖。
〔圖33〕攝像裝置之概略構成之一例的區塊圖。
PU‧‧‧預測單元

Claims (18)

  1. 一種影像處理裝置,其特徵為,具備:相鄰運動向量資訊設定部,係以影像之目前區塊之運動向量之解碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;和預測運動向量生成部,係使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被前記相鄰運動向量資訊設定部禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;和運動向量解碼部,係使用前記目前區塊的預測運動向量,來解碼前記目前區塊的運動向量。
  2. 如請求項1所記載之影像處理裝置,其中,前記預測運動向量生成部係藉由管線(pipeline)來進行,對前記目前區塊的空間預測向量之生成處理、和對前記目前區塊的掃描順序之下一區塊的空間預測向量之生成處理。
  3. 如請求項2所記載之影像處理裝置,其中,前記預測運動向量生成部係使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量,來生成前記目前區塊的空間預測向量。
  4. 如請求項2所記載之影像處理裝置,其中, 前記預測運動向量生成部係使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量、和以前記上部區塊為對象,而為前記第1區塊以外之第2區塊之運動向量,來生成前記目前區塊的空間預測向量。
  5. 如請求項4所記載之影像處理裝置,其中,前記第2區塊係為,以前記上部區塊為對象,而為前記第1區塊之左鄰位置的區塊。
  6. 如請求項4所記載之影像處理裝置,其中,前記第2區塊係為,以前記上部區塊為對象,而為前記目前區塊的水平方向之長度的中央附近之位置的區塊。
  7. 如請求項1所記載之影像處理裝置,其中,前記相鄰運動向量資訊設定部,係以最大編碼單位,禁止前記右上區塊之運動向量之使用。
  8. 如請求項7所記載之影像處理裝置,其中,還具備:邊界判定部,係判定前記目前區塊之邊界是否為最大編碼單位之邊界;前記相鄰運動向量資訊設定部,係只有在被前記邊界判定部認定是最大編碼單位之邊界的情況下,禁止前記右上區塊之運動向量之使用。
  9. 如請求項7所記載之影像處理裝置,其中,前記相鄰運動向量資訊設定部係依照,用來識別是否以預測單位來禁止前記右上區塊之運動向量之使用、或是否以最大編碼單位來禁止前記右上區塊之運動向量之使用 的識別資訊,來禁止前記右上區塊之運動向量之使用。
  10. 一種影像處理方法,其特徵為,由影像處理裝置,進行:相鄰運動向量資訊設定步驟,係以影像之目前區塊之運動向量之解碼時所使用的預測運動向量為對象,而生成空間預測運動向量之際,禁止使用在前記目前區塊之右上相鄰位置的右上區塊之運動向量;預測運動向量生成步驟,係使用以前記目前區塊之空間性相鄰位置的空間相鄰區塊的運動向量為對象,而已被禁止使用之前記右上區塊之運動向量以外的運動向量,來生成前記目前區塊的空間預測向量;運動向量解碼步驟,係使用前記目前區塊的預測運動向量,來解碼前記目前區塊的運動向量。
  11. 如請求項10所記載之影像處理方法,其中,前記預測運動向量生成步驟係藉由管線(pipeline)來進行,對前記目前區塊的空間預測向量之生成處理、和對前記目前區塊的掃描順序之下一區塊的空間預測向量之生成處理。
  12. 如請求項11所記載之影像處理方法,其中,前記預測運動向量生成步驟係使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量,來生成前記目前區塊的空間預測向量。
  13. 如請求項11所記載之影像處理方法,其中, 前記預測運動向量生成步驟係使用,以前記目前區塊的空間相鄰區塊且為在前記目前區塊之上部以面而銜接之上部區塊為對象,而位於右端的第1區塊之運動向量、和以前記上部區塊為對象,而為前記第1區塊以外之第2區塊之運動向量,來生成前記目前區塊的空間預測向量。
  14. 如請求項13所記載之影像處理方法,其中,前記第2區塊係為,以前記上部區塊為對象,而為前記第1區塊之左鄰位置的區塊。
  15. 如請求項13所記載之影像處理方法,其中,前記第2區塊係為,以前記上部區塊為對象,而為前記目前區塊的水平方向之長度的中央附近之位置的區塊。
  16. 如請求項10所記載之影像處理方法,其中,前記相鄰運動向量資訊設定步驟,係以最大編碼單位,禁止前記右上區塊之運動向量之使用。
  17. 如請求項16所記載之影像處理方法,其中,還具備:邊界判定步驟,係判定前記目前區塊之邊界是否為最大編碼單位之邊界;前記相鄰運動向量資訊設定步驟,係只有在被前記邊界判定步驟認定是最大編碼單位之邊界的情況下,禁止前記右上區塊之運動向量之使用。
  18. 如請求項16所記載之影像處理方法,其中,前記相鄰運動向量資訊設定步驟係依照,用來識別是否以預測單位來禁止前記右上區塊之運動向量之使用、或是否以最大編碼單位來禁止前記右上區塊之運動向量之使 用的識別資訊,來禁止前記右上區塊之運動向量之使用。
TW101139090A 2011-11-10 2012-10-23 Image processing apparatus and method TWI523497B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011246543 2011-11-10
JP2011247489 2011-11-11

Publications (2)

Publication Number Publication Date
TW201330630A TW201330630A (zh) 2013-07-16
TWI523497B true TWI523497B (zh) 2016-02-21

Family

ID=48289933

Family Applications (2)

Application Number Title Priority Date Filing Date
TW101139090A TWI523497B (zh) 2011-11-10 2012-10-23 Image processing apparatus and method
TW104127501A TWI580264B (zh) 2011-11-10 2012-10-23 Image processing apparatus and method

Family Applications After (1)

Application Number Title Priority Date Filing Date
TW104127501A TWI580264B (zh) 2011-11-10 2012-10-23 Image processing apparatus and method

Country Status (7)

Country Link
US (3) US10616599B2 (zh)
JP (1) JP5936081B2 (zh)
CN (3) CN108184125B (zh)
MY (1) MY170805A (zh)
SG (3) SG10201507080RA (zh)
TW (2) TWI523497B (zh)
WO (1) WO2013069557A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6300114B2 (ja) * 2014-08-06 2018-03-28 パナソニックIpマネジメント株式会社 送信方法、受信方法、送信装置及び受信装置
JP6078138B1 (ja) 2015-10-30 2017-02-08 Nttエレクトロニクス株式会社 動画像符号化装置及び動画像符号化方法
MX2019003553A (es) * 2016-09-30 2019-08-12 Huawei Tech Co Ltd Metodo de codificacion de video, metodo de decodificacion de video y terminal.
CN109672894B (zh) * 2017-10-13 2022-03-08 腾讯科技(深圳)有限公司 一种帧间预测方法、装置及存储介质
TWI704803B (zh) 2018-06-29 2020-09-11 大陸商北京字節跳動網絡技術有限公司 運動信息共享的限制
JP2021002722A (ja) * 2019-06-20 2021-01-07 キヤノン株式会社 画像符号化装置及び画像復号装置及び方法及びプログラム
JP2021002723A (ja) * 2019-06-20 2021-01-07 キヤノン株式会社 画像符号化装置及び画像復号装置及び方法及びプログラム

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW398131B (en) * 1997-06-20 2000-07-11 Matsushita Electric Ind Co Ltd The image process method, the image process device and the data memory medium
US6788811B1 (en) * 1999-05-10 2004-09-07 Ricoh Company, Ltd. Coding apparatus, decoding apparatus, coding method, decoding method, amd computer-readable recording medium for executing the methods
US6167092A (en) * 1999-08-12 2000-12-26 Packetvideo Corporation Method and device for variable complexity decoding of motion-compensated block-based compressed digital video
US6842483B1 (en) * 2000-09-11 2005-01-11 The Hong Kong University Of Science And Technology Device, method and digital video encoder for block-matching motion estimation
AUPR192800A0 (en) * 2000-12-06 2001-01-04 Canon Kabushiki Kaisha Digital image compression and decompression
US7117504B2 (en) * 2001-07-10 2006-10-03 Microsoft Corporation Application program interface that enables communication for a network software platform
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
KR100729270B1 (ko) * 2002-05-02 2007-06-15 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. 이미지 및/또는 비디오 인코더 및 디코더에서의변환계수를 인코딩하는 방법 및 장치, 및 이에 대응하는컴퓨터 프로그램 및 컴퓨터로 읽을 수 있는 저장매체
JP3707456B2 (ja) * 2002-08-12 2005-10-19 ヤマハ株式会社 画像データ圧縮方法および画像データ伸張装置並びに伸張プログラム
JP4196640B2 (ja) * 2002-10-21 2008-12-17 株式会社日立製作所 データ変換方法
WO2004111789A2 (en) * 2003-06-10 2004-12-23 Rensselaer Polytechnic Institute A method for processing i-blocks used with motion compensated temporal filtering
US8107535B2 (en) * 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
US7653133B2 (en) * 2003-06-10 2010-01-26 Rensselaer Polytechnic Institute (Rpi) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
TWI226803B (en) * 2003-07-30 2005-01-11 Mediatek Inc Method for using memory to store motion vectors of decoded macroblocks
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7146475B2 (en) * 2003-11-18 2006-12-05 Mainstar Software Corporation Data set level mirroring to accomplish a volume merge/migrate in a digital data storage system
US20050144517A1 (en) * 2003-12-30 2005-06-30 Matsushita Electric Industrial Co., Ltd. Systems and methods for bypassing logical to physical address translation and maintaining data zone information in rotatable storage media
US7782951B2 (en) * 2004-05-13 2010-08-24 Ittiam Systems (P) Ltd. Fast motion-estimation scheme
US7298248B2 (en) * 2004-07-19 2007-11-20 K40 Electronics Communication system for vehicles
US7978770B2 (en) * 2004-07-20 2011-07-12 Qualcomm, Incorporated Method and apparatus for motion vector prediction in temporal video compression
US7590589B2 (en) * 2004-09-10 2009-09-15 Hoffberg Steven M Game theoretic prioritization scheme for mobile ad hoc networks permitting hierarchal deference
US20060062304A1 (en) * 2004-09-17 2006-03-23 Shih-Chang Hsia Apparatus and method for error concealment
US7660354B2 (en) * 2005-05-11 2010-02-09 Fang Shi Temporal error concealment for bi-directionally predicted frames
US8761259B2 (en) * 2005-09-22 2014-06-24 Qualcomm Incorporated Multi-dimensional neighboring block prediction for video encoding
WO2007063472A2 (en) * 2005-11-30 2007-06-07 Koninklijke Philips Electronics N.V. Encoding method and apparatus applying coefficient reordering
JP2007189657A (ja) * 2005-12-16 2007-07-26 Fuji Xerox Co Ltd 画像評価装置、画像評価方法及びプログラム
US8446956B2 (en) * 2006-01-05 2013-05-21 Thomson Licensing Inter-layer motion prediction method using resampling
US8582905B2 (en) * 2006-01-31 2013-11-12 Qualcomm Incorporated Methods and systems for rate control within an encoding device
US20110107369A1 (en) * 2006-03-28 2011-05-05 O'brien Christopher J System and method for enabling social browsing of networked time-based media
JP4182442B2 (ja) * 2006-04-27 2008-11-19 ソニー株式会社 画像データの処理装置、画像データの処理方法、画像データの処理方法のプログラム及び画像データの処理方法のプログラムを記録した記録媒体
US8238442B2 (en) * 2006-08-25 2012-08-07 Sony Computer Entertainment Inc. Methods and apparatus for concealing corrupted blocks of video data
US8976870B1 (en) * 2006-08-30 2015-03-10 Geo Semiconductor Inc. Block and mode reordering to facilitate parallel intra prediction and motion vector prediction
US8345756B2 (en) * 2006-08-31 2013-01-01 Ati Technologies, Inc. Method and system for parallel intra-prediction decoding of video data
US20080056349A1 (en) * 2006-08-31 2008-03-06 Ati Technologies, Inc. Method and system for motion compensation method in decoding of video data
US20080056350A1 (en) * 2006-08-31 2008-03-06 Ati Technologies, Inc. Method and system for deblocking in decoding of video data
US9049461B2 (en) * 2006-08-31 2015-06-02 Ati Technologies Ulc Method and system for inter-prediction in decoding of video data
JP2008109632A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 動きベクトル検出装置及びその方法
US20080250120A1 (en) * 2007-02-22 2008-10-09 Colin Kennedy Mick Method and apparatus for distributing a multimedia file to a public kiosk across a network
US8160149B2 (en) * 2007-04-03 2012-04-17 Gary Demos Flowfield motion compensation for video compression
US8879636B2 (en) * 2007-05-25 2014-11-04 Synopsys, Inc. Adaptive video encoding apparatus and methods
US8208558B2 (en) * 2007-06-11 2012-06-26 Texas Instruments Incorporated Transform domain fast mode search for spatial prediction in advanced video coding
US8619853B2 (en) * 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
US20080317364A1 (en) * 2007-06-25 2008-12-25 Augusta Technology, Inc. Methods for determining neighboring locations for partitions of a video stream
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8265144B2 (en) * 2007-06-30 2012-09-11 Microsoft Corporation Innovations in video decoder implementations
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
EP2018070A1 (en) * 2007-07-17 2009-01-21 Thomson Licensing Method for processing images and the corresponding electronic device
US8908765B2 (en) * 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US8204125B2 (en) * 2007-11-28 2012-06-19 Tsai Sheng Group Llc Fast motion estimation in scalable video coding
CN100579231C (zh) * 2007-12-18 2010-01-06 北京中星微电子有限公司 一种运动矢量预测方法及装置
CN101466036A (zh) * 2007-12-21 2009-06-24 北京中电华大电子设计有限责任公司 基于avs的运动矢量预测流水并行设计方法
US8711948B2 (en) * 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
US20090316788A1 (en) * 2008-06-23 2009-12-24 Thomson Licensing Video coding method with non-compressed mode and device implementing the method
US8320692B2 (en) * 2008-07-01 2012-11-27 France Telecom Image encoding method and device implementing an improved prediction, corresponding decoding method and device, signal and computer programs
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
US8213503B2 (en) * 2008-09-05 2012-07-03 Microsoft Corporation Skip modes for inter-layer residual video coding and decoding
CN101677406B (zh) * 2008-09-19 2011-04-20 华为技术有限公司 一种视频编解码的方法及装置
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
US8660176B2 (en) * 2008-09-26 2014-02-25 Qualcomm Incorporated Resolving geometric relationships among video data units
US8634457B2 (en) * 2008-09-26 2014-01-21 Qualcomm Incorporated Determining availability of video data units
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
US8660193B2 (en) * 2009-01-12 2014-02-25 Maxim Integrated Products, Inc. Parallel, pipelined, integrated-circuit implementation of a computational engine
JP5238523B2 (ja) * 2009-01-13 2013-07-17 株式会社日立国際電気 動画像符号化装置、動画像復号化装置、および、動画像復号化方法
TWI401972B (zh) * 2009-06-23 2013-07-11 Acer Inc 時間性錯誤隱藏方法
US20110002387A1 (en) * 2009-07-03 2011-01-06 Yi-Jen Chiu Techniques for motion estimation
JP5233897B2 (ja) * 2009-07-31 2013-07-10 ソニー株式会社 画像処理装置および方法
US20110176611A1 (en) * 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
US20120300850A1 (en) * 2010-02-02 2012-11-29 Alex Chungku Yie Image encoding/decoding apparatus and method
US8995527B2 (en) * 2010-02-19 2015-03-31 Qualcomm Incorporated Block type signalling in video coding
JP5882984B2 (ja) * 2010-03-16 2016-03-09 トムソン ライセンシングThomson Licensing ビデオ符号化およびビデオ復号化のための暗示的適応型動きベクトル予測子選択の方法および装置
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US8942282B2 (en) * 2010-04-12 2015-01-27 Qualcomm Incorporated Variable length coding of coded block pattern (CBP) in video compression
US8861617B2 (en) * 2010-10-05 2014-10-14 Mediatek Inc Method and apparatus of region-based adaptive loop filtering
US9635382B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for determining a motion vector
CN102148990B (zh) * 2011-04-28 2012-10-10 北京大学 一种运动矢量预测装置和方法
CN102158709B (zh) * 2011-05-27 2012-07-11 山东大学 一种解码端可推导的运动补偿预测方法
CN110139108B (zh) * 2011-11-11 2023-07-18 Ge视频压缩有限责任公司 用于将多视点信号编码到多视点数据流中的装置及方法
WO2013068548A2 (en) * 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
CN104396249B (zh) * 2012-06-20 2017-12-26 寰发股份有限公司 可伸缩视频编码的层间预测的方法和设备
JP6788346B2 (ja) * 2012-10-01 2020-11-25 ジーイー ビデオ コンプレッション エルエルシー ベース層からの予測のための副ブロックの副分割の派生を使用するスケーラブルビデオ符号化

Also Published As

Publication number Publication date
CN103907352B (zh) 2018-03-23
TWI580264B (zh) 2017-04-21
WO2013069557A1 (ja) 2013-05-16
TW201330630A (zh) 2013-07-16
US20190246137A1 (en) 2019-08-08
SG10201507085SA (en) 2015-10-29
TW201545546A (zh) 2015-12-01
JP5936081B2 (ja) 2016-06-15
US20140233654A1 (en) 2014-08-21
SG10201507080RA (en) 2015-10-29
US20230247217A1 (en) 2023-08-03
CN108184125A (zh) 2018-06-19
JPWO2013069557A1 (ja) 2015-04-02
CN108200438B (zh) 2022-01-07
US10616599B2 (en) 2020-04-07
MY170805A (en) 2019-08-30
SG11201402018SA (en) 2014-10-30
CN108200438A (zh) 2018-06-22
CN103907352A (zh) 2014-07-02
CN108184125B (zh) 2022-03-08

Similar Documents

Publication Publication Date Title
US10110920B2 (en) Image processing apparatus and method
JP5979405B2 (ja) 画像処理装置および方法
TWI592011B (zh) Image processing device and method
TWI523497B (zh) Image processing apparatus and method
US9961366B2 (en) Image processing apparatus and method that prohibits bi-prediction based on block size
WO2013002109A1 (ja) 画像処理装置および方法
WO2013058363A1 (ja) 画像処理装置および方法
TW201415898A (zh) 影像處理裝置及方法
WO2013084775A1 (ja) 画像処理装置および方法
WO2012173022A1 (ja) 画像処理装置および方法
WO2013054751A1 (ja) 画像処理装置および方法
JP6768208B2 (ja) 画像処理装置および方法
JP2013012860A (ja) 画像処理装置および方法
JP2016201831A (ja) 画像処理装置および方法