KR101368943B1 - 저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하는 방법, 및 이 방법을 구현하는코딩 및 디코딩하는 장치 - Google Patents

저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하는 방법, 및 이 방법을 구현하는코딩 및 디코딩하는 장치 Download PDF

Info

Publication number
KR101368943B1
KR101368943B1 KR1020097000503A KR20097000503A KR101368943B1 KR 101368943 B1 KR101368943 B1 KR 101368943B1 KR 1020097000503 A KR1020097000503 A KR 1020097000503A KR 20097000503 A KR20097000503 A KR 20097000503A KR 101368943 B1 KR101368943 B1 KR 101368943B1
Authority
KR
South Korea
Prior art keywords
macroblock
base
motion data
low resolution
picture
Prior art date
Application number
KR1020097000503A
Other languages
English (en)
Other versions
KR20090037886A (ko
Inventor
에도와르드 프랑스와즈
빈센트 보트리우
제로미 비에론
크리스토프 체방스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20090037886A publication Critical patent/KR20090037886A/ko
Application granted granted Critical
Publication of KR101368943B1 publication Critical patent/KR101368943B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

본 발명은 기저 계층 매크로블럭으로 불리는 저 해상도 화상의 매크로블럭의 모션 데이터로부터 상위 계층 매크로블럭으로 불리는 고 해상도 화상의 매크로블럭을 위한 모션 데이터를 도출하는 방법에 관한 것이다. 이 방법은 다음 단계, 즉 - 상기 상위 계층 매크로블럭을 중첩하지 않는 기본 블럭으로 분할하는 단계(2100); - 각 기본 블럭에 대하여, 상기 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라, 상기 고 해상도 화상 내의 상기 기본 블럭 위치로부터 상기 저 해상도 화상 내의 중간 위치를 계산하는 단계(2200); - 상기 가상 기저 계층 위치에 위치된 픽셀을 포함하는, base_MB로 불리는 기저 계층 매크로블럭을 식별하는 단계(2300); - 상기 base_MB 및 상위 계층 매크로블럭 및, 상기 고 및 저 해상도 화상의 코딩 모드에 따라 상기 가상 기저 계층 위로부터 상기 저 해상도 화상 내의 최종 위치를 계산하는 단계(2400); - 최종 위치에 위치된 픽셀을 포함하는, real_base_MB로 불리는 기저 계층 매크로블럭을 식별하는 단계(2500); 및 - 상위 계층 매크로블럭에 대하여, 상기 식별된 real_base_MB의 모션 데이터로부터 모션 데이터를 도출하는 단계(2600)를 포함한다.
매크로블럭, 코딩, 계층, 화상, 해상도, 모션

Description

저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하는 방법, 및 이 방법을 구현하는 코딩 및 디코딩하는 장치{METHOD FOR DERIVING MOTION DATA FOR HIGH RESOLUTION PICTURES FROM MOTION DATA OF LOW RESOLUTION PICTURES AND CODING AND DECODING DEVICES IMPLEMENTING SAID METHOD}
본 발명은 소위 기저 계층 매크로블럭으로 불리는 저 해상도의 적어도 하나의 매크로블럭과 연관된 모션 데이터로부터 하이 계층 매크로블럭으로 불리는 고 해상도 화상의 적어도 하나의 매크로블럭을 위한 모션 데이터를 도출하는 방법에 관한 것이다. 또한 본 발명은 상기 방법을 구현하는 코딩 및 디코딩 디바이스에 대한 것이다.
종래의 조정가능한 계층적 코딩 방법은 정보가 다른 해상도 및/또는 품질 레벨로 디코딩될 수 있도록 계층적으로 이 정보를 인코딩하는 것을 허용한다. 조정가능한 코딩 디바이스에 의해 발생된 데이터 스트림은 따라서 수개 계층으로 분할로 되는데, 즉 기저 계층 및 하나 이상의 향상(enhancement) 계층으로 분할된다. 이들 디바이스는 가변적인 송신 상태(대역폭, 에러율....) 및 수신 디바이스(CPU, 재생 디바이스의 특성)에 고유한 데이터 스트림을 적용하는 것을 허용한다. 공간적으로 조정가능한 계층적 인코딩(또는 디코딩) 방법은 소위 기저 계층 화상(BL 화상) 이라 불리는 저 해상도 화상에 관련한 기저 계층이라고 하는 데이터의 제 1 부분을 인코딩(또는 디코딩)하고, 이 기저 계층으로부터 또한 상위 계층 화상(HL 화상) 또는 향상 계층 화상이라 불리는 고 해상도에 관련한 향상 계층이라 불리는 적어도 또 다른 데이터 부분을 인코딩(또는 디코딩)한다. 향상 계층에 관련한 모션 데이터는 가능하게는 계층간 예측 방법 또는 계층간 계승 방법이라고 하는 방법에 의해 기저 계층에 관한 모션 데이터로부터 계승된다(즉 도출된다). 그러므로 고 해상도 화상의 각 매크로블럭은 종래의 공간적 또는 시간적 예측 모드(예를 들면, 인트라 예측, 쌍방향 예측 모드, 직접 예측 모드, 순방향/역방향 예측) 또는 계층간 예측 모드에 따라 예측된다. 전자의 경우에서, 고 해상도 매크로블럭에 연관된 모션 데이터는 저 또는 고 해상도 화상이 어떤 포맷이든, 즉 순차 주사 방식(progressive) 또는 비월 주사 방식 이든 저 해상도 화상의 매크로블럭과 연관된 모션 데이터(또한 모션 정보로 불림)로부터 도출 또는 계승되어야 한다. 이점에 관해서, "모션 데이터"라는 표현은 모션 벡터뿐만 아니라 더 일반적으로, 상기 매크로블럭을 수개 서브블럭으로 분할하기 위해 고 해상도 화상의 픽셀의 매크로블럭/블럭에 연관된 분할하는 패턴과 같은 코딩 정보, 상기 블럭에 연관된 코딩 모드 및 상기 블럭을 예측하기 위해 사용된 화상을 참고하는 것을 허용하는 일부 블럭에 연관된 화상 기준 지수를 포함한다.
본 발명은 이들 단점 중 적어도 하나를 완화하는 것을 목적으로 한다. 특히, 본 발명은 기저 계층 매크로블럭으로 불리는 저 해상도 화상의 매크로블럭과 연관된 모션 데이터로부터, 상위 계층 매크로블럭으로 불리는 고 해상도 화상의 적어도 하나의 매크로블럭을 위한 모션 데이터를 도출하는 방법에 관한 것으로서, 프레임 모드 및 필드 모드 중 매크로블럭 코딩 모드는 각 매크로블럭과 연관되고, 화상 코딩 모드는 상기 고 해상도 화상 및 상기 저 해상도 화상과 연관된다. 이 방법은, 다음 단계,
- 상기 상위 계층 매크로블럭을 중첩하지 않는 기본 블럭으로 분할하는 단계;
- 각 기본 블럭에 대하여, 상기 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라, 상기 고 해상도 화상 내의 상기 기본 블럭 위치로부터 가상 기저 계층 위치(vbl_pos)로 불리는 상기 저 해상도 화상 내의 중간 위치를 계산하는 단계;
- 각 기본 블럭에 대하여, 상기 가상 기저 계층 위치에 위치된 픽셀을 포함하는, base_MB로 불리는 기저 계층 매크로블럭을 식별하는 단계;
- 각 기본 블럭에 대하여, 상기 base_MB 및 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라 상기 가상 기저 계층 위로부터 실(real) 기저 계층 위치로 불리는 상기 저 해상도 화상 내의 최종 위치를 계산하는 단계;
- 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는 real_base_MB로 불리는 기저 계층 매크로블럭을 식별하는 단계; 및
- 각 기본 블럭을 위하여 상기 식별된 기저 계층 매크로블럭(real_base_MB)의 모션 데이터로부터 각 상기 상위 계층 매크로블럭을 위한 모션 데이터를 도출하는 단계를 포함한다.
바람직한 실시예에 따르면, 기저 계층 매크로블럭은 파티션되고, 모션 데이터는 이 파티션 각각과 연관된다. 상기 방법은, 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는, real_base_MB로 불리는, 기저 계층 매크로블럭을 식별하는 단계 이후, 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는 상기 real_base_MB의 파티션(mbPartldxBase)을 식별하는 단계를 추가로 포함한다.
바람직하게는, 상기 상위 계층 매크로블럭을 위한 모션 데이터를 도출하는 단계는,
- 상기 식별된 기저 계층 매크로블럭(real_base_MB) 및 각 기본 블럭을 위하여 식별된 상기 기저 계층 매크로블럭(real_base_MB)을 피티션하는 단계에 따라 상기 상위 계층 매크로블럭을 파티션하는 단계; 및
- 각 기본 블럭에 대하여 상기 식별된 기저 계층 매크로블럭(real_base_MB)의 모션 데이터로부터 상기 상위 계층 매크로블럭의 각 파티션을 위한 모션 벡터를 도출하는 단계를 포함한다.
바람직한 실시예에 따라, 상위 계층 매크로블럭은 16x16 필셀의 블럭이고, 여기서 각 기본 블럭은 4x4 픽셀의 블럭이다.
유리하게는, 이 방법은 비디오 신호를 코딩하는 처리의 일부가 되고, 비디오 신호를 디코딩하는 처리의 일부가 된다.
또한, 본 발명은, 일련의 고 해상도 화상 및 일련의 저 해상도 화상을 코딩하는 디바이스에 관한 것으로서, 각 화상은 중첩없는 매크로블럭으로 분할되고, 프레임 모드 및 필드 모드 중 매크로블럭 코딩 모드는 각 매크로블럭과 연관되며, 화상 코딩 모드는 상기 고 해상도 화상 및 상기 저 해상도 화상과 연관된다. 이 코딩 디바이스는,
- 상기 저 해상도 화상을 코딩하고, 상기 저 해상도 화상의 매크로블럭을 위한 모션 데이터 및 기저 계층 데이터 스트림을 생성하는, 제 1 코딩 수단;
- 저 해상도 매크로블럭으로 불리는 저 해상도 화상의 매크로블럭의 모션 데이터로부터, 고 해상도 매크로블럭으로 불리는 고 해상도 화상의 적어도 하나의 매크로블럭을 위한 모션 데이터를 도출하는 계승 수단; 및
- 상기 도출된 모션 데이터를 이용하여 상기 고 해상도 화상을 코딩하고, 향상 계층 데이터 스트림을 생성하는 제 2 코딩 수단을 포함한다.
또한, 본 발명은 적어도 일련의 고 해상도 화상을 디코딩하는 디바이스에 관한 것으로서, 상기 코딩된 화상은 데이터 스트림 형태로 발생하고, 각 화상은 중첩없는 매크로블럭으로 분할되며, 프레임 모드 및 필드 모드 중 매크로블럭 코딩 모드는 각 매크로블럭과 연관되며, 화상 코딩 모드는 상기 고 해상도 화상 및 상기 저 해상도 화상과 연관된다. 이 디코딩 디바이스는,
- 상기 저 해상도 화상의 매크로블럭을 위하여 저 해상도 화상 및 모션 데이터를 생성하도록 상기 데이터 스트림의 적어도 제 1 부분을 디코딩하는 제 1 디코딩 수단;
- 저 해상도 화상의 매크로블럭의 모션 데이터로부터 고 해상도 화상의 적어도 하나의 매크로블럭을 위한 모션 데이터를 도출하는 계승 수단; 및
- 고 해상도 화상을 생성하기 위해 상기 도출된 모션 데이터를 이용하여 상기 데이터 스트림의 적어도 제 2 부분을 디코딩하는 제 2 디코딩 수단을 포함한다.
본 발명의 중요한 특징에 따르면, 코딩 및 디코딩 디바이스의 계승 수단은,
- 상기 상위 계층 매크로블럭을 중첩하지 않는 기본 블럭으로 분할하는 수단;
- 각 기본 블럭에 대하여, 상기 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라, 상기 고 해상도 화상 내의 상기 기본 블럭 위치로부터 가상 기저 계층 위치(vbl_pos)로 불리는 상기 저 해상도 화상 내의 중간 위치를 계산하는 수단;
- 각 기본 블럭에 대하여, 상기 가상 기저 계층 위치에 위치된 픽셀을 포함하는, base_BM로 불리는 기저 계층 매크로블럭을 식별하는 수단;
- 각 기본 블럭에 대하여, 상기 base_MB 및 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라 상기 가상 기저 계층 위로부터 실 기저 계층 위치로 불리는 상기 저 해상도 화상 내의 최종 위치를 계산하는 수단;
- 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는 real_base_MB로 불리는 기저 계층 매크로블럭을 식별하는 수단; 및
- 각 기본 블럭을 위하여 상기 식별된 기저 계층 매크로블럭(real_base_MB)의 모션 데이터로부터 각 상기 상위 계층 매크로블럭을 위한 모션 데이터를 도출하는 수단을 포함한다.
바람직하게는, 제 1 코딩 수단은 MPEG-4 AVC 비디오 인코더이다.
유리하게는, 코딩 디바이스는 기저 계층 데이터 스트림과 향상 계층 데이터 스트림을 단일 데이터 스트림으로 결합하기 위한 수단을 추가로 포함한다.
유리하게는,제 1 디코딩하는 수단은 MPEG-4 AVC 비디오 디코더인이다.
본 발명의 다른 특징 및 이점은 그 실시예 중 일부의 다음 설명으로 나타나게 될 것이며, 이 설명은 도면과 관련된다.
도 1은 수직으로 위치되고, 프레임 모드(본 도면의 좌측부) 또는 필드 모드(본 도면의 우측부)로 코딩된 한 쌍의 매크로블럭을 묘사하는 도면.
도 2는 본 발명에 따른 방법의 흐름도를 묘사하는 도면.
도 3은 소정의 상위 계층 매크로블럭을 위한 모션 데이터 도출 예를 묘사하는 도면.
도 4는 본 발명에 따른 비디오 신호를 코딩하는 코딩 디바이스를 묘사하는 도면.
도 5는 본 발명에 따른 비디오 신호를 디코딩하는 디코딩 디바이스를 묘사하는 도면.
"Scalable Video Coding - Joint Draft 5"라는 명칭이 붙고 결과적으로 JSVM5로 참조되는 ISO/IEC MPEG & ITU-T VCEG로부터의 JVT-R202 문서에서 JVT(MPEG & ITU)에 의해 현재 정의된 SVC 표준에서, 공간적 조정 가능성(scalability)은 순차 주사 방식의 제재에 대해서만 고려된다. 2개(또는 그 이상)의 연속적인 공간 계층(기저 계층 및 향상 계층(들)) 사이의 모션 계층간 예측은 순차 주사 방식 비디오 시퀀스의 경우에만 해소된다. 본 발명은 비월 주사 방식/순차 주사 방식 조정 가능성의 임의 조합을 지원하기 위해 이들 계층간 예측 방법을 확장하는 것을 제안한다. 많은 비디오 코딩 표준에 따르면, 다른 시점에서 포획된 하단 필드와 섞이는 상단 필드를 포함하는 비월 주사 방식 화상은 2개 필드 화상로서 코딩되는데(필드 화상 모드), 즉 화상의 2개 필드가 별개로 코딩되며, 또는 프레임 화상으로서 코딩되는데(프레임 화상 모드), 즉 화상이 단일 프레임으로서 코딩된다. "Text of 14496-2 Third Edition"으로 명칭된 ISO/IEC JTC 1/SC 29/WG 11 N5546내에 기술된 MPEG-4 AVC는 이 결정이 전체 화상에 독립적으로 또는 매 2개의 수직 매크로블럭쌍에 대해 독립적으로 만들어지는 것을 허용한다. 이 결정이 화상 레벨에서 이루어지는 경우, 이는 PAFF 코딩(PAFF는 Picture Adaptative Frame/Field를 나타냄)으로 불리고, 이 결정이 매크로블럭쌍 레벨에서 이루어지는 경우, 이는 MBAFF(Macroblock Adaptive Frame/Field)로 불린다. 더 정확하게는, MPEG-4 AVC에 따르면, 비월 주사 방식 화상이 프레임 화상으로서 인코딩되고, 만일 MBAFF가 허용된다면, 수직 매크로블럭(MB)의 각 쌍은 비월 주사 방식으로서 인코딩될 수 있는데, 즉 그 쌍의 MB는 필드 모드(도 1의 우측부)에서 인코딩되거나, 또는 순차 주사 방식으로서, 그 쌍의 MB는 프레임 모드(도 1의 좌측부)에서 인코딩된다. 도 1에 관 해, 회색선은 홀수선인, 즉 화상의 백색선과 섞이는 짝수선을 나타낸다. 순차 주사 방식 화상은 항상 프레임 화상으로 인코딩된다. 화상의 코딩 모드는 상기 화상이 프레임 또는 필드 코딩되는지를 지정하고, 더욱이 이 화상이 프레임 코딩되는지 MBAFF가 허용되는지를 지정한다.
본 발명에 따른 방법은 어떤 고 및 저 해상도 시퀀스의 포맷(비월 주사 방식 또는 순차 주사 방식)이라도, 저 해상도 화상의 매크로블럭(또한 Base Layer MacroBlock으로 불리며 BL MB로 표기됨)과 연관된 모션 데이터로부터 고 해상도 화상의 적어도 하나의 매크로블럭(또한 High Layer MacroBlock으로 불리며 HL MB로 표기됨)을 위한 모션 데이터를 직접 도출하는 것을 허용한다.
BL MB(들)로부터 적어도 하나의 HL MB를 위한 모션 데이터를 도출하는 방법은 현재의 HL MB에 대하여 도 2를 참조하여 이하에서 기술된다. 도 2에서, 표현된 박스는 순전히 기능적 실체이며, 이는 반드시 물리적으로 분리된 실체에 대응하는 것은 아니다. 즉, 이들은 소프트웨어 형태로 개발될 수 있거나, 또는 하나 또는 수개의 집적 회로로 구현될 수 있다. 도 3은 현재 HL MB을 위한 이러한 도출의 예를 묘사한다. 유리하게는, 이 방법에 따르면, HL MB를 위한 모션 데이터는 BL MB의 모션 데이터로부터 직접 도출되는데, 즉 어떤 모션 데이터도 명백하게 가상의 기저 계층 매크로블럭(또한 VBL MB로 알려짐)과 같은 중간 매크로블럭을 위해 도출되지 않는다. 이는 전체 프로세스를 상당하게도 단순화시킨다. 실제로, 그 자신의 모션 데이터를 도출하기에 앞서 현재 HL MB와 관련된 중간 MB를 위한 모션 데이터를 도출하는 것이 더 이상 요구되지 않는다. 유리하게는, 이 방법은 다른 이웃하는 HL MB와 연관된 동일한 VBL MB를 위한 모션 데이터를 수회 도출하는 것을 피하게 한다.
이 방법에 따르면, 현재 HL MB는 도 3에 기술된 바와 같이 상위 계층 기초 블럭(elem_blk)으로 먼저 분할된다(단계(2100)).
이후, 이 방법은 위치(blk_x, blk_y)(픽셀 단위임)에서 각 블럭(elem_blk)에 대하여, 다음과 같이 가상 기저 계층 위치 vbl_pos=(vbl_x, vbl_y)를 계산하는 단계를 포함한다(단계(2200)).
vbl_x = blk_x*wbase/wenh; 및
vbl_y = 오프셋 + 인자 * (y1 * hb / he)
여기서, 오프셋, 인자 및 hb는 다음과 같이 정의된 파라메터이다.
- 다음 2개의 조건, 즉,
Figure 112009001450205-pct00001
현재 HL MB는 필드 매크로블럭이고, 기저 계층 화상은 매크로블럭 적응 프레임 필드(MBAFF) 모드에서 인코딩되거나, 또는
Figure 112009001450205-pct00002
현재 HL MB는 필드 매크로블럭이고, 기저 계층 화상은 순차 주사 방식이고 henh < 2*hbase, 중, 하나가 참이면,
인자 = 2이고, hb = hbase/2이며, 만일 상위 계층 매크로블럭이 상단(TOP) 매크로블럭이면 오프셋 = 0이고, 만일 상위 계층 매크로블럭이 하단(BOTTOM) 매크로블럭이면, 오프셋 = 16이고,
- 위와 같지 않으면, 인자 = 0이고, hb = hbase 및 오프셋 = 0이며,
여기서, y1 및 he는 다음과 같이 정의되는 파라메터이다.
- 만일 현재 HL MB가 필드 매크로블럭이고, 만일 상위 계층 화상이 매크로블럭 적응 프레임 필드(MBAFF) 모드에서 인코딩되면, y1 = blk_y/2이고 he = henh/2이며,
- 위와 같지 않으면, y1 = blk_y이고 he = henh이다.
단계(2300)는 각 elem_blk에 대하여, 도 3에 기술된 바와 같이, 기저 계층 화상 내에서 위치(vbl_pos)의 픽셀, 즉 좌표(vbl_x, vbl_y)의 픽셀을 포함하는 기저 계층 매크로블럭(base_MB)을 식별하는 단계이다.
이후, 단계(2400)에서, 저 해상도 화상 내의 기저 계층 위치(real_bl_pos = (bl_x, bl_y)는 각 elem_blk에 대하여 base_MB의 프레임/필드 코딩 모드를 기초로 하여 가상 기저 계층 위치(vbl_pos)로부터 계산된다. bl_x는 vbl_x와 동일하게 설정되고 bl_y는 다음과 같이 도출된다.
▶ 만일 다음 조건,
Figure 112009001450205-pct00003
기저 계층 화상이 매크로블럭 적응 프레임 필드(MBAFF) 모드에서 인코딩되고,
Figure 112009001450205-pct00004
기저 계층 매크로블럭(base_MB)은 필드 매크로블럭이고,
Figure 112009001450205-pct00005
상위 계층 화상이 순차 주사 방식(즉, 프레임 모드로 인코딩됨)이거나, 또는 상위 계층 매크로블럭이 프레임 매크로블럭이 되는 것이, 참이면,
가상 기저 계층 위치(vbl_pos)의 필드-프레임 변환이 적용된다. w개 열의 화상내의 위치(ax, ay)에서 소정 매크로블럭의 어드레스는 (ay*w + ax)로 정의된다. mbAddrBaseTOP 및 mbAddrBaseBOT는 다음과 같이 정의되도록 하자.
만일 base_MB가 상단(TOP) 매크로블럭이면, mbAddrBaseTOP은 base_MB의 어드레스이고, mbAddrBaseBOT는 base_MB 아래에 위치된 기저 계층 매크로블럭의 어드레스이고,
그렇지 않으면, mbAddrBaseBOT는 base_MB의 어드레스이고 mbAddrBaseTOP은 base_MB위에 위치된 기저 계층 매크로블럭의 어드레스이다. 그러므로, 만일 위치 mbAddrBaseTOP 및 mbAddrBaseBOT에서의 매크로블럭이 둘 다 인트라 코딩되면, bl_y = vbl_y이고,
그렇지 않으면, y2는 (vbl_y % 16)/4와 동일하게 설정된 변수이고 mbAddrBase는 다음과 같이 정의되는 것으로 하자.
■ 만일 y2가 2보다 작다면, mbAddrBase = mbAddrBaseTOP
■ 그렇지 않으면, mbAddrBase = mbAddrBaseBOT
만일 base_MB가 상단(TOP) 매크로블럭이면, bl_y = (mbAddrBase/wbase) + 4*(blk_y/2)이고, 그렇지 않으면 bl_y = (mbAddrBase/wbase) + 4*(blk_y/2+2)이다.
▶ 그렇지 않고, 만일 다음 조건, 즉,
Figure 112009001450205-pct00006
기저 계층 화상이 순차 주사 방식(즉 프레임 모드로 인코딩됨)이고 현재 HL MB가 필드 매크로블럭이고 henh<2*hbase이고,
Figure 112009001450205-pct00007
기저 계층 화상이 매크로블럭 적응 프레임 필드(MBAFF) 모드에서 인코딩되고 기저 계층 매크로블럭(base_MB)이 프레임 매크로블럭이고 상위 계층 매크로블럭이 필드 매크로블럭이 되는 것 중, 하나가 참이면,
가상 기저 계층 위치(vbl_pos)의 프레임-필드 변환이 적용된다. mbAddrBaseTOP 및 mbAddrBaseBOT가 다음과 같이 정의되는 것으로 하자.
만일 base_MB가 상단(TOP) 매크로블럭이고, mbAddrBaseTOP은 base_MB의 어드레스이고, mbAddrBaseBOT는 base_MB 아래에 위치된 기저 계층 매크로블럭의 어드레스이며, 그렇지 않으면 mbAddrBaseBOT는 base_MB의 어드레스이고 mbAddrBaseTOP은 base_MB까지 위치된 기저 계층 매크로블럭의 어드레스이다.
그러므로, 만일 위치 mbAddrBaseTOP 및 mbAddrBaseBOT에서의 매크로블럭이 둘 다 인트라 코딩되면, bl_y = vbl_y이고, 그렇지 않고, 만일 위치 mbAddrBaseTOP에서의 매크로블럭이 인트라 코딩되면, mbAddrBaseTOP은 mbAddrBaseBOT로 설정되고, 그렇지 않고, 만일 위치 mbAddrBaseBOT에서의 매크로블럭이 인트라 코딩되면, mbAddrBaseBOT는 mbAddrBaseTOP으로 설정된다. y2는 (vbl_y % 16) / 4와 동일하게 설정된 변수이고 mbAddrBase는 다음과 같이 정의되는 것으로 하자.
■ 만일 y2가 2보다 작으면, mbAddrBase = mbAddrBaseTOP
■ 그렇지 않으면 mbAddrBase = mbAddrBaseBOT
만일 base_MB가 상단(TOP) 매크로블럭이면, bl_y = (mbAddrBase/wbase) + 4*(blk_y/2)이고, 그렇지 않으면 bl_y = (mbAddrBase/wbase) + 4*(blk_y/2+2)이다.
▶ 그렇지 않으면, bl_y = vbl_y이다.
단계(2500)는 각 elem_blk에 대하여, 위치 real_bl_pos = (bl_x, bl_y)의 기저 계층 화상 내의 픽셀을 포함하는 기저 계층 매크로블럭(real_base_MB), 기저 계층 매크로블럭(real_base_MB) 내의 위치 real_bl_pos의 픽셀을 포함하는 기저 계층 파티션의 지수 mbPartldxBase, 및 만일 있다면 지수 mbPartldxBase의 기저 계층 파티션 내의 위치 real_bl_pos의 픽셀을 포함하는, 기저 계층 서브 파티션의 지수 subMbPartldxBase를 식별하는 단계로 이루어진다. 만일 있다면, 상기 real_base_MB, 상기 mbPartldxBase 지수 및 subMbPartldxBase 지수는 상기 elem_blk와 연관된다.
다음 단계(2600)는 현재 HL MB와 연관된 모션 데이터를 도출하는 단계로 구성된다. 선택적으로는, 모션 데이터를 도출하는 단계는 2개의 서브 단계를 포함한다. 실제로, 매크로블럭 타입(mb_type) 및 서브 매크로블럭 타입은 모션 벡터 및 기준 지수를 도출하기에 앞서 먼저 도출된다. 더 정확하게는, 서브 단계(2610)는 , 다음 줄로 시작하는 "Joint Scalable Video Model JSVM-6: Joint Draft 6 with proposed changes"로 명칭된 ISO/IEC MPEG & ITU-T VCEG JVT-S202의 JVT 문서의 섹션 F.6.4 'Derivation process for macroblock type and sub-macroblock type in inter-layer prediction'에 정의된 프로세스를 이용하여, 현재 HL MB의 매크로블럭 타입(mb_type), 즉 파티션 패턴, 및 가능한 서브 매크로블럭 타입(sub_mb_type)을 도출하는 단계이다(sub_mb_type은 소정 파티션이 어떻게 분할되는 지를 지정하는데, 예를 들면 sub_mb_type가 8x4인 8x8 파티션은 2개의 8x4 서브 파티션으로 분할됨).
- 구성요소 partinfo[x, y]는 다음과 같이 도출된다.
- 만일 mbAddrBase가 이용가능하지 않은 것으로 마킹되면, partinfo[x, y]는 이용가능하지 않은 것으로 마킹된다.
- 그렇지 않으면, 다음이 적용된다.
- 만일 매크로블럭 mbAddrBase가 인트라 코딩된다면,
partinfo[x, y] = -1 (F-43)
- 그렇지 않으면,
partinfo[x, y] = 16 * mbAddrBase + 4 * mbPartldxBase + subMbPartldxBase (F-44)
최종적으로는, 모션 벡터 및 기준 지수는 서브 단계(2620)에서, 현재 HL MB의 각 파티션 및 가능한 서브 파티션에 대하여, ISO/IEC MPEG & ITU-T VCEG JVT-S202 JVT 문서의 섹션 F.8.6 'Resampling process for motion data'에 기술된 바와 같이 HL MB의 프레임 또는 필드 모드, 및 기저 계층 매크록블럭(real_base_MB)의 프레임 또는 필드 모드에 기초하여, 만일 있다면, 상기 현재 HL MB의 각 elem_blk와 연관된다면 real_base_MB의 서브 파티션, 기저 계층 파티션의 모션 벡터 및 기준 지수로부터 도출된다.
본 발명에 따른 방법은 비디오 신호를 코딩하는 프로세스 및 비디오 신호를 디코딩하는 프로세스에 의해 사용될 수 있다. 비디오 신호를 코딩하는 프로세스에 의해 사용되는 경우, 인코딩 프로세스는 계층간 예측 모드 또는 종래의 예측 모드를 사용하여 현재 HL MB를 인코딩하는 것을 선택한다.
또한, 본 발명은 도 4에 기술된 코딩 디바이스(8)에 관한 것이다. 코딩 디바이스(8)는 저 해상도 화상을 코딩하는 제 1 코딩 모듈(80)을 포함한다. 이 모듈(80)은 상기 저 해상도 화상을 위해 기저 계층 데이터 스트림 및 모션 데이터를 생성한다. 선택적으로는 모듈(80)은 MPEG4 AVC 표준에 적합한 기저 계층 데이터 스트림을 생성하도록 적응된다. 코딩 디바이스(8)는 제 1 코딩 모듈(80)에 의해 생성된 저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하기 위해 사용되는 계승 수단(82)을 포함한다. 계승 수단(82)은 본 발명에 따른 방법의 단계(2100 - 2600)를 구현하기 위해 적응된다. 코딩 디바이스(8)는 고 해상도 화상을 코딩하는 제 2 코딩 모듈(81)을 포함한다. 제 2 코딩 모듈(81)은 고 해상도 화상을 인코딩하기 위해 계승 수단(82)에 의해 도출된 모션 데이터를 이용한다. 따라서, 제 2 코딩 모듈(81)은 향상 계층 데이터 스트림을 생성한다. 선택적으로는, 또한 코딩 디바이스(8)는 단일 데이터 스트림을 생성하기 위해 각기 제 1 코딩 모듈(80) 및 제 2 코딩 모듈(81)에 의해 제공된 기저 계층 데이터 스트림과 향상 계층 데이터 스트림을 결합하는 모듈(83)(예를 들면, 멀티플렉서)을 포함한다. 그러므로, 만일 HL MB가 계층 간 예측 모드를 이용하는 제 2 코딩 모듈(81)에 의해 인코딩된다면, 상기 HL MB에 관련된 모션 데이터는 데이터 스트림으로 코딩되지 않는데(또는 1/4 화소 단위 모션 개선(quarter-pel motion refinement)이 가능하게는 코딩될 수 있으므로 부분적으로만 코딩된다), 왜냐하면 이들은 모듈(80)에 의해 제공된 BL MB에 관련한 모션 데이터로부터 도출되기 때문이다. 이는 다소의 비트를 절약하는 것을 허용한다. 한편으로는, 만일 HL MB가 종래 모드(예를 들면, 양방향 모드)를 이용하여 인코딩되면, 상기 HL MB에 관련된 모션 데이터는 데이터 스트림으로 코딩된다.
또한, 본 발명은 코딩 디바이스(8)로 생성된 데이터 스트림으로부터 고 해상도 화상을 디코딩하기 위해 도 5에 기술된 디코딩 디바이스(9)에 관한 것이다. 디코딩 디바이스(9)는 상기 저 해상도 화상을 위하여 저 해상도 화상 및 모션 데이터를 도출하기 위하여 기저 계층 데이터 스트림으로 불리는 데이터 스트림의 제 1 부분을 디코딩하는 제 1 디코딩 모듈(91)을 포함한다. 선택적으로는, 모듈(91)은 MPEG4 AVC 표준에 적합한 데이터 스트림을 디코딩하기 위해 적응된다. 디코딩 디바이스(9)는 제 1 디코딩 모듈(91)에 의해 생성된 저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하기 위해 사용된 계승 수단(82)을 포함한다. 계승 수단(82)은 본 발명에 따른 방법의 단계(2100 내지 2600)를 구현하기 위해 적응된다. 디코딩 디바이스(9)는 향상 계층 데이터 스트림으로 불리는 데이터 스트림의 제 2 부분을 디코딩하는 제 2 디코딩 모듈(92)을 포함한다. 제 2 디코딩 모듈(92)은 데이터 스트림의 제 2 부분을 디코딩하기 위해 계승 수단(82)에 의해 도출된 모션 데이터를 사용한다. 따라서, 제 2 디코딩 모듈(92)은 고 해상도 화상을 생성한다. 유리하게는, 디바이스(9)는 또한 수신된 데이터 스트림으로부터 기저 계층 데이터 스트림 및 향상 계층 데이터 스트림을 추출하는 추출 모듈 (90)(예를 들면, 디멀티플렉서)을 포함한다.
또 다른 실시예에 따르면, 디코딩 디바이스는 2개의 데이터 스트림을 수신하는데, 즉 기저 계층 데이터 스트림 및 향상 계층 데이터 스트림을 수신한다. 이 경우, 디바이스(9)는 추출 모듈(90)을 포함하지 않는다.
본 발명은 기술된 실시예에 제한되지 않는다. 특히, 2개의 화상 시퀀스, 즉 2개의 공간적 계층을 위해 기술된 본 발명은 3개 이상의 화상 시퀀스를 인코딩하기 위해 사용될 수 있다.
본 발명은 소위 기저 계층 매크로블럭으로 불리는 저 해상도의 적어도 하나의 매크로블럭과 연관된 모션 데이터로부터 하이 계층 매크로블럭으로 불리는 고 해상도 화상의 적어도 하나의 매크로블럭을 위한 모션 데이터를 도출하는 방법에 이용가능하다.
또한 본 발명은 상기 방법을 구현하는 코딩 및 디코딩 디바이스에 이용가능하다.

Claims (11)

  1. 저 해상도 화상의 기저 계층 매크로블럭과 연관된 모션 데이터로부터, 고 해상도 화상의 중첩없는 기본 블럭으로 분할되는 적어도 하나의 상위 계층 매크로블럭에 대한 모션 데이터를 도출하는 방법으로서,
    프레임 모드 및 필드 모드 중 매크로블럭 코딩 모드는 각 매크로블럭과 연관되고, 화상 코딩 모드는 상기 고 해상도 화상 및 상기 저 해상도 화상과 연관되는, 매크로블럭에 대한 모션 데이터를 도출하는 방법에 있어서,
    - 상기 적어도 하나의 상위 계층 매크로블럭의 각 기본 블럭에 대하여, 상기 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라, 상기 고 해상도 화상 내의 상기 기본 블럭 위치로부터 상기 저 해상도 화상 내의 중간 위치를 계산하는 단계(2200);
    - 각 기본 블럭에 대하여, 상기 중간 위치에 위치된 픽셀을 포함하는, 기저 매크로블럭으로 불리는 기저 계층 매크로블럭을 식별하는 단계(2300);
    - 각 기본 블럭에 대하여, 상기 기저 매크로블럭 및 상위 계층 매크로블럭의 코딩 모드에 따라, 상기 중간 위치로부터 실 기저 계층 위치로 불리는 상기 저 해상도 화상 내의 최종 위치를 계산하는 단계(2400);
    - 상기 적어도 하나의 매크로블럭의 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는 실 기저 매크로블럭으로 불리는 기저 계층 매크로블럭을 식별하는 단계(2500); 및
    - 각 기본 블럭에 대하여 상기 실 기저 매크로블럭의 모션 데이터로부터 상기 상위 계층 매크로블럭에 대한 모션 데이터를 도출하는 단계(2600)
    를 포함하는 것을 특징으로 하는, 매크로블럭에 대한 모션 데이터를 도출하는 방법.
  2. 제 1 항에 있어서,
    상기 기저 계층 매크로블럭은 파티션되고, 모션 데이터는 상기 파티션의 각각과 연관되며,
    상기 방법은, 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는, 실 기저 매크로블럭으로 불리는, 기저 계층 매크로블럭을 식별하는 단계(2500) 이후, 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는 상기 실 기저 매크로블럭의 파티션(mbPartldxBase)을 식별하는 단계를 추가로 포함하는, 매크로블럭에 대한 모션 데이터를 도출하는 방법.
  3. 제 2 항에 있어서,
    상기 상위 계층 매크로블럭에 대한 모션 데이터를 도출하는 단계(2600)는,
    - 상기 실 기저 매크로블럭 및 각 기본 블럭에 대한 상기 실 기저 매크로블럭의 상기 식별된 파티션에 따라 상기 상위 계층 매크로블럭을 파티션하는 단계; 및
    - 각 기본 블럭에 대하여 상기 실 기저 매크로블럭의 모션 데이터로부터 상기 상위 계층 매크로블럭의 각 파티션에 대한 모션 벡터를 도출하는 단계를 포함하는, 매크로블럭에 대한 모션 데이터를 도출하는 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 상위 계층 매크로블럭은 16x16 필셀의 블럭이고, 각 기본 블럭은 4x4 픽셀의 블럭인, 매크로블럭에 대한 모션 데이터를 도출하는 방법.
  5. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    비디오 신호를 코딩하는 처리의 일부가 되는, 매크로블럭에 대한 모션 데이터를 도출하는 방법.
  6. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    비디오 신호를 디코딩하는 처리의 일부가 되는, 매크로블럭에 대한 모션 데이터를 도출하는 방법.
  7. 일련의 고 해상도 화상 및 일련의 저 해상도 화상을 코딩하는 디바이스(8)로서,
    각 화상은 중첩없는 기본 블럭으로 분할되는 중첩없는 매크로블럭으로 분할되고, 프레임 모드 및 필드 모드 중 매크로블럭 코딩 모드는 각 매크로블럭과 연관되며, 화상 코딩 모드는 상기 고 해상도 화상 및 상기 저 해상도 화상과 연관되고, 상기 디바이스는,
    - 상기 저 해상도 화상을 코딩하고, 상기 저 해상도 화상의 매크로블럭에 대한 모션 데이터 및 기저 계층 데이터 스트림을 생성하는, 제 1 코딩 수단(80);
    - 저 해상도 화상의 기저 계층 매크로블럭의 모션 데이터로부터, 고 해상도 화상의 적어도 하나의 상위 계층 매크로블럭에 대한 모션 데이터를 도출하는 계승 수단(82); 및
    - 상기 도출된 모션 데이터를 이용하여 상기 고 해상도 화상을 코딩하고, 향상 계층 데이터 스트림을 생성하는 제 2 코딩 수단(81)을 포함하는, 일련의 고 해상도 화상 및 일련의 저 해상도 화상을 코딩하는 디바이스(8)에 있어서,
    계승 수단(82)은,
    - 상기 적어도 하나의 상위 계층 매크로블럭의 각 기본 블럭에 대하여, 상기 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라, 상기 고 해상도 화상 내의 상기 기본 블럭 위치로부터 상기 저 해상도 화상 내의 중간 위치를 계산하는 수단;
    - 각 기본 블럭에 대하여, 상기 중간 위치에 위치된 픽셀을 포함하는, 기저 매크로블럭으로 불리는 기저 계층 매크로블럭을 식별하는 수단;
    - 각 기본 블럭에 대하여, 상기 기저 매크로블럭 및 상위 계층 매크로블럭의 코딩 모드에 따라, 상기 중간 위치로부터 실 기저 계층 위치로 불리는 상기 저 해상도 화상 내의 최종 위치를 계산하는 수단;
    - 상기 적어도 하나의 매크로블럭의 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는 실 기저 매크로블럭으로 불리는 기저 계층 매크로블럭을 식별하는 수단; 및
    - 각 기본 블럭에 대하여 상기 실 기저 매크로블럭의 모션 데이터로부터 상기 상위 계층 매크로블럭에 대한 모션 데이터를 도출하는 수단
    를 포함하는 것을 특징으로 하는, 일련의 고 해상도 화상 및 일련의 저 해상도 화상을 코딩하는 디바이스.
  8. 제 7 항에 있어서,
    상기 제 1 코딩 수단은 MPEG-4 AVC 비디오 인코더인, 일련의 고 해상도 화상 및 일련의 저 해상도 화상을 코딩하는 디바이스.
  9. 제 7 항 또는 제 8 항에 있어서,
    기저 계층 데이터 스트림 및 향상 계층 데이터 스트림을 단일 데이터 스트림으로 결합하는 수단(83)을 추가로 포함하는, 일련의 고 해상도 화상 및 일련의 저 해상도 화상을 코딩하는 디바이스.
  10. 저 해상도 화상으로부터 적어도 일련의 고 해상도 화상을 디코딩하는 디바이스(9)로서,
    코딩된 화상은 데이터 스트림 형태로 발생하고, 각 화상은 중첩없는 기본 블럭으로 분할되는 중첩없는 매크로블럭으로 분할되며, 프레임 모드 및 필드 모드 중 매크로블럭 코딩 모드는 각 매크로블럭과 연관되며, 화상 코딩 모드는 상기 고 해상도 화상 및 상기 저 해상도 화상과 연관되고, 상기 디바이스는,
    - 상기 저 해상도 화상 및 상기 저 해상도 화상의 매크로블럭에 대한 모션 데이터를 생성하도록 상기 데이터 스트림의 적어도 제 1 부분을 디코딩하는 제 1 디코딩 수단(91);
    - 저 해상도 화상의 기저 계층 매크로블럭의 모션 데이터로부터 고 해상도 화상의 적어도 하나의 상위 계층 매크로블럭에 대한 모션 데이터를 도출하는 계승 수단(82); 및
    - 고 해상도 화상을 생성하기 위해 상기 도출된 모션 데이터를 이용하여 상기 데이터 스트림의 적어도 제 2 부분을 디코딩하는 제 2 디코딩 수단(92)을 포함하는, 코딩된 적어도 일련의 고 해상도 화상을 디코딩하는 디바이스(9)에 있어서,
    계승 수단(82)은,
    - 상기 적어도 하나의 상위 계층 매크로블럭의 각 기본 블럭에 대하여, 상기 상위 계층 매크로블럭의 코딩 모드와, 상기 고 및 저 해상도 화상의 화상 코딩 모드에 따라, 상기 고 해상도 화상 내의 상기 기본 블럭 위치로부터 상기 저 해상도 화상 내의 중간 위치를 계산하는 수단;
    - 각 기본 블럭에 대하여, 상기 중간 위치에 위치된 픽셀을 포함하는, 기저 매크로블럭으로 불리는 기저 계층 매크로블럭을 식별하는 수단;
    - 각 기본 블럭에 대하여, 상기 기저 매크로블럭 및 상위 계층 매크로블럭의 코딩 모드에 따라, 상기 중간 위치로부터 실 기저 계층 위치로 불리는 상기 저 해상도 화상 내의 최종 위치를 계산하는 수단;
    - 상기 적어도 하나의 매크로블럭의 각 기본 블럭에 대하여, 상기 실 기저 계층 위치에 위치된 픽셀을 포함하는 실 기저 매크로블럭으로 불리는 기저 계층 매크로블럭을 식별하는 수단; 및
    - 각 기본 블럭에 대하여 상기 실 기저 매크로블럭의 모션 데이터로부터 상기 상위 계층 매크로블럭에 대한 모션 데이터를 도출하는 수단
    를 포함하는 것을 특징으로 하는, 코딩된 적어도 일련의 고 해상도 화상을 디코딩하는 디바이스.
  11. 제 10 항에 있어서,
    상기 제 1 디코딩하는 수단은 MPEG-4 AVC 비디오 디코더인, 코딩된 적어도 일련의 고 해상도 화상을 디코딩하는 디바이스.
KR1020097000503A 2006-07-12 2007-07-02 저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하는 방법, 및 이 방법을 구현하는코딩 및 디코딩하는 장치 KR101368943B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06300798.3 2006-07-12
EP06300798A EP1879399A1 (en) 2006-07-12 2006-07-12 Method for deriving motion data for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
PCT/EP2007/056640 WO2008006728A2 (en) 2006-07-12 2007-07-02 Method for deriving motion data for high resolution pictures from motion data of low resoluton pictures and coding and decoding devices implementing said method

Publications (2)

Publication Number Publication Date
KR20090037886A KR20090037886A (ko) 2009-04-16
KR101368943B1 true KR101368943B1 (ko) 2014-02-28

Family

ID=37465069

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097000503A KR101368943B1 (ko) 2006-07-12 2007-07-02 저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하는 방법, 및 이 방법을 구현하는코딩 및 디코딩하는 장치

Country Status (12)

Country Link
US (1) US9167266B2 (ko)
EP (2) EP1879399A1 (ko)
JP (1) JP5211048B2 (ko)
KR (1) KR101368943B1 (ko)
CN (1) CN101491100B (ko)
AT (1) ATE544294T1 (ko)
BR (1) BRPI0714061A2 (ko)
ES (1) ES2379399T3 (ko)
PL (1) PL2047684T3 (ko)
RU (1) RU2437246C2 (ko)
TW (1) TWI456994B (ko)
WO (1) WO2008006728A2 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1972154A4 (en) * 2006-01-09 2014-11-19 Lg Electronics Inc INTERLAYER PREDICTION METHOD FOR VIDEO SIGNAL
US8665946B2 (en) * 2007-10-12 2014-03-04 Mediatek Inc. Macroblock pair coding for systems that support progressive and interlaced data
US9491458B2 (en) * 2012-04-12 2016-11-08 Qualcomm Incorporated Scalable video coding prediction with non-causal information
KR20140087971A (ko) 2012-12-26 2014-07-09 한국전자통신연구원 계층적 비디오 부호화에서 다중참조계층을 적용한 화면간 부/복호화 방법 및 그 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970064259A (ko) * 1996-02-05 1997-09-12 제프리 엘. 포맨 격행 비디오를 위한 계층적 움직임 추정
KR20050031460A (ko) * 2002-07-31 2005-04-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 하이브리드 예측 코드를 사용하는 다중 표현 움직임보상을 수행하는 방법 및 장치
KR20060043209A (ko) * 2004-10-21 2006-05-15 삼성전자주식회사 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5270813A (en) 1992-07-02 1993-12-14 At&T Bell Laboratories Spatially scalable video coding facilitating the derivation of variable-resolution images
JP3189258B2 (ja) 1993-01-11 2001-07-16 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
JP3788823B2 (ja) 1995-10-27 2006-06-21 株式会社東芝 動画像符号化装置および動画像復号化装置
US6957350B1 (en) 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5852565A (en) 1996-01-30 1998-12-22 Demografx Temporal and resolution layering in advanced television
US5831678A (en) 1996-08-09 1998-11-03 U.S. Robotics Access Corp. Video encoder/decoder system
JP3263807B2 (ja) 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
US5978509A (en) 1996-10-23 1999-11-02 Texas Instruments Incorporated Low power video decoder system with block-based motion compensation
US6690724B1 (en) 1997-01-10 2004-02-10 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing device, and data recording medium
US6728775B1 (en) 1997-03-17 2004-04-27 Microsoft Corporation Multiple multicasting of multimedia streams
US6057884A (en) 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6741748B1 (en) 1997-06-19 2004-05-25 Samsung Electronics Co. Scan interleaving method based on context values of neighboring pixels, improved encoding/decoding method of binary shape data and encoding/decoding apparatus suitable for the same
US6351563B1 (en) 1997-07-09 2002-02-26 Hyundai Electronics Ind. Co., Ltd. Apparatus and method for coding/decoding scalable shape binary image using mode of lower and current layers
RU2201654C2 (ru) 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
AU767848B2 (en) 1997-12-23 2003-11-27 Thomson Licensing S.A. Low noise encoding and decoding method
JP2000013790A (ja) 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
US6233283B1 (en) 1998-06-23 2001-05-15 Lucent Technologies Inc. Layered video coding using perceptual coding criteria for error resilience in packet networks
US6603883B1 (en) 1998-09-08 2003-08-05 Canon Kabushiki Kaisha Image processing apparatus including an image data encoder having at least two scalability modes and method therefor
US6639943B1 (en) 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US6931060B1 (en) 1999-12-07 2005-08-16 Intel Corporation Video processing of a quantized base layer and one or more enhancement layers
JP2001223665A (ja) 2000-02-08 2001-08-17 Matsushita Electric Ind Co Ltd 信号符号化伝送装置、信号復号化受信装置、およびプログラム記録媒体
US6510177B1 (en) 2000-03-24 2003-01-21 Microsoft Corporation System and method for layered video coding enhancement
AU2001251386A1 (en) * 2000-04-07 2001-10-23 Demografx Enhanced temporal and resolution layering in advanced television
JP2002010251A (ja) 2000-06-19 2002-01-11 Matsushita Electric Ind Co Ltd 映像信号符号化装置および映像信号復号化装置
US6907070B2 (en) 2000-12-15 2005-06-14 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US6980596B2 (en) 2001-11-27 2005-12-27 General Instrument Corporation Macroblock level adaptive frame/field coding for digital video content
US6898313B2 (en) 2002-03-06 2005-05-24 Sharp Laboratories Of America, Inc. Scalable layered coding in a multi-layer, compound-image data transmission system
JPWO2003079692A1 (ja) 2002-03-19 2005-07-21 富士通株式会社 階層符号化装置および復号装置
US7397858B2 (en) 2002-05-29 2008-07-08 Innovation Management Sciences, Llc Maintaining a plurality of codebooks related to a video signal
JP2004219759A (ja) * 2003-01-15 2004-08-05 Chi Mei Electronics Corp 画像表示処理方法、画像表示処理装置、画像表示装置および画像表示処理システム
EP1590964B1 (en) 2003-01-30 2017-03-01 Koninklijke Philips N.V. Video coding
EP1597919A1 (en) 2003-02-17 2005-11-23 Koninklijke Philips Electronics N.V. Video coding
EP1455534A1 (en) 2003-03-03 2004-09-08 Thomson Licensing S.A. Scalable encoding and decoding of interlaced digital video data
KR20060105409A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US7142601B2 (en) 2003-04-14 2006-11-28 Mitsubishi Electric Research Laboratories, Inc. Transcoding compressed videos to reducing resolution videos
US7015920B2 (en) * 2003-04-30 2006-03-21 International Business Machines Corporation Method and system for providing useable images on a high resolution display when a 2D graphics window is utilized with a 3D graphics window
JP2005033336A (ja) 2003-07-08 2005-02-03 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US7362809B2 (en) 2003-12-10 2008-04-22 Lsi Logic Corporation Computational reduction in motion estimation based on lower bound of cost function
JP2005260912A (ja) 2004-02-10 2005-09-22 Matsushita Electric Ind Co Ltd 映像通信装置および映像通信方法
US8503542B2 (en) 2004-03-18 2013-08-06 Sony Corporation Methods and apparatus to reduce blocking noise and contouring effect in motion compensated compressed video
US20060012719A1 (en) 2004-07-12 2006-01-19 Nokia Corporation System and method for motion prediction in scalable video coding
DE102004059993B4 (de) 2004-10-15 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium
US7817723B2 (en) 2004-12-14 2010-10-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Apparatus and method of optimizing motion estimation parameters for encoding a video signal
US8363730B2 (en) 2004-12-16 2013-01-29 Intel Corporation Local macroblock information buffer
US20060176955A1 (en) 2005-02-07 2006-08-10 Lu Paul Y Method and system for video compression and decompression (codec) in a microprocessor
US20060262860A1 (en) * 2005-02-23 2006-11-23 Chou Jim C Macroblock adaptive frame/field coding architecture for scalable coding
US7961963B2 (en) 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
KR100763179B1 (ko) * 2005-04-01 2007-10-04 삼성전자주식회사 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치
KR100896279B1 (ko) 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP5017825B2 (ja) 2005-09-15 2012-09-05 ソニー株式会社 復号装置および復号方法
US7777812B2 (en) 2005-11-18 2010-08-17 Sharp Laboratories Of America, Inc. Methods and systems for picture resampling

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970064259A (ko) * 1996-02-05 1997-09-12 제프리 엘. 포맨 격행 비디오를 위한 계층적 움직임 추정
KR20050031460A (ko) * 2002-07-31 2005-04-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 하이브리드 예측 코드를 사용하는 다중 표현 움직임보상을 수행하는 방법 및 장치
KR20060043209A (ko) * 2004-10-21 2006-05-15 삼성전자주식회사 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치

Also Published As

Publication number Publication date
TWI456994B (zh) 2014-10-11
US20090323811A1 (en) 2009-12-31
WO2008006728A3 (en) 2008-04-03
EP1879399A1 (en) 2008-01-16
RU2437246C2 (ru) 2011-12-20
RU2009104704A (ru) 2010-08-20
CN101491100B (zh) 2011-03-02
CN101491100A (zh) 2009-07-22
ATE544294T1 (de) 2012-02-15
WO2008006728A2 (en) 2008-01-17
ES2379399T3 (es) 2012-04-25
JP2009543486A (ja) 2009-12-03
US9167266B2 (en) 2015-10-20
JP5211048B2 (ja) 2013-06-12
EP2047684B1 (en) 2012-02-01
PL2047684T3 (pl) 2012-05-31
TW200812396A (en) 2008-03-01
EP2047684A2 (en) 2009-04-15
BRPI0714061A2 (pt) 2012-12-11
KR20090037886A (ko) 2009-04-16

Similar Documents

Publication Publication Date Title
US8446956B2 (en) Inter-layer motion prediction method using resampling
KR100913104B1 (ko) 영상 신호의 인코딩 및 디코딩 방법
US8345762B2 (en) Method for deriving coding information for high resolution pictures from low resolution pictures and coding and decoding devices implementing said method
KR101311656B1 (ko) 스케일러블 비디오 코딩을 위한 간략화된 레이어간 모션 예측
JP5389297B2 (ja) 画像復号装置及び画像復号方法
JP2018137741A (ja) 画像符号化装置および画像符号化方法
WO2012081162A1 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
KR101368943B1 (ko) 저 해상도 화상의 모션 데이터로부터 고 해상도 화상을 위한 모션 데이터를 도출하는 방법, 및 이 방법을 구현하는코딩 및 디코딩하는 장치
EP2014096A1 (en) Method and apparatus for encoding multi-view moving pictures
JPH07240944A (ja) ステレオ画像符号化装置
JP2007202183A (ja) 符号化ブロックパターンの符号化装置及び符号化ブロックパターンの符号化方法
KR20010073608A (ko) 압축영상의 공간 도메인에서의 효율적인 엣지 예측 방법
EP1848218A1 (en) Method for deriving motion data for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
EP1958447A2 (en) Method of predicting motion and texture data
JP2013098713A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
KR101336104B1 (ko) 모션과 텍스처 데이터를 예측하는 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee