KR101041823B1 - 기준 픽쳐를 이용하여 비디오 신호를 인코딩/디코딩하는 방법 및 장치 - Google Patents

기준 픽쳐를 이용하여 비디오 신호를 인코딩/디코딩하는 방법 및 장치 Download PDF

Info

Publication number
KR101041823B1
KR101041823B1 KR1020087028742A KR20087028742A KR101041823B1 KR 101041823 B1 KR101041823 B1 KR 101041823B1 KR 1020087028742 A KR1020087028742 A KR 1020087028742A KR 20087028742 A KR20087028742 A KR 20087028742A KR 101041823 B1 KR101041823 B1 KR 101041823B1
Authority
KR
South Korea
Prior art keywords
frame
picture
base layer
image
information
Prior art date
Application number
KR1020087028742A
Other languages
English (en)
Other versions
KR20090007461A (ko
Inventor
전병문
박승욱
박지호
윤도현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20090007461A publication Critical patent/KR20090007461A/ko
Application granted granted Critical
Publication of KR101041823B1 publication Critical patent/KR101041823B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Abstract

비디오 신호를 디코딩하는 방법에 있어서, 현재 층의 현재 이미지의 적어도 일부가 기준 이미지의 적어도 일부, 오프셋 정보 및 치수 정보에 기초하여 예측된다. 오프셋 정보는 기준 이미지의 적어도 하나의 경계 픽셀과 현재 이미지의 적어도 하나의 경계 픽셀 간의 위치 오프셋을 나타내고, 치수 정보는 현재 이미지의 적어도 하나의 치수를 나타낸다.
비디오

Description

기준 픽쳐를 이용하여 비디오 신호를 인코딩/디코딩하는 방법 및 장치{METHOD AND APPARATUS FOR ENCODING/DECODING VIDEO SIGNAL USING REFERENCE PICTURES}
본 발명은 비디오 신호의 스케일러블 인코딩 및 디코딩에 관한 것으로, 특히 비디오 신호의 인핸스드층을 코딩하기 위해 추가적으로 비디오 신호의 베이스층을 사용하는 비디오 신호의 인코딩 방법 및 장치, 및 그 인코딩된 비디오 데이터를 디코딩하는 방법 및 장치에 관한 것이다.
스케일러블 비디오 코덱(scalable video codec; SVC)은, 인코딩된 픽쳐 시퀀스의 일부(특히, 프레임의 전체 시퀀스로부터 간헐적으로 선택된 프레임의 일부 시퀀스)가 디코딩되어 저화질의 비디오를 나타내는데 사용되면서 비디오를 고화질의 픽쳐 시퀀스로 인코딩하는 방법이다. 움직임 보상 시간적 필터링(MCTF)은 스케일러블 비디오 코덱에 사용되도록 제안된 인코딩 방식이다.
상술한 바와 같이 스케일러블 방식으로 인코딩된 픽쳐 시퀀스의 일부를 수신하고 처리함으로써 저화질 비디오를 표현할 수 있다고 하더라도, 비트레이트가 낮으면 화질이 크게 감소하는 문제점은 여전히 존재한다. 이 문제점에 대한 해결책 으로서, 낮은 비트레이트용 보조 픽쳐 시퀀스, 예를 들어, 작은 스크린 크기 및/또는 낮은 프레임 레이트를 갖는 픽쳐 시퀀스를 계층적으로 제공하여 각각의 디코더가 그 능력 및 특성에 적합한 시퀀스를 선택하여 디코딩하도록 하는 것이다. 일예로, 4CIF (common intermediate format)의 주 픽쳐 시퀀스 뿐만 아니라 CIF의 보조 픽쳐 시퀀스 및 QCIF (Quarter CIF)의 보조 픽쳐 시퀀스를 인코딩하여 디코더로 전송한다. 각각의 시퀀스는 층이라 하며, 주어진 2개의 층 중의 더 높은 층은 인핸스드층이라 하고 낮은 층은 베이스층이라 한다.
이러한 픽쳐 시퀀스는, 동일한 비디오 신호원이 시퀀스들로 인코딩되기 때문에 리던던시(redundancy)를 갖는다. 각각의 시퀀스의 코딩 효율을 증가시키기 위하여, 높은 시퀀스의 비디오 프레임과 시간적으로 일치하는 낮은 시퀀스의 비디오 프레임으로부터 높은 시퀀스의 비디오 프레임의 시퀀스간 픽쳐 예측을 수행함으로써 높은 시퀀스의 코딩 정보의 양을 감소시킬 필요있다.
그러나, 다른 층의 시퀀스의 비디오 프레임은 다른 종횡비를 가질 수 있다. 예를 들어, 높은 시퀀스(즉, 인핸스드층)의 비디오 프레임은 16:9의 큰 종횡비를 갖지만, 낮은 층(즉, 베이스층)의 비디오 프레임은 4:3의 작은 종횡비를 가질 수 있다. 이 경우, 인핸스드층 픽쳐의 예측을 수행할 때, 베이스층 픽쳐의 어느 부분이 인핸스드층 픽쳐에 사용되는지 또는 인핸스드층 픽쳐의 어느 부분에 베이스층 픽쳐가 사용되는지를 판단할 필요가 있다.
본 발명의 목적은 영상을 스케일러블 방식으로 엔코딩함에 있어서, 임의 픽처에 대한 예측동작을 수행할 때, 그 하위 레이어 픽처의 일부 또는 전부를 그 기준(reference) 픽처로 사용하여 코딩하는 방법 및 장치를 제공하는 것이다.
본 발명은 또한, 하위 레이어 픽처의 일부 또는 전부가 예측동작의 기준 픽처로 사용되어 엔코딩된 데이터 스트림을 디코딩하는 방법 및 장치를 제공함을 목적으로 한다.
본 발명은 비디오 신호의 디코딩 및 인코딩, 이를 위한 장치에 관한 것이다.
비디오 신호를 디코딩하는 방법의 일 실시예에서, 현재 층 내의 현재 이미지의 적어도 일부는 기준 이미지의 적어도 일부, 오프셋 정보 및 치수 정보에 기초하여 예측된다. 오프셋 정보는 기준 이미지의 적어도 하나의 경계 픽셀과 현재 이미지의 적어도 하나의 경계 픽셀 간의 위치 오프셋을 나타낼 수 있고, 치수 정보는 현재 이미지의 적어도 하나의 치수를 나타낼 수 있다.
일 실시예에서, 기준 이미지는 베이스층 내의 베이스 이미지에 기초한다. 예를 들어, 기준 이미지는 베이스 이미지의 적어도 업샘플링된 부분일 수 있다.
일 실시예에서, 오프셋 정보는 기준 이미지의 적어도 하나의 좌측 픽셀과 현재 이미지의 적어도 하나의 좌측 픽셀 간의 위치 오프셋을 나타내는 좌측 오프셋 정보를 포함한다.
다른 실시예에서, 오프셋 정보는 기준 이미지의 적어도 하나의 상부측 픽셀과 현재 이미지의 적어도 하나의 상부측 픽셀간의 위치 오프셋을 나타내는 상부측 오프셋 정보를 포함한다.
일 실시예에서, 오프셋 정보는 기준 이미지의 적어도 하나의 우측 픽셀과 현재 이미지의 적어도 하나의 하부측 픽셀간의 위치 오프셋을 나타내는 우측 오프셋 정보를 포함한다.
다른 실시예에서, 오프셋 정보는 기준 이미지의 적어도 하나의 하부측 픽셀과 현재 이미지의 적어도 하나의 하부측 픽셀간의 위치 오프셋을 나타내는 하부측 오프셋 정보를 포함한다.
일 실시예에서, 오프셋 정보는 현재 층 내의 픽쳐의 적어도 일부(예를 들어, 슬라이스, 프레임 등)에 대한 헤더로부터 얻어질 수 있다. 또한, 상기 헤더 내의 인디케이터에 기초하여 오프셋 정보가 존재한다는 것을 판정할 수 있다.
다른 실시예는 비디오 신호를 인코딩 및 디코딩하는 장치를 포함한다.
본 발명에 따른 비디오 신호를 인코딩/디코딩하는 방법 및 장치는, 코딩된 데이터의 총량이 감소되도록 스케일러블 방식으로 비디오 신호를 인코딩할 때, 인핸스드층의 픽쳐에 더하여 저성능 디코더에 제공되는 베이스층의 픽쳐를 이용함으로써 코딩 효율을 증가시킨다. 또한, 인핸스드층 픽쳐의 예측 동작에 사용될 수 있는 베이스층 픽쳐의 일부가 지정되어 베이스층 픽쳐로부터 확대된 픽쳐가 인핸스드층 픽쳐의 예측 동작에 직접 사용될 수 없을 때에도 예측 동작이 성능 저하없이 정 상적으로 수행될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.
도 1은 본 발명에 따른 스케일러블 비디오 신호 코딩 방법이 적용되는 비디오 신호 인코딩 장치를 나타내는 블록도이다. 도 1의 장치는 2개의 층의 입력 비디오 신호를 코딩하도록 구현되지만, 이하 설명되는 본 발명의 원리는 비디오 신호가 3개 이상의 층에서 코딩될 때 적용될 수 있다. 본 발명은 또한 예로서 이하에서 설명되는 MCTF 방식에 한정되지 않고 임의의 스케일러블 비디오 코딩 방식에 적용될 수 있다.
도 1에 도시된 비디오 신호 인코딩 장치는 본 발명이 적용되는 MCTF 인코더(Enhanced Layer Encoder;100), 텍스쳐 코딩부(Texture Coding Unit;110), 움직임 코딩부(Motion Coding Unit;120), 베이스층 인코더(BL Encoder;150) 및 먹스(멀티플렉서)(Muxer;130)를 포함한다. MCTF 인코더(100)는 MCTF 방식에 따라 매크로블록당 입력 비디오 신호를 인코딩하고 적절한 관리 정보를 발생시키는 인핸스드층 인코더이다. 텍스쳐 코딩부(11)는 인코딩된 매크로블록의 정보를 압축 비트스트림으로 변환한다. 움직임 코딩부(120)는 MCTF 인코더(100)에 의해 얻어진 이미지 블록의 움직임 벡터를 특정 방식에 따른 압축 비트스트림으로 변환한다. 베이스층 인코더(150)는, 특정 방식, 예를 들어, MPEG-1, 2 또는 4 표준 또는 H.261, H.263 또는 H.264 표준에 따라 입력 비디오 신호를 인코딩하고 작은 화면의 픽쳐 시퀀스, 예를 들어, 본래 크기의 25%로 축소된 픽쳐 시퀀스를 생성한다. 멀티플렉서(130) 는 텍스쳐 코딩부(110)의 출력 데이터, 베이스층 인코더(150)로부터 출력된 작은 화면의 픽쳐 시퀀스, 및 움직임 코딩부(120)의 출력 벡터 데이터를 원하는 포맷으로 캡슐화한다. 멀티플렉서(130)는 캡슐화된 데이터를 원하는 전송 포맷으로 멀티플렉싱하여 출력한다. 베이스층 인코더(150)는 입력 비디오 신호를 인핸스드층 픽쳐보다 작은 화면 크기를 갖는 픽쳐 시퀀스로 인코딩할 뿐만 아니라 입력 비디오 신호를 인핸스드층보다 낮은 프레임 레이트에서 인핸스드층 픽쳐와 동일한 화면 크기를 갖는 픽쳐 시퀀스로 인코딩함으로써 낮은 비트레이트의 데이터 스트림을 제공할 수 있다. 이하 설명되는 본 발명의 실시예에서, 베이스층은 작은 화면의 픽쳐 시퀀스로 인코딩되고, 작은 화면의 픽쳐 시퀀스는 베이스층 시퀀스라 하고, MCTF 인코더(100)로부터 출력된 프레임 시퀀스는 인핸스드층 시퀀스라 한다.
MCTF 인코더(100)는 비디오 프레임 내의 각각의 타겟 매크로블록에 대하여 움직임 추정 및 예측을 수행한다. MCTF 인코더(100)는 타겟 매크로블록과 이웃 프레임 내의 대응 매크로블록간의 이미지 차를 이웃 프레임 내의 대응하는 매크로블록에 추가함으로써 각 타겟 매크로블록에 대한 갱신 동작을 수행한다. 도 2는 이들 동작을 수행하는 MCTF 인코더(100)의 일부 요소를 나타낸다.
도 2에 도시된 MCTF 인코더(100)의 요소들은 추정기/예측기(Estimate;102), 갱신기(Update;103) 및 디코더(Decoder;105)를 포함한다. 디코더(105)는 베이스층 인코더(150)로부터 수신된 인코딩된 스트림을 디코딩하고 디코딩된 작은 화면의 프레임을 내부 스케일러(105a)를 이용하여 인핸스드층의 프레임 크기로 확대한다. 추정기/예측기(102)는 잔여 데이터로 코딩될 현재 프레임 내, 현재 프레임의 이전 또는 이후의 인접 프레임 내, 및 스케일러(105a)에 의해 확대된 프레임 내의 각각의 매크로블록의 기준 블록을 검색한다. 추정기/예측기(102)는 기준 블록 또는 스케일러(105a)에 의해 확대된 시간적으로 일치된 프레임 내의 대응 블록으로부터 현재 프레임 내의 각각의 매크로블록의 이미지 차(즉, 화소간 차)를 구하고 이미지 차를 매크로블록으로 코딩한다. 추정기/예측기(102)는 또한 매크로블록으로부터 기준 블록으로 연장되는 움직임 벡터를 구한다. 갱신기(103)는, 매크로블록의 이미지 차에 적절한 상수(예를 들어, 1/2 또는 1/4)를 곱하고 그 결과 값을 기준 블록에 더함으로써, 현재 프레임 이전 또는 이후의 프레임 내에서 기준 블록이 발견되는 현재 프레임 내의 매크로블록의 갱신 동작을 수행한다. 갱신기(103)에 의해 수행된 동작은 "U" 동작이라 하고 "U" 동작에 의해 생성된 프레임은 "L" 프레임이라 한다.
도 2의 추정기/예측기(102)와 갱신기(103)는 비디오 프레임에 대한 동작을 수행하는 대신에 단일 프레임을 분할함으로써 생성된 복수의 슬라이스에 대하여 동작을 동시 또는 병렬로 수행할 수 있다. 추정기/예측기(102)에 의해 생성된 이미지 차를 갖는 프레임(또는 슬라이스)은 "H" 프레임(또는 슬라이스)이라 한다. "H" 프레임(또는 슬라이스)은 비디오 신호의 고주파 성분을 갖는 데이터를 포함한다. 실시예의 다음의 설명에서, 용어 "픽쳐"는, 그 용어의 사용이 기술적으로 가능하다면, 슬라이스 또는 프레임을 지칭하는데 사용된다.
추정기/예측기(102)는 입력 비디오 프레임(또는 이전 레벨에서 얻어진 L 프레임)의 각각을 원하는 크기의 매크로블록으로 분할한다. 각각의 분할된 매크로블 록에 대하여, 추정기/예측기(102)는 인핸스드층의 이전/다음 이웃 프레임 및/또는 스케일러(105a)에 의해 확대된 베이스층 프레임 내에서 이미지가 각각의 분할된 매크로블록과 매우 유사한 블록을 검색한다. 즉, 추정기/예측기(102)는 각각의 분할된 매크로블록과 시간적으로 상관된 매크로블록을 검색한다. 타겟 이미지 블록과 매우 유사한 이미지를 갖는 블록은 타겟 이미지 블록과 가장 작은 이미지 차를 갖는다. 2개의 이미지 블록간의 이미지 차는 예를 들어 2개의 이미지 블록의 화소간 차의 합 또는 평균으로서 정의된다. 현재의 프레임 내의 타겟 매크로블록보다 작거나 임계 이미지 차를 갖는 블록 중에서, 타겟 매크로블록과 가장 작은 이미지 차를 갖는 블록은 기준 블록이라 한다. 기준 블록을 포함하는 픽쳐는 기준 픽쳐라 한다. 현재의 프레임의 각각의 매크로블록에 대하여, 2개의 기준 블록(또는 2개의 기준 픽쳐)이 현재 프레임의 이전 프레임(베이스층 프레임 포함) 또는 현재 프레임의 다음 프레임(베이스층 프레임 포함)에 존재하거나, 이전 프레임 내에 하나의 기준 블록이 존재하고 다음 프레임 내에 하나의 기준 블록이 존재할 수 있다.
기준 블록을 찾으면, 추정기/예측기(102)는 현재 블록으로부터 기준 블록으로의 움직임 벡터를 산출하여 출력한다. 추정기/예측기(102)는 또한 이전 프레임 또는 다음 프레임에 존재하는 기준 블로의 픽셀 값 또는 이전 및 다음 프레임에 존재하는 2개의 기준 프레임의 평균 픽셀 값으로부터 현재 블록의 픽셀 에러 값(즉, 필셀 차 값)을 산출하여 출력한다. 이미지 또는 픽셀 차 값은 또한 잔여 데이터라 한다.
원하는 임계 이미지 차를 갖거나 현재 매크로블록보다 작은 매크로블록이 움 직임 추정 동작을 통해 2개의 이웃 프레임(베이스층 프레임을 포함)에서 찾을 수 없으면, 추정기/예측기(102)는 현재의 프레임과 동일한 시간 영역의 프레임(이하, 시간적 일치 프레임이라 한다) 또는 현재 프레임에 근접한 시간 영역의 프레임(이하, 시간적 근접 프레임이라 한다)이 베이스층 시퀀스에 존재하는지를 판정한다. 이러한 프레임이 베이스층 시퀀스에 존재하면, 추정기/예측기(102)는 2개의 매크로블록의 픽셀 값에 기초하여 시간적 일치 또는 근접 프레임 내의 대응 매크로블록으로부터 현재 매크로블록의 이미지 차(즉, 잔여 데이터)를 구하고, 대응하는 매크로블록에 대하여 현재 매크로블록의 움직임 벡터는 구하지 않는다. 현재 프레임에 대한 근접 시간 영역은 현재 프레임과 동일한 이미지를 갖는 것으로 간주될 수 있는 프레임을 포함하는 시간 간격에 대응한다. 이 시간 간격의 정보는 인코딩된 스트림 내에 포함된다.
추정기/예측기(102)의 상술한 동작은 "P" 동작이라 한다. 추정기/예측기(102)가 현재 프레임 내의 각각의 매크로블록의 기준 블록을 검색하고 각각의 매크로블록을 잔여 데이터로 코딩함으로써 "P" 동작을 수행하여 H 프레임을 생성하면, 추정기/예측기(102)는 기준 픽쳐로서, 도 3a에 도시된 바와 같이, 현재 프레임 이전 및 이후의 인핸스드층의 이웃 L 프레임에 더하여, 스케일러(105a)로부터 수신된 베이스층의 확대된 픽쳐를 선택적으로 사용할 수 있다.
본 발명의 일 실시예에서, 5개의 프레임이 각각의 H 프레임을 생성하는데 사용된다. 도 3b는 H 프레임을 생성하는데 사용될 수 있는 5개의 프레임을 나타낸다. 도시한 바와 같이, 현재의 L 프레임(400L)은 현재의 L 프레임(400L) 이전의 L 프레임(401) 및 현재의 L 프레임(400L) 다음의 L 프레임(402)을 갖는다. 또한, 현재의 L 프레임(400L)은 동일한 시간 영역 내의 베이스층 프레임(405)을 갖는다. 현재의 L 프레임(400L)과 동일한 MCTF 레벨의 L 프레임(401 및 402) 중의 하나 또는 두개의 프레임, L 프레임(400L)과 동일한 시간 영역의 베이스층의 프레임(405) 및 프레임(405) 이전 및 이후의 베이스층 프레임(403 및 404)은 기준 픽쳐로서 사용되어 현재의 L 프레임(400L)으로부터 H 프레임(400H)을 생성한다. 상술한 바와 같이, 다양한 기준 블록 선택 모드가 있다. 어느 모드가 선택되었는지를 디코더에 알리기 위하여, MCTF 인코더(100)는 "기준 블록 선택 모드" 정보를 대응하는 매크로블록의 헤더 영역의 특정 위치의 필드에 삽입한 후에 "기준 블록 선택 모드" 정보를 텍스쳐 코딩부(110)로 전송한다.
베이스층의 픽쳐가 도 3b에 도시된 바와 같이 기준 픽쳐 선택 방법에서 인핸스드층의 픽쳐 예측을 위한 기준 픽쳐로서 사용되면, 베이스층 픽쳐의 전부 또는 일부가 인핸스드층 픽쳐의 예측에 사용될 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 베이스층 픽쳐가 4:3의 종횡비를 가지고, 베이스층 픽쳐의 실제 이미지부(502)가 16:9의 종횡비를 가지며 인핸스드층 픽쳐(500)가 16:9의 종횡비를 가지면, 베이스층 픽쳐의 상부 및 하부 수평부(501a 및 501b)는 무효 데이터를 포함한다. 이 경우, 베이스층 픽쳐의 이미지부(502) 만이 인핸스드층 픽쳐(500)의 예측에 사용된다. 이를 달성하기 위하여, 스케일러(105a)는 베이스층 픽쳐의 이미지부(502)를 선택(또는 절단)하고(S41), 선택된 이미지부(502)를 업-샘플링(up-sample)하여 인핸스드층 픽쳐(500)의 크기로 확대하고(S42), 확대된 이미지부를 추 정기/예측기(102)에 제공한다.
MCTF 인코더(100)는 베이스층 픽쳐의 선택된 부분의 위치 정보를 잔여 데이터로 코딩된 현재 픽쳐의 헤더에 병합한다. MCTF 인코더(100)는 또한 베이스층 픽쳐의 일부가 선택되어 사용된다는 것을 나타내는 플래그 "flag_base_layer_cropping"을 설정하여 적절한 위치의 픽쳐 헤드로 삽입함으로써 플래그가 디코더로 전달되도록 한다. 플래그 "flag_base_layer_cropping"이 리셋될 때는 위치 정보가 전송되지 않는다.
도 5a 및 5b는 베이스층 픽쳐의 선택된 부분(512)에 관한 정보의 구조의 실시예를 나타낸다. 도 5a의 실시예에서, 베이스층 픽쳐의 선택된 부분(512)은 베이스층 픽쳐의 좌측, 우측, 상부 및 하부 경계로부터의 오프셋(left_offset, right_offset, top_offset 및 bottom_offset)에 의해 지정된다. 좌측 오프셋은 베이스층 이미지 내의 좌측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 선택된 부분(512) 내의 좌측 픽셀간의 위치 오프셋을 나타낸다. 상부측 오프셋은 베이스층 이미지 내의 상부측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 선택된 부분(512) 내의 상부측 픽셀간의 위치 오프셋을 나타낸다. 우측 오프셋은 베이스층 이미지 내의 우측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 선택된 부분(512) 내의 우측 픽셀간의 위치 오프셋을 나타낸다. 하부측 오프셋은 베이스층 이미지 내의 하부측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 선택된 부분(512) 내의 하부측 픽셀간의 위치 오프셋을 나타낸다. 도 5b의 실시예에서, 베이스층 픽쳐의 선택된 부분(512)은 베이스층 픽쳐의 좌측 및 상부 경계로부터의 오 프셋(left_offset 및 top_offset) 및 선택된 부분(512)의 폭 및 높이(crop_width 및 crop_height)에 의해 지정된다. 또한, 다른 다양한 지정 방법이 가능하다.
도 5a 및 5b에 도시된 선택된 부분의 정보에 있어서의 오프셋은 네가티브 값을 가질 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 베이스층 픽쳐가 4:3의 종횡비를 갖고, 인핸스드층 픽쳐(600)가 16:9의 종횡비를 갖고, 픽쳐의 실제 이미지부가 4:3의 종횡비를 가지면, 좌측 및 우측 오프셋값(left_offset 및 right_offset)은 네가티브 값(-dL 및 -dR)을 갖는다. 베이스층 픽쳐로부터 연장된 부분(601a 및 601b)은 네가티브 값(-dL 및 -dR)에 의해 지정된다. 연장된 부분(601a 및 601b)은 오프스크린(offscreen) 데이터로 채워지고, 연장된 부분(601a 및 601b)을 포함하는 픽쳐(610)는 인핸스드층 픽쳐(600)와 동일한 크기를 갖도록 업샘플링된다. 따라서, 인핸스드층 픽쳐(600)의 실제 이미지부에 대응하는 확대된 베이층 픽쳐 내의 영역(611)의 데이터는 인핸스드층 픽쳐(600)의 실제 이미지부의 예측에 사용될 수 있다.
도 5a 및 5b에 도시된 정보의 오프셋 필드가 네가티브 값을 가질 수 있으므로, 베이스층 픽쳐 내의 선택된 영역을 지정하는 도 5a 및 5b의 정보를 이용하는 대신, 확대된 베이스층 픽쳐와 관련되는 인핸스드층 픽쳐와 중첩하는 영역의 위치 정보로서 도 5a 및 5b의 정보를 이용함으로써 도 4의 예에서 설명한 것과 동일한 이점이 얻어진다.
특히, 도 7을 참조하면, 베이스층 픽쳐(702)가 업샘플링되어 베이스층 픽 쳐(702)의 실제 이미지 영역(701)이 인핸스드층 픽쳐(700)의 크기로 확대되면, 확대된(예를 들어, 업샘플링된) 픽쳐는 인핸스드층 픽쳐(700)보다 큰 영역에 대응한다. 이 예에서, 상부측 및 하부측 오프셋(top_offset 및 bottom_offset)은 인핸스드층 픽쳐(700)와 중첩하는 영역의 위치 정보에 포함된다. 이들 오프셋은 확대된 베이스층 픽쳐에 대응하고 네가티브 값(-dT 및 dB)이 할당되어 확대된 베이스층 픽쳐의 실제 이미지 영역만이 인핸스드층 픽쳐(700)의 예측에 사용되도록 한다. 도 7의 예에서, 확대된 베이스층 픽쳐에 대응하는 영역의 위치 정보의 좌측 및 우측 오프셋은 제로이다. 그러나, 좌측 및 우측 오프셋은 제로가 아닐 수 있으며 확대된 베이스층 픽쳐에 대응한다는 것을 이해할 것이다. 확대된 베이스층 픽쳐 내의 이미지의 일부는 인핸스드층 픽쳐를 결정하는데 사용되지 않을 수 있다. 마찬가지로, 오프셋 정보가 베이스층 픽쳐에 대응하면, 업샘플 베이스층 픽쳐와 반대로, 베이스층 픽쳐의 이미지의 일부가 인핸스드층 픽쳐를 결정하는데 사용되지 않을 수 있다.
또한, 이 실시예에서, 좌측 오프셋은 업샘플링된 베이스층 이미지 내의 좌측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 인핸스드층 이미지 내의 좌측 픽셀간의 위치 오프셋을 나타낸다. 상부측 오프셋은 업샘플링된 베이스층 내의 상부측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 인핸스드층 이미지 내의 상부측 픽셀간의 위치 오프셋을 나타낸다. 우측 오프셋은 업샘플링된 베이스층 이미지 내의 우측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 인핸스드층 이미지 내의 우측 픽셀간의 위치 오프셋을 나타낸다. 하부측 오프셋은 업샘플링된 베이스층 이미지 내의 하부측 픽셀(또는, 예를 들어, 적어도 하나의 픽셀) 및 인핸스드층 이미지 내의 하부측 픽셀간의 위치 오프셋을 나타낸다.
상술한 바와 같이, 도 5a 및 5b의 정보는 인핸스드층 픽쳐의 예측에 사용되는 베이스층 픽쳐의 일부의 선택을 위한 정보로서 사용되거나 인핸스드층 픽쳐의 예측에 사용되는 베이스층 픽쳐와 관련된 인핸스드층 픽쳐와 중첩되는 영역의 위치 정보로서 사용될 수 있다.
베이스층 픽쳐의 크기 및 종횡비의 정보, 베이스층 픽쳐의 실제 이미지의 모드 정보 등은 예를 들어 인코딩된 베이스층 스트림의 시퀀스 헤더로부터 디코딩함으로써 결정될 수 있다. 즉, 정보는 인코딩된 베이스층 스트림의 시퀀스 헤더에 기록될 수 있다. 따라서, 상술한 베이스층 픽쳐 내의 선택된 영역 또는 베이스층 픽쳐에 대응하는 인핸스드층 픽쳐와 중첩하는 영역의 위치는 위치 또는 오프셋 정보에 기초하여 결정되고, 베이스층 픽쳐의 전부 또는 일부가 이 결정을 적응시키는데 사용된다.
도 1 및 2로 되돌아가면, MCTF 인코더(100)는 소정 길이의 픽쳐 시퀀스, 예를 들어 픽쳐 그룹(GOP)에 대해 상술한 "P" 및 "U" 동작을 수행함으로써 H 프레임의 시퀀스 및 L 프레임의 시퀀스를 각각 생성한다. 그 후, 직렬 접속된 다음 단(도시하지 않음)의 추정기/예측기 및 갱신기는 생성된 L 프레임 시퀀스에 대하여 "P" 및 "U" 동작을 반복함으로써 H 프레임의 시퀀스 및 L 프레임의 시퀀스를 생성한다. "P" 및"U" 동작은 소정 횟수(예를 들어, GOP에 대하여 하나의 L 프레임이 생성될 때까지) 수행되어 최종 인핸스드층 시퀀스를 생성한다.
상술한 방법으로 인코딩된 데이터 스트림은 디코딩 장치로 무선 또는 유선으로 전송되거나 기록 매체를 통해 전송된다. 디코딩 장치는 후술하는 방법에 따라 인핸스드 및/또는 베이스층 내의 본래의 비디오 신호를 재구성한다.
도 8은 도 1의 장치에 의해 인코딩된 데이터 스트림을 디코딩하는 장치를 나타내는 블록도이다. 도 8의 디코딩 장치는 디먹스(디멀티플렉서)(200), 텍스쳐 디코딩부(210), 움직임 디코딩부(220), MCTF 디코더(230) 및 베이스층 디코더(240)을 포함한다. 디멀티플렉서(200)는 수신된 데이터 스트림을 압축 움직임 벡터 스트림, 압축 매크로블록 정보 스트림 및 베이스층 스트림으로 분리한다. 텍스쳐 디코딩부(210)는 압축 매크로블록 정보 스트림을 압축되지 않은 본래의 상태로 재구성한다. 움직임 디코딩부(220)는 압축 움직임 벡터 스트림을 압축하지 않은 본래의 상태로 재구성한다. MCTF 디코더(230)는 압축되지 않은 매크로블록 정보 스트림 및 압축되지 않은 움직임 벡터 스트림을 MCTF 방식에 따라 본래의 비디오 신호로 변환하는 인핸스드층 디코더이다. 베이스층 디코더(240)는 지정된 방식, 예를 들어, MPEG-4 또는 H.264 표준에 따라 베이스층 스트림을 디코딩한다.
MCTF 디코더(230)는 내부 요소로서 입력 스트림을 본래의 프레임 시퀀스로 재구성하기 위한 도 9에 도시된 구조를 갖는 역필터를 포함한다.
도 9는 MCTF 레벨 N의 H 및 L 프레임의 시퀀스를 레벨 N-1의 L 프레임의 시퀀스로 재구성하는 역필터의 일부 요소를 나타낸다. 도 9의 역필터의 요소는 역갱신기(231), 역예측기(232), 움직임 벡터 디코더(235), 배열기(arranger)(234), 및 스케일러(230a)를 포함한다. 역갱신기(231)는 입력 L 프레임의 대응하는 픽셀값으로부터 입력 H 프레임의 픽셀 차 값을 감산한다. 역예측기(232)는 H 프레임의 이미지 차가 감산된 L 프레임 및/또는 스케일러(240a)로부터 출력된 확대된 픽쳐를 참조하여 입력 H 프레임을 본래의 이미지를 갖는 프레임으로 재구성한다. 움직임 벡터 디코더(235)는 입력 움직임 벡터 스트림을 각각의 블록의 움직임 벡터 정보로 디코딩하고 움직임 벡터 정보를 각 단의 역예측기(예를 들어, 역예측기(232))로 공급한다. 배열기(234)는 역갱신기(231)로부터 출력된 L 프레임간의 역예측기(232)에 의해 완성된 프레임을 인터리브하여 정상 비디오 프레임 시퀀스를 생성한다. 스케일러(230a)는 예를 들어 도 5a 및 5b에 도시된 바와 같은 정보에 따라 베이스층의 작은 화면 픽쳐를 인핸스드층 픽쳐 크기로 확대한다.
배열기(234)로부터 출력된 L 프레임은 레벨 N-1의 L 프레임 시퀀스(601)를 구성한다. 레벨 N-1의 다음단의 역갱신기 및 예측기는 레벨 N-1의 L 프레임 시퀀스(601) 및 입력 H 프레임 시퀀스(602)를 L 프레임 시퀀스로 재구성한다. 이 디코딩 프로세스는 인코딩 처리에서 채용된 MCTF 레벨의 수와 동일한 횟수만큼 수행되어 본래의 비디오 프레임 시퀀스를 재구성한다. 입력 H 프레임의 각각의 매크로블록의 헤더에 포함된 "reference_selection_code" 정보를 참조하여, 역예측기(232)는 기준 프레임으로서 사용된 베이스층의 확대된 프레임 및/또는 인핸스드층의 L 프레임을 지정하여 매크로블록을 잔여 데이터로 코딩한다. 역예측기(232)는 움직임 벡터 디코더(235)로부터 제공된 움직임 벡터에 기초하여 지정된 프레임 내의 기준 블록을 결정하고 기준 블록의 픽셀 값 (또는 매크로블록의 기준 블록으로서 사 용되는 2개의 매크로블록의 평균 픽셀 값)을 H 프레임의 매크로블록의 픽셀 차 값에 부가하여 H 프레임의 매크로블록의 본래의 이미지를 재구성한다.
베이스층 픽쳐가 현재 H 프레임의 기준 프레임으로서 사용되면, 스케일러(230a)는 베이스층 픽쳐(도 4의 예에서) 내의 영역을 선택하여 확대하거나 MCTF 디코더(230)에 의해 분석된 헤더에 포함된 도 5a 및 5b에 도시된 바와 같은 위치 관계 정보에 기초하여 베이스층 픽쳐(도 6의 예에서)보다 큰 영역을 확대하여 베이스층 픽쳐의 확대된 영역이 상술한 바와 같이 현재의 H 프레임 내의 잔여 데이터를 포함하는 매크로블록을 본래의 이미지 블록으로 재구성하는데 사용되도록 한다. 위치 관계 정보는 헤더로부터 추출되어 위치 관계 정보가 포함되어 있는지를 나타내는 정보(특히, 도 5a 및 5b의 예의 플래그 "flag_base_layer_cropping")가 위치 관계 정보가 포함되었다는 것을 나타낼 때 참조된다.
도 5a 및 5b의 정보가 인핸스드층 픽쳐의 예측에 사용되는 인핸스드층 픽쳐와 중첩되는 영역의 위치를 나타내는 정보로서 사용되는 경우, 역예측기(232)는 오프셋 정보의 값(포지티브 또는 네가티브)에 따라 확대된 베이스층 픽쳐의 전체를 현재의 H 프레임보다 큰 영역 또는 현재의 H 프레임의 전부 또는 일부와 관련시킴으로써 인핸스드층 픽쳐의 예측을 위해 스케일러(230a)로부터 수신된 베이스층 픽쳐 중에서 확대된 것을 사용한다. 확대된 베이스층 픽쳐가 현재의 H 프레임보다 큰 영역과 관련된 도 7의 경우에, 예측기(232)는 현재의 H 블록 내의 매크로블록을 본래의 이미지로 재구성하기 위하여 H 프레임에 대응하는 확대된 베이스층 픽쳐의 영역만을 이용한다. 이 예에서, 오프셋 정보는 네가티브 값을 포함한다.
하나의 H 프레임에 대하여, 프레임 내의 매크로블록이 재구성된 자신의 본래의 이미지를 갖도록 MCTF 디코딩이 특정 단위, 예를 들어, 병렬 방식의 슬라이스 단위로 수행되고, 재구성된 매크로 블록은 결합되어 완전한 비디오 프레임을 구성한다.
상술한 디코딩 방법은 MCTF 인코딩 데이터 스트림을 완전한 비디오 프레임 시퀀스로 재구성한다. 디코딩 장치는 그 처리 및 프리젠테이션 능력에 의존하는 베이스층을 이용하여 베이스층 시퀀스를 디코딩하여 출력하거나 인핸스드층 시퀀스를 디코딩하여 출력한다.
상술한 디코딩 장치는 이동 통신 단말기, 미디어 플레이어 등에 병합될 수 있다.
본 발명은 예시적인 실시예를 참조하여 설명하였지만, 본 발명의 범위를 벗어나지 않은 한도내에서 다양한 개량, 변경, 대체, 및 추가 등이 가능함은 당업자에게 자명한 것이다. 따라서, 본 발명은 본 발명의 개량, 변경, 대체 및 추가를 포함한다.
도 1은 본 발명에 따른 스케일러블 비디오 신호 코딩 방법이 적용되는 비디오 신호 인코딩 장치를 나타내는 블록도.
도 2는 이미지 추정/예측 및 갱신 동작을 수행하는 도 1에 도시된 MCTF 인코더의 일부를 나타내는 블록도.
도 3a 및 3b는 인핸스드층 프레임을 예측 이미지를 갖는 H 프레임으로 변환하기 위한 기준 프레임으로서 사용될 수 있는 인핸스드층 프레임 및 베이스층 프레임간의 관계를 나타내는 도면.
도 4는 본 발명의 일 실시예에 따라 베이스층 픽쳐의 일부가 선택되고 확대되어 인핸스드층 픽쳐의 예측 동작에 사용되는 방법을 나타내는 도면.
도 5a 및 5b는 본 발명에 따라 디코더로 전송되는, 베이스층 픽쳐 및 인핸스드층 픽쳐 간의 위치 관계에 대한 정보의 구조의 실시예를 나타내는 도면.
도 6은 본 발명의 다른 실시예에 따라 베이스층 픽쳐를 포함하는 영역이 확대되어 인핸스드층 픽쳐의 예측 동작에 사용되는 방법을 나타내는 도면.
도 7은 본 발명의 다른 실시예에 따라 베이스층 픽쳐가 인핸스드층 픽쳐보다 큰 영역으로 확대되어 인핸스드층 픽쳐의 예측 동작에 사용되는 방법을 나타내는 도면.
도 8은 도 1의 장치에 의해 인코딩된 데이터 스트림을 디코딩하는 장치를 나타내는 블록도.
도 9는 역예측(inverse prediction) 및 갱신 동작을 수행하는 도 8에 도시된 MCTF 디코더의 일부를 나타내는 블록도.

Claims (1)

  1. 인핸스드 레이어에 있는 현재 이미지 내의 현재 블록의 위치 정보를 획득하는 단계;
    슬라이스 헤더로부터 오프셋 정보를 획득할지 여부를 확인하는 단계;
    여기서, 상기 오프셋 정보는 베이스 레이어에 있는 참조 이미지의 적어도 하나의 경계 픽셀과 상기 현재 이미지의 적어도 하나의 경계 픽셀 사이의 위치 차이를 나타냄.
    상기 확인 결과에 따라 슬라이스 헤더로부터 상기 오프셋 정보를 획득하는 경우, 상기 오프셋 정보와 상기 현재 블록의 위치 정보에 기초하여 상기 참조 이미지 내의 참조 블록의 위치 정보를 획득하는 단계;
    상기 참조 블록의 위치 정보에 기초하여 참조 픽셀값을 획득하는 단계; 및
    상기 참조 픽셀값에 기초하여 상기 현재 블록을 디코딩하는 단계
    를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
KR1020087028742A 2005-04-13 2006-04-12 기준 픽쳐를 이용하여 비디오 신호를 인코딩/디코딩하는 방법 및 장치 KR101041823B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US67067605P 2005-04-13 2005-04-13
US60/670,676 2005-04-13
KR1020050066622 2005-07-22
KR1020050066622A KR20060109247A (ko) 2005-04-13 2005-07-22 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020077023435A Division KR100883602B1 (ko) 2005-04-13 2006-04-12 기준 픽쳐를 이용하여 비디오 신호를 인코딩/디코딩하는방법 및 장치

Publications (2)

Publication Number Publication Date
KR20090007461A KR20090007461A (ko) 2009-01-16
KR101041823B1 true KR101041823B1 (ko) 2011-06-17

Family

ID=37615642

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020050066622A KR20060109247A (ko) 2003-03-27 2005-07-22 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
KR1020050074841A KR20060109248A (ko) 2005-04-13 2005-08-16 영상신호의 엔코딩/디코딩시에 내부모드 블록의 정보를처리하는 방법 및 장치
KR1020050074844A KR20060109249A (ko) 2005-04-13 2005-08-16 영상신호의 엔코딩/디코딩시에 베이스 레이어 픽처의모션벡터를 사용하여 영상블록을 위한 모션벡터를 예측하는방법 및 장치
KR1020050075949A KR20060109251A (ko) 2005-04-13 2005-08-18 영상신호의 엔코딩/디코딩시에 기준픽처 그룹을 사용하는방법과 장치
KR1020050115579A KR20060109279A (ko) 2005-04-13 2005-11-30 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR1020087028742A KR101041823B1 (ko) 2005-04-13 2006-04-12 기준 픽쳐를 이용하여 비디오 신호를 인코딩/디코딩하는 방법 및 장치

Family Applications Before (5)

Application Number Title Priority Date Filing Date
KR1020050066622A KR20060109247A (ko) 2003-03-27 2005-07-22 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
KR1020050074841A KR20060109248A (ko) 2005-04-13 2005-08-16 영상신호의 엔코딩/디코딩시에 내부모드 블록의 정보를처리하는 방법 및 장치
KR1020050074844A KR20060109249A (ko) 2005-04-13 2005-08-16 영상신호의 엔코딩/디코딩시에 베이스 레이어 픽처의모션벡터를 사용하여 영상블록을 위한 모션벡터를 예측하는방법 및 장치
KR1020050075949A KR20060109251A (ko) 2005-04-13 2005-08-18 영상신호의 엔코딩/디코딩시에 기준픽처 그룹을 사용하는방법과 장치
KR1020050115579A KR20060109279A (ko) 2005-04-13 2005-11-30 영상 신호의 스케일러블 인코딩 및 디코딩 방법

Country Status (6)

Country Link
US (4) US7746933B2 (ko)
JP (1) JP2008536438A (ko)
KR (6) KR20060109247A (ko)
CN (1) CN101180885A (ko)
MY (2) MY152501A (ko)
TW (2) TWI324481B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013141596A1 (ko) * 2012-03-20 2013-09-26 삼성전자 주식회사 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 부호화 방법 및 그 장치, 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 복호화 방법 및 그 장치

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1849303A2 (en) * 2005-02-18 2007-10-31 THOMSON Licensing Method for deriving coding information for high resolution pictures from low resolution pictures
KR100750137B1 (ko) * 2005-11-02 2007-08-21 삼성전자주식회사 영상의 부호화,복호화 방법 및 장치
KR100834557B1 (ko) * 2006-01-13 2008-06-02 경희대학교 산학협력단 방향정보 기반의 업샘플링을 이용한 공간적 계층 비디오복호화 장치 및 그 방법
KR101352978B1 (ko) 2006-01-16 2014-01-28 고려대학교 산학협력단 향상된 계층간 참조 영상 지정, 복호 방법 및 그 장치
US8880571B2 (en) * 2006-05-05 2014-11-04 Microsoft Corporation High dynamic range data format conversions for digital media
US8401085B2 (en) * 2006-09-07 2013-03-19 Lg Electronics Inc. Method and apparatus for decoding/encoding of a video signal
US8054885B2 (en) * 2006-11-09 2011-11-08 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
JP2009538084A (ja) * 2006-11-17 2009-10-29 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
US8054886B2 (en) * 2007-02-21 2011-11-08 Microsoft Corporation Signaling and use of chroma sample positioning information
KR100944333B1 (ko) * 2007-07-30 2010-03-02 한국과학기술원 스케일러블 비디오 부호화에서 계층간 예측모드 고속결정방법
KR100935528B1 (ko) * 2007-10-23 2010-01-06 한국전자통신연구원 주변 블록의 정보를 이용한 효율적인 영상 확대 방법 및이를 적용한 스케일러블 비디오 부호화/복호화 장치 및방법
JP4687725B2 (ja) * 2008-02-12 2011-05-25 ソニー株式会社 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
US8861598B2 (en) * 2008-03-19 2014-10-14 Cisco Technology, Inc. Video compression using search techniques of long-term reference memory
EP2152009A1 (en) * 2008-08-06 2010-02-10 Thomson Licensing Method for predicting a lost or damaged block of an enhanced spatial layer frame and SVC-decoder adapted therefore
US8503527B2 (en) * 2008-10-03 2013-08-06 Qualcomm Incorporated Video coding with large macroblocks
EP2404447A1 (en) * 2009-03-02 2012-01-11 Thomson Licensing Method and device for displaying a sequence of pictures
US8320455B2 (en) * 2009-03-05 2012-11-27 Qualcomm Incorporated System and method to process motion vectors of video data
KR101671460B1 (ko) 2009-09-10 2016-11-02 에스케이 텔레콤주식회사 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US8611414B2 (en) * 2010-02-17 2013-12-17 University-Industry Cooperation Group Of Kyung Hee University Video signal processing and encoding
KR102415787B1 (ko) 2010-05-04 2022-06-30 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US8494290B2 (en) * 2011-05-05 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Method for coding pictures using hierarchical transform units
CN104980756A (zh) * 2011-06-28 2015-10-14 三星电子株式会社 根据像素分类使用偏移调整的视频解码方法及其设备
KR20180080365A (ko) * 2011-10-14 2018-07-11 어드밴스드 마이크로 디바이시즈, 인코포레이티드 영역-기반 이미지 압축
US9961343B2 (en) 2011-10-24 2018-05-01 Infobridge Pte. Ltd. Method and apparatus for generating reconstructed block
PL3402200T3 (pl) 2011-10-24 2023-04-11 Gensquare Llc Aparat do dekodowania obrazu
WO2013172074A1 (ja) * 2012-05-15 2013-11-21 ソニー株式会社 画像処理装置及び画像処理方法
UA111797C2 (uk) * 2012-09-27 2016-06-10 Долбі Лабораторіс Лайсензін Корпорейшн Обробка міжрівневого еталонного зображення для масштабованості стандартів кодування
CN104937932B (zh) * 2012-09-28 2019-04-19 英特尔公司 可适性视频编码的增强参考区域利用
US9648319B2 (en) * 2012-12-12 2017-05-09 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
US10284842B2 (en) * 2013-03-05 2019-05-07 Qualcomm Incorporated Inter-layer reference picture construction for spatial scalability with different aspect ratios
US9813723B2 (en) * 2013-05-03 2017-11-07 Qualcomm Incorporated Conditionally invoking a resampling process in SHVC
KR20140138538A (ko) 2013-05-24 2014-12-04 주식회사 케이티 복수의 레이어를 지원하는 비디오 코딩 방법 및 장치
WO2015083575A1 (ja) 2013-12-06 2015-06-11 シャープ株式会社 画像復号装置、画像符号化装置、および、符号化データ変換装置
TWI756723B (zh) * 2020-06-29 2022-03-01 大陸商北京集創北方科技股份有限公司 用於摺疊式觸控顯示裝置之疊屏誤觸識別方法、摺疊式觸控顯示裝置及資訊處理裝置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788347B1 (en) * 1997-03-12 2004-09-07 Matsushita Electric Industrial Co., Ltd. HDTV downconversion system
KR20050021487A (ko) * 2002-07-15 2005-03-07 톰슨 라이센싱 에스.에이. 가중치 예측을 사용한 움직임 추정

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4788624A (en) 1987-12-21 1988-11-29 North American Philips Corporation Capacitor having current surge protection
GB9206860D0 (en) 1992-03-27 1992-05-13 British Telecomm Two-layer video coder
JP2933487B2 (ja) 1994-07-15 1999-08-16 松下電器産業株式会社 クロマフォーマット変換の方法
US6957350B1 (en) 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5712687A (en) 1996-04-25 1998-01-27 Tektronix, Inc. Chrominance resampling for color images
US6549575B1 (en) 1996-11-07 2003-04-15 International Business Machines Corporation. Efficient, flexible motion estimation architecture for real time MPEG2 compliant encoding
CA2255923C (en) 1997-04-01 2005-06-07 Sony Corporation Picture coding device, picture coding method, picture decoding device, picture decoding method, and providing medium
US6057884A (en) 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US5995150A (en) 1998-02-20 1999-11-30 Winbond Electronics Corporation America Dual compressed video bitstream camera for universal serial bus connection
KR100269206B1 (ko) 1998-02-21 2000-10-16 윤종용 임의 해상도 다계층 이진형상 부호화기 및 그 방법
KR100343766B1 (ko) 1999-06-08 2002-07-20 마쯔시다덴기산교 가부시키가이샤 영상신호 셔플링, 부호화, 복호화 장치 및 그 프로그램기록매체
US6697426B1 (en) 2000-03-17 2004-02-24 Koninklijke Philips Electronics N.V. Reduction of layer-decoding complexity by reordering the transmission of enhancement layer frames
US6510177B1 (en) 2000-03-24 2003-01-21 Microsoft Corporation System and method for layered video coding enhancement
WO2002033952A2 (en) 2000-10-11 2002-04-25 Koninklijke Philips Electronics Nv Spatial scalability for fine granular video encoding
US7463683B2 (en) 2000-10-11 2008-12-09 Koninklijke Philips Electronics N.V. Method and apparatus for decoding spatially scaled fine granular encoded video signals
US6931063B2 (en) 2001-03-26 2005-08-16 Sharp Laboratories Of America, Inc. Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US7450641B2 (en) 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
US6792044B2 (en) 2001-05-16 2004-09-14 Koninklijke Philips Electronics N.V. Method of and system for activity-based frequency weighting for FGS enhancement layers
US6804299B2 (en) * 2001-06-15 2004-10-12 Microsoft Corporation Methods and systems for reducing requantization-originated generational error in predictive video streams using motion compensation
DE10204789A1 (de) * 2002-02-06 2003-08-14 Merck Patent Gmbh Inhibitoren des Integrins alpha¶v¶beta6
JP4102973B2 (ja) 2002-04-24 2008-06-18 日本電気株式会社 動画像の符号化方法および復号化方法、これを用いた装置とプログラム
US7694326B2 (en) 2002-05-17 2010-04-06 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program
US7136417B2 (en) 2002-07-15 2006-11-14 Scientific-Atlanta, Inc. Chroma conversion optimization
US7062096B2 (en) * 2002-07-29 2006-06-13 Matsushita Electric Industrial Co., Ltd. Apparatus and method for performing bitplane coding with reordering in a fine granularity scalability coding system
US7072394B2 (en) 2002-08-27 2006-07-04 National Chiao Tung University Architecture and method for fine granularity scalable video coding
US7321625B2 (en) 2002-12-13 2008-01-22 Ntt Docomo, Inc. Wavelet based multiresolution video representation with spatially scalable motion vectors
CA2470546C (en) 2003-06-13 2010-08-17 The Directv Group, Inc. Method and apparatus for providing carrier synchronization in digital broadcast and interactive systems
KR20050049644A (ko) 2003-11-22 2005-05-27 삼성전자주식회사 시각적 화질을 균일하게 하는 비트 레이트 컨트롤 방법 및장치
EP1695558A2 (en) 2003-12-09 2006-08-30 Koninklijke Philips Electronics N.V. Spatial and snr scalable video coding
US7777812B2 (en) 2005-11-18 2010-08-17 Sharp Laboratories Of America, Inc. Methods and systems for picture resampling
US8023569B2 (en) 2005-12-15 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for block-based residual upsampling

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788347B1 (en) * 1997-03-12 2004-09-07 Matsushita Electric Industrial Co., Ltd. HDTV downconversion system
KR20050021487A (ko) * 2002-07-15 2005-03-07 톰슨 라이센싱 에스.에이. 가중치 예측을 사용한 움직임 추정

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013141596A1 (ko) * 2012-03-20 2013-09-26 삼성전자 주식회사 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 부호화 방법 및 그 장치, 트리 구조의 부호화 단위에 기초한 스케일러블 비디오 복호화 방법 및 그 장치

Also Published As

Publication number Publication date
US20060233263A1 (en) 2006-10-19
US7593467B2 (en) 2009-09-22
CN101180885A (zh) 2008-05-14
US7586985B2 (en) 2009-09-08
KR20060109279A (ko) 2006-10-19
KR20090007461A (ko) 2009-01-16
US7746933B2 (en) 2010-06-29
US7688897B2 (en) 2010-03-30
US20090180551A1 (en) 2009-07-16
MY152501A (en) 2014-10-15
TWI324480B (en) 2010-05-01
TW200708112A (en) 2007-02-16
JP2008536438A (ja) 2008-09-04
TWI324481B (en) 2010-05-01
US20090180550A1 (en) 2009-07-16
TW200708113A (en) 2007-02-16
US20060233249A1 (en) 2006-10-19
KR20060109249A (ko) 2006-10-19
MY153132A (en) 2014-12-31
KR20060109248A (ko) 2006-10-19
KR20060109251A (ko) 2006-10-19
KR20060109247A (ko) 2006-10-19

Similar Documents

Publication Publication Date Title
KR101041823B1 (ko) 기준 픽쳐를 이용하여 비디오 신호를 인코딩/디코딩하는 방법 및 장치
KR100883603B1 (ko) 기준 픽쳐를 이용하여 비디오 신호를 디코딩하는 방법 및장치
US9288486B2 (en) Method and apparatus for scalably encoding and decoding video signal
US7924917B2 (en) Method for encoding and decoding video signals
US7787540B2 (en) Method for scalably encoding and decoding video signal
US8755434B2 (en) Method and apparatus for scalably encoding and decoding video signal
US8660180B2 (en) Method and apparatus for scalably encoding and decoding video signal
US20060062299A1 (en) Method and device for encoding/decoding video signals using temporal and spatial correlations between macroblocks
US20060133482A1 (en) Method for scalably encoding and decoding video signal
US20090103613A1 (en) Method for Decoding Video Signal Encoded Using Inter-Layer Prediction
KR100880640B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법
US20060133677A1 (en) Method and apparatus for performing residual prediction of image block when encoding/decoding video signal
US20060120454A1 (en) Method and apparatus for encoding/decoding video signal using motion vectors of pictures in base layer
KR100878824B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법
KR100883604B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법
US20060120459A1 (en) Method for coding vector refinement information required to use motion vectors in base layer pictures when encoding video signal and method for decoding video data using such coded vector refinement information
KR100878825B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140523

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150522

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160524

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180514

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190514

Year of fee payment: 9