KR101858040B1 - 비디오 데이터 인코딩 및 디코딩 방법 및 장치 - Google Patents

비디오 데이터 인코딩 및 디코딩 방법 및 장치 Download PDF

Info

Publication number
KR101858040B1
KR101858040B1 KR1020167020210A KR20167020210A KR101858040B1 KR 101858040 B1 KR101858040 B1 KR 101858040B1 KR 1020167020210 A KR1020167020210 A KR 1020167020210A KR 20167020210 A KR20167020210 A KR 20167020210A KR 101858040 B1 KR101858040 B1 KR 101858040B1
Authority
KR
South Korea
Prior art keywords
information group
information
decoding
coding
group
Prior art date
Application number
KR1020167020210A
Other languages
English (en)
Other versions
KR20160102062A (ko
Inventor
막심 시체프
진 송
빅터 스테핀
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20160102062A publication Critical patent/KR20160102062A/ko
Application granted granted Critical
Publication of KR101858040B1 publication Critical patent/KR101858040B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 코딩 및 디코딩 기술 분야와 관련되고, 코딩 효율성 및 전송 유연성을 개선할 수 있는 비디오 데이터 코딩 및 디코딩 방법들 및 장치들을 개시한다. 본 발명에 의해 제공되는 디코딩 방법은, 디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보, 및 위치 정보를 포함하는 제1 디코딩 대상 정보 그룹을 결정하는 단계, 속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하는 단계, 그리고 참조 정보 그룹 세트 내에서 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하거나, 또는 참조 정보 그룹 세트 내에서 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하는 단계를 포함한다.

Description

비디오 데이터 인코딩 및 디코딩 방법 및 장치{VIDEO DATA ENCODING AND DECODING METHODS AND DEVICES}
본 발명은 코딩 및 디코딩 기술 분야에 관한 것으로, 특히 비디오 데이터 코딩 및 디코딩 방법 및 장치에 관한 것이다.
비디오 통신 시스템에서, RTP(Real-time Transport Protocol)는 비디오 데이터를 코딩하고, RTP 데이터 패킷을 생성하기 위해 일반적으로 사용된다. 그리고, UDP(User Datagram Protocol)은 RTP 데이터 패킷을 전송하기 위해 사용된다. 비디오는 복수의 픽쳐들로 형성되고, 그리고 하나의 픽쳐는 적어도 하나의 슬라이스에 의해 형성된다. 그러나, UDP는 신뢰할 수 없는 전송 프로토콜이고, 전송 프로세스 내에서, 네트워크가 혼잡한 동안 패킷 손실이 쉽게 일어난다. 그러므로, 디코더에 의해 복원된 비디오의 품질이 영향을 받는다.
전술한 문제점을 해결하기 위해, 비디오 데이터 코딩 프로세스 내에서 리던던트 픽쳐 기술이 도입될 수 있다. 리던던트 픽쳐 기술은 구체적으로, 비디오 데이터 코딩 프로세스 내에서 기본 슬라이스에 대응하는 하나 이상의 리던던트 슬라이스를 생성하는 것과, 그리고 기본 슬라이스 및 리던던트 슬라이스를 전송을 위한 다른 패킷들로 패키징하는 것을 포함하고, 여기서 픽쳐는 적어도 하나의 슬라이스에 의해 형성된다. 이러한 방식으로, 디코더는 다음과 같은 방법을 이용하여 디코딩을 수행할 수 있다. 다음의 방법은, 현재 슬라이스의 속성 정보를 획득하기 위해, 현재 슬라이스의 슬라이스 헤더를 파싱하는 것, 여기서 현재 슬라이스의 속성 정보는 현재 슬라이스가 기본 슬라이스 또는 리던던트 슬라이스임을 나타내기 위해 사용되고, 현재 슬라이스가 리던던트 슬라이스이고, 현재 슬라이스에 대응하는 기본 슬라이스가 정상 슬라이스(즉, 패킷 손실 없는 슬라이스)일 때, 현재 슬라이스를 폐기하는 것, 그리고 현재 슬라이스가 리던던트 슬라이스이고, 현재 슬라이스에 대응하는 기본 슬라이스가 예외적인 슬라이스(즉, 패킷 손실 있는 슬라이스)이면, 기본 슬라이스의 슬라이스 헤더 정보를 현재 슬라이스의 헤더로 복사하는 것, 그리고 리던던트 슬라이스를 이용하여 비디오를 복원하기 위해, 현재 슬라이스의 다른 정보의 파싱을 계속하는 것을 포함한다.
전술한 디코딩 방법에 따르면, 기본 슬라이스는 기본 슬라이스에 대응하는 리던던트 슬라이스가 디코딩되기 전에 디코딩될 필요가 있으며, 이는 기본 슬라이스에 대응하는 리던던트 슬라이스가 전송되기 전에 전송되는 기본 슬라이스를 요구하고, 이는 낮은 전송 유연성을 초래한다. 또한, 슬라이스는 비디오 데이터 코딩 프로세스 내에서 베이직 슬라이스 또는 리던던트 슬라이스로서 마킹되어야할 필요가 있으며, 이는 낮은 코딩 효율을 초래한다.
본 발명의 실시예들은 코딩 효율성 및 전송 유연성을 개선할 수 있는 비디오 데이터 코딩 및 디코딩 방법들 및 장치들을 제공한다.
전술한 과제를 달성하기 위해, 본 발명의 실시예들 내에서 다음의 기술적 솔루션들이 사용된다.
제1 측면에 따르면, 비디오 데이터 코딩 방법은, 코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 정보 그룹을 결정하는 단계, 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하는 단계, 여기서 리던던트 정보 그룹은 제2 코딩 대상 데이터를 포함하고, 리던던트 정보 그룹의 위치 정보는 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보 그룹의 위치 정보와 동일하며, 제1 코딩 대상 데이터 및 위치 정보를 코딩하여 제1 정보 그룹을 생성하는 단계, 그리고 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계를 포함한다.
제1 측면을 참조하여, 첫 번째 가능한 구현 방식으로, 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계는, 참조 정보 그룹 세트가 제1 정보 그룹을 포함하는 경우에, 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계를 포함하고, 여기서 참조 정보 그룹 세트가 참조 정보 그룹을 포함하고, 참조 정보 그룹은 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹이 코딩된 후에 생성된 정보 그룹을 의미한다.
제1 측면을 참조하여, 두 번째 가능한 구현 방식으로, 제1 코딩 대상 데이터 및 위치 정보를 코딩하여 제1 정보 그룹을 생성하는 단계는, 제1 코딩 대상 데이터, 위치 정보, 및 제1 정보 그룹의 속성 정보를 코딩하여 제1 정보 그룹을 생성하는 단계를 포함하고, 여기서 제1 정보 그룹의 속성 정보는 제1 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용된다.
제1 측면의 두 번째 가능한 구현 방식을 참조하여, 세 번째 가능한 구현 방식으로, 제1 정보 그룹의 속성 정보는 제1 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
제1 측면을 참조하여, 네 번째 가능한 구현 방식으로, 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계는, 제2 코딩 대상 데이터, 위치 정보, 제2 정보 그룹의 속성 정보, 및 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입을 코딩하여 제2 정보 그룹을 생성하는 단계를 포함하고, 여기서 제2 정보 그룹의 속성 정보는 제2 정보 그룹이 리던던트 정보 그룹임을 나타내기 위해 사용된다.
제1 측면의 네 번째 가능한 구현 방식을 참조하여, 다섯 번째 가능한 구현 방식으로, 제2 정보 그룹의 속성 정보는 제2 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
제1 측면의 네 번째 가능한 구현 방식 또는 다섯 번째 가능한 구현 방식을 참조하여, 여섯 번째 가능한 구현 방식으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 제2 정보 그룹의 부가 정보 내에서 위치한다.
제1 측면을 참조하여, 일곱 번째 가능한 구현 방식으로, 위치 정보는, 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 표시 위치 또는 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 코딩 위치를 포함한다.
제1 측면을 참조하여, 여덟 번째 가능한 구현 방식으로, 코딩 대상 정보 그룹은 다음의 비디오 코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나이다.
제1 측면을 참조하여, 아홉 번째 가능한 구현 방식으로, 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하는 단계는, 코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹에 의해 참조로 사용되는 정보인 참조용 정보를 코딩 대상 정보 그룹 내에서 결정하는 단계, 그리고 참조용 정보에 대응하는 리던던트 정보 그룹을 생성하는 단계를 포함한다.
제1 측면을 참조하여, 열 번째 가능한 구현 방식으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP(intra random access point) 타입이다.
제2 측면에 따르면, 비디오 데이터 디코딩 방법은 디코딩 대상 비트스트림 및 참조 정보 그룹 세트 내에서 디코딩 대상 정보 그룹을 결정하는 단계, 여기서 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고; 디코딩 대상 비트스트림은 기본 정보 그룹 및 기본 정보 그룹에 대응하는 리던던트 정보 그룹을 포함하고, 그리고 디코딩 대상 비트스트림 내에서 기본 정보 그룹의 위치는 리던던트 정보 그룹의 앞이며; 디코딩 대상 정보 그룹은 기본 정보 그룹 또는 리던던트 정보 그룹이고; 그리고 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 그리고 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하고, 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면 디코딩 대상 정보 그룹을 폐기하거나 또는 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하는 단계를 포함한다.
제2 측면을 참조하여, 첫 번째 가능한 구현 방식으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 디코딩 대상 정보 그룹의 위치 정보와 동일하며, 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면 디코딩 대상 정보 그룹을 폐기하는 것은, 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 디코딩 대상 정보 그룹을 폐기하는 것을 포함한다.
제2 측면의 첫 번째 가능한 구현 방식을 참조하여, 두 번째 가능한 구현 방식으로, 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하는 단계를 더 포함한다.
제2 측면의 첫 번째 가능한 구현 방식을 참조하여, 세 번째 가능한 구현 방식으로, 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
제2 측면을 참조하여, 네 번째 가능한 구현 방식으로, 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나를 포함한다.
제2 측면을 참조하여, 다섯 번째 가능한 구현 방식으로, 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입이다.
제3 측면에 따르면, 비디오 데이터 디코딩 방법은, 디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹을 결정하는 단계, 여기서 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보 및 위치 정보를 포함하고, 그리고 속성 정보는 제1 디코딩 대상 정보 그룹이 기본 정보 그룹 또는 리던던트 정보 그룹임을 나타내기 위해 사용되고, 속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하는 단계, 여기서, 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하며, 그리고 참조 정보 그룹 세트 내에서 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하거나, 또는 참조 정보 그룹 세트 내에서 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하는 단계를 포함한다.
제3 측면을 참조하여, 첫 번째 가능한 구현 방식으로, 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하기 전에, 방법은, 디코딩 대상 비트스트림 내에서 제2 디코딩 대상 정보 그룹을 결정하는 단계, 제2 디코딩 대상 정보 그룹을 디코딩하는 단계, 그리고 제2 디코딩 대상 정보 그룹이 디코딩된 후에 참조 정보 그룹 세트를 업데이트하는 단계를 더 포함하고, 데이터 정보를 파싱하는 것은 업데이트된 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면 데이터 정보를 파싱하는 것을 포함한다.
제3 측면의 첫 번째 가능한 구현 방식을 참조하여, 두 번째 가능한 구현 방식으로, 업데이트된 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 같으면 제1 디코딩 대상 정보 그룹을 폐기하는 단계를 더 포함한다.
제3 측면을 참조하여, 세 번째 가능한 구현 방식으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하고, 참조 정보 그룹 세트 내에서 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하는 것은, 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 제1 디코딩 대상 정보 그룹을 폐기하는 것을 포함한다.
제3 측면의 세 번째 가능한 구현 방식을 참조하여, 네 번째 가능한 구현 방식으로, 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하는 단계를 더 포함한다.
제3 측면을 참조하여, 다섯 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
제3 측면의 세 번째 가능한 구현 방식을 참조하여, 여섯 번째 가능한 구현 방식으로, 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
제3 측면 또는 제3 측면의 첫 번째 내지 여섯 번째 가능한 구현 방식을 참조하여, 일곱 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내고, 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입을 더 포함하며, 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면 데이터 정보를 파싱한 후, 네트워크 추상화 계층 유닛 타입을 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입으로 대체하는 단계를 더 포함한다.
제3 측면의 일곱 번째 가능한 구현 방식을 참조하여, 여덟 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입은 제1 디코딩 대상 정보 그룹의 부가 정보 내에 위치한다.
제3 측면을 참조하여, 아홉 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나이다.
제3 측면을 참조하여, 열 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입이다.
제4 측면에 따르면, 비디오 데이터 코딩 장치는, 코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 정보 그룹을 결정하도록 구성된 결정 유닛, 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하도록 구성된 생성 유닛, 여기서 리던던트 정보 그룹은 제2 코딩 대상 데이터를 포함하고, 리던던트 정보 그룹의 위치 정보는 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보 그룹의 위치 정보와 동일하며, 제1 코딩 대상 데이터 및 위치 정보를 코딩하여 제1 정보 그룹을 생성하도록 구성된 제1 코딩 유닛, 그리고 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하도록 구성된 제2 코딩 유닛을 포함한다.
제4 측면을 참조하여, 첫 번째 가능한 구현 방식으로, 제2 코딩 유닛은 구체적으로, 참조 정보 그룹 세트가 제1 정보 그룹을 포함할 경우, 제2 정보 그룹을 생성하기 위해 제2 코딩 대상 데이터 및 위치 정보를 코딩하도록 구성되고, 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹이 코딩된 후에 생성된 정보 그룹을 의미한다.
제4 측면을 참조하여, 두 번째 가능한 구현 방식으로, 제1 코딩 유닛은 구체적으로, 제1 코딩 대상 데이터, 위치 정보, 및 제1 정보 그룹의 속성 정보를 코딩하여 제1 정보 그룹을 생성하도록 구성되고, 여기서 제1 정보 그룹의 속성 정보는 제1 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용된다.
제4 측면의 두 번째 가능한 구현 방식을 참조하여, 세 번째 가능한 구현 방식으로, 제1 정보 그룹의 속성 정보는 제1 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
제4 측면을 참조하여, 네 번째 가능한 구현 방식으로, 제2 코딩 유닛은 구체적으로, 제2 코딩 대상 데이터, 위치 정보, 제2 정보 그룹의 속성 정보, 및 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입을 코딩하여 제2 정보 그룹을 생성하도록 구성되고, 기 제2 정보 그룹의 속성 정보는 제2 정보 그룹이 리던던트 정보 그룹임을 나타내기 위해 사용된다.
제4 측면의 네 번째 가능한 구현 방식을 참조하여, 다섯 번째 가능한 구현 방식으로, 제2 정보 그룹의 속성 정보는 제2 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
제4 측면의 네 번째 가능한 구현 방식 또는 다섯 번째 가능한 구현 방식을 참조하여, 여섯 번째 가능한 구현 방식으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 제2 정보 그룹의 부가 정보 내에서 위치한다.
제4 측면을 참조하여, 일곱 번째 가능한 구현 방식으로, 위치 정보는, 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보 그룹의 표시 위치 또는 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보의 코딩 위치를 포함한다.
제4 측면을 참조하여, 여덟 번째 가능한 구현 방식으로, 코딩 대상 정보 그룹은 다음의 비디오 코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나이다.
제4 측면을 참조하여, 아홉 번째 가능한 구현 방식으로, 생성 유닛은, 코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹에 의해 참조로 사용되는 정보인 참조용 정보를 코딩 대상 정보 그룹 내에서 결정하도록 구성된 결정 서브유닛, 및 참조용 정보에 대응하는 리던던트 정보 그룹을 생성하도록 구성된 생성 서브유닛을 포함한다.
제4 측면을 참조하여, 열 번째 가능한 구현 방식으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입이다.
제5 측면에 따르면, 비디오 데이터 디코딩 장치는 디코딩 대상 비트스트림 및 참조 정보 그룹 세트 내에서 디코딩 대상 정보 그룹을 결정하도록 구성된 결정 유닛, 여기서 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고, 디코딩 대상 비트스트림은 기본 정보 그룹 및 기본 정보 그룹에 대응하는 리던던트 정보 그룹을 포함하고, 그리고 디코딩 대상 비트스트림 내의 기본 정보 그룹의 위치는 리던던트 정보 그룹의 앞이며, 디코딩 대상 정보 그룹은 기본 정보 그룹 또는 리던던트 정보 그룹이고; 그리고 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 그리고 참조 정보 그룹은 디코딩 대상 비트 스트림 내에서 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하며, 그리고 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면 디코딩 대상 정보 그룹을 폐기하도록 구성된 제1 처리 유닛, 또는 참조 정보 그룹 세트 내에서 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하도록 구성된 제2 처리 유닛을 포함한다.
제5 측면을 참조하여, 첫 번째 가능한 구현 방식으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 여기서 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 디코딩 대상 정보 그룹의 위치 정보와 동일하며, 제1 처리 유닛은 구체적으로 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 디코딩 대상 정보 그룹을 폐기하도록 구성된다.
제5 측면의 첫 번째 가능한 구현 방식을 참조하여, 두 번째 가능한 구현 방식으로, 제1 처리 유닛은 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하도록 더 구성된다.
제5 측면의 첫 번째 가능한 구현 방식을 참조하여, 세 번째 가능한 구현 방식으로, 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
제5 측면을 참조하여, 네 번째 가능한 구현 방식으로, 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나를 포함한다.
제5 측면을 참조하여, 다섯 번째 가능한 구현 방식으로, 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입이다.
제6 측면에 따르면, 비디오 데이터 디코딩 장치는, 디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹을 결정하고, 여기서 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보 및 위치 정보를 포함하고, 그리고 속성 정보는 제1 디코딩 대상 정보 그룹이 기본 정보 그룹 또는 리던던트 정보 그룹임을 나타내기 위해 사용되고, 속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하도록 구성된 결정 유닛, 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 디코딩 대상 비트 스트림 내에서 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하며, 그리고 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하도록 구성된 제1 처리 유닛, 또는 참조 정보 그룹 세트 내에서 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하도록 구성된 제2 처리 유닛을 포함한다.
제6 측면을 참조하여, 첫 번째 가능한 구현 방식으로, 제2 처리 유닛을 포함하는 경우, 결정 유닛은 디코딩 대상 비트스트림 내에서 제2 디코딩 대상 정보 그룹을 결정하도록 더 구성되고, 비디오 데이터 디코딩 장치는, 제2 디코딩 대상 정보 그룹을 디코딩하는 디코딩 유닛, 그리고 제2 디코딩 대상 정보 그룹이 디코딩된 후에 참조 정보 그룹 세트를 업데이트하는 업데이팅 유닛을 더 포함하고, 그리고 제2 처리 유닛은 구체적으로 업데이트된 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면 데이터 정보를 파싱하도록 구성된다.
제6 측면의 첫 번째 가능한 구현 방식을 참조하여, 두 번째 가능한 구현 방식으로, 제2 처리 유닛은 업데이트된 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 같으면 제1 디코딩 대상 정보 그룹을 폐기하도록 더 구성된다.
제6 측면의 첫 번째 가능한 구현 방식을 참조하여, 세 번째 가능한 구현 방식으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 여기서 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하며, 제1 처리 유닛은 구체적으로 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 제1 디코딩 대상 정보 그룹을 폐기하도록 구성된다.
제6 측면의 세 번째 가능한 구현 방식을 참조하여, 네 번째 가능한 구현 방식으로, 제1 처리 유닛은 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하도록 더 구성된다.
제6 측면을 참조하여, 다섯 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
제6 측면의 세 번째 가능한 구현 방식을 참조하여, 여섯 번째 가능한 구현 방식으로, 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
제6 측면 또는 제6 측면의 첫 번째 내지 여섯 번째 가능한 구현 방식을 참조하여, 일곱 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내고, 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입을 더 포함하며, 제2 처리 유닛을 포함하는 경우, 비디오 데이터 디코딩 장치는, 네트워크 추상화 계층 유닛 타입을 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입으로 대체하도록 구성된 대체 유닛을 더 포함한다.
제6 측면의 일곱 번째 가능한 구현 방식을 참조하여, 여덟 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입은 제1 디코딩 대상 정보 그룹의 부가 정보 내에 위치한다.
제6 측면을 참조하여, 아홉 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나이다.
제6 측면을 참조하여, 열 번째 가능한 구현 방식으로, 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입이다.
전술한 솔루션 내에서 코딩 방법 및 코딩 장치에 따르면, 제1 정보 그룹의 속성 정보 및 제2 정보 그룹의 속성 정보는 마킹될 필요가 없다. 그러므로, 코딩 효율성이 개선될 수 있다. 전술한 솔루션 내에서 디코딩 방법 및 디코딩 장치에 따르면, 슬라이스는 비디오 데이터 코딩 프로세스 내에서 기본 슬라이스 또는 리던던트 슬라이스로서 마킹될 필요가 없으므로, 코딩 효율성이 개선될 수 있다. 또는 기본 슬라이스가 기본 슬라이스에 대응하는 리던던트 슬라이스가 디코딩되기 전에 디코딩될 필요가 없고, 즉, 기본 슬라이스는 기본 슬라이스에 대응하는 리던던트 슬라이스가 전송되기 전에 전송될 필요가 없으므로, 전송 효율성이 개선될 수 있다.
본 발명의 실시예들의 기술적 솔루션을 더욱 명확하게 설명하기 위해, 실시예들 또는 종래 기술을 설명하기 위해 요구되는 첨부 도면을 다음에서 간단하게 소개한다. 명백하게, 다음의 설명에 첨부된 도면은 본 발명의 일부 실시예를 나타내고, 당업자는 여전히 창의적인 노력없이 이러한 첨부한 도면들에서 다른 도면을 유도할 수 있다.
도 1은 본 발명의 제1 실시예에 따른 비디오 데이터 코딩 방법의 순서도이다.
도 2는 본 발명의 제2 실시예에 따른 비디오 데이터 디코딩 방법의 순서도이다.
도 3은 본 발명의 제3 실시예에 따른 다른 비디오 디코딩 방법의 순서도이다.
도 4는 본 발명의 제1 실시예에 따른 비디오 코딩 방법의 순서도이다.
도 5는 본 발명의 제1 실시예에 따른 비디오 디코딩 방법의 순서도이다.
도 6은 본 발명의 제1 실시예에 따른 다른 비디오 디코딩 방법의 순서도이다.
도 7은 본 발명의 제2 실시예에 따른 비디오 데이터 코딩 방법의 순서도이다.
도 8은 본 발명의 제2 실시예에 따른 비디오 데이터 디코딩 방법의 순서도이다.
도 8a는 본 발명의 제2 실시예에 따른 다른 비디오 데이터 디코딩 방법의 순서도이다.
도 9는 본 발명의 제4 실시예에 따른 비디오 데이터 코딩 장치의 구조도이다.
도 10은 본 발명의 제4 실시예에 따른 다른 비디오 데이터 코딩 장치의 구조도이다.
도 11은 본 발명의 제5 실시예에 따른 비디오 데이터 코딩 장치의 구조도이다.
도 12는 본 발명의 제6 실시예에 따른 비디오 데이터 디코딩 장치의 구조도이다.
도 13은 본 발명의 제7 실시예에 따른 비디오 데이터 디코딩 장치의 구조도이다.
도 14는 본 발명의 제8 실시예에 따른 비디오 데이터 디코딩 장치의 구조도이다.
도 15는 본 발명의 제8 실시예에 따른 비디오 데이터 디코딩 장치의 구조도이다.
도 16은 본 발명의 제9 실시예에 따른 비디오 데이터 디코딩 장치의 구조도이다.
다음은 본 발명의 실시예들 내의 첨부된 도면을 참조하여, 본 발명의 실시예들 내의 기술적 해결책을 명확하고, 완전하게 설명한다. 명백하게, 전술한 실시예들은 본 발명의 실시예들의 전체가 아닌 일부이다. 창의적인의 노력없이, 본 발명의 실시예들에 기초하여 당업자에 의해 얻어진 다른 모든 실시예들은 본 발명의 보호 범위 내에 포함된다.
상세한 설명 내의 "및/또는"의 용어는 단순히 연관된 물체들을 설명하기 위한 연관 관계를 설명하고, 세 가지 관계가 존재할 수 있음을 나타낸다. 예를 들어, A 및/또는 B는, A만 존재하는 경우, A 및 B 둘 다 존재하는 경우, 및 B만 존재하는 경우를 나타낸다. 또한, 상세한 설명 내의 기호"/"는 일반적으로 관련된 물체들 사이의 "또는" 관계를 지시한다.
제1 실시예
도 1에 도시된 바와 같이, 도 1은 본 발명의 실시예에서 제공되는 비디오 데이터 코딩 방법을 나타낸다. 방법은 단계(101), 단계(102), 단계(103), 및 단계(104)를 포함한다.
101: 코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 정보 그룹을 결정한다.
예시적으로, 본 실시예는, 인코더에 의해 실행될 수있다.
본 실시예에서 일부 용어들은 이하에서 설명된다.
(1) 코딩 대상 정보 그룹: 속성은 기본 정보 그룹이고, 하나의 코딩 대상 정보 그룹은 하나의 픽쳐 또는 전체 픽쳐의 부분을 형성하는 데이터일 수 있거나, 또는 하나의 픽쳐 또는 전체 픽쳐의 부분을 예측하기 위해 사용되는 데이터일 수 있다.
선택적으로, 코딩 대상 정보 그룹은 구체적으로 다음의 비디오 코딩 유닛들, 픽쳐, 슬라이스, 타일, 및 프레임 중 하나를 포함할 수 있으나, 이에 제한되지 않는다.
(2) 코딩 대상 비디오 시퀀스는 하나 이상의 코딩 대상 정보 그룹을 포함한다.
(3) 참조 정보 그룹은 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹이 코딩된 후 생성된 정보 그룹을 의미하고, 예를 들어, 다음의 제1 정보 그룹 또는 다음의 제2 정보 그룹이다.
(4) 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 하나 이상의 요소를 포함할 수 있거나, 또는 널(null) 세트일 수 있다. 예를 들어, 단계(101) 내의 코딩 대상 정보 그룹이 코딩 대상 비디오 시퀀스 내의 제1 정보 그룹인 경우, 참조 정보 그룹 세트는 널 세트이다. 또한, 일반적으로, 특정 제한이 참조 정보 그룹 세트의 용량에 부과된다. 참조 정보 그룹 세트가 과도한 참조 정보 그룹들을 포함하는 경우, 코딩 순으로, 인코더는 코딩 수단에 의해 첫째로 획득된 참조 정보 그룹을 참조 정보 그룹 세트로부터 제거한다. 본 발명의 실시예에서, 용량은 제한되지 않는다. 또한, 명확하고 간결하게 본 발명의 실시예의 기술적 솔루션을 설명하기 위해, "참조 정보 그룹 세트로부터 참조 정보 그룹을 제거하는 것"은 다음의 실시예들에서 설명되지 않는다.
102: 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하고, 여기서, 리던던트 정보 그룹은 제2 코딩 대상 데이터를 포함하고, 리던던트 정보 그룹의 위치 정보는 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 위치 정보와 동일하다.
제1 코딩 대상 데이터는 제2 코딩 대상 데이터와 같거나 또는 다를 수 있다. 선택적으로, 위치 정보는 다음과 같은 정보, 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 표시 위치, 또는 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 코딩 위치, 중 하나를 포함하고, 이는 반드시 이에 한정되는 것은 아니며, 여기서 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 표시 위치는 POC((picture order count)일 수 있다.
예시적으로, 단계(102)는 종래의 방법을 사용하여 구현될 수 있으며, 세부 사항은 여기에서 다시 설명하지 않는다. 코딩 대상 정보 그룹 내의 모든 정보가 리던던트 정보 그룹, 또는 다른 코딩 대상 정보 그룹에 의해 참조하기 위해 사용되고, 리던던트 정보 그룹을 생성하기 위해 사용될 수 있는 코딩 대상 정보 그룹 내의 유일한 정보를 생성하기 위해 사용될 수 있음을 유의해야 한다.
본 발명의 실시예에서, 단계(102)는 코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹에 의해 참조하기 위해 사용되는 정보인 참조용 정보를 상기 코딩 대상 정보 그룹 내에서 결정하는 단계, 그리고 참조용 정보에 대응하는 리던던트 정보 그룹을 생성하는 단계를 포함할 수 있다.
예시적으로, 참조용 정보 그룹이 프레임인 것으로 가정하면, 단계(102)는 구체적으로 다음과 같이 구현될 수 있다. N 번째 프레임은 N+1 번째 프레임의 참조 프레임이고, N 번째 프레임이 코딩된다. N+1 번째 프레임이 코딩된다. N+1 번째 프레임의 코드 블록들은 연속적으로 코딩되고, N 번째 프레임 내에서 최적 참조 블록은 각 코드 블록에 대해 획득될 수 있으며, 각각의 최적 참조 블록의 위치가 기록되고, N 번째 프레임에 대응하는 리던던트 프레임이 코딩되며, 여기서 최적 참조 블록으로서 마킹된 코드 블록만이 코딩되고, 다른 코드 블록은 널 데이터로 채워진다.
103: 제1 코딩 대상 데이터 및 위치 정보를 코딩하여 제1 정보 그룹을 생성한다.
본 발명의 실시예에서, 단계(103)은 구체적으로, 제1 코딩 대상 데이터, 위치 정보, 및 제1 정보 그룹의 속성 정보를 코딩하여 제1 정보 그룹을 생성하는 단계를 포함할 수 있고, 여기서 제1 정보 그룹의 속성 정보는 제1 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용된다.
선택적으로, 제1 정보 그룹의 속성 정보가 제1 정보 그룹의 NALU (Network Abstract Layer Unit) 헤더 내에 위치한다.
특정 구현 동안, 구체적으로 RADL(random access decodable leading), RASL(random access skipped leading), BLA(broken link access), IDR(instantaneous decoding refresh), 또는 CRA(clean random access)인 제1 정보 그룹의 NALU 헤더는 제1 정보 그룹의 NALU 유형을 더 포함하고, 여기서 BLA, IDR 또는 CRA는 합쳐서 IRAP 유형으로 지칭된다.
104: 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성한다.
예시적으로, 단계(103) 및 단계(104)에서의 코딩 방법들은 종래의 방법을 이용하여 구현될 수 있다. 예를 들어, 코딩은 RTP 등에 따라 수행된다.
특정 구현 동안, 단계(103)가 먼저 수행되고, 단계(104)가 수행될 수 있거나, 또는 단계(104)가 먼저 수행되고, 단계(103)이 수행될 수 있음을 유의해야 한다. 또한, 코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹의 코딩은 단계(103) 및 단계(104) 사이에서 수행될 수 있고, 즉, 코딩 대상 정보 그룹에 대응하는 코딩 대상 정보 그룹 및 리던던트 정보 그룹이 연속적으로 코딩되거나, 또는 불연속적으로 코딩될 수 있다.
코딩 방법이 다음의 비디오 데이터 디코딩 방법에 적용될 수 있음을 보장하기 위해, 선택적으로, 단계(104)는 참조 정보 그룹 세트가 제1 정보 그룹을 포함하는 경우, 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계, 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹이 코딩된 후에 생성된 정보 그룹을 의미한다. 이 방식으로, 제1 정보 그룹의 코딩 위치가 제2 코딩 정보 그룹의 코딩 위치로부터 과도하게 멀리 떨어져 있는 것을 방지할 수 있고, 결과적으로, 코딩 대상 정보 그룹이 리던던트 정보 그룹인 것으로 결정될 때, 코딩 대상 정보 그룹에 대응하는 기본 정보 그룹이 참조 정보 그룹 세트로부터 제거되었다.
본 발명의 실시예에서, 단계(104)는 구체적으로, 제2 코딩 대상 데이터, 위치 정보, 제2 정보 그룹의 속성 정보, 및 제1 정보 그룹의 네트워크 추상화 계층 유닛 유형을 코딩하여 제2 정보 그룹을 생성하는 단계를 포함하고, 여기서 제2 정보 그룹의 속성 정보는 제2 정보 그룹이 리던던트 정보 그룹임을 나타내기 위해 사용된다. 선택적으로, 제2 정보 그룹의 속성 정보는 제2 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다. 선택적으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 유형은 제2 정보 그룹의 부가 정보 세트 내에 위치한다. 구체적으로, 코딩 대상 정보 그룹이 프레임, 픽쳐, 또는 슬라이스인 경우, 부가 정보는 구체적으로 슬라이스 헤더일 수 있고, 코딩 대상 정보 그룹이 타일인 경우, 부가 정보 세트는 구체적으로 타일 헤더일 수 있다.
제2 정보 그룹의 속성 정보는 제2 정보 그룹의 NALU 유형(다음의 내용에서 "리던던트 유형")으로서 사용될 수 있거나, 또는 제2 정보 그룹의 NALU 헤더 내에서 속성으로서 독립적으로 사용될 수 있음을 유의해야 한다. 전자는 다음의 실시예에서 설명하는 예로서 사용된다. 대응하여, 제1 정보 그룹의 속성 정보는 암시적으로 제1 정보 그룹의 NALU 유형일 수 있거나, 또는 제1 정보 그룹의 NALU 헤더 내의 속성으로서 독립적으로 사용될 수 있다. 전자는 구체적으로, 다음과 같이 구현될 수 있다. 정보 그룹의 NALU 유형이 리던던트 유형이 아닌 경우, 정보 그룹은 기본 정보 그룹이라고 간주된다. 전자는 다음의 실시예에서 설명하는 예로서 사용된다.
하나의 NAL 유닛(즉, NALU)는 하나의 프레임의 부분, 하나의 프레임, 또는 복수의 프레임들을 포함할 수 있다. "하나의 NAL 유닛은 하나의 프레임을 포함하고, 하나의 프레임은 하나의 슬라이스를 포함하고, 코딩 대상 정보 그룹은 프레임인"예시는 다음에서 설명을 위해 사용된다. 본 실시예에서 제공되는 방법에 따라 코딩 대상 정보 그룹이 코딩된 후에, 두 개의 NAL 유닛들이 생성될 수 있고, 여기서 하나의 NAL 유닛은 기본 정보 그룹이고, 다른 NAL 유닛은 리던던트 정보 그룹이다. 단계(101) 내지 단계(104)에서 코딩 대상 정보 그룹을 이용하는 것의 예로서, 두 개의 생성된 NAL 유닛들은 각각 제1 정보 그룹 및 제2 정보 그룹이다. NAL 유닛은 NALU 헤더 및 NALU 데이터를 포함하고, NALU 데이터는 슬라이스 헤더 및 슬라이스 데이터를 포함하며, 그리고 슬라이스 데이터는 전술한 "데이터 정보"를 포함한다.
코딩 대상 비디오 시퀀스가 코딩된 후에, 코딩된 비트스트림(하나 이상의 참조 정보 그룹을 포함함)이 생성되고, 그리고 네트워크 내에서 전송된 후에 디코더의 코딩 대상 비트스트림이 된다. 특정 구현 동안, 인코더는 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보 그룹의 일부 또는 전부가 코딩된 후에 생성된 코딩된 비트 스트림을 디코더로 전송할 수 있다.
본 발명의 실시예에서 제공되는 비디오 데이터 코딩 방법은 종래의 비디오 데이터 코딩 방법과 함께 사용될 수 있음을 유의해야 하고, 종래의 비디오 데이터 디코딩 방법은 구체적으로, 리던던트 정보 그룹이 코딩 대상 비디오 시퀀스 내의 일부 코딩 대상 정보 그룹에 대해 구성되고, 다른 코딩 대상 정보 그룹에 대해서는 리던던트 정보 그룹이 구성되지 않는 것으로 설명될 수 있다. 즉, 일부의 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹이 생성되고, 다른 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹은 생성되지 않는다. 선택적으로, 리던던트 정보 그룹은 NALU 유형이 IRAP 유형인 코딩 대상 정보 그룹에 대해 구성될 수 없고, 여기서 구체적으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 유형은 non-IRAP 유형이다. 확실히, 리던던트 정보 그룹은 코딩 대상 비디오 시퀀스 내의 각각의 코딩 대상 정보 그룹에 대해 더 구성될 수 있다.
본 발명의 실시예에서 제공되는 비디오 데이터 코딩 방법에 따르면, 제2 코딩 대상 데이터를 포함하고, 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹이 생성되고, 코딩 대상 정보 그룹에 포함된 제1 코딩 대상 데이터 및 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 위치 정보는 제1 정보 그룹을 생성하기 위해 코딩되며, 제2 코딩 대상 데이터 및 리던던트 정보 그룹의 위치 정보는 제2 정보 그룹을 생성하기 위해 코딩되고, 여기서 리던던트 정보 그룹의 위치 정보는 코딩 대상 정보 그룹의 위치 정보와 동일하다. 이 솔루션에서, 코딩은 제1 정보 그룹의 속성 정보 및 제2 정보 그룹의 속성 정보의 마킹 요구 없이 수행되고, 그러므로 코딩 효율성이 개선될 수 있다.
제2 실시예
본 실시예에서 제공되는 비디오 디코딩 방법은 전술한 비디오 데이터 코딩 방법에 대응한다. 도 2에 도시된 바와 같이, 비디오 데이터 디코딩 방법은, 단계(201), 및 단계(202)를 포함한다.
201: 디코딩 대상 비트스트림 및 참조 정보 그룹 세트 내에서 디코딩 대상 정보 그룹을 결정하고, 여기서 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고, 디코딩 대상 비트스트림은 기본 정보 그룹 및 기본 정보 그룹에 대응하는 리던던트 정보 그룹을 포함하며, 그리고 디코딩 대상 비트스트림 내에서 기본 정보 그룹의 위치는 리던던트 정보 그룹의 앞이고; 디코딩 대상 정보 그룹은 기본 정보 그룹 또는 리던던트 정보 그룹이며; 그리고 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 그리고 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미한다.
예시적으로, 본 실시예는, 디코더에 의해 실행될 수있다.
본 실시예에서 일부 용어들은 이하에서 설명된다.
(1) 디코딩 대상 정보 그룹: 디코딩 대상 정보 그룹의 속성은 기본 정보 그룹 또는 리던던트 정보 그룹이다. 디코딩 대상 정보 그룹은 구체적으로 제1 실시예에서의 제1 정보 그룹 또는 제2 정보 그룹일 수 있다.
선택적으로, 디코딩 대상 정보 그룹은 구체적으로 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일, 및 프레임 중 하나를 포함할 수 있으나, 이에 제한되지 않는다.
(2) 디코딩 대상 비트스트림: 코딩된 비트스트림은 제1 실시예에서 코딩 대상 비디오 시퀀스가 코딩된 후에 생성되고, 네트워크 내에서 전송된 후에 디코더 내에서 디코딩 대상 비트스트림이 되며, 전송 프로세스 내에서 패킷 손실이 일어날 수 있고, 디코딩 대상 비트스트림은 하나 이상의 디코딩 대상 정보 그룹을 포함한다.
(3) 참조 정보 그룹은 디코딩 대상 비트스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미한다.
(4) 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 하나 이상의 요소를 포함할 수 있거나, 또는 널(null) 세트일 수 있다. 예를 들어, 단계(201) 내의 디코딩 대상 정보 그룹이 디코딩 대상 비트스트림 내의 제1 정보 그룹인 경우, 참조 정보 그룹 세트는 널 세트이다. 예시적으로, 참조 정보 그룹 세트 내의 정보 그룹은 DPB(Decoded Picture Buffer, 이하에서는 "DPB 데이터"로 설명함) 내의 데이터일 수 있거나, 또는 RPS(Reference Picture Set) 내의 데이터일 수 있다. 또한, 일반적으로, 특정 제한이 참조 정보 그룹 세트의 용량에 부과된다. 참조 정보 그룹 세트가 과도한 참조 정보 그룹들을 포함하는 경우, 디코딩 순으로, 디코더는 디코딩 수단에 의해 첫째로 획득된 참조 정보 그룹을 참조 정보 그룹 세트로부터 제거한다. 본 발명의 실시예에서, 제한이 용량에 부과되지 않는다. 또한, 명확하고 간결하게 본 발명의 실시예의 기술적 솔루션을 설명하기 위해, "참조 정보 그룹 세트로부터 참조 정보 그룹을 제거하는 것"은 다음의 실시예들에서 설명되지 않는다.
(5) 데이터 정보: 디코딩 대상 정보 그룹이 기본 정보 그룹인 경우, "데이터 정보"는 제1 실시예에서의 "제1 코딩 대상 데이터"가 코딩된 후에 생성된 정보일 수 있다. 디코딩 대상 정보 그룹이 리던던트 정보 그룹인 경우, "데이터 정보"는 제1 실시예에서의 "제2 코딩 대상 데이터"가 코딩된 후에 생성되는 정보일 수 있다.
(6) 디코딩 대상 정보 그룹의 위치 정보는 디코딩 대상 비트스트림 내의 디코딩 대상 정보 그룹의 위치이고, 이는, 특정 구현 동안, 일반적으로 디코딩 대상 정보 그룹이 코딩되기 전, 즉, 디코딩 대상 정보 그룹이 코딩 대상 정보 그룹인 경우에, 코딩 대상 비디오 시퀀스 내의 디코딩 대상 정보 그룹의 표시 위치/순서 또는 코딩 위치/순서를 의미한다. 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 표시 위치/순서는 POC일 수 있다.
(7) 디코딩 대상 비트스트림 내의 기본 정보 그룹의 위치가 리던던트 정보 그룹의 전인 것은 구체적으로, 코딩 프로세스 내에서, 리던던트 정보 그룹에 대응하는 기본 정보 그룹이 리던던트 정보 그룹이 코딩되기 전에 코딩되고, 코딩된 비트스트림이 코딩 순서에 따라 전송되거나, 또는 타임스탬프와 같은, 코딩 시퀀스를 나타내기 위해 사용되는 정보가 패키징 및 전송 전에 패킷 해더에 추가되는 것으로서 구현될 수 있다.
202: 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면 디코딩 대상 정보 그룹을 폐기하거나, 또는 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱한다.
예시적으로, 본 실시예에서, 디코딩 대상 비트스트림 내의 기본 정보 그룹의 위치는 기본 정보 그룹에 대응하는 리던던트 정보 그룹의 앞이고, 기본 정보 그룹의 위치 정보는 리던던트 정보 그룹의 위치 정보와 같다는 것을 제1 실시예로부터 습득될 수 있다. 그러므로, 다음이 획득될 수 있다.
(A) "참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하다"는 것은 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹이 디코딩 대상 정보 그룹에 대응하는 기본 디코딩 정보 그룹 또는 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 다른 리던던트 정보 그룹이고, 코딩 대상 정보 그룹은 리던던트 정보 그룹임을 의미한다. 그러므로, 디코딩 대상 정보 그룹이 폐기될 수 있음은 구체적으로, 디코딩 대상 정보 그룹의 데이터 정보의 파싱을 중지하는 것이고, 또한, 디코딩 대상 정보 그룹은 더 삭제될 수 있다.
(B) "참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르다"는 것은 코딩 대상 정보 그룹이 기본 정보 그룹이거나, 디코딩 대상 정보 그룹이 리던던트 정보 그룹이고, 그러나 리던던트 정보 그룹에 대응하는 기본 정보 그룹은 손실됨을 의미한다. 그러므로, 이 경우에서, 디코딩 대상 정보 그룹의 데이터 정보의 파싱은 계속될 필요가 있다.
본 발명의 실시예에서, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 참조 정보 그룹 세트 내의 제1 참조 정보 그룹의 위치 정보는 디코딩 대상 정보 그룹의 위치 정보와 동일하다. 이 경우에서, 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면 디코딩 대상 정보 그룹을 폐기하는 것은 구체적으로, 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 디코딩 대상 정보 그룹을 폐기하는 것을 포함할 수 있다. 선택적으로, 이 경우에서, 방법은 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하는 것을 더 포함할 수 있다.
예시적으로, 디코더는 참조 정보 그룹의 참조 상태를 획득하기 위해, 인코더와 정보를 교환할 수 있다. 특정 정보 교환 프로세스에 대해, 참조는 종래 기술로부터 이루어질 수 있으며, 세부 사항은 여기에서 다시 설명하지 않는다. 참조 정보 그룹의 참조 상태는 코딩 대상 정보 그룹의 NALU 유형, 코딩 구조 등에 따라 결정되고, 여기서 코딩 구조는 GOP(Group Of Picture) 유형을 포함하며, 수동으로 인코더에서 설정된다.
참조 상태의 특정 세목은 제한되지 않으며, 예를 들어, 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 상태를 포함할 수 있다. 구체적으로, 제1 참조 정보 그룹에 대응하는 디코딩 위치와 디코딩 대상 정보 그룹의 디코딩 위치 사이의 거리가 임계보다 작으면, 제1 참조 정보 그룹은 제1 참조 정보 그룹에 대응하는 단기 참조 정보 그룹이고, 디코딩 대상 정보 그룹의 디코딩 위치가 임계보다 크며, 제1 참조 정보 그룹은 디코딩 대상 정보 그룹의 장기 참조 정보 그룹이다. 또한, 제1 참조 정보 그룹에 대응하는 디코딩 위치와 디코딩 대상 정보 그룹의 디코딩 위치 사이의 거리가 임계와 동일하면, 제1 참조 정보 그룹은 디코딩 대상 정보 그룹의 단기 참조 정보 그룹으로서 지칭될 수 있거나, 또는 디코딩 대상 정보 그룹의 장기 참조 정보 그룹으로서 지칭될 수 있다. 그 임계 값은 16 프레임 또는 다른 값일 수 있다.
선택적으로, 실시예 1에 대응하여, 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 유형은 non-IRAP 유형일 수 있다.
본 실시예에서 제공되는 비디오 디코딩 방법에 따르면, 디코딩 대상 비트스트림 내의 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고, 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면, 디코딩 대상 정보 그룹은 폐기되거나, 또는 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보가 파싱되며, 여기서 제1 디코딩 대상 정보 그룹은 슬라이스일 수 있다. 종래 기술에서 제공되는 비디오 데이터 디코딩 방법과 비교해볼 때, 본 솔루션에서, 슬라이스는 비디오 데이터 코딩 프로세스 내에서 기본 슬라이스 또는 리던던트 슬라이스로서 마킹될 필요가 없으므로, 코딩 효율성이 개선될 수 있다.
제3 실시예
본 실시예에서 제공되는 비디오 데이터 디코딩 방법은 전술한 비디오 데이터 코딩 방법에 대응한다. 도 3에 도시된 바와 같이, 비디오 데이터 디코딩 방법은, 방법은 단계(301), 및 단계(302)를 포함한다.
301: 디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹을 결정하고, 여기서 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보 및 위치 정보를 포함하며, 그리고 속성 정보는 상기 제1 디코딩 대상 정보 그룹이 기본 정보 그룹 또는 리던던트 정보 그룹임을 나타내기 위해 사용된다.
예시적으로, 본 실시예는 디코더에 의해 실행될 수 있다. 본 실시예에서 관련된 컨텐츠의 설명을 위해, 참조는 제2 실시예로부터 이루어질 수 있으며, 세부 사항은 여기에서 다시 설명하지 않는다. "제1 디코딩 대상 정보 그룹"은 디코딩 대상 비트스트림 내의 디코딩 대상 정보 그룹을 의미하고, 다음의 "제2 디코딩 대상 정보 그룹"은 제1 디코딩 대상 정보 그룹 이후의 하나 이상의 디코딩 대상 정보 그룹을 의미한다.
선택적으로, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다. 제1 디코딩 대상 정보 그룹의 속성 정보가 제1 디코딩 대상 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용될 때, 속성 정보는 디코딩 대상 정보 그룹의 NALU 유형 내에 내재될 수 있거나, 또는 NALU 헤더 내의 속성으로서 독립적으로 사용될 수 있음을 유의해야 한다. 전자는 다음의 구체적인 실시예에서 설명하는 예로서 사용된다. 제1 디코딩 대상 정보 그룹의 속성 정보가 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내기 위해 사용될 때, 속성 정보는 제1 디코딩 대상 정보 그룹의 NALU 유형(다음의 내용에서 "리던던트 유형")으로서 사용될 수 있거나, 또는 NALU 헤더 내에서 속성으로서 독립적으로 사용될 수 있다. 전자는 정보 그룹의 NALU 유형이 리던던트 유형이 아닌 경우, 정보 그룹이 기본 정보 그룹이라고 간주되는 것으로 구체적으로 구현될 수 있다. 전자는 다음의 구체적인 실시예에서 설명하는 예로서 사용된다.
선택적으로, 제1 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일, 및 프레임 중 하나이다.
302: 속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하고, 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미한다.
예시적으로, 본 실시예 내의 디코딩 대상 정보 그룹은 속성 정보를 포함하고, 그리고 속성 정보의 파싱을 통해, 디코딩 대상 정보 그룹이 리던던트 정보 그룹 또는 기본 정보 그룹인지 습득될 수 있다. 속성 정보가 NALU 유형으로서 사용되거나 또는 NALU 유형 내에 내재되는 경우, 정보 그룹의 NALU 유형이 정보 그룹의 NALU 헤더 내에 위치하기 때문에, 다음과 같이 설명될 수도 있다. 디코딩 대상 정보 그룹의 NALU 헤더의 파싱을 통해, 디코딩 대상 정보 그룹이 리던던트 정보 그룹 또는 기본 정보 그룹인지 습득될 수 있다.
303: 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하거나, 또는 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱한다.
예시적으로, 본 실시예에서, 기본 정보 그룹의 위치 정보는 리던던트 정보 그룹의 위치 정보와 같다는 것을 제1 실시예로부터 습득될 수 있다. 그러므로, 다음이 획득될 수 있다.
(A) "참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하다"는 것은 참조 정보 그룹 세트가 제1 디코딩 대상 정보 그룹(리던던트 정보 그룹)에 대응하는 기본 정보 그룹을 포함하고, 기본 정보 그룹이 손실되지 않음을 의미한다.
그러므로, 제1 디코딩 대상 정보 그룹이 폐기될 수 있음은 구체적으로, 제1 디코딩 대상 정보 그룹의 데이터 정보의 파싱을 중지하는 것이고, 또한, 디코딩 대상 정보 그룹은 더 삭제될 수 있다.
(B) 본 실시예에서, "참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다른"경우, 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹이 손실되는 것으로 간주되므로, 제1 디코딩 대상 정보 그룹의 데이터 정보는 파싱될 필요가 있다.
또한, 방법은 속성 정보가 제1 디코딩 대상 정보 그룹이 기본 정보임을 나타내는 경우 내의 제1 디코딩 대상 정보 그룹의 참조 정보 그룹의 구성을 파싱하는 것을 더 포함한다.
본 발명의 실시예에서, 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하는 단계 전에, 방법은 디코딩 대상 비트스트림 내의 제2 디코딩 대상 정보 그룹을 결정하는 단계, 제2 디코딩 대상 정보 그룹을 디코딩하는 단계, 그리고 제2 디코딩 대상 정보 그룹이 디코딩된 후에 참조 정보 그룹 세트를 업데이트하는 단계를 더 포함한다.
이 경우에서, 데이터 정보를 파싱하는 것은 업데이트된 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면 데이터 정보를 파싱하는 것을 포함한다. 또한, 방법은 업데이트된 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 같으면 제1 디코딩 대상 정보 그룹을 폐기하는 단계를 더 포함한다.
예시적으로, 본 실시예에서, 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다른 경우, 참조 정보 그룹 세트를 업데이트하도록, 제1 디코딩 대상 정보 그룹 이후의 하나 이상의 디코딩 대상 정보 그룹이 디코딩될 수 있다. 제2 디코딩 대상 정보 그룹의 디코딩을 위한 방법에 대해서, 참조는 도 3으로 이루어질 수 있다. 특정 구현 동안, 제2 코딩 대상 정보 그룹의 양은 실제 시나리오 및 환경에 따라 결정되고, 본 발명의 본 실시예에 내에서 이에 대해 제한하지 않는다.
본 발명의 실시예에서, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 참조 정보 그룹 세트 내의 제1 참조 정보 그룹의 위치 정보는 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하다. 이 경우에서, 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하는 것은, 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 제1 디코딩 대상 정보 그룹을 폐기하는 것을 포함한다.
선택적으로, 이 경우에서, 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하는 단계를 더 포함한다. 선택적으로, 사용 가능한 참조 상태는, 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
본 발명의 실시예에서, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내고, 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형을 더 포함한다. 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다른 경우에 데이터 정보를 파싱한 후, 방법은 네트워크 추상화 계층 유닛 유형을 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형으로 대체하는 단계를 더 포함한다.
예시적으로, 특정 구현 동안, 네트워크 추상화 계층 유닛 유형이 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형으로 대체된 후, 방법은 새로운 네트워크 추상화 계층 유닛 유형에 따라 대응하는 동작을 실행하는 단계를 더 포함한다. 예를 들어, 새로운 네트워크 추상화 계층 유닛 유형이 IDR(instantaneous decoding refresh) 프레임 유형인 경우, 디코딩된 픽쳐 버퍼를 비우는 동작이 실행된다.
선택적으로, 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 상기 네트워크 추상화 계층 유닛 유형은 제1 디코딩 대상 정보 그룹의 부가 정보 내에 위치한다. 구체적으로, 코딩 대상 정보 그룹이 프레임, 픽쳐 또는 슬라이스인 경우, 부가 정보 세트는 구체적으로 슬라이스 헤더일 수 있다. 코딩 대상 정보 그룹이 타일인 경우, 부가 정보 세트는 구체적으로 타일 헤더일 수 있다.
선택적으로, 제1 디코딩 정보 그룹의 네트워크 추상화 계층 유닛 유형은 non-IRAP 유형이다.
본 실시예에서 제공되는 비디오 디코딩 방법에 따르면, 디코딩 대상 비트스트림 내의 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보, 및 위치 정보를 포함하고, 속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에, 제1 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면, 제1 디코딩 대상 정보 그룹이 폐기되거나, 제1 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보가 파싱되고, 제1 디코딩 대상 정보 그룹은 슬라이스일 수 있다. 종래 기술에서 제공되는 비디오 데이터 디코딩 방법과 비교해볼 때, 본 솔루션에서, 기본 슬라이스는 기본 슬라이스에 대응하는 리던던트 슬라이스가 디코딩되기 전에 디코딩될 필요가 없으므로, 즉, 기본 슬라이스는, 기본 슬라이스에 대응하는 리던던트 슬라이스가 전송되기 전에 전송될 필요가 없으므로, 전송 유연성이 개선될 수 있다.
전술한 코딩 및 디코딩 방법은 다음의 여러 특정 실시예들을 이용하여 설명된다. 코딩 대상 정보 그룹은 슬라이스이고, 코딩 대상 비디오 시퀀스의 코딩 대상 정보 그룹의 위치 정보는 코딩 대상 정보 그룹의 POC이며, 코딩 대상 정보 그룹의 NALU 유형은 non-IRAP 유형이다. 디코딩 대상 정보 그룹은 슬라이스이고, 디코딩 대상 정보 그룹의 위치 정보는 디코딩 정보 그룹에 대응하는 코딩 대상 정보 그룹의 POC이며, 디코딩 대상 정보 그룹의 NALU 유형은 non-IRAP 유형이다.
제1 실시예
도 4에 도시된 바와 같이, 코딩 방법은 단계(401), 단계(402), 단계(403), 및 단계(404)를 포함한다.
401: 코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 슬라이스를 결정한다.
402: 코딩 대상 슬라이스에 대응하는 리던던트 슬라이스를 생성하고, 여기서 리던던트 슬라이스는 제2 코딩 대상 데이터를 포함하며, 리던던트 슬라이스의 위치 정보는 코딩 대상 비디오 시퀀스 내의 코딩 대상 슬라이스의 위치 정보와 동일하다.
403: 제1 코딩 대상 데이터 및 코딩 대상 슬라이스의 POC를 코딩하여, 제1 슬라이스를 생성하고, 여기서 코딩 대상 슬라이스의 POC는 제1 슬라이스의 슬라이스 헤더 내에 위치한다.
예시적으로, 제1 코딩 대상 데이터가 코딩된 후에 생성된 정보는 제1 슬라이스의 데이터 정보이다. 단계(403)는 단계(402) 이전에 수행될 수 있거나, 또는 단계(402) 이후에 수행될 수 있거나, 또는 단계(403) 및 단계(402)는 동시에 수행될 수도 있다.
404: 제2 코딩 대상 데이터 및 리던던트 슬라이스의 POC를 코딩하여, 제2 슬라이스를 생성하고, 여기서, 리던던트 슬라이스의 POC는 제2 슬라이스의 슬라이스 헤더 내에 위치한다.
예시적으로, 리던던트 슬라이스의 POC는 제1 코딩 대상 슬라이스의 POC와 동일하다. 제2 코딩 대상 데이터가 코딩된 후에 생성된 정보는 제2 슬라이스의 데이터 정보이다. 단계(404)는 단계(403) 이전에 수행될 수 있거나, 또는 단계(403) 이후에 수행될 수 있거나, 또는 단계(404) 및 단계(403)는 동시에 수행될 수도 있다.
특정 구현 동안, 코딩 대상 비디오 시퀀스 내의 각각의 코딩 대상 슬라이스가 단계(401)에 따라 코딩될 수 있고, 또는 코딩 대상 비디오 시퀀스 내의 일부 코딩 대상 슬라이스가 단계(401) 내지 단계(404)에 따라 코딩될 수 있으며, 코딩 대상 비디오 시퀀스 내의 또 다른 코딩 대상 슬라이스들이 단계(401) 및 단계(403)에 따라 코딩될 수 있음을 유의해야 한다.
도 4에 도시된 비디오 데이터 코딩 방법에 따른 코딩을 수행하기 위해, 기본 슬라이스가 먼저 전송될 필요가 있고, 다음으로 기본 슬라이스에 대응하는 리던던트 슬라이스가 전송된다. 또는 패키징 및 전송 이전에, 디코더에 의해 수신된, 디코딩 대상 비트스트림 내의 기본 슬라이스의 위치가 기본 슬라이스에 대응하는 리던던트 슬라이스의 앞임을 보장할 수 있도록, 코딩 시퀀스를 나타내기 위해 사용되는, 타임스탬프와 같은, 정보가 패킷 헤더에 추가된다.
다음은 도 4에 도시된 비디오 코딩 방법에 따라 수행된 코딩 후에 디코더 에서의 두 가지 비디오 데이터 디코딩 방법을 제공한다. 다음의 두 가지 디코딩 방법들 내의 참조 정보 그룹들은 DPB 데이터임을 유의해야 한다.
도 5에 도시된 바와 같이, 제1 디코딩 방법은 단계(501), 단계(502), 단계(503), 단계(504), 단계(505), 단계(506), 단계(507), 및 단계(508)를 포함한다.
501: 디코딩 대상 비트스트림 내에서 i 번째 디코딩 대상 슬라이스를 결정하고, 여기서 디코딩 대상 슬라이스는 데이터 정보 및 디코딩 대상 슬라이스의 POC를 포함하고, 디코딩 대상 슬라이스의 POC는 슬라이스 헤더 내에서 위치한다.
예시적으로, 총 R 개의 디코딩 대상 슬라이스들이 디코딩 대상 비트스트림 내에 있는 것으로 가정하고, i는 R 이하이고, i 및 R은 0보다 큰 값이며, i의 초기 값은 1이다.
502: 디코딩 대상 슬라이스의 슬라이스 헤더를 파싱하여, 디코딩 대상 슬라이스의 POC를 획득한다.
503: DPB 데이터를 획득하고, 여기서 DPB 데이터는 0, 1, 또는 복수의 참조 슬라이스들을 포함한다.
504: 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같은지를 결정한다.
디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같으면, 단계(505)가 수행된다. 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 다르면, 단계(506)가 수행된다.
505: 디코딩 대상 슬라이스를 폐기한다.
단계(507)는 단계(505) 후에 수행된다.
506: 데이터 정보를 파싱하여 새로운 참조 슬라이스를 생성하고, 새로운 참조 슬라이스에 대응하는 DPB 데이터를 업데이트한다.
507: i가 R보다 크거나 이와 같은지를 결정한다.
i가 R보다 크거나 이와 같으면, 프로세스는 종료한다. i가 R보다 작으면, 단계(508)가 수행된다.
508: 1을 i에 자동적으로 더한다.
단계(501)은 단계(508) 후에 수행된다.
도 6에 도시된 바와 같이, 제2 디코딩 방법은 단계(601), 단계(602), 단계(603), 단계(604), 단계(605), 단계(606), 단계(607), 단계(608), 및 단계(609)를 포함한다.
601: 디코딩 대상 비트스트림 내에서 i 번째 디코딩 대상 슬라이스를 결정하고, 여기서 디코딩 대상 슬라이스는 데이터 정보 및 디코딩 대상 슬라이스의 POC를 포함하고, 디코딩 대상 슬라이스의 POC는 슬라이스 헤더 내에서 위치한다.
예시적으로, 총 R 개의 디코딩 대상 슬라이스들이 디코딩 대상 비트스트림 내에 있는 것으로 가정하고, i는 R 이하이고, i 및 R은 0보다 큰 값이며, i의 초기 값은 1이다.
602: 디코딩 대상 슬라이스의 슬라이스 헤더를 파싱하여, 디코딩 대상 슬라이스의 POC를 획득한다.
603: DPB 데이터를 획득하고, 여기서 DPB 데이터는 0, 1, 또는 복수의 참조 슬라이스들을 포함하며, 각각의 참조 슬라이스는 하나의 참조 상태에 대응하고, 참조 상태는 사용 가능한 참조 상태 및 사용 불가한 참조 상태를 포함한다.
604: 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같은지를 결정한다.
디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같으면, 단계(605)가 수행된다. 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 다르면, 단계(607)가 수행된다.
605: 적어도 하나의 참조 슬라이스 내에서, 사용 가능한 참조 상태인 참조 슬라이스가 있는지를 결정한다.
적어도 하나의 참조 슬라이스 내에서, 사용 가능한 참조 상태인 참조 슬라이스가 있으면, 단계(606)가 수행되고, 적어도 하나의 참조 슬라이스 내에서, 사용 가능한 참조 상태인 참조 슬라이스가 없으면, 단계(607)가 수행된다.
606: 디코딩 대상 슬라이스를 폐기한다.
단계(606)가 수행된 후에 단계(608)가 수행된다.
607: 데이터 정보를 파싱하여 새로운 참조 슬라이스를 생성하고, 새로운 참조 슬라이스에 대응하는 DPB 데이터를 업데이트한다.
608: I가 R보다 크거나 이와 같은지를 결정한다.
i가 R보다 크거나 이와 같으면, 프로세스는 종료된다. i가 R보다 작거나 이와 같으면, 단계(609)가 수행된다.
609: 1을 i에 자동적으로 더한다.
단계(601)은 단계(609) 후에 수행된다.
본 실시예에서 제공된 비디오 데이터 코딩 및 디코딩 방법에 따르면, 코딩 대상 슬라이스는 비디오 데이터 코딩 프로세스 내에서 기본 슬라이스 또는 리던던트 슬라이스로서 마킹될 필요가 없으므로, 코딩 효율성이 개선될 수 있다.
제2 실시예
도 7에 도시된 바와 같이, 코딩 방법은 단계(701), 단계(702), 단계(703), 단계(704), 단계(705), 단계(706), 단계(707), 및 단계(708)를 포함한다.
701: 코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 슬라이스를 결정한다.
702: 코딩 대상 슬라이스에 대응하는 리던던트 슬라이스를 생성하고, 여기서 리던던트 슬라이스는 제2 코딩 대상 데이터를 포함하며, 리던던트 슬라이스의 위치 정보는 코딩 대상 비디오 시퀀스 내의 코딩 대상 슬라이스의 위치 정보와 동일하다.
703: 제1 코딩 대상 데이터 및 코딩 대상 슬라이스의 POC를 코딩하여, 제1 슬라이스를 생성하고, 여기서 코딩 대상 슬라이스의 POC는 제1 슬라이스의 슬라이스 헤더 내에 위치한다.
예시적으로, 제1 코딩 대상 데이터가 코딩된 후에 생성된 정보는 제1 슬라이스의 데이터 정보이다. 단계(703)는 단계(702) 이전에 수행될 수 있거나, 또는 단계(702) 이후에 수행될 수 있거나, 또는 단계(703) 및 단계(702)는 동시에 수행될 수도 있다.
704: 제2 코딩 대상 데이터, 리던던트 슬라이스의 POC, 제2 슬라이스의 속성 정보, 및 제1 슬라이스의 NALU 유형을 코딩하여, 제2 슬라이스를 생성하고, 여기서, 제2 슬라이스의 속성 정보는 제1 슬라이스의 NALU 헤더 내에 위치하고, 그리고, 리던던트 슬라이스의 POC 및 제1 슬라이스의 NALU 유형은 제2 슬라이스의 슬라이스 헤더 내에 위치한다.
예시적으로, 제2 슬라이스의 속성 정보는 제2 슬라이스가 리던던트 슬라이스임을 나타내기 위해 사용된다. 리던던트 슬라이스의 POC는 제1 코딩 대상 슬라이스의 POC와 동일하다. 제2 코딩 대상 데이터가 코딩된 후에 생성된 정보는 제2 슬라이스의 데이터 정보이다. 단계(704)는 단계(703) 이전에 수행될 수 있거나, 또는 단계(703) 이후에 수행될 수 있거나, 또는 단계(704) 및 단계(703)는 동시에 수행될 수도 있다.
특정 구현 동안, 코딩 대상 비디오 시퀀스 내의 각각의 코딩 대상 슬라이스가 단계(701)에 따라 코딩될 수 있고, 또는 코딩 대상 비디오 시퀀스 내의 일부 코딩 대상 슬라이스가 단계(701) 내지 단계(704)에 따라 코딩될 수 있으며, 코딩 대상 비디오 시퀀스 내의 또 다른 코딩 대상 슬라이스들이 단계(701) 및 단계(703)에 따라 코딩될 수 있음을 유의해야 한다.
또한, 본 실시예에서, 제2 슬라이스의 속성 정보는, 다음의 컨텐츠 내에서 리던던트 유형(RDN_NUT)로서 지칭되는, 제2 슬라이스의 NALU 유형으로서 사용됨을 유의해야 한다. 그러므로, 단계(704)는 다음과 같이 설명될 수 있다. 제2 코딩 대상 데이터, 리던던트 슬라이스의 POC, 제2 슬?珦決봉? NALU 유형, 및 제1 슬라이스의 NALU 유형을 코딩하고, 여기서 제2 슬라이스의 NALU 유형은 리던던트 유형이고, 제2 슬라이스가 리던던트 슬라이스임을 나타내기 위해 사용된다.
특정 구현 동안, NALU 헤더 내의 예비 비트(RSV_VCL24)가 리던던트 타입을 마킹하기 위해 사용될 수 있다. 표 1은 리던던트 유형을 정의하는 방법을 나타낸다.
NALU 유형 NALU 유형 이름 NAL 유닛 내에 포함된 콘텐츠 및 NAL 유닛에 적용 가능한 신택틱(syntactic) 구조 코딩 방식
24 RDN_NUT 리던던트 픽쳐의 코딩을 위한 필드 VCL
VCL 은 비디오 코딩 레이어에서의 코딩 방식을 의미한다.
다음은 도 7에 도시된 비디오 코딩 방법에 따라 수행된 코딩 후에 디코더 에서의 두 가지 비디오 데이터 디코딩 방법을 제공한다. 다음의 두 가지 디코딩 방법들 내의 참조 정보 그룹들은 DPB 데이터임을 유의해야 한다.
도 8에 도시된 바와 같이, 제1 디코딩 방법은 단계(801) 내지 단계(812)를 포함한다.
801: 디코딩 대상 비트스트림 내에서 i 번째 디코딩 대상 슬라이스를 결정한다.
디코딩 대상 슬라이스가 기본 슬라이스이면, 디코딩 대상 슬라이스는 데이터 정보 및 디코딩 대상 슬라이스의 POC를 포함한다. 디코딩 대상 슬라이스가 리던던트 슬라이스면, 디코딩 대상 슬라이스는 데이터 정보, 디코딩 대상 슬라이스의 POC, 디코딩 대상 슬라이스의 NALU 유형, 및 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 NALU 유형을 포함하고, 여기서 디코딩 슬라이스의 NALU 유형은 리던던트 유형이고, 디코딩 대상 슬라이스가 리던던트 슬라이스임을 나타내기 위해 사용된다. 또한, 디코딩 대상 슬라이스의 POC는 슬라이스 헤더 내에 위치한다. 디코딩 대상 슬라이스의 NALU 유형(리던던트 유형)은 NALU 헤더 내에 위치한다. 그리고 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 NALU 유형(리던던트 유형)은 슬라이스 헤더 내에 위치한다.
또한, 디코딩 대상 슬라이스가 기본 슬라이스이면, 디코딩 대상 슬라이스는 디코딩 대상 슬라이스의 NALU 유형(예를 들어, IDR 유형 또는 RASL 유형, NALU 유형은 리던던트 유형 또는 IRAP 유형이 아님)을 더 포함한다.
본 실시예에서, 총 R 개의 디코딩 대상 슬라이스들이 디코딩 대상 비트스트림 내에 있는 것으로 가정하고, i는 R 이하이고, i 및 R은 0보다 큰 값이며, i의 초기 값은 1이다.
802: 디코딩 대상 슬라이스의 NALU 헤더를 파싱하여 디코딩 대상 슬라이스의 NALU 유형을 획득한다.
803: 디코딩 대상 슬라이스의 NALU 유형이 리던던트 유형인지를 결정한다.
디코딩 대상 슬라이스의 NALU 유형이 리던던트 유형이 아니면, 단계(804)가 수행된다. 디코딩 대상 슬라이스의 NALU 유형이 리던던트 유형이면, 단계(805)가 수행된다.
804: 데이터 정보를 파싱하여 새로운 참조 슬라이스를 생성한다. 그리고 새로운 참조 슬라이스에 따라 DPB 데이터를 업데이트한다.
단계(804) 이후에 단계(811)가 수행된다.
805: 디코딩 대상 슬라이스의 슬라이스 헤더를 파싱하여, 디코딩 대상 슬라이스의 POC를 획득한다.
806: DPB 데이터를 획득하고, 여기서 DPB 데이터는 0, 1, 또는 복수의 참조 슬라이스를 포함한다.
807: 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같은지를 결정한다.
디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같으면, 단계(808)가 수행된다. 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 다르면, 단계(810)가 수행된다.
808: 적어도 하나의 참조 슬라이스 내에서, 사용 가능한 참조 상태인 참조 슬라이스가 있는지를 결정한다.
적어도 하나의 참조 슬라이스 내에서, 사용 가능한 참조 상태인 참조 슬라이스가 있으면, 단계(809)가 수행되고, 적어도 하나의 참조 슬라이스 내에서, 사용 가능한 참조 상태인 참조 슬라이스가 없으면, 단계(810)가 수행된다.
809: 디코딩 대상 슬라이스를 폐기한다.
단계(809)가 수행된 후에 단계(811)가 수행된다.
810: 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 데이터 정보로서 데이터 정보를 사용하고, 데이터 정보를 파싱하여 새로운 참조 슬라이스를 생성한다. 새로운 참조 슬라이스에 따라 DPB 데이터를 업데이트한다. 디코딩 대상 슬라이스의 슬라이스 헤더를 파싱하여 디코딩 대상 슬라이스(리던던트 슬라이스)에 대응하는 기본 슬라이스의 NALU 유형을 획득한다. 기본 슬라이스의 NALU 유형을 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 NALU 유형으로 대체한다. 그리고 기본 슬라이스의 NALU 유형에 따라 대응하는 동작을 수행한다.
단계(810) 후에 단계(811)가 수행된다.
811: I가 R보다 크거나 이와 같은지를 결정한다.
i가 R보다 크거나 이와 같으면, 프로세스는 종료한다. i가 R보다 작거나 이와 같으면, 단계(812)가 수행된다.
812: 1을 i에 자동적으로 더한다.
단계(812) 후에 단계(801)가 수행된다.
도 8a에 도시된 바와 같이, 제2 디코딩 방법은 단계(801A) 내지 단계(811A)를 포함한다.
801A: 디코딩 대상 비트스트림 내에서 i 번째 디코딩 대상 슬라이스를 결정한다.
디코딩 대상 슬라이스가 기본 슬라이스이면, 디코딩 대상 슬라이스는 데이터 정보 및 디코딩 대상 슬라이스의 POC를 포함한다. 디코딩 대상 슬라이스가 리던던트 슬라이스면, 디코딩 대상 슬라이스는 데이터 정보, 디코딩 대상 슬라이스의 POC, 디코딩 대상 슬라이스의 NALU 유형, 및 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 NALU 유형을 포함하고, 여기서 디코딩 슬라이스의 NALU 유형은 리던던트 유형이고, 디코딩 대상 슬라이스가 리던던트 슬라이스임을 나타내기 위해 사용된다. 또한, 디코딩 대상 슬라이스의 POC는 슬라이스 헤더 내에 위치한다. 디코딩 대상 슬라이스의 NALU 유형(리던던트 유형)은 NALU 헤더 내에 위치한다. 그리고 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 NALU 유형(리던던트 유형)은 슬라이스 헤더 내에 위치한다.
또한, 디코딩 대상 슬라이스가 기본 슬라이스이면, 디코딩 대상 슬라이스는 디코딩 대상 슬라이스의 NALU 유형(예를 들어, IDR 유형 또는 RASL 유형, NALU 유형은 리던던트 유형 또는 IRAP 유형이 아님)을 더 포함한다.
본 실시예에서, 총 R 개의 디코딩 대상 슬라이스들이 디코딩 대상 비트스트림 내에 있는 것으로 가정하고, i는 R 이하이고, i 및 R은 0보다 큰 값이며, i의 초기 값은 1이다.
802A: 디코딩 대상 슬라이스의 NALU 헤더를 파싱하여 디코딩 대상 슬라이스의 NALU 유형을 획득한다.
803A: 디코딩 대상 슬라이스의 NALU 유형이 리던던트 유형인지를 결정한다.
디코딩 대상 슬라이스의 NALU 유형이 리던던트 유형이 아니면, 단계(804A)가 수행된다. 디코딩 대상 슬라이스의 NALU 유형이 리던던트 유형이면, 단계(805A)가 수행된다.
804A: 데이터 정보를 파싱하여 새로운 참조 슬라이스를 생성한다. 그리고 새로운 참조 슬라이스에 따라 DPB 데이터를 업데이트한다.
단계(804A) 이후에 단계(810A)가 수행된다.
805A: 디코딩 대상 슬라이스의 슬라이스 헤더를 파싱하여, 디코딩 대상 슬라이스의 POC를 획득한다.
806A: DPB 데이터를 획득하고, 여기서 DPB 데이터는 0, 1, 또는 복수의 참조 슬라이스를 포함한다.
807A: 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같은지를 결정한다.
디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 같으면, 단계(808A)가 수행된다. 디코딩 대상 슬라이스의 POC가 DPB 데이터 내의 적어도 하나의 참조 슬라이스의 POC와 다르면, 단계(809A)가 수행된다.
808A: 디코딩 대상 슬라이스를 폐기한다.
단계(818A)가 수행된 후에 단계(810A)가 수행된다.
809A: 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 데이터 정보로서 데이터 정보를 사용하고, 데이터 정보를 파싱하여 새로운 참조 슬라이스를 생성한다. 새로운 참조 슬라이스에 따라 DPB 데이터를 업데이트한다. 디코딩 대상 슬라이스의 슬라이스 헤더를 파싱하여 디코딩 대상 슬라이스(리던던트 슬라이스)에 대응하는 기본 슬라이스의 NALU 유형을 획득한다. 기본 슬라이스의 NALU 유형을 디코딩 대상 슬라이스에 대응하는 기본 슬라이스의 NALU 유형으로 대체한다. 그리고 기본 슬라이스의 NALU 유형에 따라 대응하는 동작을 수행한다. 예를 들어, NALU 유형이 IRAP(BLA, IDR, 및 CRA)이고, NALU 유형에 관련된 RASL 프레임이 출력되지 않는 경우, DPB 내의 모든 참조 프레임들은 다른 프레임에 의해 참조용으로 사용 불가능하게 설정되고, 프레임의 POC는 0으로 설정된다.
단계(809A) 후에 단계(810A)가 수행된다.
810A: I가 R보다 크거나 이와 같은지를 결정한다.
i가 R보다 크거나 이와 같으면, 프로세스는 종료된다. i가 R보다 작거나 이와 같으면, 단계(811A)가 수행된다.
811A: 1을 i에 자동적으로 더한다.
단계(811A) 후에 단계(801A)가 수행된다.
본 실시예에서 제공된 비디오 데이터 코딩 및 디코딩 방법에 따르면, 기본 슬라이스는 기본 슬라이스에 대응하는 리던던트 슬라이스가 디코딩되기 전에 디코딩될 필요가 없으므로, 즉, 기본 슬라이스는, 기본 슬라이스에 대응하는 리던던트 슬라이스가 전송되기 전에 전송될 필요가 없으므로, 전송 유연성이 개선될 수 있다.
제4 실시예
도 9에 도시된 바와 같이, 도 9는 도 1에 도시된 비디오 데이터 코딩 방법을 실행하도록, 본 발명의 실시예에서 제공되는 비디오 데이터 코딩 장치(9)를 도시한다. 장치(9)는,
코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 정보 그룹을 결정하도록 구성된 결정 유닛(91),
코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하도록 구성된 생성 유닛(92), 여기서, 리던던트 정보 그룹은 제2 코딩 대상 데이터를 포함하고, 리던던트 정보 그룹의 위치 정보는 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보 그룹의 위치 정보와 동일하며,
제1 코딩 대상 데이터 및 위치 정보를 코딩하여 제1 정보 그룹을 생성하도록 구성된 제1 코딩 유닛(93), 그리고
제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하도록 구성된 제2 코딩 유닛(94)을 포함한다.
선택적으로, 제2 코딩 유닛(94)은 구체적으로, 참조 정보 그룹 세트가 제1 정보 그룹을 포함할 경우, 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하도록 구성되고, 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹이 코딩된 후에 생성된 정보 그룹을 의미한다.
선택적으로, 제1 코딩 유닛(93)은 구체적으로, 제1 코딩 대상 데이터, 위치 정보, 및 제1 정보 그룹의 속성 정보를 코딩하여 제1 정보 그룹을 생성하도록 구성되고, 여기서 제1 정보 그룹의 속성 정보는 제1 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용된다.
선택적으로, 제1 정보 그룹의 속성 정보는 제1 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
선택적으로, 제2 코딩 유닛(94)은 구체적으로, 제2 코딩 대상 데이터, 위치 정보, 제2 정보 그룹의 속성 정보, 및 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입을 코딩하여 제2 정보 그룹을 생성하도록 구성되고, 여기서 제2 정보 그룹의 속성 정보는 제2 정보 그룹이 리던던트 정보 그룹임을 나타내기 위해 사용된다.
선택적으로, 제2 정보 그룹의 속성 정보는 상기 제2 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
선택적으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 제2 정보 그룹의 부가 정보 내에서 위치한다.
선택적으로, 위치 정보는, 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보 그룹의 표시 위치 또는 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보의 코딩 위치를 포함한다.
선택적으로, 코딩 대상 정보 그룹은 다음의 비디오 코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나이다.
선택적으로, 도 10에 도시된 바와 같이, 생성 유닛(92)은,
코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹에 의해 참조로 사용되는 정보인 참조용 정보를 코딩 대상 정보 그룹 내에서 결정하도록 구성된 결정 서브유닛(921), 그리고
참조용 정보에 대응하는 리던던트 정보 그룹을 생성하도록 구성된 생성 서브유닛(922)를 포함한다.
선택적으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입이다.
본 발명의 실시예에서 제공되는 비디오 데이터 코딩 장치에 따르면, 제2 코딩 대상 데이터를 포함하고, 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹이 생성되고, 코딩 대상 정보 그룹에 포함된 제1 코딩 대상 데이터 및 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 위치 정보는 제1 정보 그룹을 생성하기 위해 코딩되며, 제2 코딩 대상 데이터 및 리던던트 정보 그룹의 위치 정보는 제2 정보 그룹을 생성하기 위해 코딩되고, 여기서 리던던트 정보 그룹의 위치 정보는 코딩 대상 정보 그룹의 위치 정보와 동일하다. 이 솔루션에서, 코딩은 제1 정보 그룹의 속성 정보 및 제2 정보 그룹의 속성 정보의 마킹 요구 없이 수행되고, 그러므로 코딩 효율성이 개선될 수 있다.
제5 실시예
도 11에 도시된 바와 같이, 도 11은 도 1에 도시된 비디오 데이터 코딩 방법을 실행하도록, 본 발명의 실시예에서 제공되는 비디오 데이터 코딩 장치(9)를 도시한다.
장치(9)는,
메모리(11A) 및 프로세서(11B)를 포함한다.
메모리(11A)는 코드의 그룹을 저장하도록 구성되고, 여기서 코드는 다음의 동작들을 실행하도록 프로세서(11B)를 제어하기 위해 사용된다.
동작들은, 코딩 대상 비디오 시퀀스 내에서, 제1 코딩 대상 데이터를 포함하는 코딩 대상 정보 그룹을 결정하는 것,
코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하는 것, 여기서 리던던트 정보 그룹은 제2 코딩 대상 데이터를 포함하고, 리던던트 정보 그룹의 위치 정보는 코딩 대상 비디오 시퀀스 내에서 코딩 대상 정보 그룹의 위치 정보와 동일하며,
제1 코딩 대상 데이터 및 위치 정보를 코딩하여 제1 정보 그룹을 생성하는 것, 그리고
제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 것이다.
선택적으로, 프로세서(11B)는 구체적으로 참조 정보 그룹 세트가 제1 정보 그룹을 포함할 경우, 제2 코딩 대상 데이터 및 위치 정보를 코딩하여 제2 정보 그룹을 생성하도록 구성되고, 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹이 코딩된 후에 생성된 정보 그룹을 의미한다
선택적으로, 프로세서(11B)는 제1 코딩 대상 데이터, 위치 정보, 및 제1 정보 그룹의 속성 정보를 코딩하여 제1 정보 그룹을 생성하도록 구성되고, 여기서 제1 정보 그룹의 속성 정보는 제1 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용된다.
선택적으로, 제1 정보 그룹의 속성 정보는 제1 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
선택적으로, 프로세서(11B)는 구체적으로, 제2 코딩 대상 데이터, 위치 정보, 제2 정보 그룹의 속성 정보, 및 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입을 코딩하여 제2 정보 그룹을 생성하도록 구성되고, 여기서 제2 정보 그룹의 속성 정보는 제2 정보 그룹이 리던던트 정보 그룹임을 나타내기 위해 사용된다.
선택적으로, 제2 정보 그룹의 속성 정보는 상기 제2 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
선택적으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 유형은 제2 정보 그룹의 부가 정보 세트 내에 위치한다.
선택적으로, 위치 정보는 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 표시 위치, 또는 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 코딩 위치, 중 하나를 포함한다.
선택적으로, 코딩 대상 정보 그룹은 다음의 비디오 코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나이다.
선택적으로, 프로세서(11B)는 구체적으로, 코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹에 의해 참조로 사용되는 정보인 참조용 정보를 코딩 대상 정보 그룹 내에서 결정하고, 참조용 정보에 대응하는 리던던트 정보 그룹을 생성하도록 구성된다.
선택적으로, 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입이다.
본 발명의 실시예에서 제공되는 비디오 데이터 코딩 장치에 따르면, 제2 코딩 대상 데이터를 포함하고, 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹이 생성되고, 코딩 대상 정보 그룹에 포함된 제1 코딩 대상 데이터 및 코딩 대상 비디오 시퀀스 내의 코딩 대상 정보 그룹의 위치 정보는 제1 정보 그룹을 생성하기 위해 코딩되며, 제2 코딩 대상 데이터 및 리던던트 정보 그룹의 위치 정보는 제2 정보 그룹을 생성하기 위해 코딩되고, 여기서 리던던트 정보 그룹의 위치 정보는 코딩 대상 정보 그룹의 위치 정보와 동일하다. 이 솔루션에서, 코딩은 제1 정보 그룹의 속성 정보 및 제2 정보 그룹의 속성 정보의 마킹 요구 없이 수행되고, 그러므로 코딩 효율성이 개선될 수 있다.
제6 실시예
도 12에 도시된 바와 같이, 도 12는 도 2에 도시된 비디오 데이터 디코딩 방법을 실행하도록, 본 발명의 실시예에서 제공되는 비디오 데이터 디코딩 장치(12)를 도시한다.
장치(12)는,
디코딩 대상 비트스트림 및 참조 정보 그룹 세트 내에서 디코딩 대상 정보 그룹을 결정하도록 구성된 결정 유닛(12A), 여기서 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고, 디코딩 대상 비트스트림은 기본 정보 그룹 및 기본 정보 그룹에 대응하는 리던던트 정보 그룹을 포함하며, 그리고 디코딩 대상 비트스트림 내에서 기본 정보 그룹의 위치는 리던던트 정보 그룹의 앞이고; 디코딩 대상 정보 그룹은 기본 정보 그룹 또는 리던던트 정보 그룹이며; 그리고 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 그리고 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하며, 그리고
참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면 디코딩 대상 정보 그룹을 폐기하도록 구성된 제1 처리 유닛(12B), 또는 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하도록 구성된 제2 처리 유닛(12C)을 포함한다.
도 12의 설명을 위한 예로서 사용되는 특정 구현 동안, 제1 처리 유닛(12B) 및 제2 처리 유닛(12C) 모두 존재할 수 있음에 유의해야 한다.
선택적으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 참조 정보 그룹 세트 내의 제1 참조 정보 그룹의 위치 정보는 디코딩 대상 정보 그룹의 위치 정보와 동일하다. 그리고
제1 처리 유닛(12B)은 구체적으로, 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 디코딩 대상 정보 그룹을 폐기하도록 구성된다.
선택적으로, 제1 처리 유닛(12B)는 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하도록 더 구성된다.
선택적으로, 사용 가능한 참조 상태는, 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
선택적으로, 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽처, 슬라이스, 타일 및 프레임 중 하나일 수 있다.
선택적으로, 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 유형은 non-IRAP 유형이다.
본 실시예에서 제공되는 비디오 디코딩 장치에 따르면, 디코딩 대상 비트스트림 내의 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고, 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면, 디코딩 대상 정보 그룹은 폐기되거나, 또는 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보가 파싱되며, 여기서 제1 디코딩 대상 정보 그룹은 슬라이스일 수 있다. 종래 기술에서 제공되는 비디오 데이터 디코딩 방법과 비교해볼 때, 본 솔루션에서, 슬라이스는 비디오 데이터 코딩 프로세스 내에서 기본 슬라이스 또는 리던던트 슬라이스로서 마킹될 필요가 없으므로, 코딩 효율성이 개선될 수 있다.
제7 실시예
도 13에 도시된 바와 같이, 도 13은 도 2에 도시된 비디오 데이터 디코딩 방법을 실행하도록, 본 발명의 실시예에서 제공되는 비디오 데이터 디코딩 장치(12)를 도시한다. 장치(12)는,
메모리(13A) 및 프로세서(13B)를 포함한다.
메모리(13A)는 코드의 그룹을 저장하도록 구성되고, 여기서 코드는 다음의 동작들을 실행하도록 프로세서(13B)를 제어하기 위해 사용된다.
동작들은, 디코딩 대상 비트스트림 및 참조 정보 그룹 세트 내에서 디코딩 대상 정보 그룹을 결정하하는 것, 여기서 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고, 디코딩 대상 비트스트림은 기본 정보 그룹 및 기본 정보 그룹에 대응하는 리던던트 정보 그룹을 포함하며, 그리고 디코딩 대상 비트스트림 내에서 기본 정보 그룹의 위치는 리던던트 정보 그룹의 앞이고; 디코딩 대상 정보 그룹은 기본 정보 그룹 또는 리던던트 정보 그룹이며; 그리고 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 그리고 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하며, 그리고
참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하는 것, 또는 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하는 것을 포함한다.
선택적으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 참조 정보 그룹 세트 내의 제1 참조 정보 그룹의 위치 정보는 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하다. 그리고,
프로세서(13B)는 구체적으로, 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 디코딩 대상 정보 그룹을 폐기하도록 구성된다.
선택적으로, 프로세서(13B)는 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하도록 더 구성된다.
선택적으로, 사용 가능한 참조 상태는, 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
선택적으로, 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽처, 슬라이스, 타일 및 프레임 중 하나일 수 있다.
선택적으로, 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 유형은 non-IRAP 유형이다.
본 실시예에서 제공되는 비디오 디코딩 장치에 따르면, 디코딩 대상 비트스트림 내의 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고, 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 동일하면, 디코딩 대상 정보 그룹은 폐기되거나, 또는 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보가 파싱되며, 여기서 제1 디코딩 대상 정보 그룹은 슬라이스일 수 있다. 종래 기술에서 제공되는 비디오 데이터 디코딩 방법과 비교해볼 때, 본 솔루션에서, 슬라이스는 비디오 데이터 코딩 프로세스 내에서 기본 슬라이스 또는 리던던트 슬라이스로서 마킹될 필요가 없으므로, 코딩 효율성이 개선될 수 있다.
제8 실시예
도 14에 도시된 바와 같이, 도 14 는 도 3에 도시된 비디오 데이터 디코딩 방법을 실행하도록, 본 발명의 실시예에서 제공되는 비디오 데이터 디코딩 장치(14)를 도시한다. 장치(14)는,
디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹을 결정하고, 여기서 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보 및 위치 정보를 포함하며, 그리고 속성 정보는 상기 제1 디코딩 대상 정보 그룹이 기본 정보 그룹 또는 리던던트 정보 그룹임을 나타내기 위해 사용되고, 그리고
속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하도록 구성된 결정 유닛(14A), 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하며,
참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하도록 구성된 제1 처리 유닛(14B), 또는
참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하도록 구성된 제2 처리 유닛(14C)을 포함한다.
도 14의 설명을 위한 예로서 사용되는 특정 구현 동안, 제1 처리 유닛(14B) 및 제2 처리 유닛(14C) 모두 존재할 수 있음에 유의해야 한다.
선택적으로, 제2 처리 유닛(14C)을 포함하는 경우, 결정 유닛(14A)은 디코딩 대상 비트스트림 내에서 제2 디코딩 대상 정보 그룹을 결정하도록 더 구성된다.
도 15에 도시된 바와 같이, 장치는 제2 디코딩 대상 정보 그룹을 디코딩하는 디코딩 유닛(14D), 그리고,
제2 디코딩 대상 정보 그룹이 디코딩된 후에 참조 정보 그룹 세트를 업데이트하는 업데이팅 유닛(14E)을 더 포함하고, 그리고
제2 처리 유닛(14C)는 구체적으로 업데이트된 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면 데이터 정보를 파싱하도록 구성된다.
선택적으로, 제2 처리 유닛(14C)은 업데이트된 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 같으면 제1 디코딩 대상 정보 그룹을 폐기하도록 더 구성된다.
선택적으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 참조 정보 그룹 세트 내의 제1 참조 정보 그룹의 위치 정보는 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하다. 그리고
제1 처리 유닛(14B)는 구체적으로 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 제1 디코딩 대상 정보 그룹을 폐기하도록 구성된다.
선택적으로, 제1 처리 유닛(14B)은 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보를 파싱하도록 더 구성된다.
선택적으로, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
선택적으로, 사용 가능한 참조 상태는, 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
선택적으로, 1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내고, 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형을 더 포함한다. 그리고
도 15에 도시된 바와 같이, 장치가 제2 처리 유닛(14C)를 포함하는 경우, 장치는,
네트워크 추상화 계층 유닛 유형을 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형으로 대체하도록 구성된 대체 유닛(14F)을 더 포함한다.
선택적으로, 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형은 제1 디코딩 대상 정보 그룹의 부가 정보 내에 위치한다.
선택적으로, 제1 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일, 및 프레임 중 하나이다.
선택적으로, 제1 디코딩 정보 그룹의 네트워크 추상화 계층 유닛 유형은 non-IRAP 유형이다.
본 실시예에서 제공되는 비디오 디코딩 장치에 따르면, 디코딩 대상 비트스트림 내의 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보, 및 위치 정보를 포함하고, 속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에, 제1 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면, 제1 디코딩 대상 정보 그룹이 폐기되거나, 제1 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보가 파싱되고, 제1 디코딩 대상 정보 그룹은 슬라이스일 수 있다. 종래 기술에서 제공되는 비디오 데이터 디코딩 방법과 비교해볼 때, 본 솔루션에서, 기본 슬라이스는 기본 슬라이스에 대응하는 리던던트 슬라이스가 디코딩되기 전에 디코딩될 필요가 없으므로, 즉, 기본 슬라이스는, 기본 슬라이스에 대응하는 리던던트 슬라이스가 전송되기 전에 전송될 필요가 없으므로, 전송 유연성이 개선될 수 있다.
제9 실시예
도 16에 도시된 바와 같이, 도 16는 도 3에 도시된 비디오 데이터 디코딩 방법을 실행하도록, 본 발명의 실시예에서 제공되는 비디오 데이터 디코딩 장치(14)를 도시한다. 장치(14)는,
메모리(16A) 및 프로세서(16B)를 포함한다.
메모리(16A)는 코드의 그룹을 저장하도록 구성되고, 여기서 코드는 다음의 동작들을 실행하도록 프로세서(16B)를 제어하기 위해 사용된다.
동작들은, 디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹을 결정하는 것, 여기서 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보 및 위치 정보를 포함하며, 그리고 속성 정보는 상기 제1 디코딩 대상 정보 그룹이 기본 정보 그룹 또는 리던던트 정보 그룹임을 나타내기 위해 사용되고,
속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하는 것, 여기서 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 참조 정보 그룹은 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미하며, 그리고
참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 제1 디코딩 대상 정보 그룹을 폐기하는 것, 또는
참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보를 파싱하는 것을 포함한다.
선택적으로, 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 프로세서(16B)는 다음의 동작들을 실행하도록 더 구성된다.
동작들은, 디코딩 대상 비트스트림 내에서 제2 디코딩 대상 정보 그룹을 결정하는 것,
제2 디코딩 대상 정보 그룹을 디코딩하는 것, 그리고
제2 디코딩 대상 정보 그룹이 디코딩된 후에 참조 정보 그룹 세트를 업데이트하는 것을 포함하고,
프로세서(16B)는 구체적으로 업데이트된 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면 데이터 정보를 파싱하도록 구성된다.
선택적으로, 프로세서(16B)는 업데이트된 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 같으면 제1 디코딩 대상 정보 그룹을 폐기하도록 더 구성된다.
선택적으로, 참조 정보 그룹 세트 내의 참조 정보 그룹은 참조 상태를 포함하고, 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 참조 정보 그룹 세트 내의 제1 참조 정보 그룹의 위치 정보는 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하다. 그리고
프로세서(16B)는 구체적으로 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하고, 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 제1 디코딩 대상 정보 그룹을 폐기하도록 구성된다.
선택적으로, 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 데이터 정보가 파싱된다.
선택적으로, 제1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치한다.
선택적으로, 사용 가능한 참조 상태는, 장기 참조 가능 상태와 단기 참조 상태를 포함한다.
선택적으로, 1 디코딩 대상 정보 그룹의 속성 정보는 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내고, 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형을 더 포함한다. 그리고
참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 프로세서(16B)는 네트워크 추상화 계층 유닛 유형을 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형으로 대체하도록 더 구성된다.
선택적으로, 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 유형은 제1 디코딩 대상 정보 그룹의 부가 정보 내에 위치.
선택적으로, 제1 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일, 및 프레임 중 하나이다.
선택적으로, 제1 디코딩 정보 그룹의 네트워크 추상화 계층 유닛 유형은 non-IRAP 유형이다.
본 실시예에서 제공되는 비디오 디코딩 장치에 따르면, 디코딩 대상 비트스트림 내의 제1 디코딩 대상 정보 그룹은 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보, 및 위치 정보를 포함하고, 속성 정보가 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에, 제1 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면, 제1 디코딩 대상 정보 그룹이 폐기되거나, 제1 디코딩 대상 정보 그룹의 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 데이터 정보가 파싱되고, 제1 디코딩 대상 정보 그룹은 슬라이스일 수 있다. 종래 기술에서 제공되는 비디오 데이터 디코딩 방법과 비교해볼 때, 본 솔루션에서, 기본 슬라이스는 기본 슬라이스에 대응하는 리던던트 슬라이스가 디코딩되기 전에 디코딩될 필요가 없으므로, 즉, 기본 슬라이스는, 기본 슬라이스에 대응하는 리던던트 슬라이스가 전송되기 전에 전송될 필요가 없으므로, 전송 유연성이 개선될 수 있다.
전술한 시스템, 장치, 및 유닛의 구체적인 작업 과정에 대한 편리하고 간단한 설명을 목적으로, 참조는 전술한 방법 실시예들에서 대응하는 프로세스에 대해 이루어지는 것이, 당업자에 의해 명확하게 이해될 수 있으며, 그리고 자세한 내용은 여기에서 다시 설명하지 않는다.
본 발명에서 제공되는 여러 실시예에서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 예를 들어, 설명된 장치의 실시예는 단지 예시이다. 예를 들어, 유닛 부문은 단순히 논리적 기능 부문이며, 실제 구현에서 다른 부문일 수 있다. 예를 들어, 복수의 유닛 또는 구성 요소가 결합되거나 다른 시스템에 통합될 수 있고, 또는 일부 기능은 무시되거나 수행되지 않을 수 있다. 또한, 표시된 또는 논의된 상호 연결 또는 직접 연결 또는 통신 연결은 어떠한 인터페이스를 통해서도 구현될 수 있다. 장치 또는 유닛간의 간접 연결 또는 통신 연결은, 전자적, 기계적, 또는 다른 형태로 구현될 수 있다.
별도의 부분으로서 설명된 유닛은 물리적으로 분리되거나 분리되지 않을 수도 있고, 유닛으로서 표시된 부분은 물리적인 유닛들이거나 아닐수 있으며, 하나의 위치에 위치하거나 복수의 네트워크 유닛들로 분산될 수도 있다. 유닛의 일부 또는 전부는 실시예들의 솔루션의 목적을 달성하기 위한 실제의 요구에 따라 선택될 수 있다.
또한, 본 발명의 실시예에서의 기능 유닛은 하나의 프로세싱 유닛에 통합될 수도 있고, 각 유닛이 물리적으로 단독으로 존재할 수 있고, 두 개 이상의 유닛이 하나의 유닛으로 통합된다. 집적 유닛은 하드웨어의 형태로 구현될 수 있고, 또는 소프트웨어 기능 유닛에 더하여 하드웨어의 형태로 구현될 수 있다.
전술한 집적 유닛이 소프트웨어 기능 유닛의 형태로 구현되는 경우, 집적 유닛은 컴퓨터로 읽을 수 있는 저장 매체에 저장될 수 있다. 소프트웨어 기능 유닛은 기억 매체에 저장되고, 본 발명의 실시예에서 기재된 방법의 단계 중 일부를 수행하는 컴퓨터 장치(개인용 컴퓨터, 서버, 또는 네트워크 장치가 될 수 있는) 또는 프로세서를 지시하는 여러 명령어를 포함한다. 전술한 저장 매체는 USB 플래시 드라이브, 이동식 하드 디스크, ROM(Read-Only Memory), RAM(Random Access Memory), 자기 디스크 또는 광 디스크와 같은 프로그램 코드를 저장할 수 있는 모든 매체를 포함한다.
마지막으로, 전술한 실시예는 본 발명의 기술적인 솔루션을 설명하기 위해 의도된 것이지, 본 발명을 제한하기 위한 것이 아님이 유의해야 한다. 본 발명은 전술한 실시예들을 참조하여 상세히 설명되었지만, 당업자는 본 발명의 실시예의 기술적 솔루션의 범위를 벗어나지 않고. 여전히 상술한 실시예에 설명된 기술적인 솔루션을 수정하거나 그것의 일부 또는 모든 기술적 특징에 동등하게 교체할 수 있다는 것을 이해해야 한다.

Claims (56)

  1. 비디오 데이터 코딩 방법으로서,
    코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 정보 그룹을 결정하는 단계,
    상기 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하는 단계, - 상기 리던던트 정보 그룹은 제2 코딩 대상 데이터를 포함하고, 상기 리던던트 정보 그룹의 위치 정보는 상기 코딩 대상 비디오 시퀀스 내에서 상기 코딩 대상 정보 그룹의 위치 정보와 동일함 -
    상기 제1 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 제1 정보 그룹을 생성하는 단계, 그리고
    상기 제2 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계
    를 포함하고,
    상기 제2 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계는,
    참조 정보 그룹 세트가 상기 제1 정보 그룹을 포함하는 경우에, 상기 제2 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 상기 제2 정보 그룹을 생성하는 단계를 포함하고,
    상기 참조 정보 그룹 세트가 참조 정보 그룹을 포함하고, 상기 참조 정보 그룹은 상기 코딩 대상 비디오 시퀀스 내의 상기 코딩 대상 정보 그룹이 코딩된 후에 생성된 정보 그룹을 의미하는, 비디오 데이터 코딩 방법.
  2. 제1항에 있어서,
    상기 제1 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 제1 정보 그룹을 생성하는 단계는,
    제1 코딩 대상 데이터, 상기 위치 정보, 및 상기 제1 정보 그룹의 속성 정보를 코딩하여 상기 제1 정보 그룹을 생성하는 단계를 포함하고,
    상기 제1 정보 그룹의 상기 속성 정보는 상기 제1 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용되는, 비디오 데이터 코딩 방법.
  3. 제2항에 있어서,
    상기 제1 정보 그룹의 상기 속성 정보는 상기 제1 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치하는, 비디오 데이터 코딩 방법.
  4. 제1항에 있어서,
    상기 제2 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 제2 정보 그룹을 생성하는 단계는,
    상기 제2 코딩 대상 데이터, 상기 위치 정보, 상기 제2 정보 그룹의 속성 정보, 및 상기 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입을 코딩하여 상기 제2 정보 그룹을 생성하는 단계를 포함하고,
    상기 제2 정보 그룹의 상기 속성 정보는 상기 제2 정보 그룹이 상기 리던던트 정보 그룹임을 나타내기 위해 사용되는, 비디오 데이터 코딩 방법.
  5. 제4항에 있어서,
    상기 제2 정보 그룹의 상기 속성 정보는 상기 제2 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치하는, 비디오 데이터 코딩 방법.
  6. 제4항 또는 제5항에 있어서,
    상기 제1 정보 그룹의 상기 네트워크 추상화 계층 유닛 타입은 상기 제2 정보 그룹의 부가 정보 내에서 위치하는, 비디오 데이터 코딩 방법.
  7. 제1항에 있어서,
    상기 위치 정보는, 상기 코딩 대상 비디오 시퀀스 내의 상기 코딩 대상 정보 그룹의 표시 위치 또는 상기 코딩 대상 비디오 시퀀스 내의 상기 코딩 대상 정보 그룹의 코딩 위치를 포함하는, 비디오 데이터 코딩 방법.
  8. 제1항에 있어서,
    상기 코딩 대상 정보 그룹은 다음의 비디오 코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나인, 비디오 데이터 코딩 방법.
  9. 제1항에 있어서,
    상기 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하는 단계는,
    상기 코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹에 의해 참조로 사용되는 정보인 참조용 정보를 상기 코딩 대상 정보 그룹 내에서 결정하는 단계, 그리고
    상기 참조용 정보에 대응하는 리던던트 정보 그룹을 생성하는 단계
    를 포함하는, 비디오 데이터 코딩 방법.
  10. 제1항에 있어서,
    상기 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP(intra random access point) 타입인, 비디오 데이터 코딩 방법.
  11. 비디오 데이터 디코딩 방법으로서,
    디코딩 대상 비트스트림 및 참조 정보 그룹 세트 내에서 디코딩 대상 정보 그룹을 결정하는 단계, - 상기 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고; 상기 디코딩 대상 비트스트림은 기본 정보 그룹 및 상기 기본 정보 그룹에 대응하는 리던던트 정보 그룹을 포함하고, 그리고 상기 디코딩 대상 비트스트림 내에서 상기 기본 정보 그룹의 위치는 상기 리던던트 정보 그룹의 앞이며; 상기 디코딩 대상 정보 그룹은 기본 정보 그룹 또는 리던던트 정보 그룹이고; 그리고 상기 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 그리고 상기 참조 정보 그룹은 상기 디코딩 대상 비트 스트림 내의 상기 디코딩 대상 정보 그룹의 상기 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미함 - 그리고
    상기 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 상기 디코딩 대상 정보 그룹의 위치 정보와 동일하면 상기 디코딩 대상 정보 그룹을 폐기하거나 또는 상기 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 상기 디코딩 대상 정보 그룹의 위치 정보와 다르면, 상기 데이터 정보를 파싱하는 단계
    를 포함하고,
    상기 참조 정보 그룹 세트 내의 상기 참조 정보 그룹은 참조 상태를 포함하고, 상기 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 상기 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 상기 디코딩 대상 정보 그룹의 상기 위치 정보와 동일하며,
    상기 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 상기 디코딩 대상 정보 그룹의 상기 위치 정보와 동일하면 디코딩 대상 정보 그룹을 폐기하는 것은,
    상기 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 상기 디코딩 대상 정보 그룹을 폐기하는 것을 포함하는, 비디오 데이터 디코딩 방법.
  12. 제11항에 있어서,
    상기 제1 참조 정보 그룹의 참조 상태가 사용 불가한 참조 상태면 상기 데이터 정보를 파싱하는 단계를 더 포함하는 비디오 데이터 디코딩 방법.
  13. 제11항에 있어서,
    상기 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 가능 상태를 포함하는, 비디오 데이터 디코딩 방법.
  14. 제11항에 있어서,
    상기 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나를 포함하는, 비디오 데이터 디코딩 방법.
  15. 제11항에 있어서,
    상기 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입인, 비디오 데이터 디코딩 방법.
  16. 비디오 데이터 디코딩 방법으로서,
    디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹을 결정하는 단계, - 상기 제1 디코딩 대상 정보 그룹은 상기 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보 및 위치 정보를 포함하고, 그리고 상기 속성 정보는 상기 제1 디코딩 대상 정보 그룹이 기본 정보 그룹 또는 리던던트 정보 그룹임을 나타내기 위해 사용됨 -
    상기 속성 정보가 상기 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하는 단계, - 상기 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 상기 참조 정보 그룹은 상기 디코딩 대상 비트 스트림 내의 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미함 - 그리고
    상기 참조 정보 그룹 세트 내에서 적어도 하나의 참조 정보의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 상기 제1 디코딩 대상 정보 그룹을 폐기하거나, 또는 상기 참조 정보 그룹 세트 내에서 모든 참조 정보 그룹들의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 다르면, 상기 데이터 정보를 파싱하는 단계
    를 포함하고,
    상기 참조 정보 그룹 세트 내의 상기 참조 정보 그룹은 참조 상태를 포함하고, 상기 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 상기 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 동일하고,
    상기 참조 정보 그룹 세트 내에서 적어도 하나의 참조 정보의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 위치 정보와 동일하면 상기 제1 디코딩 대상 정보 그룹을 폐기하는 것은,
    상기 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 상기 제1 디코딩 대상 정보 그룹을 폐기하는 것을 포함하는,
    비디오 데이터 디코딩 방법.
  17. 제16항에 있어서,
    상기 참조 정보 그룹 세트 내의 모든 참조 정보 그룹들의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면, 상기 데이터 정보를 파싱하기 전에, 상기 방법은,
    상기 디코딩 대상 비트스트림 내에서 제2 디코딩 대상 정보 그룹을 결정하는 단계,
    상기 제2 디코딩 대상 정보 그룹을 디코딩하는 단계, 그리고
    상기 제2 디코딩 대상 정보 그룹이 디코딩된 후에 상기 참조 정보 그룹 세트를 업데이트하는 단계
    를 더 포함하고,
    상기 데이터 정보를 파싱하는 것은
    업데이트된 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 다르면 상기 데이터 정보를 파싱하는 것을 포함하는, 비디오 데이터 디코딩 방법.
  18. 제17항에 있어서,
    상기 업데이트된 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 위치 정보와 같으면 상기 제1 디코딩 대상 정보 그룹을 폐기하는 단계를 더 포함하는 비디오 데이터 디코딩 방법.
  19. 제16항에 있어서,
    상기 제1 참조 정보 그룹의 상기 참조 상태가 사용 불가한 참조 상태면 상기 데이터 정보를 파싱하는 단계를 더 포함하는 비디오 데이터 디코딩 방법.
  20. 제16항에 있어서,
    상기 제1 디코딩 대상 정보 그룹의 상기 속성 정보는 상기 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치하는, 비디오 데이터 디코딩 방법.
  21. 제16항에 있어서,
    상기 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 가능 상태를 포함하는, 비디오 데이터 디코딩 방법.
  22. 제16항 내지 제21항 중 어느 한 항에 있어서,
    상기 제1 디코딩 대상 정보 그룹의 속성 정보는 상기 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내고, 상기 제1 디코딩 대상 정보 그룹은 상기 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입을 더 포함하며,
    상기 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 위치 정보와 다르면 상기 데이터 정보를 파싱한 후,
    네트워크 추상화 계층 유닛 타입을 상기 제1 디코딩 대상 정보 그룹에 대응하는 상기 기본 정보 그룹의 상기 네트워크 추상화 계층 유닛 타입으로 대체하는 단계를 더 포함하는 비디오 데이터 디코딩 방법.
  23. 제22항에 있어서,
    상기 제1 디코딩 대상 정보 그룹에 대응하는 상기 기본 정보 그룹의 상기 네트워크 추상화 계층 유닛 타입은 상기 제1 디코딩 대상 정보 그룹의 부가 정보 내에 위치하는, 비디오 데이터 디코딩 방법.
  24. 제16항에 있어서,
    상기 제1 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나인, 비디오 데이터 디코딩 방법.
  25. 제16항에 있어서,
    상기 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입인, 비디오 데이터 디코딩 방법.
  26. 비디오 데이터 코딩 장치로서,
    코딩 대상 비디오 시퀀스 내에서 제1 코딩 대상 데이터를 포함하는 코딩 대상 정보 그룹을 결정하도록 구성된 결정 유닛,
    상기 코딩 대상 정보 그룹에 대응하는 리던던트 정보 그룹을 생성하도록 구성된 생성 유닛, - 상기 리던던트 정보 그룹은 제2 코딩 대상 데이터를 포함하고, 상기 리던던트 정보 그룹의 위치 정보는 상기 코딩 대상 비디오 시퀀스 내에서 상기 코딩 대상 정보 그룹의 위치 정보와 동일함 -
    상기 제1 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 제1 정보 그룹을 생성하도록 구성된 제1 코딩 유닛, 그리고
    상기 제2 코딩 대상 데이터 및 상기 위치 정보를 코딩하여 제2 정보 그룹을 생성하도록 구성된 제2 코딩 유닛
    을 포함하고,
    상기 제2 코딩 유닛은 구체적으로, 참조 정보 그룹 세트가 상기 제1 정보 그룹을 포함할 경우, 상기 제2 정보 그룹을 생성하기 위해 상기 제2 코딩 대상 데이터 및 상기 위치 정보를 코딩하도록 구성되고, 상기 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 상기 참조 정보 그룹은 상기 코딩 대상 비디오 시퀀스 내의 상기 코딩 대상 정보 그룹이 코딩된 후에 생성된 정보 그룹을 의미하는, 비디오 데이터 코딩 장치.
  27. 제26항에 있어서,
    상기 제1 코딩 유닛은 구체적으로, 상기 제1 코딩 대상 데이터, 상기 위치 정보, 및 상기 제1 정보 그룹의 속성 정보를 코딩하여 상기 제1 정보 그룹을 생성하도록 구성되고, 상기 제1 정보 그룹의 상기 속성 정보는 상기 제1 정보 그룹이 기본 정보 그룹임을 나타내기 위해 사용되는, 비디오 데이터 코딩 장치.
  28. 제27항에 있어서,
    상기 제1 정보 그룹의 속성 정보는 상기 제1 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치하는, 비디오 데이터 코딩 장치.
  29. 제26항에 있어서,
    제2 코딩 유닛은 구체적으로, 상기 제2 코딩 대상 데이터, 상기 위치 정보, 상기 제2 정보 그룹의 속성 정보, 및 상기 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입을 코딩하여 상기 제2 정보 그룹을 생성하도록 구성되고, 기 제2 정보 그룹의 상기 속성 정보는 상기 제2 정보 그룹이 상기 리던던트 정보 그룹임을 나타내기 위해 사용되는, 비디오 데이터 코딩 장치.
  30. 제29항에 있어서,
    상기 제2 정보 그룹의 속성 정보는 상기 제2 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치하는, 비디오 데이터 코딩 장치.
  31. 제29항 또는 제30항에 있어서,
    상기 제1 정보 그룹의 상기 네트워크 추상화 계층 유닛 타입은 상기 제2 정보 그룹의 부가 정보 내에서 위치하는, 비디오 데이터 코딩 장치.
  32. 제26항에 있어서,
    상기 위치 정보는, 상기 코딩 대상 비디오 시퀀스 내에서 상기 코딩 대상 정보 그룹의 표시 위치 또는 상기 코딩 대상 비디오 시퀀스 내에서 상기 코딩 대상 정보의 코딩 위치를 포함하는, 비디오 데이터 코딩 장치.
  33. 제26항에 있어서,
    상기 코딩 대상 정보 그룹은 다음의 비디오 코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나인, 비디오 데이터 코딩 장치.
  34. 제26항에 있어서,
    상기 생성 유닛은,
    상기 코딩 대상 비디오 시퀀스 내에서 다른 코딩 대상 정보 그룹에 의해 참조로 사용되는 정보인 참조용 정보를 상기 코딩 대상 정보 그룹 내에서 결정하도록 구성된 결정 서브유닛, 및
    상기 참조용 정보에 대응하는 리던던트 정보 그룹을 생성하도록 구성된 생성 서브유닛
    을 포함하는, 비디오 데이터 코딩 장치.
  35. 제26항에 있어서,
    상기 제1 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입인, 비디오 데이터 코딩 장치.
  36. 비디오 데이터 디코딩 장치로서,
    디코딩 대상 비트스트림 및 참조 정보 그룹 세트 내에서 디코딩 대상 정보 그룹을 결정하도록 구성된 결정 유닛, - 상기 디코딩 대상 정보 그룹은 디코딩 대상 정보 그룹의 데이터 정보 및 위치 정보를 포함하고; 상기 디코딩 대상 비트스트림은 기본 정보 그룹 및 상기 기본 정보 그룹에 대응하는 리던던트 정보 그룹을 포함하고, 그리고 상기 디코딩 대상 비트스트림 내의 상기 기본 정보 그룹의 위치는 상기 리던던트 정보 그룹의 앞이며; 상기 디코딩 대상 정보 그룹은 기본 정보 그룹 또는 리던던트 정보 그룹이고; 그리고 상기 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 그리고 상기 참조 정보 그룹은 상기 디코딩 대상 비트 스트림 내에서 상기 디코딩 대상 정보 그룹의 상기 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미함 - 그리고
    상기 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 상기 디코딩 대상 정보 그룹의 위치 정보와 동일하면 상기 디코딩 대상 정보 그룹을 폐기하도록 구성된 제1 처리 유닛, 또는 상기 참조 정보 그룹 세트 내에서 모든 참조 정보 그룹들의 위치 정보가 상기 디코딩 대상 정보 그룹의 상기 위치 정보와 다르면, 상기 데이터 정보를 파싱하도록 구성된 제2 처리 유닛
    을 포함하고,
    상기 참조 정보 그룹 세트 내의 상기 참조 정보 그룹은 참조 상태를 포함하고, 상기 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 상기 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 상기 디코딩 대상 정보 그룹의 상기 위치 정보와 동일하며,
    상기 제1 처리 유닛은 구체적으로 상기 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 상기 디코딩 대상 정보 그룹을 폐기하도록 구성된,
    비디오 데이터 디코딩 장치.
  37. 제36항에 있어서,
    상기 제1 처리 유닛은 상기 제1 참조 정보 그룹의 상기 참조 상태가 사용 불가한 참조 상태면 상기 데이터 정보를 파싱하도록 더 구성된 비디오 데이터 디코딩 장치.
  38. 제36항에 있어서,
    상기 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 가능 상태를 포함하는, 비디오 데이터 디코딩 장치.
  39. 제36항에 있어서,
    상기 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나를 포함하는, 비디오 데이터 디코딩 장치.
  40. 제36항에 있어서,
    상기 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입인, 비디오 데이터 디코딩 장치.
  41. 비디오 데이터 디코딩 장치로서,
    디코딩 대상 비트스트림 내에서 제1 디코딩 대상 정보 그룹을 결정하고, - 상기 제1 디코딩 대상 정보 그룹은 상기 제1 디코딩 대상 정보 그룹의 데이터 정보, 속성 정보 및 위치 정보를 포함하고, 그리고 상기 속성 정보는 상기 제1 디코딩 대상 정보 그룹이 기본 정보 그룹 또는 리던던트 정보 그룹임을 나타내기 위해 사용됨 - 상기 속성 정보가 상기 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내는 경우에 참조 정보 그룹 세트를 결정하도록 구성된 결정 유닛, - 상기 참조 정보 그룹 세트는 참조 정보 그룹을 포함하고, 상기 참조 정보 그룹은 상기 디코딩 대상 비트 스트림 내에서 디코딩 대상 정보 그룹의 데이터 정보가 파싱된 후에 생성된 정보 그룹을 의미함 - 그리고
    상기 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 동일하면 상기 제1 디코딩 대상 정보 그룹을 폐기하도록 구성된 제1 처리 유닛, 또는 상기 참조 정보 그룹 세트 내에서 모든 참조 정보 그룹들의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 다르면, 상기 데이터 정보를 파싱하도록 구성된 제2 처리 유닛
    을 포함하고,
    상기 참조 정보 그룹 세트 내의 상기 참조 정보 그룹은 참조 상태를 포함하고, 상기 참조 상태는 사용 가능한 참조 상태와 사용 불가한 참조 상태를 포함하며, 그리고 상기 참조 정보 그룹 세트 내에서 제1 참조 정보 그룹의 위치 정보는 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 동일하며,
    상기 제1 처리 유닛은 구체적으로 상기 제1 참조 정보 그룹의 참조 상태가 사용 가능한 참조 상태이면 상기 제1 디코딩 대상 정보 그룹을 폐기하도록 구성된,
    비디오 데이터 디코딩 장치.
  42. 제41항에 있어서,
    상기 제2 처리 유닛을 포함하는 경우, 상기 결정 유닛은 상기 디코딩 대상 비트스트림 내에서 제2 디코딩 대상 정보 그룹을 결정하도록 더 구성되고,
    상기 비디오 데이터 디코딩 장치는,
    상기 제2 디코딩 대상 정보 그룹을 디코딩하는 디코딩 유닛, 그리고
    상기 제2 디코딩 대상 정보 그룹이 디코딩된 후에 상기 참조 정보 그룹 세트를 업데이트하는 업데이팅 유닛
    을 더 포함하고, 그리고
    상기 제2 처리 유닛은 구체적으로 업데이트된 참조 정보 그룹 세트 내의 모든 참조 정보 그룹의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 다르면 상기 데이터 정보를 파싱하도록 구성된,
    비디오 데이터 디코딩 장치.
  43. 제42항에 있어서,
    상기 제2 처리 유닛은 상기 업데이트된 참조 정보 그룹 세트 내의 적어도 하나의 참조 정보 그룹의 위치 정보가 상기 제1 디코딩 대상 정보 그룹의 상기 위치 정보와 같으면 상기 제1 디코딩 대상 정보 그룹을 폐기하도록 더 구성된,
    비디오 데이터 디코딩 장치.
  44. 제41항에 있어서,
    제1 처리 유닛은 상기 제1 참조 정보 그룹의 상기 참조 상태가 사용 불가한 참조 상태면 상기 데이터 정보를 파싱하도록 더 구성된,
    비디오 데이터 디코딩 장치.
  45. 제41항에 있어서,
    상기 제1 디코딩 대상 정보 그룹의 속성 정보는 상기 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 헤더 내에 위치하는, 비디오 데이터 디코딩 장치.
  46. 제41항에 있어서,
    상기 사용 가능한 참조 상태는 장기 참조 가능 상태와 단기 참조 가능 상태를 포함하는, 비디오 데이터 디코딩 장치.
  47. 제41항 내지 제46항 중 어느 한 항에 있어서,
    상기 제1 디코딩 대상 정보 그룹의 속성 정보는 상기 제1 디코딩 대상 정보 그룹이 리던던트 정보 그룹임을 나타내고, 상기 제1 디코딩 대상 정보 그룹은 상기 제1 디코딩 대상 정보 그룹에 대응하는 기본 정보 그룹의 네트워크 추상화 계층 유닛 타입을 더 포함하며,
    상기 제2 처리 유닛을 포함하는 경우, 상기 비디오 데이터 디코딩 장치는,
    네트워크 추상화 계층 유닛 타입을 상기 제1 디코딩 대상 정보 그룹에 대응하는 상기 기본 정보 그룹의 상기 네트워크 추상화 계층 유닛 타입으로 대체하도록 구성된 대체 유닛을 더 포함하는, 비디오 데이터 디코딩 장치.
  48. 제47항에 있어서,
    상기 제1 디코딩 대상 정보 그룹에 대응하는 상기 기본 정보 그룹의 상기 네트워크 추상화 계층 유닛 타입은 상기 제1 디코딩 대상 정보 그룹의 부가 정보 내에 위치하는, 비디오 데이터 디코딩 장치.
  49. 제41항에 있어서,
    상기 제1 디코딩 대상 정보 그룹은 다음의 비디오 디코딩 유닛들: 픽쳐, 슬라이스, 타일 및 프레임 중 하나인, 비디오 데이터 디코딩 장치.
  50. 제41항에 있어서,
    상기 제1 디코딩 대상 정보 그룹의 네트워크 추상화 계층 유닛 타입은 non-IRAP 타입인, 비디오 데이터 디코딩 장치.
  51. 삭제
  52. 삭제
  53. 삭제
  54. 삭제
  55. 삭제
  56. 삭제
KR1020167020210A 2013-12-31 2014-07-28 비디오 데이터 인코딩 및 디코딩 방법 및 장치 KR101858040B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310754175.7A CN104754341B (zh) 2013-12-31 2013-12-31 一种视频数据编码、解码的方法和装置
CN201310754175.7 2013-12-31
PCT/CN2014/083134 WO2015101031A1 (zh) 2013-12-31 2014-07-28 一种视频数据编码、解码的方法和装置

Publications (2)

Publication Number Publication Date
KR20160102062A KR20160102062A (ko) 2016-08-26
KR101858040B1 true KR101858040B1 (ko) 2018-05-15

Family

ID=53493137

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167020210A KR101858040B1 (ko) 2013-12-31 2014-07-28 비디오 데이터 인코딩 및 디코딩 방법 및 장치

Country Status (6)

Country Link
US (1) US20160316211A1 (ko)
EP (1) EP3076651A4 (ko)
JP (1) JP6291064B2 (ko)
KR (1) KR101858040B1 (ko)
CN (1) CN104754341B (ko)
WO (1) WO2015101031A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9832463B2 (en) * 2014-06-18 2017-11-28 Telefonaktiebolaget L M Ericsson (Publ) Robust encoding and decoding of pictures in video
US10542288B2 (en) * 2014-06-18 2020-01-21 Telefonaktiebolaget Lm Ericsson (Publ) Random access in a video bitstream
WO2015192990A1 (en) 2014-06-18 2015-12-23 Telefonaktiebolaget L M Ericsson (Publ) Dependent random access point pictures
US10116576B2 (en) * 2015-10-19 2018-10-30 Samsung Electronics Co., Ltd. Methods and apparatus for random access of HEVC bitstream for MMT
US10999590B2 (en) 2018-12-28 2021-05-04 Tencent America LLC Method for identification of random access point and picture types

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007522749A (ja) 2004-02-13 2007-08-09 ノキア コーポレイション エンコーダ及びデコーダにおけるバッファのサイズ再設定

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040218669A1 (en) * 2003-04-30 2004-11-04 Nokia Corporation Picture coding method
KR100779173B1 (ko) * 2005-07-20 2007-11-26 한국전자통신연구원 폴리페이즈 다운 샘플링기반 리던던트 슬라이스 코딩 방법및 그 방법을 이용하는 코덱
KR100889745B1 (ko) * 2006-01-09 2009-03-24 한국전자통신연구원 날 유닛 타입 표시방법 및 그에 따른 비트스트림 전달장치및 리던던트 슬라이스 부호화 장치
FR2898754B1 (fr) * 2006-03-17 2008-06-13 Thales Sa Procede de protection de donnees multimedia au moyen de couches d'abstraction reseau (nal) supplementaires
EP2008468B1 (en) * 2006-04-20 2012-06-13 Thomson Licensing Method and apparatus for redundant video coding
CN101695134B (zh) * 2009-10-15 2016-08-03 中兴通讯股份有限公司 一种弱信号环境下提高终端播放性能的终端、系统及方法
CN101753270B (zh) * 2009-12-28 2013-04-17 杭州华三通信技术有限公司 一种编码发送方法和装置
US9451248B2 (en) * 2011-09-28 2016-09-20 Panasonic Intellectual Property Management Co., Ltd. Data processing device and data processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007522749A (ja) 2004-02-13 2007-08-09 ノキア コーポレイション エンコーダ及びデコーダにおけるバッファのサイズ再設定

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chunbo Zu et al., Coding of Redundant Pictures for Improved Error Resilience, Joint Video Team (JVT) of ISO/IEC MPEG & ITU- VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6), SW, 18th Meeting: Bangkok
Ye-Kui Wang et al., Editorial Changes to JVT-E146d37, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6), SW, 6th Meeting: Awaji, Island, JP, 2002년 12월, JV

Also Published As

Publication number Publication date
CN104754341A (zh) 2015-07-01
EP3076651A4 (en) 2016-10-12
WO2015101031A1 (zh) 2015-07-09
EP3076651A1 (en) 2016-10-05
KR20160102062A (ko) 2016-08-26
US20160316211A1 (en) 2016-10-27
JP6291064B2 (ja) 2018-03-14
JP2017507535A (ja) 2017-03-16
CN104754341B (zh) 2019-02-26

Similar Documents

Publication Publication Date Title
RU2581566C2 (ru) Сигнализация опорного изображения
US10708613B2 (en) Encoder and decoder and methods thereof for encoding/decoding a picture of a video sequence
KR101858040B1 (ko) 비디오 데이터 인코딩 및 디코딩 방법 및 장치
KR101813769B1 (ko) 레퍼러스 픽처 시그널링
EP3076673B1 (en) Decoding and encoding of pictures of a video sequence
KR101833605B1 (ko) 향상된 rtp 페이로드 포맷 설계들
KR101959319B1 (ko) 비디오 데이터 인코딩 및 디코딩 방법 및 장치
US20110249729A1 (en) Error resilient hierarchical long term reference frames
JP6511677B2 (ja) ピクチャ順序カウントの符号化方法及び装置、復号化方法及び装置、電子機器
US9491487B2 (en) Error resilient management of picture order count in predictive coding systems
WO2008048605B1 (en) Method for using a network abstract layer unit to signal an instantaneous decoding refresh during a video operation
US9264737B2 (en) Error resilient transmission of random access frames and global coding parameters
EP2680587A1 (en) Video encoding device and video decoding device
JP2022538551A (ja) ビデオコーディングレイヤアップスイッチング指示

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant