KR102252816B1 - 부호화유닛 심도 확정 방법 및 장치 - Google Patents

부호화유닛 심도 확정 방법 및 장치 Download PDF

Info

Publication number
KR102252816B1
KR102252816B1 KR1020197027603A KR20197027603A KR102252816B1 KR 102252816 B1 KR102252816 B1 KR 102252816B1 KR 1020197027603 A KR1020197027603 A KR 1020197027603A KR 20197027603 A KR20197027603 A KR 20197027603A KR 102252816 B1 KR102252816 B1 KR 102252816B1
Authority
KR
South Korea
Prior art keywords
unit
processed
encoding
coding
rate distortion
Prior art date
Application number
KR1020197027603A
Other languages
English (en)
Other versions
KR20190117708A (ko
Inventor
훙순 장
쓰신 린
시밍 청
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20190117708A publication Critical patent/KR20190117708A/ko
Application granted granted Critical
Publication of KR102252816B1 publication Critical patent/KR102252816B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 출원은 부호화유닛 심도 확정 방법 및 장치를 공개하는데, 본 출원에 의하면, 사전에 분류 결과가 표기된 교육 샘플을 이용하여 예측 모델을 교육하고, 이 교육 샘플은 소정 유형의 부호화 정보 특징을 포함하고, 그리고 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수가 0이 아니라고 확정된 경우, 부호화 심도 예측을 수행하여야 한다고 판단하여 처리하려는 부호화유닛 및 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛로부터 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하여 예측 모델에 입력하며, 기계학습 예측 모델을 이용하여 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 예측한다. 본 출원에 있어서 예측 결과가 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 없음을 표시할 경우, 처리하려는 부호화유닛에 심도 분할 및 비트왜곡율 비용의 계산과 비교를 수행할 필요가 없어 기존기술에 비하여 부호화 예측 시간을 대폭 줄일 수 있고 계산 자원을 감소하며 계산 복잡도를 낮출 수 있다.

Description

부호화유닛 심도 확정 방법 및 장치
본 출원은 2017년 4월 21일에 중국특허국에 제출한 우선권번호가 2017102667988이고 발명명칭이 “부호화유닛 심도 확정 방법 및 장치”인 중국특허출원의 우선권을 주장하고 그 모든 내용을 인용하여 본 출원에 결합시킨다.
본 발명은 비디오 부호화 기술 분야에 관한 것으로, 특히 부호화유닛 심도 확정 방법 및 장치에 관한 것이다.
최근 디지털 비디오는 이미 소비 에플리케이션중에서 주도 지위를 차지하는 미디어 콘텐츠로 되었고 더욱 높은 해상도와 더욱 우수한 품질에 대한 사람들의 요구도 증가되고 있다. 이러한 요구에 따라 신세대 비디오 부호화 국제 표준 HEVC(High Efficiency Video Coding, 고효율 비디오 부호화 표분)을 제정하기 시작하였다. H.264/AVC 표준에 비하여 HEVC는 더욱 높은 부호화 압축 성능을 얻을 수 있다.
도 1을 결합하여 HEVC 부호화 표준의 부호화 과정을 설명한다. 원시 비디오 시퀀스의 1프레임 영상이 버퍼링된 참조프레임과 함께 프레임 내 예측 또는 프레임 간 예측을 통하여 예측 값을 얻고, 예측 값과 입력된 비디오 프레임을 감산하여 잔여를 얻고 잔여를 DCT(Discrete Cosine Transform, 이산 코사인 변환)과 양자화를 통하여 잔여 계수를 얻은 후, 엔트로피 부호화모듈로 도입하여 부호화를 수행하고 비디오 스트림을 출력한다. 이와 동시에, 잔여 계수는 역양자화와 역변환을 거친 후, 재구성 영상의 잔여 값을 얻고 재구성 영상의 잔여 값과 프레임 내 또는 프레임 간의 예측 값을 합하여 재구성 영상을 얻으며, 재구성 영상이 디 블로킹 필터링, 루프 필터링를 통과한 후, 재구성 프레임을 얻고 재구성 프레임을 그다음 프레임의 입력 영상의 참조 프레임으로 하여 참조 프레임 시퀀스에 첨가한다.
HEVC 표준에 있어서, 입력된 비디오 프레임은 일련의 부호화 트리 유닛CTU(Coding Tree Unit)으로 분할된다. 프레임 내 또는 프레임 간 예측의 경우, 매개 CTU는 최대 부호화유닛LCU(Largest Code Unit)으로부터 시작되며 각 계층은 쿼드 트리 형식으로 크기가 다른 부호화유닛CU(Coding Unit)으로 분할된다. 심도가 0인 계층은 LCU로 그 크기는 일반적으로 64*64이고 심도가 1~3인 계층은 크기가 각각 32*32, 16*16, 8*8이다. 최적의 부호화 성능을 실현하기 위하여, 기존의 HEVC는 부호화유닛CU블록의 심도 분할에 있어서 최적의 모드를 선택할 때, 전체 순회(traversal) 방식을 이용하고 CU블록의 심도가 다른 모든 모드에 비트왜곡율 비용의 계산을 수행한 후, 각 계층을 차례로 비교하여 비트왜곡율 비용가 가장 작은 모드를 선택한다. 도 2를 참조하면, 최적 모드의 CU 분할 상황을 나타내였는데, 도 2에 있어서 좌측 도면은 구체적인 분할 방식을 나타내고 우측 도면은 좌측 도면의 분할 방식에 대응되는 쿼드 트리이며 쿼드 트리중의 잎 노드는 좌측 도면중의 화살표로 나타낸 분할 순서에 따라 각 계층중의 4개 CU블록을 진일보로 분할할 필요가 있는가를 표시하며 그중 1은 필요함을 표시하고 0은 필요하지 않음을 표시한다.
상기한 도 2로부터 일부 CU블록은 1계층의 분할을 수행한 후 최적의 모드를 찾을 수 있어 진일보로 분할과 비트왜곡율 비용의 계산 및 비교를 수행할 필요가 없음을 알 수 있고, 도 2에 도시한 쿼드 트리중의 제1계층중의 두번째 CU블록의 경우, 노드 값이 0으로 진일보로 분할할 필요가 없음을 표시한다. 이와같이 기존의 전체 순회 알고리즘에 의하면 부호화 예측 과정에 긴 시간이 소요되고 대량의 계산 자원을 소비하게 된다.
이에 감안하여 본 출원은 기존의 전체 순회 방법에 의하여 부호화유닛의 심도를 확정하는 방법에 존재하는 부호화 예측 시간이 길고 대량의 계산 자원을 소비하게 되는 문제를 해결하기 위한 부호화유닛 심도 확정 방법 및 장치를 제공한다.
본 출원의 제1 측면에 따르면,
처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정하는 단계와,
상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하는 단계와,
상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻는 단계를 포함하고, 상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시하고,
여기서, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플이 상기 소정 유형의 부호화 정보 특징을 포함하는 부호화유닛 심도 확정 방법을 제공한다.
본 출원의 제2 측면에 따르면,
처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정하는 잔여 계수 확정유닛과,
상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하는 특징 획득유닛과,
상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻는 모델 예측유닛을 포함하고, 상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시하고,
여기서, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플은 상기 소정 유형의 부호화 정보 특징을 포함하는 부호화유닛 심도 확정 장치를 제공한다.
본 출원의 실시예의 제3 측면에 따르면, 프로세서로 하여금 상기한 방법중의 임의의 하나를 실행하도록 하는 프로그램 명령이 저장되는 컴퓨터 판독 가능 기억매체를 제공한다.
본 출원의 실시예에서 제공하는 부호화유닛 심도 확정 방법에 의하면, 사전에 분류 결과가 표기된 교육 샘플을 이용하여 예측 모델을 교육하고, 이 교육 샘플은 소정 유형의 부호화 정보 특징을 포함하고, 그리고 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수가 0이 아니라고 확정된 경우, 처리하려는 부호화유닛이 skip 부호화유닛이 아님을 말하므로 부호화 심도 예측을 수행하여야 하고, 따라서 처리하려는 부호화유닛 및 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛로부터 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하여 예측 모델에 입력하며, 기계학습 예측 모델을 이용하여 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 예측한다. 본 출원에 있어서 예측 결과가 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 없음을 표시할 경우, 처리하려는 부호화유닛에 심도 분할 및 비트왜곡율 비용의 계산과 비교를 수행할 필요가 없어 기존기술에 비하여 부호화 예측 시간을 대폭 줄일 수 있고 계산 자원을 감소하며 계산 복잡도를 낮출 수 있다.
본 발명의 실시예의 기술방안을 더욱 명확하게 설명하기 위하여, 아래 실시예의 설명에 필요한 도면을 간단하게 설명하는데, 아래 설명되는 도면은 본 발명의 일부 실시예에 불과하고 이 분야의 기술자는 이러한 도면으로부터 기타 도면을 얻을 수 있음을 이해할 수 있다.
도 1은 HEVC 부호화 구성을 나타낸 도이다.
도 2는 최적 모드의 CU 분할을 나타낸 도이다.
도 3은 본 출원의 실시예에서 공개되는 서버의 하드웨어 구조를 나타낸 도이다.
도 4는 본 출원의 실시예에서 공개되는 부호화유닛의 심도 확정 방법을 나타낸 흐름도이다.
도 5는 본 출원의 실시예에서 공개되는 다른 한 부호화유닛의 심도 확정 방법을 나타낸 흐름도이다.
도 6은 본 출원의 실시예에서 공개되는 또다른 부호화유닛의 심도 확정 방법을 나타낸 흐름도이다.
도 7은 본 출원의 실시예에서 공개되는 제1 평균 레이트 왜곡 비용 확정 방법을 나타낸 흐름도이다.
도 8은 Current CTU의 매개 인접한 부호화 트리 유닛의 CU 분할을 나타낸 도이다.
도 9는 본 출원의 실시예에서 공개되는 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 확정하는 방법을 나타낸 흐름도이다.
도 10은 본 출원의 실시예에서 공개되는 부호화유닛 심도 확정 장치의 구조를 나타낸 도이다.
아래 본 출원의 실시예중의 도면을 결합하여 본 출원의 실시예중의 기술방안을 명확하고 완벽하게 설명한다. 다만, 아래에서 설명하는 실시예는 본 출원의 모든 실시예가 아니라 일부 실시예이다. 본 출원의 실시예에 근거하여 이 분야의 기술자가 창조성이 있는 노동을 필요로하지 않은체 얻은 모든 기타 실시예는 모두 본 출원의 보호범위에 속한다.
본 출원의 실시예에서 부호화유닛 심도 확정 방안을 제공하는데, 이 발굴 방안은 비디오 인코더에 응용될 수 있고 비디오 인코더는 서버에 의하여 실현된다. 이 서버의 하드웨어 구조는 컴퓨터, 노트북 등 처리 기기일 수 있고 본 출원의 부호화유닛 심도 확정 방법을 설명하기 전에 우선 서버의 하드웨어 구조를 설명한다. 도 3에 도시한 바와 같이, 이 서버는
프로세서(1)와, 통신 인터페이스(2)와, 메모리(3)와, 통신 버스(4)와, 디스플레이(5)를 포함하고,
여기서, 프로세서(1), 통신 인터페이스(2), 메모리(3), 디스플레이(5)는 통신 버스(4)를 통하여 서로간의 통신을 완성한다.
이어서, 서버의 하드웨어 구조를 결합하여 본 출원의 부호화유닛 심도 확정 방법을 설명하는데, 도 4에 도시한 바와 같이, 이 방법은 하기 단계를 포함한다.
단계S100, 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정한다.
구체적으로, 처리하려는 부호화유닛에 대하여, 표준 프로토콜에 근거하여 후보 mv(motion vector, 운동 벡터) 리스트를 구성하고, 그 다음 리스트중의 매개 mv를 순회하고 운동 보상하여 예측 값을 얻고, 그 다음 예측 값과 처리하려는 부호화유닛의 원시 화소의 차이값의 제곱의 합(SSD, Sum of Squared Difference)을 계산하고 대응되는 mv의 인덱스에 의하여 컴파일된 비트 수bits를 추정하고 가장 작은 비트왜곡율 비용rdcost에 대응되는 mv를 찾으면 최적 모드 mv이다. 여기서,
rdcost=SSD+λ*bit(λ는 상수이다)이고,
진일보로, 최적 mv에 대응되는 SSD 계산후 결과에 변환과 양자화를 수행하여 잔여 계수를 얻고, 잔여 계수가 0이면 처리하려는 부호화유닛이 skip블록임을 표시하고 그렇지 않으면 merge블록임을 표시한다.
다만, 잔여 계수가 0이면 처리하려는 부호화유닛기 skip블록임을 말하고 직접 CU 분할을 종료할 수 있고 그렇지 않으면 처리하려는 부호화유닛의 CU에 분할 예측을 수행하여야 함을 말한다.
구체적으로 실시할 때, 사전에 통신 인터페이스(2)를 통하여 처리하려는 비디오 프레임 영상을 메모리(3)에 저장할 수 있다. 부호화를 수행할 때, 프로세서(1)가 통신 버스(4)를 통하여 메모리에 저장된 처리하려는 비디오 프레임 영상을 획득하여 다수의 부호화유닛으로 분할하고 그중의 처리하려는 부호화유닛을 확정하고 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정할 수 있다.
가능한 통신 인터페이스(2)는 통신블록의 인터페이스일 수 있고 예를 들어 GSM블록의 인터페이스일 수 있다.
가능한 프로세서(1)는 중앙처리장치CPU일 수 있고 또는 주문형 집적 회로ASIC(Application Specific Integrated Circuit)일 수도 있으며 또는 본 출원의 실시예를 실시하도록 구성된 하나 또는 다수 집적 회로일 수도 있다.
단계S110, 상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성한다.
구체적으로, 본 단계에서 획득한 부호화 정보 특징의 유형은 예측 모델의 교육 과정에 사용된 교육 샘플의 유형과 동일하다. 본 출원에 있어서 각 유형의 부호화 정보 특징 모델을 사전에 설정하고 부호화 정보 특징 모델에 따라 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 부호화 정보 특징을 획득하며 획득한 부호화 정보 특징으로 예측 특징 벡터 샘플을 구성할 수 있다. 획득한 부호화 정보 특징의 대상은 처리하려는 부호화유닛CU 및 처리하려는 부호화유닛CU이 위치한 부호화 트리 유닛CTU의 인접한 부호화 트리 유닛CTU이다.
구체적으로 실시할 때, 사전에 메모리(3)에 각 유형의 부호화 정보 특징 모델을 저장하고 이로하여 프로세서(1)가 부호화 정보 특징 모델에 따라 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 부호화 정보 특징를 획득하여 예측 특징 벡터 샘플을 구성할 수 있다.
단계S120, 상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻고, 상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시한다.
여기서, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플은 상기 소정 유형의 부호화 정보 특징을 포함한다.
구체적으로 실시할 때, 예측 모델을 사전에 메모리(3)에 저장할 수 있다. 예측시, 프로세서(1)가 상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻고 디스플레이(5)를 통하여 출력하여 표시한다.
여기서, 예측 모델은 SVM(Support Vector Machine, 서포트 벡터 머신) 모델일 수 있고 또는 신경망 모델의 기계학습 모델 등일 수 있다.
본 출원의 실시예에서 제공하는 부호화유닛 심도 확정 방법에 의하면, 사전에 분류 결과가 표기된 교육 샘플을 이용하여 예측 모델을 교육하고, 이 교육 샘플은 소정 유형의 부호화 정보 특징을 포함하고, 그리고 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수가 0이 아니라고 확정된 경우, 처리하려는 부호화유닛이 skip 부호화유닛이 아님을 말하므로 부호화 심도 예측을 수행하여야 하고, 따라서 처리하려는 부호화유닛 및 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛로부터 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하여 예측 모델에 입력하며, 기계학습 예측 모델을 이용하여 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 예측한다. 본 출원에 있어서 예측 결과가 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 없음을 표시할 경우, 처리하려는 부호화유닛에 심도 분할 및 비트왜곡율 비용의 계산과 비교를 수행할 필요가 없어 기존기술에 비하여 부호화 예측 시간을 대폭 줄일 수 있고 계산 자원을 감소하며 계산 복잡도를 낮출 수 있다.
또한, 부호화 과정 전반에 있어서 I 프레임이 차지하는 비율이 작으므로 본 출원에 있어서 비 I 프레임 비디오 영상에 속하는 처리하려는 부호화유닛에만 심도 확정을 수행할 수 있고, 즉 상기 처리하려는 부호화유닛은 비 I 프레임 비디오 영상에 속한다.
본 출원의 다른 한 실시예에 있어서, 다른 한가지 부호화유닛 심도 확정 방법을 설명하는데, 도 5에 도시한 바와 같이, 이 방법은 하기 단계를 포함한다.
단계S200, 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정한다.
단계S210, 상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛의 부호화 심도가 0인가를 판단하고 0이면 단계S220을 수행한다.
구체적으로, 처리하려는 부호화유닛의 부호화 심도가 0이면 처리하려는 부호화유닛이 최대 부호화유닛LCU임을 말하고, 즉 부호화 트리 유닛CTU에 분할을 수행하지 않았음을 표시한다.
본 실시예에 있어서, 처리하려는 부호화유닛의 부호화 심도가 0으로 확정된 경우에만 하기와 같은 예측 모델을 이용하여 처리하려는 부호화유닛에 심도 분할을 수행하여야 하는가를 예측하는 작업을 수행한다.
다만, 부호화 심도가 0이 아닌 처리하려는 부호화유닛에 대하여 예측 모델을 사용하여 예측을 수행하는 과정의 계산이 상대적으로 복잡하므로 본 출원에 있어서 기타 방식으로 예측할 수 있고 아래 구체적으로 설명한다.
단계S220, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성한다.
단계S230, 상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻고, 상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시한다.
여기서, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플은 상기 소정 유형의 부호화 정보 특징을 포함한다.
상기 실시예에 비하여, 본 실시예에 있어서 예측 모델을 사용하여 부호화 심도 예측을 수행하는 판단 조건을 추가하여, 즉 처리하려는 부호화유닛의 부호화 심도가 0인 경우에만 모델 예측 과정을 수행한다. 부호화 심도가 0이 아닌 처리하려는 부호화유닛에 대하여 예측 모델을 사용하여 예측하는 과정의 계산이 상대적으로 복잡하므로 본 출원에 있어서는 기타 방식으로 예측할 수 있고 아래 상세하게 설명한다.
본 출원의 다른 일 실시예에 있어서, 예측 모델을 설명한다.
비디오 스트림에 있어서 B 프레임과 P 프레임의 오차 축적 기간이 다르므로 예측 모델의 예측 결과가 더욱 정확하도록, 본 출원에 있어서 예측 모델이 P 프레임 예측 모델과 B 프레임 예측 모델을 포함하도록 설정할 수 있다.
여기서, P 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 P 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 소정 유형의 부호화 정보 특징이다.
B 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 B 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 상기 소정 유형의 부호화 정보 특징이다.
상기 단계S230에 있어서, 상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻는 과정은 구체적으로 하기 단계를 통하여 실현된다.
S1, 상기 처리하려는 부호화유닛이 속하는 비디오 프레임 영상의 유형이 P 프레임인가 B 프레임인가를 확정한다.
S2, P 프레임이면 상기 예측 특징 벡터 샘플을 상기 P 프레임 예측 모델에 입력하여 상기 P 프레임 예측 모델로부터 출력되는 예측 결과를 얻는다.
S3, B 프레임이면 상기 예측 특징 벡터 샘플을 상기 B 프레임 예측 모델에 입력하여 상기 B 프레임 예측 모델로부터 출력되는 예측 결과를 얻는다.
본 출원에 있어서 B 프레임과 P 프레임의 비디오 영상에 포함되는 처리하려는 부호화유닛에 서로다른 예측 모델을 사용하여 예측을 수행하므로서 예측 결과의 정확성을 향상시킬 수 있다.
이어서, 본 출원의 예측 모델의 구축 과정을 설명한다.
一, 교육 특징의 획득
우선, 예측 모델을 교육할 때 사용되는 교육 샘플을 설명한다. 처리하려는 부호화유닛을 현재 부호화유닛으로 정의하고 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛을 현재 부호화유닛의 인접한 부호화 트리 유닛으로 정의하면 본 출원에 있어서 예측 모델을 교육할 때 사용되는 소정 유형의 부호화 정보 특징은 하기를 포함한다:
1, 현재 부호화유닛의 레이트 왜곡 비용(curr_merge_rdcost)
2, 현재 부호화유닛의 왜곡(curr_merge_distortion)
3, 현재 부호화유닛의 양자화 계수(curr_qp)
4, 현재 부호화유닛의 평방 편차(curr_var)
5, 현재 부호화유닛의 인접한 부호화 트리 유닛의 레이트 왜곡 비용(around_rdcost)
6, 현재 부호화유닛의 인접한 부호화 트리 유닛의 심도 정보(around_depth).
여기서, 현재 부호화유닛의 인접한 부호화 트리 유닛은 현재 부호화유닛이 위치한 부호화 트리 유닛의 상측 인접한 부호화 트리 유닛과 좌측 인접한 부호화 트리 유닛일 수 있고, 상기 부호화 정보 특징5는 구체적으로 하기 특징을 포함한다:
51, 현재 부호화유닛의 좌측 인접한 부호화 트리 유닛의 레이트 왜곡 비용(left_rdcost)
52, 현재 부호화유닛의 상측 인접한 부호화 트리 유닛의 레이트 왜곡 비용(above_rdcost)
상기 부호화 정보 특징6은 구체적으로 하기 특징을 포함한다:
61, 현재 부호화유닛의 좌측 인접한 부호화 트리 유닛의 심도 정보(left_depth)
62, 현재 부호화유닛의 상측 인접한 부호화 트리 유닛의 심도 정보(above_depth).
다만, 예측 모델을 교육할 때 사용되는 부호화 정보 특징의 유형은 처리하려는 부호화유닛이 모델 예측을 수행할 때 획득한 부호화 정보 특징의 유형과 일치하여야 한다.
이에 기반하여, 본 출원에 있어서 서로다른 상황의 비디오 스트림 시퀀스을 획득할 수 있고 시퀀스에 포함된 교육 부호화유닛에 대하여 오프라인에서 상기 각 유형의 부호화 정보 특징을 획득하고 실제 부호화 과정에서 교육 부호화유닛이 심도 분할을 수행하였는가를 기록하며 수행하였으면 교육 부호화유닛의 분류 결과를 제1 표시 값으로 표시하고, 그렇지 않으면 교육 부호화유닛의 분류 결과를 제2 표시 값으로 표시한다. 제1 표시 값은 1일 수 있고 제2 표시 값은 -1일 수 있다.
교육 부호화유닛이 획득한 각 유형의 부호화 정보 특징으로 교육 특징 벡터를 구성하고 교육 특징 벡터 및 교육 부호화유닛의 분류 결과로 교육 샘플을 구성한다.
다만, B 프레임 예측 모델과 P 프레임 예측 모델이 각각 교육을 수행하므로 B 프레임과 P 프레임의 부호화 정보 특징도 각각 추출하여야 한다. 또한, 본 실시예에 있어서 부호화 심도가 0인 교육 부호화유닛만을 추출하고 교육하여 얻은 예측 모델도 부호화 심도가 0인 처리하려는 부호화유닛에만 예측을 수행한다.
二, 모델 교육
본 실시예에 있어서 SVM 모델을 선택하여 교육할 수 있고 제3자의 오픈 소스 소프트웨어를 이용하여 오프라인으로 교육할 수 있다.
S1, 교육 샘플 조합. 1:1의 비율에 따라 분류 결과가 심도 분할가 필요한 교육 샘플과 심도 분할이 필요하지 않은 교육 샘플을 획득한 후, 교차하여 교육 샘플 집합 전체를 구성한다.
S2, 교육 샘플 표준화. 정리된 교육 샘플에 표준화를 수행하여 교육 샘플을 [-1, 1]구간으로 맵핑한다.
본 단계에서 교육 샘플 표준화 작업을 수행하는 것은 데이터 포맷을 통일시켜 예측의 정확도를 향상시키기 위한 것이다.
S3, 모델 교육. 제3자의 오픈 소스 소프트웨어를 스케쥴링하여 RBF 커널을 이용하여 B 프레임에 속하는 교육 샘플과 P 프레임에 속하는 교육 샘플에 각각 교육을 수행하여 최종적으로 B 프레임 예측 모델과 P 프레임 예측 모델을 각각 얻고 mode_B_cu64*64 및 mode_P_cu64*64로 기록한다.
본 출원의 또 다른 일 실시예에 있어서, 다른 한가지 부호화유닛 심도 확정 방법을 설명하는데 도 6에 도시한 바와 같이 하기 단계를 포함한다.
단계S300, 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정한다.
단계S310, 상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛의 부호화 심도가 0인가를 판단하고 0이면 단계S320를 수행하고 그렇지 않으면 단계S340를 수행한다.
구체적으로, 처리하려는 부호화유닛의 부호화 심도가 0이면 처리하려는 부호화유닛이 최대 부호화유닛LCU임을 말하고, 즉 부호화 트리 유닛CTU에 분할을 수행하지 않았음을 말한다.
본 실시예에 있어서, 처리하려는 부호화유닛의 부호화 심도가 0인가를 확정할 경우 하기와 같은 예측 모델을 사용하여 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 예측하는 작업을 수행한다. 처리하려는 부호화유닛의 부호화 심도가 0이 아니라고 확정된 경우 다른 방법을 이용하여 부호화 심도의 예측을 수행한다.
단계S320, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성한다.
단계S330, 상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻고, 상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시한다.
여기서, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플은 상기 소정 유형의 부호화 정보 특징을 포함한다.
상기 단계S300~S330은 상기한 실시예중의 단계S200~S230에 일일이 대응되므로 여기서는 상세한 설명을 생략한다.
단계S340, 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정한다.
단계S350, 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛에 있어서 부호화 심도가 동일하고 이미 부호화된 부호화유닛의 평균 레이트 왜곡 비용을 제2 평균 레이트 왜곡 비용으로 확정한다.
단계S360, 상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 확정한다.
상기한 각 실시예에 비하여, 본 실시예에 있어서 처리하려는 부호화유닛의 부호화 심도가 0이 아니라고 확정된 경우, 처리하려는 부호화유닛의 부호화 심도에 예측을 수행하는 과정을 추가하고, 즉 처리하려는 부호화유닛 및 그 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛중의 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용에 근거하여 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 예측한다. 1프레임 비디오 영상중의 인접한 부호화 트리 유닛의 화소 분포의 차이가 크지 않으므로 이미 부호화된 인접한 부호화 트리중의 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용에 근거하여 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 예측할 수 있고 그 예측 결과의 정확성이 상대적으로 높고 처리하려는 부호화유닛에 심도 분할 및 비트왜곡율 비용의 계산과 비교를 수행할 필요가 없으며 기존기술에 비하여 부호화 예측 시간을 대폭 줄일 수 있고 계산 자원을 감소하며 계산 복잡도를 낮출 수 있다.
진일보로, 상기 단계S340의 실현 과정을 설명하는데 도 7에 도시한 바와 같이 하기 단계를 포함한다.
단계S400, 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 매개 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 확정한다.
단계S410, 매개 상기 인접한 부호화 트리 유닛과 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 방위 관계에 따라 매개 상기 인접한 부호화 트리 유닛의 가중치를 확정한다.
구체적으로, 설명의 편의를 위하여, 처리하려는 부호화유닛이 위치한 부호화 트리 유닛을 Current CTU로 정의하고, Current CTU의 인접한 부호화 트리 유닛은 좌측의 인접한 부호화 트리 유닛Left CTU, 좌상측의 인접한 부호화 트리 유닛AboveLeft CTU, 상측 인접한 부호화 트리 유닛Above CTU, 우상측의 인접한 부호화 트리 유닛AboveRight CTU를 포함할 수 있다.
도 8에 Current CTU의 매개 인접한 부호화 트리 유닛을 나타내였다.
다만, Current CTU와 매개 인접한 CTU의 방위 관계가 다르므로 매개 인접한 CTU의 가중치도 다르다.
가능한 대응 관계에 있어서, 인접한 CTU의 가중 비율 값은
Left CTU: Above CTU: AboveLeft CTU: AboveRight CTU=2: 2: 1: 1이다.
단계S420, 매개 상기 인접한 부호화 트리 유닛의 가중치 및 그 평균 레이트 왜곡 비용에 근거하여 각 상기 인접한 부호화 트리 유닛의 가중 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정한다.
구체적으로, 매개 인접한 부호화 트리 유닛의 평균 레이트 왜곡 비용과 대응되는 가중치를 곱하여 곱한 결과를 얻고 매개 곱한 결과를 더하여 가중 평균 레이트 왜곡 비용을 얻어서 제1 평균 레이트 왜곡 비용으로 한다.
도 8에 도시한 상황을 예로 하여 제1 평균 레이트 왜곡 비용의 확정 과정을 설명한다.
처리하려는 부호화유닛의 부호화 심도가 1이라고 한다. 도 8에 도시한 바와 같이 Left CTU는 부호화 심도가 1인 CU32*32를 4개 포함하고 AboveLeft CTU는 부호화 심도가 1인 CU32*32를 3개 포함하며, Above CTU는 부호화 심도가 1인 CU32*32를 0개 포함하고, AboveRight CTU는 부호화 심도가 1인 CU32*32를 2개 포함한다.
CTU중의 부호화 심도가 1인 4개 CU32*32의 위치를 시계 방향으로 좌상측으로부터 시작하여 각각 0, 1, 2, 3으로 표기한다.
도 8을 결합하면,
left_depth1_cost=left_depth1_cost0+left_depth1_cost1+left_depth1_cost2+left_depth1_cost3;
aboveleft_depth1_cost=aboveleft_depth1_cost0+aboveleft_depth1_cost2+aboveleft_depth1_cost3;
aboveright_depth1_cost=aboveright_depth1_cost1+aboveright_depth1_cost2; 임을 알 수 있고,
여기서, 첫번째 공식을 예로 설명하면, left_depth1_cost는 좌측의 인접한 CTU중의 부호화 심도가 1인 CU의 평균 레이트 왜곡 비용을 표시하고 left_depth1_cost0은 좌측의 인접한 CTU중의 부호화 심도가 1인 CU중의 위치가 0으로 표기된 CU의 레이트 왜곡 비용을 표시한다.
진일보로, 모든 인접한 CTU에 있어서 부호화 심도가 1인 CU의 가중 평균 레이트 왜곡 비용은
Avg_depth1_cost=(left_depth1_cost*2+aboveleft_depth1_cost*1+aboveright_depth1_cost*1)/(left_depth1_num*2+aboveleft_depth1_num*1+aboveright_depth1_num*1)이고,
여기서, left_depth1_num, aboveleft_depth1_num, aboveright_depth1_num는 각각 좌측, 상측 및 좌상측의 인접한 CTU중의 부호화 심도가 1인 CU의 수량을 표시한다.
다만, 상기한 내용은 부호화 심도가 1인 경우를 설명하였는데 부호화 심도가 2, 3인 경우의 계산 방식도 상기와 동일하다.
진일보로, 상기 단계S360중의 상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 확정하는 과정을 설명하는데 도 9에 도시한 바와 같이, 이 과정은 하기 단계를 포함한다 :
단계S500, 상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 레이트 왜곡 비용 임계값을 확정한다.
구체적으로, 제1 평균 레이트 왜곡 비용과 제2 평균 레이트 왜곡 비용에 서로다른 가중치를 설정하고 제1 평균 레이트 왜곡 비용 및 제2 평균 레이트 왜곡 비용에 가중 합계를 수행하여 그 결과를 레이트 왜곡 비용 임계값으로 할 수 있다.
또한, 인접한 CTU가 모두 이미 부호화를 완성하였으므로 제1 평균 레이트 왜곡 비용의 가중치를 제2 평균 레이트 왜곡 비용의 가중치보다 크게 설정할 수 있다.
단계S510, 상기 처리하려는 부호화유닛의 현재 최적 모드의 레이트 왜곡 비용이 상기 레이트 왜곡 비용 임계값 미만인가를 판단하고 미만이면 단계S520를 수행하고 그렇지 않으면 단계S530을 수행한다.
단계S520, 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 없다고 확정한다.
단계S530, 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있다고 확정한다.
구체적으로, 처리하려는 부호화유닛의 현재 최적 모드의 레이트 왜곡 비용이 레이트 왜곡 비용 임계값 미만이면, 본 출원에 있어서 처리하려는 부호화유닛이 이미 심도 분할을 수행할 필요가 없다고 판단하고, 그렇지 않으면 처리하려는 부호화유닛이 아직도 심도 분할을 수행할 필요가 있다고 판단한다.
여전히 처리하려는 부호화유닛의 부호화 심도가 1인 경우를 예로 도 8을 결합하여 설명한다.
상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛중의 부호화 심도가 1인 이미 부호화된 부호화유닛의 평균 레이트 왜곡 비용을 Avg_curr_CU_depth1로 정의하고, 즉 제2 평균 레이트 왜곡 비용을 Avg_curr_CU_depth1로 표시한다.
제1 평균 레이트 왜곡 비용과 제2 평균 레이트 왜곡 비용의 가중치 비율을 4: 3으로 설정한다. 레이트 왜곡 비용 임계값을
Threshold_depth1=(Avg_depth1_cost*4+Avg_curr_CU_depth1*3)/(3+4)로 표시할 수 있다.
처리하려는 부호화유닛의 현재 최적 모드의 레이트 왜곡 비용을 curr_cost_depth1로 정의하면 curr_cost_depth1<Threshold_depth1이면 처리하려는 부호화유닛에 심도 분할을 진일보로 수행할 필요가 없다고 판단하고 그렇지 않으면 심도 분할을 수행할 필요가 있다고 판단한다.
본 출원의 상기에서 제공하는 방법과 기존기술로 실험한 결과, 기존의 전체 순회 방법에 비하여 본 출원의 방법에 따른 부호화 속도가 94% 향상되었고 압축 비율이 3.1% 하강되었음을 알 수 있다. 이와 같이 본 출원에 의하면 소량의 압축 비율의 하강을 통하여 부호화 속도의 대폭 향상을 실현할 수 있고 비디오 인코더의 부호화 속도를 대폭 향상시키고 계산 복잡도를 대폭 줄일 수 있다.
아래 본 출원의 실시예에서 제공하는 부호화유닛 심도 확정 장치를 설명하는데 아래에서 설명하는 부호화유닛 심도 확정 장치와 상기한 부호화유닛 심도 확정 방법은 서로 대응되게 참조할 수 있다.
도 10을 참조하면, 도 10은 본 출원의 실시예에서 공개되는 부호화유닛 심도 확정 장치의 구조를 나타낸 도이다.
도 10에 도시한 바와 같이, 이 장치는
처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정하는 잔여 계수 확정유닛(11)과,
상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하는 특징 획득유닛(12)과,
상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻는 모델 예측유닛(13)을 포함하고, 상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시하고,
여기서, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플은 상기 소정 유형의 부호화 정보 특징을 포함한다.
본 출원의 실시예에서 제공하는 부호화유닛 심도 확정 장치에 의하면, 사전에 분류 결과가 표기된 교육 샘플을 이용하여 예측 모델을 교육하고, 이 교육 샘플은 소정 유형의 부호화 정보 특징을 포함하고, 그리고 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수가 0이 아니라고 확정된 경우, 처리하려는 부호화유닛이 skip 부호화유닛이 아님을 말하므로 부호화 심도 예측을 수행하여야 하고, 따라서 처리하려는 부호화유닛 및 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛로부터 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하여 예측 모델에 입력하며, 기계학습 예측 모델을 이용하여 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 예측한다. 본 출원에 있어서 예측 결과가 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 없음을 표시할 경우, 처리하려는 부호화유닛에 심도 분할 및 비트왜곡율 비용의 계산과 비교를 수행할 필요가 없어 기존기술에 비하여 부호화 예측 시간을 대폭 줄일 수 있고 계산 자원을 감소하며 계산 복잡도를 낮출 수 있다.
또한, 상기 잔여 계수 확정유닛은 구체적으로 비 I 프레임 비디오 영상에 속하는 처리하려는 부호화유닛의 현재 최적 모드의 잔여를 확정하는데 이용될 수 있다.
또한, 본 출원의 장치는,
상기 처리하려는 부호화유닛의 부호화 심도가 0인가를 판단하는 부호화 심도 판단유닛을 더 포함할 수 있고,
이에 따라, 상기 특징 획득유닛은 구체적으로, 상기 부호화 심도 판단유닛의 판단 결과 0인 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 추출한다.
또한, 본 출원의 장치는,
상기 처리하려는 부호화유닛의 부호화 심도가 0이 아니라고 판단된 경우, 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정하는 인접 평균 레이트 왜곡 비용 확정유닛과,
상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛중의 부호화 심도가 동일하고 이미 부호화된 부호화유닛의 평균 레이트 왜곡 비용을 제2 평균 레이트 왜곡 비용으로 확정하는 자신 평균 레이트 왜곡 비용 확정유닛과,
상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 확정하는 심도 분할 판단유닛을 더 포함할 수 있다.
또한, 상기 예측 모델은 P 프레임 예측 모델과 B 프레임 예측 모델을 포함할 수 있고, 상기 P 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 P 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 상기 소정 유형의 부호화 정보 특징이고, 상기 B 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 B 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 상기 소정 유형의 부호화 정보 특징이다. 이에 기반하여 상기 모델 예측유닛은,
상기 처리하려는 부호화유닛이 속하는 비디오 프레임 영상의 유형이 P 프레임인가 B 프레임인가를 확정하는 프레임 유형 확정유닛과,
상기 프레임 유형 확정유닛에 의하여 P 프레임으로 확정된 경우, 상기 예측 특징 벡터 샘플을 상기 P 프레임 예측 모델에 입력하여 상기 P 프레임 예측 모델로부터 출력되는 예측 결과를 얻는 P 프레임 모델 예측유닛과,
상기 프레임 유형 확정유닛에 의하여 B 프레임으로 확정된 경우, 상기 예측 특징 벡터 샘플을 상기 B 프레임 예측 모델에 입력하여 상기 B 프레임 예측 모델로부터 출력되는 예측 결과를 얻는 B 프레임 모델 예측유닛을 포함할 수 있다.
또한, 상기 특징 획득유닛은,
상기 처리하려는 부호화유닛의 레이트 왜곡 비용, 양자화 계수, 왜곡 및 평방 편차를 획득하는 제1 특징 획득유닛과,
상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛의 레이트 왜곡 비용과 심도 정보를 획득하는 제2 특징 획득유닛을 포함할 수 있다.
또한, 상기 인접 평균 레이트 왜곡 비용 확정유닛은,
상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 매개 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동이한 부호화유닛의 평균 레이트 왜곡 비용을 확정하는 제1 인접 평균 레이트 왜곡 비용 확정 서브유닛과,
매개 상기 인접한 부호화 트리 유닛과 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 방위 관계에 근거하여 매개 상기 인접한 부호화 트리 유닛의 가중치를 확정하는 제2 인접 평균 레이트 왜곡 비용 확정 서브유닛과,
매개 상기 인접한 부호화 트리 유닛의 가중치 및 그 평균 레이트 왜곡 비용에 근거하여 각 상기 인접한 부호화 트리 유닛의 가중 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정하는 제3 인접 평균 레이트 왜곡 비용 확정 서브유닛을 포함할 수 있다.
또한, 상기 심도 분할 판단유닛은,
상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 레이트 왜곡 비용 임계값을 확정하는 레이트 왜곡 비용 임계값 확정유닛과,
상기 처리하려는 부호화유닛의 현재 최적 모드의 레이트 왜곡 비용이 상기 레이트 왜곡 비용 임계값 미만인가를 판단하고 미만이면 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 없다고 확정하고 그렇지 않으면 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있다고 확정하는 레이트 왜곡 비용 임계값 비교유닛을 포함할 수 있다.
본 출원의 실시예에 있어서 진일보로 상기한 부호화유닛 심도 확정 장치를 포함하는 비디오 인코더를 제공한다.
진일보로, 비디오 인코더는 상기 설명한 예측 모델을 더 포함할 수 있다. 본 출원에 공개되는 비디오 인코더에 의하면 기존의 비디오 인코더에 비하여 부호화 속도가 대폭 향상되고 계산 복잡도가 대폭 하강된다.
마지막으로, 본문에 있어서 예를 들어 제 1, 제 2 등과 같은 관계를 나타내는 용어는 한 개체 또는 조작을 다른 개체 또는 조작과 구별시키기 위한 것으로 이러한 개체 또는 조작 사이에 이러한 실제적 관계 또는 순서가 존재함을 요구하거나 암시하는 것이 아니다. 그리고 용어 "포함", "함유" 또는 기타 임의의 변형은 비배제적 포함을 커버하기 위한 것이고 일련의 요소를 포함하는 프로세스, 방법, 제품 또는 기기가 그러한 요소를 포함하는 외, 명확히 기재하지 않은 기타 요소도 포함하며, 이러한 프로세스, 방법, 제품 또는 기기 고유의 요소를 더 포함할 수 있음을 커버하는 것이다. 진일보로 한정하지 않은 상황하에서 "…포함하는"으로 한정된 요소의 경우, 상기 요소를 포함하는 프로세스, 방법, 제품 또는 기기에 다른 동일한 요소가 존재하는 것을 배제하지 않는다.
본 명세서중의 각 실시예를 모두 점진적 방식으로 설명하였는데 각 실시예에서 중점적으로 설명한 부분은 기타 실시예와의 차이점이고 각 실시예 사이의 동일하거나 유사한 부분에 대하여서는 서로 참조할 수 있다.
공개한 실시예의 상기 설명에 대하여 이 분야의 기술자는 본 출원을 실현하거나 또는 사용할 수 있다. 이러한 실시예에 대한 여러가지 수정은 이 분야의 기술자에게 자명한 것이다. 본 명세서에서 정의한 일반 원리는 본 출원의 정신 또는 범위를 벗어나지 않은 상황에서 기타 실시예에서 실현될 수 있다. 따라서 본 출원은 본 명세서에 나타낸 이러한 실시예에 한정되지 않고 본 명세서에 공개된 원리와 신규 특징과 일치한 가장 넓은 범위에 부합되어야 한다.

Claims (16)

  1. 부호화유닛 심도 확정 방법에 있어서,
    처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정하는 단계와,
    상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하는 단계와,
    상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻는 단계를 포함하고,
    상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시하고, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플은 상기 소정 유형의 부호화 정보 특징을 포함하고,
    상기 방법은:
    상기 처리하려는 부호화유닛의 부호화 심도가 0이 아니라고 판단된 경우, 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정하는 단계와,
    상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛에 있어서 부호화 심도가 동일하고 이미 부호화된 부호화유닛의 평균 레이트 왜곡 비용을 제2 평균 레이트 왜곡 비용으로 확정하는 단계와,
    상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 확정하는 단계를 더 포함하는 것을 특징으로 하는, 부호화유닛 심도 확정 방법.
  2. 청구항 1에 있어서,
    상기 처리하려는 부호화유닛이 비 I 프레임 비디오 영상에 속하는 것을 특징으로 하는 부호화유닛 심도 확정 방법.
  3. 청구항 1에 있어서,
    상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 추출하기 전에,
    상기 처리하려는 부호화유닛의 부호화 심도가 0인가를 판단하고 0이면 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 추출하는 단계를 더 포함하는 것을 특징으로 하는 부호화유닛 심도 확정 방법.
  4. 청구항 1 내지 3 중의 임의의 한 항에 있어서,
    상기 예측 모델은 P 프레임 예측 모델과 B 프레임 예측 모델을 포함하고, 상기 P 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 P 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 상기 소정 유형의 부호화 정보 특징이고, 상기 B 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 B 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 상기 소정 유형의 부호화 정보 특징이며,
    상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻는 단계가,
    상기 처리하려는 부호화유닛이 속하는 비디오 프레임 영상의 유형이 P 프레임인가 B 프레임인가를 확정하는 단계와,
    P 프레임이면 상기 예측 특징 벡터 샘플을 상기 P 프레임 예측 모델에 입력하여 상기 P 프레임 예측 모델로부터 출력되는 예측 결과를 얻는 단계와,
    B 프레임이면 상기 예측 특징 벡터 샘플을 상기 B 프레임 예측 모델에 입력하여 상기 B 프레임 예측 모델로부터 출력되는 예측 결과를 얻는 단계를 포함하는 것을 특징으로 하는 부호화유닛 심도 확정 방법.
  5. 청구항 1 내지 3 중의 임의의 한 항에 있어서,
    상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하는 단계가,
    상기 처리하려는 부호화유닛의 레이트 왜곡 비용, 양자화 계수, 왜곡 및 평방 편차를 획득하는 단계와,
    상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛의 레이트 왜곡 비용과 심도 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 부호화유닛 심도 확정 방법.
  6. 청구항 1에 있어서,
    상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정하는 단계가,
    상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 각각의 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 확정하는 단계와,
    각각의 상기 인접한 부호화 트리 유닛과 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 방위 관계에 근거하여 각각의 상기 인접한 부호화 트리 유닛의 가중치를 확정하는 단계와,
    각각의 상기 인접한 부호화 트리 유닛의 가중치 및 그 평균 레이트 왜곡 비용에 근거하여 각 상기 인접한 부호화 트리 유닛의 가중 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정하는 것을 특징으로 하는 부호화유닛 심도 확정 방법.
  7. 청구항 1 또는 6에 있어서,
    상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 확정하는 단계가,
    상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 레이트 왜곡 비용 임계값을 확정하는 단계와,
    상기 처리하려는 부호화유닛의 현재 최적 모드의 레이트 왜곡 비용이 상기 레이트 왜곡 비용 임계값 미만인가를 판단하는 단계와,
    상기 처리하려는 부호화유닛의 상기 현재 최적 모드의 상기 레이트 왜곡 비용이 상기 레이트 왜곡 비용 임계값보다 작은 경우 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 없다고 확정하고, 그렇지 않으면 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있다고 확정하는 단계를 포함하는 것을 특징으로 하는 부호화유닛 심도 확정 방법.
  8. 부호화유닛 심도 확정 장치에 있어서,
    처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정하는 잔여 계수 확정유닛과,
    상기 잔여 계수가 0이 아닌 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 획득하여 예측 특징 벡터 샘플을 구성하는 특징 획득유닛과,
    상기 예측 특징 벡터 샘플을 사전 교육된 예측 모델에 입력하여 상기 예측 모델로부터 출력되는 예측 결과를 얻는 모델 예측유닛을 포함하고,
    상기 예측 결과는 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 표시하고, 상기 예측 모델은 분류 결과가 표기된 교육 샘플을 이용하여 사전 교육을 하여 얻은 것이고, 상기 교육 샘플은 상기 소정 유형의 부호화 정보 특징을 포함하고,
    상기 장치는:
    상기 처리하려는 부호화유닛의 부호화 심도가 0이 아니라고 판단된 경우, 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정하는 인접 평균 레이트 왜곡 비용 확정유닛과,
    상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛중의 부호화 심도가 동일하고 이미 부호화된 부호화유닛의 평균 레이트 왜곡 비용을 제2 평균 레이트 왜곡 비용으로 확정하는 자신 평균 레이트 왜곡 비용 확정유닛과,
    상기 제1 평균 레이트 왜곡 비용 및 상기 제2 평균 레이트 왜곡 비용에 근거하여 상기 처리하려는 부호화유닛에 심도 분할을 수행할 필요가 있는가를 확정하는 심도 분할 판단유닛을 더 포함하는 것을 특징으로 하는, 부호화유닛 심도 확정 장치.
  9. 청구항 8에 있어서,
    상기 잔여 계수 확정유닛은 구체적으로, 비 I 프레임 비디오 영상에 속하는 처리하려는 부호화유닛의 현재 최적 모드의 잔여 계수를 확정하는데 이용되는 것을 특징으로 하는 부호화유닛 심도 확정 장치.
  10. 청구항 8에 있어서,
    상기 처리하려는 부호화유닛의 부호화 심도가 0인가를 판단하는 부호화 심도 판단유닛을 더 포함하고,
    상기 특징 획득유닛은 구체적으로, 상기 부호화 심도 판단유닛의 판단 결과가 0인 경우, 상기 처리하려는 부호화유닛 및 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛으로부터 각각 소정 유형의 부호화 정보 특징을 추출하는 것을 특징으로 하는 부호화유닛 심도 확정 장치.
  11. 청구항 8에 있어서,
    상기 예측 모델은 P 프레임 예측 모델과 B 프레임 예측 모델을 포함하고, 상기 P 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 P 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 상기 소정 유형의 부호화 정보 특징이고, 상기 B 프레임 예측 모델의 사전 교육 시 사용되는 교육 샘플은 B 프레임 비디오 영상에 속하는 부호화유닛으로부터 추출된 상기 소정 유형의 부호화 정보 특징이며,
    상기 모델 예측유닛이,
    상기 처리하려는 부호화유닛이 속하는 비디오 프레임 영상의 유형이 P 프레임인가 B 프레임인가를 확정하는 프레임 유형 확정유닛과,
    상기 프레임 유형 확정유닛이 P 프레임으로 확정한 경우, 상기 예측 특징 벡터 샘플을 상기 P 프레임 예측 모델에 입력하여 상기 P 프레임 예측 모델로부터 출력되는 예측 결과를 얻는 P 프레임 모델 예측유닛과,
    상기 프레임 유형 확정유닛이 B 프레임으로 확정한 경우, 상기 예측 특징 벡터 샘플을 상기 B 프레임 예측 모델에 입력하여 상기 B 프레임 예측 모델로부터 출력되는 예측 결과를 얻는 B 프레임 모델 예측유닛을 포함하는 것을 특징으로 하는 부호화유닛 심도 확정 장치.
  12. 청구항 8에 있어서,
    상기 특징 획득유닛이,
    상기 처리하려는 부호화유닛의 레이트 왜곡 비용, 양자화 계수, 왜곡 및 평방 편차를 획득하는 제1 특징 획득유닛과,
    상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 인접한 부호화 트리 유닛의 레이트 왜곡 비용과 심도 정보를 획득하는 제2 특징 획득유닛을 포함하는 것을 특징으로 하는 부호화유닛 심도 확정 장치.
  13. 청구항 10에 있어서,
    상기 인접 평균 레이트 왜곡 비용 확정유닛이,
    상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 각각의 인접한 부호화 트리 유닛에 있어서, 상기 처리하려는 부호화유닛과 부호화 심도가 동일한 부호화유닛의 평균 레이트 왜곡 비용을 확정하는 제1 인접 평균 레이트 왜곡 비용 확정 서브유닛과,
    각각의 상기 인접한 부호화 트리 유닛과 상기 처리하려는 부호화유닛이 위치한 부호화 트리 유닛의 방위 관계에 근거하여 각각의 상기 인접한 부호화 트리 유닛의 가중치를 확정하는 제2 인접 평균 레이트 왜곡 비용 확정 서브유닛과,
    각각의 상기 인접한 부호화 트리 유닛의 가중치 및 그 평균 레이트 왜곡 비용에 근거하여 각 상기 인접한 부호화 트리 유닛의 가중 평균 레이트 왜곡 비용을 제1 평균 레이트 왜곡 비용으로 확정하는 제3 인접 평균 레이트 왜곡 비용 확정 서브유닛을 포함하는 것을 특징으로 하는 부호화유닛 심도 확정 장치.
  14. 프로그램 명령이 저장되는 컴퓨터 판독 가능 기억매체에 있어서,
    상기 프로그램 명령이 프로세서로 하여금 청구항 1 내지 3 및 6 중의 임의의 한 항에 기재된 방법을 수행하도록 하는 것을 특징으로 하는 컴퓨터 판독 가능 기억매체.
  15. 삭제
  16. 삭제
KR1020197027603A 2017-04-21 2017-12-08 부호화유닛 심도 확정 방법 및 장치 KR102252816B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710266798.8A CN108737841B (zh) 2017-04-21 2017-04-21 编码单元深度确定方法及装置
CN201710266798.8 2017-04-21
PCT/CN2017/115175 WO2018192235A1 (zh) 2017-04-21 2017-12-08 编码单元深度确定方法及装置

Publications (2)

Publication Number Publication Date
KR20190117708A KR20190117708A (ko) 2019-10-16
KR102252816B1 true KR102252816B1 (ko) 2021-05-18

Family

ID=63856188

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197027603A KR102252816B1 (ko) 2017-04-21 2017-12-08 부호화유닛 심도 확정 방법 및 장치

Country Status (6)

Country Link
US (1) US10841583B2 (ko)
EP (1) EP3614666A4 (ko)
JP (1) JP6843239B2 (ko)
KR (1) KR102252816B1 (ko)
CN (1) CN108737841B (ko)
WO (1) WO2018192235A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11128871B2 (en) 2018-04-25 2021-09-21 Panasonic Intellectual Property Corporation Of America Encoder for adaptively determining information related to splitting based on characteristics of neighboring samples
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
CN109862354B (zh) * 2019-02-18 2023-02-10 南京邮电大学 一种基于残差分布的hevc快速帧间深度划分方法
CN109889842B (zh) * 2019-02-21 2022-02-08 北方工业大学 基于knn分类器的虚拟现实视频cu划分算法
CN110581990B (zh) * 2019-09-25 2021-07-27 杭州当虹科技股份有限公司 一种适用于hevc 4k和8k超高清编码的tu递归快速算法
CN112866692B (zh) * 2021-01-18 2022-04-26 北京邮电大学 一种基于hevc的编码单元划分方法、装置及电子设备
CN112866693B (zh) * 2021-03-25 2023-03-24 北京百度网讯科技有限公司 编码单元cu的划分方法、装置、电子设备和存储介质
CN113691808A (zh) * 2021-07-01 2021-11-23 杭州未名信科科技有限公司 一种基于神经网络的帧间编码单元尺寸划分方法
CN113382245A (zh) * 2021-07-02 2021-09-10 中国科学技术大学 图像划分方法和装置
CN115941962A (zh) * 2021-09-30 2023-04-07 深圳市中兴微电子技术有限公司 视频编码单元划分方法、装置、计算机设备和可读介质
CN114157863B (zh) * 2022-02-07 2022-07-22 浙江智慧视频安防创新中心有限公司 基于数字视网膜的视频编码方法、系统及存储介质
CN115278260A (zh) * 2022-07-15 2022-11-01 重庆邮电大学 基于空时域特性的vvc快速cu划分方法及存储介质
CN116170594B (zh) * 2023-04-19 2023-07-14 中国科学技术大学 一种基于率失真代价预测的编码方法和装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI280803B (en) * 2005-07-20 2007-05-01 Novatek Microelectronics Corp Method and apparatus for motion estimation
US8913662B2 (en) * 2011-01-06 2014-12-16 Qualcomm Incorporated Indicating intra-prediction mode selection for video coding using CABAC
US8964853B2 (en) * 2011-02-23 2015-02-24 Qualcomm Incorporated Multi-metric filtering
US9247258B2 (en) * 2011-10-26 2016-01-26 Qualcomm Incorporated Unified design for picture partitioning schemes
CN102420990B (zh) * 2011-12-15 2013-07-10 北京工业大学 一种面向多视点视频的快速编码方法
KR20140056599A (ko) * 2012-10-30 2014-05-12 광주과학기술원 Hevc 예측 모드 결정 방법 및 장치
CN103067704B (zh) * 2012-12-12 2015-12-09 华中科技大学 一种基于编码单元层次提前跳过的视频编码方法和系统
US9674542B2 (en) * 2013-01-02 2017-06-06 Qualcomm Incorporated Motion vector prediction for video coding
US10021414B2 (en) * 2013-01-04 2018-07-10 Qualcomm Incorporated Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures
CN103533349A (zh) * 2013-09-26 2014-01-22 广东电网公司电力科学研究院 基于支持向量机的b帧快速帧间预测宏块模式选择方法
CN106162167B (zh) * 2015-03-26 2019-05-17 中国科学院深圳先进技术研究院 基于学习的高效视频编码方法
CN104853191B (zh) * 2015-05-06 2017-09-05 宁波大学 一种hevc的快速编码方法
CN105306947B (zh) * 2015-10-27 2018-08-07 中国科学院深圳先进技术研究院 基于机器学习的视频转码方法
CN105430407B (zh) * 2015-12-03 2018-06-05 同济大学 应用于h.264到hevc转码的快速帧间模式决策方法
CN105721865A (zh) * 2016-02-01 2016-06-29 同济大学 一种hevc帧间编码单元划分的快速决策算法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Xiaolin Shen, et al. CU splitting early termination based on weighted SVM. EURASIP JOURNAL ON IMAGE VIDEO PROCESSING, vol. 2013, no. 1, 1, 2013. 01. 01, pp.4*
Zhang Yun, et al. Machine Learning-Based Coding Unit Depth Decisions for Flexible Complexity Allocation in High Efficiency Video Coding. IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. 24, no,7, 2015. 07.
Zhaoqing pan, et al. Fast Coding Tree Unit depth decision for high efficiency video coding, 2014 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING(ICIP),IEEE. 2014. 10. 27, pp.3214-3218

Also Published As

Publication number Publication date
EP3614666A1 (en) 2020-02-26
US10841583B2 (en) 2020-11-17
JP2020500482A (ja) 2020-01-09
EP3614666A4 (en) 2020-04-08
CN108737841A (zh) 2018-11-02
US20190222842A1 (en) 2019-07-18
JP6843239B2 (ja) 2021-03-17
CN108737841B (zh) 2020-11-24
KR20190117708A (ko) 2019-10-16
WO2018192235A1 (zh) 2018-10-25

Similar Documents

Publication Publication Date Title
KR102252816B1 (ko) 부호화유닛 심도 확정 방법 및 장치
US11178419B2 (en) Picture prediction method and related apparatus
TW201830972A (zh) 用於視訊寫碼之低複雜度符號預測
CN103647972B (zh) 运动图像解码方法和运动图像编码方法
WO2016065873A1 (zh) 图像预测方法及相关装置
JP7024098B2 (ja) ビデオ符号化方法、コンピュータ機器、及び記憶媒体
KR20200013266A (ko) 픽처 예측 방법 및 픽처 예측 장치
US11070803B2 (en) Method and apparatus for determining coding cost of coding unit and computer-readable storage medium
WO2022104498A1 (zh) 帧内预测方法、编码器、解码器以及计算机存储介质
WO2014190468A1 (en) Video encoder for images
CN103931190A (zh) 图像编码设备、图像编码方法、图像解码设备、图像解码方法及存储介质
WO2016180129A1 (zh) 预测模式选择方法、装置及设备
CN101218829A (zh) 动态图像编码装置、动态图像编码方法、动态图像编码程序、动态图像解码装置、动态图像解码方法以及动态图像解码程序
TWI722465B (zh) 子塊的邊界增強
CN114900691B (zh) 编码方法、编码器及计算机可读存储介质
WO2022143215A1 (zh) 一种帧间预测方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN106063268B (zh) 转码方法、转码设备以及信息存储介质
WO2019150411A1 (ja) 映像符号化装置、映像符号化方法、映像復号装置、映像復号方法、及び映像符号化システム
CN106101731B (zh) 图像无损压缩方法及装置
CN114501022A (zh) 一种数据处理方法、装置、计算机设备及存储介质
WO2020258052A1 (zh) 图像分量预测方法、装置及计算机存储介质
WO2020056767A1 (zh) 视频图像分量的预测方法、装置及计算机存储介质
Kuang et al. Fast HEVC to SCC transcoding based on decision trees
WO2022266971A1 (zh) 编解码方法、编码器、解码器以及计算机存储介质
WO2022246809A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant