KR20150002992A - Method for distributed vidio encoding and decoding of foreground block utilizing video analytics information - Google Patents

Method for distributed vidio encoding and decoding of foreground block utilizing video analytics information Download PDF

Info

Publication number
KR20150002992A
KR20150002992A KR20130075289A KR20130075289A KR20150002992A KR 20150002992 A KR20150002992 A KR 20150002992A KR 20130075289 A KR20130075289 A KR 20130075289A KR 20130075289 A KR20130075289 A KR 20130075289A KR 20150002992 A KR20150002992 A KR 20150002992A
Authority
KR
South Korea
Prior art keywords
frame
foreground
decoding
block
module
Prior art date
Application number
KR20130075289A
Other languages
Korean (ko)
Other versions
KR101554541B1 (en
Inventor
이명진
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Priority to KR1020130075289A priority Critical patent/KR101554541B1/en
Publication of KR20150002992A publication Critical patent/KR20150002992A/en
Application granted granted Critical
Publication of KR101554541B1 publication Critical patent/KR101554541B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An objective of the present invention is to provide a method for selectively encoding and decoding a foreground block by utilizing video analysis information, which is capable of reducing a calculation amount and improving the coding efficiency. To this end, a method of selectively encoding and decoding a foreground block by utilizing video analysis information according to the present invention includes the steps of: receiving a video frame divided into a key-frame and a wz-frame by an encoder; encoding the received video frame by the encoder; and decoding the encoded video frame received by a decoder. Thus, only the foreground block is selectively encoded by utilizing the video analysis information provided from an internal or external automatic video analysis module, so that the calculation amount may be reduced and the coding efficiency may be improved.

Description

비디오 분석 정보를 활용한 전경 블록의 선택적 분산 비디오 부호화 및 복호화 방법{METHOD FOR DISTRIBUTED VIDIO ENCODING AND DECODING OF FOREGROUND BLOCK UTILIZING VIDEO ANALYTICS INFORMATION}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for selectively distributing video in a foreground block using video analysis information,

본 발명은 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법에 관한 것으로서, 더욱 상세하게는 영상보안용 입력 비디오 시퀀스가 주로 넓은 영역의 정적인 배경과 작은 크기의 동적인 전경 영역으로 구분되며, 영상보안 응용에서 영상의 화질이 주로 전경 영역에 집중된다는 점을 고려하여, 복호기에서 전경블럭 정보를 추출하여 선택으로 전경 블록을 부호함을 통하여 부호기와 복호기의 부호화에 소비되는 연산량과 비트 자원을 감소시키는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법에 관한 것이다.
The present invention relates to a method for selectively encoding and decoding a foreground block using video analysis information. More particularly, the input video sequence for video security is classified into a static background of a wide area and a dynamic foreground area of a small size , Considering that the image quality of the image security application is mainly concentrated in the foreground area in the image security application, the foreground block information is extracted from the decoder, and the foreground block is selected by selecting the foreground block, so that the computation amount and bit resource consumed in the encoding of the encoder and the decoder And more particularly, to a method and apparatus for selectively encoding and decoding a foreground block using video analysis information.

현존하는 일반적인 비디오 압축 부호화 기법들은 고성능 및 고가의 단일 부호기에서 생성한 압축 비트열을 저성능 및 저가의 복수개의 복호기들에서 소비하는 형태이다. 이는 주로 지상파/케이블/인터넷 방송이나 CD/DVD/Blu-Ray와 같은 미디어 배포 채널에 적합한 형태이다. Conventional video compression coding schemes consume compressed bit streams generated by a high performance and expensive single encoder in a plurality of low performance and low cost decoders. It is mainly suitable for media distribution channels such as terrestrial / cable / Internet broadcasting or CD / DVD / Blu-Ray.

현재 H.264/AVC 코덱이 다양한 채널에 적용되어 활용되고 있으나, H.264/AVC와 같은 전통적인 비디오 부호화는 부호기 복잡도가 복호기 복잡도보다 높은 구조이며, 부호화 시 움직임 추정에 많은 연산을 수행한다는 한계가 존재하는 문제점이 있다.Currently, the H.264 / AVC codec is applied to various channels, but the conventional video coding such as H.264 / AVC has a higher complexity than the decoder complexity. There is an existing problem.

또한, 분산 비디오 부호화 (Distributed Video Coding; DVC)은 부호기에서의 부호화 복잡도가 높은 연산들을 복호기가 담당하게 함으로써 저전력 단말에 적합한 부호화 기법이다. 그러나, 현존하는 분산 비디오 부호화 기법들의 부호화 효율은 여전히 H.264/AVC의 부호화 효율에 미치지 못하고 있다. In addition, Distributed Video Coding (DVC) is a coding technique suitable for a low-power terminal by allowing a decoder to perform calculations with high coding complexity in an encoder. However, the coding efficiency of existing distributed video coding techniques still does not meet the coding efficiency of H.264 / AVC.

분산 비디오 부호화 기법은 기존의 모든 비디오 응용들에 적합하지는 않으나, 무선 비디오 센서 네트워크, 무선 비디오 보안 시스템, 무선 자연생태 모니터링 등과 같은 저 복잡도의 자원 제약형 응용에 적용이 가능하다. Distributed video coding is not suitable for all existing video applications, but it can be applied to low-complexity resource-constrained applications such as wireless video sensor networks, wireless video security systems, and wireless nature ecological monitoring.

이들 응용에서 대부분의 화면은 정적인 배경과 작거나 중간 크기의 소수의 전경 물체들로 구성된다. 또한, 전경영역의 화질은 배경영역보다 중요하다. 분산 비디오 부호기의 부호화 효율을 향상시키기 위해 Intra, Wyner-Ziv(WZ), Skip 등의 부호화 모드를 블록별로 도입하는 기법들이 제안되었다. In most of these applications, the screen consists of a static background and a small number of foreground objects with a small or medium size. Also, the image quality of the foreground area is more important than the background area. Intra, Wyner-Ziv (WZ), and Skip have been proposed to introduce coding modes on a block-by-block basis to improve coding efficiency of a distributed video encoder.

그러나, 이들 기법에서는 부호화 모드 결정이 부호기에서 이루어지기 때문에 부호기에 추가의 연산 부담을 줄 수 있다. 또한, 복호기에서 생성한 보조정보(Side Information; SI)의 화질이 부호화 모드 결정에 반영될 수 없다. 부호화 모드 결정을 확장한 방법으로는 부호기에서 보안영상 시퀀스에 대한 배경을 생성하고 전경 블록을 추출하여 전경 블록들만 선택적으로 부호화하는 기법이 제안되었다. However, in these techniques, since the encoding mode decision is performed by the encoder, an additional computation burden can be given to the encoder. In addition, the picture quality of side information (SI) generated by the decoder can not be reflected in the encoding mode decision. As a method of extending the coding mode decision, a technique has been proposed in which an encoder generates a background for a secure video sequence and extracts foreground blocks to selectively encode only foreground blocks.

그러나, 부호기에서 배경생성, 배경 압축, 전경 추출 등의 연산이 이루어져야 하기 때문에 저전력 부호화를 목표로 하는 분산 비디오 부호기에 적용이 어렵다는 문제점이 있다.
However, since an operation such as background generation, background compression, and foreground extraction must be performed in the encoder, it is difficult to apply it to a distributed video encoder aiming at low-power encoding.

대한민국 등록특허공보 제10-1059318(2011. 08. 18)Korean Registered Patent No. 10-1059318 (Aug. 18, 2011)

본 발명은 상술한 문제점을 해결하기 위해 발명된 것으로서, 비디오 보안 응용을 위한 경량화된 화소영역 및 변환영역 Wyner-Ziv 비디오 부호화 구조 및 알고리즘을 구비하고, 보안 영상 분야에서 최근들어 탑재되기 시작한 자동 비디오 분석기 (video analytics module)가 제공한 비디오 분석 정보를 기반으로 전경 블록만 선택적으로 부호화하여 부호화 연산량을 낮추고 부호화 효율을 개선한 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법의 제공을 목적으로 한다.
Disclosure of Invention Technical Problem [8] The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a Wyner-Ziv video coding structure and algorithm for a video security application, The present invention aims to provide a selective encoding and decoding method of a foreground block using video analysis information that selectively encodes a foreground block based on video analysis information provided by a video analytics module to reduce coding amount and improve coding efficiency .

상술한 목적을 달성하기 위한, 본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법은 부호기가 Key-프레임과 WZ-프레임으로 구분되는 비디오 프레임을 수신하는 단계; 부호기가 수신한 비디오 프레임을 부호화하는 단계; 및 부호화된 상기 비디오 프레임을 복호기가 수신하여 복호화시키는 단계;를 포함하는 것을 특징으로 한다.
According to another aspect of the present invention, there is provided a method for selectively encoding and decoding a foreground block using video analysis information, the method comprising: receiving a video frame in which an encoder is divided into a key frame and a WZ frame; Encoding a video frame received by the encoder; And a step of receiving and decoding the encoded video frame by a decoder.

본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법은 내장된 또는 외부의 자동 비디오 분석모듈이 제공한 비디오 분석 정보를 기반으로 전경블록만을 선택적으로 부호화하여 부호화에 따른 연산량을 낮추고 부호화 효율을 향상시킬 수 있는 효과가 있다.
The method for selectively encoding and decoding a foreground block using video analysis information according to the present invention selectively encodes only a foreground block based on video analysis information provided by an embedded or external automatic video analysis module, The coding efficiency can be improved.

도 1은 본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법이 적용되는 변환영역 Wyner-Ziv (transform-domain Wyner-Ziv; TDWZ) 코덱 구조도,
도 2는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법이 적용되는 화소영역 Wyner-Ziv (pixel-domain Wyner-Ziv; PDWZ) 코덱 구조도,
도 3은 본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법의 적용에 따른 원본 프레임, 전경 맵, 배경 프레임 및 서브 프레임 구성의 개념도 및,
도 4는 본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법의 흐름도이다.
1 is a diagram illustrating a transform domain Wyner-Ziv (TDWZ) codec structure to which a method of selectively encoding and decoding a foreground block using video analysis information according to the present invention is applied;
FIG. 2 is a diagram illustrating a pixel-domain Wyner-Ziv (PDWZ) codec structure to which a method of selectively encoding and decoding a foreground block using video analysis information is applied;
FIG. 3 is a conceptual diagram of an original frame, a foreground map, a background frame, and a subframe structure according to application of a selective encoding and decoding method of a foreground block using video analysis information according to the present invention,
4 is a flowchart illustrating a method of selectively encoding and decoding a foreground block using video analysis information according to the present invention.

이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concept of the term appropriately in order to describe its own invention in the best way. The present invention should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

먼저, 도 1은 본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법이 적용되는 변환영역 Wyner-Ziv (transform-domain Wyner-Ziv; TDWZ) 코덱 구조도 이고, 도 2는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법이 적용되는 화소영역 Wyner-Ziv (pixel-domain Wyner-Ziv; PDWZ) 코덱 구조도 이다. 1 is a block diagram of a transform domain Wyner-Ziv (transform-domain Wyner-Ziv; TDWZ) codec to which a method of selectively encoding and decoding a foreground block using video analysis information according to the present invention is applied. And a pixel-domain Wyner-Ziv (PDWZ) codec structure to which a selective encoding and decoding method of a foreground block using analysis information is applied.

도 1 및 도 2에 도시된 바와 같이, 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법이 적용되는 코덱은 부호기(100)와 복호기(200)를 포함한다.As shown in FIG. 1 and FIG. 2, a codec to which a selective encoding and decoding method of a foreground block using video analysis information is applied includes an encoder 100 and a decoder 200.

추가적으로, 도 3을 참조하여, 본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법에 대하여 설명한다.In addition, referring to FIG. 3, a method of selectively encoding and decoding a foreground block using video analysis information according to the present invention will be described.

상기 부호기(100)가 비디오 프레임을 수신하는 단계를 수행한다(S100).The encoder 100 performs a step of receiving a video frame (S100).

이때, 상기 부호기(100)는 상기 비디오 프레임을 Key-프레임과 WZ-프레임으로 구분하여 수신한다.At this time, the encoder 100 separates the video frame into a key frame and a WZ frame, and receives the video frame.

상기 부호기(100)가 수신한 비디오 프레임을 부호화 하는 단계를 수행한다(S200). The encoder 100 encodes the received video frame (S200).

상기 Key-프레임이 수신된 경우, 상기 부호기(100)에 내장된 H.264 Intra 또는 JPEG 같은 화면내 부호화 모듈(110)이 상기 Key-프레임을 바로 부호화하는 단계를 수행한다(S210).If the Key-frame is received, the intra-picture coding module 110 such as H.264 Intra or JPEG embedded in the encoder 100 directly encodes the key-frame (S210).

한편, 상기 복호기(200)에 내장된 비디오 분석모듈(210)는 도 3에 도시된 바와 배경 프레임과 전경 맵을 생성한다.Meanwhile, the video analysis module 210 built in the decoder 200 generates a background frame and a foreground map as shown in FIG.

이때, 상기 복호기(200)의 연산 부담을 감소시키기 위해, 상기 배경 프레임과 전경 맵은 상기 내장된 비디오 분석모듈(210)이 아닌 상기 복호기(200) 외부에 위치하는 비디오 분석모듈에서 생성되어 상기 복호기(200)에 제공될 수도 있다.In order to reduce the computation burden of the decoder 200, the background frame and the foreground map are generated in a video analysis module located outside the decoder 200, not in the embedded video analysis module 210, (Not shown).

즉, 비디오 분석모듈(210)은 상기 복호기(200)와 함께 구동되는 외부의 비디오 분석모듈을 사용할 수도 있고, 외부 분석모듈의 사용이 어려운 경우 단순한 비디오 분석모듈을 복호기에 내장시킬 수도 있다. That is, the video analysis module 210 may use an external video analysis module that is driven together with the decoder 200, or may incorporate a simple video analysis module in the decoder if it is difficult to use the external analysis module.

내장 비디오 분석모듈이나 외장 비디오 분석모듈은 모두 배경 프레임을 생성하고 전경 맵을 생성하여 제안된 분산비디오 부호기에 제공할 수 있어야 한다. Both the built-in video analysis module and the external video analysis module must be able to generate a background frame and generate a foreground map and provide it to the proposed distributed video encoder.

배경 프레임과 전경 맵 생성은 대부분의 비디오 분석모듈에서 공통적으로 수행하는 연산이고, 배경 생성 기법에 따라 배경 프레임의 품질이 달라질 수 있으나 비디오 부호화 구조나 성능에 영향을 주지 않는다.Background frame and foreground map generation are operations that are common to most video analysis modules. The quality of the background frame may vary depending on the background generation technique, but does not affect the video coding structure or performance.

참고로, 도 3은 본 발명에 따른 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법의 적용에 따른 원본 프레임, 전경 맵, 배경 프레임 및 서브 프레임 구성의 개념도 이다.3 is a conceptual diagram of an original frame, a foreground map, a background frame, and a subframe structure according to application of a selective encoding and decoding method of a foreground block using video analysis information according to the present invention.

한편, 상기 배경 프레임은 최근에 생성된 배경 프레임과 최근에 복호된 Key-프레임의 가중치 평균으로 식(1)과 같이 갱신된다. 이 외에도 다양한 방법의 배경 생성 기법들이 사용될 수 있으며, 제안 구조에 배경 프레임만 제공할 수 있으면 된다. On the other hand, the background frame is updated as Equation (1) with the weighted average of the recently generated background frame and the recently decoded Key-frame. In addition, various background generation techniques can be used, and only a background frame can be provided to the proposed structure.

Figure pat00001
Figure pat00001

여기에서

Figure pat00002
과 w는 n번째 복호된 key-프레임에서 화소 p의 값과 가중치를 나타낸다.From here
Figure pat00002
And w represent the value and weight of the pixel p in the n-th decoded key-frame.

상기 전경 맵은 M×M 블록단위로 다음과 같이 계산된다.The foreground map is calculated in units of M × M blocks as follows.

Figure pat00003
Figure pat00003

여기에서 B와 Tfg는 블록과 전경 추출을 위한 문턱치를 나타낸다. 전경 맵은 전경 물체의 변경정도를 고려하여 주기적으로 부호기가 전송된다.Where B and T fg represent thresholds for block and foreground extraction. The foreground map is transmitted periodically by the encoder in consideration of the degree of change of foreground objects.

생성된 상기 전경 맵은 상기 부호기(100) 전송되게 된다.The generated foreground map is transmitted to the encoder 100.

상기 부호기(100)가 상기 전경 맵을 포함한 WZ-프레임을 수신하는 경우, 상기 부호기(100)에 내장된 서브-프레임 구성모듈(120)은 WZ-프레임에 대해 상기 전경 맵에 속한 블록들만 추출하여 한 개 또는 복수의 서브-프레임을 구성하는 단계를 수행한다(S220).When the encoder 100 receives the WZ-frame including the foreground map, the sub-frame construction module 120 built in the encoder 100 extracts only the blocks belonging to the foreground map for the WZ-frame One or more sub-frames are formed (S220).

도 2에 도시된 바와 같이, PDWZ 코덱의 경우, 상기 부호기(100)의 양자화 모듈(140)은 상기 'S220'단계에서 구성된 서브-프레임내 화소들을 양자화하는 단계를 수행한다(S240).As shown in FIG. 2, in the case of the PDWZ codec, the quantization module 140 of the encoder 100 performs a step of quantizing the pixels in the sub-frame configured in step S220 (S240).

상기 부호기(100)의 LDPC 부호화 모듈(150)은 상기 'S230'단계에서 양자화된 화소들을 비트-평면(bit-planes)으로 분리하여 부호화하는 단계를 수행한다(S250).The LDPC encoding module 150 of the encoder 100 separates and quantizes the quantized pixels into bit-planes in step S230 and performs encoding in step S250.

한편, 도 1에 도시된 바와 같이, TDWZ 코덱의 경우, 상기 부호기(100)의 변환부호화 모듈(130)이 'S220'단계에서 구성된 서브-프레임들을 N×N블록 단위로 변환부호화 하는 단계를 더 수행한다(S230).1, in the case of the TDWZ codec, the transcoding module 130 of the encoder 100 transforms and encodes the sub-frames constructed in step S220 into N × N block units (S230).

이후, 상기 부호기(100)의 상기 양자화 모듈(140)은 변환 블록내 계수 위치별로 그룹을 구성한 후 양자화하는 단계를 수행하고(S240), 상기 부호기(100)의 LDPC 부호화 모듈(150)은 양자화된 계수들을 비트-평면(bit-planes)으로 분리하여 부호화하는 단계를 수행한다(S250).The quantization module 140 of the encoder 100 performs a step of forming a group for each of the coefficient positions in the transform block and quantizing the quantized result at step S240. The LDPC encoding module 150 of the encoder 100 quantizes And separates the coefficients into bit-planes and encodes them (S250).

상기 부호기(100)의 LDPC 부호화 모듈(150)은 상기 비트-평면과 패리티 생성 행렬과의 곱으로서, 전경 블록들이 서브-프레임을 모두 채우지 못하는 경우 부호화 단위별 크기를 만족시키기 위해 도 3(d)와 같이 서브-프레임뒤에 "0(zero)"으로 구성된 블록들을 추가시킬 수 있다.The LDPC encoding module 150 of the encoder 100 multiplies the bit-plane by the parity generation matrix. If the foreground blocks can not fill all the sub-frames, the LDPC encoding module 150 of FIG. And " 0 "after the sub-frame.

보다 구체적으로 설명하면, 대부분의 보안 영상 시퀀스에서 전경 영역은 프레임 내에서 비교적 적은 영역을 차지한다. 따라서, 전경 블록들을 이용하여 프레임 해상도의 가로 세로 각각 1/2인 1/4 크기의 서브-프레임을 구성한다. More specifically, in most secure video sequences, the foreground area occupies a relatively small area within the frame. Thus, a sub-frame having a size of 1/4 of a half of the frame resolution is formed by using the foreground blocks.

WZ-프레임의 전경 블록들은 래스터 스캔 (raster scan) 방향으로 서브-프레임에 채워진다. 전경 블록의 수가 서브-프레임 내의 블록수 보다 적으면 도 3(c)와 같이 서브-프레임의 채워지지 않은 블록들에 도 3(d)와 같이 제로 블록 (zero block)을 채워 넣는다. 첫 번째 서브-프레임을 채운 뒤에도 전경 블록이 남아 있으면 다음 서브-프레임을 채우고, 여전히 전경 블록들이 남아 있으면 이 과정을 반복한다. The foreground blocks of the WZ-frame are filled in the sub-frame in the raster scan direction. If the number of foreground blocks is less than the number of blocks in the sub-frame, the non-filled blocks of the sub-frame are filled with a zero block as shown in FIG. 3 (d), as shown in FIG. If the foreground block remains after filling the first sub-frame, fill the next sub-frame and repeat this process if there are still foreground blocks remaining.

GOP(Group-of-pictures)는 key-프레임 한 개와 연속된 WZ-프레임들의 집합으로 정의되며, GOP크기는 2이상으로 설정한다. 본 발명에서는 GOP 크기 2를 기준으로 설명하며, 이 경우 Key-프레임의 프레임 인덱스는 짝수, WZ-프레임의 프레임 인덱스는 홀수로 표현된다.Group-of-pictures (GOPs) are defined as a set of one key frame and consecutive WZ-frames, and the GOP size is set to 2 or more. In the present invention, GOP size 2 is used as a reference. In this case, a frame index of a key frame is an even number, and a frame index of a WZ frame is expressed by an odd number.

상기 부호기(100)에 의한 비디오 프레임에 대한 부호화하는 단계(S200) 이후, 상기 복호기(100)에 의한 프레임에 대한 복호화하는 단계(S300)를 수행한다. After the encoding step (S200) of the video frame by the encoder (100), the decoder (100) decodes the frame (S300).

보다 구체적으로, 상기 복호기(200)는 현재 WZ-프레임을 기준으로 직전 Key-프레임과 직후 Key 프레임 간의 움직임 보상 기반 보간(motion-compensation interpolation; MCI)기법을 이용하여 전경 블록들에 대한 보조정보 블록을 생성하고, 생성된 보조정보 블록을 이용하여 서브-프레임에 대한 보조정보를 생성하는 단계를 수행한다(S310).More specifically, the decoder 200 decodes the supplementary information blocks for the foreground blocks using the motion compensation interpolation (MCI) technique between the current key frame and the key frame immediately after the current WZ-frame, , And generates auxiliary information for the sub-frame using the generated auxiliary information block (S310).

즉, 상기 복호기(200)에서 서브-프레임에 대한 보조정보는 전경 맵에 있는 전경블럭들에 대한 보조정보를 생성함으로써 구성할 수 있다. That is, the auxiliary information for the sub-frame in the decoder 200 can be configured by generating auxiliary information for the foreground blocks in the foreground map.

전경블록들에 대한 보조정보는 움직임 보상 기반 보간 (Motion compensated interpolation; MCI)을 통해 생성된다. 전경 블록B에 대한 MCI 블록은 직전 Key-프레임과 직후 Key-프레임들 사이에 수행된 움직임 탐색 과정에서 찾은 움직임 벡터vB를 이용하여 보간된다. The supplementary information for foreground blocks is generated through motion compensated interpolation (MCI). The MCI block for the foreground block B is interpolated using the motion vector v B found in the motion search process performed between the immediately preceding key frame and the immediately following key frame.

다음은 양방향 움직임 추정을 사용하였을 때의 한 예이며, 움직임 추정 방식에 따라 보간 방식은 달라질 수 있다.The following is an example of using bi-directional motion estimation, and the interpolation method may vary depending on the motion estimation method.

Figure pat00004
Figure pat00004

직전 및 직후 Key-프레임들 사이에 움직임 추정은 기존의 다양한 방식이 사용될 수 있으며, 직전 Key-프레임의 블록 B를 기준으로 전방향 움직임 추정, 직후 Key-프레임 블록 B를 기준으로 역방향 움직임 추정, 전방향 및 역방향 움직임 추정의 변형된 형태, WZ-프레임의 블록 B를 기준으로 한 양방향 움직임 추정 및 변형된 형태 등이 많이 사용된다.For the motion estimation between the immediately preceding and following key frames, various conventional methods can be used. Forward motion estimation based on the block B of the immediately preceding key frame, backward motion estimation based on the key frame block B immediately after Directional and backward motion estimation, bi-directional motion estimation based on block B of WZ-frame, and deformed shape.

TDWZ 코덱의 경우, 상기 복호기(200)의 LDPC 복호화 모듈(220)은 상기 'S310'단계에서 생성된 서브-프레임에 대한 보조정보와 상기 부호기(210)로부터 수신된 패리티 비트들을 이용하여 LDPC 복호화 단계를 수행하고(S320), 역양자화 모듈(230)에 의한 역양자화 단계가 수행되며(S330), 역변환 복호화 모듈(240)에 의한 역변환 단계가 수행되어(S340) 복호화된 서브-프레임을 생성하는 단계를 수행한다(S350). In the case of the TDWZ codec, the LDPC decoding module 220 of the decoder 200 performs LDPC decoding using the auxiliary information for the sub-frame generated in step S310 and the parity bits received from the encoder 210 (S320), an inverse quantization step by the inverse quantization module 230 is performed (S330), an inverse transformation step by the inverse transform decoding module 240 is performed (S340), and a decoded sub-frame is generated (S350).

PDWZ 코덱의 경우 상기 복호기(200)는 상술한 TDWZ 코덱의 경우와 동일한 절차를 거쳐서 복호화를 진행하나, 상기 역변환 복호화 모듈(240)에 의한 역변환 단계는 생략된다.In the case of the PDWZ codec, the decoder 200 performs decoding through the same procedure as in the case of the TDWZ codec, but the inverse conversion by the inverse transform decoding module 240 is omitted.

상기 복호기(200)에 포함된 프레임 합성모듈(250)이 상기 'S330' 또는 'S340'단계 이후 생성된 복호화된 서브-프레임과 배경 프레임을 상기 전경 맵을 이용하여 최종 복호 프레임으로 합성하는 단계를 수행한다(S360).The frame synthesis module 250 included in the decoder 200 synthesizes the decoded sub-frame and the background frame generated after the step 'S330' or 'S340' into a final decoded frame using the foreground map (S360).

마지막으로, 상기 'S360'단계이후, 상기 복호기(200)의 비디오 분석모듈(210)이 전경 맵을 생성하여 전송하는 단계를 추가적으로 수행한다(S370).Finally, after the step 'S360', the video analysis module 210 of the decoder 200 generates and transmits a foreground map (S370).

상기 복호기(200)는 서브-프레임의 보조정보와 수신된 패리티 비트들을 이용하여 서브-프레임을 복호한 후에 프레임 합성모듈(250)에 의해 전경 맵에 기반하여 배경 프레임과 복호된 서브-프레임을 이용하여 다음과 같이 최종 복호 프레임을 합성된다. After decoding the sub-frame using the sub information of the sub-frame and the received parity bits, the decoder 200 uses the background frame and the decoded sub-frame based on the foreground map by the frame synthesis module 250 And the final decoded frame is synthesized as follows.

Figure pat00005
Figure pat00005

여기에서

Figure pat00006
는 보조정보 블록
Figure pat00007
과 패리티 블록을 이용하여 복호된 전경 블록의 화소 p의 값을 나타낸다.From here
Figure pat00006
≪ / RTI >
Figure pat00007
And the value of the pixel p of the decoded foreground block using the parity block.

전경 블록의 수는 [수학식 2]의 전경 맵 추출을 위한 문턱치에 관계된다. 문턱치가 클수록 적은 수의 블록들이 전경으로 결정되며, 부호화와 전송을 위한 적은 에너지 소비가 발생되며 복호 화질은 저하된다. 문턱치가 작을수록 많은 수의 블록들이 전경으로 결정되며, 부호화와 전송을 위한 에너지 소비가 증가하나 복호화질은 향상된다. The number of foreground blocks is related to the threshold value for extracting the foreground map of Equation (2). The larger the threshold value is, the smaller the number of blocks is determined as the foreground, the less energy is consumed for coding and transmission, and the decoded picture quality is degraded. The smaller the threshold value, the larger the number of blocks is determined as the foreground, and the energy consumption for coding and transmission is increased, but the decoding quality is improved.

이는 발명 분산 비디오 부호화 구조가 에너지, 대역폭, 화질에 있어서 신축적임을(scalable) 의미하며, 이들은 전경 추출을 위한 문턱치와 양자화 계수 (quantization parameter; QP)를 이용하여 제어가 가능하다. 문턱치는 일반적인 경우 WZ- 프레임과 동일한 양자화 계수로 부호화된 Key-프레임들의 평균 왜곡치로 설정되는데, 이를 통해 배경 블록들의 왜곡을 특정 수준 이하로 제어 가능하다. This means that the inventive distributed video coding structure is scalable in terms of energy, bandwidth, and image quality, and they can be controlled using a threshold value for foreground extraction and a quantization parameter (QP). The threshold value is set to an average distortion value of key-frames encoded with the same quantization coefficient as that of the WZ-frame in general, so that the distortion of the background blocks can be controlled below a certain level.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 하기에 기재될 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It is to be understood that various modifications and changes may be made without departing from the scope of the appended claims.

100 : 부호기
110 : 부호화 모듈
120 : 서브-프레임 구성모듈
130 : 변환부호화 모듈
140 : 양자화 모듈
150 : LDPC 부호화 모듈
200 : 복호기
210 : 비디오 분석모듈
220 : LDPC 복호화 모듈
230 : 역양자화 모듈
240 : 역변환 복호화 모듈
250 : 프레임 합성모듈
100: encoder
110: encoding module
120: Sub-frame configuration module
130: Transcoding module
140: Quantization module
150: LDPC encoding module
200: decoder
210: Video analysis module
220: LDPC decoding module
230: Inverse quantization module
240: Inverse transform decoding module
250: frame synthesis module

Claims (10)

(a) 부호기(100)가 Key-프레임과 WZ-프레임으로 구분되는 비디오 프레임을 수신하는 단계;
(b) 상기 부호기(100)가 수신한 비디오 프레임을 부호화하는 단계; 및
(c) 부호화된 상기 비디오 프레임을 복호기(200)가 수신하여 복호화시키는 단계;를 포함하는 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
(a) receiving a video frame in which the encoder 100 is divided into a key frame and a WZ-frame;
(b) encoding the video frame received by the encoder (100); And
(c) receiving and decoding the encoded video frame by the decoder (200). The method of claim 1, further comprising:
제 1항에 있어서,
상기 (b)단계에서,
상기 부호기(100)에 상기 Key-프레임이 수신된 경우, 상기 부호기(100)에 내장된 부호화 모듈(110)이 상기 Key-프레임을 바로 부호화하는 단계;를 포함하는 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
The method according to claim 1,
In the step (b)
And encoding the key-frame by the encoding module (110) included in the encoder (100) if the key-frame is received in the encoder (100) A method for selectively encoding and decoding a foreground block utilized.
제 1항에 있어서,
상기 (b)단계에서,
상기 복호기(200)에 내장된 비디오 분석모듈(210), 또는 외부의 비디오 분석모듈에서 배경 프레임과 전경 맵이 생성되고, 상기 전경 맵 포함한 상기 WZ-프레임이 부호기로 전송되면,
(b-1) 상기 부호기(100)의 서브-프레임 구성모듈(120)이 상기 WZ-프레임에 대한 상기 전경 맵에 속한 블록들만 추출하여 하나 또는 복수의 서브-프레임을 구성하는 단계;
(b-3) PDWZ 코덱의 경우, 상기 부호기(100)의 양자화 모듈(140)이 상기 (b-1)단계에서 구성된 서브 프레임내 화소들을 양자화하는 단계;
(b-4) 상기 부호기(100)의 LDPC부호화 모듈(150)이 상기 (b-3)단계에서 양자화된 화소들을 비트-평면(bit-planes)으로 분리하여 부호화하는 단계;를 포함하는 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
The method according to claim 1,
In the step (b)
When a background frame and a foreground map are generated in the video analysis module 210 or an external video analysis module built in the decoder 200 and the WZ-frame including the foreground map is transmitted to the encoder,
(b-1) extracting only blocks belonging to the foreground map for the WZ-frame by the sub-frame configuration module 120 of the encoder 100 to construct one or a plurality of sub-frames;
(b-3) In case of the PDWZ codec, the quantization module 140 of the encoder 100 quantizes the pixels in the sub-frame configured in the step (b-1);
(b-4) The LDPC encoding module 150 of the encoder 100 separates quantized pixels into bit-planes in step (b-3) and encodes them. A method for selectively encoding and decoding a foreground block using video analysis information.
제 3항에 있어서,
TDWZ 코덱의 경우,
상기 (b-1)단계와 상기 (b-3)단계 사이에,
(b-2) 상기 부호기(100)의 변화부호화 모듈(130)이 상기 (b-1)단계에서 구성된 서브-프라임들을 N×N블록 단위로 변환부호화 하는 단계;를 더 포함하고,
상기 (b-3)단계에서, 상기 부호기(100)의 상기 양자화 모듈(140)이 상기 N×N으로 변환된 변환 블록내 계수 위치별로 그룹을 구성한 후 양자화하고,
상기 (b-4)단계에서, 상기 LDPC 부호화 모듈(150)이 양자화된 계수들을 비트-평면(bit-planes)으로 분리하여 부호화하는 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
The method of claim 3,
For the TDWZ codec,
Between the step (b-1) and the step (b-3)
(b-2) the transform coding module 130 of the encoder 100 transform-encodes the sub-primes constructed in step (b-1) into NxN block units,
In step (b-3), the quantization module 140 of the coder 100 forms a group for each coefficient position in the NxN transformed block, quantizes the group,
In the step (b-4), the LDPC encoding module 150 encodes the quantized coefficients into bit-planes and encodes the quantized coefficients into bit-planes, thereby selectively encoding and decoding the foreground block using the video analysis information. Decoding method.
제 3항 또는 제4항에 있어서,
상기 배경 프레임은 나중에 생성된 배경 프레임과 나중에 복호된 Key-프레임의 가중치 평균값으로 아래의 수학식으로 갱신되되,
Figure pat00008

상기 수학식에서
Figure pat00009
과 w는 n번째 복호된 key-프레임에서 화소 p의 값과 가중치인 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
The method according to claim 3 or 4,
The background frame is a weighted average of a background frame generated later and a key frame decoded later, and is updated by the following equation,
Figure pat00008

In the above equation
Figure pat00009
And w are values and weights of the pixel p in the n-th decoded key-frame.
제 3항 또는 제4항에 있어서,
상기 전경 맵은 M×M 블록단위로 아래의 수학식으로 계산되되,
Figure pat00010

상기 수학식에서 B와 Tfg는 블록과 전경 추출을 위한 문턱치인 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
The method according to claim 3 or 4,
The foreground map is calculated in units of M × M blocks by the following equation,
Figure pat00010

Wherein B and T fg are threshold values for block and foreground extraction, respectively. 2. The method of claim 1, wherein B and T fg are threshold values for block and foreground extraction.
제 3항 또는 제 4항에 있어서,
상기 (c)단계는
(c-1) 상기 복호기(200)는 현재 WZ-프레임을 기준으로 직전 Key-프레임과 직후 Key 프레임 간의 움직임 보상 기반 보간(motion-compensation interpolation; MCI)기법을 이용하여 전경 블록들에 대한 보조정보 블록을 생성하고, 생성된 보조정보 블록을 이용하여 서브-프레임에 대한 보조정보를 생성하는 단계;
(c-2) 상기 PDWM 코덱의 경우, 상기 복호기(200)의 LDPC 복호화 모듈(220)이 상기 '(c-1)'단계에서 생성된 서브-프레임에 대한 보조정보와 상기 부호기(100)로부터 수신된 패리티 비트들을 이용하여 부호화된 상기 서브 프레임내 화소들을 LDPC 복호화 단계; 및
(c-3) 상기 복호기(200)의 역양자화 모듈(230)이 상기 복호화된 서브 프레임내 화소들을 역양자화 하여 복호화된 서브-프레임을 생성(또는 구성)하는 단계;를 포함하는 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
The method according to claim 3 or 4,
The step (c)
(c-1) The decoder 200 decodes the auxiliary information for the foreground blocks using a motion-compensation interpolation (MCI) technique between the current key frame and the key frame immediately following the current WZ- Generating a block and generating auxiliary information for the sub-frame using the generated auxiliary information block;
(c-2) In the case of the PDWM codec, the LDPC decoding module 220 of the decoder 200 extracts supplementary information on the sub-frame generated in the step '(c-1) LDPC decoding the pixels in the subframe encoded using the received parity bits; And
(c-3) generating (or constructing) a decoded sub-frame by dequantizing the pixels in the decoded sub-frame by the dequantization module 230 of the decoder 200 Selective coding and decoding method of foreground block using video analysis information.
제 7항에 있어서,
상기 TDWZ 코덱의 경우,
상기 (c-3) 단계에서, 상기 복호기(200)의 역변환 복호화 모듈(240)에 의한 역변환 단계가 더 수행된 후 복호화된 서브-프레임을 구성하는 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
8. The method of claim 7,
In the case of the TDWZ codec,
In step (c-3), the inverse transform step of the inverse transform decoding module 240 of the decoder 200 is further performed to form a decoded sub-frame. / RTI >
제 8항에 있어서,
(c-4): 상기 (c-3)단계 이후에, 상기 복호기(200)에 포함된 프레임 합성모듈(250)이 상기 '(c-3)단계 이후 생성된 복호화된 서브-프레임과 배경 프레임을 상기 전경 맵을 이용하여 최종 복호 프레임으로 합성하고, 이후 상기 복호기(200)의 비디오 분석모듈(210)이 전경 맵을 생성하여 전송하는 단계;를 더 포함하는 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
9. The method of claim 8,
After the step (c-3), the frame synthesis module 250 included in the decoder 200 decodes the decoded sub-frame generated after the step (c-3) and the decoded sub- To a final decoded frame using the foreground map and then generating and transmitting a foreground map by the video analysis module 210 of the decoder 200. [ A method for selectively encoding and decoding a foreground block.
제 9항에 있어서,
상기 최종 보호 프레임은 아래의 수학식으로 합성되되,
Figure pat00011

상기 수학식에서
Figure pat00012
는 보조정보 블록
Figure pat00013
과 패리티 블록을 이용하여 복호된 전경 블록의 화소 p의 값인 것을 특징으로 하는 비디오 분석 정보를 활용한 전경 블록의 선택적 부호화 및 복호화 방법.
10. The method of claim 9,
The final protection frame is synthesized by the following equation,
Figure pat00011

In the above equation
Figure pat00012
≪ / RTI >
Figure pat00013
And a pixel p of the decoded foreground block using the parity block. The method for selectively encoding and decoding a foreground block using video analysis information.
KR1020130075289A 2013-06-28 2013-06-28 Method for distributed vidio encoding and decoding of foreground block utilizing video analytics information KR101554541B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130075289A KR101554541B1 (en) 2013-06-28 2013-06-28 Method for distributed vidio encoding and decoding of foreground block utilizing video analytics information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130075289A KR101554541B1 (en) 2013-06-28 2013-06-28 Method for distributed vidio encoding and decoding of foreground block utilizing video analytics information

Publications (2)

Publication Number Publication Date
KR20150002992A true KR20150002992A (en) 2015-01-08
KR101554541B1 KR101554541B1 (en) 2015-09-21

Family

ID=52475971

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130075289A KR101554541B1 (en) 2013-06-28 2013-06-28 Method for distributed vidio encoding and decoding of foreground block utilizing video analytics information

Country Status (1)

Country Link
KR (1) KR101554541B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110267041A (en) * 2019-06-28 2019-09-20 Oppo广东移动通信有限公司 Image encoding method, device, electronic equipment and computer readable storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101220097B1 (en) * 2011-05-12 2013-01-11 한국항공대학교산학협력단 Multi-view distributed video codec and side information generation method on foreground segmentation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110267041A (en) * 2019-06-28 2019-09-20 Oppo广东移动通信有限公司 Image encoding method, device, electronic equipment and computer readable storage medium

Also Published As

Publication number Publication date
KR101554541B1 (en) 2015-09-21

Similar Documents

Publication Publication Date Title
JP6739770B2 (en) Image decoding apparatus using enhanced CABAC decoding
TWI542203B (en) Method for decoding video
KR101918958B1 (en) Encoding method and apparatus for transformming hierarchical variable block and decoding method and apparatus
US8619854B2 (en) Scalable video encoding and decoding method using switching pictures and apparatus thereof
US20150010064A1 (en) Adaptive intra-prediction encoding and decoding method
US20120301040A1 (en) Image encoding/decoding method for rate-distortion optimization and apparatus for performing same
CN1977539A (en) Method and apparatus for generating coded picture data and for decoding coded picture data
CN101336549A (en) Scalable video coding method and apparatus based on multiple layers
KR20110115172A (en) Methods and apparatus for bit depth scalable video encoding and decoding utilizing tone mapping and inverse tone mapping
KR20120028843A (en) Method and apparatus of layered encoding/decoding a picture
JP5768180B2 (en) Image decoding method and image decoding apparatus
KR100813001B1 (en) Video Encoding and Decoding Apparatus and Methods using Separation of Amplitude and Sign of a differential image signal
KR101086724B1 (en) ?? Deciding Method of H.264/AVC Encoder using Complexity of Frame, and H.264/AVC Encoder implementing the same
KR101554541B1 (en) Method for distributed vidio encoding and decoding of foreground block utilizing video analytics information
Tsai et al. Dynamic key block decision with spatio-temporal analysis for Wyner-Ziv video coding
Zhang et al. Lossless video compression with residual image prediction and coding (RIPC)
KR20140088002A (en) Video encoding and decoding method and apparatus using the same
Imran et al. Distributed compressive video sensing: A review of the state-of-the-art architectures
JP2011109390A (en) Device and method for encoding image, and device and method for decoding image
JP5389298B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
Kuo et al. Distributed video coding with limited feedback requests
KR101653827B1 (en) Apparatus of Video Coding, Apparatus of Video Decoding, Method of Video Coding and Method of Video Decoding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190917

Year of fee payment: 5