KR20160109617A - Decoding apparatus of digital video - Google Patents

Decoding apparatus of digital video Download PDF

Info

Publication number
KR20160109617A
KR20160109617A KR1020150034376A KR20150034376A KR20160109617A KR 20160109617 A KR20160109617 A KR 20160109617A KR 1020150034376 A KR1020150034376 A KR 1020150034376A KR 20150034376 A KR20150034376 A KR 20150034376A KR 20160109617 A KR20160109617 A KR 20160109617A
Authority
KR
South Korea
Prior art keywords
decoding
interest
image
area
frame
Prior art date
Application number
KR1020150034376A
Other languages
Korean (ko)
Other versions
KR102321895B1 (en
Inventor
이현규
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020150034376A priority Critical patent/KR102321895B1/en
Publication of KR20160109617A publication Critical patent/KR20160109617A/en
Application granted granted Critical
Publication of KR102321895B1 publication Critical patent/KR102321895B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Abstract

The present invention discloses an apparatus for decoding a digital video, which performs preprocessing decoding on an overall screen and performs main decoding, adapted to achieve the level of an original video, on an area of interest in the overall screen, and thus a video can be smoothly provided without delay even in a decoding apparatus having low processing power. The apparatus for decoding a digital video according to the present invention comprises: a first decoding unit which performs preprocessing decoding on a bit stream of a video for an overall area of a screen, and outputs first video data filling the overall area with essential pixels having encoded values used only once in the preprocessing decoding; an area-of-interest setting unit which sets a predetermined area of interest in an overall area of the first video data, and outputs video data of the set area of interest; and a second decoding unit which performs main decoding on the video data of the area of interest so that the video data is decoded into original values, and outputs second video data in which the area of interest has been restored to an original state thereof.

Description

디지털 비디오의 디코딩 장치{Decoding apparatus of digital video}[0001] DESCRIPTION [0002] Decoding apparatus of digital video [

본 발명은 디지털 비디오의 디코딩 장치에 관한 것으로, 더욱 상세하게는 전체 화면에 대한 전처리 디코딩을 하고, 전체 화면 중에서 관심 영역에 대한 원본 수준의 메인 디코딩을 하는 디지털 비디오의 디코딩 장치에 관한 것이다.The present invention relates to a digital video decoding apparatus, and more particularly, to a digital video decoding apparatus that performs pre-processing decoding on a full screen and performs main decoding at an original level for a region of interest in the entire screen.

디지털 비디오의 영상을 압축, 해제하는 방식은 대표적으로 MPEG 표준 또는 변형 방식을 사용한다. 여기서, 변형 방식은 화면을 블록으로 나누고, 레퍼런스 블록과 현재 블록의 차이만을 저장하는 방식에 기반한 핵심적인 데이터 절약 방법에서 크게 다르지 않다.A method of compressing and decompressing an image of a digital video typically uses an MPEG standard or a modification method. Here, the transformation method is not largely different from the core data saving method based on the method of dividing the screen into blocks and storing only the difference between the reference block and the current block.

시간적 모델을 활용하여 데이터를 압축하는 방식은 시간에 따라 변하는 영상 정보를 상호 참조하여 변화된 부분의 정보만을 남기고, 변화가 없는 부분의 영상은 기준 화면(즉, Intra Frame) 또는 이전 화면의 정보를 재사용하는 방식을 일컫는다. 동영상을 이루는 인접한 두 정지 영상은 서로 상당히 비슷하여 이와 같은 시간적 모델을 활용한 압축 방식이 큰 효과가 있다.In the method of compressing data using a temporal model, only the information of the changed part is referred to by cross-referencing the image information which changes with time, and the image of the part without change is used as the reference image (i.e., Intra Frame) . The two adjacent still images forming the moving picture are substantially similar to each other, and the compression method using the temporal model has a great effect.

영상을 압축할 때, 각 영상 프레임은 인트라 프레임(I 프레임), 예측 프레임(P 프레임), 양방향 예측 프레임(B 프레임) 등의 방법을 통해 압축된다.When compressing an image, each image frame is compressed through a method such as intra frame (I frame), prediction frame (P frame), bidirectional prediction frame (B frame), and the like.

인트라 프레임(I 프레임)은 이전 또는 이후의 프레임의 데이터를 사용하지 않고, 독립적으로 압축/복원되는 프레임이다. 비디오 순서열에서 첫번째 프레임은 항상 인트라 프레임(I 프레임)이며, 인트라 프레임(I 프레임)은 새로운 뷰어를 위해 혹은 전송된 비트 스트림이 손상된 경우 재동기화 지점의 시작점을 특정하는 경우에 사용될 수 있다.An intra frame (I frame) is a frame that is independently compressed / reconstructed without using data of previous or subsequent frames. The first frame in the video sequence is always an intra frame (I frame), and an intra frame (I frame) can be used for a new viewer or when specifying the starting point of a resynchronization point if the transmitted bit stream is corrupted.

예측 프레임(P 프레임)은 이전에 이미 디코딩된 인트라 프레임(I 프레임) 또는 예측 프레임(P 프레임)으로부터의 순방향 예측에 의해 생성된다. 이에, 예측 프레임(P 프레임)은 이전에 이미 생성된 프레임이 없으면 생성하는 것이 불가하다. 예측 프레임(P 프레임)은 인트라 프레임(I 프레임)보다 적은 비트를 요구하지만, 이전의 예측 프레임(P 프레임)과 인트라 프레임(I 프레임)에 대한 복잡한 의존성으로 인하여 전송 오류에 민감한 단점이 있다.The prediction frame (P frame) is generated by the forward prediction from the previously already intra-frame (I frame) or prediction frame (P frame). Therefore, it is impossible to generate a predictive frame (P frame) if there is no previously generated frame. The prediction frame (P frame) requires less bits than the intra frame (I frame), but has a disadvantage in that it is sensitive to transmission errors due to complex dependence on the previous prediction frame (P frame) and intra frame (I frame).

양방향 예측 프레임(B 프레임)은 2개 이상의 프레임을 참조하여 구성되는 프레임이다. 양방향 예측 프레임(B 프레임)은 과거에 생성된 인트라 프레임(I 프레임) 또는 예측 프레임(P 프레임)을 참조하여 생성시키는 순방향 예측, 미리의 디코드될 인트라 프레임(I 프레임) 또는 예측 프레임(P 프레임)을 참조하여 생성시키는 역방향 예측 또는 순방향과 역방향 모드를 참조하는 쌍방향 예측 등 여러가지의 예측에 의해 생성된다. A bidirectional prediction frame (B frame) is a frame constructed by referring to two or more frames. (I frame) or a prediction frame (P frame) to be decoded, a bidirectional predictive frame (B frame) generated by referring to a previously generated intra frame (I frame) And a bidirectional prediction referring to the forward and backward modes.

위 언급된 프레임들과 관련된 압축 표준은 H.264(MPEG-4 Part 10 / 고급형 비디오 코딩용 AVC라고도 함)이며, 화질의 손상을 최소화하면서도 영상 파일의 크기를 줄이기 위한 목적으로 개발된 것이다.The compression standard related to the above-mentioned frames is H.264 (also referred to as MPEG-4 Part 10 / AVC for advanced video coding), which is designed to reduce the size of image files while minimizing image quality degradation.

H.264는 영상압축기술을 지원하는 승인된 개방형 표준이다. H.264 인코더는 Motion JPEG 포맷과 MPEG-4 파트 2 표준을 비교했을 때 화질의 손상 없이 각각 80%와 50% 이상으로 디지털 영상 파일 사이즈를 줄일 수 있다. 이는 영상 파일에 적은 네트워크 대역폭과 저장공간이 요구된다는 것을 의미한다.H.264 is an approved open standard that supports image compression technology. H.264 encoders can reduce digital image file sizes by 80% and 50%, respectively, without compromising image quality when compared to Motion JPEG format and MPEG-4 Part 2 standard. This means that a small amount of network bandwidth and storage space is required for the image file.

H.264는 이미 휴대전화기와 디지털 영상 재생기 등 전자장치에 도입되어 있으며, 실제 수요자들로부터 높은 평가를 받고 있고, 온라인 영상저장이나 통신회사와 같은 서비스 제공업체들도 H.264를 채택하고 있다.H.264 has already been introduced in electronic devices such as mobile phones and digital video players, and has received high praise from actual consumers. Service providers such as online video storage and telecommunication companies are also adopting H.264.

영상보안업계에서는 H.264가 초당 30(NTSC) 프레임 전송 구현으로 고속도로, 공황 및 카지노 감시와 같은 높은 프레임 속도와 고화질에 대한 요구가 있는 설치장소에서 큰 영향력을 보일 수 있다. 이는 대역폭 감소와 경제적인 저장 공간으로 인하여 비용 절감 효과를 제공해줄 수 있기 때문이다.In the video security industry, H.264 has a 30 per second (NTSC) frame transmission implementation that can have a significant impact on installation sites where high frame rates and high picture quality are required, such as highway, panic and casino surveillance. This is because bandwidth reduction and economical storage space can provide cost savings.

한편, H.264는 효율성 높은 압축 기술이 화질을 손상시키지 않고 큰 파일 사이즈와 비트 속도를 줄일 수 있기 때문에 메기 픽셀 카메라의 채택을 가속화시킬 수 있다.H.264, on the other hand, can accelerate the adoption of a megapixel camera because efficient compression technology can reduce large file sizes and bit rates without compromising image quality.

H.264는 ITU-T가 사용하는 명칭인 반면, ISO/IEC는 이를 MPEG-4 파트 10/AVC로 명명했는데, 그 이유는 이것이 이 기관의 MPEG-4의 새로운 부분으로 제시되었기 때문이다. 예를 들어 MPEG-4는 MPEG-4 파트 2를 포함하고 있는데 이것은 IP 기반 비디오 인코더와 네트워크 카메라들이 사용하는 표준이다.H.264 is the name used by ITU-T, while ISO / IEC names it MPEG-4 Part 10 / AVC because it is presented as a new part of MPEG-4 by the agency. For example, MPEG-4 includes MPEG-4 Part 2, a standard used by IP-based video encoders and network cameras.

이전의 비디오 압축 표준들에서의 여러 가지 단점들을 해결하기 위해 설계된 H.264는 다양한 수준의 비트율이 요구되는 범위의 사례에 유연하게 적용할 수 있는 기술이다. 예를 들면, 방송, 위성, 케이블 및 DVD를 포함하는 비디오 시장에서 H.264는 높은 지연을 갖는 1~10Mbit/s의 성능을 발휘할 수 있는 반면, 통신 서비스에서는 H.264가 낮은 1Mbot/s 이하의 비트율을 전송할 수 있다.H.264, designed to address several of the disadvantages of previous video compression standards, is a technology that can be flexibly applied to a wide range of bit-rate-requiring scenarios. For example, in the video market including broadcasting, satellite, cable and DVD, H.264 can exhibit a performance of 1 to 10 Mbit / s with high latency, whereas communication service has a low H.264 of 1 Mbot / s Lt; / RTI >

이러한 H.264의 기본 파일에서는, 인트라 프레임(I 프레임)과 예측 프레임(P 프레임)만이 사용되며, 양방향 예측 프레임(B 프레임)을 사용하지 않기 때문에 지연율이 떨어진다는 이유로 네트워크 카메라와 비디오 코딩에 적합하다.In the basic file of H.264, only the intra frame (I frame) and the prediction frame (P frame) are used, and since the bidirectional prediction frame (B frame) is not used, it is suitable for network camera and video coding Do.

H.264에서 영상 압축 방식은, 일례로 설명하면 이전 영상 또는 기준영상 대비 변화된 부분의 움직임 정보만을 검출하여 해당 부분은 영상 정보가 아닌 좌표 정보만을 제공하는 방식으로 데이터를 절약할 수 있다. In the H.264 image compressing method, for example, only the motion information of the changed part compared to the previous image or the reference image is detected, and the corresponding part can save the data by providing only the coordinate information instead of the image information.

또한, 압축을 해제할 때에도 위 언급된 좌표 정보만을 이용해서 압축 해제하는 것이 가능하다. 이와 같은 압축 또는 압축 해제 구조로 인해, 현 영상을 구성하기 위해서는 이전 영상 및 기준 화면에 대한 정보가 필요하다.Also, when decompressing, decompression can be performed using only the above-mentioned coordinate information. Due to such a compression or decompression structure, information on a previous image and a reference image is required in order to construct a current image.

다양한 디지털 비디오 분야에서 CCTV 영상에 대한 비디오 코딩 방식을 일례로서 살펴보기로 한다. CCTV 영상은 비디오 해상도 부분에서 SD 급으로부터 UHD 급에 이르기까지 급속도로 요구 사향이 높아지고 있으며, 비디오 화각 부분에서는 파노라마 180도, 피쉬 아이 360도와 같은 수준으로 요구 사향이 높아지는 추세이다.A video coding method for CCTV images in various digital video fields will be described as an example. CCTV images are rapidly increasing in demands for video resolution, ranging from SD to UHD, and demand for videos is increasing at the same level as panorama 180 degrees and fish eye 360 degrees.

여기서, 광각 피쉬 아이 기반의 비디오 영상은 유효 데이터가 화면 가장자리에 집중되어 있으며, 기존의 SD 급 수준의 해상도를 얻기 위해서는 피쉬 아이 기반의 원본 비디오 영상의 해상도는 2 Mega Pixel 또는 3 Mega Pixel이 요구되며, 최근에 들어서는 5 Mega Pixel 또는 8 Mega Pixel로 그 요구 사향이 급증하고 있다.In this case, the wide-angle fish eye-based video image is concentrated on the edge of the screen. In order to obtain the resolution of the SD level, a resolution of 2 Mega Pixel or 3 Mega Pixel is required for a Fish Eye-based original video image , And recently, the demand for 5 Mega Pixel or 8 Mega Pixel is increasing rapidly.

이와 같이 수메가 픽셀에 이르는 비디오 영상을 디코딩하기 위해서는 상당한 수준의 제어 자원이 소모되며, 이러한 이유로 고급 사양의 PC 또는 서버 사양의 PC를 통해서도 전술한 피쉬 아이 기반의 비디오 재생을 원활하게 실행하지 못하는 실정이다.In order to decode a video image of several megapixels, a considerable amount of control resources are consumed. For this reason, the above-described fish eye-based video playback can not be smoothly performed through a PC of a high-specification PC or a server specification. to be.

예컨대, 입력된 비디오 영상이 3 Mega Pixel인 경우, 디코딩을 위한 제어 자원은 3백만 화소를 모두 처리할 수 있을 정도의 능력이 요구된다. 따라서, 3 Mega Pixel의 비디오 영상을 수신하는 디코딩 장치가 3백만 화소를 모두 처리할 수 있는 제어 자원을 갖추지 못한 상태에서는 비디오 재생이 불가하거나, 원활하게 처리하지 못하는 한계가 있다.For example, when the inputted video image is 3 Mega Pixel, the control resource for decoding requires the capability to handle all 3 million pixels. Accordingly, there is a limit in that a decoding apparatus that receives a video image of 3 Mega Pixels can not perform video reproduction or smoothly process it in a state where it does not have control resources capable of processing all 3 million pixels.

더군다나, 입력된 비디오 영상이 3 Mega Pixel에 이를 만큼 고급 사양의 비디오 영상이라고 하더라도, 디코딩을 거쳐 실제 사용자 화면에 출력되는 영상이 3 Mega Pixel 중 극히 일부분에 해당하는 경우라고 하더라도 전술한 바와 같이 디코딩 장치는 3백만 화소를 모두 처리할 수 있는 제어 자원을 갖춰야 하는 합리적이지 못한 부분이 있다.Furthermore, even if the input video image is a video image of a high specification so as to reach 3 Mega Pixels, even if the image output through the decoding and output to the actual user screen corresponds to a very small portion of 3 Mega Pixel, There are some unreasonable reasons to have control resources to handle all 3 million pixels.

대한민국 등록특허공보 제10-0701740(2007.03.23)Korean Registered Patent No. 10-0701740 (Mar. 23, 2007)

따라서, 본 발명은 상기의 문제점을 해결하기 위해 창출된 것으로, 본 발명의 과제는 전체 화면에 대한 전처리 디코딩을 하고, 전체 화면 중에서 관심 영역에 대한 원본 수준의 메인 디코딩을 함으로써 낮은 프로세싱 파워을 갖는 디지털 비디오의 디코딩 장치에서도 시간 지연 없이 원활한 비디오 영상을 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a video decoding apparatus and a video decoding method, The video decoding apparatus of the present invention can provide smooth video images without delay.

본 발명의 목적은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned problems, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위한 본 발명의 관점에 따른 디지털 비디오의 디코딩 장치는 수신된 비디오 영상의 비트 스트림에 대한 전처리 디코딩을 하고, 상기 전처리 디코딩의 결과로서 영상 표출을 위한 필수 픽셀과 연산 처리되지 않은 미복원 픽셀로 화면 전체 영역을 나타내는 제1 디코딩부, 상기 화면 전체 영역 중 미리 정해진 관심 영역을 설정하는 관심영역 설정부 및 상기 관심 영역과 대응되는 영상 데이터를 원본 상태로 복원하는 제2 디코딩부를 포함한다.According to an aspect of the present invention, there is provided a digital video decoding apparatus that performs a preprocessing decoding on a bitstream of a received video image, and extracts necessary pixels for image display as a result of the preprocessing decoding, And a second decoding unit for restoring the image data corresponding to the region of interest to an original state, the first decoding unit displaying the entire area of the screen with the restored pixels, the interest area setting unit setting the predetermined area of interest among the entire area of the screen, .

상기 관심 영역에 인접한 외부 영역으로서, 미리 정해진 규격으로 여유 영역을 더 설정하는 여유 영역 설정부를 더 포함한다.And an extra area setting unit for further setting an extra area with a predetermined standard as an external area adjacent to the area of interest.

상기 여유 영역 설정부는 상기 비트 스트림 중에서 예측 프레임(즉, P 프레임)을 통해 해석되는 움직임 벡터의 크기 또는 상기 관심 영역의 이동에 따라 상기 여유 영역의 크기를 가변시킨다.The spare area setting unit varies the size of the spare area according to the size of a motion vector analyzed through a prediction frame (i.e., P frame) or the movement of the ROI.

따라서, 본 발명에서는 전체 화면에 대한 전처리 디코딩을 하고, 전체 화면 중에서 관심 영역에 대한 원본 수준의 메인 디코딩을 함으로써, 입력된 비디오 영상이 고급 사양의 비디오 영상이라고 하더라도 고급 사양의 비디오 영상을 처리할 수 있는 제어 자원을 갖추지 못한 디코딩 장치에서 사용자 필요 부분의 영상을 디코딩 처리할 수 있는 이점이 있다.Therefore, in the present invention, by performing pre-processing decoding on the entire screen and main decoding at the original level for the region of interest in the entire screen, even if the inputted video image is an advanced video image, There is an advantage in that a decoding device that does not have the control resource having the control resource can decode the image of the user's required part.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시 예에 따른 디코딩 장치를 나타내는 블록도이다.
도 2는 도 1의 제1 디코딩부를 일 실시 예로 나타내는 블록도이다.
도 3은 도 1의 제1 디코딩부로 입력되는 비트 스트림의 원본 영상을 일 실시 예로 나타내는 이미지이다.
도 4는 도 1의 제1 디코딩부에서 처리된 제1 영상 데이터를 일 실시 예로 나타내는 이미지이다.
도 5는 도 4의 제1 영상 데이터에 관심 영역을 설정한 상태를 일 실시 예로 나타내는 이미지이다.
도 6은 도 5에서 관심 영역의 영상 데이터를 일 실시 예로 나타내는 이미지이다.
도 7은 도 1의 제2 디코딩부를 일 실시 예로 나타내는 블록도이다.
도 8은 본 발명의 다른 실시 예에 따른 디코딩 장치를 나타내는 블록도이다.
그리고, 도 9는 도 8의 제2 디코딩부로부터 출력되는 일 실시 예의 이미지이다.
1 is a block diagram showing a decoding apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the first decoding unit of FIG. 1 as an embodiment.
FIG. 3 is an image showing an original image of a bitstream input to the first decoding unit of FIG. 1 as an embodiment.
FIG. 4 is an image showing the first image data processed by the first decoding unit of FIG. 1 as an embodiment.
FIG. 5 is an image showing a state in which a region of interest is set in the first image data of FIG. 4 as an embodiment.
FIG. 6 is an image showing, by way of example, image data of a region of interest in FIG.
FIG. 7 is a block diagram showing the second decoding unit of FIG. 1 as an embodiment.
8 is a block diagram illustrating a decoding apparatus according to another embodiment of the present invention.
9 is an image of an embodiment output from the second decoding unit of FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

또한, 본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 개략도들을 참고하여 설명될 것이다. 따라서, 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 또한 본 발명에 도시된 각 도면에 있어서 각 구성 요소들은 설명의 편의를 고려하여 다소 확대 또는 축소되어 도시된 것일 수 있다. Further, the embodiments described herein will be described with reference to cross-sectional views and / or schematic drawings that are ideal illustrations of the present invention. Thus, the shape of the illustrations may be modified by manufacturing techniques and / or tolerances. In addition, in the drawings of the present invention, each component may be somewhat enlarged or reduced in view of convenience of explanation.

이하, 첨부도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 다음과 같이 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 디코딩 장치를 나타내는 블록도이다.1 is a block diagram showing a decoding apparatus according to an embodiment of the present invention.

도 1을 참조하면, 디코딩 장치(100)는 원본 영상의 압축 상태인 비트 스트림을 수신하며, 수신된 비트 스트림에 대해 전체 화면에 대한 전처리 디코딩을 하고, 전체 화면 중에서 관심 영역에 대해서는 원본 수준의 메인 디코딩을 실행하는 구성을 갖춘다.Referring to FIG. 1, the decoding apparatus 100 receives a bitstream that is a compressed state of an original image, performs pre-processing decoding on the entire bitstream with respect to the received bitstream, Decoding is performed.

여기서 원본 수준이라고 함은 비디오 디코딩 과정에서 특별한 생략 없이, 기존의 비디오 코딩 표준(예: MPEP-4, H.264, H.265)에 따른 표준적인 방식으로 비디오 디코딩을 수행함을 의미한다.Here, the original level means that the video decoding is performed in a standard manner according to the existing video coding standards (for example, MPEP-4, H.264, and H.265) without any special need in the video decoding process.

디코딩 장치(100)는 제1 디코딩부(110), 관심영역 설정부(120) 및 제2 디코딩부(130)를 포함한다.The decoding apparatus 100 includes a first decoding unit 110, a region-of-interest setting unit 120, and a second decoding unit 130.

제1 디코딩부(110)는 수신된 비디오 영상의 비트 스트림에 대한 전처리 디코딩을 하고, 상기 전처리 디코딩의 결과로서 영상 표출을 위한 필수 픽셀과 연산 처리되지 않은 미복원 픽셀로 화면 전체 영역을 나타낸다.The first decoding unit 110 performs preprocessing decoding on the bitstream of the received video image, and represents the entire screen region as a required pixel for image display and a non-reconstructed pixel as a result of the preprocessing decoding.

제1 디코딩부(110)의 전처리 디코딩 과정에서, 역 변환 과정을 거쳐 전술한 필수 픽셀과 미복원 픽셀로 구분된 화면 전체 영역을 나타낼 수 있다.In the preprocessing decoding process of the first decoding unit 110, it is possible to display the entire screen area separated by the above-described essential pixels and non-restored pixels through an inverse transformation process.

여기서, 역 변환 과정에서 사용되는 DCT(Discrete Cosine Transform)는 변환 전에 화면에 불규칙하게 퍼져 있는 화소값이 직교 변환을 한 후에는 저주파와 고주파 영역으로 분리되는데 주파수 대역별 인간의 컬러 인지 능력에 의하여 고주파 영역의 데이터를 버리고 저주파 영역의 데이터를 취하여 코딩을 수행하게 됨으로써, 영상의 압축을 얻어내는 기법을 일컫는다. Here, DCT (Discrete Cosine Transform) used in the inverse transform process separates the pixel values spreading on the screen before the conversion into the low frequency and high frequency regions after the orthogonal transformation. Due to the human color recognition ability of each frequency band, Refers to a technique of deriving image compression by discarding data of a region and taking data in a low frequency region to perform coding.

즉, DCT 변환을 하면 수신된 비디오 영상의 비트 스트림을 공간 영역에서 주파수 영역으로 변하게 하고, 이와 같은 주파수 영역에서 살펴보면 주파수가 낮은 영역으로 데이터(신호)가 몰리는 현상이 발생한다.That is, when the DCT transform is performed, the bit stream of the received video image is changed from the spatial domain to the frequency domain, and when viewed in such a frequency domain, data (signal) is crowded into a region having a low frequency.

주파수 영역에서, 인접한 픽셀 간에는 상호 유사한 색상인 경우가 많다. 예컨데, 8×8 블럭을 DCT하는 경우 64개의 픽셀들 중에 같은 색상이 낮은 주파수(DC)에 집중된다. 그리고, 색상의 변화가 있는 경우에는 높은 주파수(AC)에 위치한다.In the frequency domain, there is often a similar color between adjacent pixels. For example, when an 8x8 block is DCT, the same color among 64 pixels is concentrated on a lower frequency (DC). When there is a change in color, it is located at a high frequency (AC).

제1 디코딩부(110)의 역 변환 과정에서, 주파수 영역을 공간 영역으로 변환하는 과정을 실행하며, 변환 전 주파수 영역에 대한 해석을 통해 DC 성분의 데이터(신호)와 AC 성분의 데이터(신호)를 구분할 수 있다. The DC component data and the AC component data are analyzed through the analysis of the frequency domain before the conversion in the inverse transformation process of the first decoder 110, .

이를 이용해서, AC 성분의 데이터(신호)가 존재하는 하는 경우는 영상 표출을 위한 필수 픽셀에 해당하는 것으로 결정하는 것이 가능하다.By using this, it can be determined that the data (signal) of the AC component exists, which corresponds to a necessary pixel for image display.

또한, DC 성분의 데이터(신호)가 존재하는 경우는 색상 평균값에 해당하는 DC 성분으로서, 인접한 픽셀 간의 색상이 유사한 경우에 해당하는 것으로 결정할 수 있다. 즉, DC 성분의 데이터(신호)는 상세하게 표출하지 않아도 되는 연산 처리되지 않은 미복원 픽셀로 관리하는 것이 가능하다. 여기서, 미복원 픽셀은 계산 값이 없는 빈 픽셀로 관리하여 화면 전체 영역에 나타낼 수 있다.In the case where data (signal) of the DC component exists, it can be determined that the DC component corresponding to the color average value corresponds to a case where the colors of adjacent pixels are similar. In other words, the data (signal) of the DC component can be managed by non-restored pixels that are not subjected to arithmetic processing, which need not be expressed in detail. Here, the non-restored pixel can be managed as an empty pixel having no calculated value and can be displayed in the entire area of the screen.

예컨대, 비디오 영상의 비트 스트림 중 인트라 프레임(I 프레임)를 전처리 디코딩하는 경우, 디코딩 대상의 현재의 블록이 특정된 후 특정된 현재의 블럭과 인접한 좌측과 상단의 픽셀들에 의존해서 수직 방향, 수평 방향, 대각선 방향 등으로 상기 디코딩 대상의 현재의 블록에 대한 복사를 실행한다. 여기서, 디코딩 대상의 현재의 블록에 대한 복사는 H.264 규격에 따른 원본 수준의 복원이 아니고, 상기 전처리 디코딩에서 재사용되지 않는 부호화 값을 갖는 필수 픽셀은 복사하여 상기 디코딩 대상의 현재의 블록에 채우며, 상기 필수 픽셀이 아닌 부분은 계산되지 않은 빈 블록(예: 검은 픽셀 또는 흰색 픽셀)로 채워진 소정 크기(예: 16×16)의 블록)로 남겨둔다.For example, when an intra frame (I frame) of a bit stream of a video image is pre-processed and decoded, a current block to be decoded is specified, and then the vertical and horizontal Direction, the diagonal direction, and the like of the current block of the decoding target. Herein, the copying of the current block to be decoded is not an original level restoration according to the H.264 standard, the essential pixels having the encoded values not to be reused in the pre-processing decoding are copied and filled in the current block of the decoding target , The non-essential pixel portion is left with a predetermined size (e.g., 16x16) block filled with an uncomputed blank block (e.g., a black pixel or a white pixel)).

이러한 빈 블록은 실제 데이터 값을 갖지 않는 픽셀로서, 휘도 및 색차 값을 모두 0으로 두거나 최대값(픽셀이 0 내지 255 계조를 갖는 경우 255)으로 둔다는 것을 의미한다.This empty block is a pixel having no actual data value, meaning that both the luminance and chrominance values are set to 0 or the maximum value (255 when the pixel has 0 to 255 gradations).

관심영역 설정부(120)는 제1 디코딩부(110)로부터 출력된 제1 영상 데이터에 대해 화면의 전체 영역 중 미리 정해진 관심 영역을 나타내는 설정을 하고, 설정된 관심 영역의 영상 데이터를 출력한다.The interest region setting unit 120 sets a predetermined region of interest of the first image data output from the first decoding unit 110 and outputs image data of a predetermined region of interest.

제2 디코딩부(130)는 관심 영역의 영상 데이터를 원본 복원 값으로 메인 디코딩하고, 관심 영역을 원본 상태의 수준으로 복원한 제2 영상 데이터를 출력한다.The second decoding unit 130 mainly decodes the image data of the region of interest into the original restored value and outputs the second image data that restores the region of interest to the original state level.

도 2는 도 1의 제1 디코딩부(110)를 일 실시 예로 나타내는 블록도이다.FIG. 2 is a block diagram illustrating the first decoding unit 110 of FIG. 1 as an embodiment.

도 2를 참조하면, 제1 디코딩부(110)는 디지털 비디오의 디코딩을 하는 데에 요구되는 필수 단계들을 모두 실행한다. 예를 들어, H.264 표준에 따른 파싱, 엔트로피 디코딩 및 지그재그 스캐닝을 실행할 뿐만 아니라, 디코딩 대상의 프레임이 인트라 프레임(I 프레임)인 경우에 역 양자화, 역 변환, 움직임 보상 및 영상 구성을 실행하며, 디코딩 대상의 프레임이 예측 프레임(P 프레임)인 경우에도 역 양자화, 역 변환, 움직임 보상 및 영상 구성의 각 단계를 순차적으로 실행할 수 있다.Referring to FIG. 2, the first decoding unit 110 performs all necessary steps required for decoding digital video. For example, in addition to performing parsing, entropy decoding, and zigzag scanning according to the H.264 standard, dequantization, inverse transform, motion compensation, and image composition are performed when the frame to be decoded is an intra frame (I frame) , And the decoding target frame is a predictive frame (P frame), the steps of inverse quantization, inverse transform, motion compensation, and image composition can be sequentially performed.

다만, 제1 디코딩부(110)는 H.264 표준에 따라 디코딩 대상의 프레임들을 원본 수준으로 복원하는 것이 아니고, H.264 표준에 따른 각 필수 단계들을 순차적으로 실행하되 디코딩 부하를 최소로 감소시켜서 화면의 전체 영역을 재사용되지 않는 부호화 값을 갖는 필수 픽셀만으로 채우고, 필수 픽셀 이외의 부분은 계산되지 않는 값들로 채우는 전처리 디코딩을 실행한다.However, instead of restoring the frames to be decoded to the original level according to the H.264 standard, the first decoding unit 110 sequentially executes the respective required steps according to the H.264 standard, and reduces the decoding load to a minimum The entire area of the screen is filled with only the necessary pixels having an un-reused encoding value, and the parts other than the essential pixels are filled with the uncalculated values.

즉, 제1 디코딩부(110)는 파싱 모듈(111), 엔트로피 디코딩 모듈(112), 스캔 모듈(113), 역양자화 모듈(114), 역변환 모듈, 움직임 보상 모듈(116), 영상 구성 모듈(117)을 포함할 수 있다.That is, the first decoding unit 110 includes a parsing module 111, an entropy decoding module 112, a scan module 113, an inverse quantization module 114, an inverse transformation module, a motion compensation module 116, 117).

파싱 모듈(111)은 원본 영상의 비트 스트림을 입력받아 전처리 디코딩을 준비한다.The parsing module 111 receives the bitstream of the original image and prepares the preprocessing decoding.

엔트로피 디코딩 모듈(112)은 입력된 비트 스트림에 대하여 무손실 복호화를 수행하고, 움직임 벡터와 텍스쳐 데이터를 구한다. 무손실 복호화에는 허프만 블록 디코딩(huffman block decoding), 산술 복호화(arithmetic decoding), 가변 길이 복호화(variable length decoding) 등이 있다. 일반적으로 특정 매크로블록에 대한 움직임 벡터는 주변 매크로블록의 움직임 벡터에 의존성을 지닌다. 즉, 주변 매크로블록의 움직임 벡터를 구하지 않고서는 특정 매크로블록의 움직임 벡터도 구할 수 없다. 엔트로피 디코딩 모듈(112)에서 구한 텍스쳐 데이터는 역 양자화 모듈(114)에 제공되고, 움직임 벡터는 움직임 보상 모듈(116)에 제공될 수 있다.The entropy decoding module 112 performs lossless decoding on the input bitstream, and obtains motion vectors and texture data. Lossless decoding includes Huffman block decoding, arithmetic decoding, and variable length decoding. In general, a motion vector for a certain macroblock depends on a motion vector of a neighboring macroblock. That is, a motion vector of a specific macroblock can not be obtained without obtaining a motion vector of a neighboring macroblock. The texture data obtained by the entropy decoding module 112 may be provided to the dequantization module 114 and the motion vector may be provided to the motion compensation module 116.

역 양자화 모듈(114)은 엔트로피 디코딩 모듈(112)로부터 제공되는 텍스쳐 데이터를 역 양자화(Inverse quantisation)한다. 이러한 역 양자화 과정은 양자화 과정에서 사용되었던 양자화 테이블을 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정을 의미한다.The inverse quantization module 114 performs inverse quantization on the texture data provided from the entropy decoding module 112. The dequantization process refers to a process of recovering a value matching the index generated in the quantization process using the quantization table used in the quantization process.

역 변환 모듈(115)은 역 양자화된 결과에 대하여 역 변환을 수행한다. 이러한 역 변환의 구체적 방법으로는 역 DCT(Inverse Discrete Cosine Transform) 변환, 역 웨이브렛 변환 등이 있다. The inverse transform module 115 performs an inverse transform on the inverse quantized result. The inverse discrete cosine transform (DCT) and inverse wavelet transform (DCT) are the specific methods of the inverse transform.

움직임 보상 모듈(116)은 엔트로피 디코딩 모듈(112)로부터 제공되는 현재 매크로 블록에 대한 움직임 벡터(Motion Vector)를 이용하여, 적어도 하나 이상의 참조 프레임(이전에 복원되어 픽처 버퍼에 저장되어 있음)을 움직임 보상(Motion Compensation)함으로써 예측 영상을 생성한다. 이러한 움직임 보상이 1/2 픽셀 또는 1/4 픽셀 단위로 이루어지는 경우에는 예측 영상을 생성하기 위한 보간 과정에서 많은 연산량이 소요된다. 또한, 두 개의 참조 프레임을 사용하여 움직임 보상하는 경우에는 각각 움직임 보상된 매크로블록들 평균을 계산하게 되는데, 이 때에는 매크로블록들 간에는 의존성이 존재하게 된다. 따라서, 이들 매크로블록들은 단일의 코어에서 처리되도록 할 필요가 있다.The motion compensation module 116 performs motion compensation using at least one reference frame (previously restored and stored in the picture buffer) using a motion vector for the current macroblock provided from the entropy decoding module 112 And generates a predicted image by performing motion compensation. When the motion compensation is performed in units of 1/2 pixel or 1/4 pixel, a large amount of calculation is required in the interpolation process for generating the predicted image. In addition, when motion compensation is performed using two reference frames, an average of motion compensated macroblocks is calculated. In this case, there is a dependency between the macroblocks. Therefore, these macroblocks need to be processed in a single core.

영상 구성 모듈(117)은 전처리 디코딩 결과의 영상을 나타낸다.The image configuration module 117 represents the image of the result of the preprocessing decoding.

도 3은 도 1의 제1 디코딩부(110)로 입력되는 비트 스트림의 원본 영상을 일 실시 예로 나타내는 이미지이고, 도 4는 도 1의 제1 디코딩부(110)에서 처리된 제1 영상 데이터를 일 실시 예로 나타내는 이미지이다.FIG. 3 is an image showing an original image of a bitstream input to the first decoding unit 110 of FIG. 1 as an example. FIG. 4 is a diagram illustrating an example of a first image data processed by the first decoding unit 110 of FIG. Is an image represented by an embodiment.

도 3 및 도 4를 참조하면, 제1 디코딩부(110)는 도 3의 원본 영상을 인코딩한 상태의 비트 스트림을 수신한 후 도 4와 같이 전처리 디코딩 결과의 제1 영상 데이터를 출력한다.Referring to FIGS. 3 and 4, the first decoding unit 110 receives the bitstream in a state in which the original image is encoded as shown in FIG. 3, and outputs the first image data of the result of the pre-decoding as shown in FIG.

도 5는 도 4의 제1 영상 데이터에 관심 영역을 설정한 상태를 일 실시 예로 나타내는 이미지이고, 도 6은 도 5에서 관심 영역의 영상 데이터를 일 실시 예로 나타내는 이미지이다.FIG. 5 is an image showing a state in which a region of interest is set in the first image data of FIG. 4, and FIG. 6 is an image showing image data of a region of interest in FIG.

도 5를 참조하면, 관심 영역 설정부(120)는 도 4와 같은 전처리 디코딩 결과의 제1 영상 데이터에 대해 미리 정해진 관심 영역을 도 5와 같이 설정하고, 설정된 관심 영역의 영상 데이터를 출력한다.Referring to FIG. 5, the region-of-interest setting unit 120 sets a predetermined region of interest for the first image data of the pre-processing decoding result as shown in FIG. 4 as shown in FIG. 5 and outputs image data of the set region of interest.

관심 영역 설정부(120)로부터 출력되는 관심 영역의 영상 데이터는 도 6에 도시된 바와 같이 관심 영역 내의 영상을 나타내는 필수 픽셀과 계산되지 않은 영역을 나타내는 빈 블록으로 남겨진다.The image data of the region of interest output from the region of interest setting unit 120 is left as an empty pixel representing the required pixels representing the image in the region of interest and an uncomputed region as shown in Fig.

제1 디코딩부(110)의 역 변환 과정에서, 주파수 영역을 공간 영역으로 변환하는 과정을 실행하며, 변환 전 주파수 영역에 대한 해석을 통해 DC 성분의 데이터(신호)와 AC 성분의 데이터(신호)를 구분할 수 있다. The DC component data and the AC component data are analyzed through the analysis of the frequency domain before the conversion in the inverse transformation process of the first decoder 110, .

이를 이용해서, AC 성분의 데이터(신호)가 존재하는 하는 경우는 영상 표출을 위한 필수 픽셀에 해당하는 것으로 결정하는 것이 가능하다.By using this, it can be determined that the data (signal) of the AC component exists, which corresponds to a necessary pixel for image display.

또한, DC 성분의 데이터(신호)가 존재하는 경우는 색상 평균값에 해당하는 DC 성분으로서, 인접한 픽셀 간의 색상이 유사한 경우에 해당하는 것으로 결정할 수 있다.In the case where data (signal) of the DC component exists, it can be determined that the DC component corresponding to the color average value corresponds to a case where the colors of adjacent pixels are similar.

즉, 위 언급된 빈 블록은 제1 디코딩부(110)의 역 변환 과정에서 DC 성분의 데이터(신호)와 대응되는 부분으로서 정할 수 있다.That is, the above-mentioned empty block can be defined as a part corresponding to the data (signal) of the DC component in the inverse transformation process of the first decoding unit 110. [

도 7은 도 1의 제2 디코딩부(130)를 일 실시 예로 나타내는 블록도이다.FIG. 7 is a block diagram illustrating the second decoding unit 130 of FIG. 1 as an embodiment.

도 7을 참조하면, 제2 디코딩부(130)는 관심 영역 설정부(120)로부터 출력된 관심 영역의 영상 데이터를 입력받고, 입력된 관심 영역의 영상 데이터를 인코딩 당시의 원본 복원 값으로 메인 디코딩을 한 후 그 결과로서 관심 영역을 원본 상태로 복원한 제2 영상 데이터를 출력한다.Referring to FIG. 7, the second decoding unit 130 receives the image data of the ROI output from the ROI setting unit 120, and decodes the input image data of the ROI into an original restored value at the time of encoding And then outputs the second image data obtained by restoring the ROI to the original state as a result.

도 8은 본 발명의 다른 실시 예에 따른 디코딩 장치(100)를 나타내는 블록도이다.8 is a block diagram showing a decoding apparatus 100 according to another embodiment of the present invention.

도 8을 참조하면, 디코딩 장치(100)는 원본 영상의 압축 상태인 비트 스트림을 수신하며, 수신된 비트 스트림에 대해 전체 화면에 대한 전처리 디코딩을 하고, 전체 화면 중에서 관심 영역뿐만 아니라 관심 영역을 미리 정해진 규격으로 더 확대한 여유 영역까지 원본 수준의 메인 디코딩을 실행하는 구성을 갖춘다.Referring to FIG. 8, the decoding apparatus 100 receives a bitstream that is a compressed state of an original image, preprocesses and decodes the entire bitstream of the received bitstream, and extracts a region of interest And the main decoding is performed at the original level up to the spare area further enlarged by a predetermined standard.

디코딩 장치(100)는 제1 디코딩부(110), 관심영역 설정부(120), 여유 영역 설정부(120) 및 제2 디코딩부(130)를 포함한다.The decoding apparatus 100 includes a first decoding unit 110, a region of interest setting unit 120, a reserved area setting unit 120, and a second decoding unit 130.

제1 디코딩부(110)는 비디오 영상의 비트 스트림을 화면의 전체 영역에 대해 전처리 디코딩하되, 현 전처리 디코딩에서 재사용되지 않는 부호화 값을 갖는 필수 픽셀로 화면의 전체 영역을 나타내는 제1 영상 데이터를 출력한다.The first decoding unit 110 preprocesses and decodes a bit stream of the video image to the entire area of the screen, and outputs first video data representing the entire area of the screen to a necessary pixel having an encoding value that is not reused in the current pre- do.

관심영역 설정부(120)는 제1 디코딩부(110)로부터 출력된 제1 영상 데이터에 대해 화면의 전체 영역 중 미리 정해진 관심 영역을 나타내는 설정을 한다.The region-of-interest setting unit 120 sets a predetermined region of interest of the first image data output from the first decoding unit 110 to indicate a predetermined region of interest.

여유 영역 설정부(120)는 관심 영역 설정부(120)에서 설정한 관심 영역을 미리 정해진 규격으로 더 확장한 여유 영역을 추가 설정한다. 예를 들어, 여유 영역 설정부(120)는 관심 영역에서 10% 내지 20%를 더 확장한 영역을 여유 영역으로 설정하는 것이 가능하다.The spare area setting unit 120 further sets a spare area in which the region of interest set by the region of interest setting unit 120 is further expanded to a predetermined standard. For example, the spare area setting unit 120 can set a spare area that is 10% to 20% more extended in the area of interest.

또한, 여유 영역 설정부(120)는 움직임 벡터의 크기 또는 관심 영역의 이동을 고려해서 여유 영역을 가변하는 것도 가능하다. 예를 들어, 여유 영역 설정부(120)는 움직임 벡터의 크기가 크거나 관심 영역의 이동 폭이 큰 경우에는 여유 영역을 20%로 확장할 수 있고, 움직임 벡터의 크기가 작거나 관심 영역의 이동 폭이 작은 경우에는 여유 영역을 10%로 확장할 수 있다.In addition, the spare area setting unit 120 may change the spare area in consideration of the size of the motion vector or the movement of the ROI. For example, if the size of the motion vector is large or the moving range of the ROI is large, the spare area setting unit 120 can expand the spare area to 20%. If the size of the motion vector is small, If the width is small, the spare area can be extended to 10%.

이와 같이, 여유 영역의 필요는 I 프레임보다는 P, B 프레임에서 보다 크다고 할 수 있다. 왜냐하면, I 프레임은 다른 프레임을 참조하지 않고 복원되는 프레임이이므로 관심 영역으로부터 최소한의 주변 픽셀(좌측 및 상측 픽셀)만으로도 복원이 가능하기 때문에 굳이 여유 영역이 필요 없을 수 있지만, P, B 프레임은 시간적으로 이전 또는 이후 프레임의 특정 위치를 참조하여야 하고, 그 참조된 위치가 빈 블록이면 영상의 복원 품질이 저하될 수 있기 때문이다. 따라서, P, B 프레임의 경우에는 모션 벡터가 검색되는 범위의 크기를 고려하여 여유 영역을 두는 것이, 현재 P, B 프레임의 관심 영역을 제대로 복원하기 위해 필요하다.Thus, the need for spare areas can be said to be greater in the P and B frames than in the I frames. Since the I frame is a frame that is reconstructed without referring to other frames, it is possible to restore only a minimum number of peripheral pixels (left and upper pixels) from the region of interest, so that a spare area may not be necessary. However, The reference position of the previous or subsequent frame should be referred to, and if the referenced position is an empty block, the reconstruction quality of the image may deteriorate. Therefore, in the case of P and B frames, it is necessary to set the spare area in consideration of the size of the range in which the motion vector is searched, in order to properly restore the P and B frame of interest.

제2 디코딩부(130)는 관심 영역 및 여유 영역의 영상 데이터를 원본 복원 값으로 메인 디코딩하고, 관심 영역 및 여유 영역을 원본 상태의 수준으로 복원한 제2 영상 데이터를 출력한다.The second decoding unit 130 mainly decodes the image data of the interest area and the spare area into the original restored value and outputs the second image data that restores the area of interest and the spare area to the original state level.

도 9는 도 8의 제2 디코딩부(130)로부터 출력되는 일 실시 예의 이미지이다.FIG. 9 is an image of an embodiment output from the second decoding unit 130 of FIG.

제2 디코딩부(130)는 관심 영역 설정부(120)로부터 설정된 관심 영역과 여유 영역 설정부(120)로부터 설정된 여유 영역의 영상 데이터를 입력받고, 입력된 관심 영역 및 여유 영역의 영상 데이터를 인코딩 당시의 원본 복원 값으로 메인 디코딩을 한 후 그 결과로서 관심 영역 및 여유 영역을 원본 상태로 복원한 제2 영상 데이터를 출력한다. 예를 들어, 제2 디코딩부(130)로부터 출력되는 제2 영상 데이터는 도 9에 도시된 이미지가 될 수 있다.The second decoding unit 130 receives the image data of the reserved area set from the interest area setting unit 120 and the image data of the inputted interest area and the spare area, The main decoding is performed with the original restoration value at that time, and as a result, the second image data in which the ROI and the spare area are restored to their original state is output. For example, the second image data output from the second decoding unit 130 may be the image shown in FIG.

한편, 이상의 실시예들에서는 관심 영역 이외의 영역에는 빈 블록이 포함되어 있는 것으로 설명하였으나, 영상의 시인성 면에서 이러한 빈 블록을 남기는 것 보다는 픽셀 값을 채워서 자연스러운 이미지로 만들 필요가 있다. 빈 블록에 속한 픽셀 값을 복원하는 방법으로는, 스캔 방향을 고려하여 현재의 빈 블록의 좌측 또는 상측의 블록과 동일한 픽셀로 상기 빈 블록을 채워넣거나, H.264의 인트라 예측 모드에서와 마찬가지로, 좌측 또는 상측의 인접 픽셀들에 의해 상기 빈 블록을 채워 넣을 수도 있다. 만약, 참조되는 주변 블록이나 인접 픽셀이 역시 빈 블록에 해당하면 그 좌측 또는 상측의 블록이나 인접 픽셀을 참조하면 될 것이다.Meanwhile, in the above embodiments, it has been described that empty blocks are included in areas other than the ROI, but it is necessary to fill the pixel values into a natural image rather than leaving such blank blocks in view of the image. As a method of restoring the pixel value belonging to the empty block, the blank block may be filled with the same pixel as the block on the left or upper side of the current empty block in consideration of the scanning direction, or in the same manner as in the intra prediction mode of H.264, The empty block may be filled by adjacent pixels on the left or upper side. If the referenced neighboring block or neighboring pixel is also an empty block, it may refer to the left or upper block or adjacent pixel.

이상과 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

또한, 본 발명은 전체 화면에 대한 전처리 디코딩을 하고, 전체 화면 중에서 관심 영역에 대한 원본 수준의 메인 디코딩을 하는 디지털 비디오의 디코딩 장치를 제공하기 위한 것임에 따라, 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.Further, the present invention is to provide a digital video decoding apparatus that performs pre-processing decoding on a full screen and performs main decoding at an original level for a region of interest on the entire screen, It is an invention that can be used industrially because it is practically possible to carry out clearly.

100: 디코딩 장치 110: 제1 디코딩부
120: 관심영역 설정부 130: 제2 디코딩부
111: 파싱 모듈 112: 엔트로피 디코딩 모듈
113: 스캔 모듈 114: 역 양자화 모듈
115: 역 변환 모듈 116: 움직임 보상 모듈
117: 영상 구성 모듈
100: decoding apparatus 110: first decoding unit
120: ROI setting unit 130: Second decoding unit
111: parsing module 112: entropy decoding module
113: scan module 114: dequantization module
115: Inverse transform module 116: Motion compensation module
117: image configuration module

Claims (3)

수신된 비디오 영상의 비트 스트림에 대한 전처리 디코딩을 하고, 상기 전처리 디코딩의 결과로서 영상 표출을 위한 필수 픽셀과 연산 처리되지 않은 미복원 픽셀로 화면 전체 영역을 나타내는 제1 디코딩부;
상기 화면 전체 영역 중 미리 정해진 관심 영역을 설정하는 관심영역 설정부; 및
상기 관심 영역과 대응되는 영상 데이터를 원본 상태로 복원하는 제2 디코딩부를 포함하는 디지털 비디오의 디코딩 장치.
A first decoding unit that performs pre-processing decoding on a bitstream of a received video image, and as a result of the preprocessing decoding, an entire screen region as a required pixel for image display and a non-restored pixel that is not processed;
A region of interest setting unit that sets a predetermined region of interest among the entire region of the screen; And
And a second decoding unit for restoring the image data corresponding to the ROI to an original state.
제1 항에 있어서,
상기 관심 영역에 인접한 외부 영역으로서, 미리 정해진 규격으로 여유 영역을 더 설정하는 여유 영역 설정부를 더 포함하고,
상기 여유 영역 설정부는 상기 비트 스트림으로부터 해석되는 움직임 벡터의 크기 또는 상기 관심 영역의 이동에 따라 상기 여유 영역의 크기를 가변시키는 디지털 비디오의 디코딩 장치.
The method according to claim 1,
Further comprising a spare area setting unit for setting a spare area with a predetermined standard as an outside area adjacent to the area of interest,
Wherein the spare area setting unit varies the size of the spare area according to the size of the motion vector analyzed from the bit stream or the movement of the ROI.
제2 항에 있어서,
상기 여유 영역은 시간적으로 다른 위치의 프레임을 참조하는 특정 프레임일 때 더 설정되는 디지털 비디오의 디코딩 장치.
3. The method of claim 2,
Wherein the spare area is further set when it is a specific frame that refers to a frame at a different temporal position.
KR1020150034376A 2015-03-12 2015-03-12 Decoding apparatus of digital video KR102321895B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150034376A KR102321895B1 (en) 2015-03-12 2015-03-12 Decoding apparatus of digital video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150034376A KR102321895B1 (en) 2015-03-12 2015-03-12 Decoding apparatus of digital video

Publications (2)

Publication Number Publication Date
KR20160109617A true KR20160109617A (en) 2016-09-21
KR102321895B1 KR102321895B1 (en) 2021-11-03

Family

ID=57080348

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150034376A KR102321895B1 (en) 2015-03-12 2015-03-12 Decoding apparatus of digital video

Country Status (1)

Country Link
KR (1) KR102321895B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124820A1 (en) * 2017-01-02 2018-07-05 주식회사 케이티 Method and apparatus for processing video signals
WO2019199025A1 (en) * 2018-04-09 2019-10-17 에스케이텔레콤 주식회사 Method and device for encoding/decoding image
KR20190118524A (en) * 2018-04-10 2019-10-18 에스케이텔레콤 주식회사 Level setting method and apparatus using the same
US11509937B2 (en) 2018-04-09 2022-11-22 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding video

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299033A (en) * 2002-04-05 2003-10-17 Canon Inc Image reproduction device and image reproduction method
KR100701740B1 (en) 2005-01-11 2007-03-29 엘지전자 주식회사 Apparatus and Method for encoding and decoding PI frame of digital visual data
JP2012023605A (en) * 2010-07-15 2012-02-02 Sony Corp Image processing device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299033A (en) * 2002-04-05 2003-10-17 Canon Inc Image reproduction device and image reproduction method
KR100701740B1 (en) 2005-01-11 2007-03-29 엘지전자 주식회사 Apparatus and Method for encoding and decoding PI frame of digital visual data
JP2012023605A (en) * 2010-07-15 2012-02-02 Sony Corp Image processing device and method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124820A1 (en) * 2017-01-02 2018-07-05 주식회사 케이티 Method and apparatus for processing video signals
WO2019199025A1 (en) * 2018-04-09 2019-10-17 에스케이텔레콤 주식회사 Method and device for encoding/decoding image
US11509937B2 (en) 2018-04-09 2022-11-22 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding video
US11778238B2 (en) 2018-04-09 2023-10-03 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding video
US11778239B2 (en) 2018-04-09 2023-10-03 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding video
US11792436B2 (en) 2018-04-09 2023-10-17 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding video
US11902590B2 (en) 2018-04-09 2024-02-13 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding video
KR20190118524A (en) * 2018-04-10 2019-10-18 에스케이텔레콤 주식회사 Level setting method and apparatus using the same

Also Published As

Publication number Publication date
KR102321895B1 (en) 2021-11-03

Similar Documents

Publication Publication Date Title
US10013746B2 (en) High dynamic range video tone mapping
KR101056096B1 (en) Method and system for motion compensated frame rate up-conversion for both compression and decompression video bitstreams
CN101889447B (en) Extension of the AVC standard to encode high resolution digital still pictures in series with video
US8077769B2 (en) Method of reducing computations in transform and scaling processes in a digital video encoder using a threshold-based approach
EP3354031A1 (en) Video decoder conformance for high dynamic range (hdr) video coding using a core video standard
US20150312575A1 (en) Advanced video coding method, system, apparatus, and storage medium
US10218974B2 (en) Residual transformation and inverse transformation in video coding systems and methods
US20140016703A1 (en) Methods and devices for controlling spatial access granularity in compressed video streams
US10735724B2 (en) Method and device for compressing image on basis of photography information
US20200021850A1 (en) Video data decoding method, decoding apparatus, encoding method, and encoding apparatus
JP5195032B2 (en) Encoding device / decoding device, encoding method / decoding method, and program
US8243798B2 (en) Methods and apparatus for scalable video bitstreams
US20110096151A1 (en) Method and system for noise reduction for 3d video content
KR102321895B1 (en) Decoding apparatus of digital video
EP3073737B1 (en) Video coding device, video coding program, video coding method, and video coding and decoding system
US20070269120A1 (en) Video image compression using model plus difference image
CN111182310A (en) Video processing method and device, computer readable medium and electronic equipment
KR100366382B1 (en) Apparatus and method for coding moving picture
US8848793B2 (en) Method and system for video compression with integrated picture rate up-conversion
Jung Comparison of video quality assessment methods
Bansal et al. VP8 Encoder—Cost effective implementation
CN113545060A (en) Empty tile coding in video coding
Liu et al. Partial decoding scheme for H. 264/AVC decoder
WO2016193949A1 (en) Advanced video coding method, system, apparatus and storage medium
JP2003087797A (en) Apparatus and method for picture information conversion, picture information conversion program, and recording medium

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant