KR100482282B1 - Flexible (Enhanced) coding Enhancement Layer coding method - Google Patents

Flexible (Enhanced) coding Enhancement Layer coding method Download PDF

Info

Publication number
KR100482282B1
KR100482282B1 KR1019970030901A KR19970030901A KR100482282B1 KR 100482282 B1 KR100482282 B1 KR 100482282B1 KR 1019970030901 A KR1019970030901 A KR 1019970030901A KR 19970030901 A KR19970030901 A KR 19970030901A KR 100482282 B1 KR100482282 B1 KR 100482282B1
Authority
KR
South Korea
Prior art keywords
coding
encoding
layer
base layer
enhancement layer
Prior art date
Application number
KR1019970030901A
Other languages
Korean (ko)
Other versions
KR19990008783A (en
Inventor
김종득
문주희
Original Assignee
주식회사 팬택앤큐리텔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팬택앤큐리텔 filed Critical 주식회사 팬택앤큐리텔
Priority to KR1019970030901A priority Critical patent/KR100482282B1/en
Publication of KR19990008783A publication Critical patent/KR19990008783A/en
Application granted granted Critical
Publication of KR100482282B1 publication Critical patent/KR100482282B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Abstract

1청구범위에 기재된 발명이 속한 기술분야1 The technical field to which the invention described in the claims belongs

영상 부호화 방법Image coding method

2. 발명이 해결하려고 하는 기술적 과제2. The technical problem to be solved by the invention

종래의 스캔 인터리빙 방법에서 무손실 부호화된 기본 계층(base layer)을 이용하여 고위 계층(enhancement layer)을 부호화하도록 되어있기 때문에 기본 계층(base layer)이 손실 부호화 되었을 경우 고위 계층(enhancement layer)의 부호화가 불가능한 문제점을 해결하고자 한 것임.In the conventional scan interleaving method, since the enhancement layer is encoded using a lossless coded base layer, when the base layer is loss coded, the enhancement layer is encoded. To solve an impossible problem.

3, 발명의 해결방법의 요지3, the summary of the solution of the invention

기본 계층을 이용하여 고위 계층을 부호화하는 이진 마스크의 신축형 부호화 방법에 있어서, 상기 기본 계층(base layer)이 손실 부호화 또는 무손실 부호화 되었을 경우 상기 고위 계층(enhancement layer)을 선택적으로 손실 부호화 또는 무손실 부호화 하는 것을 특징으로 한 것이다.In the flexible encoding method of a binary mask for encoding a higher layer by using a base layer, when the base layer is lossy or losslessly encoded, the higher layer is selectively lost or losslessly encoded. It is characterized by.

4. 발명의 중요한 용도4. Important uses of the invention

신축형 부호화 방법에서 고위 계층의 부호화에 적용되는 것임.It is applied to the coding of the higher layer in the flexible coding method.

Description

신축형(스케일러블) 부호화시 고위 계층(Enhancement Layer) 부호화 방법Enhancement Layer Encoding Method for Flexible (Scalable) Encoding

본 발명은 신축형 부호화 방법에서 기본 계층(base layer)이 손실 부호화되었을 경우나 무손실 부호화되었을 경우와 무관하게 그 부호화된 기본 계층을 이용하여 고위 계층(Enhancement layer)의 부호화가 가능토록 한 신축형(스케일러블) 부호화시 고위 계층(Enhancement Layer) 부호화 방법을 제공하고자 한 것이다.According to the present invention, in the flexible coding method, regardless of whether the base layer is loss coded or lossless coded, the present invention provides a flexible type such that an enhancement layer may be encoded using the encoded base layer. An object of the present invention is to provide an enhancement layer encoding method in scalable coding.

본 발명은 현재 표준화 작업이 진행중인 MPEG-4에서 지원하는 기능 중에서 신축형 부호화에 관한 것이다.The present invention relates to flexible coding among the functions supported by MPEG-4, which is currently being standardized.

일반적으로, 영상 및 음향 부호화 기술 및 시스템 구성에 관한 국제 표준안(MPEG-1, MPEG-2)을 개발하고 의결한 MPEG 그룹이 국제 표준으로 채택할 예정의 차세대 영상 및 음향 부호화 기술 및 시스템 구성에 관한 국제 표준안(MPEG-4)을 연구, 개발중에 있다. MPEG-4의 개발은 기존의 알려진 표준안으로는 지원할 수 없는 차세대 영상 및 음향 응용물들을 지원할 필요성에서 출발했다. MPEG-4는 영상 및 음향 데이타의 통신과 접속, 그리고 조작을 위한 새로운 방법들(예를 들자면, 특성이 다른 네트워크를 통한 물체 중심 대화형 기능 및 접속 등)을 제공한다.In general, the MPEG-4, which has developed and decided on international standards on video and audio encoding technology and system construction, has been adopted by the MPEG Group as an international standard. International Standard (MPEG-4) is being researched and developed. The development of MPEG-4 began with the need to support the next generation of video and audio applications that cannot be supported by existing known standards. MPEG-4 provides new methods for communicating and accessing and manipulating video and audio data, such as object-oriented interactive functionality and access over networks of differing characteristics.

또한 에러가 쉽게 발생되는 통신 환경과 저전송율의 통신환경에서도 유용하게 동작하는 특성을 제공한다. 더우기 컴퓨터 그래픽 기술을 통합하여 자연영상 및 음향과 인공영상 및 음향들을 함께 부호화하고 조작할 수 있는 기능들을 제공한다. 요약컨대, MPEG-4는 여러 응용분야에서 요구되고 예상되는 모든 기능들을 제공한다. 요약컨대, MPEG-4는 여러 응용분야에서 요구되고 예상되는 모든 기능들을 지원해야 한다. 따라서, 멀티미디어 정보의 급팽창과 기술 향상에 의해 새롭게 개발됐거나 개발될 저가, 고기능의 모든 가능한 응용 분야들에 요구되는 기능들을 지원할 수 있도록 확장가능하고 개방적인 구조를 가지게 된다. 그중에는 전송 및 저장 기능과 비용 절감에 필요한 부호화 효과의 향상 기능(Improved Compression Efficiency)이 있다. 현재 MPEG-4의 기술이 응용될 것으로 기대되는 응용물로는 인터넷 멀티미디처(IMM: Internet Multimedia), 대화형 비디오게임(IVG:Interactive Video Games), 영상회의 및 영상전화 등의 상호통신(IVG:Interpersonal Communications), 쌍방향 저장매체(ISM:Interactive Storage Media), 멀티미디어 전자우편(MMM:Multimedia Mailing), 무선 멀티미디어(WMM:Wireless Multimedia), ATM망 등을 이용한 네트웍 데이타베이스 서비스(NDB: Networked Database Service), 원격 응급 시스템(RES:Remote Emergency Systems), 원격 영상 감시(RVS:Remote Video Surveillance) 등이 있다.In addition, it provides a characteristic that operates usefully in a communication environment where errors are easily generated and a low transmission rate communication environment. Moreover, the integration of computer graphics technology provides the ability to encode and manipulate natural and artificial images and sounds together. In summary, MPEG-4 provides all the features required and expected in many applications. In summary, MPEG-4 must support all the features required and expected in many applications. As a result, the expansion and openness of multimedia information can be extended to support the functions required for all possible low-cost, high-performance applications that are newly developed or will be developed. Among them are transmission and storage functions and improved compression efficiency required for cost reduction. Applications currently expected to apply MPEG-4 technology include Internet Multimedia (IMM), Interactive Video Games (IVG), video conferencing and video telephony. Networked Database Service (NDB) using Interpersonal Communications, Interactive Storage Media (ISM), Multimedia Mailing (MMM), Wireless Multimedia (WMM), and ATM networks ), Remote Emergency Systems (RES), and Remote Video Surveillance (RVS).

기존의 응용물이나 앞으로 기대되는 응용물들을 지원하기 위해서는 유저들이 영상 내의 원하는 객체만을 통신할 수 있고, 찾고 읽을 수 있도록 접근할 수 있으며, 자르고 붙일 수 있도록 편집할 수 있는 영상 부호화기술이 필요하다. 현재 세계 표준화 작업이 진행중인 새로운 영상 및 음향 부호화 기술인 MPEG-4는 이러한 필요를 충족시키기 위한 것이다.In order to support existing applications or applications expected in the future, an image encoding technology that can be edited so that users can communicate only with the desired objects in the image, can be found and read, and can be cut and pasted can be edited. MPEG-4, a new video and audio encoding technology that is currently under global standardization, is designed to meet this need.

도 1은 현재 국제표준 산하기구에서 1차적으로 확정한 MPEG-4의 VOP 영상 부호화기의 구성도이다. 이는 기존의 영상부호화 세계포준화인 H.261, H.263, MPEG-1, MPEG-2의 영상 부호화기 구조와는 다른 구조를 지닌다. 특히 모양정보 부호화부(Shape Coder)와 VOP(Video Object Planes)라는 개념의 도입이 가장 두드러진 차이를 보이고 있다. VOP는 유저가 접근 및 편집할 수 있는 임의 모양의 내용물의 시간축상의 한 시점의 객체를 의미하며, 내용물 기반의 기능성(content-based functionality)을 지원하기 위해서는 VOP별로 부호화되어야 한다.FIG. 1 is a block diagram of a MPEG-4 VOP video encoder first determined by the present International Standards Organization. This has a structure different from that of the H.261, H.263, MPEG-1, and MPEG-2 video encoders. In particular, the introduction of the concepts of Shape Coder and VOP (Video Object Planes) shows the most significant difference. A VOP refers to an object at a point in time on an arbitrary shape of a content that can be accessed and edited by a user. The VOP must be encoded for each VOP to support content-based functionality.

이러한 VOP 부호화기는, VOP형성부(20)에서 형성된 각각의 대상물 영상에 대한 VOP가 움직임 추정부(MOTION ESTIMATION)(31)에 입력되면, 움직임 추정부(31)는 인가된 VOP로부터 매크로 블럭 단위의 움직임을 추정하게 된다.When the VOP coder inputs a VOP for each object image formed by the VOP forming unit 20 to the MOTION ESTIMATION 31, the motion estimating unit 31 performs a macroblock unit from the applied VOP. The motion is estimated.

또한, 상기 움직임 추정부(31)에서 추정된 움직임 정보는 움직임 보상부(MOTION COMPENSATION)(32)에 입력되어 움직임이 보상된다. 그리고, 움직임 보상부(32)에서 움직임이 보상된 VOP는 상기 VOP형성부(11)에서 형성된 VOP와 함께 감산기(33)에 입력되어 차이값이 검출되고, 감산기(33)에서 검출된 차이값은 대상물 내부 부호화부(34)에 입력되어 매크로 블럭의 서브 블럭 단위로 대상물의 내부정보가 부호화된다.In addition, the motion information estimated by the motion estimator 31 is input to a motion compensation unit 32 to compensate for the motion. The VOP whose motion is compensated by the motion compensator 32 is input to the subtractor 33 together with the VOP formed by the VOP forming unit 11 to detect a difference value, and the difference value detected by the subtractor 33 is The internal information of the object is encoded by the object internal encoding unit 34 in units of subblocks of the macroblock.

예를 들면, 매크로 블럭의 X축 및 Y축이 M/2 × N/2으로 각기 8개의 화소를 가지는 8 × 8의 서브 블럭으로 세분화된 후 대상물 내부정보가 부호화된다.For example, after the X and Y axes of the macroblock are subdivided into 8 × 8 subblocks having 8 pixels each with M / 2 × N / 2, the object internal information is encoded.

한편, 움직임 보상부(32)에서 움직임이 보상된 VOP와, 대상물 내부 부호화부(34)에서 부호화된 대상물의 내부정보는 가산기(35)에 입력되어 가산되고, 가산기(35)의 출력신호는 이전 VOP 검출부(PREVIOUS RECONSTRUCTED VOP)(36)에 입력 되어 현재 영상 바로 이전 영상의 VOP인 이전 VOP가 검출된다.On the other hand, the VOP whose motion is compensated by the motion compensator 32 and the internal information of the object encoded by the object internal encoder 34 are input to the adder 35 and added, and the output signal of the adder 35 is transferred. The previous VOP that is input to the VEV detector 36 (PREVIOUS RECONSTRUCTED VOP) 36 and is the VOP of the image immediately before the current image is detected.

또한, 이전 VOP 검출부(36)에서 검출된 이전 VOP는 상기 움직임 추정부(31) 및 움직임 보상부(32)에 입력되어 움직임 추정 및 움직임 보상에 사용된다.In addition, the previous VOP detected by the previous VOP detector 36 is input to the motion estimator 31 and the motion compensator 32 and used for motion estimation and motion compensation.

그리고, VOP형성부(11)에서 형성된 VOP는 모양정보 부호화부(SHAPE CODING)(37)에 입력되어 모양 정보가 부호화된다.The VOP formed by the VOP forming unit 11 is input to a shape coding unit 37 to encode shape information.

여기서, 모양정보 부호화부(37)의 출력신호는 VOP부호화기가 적용되는 분야에 따라 사용 여부가 가변되는 것으로, 점선으로 표시된 바와 같이, 모양정보 부호화부(37)의 출력신호를 움직임 추정부(31), 움직임 보상부(32) 및 대상물 내부부호화부(34)에 입력시켜 움직임 추정, 움직임보상 및 대상물의 내부 정보를 부호화하는데 사용할 수 있다.Here, the output signal of the shape information encoder 37 varies depending on the field to which the VOP encoder is applied, and as shown by the dotted line, the output signal of the shape information encoder 37 moves the output signal of the shape information encoder 37. ), And may be input to the motion compensator 32 and the object internal encoder 34 to be used for encoding motion estimation, motion compensation, and internal information of the object.

또한 움직임 추정부(31)에서 추정된 움직임 정보와, 대상물 내부 부호화부(34)에서 부호화된 대상물 내부 정보 및 상기 모양정보 부호화부(37)에서 부호화된 모양 정보는 멀티플렉서(38)에 인가되어 다중화된 후, 비트스트림으로 도면에는 도시하지 않았지만 다수개의 부호화기의 출력을 다시 다중화하여 전송하는 다중화기에 전달되어 전송되어진다.In addition, motion information estimated by the motion estimation unit 31, object internal information encoded by the object internal encoder 34, and shape information encoded by the shape information encoder 37 are applied to the multiplexer 38 to multiplex. Although not shown in the figure, the bitstream is transmitted to a multiplexer which multiplexes and outputs the outputs of the plurality of encoders.

이러한 개념의 MPEG-4(Moving Picture Expert Group-4)의 가장 큰 특징 중 하나가 객체(object)를 기반으로 처리를 한다는 것이다. 즉, 한 영상을 여러개의 객체로 나누고 그 각각의 객체를 개별적으로 부호화하고 처리할 수 있는 것이다.One of the biggest features of this concept of Moving Picture Expert Group-4 (MPEG-4) is that it is based on objects. In other words, one image can be divided into several objects, and each object can be individually encoded and processed.

따라서 객체를 만들기 위해서 모양정보를 알아야 한다. 여기서 말하는 모양정보를 흔히 마스크(mask)라고 하는데 영상에서 객체 부분은 '1'로 표현하고 객체 바깥 부분(배경 부분)은 '0'으로 표현한다. 이 모양정보를 이용하여 영상에서 한 객체를 얻을 수 있다. 그리고 이 모양정보를 이용하여 복호기측에서 객체 부분을 복호하기 때문에 모양정보를 부호화하여 복호기측에 전송해주어야 한다.So you need to know the shape information to make an object. The shape information referred to here is commonly referred to as a mask. In the image, the object part is represented by '1' and the outside part of the object (background part) is represented by '0'. This shape information can be used to obtain an object from the image. Since the decoder side decodes the object part using the shape information, the shape information should be encoded and transmitted to the decoder side.

현재 MPEG-4에서 모양정보 부호화를 하기 위해서 CAE를 이용한다. CAE는 16× 16 BAB(Binary Alpha Block) 단위로 각 화소에 도 2와 같은 context template를 이용하여 식 1과 같이 context 번호를 구하고 구해진 context 번호를 이용하여 그 context가 발생했을 경우 '0'이 발생할 확률과 '1'이 발생할 확률을 구하고, 그 구해진 확률을 이용하여 산술(arithmetic) 부호화 방법을 사용하여 부호화를 한다.CAE is currently used to encode shape information in MPEG-4. CAE obtains the context number as shown in Equation 1 by using the context template as shown in FIG. 2 in 16 × 16 BAB (Binary Alpha Block) unit, and generates '0' when the context occurs using the obtained context number. The probability and the probability of occurrence of '1' are obtained, and the obtained probability is encoded using an arithmetic coding method.

Figure pat00001
Figure pat00001

이 때 손실 부호화를 하기 위해서는 산술 부호화 하기 이전에 CR에 의하여 BAB의 크기를 줄이고, 줄여진 BAB를 다시 원래의 크기로 복원했을 경우 원 BAB와 복원된 BAB의 차의 절대값이 임계치 이하이면 줄어든 크기로 CAE를 이용하여 부호화 하고 임계치보다 크다면 원 BAB를 이용해서 CAE에 의해서 부호화한다.In order to perform lossy coding, the size of BAB is reduced by CR before arithmetic coding, and when the reduced BAB is restored to its original size, it is reduced if the absolute value of the difference between the original BAB and the restored BAB is less than or equal to the threshold. If it is larger than the threshold, it is encoded by CAE using original BAB.

상기 CR(conversion ratio)은 BAB의 크기를 변화시키는 변수로써 MxM BAB가 (MxCR)x(MxCR)로 줄어든다. 따라서 CR=1/2일 경우는 부호화할 화소 수가 1/4로 줄어든다. 따라서 CR을 이용하여 도 3과 같이 BAB의 크기를 줄이고 그 BAB를 다시 복원한 값과 원 BAB의 차의 절대값을 구했을 때 오차가 임계치 이하일 때는 줄어든 BAB를 이용하여 CAE를 수행하게 된다.The conversion ratio (CR) is a variable that changes the size of BAB, and MxM BAB is reduced to (MxCR) x (MxCR). Therefore, when CR = 1/2, the number of pixels to be encoded is reduced to 1/4. Accordingly, when the size of the BAB is reduced using CR and the absolute value of the difference between the original BAB and the value of the original BAB is restored, CAE is performed using the reduced BAB when the error is less than or equal to the threshold.

MPEG-4에서 지원하는 기능 중 Scalable 부호화는 다른 해상도를 가지는 복수 개의 layer(base layer, enhancement layer)를 전송하고 복호화 할 수 있는 기능이 있다. 복수 개의 다른 해상도를 가지는 정보를 각각 전송하기 이해서 많은 정보를 전송해야 한다. 따라서, 전송할 정보의 양을 줄이기 위해서 MPEG-4에서는 도 4와 같이 저해상도의 기본 계층(base layer)을 이용하여 고해상도의 고위 계층(enhancement layer)를 추정하는 방법을 적용하였다.Among the functions supported by MPEG-4, scalable encoding has a function of transmitting and decoding a plurality of layers (base layer, enhancement layer) having different resolutions. A lot of information must be transmitted after each piece of information having a plurality of different resolutions. Therefore, in order to reduce the amount of information to be transmitted, a method of estimating a high-resolution enhancement layer using a low resolution base layer as shown in FIG. 4 is applied.

기본 계층(Base layer)을 이용하여 고위 계층(enhancement layer)을 부호화하는 방법으로 도 5에서와 같이 아래와 위의 두 이웃하는 화소값을 이요한다. 만약 두 이웃 화소값이 같을 경우 현재 위치의 화소값도 값은 값을 가질 가능성이 많다. 따라서 두 아웃 화소값이 같고 현재 위치의 화소값도 두 이웃 화소값과 같을 경우는 부호화를 하지 않아도 된다. 그리고 두 이웃 화소값이 다를 경우에는 현재 위치의 화소값을 부호화 해주어야 한다. 이 경우를 트랜지셔널 샘플(transitional sample)이라고 한다. 그리고 두 이웃 화소값은 같지만 현재 위치의 화소값이 다를 경우도 부호화를 해주어야 한다. 이 경유를 익셉셔널 샘플(exceptional sample)이라 한다.As a method of encoding an enhancement layer using a base layer, as shown in FIG. 5, two neighboring pixel values as shown in FIG. 5 are used. If two neighboring pixel values are the same, the pixel value of the current position is also likely to have a value. Therefore, when the two out pixel values are the same and the pixel value at the current position is the same as the two neighboring pixel values, encoding is not necessary. If the two neighboring pixel values are different, the pixel value of the current position should be encoded. This case is called a transitional sample. In addition, encoding should be performed when two neighboring pixel values are the same but the pixel values of the current position are different. This diesel is called an exceptional sample.

따라서 고위 계층(enhancement layer)을 부호화하기 위해서는 두 가지 종류의 데이터(TSD : Transitional Sample Data, ESD : Exceptional Sample Data)이 전송이 필요하다. 또한 수평 방향, 수직 방향의 검색을 각각 수행해야 한다. TSD가 발생했을 경우 TSD가 발생한 위치에 도 6과 같은 context template를 사용하여 CAE를 수행한다.Therefore, two types of data (TSD: Transitional Sample Data, ESD: Exceptional Sample Data) need to be transmitted in order to encode an enhancement layer. In addition, the horizontal and vertical search must be performed respectively. When TSD occurs CAE is performed using the context template as shown in FIG. 6 at the location where TSD occurs.

현재 알고리즘에서는 기본 계층(base layer)을 이용하여 고위 계층(enhancement layer)을 부호화하는 방법을 이용하고 있는데, 이때 기본 계층(base layer)을 기준 계층(reference layer)으로 이용하기 때문에 고위 계층(enhanancement layer)을 무손실 부호화를 하기 위해서는 기본 계층(base layer) 또한 무손실 부호화를 하여야 한다. 그렇지 않으면 스캔 인터리빙 과정에서 TSD와 ESD가 발생하는 정확한 위치를 알 수 없기 때문에 고위 계층(enhancement layer)에서 오차가 발생하게 된다.The current algorithm uses a method of encoding an enhancement layer by using a base layer. In this case, since the base layer is used as a reference layer, an enhancement layer is used. In order to perform lossless coding, the base layer must also be lossless encoded. Otherwise, errors will occur in the enhancement layer because the exact location of TSD and ESD will not be known during scan interleaving.

그런데, 현재 스캔 인터리빙 방법은 무손실 부호화된 기본 계층(base layer)을 이용하여 고위 계층(enhancement layer)을 부호화하도록 되어 있기 때문에 기본 계층(base layer)이 손실 부호화 되었다고 고위 계층(enhancement layer)의 부호화가 불가능한 문제점이 있었다.However, in the current scan interleaving method, since the enhancement layer is encoded using the lossless encoded base layer, the encoding of the enhancement layer is performed because the base layer is loss encoded. There was an impossible problem.

이에 본 발명은 상기와같은 종래 기술의 제반 문제점을 해결하기 위해서 제안된 것으로, 본 발명은 신축형 부호화 방법에서 기본 계층(base layer)이 손실 부호화되었을 경우나 무손실 부호화되었을 경우와 무관하게 그 부호화된 기본 계층을 이용하여 고위 계층(Enhancement layer)의 부호화가 가능토록 한 신축형(스케일러블) 부호화시 고위 계층(Eanhancement layer) 부호화 방법을 제공하는 데 그 목적이 있다.Accordingly, the present invention has been proposed to solve the above-mentioned problems of the prior art, and the present invention provides the encoded information regardless of whether the base layer is loss coded or lossless coded in the flexible coding method. An object of the present invention is to provide an enhancement layer encoding method in a flexible (scalable) encoding that enables encoding of an enhancement layer by using a base layer.

이하, 본 발명의 바람직한 실시예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail.

본 발명이 적용되는 영상 부호화시스템은 첨부한 도면 도 1에 도시한 현재 국제표준 산하기구에서 1차적으로 확정한 MPEG-4의 VOP 영상 부호화기의 구성과 동일하므로, 이를 참조하여 본 발명에 의한 신축형(스케일러블) 부호화시 고위 계층(Enhancement layer) 부호화 방법을 첨부된 도면 도 7 및 도 8에 의거 설명하면 다음과 같다.The video encoding system to which the present invention is applied is the same as the configuration of the MPEG-4 VOP video encoder first determined by the present International Standards Organization shown in FIG. A method of encoding an enhancement layer during (scalable) encoding will be described with reference to FIGS. 7 and 8 as follows.

먼저, 신축형 부호화에서 기본 계층(base layer)가 손실 부호화 되었거나 무손실 부호화 되었을 경우 고위 계층(enhancement layer)을 손실 부호화 또는 무손실 부호화 하는 방법을 제안한다.First, when a base layer is loss coded or lossless coded in a flexible coding, a method of loss coding or lossless coding of an enhancement layer is proposed.

만약 신축형 부호화에서 3개의 계층(layer)을 가지도록 한다면 각 계층(layer)이 부호화되는 조건을 하기한 표 1에 나타내었다.If three layers are included in the flexible encoding, the conditions under which each layer is encoded are shown in Table 1 below.

Figure pat00002
Figure pat00002

한편, 도 7의 (a)인 기본 계층을 이용하여 고위 계층(enhancement layer)을 부호화 하는 방법은 다음과 같다. 도 7에 같이 기본 계층(base layer)을 내삽(interpolation)이나 기존의 다른 어떤 방법을 이용하여 고위 계층(enhancement layer)과 같은 크기를 갖는 영상(이하 추측 영상, 도 6의 (b))을 만든다. 이렇게 만들어진 추측 영상을 전술한 표 1과 같은 전송측에서 원하는 조건을 만족할 수 있도록 손실 부호화 또는 무손실 부호화를 수행한다. 그리고 만약 기본 계층(base layer)이 무손실 부호화를 했다면 추측 영상에서 기본 계층 값(base layer value)에 해당하는 화소에 대해서는 부호화를 하지 않아도 올바른 값을가지게 된다. 그러나 기본 계층(base layer)이 손실 부호화를 했다면 기본 계층(base layer)의 위치에서도 다시 부호화를 해야한다.Meanwhile, a method of encoding an enhancement layer using the base layer of FIG. 7A is as follows. As shown in FIG. 7, an image having the same size as an enhancement layer (hereinafter, the inferred image, FIG. 6B) is made by interpolation of a base layer or some other existing method. . Lossy coding or lossless coding is performed on the transmission side such that Table 1 above satisfies a desired condition. If the base layer is losslessly encoded, a pixel having a base layer value in the speculative image has a correct value without being encoded. However, if the base layer has been subjected to lossy coding, it must be encoded again at the position of the base layer.

도 6의 (c)를 만드는 과정에서 부호화 하는 방법으로 도 8과 같이 부호화할 위치의 화소값을 이용하는 context를 사용하여 CAE방법에 의해 부호하는 방법이 있다.As a method of encoding in the process of making FIG. 6C, there is a method of encoding by a CAE method using a context using a pixel value of a position to be encoded as shown in FIG. 8.

아래의 각 경우에 대해서 부호화 하는 방법을 다르게 둘 수 있다.The encoding method may be different for each of the following cases.

(1) 기본 계층(Base layer)이 무손실 부호화이고 고위 계층(enhancement layer)을 무손실 부호화 할 경우, 이 경우는 기본 계층(base layer)이 무손실 부호화되었기 때문에 부호화를 할 필요가 없다. 따라서 도 7에서 내삽된 부분(흰색으로 표현된 위치)에서만 CAE 방법을 이용하여 무손실 부호화를 한다. 이 때 산술 부호화를 할 때 도 8과 같은 context를 사용한다.(1) If the base layer is lossless coding and lossless coding of the enhancement layer, in this case, since the base layer is lossless coding, it is not necessary to perform coding. Therefore, lossless coding is performed using the CAE method only in the interpolated part (a position represented by white) in FIG. 7. At this time, the arithmetic encoding uses the context as shown in FIG.

(2) 기본 계층(Base layer)이 무손실 부호화이고 고위 계층(enhancement layer)을 손실 부호화 할 경우, 전술한 (1)의 경우와 같이 기본 계층(base layer)의 위치에서는 부호화를 하지 않고, 그 이외의 위치에서는 신축형 부호화를 하지 않을 때 손실 부호화를 하는 방법과 같이 CR을 변화시켜서 손실 부호화한다.(2) When the base layer is lossless coding and loss coding the enhancement layer, the encoding is not performed at the position of the base layer as in the case of (1) above. In the position of, lossy coding is performed by varying the CR, as in the case of lossy coding when no elastic coding is performed.

(3) 기본 계층(Base layer)이 손실 부호화이고 고위 계층(enhancement layer)을 무손실 부호화 할 경우, 이 경우는 추측 영상의 전 영역에 대해서 CAE 방법에 의해서 무손실 부호화를 한다. 이 때 산술 부호화를 할 때 도 7과 같은 context를 사용한다.(3) When the base layer is lossy coding and lossless coding of the enhancement layer, in this case, lossless coding is performed for the entire region of the speculative image by the CAE method. In this case, the arithmetic encoding uses the context as shown in FIG.

(4) 기본 계층(Base layer)이 손실 부호화이고 고위 계층(enhancement layer)을 손실 부호화 할 경우, 이 경우는 추측 영상의 전 영역에 대해서 신축형 부호화를 하지 않았을 때 손실 부호화하는 것과 같이 CR을 변화시켜 손실 부호화를 한다.(4) When the base layer is lossy coding and lossy coding the enhancement layer, in this case, CR is changed as if lossy coding is performed when the entire coding region is not stretched. To perform lossy coding.

다시 말해, 기본 계층(Base layer)이 손실 부호화 되어 있는지 무손실 부호화 되어 있는지에 따라서 부호화 하는 방법이 달라진다. 따라서 VOL(Video Object Layer) 클래스에 기본 계층(base layer)을 손실 부호화 했는지 아닌지 그리고 어느정도의 오차를 허용하도록 손실 부호화되었는지에 대한 신택스(syntax)를 추가해야한다.In other words, the encoding method varies depending on whether the base layer is loss coded or lossless coded. Therefore, syntax should be added to the VOL class as to whether or not the base layer is loss-coded and to what degree it is loss-coded.

또한, VOL 클래스에 고위 계층(enhancement layer)을 손실 부호화 할 것인지 아닌지 그리고 손실 부호화를 할 경우 얼마 만큼의 오차를 허용하도록 손실 부호화할 것인지에 대한 신택스를 추가하게 되는 것이다.In addition, syntax is added to the VOL class as to whether to encode a higher layer (enhancement layer) or not and how much error loss coding to allow for loss coding.

이상에서 상술한 바와 같이 본 발명은 신축형 부호화 방법에서 기본 계층(base layer)이 손실 부호화되었을 경우 또는 무손실 부호화 되었을 경우의 모든 경우에서 고위 계층(enhancement layer)을 손실 부호화 또는 무손실 부호화 할 수 있는 효과가 있다.As described above, the present invention has the effect of lossy coding or lossless coding of the enhancement layer in all cases where the base layer is loss coded or lossless coded in the flexible coding method. There is.

도 1은 현재 국제표준 산하기구에서 1차적으로 확정한 MPEG-4의 VOP 영상 부호화기의 구성도,1 is a configuration diagram of a MPEG-4 VOP video encoder primarily determined by the present International Standardization Organization;

도 2는 도 1의 MPEG-4에서 지원하는 신축형 부호화에서 CONTEXT 템플릿 구성도로서,FIG. 2 is a diagram illustrating a CONTEXT template in flexible encoding supported by MPEG-4 of FIG. 1.

(a)는 인트라(INTRA) context 템플릿이고,(a) is the INTRA context template,

(b)는 인터(INTER) context 템플릿이다.(b) is the INTER context template.

도 3은 MPEG-4에서 지원하는 신축형 부호화에서 CR을 이용한 바이너리 알파 블록 크기 변환도,3 is a binary alpha block size conversion diagram using CR in flexible encoding supported by MPEG-4;

도 4는 도 1의 MPEG-4에서 지원하는 신축형 부호화에서 공간 스케일러빌리티 부호화 개념도,4 is a conceptual diagram of spatial scalability encoding in flexible encoding supported by MPEG-4 of FIG. 1;

도 5는 신축형 부호화를 위한 스캔 인터리빙 예제도,5 is an example of scan interleaving for flexible coding;

도 6은 종래 수평, 수직 방향에 대한 context 정보의 구성도,6 is a configuration diagram of context information for a conventional horizontal and vertical directions;

도 7은 본 발명에 의한 기본 계층을 이용한 고위 계층 부호화 방법을 보인 예제도,7 is an exemplary diagram illustrating a high layer encoding method using a base layer according to the present invention;

도 8은 본 발명에서 부호화할 화소값을 이용하는 context 정보의 구성도.8 is a configuration diagram of context information using pixel values to be encoded in the present invention.

〈도면의 주요 부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

20:VOP형성부 31:움직임 추정부20: VOP forming unit 31: Motion estimation unit

32:움직임 보상부 33:감산기32: motion compensation unit 33: subtractor

34:대상물 내부 부호화부 36:이전 VOP 검출부34: object internal encoding unit 36: old VOP detection unit

37:모양정보 부호화부 38:멀티플렉서37: Shape information encoder 38: Multiplexer

Claims (7)

기본 계층을 이용하여 고위 계층을 부호화하는 이진 마스크의 신축형 부호화 방법에 있어서,In the flexible encoding method of a binary mask for encoding a higher layer by using a base layer, 상기 기본 계층(base layer)이 손실 부호화 또는무손실 부호화 되었을 경우 상기 고위 계층(enhancement layer)을 선택적으로 손실 부호화 또는 무손실 부호화하는 것을 특징으로 하는 신축형(스케일러블) 부호화시 고위 계층(Enhancement layer) 부호화 방법.Enhancement layer encoding in the scalable (scalable) encoding, characterized in that if the base layer is lossy coding or lossless coding, the enhancement layer is selectively lost or losslessly encoded. Way. 제 1항에 있어서,The method of claim 1, 상기 기본 계층을 내삽(interpolation) 방법으로 상기 고위 계층과 같은 크기의 영상(추측 영상)을 만들고, 그 내삽 부분만 CAE방법을 이용하여 무손실 부호화하는 것을 특징으로 하는 신축형(스케일러블) 부호화시 고위 계층(Enhancement layer) 부호화 방법.A high-level (scalable) encoding is performed by interpolation of the base layer, and an image (guessed image) having the same size as that of the higher layer is generated, and only the interpolation portion is lossless encoded using a CAE method. Enhancement layer coding method. 제 2항에 있어서,The method of claim 2, 상기 추측 영상을 부호화할 경우 현재 위치의 화소값을 이용하는 context 정보를 사용하여 CAE방법으로 부호화하는 것을 특징으로 하는 신축형(스케일러블) 부호화시 고위 계층(Eancement layer) 부호화 방법.The enhancement layer encoding method of the flexible (scalable) encoding, characterized in that for encoding the speculative image is encoded by the CAE method using the context information using the pixel value of the current position. 제 1항에 있어서,The method of claim 1, 상기 기본 계층이 무손실 부호화이고 고위 계층(enhancement layer)을 손실 부호화할 경우, 상기 기본 계층의 위치에서는 부호화를 하지 않고 그 이외의 위치에서는 신축형 부호화를 하지 않을 때 손실 부호화를 하는 방법과 같이 CR을 변화시켜 손실 부호화 하는 것을 특징으로 하는 신축형(스케일러블) 부호화시 고위 계층(Enhancement layer) 부호화 방법.When the base layer is lossless coding and loss coding the enhancement layer, CR is lost when the base layer is coded when no coding is performed at a location of the base layer and no elastic coding is performed at other positions. An enhancement layer encoding method in a flexible (scalable) encoding, characterized by lossy coding by changing. 제 1항에 있어서,The method of claim 1, 상기 기본 계층이 손실 부호화이고 고위 계층을 손실 부호화 할 경우 추측 영상의 전 영역에 대해서 신축형 부호화를 하지 않을 때 손실 부호화하는 것과 같이 CR을 변화시켜 고위 계층을 손실 부호화하는 것을 특징으로 하는 신축형(스케일러블) 부호화시 고위 계층(Enhancement layer) 부호화 방법.When the base layer is loss coding and loss coding the higher layer, the flexible layer is loss-coded by changing the CR such that loss coding is performed when the entire coding region is not stretched. Enhancement layer encoding method in scalable coding. 제 1항에 있어서,The method of claim 1, 상기 기본 계층의 손실 부호화시에는 VOL(Video ObjectLayer) 클래스에 기본 계층을 손실 부호화 여부와 어느 정도의 오차를 허용하도록 손실 부호화되었는지에 대한 syntax를 추가하는 것을 특징으로 하는 신축형(스케일러블) 부호화시 고위 계층(Enhancement layer) 부호화 방법.In case of lossy coding of the base layer, a flexible (scalable) coding method is added to a VOL (Video ObjectLayer) class to add a syntax for whether lossy coding is performed on the base layer and to what extent the lossy coding is allowed. Enhancement layer coding method. 제 1항에 있어서,The method of claim 1, 상기 고위 계층의 손실부호화시에는 VOL(Video Object Layer) 클래스에 고위 계층의 손실 부호화 여부와 어느 정도의 오차를 허용하도록 손실 부호화할 것인지에 대한 syntax를 추가하는 것을 특징으로 하는 신축형(스케일러블) 부호화시 고위 계층(Enhancement layer) 부호화 방법.In case of loss coding of the higher layer, a flexible (scalable) encoding is added to a VOL class to add a syntax on whether to encode the higher layer and how much loss is to be encoded. Enhancement layer coding method.
KR1019970030901A 1997-07-03 1997-07-03 Flexible (Enhanced) coding Enhancement Layer coding method KR100482282B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970030901A KR100482282B1 (en) 1997-07-03 1997-07-03 Flexible (Enhanced) coding Enhancement Layer coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970030901A KR100482282B1 (en) 1997-07-03 1997-07-03 Flexible (Enhanced) coding Enhancement Layer coding method

Publications (2)

Publication Number Publication Date
KR19990008783A KR19990008783A (en) 1999-02-05
KR100482282B1 true KR100482282B1 (en) 2005-07-11

Family

ID=37303486

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970030901A KR100482282B1 (en) 1997-07-03 1997-07-03 Flexible (Enhanced) coding Enhancement Layer coding method

Country Status (1)

Country Link
KR (1) KR100482282B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100468950B1 (en) * 1997-07-09 2005-04-06 주식회사 팬택앤큐리텔 How to Implement QualityScalability Using Probability Tables Used for CAE
KR100783396B1 (en) * 2001-04-19 2007-12-10 엘지전자 주식회사 Spatio-temporal hybrid scalable video coding using subband decomposition
KR20040046320A (en) * 2002-11-27 2004-06-05 엘지전자 주식회사 Method for moving picture coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5253058A (en) * 1992-04-01 1993-10-12 Bell Communications Research, Inc. Efficient coding scheme for multilevel video transmission
EP0596423A2 (en) * 1992-11-02 1994-05-11 Sony Corporation Layer encoding/decoding apparatus for input non-interlace video signal
US5349383A (en) * 1990-10-15 1994-09-20 British Telecommunications Public Limited Company Two layer video signal coding
JPH07170514A (en) * 1993-07-13 1995-07-04 At & T Corp Video signal multilayer coding and decoder
KR19980079476A (en) * 1997-04-02 1998-11-25 윤종용 Method and apparatus for encoding / decoding audio data with adjustable bit rate

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5349383A (en) * 1990-10-15 1994-09-20 British Telecommunications Public Limited Company Two layer video signal coding
US5253058A (en) * 1992-04-01 1993-10-12 Bell Communications Research, Inc. Efficient coding scheme for multilevel video transmission
EP0596423A2 (en) * 1992-11-02 1994-05-11 Sony Corporation Layer encoding/decoding apparatus for input non-interlace video signal
JPH07170514A (en) * 1993-07-13 1995-07-04 At & T Corp Video signal multilayer coding and decoder
KR19980079476A (en) * 1997-04-02 1998-11-25 윤종용 Method and apparatus for encoding / decoding audio data with adjustable bit rate

Also Published As

Publication number Publication date
KR19990008783A (en) 1999-02-05

Similar Documents

Publication Publication Date Title
JP3895431B2 (en) Video information encoding method using object boundary block merge / division
CN110719483B (en) Video decoding method and device, video encoding method and device, computer equipment and storage medium
US20060012719A1 (en) System and method for motion prediction in scalable video coding
CN110944185B (en) Video decoding method and device, computer equipment and storage medium
CN1248508C (en) Video decoding method and corresponding decoder
KR100482282B1 (en) Flexible (Enhanced) coding Enhancement Layer coding method
KR19990031654A (en) Mode coding method in binary shape signal coding
KR100483673B1 (en) Exceptional Sample Coding Method for Stretchable (Scalable) Coding of Binary Masks
KR100500381B1 (en) How to set Context information when flexible (scalable) encoding of binary mask
KR100488421B1 (en) Lossy coding method of binary image
KR100522595B1 (en) MPEG video decoding methods and MPEG video decoders
KR19990065274A (en) Shape Information Coding Method for Progressive Scan
KR100476386B1 (en) Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method
KR100466591B1 (en) A method of encoding pixel values in a merged block after object boundary block merge
JP2006503478A (en) Video encoding method
KR100559713B1 (en) Color information encoding / decoding device for parallel scan and its method
KR100620715B1 (en) Encoding / Decoding Method of Digital Gray Shape Information / Color Information
KR100467788B1 (en) Vop(video object planes)
KR100350376B1 (en) Method and apparatus for coding interlaced shape information
KR19990069012A (en) Shape information encoding method for progressive scan and apparatus therefor
KR100476387B1 (en) Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method
KR19990027349A (en) How to convert video information
KR100475058B1 (en) Video location information expression / encoding method in video encoding
KR100483675B1 (en) Loss-Encoding Method for Encoding Flexible Shape Information
KR20000004637A (en) Method of encoding/decoding a digital gray shape/color information

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110302

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee