KR100483673B1 - Exceptional Sample Coding Method for Stretchable (Scalable) Coding of Binary Masks - Google Patents
Exceptional Sample Coding Method for Stretchable (Scalable) Coding of Binary Masks Download PDFInfo
- Publication number
- KR100483673B1 KR100483673B1 KR1019970030902A KR19970030902A KR100483673B1 KR 100483673 B1 KR100483673 B1 KR 100483673B1 KR 1019970030902 A KR1019970030902 A KR 1019970030902A KR 19970030902 A KR19970030902 A KR 19970030902A KR 100483673 B1 KR100483673 B1 KR 100483673B1
- Authority
- KR
- South Korea
- Prior art keywords
- encoding
- esd
- context
- run
- bit allocation
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
1. 청구범위에 기재된 발명이 속한 기술분야1. TECHNICAL FIELD OF THE INVENTION
영상 부호화 방법Image coding method
2. 발명이 해결하려고 하는 기술적 과제2. The technical problem to be solved by the invention
종래의 이진 마스크의 신축형 부호화에서 기본 계층을 고위 계층으로 부호화 하는 과정에서의 ESD부호화시 ESD의 발생 빈도와 무관하게 항상 많은 양의 비트가 할당되므로 부호화 효율이 저하되는 문제점을 해결하고자 한 것임.In the conventional flexible encoding of binary masks, a large amount of bits are always allocated during ESD encoding in the process of encoding a base layer to a higher layer, so that coding efficiency is deteriorated.
3. 발명의 해결방법의 요지3. Summary of Solution to Invention
기본 계층을 이용하여 고위 계층을 부호화하는 이진 마스크의 신축형 부호화에 있어서, 상기 고위 계층(Enhancement layer) 부호화 과정 중 ESD가 발생했을 경우 현재의 Context_Run이 발생할 수 있는 범위에서 이전에 발생한 Context-Run을 감산하여 상기 ESD의 부호화를 위해 할당되는 비트 수를 감축시키는 것을 특징으로 한 것이다.In the flexible encoding of a binary mask that encodes a higher layer by using a base layer, when an ESD occurs during the enhancement layer encoding process, a previously generated Context-Run is generated in a range where the current Context_Run may occur. The number of bits allocated for encoding the ESD is reduced by subtracting.
4. 발명의 중요한 용도4. Important uses of the invention
이진 마스크의 신축형 부호화에서 익셉셔널 샘플 부호화에 적용되는 것임.Applied to exceptional sample coding in binary coding of binary masks.
Description
본 발명은 스캔 인터리빙 방법에서 익셉셔널 샘플 데이터(ESD)가 발생하는 경우 Context_Run을 표현하기 위한 비트 할당량을 줄여 고위 계충(Enhancement layer) 부호화 효율을 높이도록 한 이진 마스크의 신축형(스케일러블) 부호화시 익셉셔널 샘플 부호화방법을 제공하고자 한 것이다.According to the present invention, when an exceptional sample data (ESD) is generated in the scan interleaving method, a binary (scalable) encoding of a binary mask is made to reduce the bit allocation amount for representing Context_Run to increase the enhancement layer coding efficiency. It is to provide an exceptional sample encoding method.
본 발명은 현재 표준화 작업이 진행중인 MPEG-4에서 지원하는 기능 중에서 스케일러빌리티 부호화(신축형 부호화)에 관한 것이다.The present invention relates to scalability coding (flexible coding) among functions supported by MPEG-4, which is currently being standardized.
일반적으로, 영상 및 음향 부호화 기술 및 시스템구성에 관한 국제 표준안(MPEG-1, MPEG-2)을 개발하고 의결한 MPEG 그룹이 국제 표준으로 채택할 예정의 차세대 영상 및 음향 부호화 기술 및 시스템 구성에 관한 국제 표준안 (MPEG-4)을 연구, 개발중에 있다. MPEG-4의 개발은 기존의 알려진 표준안으로 는 지원할 수 없는 차세대 영상 및 음향 응용물들을 지원할 필요성에서 출발했 다. MPEG-4는 영상 및 음향 데이타의 통신과 접속, 그리고 조작을 위한 새로운 방법들(예를 들자면, 특성이 다른 네트워크를 통한 물체 중심 대화형 기능 및 접속 등)을 제공한다.In general, the next generation of video and audio coding technology and system configuration, which is developed and adopted by the MPEG Group, which has developed and decided on international standards (MPEG-1 and MPEG-2) on video and audio coding technology and system construction, International Standard (MPEG-4) is being researched and developed. The development of MPEG-4 began with the need to support the next generation of video and audio applications that are not supported by existing known standards. MPEG-4 provides new methods for communicating and accessing and manipulating video and audio data, such as object-oriented interactive functionality and access over networks of differing characteristics.
또한 에러가 쉽게 발생되는 통신 환경과 저전송율의 통신환경에서도 유용하게 동 작 하는 특성을 제공한다. 더우기 컴퓨터 그래픽 기술을 통합하여 자연영상 및 음향과 인공영상 및 음향들을 함께 부호화하고 조작할 수 있는 기능들을 제공한다. 요약컨대, MPEG-4는 여러 응용분야에서 요구되고 예상되는 모든 기능들을 지원해야 한다. 따라서, 멀티미디어 정보의 급팽창과 기술 향상에 의해 새롭게 개 발됐거나 개발될 저가, 고기능의 모든 가능한 응용 분야들에 요구되는 기능들을 지원할 수 있도록 확장가능하고 개방적인 구조를 가지게 된다. 그중에는 전송 및 저장 기능과 비용 절감에 필요한 부호화 효과의 향상 기능(Improved Compression Efficiency)이 있다. 현재 MPEG-4의 기술이 응용될 것으로 기대되 는 응용물로는 인터넷 멀티미디어(IMM: Internet Multimedia), 대화형 비디오 게임(IVG: Interactive Video Games), 영상회의 및 영상전화등의 상호 통신(IPC: Interpersonal Communications), 쌍방향 저장매체(ISM: Interactive Storage Media), 멀티미디어 전자우편(MMM: Multimedia Mailing), 무선 멀티미디어(WMM: Wireless Multimedia), ATM망 등을 이용한 네트웍 데이타베이스 서비스(NDB: Networked Database Service), 원격 응급 시스템(RES: Remote Emergency Systems), 원격 영상 감시(RVS: Remote Video Surveillance) 등이 있다.In addition, it provides characteristics that can be useful in a communication environment where errors are easily generated and a low transmission rate communication environment. Moreover, the integration of computer graphics technology provides the ability to encode and manipulate natural and artificial images and sounds together. In summary, MPEG-4 must support all the features required and expected in many applications. As a result, the expansion and openness of the multimedia information to support the functions required for all low-cost, high-performance applications possible to be newly developed or developed. Among them are transmission and storage functions and improved compression efficiency required for cost reduction. Applications currently expected to apply MPEG-4 technology include Internet Multimedia (IMM), Interactive Video Games (IVG), video conferencing and video telephony. Networked Database Service (NDB) using Interpersonal Communications, Interactive Storage Media (ISM), Multimedia Mailing (MMM), Wireless Multimedia (WMM), ATM Networks , Remote Emergency Systems (RES) and Remote Video Surveillance (RVS).
기존의 응용물이나 앞으로 기대되는 응용물들을 지원하기 위해서는 유저들이 영 상 내의 원하는 객체만을 통신할 수 있고, 찾고 읽을 수 있도록 접근할 수 있으며, 자르고 붙일 수 있도록 편집할 수 있는 영상 부호화기술이 필요하다. 현재 세계 표준화 작업이 진행중인 새로운 영상 및 음향 부호화 기술인 MPEG-4는 이러 한 필요를 충족시키기 위한 것이다.To support existing or future applications, we need image coding technology that enables users to communicate only with the objects they want, access to find and read, and edit to cut and paste. . MPEG-4, a new video and audio coding technology currently under global standardization, is designed to meet this need.
도 1은 현재 국제표준 산하기구에서 1차적으로 확정한 MPEG-4의 VOP 영상 부호화기의 구성도이다. 이는 기존의 영상부호화 세계표준화인 H.261, H.263, MPEG-1, MPEG-2의 영상 부호화기 구조와는 다른 구조를 지닌다. 특히 모양정 보 부호화부(Shape Coder)와 VOP(Video Object Planes)라는 개념의 도입이 가장 두드러진 차이를 보이고 있다. VOP는 유저가 접근 및 편집할 수 있는 임의 모양 의 내용물의 시간축상의 한 시점의 객체를 의미하며, 내용물 기반의 기능성(content-based functionality)을 지원하기 위해서는 VOP별로 부호화되어야 한다.FIG. 1 is a block diagram of a MPEG-4 VOP video encoder first determined by the present International Standards Organization. This is different from the video encoder structure of H.261, H.263, MPEG-1, MPEG-2, which is the world standardized video encoding. In particular, the introduction of the concept of Shape Coder and VOP (Video Object Planes) shows the most significant difference. VOP refers to an object at one point on the time axis of arbitrary shape content that can be accessed and edited by the user, and must be encoded by VOP to support content-based functionality.
이러한 VOP 부호화기는, VOP형성부(20)에서 형성된 각각의 대상물 영상에 대한 VOP가 움직임 추정부(MOTION ESTIMATION)(31)에 입력되면, 움직임 추정부 (31)는 인가된 VOP로부터 매크로 블럭 단위의 움직임을 추정하게 된다.When the VOP coder inputs a VOP for each object image formed in the
또한, 상기 움직임 추정부(31)에서 추정된 움직임 정보는 움직임 보상부(MOTION COMPENSATION)(32)에 입력되어 움직임이 보상된다. 그리고, 움직임 보상부 (32)에서 움직임이 보상된 VOP는 상기 VOP형성부(11)에서 형성된 VOP와 함께 감산기(33)에 입력되어 차이값이 검출되고, 감산기(33)에서 검출된 차이값은 대상물 내부 부호화부(34)에 입력되어 매크로 블럭의 서브 블럭 단위로 대상물의 내부정보가 부호화된다.In addition, the motion information estimated by the
예를 들면, 매크로 블럭의 X축 및 Y축이 M/2 × N/2으로 각기 8개의 화소를 가지는 8 × 8의 서브 블럭으로 세분화된 후 대상물 내부정보가 부호화된다.For example, after the X and Y axes of the macroblock are subdivided into 8 × 8 subblocks having 8 pixels each with M / 2 × N / 2, the object internal information is encoded.
한편, 움직임 보상부(32)에서 움직임이 보상된 VOP와, 대상물 내부 부호화부(34) 에서 부호화된 대상물의 내부정보는 가산기(35)에 입력되어 가산되고, 가산기(35)의 출력신호는 이전 VOP 검출부(PREVIOUS RECONSTRUCTED VOP)(36)에 입력 되어 현재 영상 바로 이전 영상의 VOP인 이전VOP가 검출된다.On the other hand, the VOP whose motion is compensated by the
또한, 이전VOP검출부(36)에서 검출된 이전 VOP는 상기 움직임 추정부(31) 및 움 직임 보상부(32)에 입력되어 움직임 추정 및 움직임 보상에 사용된다.In addition, the previous VOP detected by the
그리고, VOP형성부(11)에서 형성된 VOP는 모양정보 부호화부(SHAPE CODING)(37)에 입력되어 모양 정보가 부호화된다.The VOP formed by the VOP forming unit 11 is input to a
여기서, 모양정보 부호화부(37)의 출력신호는 VOP부호화기가 적용되는 분야에 따라 사용 여부가 가변되는 것으로, 점선으로 표시된 바와 같이, 모양정보 부호화부(37)의 출력신호를 움직임 추정부(31), 움직임 보상부(32) 및 대상물 내부 부호화부(34)에 입력시켜 움직임 추정, 움직임 보상 및 대상물의 내부 정보를 부호화 하는 데 사용할 수 있다.Here, the output signal of the
또한, 움직임 추정부(31)에서 추정된 움직임 정보와, 대상물 내부 부호화부(34)에 서 부호화된 대상물 내부 정보 및 상기 모양정보 부호화부(37)에서 부호화 된 모양 정보는 멀티플렉서(38)에 인가되어 다중화 된 후, 비트스트림으로 도면에는 도시하지 않았지만 다수개의 부호화기의 출력을 다시 다중화하여 전송하는 다중화기에 전달되어 전송되어진다.In addition, motion information estimated by the
이러한 개념의 MPEG-4에서 지원하는 기능 중 스케일러빌리티 부호화는 해상도가 다른 복수 개의 계층(기본계층;base layer, 고위계충;enhancement layer)를 전송하고 복호화를 할 수 있는 기능이다. 여기서 스케일러빌리티란 하나의 비트열에서 공간해상도, 시간해상도, SNR(화질에 관한 SNR)이 다른 두 종류 이상의 영상을 복호할 수 있음을 가리키는 말이다.Among the functions supported by MPEG-4 of this concept, scalability encoding is a function of transmitting and decoding a plurality of layers (base layer; enhancement layer) having different resolutions. Here, scalability refers to the capability of decoding two or more kinds of images having different spatial resolution, temporal resolution, and SNR (SNR for image quality) in one bit string.
이러한 스케일러빌리티 부호화는 크게 세 가지로 분류된다. 그것들은 공간 스케일러빌리티(Spatial Scalability), 시간 스케일러빌리티(Temporal Scalability), SNR 스케일러빌리티(SNR Scalability)이다.Such scalability coding is classified into three types. They are Spatial Scalability, Temporal Scalability, SNR Scalability.
주지한 바와같이, 해상도가 다른 복수개의 계층(기본 계층, 고위계층)을 전송하고 복호화를 할 수 있는 기능인 스케일러빌리티 기능의 수행시, 복수개의 다른 해상도를 가지는 정보들을 각각 전송하기 위해서 많은 정보를 전송해야 한다. 따라서 전송할 정보의 양을 줄이기 위해서 상기한 MPEG-4에서는 도 2와 같이 저해상도의 기본 계층(base layer)을 이용하여 고해상도의 고위 계층(enhancement layer)을 추정하는 방법을 적용하였다.As is well known, when performing a scalability function, which is a function of transmitting and decoding a plurality of layers (base layer and high layer) having different resolutions, a lot of information is transmitted to transmit information having a plurality of different resolutions, respectively. Should be. Therefore, in order to reduce the amount of information to be transmitted, the method of estimating the high-resolution enhancement layer using the low-resolution base layer as shown in FIG.
이 공간 스케일러빌리티는 공간 해상도가 낮은 계층을 "기본계층(Base Layer)", 높은 계층을 "고위계층(Enhancement Layer)"이라 부르는데, 여기서 기본 계층은 통상의 MPEG-2 부호화 방법으로 부호화된다.This spatial scalability refers to a layer having a low spatial resolution as a "base layer" and a high layer as an "enhancement layer", where the base layer is encoded by a conventional MPEG-2 encoding method.
이에 비해 확장계층에서는 기본계충의 영상을 업 샘플링해서(저해상도 화면의 화소로부터 보간을 통하여 고해상도 화면으로 만드는 방법) 고위계층과 같은 크기의 영상을 만들어내고, 고위계층의 영상으로부터뿐만 아니라 이 보간된 영상으로부터도 예측함으로써 보다 효율이 높은 부호화를 실현하고 있다.On the other hand, in the extended layer, the image of the base layer is upsampled (a method of making a high resolution screen through interpolation from the pixels of the low resolution screen) to produce an image having the same size as the high layer, and the interpolated image as well as from the high layer image. Prediction also results in more efficient encoding.
기본 계층을 이용하여 고위 계층을 부호화하는 방법으로 기본 계층의 I-VOP(프레임내 부호화 VOP영상)를 이용하는 경우와 P-VOP(프레임간 순방향 예측 부호화 VOP영상)를 이용하는 경우가 있다.As a method of encoding a higher layer using the base layer, there are cases of using I-VOP (intra-frame coded VOP image) of the base layer and P-VOP (inter-frame forward predictive coded VOP image).
도 3에서와 같이 고위 계층을 부호화 하기 위해서 아래와 위의 두 이웃하는 화소값을 이용한다. 만약 두 이웃 화소값이 같을 경우 현재 위치의 화소값도 같은 값을 가질 가능성이 많다. 두 이웃 화소값이 같고 현재 위치의 화소값도 두 이웃 화소값과 같을 경우는 부호화를 할 필요가 없다.As shown in FIG. 3, two neighboring pixel values below and above are used to encode a higher layer. If two neighboring pixel values are the same, the pixel values of the current position are likely to have the same value. If the two neighboring pixel values are the same and the pixel value at the current position is the same as the two neighboring pixel values, there is no need to perform encoding.
이와는 달리 두 이웃 화소값이 다를 경우는 현재 위치의 화소값을 부호화 해 주어야 한다. 이 경우를 트랜지셔널 샘플(transitional sample)이라고 한다. 그리고 두 이웃 화소값은 같지만 현재 위치의 화소값이 다를 경우도 부호화를 해주어야 한다 이 경우를 예외적인 샘플(exceptional sample)이라 한다.On the other hand, when two neighboring pixel values are different, the pixel value of the current position should be encoded. This case is called a transitional sample. In addition, encoding should be performed when two neighboring pixel values are the same but the pixel values of the current position are different. This case is called an exceptional sample.
따라서 고위 계층(enhancement layer)을 부호화 하기 위해서는 두 가지 종류의 데이타(TSD : Transitional Sample Data, ESD : Exceptional Sample Data)가 존재한다. 예를 들어, 기본 계층(Base layer)의 해상도가 XxY이고 고위 계층(enhancement layer)의 해상도가 (2X)x(2Y)인 경우에는 수평 방향, 수직 방향의 부호화를 각각 수행해야 한다. 이때 TSD를 부호화할 경우 수평, 수직 방향에 각각 7개의 context를 이용하여 CAE(Context-based Arithmetic Encoding)을 수행한다.Therefore, two types of data (TSD: Transitional Sample Data, ESD: Exceptional Sample Data) exist to encode an enhancement layer. For example, when the resolution of the base layer is XxY and the resolution of the enhancement layer is (2X) x (2Y), coding in the horizontal and vertical directions should be performed. At this time, when encoding TSD, context-based Arithmetic Encoding (CAE) is performed using seven contexts in the horizontal and vertical directions, respectively.
한편, 전술한 ESD의 부호화 방법은 ESD가 발생할 때마다 도 4와 같이 Context_ID, Context_Run, ED_Length의 순서로 부호화를 한다. 여기서 Context_ID는 ESD가 발생한 위치의 context 정보를 말한다. 그리고 Context_Run은 현재 위치에 ESD가 발생하기 이전의 ESD 사이에 같은 Context_ID를 가지는 화소 수를 말한다. 그리고 ED_Length는 연속해서 ESD가 발생하는 화소수를 말한다.On the other hand, in the above ESD encoding method, the ESD is encoded in the order of Context_ID, Context_Run, and ED_Length as shown in FIG. 4. Here, Context_ID refers to the context information of the location where the ESD occurred. And Context_Run refers to the number of pixels having the same Context_ID between ESDs before ESD occurs at the current position. ED_Length is the number of pixels in which ESD is continuously generated.
그런데, 상기와 같은 종래의 기본 계층을 고위 계층으로 부호화 하는 과정에서의 ESD 부호화 방법은, ESD의 발생 빈도와 무관하게 항상 많은 양의 비트가 할당되므로 부호화 효율이 저하되는 문제점이 있었다.However, the ESD encoding method in the process of encoding the above-described conventional base layer into a higher layer has a problem in that coding efficiency is lowered because a large amount of bits are always allocated regardless of the occurrence frequency of ESD.
이에 본 발명은 상기와 같은 종래 기술의 제반 문제점을 해결하기 위해서 제안된 것으로, 본 발명은 스캔 인터리빙 방법에서 익셉셔널 샘플 데이터(ESD)가 발생하는 경우 Context_Run을 표현하기 위한 비트 할당량을 줄여 고위 계층(Enhancement layer) 부호화 효율을 높이도록 한 이진 마스크의 신축형(스케일러블) 부호화시 익셉셔널 샘플 부호화방법을 제공하는 데 그 목적이 있다.Accordingly, the present invention has been proposed to solve the above-mentioned problems of the prior art, and the present invention provides a higher layer by reducing the bit allocation for representing Context_Run when the exceptional sample data (ESD) occurs in the scan interleaving method. It is an object of the present invention to provide an exceptional sample encoding method in a scalable (scalable) encoding of a binary mask to improve encoding efficiency.
이하, 본 발명의 바람직한 실시예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail.
본 발명이 적용되는 영상 부호화시스템은 첨부한 도면 도1에 도시한 현재 국제표준 산하기구에서 1차적으로 확정한 MPEG-4의 VOP 영상 부호화기의 구성과 동일하므로, 이를 참조하여 본 발명에 의한 이진 마스크의 신축형(스케일러블) 부호화시 익셉셔널 샘플 부호화방법을 첨부된 도면 도 5 내지 도 6에 의거 설명하면 다음과 같다.The video encoding system to which the present invention is applied is the same as the configuration of the MPEG-4 VOP video encoder first determined by the present International Standards Organization shown in FIG. The exceptional sample coding method in the scalable (scalable) coding method will be described with reference to FIGS. 5 to 6 as follows.
먼저, 익셉셔널 샘플 부호화(Exceptional Sampling Encoding)는 Context_ID, Context_Run, ED_Length로 구성된다. Context_Run을 부호화 하기 위해 필요한 할당 비트 수를 줄이기 위해서 현재의 Context_Run이 발생할 수 있는 범위에서 이전에 발생한 Context_Run만큼을 뺌으로써 Context_Run이 발생할 수 있는 범위가 줄어들고 비트 할당이 줄어든다. 도 5에서 그 예를 들었다. MxN 2차원 평면에서의 ESD발생 위치를 1차원으로 변환한다. 예를 들어 8x8 2차원 평면으로 구성되어 있다고 했을 때 1차원으로 변환을 하면 전체 길이가 64가 된다. 이 때 각 ESD에 대한 Context_Run의 존재 범위가 0 내지 63이므로 부호화를 하기 위해서는 6 비트가 필요하다. 따라서 총 3개의 ESD에 대해서는 18 비트가 필요하다.First, exceptional sample encoding (Exceptional Sampling Encoding) is composed of Context_ID, Context_Run, and ED_Length. To reduce the number of allocation bits needed to encode a Context_Run, by subtracting the previously generated Context_Run from the range in which the current Context_Run can occur, the range in which the Context_Run can occur is reduced and the bit allocation is reduced. An example is given in FIG. 5. MxN Converts ESD generation position in 2D plane into 1D. For example, assuming that it consists of an 8x8 two-dimensional plane, when converted to one-dimensional, the total length is 64. In this case, since the existence range of Context_Run for each ESD is 0 to 63, 6 bits are required for encoding. Therefore, 18 bits are required for all three ESDs.
도 5의 (b)에서와 같이 E1이 부호화 되었기 때문에 E1에 대한 Context_Run을 알고 있고 그 길이만큼 E2가 존재할 범위를 줄일 수 있다. 따라서 E2가 존재할 수 있는 범위는 0 내지 30이므로 5 비트를 이용하여 부호화를 할 수 있다. E2가 5 비트를 이용해서 부호화 되었다는 것은 복호기 측에서도 E1 정보를 이용하여 알 수 있으므로 부가적인 정보를 더 보낼 필요는 없다. 마찬가지로 도 5의 (c)에서와 같이 E3를 부호화 할 경우는 E3의 범위가 0 내지 10으로 감소하기 때문에 4비트를 이용하여 부호화 할 수 이다. 따라서 전체적으로 6+5+4=15 비트가 사용되어 효율을 높일 수 있다.As shown in (b) of FIG. 5, since E1 is encoded, the Context_Run for E1 is known and the range in which E2 exists can be reduced by the length thereof. Therefore, the range in which E2 may be present is 0 to 30, so that encoding may be performed using 5 bits. Since E2 is encoded using 5 bits, the decoder may also know using E1 information. Therefore, it is not necessary to send additional information. Likewise, in the case of encoding E3 as shown in FIG. 5C, since the range of E3 decreases from 0 to 10, it can be encoded using 4 bits. Thus, 6 + 5 + 4 = 15 bits are used overall to increase efficiency.
위의 방법에 기본을 둔 다른 방법들도 본 발명에 포함된다.Other methods based on the above methods are also included in the present invention.
(1) 위에서 발생한 1차원 정보를 좌우로 뒤집어 놓고 위의 방법을 수행한다. 이 때 두 가지 방법 중 적은 비트가 발생하는 방법을 적용한다. 그리고 두 가지 방법 중 어느 방법을 이용했는지에 대한 1 비트의 부가 정보가 필요하다.(1) Perform the above method with the one-dimensional information generated above turned upside down. In this case, one of the two methods is applied. One bit of additional information on which of the two methods is used is needed.
(2) 위의 방법을 적용하기 전에 발생한 모든 ESD의 Context_Run 값을 구하고 그 값 중 가장 큰 값을 구한다. 그 값을 표현하기 위한 최소 비트 할당량(MIN_BIT)을 구한다. 그리고 위의 방법을 적용하되 각 ESD에 비트를 할당할 때 MIN_BIT과 비교를 하여 적은 양의 비트를 할당한다. 이 때는 MIN_BIT에 대한 부가 정보를 같이 전송해야 한다. 이 방법은 ESD가 비슷한 간격으로 많이 발생할 때 유리하다.(2) Before applying the above method, find the Context_Run value of all ESDs and the largest value among them. Obtain the minimum bit allocation amount (MIN_BIT) to represent the value. The above method is applied, but when allocating bits to each ESD, a small amount of bits are allocated by comparing with MIN_BIT. In this case, additional information about MIN_BIT should be transmitted together. This method is advantageous when many ESDs occur at similar intervals.
(3) 전술한 (2)의 방법과 (1)의 방법을 혼합하는 방법, 즉 상기 (2)의 방법을 적용할 때 1차원 정보를 원형 그대로 이용했을 경우와 좌우를 뒤집어서 했을 경우를 비교해서 적은 비트가 발생하는 방법을 적용한다. 그리고 상기 (2)의 방법에 사용되는 MIN_BIT과 (1)의 방법에서 사용되는 1 비트의 부가 정보가 필요하다.(3) comparing the method of mixing the method of (2) with the method of (1), that is, the case where the one-dimensional information is used as it is when applying the method of (2) above and the case of inverting the left and right, Applies how fewer bits are generated. In addition, MIN_BIT used in the method of (2) and one bit of additional information used in the method of (1) are required.
(4) 최대 길이가 가장 먼저 나오도록 1차원 정보를 이동시키고, 전술한 (2)의 방법을 이용하는 방법. 즉, 이동할 때 시작 부분과 끝부분이 연결되어 있는 것처럼 생각을 하고 이동을 시킨다. 그 예를 도 6에 나타내었다. 이 때는 이동한 양에 대한 부가 정보가 필요하다. 그리고 이동을 하면 가장 마지막에 ESD가 존재하게 되므로 가장 마지막 ESD에 대한 정보는 부호화 하지 않아도 된다. 최대 길이를 구할 때는 처음과 마지막이 연결되어 있는 것처럼 생각을 해서 최대 길이를 구한다. 도 6에서 보는 것과 같이 처음과 끝이 연결되어 있는 것처럼 생각을 하면 그 부분의 길이는 20+3=23이 된다. 이 방법을 이용하면 처음으로 부호화하는 ESD가 최대 길이 이므로 (2)의 방법에서처럼 최대 비트 할당량 정보를 이용할 수 있다. 그런데 이 방법에서는 가장 처음의 ESD에서 최대 비트 할당량을 구할 수 있기 때문에 최대 비트 할당량에 대한 부가 정보를 전송할 필요가 없다. 따라서 이 방법은 최대 길이가 가장 먼저 나오도록 이동시키고 전술한 (3)과 같은 방법으로 부호화를 하면 된다. 이때 MAX_BIT에 대한 부가 정보는 전송할 필요가 없다.(4) A method of moving the one-dimensional information so that the maximum length comes first and using the method of (2) described above. In other words, when you move, you think that the beginning and the end are connected and move. An example is shown in FIG. 6. In this case, additional information about the moved amount is needed. When moving, the last ESD exists, so the information about the last ESD does not need to be encoded. To find the maximum length, think of the first and the last as connecting, and find the maximum length. As shown in FIG. 6, the length of the part becomes 20 + 3 = 23 when the first and the end are connected. In this method, since the first ESD coded is the maximum length, the maximum bit allocation information can be used as in the method of (2). In this method, however, since the maximum bit allocation can be obtained from the first ESD, there is no need to transmit additional information about the maximum bit allocation. Therefore, this method may be moved so that the maximum length comes out first and the encoding is performed in the same manner as in (3). At this time, additional information about MAX_BIT need not be transmitted.
(5) 산술(Arithmetic) 부호화 방법을 이용하여 Context_Run을 부호화 할 경우 위의 방법들을 이용하여 각 ESD에 대해 Context_Run을 부호화 하기 위한 비트 할당량이 정해진다. 그 정해진 할당량에 따른 기호를 표현할 수 있는 확률표를 만들고 할당량에 따라 다른 확률표를 이용한다. 즉 Context_Run을 표현하기 위한 비트 할당량이 7비트라고 가정을 하면 27개의 기호를 가지는 확률표를 만들고 그 확률표를 이용하여 산술 부호화를 수행하여 익셉셔널 샘플 데이터를 부호화하게 되는 것이다.(5) In case of encoding Context_Run using Arithmetic encoding method, bit allocation for encoding Context_Run is determined for each ESD using the above methods. Create a probability table that can represent symbols according to the assigned quota, and use different probability tables according to the quota. In other words, assuming that a bit allocation amount for representing Context_Run is 7 bits, a probability table having 27 symbols is generated, and arithmetic coding is performed using the probability table to encode exceptional sample data.
이상에서 상술한 바와같이 본 발명은 이진 마스크(binary mask)의 Scalable부화화에서 고위 계층(Enhancement layer) 부호화 과정 중 ESD가 발생했을 때 부호화를 위해 할당되는 비트 수를 줄임으로써 고위 계층 부호화 과정의 효율을 높일 수 있는 효과가 있다.As described above, the present invention reduces the number of bits allocated for encoding when an ESD occurs during encoding of an enhancement layer in scalable encoding of a binary mask, thereby increasing the efficiency of the higher layer encoding process. There is an effect to increase.
도 1은 현재 국제표준 산하기구에서 1차적으로 확정한 MPEG-4의 VOP 영상 부호화기의 구성도.1 is a block diagram of a MPEG-4 VOP video encoder primarily determined by the present International Standardization Organization;
도 2는 도 1의 MPEG-4에서 지원하는 신축형 부호화에서 공간 스케일러빌리티의 부호화 개념도,2 is a conceptual diagram of encoding spatial scalability in flexible encoding supported by MPEG-4 of FIG. 1;
도 3은 도1의 신축형 부호화를 위한 스캔 인터리빙 예제도,FIG. 3 is an example of scan interleaving for flexible encoding of FIG. 1; FIG.
도 4는 신축형 부호화시 익셉셔널 데이터의 기본적 부호화 단위도,4 is a basic coding unit diagram of exceptional data in flexible encoding;
도 5는 본 발명에 의한 익셉셔널 샘플 데이터의 Context_Run에 대한 비트 할당 예제도로서,5 is an example of bit allocation for Context_Run of exceptional sample data according to the present invention.
(a)는 E1의 Context_Run을 부호화하는 경우 비트 할당 예제도이고,(a) is an example of bit allocation when encoding Context_Run of E1.
(b)는 E2의 Context_Run을 부호화하는 경우 비트 할당 예제도이며,(b) is an example of bit allocation when encoding Context_Run of E2.
(c)는 E3의 Context_Run을 부호화하는 경우 비트 할당 예제도이다.(c) is an example of bit allocation in the case of encoding Context_Run of E3.
도 6은 최대 길이의 Context_Run을 가지는 익셉셔널 샘플 데이터를 최전방으로 이동시켜 비트를 할당하는 예제도.6 is an example diagram for allocating bits by moving exceptional sample data having a maximum length of Context_Run to the forefront.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
20:VOP형성부 31:움직임 추정부20: VOP forming unit 31: Motion estimation unit
32:움직임 보상부 33:감산기32: motion compensation unit 33: subtractor
34:대상물 내부 부호화부 36:이전 VOP 검출부34: object internal encoding unit 36: old VOP detection unit
37:모양정보 부호화부 38:멀티플렉서37: Shape information encoder 38: Multiplexer
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970030902A KR100483673B1 (en) | 1997-07-03 | 1997-07-03 | Exceptional Sample Coding Method for Stretchable (Scalable) Coding of Binary Masks |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970030902A KR100483673B1 (en) | 1997-07-03 | 1997-07-03 | Exceptional Sample Coding Method for Stretchable (Scalable) Coding of Binary Masks |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19990008784A KR19990008784A (en) | 1999-02-05 |
KR100483673B1 true KR100483673B1 (en) | 2005-08-29 |
Family
ID=37304279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019970030902A KR100483673B1 (en) | 1997-07-03 | 1997-07-03 | Exceptional Sample Coding Method for Stretchable (Scalable) Coding of Binary Masks |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100483673B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070012201A (en) * | 2005-07-21 | 2007-01-25 | 엘지전자 주식회사 | Method for encoding and decoding video signal |
-
1997
- 1997-07-03 KR KR1019970030902A patent/KR100483673B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR19990008784A (en) | 1999-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3895431B2 (en) | Video information encoding method using object boundary block merge / division | |
US20060012719A1 (en) | System and method for motion prediction in scalable video coding | |
CN113632465A (en) | Method and apparatus for signaling predictor candidate list size for intra block compensation | |
JP2016528805A (en) | Device and method for scalable coding of video information | |
JPH1155664A (en) | Binary shape signal encoding device | |
KR20060085147A (en) | Video coding method and apparatus for predicting effectively unsynchronized frame | |
JP2012151894A (en) | Method and device for encoding image sequence and method and device for decoding image sequence | |
US6133955A (en) | Method for encoding a binary shape signal | |
KR100483673B1 (en) | Exceptional Sample Coding Method for Stretchable (Scalable) Coding of Binary Masks | |
KR100482282B1 (en) | Flexible (Enhanced) coding Enhancement Layer coding method | |
KR100500381B1 (en) | How to set Context information when flexible (scalable) encoding of binary mask | |
KR100488421B1 (en) | Lossy coding method of binary image | |
KR19990065274A (en) | Shape Information Coding Method for Progressive Scan | |
KR100559713B1 (en) | Color information encoding / decoding device for parallel scan and its method | |
KR100466591B1 (en) | A method of encoding pixel values in a merged block after object boundary block merge | |
KR100476386B1 (en) | Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method | |
KR100491998B1 (en) | Image size information representation / encoding method in video encoding | |
KR100475058B1 (en) | Video location information expression / encoding method in video encoding | |
JP2006503478A (en) | Video encoding method | |
KR100535630B1 (en) | Encoding / Decoding Method of Digital Gray Shape Information / Color Information | |
KR100476387B1 (en) | Scan Interleaving Method for Stretched Object Images and MPEG-4 Shape-Encoding Information Coding Method | |
KR19990027349A (en) | How to convert video information | |
KR100477795B1 (en) | Method for coding information for deciding encoding mode information in scalablely coding of binary shape information | |
KR100483674B1 (en) | Loss-Encoding Method for Encoding Flexible Shape Information | |
KR100620715B1 (en) | Encoding / Decoding Method of Digital Gray Shape Information / Color Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110405 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |