KR101481451B1 - Method and apparatus for image processing based on multiple texture image - Google Patents

Method and apparatus for image processing based on multiple texture image Download PDF

Info

Publication number
KR101481451B1
KR101481451B1 KR20110045680A KR20110045680A KR101481451B1 KR 101481451 B1 KR101481451 B1 KR 101481451B1 KR 20110045680 A KR20110045680 A KR 20110045680A KR 20110045680 A KR20110045680 A KR 20110045680A KR 101481451 B1 KR101481451 B1 KR 101481451B1
Authority
KR
South Korea
Prior art keywords
image
texture
space
unit
time location
Prior art date
Application number
KR20110045680A
Other languages
Korean (ko)
Other versions
KR20120022533A (en
Inventor
홍성훈
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US13/222,494 priority Critical patent/US8831094B2/en
Publication of KR20120022533A publication Critical patent/KR20120022533A/en
Application granted granted Critical
Publication of KR101481451B1 publication Critical patent/KR101481451B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

저전송률에서 최적의 화질로 영상을 처리할 수 있는 다중 텍스쳐 이미지 기반 영상 처리 기술이 개시된다. 이를 위해, 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법은 입력되는 영상을 샷 단위 영상으로 분류하고, 샷 단위 영상의 복수개의 프레임 중의 한 프레임을 시드 이미지로 선택하는 단계; 시드 이미지에서 복수개의 특징점을 검출하는 단계; 샷 단위 영상의 복수개의 프레임에서, 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 단계; 및 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 이미지를 정의하는 단계를 포함한다.A multi-texture image-based image processing technique capable of processing an image at an optimal image quality at a low data rate is disclosed. To this end, the multi-texture image-based image processing method according to the present invention includes the steps of: classifying an input image into a shot unit image and selecting one of a plurality of frames of the shot unit image as a seed image; Detecting a plurality of feature points in the seed image; A step of tracking a plurality of feature points in a plurality of frames of the shot unit image to calculate a space-time position conversion parameter for each of the feature points; And defining a plurality of texture images using the feature points corresponding to the space-time location conversion parameters.

Description

다중 텍스쳐 이미지 기반 영상 처리 방법 및 장치{Method and apparatus for image processing based on multiple texture image}TECHNICAL FIELD The present invention relates to a multi-texture image-based image processing method and apparatus,

본 발명은 다중 텍스쳐 이미지 기반 영상 처리 방법 및 장치에 관한 것이다. 더욱 상세하게, 본 발명은 저전송률에서 최적의 화질로 영상을 처리할 수 있는 다중 텍스쳐 이미지 기반 영상 처리 방법 및 장치에 관한 것이다.The present invention relates to a multi-texture image-based image processing method and apparatus. More particularly, the present invention relates to a multi-texture image-based image processing method and apparatus capable of processing an image with an optimal image quality at a low data rate.

일반적인 영상 처리 방식은 영상 프레임간 모션 추정 처리된 신호를 이산코사인변환 등을 이용하여 변환 영역 처리하는 방식에 기초를 두고 있다. 그러나, 일반적인 영상 처리 방식은 영상의 특성에 대한 부정확한 추정과 모델링으로 인해서 다양한 실제 영상의 특성을 표현하기 어려운 문제점을 가지고 있었다. 그리고, 이에 따라 변환된 영상 신호와 원본 영상 신호의 차이값이 증가하여, 해당 영상 신호의 압축시 비트율이 커지는 문제점을 가지고 있었다. 이러한 문제를 해결하기 위하여 MPEG1/2/4와 H.261/263/264로 대표되는 영상압축표준들이 제안되었지만, 여전히 원본크기대비 1/500 비트율과 같은 저전송율 영상압축에서 화질 저하가 심각한 실정이다. 또한 1/n 픽셀단위 모션추정 및 보상방법, 적응 블록크기 변환영역 영상처리방법, 다중 레퍼런스프레임 모션추정 및 보상방법, 일반화된 B-프레임처리방법들이 제안 및 사용되어 왔으나 여전히 저전송율 영상압축에서의 화질저하가 심각한 실정이다.A general image processing method is based on a method in which a signal subjected to motion estimation processing between image frames is subjected to transform domain processing using discrete cosine transform or the like. However, a general image processing method has a problem that it is difficult to express characteristics of various real images due to inaccurate estimation and modeling of image characteristics. As a result, the difference between the converted video signal and the original video signal increases and the bit rate of the video signal increases. To solve this problem, image compression standards such as MPEG1 / 2/4 and H.261 / 263/264 have been proposed, but image quality degradation is still serious in low bit rate image compression such as 1/500 bit rate compared to the original size . In addition, 1 / n pixel motion estimation and compensation method, adaptive block size conversion region image processing method, multiple reference frame motion estimation and compensation method, and generalized B-frame processing methods have been proposed and used. However, Image degradation is serious.

본 발명의 목적은 복수개의 텍스쳐 이미지 및 해당 텍스쳐 이미지의 시공간위치변환 변수를 통하여 다양한 영상 특성을 표현하는 것을 목적으로 한다. It is an object of the present invention to represent a variety of image characteristics through a plurality of texture images and space-time location transformation parameters of the texture images.

그리고, 본 발명은 원본 영상을 복수개의 텍스쳐 이미지 및 이에 대응하는 복수개의 시공간위치변환변수들만으로 압축 처리하여, 원본 크기 대비 획기적으로 크기가 줄은 압축 영상을 제공하는 것을 목적으로 한다. It is another object of the present invention to provide a compressed image which is significantly reduced in size relative to an original size by compressing an original image using only a plurality of texture images and a plurality of space-time location transformation variables corresponding thereto.

또한, 본 발명은 시공간위치변환변수들의 유사성을 이용하여 기 정하여진 복수개의 텍스쳐 이미지를 근사화함으로써, 압축 영상의 크기를 보다 줄이는 것을 목적으로 한다.In addition, the present invention aims at reducing the size of a compressed image by approximating a plurality of predetermined texture images using similarity of space-time location conversion parameters.

또한, 본 발명은 저전송률에서 최적의 화질로 영상을 처리하는 것을 목적으로 한다.In addition, the present invention aims at processing an image at an optimal image quality at a low transmission rate.

상기한 목적을 달성하기 위한 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법은 입력되는 영상을 샷 단위 영상으로 분류하고, 상기 샷 단위 영상의 복수개의 프레임 중의 한 프레임을 시드 이미지로 선택하는 단계; 상기 시드 이미지에서 복수개의 특징점을 검출하는 단계; 상기 샷 단위 영상의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 단계; 및 상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 이미지를 정의하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of processing a multi-texture image based image, the method comprising: classifying input images into shot image units and selecting one of a plurality of frames of the shot unit image as a seed image; Detecting a plurality of feature points in the seed image; Tracking the plurality of feature points in the plurality of frames of the shot unit image to calculate a space-time position conversion parameter for each of the feature points; And defining a plurality of texture images using the feature points corresponding to the space-time location transformation variables.

이 때, 상기 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 시공간위치변환 변수를 압축하는 단계를 더 포함한다.The method further includes compressing the space-time location transformation parameters corresponding to the plurality of texture images and the respective texture images.

이 때, 상기 압축하는 단계는, 상기 텍스쳐 이미지는 영상 압축 방식으로 압축하고, 상기 시공간위치변환 변수는 비트스트림 압축 방식으로 별개로 압축한다.In this case, in the compressing step, the texture image is compressed by an image compression method, and the space-time location conversion parameter is compressed separately by a bitstream compression method.

이 때, 상기 복수개의 텍스쳐 이미지에 있어서, 텍스쳐 이미지 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합쳐서 근사화하는 단계를 더 포함한다. At this time, in the plurality of texture images, texture images having space-time location transformation variables whose similarities calculated by obtaining the correlation characteristic of the texture image signals have values within a predetermined threshold value are classified into one texture image And further includes a step of approximating.

이 때, 상기 복수개의 특징점을 검출하는 단계는, 상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출한다.At this time, the step of detecting the plurality of feature points detects, as the feature points, a point having a variation amount equal to or greater than a predetermined value in the plurality of frames.

이 때, 압축된 상기 복수개의 텍스쳐 이미지와 상기 각각의 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 단계; 상기 텍스쳐 이미지와 상기 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 매칭하는 단계; 상기 텍스쳐 이미지와 상기 시공간위치변환 변수를 이용하여 비쥬얼 텍스쳐를 생성하는 단계; 및 상기 각각의 텍스쳐 이미지에 대응하여 생성된 비쥬얼 텍스쳐들을 결합하는 단계를 더 포함한다.Decompressing the plurality of compressed texture images and the space-time location conversion variable corresponding to each of the texture images; Matching the texture image with the space-time location transformation parameter corresponding to the texture image; Generating a visual texture using the texture image and the space-time location transformation parameter; And combining the visual textures generated corresponding to each of the texture images.

이 때, 상기 비쥬얼 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정하는 단계를 더 포함한다.
The method further includes filtering and correcting artifacts at the joint boundaries of the visual textures.

또한, 상기한 목적을 달성하기 위한 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 장치는 입력되는 영상을 샷 단위 영상으로 분류하고, 상기 샷 단위 영상의 복수개의 프레임 중의 한 프레임을 시드 이미지로 선택하는 시드 이미지 선택부; 상기 시드 이미지에서 복수개의 특징점을 검출하는 특징점 검출부; 상기 샷 단위 영상의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 변수 산출부; 및 상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 이미지를 정의하는 텍스쳐 이미지 정의부를 포함한다.According to another aspect of the present invention, there is provided a multi-texture image-based image processing apparatus for classifying an input image into a shot unit image and selecting one of a plurality of frames of the shot unit image as a seed image, An image selection unit; A feature point detector for detecting a plurality of feature points in the seed image; A variable calculation unit for tracking the plurality of feature points in the plurality of frames of the shot unit image to calculate a space-time location conversion parameter for each of the feature points; And a texture image defining unit that defines a plurality of texture images using the feature points corresponding to the space-time position conversion parameters.

이 때, 상기 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 시공간위치변환 변수를 압축하는 압축부를 더 포함한다.In this case, the image processing apparatus further includes a compression unit for compressing the space-time location conversion parameters corresponding to the plurality of texture images and the respective texture images.

이 때, 상기 압축부는, 상기 텍스쳐 이미지는 영상 압축 방식으로 압축하고, 상기 시공간위치변환 변수는 비트스트림 압축 방식으로 별개로 압축한다.In this case, the compression unit compresses the texture image using an image compression method, and compresses the space-time location conversion parameter separately using a bitstream compression method.

이 때, 상기 복수개의 텍스쳐 이미지에 있어서, 텍스쳐 이미지 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합쳐서 근사화하는 근사화부를 더 포함한다.At this time, in the plurality of texture images, texture images having space-time location transformation variables whose similarities calculated by obtaining the correlation characteristic of the texture image signals have values within a predetermined threshold value are classified into one texture image And further includes an approximate approximation unit.

이 때, 상기 특징점 검출부는, 상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출한다.At this time, the minutia point detecting unit detects, as the minutiae points, a point having a variation amount equal to or larger than a predetermined value in the plurality of frames.

이 때, 압축된 상기 복수개의 텍스쳐 이미지와 상기 각각의 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 압축 해제부; 상기 텍스쳐 이미지와 상기 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 매칭하는 매칭부; 상기 텍스쳐 이미지와 상기 시공간위치변환변수를 이용하여 비쥬얼 텍스쳐를 생성하는 비쥬얼 텍스쳐 생성부; 및 상기 각각의 텍스쳐 이미지에 대응하여 생성된 비쥬얼 텍스쳐들을 결합하는 비쥬얼 텍스쳐 결합부를 더 포함한다.A decompression unit decompressing the compressed plurality of texture images and the space-time location conversion parameters corresponding to the respective texture images; A matching unit for matching the texture image with the space-time location conversion parameter corresponding to the texture image; A visual texture generator for generating a visual texture using the texture image and the space-time location transformation parameter; And a visual texture combining unit for combining the visual textures generated corresponding to the respective texture images.

이 때, 상기 비쥬얼 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정하는 보정부를 더 포함한다.In this case, the image processing apparatus further includes a correction unit for filtering and correcting artifacts at the boundary of the visual textures.

본 발명에 따르면, 복수개의 텍스쳐 이미지 및 해당 텍스쳐 이미지의 시공간위치변환 변수를 통하여 다양한 영상 특성을 표현할 수 있다.According to the present invention, various image characteristics can be expressed through a plurality of texture images and space-time location transformation parameters of the texture images.

그리고, 본 발명은 원본 영상을 복수개의 텍스쳐 이미지 및 이에 대응하는 복수개의 시공간위치변환변수들만으로 압축 처리 가능하여, 원본 크기 대비 획기적으로 크기가 줄은 압축 영상의 제공이 가능하다.In addition, the present invention is capable of compressing an original image using only a plurality of texture images and a plurality of space-time location conversion variables corresponding thereto, thereby providing a compressed image that is significantly reduced in size relative to the original size.

또한, 본 발명은 시공간위치변환변수들의 유사성을 이용하여 기 정하여진 복수개의 텍스쳐 이미지를 근사화함으로써, 압축 영상의 크기를 보다 줄일 수 있다.In addition, the present invention can further reduce the size of a compressed image by approximating a plurality of texture images determined using the similarity of space-time location conversion parameters.

또한, 본 발명은 저전송률에서 최적의 화질로 영상을 처리할 수 있다. 즉, 본 발명은 1/500 비트율과 같은 저전송률에서 화질 열화를 최소화할 수 있다. In addition, the present invention can process an image at an optimal image quality at a low transmission rate. That is, the present invention can minimize image deterioration at a low transmission rate such as 1/500 bit rate.

도 1은 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 동작 흐름도이다.
도 2는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 동작 흐름도이다.
도 4는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 장치의 구성을 나타낸 블록도이다.
FIG. 1 is a flowchart illustrating an encoding method in a multi-texture image-based image processing method according to the present invention.
2 is a diagram for explaining a method of encoding in a multi-texture image-based image processing method according to the present invention.
FIG. 3 is a flowchart illustrating a decoding method in a multi-texture image-based image processing method according to the present invention.
4 is a diagram for explaining a decoding method in the multi-texture image-based image processing method according to the present invention.
FIG. 5 is a block diagram of a multi-texture image-based image processing apparatus according to the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

이하에서는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의 인코딩 방법에 대하여 설명하도록 한다.Hereinafter, an encoding method in a multi-texture image-based image processing method according to the present invention will be described.

도 1은 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 동작 흐름도이다. 도 2는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 도면이다.
FIG. 1 is a flowchart illustrating an encoding method in a multi-texture image-based image processing method according to the present invention. 2 is a diagram for explaining a method of encoding in a multi-texture image-based image processing method according to the present invention.

도 1 및 도 2를 참조하면, 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법의 인코딩 방법은 먼저, 복수개의 프레임으로 구성된 영상(200)을 입력 받는다(S10).Referring to FIGS. 1 and 2, an encoding method of a multi-texture image-based image processing method according to the present invention receives an image 200 composed of a plurality of frames (S10).

그리고, 입력 받은 영상(200)을 샷 단위 영상으로 분류하고, 샷 단위 영상의 복수개의 프레임 중의 한 프레임을 시드 이미지(210)로 선택한다(S11). 그리고, 샷 단위 영상의 시드 이미지(210)를 제외한 나머지 프레임은 잔여 프레임 이미지(220)로 정의한다. 즉, 샷 단위 영상이 k 개의 프레임으로 구성되어 있을 때, 1 개의 시드 이미지가 선택되고, 나머지 k-1 개의 프레임이 잔여 프레임 이미지(220)로 정의된다. 이 때, 샷 단위 영상은 한 대의 카메라가 연속해서 촬영하는 영상에 해당한다.The input image 200 is classified into a shot unit image, and one of a plurality of frames of the shot unit image is selected as the seed image 210 (S11). The remaining frames except for the seed image 210 of the shot unit image are defined as the residual frame image 220. That is, when the shot unit image is composed of k frames, one seed image is selected and the remaining k-1 frames are defined as the residual frame image 220. [ At this time, the shot unit video corresponds to an image shot by one camera consecutively.

단계(S11)에서 선택된 시드 이미지(210)에서 복수개의 특징점을 검출한다(S12). 이 때, 샷 단위 영상의 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 특징점으로 검출할 수 있다. 즉, 시드 이미지(210) 및 잔여 프레임 이미지(220)에서 특정 포인트가 기 설정된 수치 이상의 변화를 보인다면, 해당 특정 포인트는 특징점으로 검출될 수 있다. A plurality of feature points are detected in the seed image 210 selected in step S11 (S12). At this time, in a plurality of frames of the shot unit image, points having a variation amount equal to or greater than a predetermined value can be detected as feature points. That is, if a specific point in the seed image 210 and the residual frame image 220 shows a change of more than a predetermined value, the specific point can be detected as a feature point.

그리고, 샷 단위 영상의 복수개의 프레임에서 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출한다(S13). 즉, 시드 이미지(210) 및 잔여 프레임 이미지(220)에서 특징점의 변화를 정의하는 시공간위치변환 변수를 산출한다. 시공간위치변환 변수는 특징점의 시간에 따른 위치의 변화량 등을 나타내는 함수의 형태일 수 있다. Then, a plurality of feature points are traced in a plurality of frames of the shot unit image to calculate a space-time position conversion parameter for each of the feature points (S13). That is, the space-time location conversion parameter that defines the change of the feature point in the seed image 210 and the residual frame image 220 is calculated. The space-time location conversion parameter may be a function representing the amount of change in position of the feature point with time.

단계(S13)에서 산출된 시공간위치변환 변수(211b, 212b, 213b, 214b, Nb)가 상호 대응되는 특징점들을 이용하여 복수개의 텍스쳐 이미지(211a, 212a, 213a, 214a, Na)를 정의한다(S14). 이 때, 시공간위치변환 변수(211b, 212b, 213b, 214b, Nb)가 상호 동일한 특징점들을 연계하여 하나의 텍스쳐 이미지를 정의할 수 있다. A plurality of texture images 211a, 212a, 213a, 214a, and Na are defined using mutually corresponding minutiae corresponding to the space-time location conversion variables 211b, 212b, 213b, 214b, and Nb calculated in step S13 ). At this time, one texture image can be defined by connecting the same minutiae to each other through the space-time location conversion parameters 211b, 212b, 213b, 214b, and Nb.

그리고, 복수개의 텍스쳐 이미지에 있어서, 유사한 시공간위치변환 변수를 갖는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합쳐서 근사화한다(S15). 이 때, 시공간위치변환 변수간의 유사성은 텍스쳐 이미지 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산될 수 있다. 그리고, 시공간위치변환 변수간의 유사성이 기 설정된 임계치 이내의 값들을 가지는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합칠 수 있다. 도 2에서는, 시공간위치변환 변수가 유사성이 크다고 가정된 제 1 텍스쳐 이미지(211a)와 제 2 텍스쳐 이미지(212a)가 합쳐지고, 이에 대응하여 제 1 시공간위치변환 변수(211b)와 제 2 시공간위치변환 변수(212b)가 합쳐짐으로써, 제 1 근사화 텍스쳐 이미지(211a')와 제 1 근사화 시공간위치변환 변수(211b')가 생성된다. 그리고, 제 3 텍스쳐 이미지(213a)와 제 4 텍스쳐 이미지(214a)가 합쳐지고, 이에 대응하여 제 3 시공간위치변환 변수(213b)와 제 4 시공간위치변환 변수(214b)가 합쳐짐으로써, 제 2 근사화 텍스쳐 이미지(213a')와 제 2 근사화 시공간위치변환 변수(213b')가 생성된다.Then, in the plurality of texture images, texture images having similar space-time location conversion parameters are combined into one texture image and approximated (S15). At this time, the similarity between the space-time location conversion variables can be calculated by obtaining the correlation characteristic of the texture image signal. Then, the texture images having the similarity between the space-time location conversion variables and the values within the predetermined threshold value can be combined into one texture image. In FIG. 2, a first texture image 211a and a second texture image 212a, which are assumed to have a high similarity, are combined with each other, and corresponding to the first space time position conversion parameter 211b and the second space time position By combining the transform variables 212b, a first approximate texture image 211a 'and a first approximate space-time position transform variable 211b' are generated. The third texture image 213a and the fourth texture image 214a are combined and the third space-time position transform variable 213b and the fourth space-time position transform variable 214b are combined, The approximate texture image 213a 'and the second approximate space-time location conversion variable 213b' are generated.

그리고, 복수개의 텍스쳐 이미지(211a, 212a, 213a, 214a, Na)와 각각의 텍스쳐 이미지에 대응하는 복수개의 시공간위치변환 변수(211b, 212b, 213b, 214b, Nb)를 압축한다(S16). 또한, 단계(S16)에서는 텍스쳐 이미지의 근사화 단계(S15)가 진행되었다는 전제하에, 복수개의 근사화 텍스쳐 이미지(211a', 213a', Na')와 각각의 근사화 텍스쳐 이미지에 대응하는 복수개의 근사화 시공간위치변환 변수(211b', 213b', Nb')가 압축될 수 있다. 이 때, 복수개의 텍스쳐 이미지(211a, 212a, 213a, 214a, Na)는 영상 압축 방식으로 압축될 수 있다. 그리고, 복수개의 시공간위치변환 변수(211b, 212b, 213b, 214b, Nb)는 비트스트림 압축 방식으로 복수개의 텍스쳐 이미지(211a, 212a, 213a, 214a, Na)와 별개로 압축될 수 있다. 물론, 복수개의 근사화 텍스쳐 이미지(211a', 213a', Na')는 영상 압축 방식으로 압축되고, 복수개의 근사화 시공간위치변환 변수(211b', 213b', Nb')는 비트스트림 압축 방식으로 별개로 압축될 수도 있다.
Then, a plurality of space-time location transformation variables 211b, 212b, 213b, 214b, and Nb corresponding to the plurality of texture images 211a, 212a, 213a, 214a, and Na are compressed. Also, in step S16, it is assumed that the approximation step S15 of the texture image has been performed, a plurality of approximate texture images 211a ', 213a', Na 'and a plurality of approximate space- The transform variables 211b ', 213b', Nb 'may be compressed. At this time, the plurality of texture images 211a, 212a, 213a, 214a, and Na may be compressed by an image compression method. The plurality of space-time location conversion parameters 211b, 212b, 213b, 214b, and Nb may be compressed separately from the plurality of texture images 211a, 212a, 213a, 214a, and Na by a bit stream compression method. Of course, the plurality of approximate texture space images 211a ', 213a', and Na 'are compressed by the image compression method, and the plurality of approximate space-time position transformation variables 211b', 213b ', and Nb' May be compressed.

이하에서는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의 인코딩 방법을 수학식을 통하여 설명하도록 한다.
Hereinafter, an encoding method in a multi-texture image-based image processing method according to the present invention will be described with reference to mathematical expressions.

특징점은 다음과 같이 검출될 수 있다. 먼저, k개의 프레임으로 구성된 입력 영상

Figure 112014068198360-pat00001
에 대하여, 자기 상관 매트릭스(Autocorrelation matrix)
Figure 112014068198360-pat00002
를 계산한다. 여기서,
Figure 112014068198360-pat00003
는 {x,y}가
Figure 112014068198360-pat00004
를 만족할 때의 포인트의 주변 윈도우 신호이다. 그리고, xy는 각각 x축 방향과 y축 방향의 픽셀 포인트이며,
Figure 112014068198360-pat00005
는 통계적 기대 함수(Statistical expectation operator)로 정의된다. 그리고, w'는 입력 영상 프레임의 가로 길이이고, h'은 입력 영상 프레임의 세로 길이이다.The minutiae points can be detected as follows. First, an input image composed of k frames
Figure 112014068198360-pat00001
For example, an autocorrelation matrix,
Figure 112014068198360-pat00002
. here,
Figure 112014068198360-pat00003
Is { x , y }
Figure 112014068198360-pat00004
Is the surrounding window signal of the point when it is satisfied. X and y are pixel points in the x-axis direction and the y-axis direction, respectively,
Figure 112014068198360-pat00005
Is defined as a statistical expectation operator. W 'is the width of the input image frame, and h' is the height of the input image frame.

픽셀 포인트 {x,y}에서

Figure 112011035993555-pat00006
를 통하여 계산된 고유치들 즉,
Figure 112011035993555-pat00007
Figure 112011035993555-pat00008
로부터, 텍스쳐 포인트 매트릭스
Figure 112011035993555-pat00009
를 다음의 수학식 1과 같이 구할 수 있다. At pixel point { x , y }
Figure 112011035993555-pat00006
The eigenvalues computed through Eq.
Figure 112011035993555-pat00007
And
Figure 112011035993555-pat00008
From the texture point matrix
Figure 112011035993555-pat00009
Can be obtained by the following equation (1).

Figure 112011035993555-pat00010
Figure 112011035993555-pat00010

여기서,

Figure 112011035993555-pat00011
Figure 112011035993555-pat00012
는 기 설정된 임계치에 해당한다. 상기 수학식 1에서 특정 픽셀 위치의
Figure 112011035993555-pat00013
Figure 112011035993555-pat00014
가 임계치
Figure 112011035993555-pat00015
Figure 112011035993555-pat00016
보다 큰 경우, 해당 특정 픽셀을 1로 정의한다. 그리고, 특정 픽셀 위치의
Figure 112011035993555-pat00017
Figure 112011035993555-pat00018
가 임계치
Figure 112011035993555-pat00019
Figure 112011035993555-pat00020
보다 작은 경우, 해당 특정 픽셀을 0으로 정의하여 텍스쳐 포인트 매트릭스를 구한다.
here,
Figure 112011035993555-pat00011
And
Figure 112011035993555-pat00012
Corresponds to a predetermined threshold value. In Equation 1,
Figure 112011035993555-pat00013
And
Figure 112011035993555-pat00014
Lt; / RTI >
Figure 112011035993555-pat00015
And
Figure 112011035993555-pat00016
, The specific pixel is defined as " 1 ". Then,
Figure 112011035993555-pat00017
And
Figure 112011035993555-pat00018
Lt; / RTI >
Figure 112011035993555-pat00019
And
Figure 112011035993555-pat00020
, The texture point matrix is obtained by defining the specific pixel as zero.

그리고, 각 텍스쳐 이미지를 정의하는 복수개의 시공간위치변환 변수 및 이에 대한 텍스쳐 이미지는 다음의 수학식 2와 같이 정의될 수 있다. Then, a plurality of space-time location conversion parameters defining each texture image and a texture image therefor can be defined as Equation (2).

Figure 112011035993555-pat00021
Figure 112011035993555-pat00021

여기서,

Figure 112011035993555-pat00022
는 다음의 수학식 3과 같이 정의될 수 있다.here,
Figure 112011035993555-pat00022
Can be defined as the following equation (3).

Figure 112011035993555-pat00023
Figure 112011035993555-pat00023

여기서, w'는 입력 영상 프레임의 가로 길이이다.
그리고, k개의 프레임으로 구성된 입력 영상

Figure 112014068198360-pat00024
는 다음의 수학식 4와 같이, N개의 텍스쳐 이미지의 합으로써 정의될 수 있다. Where w 'is the width of the input image frame.
Then, an input image composed of k frames
Figure 112014068198360-pat00024
Can be defined as the sum of N texture images, as shown in Equation (4).

Figure 112011035993555-pat00025
Figure 112011035993555-pat00025

또한, 상기의 수학식 4에서 i번째 분할된 텍스쳐 이미지는 다음의 수학식 5와 같이 근사화하여 표현될 수 있다.In Equation (4), the i- th divided texture image can be expressed by approximating the following Equation (5).

Figure 112011035993555-pat00026
Figure 112011035993555-pat00026

여기서,

Figure 112011035993555-pat00027
는 전달 함수를,
Figure 112011035993555-pat00028
은 입력 영상의 l번째 프레임의 i번째 분할된 텍스쳐 이미지를,
Figure 112011035993555-pat00029
는 x축 방향과 y축 방향의 위치변환 벡터를,
Figure 112011035993555-pat00030
Figure 112011035993555-pat00031
에서의 개략적인 추정 오류 신호를 나타낸다. 그리고, 수학식 5에서, 프레임 넘버 kk+1부터 l+M의 범위에 속한다. 수학식 5는 Taylor expansion에 의하여 다음의 수학식 6과 같이 근사화될 수 있다.here,
Figure 112011035993555-pat00027
Is a transfer function,
Figure 112011035993555-pat00028
Th texture image of the l & lt; th > frame of the input image,
Figure 112011035993555-pat00029
A position conversion vector in the x-axis direction and the y-axis direction,
Figure 112011035993555-pat00030
The
Figure 112011035993555-pat00031
Which represents the approximate estimated error signal at. In Equation (5), the frame number k belongs to the range of k + 1 to l + M. Equation (5) can be approximated by Taylor expansion as shown in Equation (6) below.

Figure 112011035993555-pat00032
Figure 112011035993555-pat00032

여기서,

Figure 112011035993555-pat00033
Figure 112011035993555-pat00034
각각은
Figure 112011035993555-pat00035
의 x축 방향과 y축 방향의 경사도(Gradient value)의 합을 나타낸다. 그리고, 추정 오류 신호의 제곱합에 대한 정리는 다음의 수학식 7과 같이 나타낼 수 있다. here,
Figure 112011035993555-pat00033
And
Figure 112011035993555-pat00034
Each
Figure 112011035993555-pat00035
Axis direction and a y-axis direction gradient value (Gradient value). The sum of the sum of squares of the estimated error signals can be expressed by Equation (7).

Figure 112011035993555-pat00036
Figure 112011035993555-pat00036

여기서, w는 입력 영상 프레임의 가로 길이이고, h는 입력 영상 프레임의 세로 길이이다.
여기서, 추정 오류 신호의 제곱합인

Figure 112014068198360-pat00037
크기의 최소화를 가정하여,
Figure 112014068198360-pat00038
의 값을 구할 수 있다. 즉, 다음의 수학식 8 및 수학식 9를 계산하여,
Figure 112014068198360-pat00039
의 값을 구한다.Where w is the width of the input image frame and h is the height of the input image frame.
Here, the square sum of the estimated error signal
Figure 112014068198360-pat00037
Assuming a minimization of size,
Figure 112014068198360-pat00038
Can be obtained. That is, the following equations (8) and (9) are calculated,
Figure 112014068198360-pat00039
.

Figure 112011035993555-pat00040
Figure 112011035993555-pat00040

Figure 112011035993555-pat00041
Figure 112011035993555-pat00041

여기서,

Figure 112011035993555-pat00042
가 항등변환(Identity transform)식임을 가정하면, 수학식 7과 수학식 8을 통해, 다음의 수학식 10을 얻을 수 있다.here,
Figure 112011035993555-pat00042
(7) and (8), the following Equation (10) can be obtained. &Quot; (10) "

Figure 112011035993555-pat00043
Figure 112011035993555-pat00043

여기서, w는 입력 영상 프레임의 가로 길이이고, h는 입력 영상 프레임의 세로 길이이다.
그리고, 수학식 10을 풀면,

Figure 112014068198360-pat00044
에 대한 다음의 수학식 11을 얻을 수 있다.Where w is the width of the input image frame and h is the height of the input image frame.
Then, solving Equation (10)
Figure 112014068198360-pat00044
The following equation (11) can be obtained.

Figure 112011035993555-pat00045
Figure 112011035993555-pat00045

여기서, w는 입력 영상 프레임의 가로 길이이고, h는 입력 영상 프레임의 세로 길이이다.
그리고, 수학식 11을 통해 얻어진

Figure 112014068198360-pat00046
및 수학식 9를 사용하여 다음의 수학식 12와 같은 변환함수
Figure 112014068198360-pat00047
를 얻을 수 있다.Where w is the width of the input image frame and h is the height of the input image frame.
Then, the following equation
Figure 112014068198360-pat00046
And Equation (9), a transform function < RTI ID = 0.0 >
Figure 112014068198360-pat00047
Can be obtained.

Figure 112011035993555-pat00048
Figure 112011035993555-pat00048

여기서, w는 입력 영상 프레임의 가로 길이이고, h는 입력 영상 프레임의 세로 길이이다.
수학식 8 및 수학식 9를 정리하여,

Figure 112014068198360-pat00049
의 변환함수
Figure 112014068198360-pat00050
으로부터
Figure 112014068198360-pat00051
를 얻을 수 있다. 그리고,
Figure 112014068198360-pat00052
의 변환함수
Figure 112014068198360-pat00053
으로부터
Figure 112014068198360-pat00054
를 얻을 수 있다. 또한, 수학식 1 내지 수학식 12를 통해,
Figure 112014068198360-pat00055
를 시드 이미지
Figure 112014068198360-pat00056
및 변환함수
Figure 112014068198360-pat00057
로써 표현할 수 있다. 그리고,
Figure 112014068198360-pat00058
간의 유사성을 계산하여 텍스쳐 이미지의 근사화가 이루어질 수 있다. Where w is the width of the input image frame and h is the height of the input image frame.
(8) and (9) are summarized,
Figure 112014068198360-pat00049
Conversion function of
Figure 112014068198360-pat00050
From
Figure 112014068198360-pat00051
Can be obtained. And,
Figure 112014068198360-pat00052
Conversion function of
Figure 112014068198360-pat00053
From
Figure 112014068198360-pat00054
Can be obtained. Further, through equations (1) to (12)
Figure 112014068198360-pat00055
Seed image
Figure 112014068198360-pat00056
And conversion functions
Figure 112014068198360-pat00057
. And,
Figure 112014068198360-pat00058
The approximation of the texture image can be approximated.

이러한 시드 이미지

Figure 112011035993555-pat00059
는 H.264 인코더와 같은 방법에 의하여 압축될 수 있다. 그리고,
Figure 112011035993555-pat00060
는 CAVLC(Context Adaptive Variable Length Coder) 또는 CABAC(Context Adaptive Binary Arithmetic Coder)에 의하여 압축될 수 있다.
These seed images
Figure 112011035993555-pat00059
May be compressed by a method such as an H.264 encoder. And,
Figure 112011035993555-pat00060
May be compressed by Context Adaptive Variable Length Coder (CAVLC) or Context Adaptive Binary Arithmetic Coder (CABAC).

이하에서는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의 디코딩 방법에 대하여 설명하도록 한다. Hereinafter, a decoding method in the multi-texture image-based image processing method according to the present invention will be described.

도 3은 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 동작 흐름도이다. 도 4는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 도면이다.
FIG. 3 is a flowchart illustrating a decoding method in a multi-texture image-based image processing method according to the present invention. 4 is a diagram for explaining a decoding method in the multi-texture image-based image processing method according to the present invention.

도 3 및 도 4를 참조하면, 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법의 디코딩 방법은 먼저, 압축된 영상 신호를 입력받는다(S30). 이 때, 압축된 영상 신호는 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 복수개의 시공간위치변환 변수가 압축된 신호일 수 있다. 물론, 압축된 영상 신호는 복수개의 근사화 텍스쳐 이미지와 복수개의 근사화 시공간위치변환 변수가 압축된 신호일 수도 있다. 또한, 압축된 영상 신호에서, 복수개의 텍스쳐 이미지와 복수개의 시공간위치변환 변수는 별개로 압축되어 있을 수 있다. Referring to FIGS. 3 and 4, a decoding method of a multi-texture image-based image processing method according to the present invention receives a compressed image signal (S30). In this case, the compressed video signal may be a signal obtained by compressing a plurality of texture images and a plurality of space-time location conversion variables corresponding to the respective texture images. Of course, the compressed video signal may be a signal in which a plurality of approximated texture images and a plurality of approximated space-time position transform parameters are compressed. Also, in the compressed video signal, a plurality of texture images and a plurality of space-time location conversion variables may be separately compressed.

그리고, 압축된 영상 신호를 압축 해제한다(S31). 즉, 압축된 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 복수개의 시공간위치변환 변수를 압축 해제한다.Then, the compressed video signal is decompressed (S31). That is, a plurality of compressed texture images and a plurality of space-time location conversion variables corresponding to respective texture images are decompressed.

압축 해제된 복수개의 텍스쳐 이미지와 복수개의 시공간위치변환 변수에서, 각 텍스쳐 이미지와 해당 텍스쳐 이미지에 대응하는 시공간위치변환 변수를 일대일로 매칭한다(S32). 물론, 각 근사화 텍스쳐 이미지와 해당 근사화 텍스쳐 이미지에 대응하는 근사화 시공간위치변환 변수가 매칭될 수 있다. 도 4에서는, 제 1 근사화 텍스쳐 이미지(211a')와 제 1 근사화 시공간위치변환 변수(211b')가 매칭되고, 제 2 근사화 텍스쳐 이미지(213a')와 제 2 근사화 시공간위치변환 변수(213b')가 매칭되며, 제 N 근사화 텍스쳐 이미지(Na')와 제 N 근사화 시공간위치변환 변수(Nb')가 매칭된다.In a plurality of decompressed texture images and a plurality of space-time location conversion variables, each texture image and a space-time location conversion parameter corresponding to the texture image are matched one-to-one (S32). Of course, each approximated texture image and an approximate space-time location transformation parameter corresponding to the approximated texture image may be matched. 4, the first approximate texture image 211a 'and the first approximate space-time position transform variable 211b' are matched and the second approximate texture image 213a 'and the second approximate space-time position transform variable 213b' And the Nth approximated texture image Na 'is matched with the Nth approximated space-time location transformation parameter Nb'.

단계(S32)에서 매칭된 텍스쳐 이미지와 시공간위치변환 변수를 이용하여 비쥬얼 텍스쳐를 생성한다(S33). 구체적으로, 텍스쳐 이미지에 특징점들의 시간 대비 움직임 등을 정의한 시공간위치변환 변수를 적용하여, 해당 텍스쳐 이미지에 대한 복수개의 프레임으로 구성된 비쥬얼 텍스쳐를 생성한다. 물론, 매칭된 근사화 텍스쳐 이미지와 근사화 시공간위치변환 변수를 이용하여 비쥬얼 텍스쳐를 생성할 수도 있다. 도 4에서는 제 1 근사화 텍스쳐 이미지(211a')와 제 1 근사화 시공간위치변환 변수(211b')를 이용하여, 복수개의 프레임으로 구성된 제 1 비쥬얼 텍스쳐(211)를 생성한다. 그리고, 제 2 근사화 텍스쳐 이미지(213a')와 제 2 근사화 시공간위치변환 변수(213b')를 이용하여, 복수개의 프레임으로 구성된 제 2 비쥬얼 텍스쳐(213)를 생성한다. 또한, 제 N 근사화 텍스쳐 이미지(Na')와 제 N 근사화 시공간위치변환 변수를 이용하여, 복수개의 프레임으로 구성된 제 N 비쥬얼 텍스쳐(N)를 생성한다.In step S32, a visual texture is generated using the matched texture image and space-time location transformation parameters (S33). Specifically, a temporal / spatial transformation parameter defining temporal / spatial motion of minutiae points is applied to a texture image, and a visual texture composed of a plurality of frames for the texture image is generated. Of course, a visual texture may be generated using a matched approximated texture image and an approximate space-time location transformation parameter. In FIG. 4, a first visual texture 211 composed of a plurality of frames is generated using the first approximate texture image 211a 'and the first approximate space-time location conversion variable 211b'. Then, a second visual texture 213 composed of a plurality of frames is generated using the second approximate texture image 213a 'and the second approximate space-time position conversion parameter 213b'. Also, an Nth visual texture N composed of a plurality of frames is generated using the Nth approximated texture image Na 'and the Nth approximated space-time location transformation variables.

단계(S33)에서 각각의 텍스쳐 이미지에 대응하여 생성된 비쥬얼 텍스쳐들을 결합한다(S34). 비쥬얼 텍스쳐들을 결합함으로써, 샷 단위 영상의 복수개의 프레임이 전체적으로 복원된다. 도 4에서는 제 1 비쥬얼 텍스쳐(211), 제 2 비쥬얼 텍스쳐(213), 제 N 비쥬얼 텍스쳐(N)가 결합된다. In step S33, the visual textures corresponding to the respective texture images are combined (S34). By combining the visual textures, a plurality of frames of the shot unit image are restored as a whole. In FIG. 4, a first visual texture 211, a second visual texture 213, and an Nth visual texture N are combined.

단계(S34)에서 결합된 복수개의 비쥬얼 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정한다(S35). 즉, 단계(S34)에서 결합된 복수개의 비쥬얼 텍스쳐들은 단순합으로 복원된 것으로서, 비쥬얼 텍스쳐들 간의 경계에서 결함이 발생할 수 있다. 이러한 결함에 대하여 제거 필터링 작업을 수행함으로써 최종적인 보정된 복원 이미지를 생성한다. At step S34, the artifacts at the joint boundaries of the plurality of combined visual textures are filtered and corrected (S35). That is, the combined plurality of visual textures in step S34 are restored to a simple sum, and a defect may occur at the boundary between the visual textures. By performing an elimination filtering operation on these defects, a final corrected restored image is generated.

그리고, 단계(S35)를 통해 얻어진 샷 단위의 복원 이미지에 다른 샷 단위의 복원 이미지들이 결합되어 최종 영상(200')을 생성할 수 있다.
The restored images of the shot units may be combined with the restored image of the shot unit obtained through step S35 to generate the final image 200 '.

이하에서는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 장치의 구성 및 동작에 대하여 설명하도록 한다.Hereinafter, the structure and operation of a multi-texture image-based image processing apparatus according to the present invention will be described.

도 5는 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 장치의 구성을 나타낸 블록도이다.
FIG. 5 is a block diagram of a multi-texture image-based image processing apparatus according to the present invention.

도 5를 참조하면, 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 장치(500)는 인코딩부(510) 및 디코딩부(520)를 포함하여 구성될 수 있다.
Referring to FIG. 5, the multi-texture image-based image processing apparatus 500 according to the present invention may include an encoding unit 510 and a decoding unit 520.

인코딩부(510)는 시드 이미지 선택부(511), 특징점 검출부(512), 변수 산출부(513) 및 텍스쳐 이미지 정의부(514)를 포함하여 구성된다. 또한, 인코딩부(510)는 근사화부(515) 및 압축부(516)를 더 포함하여 구성될 수 있다. The encoding unit 510 includes a seed image selecting unit 511, a feature point detecting unit 512, a variable calculating unit 513, and a texture image defining unit 514. The encoding unit 510 may further include an approximation unit 515 and a compression unit 516.

시드 이미지 선택부(511)는 입력 받은 영상을 샷 단위 영상으로 분류하고, 샷 단위 영상의 복수개의 프레임 중의 한 프레임을 시드 이미지로 선택한다. 그리고, 시드 이미지 선택부(511)는 샷 단위 영상의 시드 이미지를 제외한 나머지 프레임은 잔여 프레임 이미지로 정의한다. 즉, 시드 이미지 선택부(511)는 샷 단위 영상이 k 개의 프레임으로 구성되어 있을 때, 1 개의 시드 이미지를 선택하고, 나머지 k-1 개의 프레임을 잔여 프레임 이미지(220)로 정의한다. 이 때, 샷 단위 영상은 한 대의 카메라가 연속해서 촬영하는 영상에 해당한다.The seed image selection unit 511 classifies the input image into a shot unit image, and selects one of a plurality of frames of the shot unit image as a seed image. The seed image selection unit 511 defines the remaining frames except the seed image of the shot unit image as a residual frame image. That is, when the shot unit image is composed of k frames, the seed image selector 511 selects one seed image and defines the remaining k-1 frames as the residual frame image 220. [ At this time, the shot unit video corresponds to an image shot by one camera consecutively.

특징점 검출부(512)는 시드 이미지 선택부(511)에서 선택된 시드 이미지에서 복수개의 특징점을 검출한다. 이 때, 특징점 검출부(512)는 샷 단위 영상의 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 특징점으로 검출할 수 있다. 즉, 특징점 검출부(512)는 시드 이미지 및 잔여 프레임 이미지에서 특정 포인트가 기 설정된 수치 이상의 변화를 보인다면, 해당 특정 포인트를 특징점으로 검출할 수 있다. The feature point detection unit 512 detects a plurality of feature points in the seed image selected by the seed image selection unit 511. At this time, the minutia detection unit 512 can detect a point having a variation amount equal to or larger than a predetermined value in a plurality of frames of the shot unit image, as minutiae. That is, if the specific point in the seed image and the residual frame image shows a change of more than a predetermined value, the feature point detector 512 can detect the specific point as a feature point.

변수 산출부(513)는 샷 단위 영상의 복수개의 프레임에서 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출한다. 즉, 변수 산출부(513)는 시드 이미지 및 잔여 프레임 이미지에서 특징점의 변화를 정의하는 시공간위치변환 변수를 산출한다. 시공간위치변환 변수는 특징점의 시간에 따른 위치의 변화량 등을 나타내는 함수의 형태일 수 있다.The variable calculating unit 513 tracks a plurality of feature points in a plurality of frames of the shot unit image to calculate a space-time position conversion parameter for each of the feature points. That is, the variable calculating unit 513 calculates a space-time location conversion parameter that defines the change of the minutiae in the seed image and the residual frame image. The space-time location conversion parameter may be a function representing the amount of change in position of the feature point with time.

텍스쳐 이미지 정의부(514)는 변수 산출부(513)에서 산출된 시공간위치변환 변수가 상호 대응되는 특징점들을 이용하여 복수개의 택스쳐 이미지를 정의한다. 이 때, 텍스쳐 이미지 정의부(514)는 시공간위치변환 변수가 상호 동일한 특징점들을 연계하여 하나의 텍스쳐 이미지를 정의할 수 있다. The texture image defining unit 514 defines a plurality of texture images using the mutually corresponding minutiae corresponding to the space-time location conversion variables calculated by the variable calculating unit 513. At this time, the texture image defining unit 514 may define one texture image by associating the same minutiae with the same space-time location conversion variables.

근사화부(515)는 복수개의 텍스쳐 이미지에 있어서, 유사한 시공간위치변환 변수를 갖는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합쳐서 근사화한다. 즉, 근사화부(515)는 복수개의 텍스쳐 이미지와 복수개의 시공간위치변환 변수가 근사화된 복수개의 근사화 텍스쳐 이미지와 복수개의 근사화 시공간위치변환 변수를 생성할 수 있다. 이 때, 근사화부(515)는 시공간위치변환 변수 간의 유사성을 텍스쳐 이미지 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산할 수 있다. 그리고, 근사화부(515)는 시공간위치변환 변수간의 유사성이 기 설정된 임계치 이내의 값들을 가지는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합칠 수 있다. The approximation unit 515 combines and approximates texture images having similar space-time location transformation parameters into one texture image for a plurality of texture images. That is, the approximation unit 515 may generate a plurality of approximated texture images and a plurality of approximated space-time position transformation variables in which a plurality of texture images, a plurality of space-time location transformation variables are approximated, and a plurality of approximate space- In this case, the approximation unit 515 can calculate the similarity between the space-time location transformation variables by obtaining a correlation characteristic of the texture image signal. The approximation unit 515 may combine the texture images whose similarities between the space-time location conversion variables have values within a predetermined threshold value into one texture image.

압축부(516)는 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 복수개의 시공간위치변환 변수를 압축한다. 물론, 압축부(516)는 복수개의 근사화 텍스쳐 이미지 및 복수개의 시공간위치변환 변수를 압축할 수 있다. 그리고, 압축부(516)는 복수개의 텍스쳐 이미지를 영상 압축 방식으로 압축할 수 있다. 압축부(516)는 복수개의 시공간위치변환 변수를 별개로 비트스트림 압축 방식으로 압축할 수 있다. 물론, 압축부(516)는 복수개의 근사화 텍스쳐 이미지를 영상 압축 방식으로 압축하고, 복수개의 근사화 시공간위치변환 변수를 별개로 비트스트림 압축 방식으로 압축할 수 있다.
The compression unit 516 compresses a plurality of texture images and a plurality of space-time position conversion variables corresponding to the respective texture images. Of course, the compression unit 516 may compress a plurality of approximated texture images and a plurality of space-time location transformation variables. The compression unit 516 can compress a plurality of texture images using an image compression method. The compression unit 516 may compress the plurality of space-time location conversion variables separately in a bitstream compression manner. Of course, the compression unit 516 may compress a plurality of approximated texture images using an image compression method, and may compress the plurality of approximated space-time position transformation variables separately in a bitstream compression method.

디코딩부(520)는 압축 해제부(521), 매칭부(522), 비쥬얼 텍스쳐 생성부(523) 및 비쥬얼 텍스쳐 결합부(524)를 포함하여 구성된다. 또한, 디코딩부(520)는 보정부(525)를 더 포함하여 구성될 수 있다. The decoding unit 520 includes a decompressing unit 521, a matching unit 522, a visual texture generating unit 523, and a visual texture combining unit 524. In addition, the decoding unit 520 may further include a correction unit 525.

압축 해제부(521)는 인코딩부(510)에서 압축된 영상 신호를 입력받아, 해당 압축된 영상 신호를 압축 해제한다. 압축 해제부(521)는 압축된 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 복수개의 시공간위치변환 변수를 압축 해제한다. The decompression unit 521 receives the compressed video signal from the encoding unit 510 and decompresses the compressed video signal. The decompression unit 521 decompresses the plurality of compressed texture images and the plurality of space-time location conversion variables corresponding to the respective texture images.

매칭부(522)는 압축 해제부(521)에 의하여 압축 해제된 복수개의 텍스쳐 이미지와 복수개의 시공간위치변환 변수에서, 각 텍스쳐 이미지와 해당 텍스쳐 이미지에 대응하는 시공간위치변환 변수를 일대일로 매칭한다. 물론, 매칭부(522)는 각 근사화 텍스쳐 이미지와 해당 근사화 텍스쳐 이미지에 대응하는 근사화 시공간위치변환 변수를 매칭할 수 있다. The matching unit 522 matches the texture image and the space-time location conversion variables corresponding to the texture image in a one-to-one correspondence with a plurality of texture images decompressed by the decompression unit 521 and a plurality of space-time location transformation variables. Of course, the matching unit 522 may match the approximate space-time location transformation parameters corresponding to each approximated texture image and the corresponding approximated texture image.

비쥬얼 텍스쳐 생성부(523)는 매칭된 텍스쳐 이미지와 시공간위치변환 변수를 이용하여 비쥬얼 텍스쳐를 생성한다. 구체적으로, 비쥬얼 텍스쳐 생성부(523)는 텍스쳐 이미지에 특징점들의 시간 대비 움직임 등을 정의한 시공간위치변환 변수를 적용하여, 해당 텍스쳐 이미지에 대한 복수개의 프레임으로 구성된 비쥬얼 텍스쳐를 생성한다. 물론, 비쥬얼 텍스쳐 생성부(523)는 매칭된 근사화 텍스쳐 이미지와 근사화 시공간위치변환 변수를 이용하여 비쥬얼 텍스쳐를 생성할 수도 있다. The visual texture generator 523 generates a visual texture using the matched texture image and the space-time location transformation parameter. Specifically, the visual texture generator 523 generates a visual texture composed of a plurality of frames for the texture image by applying a space-time location transformation parameter defining the time-to-motion and the like of the feature points to the texture image. Of course, the visual texture generator 523 may generate a visual texture using the matched approximated texture image and the approximate space-time location transformation parameters.

비쥬얼 텍스쳐 결합부(524)는 비쥬얼 텍스쳐 생성부(523)에 의하여 각각의 텍스쳐 이미지에 대응하여 생성된 비쥬얼 텍스쳐들을 결합한다. 비쥬얼 텍스쳐들을 결합함으로써, 샷 단위 영상의 복수개의 프레임이 전체적으로 복원된다. The visual texture combining unit 524 combines the visual textures generated corresponding to the respective texture images by the visual texture generating unit 523. By combining the visual textures, a plurality of frames of the shot unit image are restored as a whole.

보정부(525)는 결합된 복수개의 비쥬얼 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정한다. 즉, 비쥬얼 텍스쳐 결합부(524)에 의하여 결합된 복수개의 비쥬얼 텍스쳐들은 단순합으로 복원된 것으로서, 비쥬얼 텍스쳐들 간의 경계에서 결함이 발생할 수 있다. 보정부(525)는 이러한 결함에 대하여 제거 필터링 작업을 수행함으로써 최종적인 보정된 복원 이미지를 생성한다.
The corrector 525 filters and corrects artifacts at the combined boundary of the plurality of combined visual textures. That is, the plurality of visual textures combined by the visual texture combining unit 524 are reconstructed as a simple sum, and defects may occur at the boundary between the visual textures. The correction unit 525 performs an elimination filtering operation on these defects to generate a final corrected reconstruction image.

이상에서와 같이 본 발명에 따른 다중 텍스쳐 이미지 기반 영상 처리 방법 및 장치는 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the multi-texture image-based image processing method and apparatus according to the present invention are not limited to the configuration and method of the embodiments described above, but the embodiments may be modified in various ways All or some of the embodiments may be selectively combined.

500; 다중 텍스쳐 이미지 기반 영상 처리 장치
510; 인코딩부
511; 시드 이미지 선택부 512; 특징점 검출부
513; 변수 산출부 514; 텍스쳐 이미지 정의부
515; 근사화부 516; 압축부
520; 디코딩부
521; 압축 해제부 522; 매칭부
523; 비쥬얼 텍스쳐 생성부 524; 비쥬얼 텍스쳐 결합부
525; 보정부
500; Multi-texture image-based image processing device
510; The encoding unit
511; A seed image selection unit 512; The feature point detector
513; A variable calculating unit 514; Texture image definition section
515; An approximation unit 516; Compression section
520; The decoding unit
521; Decompression unit 522; The matching unit
523; A visual texture generator 524; Visual texture combining unit
525; [0040]

Claims (14)

입력되는 영상을 샷 단위 영상으로 분류하고, 상기 샷 단위 영상의 복수개의 프레임 중의 한 프레임을 시드 이미지로 선택하는 단계;
상기 시드 이미지에서 복수개의 특징점을 검출하는 단계;
상기 샷 단위 영상의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 단계;
상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 이미지를 정의하는 단계; 및
상기 복수개의 텍스쳐 이미지에 있어서, 텍스쳐 이미지 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합쳐서 근사화하는 단계를 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 방법.
Classifying an input image into a shot unit image and selecting one of a plurality of frames of the shot unit image as a seed image;
Detecting a plurality of feature points in the seed image;
Tracking the plurality of feature points in the plurality of frames of the shot unit image to calculate a space-time position conversion parameter for each of the feature points;
Defining a plurality of texture images using the feature points corresponding to the space-time location transformation parameters; And
In the plurality of texture images, texture images having space-time location transformation variables having similarity calculated within a predetermined threshold by calculating a correlation characteristic of a texture image signal are summed and approximated into one texture image Wherein the multi-texture image-based image processing method further comprises:
청구항 1에 있어서,
상기 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 시공간위치변환 변수를 압축하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 방법.
The method according to claim 1,
Further comprising compressing the plurality of texture images and the space-time location transformation parameters corresponding to the respective texture images.
청구항 2에 있어서,
상기 압축하는 단계는,
상기 텍스쳐 이미지는 영상 압축 방식으로 압축하고, 상기 시공간위치변환 변수는 비트스트림 압축 방식으로 별개로 압축하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 방법.
The method of claim 2,
Wherein the compressing comprises:
Wherein the texture image is compressed by an image compression method, and the space-time location conversion parameter is separately compressed by a bitstream compression method.
삭제delete 청구항 1에 있어서,
상기 복수개의 특징점을 검출하는 단계는,
상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 방법.
The method according to claim 1,
Wherein the detecting of the plurality of feature points comprises:
Wherein a point having a variation amount equal to or greater than a predetermined value is detected as the feature point in the plurality of frames.
청구항 2에 있어서,
압축된 상기 복수개의 텍스쳐 이미지와 상기 각각의 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 단계;
상기 텍스쳐 이미지와 상기 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 매칭하는 단계;
상기 텍스쳐 이미지와 상기 시공간위치변환 변수를 이용하여 비쥬얼 텍스쳐를 생성하는 단계; 및
상기 각각의 텍스쳐 이미지에 대응하여 생성된 비쥬얼 텍스쳐들을 결합하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 방법.
The method of claim 2,
Decompressing the compressed plurality of texture images and the space-time location conversion variable corresponding to each of the texture images;
Matching the texture image with the space-time location transformation parameter corresponding to the texture image;
Generating a visual texture using the texture image and the space-time location transformation parameter; And
And combining the visual textures generated corresponding to each of the texture images.
청구항 6에 있어서,
상기 비쥬얼 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 방법.
The method of claim 6,
Further comprising filtering and correcting artifacts at the joint boundaries of the visual textures.
입력되는 영상을 샷 단위 영상으로 분류하고, 상기 샷 단위 영상의 복수개의 프레임 중의 한 프레임을 시드 이미지로 선택하는 시드 이미지 선택부;
상기 시드 이미지에서 복수개의 특징점을 검출하는 특징점 검출부;
상기 샷 단위 영상의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 변수 산출부;
상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 이미지를 정의하는 텍스쳐 이미지 정의부; 및
상기 복수개의 텍스쳐 이미지에 있어서, 텍스쳐 이미지 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 이미지들을 하나의 텍스쳐 이미지로 합쳐서 근사화하는 근사화부를 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 장치.
A seed image selection unit for classifying an input image into a shot unit image and selecting one of a plurality of frames of the shot unit image as a seed image;
A feature point detector for detecting a plurality of feature points in the seed image;
A variable calculation unit for tracking the plurality of feature points in the plurality of frames of the shot unit image to calculate a space-time location conversion parameter for each of the feature points;
A texture image defining unit that defines a plurality of texture images using the feature points corresponding to the space-time location conversion parameters; And
In the plurality of texture images, texture images having space-time location transformation variables having similarity calculated within a predetermined threshold by calculating a correlation characteristic of a texture image signal are summed and approximated into one texture image And an approximation unit for performing a texture processing on the texture image.
청구항 8에 있어서,
상기 복수개의 텍스쳐 이미지와 각각의 텍스쳐 이미지에 대응하는 시공간위치변환 변수를 압축하는 압축부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 장치.
The method of claim 8,
Further comprising a compression unit for compressing the plurality of texture images and the space-time location conversion variables corresponding to the respective texture images.
청구항 9에 있어서,
상기 압축부는,
상기 텍스쳐 이미지는 영상 압축 방식으로 압축하고, 상기 시공간위치변환 변수는 비트스트림 압축 방식으로 별개로 압축하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 장치.
The method of claim 9,
Wherein the compression unit comprises:
Wherein the texture image is compressed by an image compression method, and the space-time location conversion parameter is separately compressed by a bitstream compression method.
삭제delete 청구항 8에 있어서,
상기 특징점 검출부는,
상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 장치.
The method of claim 8,
Wherein the minutiae point detecting unit comprises:
Wherein a point having a variation amount equal to or greater than a predetermined value is detected as the feature point in the plurality of frames.
청구항 9에 있어서,
압축된 상기 복수개의 텍스쳐 이미지와 상기 각각의 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 압축 해제부;
상기 텍스쳐 이미지와 상기 텍스쳐 이미지에 대응하는 상기 시공간위치변환 변수를 매칭하는 매칭부;
상기 텍스쳐 이미지와 상기 시공간위치변환변수를 이용하여 비쥬얼 텍스쳐를 생성하는 비쥬얼 텍스쳐 생성부; 및
상기 각각의 텍스쳐 이미지에 대응하여 생성된 비쥬얼 텍스쳐들을 결합하는 비쥬얼 텍스쳐 결합부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 장치.
The method of claim 9,
A decompression unit decompressing the compressed plurality of texture images and the space-time location conversion parameters corresponding to the respective texture images;
A matching unit for matching the texture image with the space-time location conversion parameter corresponding to the texture image;
A visual texture generator for generating a visual texture using the texture image and the space-time location transformation parameter; And
And a visual texture combining unit for combining the visual textures generated corresponding to the respective texture images.
청구항 13에 있어서,
상기 비쥬얼 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정하는 보정부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 이미지 기반 영상 처리 장치.
14. The method of claim 13,
Further comprising a correction unit for filtering and correcting artifacts at a boundary of the visual textures.
KR20110045680A 2010-09-01 2011-05-16 Method and apparatus for image processing based on multiple texture image KR101481451B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/222,494 US8831094B2 (en) 2010-09-01 2011-08-31 Video processing method and apparatus based on multiple texture images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100085610 2010-09-01
KR20100085610 2010-09-01

Publications (2)

Publication Number Publication Date
KR20120022533A KR20120022533A (en) 2012-03-12
KR101481451B1 true KR101481451B1 (en) 2015-01-13

Family

ID=46130644

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20110045680A KR101481451B1 (en) 2010-09-01 2011-05-16 Method and apparatus for image processing based on multiple texture image

Country Status (1)

Country Link
KR (1) KR101481451B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970040A (en) * 1995-08-31 1997-03-11 Victor Co Of Japan Ltd Image companding method
JP2007527155A (en) * 2004-02-06 2007-09-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for encoding and decoding images
KR20080058128A (en) * 2006-12-20 2008-06-25 삼성전자주식회사 Method and apparatus for encoding and decoding using texture synthesis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970040A (en) * 1995-08-31 1997-03-11 Victor Co Of Japan Ltd Image companding method
JP2007527155A (en) * 2004-02-06 2007-09-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for encoding and decoding images
KR20080058128A (en) * 2006-12-20 2008-06-25 삼성전자주식회사 Method and apparatus for encoding and decoding using texture synthesis

Also Published As

Publication number Publication date
KR20120022533A (en) 2012-03-12

Similar Documents

Publication Publication Date Title
KR102594362B1 (en) Method and device for encoding/decoding video
Moorthy et al. Efficient motion weighted spatio-temporal video SSIM index
JP6729170B2 (en) Image processing system and image decoding device
JPH08307874A (en) Video signal encoding device
WO2023274074A1 (en) Systems and methods for image filtering
US10148963B2 (en) Methods of and apparatus for encoding data arrays
KR101469513B1 (en) Video processing method and apparatus based on multiple texture image using video excitation signal
KR101481451B1 (en) Method and apparatus for image processing based on multiple texture image
KR101469515B1 (en) Signal processing method and apparatus based on multiple texture using video sensor excitation signal
CN113822801B (en) Compressed video super-resolution reconstruction method based on multi-branch convolutional neural network
US8811477B2 (en) Video processing method and apparatus based on multiple texture images using video excitation signals
CN115665413A (en) Method for estimating optimal quantization parameter of image compression
JP6564315B2 (en) Encoding device, decoding device, and program
KR101527369B1 (en) Signal processing method and apparatus based on multiple texture using video audio excitation signal
JP2016082395A (en) Encoder, coding method and program
Prantl Image compression overview
US8842738B2 (en) Signal processing method and apparatus based on multiple textures using video audio excitation signals
US10015507B2 (en) Transform system and method in video and image compression
US8848800B2 (en) Signal processing method and apparatus based on multiple textures using video sensor excitation signals
Kaur et al. An Analysis of Relationship Between Image Characteristics and Compression Quality for High-Resolution Satellite
JP7453561B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, and program
US8831094B2 (en) Video processing method and apparatus based on multiple texture images
Wang et al. Internal generative mechanism inspired reduced reference image quality assessment with entropy of primitive
WO2006084419A1 (en) Method for reducing bit rate requirements for encoding multimedia data
Fryza Improving quality of video signals encoded by 3D DCT transform

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171226

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181226

Year of fee payment: 5