KR20120022651A - Signal processing method and apparatus based on multiple texture using video sensor excitation signal - Google Patents

Signal processing method and apparatus based on multiple texture using video sensor excitation signal Download PDF

Info

Publication number
KR20120022651A
KR20120022651A KR1020110083624A KR20110083624A KR20120022651A KR 20120022651 A KR20120022651 A KR 20120022651A KR 1020110083624 A KR1020110083624 A KR 1020110083624A KR 20110083624 A KR20110083624 A KR 20110083624A KR 20120022651 A KR20120022651 A KR 20120022651A
Authority
KR
South Korea
Prior art keywords
signal
texture
signals
variable
unit
Prior art date
Application number
KR1020110083624A
Other languages
Korean (ko)
Other versions
KR101469515B1 (en
Inventor
홍성훈
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US13/222,609 priority Critical patent/US8848800B2/en
Publication of KR20120022651A publication Critical patent/KR20120022651A/en
Application granted granted Critical
Publication of KR101469515B1 publication Critical patent/KR101469515B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Abstract

PURPOSE: A signal processing method and apparatus based on multiple texture using a video sensor excitation signal are provided to express various signal properties through time-space variable of a texture signal. CONSTITUTION: A signal processing apparatus detects a plurality of feature points from a selected seed signal(S11,S12). The signal processing apparatus defines the texture signals(S14). The signal processing apparatus performs an approximation of texture signals which has similar variables for time-space location conversion(S15). The signal processing apparatus compresses video sensor filtering signal, a variable of texture composition filter, and a plurality of variables for time-space location conversion(S17).

Description

영상센서여기신호를 이용한 다중 텍스쳐 기반 신호 처리 방법 및 장치{Signal processing method and apparatus based on multiple texture using video sensor excitation signal}Signal processing method and apparatus based on multiple texture using video sensor excitation signal

본 발명은 영상센서여기신호를 이용한 다중 텍스쳐 기반 신호 처리 방법 및 장치에 관한 것이다. 더욱 상세하게, 본 발명은 저전송률에서 영상과 센서신호를 압축하고 표현할 수 있는 영상센서여기신호를 이용한 다중 텍스쳐 기반 신호 처리 방법 및 장치에 관한 것이다.The present invention relates to a multi-texture based signal processing method and apparatus using an image sensor excitation signal. More specifically, the present invention relates to a multi-texture based signal processing method and apparatus using an image sensor excitation signal capable of compressing and expressing an image and a sensor signal at a low data rate.

일반적인 영상신호와 센서신호의 신호 처리 및 압축 방식은 통합된 방식이 아닌 영상과 센서신호를 각각 분리하여 압축하고 표현하는 방식이었다. 영상신호처리 및 압축방식은 영상프레임간 모션추정처리된 신호를 이산코사인변환 등을 이용해서 변환영역처리하는 방식에 기초를 두고 있고, 센서신호처리 및 압축방식은 자체신호 또는 그 신호의 물리적 신호특성과 중요도에 따라 압축비트율을 조절하는 방식에 기반하고 있다. 그러나 일반적인 신호 압축 방식은 영상신호와 센서신호의 특성에 대한 부정확한 추정과 모델링으로 인해서 다양한 실제 신호의 특성을 표현하기 어려운 문제점을 가지고 있었다. 그리고, 영상움직임이 많은 프레임들이나 잡음이 많은 센서신호구간에서 신호표현모델 추정오류의 값이 커지게 되어 압축시 비트율이 커지는 문제점을 가지고 있었다. 이러한 문제를 해결하기 위하여 MPEG1/2/4와 H.261/3/4으로 대표되는 영상신호 압축표준들이 제안되었지만, 여전히 원본대비 1/1000 저전송율 영상 센서신호 압축에서의 화질 및 음질저하가 심각한 실정이고, 센서신호에 대해서는 구체적인 압축방식이 제안되어 있지 않은 상황이다.In general, the signal processing and compression method of the video signal and the sensor signal is not an integrated method but a method of compressing and expressing the image and sensor signals separately. The video signal processing and compression method is based on the method of transform domain processing of motion estimation processed signal between video frames by using discrete cosine transform, and the sensor signal processing and compression method is its own signal or physical signal characteristics of the signal. It is based on the method of adjusting the compression bit rate according to the importance and importance. However, the general signal compression method has a problem in that it is difficult to express various real signal characteristics due to inaccurate estimation and modeling of image and sensor signal characteristics. In addition, the error value of the signal expression model estimation error is increased in the frames with a lot of image motion or the sensor signal with a lot of noise. In order to solve this problem, video signal compression standards represented by MPEG1 / 2/4 and H.261 / 3/4 have been proposed, but still the picture quality and sound quality deterioration is severe in the compression of 1/1000 low-rate image sensor signal. In this situation, a specific compression method has not been proposed for the sensor signal.

본 발명의 목적은 영상신호와 센서신호를 통합하여 압축한 압축 신호를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a compressed signal compressed by integrating a video signal and a sensor signal.

그리고, 본 발명의 목적은 복수개의 텍스쳐 신호 및 해당 텍스쳐 신호의 시공간위치변환 변수를 통하여 다양한 신호 특성을 표현하는 것을 목적으로 한다. An object of the present invention is to express various signal characteristics through a plurality of texture signals and the space-time position transformation variables of the texture signals.

또한, 본 발명은 원본 신호를 복수개의 텍스쳐 신호 및 이에 대응하는 복수개의 시공간위치변환 변수들만으로 압축 처리하여, 원본 크기 대비 획기적으로 크기가 줄은 압축 신호를 제공하는 것을 목적으로 한다. 더불어, 본 발명은 복수개의 텍스쳐 신호 각각을, 가우시안 함수로 표현되는 영상센서여기신호 및 텍스쳐합성필터의 출력인 텍스쳐 블록의 합으로 정의하여, 원본 크기 대비 보다 획기적으로 크기가 줄은 압축 신호를 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a compressed signal significantly reduced in size compared to the original size by compressing the original signal with only a plurality of texture signals and a plurality of space-time position conversion variables corresponding thereto. In addition, the present invention defines each of the plurality of texture signals as the sum of the image sensor excitation signal represented by the Gaussian function and the texture block which is the output of the texture synthesis filter, thereby providing a compressed signal that is significantly smaller in size than the original size. It aims to do it.

또한, 본 발명은 시공간위치변환 변수들의 유사성을 이용하여 기 정하여진 복수개의 텍스쳐 신호를 근사화함으로써, 압축 신호의 크기를 보다 줄이는 것을 목적으로 한다.In addition, the present invention aims to further reduce the size of the compressed signal by approximating a plurality of predetermined texture signals using the similarity of the spatiotemporal position transformation variables.

또한, 본 발명은 저전송률에서 최적의 화질로 영상을 처리하는 것을 목적으로 한다. In addition, an object of the present invention is to process an image with an optimum image quality at a low data rate.

상기한 목적을 달성하기 위한 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법은 입력되는 영상신호 및 센서신호를 포함하는 신호를 신호구성단위 신호로 분류하고, 상기 신호구성단위 신호의 복수개의 프레임 중의 한 프레임을 시드 신호로 선택하는 단계; 상기 시드 신호에서 복수개의 특징점을 검출하는 단계; 상기 신호구성단위 신호의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 단계; 상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 신호를 정의하는 단계; 및 상기 복수개의 텍스쳐 신호 각각을, 영상센서여기신호를 입력으로 한 텍스쳐합성필터의 출력인 복수개의 텍스쳐 블록의 합으로 정의하는 단계를 포함한다.In the multi-texture based signal processing method according to the present invention for achieving the above object, a signal including an input image signal and a sensor signal is classified into a signal component unit signal, and one frame among a plurality of frames of the signal component unit signal. Selecting as a seed signal; Detecting a plurality of feature points in the seed signal; Calculating space-time position transformation variables for each of the feature points by tracking the plurality of feature points in the plurality of frames of the signal configuration unit signal; Defining a plurality of texture signals using feature points corresponding to the spatiotemporal position transformation variables; And defining each of the plurality of texture signals as a sum of a plurality of texture blocks that are outputs of a texture synthesis filter that receives an image sensor excitation signal.

이 때, 상기 영상센서여기신호는 2차원 가우시안 함수로 표현될 수 있다.In this case, the image sensor excitation signal may be represented by a two-dimensional Gaussian function.

이 때, 상기 복수개의 텍스쳐 신호를 정의하는 상기 복수개의 텍스쳐 블록 각각의 상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수 및 상기 복수개의 텍스쳐 신호 각각에 대응하는 시공간위치변환 변수를 압축하는 단계를 더 포함한다.The method may further include compressing the image sensor excitation signal of each of the plurality of texture blocks defining the plurality of texture signals, the variable of the texture synthesis filter, and the spatiotemporal position conversion variable corresponding to each of the plurality of texture signals. Include.

이 때, 상기 압축하는 단계는, 상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수 및 상기 시공간위치변환 변수를 비트스트림 압축 방식으로 압축한다.At this time, the compressing may include compressing the image sensor excitation signal, the variable of the texture synthesis filter, and the spatiotemporal position conversion variable by a bitstream compression method.

이 때, 상기 복수개의 텍스쳐 신호에 있어서, 텍스쳐 신호 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합쳐서 근사화하는 단계를 더 포함한다. At this time, in the plurality of texture signals, texture signals having spatio-temporal position transformation variables having similarities calculated by obtaining correlation characteristics of texture signal signals having values within a preset threshold are converted into one texture signal. And further approximating.

이 때, 상기 복수개의 특징점을 검출하는 단계는, 상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출한다.In this case, the detecting of the plurality of feature points detects, as the feature points, points having a change amount greater than or equal to a predetermined numerical value in the plurality of frames.

이 때, 압축된 상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수와 상기 각각의 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 단계; 상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수를 이용하여 상기 복수개의 텍스쳐 블록을 생성하고, 상기 텍스쳐 블록을 합하여 상기 복수개의 텍스쳐 신호를 생성하는 단계; 상기 텍스쳐 신호와 상기 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 매칭하는 단계; 상기 텍스쳐 신호와 상기 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성하는 단계; 및 상기 각각의 텍스쳐 신호에 대응하여 생성된 비쥬얼 센서 텍스쳐들을 결합하는 단계를 더 포함한다.Decompressing the compressed image sensor excitation signal, the variable of the texture synthesis filter, and the space-time position conversion variable corresponding to each of the texture signals; Generating the plurality of texture blocks using the image sensor excitation signal and the variables of the texture synthesis filter, and generating the plurality of texture signals by adding the texture blocks; Matching the space signal with the space-time displacement variable corresponding to the texture signal; Generating a visual sensor texture using the texture signal and the spatiotemporal position transformation variable; And combining the visual sensor textures generated in correspondence to the respective texture signals.

이 때, 상기 비쥬얼 센서 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정하는 단계를 더 포함한다.In this case, the method may further include filtering and correcting an artifact at the combined boundary of the visual sensor textures.

이 때, 상기 복원 신호를 복원 영상신호와 복원 센서신호로 분해하는 단계를 더 포함한다.
In this case, the method may further include decomposing the reconstruction signal into a reconstruction image signal and a reconstruction sensor signal.

또한, 상기한 목적을 달성하기 위한 본 발명에 따른 다중 텍스쳐 기반 신호 처리 장치는 입력되는 영상신호 및 센서신호를 포함하는 신호를 신호구성단위 신호로 분류하고, 상기 신호구성단위 신호의 복수개의 프레임 중의 한 프레임을 시드 신호로 선택하는 시드 신호 선택부; 상기 시드 신호에서 복수개의 특징점을 검출하는 특징점 검출부; 상기 신호구성단위 신호의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 변수 산출부; 상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 신호를 정의하는 텍스쳐 신호 정의부; 및 상기 복수개의 텍스쳐 신호 각각을, 영상센서여기신호를 입력으로 한 텍스쳐합성필터의 출력인 복수개의 텍스쳐 블록의 합으로 정의하는 텍스쳐 블록 정의부를 포함한다.In addition, the multi-texture signal processing apparatus according to the present invention for achieving the above object is to classify the signal including the input image signal and the sensor signal as a signal component unit signal, and a plurality of frames of the signal component unit signal A seed signal selector configured to select one frame as a seed signal; A feature point detector for detecting a plurality of feature points from the seed signal; A variable calculator configured to track the plurality of feature points in the plurality of frames of the signal configuration unit signal and calculate a space-time position conversion variable for each feature point; A texture signal definition unit defining a plurality of texture signals using feature points corresponding to the spatiotemporal position conversion variables; And a texture block definition unit which defines each of the plurality of texture signals as a sum of a plurality of texture blocks that are outputs of a texture synthesis filter that receives an image sensor excitation signal.

이 때, 상기 영상센서여기신호는 2차원 가우시안 함수로 표현될 수 있다.In this case, the image sensor excitation signal may be represented by a two-dimensional Gaussian function.

이 때, 상기 복수개의 텍스쳐 신호를 정의하는 상기 복수개의 텍스쳐 블록 각각의 상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수 및 상기 복수개의 텍스쳐 신호 각각에 대응하는 시공간위치변환 변수를 압축하는 압축부를 더 포함한다.At this time, the compression unit for compressing the image sensor excitation signal of each of the plurality of texture blocks defining the plurality of texture signals, the variable of the texture synthesis filter, and the spatiotemporal position conversion variable corresponding to each of the plurality of texture signals. Include.

이 때, 상기 압축부는, 상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수 및 상기 시공간위치변환 변수는 비트스트림 압축 방식으로 별개로 압축한다.In this case, the compression unit separately compresses the image sensor excitation signal, the texture synthesis filter variable, and the space-time position conversion variable by a bitstream compression method.

이 때, 상기 복수개의 텍스쳐 신호에 있어서, 텍스쳐 신호 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합쳐서 근사화하는 근사화부를 더 포함한다.At this time, in the plurality of texture signals, texture signals having spatio-temporal position transformation variables having similarities calculated by obtaining correlation characteristics of texture signal signals having values within a preset threshold are converted into one texture signal. It further includes an approximation unit that approximates in total.

이 때, 상기 특징점 검출부는, 상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출한다.At this time, the feature point detector detects, as the feature point, a point having a change amount equal to or greater than a predetermined numerical value in the plurality of frames.

이 때, 압축된 상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수와 상기 각각의 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 압축 해제부; 상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수를 이용하여 상기 복수개의 텍스쳐 블록을 생성하고, 상기 복수개의 텍스쳐 블록을 합하여 상기 텍스쳐 신호를 생성하는 텍스쳐 신호 생성부; 상기 텍스쳐 신호와 상기 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 매칭하는 매칭부; 상기 텍스쳐 신호와 상기 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성하는 비쥬얼 센서 텍스쳐 생성부; 및 상기 각각의 텍스쳐 신호에 대응하여 생성된 비쥬얼 센서 텍스쳐들을 결합하는 비쥬얼 센서 텍스쳐 결합부를 더 포함한다.At this time, the decompression unit for decompressing the compressed image sensor excitation signal, the variable of the texture synthesis filter and the space-time position conversion variable corresponding to each of the texture signal; A texture signal generator configured to generate the plurality of texture blocks using the image sensor excitation signal and the variables of the texture synthesis filter, and generate the texture signal by adding the plurality of texture blocks; A matching unit matching the texture signal and the space-time position conversion variable corresponding to the texture signal; A visual sensor texture generation unit configured to generate a visual sensor texture using the texture signal and the spatiotemporal position transformation variable; And a visual sensor texture combiner configured to combine the visual sensor textures generated corresponding to the respective texture signals.

이 때, 상기 비쥬얼 센서 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정하는 보정부를 더 포함한다.At this time, the visual sensor texture further comprises a correction unit for filtering and correcting (Artifact) at the boundary of the combination.

이 때, 상기 복원 신호를 복원 영상신호와 복원 센서신호로 분해하는 분해부를 더 포함한다.The apparatus may further include a decomposition unit for decomposing the restoration signal into a restoration image signal and a restoration sensor signal.

본 발명에 따르면, 영상신호와 센서신호를 통합하여 압축한 압축 신호를 제공할 수 있다.According to the present invention, it is possible to provide a compressed signal compressed by integrating a video signal and a sensor signal.

그리고, 복수개의 텍스쳐 신호 및 해당 텍스쳐 신호의 시공간위치변환 변수를 통하여 다양한 신호 특성을 표현할 수 있다.In addition, various signal characteristics may be expressed through the plurality of texture signals and the spatiotemporal position transformation variables of the texture signals.

또한, 본 발명은 원본 신호를 복수개의 텍스쳐 신호 및 이에 대응하는 복수개의 시공간위치변환 변수들만으로 압축 처리 가능하여, 원본 크기 대비 획기적으로 크기가 줄은 압축 신호의 제공이 가능하다. 더불어, 본 발명은 복수개의 텍스쳐 신호 각각을, 가우시안 함수로 표현되는 영상센서여기신호 및 텍스쳐합성필터의 출력인 텍스쳐 블록의 합으로 정의하여, 원본 크기 대비 보다 획기적으로 크기가 줄은 압축 신호를 제공하는 것을 목적으로 한다.In addition, the present invention can compress the original signal using only a plurality of texture signals and a plurality of space-time position transformation variables corresponding thereto, thereby providing a compressed signal having a significantly reduced size compared to the original size. In addition, the present invention defines each of the plurality of texture signals as the sum of the image sensor excitation signal represented by the Gaussian function and the texture block which is the output of the texture synthesis filter, thereby providing a compressed signal that is significantly smaller in size than the original size. It aims to do it.

또한, 본 발명은 시공간위치변환 변수들의 유사성을 이용하여 기 정하여진 복수개의 텍스쳐 신호를 근사화함으로써, 압축 신호의 크기를 보다 줄일 수 있다.In addition, the present invention can further reduce the size of the compressed signal by approximating a plurality of predetermined texture signals using similarities of the spatiotemporal position transformation variables.

또한, 본 발명은 저전송률에서 최적의 화질로 영상을 처리할 수 있다. 즉, 본 발명은 1/500 비트율과 같은 저전송률에서 화질 열화를 최소화할 수 있다. In addition, the present invention can process an image with an optimum image quality at a low data rate. That is, the present invention can minimize image quality degradation at low data rates such as 1/500 bit rate.

도 1은 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 동작 흐름도이다.
도 2는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 동작 흐름도이다.
도 4는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 장치의 구성을 나타낸 블록도이다.
1 is a flowchart illustrating an encoding method in a multiple texture based signal processing method according to the present invention.
2 is a diagram for describing a method of encoding in a multiple texture based signal processing method according to the present invention.
3 is an operation flowchart for explaining a decoding method in a multi-texture based signal processing method according to the present invention.
4 is a view for explaining a decoding method in a multi-texture based signal processing method according to the present invention.
5 is a block diagram showing the configuration of a multi-texture based signal processing apparatus according to the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. Here, the repeated description, well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention, and detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more completely describe the present invention to those skilled in the art. Accordingly, the shape and size of elements in the drawings may be exaggerated for clarity.

이하에서는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의 인코딩 방법에 대하여 설명하도록 한다.Hereinafter, an encoding method in a multiple texture-based signal processing method according to the present invention will be described.

도 1은 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 동작 흐름도이다. 도 2는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 인코딩의 방법을 설명하기 위한 도면이다.
1 is a flowchart illustrating an encoding method in a multiple texture based signal processing method according to the present invention. 2 is a diagram for describing a method of encoding in a multiple texture based signal processing method according to the present invention.

도 1 및 도 2를 참조하면, 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법의 인코딩 방법은 먼저, 복수개의 프레임으로 구성된 신호(200)를 입력 받는다(S10). 상기 신호는 영상신호(201) 및 센서신호(202)를 포함하는 신호이다. 여기서, 센서신호(202)는 센서로부터 입력되는 신호를 의미하며, 상기 센서는 온도 센서, 케미컬(chemical) 센서, 환경 센서, 윈드(wind) 센서 등과 같이 일반적으로 이용될 수 있는 모든 센서를 포함할 수 있다.1 and 2, the encoding method of the multi-texture based signal processing method according to the present invention first receives a signal 200 composed of a plurality of frames (S10). The signal is a signal including an image signal 201 and a sensor signal 202. Herein, the sensor signal 202 means a signal input from a sensor, and the sensor may include all sensors that can be generally used, such as a temperature sensor, a chemical sensor, an environmental sensor, a wind sensor, and the like. Can be.

그리고, 입력 받은 신호(200)를 신호구성단위 신호로 분류하고, 신호구성단위 신호의 복수개의 프레임 중의 한 프레임을 시드 신호(210)로 선택한다(S11). 그리고, 신호구성단위 신호의 시드 신호(210)를 제외한 나머지 프레임은 잔여 프레임 신호(220)로 정의한다. 즉, 신호구성단위 신호가 k 개의 프레임으로 구성되어 있을 때, 1 개의 시드 신호가 선택되고, 나머지 k-1 개의 프레임이 잔여 프레임 신호(220)로 정의된다. 이 때, 신호구성단위 신호는 해당 신호를 구성하는 신호를 의미한다. 예를 들어, 영상신호에 있어서는 샷 단위 신호가 신호구성단위 신호이며, 샷 단위 신호는 한 대의 카메라가 연속해서 촬영하는 영상에 해당한다.The received signal 200 is classified into a signal component unit signal, and one frame among the plurality of frames of the signal component unit signal is selected as the seed signal 210 (S11). The remaining frames other than the seed signal 210 of the signal component unit signal are defined as the remaining frame signal 220. That is, when the signal configuration unit signal is composed of k frames, one seed signal is selected, and the remaining k-1 frames are defined as the remaining frame signal 220. At this time, the signal configuration unit signal means a signal constituting the signal. For example, in the video signal, the shot unit signal is a signal component unit signal, and the shot unit signal corresponds to an image captured by one camera continuously.

단계(S11)에서 선택된 시드 신호(210)에서 복수개의 특징점을 검출한다(S12). 이 때, 신호구성단위 신호의 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 특징점으로 검출할 수 있다. 즉, 시드 신호(210) 및 잔여 프레임 신호(220)에서 특정 포인트가 기 설정된 수치 이상의 변화를 보인다면, 해당 특정 포인트는 특징점으로 검출될 수 있다. A plurality of feature points are detected from the seed signal 210 selected in step S11 (S12). At this time, in a plurality of frames of the signal structure unit signal, a point having a change amount equal to or greater than a predetermined numerical value can be detected as a feature point. That is, if a specific point in the seed signal 210 and the remaining frame signal 220 shows a change over a predetermined value, the specific point may be detected as a feature point.

그리고, 신호구성단위 신호의 복수개의 프레임에서 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출한다(S13). 즉, 시드 신호(210) 및 잔여 프레임 신호(220)에서 특징점의 변화를 정의하는 시공간위치변환 변수를 산출한다. 시공간위치변환 변수는 특징점의 시간에 따른 위치의 변화량 등을 나타내는 함수의 형태일 수 있다. Then, the plurality of feature points are tracked in the plurality of frames of the signal component unit signal to calculate a space-time position conversion variable for each feature point (S13). That is, the spatiotemporal position transformation variable defining the change of the feature point in the seed signal 210 and the remaining frame signal 220 is calculated. The space-time position transformation variable may be in the form of a function indicating an amount of change of the position of the feature point over time.

단계(S13)에서 산출된 시공간위치변환 변수(211b, 212b, 213b, 214b, Nb)가 상호 대응되는 특징점들을 이용하여 복수개의 텍스쳐 신호(211a, 212a, 213a, 214a, Na)를 정의한다(S14). 이 때, 시공간위치변환 변수(211b, 212b, 213b, 214b, Nb)가 상호 동일한 특징점들을 연계하여 하나의 텍스쳐 신호를 정의할 수 있다. The plurality of texture signals 211a, 212a, 213a, 214a, and Na are defined using feature points corresponding to the spatiotemporal position conversion variables 211b, 212b, 213b, 214b, and Nb calculated in step S13 (S14). ). In this case, the space-time position transformation variables 211b, 212b, 213b, 214b, and Nb may define one texture signal by connecting the same feature points to each other.

그리고, 복수개의 텍스쳐 신호에 있어서, 유사한 시공간위치변환 변수를 갖는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합쳐서 근사화한다(S15). 이 때, 시공간위치변환 변수간의 유사성은 텍스쳐 신호 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산될 수 있다. 그리고, 시공간위치변환 변수간의 유사성이 기 설정된 임계치 이내의 값들을 가지는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합칠 수 있다. 도 2에서는, 시공간위치변환 변수가 유사성이 크다고 가정된 제 1 텍스쳐 신호(211a)와 제 2 텍스쳐 신호(212a)가 합쳐지고, 이에 대응하여 제 1 시공간위치변환 변수(211b)와 제 2 시공간위치변환 변수(212b)가 합쳐짐으로써, 제 1 근사화 텍스쳐 신호(211a')와 제 1 근사화 시공간위치변환 변수(211b')가 생성된다. 그리고, 제 3 텍스쳐 신호(213a)와 제 4 텍스쳐 신호(214a)가 합쳐지고, 이에 대응하여 제 3 시공간위치변환 변수(213b)와 제 4 시공간위치변환 변수(214b)가 합쳐짐으로써, 제 2 근사화 텍스쳐 신호(213a')와 제 2 근사화 시공간위치변환 변수(213b')가 생성된다.Then, in the plurality of texture signals, texture signals having similar spatiotemporal position transformation variables are combined and approximated as one texture signal (S15). In this case, the similarity between the spatiotemporal position transformation variables may be calculated by obtaining correlation characteristics of the texture signal signals. Similarity between the spatiotemporal position transformation variables may combine texture signals having values within a predetermined threshold into one texture signal. In FIG. 2, the first texture signal 211a and the second texture signal 212a are assumed to have a high similarity in space time position transformation variables, and correspondingly, the first space time position transformation variable 211b and the second space time position are combined. By combining the transform variables 212b, the first approximated texture signal 211a 'and the first approximated spatiotemporal position change variable 211b' are generated. Then, the third texture signal 213a and the fourth texture signal 214a are combined, and the third space-time position transformation variable 213b and the fourth space-time position transformation variable 214b are correspondingly combined to form the second texture. An approximated texture signal 213a 'and a second approximated spatiotemporal position change variable 213b' are generated.

그리고, 복수개의 텍스쳐 신호(211a, 212a, 213a, 214a, Na) 각각을 복수개의 텍스쳐 블록의 합으로 정의한다(S16). 단계(S15)가 진행되었다면, 복수개의 근사화 텍스쳐 신호(211', 213', Na') 각각을 복수개의 텍스쳐 블록의 합으로 정의할 수 있다. 이 때, 텍스쳐 블록은 영상센서여기신호를 입력으로 한 텍스쳐합성필터의 출력으로 정의될 수 있다. 그리고, 영상센서여기신호는 2차원 가우시안 함수로 표현될 수 있다. 영상센서여기신호 즉, 가우시안 함수는 크기변수 G, 평균값 변수 m과 베어리언스 값 a를 모델 변수로 가진다. 그리고, 텍스쳐합성필터는 다음의 수학식 1과 같은 변환영역 필터계수를 모델 변수로 갖는다.Each of the plurality of texture signals 211a, 212a, 213a, 214a, and Na is defined as the sum of the plurality of texture blocks (S16). If step S15 is performed, each of the plurality of approximated texture signals 211 ', 213', and Na 'may be defined as the sum of the plurality of texture blocks. In this case, the texture block may be defined as an output of the texture synthesis filter that receives the image sensor excitation signal. The image sensor excitation signal may be represented by a two-dimensional Gaussian function. The image sensor excitation signal, that is, the Gaussian function, has the size variable G, the mean value variable m, and the dispersion value a as model variables. The texture synthesis filter has a transform domain filter coefficient as a model variable, as shown in Equation 1 below.

Figure pat00001
Figure pat00001

영상센서여기신호의 변수 즉, G, m, a 값들과 텍스쳐합성필터의 변수 h 값들은 변환 영역에서 텍스쳐 추정 값과 원 텍스쳐 신호 값의 차이를 최소화하도록 구해진다. 변환 영역에서 텍스쳐 추정신호 R은 다음의 수학식 2와 같이 표현된다.The variables of the image sensor excitation signal, that is, the values of G, m, a and the variable h of the texture synthesis filter are calculated to minimize the difference between the texture estimation value and the original texture signal value in the transform domain. The texture estimation signal R in the transform domain is expressed by Equation 2 below.

Figure pat00002
Figure pat00002

EH는 변환영역에서 여기신호벡터와 텍스쳐합성필터계수벡터를 나타내고 '?'은 벡터의 각 성분의 곱을 나타낸다. 여기신호벡터 E는 2차원 가우시안 함수로 근사화되어지고, 텍스쳐합성필터 H는 텍스쳐변환영역특성에 따라 대부분의 변수값이 0이고 일부 영역에서만 변수값들을 가지는 특성을 가진다. 따라서, 본 발명에 따른 신호 처리 방법은 가변길이인코더(Variable Length Encoder)나 연산인코더(Arithmetic Encoder)를 이용해서 매우 낮은 비트율로 압축을 가능케 하며 영상신호(201)와 센서신호(202)에 같은 구조를 사용하고 있으므로 통합 신호 처리 및 압축을 효율적으로 할 수 있도록 한다. E and H represent the excitation signal vector and the texture synthesis filter coefficient vector in the transform domain, and '?' Represents the product of each component of the vector. The excitation signal vector E is approximated by a two-dimensional Gaussian function, and the texture synthesis filter H has a property that most of the variable values are zero and only some areas have variable values according to the texture conversion region characteristics. Accordingly, the signal processing method according to the present invention enables the compression at a very low bit rate using a variable length encoder or an Arithmetic encoder, and has the same structure as the image signal 201 and the sensor signal 202. This allows for efficient signal processing and compression.

그리고, 복수개의 텍스쳐 신호(211a, 212a, 213a, 214a, Na) 각각을 정의하는 복수개의 텍스쳐 블록 각각의 영상센서여기신호, 텍스쳐합성필터의 변수 및 상기 복수개의 텍스쳐 신호 각각에 대응하는 복수개의 시공간위치변환 변수(211b, 212b, 213b, 214b, Nb)를 압축한다(S17). 또한, 단계(S17)에서는 텍스쳐 신호의 근사화 단계(S15)가 진행되었다는 전제하에, 복수개의 근사화 텍스쳐 신호(211a', 213a', Na') 각각을 정의하는 복수개의 텍스쳐 블록 각각의 영상센서여기신호, 텍스쳐합성필터의 변수 및 상기 복수개의 근사화 텍스쳐 신호에 대응하는 복수개의 근사화 시공간위치변환 변수(211b', 213b', Nb')가 압축될 수 있다. 이 때, 압축은 비트스트림 압축 방식으로 이루어질 수 있다.
The image sensor excitation signal of each of the plurality of texture blocks defining each of the plurality of texture signals 211a, 212a, 213a, 214a, and Na, a variable of the texture synthesis filter, and a plurality of spacetimes corresponding to each of the plurality of texture signals. The position conversion variables 211b, 212b, 213b, 214b, and Nb are compressed (S17). Further, in step S17, on the premise that the approximation step S15 of the texture signal is performed, the image sensor excitation signal of each of the plurality of texture blocks defining each of the plurality of approximation texture signals 211a ', 213a', and Na '. The variable of the texture synthesis filter and the plurality of approximated spatiotemporal position conversion variables 211b ', 213b', and Nb 'corresponding to the plurality of approximated texture signals may be compressed. In this case, the compression may be performed by a bitstream compression method.

이하에서는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의 인코딩 방법을 수학식을 통하여 설명하도록 한다.
Hereinafter, the encoding method in the multi-texture-based signal processing method according to the present invention will be described through equations.

특징점은 다음과 같이 검출될 수 있다. 먼저, k개의 프레임으로 구성된 입력 영상

Figure pat00003
에 대하여, 자기 상관 매트릭스(Autocorrelation matrix)
Figure pat00004
를 계산한다. 여기서,
Figure pat00005
는 {x,y}가
Figure pat00006
를 만족할 때의 포인트의 주변 윈도우 신호이다. 그리고, xy는 각각 x축 방향과 y축 방향의 픽셀 포인트이며,
Figure pat00007
는 통계적 기대 함수(Statistical expectation operator)로 정의된다. The feature point can be detected as follows. First, an input image consisting of k frames
Figure pat00003
With respect to the autocorrelation matrix
Figure pat00004
Calculate here,
Figure pat00005
Is { x , y }
Figure pat00006
The window signal around the point at which is satisfied. And x and y are pixel points in the x- and y- axis directions, respectively.
Figure pat00007
Is defined as a statistical expectation operator.

픽셀 포인트 {x,y}에서

Figure pat00008
를 통하여 계산된 고유치들 즉,
Figure pat00009
Figure pat00010
로부터, 텍스쳐 포인트 매트릭스
Figure pat00011
를 다음의 수학식 3과 같이 구할 수 있다. At pixel point { x , y }
Figure pat00008
Eigenvalues computed through
Figure pat00009
And
Figure pat00010
Texture point matrix
Figure pat00011
Can be obtained as in Equation 3 below.

Figure pat00012
Figure pat00012

여기서,

Figure pat00013
Figure pat00014
는 기 설정된 임계치에 해당한다. 상기 수학식 3에서 특정 픽셀 위치의
Figure pat00015
Figure pat00016
가 임계치
Figure pat00017
Figure pat00018
보다 큰 경우, 해당 특정 픽셀을 1로 정의한다. 그리고, 특정 픽셀 위치의
Figure pat00019
Figure pat00020
가 임계치
Figure pat00021
Figure pat00022
보다 작은 경우, 해당 특정 픽셀을 0으로 정의하여 텍스쳐 포인트 매트릭스를 구한다.
here,
Figure pat00013
And
Figure pat00014
Corresponds to a preset threshold. In Equation 3, a specific pixel position
Figure pat00015
And
Figure pat00016
Threshold
Figure pat00017
And
Figure pat00018
If it is larger, the specific pixel is defined as 1. And the specific pixel position
Figure pat00019
And
Figure pat00020
Threshold
Figure pat00021
And
Figure pat00022
If it is smaller, we define that particular pixel as 0 to get a texture point matrix.

그리고, 각 텍스쳐 신호를 정의하는 복수개의 시공간위치변환 변수 및 이에 대한 텍스쳐 신호는 다음의 수학식 4와 같이 정의될 수 있다. In addition, the plurality of space-time position transformation variables defining each texture signal and texture signals thereof may be defined as in Equation 4 below.

Figure pat00023
Figure pat00023

여기서,

Figure pat00024
는 다음의 수학식 5와 같이 정의될 수 있다.here,
Figure pat00024
May be defined as in Equation 5 below.

Figure pat00025
Figure pat00025

그리고, k개의 프레임으로 구성된 입력 영상

Figure pat00026
는 다음의 수학식 6과 같이, N개의 텍스쳐 신호의 합으로써 정의될 수 있다. And, the input image consisting of k frames
Figure pat00026
May be defined as the sum of the N texture signals, as shown in Equation 6 below.

Figure pat00027
Figure pat00027

또한, 상기의 수학식 6에서 i번째 분할된 텍스쳐 신호는 다음의 수학식 7과 같이 근사화하여 표현될 수 있다.In addition, the i- th partitioned texture signal in Equation 6 may be expressed by approximating Equation 7 below.

Figure pat00028
Figure pat00028

여기서,

Figure pat00029
는 변환 함수를,
Figure pat00030
은 입력 영상의 l번째 프레임의 i번째 분할된 텍스쳐 신호를,
Figure pat00031
는 x축 방향과 y축 방향의 위치변환 벡터를,
Figure pat00032
Figure pat00033
에서의 개략적인 추정 오류 신호를 나타낸다. 그리고, 수학식 7에서, 프레임 넘버 kk+1부터 l+M의 범위에 속한다. 수학식 5는 Taylor expansion에 의하여 다음의 수학식 8과 같이 근사화될 수 있다.here,
Figure pat00029
Is a conversion function,
Figure pat00030
Is the i- th partitioned texture signal of the l- th frame of the input image,
Figure pat00031
Is the displacement vector in the x- and y-axis directions,
Figure pat00032
Is
Figure pat00033
Shows a rough estimation error signal in. And, in equation (7), the frame number k is in the range of k + 1 to l + M. Equation 5 may be approximated by Equation 8 by Taylor expansion.

Figure pat00034
Figure pat00034

여기서,

Figure pat00035
Figure pat00036
각각은
Figure pat00037
의 x축 방향과 y축 방향의 경사도(Gradient value)의 합을 나타낸다. 그리고, 추정 오류 신호의 제곱합에 대한 정리는 다음의 수학식 9와 같이 나타낼 수 있다. here,
Figure pat00035
And
Figure pat00036
Each one
Figure pat00037
The sum of the gradient values in the x-axis direction and the y-axis direction of. The theorem for the sum of squares of the estimated error signals may be expressed as in Equation 9 below.

Figure pat00038
Figure pat00038

여기서, 추정 오류 신호의 제곱합인

Figure pat00039
크기의 최소화를 가정하여,
Figure pat00040
의 값을 구할 수 있다. 즉, 다음의 수학식 10 및 수학식 11을 계산하여,
Figure pat00041
의 값을 구한다.Where the sum of squares of the estimated error signals
Figure pat00039
Assuming minimization of size,
Figure pat00040
Can be found. That is, the following equations (10) and (11) are calculated,
Figure pat00041
Find the value of.

Figure pat00042
Figure pat00042

Figure pat00043
Figure pat00043

여기서,

Figure pat00044
가 항등변환(Identity transform)식임을 가정하면, 수학식 9와 수학식 10을 통해, 다음의 수학식 12를 얻을 수 있다.here,
Figure pat00044
Assuming that is an identity transform equation, the following equation 12 can be obtained through equations (9) and (10).

Figure pat00045
Figure pat00045

그리고, 수학식 12를 풀면,

Figure pat00046
에 대한 다음의 수학식 13을 얻을 수 있다.And, if you solve the equation (12),
Figure pat00046
The following equation (13) can be obtained.

Figure pat00047
Figure pat00047

그리고, 수학식 13을 통해 얻어진

Figure pat00048
및 수학식 11을 사용하여 다음의 수학식 13과 같은 변환함수
Figure pat00049
를 얻을 수 있다.And, obtained through the equation (13)
Figure pat00048
And a conversion function such as Equation 13 below using Equation 11
Figure pat00049
Can be obtained.

Figure pat00050
Figure pat00050

수학식 10 및 수학식 11을 정리하여,

Figure pat00051
의 변환함수
Figure pat00052
으로부터
Figure pat00053
를 얻을 수 있다. 그리고,
Figure pat00054
의 변환함수
Figure pat00055
으로부터
Figure pat00056
를 얻을 수 있다. 또한, 수학식 3 내지 수학식 14를 통해,
Figure pat00057
를 시드 신호
Figure pat00058
및 변환함수
Figure pat00059
로써 표현할 수 있다. 그리고,
Figure pat00060
간의 유사성을 계산하여 텍스쳐 신호의 근사화가 이루어질 수 있다.
To sum up Equation 10 and Equation 11,
Figure pat00051
Conversion function of
Figure pat00052
From
Figure pat00053
Can be obtained. And,
Figure pat00054
Conversion function of
Figure pat00055
From
Figure pat00056
Can be obtained. Further, through Equations 3 to 14,
Figure pat00057
Seeding signal
Figure pat00058
And conversion functions
Figure pat00059
Can be expressed as: And,
Figure pat00060
An approximation of the texture signal can be made by calculating the similarity between them.

이하에서는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의 디코딩 방법에 대하여 설명하도록 한다. Hereinafter, a decoding method of the multi-texture based signal processing method according to the present invention will be described.

도 3은 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 동작 흐름도이다. 도 4는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법에 있어서의, 디코딩의 방법을 설명하기 위한 도면이다.
3 is an operation flowchart for explaining a decoding method in a multi-texture based signal processing method according to the present invention. 4 is a view for explaining a decoding method in a multi-texture based signal processing method according to the present invention.

도 3 및 도 4를 참조하면, 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법의 디코딩 방법은 먼저, 압축된 신호를 입력받는다(S30). 이 때, 압축된 신호는 복수개의 텍스쳐 신호를 정의하는 복수개의 텍스쳐 블록 각각의 영상센서여기신호, 텍스쳐합성필터의 변수 및 각각의 텍스쳐 신호에 대응하는 복수개의 시공간위치변환 변수가 압축된 신호일 수 있다. 물론, 압축된 신호는 복수개의 근사화 텍스쳐 신호를 정의하는 복수개의 텍스쳐 블록 각각의 영상센서여기신호, 텍스쳐합성필터의 변수 및 복수개의 근사화 시공간위치변환 변수가 압축된 신호일 수도 있다. 또한, 압축된 신호에서, 영상센서여기신호, 텍스쳐합성필터의 변수 및 복수개의 시공간위치변환 변수는 비트스트림 압축 방식으로 압축되어 있을 수 있다. 3 and 4, the decoding method of the multi-texture based signal processing method according to the present invention first receives a compressed signal (S30). In this case, the compressed signal may be an image sensor excitation signal of each of a plurality of texture blocks defining a plurality of texture signals, a variable of a texture synthesis filter, and a signal of a plurality of spatiotemporal position conversion variables corresponding to each of the texture signals. . Of course, the compressed signal may be a signal obtained by compressing an image sensor excitation signal, a texture synthesis filter variable, and a plurality of approximated spatiotemporal position conversion variables of each of the plurality of texture blocks that define the plurality of approximated texture signals. Also, in the compressed signal, the image sensor excitation signal, the variable of the texture synthesis filter, and the plurality of spatiotemporal position conversion variables may be compressed by a bitstream compression method.

그리고, 압축된 신호를 압축 해제한다(S31). 즉, 압축된 영상센서여기신호, 텍스쳐합성필터의 변수와 각각의 텍스쳐 신호에 대응하는 복수개의 시공간위치변환 변수를 압축 해제한다.Then, the compressed signal is decompressed (S31). That is, the compressed image sensor excitation signal, the texture synthesis filter variable, and the plurality of space-time position conversion variables corresponding to each texture signal are decompressed.

그리고, 압축된 영상센서여기신호 및 텍스쳐합성필터의 변수를 이용하여 복수개의 텍스쳐 블록을 생성하고, 복수개의 텍스쳐 블록을 합하여 텍스쳐 신호를 생성한다(S32). 이 때의 텍스쳐 신호는 인코딩 과정에서 근사화된 텍스쳐 신호일 수 있다.Then, a plurality of texture blocks are generated using the compressed image sensor excitation signal and the variable of the texture synthesis filter, and a texture signal is generated by adding the plurality of texture blocks (S32). The texture signal at this time may be an approximated texture signal in the encoding process.

생성된 복수개의 텍스쳐 신호와 복수개의 시공간위치변환 변수에서, 각 텍스쳐 신호와 해당 텍스쳐 신호에 대응하는 시공간위치변환 변수를 일대일로 매칭한다(S33). 물론, 각 근사화 텍스쳐 신호와 해당 근사화 텍스쳐 신호에 대응하는 근사화 시공간위치변환 변수가 매칭될 수 있다. 도 4에서는, 제 1 근사화 텍스쳐 신호(211a')와 제 1 근사화 시공간위치변환 변수(211b')가 매칭되고, 제 2 근사화 텍스쳐 신호(213a')와 제 2 근사화 시공간위치변환 변수(213b')가 매칭되며, 제 N 근사화 텍스쳐 신호(Na')와 제 N 근사화 시공간위치변환 변수(Nb')가 매칭된다.In the generated plurality of texture signals and the plurality of space-time position transformation variables, the space-time position transformation variables corresponding to each texture signal and the corresponding texture signal are matched one-to-one (S33). Of course, each of the approximated texture signals and the approximated spatiotemporal position transformation variables corresponding to the corresponding approximated texture signals may be matched. In FIG. 4, the first approximation texture signal 211a 'and the first approximation spatiotemporal position transformation variable 211b' are matched, and the second approximation texture signal 213a 'and the second approximation spatiotemporal position transformation variable 213b'. Is matched, and the Nth approximated texture signal Na 'and the Nth approximated spatiotemporal position change variable Nb' are matched.

단계(S33)에서 매칭된 텍스쳐 신호와 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성한다(S34). 구체적으로, 텍스쳐 신호에 특징점들의 시간 대비 움직임 등을 정의한 시공간위치변환 변수를 적용하여, 해당 텍스쳐 신호에 대한 복수개의 프레임으로 구성된 비쥬얼 센서 텍스쳐를 생성한다. 물론, 매칭된 근사화 텍스쳐 신호와 근사화 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성할 수도 있다. 도 4에서는 제 1 근사화 텍스쳐 신호(211a')와 제 1 근사화 시공간위치변환 변수(211b')를 이용하여, 복수개의 프레임으로 구성된 제 1 비쥬얼 센서 텍스쳐(211)를 생성한다. 그리고, 제 2 근사화 텍스쳐 신호(213a')와 제 2 근사화 시공간위치변환 변수(213b')를 이용하여, 복수개의 프레임으로 구성된 제 2 비쥬얼 센서 텍스쳐(213)를 생성한다. 또한, 제 N 근사화 텍스쳐 신호(Na')와 제 N 근사화 시공간위치변환 변수(Nb')를 이용하여, 복수개의 프레임으로 구성된 제 N 비쥬얼 센서 텍스쳐(N)를 생성한다.In operation S33, a visual sensor texture is generated using the matched texture signal and the space-time position transformation variable in operation S34. Specifically, a visual sensor texture composed of a plurality of frames for the texture signal is generated by applying a spatiotemporal position change variable that defines a time-dependent movement of feature points to the texture signal. Of course, a visual sensor texture may be generated using a matched approximation texture signal and an approximation spatiotemporal position transformation variable. In FIG. 4, a first visual sensor texture 211 composed of a plurality of frames is generated by using the first approximated texture signal 211a 'and the first approximated spatiotemporal position change variable 211b'. Then, a second visual sensor texture 213 consisting of a plurality of frames is generated using the second approximation texture signal 213a 'and the second approximation spatiotemporal position change variable 213b'. Further, the Nth visual sensor texture N including the plurality of frames is generated using the Nth approximated texture signal Na 'and the Nth approximated spatiotemporal position change variable Nb'.

단계(S34)에서 각각의 텍스쳐 신호에 대응하여 생성된 비쥬얼 센서 텍스쳐들을 결합한다(S35). 비쥬얼 센서 텍스쳐들을 결합함으로써, 신호구성단위 신호의 복수개의 프레임이 전체적으로 복원된다. 도 4에서는 제 1 비쥬얼 센서 텍스쳐(211), 제 2 비쥬얼 센서 텍스쳐(213), 제 N 비쥬얼 센서 텍스쳐(N)가 결합된다. In operation S34, the visual sensor textures generated in correspondence with the respective texture signals are combined (S35). By combining the visual sensor textures, a plurality of frames of the signal component unit signal are totally reconstructed. In FIG. 4, the first visual sensor texture 211, the second visual sensor texture 213, and the Nth visual sensor texture N are combined.

단계(S35)에서 결합된 복수개의 비쥬얼 센서 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정한다(S36). 즉, 단계(S35)에서 결합된 복수개의 비쥬얼 센서 텍스쳐들은 단순합으로 복원된 것으로서, 비쥬얼 센서 텍스쳐들 간의 경계에서 결함이 발생할 수 있다. 이러한 결함에 대하여 제거 필터링 작업을 수행함으로써 보정된 복원 신호를 생성한다. Artifacts at the coupling boundary of the plurality of visual sensor textures combined at step S35 are filtered and corrected at step S36. That is, the plurality of visual sensor textures combined in step S35 are restored as a simple sum, and a defect may occur at a boundary between the visual sensor textures. The removal filtering operation is performed on these defects to generate a corrected recovery signal.

그리고, 단계(S36)를 통해 얻어진 신호구성단위의 복원 신호를 분해하여 최종적으로 복원 영상신호(201')와 복원 센서신호(202')를 생성한다(S37). 본 발명에서는 영상신호 및 센서신호를 포함하는 신호를 여기신호에 기반한 모델을 이용하여 표현하기 때문에 신호 분해가 가능하며 영상신호 및 센서신호 간에 교차추정(cross estimation)이 가능해 진다.
Then, the reconstruction signal of the signal structural unit obtained through step S36 is decomposed to finally generate a reconstruction image signal 201 'and a reconstruction sensor signal 202' (S37). In the present invention, since a signal including an image signal and a sensor signal is represented using a model based on an excitation signal, signal decomposition is possible and cross estimation between the image signal and the sensor signal is possible.

이하에서는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 장치의 구성 및 동작에 대하여 설명하도록 한다.Hereinafter will be described the configuration and operation of the multi-texture based signal processing apparatus according to the present invention.

도 5는 본 발명에 따른 다중 텍스쳐 기반 신호 처리 장치의 구성을 나타낸 블록도이다.
5 is a block diagram showing the configuration of a multi-texture based signal processing apparatus according to the present invention.

도 5를 참조하면, 본 발명에 따른 다중 텍스쳐 기반 신호 처리 장치(500)는 인코딩부(510) 및 디코딩부(520)를 포함하여 구성될 수 있다.
Referring to FIG. 5, the multi-texture based signal processing apparatus 500 according to the present invention may include an encoder 510 and a decoder 520.

인코딩부(510)는 시드 신호 선택부(511), 특징점 검출부(512), 변수 산출부(513), 텍스쳐 신호 정의부(514) 및 텍스쳐 블록 정의부(516)를 포함하여 구성된다. 또한, 인코딩부(510)는 근사화부(515) 및 압축부(517)를 더 포함하여 구성될 수 있다. The encoder 510 includes a seed signal selector 511, a feature point detector 512, a variable calculator 513, a texture signal definer 514, and a texture block definer 516. Also, the encoding unit 510 may further include an approximation unit 515 and a compression unit 517.

시드 신호 선택부(511)는 입력 받은 신호를 신호구성단위 신호로 분류하고, 신호구성단위 신호의 복수개의 프레임 중의 한 프레임을 시드 신호로 선택한다. 그리고, 시드 신호 선택부(511)는 신호구성단위 신호의 시드 신호를 제외한 나머지 프레임은 잔여 프레임 신호로 정의한다. 즉, 시드 신호 선택부(511)는 신호구성단위 신호가 k 개의 프레임으로 구성되어 있을 때, 1 개의 시드 신호를 선택하고, 나머지 k-1 개의 프레임을 잔여 프레임 신호(220)로 정의한다. 이 때, 신호구성단위 신호는 해당 신호를 구성하는 신호를 의미한다.특징점 검출부(512)는 시드 신호 선택부(511)에서 선택된 시드 신호에서 복수개의 특징점을 검출한다. 이 때, 특징점 검출부(512)는 신호구성단위 신호의 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 특징점으로 검출할 수 있다. 즉, 특징점 검출부(512)는 시드 신호 및 잔여 프레임 신호에서 특정 포인트가 기 설정된 수치 이상의 변화를 보인다면, 해당 특정 포인트를 특징점으로 검출할 수 있다. The seed signal selector 511 classifies the received signal into a signal component unit signal, and selects one frame among a plurality of frames of the signal component unit signal as a seed signal. The seed signal selector 511 defines the remaining frames except the seed signal of the signal component unit signal as the remaining frame signal. That is, the seed signal selector 511 selects one seed signal when the signal configuration unit signal is composed of k frames, and defines the remaining k-1 frames as the remaining frame signal 220. In this case, the signal configuration unit signal refers to a signal constituting the corresponding signal. The feature point detector 512 detects a plurality of feature points from the seed signal selected by the seed signal selector 511. In this case, the feature point detector 512 may detect, as a feature point, a point having a change amount equal to or greater than a predetermined value in a plurality of frames of the signal component unit signal. That is, the feature point detector 512 may detect the specific point as the feature point if the specific point in the seed signal and the remaining frame signal changes more than a predetermined value.

변수 산출부(513)는 신호구성단위 신호의 복수개의 프레임에서 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출한다. 즉, 변수 산출부(513)는 시드 신호 및 잔여 프레임 신호에서 특징점의 변화를 정의하는 시공간위치변환 변수를 산출한다. 시공간위치변환 변수는 특징점의 시간에 따른 위치의 변화량 등을 나타내는 함수의 형태일 수 있다.The variable calculator 513 tracks a plurality of feature points in a plurality of frames of the signal component unit signal, and calculates a space-time position conversion variable for each feature point. That is, the variable calculator 513 calculates a spatiotemporal position change variable that defines a change of feature points in the seed signal and the remaining frame signal. The space-time position transformation variable may be in the form of a function indicating an amount of change of the position of the feature point over time.

텍스쳐 신호 정의부(514)는 변수 산출부(513)에서 산출된 시공간위치변환 변수가 상호 대응되는 특징점들을 이용하여 복수개의 텍스쳐 신호를 정의한다. 이 때, 텍스쳐 신호 정의부(514)는 시공간위치변환 변수가 상호 동일한 특징점들을 연계하여 하나의 텍스쳐 신호를 정의할 수 있다. The texture signal definition unit 514 defines a plurality of texture signals using feature points to which the spatiotemporal position conversion variables calculated by the variable calculator 513 correspond to each other. In this case, the texture signal defining unit 514 may define one texture signal by linking feature points having the same space-time position transformation variables.

근사화부(515)는 복수개의 텍스쳐 신호에 있어서, 유사한 시공간위치변환 변수를 갖는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합쳐서 근사화한다. 즉, 근사화부(515)는 복수개의 텍스쳐 신호와 복수개의 시공간위치변환 변수가 근사화된 복수개의 근사화 텍스쳐 신호와 복수개의 근사화 시공간위치변환 변수를 생성할 수 있다. 이 때, 근사화부(515)는 시공간위치변환 변수 간의 유사성을 텍스쳐 신호 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산할 수 있다. 그리고, 근사화부(515)는 시공간위치변환 변수간의 유사성이 기 설정된 임계치 이내의 값들을 가지는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합칠 수 있다. The approximation unit 515 approximates a plurality of texture signals by combining texture signals having similar spatiotemporal position transformation variables into one texture signal. That is, the approximation unit 515 may generate a plurality of approximated texture signals and a plurality of approximated spatiotemporal position transformation variables to which the plurality of texture signals and the plurality of spatiotemporal position transformation variables are approximated. In this case, the approximation unit 515 may calculate the similarity between the spatiotemporal position transformation variables by obtaining correlation characteristics of the texture signal signals. In addition, the approximation unit 515 may combine texture signals having similarities between the spatiotemporal position transformation variables having values within a preset threshold into one texture signal.

텍스쳐 블록 정의부(516)는 복수개의 텍스쳐 신호 각각을 복수개의 텍스쳐 블록의 합으로 정의한다. 이 때, 텍스쳐 블록은 영상센서여기신호를 입력으로 한 텍스쳐합성필터의 출력으로 정의될 수 있다. 그리고, 영상센서여기신호는 2차원 가우시안 함수로 표현될 수 있다. 물론, 텍스쳐 블록 정의부(516)는 복수개의 근사화 텍스쳐 신호 각각을 복수개의 텍스쳐 블록의 합으로 정의할 수 있다.The texture block definition unit 516 defines each of the plurality of texture signals as the sum of the plurality of texture blocks. In this case, the texture block may be defined as an output of the texture synthesis filter that receives the image sensor excitation signal. The image sensor excitation signal may be represented by a two-dimensional Gaussian function. Of course, the texture block definition unit 516 may define each of the plurality of approximated texture signals as the sum of the plurality of texture blocks.

압축부(517)는 영상센서여기신호 및 텍스쳐합성필터의 변수 및 각각의 텍스쳐 신호에 대응하는 복수개의 시공간위치변환 변수를 압축한다. 물론, 압축부(517)는 복수개의 근사화 텍스쳐 신호의 영상센서여기신호, 텍스쳐합성필터의 변수 및 복수개의 근사화 시공간위치변환 변수를 압축할 수 있다.
The compression unit 517 compresses the image sensor excitation signal, the texture of the texture synthesis filter, and the plurality of space-time position conversion variables corresponding to each texture signal. Of course, the compression unit 517 may compress the image sensor excitation signal of the plurality of approximated texture signals, the variables of the texture synthesis filter, and the plurality of approximated spatiotemporal position conversion variables.

디코딩부(520)는 압축 해제부(521), 텍스쳐 신호 생성부(522), 매칭부(523), 비쥬얼 센서 텍스쳐 생성부(524) 및 비쥬얼 센서 텍스쳐 결합부(525)를 포함하여 구성된다. 또한, 디코딩부(520)는 보정부(526)를 더 포함하여 구성될 수 있다. The decoder 520 includes a decompressor 521, a texture signal generator 522, a matcher 523, a visual sensor texture generator 524, and a visual sensor texture combiner 525. In addition, the decoder 520 may further include a corrector 526.

압축 해제부(521)는 인코딩부(510)에서 압축된 신호를 입력받아, 해당 압축된 신호를 압축 해제한다. 압축 해제부(521)는 압축된 복수개의 텍스쳐 신호 각각을 정의하는 영상센서여기신호 및 텍스쳐합성필터의 변수 그리고, 각각의 텍스쳐 신호에 대응하는 복수개의 시공간위치변환 변수를 압축 해제한다. The decompressor 521 receives the compressed signal from the encoder 510 and decompresses the compressed signal. The decompressor 521 decompresses the image sensor excitation signal and the texture synthesis filter variable that define each of the plurality of compressed texture signals, and the plurality of spatiotemporal position change variables corresponding to each texture signal.

텍스쳐 신호 생성부(522)는 영상센서여기신호 및 텍스쳐합성필터의 변수를 이용하여 복수개의 텍스쳐 블록을 생성하고, 복수개의 텍스쳐 블록을 합하여 텍스쳐 신호를 생성한다.The texture signal generator 522 generates a plurality of texture blocks using the image sensor excitation signal and the variable of the texture synthesis filter, and generates a texture signal by adding the plurality of texture blocks.

매칭부(523)는 텍스쳐 신호 생성부(522)에서 생성된 텍스쳐 신호와 복수개의 시공간위치변환 변수에서, 각 텍스쳐 신호와 해당 텍스쳐 신호에 대응하는 시공간위치변환 변수를 일대일로 매칭한다. 물론, 매칭부(523)는 각 근사화 텍스쳐 신호와 해당 근사화 텍스쳐 신호에 대응하는 근사화 시공간위치변환 변수를 매칭할 수 있다. The matching unit 523 matches the texture signal generated by the texture signal generation unit 522 and the space time position conversion variables corresponding to each texture signal and the corresponding texture signal in a one-to-one correspondence. Of course, the matching unit 523 may match the approximated spatiotemporal position transformation variable corresponding to each approximated texture signal and the corresponding approximated texture signal.

비쥬얼 센서 텍스쳐 생성부(524)는 매칭된 텍스쳐 신호와 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성한다. 구체적으로, 비쥬얼 센서 텍스쳐 생성부(524)는 텍스쳐 신호에 특징점들의 시간 대비 움직임 등을 정의한 시공간위치변환 변수를 적용하여, 해당 텍스쳐 신호에 대한 복수개의 프레임으로 구성된 비쥬얼 센서 텍스쳐를 생성한다. 물론, 비쥬얼 센서 텍스쳐 생성부(524)는 매칭된 근사화 텍스쳐 신호와 근사화 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성할 수도 있다. The visual sensor texture generator 524 generates a visual sensor texture using the matched texture signal and the space-time position transformation variable. In detail, the visual sensor texture generation unit 524 generates a visual sensor texture composed of a plurality of frames for the texture signal by applying a spatiotemporal position transformation variable that defines a time-dependent movement of feature points, etc., to the texture signal. Of course, the visual sensor texture generator 524 may generate a visual sensor texture by using the matched approximation texture signal and the approximated spatiotemporal position transformation variable.

비쥬얼 센서 텍스쳐 결합부(525)는 비쥬얼 센서 텍스쳐 생성부(524)에 의하여 각각의 텍스쳐 신호에 대응하여 생성된 비쥬얼 센서 텍스쳐들을 결합한다. 비쥬얼 센서 텍스쳐들을 결합함으로써, 신호구성단위 신호의 복수개의 프레임이 전체적으로 복원된다. The visual sensor texture combiner 525 combines the visual sensor textures generated by the visual sensor texture generator 524 corresponding to each texture signal. By combining the visual sensor textures, a plurality of frames of the signal component unit signal are totally reconstructed.

보정부(526)는 결합된 복수개의 비쥬얼 센서 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정한다. 즉, 비쥬얼 센서 텍스쳐 결합부(525)에 의하여 결합된 복수개의 비쥬얼 센서 텍스쳐들은 단순합으로 복원된 것으로서, 비쥬얼 센서 텍스쳐들 간의 경계에서 결함이 발생할 수 있다. 보정부(526)는 이러한 결함에 대하여 제거 필터링 작업을 수행함으로써 보정된 복원 신호를 생성한다.The correction unit 526 filters and corrects artifacts at the coupling boundary of the plurality of combined visual sensor textures. That is, the plurality of visual sensor textures combined by the visual sensor texture combiner 525 are simply restored as a combination, and a defect may occur at a boundary between the visual sensor textures. The correction unit 526 generates a corrected reconstruction signal by performing removal filtering on the defect.

분해부(527)는 보정부(526)에 의하여 얻어진 신호구성단위의 복원 신호를 분해하여 최종적으로 복원 영상신호와 복원 센서신호를 생성한다. 본 발명에서는 영상신호 및 센서신호를 포함하는 신호를 여기신호에 기반한 모델을 이용하여 표현하기 때문에 신호 분해가 가능하며 영상신호 및 센서신호 간에 교차추정(cross estimation)이 가능해 진다.
The decomposing unit 527 decomposes the reconstruction signal of the signal structural unit obtained by the correction unit 526, and finally generates a reconstructed image signal and a reconstruction sensor signal. In the present invention, since a signal including an image signal and a sensor signal is represented using a model based on an excitation signal, signal decomposition is possible and cross estimation between the image signal and the sensor signal is possible.

이상에서와 같이 본 발명에 따른 다중 텍스쳐 기반 신호 처리 방법 및 장치는 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the multiple texture-based signal processing method and apparatus according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments may be modified in various ways so that various modifications may be made. All or part of the examples may be optionally combined.

500; 다중 텍스쳐 기반 신호 처리 장치
510; 인코딩부
511; 시드 신호 선택부 512; 특징점 검출부
513; 변수 산출부 514; 텍스쳐 신호 정의부
515; 근사화부 516; 텍스쳐 블록 정의부
517; 압축부
520; 디코딩부
521; 압축 해제부 522; 텍스쳐 신호 생성부
523; 매칭부 523; 비쥬얼 센서 텍스쳐 생성부
524; 비쥬얼 센서 텍스쳐 결합부 525; 보정부
500; Multi-texture based signal processing device
510; Encoding Section
511; Seed signal selector 512; Feature point detector
513; Variable calculator 514; Texture Signal Definition
515; Approximation section 516; Texture block definition
517; Compression part
520; Decoding unit
521; Decompression unit 522; Texture Signal Generator
523; A matching unit 523; Visual sensor texture generator
524; Visual sensor texture coupler 525; Compensator

Claims (18)

입력되는 영상신호 및 센서신호를 포함하는 신호를 신호구성단위 신호로 분류하고, 상기 신호구성단위 신호의 복수개의 프레임 중의 한 프레임을 시드 신호로 선택하는 단계;
상기 시드 신호에서 복수개의 특징점을 검출하는 단계;
상기 신호구성단위 신호의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 단계;
상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 신호를 정의하는 단계; 및
상기 복수개의 텍스쳐 신호 각각을, 영상센서여기신호를 입력으로 한 텍스쳐합성필터의 출력인 복수개의 텍스쳐 블록의 합으로 정의하는 단계를 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
Classifying a signal including an input image signal and a sensor signal into a signal component unit signal, and selecting one frame among a plurality of frames of the signal component unit signal as a seed signal;
Detecting a plurality of feature points in the seed signal;
Calculating space-time position transformation variables for each of the feature points by tracking the plurality of feature points in the plurality of frames of the signal configuration unit signal;
Defining a plurality of texture signals using feature points corresponding to the spatiotemporal position transformation variables; And
And defining each of the plurality of texture signals as a sum of a plurality of texture blocks which are outputs of a texture synthesis filter having an image sensor excitation signal as an input.
청구항 1에 있어서,
상기 영상센서여기신호는 2차원 가우시안 함수로 표현되는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
The method according to claim 1,
The image sensor excitation signal is a multiple texture-based signal processing method, characterized in that represented by a two-dimensional Gaussian function.
청구항 1에 있어서,
상기 복수개의 텍스쳐 신호를 정의하는 상기 복수개의 텍스쳐 블록 각각의 상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수 및 상기 복수개의 텍스쳐 신호 각각에 대응하는 시공간위치변환 변수를 압축하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
The method according to claim 1,
Compressing the image sensor excitation signal of each of the plurality of texture blocks defining the plurality of texture signals, the variable of the texture synthesis filter, and the spatiotemporal position conversion variable corresponding to each of the plurality of texture signals. Characterized by the multiple texture-based signal processing method.
청구항 3에 있어서,
상기 압축하는 단계는,
상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수 및 상기 시공간위치변환 변수를 비트스트림 압축 방식으로 압축하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
The method according to claim 3,
The compressing step,
And compressing the image sensor excitation signal, the texture synthesis filter variable, and the space-time position conversion variable by a bitstream compression method.
청구항 1에 있어서
상기 복수개의 텍스쳐 신호에 있어서, 텍스쳐 신호 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합쳐서 근사화하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
Claim 1
In the plurality of texture signals, approximating the texture signals having spatio-temporal position transformation variables having similar values calculated by obtaining correlation characteristics of the texture signal signals with values within a preset threshold, into one texture signal. The multi-texture-based signal processing method further comprising the step.
청구항 1에 있어서,
상기 복수개의 특징점을 검출하는 단계는,
상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
The method according to claim 1,
Detecting the plurality of feature points,
And detecting a point having a change amount greater than or equal to a predetermined value as the feature point in the plurality of frames.
청구항 3에 있어서,
압축된 상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수와 상기 각각의 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 단계;
상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수를 이용하여 상기 복수개의 텍스쳐 블록을 생성하고, 상기 복수개의 텍스쳐 블록을 합하여 상기 텍스쳐 신호를 생성하는 단계;
상기 텍스쳐 신호와 상기 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 매칭하는 단계;
상기 텍스쳐 신호와 상기 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성하는 단계; 및
상기 각각의 텍스쳐 신호에 대응하여 생성된 비쥬얼 센서 텍스쳐들을 결합하여 복원 신호를 생성하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
The method according to claim 3,
Decompressing the compressed image sensor excitation signal, the variable of the texture synthesis filter, and the space-time position conversion variable corresponding to each of the texture signals;
Generating the plurality of texture blocks using the image sensor excitation signal and the variables of the texture synthesis filter, and generating the texture signal by adding the plurality of texture blocks;
Matching the space signal with the space-time displacement variable corresponding to the texture signal;
Generating a visual sensor texture using the texture signal and the spatiotemporal position transformation variable; And
And combining the visual sensor textures generated in response to the respective texture signals to generate a reconstruction signal.
청구항 7에 있어서,
상기 비쥬얼 센서 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 상기 복원 신호를 보정하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
The method according to claim 7,
And correcting the reconstruction signal by filtering artifacts at the combined boundary of the visual sensor textures.
청구항 7에 있어서,
상기 복원 신호를 복원 영상신호와 복원 센서신호로 분해하는 단계를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 방법.
The method according to claim 7,
And decomposing the reconstruction signal into a reconstruction image signal and a reconstruction sensor signal.
입력되는 영상신호 및 센서신호를 포함하는 신호를 신호구성단위 신호로 분류하고, 상기 신호구성단위 신호의 복수개의 프레임 중의 한 프레임을 시드 신호로 선택하는 시드 신호 선택부;
상기 시드 신호에서 복수개의 특징점을 검출하는 특징점 검출부;
상기 신호구성단위 신호의 상기 복수개의 프레임에서, 상기 복수개의 특징점을 추적하여 특징점 각각에 대한 시공간위치변환 변수를 산출하는 변수 산출부;
상기 시공간위치변환 변수가 대응되는 특징점들을 이용하여 복수개의 텍스쳐 신호를 정의하는 텍스쳐 신호 정의부; 및
상기 복수개의 텍스쳐 신호 각각을, 영상센서여기신호를 입력으로 한 텍스쳐합성필터의 출력인 복수개의 텍스쳐 블록의 합으로 정의하는 텍스쳐 블록 정의부를 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
A seed signal selecting unit classifying a signal including an input image signal and a sensor signal into a signal component unit signal, and selecting one frame among a plurality of frames of the signal component unit signal as a seed signal;
A feature point detector for detecting a plurality of feature points from the seed signal;
A variable calculator configured to track the plurality of feature points in the plurality of frames of the signal configuration unit signal and calculate a space-time position conversion variable for each feature point;
A texture signal definition unit defining a plurality of texture signals using feature points corresponding to the spatiotemporal position conversion variables; And
And a texture block definition unit defining each of the plurality of texture signals as a sum of a plurality of texture blocks which are outputs of a texture synthesis filter having an image sensor excitation signal as an input.
청구항 10에 있어서,
상기 영상센서여기신호는 2차원 가우시안 함수로 표현되는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method according to claim 10,
The image sensor excitation signal is a multiple texture-based signal processing device, characterized in that represented by a two-dimensional Gaussian box.
청구항 10에 있어서,
상기 복수개의 텍스쳐 신호를 정의하는 상기 복수개의 텍스쳐 블록 각각의 상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수 및 상기 복수개의 텍스쳐 신호 각각에 대응하는 시공간위치변환 변수를 압축하는 압축부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method according to claim 10,
And a compression unit configured to compress the image sensor excitation signal of each of the plurality of texture blocks defining the plurality of texture signals, a variable of the texture synthesis filter, and a spatiotemporal position change variable corresponding to each of the plurality of texture signals. Characterized by the multiple texture-based signal processing device.
청구항 12에 있어서,
상기 압축부는,
상기 영상센서여기신호, 상기 텍스쳐합성필터의 변수 및 상기 시공간위치변환 변수를 비트스트림 압축 방식으로 압축하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method of claim 12,
The compression unit,
And the image sensor excitation signal, the variable of the texture synthesis filter, and the space-time position conversion variable are compressed by a bitstream compression method.
청구항 10에 있어서,
상기 복수개의 텍스쳐 신호에 있어서, 텍스쳐 신호 신호의 상관관계(correlation) 특성을 얻어냄으로써 계산된 유사성이 기 설정된 임계치 이내의 값들을 가지는 시공간위치변환 변수들을 갖는 텍스쳐 신호들을 하나의 텍스쳐 신호로 합쳐서 근사화하는 근사화부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method according to claim 10,
In the plurality of texture signals, approximating the texture signals having spatio-temporal position transformation variables having similar values calculated by obtaining correlation characteristics of the texture signal signals with values within a preset threshold, into one texture signal. Multiple texture based signal processing apparatus further comprising an approximation unit.
청구항 10에 있어서,
상기 특징점 검출부는,
상기 복수개의 프레임에 있어서, 기 설정된 수치 이상의 변화량을 갖는 포인트를 상기 특징점으로 검출하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method according to claim 10,
The feature point detector,
The plurality of texture-based signal processing device, characterized in that for detecting the point having a change amount greater than a predetermined value as the feature point.
청구항 12에 있어서,
압축된 상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수와 상기 각각의 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 압축 해제하는 압축 해제부;
상기 영상센서여기신호 및 상기 텍스쳐합성필터의 변수를 이용하여 상기 복수개의 텍스쳐 블록을 생성하고, 상기 복수개의 텍스쳐 블록을 합하여 상기 텍스쳐 신호를 생성하는 텍스쳐 신호 생성부;
상기 텍스쳐 신호와 상기 텍스쳐 신호에 대응하는 상기 시공간위치변환 변수를 매칭하는 매칭부;
상기 텍스쳐 신호와 상기 시공간위치변환 변수를 이용하여 비쥬얼 센서 텍스쳐를 생성하는 비쥬얼 센서 텍스쳐 생성부; 및
상기 각각의 텍스쳐 신호에 대응하여 생성된 비쥬얼 센서 텍스쳐들을 결합하는 비쥬얼 센서 텍스쳐 결합부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method of claim 12,
A decompression unit for decompressing the compressed image sensor excitation signal, the variable of the texture synthesis filter, and the space-time position conversion variable corresponding to each of the texture signals;
A texture signal generator configured to generate the plurality of texture blocks using the image sensor excitation signal and the variables of the texture synthesis filter, and generate the texture signal by adding the plurality of texture blocks;
A matching unit matching the texture signal and the space-time position conversion variable corresponding to the texture signal;
A visual sensor texture generation unit configured to generate a visual sensor texture using the texture signal and the spatiotemporal position transformation variable; And
And a visual sensor texture combiner for combining the visual sensor textures generated in correspondence with the respective texture signals.
청구항 16에 있어서,
상기 비쥬얼 센서 텍스쳐들의 결합 경계에서의 결함(Artifact)을 필터링하여 보정하는 보정부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method according to claim 16,
And a correction unit for filtering and correcting artifacts at the combined boundary of the visual sensor textures.
청구항 16에 있어서,
상기 복원 신호를 복원 영상신호와 복원 센서신호로 분해하는 분해부를 더 포함하는 것을 특징으로 하는 다중 텍스쳐 기반 신호 처리 장치.
The method according to claim 16,
And a decomposition unit for decomposing the reconstruction signal into a reconstruction image signal and a reconstruction sensor signal.
KR1020110083624A 2010-09-01 2011-08-22 Signal processing method and apparatus based on multiple texture using video sensor excitation signal KR101469515B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/222,609 US8848800B2 (en) 2010-09-01 2011-08-31 Signal processing method and apparatus based on multiple textures using video sensor excitation signals

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100085608 2010-09-01
KR20100085608 2010-09-01

Publications (2)

Publication Number Publication Date
KR20120022651A true KR20120022651A (en) 2012-03-12
KR101469515B1 KR101469515B1 (en) 2014-12-05

Family

ID=46130656

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110083624A KR101469515B1 (en) 2010-09-01 2011-08-22 Signal processing method and apparatus based on multiple texture using video sensor excitation signal

Country Status (1)

Country Link
KR (1) KR101469515B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101469513B1 (en) * 2010-09-01 2014-12-05 한국전자통신연구원 Video processing method and apparatus based on multiple texture image using video excitation signal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10310023A1 (en) * 2003-02-28 2004-09-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and arrangement for video coding, the video coding comprising texture analysis and texture synthesis, as well as a corresponding computer program and a corresponding computer-readable storage medium
KR101381600B1 (en) * 2006-12-20 2014-04-04 삼성전자주식회사 Method and apparatus for encoding and decoding using texture synthesis
KR101469513B1 (en) * 2010-09-01 2014-12-05 한국전자통신연구원 Video processing method and apparatus based on multiple texture image using video excitation signal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101469513B1 (en) * 2010-09-01 2014-12-05 한국전자통신연구원 Video processing method and apparatus based on multiple texture image using video excitation signal

Also Published As

Publication number Publication date
KR101469515B1 (en) 2014-12-05

Similar Documents

Publication Publication Date Title
Moorthy et al. Efficient motion weighted spatio-temporal video SSIM index
KR101073535B1 (en) System and method for encoding and decoding enhancement layer data using descriptive model parameters
CN101371583A (en) High dynamic range codecs
JPH08307874A (en) Video signal encoding device
JP2009501479A (en) Image coder for texture areas
US20120093227A1 (en) Data compression method and data compression device
KR20120022651A (en) Signal processing method and apparatus based on multiple texture using video sensor excitation signal
Zhang et al. Quality assessment methods for perceptual video compression
KR101469513B1 (en) Video processing method and apparatus based on multiple texture image using video excitation signal
US8811477B2 (en) Video processing method and apparatus based on multiple texture images using video excitation signals
Maalouf et al. A no-reference color video quality metric based on a 3D multispectral wavelet transform
KR101527369B1 (en) Signal processing method and apparatus based on multiple texture using video audio excitation signal
KR101481451B1 (en) Method and apparatus for image processing based on multiple texture image
Al-Salhi et al. New steganography scheme to conceal a large amount of secret messages using an improved-AMBTC algorithm based on hybrid adaptive neural networks
Sun et al. Non-causal temporal prior for video deblocking
US8848800B2 (en) Signal processing method and apparatus based on multiple textures using video sensor excitation signals
US8842738B2 (en) Signal processing method and apparatus based on multiple textures using video audio excitation signals
JP2016082395A (en) Encoder, coding method and program
Jindal et al. Lossless image compression for storage reduction using pollination based optimization
Amor et al. A block artifact distortion measure for no reference video quality evaluation
Ding et al. CARNet: Compression Artifact Reduction for Point Cloud Attribute
Zemliachenko et al. Peculiarities of hyperspectral image lossy compression for sub-band groups
JP7453561B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, and program
Manchanda et al. Channel noise reduction for compressed images using singular value decomposition
US8831094B2 (en) Video processing method and apparatus based on multiple texture images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee